
樓+ 之機(jī)器學(xué)習(xí)培訓(xùn)
1 監(jiān)督學(xué)習(xí)回歸算法
2 無監(jiān)督學(xué)習(xí)聚類算法
3 自動(dòng)化機(jī)器學(xué)習(xí)
4 監(jiān)督學(xué)習(xí)分類算法
5 模型訓(xùn)練、部署和評(píng)價(jià)
6 項(xiàng)目挑戰(zhàn)比賽
1 課程技能準(zhǔn)備
課程須知和先學(xué)內(nèi)容
課程內(nèi)容介紹與導(dǎo)學(xué)
2 監(jiān)督學(xué)習(xí)回歸方法
機(jī)器學(xué)習(xí)綜述及示例
1.機(jī)器學(xué)習(xí)介紹
2.監(jiān)督學(xué)習(xí)介紹
3.無監(jiān)督學(xué)習(xí)介紹
2
線性回歸實(shí)現(xiàn)與應(yīng)用
1.一元線性回歸
2.平方損失函數(shù)
3.小二乘法及代數(shù)求解
4.線性回歸實(shí)現(xiàn)
5.小二乘法的矩陣推導(dǎo)
1
住房價(jià)格預(yù)測(cè)
1.數(shù)據(jù)集讀取與劃分
2.模型訓(xùn)練及預(yù)測(cè)
3.模型評(píng)價(jià)
3
多項(xiàng)式回歸實(shí)現(xiàn)與應(yīng)用
1.多項(xiàng)式回歸介紹
2.多項(xiàng)式回歸基礎(chǔ)
3.多項(xiàng)式回歸預(yù)測(cè)
2
比特幣價(jià)格預(yù)測(cè)及繪圖
1.數(shù)據(jù)準(zhǔn)備
2.3次多項(xiàng)式回歸預(yù)測(cè)挑戰(zhàn)
3.N次多項(xiàng)式回歸預(yù)測(cè)繪圖
4
嶺回歸和 LASSO 回歸實(shí)現(xiàn)
1.普通小二乘法的局限性
2.希爾伯特矩陣OLS線性擬合
3.嶺回歸
4.LASSO回歸
3
使用矩陣計(jì)算嶺回歸系數(shù)
1.使用Python計(jì)算嶺回歸系數(shù)
2.使用scikitlearn計(jì)算嶺回歸系數(shù)
5
回歸模型評(píng)價(jià)與檢驗(yàn)
1.擬合優(yōu)度檢驗(yàn)
2.變量顯著性檢驗(yàn)
4
回歸方法綜合實(shí)踐應(yīng)用
1.一元線性回歸
2.多元線性回歸
3.假設(shè)檢驗(yàn)
6
邏輯回歸實(shí)現(xiàn)與應(yīng)用
1.線性可分和不可分
2.Sigmoid分布函數(shù)
3.邏輯回歸模型
4.對(duì)數(shù)損失函數(shù)
5.梯度下降法
5
梯度下降法實(shí)現(xiàn)與應(yīng)用
1.小二乘法求解線性回歸參數(shù)
2.梯度下降法求解線性回歸參數(shù)
7
K-近鄰算法實(shí)現(xiàn)與應(yīng)用
1.近鄰算法
2.K近鄰算法
3.決策規(guī)則
4.KNN算法實(shí)現(xiàn)
6
K-近鄰回歸算法實(shí)現(xiàn)及應(yīng)用
1.K近鄰回歸介紹
2.K近鄰回歸實(shí)現(xiàn)
8
樸素貝葉斯實(shí)現(xiàn)與應(yīng)用
1.條件概率
2.貝葉斯定理
3.樸素貝葉斯原理
4.樸素貝葉斯算法實(shí)現(xiàn)
5.極大似然估計(jì)
7
高斯分布函數(shù)實(shí)現(xiàn)及繪圖
1.高斯分布公式
2.高斯分布函數(shù)
9
分類模型評(píng)價(jià)方法
1.準(zhǔn)確率
2.查準(zhǔn)率
3.召回率
4.F1值
5.ROC曲線
支持向量機(jī)實(shí)現(xiàn)與應(yīng)用
1.線性分類支持向量機(jī)
2.拉格朗日對(duì)偶性
3.線性支持向量機(jī)分類實(shí)現(xiàn)
4.非線性分類支持向量機(jī)
5.核技巧與核函數(shù)
8
支持向量機(jī)實(shí)現(xiàn)人像分類
1.圖像數(shù)據(jù)預(yù)處理
2.支持向量機(jī)分類
11
決策樹實(shí)現(xiàn)與應(yīng)用
1.決策樹算法原理
2.信息增益
3.決策樹算法實(shí)現(xiàn)
4.學(xué)生成績分類預(yù)測(cè)
5.決策樹可視化
9
決策樹模型參數(shù)優(yōu)化及選擇
1.CART決策樹分類
2.網(wǎng)格搜索參數(shù)選擇
12
裝袋和提升集成學(xué)習(xí)方法
1.集成學(xué)習(xí)概念
2.裝袋算法Bagging
3.隨機(jī)森林RandomForest
4.提升算法Boosting
5.梯度提升樹GBDT
10
異質(zhì)集成投票方法應(yīng)用
1.CART決策樹分類
2.網(wǎng)格搜索參數(shù)選擇
11
使用交叉驗(yàn)證快速選擇模型
1.K折交叉驗(yàn)證
2.K折子集均分
3.鮑魚年齡分類
13
劃分聚類方法實(shí)現(xiàn)與應(yīng)用
1.劃分聚類介紹
2.KMeans聚類方法
3.中心點(diǎn)移動(dòng)過程可視化
4.KMeans算法實(shí)現(xiàn)
12
使用 K-Means 完成圖像壓縮
1.圖像壓縮
2.MiniBatchKMeans聚類
14
層次聚類方法實(shí)現(xiàn)與應(yīng)用
1.層次聚類方法概述
2.自底向上層次聚類法
3.自頂向下層次聚類法
4.BIRCH聚類算法
5.PCA主成分分析
15
主成分分析原理及應(yīng)用
1.向量的基
2.向量映射
3.方差和協(xié)方差
4.特征值和特征向量
5.主成分分析計(jì)算
13
層次聚類應(yīng)用及聚類樹繪制
1.層次聚類
2.修剪層次聚類二叉樹
實(shí)驗(yàn) 16
密度聚類方法實(shí)現(xiàn)與應(yīng)用
1.DBSCAN密度聚類算法
2.DBSCAN聚類算法實(shí)現(xiàn)
3.HDBSCAN聚類算法
挑戰(zhàn) 14
密度聚類標(biāo)記異常共享單車
知識(shí)點(diǎn): 1.DBSCAN參數(shù)確定 2.HDBSCAN聚類
17
譜聚類及其他聚類方法應(yīng)用
1.譜聚類
2.拉普拉斯矩陣
3.無向圖切圖
4.親和傳播聚類
5.MeanShift
15
常用聚類算法對(duì)比評(píng)估
1.算法對(duì)數(shù)據(jù)形狀的適應(yīng)性
2.相同條件下的算法效率
自動(dòng)化機(jī)器學(xué)習(xí)綜述
1.自動(dòng)化機(jī)器學(xué)習(xí)概念
2.自動(dòng)化機(jī)器學(xué)習(xí)目標(biāo)
19
自動(dòng)化機(jī)器學(xué)習(xí)實(shí)踐應(yīng)用
1.autosklearn框架介紹
2.自動(dòng)化分類和回歸算法
3.自動(dòng)化機(jī)器學(xué)習(xí)的優(yōu)劣
16
AutoML 完成手寫字符分類
1.MNIST手寫字符分類
2.autosklearn框架應(yīng)用
20
機(jī)器學(xué)習(xí)模型推理與部署
1.模型保存
2.模型部署
3.模型推理
17
蘑菇分類模型部署和推理
1.毒蘑菇分類預(yù)測(cè)
2.模型部署和推理
21
機(jī)器學(xué)習(xí)模型動(dòng)態(tài)增量訓(xùn)練
1.動(dòng)態(tài)模型
2.增量訓(xùn)練
3.實(shí)時(shí)手寫字符識(shí)別
18
在線學(xué)習(xí)及云端模型部署
1.在線增量學(xué)習(xí)
2.模型云端部署
