定 價:¥49.00
作 者: | 宋立桓 著 |
出版社: | 清華大學(xué)出版社 |
叢編項: | |
標 簽: | 暫缺 |
ISBN: | 9787302555513 | 出版時間: | 2020-06-01 | 包裝: | 平裝 |
開本: | 16開 | 頁數(shù): | 164 | 字數(shù): |
目 錄
第1章 機器學(xué)習(xí)概述 1
1.1 什么是機器學(xué)習(xí) 1
1.2 機器學(xué)習(xí)的流程 3
1.2.1 數(shù)據(jù)收集 3
1.2.2 數(shù)據(jù)預(yù)處理 3
1.2.3 特征工程 4
1.2.4 模型構(gòu)建和訓(xùn)練 4
1.3 機器學(xué)習(xí)該如何學(xué) 5
1.3.1 AI時代首選Python 5
1.3.2 PyCharm可視化編輯器和Anaconda大禮包 7
1.3.3 掌握算法原理與掌握機器學(xué)習(xí)軟件庫同等重要 13
1.3.4 機器學(xué)習(xí)與深度學(xué)習(xí)的區(qū)別 13
1.4 機器學(xué)習(xí)分類 15
1.4.1 監(jiān)督學(xué)習(xí) 15
1.4.2 無監(jiān)督學(xué)習(xí) 16
1.4.3 強化學(xué)習(xí) 16
1.5 過擬合和欠擬合 17
1.5.1 過擬合 18
1.5.2 欠擬合 18
1.6 衡量機器學(xué)習(xí)模型的指標 19
1.6.1 正確率、精確率和召回率 19
1.6.2 F1 score和ROC曲線 21
第2章 機器學(xué)習(xí)中的數(shù)據(jù)預(yù)處理 24
2.1 數(shù)據(jù)預(yù)處理的重要性和原則 24
2.2 數(shù)據(jù)預(yù)處理方法介紹 25
2.2.1 數(shù)據(jù)預(yù)處理案例——標準化、歸一化、二值化 25
2.2.2 數(shù)據(jù)預(yù)處理案例——缺失值補全、標簽化 26
2.2.3 數(shù)據(jù)預(yù)處理案例——獨熱編碼 28
2.2.4 通過數(shù)據(jù)預(yù)處理提高模型準確率 29
2.3 數(shù)據(jù)降維 31
2.3.1 什么叫數(shù)據(jù)降維 31
2.3.2 PCA主成分分析原理 31
2.3.3 PCA主成分分析實戰(zhàn)案例 33
第3章 k最近鄰算法 36
3.1 K最近鄰算法的原理 36
3.2 K最近鄰算法過程詳解 37
3.3 KNN算法的注意事項 39
3.3.1 k近鄰的k值該如何選取 39
3.3.2 距離的度量 39
3.3.3 特征歸一化的必要性 41
3.4 K最近鄰算法案例分享 42
3.4.1 電影分類kNN算法實戰(zhàn) 42
3.4.2 使用scikit-learn機器學(xué)習(xí)庫內(nèi)置的kNN算法實現(xiàn)水果識別器 44
3.5 KNN算法優(yōu)缺點 47
第4章 回歸算法 49
4.1 線性回歸 49
4.1.1 什么是線性回歸 49
4.1.2 最小二乘法 51
4.1.3 梯度下降法 52
4.2 線性回歸案例實戰(zhàn) 57
4.2.1 房價預(yù)測線性回歸模型案例一 57
4.2.2 房價預(yù)測線性回歸模型案例二 60
4.3 邏輯回歸 62
4.3.1 邏輯回歸概念和原理 62
4.3.2 邏輯回歸案例實戰(zhàn) 64
4.4 回歸算法總結(jié)和優(yōu)缺點 65
第5章 決策樹 66
5.1 決策樹概念 66
5.2 信息熵 68
5.3 信息增益與信息增益比 69
5.4 基尼系數(shù) 70
5.5 過擬合與剪枝 70
5.6 決策樹算法案例實戰(zhàn)——預(yù)測患者佩戴隱形眼鏡類型 71
5.7 決策樹算法實戰(zhàn)案例——電影喜好預(yù)測 73
5.8 總結(jié) 77
第6章 K-means聚類算法 78
6.1 何為聚類 78
6.2 K-MEANS算法思想和原理 79
6.3 K-MEANS算法涉及的參數(shù)和優(yōu)缺點 82
6.3.1 K-means涉及參數(shù) 82
6.3.2 K-means優(yōu)缺點 84
6.4 K-MEANS應(yīng)用場景 84
6.5 K-MEANS聚類算法實現(xiàn)鳶尾花數(shù)據(jù)的聚類 85
6.6 K-MEANS算法實現(xiàn)客戶價值分析 87
6.7 K-MEANS算法實現(xiàn)對亞洲足球隊做聚類 90
第7章 隨機森林 92
7.1 隨機森林概述 92
7.1.1 什么是隨機森林 92
7.1.2 隨機森林的優(yōu)缺點 93
7.2 隨機森林實戰(zhàn)——紅酒數(shù)據(jù)集案例 94
7.3 隨機森林算法實戰(zhàn)——泰坦尼克號生存預(yù)測 97
第8章 樸素貝葉斯算法 101
8.1 樸素貝葉斯算法概念和原理 101
8.2 貝葉斯算法實戰(zhàn)案例——曲奇餅 105
8.3 貝葉斯算法案例實戰(zhàn)——單詞拼寫糾錯 106
8.4 貝葉斯算法案例實戰(zhàn)——識別中文垃圾郵件 109
8.5 貝葉斯算法案例實戰(zhàn)——鳶尾花分類預(yù)測 112
第9章 支持向量機SVM 116
9.1 支持向量機概述 116
9.2 工作原理 119
9.2.1 線性分類 119
9.2.2 線性不可分 120
9.2.3 核函數(shù) 122
9.3 SVM的核函數(shù)選擇和參數(shù)的調(diào)整 122
9.4 SVM算法案例實戰(zhàn)——波士頓房價分析 124
9.5 SVM算法案例實戰(zhàn)——鳶尾花分類 126
9.6 SVM算法優(yōu)缺點 128
第10章 神經(jīng)網(wǎng)絡(luò) 130
10.1 神經(jīng)網(wǎng)絡(luò)概念 130
10.1.1 神經(jīng)元 130
10.1.2 激活函數(shù) 132
10.1.3 神經(jīng)網(wǎng)絡(luò) 133
10.2 卷積神經(jīng)網(wǎng)絡(luò)(CNN) 135
10.2.1 計算機識別圖像的過程 135
10.2.2 卷積神經(jīng)網(wǎng)絡(luò)詳解 136
10.3 用PYTHON實現(xiàn)自己的神經(jīng)網(wǎng)絡(luò)案例 138
10.4 多層神經(jīng)網(wǎng)絡(luò)基于SKLEARN的實現(xiàn)案例 141
10.5 使用KERAS框架實現(xiàn)神經(jīng)網(wǎng)絡(luò)案例 145
10.5.1 Keras深度學(xué)習(xí)框架簡介和安裝 145
10.5.2 Keras實現(xiàn)多層感知器模型MLP 146
10.5.3 Keras實現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)CNN 149
第11章 人臉識別入門實踐 151
11.1 人臉識別簡介 151
11.1.1 什么是人臉識別 151
11.1.2 人臉識別過程步驟 153
11.2 人臉檢測和關(guān)鍵點定位實戰(zhàn) 156
11.3 人臉表情分析——情緒識別實戰(zhàn) 160
11.4 我能認識你——人臉識別實戰(zhàn) 161