目 錄
第1章 從邏輯學到認知科學 1
1.1 人工神經網絡的起源 1
1.2 異或(XOR)問題 6
1.3 從認知科學到深度學習 8
1.4 總體人工智能景觀中的神經網絡 12
1.5 哲學和認知概念 13
第2章 數學和計算先決條件 17
2.1 求導和函數極小化 17
2.2 向量、矩陣和線性規(guī)劃 26
2.3 概率分布 34
2.4 邏輯學和圖靈機 41
2.5 編寫Python代碼 44
2.6 Python編程概述 46
第3章 機器學習基礎知識 55
3.1 基本分類問題 55
3.2 評估分類結果 61
3.3 一種簡單的分類器:樸素貝葉斯 64
3.4 一種簡單的神經網絡:邏輯回歸 67
3.5 MNIST數據集簡介 73
3.6 沒有標簽的學習:k均值 76
3.7 學習不同的表示形式:PCA 78
3.8 學習語言:詞袋表示 81
第4章 前饋神經網絡 85
4.1 神經網絡的基本概念和術語 85
4.2 使用向量和矩陣表示網絡分量 88
4.3 感知器法則 90
4.4 Delta法則 93
4.5 從邏輯神經元到反向傳播 95
4.6 反向傳播 100
4.7 一個完整的前饋神經網絡 110
第5章 前饋神經網絡的修改和擴展 113
5.1 正則化的概念 113
5.2 L1和L2正則化 115
5.3 學習率、動量和丟棄 117
5.4 隨機梯度下降和在線學習 123
5.5 關于多個隱藏層的問題:梯度消失和梯度爆炸 124
第6章 卷積神經網絡 127
6.1 第三次介紹邏輯回歸 127
6.2 特征圖和池化 131
6.3 一個完整的卷積網絡 133
6.4 使用卷積網絡對文本進行分類 136
第7章 循環(huán)神經網絡 141
7.1 不等長序列 141
7.2 使用循環(huán)神經網絡進行學習的三種設置 143
7.3 添加反饋環(huán)并展開神經網絡 145
7.4 埃爾曼網絡 146
7.5 長短期記憶網絡 148
7.6 使用循環(huán)神經網絡預測后續(xù)單詞 151
第8章 自動編碼器 161
8.1 學習表示 161
8.2 不同的自動編碼器體系結構 164
8.3 疊加自動編碼器 166
8.4 重新創(chuàng)建貓論文 170
第9章 神經語言模型 173
9.1 詞嵌入和詞類比 173
9.2 CBOW和Word2vec 174
9.3 Word2vec代碼 176
9.4 單詞領域概覽:一種摒棄符號AI的觀點 179
第10章 不同神經網絡體系結構概述 183
10.1 基于能量的模型 183
10.2 基于記憶的模型 186
10.3 通用聯結主義智能的內核:bAbI數據集 189
第11章 結論 193
11.1 開放性研究問題簡單概述 193
11.2 聯結主義精神與哲學聯系 194