前言
1 引論
1. 1 智能與思維科學
1. 1. 1 智能
1. 1. 2 思維科學
1. 1. 3 思維的類型
1. 2 人工智能
1. 2. 1 人工智能的概念
1. 2. 2 人工智能的發(fā)展簡史
1. 2. 3 人工智能的研究目標
1. 2. 4 人工智能研究的基本內容
1. 2. 5 人工智能的研究途徑
1. 2. 6 人工智能的研究領域
1. 3 人工神經網絡概述
1. 3. 1 人工神經網絡研究簡史
1. 3. 2 人工神經網絡研究基本內容
1. 3. 3 人工神經網絡分類
2 基礎知識
2. 1 人腦神經系統(tǒng)的構成
2. 1. 1 小腦
2. 1. 2 間腦
2. 1. 3 腦干
2. 1. 4 大腦
2. 2 人腦神經細胞工作概況
2. 2. 1 神經細胞的基本結構
2. 2. 2 信號在軸突內的傳遞
2. 3 人工神經網絡的構思
*2. 4 系統(tǒng)的穩(wěn)定性
2. 4. 1 動力系統(tǒng)
2. 4. 2 自治系統(tǒng)與非自治系統(tǒng)
2. 4. 3 奇點與常點. 穩(wěn)定性
2. 4. 4 奇點的穩(wěn)定與漸近穩(wěn)定
2. 4. 5 極限環(huán)的穩(wěn)定性
2. 4. 6 一般運動穩(wěn)定性概念 Lyapunov穩(wěn)定性
2. 4. 7 穩(wěn)定性的定性理論
2. 4. 8 系統(tǒng)軌道穩(wěn)定性
2. 4. 9 結構穩(wěn)定性
2. 4. 10 穩(wěn)定性在神經網絡設計中的重要性
**2. 5 混沌與神經網絡
2. 5. 1 動力學系統(tǒng)
2. 5. 2 穩(wěn)態(tài)行為與極限集
2. 5. 3 龐加萊映射
2. 5. 4 極限集的穩(wěn)定性
2. 5. 5 維數(shù)
3 神經元模型
3. 1 神經元的通用功能模型
3. 1. 1 輸入?yún)^(qū)
3. 1. 2 處理區(qū)
3. 1. 3 輸出區(qū)
3. 2 簡單線性神經元
3. 3 位勢神經元
3. 4 邏輯神經元
3. 4. 1 功能函數(shù)用邏輯函數(shù)表示
3. 4. 2 功能函數(shù)用表格形式表示
3. 4. 3 邏輯函數(shù)拓廣到連續(xù)變量
3. 5 勢態(tài)神經元
3. 6 其他神經元
3. 6. 1 G神經元模型
3. 6. 2 RM元
4 聯(lián)接方式
4. 1 分層神經元網的一般結構
4. 2 聯(lián)接矩陣圖
4. 3 神經元網絡的多層組織
5 訓練和學習
5. 1 乘積學習規(guī)則
5. 1. 1 給定一個訓練樣本對時權矩陣的設計
5. 1. 2 給定多個訓練樣本對時權矩陣的設計
5. 2 關聯(lián)學習
5. 2. 1 學習規(guī)則與公式
5. 2. 2 與乘積學習規(guī)則的區(qū)別
5. 2. 3 局限性與改進
5. 3 線性元網絡的差值規(guī)則訓練法
5. 3. 1 乘積規(guī)則的缺陷
5. 3. 2 基本差值規(guī)則 用于單層線性網絡
5. 3. 3 基本差值訓練算法的收斂性分析
5. 4 準線性元網絡的差值規(guī)則
5. 4. 1 準線性神經元
5. 4. 2 多層準線性元網絡 多層感知器, MLP 的反向傳遞算法(BP)
5. 5 隨機訓練
5. 5. 1 差值訓練算法缺點
5. 5. 2 逃離局部最小點的策略
5. 5. 3 神經網絡的隨機訓練法
5. 5. 4 隨機訓練算法的具體實施方案
6 前饋網絡
6. 1 感知器
6. 1. 1 感知器模型
6. 1. 2 用來進行模式識別
6. 1. 3 用來實現(xiàn)邏輯函數(shù)
6. 1. 4 異或 XOR 問題
6. 2 多層感知器 MLP
6. 2. 1 多層感知器的功能
6. 2. 2 多層感知器的學習算法 反向傳遞算法
6. 2. 3 多層感知器存在的問題與局限性
6. 3 徑向基函數(shù) RBF 網絡
6. 3. 1 RBF的基本功能
6. 3. 2 RBF網的學習算法
6. 3. 3 RBF網的擴展
6. 3. 4 RBF網的學習復雜度
6. 4 前饋網絡與其他模式分類器
6. 4. 1 高斯分類器
6. 4. 2 混合高斯法與窗函數(shù)法
6. 4. 3 區(qū)分函數(shù)分類器
6. 4. 4 距離分類器
7 動態(tài)網絡
7. 1 延時網絡 TDNN
7. 2 雙向聯(lián)想存儲
7. 2. 1 一些預備知識
7. 2. 2 雙向聯(lián)想存儲
BAM
7. 3 Hopfield
7. 4 遞歸網絡
7. 4. 1 神經元方程
7. 4. 2 學習算法
7. 4. 3 例子
7. 5 Bolzmann機
7. 5. 1 問題的提出
7. 5. 2 自聯(lián)想Bolzmann機
7. 5. 3 異聯(lián)想Bolzmann機
7. 5. 4 例子
8 競爭網絡
8. 1 漢明網
8. 1. 1 漢明網的拓撲結構
8. 1. 2 權矩陣的計算 存儲
8. 1. 3 神經元功能函數(shù)
8. 1. 4 網絡的運行
8. 1. 5 Hamming網的優(yōu)越性
8. 1. 6 實現(xiàn)獨活型競爭 選極大 的其他網網絡結構
8. 2 自組織特征映射
8. 2. 1 自組織特征映射的思想來源
8. 2. 2 自組織特征映射的網絡模型
8. 2. 3 仿真實例
8. 2. 4 幾點注意事項
8. 2. 5 關于SOFM的幾點評論
8. 3 適應諧振網--ART1
8. 3. 1 Grossberg及其自適應諧振網理論
8. 3. 2 ART1拓撲結構
8. 3. 3 ART1的運行 無師學習算法
8. 3. 4 運行實例
8. 3. 5 ART1的優(yōu)缺點
8. 4 自適應諧振網-ART2
8. 4. 1 ART2的拓撲結構
8. 4. 2 F1層短期記憶方程
8. 4. 3 F2層短期記憶方程
8. 4. 4 重置方程
8. 4. 5 學習議程
8. 4. 6 權初值的選取
8. 4. 7 對參數(shù)c, d的約束
8. 4. 8 ART2的學習算法
8. 4. 9 ART2的特點
8. 4. 10 仿真實例
8. 4. 11 ART2的另外兩種結構
8. 4. 12 ART2的缺點
9 模糊自適應網
9. 1 模糊自適應諧振網 FuzzyART
9. 1. 1 基本思想
9. 1. 2 符號與術語
9. 1. 3 模糊自適應諧振算法
9. 1. 4 算法說明
9. 1. 5 算法的幾何解釋
9. 1. 6 例子
9. 1. 7 模糊自適應諧振網的缺點
9. 2 模糊極小一極大網
9. 2. 1 FMM網的輸入空間
9. 2. 2 超盒. 模糊集與隸屬函數(shù)
9. 2. 3 拓撲結構與神經元
9. 2. 4 網絡的運行
9. 2. 5 網絡的有師訓練算法
9. 2. 6 例子
9. 2. 7 總結
9. 3 一般模糊極小一極大 GFMM 網
9. 3. 1 拓撲結構
9. 3. 2 超盒模糊集的隸屬函數(shù)
9. 3. 3 學習算法
9. 3. 4 網絡的運行
9. 3. 5 模擬例子
**9. 4 模糊格神經網絡 FLNN
9. 4. 1 模糊格理論基礎
9. 4. 2 模糊格神經網絡
9. 4. 3 VL中包含測度的定義
9. 4. 4 實驗結果
*9. 5 遞歸自組織模糊推理網絡 RSONFIN
9. 5. 1 基本思想
9. 5. 2 RSONFIN的模型
9. 5. 3 RSONFIN的結構學習
9. 5. 4 參數(shù)學習
9. 5. 5例子
**10 統(tǒng)計學習理論
10. 1 學習理論的背景
10. 1. 1 預報函數(shù)估計模型
10. 1. 2 風險極小化問題準則
10. 1. 3 三種主要的學習問題
10. 1. 4 經驗函數(shù)極小化推導準則
10. 1. 5 ERM與經典方法
10. 1. 6 學習理論的四部分
10. 2 學習過程一致性理論
10. 2. 1 學習理論的基本定理
10. 2. 2 一致收斂的充要條件
10. 2. 3 學習理論中的三個里程碑
10. 3 學習過程收斂率的界限
10. 3. 1 增長函數(shù)的結構
10. 3. 2 VC維數(shù)的等價定義
10. 3. 3 兩個重要例子
10. 3. 4 不依賴于分布的學習過程收斂率
10. 3. 5
依賴分布 構造嚴格上界
10. 4 控制學習機泛化性能的理論
10. 5 構造性學習算法的理論
10. 5. 1 劃分超平面法及其推廣
10. 5. 2 示性函數(shù)的S型逼近與神經網絡
10. 5. 3 最優(yōu)劃分超平面
10. 5. 4 支承向量機
10. 5. 5 為什么神經網絡與支承向量機能夠泛化
10. 6 結論
參考文獻