注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁出版圖書科學(xué)技術(shù)計算機(jī)/網(wǎng)絡(luò)軟件與程序設(shè)計TensorFlow神經(jīng)網(wǎng)絡(luò)設(shè)計:基于Python API的深度學(xué)習(xí)實戰(zhàn)

TensorFlow神經(jīng)網(wǎng)絡(luò)設(shè)計:基于Python API的深度學(xué)習(xí)實戰(zhàn)

TensorFlow神經(jīng)網(wǎng)絡(luò)設(shè)計:基于Python API的深度學(xué)習(xí)實戰(zhàn)

定 價:¥69.00

作 者: [土]奧汗·亞爾欽 著 汪雄飛 陳朗 汪榮貴 譯
出版社: 清華大學(xué)出版社
叢編項:
標(biāo) 簽: 暫缺

ISBN: 9787302662235 出版時間: 2024-09-01 包裝: 平裝-膠訂
開本: 16開 頁數(shù): 字?jǐn)?shù):  

內(nèi)容簡介

  本書首先介紹深度學(xué)習(xí),并與其他機(jī)器學(xué)習(xí)模型進(jìn)行比較,并闡述與TensorFlow互補(bǔ)的用于創(chuàng)建深度學(xué)習(xí)模型的技術(shù),如Panda、Scikit-Learn和Numpy。隨后介紹有監(jiān)督的深度學(xué)習(xí)模型,并使用單層的多個感知器構(gòu)建淺層神經(jīng)網(wǎng)絡(luò),使用Tensorflow 2.0和Keras API創(chuàng)建真實的應(yīng)用程序。隨后是數(shù)據(jù)增強(qiáng)和批處理規(guī)范化方法,并使用MNIST數(shù)據(jù)集訓(xùn)練CNN。最后是使用自動編碼器的理論應(yīng)用和無監(jiān)督學(xué)習(xí),以及使用tf-agent模型的強(qiáng)化學(xué)習(xí)。本書主要面向深度學(xué)習(xí)和機(jī)器學(xué)習(xí)API領(lǐng)域的數(shù)據(jù)科學(xué)家和程序員。

作者簡介

  汪榮貴,合肥工業(yè)大學(xué)計算機(jī)與信息學(xué)院教授,中國人工智能學(xué)會離散智能計算專委會委員,安徽省人工智能學(xué)會理事,機(jī)械工業(yè)出版社計算機(jī)類教材出版咨詢專家;主要研究方向為機(jī)器學(xué)習(xí)與視頻圖像處理;承擔(dān)完成國家自然基金企業(yè)聯(lián)合基金、科技部重點研發(fā)計劃、電子產(chǎn)業(yè)基金、安徽省科技攻關(guān)重點項目等多個課題,以及中電集團(tuán)四創(chuàng)電子股份公司等多個企業(yè)委托項目;發(fā)表80余篇學(xué)術(shù)論文,近期完成的研究成果獲安徽省科技進(jìn)步二等獎、中電集團(tuán)科技進(jìn)步一等獎、合肥市科技進(jìn)步一等獎,編著出版的《離散數(shù)學(xué)及其應(yīng)用》、《算法設(shè)計與應(yīng)用》、《機(jī)器學(xué)習(xí)及其應(yīng)用》、《機(jī)器學(xué)習(xí)簡明教程》深受廣大讀者好評。

圖書目錄

第1章緒論
1.1編程語言Python
1.1.1Python發(fā)展時間軸
1.1.2Python 2.x與Python 3.x
1.1.3選擇Python的原因
1.2機(jī)器學(xué)習(xí)框架TensorFlow
1.2.1TensorFlow發(fā)展時間軸
1.2.2選擇TensorFlow的原因
1.2.3TensorFlow 2.x的新特點
1.2.4TensorFlow的競爭產(chǎn)品
1.3安裝與環(huán)境設(shè)置
1.4硬件選項和要求
第2章機(jī)器學(xué)習(xí)簡介
2.1何為機(jī)器學(xué)習(xí)
2.2機(jī)器學(xué)習(xí)的范圍及相關(guān)鄰域
2.2.1人工智能
2.2.2深度學(xué)習(xí)
2.2.3數(shù)據(jù)科學(xué)
2.2.4大數(shù)據(jù)
2.2.5分類圖
2.3機(jī)器學(xué)習(xí)方式和模型
2.3.1監(jiān)督學(xué)習(xí)
2.3.2非監(jiān)督學(xué)習(xí)
2.3.3半監(jiān)督學(xué)習(xí)
2.3.4強(qiáng)化學(xué)習(xí)
2.4機(jī)器學(xué)習(xí)的基本步驟
2.4.1數(shù)據(jù)收集
2.4.2數(shù)據(jù)準(zhǔn)備
2.4.3模型選擇
2.4.4訓(xùn)練
2.4.5評價
2.4.6調(diào)優(yōu)超參數(shù)
2.4.7預(yù)測
2.5小結(jié)
第3章深度學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)概述
3.1神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)研究的時間軸
3.2人工神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)
3.2.1McCullochPitts神經(jīng)元
3.2.2現(xiàn)代深度神經(jīng)網(wǎng)絡(luò)
3.3深度學(xué)習(xí)的優(yōu)化算法
3.3.1最優(yōu)化面臨的挑戰(zhàn)
3.3.2過度擬合與正則化
3.4小結(jié)
第4章TensorFlow 2.x的附加程序庫
4.1TensorFlow互補(bǔ)程序庫的安裝
4.1.1使用pip安裝
4.1.2程序庫的安裝
4.2常見程序庫
4.2.1NumPy——數(shù)組處理  
4.2.2SciPy——科學(xué)計算
4.2.3Pandas——數(shù)組處理與數(shù)據(jù)分析 
4.2.4Matplotlib和Seaborn——數(shù)據(jù)可視化  
4.2.5Scikitlearn——機(jī)器學(xué)習(xí)  
4.2.6Flask——部署 
4.3小結(jié)
第5章TensorFlow 2.0與深度學(xué)習(xí)流程
5.1TensorFlow基礎(chǔ)
5.1.1直接執(zhí)行
5.1.2張量
5.1.3TensorFlow變量
5.2TensorFlow深度學(xué)習(xí)流程
5.2.1數(shù)據(jù)加載與準(zhǔn)備
5.2.2構(gòu)建模型
5.2.3編譯、訓(xùn)練、評估模型并進(jìn)行預(yù)測
5.2.4保存并加載模型
5.3小結(jié)
第6章前饋神經(jīng)網(wǎng)絡(luò)
6.1深度和淺層前饋神經(jīng)網(wǎng)絡(luò)
6.1.1淺層前饋神經(jīng)網(wǎng)絡(luò)
6.1.2深度前饋神經(jīng)網(wǎng)絡(luò)
6.2前饋神經(jīng)網(wǎng)絡(luò)架構(gòu)
6.3案例分析: 燃油經(jīng)濟(jì)學(xué)與Auto MPG
6.3.1初始安裝和導(dǎo)入
6.3.2下載 Auto MPG數(shù)據(jù)
6.3.3數(shù)據(jù)準(zhǔn)備
6.3.4創(chuàng)建DataFrame
6.3.5丟棄空值
6.3.6處理分類變量
6.3.7將Auto MPG分為訓(xùn)練集和測試集
6.3.8模型構(gòu)建與訓(xùn)練
6.3.9結(jié)果評價
6.3.10使用新的觀測數(shù)據(jù)進(jìn)行預(yù)測
6.4小結(jié)
第7章卷積神經(jīng)網(wǎng)絡(luò)
7.1為什么選擇使用卷積神經(jīng)網(wǎng)絡(luò)
7.2CNN的架構(gòu)
7.2.1CNN中的網(wǎng)絡(luò)層
7.2.2完整的CNN模型
7.3案例研究: MNIST的圖像識別
7.3.1下載MNIST數(shù)據(jù)
7.3.2圖像的重塑與標(biāo)準(zhǔn)化
7.3.3構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)
7.3.4模型的編譯與調(diào)試
7.3.5評價模型
7.3.6保存訓(xùn)練完成的模型
7.4小結(jié)
第8章循環(huán)神經(jīng)網(wǎng)絡(luò)
8.1序列數(shù)據(jù)與時序數(shù)據(jù)
8.2RNN與序列數(shù)據(jù)
8.3RNN基礎(chǔ)
8.3.1RNN的歷史
8.3.2RNN的應(yīng)用
8.3.3RNN的運(yùn)作機(jī)制
8.3.4RNN的類型
8.4案例研究: IMDB影評的情緒分析
8.4.1為Colab準(zhǔn)備GPU加速訓(xùn)練
8.4.2基于TensorFlow導(dǎo)入的數(shù)據(jù)集加載
8.4.3構(gòu)建循環(huán)神經(jīng)網(wǎng)絡(luò)
8.5小結(jié)
第9章自然語言處理
9.1NLP的歷史
9.2NLP的實際應(yīng)用
9.3主要評估、技術(shù)、方法和任務(wù)
9.3.1形態(tài)句法學(xué)
9.3.2語義學(xué)
9.3.3語篇
9.3.4語音
9.3.5對話
9.3.6認(rèn)知
9.4自然語言工具包
9.5案例研究: 深度NLP的文本生成
9.5.1案例實現(xiàn)目標(biāo)
9.5.2莎士比亞語料庫
9.5.3初始導(dǎo)入
9.5.4加載語料庫
9.5.5文本向量化
9.5.6創(chuàng)建數(shù)據(jù)集
9.5.7模型構(gòu)建
9.5.8編譯并訓(xùn)練模型
9.5.9使用訓(xùn)練好的模型生成文本
9.6小結(jié)
第10章推薦系統(tǒng)
10.1構(gòu)建推薦系統(tǒng)的流行方法
10.1.1協(xié)同過濾方法
10.1.2基于內(nèi)容的過濾
10.1.3構(gòu)建推薦系統(tǒng)的其他方法
10.2案例開發(fā): 深度協(xié)同過濾與MovieLens數(shù)據(jù)集
10.2.1初始導(dǎo)入
10.2.2加載數(shù)據(jù)
10.2.3數(shù)據(jù)處理
10.2.4拆分?jǐn)?shù)據(jù)集
10.2.5構(gòu)建模型
10.2.6編譯并訓(xùn)練模型
10.2.7進(jìn)行推薦
10.3小結(jié)
第11章自動編碼器
11.1自動編碼器的優(yōu)缺點
11.2自動編碼器的架構(gòu)
11.2.1自動編碼器的各個層
11.2.2深度的優(yōu)勢
11.3自動編碼器的變體
11.3.1欠完備自動編碼器
11.3.2正則化自動編碼器
11.3.3變分自動編碼器
11.4自動編碼器的應(yīng)用
11.5案例研發(fā): Fashion MNIST圖像降噪
11.5.1初始導(dǎo)入
11.5.2加載并處理數(shù)據(jù)
11.5.3向圖像中添加噪聲
11.5.4構(gòu)建模型
11.5.5噪聲圖像的降噪
11.6小結(jié)
第12章生成對抗網(wǎng)絡(luò)
12.1GAN方法
12.2架構(gòu)
12.2.1生成器網(wǎng)絡(luò)
12.2.2判別器網(wǎng)絡(luò)
12.2.3潛在空間層
12.2.4面臨的問題: 模式崩潰
12.2.5有關(guān)架構(gòu)的最后注解
12.3GAN的應(yīng)用
12.3.1藝術(shù)與時尚
12.3.2制造與研發(fā)
12.3.3電子游戲
12.3.4惡意應(yīng)用與深度偽造
12.3.5其他應(yīng)用
12.4案例研發(fā): MNIST數(shù)據(jù)集的數(shù)字生成
12.4.1初始導(dǎo)入
12.4.2加載并處理MNIST數(shù)據(jù)集
12.4.3構(gòu)建GAN模型
12.4.4配置GAN模型
12.4.5訓(xùn)練GAN模型
12.4.6圖像生成函數(shù)
12.5小結(jié)
參考文獻(xiàn)
 
 

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) www.stefanvlieger.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號