- 結束語 更新時間:2021-07-23 17:53:42
- 專業術語匯總
- 20.2 運行客戶端和服務器程序
- 20.1 Tensorflow Serving環境部署
- 第20章 模型部署
- 19.4 參考文獻
- 19.3 手寫數字圖像生成
- 19.2 DCGAN介紹
- 19.1 生成對抗網絡的應用
- 第19章 生成對抗網絡
- 18.4 參考文獻
- 18.3 遮擋圖像風格轉換項目實戰
- 18.2 圖像風格轉換項目實戰
- 18.1 圖像風格轉換實現原理
- 第18章 圖像風格轉換
- 17.3 語音分類項目
- 17.2 MFCC和Mel Filter Banks
- 17.1 深度學習在聲音領域的應用
- 第17章 音頻信號處理
- 16.8 參考文獻
- 16.7 BERT電商用戶多情緒判斷項目
- 16.6 BERT模型的簡單使用
- 16.5 最新的一些激活函數介紹
- 16.4 堆疊雙向LSTM中文分詞標注項目
- 16.3 雙向LSTM中文微博情感分類項目
- 16.2 二維卷積中文微博情感分類項目
- 16.1 一維卷積英語電影評論情感分類項目
- 第16章 NLP任務項目實戰
- 15.3 參考文獻
- 15.2 BERT模型
- 15.1 NLP新的開始:Transformer模型
- 第15章 自然語言處理(NLP)發展歷程(下)
- 14.8 參考文獻
- 14.7 Attention機制
- 14.6 Seq2Seq模型在NLP領域中的應用
- 14.5 RNN在NLP領域中的應用
- 14.4 CNN在NLP領域中的應用
- 14.3 word2vec
- 14.2 從傳統語言模型到神經語言模型
- 14.1 NLP應用介紹
- 第14章 自然語言處理(NLP)發展歷程(上)
- 13.6 CTC算法
- 13.5 挑戰變長驗證碼識別
- 13.4 使用自定義數據生成器完成驗證碼識別
- 13.3 tf.data介紹
- 13.2 驗證碼數據集生成
- 13.1 多任務學習介紹
- 第13章 驗證碼識別項目實戰
- 12.11 使用預訓練模型進行遷移學習
- 12.10 SENet圖像識別
- 12.9 ResNeXt圖像識別
- 12.8 ResNet圖像識別
- 12.7 Batch Normalization使用
- 12.6 GoogleNet圖像識別
- 12.5 模型可視化
- 12.4 函數式模型
- 12.3 VGGNet圖像識別
- 12.2 AlexNet圖像識別
- 12.1 圖像數據準備
- 第12章 圖像識別項目實戰
- 11.4 參考文獻
- 11.3 SENet
- 11.2 ResNeXt
- 11.1 Inception模型系列
- 第11章 經典圖像識別模型介紹(下)
- 10.7 參考文獻
- 10.6 ResNet
- 10.5 Batch Normalization
- 10.4 GoogleNet
- 10.3 VGGNet
- 10.2 AlexNet
- 10.1 圖像數據集
- 第10章 經典圖像識別模型介紹(上)
- 9.9 參考文獻
- 9.8 LSTM網絡應用于MNIST數據集分類
- 9.7 其他RNN模型
- 9.6 Peephole LSTM和FC-LSTM
- 9.5 長短時記憶網絡(LSTM)
- 9.4 傳統RNN的缺點
- 9.3 RNN的不同架構
- 9.2 循環神經網絡(RNN)
- 9.1 序列模型應用
- 第9章 序列模型
- 8.13 參考文獻
- 8.12 CIFAR-10數據集分類
- 8.11 識別自己寫的數字圖片
- 8.10 卷積神經網絡應用于MNIST數據集分類
- 8.9 經典的卷積神經網絡
- 8.8 常見的卷積計算總結
- 8.7 Padding
- 8.6 池化
- 8.5 不同的卷積核
- 8.4 卷積的步長
- 8.3 卷積的具體計算
- 8.2 卷積神經網簡介
- 8.1 計算機視覺介紹
- 第8章 卷積神經網絡(CNN)
- 7.6 Checkpoint模型保存和載入
- 7.5 ModelCheckpoint自動保存模型
- 7.4 單獨保存模型參數
- 7.3 單獨保存模型的結構
- 7.2 SavedModel模型保存和載入
- 7.1 Keras模型保存和載入
- 第7章 Tensorflow模型的保存和載入
- 6.9 參考文獻
- 6.8 優化器
- 6.7 標簽平滑
- 6.6 正則化
- 6.5 Dropout
- 6.4 提前停止訓練
- 6.3 數據增強
- 6.2 過擬合
- 6.1 交叉熵代價函數
- 第6章 網絡優化方法
- 5.6 手寫數字圖片分類任務
- 5.5 Tensorflow基礎使用
- 5.4 Tensorflow基本概念
- 5.3 Tensorflow-gpu安裝
- 5.2 Tensorflow-cpu安裝
- 5.1 Tensorflow介紹
- 第5章 深度學習框架Tensorflow基礎使用
- 4.14 參考文獻
- 4.13 Sklearn手寫數字識別
- 4.12 BP神經網絡完成手寫數字識別
- 4.11 獨熱編碼
- 4.10 分類模型評估方法
- 4.9 使用BP神經網絡解決異或問題
- 4.8 梯度消失與梯度爆炸
- 4.7 BP算法推導結論總結
- 4.6 BP神經網絡模型和公式推導
- 4.5 常用激活函數講解
- 4.4 Delta學習規則
- 4.3 梯度下降法
- 4.2 代價函數
- 4.1 BP神經網絡介紹及發展背景
- 第4章 BP神經網絡
- 3.9 線性神經網絡處理異或問題
- 3.8 線性神經網絡
- 3.7 單層感知器分類案例
- 3.6 模型的超參數和參數的區別
- 3.5 模型的收斂條件
- 3.4 學習率
- 3.3 單層感知器的學習規則
- 3.2 單層感知器
- 3.1 生物神經網絡
- 第3章 單層感知器與線性神經網絡
- 2.3 Jupyter Notebook的簡單使用
- 2.2 Anaconda安裝
- 2.1 Python介紹
- 第2章 搭建Python編程環境
- 1.8 參考文獻
- 1.7 新一輪人工智能爆發的三要素
- 1.6 深度學習領域中的重要人物
- 1.5 神經網絡和深度學習的發展史
- 1.4 深度學習的應用
- 1.3 人工智能、機器學習、神經網絡及深度學習之間的關系
- 1.2 機器學習
- 1.1 人工智能
- 第1章 深度學習背景介紹
- 前言
- 獻言
- 內容簡介
- 版權信息
- 封面
- 封面
- 版權信息
- 內容簡介
- 獻言
- 前言
- 第1章 深度學習背景介紹
- 1.1 人工智能
- 1.2 機器學習
- 1.3 人工智能、機器學習、神經網絡及深度學習之間的關系
- 1.4 深度學習的應用
- 1.5 神經網絡和深度學習的發展史
- 1.6 深度學習領域中的重要人物
- 1.7 新一輪人工智能爆發的三要素
- 1.8 參考文獻
- 第2章 搭建Python編程環境
- 2.1 Python介紹
- 2.2 Anaconda安裝
- 2.3 Jupyter Notebook的簡單使用
- 第3章 單層感知器與線性神經網絡
- 3.1 生物神經網絡
- 3.2 單層感知器
- 3.3 單層感知器的學習規則
- 3.4 學習率
- 3.5 模型的收斂條件
- 3.6 模型的超參數和參數的區別
- 3.7 單層感知器分類案例
- 3.8 線性神經網絡
- 3.9 線性神經網絡處理異或問題
- 第4章 BP神經網絡
- 4.1 BP神經網絡介紹及發展背景
- 4.2 代價函數
- 4.3 梯度下降法
- 4.4 Delta學習規則
- 4.5 常用激活函數講解
- 4.6 BP神經網絡模型和公式推導
- 4.7 BP算法推導結論總結
- 4.8 梯度消失與梯度爆炸
- 4.9 使用BP神經網絡解決異或問題
- 4.10 分類模型評估方法
- 4.11 獨熱編碼
- 4.12 BP神經網絡完成手寫數字識別
- 4.13 Sklearn手寫數字識別
- 4.14 參考文獻
- 第5章 深度學習框架Tensorflow基礎使用
- 5.1 Tensorflow介紹
- 5.2 Tensorflow-cpu安裝
- 5.3 Tensorflow-gpu安裝
- 5.4 Tensorflow基本概念
- 5.5 Tensorflow基礎使用
- 5.6 手寫數字圖片分類任務
- 第6章 網絡優化方法
- 6.1 交叉熵代價函數
- 6.2 過擬合
- 6.3 數據增強
- 6.4 提前停止訓練
- 6.5 Dropout
- 6.6 正則化
- 6.7 標簽平滑
- 6.8 優化器
- 6.9 參考文獻
- 第7章 Tensorflow模型的保存和載入
- 7.1 Keras模型保存和載入
- 7.2 SavedModel模型保存和載入
- 7.3 單獨保存模型的結構
- 7.4 單獨保存模型參數
- 7.5 ModelCheckpoint自動保存模型
- 7.6 Checkpoint模型保存和載入
- 第8章 卷積神經網絡(CNN)
- 8.1 計算機視覺介紹
- 8.2 卷積神經網簡介
- 8.3 卷積的具體計算
- 8.4 卷積的步長
- 8.5 不同的卷積核
- 8.6 池化
- 8.7 Padding
- 8.8 常見的卷積計算總結
- 8.9 經典的卷積神經網絡
- 8.10 卷積神經網絡應用于MNIST數據集分類
- 8.11 識別自己寫的數字圖片
- 8.12 CIFAR-10數據集分類
- 8.13 參考文獻
- 第9章 序列模型
- 9.1 序列模型應用
- 9.2 循環神經網絡(RNN)
- 9.3 RNN的不同架構
- 9.4 傳統RNN的缺點
- 9.5 長短時記憶網絡(LSTM)
- 9.6 Peephole LSTM和FC-LSTM
- 9.7 其他RNN模型
- 9.8 LSTM網絡應用于MNIST數據集分類
- 9.9 參考文獻
- 第10章 經典圖像識別模型介紹(上)
- 10.1 圖像數據集
- 10.2 AlexNet
- 10.3 VGGNet
- 10.4 GoogleNet
- 10.5 Batch Normalization
- 10.6 ResNet
- 10.7 參考文獻
- 第11章 經典圖像識別模型介紹(下)
- 11.1 Inception模型系列
- 11.2 ResNeXt
- 11.3 SENet
- 11.4 參考文獻
- 第12章 圖像識別項目實戰
- 12.1 圖像數據準備
- 12.2 AlexNet圖像識別
- 12.3 VGGNet圖像識別
- 12.4 函數式模型
- 12.5 模型可視化
- 12.6 GoogleNet圖像識別
- 12.7 Batch Normalization使用
- 12.8 ResNet圖像識別
- 12.9 ResNeXt圖像識別
- 12.10 SENet圖像識別
- 12.11 使用預訓練模型進行遷移學習
- 第13章 驗證碼識別項目實戰
- 13.1 多任務學習介紹
- 13.2 驗證碼數據集生成
- 13.3 tf.data介紹
- 13.4 使用自定義數據生成器完成驗證碼識別
- 13.5 挑戰變長驗證碼識別
- 13.6 CTC算法
- 第14章 自然語言處理(NLP)發展歷程(上)
- 14.1 NLP應用介紹
- 14.2 從傳統語言模型到神經語言模型
- 14.3 word2vec
- 14.4 CNN在NLP領域中的應用
- 14.5 RNN在NLP領域中的應用
- 14.6 Seq2Seq模型在NLP領域中的應用
- 14.7 Attention機制
- 14.8 參考文獻
- 第15章 自然語言處理(NLP)發展歷程(下)
- 15.1 NLP新的開始:Transformer模型
- 15.2 BERT模型
- 15.3 參考文獻
- 第16章 NLP任務項目實戰
- 16.1 一維卷積英語電影評論情感分類項目
- 16.2 二維卷積中文微博情感分類項目
- 16.3 雙向LSTM中文微博情感分類項目
- 16.4 堆疊雙向LSTM中文分詞標注項目
- 16.5 最新的一些激活函數介紹
- 16.6 BERT模型的簡單使用
- 16.7 BERT電商用戶多情緒判斷項目
- 16.8 參考文獻
- 第17章 音頻信號處理
- 17.1 深度學習在聲音領域的應用
- 17.2 MFCC和Mel Filter Banks
- 17.3 語音分類項目
- 第18章 圖像風格轉換
- 18.1 圖像風格轉換實現原理
- 18.2 圖像風格轉換項目實戰
- 18.3 遮擋圖像風格轉換項目實戰
- 18.4 參考文獻
- 第19章 生成對抗網絡
- 19.1 生成對抗網絡的應用
- 19.2 DCGAN介紹
- 19.3 手寫數字圖像生成
- 19.4 參考文獻
- 第20章 模型部署
- 20.1 Tensorflow Serving環境部署
- 20.2 運行客戶端和服務器程序
- 專業術語匯總
- 結束語 更新時間:2021-07-23 17:53:42