最新章節
書友吧品牌:機械工業出版社
譯者:汪雄飛 陳朗 汪榮貴
上架時間:2021-12-01 13:42:34
出版社:機械工業出版社
本書數字版權由機械工業出版社提供,并由其授權上海閱文信息技術有限公司制作發行
- 15.4 參考文獻 更新時間:2021-12-01 14:00:11
- 15.3 小結
- 15.2.2 自監督學習
- 15.2.1 強化學習
- 15.2 從Packt獲取更多資源
- 15.1.3 系統2算法
- 15.1.2 自監督學習
- 15.1.1 深度強化學習
- 15.1 尋找深度學習的前沿話題
- 第15章 深度學習的未來
- 14.7 參考文獻
- 14.6 習題與答案
- 14.5 小結
- 14.4 GAN的倫理意蘊
- 14.3 比較GAN和VAE
- 14.2.2 卷積GAN模型
- 14.2.1 基于MLP的GAN模型
- 14.2 訓練GAN模型
- 14.1.2 GAN模型
- 14.1.1 基于對抗的學習
- 14.1 對抗學習簡介
- 第14章 生成對抗網絡
- 13.9 參考文獻
- 13.8 習題與答案
- 13.7 小結
- 13.6 倫理意蘊
- 13.5 序列到序列的模型
- 13.4.2 實現與結果
- 13.4.1 雙向LSTM
- 13.4 向量到序列的模型
- 13.3.2 結果
- 13.3.1 無監督模型
- 13.3 序列到向量的模型
- 13.2 長短時記憶模型
- 13.1.3 詞嵌入與IMDb上的RNN
- 13.1.2 嵌入層
- 13.1.1 簡單RNN模型
- 13.1 循環神經網絡簡介
- 第13章 循環神經網絡
- 12.8 參考文獻
- 12.7 習題與答案
- 12.6 小結
- 12.5.3 濾波器的可視化
- 12.5.2 結果
- 12.5.1 實現
- 12.5 面向CIFAR-10的卷積神經網絡
- 12.4 池化策略
- 12.3.2 layer+activation組合
- 12.3.1 Conv2D
- 12.3 卷積層
- 12.2.3 n維卷積
- 12.2.2 二維卷積
- 12.2.1 一維卷積
- 12.2 多維卷積
- 12.1 卷積神經網絡簡介
- 第12章 卷積神經網絡
- 11.7 參考文獻
- 11.6 習題與答案
- 11.5 小結
- 11.4.2 實現與結果
- 11.4.1 程序庫與參數
- 11.4 超參數調優
- 11.3.2 結果
- 11.3.1 構建并訓練稀疏網絡
- 11.3 稀疏深度神經網絡
- 11.2.2 結果
- 11.2.1 構建并訓練模型
- 11.2 密集深度神經網絡
- 11.1.5 結果
- 11.1.4 新的訓練工具
- 11.1.3 CIFAR-10數據集
- 11.1.2 網絡層的廣度
- 11.1.1 回顧深度學習
- 11.1 廣度神經網絡
- 第11章 深度與廣度神經網絡
- 第三部分 監督深度學習
- 10.6 參考文獻
- 10.5 習題與答案
- 10.4 小結
- 10.3 比較RBM和AE
- 10.2 使用RBM學習數據表示
- 10.1.3 伯努利RBM
- 10.1.2 RBM模型
- 10.1.1 BM模型
- 10.1 RBM模型簡介
- 第10章 受限玻爾茲曼機
- 9.7 參考文獻
- 9.6 習題與答案
- 9.5 小結
- 9.4 生成模型的倫理意蘊
- 9.3.3 VAE模型去噪
- 9.3.2 深度VAE模型
- 9.3.1 淺層VAE模型
- 9.3 深度和淺層VAE在MNIST上的性能比較
- 9.2.7 使用VAE生成數據
- 9.2.6 訓練VAE模型
- 9.2.5 最小化重構損失
- 9.2.4 解碼器建模
- 9.2.3 學習編碼器中的后驗概率分布參數
- 9.2.2 重參數化技巧與采樣
- 9.2.1 回顧心臟病數據集
- 9.2 研究變分自編碼器模型
- 9.1 深度生成模型簡介
- 第9章 變分自編碼器
- 8.6 參考文獻
- 8.5 習題與答案
- 8.4 小結
- 8.3.2 MNIST
- 8.3.1 CIFAR-10
- 8.3 探索深度自編碼器的潛在空間
- 8.2.2 隨機失活
- 8.2.1 批歸一化
- 8.2 建立深度自編碼器
- 8.1 深度信念網絡簡介
- 第8章 深度自編碼器
- 7.7 參考文獻
- 7.6 習題與答案
- 7.5 小結
- 7.4 無監督學習的倫理意蘊
- 7.3.3 模型訓練與可視化
- 7.3.2 MNIST的自編碼器
- 7.3.1 MNIST數據的準備
- 7.3 數據降維與可視化應用
- 7.2.4 學習與測試
- 7.2.3 損失函數
- 7.2.2 解碼層
- 7.2.1 編碼層
- 7.2 編碼層與解碼層
- 7.1 無監督學習簡介
- 第7章 自編碼器
- 第二部分 無監督深度學習
- 6.6 參考文獻
- 6.5 習題與答案
- 6.4 小結
- 6.3 尋找最佳超參數
- 6.2.4 步驟4:反向傳播
- 6.2.3 步驟3:計算損失
- 6.2.2 步驟2:前向傳播
- 6.2.1 步驟1:初始化
- 6.2 最小化誤差
- 6.1 MLP模型
- 第6章 訓練多層神經元
- 5.6 參考文獻
- 5.5 習題與答案
- 5.4 小結
- 5.3.2 線性不可分數據的收斂
- 5.3.1 線性可分數據的收斂
- 5.3 處理線性不可分數據的感知機
- 5.2 感知機學習算法
- 5.1.2 張量運算
- 5.1.1 概念的可視化
- 5.1 感知機模型
- 第5章 訓練單個神經元
- 4.8 參考文獻
- 4.7 習題與答案
- 4.6 小結
- 4.5.3 抽樣不足組的權重類
- 4.5.2 小心對待并驗證異常值
- 4.5.1 使用適當的模型性能度量指標
- 4.5 訓練深度學習算法的倫理意蘊
- 4.4 機器學習背后的藝術
- 4.3.2 沒有測試數據的情形
- 4.3.1 擁有測試數據的情形
- 4.3 識別過擬合和泛化
- 4.2.3 回歸分析矩陣
- 4.2.2 多元分類
- 4.2.1 二元分類
- 4.2 度量成功與錯誤
- 4.1.2 回歸問題
- 4.1.1 分類問題
- 4.1 學習的目的
- 第4章 從數據中學習
- 3.10 參考文獻
- 3.9 習題與答案
- 3.8 小結
- 3.7 操縱數據的道德影響
- 3.6.3 關于維度的數量
- 3.6.2 無監督技術
- 3.6.1 監督算法
- 3.6 數據降維
- 3.5.4 其他增強手段
- 3.5.3 旋轉
- 3.5.2 添加噪聲
- 3.5.1 尺度縮放
- 3.5 數據增強
- 3.4 改變數據的分布
- 3.3.2 標準化到零均值和單位方差
- 3.3.1 縮放到特定范圍的數值
- 3.3 實值數據與單變量回歸
- 3.2.2 將分類轉換成獨熱編碼
- 3.2.1 將字符串標簽轉換成數字
- 3.2 分類數據與多個類別
- 3.1.2 二值化MINST數據集
- 3.1.1 克利夫蘭心臟病數據集的二元目標
- 3.1 二元數據與二元分類
- 第3章 數據準備
- 2.9 參考文獻
- 2.8 習題與答案
- 2.7 小結
- 2.6.3 其他程序庫
- 2.6.2 Theano
- 2.6.1 Caffe
- 2.6 其他深度學習程序庫
- 2.5 Dopamine簡介
- 2.4 PyTorch簡介
- 2.3.2 Keras背后的原理
- 2.3.1 安裝
- 2.3 Keras的簡介與安裝
- 2.2.3 TensorFlow背后的原理
- 2.2.2 擁有GPU支持的TensorFlow
- 2.2.1 安裝
- 2.2 TensorFlow的簡介與安裝
- 2.1 Colaboratory簡介
- 第2章 深度學習框架的搭建與概述
- 1.7 參考文獻
- 1.6 習題與答案
- 1.5 小結
- 1.4 深度學習在現代社會中的重要性
- 1.3.4 深度網絡
- 1.3.3 淺層網絡
- 1.3.2 感知機學習算法
- 1.3.1 神經元模型
- 1.3 深度學習概述
- 1.2 從數據中訓練ML算法
- 1.1 接觸ML生態系統
- 第1章 機器學習概述
- 第一部分 深度學習快速入門
- 審校者簡介
- 作者簡介
- 前言
- 序
- 譯者序
- 版權信息
- 封面
- 封面
- 版權信息
- 譯者序
- 序
- 前言
- 作者簡介
- 審校者簡介
- 第一部分 深度學習快速入門
- 第1章 機器學習概述
- 1.1 接觸ML生態系統
- 1.2 從數據中訓練ML算法
- 1.3 深度學習概述
- 1.3.1 神經元模型
- 1.3.2 感知機學習算法
- 1.3.3 淺層網絡
- 1.3.4 深度網絡
- 1.4 深度學習在現代社會中的重要性
- 1.5 小結
- 1.6 習題與答案
- 1.7 參考文獻
- 第2章 深度學習框架的搭建與概述
- 2.1 Colaboratory簡介
- 2.2 TensorFlow的簡介與安裝
- 2.2.1 安裝
- 2.2.2 擁有GPU支持的TensorFlow
- 2.2.3 TensorFlow背后的原理
- 2.3 Keras的簡介與安裝
- 2.3.1 安裝
- 2.3.2 Keras背后的原理
- 2.4 PyTorch簡介
- 2.5 Dopamine簡介
- 2.6 其他深度學習程序庫
- 2.6.1 Caffe
- 2.6.2 Theano
- 2.6.3 其他程序庫
- 2.7 小結
- 2.8 習題與答案
- 2.9 參考文獻
- 第3章 數據準備
- 3.1 二元數據與二元分類
- 3.1.1 克利夫蘭心臟病數據集的二元目標
- 3.1.2 二值化MINST數據集
- 3.2 分類數據與多個類別
- 3.2.1 將字符串標簽轉換成數字
- 3.2.2 將分類轉換成獨熱編碼
- 3.3 實值數據與單變量回歸
- 3.3.1 縮放到特定范圍的數值
- 3.3.2 標準化到零均值和單位方差
- 3.4 改變數據的分布
- 3.5 數據增強
- 3.5.1 尺度縮放
- 3.5.2 添加噪聲
- 3.5.3 旋轉
- 3.5.4 其他增強手段
- 3.6 數據降維
- 3.6.1 監督算法
- 3.6.2 無監督技術
- 3.6.3 關于維度的數量
- 3.7 操縱數據的道德影響
- 3.8 小結
- 3.9 習題與答案
- 3.10 參考文獻
- 第4章 從數據中學習
- 4.1 學習的目的
- 4.1.1 分類問題
- 4.1.2 回歸問題
- 4.2 度量成功與錯誤
- 4.2.1 二元分類
- 4.2.2 多元分類
- 4.2.3 回歸分析矩陣
- 4.3 識別過擬合和泛化
- 4.3.1 擁有測試數據的情形
- 4.3.2 沒有測試數據的情形
- 4.4 機器學習背后的藝術
- 4.5 訓練深度學習算法的倫理意蘊
- 4.5.1 使用適當的模型性能度量指標
- 4.5.2 小心對待并驗證異常值
- 4.5.3 抽樣不足組的權重類
- 4.6 小結
- 4.7 習題與答案
- 4.8 參考文獻
- 第5章 訓練單個神經元
- 5.1 感知機模型
- 5.1.1 概念的可視化
- 5.1.2 張量運算
- 5.2 感知機學習算法
- 5.3 處理線性不可分數據的感知機
- 5.3.1 線性可分數據的收斂
- 5.3.2 線性不可分數據的收斂
- 5.4 小結
- 5.5 習題與答案
- 5.6 參考文獻
- 第6章 訓練多層神經元
- 6.1 MLP模型
- 6.2 最小化誤差
- 6.2.1 步驟1:初始化
- 6.2.2 步驟2:前向傳播
- 6.2.3 步驟3:計算損失
- 6.2.4 步驟4:反向傳播
- 6.3 尋找最佳超參數
- 6.4 小結
- 6.5 習題與答案
- 6.6 參考文獻
- 第二部分 無監督深度學習
- 第7章 自編碼器
- 7.1 無監督學習簡介
- 7.2 編碼層與解碼層
- 7.2.1 編碼層
- 7.2.2 解碼層
- 7.2.3 損失函數
- 7.2.4 學習與測試
- 7.3 數據降維與可視化應用
- 7.3.1 MNIST數據的準備
- 7.3.2 MNIST的自編碼器
- 7.3.3 模型訓練與可視化
- 7.4 無監督學習的倫理意蘊
- 7.5 小結
- 7.6 習題與答案
- 7.7 參考文獻
- 第8章 深度自編碼器
- 8.1 深度信念網絡簡介
- 8.2 建立深度自編碼器
- 8.2.1 批歸一化
- 8.2.2 隨機失活
- 8.3 探索深度自編碼器的潛在空間
- 8.3.1 CIFAR-10
- 8.3.2 MNIST
- 8.4 小結
- 8.5 習題與答案
- 8.6 參考文獻
- 第9章 變分自編碼器
- 9.1 深度生成模型簡介
- 9.2 研究變分自編碼器模型
- 9.2.1 回顧心臟病數據集
- 9.2.2 重參數化技巧與采樣
- 9.2.3 學習編碼器中的后驗概率分布參數
- 9.2.4 解碼器建模
- 9.2.5 最小化重構損失
- 9.2.6 訓練VAE模型
- 9.2.7 使用VAE生成數據
- 9.3 深度和淺層VAE在MNIST上的性能比較
- 9.3.1 淺層VAE模型
- 9.3.2 深度VAE模型
- 9.3.3 VAE模型去噪
- 9.4 生成模型的倫理意蘊
- 9.5 小結
- 9.6 習題與答案
- 9.7 參考文獻
- 第10章 受限玻爾茲曼機
- 10.1 RBM模型簡介
- 10.1.1 BM模型
- 10.1.2 RBM模型
- 10.1.3 伯努利RBM
- 10.2 使用RBM學習數據表示
- 10.3 比較RBM和AE
- 10.4 小結
- 10.5 習題與答案
- 10.6 參考文獻
- 第三部分 監督深度學習
- 第11章 深度與廣度神經網絡
- 11.1 廣度神經網絡
- 11.1.1 回顧深度學習
- 11.1.2 網絡層的廣度
- 11.1.3 CIFAR-10數據集
- 11.1.4 新的訓練工具
- 11.1.5 結果
- 11.2 密集深度神經網絡
- 11.2.1 構建并訓練模型
- 11.2.2 結果
- 11.3 稀疏深度神經網絡
- 11.3.1 構建并訓練稀疏網絡
- 11.3.2 結果
- 11.4 超參數調優
- 11.4.1 程序庫與參數
- 11.4.2 實現與結果
- 11.5 小結
- 11.6 習題與答案
- 11.7 參考文獻
- 第12章 卷積神經網絡
- 12.1 卷積神經網絡簡介
- 12.2 多維卷積
- 12.2.1 一維卷積
- 12.2.2 二維卷積
- 12.2.3 n維卷積
- 12.3 卷積層
- 12.3.1 Conv2D
- 12.3.2 layer+activation組合
- 12.4 池化策略
- 12.5 面向CIFAR-10的卷積神經網絡
- 12.5.1 實現
- 12.5.2 結果
- 12.5.3 濾波器的可視化
- 12.6 小結
- 12.7 習題與答案
- 12.8 參考文獻
- 第13章 循環神經網絡
- 13.1 循環神經網絡簡介
- 13.1.1 簡單RNN模型
- 13.1.2 嵌入層
- 13.1.3 詞嵌入與IMDb上的RNN
- 13.2 長短時記憶模型
- 13.3 序列到向量的模型
- 13.3.1 無監督模型
- 13.3.2 結果
- 13.4 向量到序列的模型
- 13.4.1 雙向LSTM
- 13.4.2 實現與結果
- 13.5 序列到序列的模型
- 13.6 倫理意蘊
- 13.7 小結
- 13.8 習題與答案
- 13.9 參考文獻
- 第14章 生成對抗網絡
- 14.1 對抗學習簡介
- 14.1.1 基于對抗的學習
- 14.1.2 GAN模型
- 14.2 訓練GAN模型
- 14.2.1 基于MLP的GAN模型
- 14.2.2 卷積GAN模型
- 14.3 比較GAN和VAE
- 14.4 GAN的倫理意蘊
- 14.5 小結
- 14.6 習題與答案
- 14.7 參考文獻
- 第15章 深度學習的未來
- 15.1 尋找深度學習的前沿話題
- 15.1.1 深度強化學習
- 15.1.2 自監督學習
- 15.1.3 系統2算法
- 15.2 從Packt獲取更多資源
- 15.2.1 強化學習
- 15.2.2 自監督學習
- 15.3 小結
- 15.4 參考文獻 更新時間:2021-12-01 14:00:11