- 14.8 習題 更新時間:2022-07-27 18:57:07
- 14.7 本章小結
- 14.6 池化層輸出值的計算
- 14.5 輸出值的計算
- 14.4 池化層
- 14.3 卷積層
- 14.2 網絡結構
- 14.1 卷積運算
- 第14章 卷積神經網絡
- 13.6 習題
- 13.5 本章小結
- 13.4.3 候選門
- 13.4.2 輸入門與輸出門
- 13.4.1 遺忘門
- 13.4 長短期記憶網絡
- 13.3.3 權重更新
- 13.3.2 權重梯度的計算
- 13.3.1 誤差項的傳遞
- 13.3 遞歸神經網絡的訓練
- 13.2 遞歸神經網絡的前向計算
- 13.1 遞歸神經網絡概述
- 第13章 遞歸神經網絡
- 12.9 習題
- 12.8 本章小結
- 12.7.3 語言模型的訓練
- 12.7.2 Softmax層
- 12.7.1 向量化
- 12.7 RNN的應用舉例——基于RNN的語言模型
- 12.6 循環神經網絡中的梯度爆炸和梯度消失
- 12.5.3 權重梯度的計算
- 12.5.2 誤差項的計算
- 12.5.1 前向計算
- 12.5 循環神經網絡的訓練
- 12.4 深度循環神經網絡
- 12.3 雙向循環神經網絡
- 12.2 語言模型
- 12.1 循環神經網絡概述
- 第12章 循環神經網絡
- 11.6 習題
- 11.5 本章小結
- 11.4 對比散度
- 11.3.2 條件分布
- 11.3.1 邊緣分布
- 11.3 近似推斷
- 11.2.3 勢函數與概率分布
- 11.2.2 能量函數與勢函數
- 11.2.1 能量函數
- 11.2 能量模型
- 11.1.2 受限玻爾茲曼機
- 11.1.1 玻爾茲曼機概述
- 11.1 玻爾茲曼機
- 第11章 玻爾茲曼機及其相關模型
- 10.5 習題
- 10.4 本章小結
- 10.3.3 棧式自編碼器
- 10.3.2 稀疏自編碼器
- 10.3.1 降噪自編碼器
- 10.3 常見的幾種自編碼器
- 10.2 欠完備自編碼器
- 10.1 自編碼器概述
- 第10章 自編碼器
- 9.5 習題
- 9.4 本章小結
- 9.3 反向傳播
- 9.2.4 梯度消失和梯度爆炸
- 9.2.3 參數梯度
- 9.2.2 隱藏層梯度
- 9.2.1 輸出層梯度
- 9.2 梯度計算
- 9.1.2 結構風險最小化
- 9.1.1 經驗風險最小化
- 9.1 風險最小化
- 第9章 反向傳播與梯度計算
- 8.7 習題
- 8.6 本章小結
- 8.5.2 隨機梯度下降算法
- 8.5.1 前饋神經網絡的基本概念
- 8.5 基于梯度的學習
- 8.4.4 Softmax函數
- 8.4.3 ReLU函數
- 8.4.2 Tanh函數
- 8.4.1 Sigmoid函數
- 8.4 激活函數
- 8.3.2 感知機的訓練
- 8.3.1 線性單元
- 8.3 感知機
- 8.2 人工神經網絡
- 8.1 神經元
- 第8章 前饋神經網絡
- 7.10 習題
- 7.9 本章小結
- 7.8.6 學習圖結構
- 7.8.5 一般圖的精確推斷
- 7.8.4 置信傳播算法
- 7.8.3 因子圖
- 7.8.2 樹
- 7.8.1 鏈推斷
- 7.8 圖模型中的推斷
- 7.7.3 圖像降噪
- 7.7.2 分解性質
- 7.7.1 條件獨立性
- 7.7 馬爾可夫網絡
- 7.6 貝葉斯網絡
- 7.5 獨立性和條件獨立性
- 7.4 鏈式法則和因子分解
- 7.3 表示理論與推理理論
- 7.2.2 判別模型
- 7.2.1 生成模型
- 7.2 生成模型與判別模型
- 7.1 概率圖模型
- 第7章 概率圖模型
- 6.8 習題
- 6.7 本章小結
- 6.6 優化算法的選擇
- 6.5 梯度下降算法
- 6.4 病態條件數
- 6.3 性能的穩定性
- 6.2.2 類別不平衡
- 6.2.1 獨立同分布與泛化能力
- 6.2 數據的穩定性
- 6.1.3 算法穩定性與擾動
- 6.1.2 平滑與0
- 6.1.1 上溢和下溢
- 6.1 計算的穩定性
- 第6章 數值計算與最優化
- 5.8 習題
- 5.7 本章小結
- 5.6.2 主成分分析
- 5.6.1 K-均值聚類
- 5.6 無監督學習算法
- 5.5.3 支持向量機
- 5.5.2 Logistic回歸
- 5.5.1 線性回歸
- 5.5 監督學習算法
- 5.4 偏差與方差
- 5.3 評估方法
- 5.2.4 沒有免費的午餐定理
- 5.2.3 欠擬合
- 5.2.2 過擬合
- 5.2.1 機器學習中的泛化
- 5.2 容量與擬合
- 5.1.7 激活函數
- 5.1.6 M-P神經元模型
- 5.1.5 反向傳播算法
- 5.1.4 人工神經網絡
- 5.1.3 經驗E
- 5.1.2 性能度量P
- 5.1.1 任務T
- 5.1 學習算法
- 第5章 深度學習基礎知識
- 4.11 習題
- 4.10 本章小結
- 4.9.4 相對熵與交叉熵
- 4.9.3 互信息
- 4.9.2 條件熵
- 4.9.1 信息熵
- 4.9 信息論
- 4.8.2 最大似然估計
- 4.8.1 正態分布
- 4.8 正態分布與最大似然估計
- 4.7.3 樸素貝葉斯
- 4.7.2 貝葉斯公式
- 4.7.1 條件概率
- 4.7 貝葉斯規則
- 4.6.3 協方差
- 4.6.2 方差
- 4.6.1 數學期望
- 4.6 數學期望、方差、協方差
- 4.5.2 邊緣分布函數
- 4.5.1 二維隨機變量及其分布函數
- 4.5 多維隨機變量
- 4.4.3 分辨離散型隨機變量和連續型隨機變量
- 4.4.2 連續型隨機變量和概率密度函數
- 4.4.1 離散型隨機變量和分布律
- 4.4 一維隨機變量
- 4.3 隨機變量的分布函數
- 4.2 樣本空間與隨機變量
- 4.1 概率的用途
- 第4章 概率與信息論
- 3.9 習題
- 3.8 本章小結
- 3.7 跡運算
- 3.6 奇異值分解
- 3.5 特征值分解
- 3.4 特殊的矩陣與向量
- 3.3.2 矩陣范數
- 3.3.1 向量范數
- 3.3 范數
- 3.2.5 實例:線性回歸
- 3.2.4 實例:求解方程組
- 3.2.3 向量組的秩
- 3.2.2 線性相關
- 3.2.1 線性組合
- 3.2 線性相關與生成子空間
- 3.1 標量、向量、矩陣和張量
- 第3章 線性代數基礎
- 2.12 習題
- 2.11 本章小結
- 2.10 Theano中的常用Debug技巧
- 2.9.2 scan循環演示
- 2.9.1 scan循環的參數
- 2.9 Theano中的循環
- 2.8 Theano中的條件表達式
- 2.7.5 符號計算圖模型
- 2.7.4 op節點
- 2.7.3 apply節點
- 2.7.2 type節點
- 2.7.1 variable節點
- 2.7 Theano中的符號計算圖模型
- 2.6.3 Theano中重要的函數
- 2.6.2 函數的復制
- 2.6.1 函數的定義
- 2.6 Theano中的函數
- 2.5 Theano編程風格
- 2.4 Theano中的符號變量
- 2.3 配置環境變量
- 2.2 安裝Theano
- 2.1 初識Theano
- 第2章 Theano基礎
- 1.5 習題
- 1.4 本章小結
- 1.3 深度學習的研究現狀
- 1.2.3 深度學習的3種結構類型
- 1.2.2 深度學習的3個層次
- 1.2.1 深度學習的發展
- 1.2 什么是深度學習
- 1.1 什么是機器學習
- 第1章 深度學習簡介
- 前言
- 序
- 本書編委會
- 內容簡介
- 版權信息
- 封面
- 封面
- 版權信息
- 內容簡介
- 本書編委會
- 序
- 前言
- 第1章 深度學習簡介
- 1.1 什么是機器學習
- 1.2 什么是深度學習
- 1.2.1 深度學習的發展
- 1.2.2 深度學習的3個層次
- 1.2.3 深度學習的3種結構類型
- 1.3 深度學習的研究現狀
- 1.4 本章小結
- 1.5 習題
- 第2章 Theano基礎
- 2.1 初識Theano
- 2.2 安裝Theano
- 2.3 配置環境變量
- 2.4 Theano中的符號變量
- 2.5 Theano編程風格
- 2.6 Theano中的函數
- 2.6.1 函數的定義
- 2.6.2 函數的復制
- 2.6.3 Theano中重要的函數
- 2.7 Theano中的符號計算圖模型
- 2.7.1 variable節點
- 2.7.2 type節點
- 2.7.3 apply節點
- 2.7.4 op節點
- 2.7.5 符號計算圖模型
- 2.8 Theano中的條件表達式
- 2.9 Theano中的循環
- 2.9.1 scan循環的參數
- 2.9.2 scan循環演示
- 2.10 Theano中的常用Debug技巧
- 2.11 本章小結
- 2.12 習題
- 第3章 線性代數基礎
- 3.1 標量、向量、矩陣和張量
- 3.2 線性相關與生成子空間
- 3.2.1 線性組合
- 3.2.2 線性相關
- 3.2.3 向量組的秩
- 3.2.4 實例:求解方程組
- 3.2.5 實例:線性回歸
- 3.3 范數
- 3.3.1 向量范數
- 3.3.2 矩陣范數
- 3.4 特殊的矩陣與向量
- 3.5 特征值分解
- 3.6 奇異值分解
- 3.7 跡運算
- 3.8 本章小結
- 3.9 習題
- 第4章 概率與信息論
- 4.1 概率的用途
- 4.2 樣本空間與隨機變量
- 4.3 隨機變量的分布函數
- 4.4 一維隨機變量
- 4.4.1 離散型隨機變量和分布律
- 4.4.2 連續型隨機變量和概率密度函數
- 4.4.3 分辨離散型隨機變量和連續型隨機變量
- 4.5 多維隨機變量
- 4.5.1 二維隨機變量及其分布函數
- 4.5.2 邊緣分布函數
- 4.6 數學期望、方差、協方差
- 4.6.1 數學期望
- 4.6.2 方差
- 4.6.3 協方差
- 4.7 貝葉斯規則
- 4.7.1 條件概率
- 4.7.2 貝葉斯公式
- 4.7.3 樸素貝葉斯
- 4.8 正態分布與最大似然估計
- 4.8.1 正態分布
- 4.8.2 最大似然估計
- 4.9 信息論
- 4.9.1 信息熵
- 4.9.2 條件熵
- 4.9.3 互信息
- 4.9.4 相對熵與交叉熵
- 4.10 本章小結
- 4.11 習題
- 第5章 深度學習基礎知識
- 5.1 學習算法
- 5.1.1 任務T
- 5.1.2 性能度量P
- 5.1.3 經驗E
- 5.1.4 人工神經網絡
- 5.1.5 反向傳播算法
- 5.1.6 M-P神經元模型
- 5.1.7 激活函數
- 5.2 容量與擬合
- 5.2.1 機器學習中的泛化
- 5.2.2 過擬合
- 5.2.3 欠擬合
- 5.2.4 沒有免費的午餐定理
- 5.3 評估方法
- 5.4 偏差與方差
- 5.5 監督學習算法
- 5.5.1 線性回歸
- 5.5.2 Logistic回歸
- 5.5.3 支持向量機
- 5.6 無監督學習算法
- 5.6.1 K-均值聚類
- 5.6.2 主成分分析
- 5.7 本章小結
- 5.8 習題
- 第6章 數值計算與最優化
- 6.1 計算的穩定性
- 6.1.1 上溢和下溢
- 6.1.2 平滑與0
- 6.1.3 算法穩定性與擾動
- 6.2 數據的穩定性
- 6.2.1 獨立同分布與泛化能力
- 6.2.2 類別不平衡
- 6.3 性能的穩定性
- 6.4 病態條件數
- 6.5 梯度下降算法
- 6.6 優化算法的選擇
- 6.7 本章小結
- 6.8 習題
- 第7章 概率圖模型
- 7.1 概率圖模型
- 7.2 生成模型與判別模型
- 7.2.1 生成模型
- 7.2.2 判別模型
- 7.3 表示理論與推理理論
- 7.4 鏈式法則和因子分解
- 7.5 獨立性和條件獨立性
- 7.6 貝葉斯網絡
- 7.7 馬爾可夫網絡
- 7.7.1 條件獨立性
- 7.7.2 分解性質
- 7.7.3 圖像降噪
- 7.8 圖模型中的推斷
- 7.8.1 鏈推斷
- 7.8.2 樹
- 7.8.3 因子圖
- 7.8.4 置信傳播算法
- 7.8.5 一般圖的精確推斷
- 7.8.6 學習圖結構
- 7.9 本章小結
- 7.10 習題
- 第8章 前饋神經網絡
- 8.1 神經元
- 8.2 人工神經網絡
- 8.3 感知機
- 8.3.1 線性單元
- 8.3.2 感知機的訓練
- 8.4 激活函數
- 8.4.1 Sigmoid函數
- 8.4.2 Tanh函數
- 8.4.3 ReLU函數
- 8.4.4 Softmax函數
- 8.5 基于梯度的學習
- 8.5.1 前饋神經網絡的基本概念
- 8.5.2 隨機梯度下降算法
- 8.6 本章小結
- 8.7 習題
- 第9章 反向傳播與梯度計算
- 9.1 風險最小化
- 9.1.1 經驗風險最小化
- 9.1.2 結構風險最小化
- 9.2 梯度計算
- 9.2.1 輸出層梯度
- 9.2.2 隱藏層梯度
- 9.2.3 參數梯度
- 9.2.4 梯度消失和梯度爆炸
- 9.3 反向傳播
- 9.4 本章小結
- 9.5 習題
- 第10章 自編碼器
- 10.1 自編碼器概述
- 10.2 欠完備自編碼器
- 10.3 常見的幾種自編碼器
- 10.3.1 降噪自編碼器
- 10.3.2 稀疏自編碼器
- 10.3.3 棧式自編碼器
- 10.4 本章小結
- 10.5 習題
- 第11章 玻爾茲曼機及其相關模型
- 11.1 玻爾茲曼機
- 11.1.1 玻爾茲曼機概述
- 11.1.2 受限玻爾茲曼機
- 11.2 能量模型
- 11.2.1 能量函數
- 11.2.2 能量函數與勢函數
- 11.2.3 勢函數與概率分布
- 11.3 近似推斷
- 11.3.1 邊緣分布
- 11.3.2 條件分布
- 11.4 對比散度
- 11.5 本章小結
- 11.6 習題
- 第12章 循環神經網絡
- 12.1 循環神經網絡概述
- 12.2 語言模型
- 12.3 雙向循環神經網絡
- 12.4 深度循環神經網絡
- 12.5 循環神經網絡的訓練
- 12.5.1 前向計算
- 12.5.2 誤差項的計算
- 12.5.3 權重梯度的計算
- 12.6 循環神經網絡中的梯度爆炸和梯度消失
- 12.7 RNN的應用舉例——基于RNN的語言模型
- 12.7.1 向量化
- 12.7.2 Softmax層
- 12.7.3 語言模型的訓練
- 12.8 本章小結
- 12.9 習題
- 第13章 遞歸神經網絡
- 13.1 遞歸神經網絡概述
- 13.2 遞歸神經網絡的前向計算
- 13.3 遞歸神經網絡的訓練
- 13.3.1 誤差項的傳遞
- 13.3.2 權重梯度的計算
- 13.3.3 權重更新
- 13.4 長短期記憶網絡
- 13.4.1 遺忘門
- 13.4.2 輸入門與輸出門
- 13.4.3 候選門
- 13.5 本章小結
- 13.6 習題
- 第14章 卷積神經網絡
- 14.1 卷積運算
- 14.2 網絡結構
- 14.3 卷積層
- 14.4 池化層
- 14.5 輸出值的計算
- 14.6 池化層輸出值的計算
- 14.7 本章小結
- 14.8 習題 更新時間:2022-07-27 18:57:07