舉報

會員
深度學習:從基礎到實踐(全2冊)
最新章節:
29.3 庫的內建數據集
本書從基本概念和理論入手,通過近千張圖和簡單的例子由淺入深地講解深度學習的相關知識,且不涉及復雜的數學內容。本書分為上下兩冊。上冊著重介紹深度學習的基礎知識,旨在幫助讀者建立扎實的知識儲備,主要介紹隨機性與基礎統計學、訓練與測試、過擬合與欠擬合、神經元、學習與推理、數據準備、分類器、集成算法、前饋網絡、激活函數、反向傳播等內容。下冊介紹機器學習的scikit-learn庫和深度學習的Keras庫(這兩種庫均基于Python語言),以及卷積神經網絡、循環神經網絡、自編碼器、強化學習、生成對抗網絡等內容,還介紹了一些創造性應用,并給出了一些典型的數據集,以幫助讀者更好地了解學習。本書適合想要了解和使用深度學習的人閱讀,也可作為深度學習教學培訓領域的入門級參考用書。
最新章節
書友吧 1評論品牌:人郵圖書
譯者:羅家佳
上架時間:2022-12-20 18:02:30
出版社:人民郵電出版社
本書數字版權由人郵圖書提供,并由其授權上海閱文信息技術有限公司制作發行
- 29.3 庫的內建數據集 更新時間:2022-12-20 18:35:35
- 29.2 MNIST和Fashion-MNIST
- 29.1 公共數據集
- 第29章 數據集
- 參考資料
- 28.5 為本書生成更多的內容
- 28.4 神經風格遷移
- 28.3 deep dreaming
- 28.2 可視化過濾器
- 28.1 為什么這一章出現在這里
- 第28章 創造性應用
- 參考資料
- 27.7 挑戰
- 27.6 DCGAN
- 27.5 實際操作中的GAN
- 27.4 GAN的實現
- 27.3 為什么要用“對抗”
- 27.2 一個比喻:偽造鈔票
- 27.1 為什么這一章出現在這里
- 第27章 生成對抗網絡
- 參考資料
- 26.10 兩個應用
- 26.9 經驗回放
- 26.8 強化學習的全貌
- 26.7 SARSA
- 26.6 Q學習
- 26.5 L學習
- 26.4 翻轉
- 26.3 強化學習的結構
- 26.2 目標
- 26.1 為什么這一章出現在這里
- 第26章 強化學習
- 參考資料
- 25.10 探索VAE
- 25.9 VAE
- 25.8 降噪
- 25.7 卷積自編碼器
- 25.6 討論
- 25.5 探索自編碼器
- 25.4 更好的自編碼器
- 25.3 最簡單的自編碼器
- 25.2 引言
- 25.1 為什么這一章出現在這里
- 第25章 自編碼器
- 參考資料
- 24.6 函數式API
- 24.5 RNN
- 24.4 卷積網絡
- 24.3 使用scikit-learn
- 24.2 改進模型
- 24.1 為什么這一章出現在這里
- 第24章 Keras第2部分
- 參考資料
- 23.10 回調函數
- 23.9 保存和加載
- 23.8 訓練和使用模型
- 23.7 訓練模型
- 23.6 制作模型
- 23.5 準備數據
- 23.4 準備開始
- 23.3 概述
- 23.2 庫和調試
- 23.1 為什么這一章出現在這里
- 第23章 Keras第1部分
- 參考資料
- 22.9 一個例子
- 22.8 RNN的結構
- 22.7 LSTM和GRU
- 22.6 訓練RNN
- 22.5 組織輸入
- 22.4 RNN單元的結構
- 22.3 狀態
- 22.2 引言
- 22.1 為什么這一章出現在這里
- 第22章 循環神經網絡
- 參考資料
- 21.10 對手
- 21.9 卷積網絡樣例
- 21.8 轉置卷積
- 21.7 卷積層
- 21.6 1×1卷積
- 21.5 一維卷積
- 21.4 高維卷積
- 21.3 卷積
- 21.2 介紹
- 21.1 為什么這一章出現在這里
- 第21章 卷積神經網絡
- 參考資料
- 20.8 解釋結果
- 20.7 構建一個深度學習器
- 20.6 一些例子
- 20.5 層和圖形符號總結
- 20.4 深度學習層縱覽
- 20.3 輸入層和輸出層
- 20.2 深度學習概述
- 20.1 為什么這一章出現在這里
- 第20章 深度學習
- 深度學習:從基礎到實踐(下冊)
- 參考資料
- 19.6 優化器選擇
- 19.5 梯度下降變體
- 19.4 更新策略
- 19.3 調整學習率
- 19.2 幾何誤差
- 19.1 為什么這一章出現在這里
- 第19章 優化器
- 參考資料
- 18.12 討論
- 18.11 學習率
- 18.10 使用激活函數
- 18.9 實際應用中的反向傳播
- 18.8 第3步:其他神經元的delta
- 18.7 第2步:使用delta改變權重
- 18.6 第1步:輸出神經元的delta
- 18.5 微小的神經網絡
- 18.4 神經元輸出和網絡誤差
- 18.3 現在沒有激活函數
- 18.2 一種非常慢的學習方式
- 18.1 為什么這一章出現在這里
- 第18章 反向傳播
- 參考資料
- 17.8 歸一化指數函數
- 17.7 激活函數畫廊
- 17.6 光滑函數
- 17.5 分段線性函數
- 17.4 階躍函數
- 17.3 基本的激活函數
- 17.2 激活函數可以做什么
- 17.1 為什么這一章出現在這里
- 第17章 激活函數
- 參考資料
- 16.4 權重初始化
- 16.3 同步與異步流
- 16.2 神經網絡圖
- 16.1 為什么這一章出現在這里
- 第16章 前饋網絡
- 參考資料
- 15.12 結束語
- 15.11 實用工具
- 15.10 數據集
- 15.9 自動化
- 15.8 集成器
- 15.7 數據精化
- 15.6 變換
- 15.5 聚類
- 15.4 估算器
- 15.3 Python 約定
- 15.2 介紹
- 15.1 為什么這一章出現在這里
- 第15章 scikit-learn
- 參考資料
- 14.7 增強算法
- 14.6 極端隨機樹
- 14.5 隨機森林
- 14.4 套袋算法
- 14.3 投票
- 14.2 集成方法
- 14.1 為什么這一章出現在這里
- 第14章 集成算法
- 參考資料
- 13.7 討論
- 13.6 樸素貝葉斯
- 13.5 決策樹
- 13.4 支持向量機
- 13.3 k近鄰法
- 13.2 分類器的種類
- 13.1 為什么這一章出現在這里
- 第13章 分類器
- 參考資料
- 12.10 交叉驗證轉換
- 12.9 切片處理
- 12.8 轉換
- 12.7 降維
- 12.6 特征選擇
- 12.5 歸一化和標準化
- 12.4 數據清理基礎
- 12.3 數據類型
- 12.2 數據變換
- 12.1 為什么這一章出現在這里
- 第12章 數據準備
- 參考資料
- 11.7 操作條件
- 11.6 組合推理
- 11.5 歸納
- 11.4 演繹
- 11.3 演繹和歸納
- 11.2 學習的步驟
- 11.1 為什么這一章出現在這里
- 第11章 學習與推理
- 參考資料
- 10.4 小結
- 10.3 人工神經元
- 10.2 真實神經元
- 10.1 為什么這一章出現在這里
- 第10章 神經元
- 參考資料
- 9.7 用貝葉斯法則進行線擬合
- 9.6 偏差與方差
- 9.5 正則化
- 9.4 及早停止
- 9.3 過擬合數據
- 9.2 過擬合與欠擬合
- 9.1 為什么這一章出現在這里
- 第9章 過擬合與欠擬合
- 參考資料
- 8.6 對測試結果的利用
- 8.5 交叉驗證
- 8.4 驗證數據
- 8.3 測試數據
- 8.2 訓練
- 8.1 為什么這一章出現在這里
- 第8章 訓練與測試
- 參考資料
- 7.6 維度災難
- 7.5 聚類
- 7.4 多維二元分類
- 7.3 二維多分類
- 7.2 二維分類
- 7.1 為什么這一章出現在這里
- 第7章 分類
- 參考資料
- 6.9 KL散度
- 6.8 交叉熵
- 6.7 熵
- 6.6 自適應編碼
- 6.5 事件的大小
- 6.4 衡量信息
- 6.3 用比特作為單位
- 6.2 意外程度與語境
- 6.1 為什么這一章出現在這里
- 第6章 信息論
- 參考資料
- 5.4 梯度
- 5.3 導數
- 5.2 引言
- 5.1 為什么這一章出現在這里
- 第5章 曲線和曲面
- 參考資料
- 4.7 多個假設
- 4.6 重復貝葉斯定理
- 4.5 生活中的貝葉斯定理
- 4.4 這枚硬幣公平嗎
- 4.3 拋硬幣
- 4.2 頻率論者法則以及貝葉斯法則
- 4.1 為什么這一章出現在這里
- 第4章 貝葉斯定理
- 參考資料
- 3.8 混淆矩陣的應用
- 3.7 測量的正確性
- 3.6 邊際概率
- 3.5 聯合概率
- 3.4 條件概率
- 3.3 初級概率學
- 3.2 飛鏢游戲
- 3.1 為什么這一章出現在這里
- 第3章 概率
- 參考資料
- 2.9 Anscombe四重奏
- 2.8 協方差和相關性
- 2.7 高維空間
- 2.6 Bootstrapping算法
- 2.5 抽樣與放回
- 2.4 獨立性
- 2.3 一些常見的分布
- 2.2 隨機變量
- 2.1 為什么這一章出現在這里
- 第2章 隨機性與基礎統計學
- 參考資料
- 1.8 接下來會講什么
- 1.7 深度學習
- 1.6 強化學習
- 1.5 生成器
- 1.4 無監督學習
- 1.3 監督學習
- 1.2 從標記數據中學習
- 1.1 為什么這一章出現在這里
- 第1章 機器學習與深度學習入門
- 資源與支持
- 前言
- 譯者序
- 內容提要
- 深度學習:從基礎到實踐(上冊)
- 版權
- 版權信息
- 封面
- 封面
- 版權信息
- 版權
- 深度學習:從基礎到實踐(上冊)
- 內容提要
- 譯者序
- 前言
- 資源與支持
- 第1章 機器學習與深度學習入門
- 1.1 為什么這一章出現在這里
- 1.2 從標記數據中學習
- 1.3 監督學習
- 1.4 無監督學習
- 1.5 生成器
- 1.6 強化學習
- 1.7 深度學習
- 1.8 接下來會講什么
- 參考資料
- 第2章 隨機性與基礎統計學
- 2.1 為什么這一章出現在這里
- 2.2 隨機變量
- 2.3 一些常見的分布
- 2.4 獨立性
- 2.5 抽樣與放回
- 2.6 Bootstrapping算法
- 2.7 高維空間
- 2.8 協方差和相關性
- 2.9 Anscombe四重奏
- 參考資料
- 第3章 概率
- 3.1 為什么這一章出現在這里
- 3.2 飛鏢游戲
- 3.3 初級概率學
- 3.4 條件概率
- 3.5 聯合概率
- 3.6 邊際概率
- 3.7 測量的正確性
- 3.8 混淆矩陣的應用
- 參考資料
- 第4章 貝葉斯定理
- 4.1 為什么這一章出現在這里
- 4.2 頻率論者法則以及貝葉斯法則
- 4.3 拋硬幣
- 4.4 這枚硬幣公平嗎
- 4.5 生活中的貝葉斯定理
- 4.6 重復貝葉斯定理
- 4.7 多個假設
- 參考資料
- 第5章 曲線和曲面
- 5.1 為什么這一章出現在這里
- 5.2 引言
- 5.3 導數
- 5.4 梯度
- 參考資料
- 第6章 信息論
- 6.1 為什么這一章出現在這里
- 6.2 意外程度與語境
- 6.3 用比特作為單位
- 6.4 衡量信息
- 6.5 事件的大小
- 6.6 自適應編碼
- 6.7 熵
- 6.8 交叉熵
- 6.9 KL散度
- 參考資料
- 第7章 分類
- 7.1 為什么這一章出現在這里
- 7.2 二維分類
- 7.3 二維多分類
- 7.4 多維二元分類
- 7.5 聚類
- 7.6 維度災難
- 參考資料
- 第8章 訓練與測試
- 8.1 為什么這一章出現在這里
- 8.2 訓練
- 8.3 測試數據
- 8.4 驗證數據
- 8.5 交叉驗證
- 8.6 對測試結果的利用
- 參考資料
- 第9章 過擬合與欠擬合
- 9.1 為什么這一章出現在這里
- 9.2 過擬合與欠擬合
- 9.3 過擬合數據
- 9.4 及早停止
- 9.5 正則化
- 9.6 偏差與方差
- 9.7 用貝葉斯法則進行線擬合
- 參考資料
- 第10章 神經元
- 10.1 為什么這一章出現在這里
- 10.2 真實神經元
- 10.3 人工神經元
- 10.4 小結
- 參考資料
- 第11章 學習與推理
- 11.1 為什么這一章出現在這里
- 11.2 學習的步驟
- 11.3 演繹和歸納
- 11.4 演繹
- 11.5 歸納
- 11.6 組合推理
- 11.7 操作條件
- 參考資料
- 第12章 數據準備
- 12.1 為什么這一章出現在這里
- 12.2 數據變換
- 12.3 數據類型
- 12.4 數據清理基礎
- 12.5 歸一化和標準化
- 12.6 特征選擇
- 12.7 降維
- 12.8 轉換
- 12.9 切片處理
- 12.10 交叉驗證轉換
- 參考資料
- 第13章 分類器
- 13.1 為什么這一章出現在這里
- 13.2 分類器的種類
- 13.3 k近鄰法
- 13.4 支持向量機
- 13.5 決策樹
- 13.6 樸素貝葉斯
- 13.7 討論
- 參考資料
- 第14章 集成算法
- 14.1 為什么這一章出現在這里
- 14.2 集成方法
- 14.3 投票
- 14.4 套袋算法
- 14.5 隨機森林
- 14.6 極端隨機樹
- 14.7 增強算法
- 參考資料
- 第15章 scikit-learn
- 15.1 為什么這一章出現在這里
- 15.2 介紹
- 15.3 Python 約定
- 15.4 估算器
- 15.5 聚類
- 15.6 變換
- 15.7 數據精化
- 15.8 集成器
- 15.9 自動化
- 15.10 數據集
- 15.11 實用工具
- 15.12 結束語
- 參考資料
- 第16章 前饋網絡
- 16.1 為什么這一章出現在這里
- 16.2 神經網絡圖
- 16.3 同步與異步流
- 16.4 權重初始化
- 參考資料
- 第17章 激活函數
- 17.1 為什么這一章出現在這里
- 17.2 激活函數可以做什么
- 17.3 基本的激活函數
- 17.4 階躍函數
- 17.5 分段線性函數
- 17.6 光滑函數
- 17.7 激活函數畫廊
- 17.8 歸一化指數函數
- 參考資料
- 第18章 反向傳播
- 18.1 為什么這一章出現在這里
- 18.2 一種非常慢的學習方式
- 18.3 現在沒有激活函數
- 18.4 神經元輸出和網絡誤差
- 18.5 微小的神經網絡
- 18.6 第1步:輸出神經元的delta
- 18.7 第2步:使用delta改變權重
- 18.8 第3步:其他神經元的delta
- 18.9 實際應用中的反向傳播
- 18.10 使用激活函數
- 18.11 學習率
- 18.12 討論
- 參考資料
- 第19章 優化器
- 19.1 為什么這一章出現在這里
- 19.2 幾何誤差
- 19.3 調整學習率
- 19.4 更新策略
- 19.5 梯度下降變體
- 19.6 優化器選擇
- 參考資料
- 深度學習:從基礎到實踐(下冊)
- 第20章 深度學習
- 20.1 為什么這一章出現在這里
- 20.2 深度學習概述
- 20.3 輸入層和輸出層
- 20.4 深度學習層縱覽
- 20.5 層和圖形符號總結
- 20.6 一些例子
- 20.7 構建一個深度學習器
- 20.8 解釋結果
- 參考資料
- 第21章 卷積神經網絡
- 21.1 為什么這一章出現在這里
- 21.2 介紹
- 21.3 卷積
- 21.4 高維卷積
- 21.5 一維卷積
- 21.6 1×1卷積
- 21.7 卷積層
- 21.8 轉置卷積
- 21.9 卷積網絡樣例
- 21.10 對手
- 參考資料
- 第22章 循環神經網絡
- 22.1 為什么這一章出現在這里
- 22.2 引言
- 22.3 狀態
- 22.4 RNN單元的結構
- 22.5 組織輸入
- 22.6 訓練RNN
- 22.7 LSTM和GRU
- 22.8 RNN的結構
- 22.9 一個例子
- 參考資料
- 第23章 Keras第1部分
- 23.1 為什么這一章出現在這里
- 23.2 庫和調試
- 23.3 概述
- 23.4 準備開始
- 23.5 準備數據
- 23.6 制作模型
- 23.7 訓練模型
- 23.8 訓練和使用模型
- 23.9 保存和加載
- 23.10 回調函數
- 參考資料
- 第24章 Keras第2部分
- 24.1 為什么這一章出現在這里
- 24.2 改進模型
- 24.3 使用scikit-learn
- 24.4 卷積網絡
- 24.5 RNN
- 24.6 函數式API
- 參考資料
- 第25章 自編碼器
- 25.1 為什么這一章出現在這里
- 25.2 引言
- 25.3 最簡單的自編碼器
- 25.4 更好的自編碼器
- 25.5 探索自編碼器
- 25.6 討論
- 25.7 卷積自編碼器
- 25.8 降噪
- 25.9 VAE
- 25.10 探索VAE
- 參考資料
- 第26章 強化學習
- 26.1 為什么這一章出現在這里
- 26.2 目標
- 26.3 強化學習的結構
- 26.4 翻轉
- 26.5 L學習
- 26.6 Q學習
- 26.7 SARSA
- 26.8 強化學習的全貌
- 26.9 經驗回放
- 26.10 兩個應用
- 參考資料
- 第27章 生成對抗網絡
- 27.1 為什么這一章出現在這里
- 27.2 一個比喻:偽造鈔票
- 27.3 為什么要用“對抗”
- 27.4 GAN的實現
- 27.5 實際操作中的GAN
- 27.6 DCGAN
- 27.7 挑戰
- 參考資料
- 第28章 創造性應用
- 28.1 為什么這一章出現在這里
- 28.2 可視化過濾器
- 28.3 deep dreaming
- 28.4 神經風格遷移
- 28.5 為本書生成更多的內容
- 參考資料
- 第29章 數據集
- 29.1 公共數據集
- 29.2 MNIST和Fashion-MNIST
- 29.3 庫的內建數據集 更新時間:2022-12-20 18:35:35