- 看完了 更新時間:2022-09-14 15:45:19
- 作者簡介
- 14.7 結束語
- 14.6.3 探索Keras生態系統
- 14.6.2 在arXiv上了解最新進展
- 14.6.1 在Kaggle上練習解決現實世界的問題
- 14.6 了解快速發展的領域的最新進展
- 14.5.4 長期愿景
- 14.5.3 終身學習和模塊化子程序復用
- 14.5.2 將深度學習與程序合成融合
- 14.5.1 模型即程序
- 14.5 深度學習的未來
- 14.4.3 深度學習所缺失的那一半
- 14.4.2 兩種抽象
- 14.4.1 智能是對抽象類比的敏感性
- 14.4 實現智能:缺失的內容
- 14.3.2 新目標
- 14.3.1 設定正確目標的重要性:捷徑法則
- 14.3 如何實現更加通用的人工智能
- 14.2.5 逐步提高泛化能力
- 14.2.4 智能的目的
- 14.2.3 局部泛化與極端泛化
- 14.2.2 自動機與智能體
- 14.2.1 將機器學習模型擬人化的風險
- 14.2 深度學習的局限性
- 14.1.7 可能性空間
- 14.1.6 關鍵網絡架構
- 14.1.5 機器學習的通用工作流程
- 14.1.4 關鍵的推動技術
- 14.1.3 如何看待深度學習
- 14.1.2 深度學習在機器學習領域中的特殊之處
- 14.1.1 人工智能的多種方法
- 14.1 重點概念顧
- 第14章 總結
- 13.3 本章總結
- 13.2.3 TPU訓練
- 13.2.2 多GPU訓練
- 13.2.1 使用混合精度加快GPU上的訓練速度
- 13.2 加速模型訓練
- 13.1.2 模型集成
- 13.1.1 超參數優化
- 13.1 將模型性能發揮到極致
- 第13章 適合現實世界的最佳實踐
- 12.6 本章總結
- 12.5.7 小結
- 12.5.6 對抗網絡
- 12.5.5 生成器
- 12.5.4 判別器
- 12.5.3 CelebA數據集
- 12.5.2 諸多技巧
- 12.5.1 簡要實現流程
- 12.5 生成式對抗網絡入門
- 12.4.5 小結
- 12.4.4 用Keras實現變分自編碼器
- 12.4.3 變分自編碼器
- 12.4.2 圖像編輯的概念向量
- 12.4.1 從圖像潛在空間中采樣
- 12.4 用變分自編碼器生成圖像
- 12.3.4 小結
- 12.3.3 用Keras實現神經風格遷移
- 12.3.2 風格損失
- 12.3.1 內容損失
- 12.3 神經風格遷移
- 12.2.2 小結
- 12.2.1 用Keras實現DeepDream
- 12.2 DeepDream
- 12.1.6 小結
- 12.1.5 帶有可變溫度采樣的文本生成調函數
- 12.1.4 用Keras實現文本生成
- 12.1.3 采樣策略的重要性
- 12.1.2 如何生成序列數據
- 12.1.1 生成式深度學習用于序列生成的簡史
- 12.1 文本生成
- 第12章 生成式深度學習
- 11.6 本章總結
- 11.5.3 使用Transformer進行序列到序列學習
- 11.5.2 RNN的序列到序列學習
- 11.5.1 機器翻譯示例
- 11.5 超越文本分類:序列到序列學習
- 11.4.4 何時使用序列模型而不是詞袋模型
- 11.4.3 Transformer編碼器
- 11.4.2 多頭注意力
- 11.4.1 理解自注意力
- 11.4 Transformer架構
- 11.3.3 將單詞作為序列處理:序列模型方法
- 11.3.2 將單詞作為集合處理:詞袋方法
- 11.3.1 準備IMDB影評數據
- 11.3 表示單詞組的兩種方法:集合和序列
- 11.2.4 使用TextVectorization層
- 11.2.3 建立詞表索引
- 11.2.2 文本拆分(詞元化)
- 11.2.1 文本標準化
- 11.2 準備文本數據
- 11.1 自然語言處理概述
- 第11章 深度學習處理文本
- 10.5 本章總結
- 10.4.4 進一步實驗
- 10.4.3 使用雙向RNN
- 10.4.2 循環層堆疊
- 10.4.1 利用循環dropout降低過擬合
- 10.4 RNN的高級用法
- Keras中的循環層
- 10.3 理解RNN
- 10.2.5 第一個RNN基準
- 10.2.4 一維卷積模型
- 10.2.3 基本的機器學習模型
- 10.2.2 基于常識、不使用機器學習的基準
- 10.2.1 準備數據
- 10.2 溫度預測示例
- 10.1 不同類型的時間序列任務
- 第10章 深度學習處理時間序列
- 9.5 本章總結
- 9.4.3 類激活熱力圖的可視化
- 9.4.2 卷積神經網絡濾波器的可視化
- 9.4.1 中間激活值的可視化
- 9.4 解釋卷積神經網絡學到的內容
- 9.3.5 綜合示例:一個類似Xception的迷你模型
- 9.3.4 深度可分離卷積
- 9.3.3 批量規范化
- 9.3.2 殘差連接
- 9.3.1 模塊化、層次結構和復用
- 9.3 現代卷積神經網絡架構模式
- 9.2 圖像分割示例
- 9.1 三項基本的計算機視覺任務
- 第9章 計算機視覺深度學習進階
- 8.4 本章總結
- 8.3.2 微調預訓練模型
- 8.3.1 使用預訓練模型做特征提取
- 8.3 使用預訓練模型
- 8.2.5 使用數據增強
- 8.2.4 數據預處理
- 8.2.3 構建模型
- 8.2.2 下載數據
- 8.2.1 深度學習對數據量很小的問題的適用性
- 8.2 在小型數據集上從頭開始訓練一個卷積神經網絡
- 8.1.2 最大匯聚運算
- 8.1.1 卷積運算
- 8.1 卷積神經網絡入門
- 第8章 計算機視覺深度學習入門
- 7.5 本章總結
- 7.4.5 在fit()中使用自定義訓練循環
- 7.4.4 利用tf.function加快運行速度
- 7.4.3 完整的訓練循環和評估循環
- 7.4.2 指標的低階用法
- 7.4.1 訓練與推斷
- 7.4 編寫自定義的訓練循環和評估循環
- 7.3.4 利用TensorBoard進行監控和可視化
- 7.3.3 編寫自定義調函數
- 7.3.2 使用調函數
- 7.3.1 編寫自定義指標
- 7.3 使用內置的訓練循環和評估循環
- 7.2.5 用正確的工具完成工作
- 7.2.4 混合使用不同的組件
- 7.2.3 模型子類化
- 7.2.2 函數式API
- 7.2.1 序貫模型
- 7.2 構建Keras模型的不同方法
- 7.1 Keras工作流程
- 第7章 深入 Keras
- 6.4 本章總結
- 6.3.4 維護模型
- 6.3.3 監控模型在真實環境中的性能
- 6.3.2 部署推斷模型
- 6.3.1 向利益相關者解釋你的工作并設定預期
- 6.3 部署模型
- 6.2.5 模型正則化與調節超參數
- 6.2.4 擴大模型規模:開發一個過擬合的模型
- 6.2.3 超越基準
- 6.2.2 選擇評估方法
- 6.2.1 準備數據
- 6.2 開發模型
- 6.1.4 選擇衡量成功的指標
- 6.1.3 理解數據
- 6.1.2 收集數據集
- 6.1.1 定義問題
- 6.1 定義任務
- 第6章 機器學習的通用工作流程
- 5.5 本章總結
- 5.4.4 模型正則化
- 5.4.3 提前終止
- 5.4.2 特征工程
- 5.4.1 數據集管理
- 5.4 提高泛化能力
- 5.3.3 提高模型容量
- 5.3.2 利用更好的架構預設
- 5.3.1 調節關鍵的梯度下降參數
- 5.3 改進模型擬合
- 5.2.3 模型評估的注意事項
- 5.2.2 超越基于常識的基準
- 5.2.1 訓練集、驗證集和測試集
- 5.2 評估機器學習模型
- 5.1.2 深度學習泛化的本質
- 5.1.1 欠擬合與過擬合
- 5.1 泛化:機器學習的目標
- 第5章 機器學習基礎
- 4.4 本章總結
- 4.3.6 小結
- 4.3.5 對新數據進行預測
- 4.3.4 利用K折交叉驗證來驗證你的方法
- 4.3.3 構建模型
- 4.3.2 準備數據
- 4.3.1 波士頓房價數據集
- 4.3 預測房價:標量歸問題示例
- 4.2.9 小結
- 4.2.8 進一步實驗
- 4.2.7 擁有足夠大的中間層的重要性
- 4.2.6 處理標簽和損失的另一種方法
- 4.2.5 對新數據進行預測
- 4.2.4 驗證你的方法
- 4.2.3 構建模型
- 4.2.2 準備數據
- 4.2.1 路透社數據集
- 4.2 新聞分類:多分類問題示例
- 4.1.7 小結
- 4.1.6 進一步實驗
- 4.1.5 利用訓練好的模型對新數據進行預測
- 4.1.4 驗證你的方法
- 4.1.3 構建模型
- 4.1.2 準備數據
- 4.1.1 IMDB數據集
- 4.1 影評分類:二分類問題示例
- 第4章 神經網絡入門:分類與回歸
- 3.7 本章總結
- 3.6.7 推斷:在訓練后使用模型
- 3.6.6 監控驗證數據上的損失和指標
- 3.6.5 理解fit()方法
- 3.6.4 選擇損失函數
- 3.6.3 編譯步驟:配置學習過程
- 3.6.2 從層到模型
- 3.6.1 層:深度學習的基礎模塊
- 3.6 神經網絡剖析:了解核心Keras API
- 3.5.4 一個端到端的例子:用TensorFlow編寫線性分類器
- 3.5.3 重溫GradientTape API
- 3.5.2 張量運算:用TensorFlow進行數學運算
- 3.5.1 常數張量和變量
- 3.5 TensorFlow入門
- 3.4.2 使用Colaboratory
- 3.4.1 Jupyter筆記本:運行深度學習實驗的首選方法
- 3.4 建立深度學習工作區
- 3.3 Keras和TensorFlow簡史
- 3.2 Keras簡介
- 3.1 TensorFlow簡介
- 第3章 Keras和TensorFlow入門
- 2.6 本章總結
- 2.5.4 評估模型
- 2.5.3 完整的訓練循環
- 2.5.2 完成一次訓練步驟
- 2.5.1 用TensorFlow從頭開始重新實現第一個例子
- 2.5 顧第一個例子
- 2.4.4 鏈式求導:反向傳播算法
- 2.4.3 隨機梯度下降
- 2.4.2 張量運算的導數:梯度
- 2.4.1 什么是導數
- 2.4 神經網絡的“引擎”:基于梯度的優化
- 2.3.6 深度學習的幾何解釋
- 2.3.5 張量運算的幾何解釋
- 2.3.4 張量變形
- 2.3.3 張量積
- 2.3.2 廣播
- 2.3.1 逐元素運算
- 2.3 神經網絡的“齒輪”:張量運算
- 2.2.12 視頻數據
- 2.2.11 圖像數據
- 2.2.10 時間序列數據或序列數據
- 2.2.9 向量數據
- 2.2.8 現實世界中的數據張量實例
- 2.2.7 數據批量的概念
- 2.2.6 在NumPy中操作張量
- 2.2.5 關鍵屬性
- 2.2.4 3階張量與更高階的張量
- 2.2.3 矩陣(2階張量)
- 2.2.2 向量(1階張量)
- 2.2.1 標量(0階張量)
- 2.2 神經網絡的數據表示
- 2.1 初識神經網絡
- 第2章 神經網絡的數學基礎
- 1.3.6 這種趨勢會持續下去嗎
- 1.3.5 深度學習的普及
- 1.3.4 新一輪投資熱潮
- 1.3.3 算法
- 1.3.2 數據
- 1.3.1 硬件
- 1.3 為什么要用深度學習,為什么是現在
- 1.2.7 機器學習現狀
- 1.2.6 深度學習有何不同
- 1.2.5 到神經網絡
- 1.2.4 決策樹、隨機森林和梯度提升機
- 1.2.3 核方法
- 1.2.2 早期神經網絡
- 1.2.1 概率建模
- 1.2 深度學習之前:機器學習簡史
- 1.1.8 人工智能的未來
- 1.1.7 不要相信短期炒作
- 1.1.6 深度學習已取得的進展
- 1.1.5 用三張圖理解深度學習的工作原理
- 1.1.4 深度學習之“深度”
- 1.1.3 從數據中學習規則與表示
- 1.1.2 機器學習
- 1.1.1 人工智能
- 1.1 人工智能、機器學習和深度學習
- 第1章 什么是深度學習
- 關于封面
- 更多信息
- 本書論壇
- 關于代碼
- 誰應該閱讀本書
- 關于本書
- 致謝
- 前言
- 獻詞
- 版權聲明
- 版權信息
- 封面
- 封面
- 版權信息
- 版權聲明
- 獻詞
- 前言
- 致謝
- 關于本書
- 誰應該閱讀本書
- 關于代碼
- 本書論壇
- 更多信息
- 關于封面
- 第1章 什么是深度學習
- 1.1 人工智能、機器學習和深度學習
- 1.1.1 人工智能
- 1.1.2 機器學習
- 1.1.3 從數據中學習規則與表示
- 1.1.4 深度學習之“深度”
- 1.1.5 用三張圖理解深度學習的工作原理
- 1.1.6 深度學習已取得的進展
- 1.1.7 不要相信短期炒作
- 1.1.8 人工智能的未來
- 1.2 深度學習之前:機器學習簡史
- 1.2.1 概率建模
- 1.2.2 早期神經網絡
- 1.2.3 核方法
- 1.2.4 決策樹、隨機森林和梯度提升機
- 1.2.5 到神經網絡
- 1.2.6 深度學習有何不同
- 1.2.7 機器學習現狀
- 1.3 為什么要用深度學習,為什么是現在
- 1.3.1 硬件
- 1.3.2 數據
- 1.3.3 算法
- 1.3.4 新一輪投資熱潮
- 1.3.5 深度學習的普及
- 1.3.6 這種趨勢會持續下去嗎
- 第2章 神經網絡的數學基礎
- 2.1 初識神經網絡
- 2.2 神經網絡的數據表示
- 2.2.1 標量(0階張量)
- 2.2.2 向量(1階張量)
- 2.2.3 矩陣(2階張量)
- 2.2.4 3階張量與更高階的張量
- 2.2.5 關鍵屬性
- 2.2.6 在NumPy中操作張量
- 2.2.7 數據批量的概念
- 2.2.8 現實世界中的數據張量實例
- 2.2.9 向量數據
- 2.2.10 時間序列數據或序列數據
- 2.2.11 圖像數據
- 2.2.12 視頻數據
- 2.3 神經網絡的“齒輪”:張量運算
- 2.3.1 逐元素運算
- 2.3.2 廣播
- 2.3.3 張量積
- 2.3.4 張量變形
- 2.3.5 張量運算的幾何解釋
- 2.3.6 深度學習的幾何解釋
- 2.4 神經網絡的“引擎”:基于梯度的優化
- 2.4.1 什么是導數
- 2.4.2 張量運算的導數:梯度
- 2.4.3 隨機梯度下降
- 2.4.4 鏈式求導:反向傳播算法
- 2.5 顧第一個例子
- 2.5.1 用TensorFlow從頭開始重新實現第一個例子
- 2.5.2 完成一次訓練步驟
- 2.5.3 完整的訓練循環
- 2.5.4 評估模型
- 2.6 本章總結
- 第3章 Keras和TensorFlow入門
- 3.1 TensorFlow簡介
- 3.2 Keras簡介
- 3.3 Keras和TensorFlow簡史
- 3.4 建立深度學習工作區
- 3.4.1 Jupyter筆記本:運行深度學習實驗的首選方法
- 3.4.2 使用Colaboratory
- 3.5 TensorFlow入門
- 3.5.1 常數張量和變量
- 3.5.2 張量運算:用TensorFlow進行數學運算
- 3.5.3 重溫GradientTape API
- 3.5.4 一個端到端的例子:用TensorFlow編寫線性分類器
- 3.6 神經網絡剖析:了解核心Keras API
- 3.6.1 層:深度學習的基礎模塊
- 3.6.2 從層到模型
- 3.6.3 編譯步驟:配置學習過程
- 3.6.4 選擇損失函數
- 3.6.5 理解fit()方法
- 3.6.6 監控驗證數據上的損失和指標
- 3.6.7 推斷:在訓練后使用模型
- 3.7 本章總結
- 第4章 神經網絡入門:分類與回歸
- 4.1 影評分類:二分類問題示例
- 4.1.1 IMDB數據集
- 4.1.2 準備數據
- 4.1.3 構建模型
- 4.1.4 驗證你的方法
- 4.1.5 利用訓練好的模型對新數據進行預測
- 4.1.6 進一步實驗
- 4.1.7 小結
- 4.2 新聞分類:多分類問題示例
- 4.2.1 路透社數據集
- 4.2.2 準備數據
- 4.2.3 構建模型
- 4.2.4 驗證你的方法
- 4.2.5 對新數據進行預測
- 4.2.6 處理標簽和損失的另一種方法
- 4.2.7 擁有足夠大的中間層的重要性
- 4.2.8 進一步實驗
- 4.2.9 小結
- 4.3 預測房價:標量歸問題示例
- 4.3.1 波士頓房價數據集
- 4.3.2 準備數據
- 4.3.3 構建模型
- 4.3.4 利用K折交叉驗證來驗證你的方法
- 4.3.5 對新數據進行預測
- 4.3.6 小結
- 4.4 本章總結
- 第5章 機器學習基礎
- 5.1 泛化:機器學習的目標
- 5.1.1 欠擬合與過擬合
- 5.1.2 深度學習泛化的本質
- 5.2 評估機器學習模型
- 5.2.1 訓練集、驗證集和測試集
- 5.2.2 超越基于常識的基準
- 5.2.3 模型評估的注意事項
- 5.3 改進模型擬合
- 5.3.1 調節關鍵的梯度下降參數
- 5.3.2 利用更好的架構預設
- 5.3.3 提高模型容量
- 5.4 提高泛化能力
- 5.4.1 數據集管理
- 5.4.2 特征工程
- 5.4.3 提前終止
- 5.4.4 模型正則化
- 5.5 本章總結
- 第6章 機器學習的通用工作流程
- 6.1 定義任務
- 6.1.1 定義問題
- 6.1.2 收集數據集
- 6.1.3 理解數據
- 6.1.4 選擇衡量成功的指標
- 6.2 開發模型
- 6.2.1 準備數據
- 6.2.2 選擇評估方法
- 6.2.3 超越基準
- 6.2.4 擴大模型規模:開發一個過擬合的模型
- 6.2.5 模型正則化與調節超參數
- 6.3 部署模型
- 6.3.1 向利益相關者解釋你的工作并設定預期
- 6.3.2 部署推斷模型
- 6.3.3 監控模型在真實環境中的性能
- 6.3.4 維護模型
- 6.4 本章總結
- 第7章 深入 Keras
- 7.1 Keras工作流程
- 7.2 構建Keras模型的不同方法
- 7.2.1 序貫模型
- 7.2.2 函數式API
- 7.2.3 模型子類化
- 7.2.4 混合使用不同的組件
- 7.2.5 用正確的工具完成工作
- 7.3 使用內置的訓練循環和評估循環
- 7.3.1 編寫自定義指標
- 7.3.2 使用調函數
- 7.3.3 編寫自定義調函數
- 7.3.4 利用TensorBoard進行監控和可視化
- 7.4 編寫自定義的訓練循環和評估循環
- 7.4.1 訓練與推斷
- 7.4.2 指標的低階用法
- 7.4.3 完整的訓練循環和評估循環
- 7.4.4 利用tf.function加快運行速度
- 7.4.5 在fit()中使用自定義訓練循環
- 7.5 本章總結
- 第8章 計算機視覺深度學習入門
- 8.1 卷積神經網絡入門
- 8.1.1 卷積運算
- 8.1.2 最大匯聚運算
- 8.2 在小型數據集上從頭開始訓練一個卷積神經網絡
- 8.2.1 深度學習對數據量很小的問題的適用性
- 8.2.2 下載數據
- 8.2.3 構建模型
- 8.2.4 數據預處理
- 8.2.5 使用數據增強
- 8.3 使用預訓練模型
- 8.3.1 使用預訓練模型做特征提取
- 8.3.2 微調預訓練模型
- 8.4 本章總結
- 第9章 計算機視覺深度學習進階
- 9.1 三項基本的計算機視覺任務
- 9.2 圖像分割示例
- 9.3 現代卷積神經網絡架構模式
- 9.3.1 模塊化、層次結構和復用
- 9.3.2 殘差連接
- 9.3.3 批量規范化
- 9.3.4 深度可分離卷積
- 9.3.5 綜合示例:一個類似Xception的迷你模型
- 9.4 解釋卷積神經網絡學到的內容
- 9.4.1 中間激活值的可視化
- 9.4.2 卷積神經網絡濾波器的可視化
- 9.4.3 類激活熱力圖的可視化
- 9.5 本章總結
- 第10章 深度學習處理時間序列
- 10.1 不同類型的時間序列任務
- 10.2 溫度預測示例
- 10.2.1 準備數據
- 10.2.2 基于常識、不使用機器學習的基準
- 10.2.3 基本的機器學習模型
- 10.2.4 一維卷積模型
- 10.2.5 第一個RNN基準
- 10.3 理解RNN
- Keras中的循環層
- 10.4 RNN的高級用法
- 10.4.1 利用循環dropout降低過擬合
- 10.4.2 循環層堆疊
- 10.4.3 使用雙向RNN
- 10.4.4 進一步實驗
- 10.5 本章總結
- 第11章 深度學習處理文本
- 11.1 自然語言處理概述
- 11.2 準備文本數據
- 11.2.1 文本標準化
- 11.2.2 文本拆分(詞元化)
- 11.2.3 建立詞表索引
- 11.2.4 使用TextVectorization層
- 11.3 表示單詞組的兩種方法:集合和序列
- 11.3.1 準備IMDB影評數據
- 11.3.2 將單詞作為集合處理:詞袋方法
- 11.3.3 將單詞作為序列處理:序列模型方法
- 11.4 Transformer架構
- 11.4.1 理解自注意力
- 11.4.2 多頭注意力
- 11.4.3 Transformer編碼器
- 11.4.4 何時使用序列模型而不是詞袋模型
- 11.5 超越文本分類:序列到序列學習
- 11.5.1 機器翻譯示例
- 11.5.2 RNN的序列到序列學習
- 11.5.3 使用Transformer進行序列到序列學習
- 11.6 本章總結
- 第12章 生成式深度學習
- 12.1 文本生成
- 12.1.1 生成式深度學習用于序列生成的簡史
- 12.1.2 如何生成序列數據
- 12.1.3 采樣策略的重要性
- 12.1.4 用Keras實現文本生成
- 12.1.5 帶有可變溫度采樣的文本生成調函數
- 12.1.6 小結
- 12.2 DeepDream
- 12.2.1 用Keras實現DeepDream
- 12.2.2 小結
- 12.3 神經風格遷移
- 12.3.1 內容損失
- 12.3.2 風格損失
- 12.3.3 用Keras實現神經風格遷移
- 12.3.4 小結
- 12.4 用變分自編碼器生成圖像
- 12.4.1 從圖像潛在空間中采樣
- 12.4.2 圖像編輯的概念向量
- 12.4.3 變分自編碼器
- 12.4.4 用Keras實現變分自編碼器
- 12.4.5 小結
- 12.5 生成式對抗網絡入門
- 12.5.1 簡要實現流程
- 12.5.2 諸多技巧
- 12.5.3 CelebA數據集
- 12.5.4 判別器
- 12.5.5 生成器
- 12.5.6 對抗網絡
- 12.5.7 小結
- 12.6 本章總結
- 第13章 適合現實世界的最佳實踐
- 13.1 將模型性能發揮到極致
- 13.1.1 超參數優化
- 13.1.2 模型集成
- 13.2 加速模型訓練
- 13.2.1 使用混合精度加快GPU上的訓練速度
- 13.2.2 多GPU訓練
- 13.2.3 TPU訓練
- 13.3 本章總結
- 第14章 總結
- 14.1 重點概念顧
- 14.1.1 人工智能的多種方法
- 14.1.2 深度學習在機器學習領域中的特殊之處
- 14.1.3 如何看待深度學習
- 14.1.4 關鍵的推動技術
- 14.1.5 機器學習的通用工作流程
- 14.1.6 關鍵網絡架構
- 14.1.7 可能性空間
- 14.2 深度學習的局限性
- 14.2.1 將機器學習模型擬人化的風險
- 14.2.2 自動機與智能體
- 14.2.3 局部泛化與極端泛化
- 14.2.4 智能的目的
- 14.2.5 逐步提高泛化能力
- 14.3 如何實現更加通用的人工智能
- 14.3.1 設定正確目標的重要性:捷徑法則
- 14.3.2 新目標
- 14.4 實現智能:缺失的內容
- 14.4.1 智能是對抽象類比的敏感性
- 14.4.2 兩種抽象
- 14.4.3 深度學習所缺失的那一半
- 14.5 深度學習的未來
- 14.5.1 模型即程序
- 14.5.2 將深度學習與程序合成融合
- 14.5.3 終身學習和模塊化子程序復用
- 14.5.4 長期愿景
- 14.6 了解快速發展的領域的最新進展
- 14.6.1 在Kaggle上練習解決現實世界的問題
- 14.6.2 在arXiv上了解最新進展
- 14.6.3 探索Keras生態系統
- 14.7 結束語
- 作者簡介
- 看完了 更新時間:2022-09-14 15:45:19