舉報

會員
PyTorch 2.0深度學習從零開始學
最新章節:
15.3 本章小結
PyTorch是一個開源的機器學習框架,它提供了動態計算圖的支持,讓用戶能夠自定義和訓練自己的神經網絡,目前是機器學習領域中的框架之一。《PyTorch2.0深度學習從零開始學》共分15章,內容包括PyTorch概述、開發環境搭建、基于PyTorch的MNIST分類實戰、深度學習理論基礎、MNIST分類實戰、數據處理與模型可視化、基于PyTorch卷積層的分類實戰、PyTorch數據處理與模型可視化、實戰ResNet卷積網絡模型、有趣的WordEmbedding、基于循環神經網絡的中文情感分類實戰、自然語言處理的編碼器、站在巨人肩膀上的預訓練模型BERT、自然語言處理的解碼器、基于PyTorch的強化學習實戰、基于MFCC的語音喚醒實戰、基于PyTorch的人臉識別實戰。
最新章節
- 15.3 本章小結
- 15.2.4 基于PyTorch 2.0的人臉識別模型
- 15.2.3 人臉識別的Contrastive Loss詳解與實現
- 15.2.2 基于PyTorch 2.0的Siamese Model的實現
- 15.2.1 人臉識別的基本模型Siamese Model
- 15.2 實戰:基于深度學習的人臉識別模型
品牌:清華大學
上架時間:2024-12-27 18:02:49
出版社:清華大學出版社
本書數字版權由清華大學提供,并由其授權上海閱文信息技術有限公司制作發行
- 15.3 本章小結 更新時間:2024-12-27 21:22:20
- 15.2.4 基于PyTorch 2.0的人臉識別模型
- 15.2.3 人臉識別的Contrastive Loss詳解與實現
- 15.2.2 基于PyTorch 2.0的Siamese Model的實現
- 15.2.1 人臉識別的基本模型Siamese Model
- 15.2 實戰:基于深度學習的人臉識別模型
- 15.1.6 基于人臉定位制作適配深度學習的人臉識別數據集
- 15.1.5 使用Dlib和OpenCV建立自己的人臉檢測數據集
- 15.1.4 使用Dlib檢測人臉位置
- 15.1.3 OpenCV簡介
- 15.1.2 Dlib庫簡介
- 15.1.1 LFW數據集簡介
- 15.1 人臉識別數據集的建立
- 第15章 基于PyTorch的人臉識別實戰
- 14.4 本章小結
- 14.3.2 基于PyTorch 2.0的語音識別實現
- 14.3.1 基于PyTorch 2.0的語音識別模型
- 14.3 實戰:PyTorch 2.0語音識別
- 14.2.2 語音識別編碼器模塊與代碼實現
- 14.2.1 Speech Commands簡介與數據說明
- 14.2 語音識別的數據獲取與準備
- 14.1 語音識別的理論基礎——MFCC
- 第14章 創建你自己的小精靈——基于MFCC的語音喚醒實戰
- 13.3 本章小結
- 13.2.5 對于獎勵的倒序構成的說明
- 13.2.4 基于TD-Error的結果修正
- 13.2.3 一學就會的TD-Error理論介紹
- 13.2.2 函數使用說明
- 13.2.1 PPO算法簡介
- 13.2 強化學習的基本算法——PPO算法
- 13.1.4 強化學習的基本內容
- 13.1.3 基于強化學習的火箭回收實戰
- 13.1.2 火箭回收參數介紹
- 13.1.1 火箭回收技術基本運行環境介紹
- 13.1 實戰:基于強化學習的火箭回收
- 第13章 我也可以成為馬斯克——無痛的基于PyTorch的強化學習實戰
- 12.3 本章小結
- 12.2.4 漢字拼音模型的使用
- 12.2.3 漢字拼音模型的訓練
- 12.2.2 翻譯模型
- 12.2.1 數據集的獲取與處理
- 12.2 實戰解碼器:漢字拼音翻譯模型
- 12.1.4 解碼器的實現
- 12.1.3 解碼器的輸出(移位訓練方法)
- 12.1.2 為什么通過掩碼操作能夠減少干擾
- 12.1.1 解碼器的輸入和交互注意力層的掩碼
- 12.1 解碼器的核心——注意力模型
- 第12章 從1起步——自然語言處理的解碼器
- 11.4 本章小結
- 11.3 更多的預訓練模型
- 11.2.2 BERT實戰文本分類
- 11.2.1 使用Hugging Face獲取BERT預訓練模型
- 11.2 實戰BERT:中文文本分類
- 11.1.2 BERT預訓練任務與Fine-Tuning
- 11.1.1 BERT的基本架構與應用
- 11.1 預訓練模型BERT
- 第11章 站在巨人肩膀上的預訓練模型BERT
- 10.4 本章小結
- 10.3.3 模型訓練部分的編寫
- 10.3.2 漢字拼音轉換模型的確定
- 10.3.1 漢字拼音數據集處理
- 10.3 實戰編碼器:漢字拼音轉換模型
- 10.2.2 編碼器的實現
- 10.2.1 前饋層的實現
- 10.2 編碼器的實現
- 10.1.4 多頭自注意力
- 10.1.3 ticks和LayerNormalization
- 10.1.2 自注意力層(重點)
- 10.1.1 輸入層——初始詞向量層和位置編碼器層
- 10.1 編碼器的核心——注意力模型
- 第10章 從0起步——自然語言處理的編碼器
- 9.3 本章小結
- 9.2.2 單向不行,那就雙向
- 9.2.1 什么是GRU
- 9.2 循環神經網絡理論講解
- 9.1.2 基于循環神經網絡的中文情感分類實現
- 9.1.1 基于循環神經網絡的中文情感分類準備
- 9.1 實戰:循環神經網絡與情感分類
- 第9章 基于循環神經網絡的中文情感分類實戰
- 8.6 本章小結
- 8.5 使用卷積實現文本分類的補充內容
- 8.4.2 卷積神經網絡文本分類模型的實現——Conv2d(二維卷積)
- 8.4.1 單詞的文本處理
- 8.4 針對文本的卷積神經網絡模型簡介——詞卷積
- 8.3.2 卷積神經網絡文本分類模型的實現——Conv1d(一維卷積)
- 8.3.1 字符(非單詞)文本的處理
- 8.3 針對文本的卷積神經網絡模型簡介——字符卷積
- 8.2.3 使用其他預訓練參數生成PyTorch 2.0詞嵌入矩陣(中文)
- 8.2.2 FastText訓練以及與PyTorch 2.0的協同使用
- 8.2.1 FastText的原理與基礎算法
- 8.2 更多的Word Embedding方法——FastText和預訓練詞向量
- 8.1.5 文本主題的提取:基于TextRank
- 8.1.4 文本主題的提取:基于TF-IDF
- 8.1.3 詞向量訓練模型Word2Vec使用介紹
- 8.1.2 停用詞的使用
- 8.1.1 數據集介紹和數據清洗
- 8.1 文本數據處理
- 第8章 梅西-阿根廷+巴西=?——有趣的Word Embedding
- 7.3 本章小結
- 7.2.2 基于ResNet的CIFAR-10數據集分類
- 7.2.1 CIFAR-10數據集簡介
- 7.2 實戰ResNet:CIFAR-10數據集分類
- 7.1.4 ResNet網絡的實現
- 7.1.3 ResNet殘差模塊的實現
- 7.1.2 不要重復造輪子——PyTorch 2.0中的模塊工具
- 7.1.1 ResNet誕生的背景
- 7.1 ResNet基礎原理與程序設計基礎
- 第7章 從冠軍開始——實戰ResNet
- 6.3 本章小結
- 6.2.3 tensorboardX對模型訓練過程的展示
- 6.2.2 tensorboardX可視化組件的使用
- 6.2.1 tensorboardX的安裝與簡介
- 6.2 基于tensorboardX的訓練可視化展示
- 6.1.3 批量輸出數據的DataLoader類詳解
- 6.1.2 改變數據類型的Dataset類中transform的使用
- 6.1.1 使用torch.utils.data.Dataset封裝自定義數據集
- 6.1 用于自定義數據集的torch.utils.data工具箱使用詳解
- 第6章 PyTorch數據處理與模型可視化
- 5.5 本章小結
- 5.4 實戰:基于深度可分離膨脹卷積的MNIST手寫體識別
- 5.3.3 膨脹卷積詳解
- 5.3.2 深度的定義以及不同計算層待訓練參數的比較
- 5.3.1 深度可分離卷積的定義
- 5.3 PyTorch 2.0的深度可分離膨脹卷積詳解
- 5.2.3 基于卷積的MNIST分類模型
- 5.2.2 模型設計
- 5.2.1 數據準備
- 5.2 實戰:基于卷積的MNIST手寫體分類
- 5.1.5 卷積神經網絡的原理
- 5.1.4 Softmax激活函數
- 5.1.3 池化運算
- 5.1.2 PyTorch 2.0中卷積函數實現詳解
- 5.1.1 基本卷積運算示例
- 5.1 卷積運算的基本概念
- 第5章 基于PyTorch卷積層的MNIST分類實戰
- 4.4 本章小結
- 4.3.5 反饋神經網絡原理的Python實現
- 4.3.4 反饋神經網絡原理的激活函數
- 4.3.3 反饋神經網絡的原理與公式推導
- 4.3.2 鏈式求導法則
- 4.3.1 深度學習基礎
- 4.3 反饋神經網絡反向傳播算法介紹
- 4.2.3 最小二乘法的梯度下降算法以及Python實現
- 4.2.2 道士下山的故事——梯度下降算法
- 4.2.1 最小二乘法詳解
- 4.2 反向傳播神經網絡兩個基礎算法詳解
- 4.1 反向傳播神經網絡的歷史
- 第4章 深度學習的理論基礎
- 3.3 本章小結
- 3.2.3 更多的PyTorch 2.0模型可視化工具
- 3.2.2 基于netron庫的PyTorch 2.0模型可視化
- 3.2.1 查看模型結構和參數信息
- 3.2 PyTorch 2.0模型結構輸出與可視化
- 3.1.4 基于PyTorch的手寫體識別的實現
- 3.1.3 損失函數的表示與計算
- 3.1.2 模型的準備(多層感知機)
- 3.1.1 數據圖像的獲取與標簽的說明
- 3.1 實戰:基于PyTorch的MNIST手寫體分類
- 第3章 基于PyTorch的MNIST分類實戰
- 2.4 本章小結
- 2.3.5 基于深度學習的模型訓練
- 2.3.4 模型的損失函數與優化函數
- 2.3.3 模型的準備和介紹
- 2.3.2 MNIST數據集的特征和標簽介紹
- 2.3.1 MNIST數據集的準備
- 2.3 實戰:基于PyTorch 2.0的圖像去噪
- 2.2.3 PyTorch 2.0小練習:Hello PyTorch
- 2.2.2 PyTorch 2.0 GPU Nvidia運行庫的安裝——以CUDA 11.7+cuDNN 8.2.0為例
- 2.2.1 Nvidia 10/20/30/40系列顯卡選擇的GPU版本
- 2.2 安裝PyTorch 2.0
- 2.1.3 Python代碼小練習:計算Softmax函數
- 2.1.2 PyCharm的下載與安裝
- 2.1.1 Miniconda的下載與安裝
- 2.1 安裝Python
- 第2章 Hello PyTorch 2.0——深度學習環境搭建
- 1.3 本章小結
- 1.2.3 PyTorch 2.0學習路徑——從零基礎到項目實戰
- 1.2.2 更快、更優、更具編譯支持——PyTorch 2.0更好的未來
- 1.2.1 PyTorch的前世今生
- 1.2 為什么選擇PyTorch 2.0
- 1.1.4 深度學習技術的優勢和挑戰
- 1.1.3 應用深度學習解決實際問題
- 1.1.2 深度學習與人工智能
- 1.1.1 從無到有的人工智能
- 1.1 燎原之勢的人工智能
- 第1章 PyTorch 2.0——一個新的開始
- 前言
- 作者簡介
- 內容簡介
- 版權信息
- 封面
- 封面
- 版權信息
- 內容簡介
- 作者簡介
- 前言
- 第1章 PyTorch 2.0——一個新的開始
- 1.1 燎原之勢的人工智能
- 1.1.1 從無到有的人工智能
- 1.1.2 深度學習與人工智能
- 1.1.3 應用深度學習解決實際問題
- 1.1.4 深度學習技術的優勢和挑戰
- 1.2 為什么選擇PyTorch 2.0
- 1.2.1 PyTorch的前世今生
- 1.2.2 更快、更優、更具編譯支持——PyTorch 2.0更好的未來
- 1.2.3 PyTorch 2.0學習路徑——從零基礎到項目實戰
- 1.3 本章小結
- 第2章 Hello PyTorch 2.0——深度學習環境搭建
- 2.1 安裝Python
- 2.1.1 Miniconda的下載與安裝
- 2.1.2 PyCharm的下載與安裝
- 2.1.3 Python代碼小練習:計算Softmax函數
- 2.2 安裝PyTorch 2.0
- 2.2.1 Nvidia 10/20/30/40系列顯卡選擇的GPU版本
- 2.2.2 PyTorch 2.0 GPU Nvidia運行庫的安裝——以CUDA 11.7+cuDNN 8.2.0為例
- 2.2.3 PyTorch 2.0小練習:Hello PyTorch
- 2.3 實戰:基于PyTorch 2.0的圖像去噪
- 2.3.1 MNIST數據集的準備
- 2.3.2 MNIST數據集的特征和標簽介紹
- 2.3.3 模型的準備和介紹
- 2.3.4 模型的損失函數與優化函數
- 2.3.5 基于深度學習的模型訓練
- 2.4 本章小結
- 第3章 基于PyTorch的MNIST分類實戰
- 3.1 實戰:基于PyTorch的MNIST手寫體分類
- 3.1.1 數據圖像的獲取與標簽的說明
- 3.1.2 模型的準備(多層感知機)
- 3.1.3 損失函數的表示與計算
- 3.1.4 基于PyTorch的手寫體識別的實現
- 3.2 PyTorch 2.0模型結構輸出與可視化
- 3.2.1 查看模型結構和參數信息
- 3.2.2 基于netron庫的PyTorch 2.0模型可視化
- 3.2.3 更多的PyTorch 2.0模型可視化工具
- 3.3 本章小結
- 第4章 深度學習的理論基礎
- 4.1 反向傳播神經網絡的歷史
- 4.2 反向傳播神經網絡兩個基礎算法詳解
- 4.2.1 最小二乘法詳解
- 4.2.2 道士下山的故事——梯度下降算法
- 4.2.3 最小二乘法的梯度下降算法以及Python實現
- 4.3 反饋神經網絡反向傳播算法介紹
- 4.3.1 深度學習基礎
- 4.3.2 鏈式求導法則
- 4.3.3 反饋神經網絡的原理與公式推導
- 4.3.4 反饋神經網絡原理的激活函數
- 4.3.5 反饋神經網絡原理的Python實現
- 4.4 本章小結
- 第5章 基于PyTorch卷積層的MNIST分類實戰
- 5.1 卷積運算的基本概念
- 5.1.1 基本卷積運算示例
- 5.1.2 PyTorch 2.0中卷積函數實現詳解
- 5.1.3 池化運算
- 5.1.4 Softmax激活函數
- 5.1.5 卷積神經網絡的原理
- 5.2 實戰:基于卷積的MNIST手寫體分類
- 5.2.1 數據準備
- 5.2.2 模型設計
- 5.2.3 基于卷積的MNIST分類模型
- 5.3 PyTorch 2.0的深度可分離膨脹卷積詳解
- 5.3.1 深度可分離卷積的定義
- 5.3.2 深度的定義以及不同計算層待訓練參數的比較
- 5.3.3 膨脹卷積詳解
- 5.4 實戰:基于深度可分離膨脹卷積的MNIST手寫體識別
- 5.5 本章小結
- 第6章 PyTorch數據處理與模型可視化
- 6.1 用于自定義數據集的torch.utils.data工具箱使用詳解
- 6.1.1 使用torch.utils.data.Dataset封裝自定義數據集
- 6.1.2 改變數據類型的Dataset類中transform的使用
- 6.1.3 批量輸出數據的DataLoader類詳解
- 6.2 基于tensorboardX的訓練可視化展示
- 6.2.1 tensorboardX的安裝與簡介
- 6.2.2 tensorboardX可視化組件的使用
- 6.2.3 tensorboardX對模型訓練過程的展示
- 6.3 本章小結
- 第7章 從冠軍開始——實戰ResNet
- 7.1 ResNet基礎原理與程序設計基礎
- 7.1.1 ResNet誕生的背景
- 7.1.2 不要重復造輪子——PyTorch 2.0中的模塊工具
- 7.1.3 ResNet殘差模塊的實現
- 7.1.4 ResNet網絡的實現
- 7.2 實戰ResNet:CIFAR-10數據集分類
- 7.2.1 CIFAR-10數據集簡介
- 7.2.2 基于ResNet的CIFAR-10數據集分類
- 7.3 本章小結
- 第8章 梅西-阿根廷+巴西=?——有趣的Word Embedding
- 8.1 文本數據處理
- 8.1.1 數據集介紹和數據清洗
- 8.1.2 停用詞的使用
- 8.1.3 詞向量訓練模型Word2Vec使用介紹
- 8.1.4 文本主題的提取:基于TF-IDF
- 8.1.5 文本主題的提取:基于TextRank
- 8.2 更多的Word Embedding方法——FastText和預訓練詞向量
- 8.2.1 FastText的原理與基礎算法
- 8.2.2 FastText訓練以及與PyTorch 2.0的協同使用
- 8.2.3 使用其他預訓練參數生成PyTorch 2.0詞嵌入矩陣(中文)
- 8.3 針對文本的卷積神經網絡模型簡介——字符卷積
- 8.3.1 字符(非單詞)文本的處理
- 8.3.2 卷積神經網絡文本分類模型的實現——Conv1d(一維卷積)
- 8.4 針對文本的卷積神經網絡模型簡介——詞卷積
- 8.4.1 單詞的文本處理
- 8.4.2 卷積神經網絡文本分類模型的實現——Conv2d(二維卷積)
- 8.5 使用卷積實現文本分類的補充內容
- 8.6 本章小結
- 第9章 基于循環神經網絡的中文情感分類實戰
- 9.1 實戰:循環神經網絡與情感分類
- 9.1.1 基于循環神經網絡的中文情感分類準備
- 9.1.2 基于循環神經網絡的中文情感分類實現
- 9.2 循環神經網絡理論講解
- 9.2.1 什么是GRU
- 9.2.2 單向不行,那就雙向
- 9.3 本章小結
- 第10章 從0起步——自然語言處理的編碼器
- 10.1 編碼器的核心——注意力模型
- 10.1.1 輸入層——初始詞向量層和位置編碼器層
- 10.1.2 自注意力層(重點)
- 10.1.3 ticks和LayerNormalization
- 10.1.4 多頭自注意力
- 10.2 編碼器的實現
- 10.2.1 前饋層的實現
- 10.2.2 編碼器的實現
- 10.3 實戰編碼器:漢字拼音轉換模型
- 10.3.1 漢字拼音數據集處理
- 10.3.2 漢字拼音轉換模型的確定
- 10.3.3 模型訓練部分的編寫
- 10.4 本章小結
- 第11章 站在巨人肩膀上的預訓練模型BERT
- 11.1 預訓練模型BERT
- 11.1.1 BERT的基本架構與應用
- 11.1.2 BERT預訓練任務與Fine-Tuning
- 11.2 實戰BERT:中文文本分類
- 11.2.1 使用Hugging Face獲取BERT預訓練模型
- 11.2.2 BERT實戰文本分類
- 11.3 更多的預訓練模型
- 11.4 本章小結
- 第12章 從1起步——自然語言處理的解碼器
- 12.1 解碼器的核心——注意力模型
- 12.1.1 解碼器的輸入和交互注意力層的掩碼
- 12.1.2 為什么通過掩碼操作能夠減少干擾
- 12.1.3 解碼器的輸出(移位訓練方法)
- 12.1.4 解碼器的實現
- 12.2 實戰解碼器:漢字拼音翻譯模型
- 12.2.1 數據集的獲取與處理
- 12.2.2 翻譯模型
- 12.2.3 漢字拼音模型的訓練
- 12.2.4 漢字拼音模型的使用
- 12.3 本章小結
- 第13章 我也可以成為馬斯克——無痛的基于PyTorch的強化學習實戰
- 13.1 實戰:基于強化學習的火箭回收
- 13.1.1 火箭回收技術基本運行環境介紹
- 13.1.2 火箭回收參數介紹
- 13.1.3 基于強化學習的火箭回收實戰
- 13.1.4 強化學習的基本內容
- 13.2 強化學習的基本算法——PPO算法
- 13.2.1 PPO算法簡介
- 13.2.2 函數使用說明
- 13.2.3 一學就會的TD-Error理論介紹
- 13.2.4 基于TD-Error的結果修正
- 13.2.5 對于獎勵的倒序構成的說明
- 13.3 本章小結
- 第14章 創建你自己的小精靈——基于MFCC的語音喚醒實戰
- 14.1 語音識別的理論基礎——MFCC
- 14.2 語音識別的數據獲取與準備
- 14.2.1 Speech Commands簡介與數據說明
- 14.2.2 語音識別編碼器模塊與代碼實現
- 14.3 實戰:PyTorch 2.0語音識別
- 14.3.1 基于PyTorch 2.0的語音識別模型
- 14.3.2 基于PyTorch 2.0的語音識別實現
- 14.4 本章小結
- 第15章 基于PyTorch的人臉識別實戰
- 15.1 人臉識別數據集的建立
- 15.1.1 LFW數據集簡介
- 15.1.2 Dlib庫簡介
- 15.1.3 OpenCV簡介
- 15.1.4 使用Dlib檢測人臉位置
- 15.1.5 使用Dlib和OpenCV建立自己的人臉檢測數據集
- 15.1.6 基于人臉定位制作適配深度學習的人臉識別數據集
- 15.2 實戰:基于深度學習的人臉識別模型
- 15.2.1 人臉識別的基本模型Siamese Model
- 15.2.2 基于PyTorch 2.0的Siamese Model的實現
- 15.2.3 人臉識別的Contrastive Loss詳解與實現
- 15.2.4 基于PyTorch 2.0的人臉識別模型
- 15.3 本章小結 更新時間:2024-12-27 21:22:20