舉報

會員
機器學習系統(tǒng):設計和實現(xiàn)
最新章節(jié):
參考文獻
本書系統(tǒng)地介紹了機器學習系統(tǒng)的設計原則和實踐經(jīng)驗,側重于介紹機器學習的原理、神經(jīng)網(wǎng)絡和優(yōu)化器、自動差分算法、機器學習系統(tǒng)編程模型、控制流和數(shù)據(jù)流,異構硬件加速器的原理和編程、數(shù)據(jù)流圖編譯器前端、數(shù)據(jù)流圖編譯器后端、數(shù)據(jù)準備和增強、模型部署相關技術、分布式訓練、彈性訓練、聯(lián)合訓練和評估平臺、調(diào)試和優(yōu)化工具、數(shù)據(jù)隱私和安全等。在講授的過程中,本書將根據(jù)MindSpore的自身特點,在各個章節(jié)突出討論MindSpore的優(yōu)勢點,從而將MindSpore并列為與TensorFlow,PyTorch的三大框架。
最新章節(jié)
書友吧品牌:清華大學
上架時間:2024-12-27 17:57:08
出版社:清華大學出版社
本書數(shù)字版權由清華大學提供,并由其授權上海閱文信息技術有限公司制作發(fā)行
- 參考文獻 更新時間:2024-12-27 20:31:37
- 14.4 總結
- 14.3.6 動作客戶端
- 14.3.5 動作模式
- 14.3.4 客戶端
- 14.3.3 服務端-客戶端服務模式
- 14.3.2 讀取參數(shù)
- 14.3.1 創(chuàng)建節(jié)點
- 14.3 案例分析:使用機器人操作系統(tǒng)
- 14.2.5 ROS2動作
- 14.2.4 ROS2參數(shù)
- 14.2.3 ROS2服務
- 14.2.2 ROS2主題
- 14.2.1 ROS2節(jié)點
- 14.2 機器人操作系統(tǒng)
- 14.1.4 機器人安全
- 14.1.3 控制系統(tǒng)
- 14.1.2 規(guī)劃系統(tǒng)
- 14.1.1 感知系統(tǒng)
- 14.1 機器人系統(tǒng)概述
- 第14章 機器人系統(tǒng)
- 13.7 總結
- 13.6 未來研究方向
- 13.5.3 白盒模型
- 13.5.2 為表格數(shù)據(jù)場景提供解釋
- 13.5.1 為圖片分類場景提供解釋
- 13.5 案例分析:MindSpore XAI
- 13.4 常見可解釋AI系統(tǒng)
- 13.3.2 知識感知的解釋
- 13.3.1 數(shù)據(jù)驅動的解釋
- 13.3 可解釋AI算法現(xiàn)狀介紹
- 13.2 可解釋AI定義
- 13.1 背景
- 第13章 可解釋AI系統(tǒng)
- 12.6 總結
- 12.5 多智能體強化學習系統(tǒng)
- 12.4 多智能體強化學習
- 12.3 分布式強化學習系統(tǒng)
- 12.2 單節(jié)點強化學習系統(tǒng)
- 12.1 強化學習介紹
- 第12章 強化學習系統(tǒng)
- 11.6 擴展閱讀
- 11.5 總結
- 11.4.6 小結
- 11.4.5 模型狀態(tài)管理器
- 11.4.4 模型更新調(diào)度器
- 11.4.3 點對點模型更新傳播算法
- 11.4.2 系統(tǒng)架構
- 11.4.1 系統(tǒng)設計挑戰(zhàn)
- 11.4 案例分析:支持在線模型更新的大型推薦系統(tǒng)
- 11.3.2 離線更新
- 11.3.1 持續(xù)更新模型的需求
- 11.3 模型更新
- 11.2.3 排序
- 11.2.2 召回
- 11.2.1 推薦流水線概述
- 11.2 多階段推薦系統(tǒng)
- 11.1.7 推理服務器
- 11.1.6 參數(shù)服務器
- 11.1.5 訓練服務器
- 11.1.4 嵌入表
- 11.1.3 稠密神經(jīng)網(wǎng)絡
- 11.1.2 特征存儲
- 11.1.1 消息隊列
- 11.1 系統(tǒng)基本組成
- 第11章 推薦系統(tǒng)
- 10.6 總結
- 10.5.3 聯(lián)邦生態(tài)
- 10.5.2 通信效率提升
- 10.5.1 異構場景下的聯(lián)邦學習
- 10.5 展望
- 10.4.3 基于LDP-SignDS算法的安全聚合
- 10.4.2 基于MPC算法的安全聚合
- 10.4.1 基于LDP算法的安全聚合
- 10.4 隱私加密算法
- 10.3.3 聯(lián)合訓練
- 10.3.2 樣本對齊
- 10.3.1 縱向聯(lián)邦架構
- 10.3 縱向聯(lián)邦學習
- 10.2.2 端云場景中的橫向聯(lián)邦
- 10.2.1 云云場景中的橫向聯(lián)邦
- 10.2 橫向聯(lián)邦學習
- 10.1.4 常用框架
- 10.1.3 部署場景
- 10.1.2 應用場景
- 10.1.1 定義
- 10.1 概述
- 第10章 聯(lián)邦學習系統(tǒng)
- 拓展篇
- 9.8 拓展閱讀
- 9.7 總結
- 9.6.3 數(shù)據(jù)副本
- 9.6.2 異步訓練
- 9.6.1 系統(tǒng)架構
- 9.6 參數(shù)服務器
- 9.5.6 集合通信在混合并行的實踐
- 9.5.5 集合通信在數(shù)據(jù)并行的實踐
- 9.5.4 利用集合通信優(yōu)化模型訓練的實踐
- 9.5.3 集合通信算法性能分析
- 9.5.2 基于AllReduce的梯度平均算法
- 9.5.1 常見集合通信算子
- 9.5 集合通信
- 9.4 機器學習集群架構
- 9.3 流水線并行
- 9.2.4 混合并行
- 9.2.3 模型并行
- 9.2.2 數(shù)據(jù)并行
- 9.2.1 方法分類
- 9.2 實現(xiàn)方法
- 9.1.3 用戶益處
- 9.1.2 系統(tǒng)架構
- 9.1.1 設計動機
- 9.1 設計概述
- 第9章 分布式訓練
- 8.7 拓展閱讀
- 8.6 總結
- 8.5.2 模型混淆
- 8.5.1 概述
- 8.5 模型的安全保護
- 8.4.3 算子優(yōu)化
- 8.4.2 并行計算
- 8.4.1 前處理與后處理
- 8.4 模型推理
- 8.3.3 知識蒸餾
- 8.3.2 模型稀疏
- 8.3.1 量化
- 8.3 模型壓縮
- 8.2.4 算子重排
- 8.2.3 算子替換
- 8.2.2 算子融合
- 8.2.1 模型轉換
- 8.2 訓練模型到推理模型的轉換及優(yōu)化
- 8.1 概述
- 第8章 模型部署
- 7.6 總結
- 7.5.2 基于分布式的數(shù)據(jù)預處理
- 7.5.1 基于異構計算的數(shù)據(jù)預處理
- 7.5 單機數(shù)據(jù)處理性能的擴展
- 7.4 保序性設計
- 7.3.2 數(shù)據(jù)計算的高效性
- 7.3.1 數(shù)據(jù)讀取的高效性
- 7.3 高效性設計
- 7.2.2 自定義算子支持
- 7.2.1 編程抽象與接口
- 7.2 易用性設計
- 7.1.3 保序性
- 7.1.2 高效性
- 7.1.1 易用性
- 7.1 概述
- 第7章 數(shù)據(jù)處理
- 6.6 拓展閱讀
- 6.5 總結
- 6.4.9 小結
- 6.4.8 與cuBLAS對比
- 6.4.7 隱藏全局內(nèi)存讀取延遲
- 6.4.6 隱藏共享內(nèi)存讀取延遲
- 6.4.5 減少寄存器使用
- 6.4.4 使用共享內(nèi)存緩存復用數(shù)據(jù)
- 6.4.3 提高計算強度
- 6.4.2 廣義矩陣乘法的樸素實現(xiàn)
- 6.4.1 環(huán)境
- 6.4 加速器實踐
- 6.3.2 硬件加速器的多樣化編程方法
- 6.3.1 硬件加速器的可編程性
- 6.3 加速器基本編程原理
- 6.2.4 DSA芯片架構
- 6.2.3 硬件加速器的計算單元
- 6.2.2 硬件加速器的存儲單元
- 6.2.1 硬件加速器的架構
- 6.2 硬件加速器基本組成原理
- 6.1.2 硬件加速器設計的思路
- 6.1.1 硬件加速器設計的意義
- 6.1 概述
- 第6章 硬件加速器
- 5.8 拓展閱讀
- 5.7 總結
- 5.6.6 相關編譯優(yōu)化技術
- 5.6.5 算子表達能力
- 5.6.4 芯片指令集適配
- 5.6.3 調(diào)度空間算法優(yōu)化
- 5.6.2 子策略組合優(yōu)化
- 5.6.1 算子調(diào)度策略
- 5.6 算子編譯器
- 5.5.4 下沉式執(zhí)行
- 5.5.3 交互式執(zhí)行
- 5.5.2 計算圖調(diào)度
- 5.5.1 單算子調(diào)度
- 5.5 計算調(diào)度與執(zhí)行
- 5.4.4 常見的內(nèi)存分配優(yōu)化手段
- 5.4.3 內(nèi)存復用
- 5.4.2 內(nèi)存分配
- 5.4.1 Device內(nèi)存概念
- 5.4 內(nèi)存分配
- 5.3.2 算子選擇的過程
- 5.3.1 算子選擇的基礎概念
- 5.3 算子選擇
- 5.2.2 特定硬件優(yōu)化
- 5.2.1 通用硬件優(yōu)化
- 5.2 計算圖優(yōu)化
- 5.1 概述
- 第5章 AI編譯器后端和運行時
- 4.7 總結
- 4.6.2 常見編譯優(yōu)化方法介紹及實現(xiàn)
- 4.6.1 前端編譯優(yōu)化簡介
- 4.6 常見前端編譯優(yōu)化方法
- 4.5.2 靜態(tài)分析概述
- 4.5.1 類型系統(tǒng)概述
- 4.5 類型系統(tǒng)和靜態(tài)分析
- 4.4.3 自動微分的實現(xiàn)
- 4.4.2 前向與反向自動微分
- 4.4.1 自動微分的基本概念
- 4.4 自動微分
- 4.3.3 機器學習框架的中間表示
- 4.3.2 中間表示的種類
- 4.3.1 中間表示的基本概念
- 4.3 中間表示
- 4.2 AI編譯器前端技術概述
- 4.1 AI編譯器設計原理
- 第4章 AI編譯器和前端技術
- 進階篇
- 3.6 拓展閱讀
- 3.5 總結
- 3.4.3 數(shù)據(jù)載入同步與異步機制
- 3.4.2 串行與并行
- 3.4.1 算子調(diào)度執(zhí)行
- 3.4 計算圖的調(diào)度
- 3.3.4 動態(tài)圖與靜態(tài)圖的轉換和融合
- 3.3.3 動態(tài)圖和靜態(tài)圖生成的比較
- 3.3.2 動態(tài)生成
- 3.3.1 靜態(tài)生成
- 3.3 計算圖的生成
- 3.2.4 基于鏈式法則計算梯度
- 3.2.3 控制流
- 3.2.2 計算依賴
- 3.2.1 張量和算子
- 3.2 計算圖的基本構成
- 3.1 設計背景和作用
- 第3章 計算圖
- 2.7 拓展閱讀
- 2.6 總結
- 2.5.3 函數(shù)式編程案例
- 2.5.2 機器學習框架編程范式現(xiàn)狀
- 2.5.1 機器學習框架編程需求
- 2.5 機器學習框架的編程范式
- 2.4.2 添加C++編寫的自定義算子
- 2.4.1 在Python中調(diào)用C/C++函數(shù)的原理
- 2.4 C/C++編程接口
- 2.3.4 自定義神經(jīng)網(wǎng)絡模型
- 2.3.3 自定義神經(jīng)網(wǎng)絡層
- 2.3.2 神經(jīng)網(wǎng)絡層的實現(xiàn)原理
- 2.3.1 以層為核心定義神經(jīng)網(wǎng)絡
- 2.3 定義深度神經(jīng)網(wǎng)絡
- 2.2.6 測試和驗證
- 2.2.5 訓練及保存模型
- 2.2.4 損失函數(shù)和優(yōu)化器
- 2.2.3 模型定義
- 2.2.2 數(shù)據(jù)處理
- 2.2.1 環(huán)境配置
- 2.2 機器學習工作流
- 2.1 機器學習系統(tǒng)編程模型的演進
- 第2章 編程模型
- 1.5 本書結構和讀者對象
- 1.4 機器學習系統(tǒng)生態(tài)
- 1.3 機器學習框架的基本組成原理
- 1.2 機器學習框架的設計目標
- 1.1 機器學習應用
- 第1章 導論
- 基礎篇
- PREFACE前言
- FOREWORD序
- 作者簡介
- 內(nèi)容簡介
- 版權信息
- 封面
- 封面
- 版權信息
- 內(nèi)容簡介
- 作者簡介
- FOREWORD序
- PREFACE前言
- 基礎篇
- 第1章 導論
- 1.1 機器學習應用
- 1.2 機器學習框架的設計目標
- 1.3 機器學習框架的基本組成原理
- 1.4 機器學習系統(tǒng)生態(tài)
- 1.5 本書結構和讀者對象
- 第2章 編程模型
- 2.1 機器學習系統(tǒng)編程模型的演進
- 2.2 機器學習工作流
- 2.2.1 環(huán)境配置
- 2.2.2 數(shù)據(jù)處理
- 2.2.3 模型定義
- 2.2.4 損失函數(shù)和優(yōu)化器
- 2.2.5 訓練及保存模型
- 2.2.6 測試和驗證
- 2.3 定義深度神經(jīng)網(wǎng)絡
- 2.3.1 以層為核心定義神經(jīng)網(wǎng)絡
- 2.3.2 神經(jīng)網(wǎng)絡層的實現(xiàn)原理
- 2.3.3 自定義神經(jīng)網(wǎng)絡層
- 2.3.4 自定義神經(jīng)網(wǎng)絡模型
- 2.4 C/C++編程接口
- 2.4.1 在Python中調(diào)用C/C++函數(shù)的原理
- 2.4.2 添加C++編寫的自定義算子
- 2.5 機器學習框架的編程范式
- 2.5.1 機器學習框架編程需求
- 2.5.2 機器學習框架編程范式現(xiàn)狀
- 2.5.3 函數(shù)式編程案例
- 2.6 總結
- 2.7 拓展閱讀
- 第3章 計算圖
- 3.1 設計背景和作用
- 3.2 計算圖的基本構成
- 3.2.1 張量和算子
- 3.2.2 計算依賴
- 3.2.3 控制流
- 3.2.4 基于鏈式法則計算梯度
- 3.3 計算圖的生成
- 3.3.1 靜態(tài)生成
- 3.3.2 動態(tài)生成
- 3.3.3 動態(tài)圖和靜態(tài)圖生成的比較
- 3.3.4 動態(tài)圖與靜態(tài)圖的轉換和融合
- 3.4 計算圖的調(diào)度
- 3.4.1 算子調(diào)度執(zhí)行
- 3.4.2 串行與并行
- 3.4.3 數(shù)據(jù)載入同步與異步機制
- 3.5 總結
- 3.6 拓展閱讀
- 進階篇
- 第4章 AI編譯器和前端技術
- 4.1 AI編譯器設計原理
- 4.2 AI編譯器前端技術概述
- 4.3 中間表示
- 4.3.1 中間表示的基本概念
- 4.3.2 中間表示的種類
- 4.3.3 機器學習框架的中間表示
- 4.4 自動微分
- 4.4.1 自動微分的基本概念
- 4.4.2 前向與反向自動微分
- 4.4.3 自動微分的實現(xiàn)
- 4.5 類型系統(tǒng)和靜態(tài)分析
- 4.5.1 類型系統(tǒng)概述
- 4.5.2 靜態(tài)分析概述
- 4.6 常見前端編譯優(yōu)化方法
- 4.6.1 前端編譯優(yōu)化簡介
- 4.6.2 常見編譯優(yōu)化方法介紹及實現(xiàn)
- 4.7 總結
- 第5章 AI編譯器后端和運行時
- 5.1 概述
- 5.2 計算圖優(yōu)化
- 5.2.1 通用硬件優(yōu)化
- 5.2.2 特定硬件優(yōu)化
- 5.3 算子選擇
- 5.3.1 算子選擇的基礎概念
- 5.3.2 算子選擇的過程
- 5.4 內(nèi)存分配
- 5.4.1 Device內(nèi)存概念
- 5.4.2 內(nèi)存分配
- 5.4.3 內(nèi)存復用
- 5.4.4 常見的內(nèi)存分配優(yōu)化手段
- 5.5 計算調(diào)度與執(zhí)行
- 5.5.1 單算子調(diào)度
- 5.5.2 計算圖調(diào)度
- 5.5.3 交互式執(zhí)行
- 5.5.4 下沉式執(zhí)行
- 5.6 算子編譯器
- 5.6.1 算子調(diào)度策略
- 5.6.2 子策略組合優(yōu)化
- 5.6.3 調(diào)度空間算法優(yōu)化
- 5.6.4 芯片指令集適配
- 5.6.5 算子表達能力
- 5.6.6 相關編譯優(yōu)化技術
- 5.7 總結
- 5.8 拓展閱讀
- 第6章 硬件加速器
- 6.1 概述
- 6.1.1 硬件加速器設計的意義
- 6.1.2 硬件加速器設計的思路
- 6.2 硬件加速器基本組成原理
- 6.2.1 硬件加速器的架構
- 6.2.2 硬件加速器的存儲單元
- 6.2.3 硬件加速器的計算單元
- 6.2.4 DSA芯片架構
- 6.3 加速器基本編程原理
- 6.3.1 硬件加速器的可編程性
- 6.3.2 硬件加速器的多樣化編程方法
- 6.4 加速器實踐
- 6.4.1 環(huán)境
- 6.4.2 廣義矩陣乘法的樸素實現(xiàn)
- 6.4.3 提高計算強度
- 6.4.4 使用共享內(nèi)存緩存復用數(shù)據(jù)
- 6.4.5 減少寄存器使用
- 6.4.6 隱藏共享內(nèi)存讀取延遲
- 6.4.7 隱藏全局內(nèi)存讀取延遲
- 6.4.8 與cuBLAS對比
- 6.4.9 小結
- 6.5 總結
- 6.6 拓展閱讀
- 第7章 數(shù)據(jù)處理
- 7.1 概述
- 7.1.1 易用性
- 7.1.2 高效性
- 7.1.3 保序性
- 7.2 易用性設計
- 7.2.1 編程抽象與接口
- 7.2.2 自定義算子支持
- 7.3 高效性設計
- 7.3.1 數(shù)據(jù)讀取的高效性
- 7.3.2 數(shù)據(jù)計算的高效性
- 7.4 保序性設計
- 7.5 單機數(shù)據(jù)處理性能的擴展
- 7.5.1 基于異構計算的數(shù)據(jù)預處理
- 7.5.2 基于分布式的數(shù)據(jù)預處理
- 7.6 總結
- 第8章 模型部署
- 8.1 概述
- 8.2 訓練模型到推理模型的轉換及優(yōu)化
- 8.2.1 模型轉換
- 8.2.2 算子融合
- 8.2.3 算子替換
- 8.2.4 算子重排
- 8.3 模型壓縮
- 8.3.1 量化
- 8.3.2 模型稀疏
- 8.3.3 知識蒸餾
- 8.4 模型推理
- 8.4.1 前處理與后處理
- 8.4.2 并行計算
- 8.4.3 算子優(yōu)化
- 8.5 模型的安全保護
- 8.5.1 概述
- 8.5.2 模型混淆
- 8.6 總結
- 8.7 拓展閱讀
- 第9章 分布式訓練
- 9.1 設計概述
- 9.1.1 設計動機
- 9.1.2 系統(tǒng)架構
- 9.1.3 用戶益處
- 9.2 實現(xiàn)方法
- 9.2.1 方法分類
- 9.2.2 數(shù)據(jù)并行
- 9.2.3 模型并行
- 9.2.4 混合并行
- 9.3 流水線并行
- 9.4 機器學習集群架構
- 9.5 集合通信
- 9.5.1 常見集合通信算子
- 9.5.2 基于AllReduce的梯度平均算法
- 9.5.3 集合通信算法性能分析
- 9.5.4 利用集合通信優(yōu)化模型訓練的實踐
- 9.5.5 集合通信在數(shù)據(jù)并行的實踐
- 9.5.6 集合通信在混合并行的實踐
- 9.6 參數(shù)服務器
- 9.6.1 系統(tǒng)架構
- 9.6.2 異步訓練
- 9.6.3 數(shù)據(jù)副本
- 9.7 總結
- 9.8 拓展閱讀
- 拓展篇
- 第10章 聯(lián)邦學習系統(tǒng)
- 10.1 概述
- 10.1.1 定義
- 10.1.2 應用場景
- 10.1.3 部署場景
- 10.1.4 常用框架
- 10.2 橫向聯(lián)邦學習
- 10.2.1 云云場景中的橫向聯(lián)邦
- 10.2.2 端云場景中的橫向聯(lián)邦
- 10.3 縱向聯(lián)邦學習
- 10.3.1 縱向聯(lián)邦架構
- 10.3.2 樣本對齊
- 10.3.3 聯(lián)合訓練
- 10.4 隱私加密算法
- 10.4.1 基于LDP算法的安全聚合
- 10.4.2 基于MPC算法的安全聚合
- 10.4.3 基于LDP-SignDS算法的安全聚合
- 10.5 展望
- 10.5.1 異構場景下的聯(lián)邦學習
- 10.5.2 通信效率提升
- 10.5.3 聯(lián)邦生態(tài)
- 10.6 總結
- 第11章 推薦系統(tǒng)
- 11.1 系統(tǒng)基本組成
- 11.1.1 消息隊列
- 11.1.2 特征存儲
- 11.1.3 稠密神經(jīng)網(wǎng)絡
- 11.1.4 嵌入表
- 11.1.5 訓練服務器
- 11.1.6 參數(shù)服務器
- 11.1.7 推理服務器
- 11.2 多階段推薦系統(tǒng)
- 11.2.1 推薦流水線概述
- 11.2.2 召回
- 11.2.3 排序
- 11.3 模型更新
- 11.3.1 持續(xù)更新模型的需求
- 11.3.2 離線更新
- 11.4 案例分析:支持在線模型更新的大型推薦系統(tǒng)
- 11.4.1 系統(tǒng)設計挑戰(zhàn)
- 11.4.2 系統(tǒng)架構
- 11.4.3 點對點模型更新傳播算法
- 11.4.4 模型更新調(diào)度器
- 11.4.5 模型狀態(tài)管理器
- 11.4.6 小結
- 11.5 總結
- 11.6 擴展閱讀
- 第12章 強化學習系統(tǒng)
- 12.1 強化學習介紹
- 12.2 單節(jié)點強化學習系統(tǒng)
- 12.3 分布式強化學習系統(tǒng)
- 12.4 多智能體強化學習
- 12.5 多智能體強化學習系統(tǒng)
- 12.6 總結
- 第13章 可解釋AI系統(tǒng)
- 13.1 背景
- 13.2 可解釋AI定義
- 13.3 可解釋AI算法現(xiàn)狀介紹
- 13.3.1 數(shù)據(jù)驅動的解釋
- 13.3.2 知識感知的解釋
- 13.4 常見可解釋AI系統(tǒng)
- 13.5 案例分析:MindSpore XAI
- 13.5.1 為圖片分類場景提供解釋
- 13.5.2 為表格數(shù)據(jù)場景提供解釋
- 13.5.3 白盒模型
- 13.6 未來研究方向
- 13.7 總結
- 第14章 機器人系統(tǒng)
- 14.1 機器人系統(tǒng)概述
- 14.1.1 感知系統(tǒng)
- 14.1.2 規(guī)劃系統(tǒng)
- 14.1.3 控制系統(tǒng)
- 14.1.4 機器人安全
- 14.2 機器人操作系統(tǒng)
- 14.2.1 ROS2節(jié)點
- 14.2.2 ROS2主題
- 14.2.3 ROS2服務
- 14.2.4 ROS2參數(shù)
- 14.2.5 ROS2動作
- 14.3 案例分析:使用機器人操作系統(tǒng)
- 14.3.1 創(chuàng)建節(jié)點
- 14.3.2 讀取參數(shù)
- 14.3.3 服務端-客戶端服務模式
- 14.3.4 客戶端
- 14.3.5 動作模式
- 14.3.6 動作客戶端
- 14.4 總結
- 參考文獻 更新時間:2024-12-27 20:31:37