首頁 > 計(jì)算機(jī)網(wǎng)絡(luò) > 人工智能 > 企業(yè)級(jí)AI技術(shù)內(nèi)幕:深度學(xué)習(xí)框架開發(fā)+機(jī)器學(xué)習(xí)案例實(shí)戰(zhàn)+Alluxio解密
舉報(bào)

會(huì)員
企業(yè)級(jí)AI技術(shù)內(nèi)幕:深度學(xué)習(xí)框架開發(fā)+機(jī)器學(xué)習(xí)案例實(shí)戰(zhàn)+Alluxio解密
王家林 段智華編著 著
更新時(shí)間:2021-03-26 23:55:00
開會(huì)員,本書免費(fèi)讀 >
最新章節(jié):
40.2 Alluxio配置項(xiàng)設(shè)置
《企業(yè)級(jí)AI技術(shù)內(nèi)幕:深度學(xué)習(xí)框架開發(fā)+機(jī)器學(xué)習(xí)案例實(shí)戰(zhàn)+Alluxio解密》分為盤古人工智能框架開發(fā)專題篇、機(jī)器學(xué)習(xí)案例實(shí)戰(zhàn)篇、分布式內(nèi)存管理Alluxio解密篇,分別對(duì)人工智能開發(fā)框架、機(jī)器學(xué)習(xí)案例及Alluxio系統(tǒng)進(jìn)行透徹解析。盤古人工智能框架開發(fā)專題篇,通過代碼講解多層次神經(jīng)網(wǎng)絡(luò)、前向傳播算法、反向傳播算法、損失度計(jì)算及可視化、自適應(yīng)學(xué)習(xí)和特征歸一化等內(nèi)容。機(jī)器學(xué)習(xí)案例實(shí)戰(zhàn)篇,選取機(jī)器學(xué)習(xí)中最具代表性的經(jīng)典案例,透徹講解機(jī)器學(xué)習(xí)數(shù)據(jù)預(yù)處理、簡單線性回歸、多元線性回歸、多項(xiàng)式回歸、支持向量回歸、決策樹回歸、隨機(jī)森林回歸等回歸算法,邏輯回歸、k近鄰算法、支持向量機(jī)、樸素貝葉斯、決策樹分類、隨機(jī)森林分類等分類算法、k均值聚類、層次聚類等聚類算法,以及關(guān)聯(lián)分析算法,并對(duì)回歸模型、分類模型進(jìn)行性能評(píng)估。分布式內(nèi)存管理Alluxio解密篇,詳細(xì)講解Alluxio架構(gòu)、部署、底層存儲(chǔ)及計(jì)算應(yīng)用、基本用法、運(yùn)行維護(hù)等內(nèi)容。
最新章節(jié)
- 40.2 Alluxio配置項(xiàng)設(shè)置
- 40.1 Alluxio命令行接口
- 第40章 Alluxio用戶命令及配置項(xiàng)設(shè)置
- 39.3 Alluxio度量指標(biāo)系統(tǒng)代碼解讀
- 39.2 Alluxio度量指標(biāo)系統(tǒng)
- 39.1 管理員命令行接口
品牌:清華大學(xué)
上架時(shí)間:2021-03-26 17:43:22
出版社:清華大學(xué)出版社
本書數(shù)字版權(quán)由清華大學(xué)提供,并由其授權(quán)上海閱文信息技術(shù)有限公司制作發(fā)行
- 40.2 Alluxio配置項(xiàng)設(shè)置 更新時(shí)間:2021-03-26 23:55:00
- 40.1 Alluxio命令行接口
- 第40章 Alluxio用戶命令及配置項(xiàng)設(shè)置
- 39.3 Alluxio度量指標(biāo)系統(tǒng)代碼解讀
- 39.2 Alluxio度量指標(biāo)系統(tǒng)
- 39.1 管理員命令行接口
- 第39章 Alluxio運(yùn)行與維護(hù)
- 38.4 在Alluxio上運(yùn)行Apache Hive
- 38.3 Alluxio在Apache Hadoop MapReduce上的應(yīng)用
- 38.2 Apache Spark使用Alluxio
- 38.1 Alluxio在深度學(xué)習(xí)框架PyTorch中的應(yīng)用
- 第38章 Alluxio底層存儲(chǔ)及應(yīng)用
- 37.6 Alluxio Worker及Job Worker啟動(dòng)腳本解讀
- 37.5 Alluxio Master及Job Master啟動(dòng)腳本解讀
- 37.4 Alluxio集群Master容錯(cuò)部署
- 37.3 在Docker上運(yùn)行Alluxio
- 37.2 集群模式部署Alluxio
- 37.1 在本地機(jī)器上運(yùn)行Alluxio
- 第37章 Alluxio部署
- 36.6 Alluxio 2.0.0新特點(diǎn)
- 36.5 遠(yuǎn)程數(shù)據(jù)加速
- 36.4 Alluxio統(tǒng)一存儲(chǔ)與抽象
- 36.3 Alluxio數(shù)據(jù)流
- 36.2 Alluxio架構(gòu)
- 36.1 Alluxio簡介
- 第36章 Alluxio概述
- 分布式內(nèi)存管理Alluxio解密篇
- 35.3 關(guān)聯(lián)分析算法案例實(shí)戰(zhàn)
- 35.2 案例的應(yīng)用場景解析
- 35.1 關(guān)聯(lián)分析算法簡介
- 第35章 關(guān)聯(lián)分析算法
- 34.5 層次聚類案例實(shí)戰(zhàn)
- 34.4 案例的應(yīng)用場景解析及數(shù)據(jù)的預(yù)處理
- 34.3 樹狀圖在層次聚類中的運(yùn)用
- 34.2 層次聚類中的樹狀圖工作機(jī)制解密
- 34.1 層次聚類簡介
- 第34章 層次聚類
- 33.4 k均值聚類案例實(shí)戰(zhàn)
- 33.3 案例的應(yīng)用場景解析及數(shù)據(jù)的預(yù)處理
- 33.2 k均值聚類中分組數(shù)目選取及隨機(jī)初始化陷阱
- 33.1 k均值聚類簡介
- 第33章 k均值聚類
- 32.4 累積精度曲線解密
- 32.3 準(zhǔn)確性悖論解密
- 32.2 混淆矩陣解密
- 32.1 假正例及假負(fù)例解讀
- 第32章 對(duì)分類進(jìn)行性能評(píng)估
- 31.3 隨機(jī)森林分類案例實(shí)戰(zhàn)
- 31.2 案例的應(yīng)用場景解析及數(shù)據(jù)的預(yù)處理
- 31.1 隨機(jī)森林分類簡介
- 第31章 隨機(jī)森林分類
- 30.3 決策樹分類案例實(shí)戰(zhàn)
- 30.2 案例的應(yīng)用場景解析及數(shù)據(jù)的預(yù)處理
- 30.1 決策樹分類簡介
- 第30章 決策樹分類
- 29.4 樸素貝葉斯算法案例實(shí)戰(zhàn)
- 29.3 案例的應(yīng)用場景解析及數(shù)據(jù)的預(yù)處理
- 29.2 樸素貝葉斯算法簡介
- 29.1 貝葉斯算法簡介
- 第29章 樸素貝葉斯算法
- 28.6 支持向量機(jī)內(nèi)核案例實(shí)戰(zhàn)
- 28.5 案例的應(yīng)用場景解析及數(shù)據(jù)的預(yù)處理
- 28.4 不同類型的內(nèi)核函數(shù)
- 28.3 內(nèi)核的使用技巧
- 28.2 進(jìn)行高維映射
- 28.1 支持向量機(jī)內(nèi)核簡介
- 第28章 支持向量機(jī)內(nèi)核
- 27.3 支持向量機(jī)案例實(shí)戰(zhàn)
- 27.2 案例的應(yīng)用場景解析及數(shù)據(jù)的預(yù)處理
- 27.1 支持向量機(jī)簡介
- 第27章 支持向量機(jī)
- 26.3 k近鄰算法案例實(shí)戰(zhàn)
- 26.2 案例的應(yīng)用場景解析及數(shù)據(jù)的預(yù)處理
- 26.1 k近鄰算法簡介
- 第26章 k近鄰算法
- 25.3 邏輯回歸案例實(shí)戰(zhàn)
- 25.2 案例的應(yīng)用場景解析及數(shù)據(jù)的預(yù)處理
- 25.1 邏輯回歸簡介
- 第25章 邏輯回歸
- 24.4 剖析線性回歸模型的決定系數(shù)
- 24.3 對(duì)回歸模型的性能進(jìn)行評(píng)估
- 24.2 理解改進(jìn)的擬合度
- 24.1 理解擬合度
- 第24章 對(duì)于回歸模型的性能進(jìn)行評(píng)估
- 23.3 隨機(jī)森林回歸案例實(shí)戰(zhàn)
- 23.2 案例的應(yīng)用場景解析及數(shù)據(jù)的預(yù)處理
- 23.1 隨機(jī)森林回歸簡介
- 第23章 隨機(jī)森林回歸
- 22.3 決策樹回歸案例實(shí)戰(zhàn)
- 22.2 案例的應(yīng)用場景解析及數(shù)據(jù)的預(yù)處理
- 22.1 決策樹回歸簡介
- 第22章 決策樹回歸
- 21.3 支持向量回歸案例實(shí)戰(zhàn)
- 21.2 案例的應(yīng)用場景解析及數(shù)據(jù)的預(yù)處理
- 21.1 支持向量回歸簡介
- 第21章 支持向量回歸
- 20.4 多項(xiàng)式回歸案例實(shí)戰(zhàn)
- 20.3 對(duì)案例使用的數(shù)據(jù)進(jìn)行分析及預(yù)處理
- 20.2 案例的應(yīng)用場景解析
- 20.1 多項(xiàng)式回歸簡介
- 第20章 多項(xiàng)式回歸
- 19.5 通過反向消元法找到風(fēng)險(xiǎn)投資機(jī)構(gòu)在對(duì)創(chuàng)業(yè)公司投資時(shí)最關(guān)心的因素
- 19.4 多元線性回歸案例實(shí)戰(zhàn)
- 19.3 對(duì)案例使用的數(shù)據(jù)進(jìn)行分析及預(yù)處理
- 19.2 多元線性回歸模型案例的應(yīng)用場景解析
- 19.1 多元線性回歸簡介
- 第19章 多元線性回歸
- 18.4 簡單線性回歸案例實(shí)戰(zhàn)
- 18.3 對(duì)案例使用的數(shù)據(jù)進(jìn)行分析及預(yù)處理
- 18.2 案例的應(yīng)用場景解析
- 18.1 簡單線性回歸簡介
- 第18章 簡單線性回歸
- 17.9 特征縮放的意義及具體方法
- 17.8 把數(shù)據(jù)分為訓(xùn)練集和測試集
- 17.7 分類數(shù)據(jù)處理
- 17.6 實(shí)際生產(chǎn)環(huán)境中如何處理數(shù)據(jù)缺失的情況
- 17.5 采用面向?qū)ο竽K化的方式預(yù)處理數(shù)據(jù)
- 17.4 導(dǎo)入數(shù)據(jù)
- 17.3 使用第三方庫(NumPy、Pandas、Matplotlib)預(yù)處理數(shù)據(jù)
- 17.2 數(shù)據(jù)的獲取及分析
- 17.1 預(yù)處理機(jī)器學(xué)習(xí)使用的數(shù)據(jù)的原因
- 第17章 機(jī)器學(xué)習(xí)數(shù)據(jù)的預(yù)處理
- 機(jī)器學(xué)習(xí)案例實(shí)戰(zhàn)篇
- 16.2 Spark+Alluxio+PyTorch綜合開發(fā)案例
- 16.1 PyTorch深度學(xué)習(xí)框架案例
- 第16章 Spark+PyTorch開發(fā)應(yīng)用
- 15.4 人工智能框架神經(jīng)網(wǎng)絡(luò)四個(gè)核心數(shù)學(xué)公式
- 15.3 神經(jīng)網(wǎng)絡(luò)中的損失函數(shù)
- 15.2 從矩陣的視角剖析神經(jīng)網(wǎng)絡(luò)的計(jì)算過程
- 15.1 點(diǎn)積和外積的本質(zhì)
- 第15章 從矩陣視角剖析神經(jīng)網(wǎng)絡(luò)的運(yùn)行過程
- 14.6 超參數(shù)調(diào)優(yōu)
- 14.5 損失函數(shù)及評(píng)估函數(shù)
- 14.4 小批量隨機(jī)梯度下降
- 14.3 前向傳播和反向傳播函數(shù)
- 14.2 神經(jīng)網(wǎng)絡(luò)的初始化
- 14.1 MNIST數(shù)據(jù)的加載
- 第14章 MNIST數(shù)字識(shí)別
- 13.4 通過一個(gè)簡單示例理解梯度下降
- 13.3 隨機(jī)梯度下降法的設(shè)計(jì)和實(shí)現(xiàn)
- 13.2 梯度下降的本質(zhì)
- 13.1 損失函數(shù)的本質(zhì)剖析
- 第13章 人工智能框架編寫中關(guān)于損失度及梯度下降的設(shè)計(jì)與實(shí)現(xiàn)
- 12.4 使用PyTorch框架編碼實(shí)現(xiàn)MNIST手寫數(shù)字識(shí)別程序
- 12.3 MINST數(shù)據(jù)集圖片庫解析
- 12.2 為何識(shí)別數(shù)字的三層神經(jīng)網(wǎng)絡(luò)輸出層為10個(gè)神經(jīng)元
- 12.1 神經(jīng)網(wǎng)絡(luò)識(shí)別手寫數(shù)字的原理
- 第12章 用神經(jīng)網(wǎng)絡(luò)識(shí)別手寫數(shù)字
- 11.5 Sigmoid函數(shù)的弱點(diǎn)及改進(jìn)
- 11.4 Sigmoid函數(shù)背后的設(shè)計(jì)和實(shí)現(xiàn)密碼
- 11.3 神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)解密
- 11.2 神經(jīng)網(wǎng)絡(luò)為什么能夠完成各類計(jì)算
- 11.1 神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)與非門
- 第11章 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)及Sigmoid函數(shù)
- 10.4 計(jì)算機(jī)圖像識(shí)別
- 10.3 感知器解密
- 10.2 計(jì)算機(jī)視覺面臨的困境及突破
- 10.1 人工智能是什么,怎么做,前景為什么好
- 第10章 人工智能及感知元解密
- 9.3 人工智能框架的改進(jìn)優(yōu)化
- 9.2 增加和調(diào)整alpha參數(shù)
- 9.1 梯度下降陷阱
- 第9章 使用四種性能優(yōu)化矩陣編寫人工智能框架
- 8.3 對(duì)使用矩陣方式編寫的人工智能框架進(jìn)行優(yōu)化
- 8.2 測試及分析計(jì)算結(jié)果
- 8.1 使用矩陣編寫人工智能框架
- 第8章 使用矩陣的方式編寫人工智能框架
- 7.6 人工智能盤古框架源代碼
- 7.5 損失度計(jì)算實(shí)現(xiàn)與TensorFlow的對(duì)比
- 7.4 反向傳播算法實(shí)現(xiàn)及與TensorFlow的對(duì)比
- 7.3 前向傳播算法實(shí)現(xiàn)及其和TensorFlow的算法對(duì)比
- 7.2 神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)及和TensorFlow的對(duì)比
- 7.1 盤古人工智能框架性能測試
- 第7章 盤古人工智能框架實(shí)現(xiàn)方法大總結(jié)
- 6.3 使用自適應(yīng)學(xué)習(xí)進(jìn)行性能優(yōu)化
- 6.2 使用特征歸一化進(jìn)行性能優(yōu)化
- 6.1 盤古人工智能框架性能測試及問題剖析
- 第6章 通過特征歸一化和自適應(yīng)學(xué)習(xí)優(yōu)化盤古人工智能框架
- 5.3 損失度可視化運(yùn)行結(jié)果
- 5.2 編碼實(shí)現(xiàn)損失度并進(jìn)行測試
- 5.1 關(guān)于損失度的思考——所有人工智能框架終身的魔咒
- 第5章 盤古人工智能框架的損失度計(jì)算及其可視化
- 4.3 反向傳播算法測試及分析計(jì)算結(jié)果
- 4.2 實(shí)現(xiàn)反向傳播算法
- 4.1 深度學(xué)習(xí)是如何學(xué)習(xí)的
- 第4章 盤古人工智能框架的反向傳播功能
- 3.5 測試前向傳播算法并分析計(jì)算結(jié)果
- 3.4 使用Sigmoid函數(shù)作為激活函數(shù)
- 3.3 實(shí)現(xiàn)前向傳播算法
- 3.2 在每個(gè)節(jié)點(diǎn)上增加數(shù)據(jù)的輸入和計(jì)算結(jié)果
- 3.1 前向傳播功能
- 第3章 盤古人工智能框架的前向傳播功能
- 2.5 實(shí)現(xiàn)多個(gè)隱藏層
- 2.4 如何初始化神經(jīng)網(wǎng)絡(luò)的權(quán)重
- 2.3 實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)層之間節(jié)點(diǎn)的連接
- 2.2 實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)的節(jié)點(diǎn)結(jié)構(gòu)
- 2.1 盤古人工智能框架
- 第2章 盤古人工智能框架多層次神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)
- 1.7 本書開發(fā)環(huán)境的安裝
- 1.6 人工智能在海量數(shù)據(jù)處理中不可替代的原因
- 1.5 人工智能的十大經(jīng)典應(yīng)用場景
- 1.4 人工智能、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)三者之間的關(guān)系
- 1.3 學(xué)習(xí)人工智能的正道
- 1.2 人工智能為何如此強(qiáng)大
- 1.1 為什么一定需要人工智能
- 第1章 導(dǎo)論:為什么人工智能是必然的未來
- 盤古人工智能框架開發(fā)專題篇
- 前言
- 內(nèi)容簡介
- 作者簡介
- 版權(quán)信息
- 封面
- 封面
- 版權(quán)信息
- 作者簡介
- 內(nèi)容簡介
- 前言
- 盤古人工智能框架開發(fā)專題篇
- 第1章 導(dǎo)論:為什么人工智能是必然的未來
- 1.1 為什么一定需要人工智能
- 1.2 人工智能為何如此強(qiáng)大
- 1.3 學(xué)習(xí)人工智能的正道
- 1.4 人工智能、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)三者之間的關(guān)系
- 1.5 人工智能的十大經(jīng)典應(yīng)用場景
- 1.6 人工智能在海量數(shù)據(jù)處理中不可替代的原因
- 1.7 本書開發(fā)環(huán)境的安裝
- 第2章 盤古人工智能框架多層次神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)
- 2.1 盤古人工智能框架
- 2.2 實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)的節(jié)點(diǎn)結(jié)構(gòu)
- 2.3 實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)層之間節(jié)點(diǎn)的連接
- 2.4 如何初始化神經(jīng)網(wǎng)絡(luò)的權(quán)重
- 2.5 實(shí)現(xiàn)多個(gè)隱藏層
- 第3章 盤古人工智能框架的前向傳播功能
- 3.1 前向傳播功能
- 3.2 在每個(gè)節(jié)點(diǎn)上增加數(shù)據(jù)的輸入和計(jì)算結(jié)果
- 3.3 實(shí)現(xiàn)前向傳播算法
- 3.4 使用Sigmoid函數(shù)作為激活函數(shù)
- 3.5 測試前向傳播算法并分析計(jì)算結(jié)果
- 第4章 盤古人工智能框架的反向傳播功能
- 4.1 深度學(xué)習(xí)是如何學(xué)習(xí)的
- 4.2 實(shí)現(xiàn)反向傳播算法
- 4.3 反向傳播算法測試及分析計(jì)算結(jié)果
- 第5章 盤古人工智能框架的損失度計(jì)算及其可視化
- 5.1 關(guān)于損失度的思考——所有人工智能框架終身的魔咒
- 5.2 編碼實(shí)現(xiàn)損失度并進(jìn)行測試
- 5.3 損失度可視化運(yùn)行結(jié)果
- 第6章 通過特征歸一化和自適應(yīng)學(xué)習(xí)優(yōu)化盤古人工智能框架
- 6.1 盤古人工智能框架性能測試及問題剖析
- 6.2 使用特征歸一化進(jìn)行性能優(yōu)化
- 6.3 使用自適應(yīng)學(xué)習(xí)進(jìn)行性能優(yōu)化
- 第7章 盤古人工智能框架實(shí)現(xiàn)方法大總結(jié)
- 7.1 盤古人工智能框架性能測試
- 7.2 神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)及和TensorFlow的對(duì)比
- 7.3 前向傳播算法實(shí)現(xiàn)及其和TensorFlow的算法對(duì)比
- 7.4 反向傳播算法實(shí)現(xiàn)及與TensorFlow的對(duì)比
- 7.5 損失度計(jì)算實(shí)現(xiàn)與TensorFlow的對(duì)比
- 7.6 人工智能盤古框架源代碼
- 第8章 使用矩陣的方式編寫人工智能框架
- 8.1 使用矩陣編寫人工智能框架
- 8.2 測試及分析計(jì)算結(jié)果
- 8.3 對(duì)使用矩陣方式編寫的人工智能框架進(jìn)行優(yōu)化
- 第9章 使用四種性能優(yōu)化矩陣編寫人工智能框架
- 9.1 梯度下降陷阱
- 9.2 增加和調(diào)整alpha參數(shù)
- 9.3 人工智能框架的改進(jìn)優(yōu)化
- 第10章 人工智能及感知元解密
- 10.1 人工智能是什么,怎么做,前景為什么好
- 10.2 計(jì)算機(jī)視覺面臨的困境及突破
- 10.3 感知器解密
- 10.4 計(jì)算機(jī)圖像識(shí)別
- 第11章 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)及Sigmoid函數(shù)
- 11.1 神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)與非門
- 11.2 神經(jīng)網(wǎng)絡(luò)為什么能夠完成各類計(jì)算
- 11.3 神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)解密
- 11.4 Sigmoid函數(shù)背后的設(shè)計(jì)和實(shí)現(xiàn)密碼
- 11.5 Sigmoid函數(shù)的弱點(diǎn)及改進(jìn)
- 第12章 用神經(jīng)網(wǎng)絡(luò)識(shí)別手寫數(shù)字
- 12.1 神經(jīng)網(wǎng)絡(luò)識(shí)別手寫數(shù)字的原理
- 12.2 為何識(shí)別數(shù)字的三層神經(jīng)網(wǎng)絡(luò)輸出層為10個(gè)神經(jīng)元
- 12.3 MINST數(shù)據(jù)集圖片庫解析
- 12.4 使用PyTorch框架編碼實(shí)現(xiàn)MNIST手寫數(shù)字識(shí)別程序
- 第13章 人工智能框架編寫中關(guān)于損失度及梯度下降的設(shè)計(jì)與實(shí)現(xiàn)
- 13.1 損失函數(shù)的本質(zhì)剖析
- 13.2 梯度下降的本質(zhì)
- 13.3 隨機(jī)梯度下降法的設(shè)計(jì)和實(shí)現(xiàn)
- 13.4 通過一個(gè)簡單示例理解梯度下降
- 第14章 MNIST數(shù)字識(shí)別
- 14.1 MNIST數(shù)據(jù)的加載
- 14.2 神經(jīng)網(wǎng)絡(luò)的初始化
- 14.3 前向傳播和反向傳播函數(shù)
- 14.4 小批量隨機(jī)梯度下降
- 14.5 損失函數(shù)及評(píng)估函數(shù)
- 14.6 超參數(shù)調(diào)優(yōu)
- 第15章 從矩陣視角剖析神經(jīng)網(wǎng)絡(luò)的運(yùn)行過程
- 15.1 點(diǎn)積和外積的本質(zhì)
- 15.2 從矩陣的視角剖析神經(jīng)網(wǎng)絡(luò)的計(jì)算過程
- 15.3 神經(jīng)網(wǎng)絡(luò)中的損失函數(shù)
- 15.4 人工智能框架神經(jīng)網(wǎng)絡(luò)四個(gè)核心數(shù)學(xué)公式
- 第16章 Spark+PyTorch開發(fā)應(yīng)用
- 16.1 PyTorch深度學(xué)習(xí)框架案例
- 16.2 Spark+Alluxio+PyTorch綜合開發(fā)案例
- 機(jī)器學(xué)習(xí)案例實(shí)戰(zhàn)篇
- 第17章 機(jī)器學(xué)習(xí)數(shù)據(jù)的預(yù)處理
- 17.1 預(yù)處理機(jī)器學(xué)習(xí)使用的數(shù)據(jù)的原因
- 17.2 數(shù)據(jù)的獲取及分析
- 17.3 使用第三方庫(NumPy、Pandas、Matplotlib)預(yù)處理數(shù)據(jù)
- 17.4 導(dǎo)入數(shù)據(jù)
- 17.5 采用面向?qū)ο竽K化的方式預(yù)處理數(shù)據(jù)
- 17.6 實(shí)際生產(chǎn)環(huán)境中如何處理數(shù)據(jù)缺失的情況
- 17.7 分類數(shù)據(jù)處理
- 17.8 把數(shù)據(jù)分為訓(xùn)練集和測試集
- 17.9 特征縮放的意義及具體方法
- 第18章 簡單線性回歸
- 18.1 簡單線性回歸簡介
- 18.2 案例的應(yīng)用場景解析
- 18.3 對(duì)案例使用的數(shù)據(jù)進(jìn)行分析及預(yù)處理
- 18.4 簡單線性回歸案例實(shí)戰(zhàn)
- 第19章 多元線性回歸
- 19.1 多元線性回歸簡介
- 19.2 多元線性回歸模型案例的應(yīng)用場景解析
- 19.3 對(duì)案例使用的數(shù)據(jù)進(jìn)行分析及預(yù)處理
- 19.4 多元線性回歸案例實(shí)戰(zhàn)
- 19.5 通過反向消元法找到風(fēng)險(xiǎn)投資機(jī)構(gòu)在對(duì)創(chuàng)業(yè)公司投資時(shí)最關(guān)心的因素
- 第20章 多項(xiàng)式回歸
- 20.1 多項(xiàng)式回歸簡介
- 20.2 案例的應(yīng)用場景解析
- 20.3 對(duì)案例使用的數(shù)據(jù)進(jìn)行分析及預(yù)處理
- 20.4 多項(xiàng)式回歸案例實(shí)戰(zhàn)
- 第21章 支持向量回歸
- 21.1 支持向量回歸簡介
- 21.2 案例的應(yīng)用場景解析及數(shù)據(jù)的預(yù)處理
- 21.3 支持向量回歸案例實(shí)戰(zhàn)
- 第22章 決策樹回歸
- 22.1 決策樹回歸簡介
- 22.2 案例的應(yīng)用場景解析及數(shù)據(jù)的預(yù)處理
- 22.3 決策樹回歸案例實(shí)戰(zhàn)
- 第23章 隨機(jī)森林回歸
- 23.1 隨機(jī)森林回歸簡介
- 23.2 案例的應(yīng)用場景解析及數(shù)據(jù)的預(yù)處理
- 23.3 隨機(jī)森林回歸案例實(shí)戰(zhàn)
- 第24章 對(duì)于回歸模型的性能進(jìn)行評(píng)估
- 24.1 理解擬合度
- 24.2 理解改進(jìn)的擬合度
- 24.3 對(duì)回歸模型的性能進(jìn)行評(píng)估
- 24.4 剖析線性回歸模型的決定系數(shù)
- 第25章 邏輯回歸
- 25.1 邏輯回歸簡介
- 25.2 案例的應(yīng)用場景解析及數(shù)據(jù)的預(yù)處理
- 25.3 邏輯回歸案例實(shí)戰(zhàn)
- 第26章 k近鄰算法
- 26.1 k近鄰算法簡介
- 26.2 案例的應(yīng)用場景解析及數(shù)據(jù)的預(yù)處理
- 26.3 k近鄰算法案例實(shí)戰(zhàn)
- 第27章 支持向量機(jī)
- 27.1 支持向量機(jī)簡介
- 27.2 案例的應(yīng)用場景解析及數(shù)據(jù)的預(yù)處理
- 27.3 支持向量機(jī)案例實(shí)戰(zhàn)
- 第28章 支持向量機(jī)內(nèi)核
- 28.1 支持向量機(jī)內(nèi)核簡介
- 28.2 進(jìn)行高維映射
- 28.3 內(nèi)核的使用技巧
- 28.4 不同類型的內(nèi)核函數(shù)
- 28.5 案例的應(yīng)用場景解析及數(shù)據(jù)的預(yù)處理
- 28.6 支持向量機(jī)內(nèi)核案例實(shí)戰(zhàn)
- 第29章 樸素貝葉斯算法
- 29.1 貝葉斯算法簡介
- 29.2 樸素貝葉斯算法簡介
- 29.3 案例的應(yīng)用場景解析及數(shù)據(jù)的預(yù)處理
- 29.4 樸素貝葉斯算法案例實(shí)戰(zhàn)
- 第30章 決策樹分類
- 30.1 決策樹分類簡介
- 30.2 案例的應(yīng)用場景解析及數(shù)據(jù)的預(yù)處理
- 30.3 決策樹分類案例實(shí)戰(zhàn)
- 第31章 隨機(jī)森林分類
- 31.1 隨機(jī)森林分類簡介
- 31.2 案例的應(yīng)用場景解析及數(shù)據(jù)的預(yù)處理
- 31.3 隨機(jī)森林分類案例實(shí)戰(zhàn)
- 第32章 對(duì)分類進(jìn)行性能評(píng)估
- 32.1 假正例及假負(fù)例解讀
- 32.2 混淆矩陣解密
- 32.3 準(zhǔn)確性悖論解密
- 32.4 累積精度曲線解密
- 第33章 k均值聚類
- 33.1 k均值聚類簡介
- 33.2 k均值聚類中分組數(shù)目選取及隨機(jī)初始化陷阱
- 33.3 案例的應(yīng)用場景解析及數(shù)據(jù)的預(yù)處理
- 33.4 k均值聚類案例實(shí)戰(zhàn)
- 第34章 層次聚類
- 34.1 層次聚類簡介
- 34.2 層次聚類中的樹狀圖工作機(jī)制解密
- 34.3 樹狀圖在層次聚類中的運(yùn)用
- 34.4 案例的應(yīng)用場景解析及數(shù)據(jù)的預(yù)處理
- 34.5 層次聚類案例實(shí)戰(zhàn)
- 第35章 關(guān)聯(lián)分析算法
- 35.1 關(guān)聯(lián)分析算法簡介
- 35.2 案例的應(yīng)用場景解析
- 35.3 關(guān)聯(lián)分析算法案例實(shí)戰(zhàn)
- 分布式內(nèi)存管理Alluxio解密篇
- 第36章 Alluxio概述
- 36.1 Alluxio簡介
- 36.2 Alluxio架構(gòu)
- 36.3 Alluxio數(shù)據(jù)流
- 36.4 Alluxio統(tǒng)一存儲(chǔ)與抽象
- 36.5 遠(yuǎn)程數(shù)據(jù)加速
- 36.6 Alluxio 2.0.0新特點(diǎn)
- 第37章 Alluxio部署
- 37.1 在本地機(jī)器上運(yùn)行Alluxio
- 37.2 集群模式部署Alluxio
- 37.3 在Docker上運(yùn)行Alluxio
- 37.4 Alluxio集群Master容錯(cuò)部署
- 37.5 Alluxio Master及Job Master啟動(dòng)腳本解讀
- 37.6 Alluxio Worker及Job Worker啟動(dòng)腳本解讀
- 第38章 Alluxio底層存儲(chǔ)及應(yīng)用
- 38.1 Alluxio在深度學(xué)習(xí)框架PyTorch中的應(yīng)用
- 38.2 Apache Spark使用Alluxio
- 38.3 Alluxio在Apache Hadoop MapReduce上的應(yīng)用
- 38.4 在Alluxio上運(yùn)行Apache Hive
- 第39章 Alluxio運(yùn)行與維護(hù)
- 39.1 管理員命令行接口
- 39.2 Alluxio度量指標(biāo)系統(tǒng)
- 39.3 Alluxio度量指標(biāo)系統(tǒng)代碼解讀
- 第40章 Alluxio用戶命令及配置項(xiàng)設(shè)置
- 40.1 Alluxio命令行接口
- 40.2 Alluxio配置項(xiàng)設(shè)置 更新時(shí)間:2021-03-26 23:55:00
作者還寫過