首頁(yè) > 計(jì)算機(jī)網(wǎng)絡(luò) > 人工智能 > 現(xiàn)代決策樹(shù)模型及其編程實(shí)踐:從傳統(tǒng)決策樹(shù)到深度決策樹(shù)
舉報(bào)

會(huì)員
現(xiàn)代決策樹(shù)模型及其編程實(shí)踐:從傳統(tǒng)決策樹(shù)到深度決策樹(shù)
最新章節(jié):
8.7 參考文獻(xiàn)
決策樹(shù)是數(shù)據(jù)分析中廣泛使用的機(jī)器學(xué)習(xí)模型,其模型簡(jiǎn)單、算法快速且具有可解釋性。但隨著大數(shù)據(jù)的涌現(xiàn),將決策樹(shù)真正應(yīng)用到實(shí)踐中還面臨諸多困難。本書(shū)正是為解決這一痛點(diǎn)而作,旨在幫助讀者系統(tǒng)且全面地了解決策樹(shù),并成功地將其用于工程實(shí)踐。
最新章節(jié)
- 8.7 參考文獻(xiàn)
- 8.6 小結(jié)
- 8.5.3 dNDF的編程實(shí)踐
- 8.5.2 dNDF模型的優(yōu)缺點(diǎn)
- 8.5.1 dNDF的基本原理
- 8.5 深度神經(jīng)決策森林
品牌:機(jī)械工業(yè)出版社
上架時(shí)間:2022-08-12 16:01:13
出版社:機(jī)械工業(yè)出版社
本書(shū)數(shù)字版權(quán)由機(jī)械工業(yè)出版社提供,并由其授權(quán)上海閱文信息技術(shù)有限公司制作發(fā)行
- 8.7 參考文獻(xiàn) 更新時(shí)間:2022-08-12 16:12:50
- 8.6 小結(jié)
- 8.5.3 dNDF的編程實(shí)踐
- 8.5.2 dNDF模型的優(yōu)缺點(diǎn)
- 8.5.1 dNDF的基本原理
- 8.5 深度神經(jīng)決策森林
- 8.4.2 NBDT的編程實(shí)踐
- 8.4.1 NBDT的基本原理
- 8.4 神經(jīng)支持決策樹(shù)
- 8.3.2 ANT的編程實(shí)踐
- 8.3.1 ANT的基本原理
- 8.3 自適應(yīng)神經(jīng)決策樹(shù)
- 8.2.2 DNDT的編程實(shí)踐
- 8.2.1 DNDT的基本原理
- 8.2 深度神經(jīng)決策樹(shù)
- 8.1.4 改進(jìn)的深度森林模型
- 8.1.3 DF21開(kāi)源庫(kù)
- 8.1.2 gcForest的編程實(shí)踐
- 8.1.1 gcForest的基本原理
- 8.1 深度森林
- 第8章 深度決策樹(shù)
- 7.6 參考文獻(xiàn)
- 7.5 小結(jié)
- 7.4.2 ACDF算法中的長(zhǎng)期提升
- 7.4.1 自適應(yīng)ACDF算法
- 7.4 自適應(yīng)蟻群決策森林
- 7.3.2 ACDT算法
- 7.3.1 Ant-Tree-Miner決策樹(shù)生成算法
- 7.3 蟻群決策樹(shù)的算法原理
- 7.2.6 AMclr算法
- 7.2.5 Ant-MinerMA+G算法
- 7.2.4 MYRA——開(kāi)源實(shí)現(xiàn)
- 7.2.3 Ant-Miner算法的早期變種
- 7.2.2 Ant-Miner算法實(shí)現(xiàn)
- 7.2.1 Ant-Miner規(guī)則提取方法
- 7.2 基于蟻群的分類(lèi)規(guī)則提取
- 7.1.3 ACS算法
- 7.1.2 MMAS算法
- 7.1.1 典型蟻群算法
- 7.1 蟻群元啟發(fā)式算法
- 第7章 蟻群決策樹(shù)
- 6.7 參考文獻(xiàn)
- 6.6 小結(jié)
- 6.5 NGBoost簡(jiǎn)介
- 6.4.8 XGBoost、LightGBM、CatBoost的比較
- 6.4.7 CatBoost的優(yōu)缺點(diǎn)
- 6.4.6 CatBoost回歸問(wèn)題編程(帶分類(lèi)特征屬性)
- 6.4.5 CatBoost回歸問(wèn)題編程(不帶分類(lèi)特征屬性)
- 6.4.4 CatBoost分類(lèi)問(wèn)題編程(不帶分類(lèi)特征屬性)
- 6.4.3 CatBoost編程基礎(chǔ)
- 6.4.2 CatBoost系統(tǒng)設(shè)計(jì)及其并行化加速
- 6.4.1 CatBoost核心原理
- 6.4 CatBoost基礎(chǔ)
- 6.3.7 LightGBM的優(yōu)缺點(diǎn)
- 6.3.6 LightGBM分類(lèi)問(wèn)題編程
- 6.3.5 LightGBM回歸問(wèn)題編程
- 6.3.4 LightGBM與sklearn結(jié)合的示例
- 6.3.3 LigthGBM編程基礎(chǔ)
- 6.3.2 LightGBM系統(tǒng)設(shè)計(jì)及其并行化加速
- 6.3.1 LightGBM核心原理
- 6.3 LightGBM基礎(chǔ)
- 6.2.9 XGBoost的缺點(diǎn)
- 6.2.8 XGBoost與傳統(tǒng)提升樹(shù)的比較
- 6.2.7 XGBoost特征篩選編程
- 6.2.6 XGBoost隨機(jī)森林編程
- 6.2.5 XGBoost分類(lèi)問(wèn)題編程
- 6.2.4 XGBoost回歸問(wèn)題編程
- 6.2.3 XGBoost編程基礎(chǔ)
- 6.2.2 XGBoost系統(tǒng)設(shè)計(jì)及其并行化加速
- 6.2.1 XGBoost核心原理
- 6.2 XGBoost基礎(chǔ)
- 6.1 隨機(jī)森林的并行化
- 第6章 并行決策樹(shù)
- 5.6 參考文獻(xiàn)
- 5.5 小結(jié)
- 5.4 套袋法、提升法、堆疊法的比較
- 5.3.4 多階段堆疊模型
- 5.3.3 基于sklearn的K折交叉驗(yàn)證的二階段堆疊法的編程實(shí)踐
- 5.3.2 基于K折交叉驗(yàn)證的二階段堆疊法
- 5.3.1 簡(jiǎn)單的二階段堆疊算法
- 5.3 堆疊法
- 5.2.6 基于梯度提升法的機(jī)器學(xué)習(xí)庫(kù)
- 5.2.5 隨機(jī)梯度提升樹(shù)
- 5.2.4 梯度提升回歸決策樹(shù)
- 5.2.3 梯度提升分類(lèi)決策樹(shù)
- 5.2.2 梯度提升決策樹(shù)
- 5.2.1 梯度提升法的原理和示例
- 5.2 梯度提升法
- 5.1.5 提升法的分類(lèi)、優(yōu)點(diǎn)和挑戰(zhàn)
- 5.1.4 AdaBoost算法的編程實(shí)踐——基于sklearn解決回歸問(wèn)題
- 5.1.3 AdaBoost算法的編程實(shí)踐——基于sklearn解決分類(lèi)問(wèn)題
- 5.1.2 AdaBoost算法實(shí)現(xiàn)
- 5.1.1 AdaBoost算法原理
- 5.1 提升法
- 第5章 集成學(xué)習(xí)方法
- 4.10 參考文獻(xiàn)
- 4.9 小結(jié)
- 4.8 隨機(jī)森林與核方法的結(jié)合
- 4.7 使用隨機(jī)森林進(jìn)行回歸分析的示例
- 4.6 使用隨機(jī)森林進(jìn)行無(wú)監(jiān)督聚類(lèi)的示例
- 4.5.2 基于袋外數(shù)據(jù)錯(cuò)誤率的特征屬性重要性評(píng)估
- 4.5.1 基于基尼指數(shù)的特征屬性重要性評(píng)估
- 4.5 使用隨機(jī)森林進(jìn)行特征屬性的重要性區(qū)分的示例
- 4.4 隨機(jī)森林的優(yōu)缺點(diǎn)
- 4.3.3 OOB錯(cuò)誤率與交叉驗(yàn)證
- 4.3.2 調(diào)參示例
- 4.3.1 sklearn隨機(jī)森林的參數(shù)
- 4.3 隨機(jī)森林的參數(shù)設(shè)置與調(diào)優(yōu)
- 4.2.3 套袋法的優(yōu)缺點(diǎn)
- 4.2.2 套袋法的偏差和方差
- 4.2.1 套袋法的算法流程
- 4.2 套袋法
- 4.1.4 選擇最優(yōu)的隨機(jī)特征屬性數(shù)量
- 4.1.3 基于sklearn的隨機(jī)森林編程示例
- 4.1.2 隨機(jī)森林的簡(jiǎn)單示例
- 4.1.1 構(gòu)造隨機(jī)森林的步驟
- 4.1 隨機(jī)森林的基本原理
- 第4章 隨機(jī)森林
- 3.7 參考文獻(xiàn)
- 3.6 小結(jié)
- 3.5 其他決策樹(shù)剪枝算法簡(jiǎn)介
- 3.4.2 MEP算法的編程實(shí)踐
- 3.4.1 MEP算法的基本原理
- 3.4 最小錯(cuò)誤剪枝
- 3.3.2 PEP算法的編程實(shí)踐
- 3.3.1 PEP算法的基本原理
- 3.3 悲觀錯(cuò)誤剪枝
- 3.2.2 REP算法的編程實(shí)踐
- 3.2.1 REP算法的基本原理
- 3.2 錯(cuò)誤率降低剪枝
- 3.1.3 基于sklearn的CCP示例
- 3.1.2 CCP算法的編程實(shí)踐
- 3.1.1 CCP算法的基本原理
- 3.1 代價(jià)復(fù)雜度剪枝
- 第3章 決策樹(shù)的剪枝
- 2.8 參考文獻(xiàn)
- 2.7 小結(jié)
- 2.6 決策樹(shù)的5種可視化方法
- 2.5 決策樹(shù)的評(píng)估
- 2.4.5 C4.5算法的后續(xù)改進(jìn)——C5.0算法
- 2.4.4 基于C4.5算法處理連續(xù)屬性生成分類(lèi)決策樹(shù)的示例
- 2.4.3 缺失值的處理
- 2.4.2 連續(xù)屬性的處理
- 2.4.1 信息增益率
- 2.4 C4.5算法
- 2.3.3 ID3算法的編程實(shí)踐
- 2.3.2 ID3算法示例
- 2.3.1 信息熵與信息增益
- 2.3 ID3算法
- 2.2.7 CART回歸決策樹(shù)的編程實(shí)踐
- 2.2.6 CART回歸決策樹(shù)的原理
- 2.2.5 CART回歸決策樹(shù)的特征和分割點(diǎn)選擇準(zhǔn)則
- 2.2.4 回歸問(wèn)題與回歸算法
- 2.2.3 CART分類(lèi)決策樹(shù)的編程實(shí)踐
- 2.2.2 CART分類(lèi)決策樹(shù)的原理
- 2.2.1 基尼不純度、基尼增益與基尼指數(shù)
- 2.2 CART算法
- 2.1.2 連續(xù)數(shù)值屬性的離散化處理
- 2.1.1 缺失值的處理
- 2.1 經(jīng)典決策樹(shù)應(yīng)用的一般流程
- 第2章 經(jīng)典決策樹(shù)算法
- 1.8 參考文獻(xiàn)
- 1.7 作為特征學(xué)習(xí)與決策融合的決策樹(shù)
- 1.6.4 基于規(guī)則的機(jī)器學(xué)習(xí)
- 1.6.3 決策樹(shù)算法面臨的基本問(wèn)題
- 1.6.2 基于數(shù)據(jù)的決策樹(shù)
- 1.6.1 機(jī)器學(xué)習(xí)算法的類(lèi)型
- 1.6 作為機(jī)器學(xué)習(xí)算法的決策樹(shù)
- 1.5.2 基于決策分析流程的決策樹(shù)
- 1.5.1 決策分析
- 1.5 作為決策分析工具的決策樹(shù)
- 1.4 決策樹(shù)的可解釋性
- 1.3 決策樹(shù)的核心術(shù)語(yǔ)
- 1.2 決策樹(shù)算法的起源
- 1.1 決策與智能
- 第1章 決策樹(shù)與人工智能
- 前言
- 推薦序三
- 推薦序二
- 推薦序一
- 贊譽(yù)
- 作者簡(jiǎn)介
- 版權(quán)信息
- 封面
- 封面
- 版權(quán)信息
- 作者簡(jiǎn)介
- 贊譽(yù)
- 推薦序一
- 推薦序二
- 推薦序三
- 前言
- 第1章 決策樹(shù)與人工智能
- 1.1 決策與智能
- 1.2 決策樹(shù)算法的起源
- 1.3 決策樹(shù)的核心術(shù)語(yǔ)
- 1.4 決策樹(shù)的可解釋性
- 1.5 作為決策分析工具的決策樹(shù)
- 1.5.1 決策分析
- 1.5.2 基于決策分析流程的決策樹(shù)
- 1.6 作為機(jī)器學(xué)習(xí)算法的決策樹(shù)
- 1.6.1 機(jī)器學(xué)習(xí)算法的類(lèi)型
- 1.6.2 基于數(shù)據(jù)的決策樹(shù)
- 1.6.3 決策樹(shù)算法面臨的基本問(wèn)題
- 1.6.4 基于規(guī)則的機(jī)器學(xué)習(xí)
- 1.7 作為特征學(xué)習(xí)與決策融合的決策樹(shù)
- 1.8 參考文獻(xiàn)
- 第2章 經(jīng)典決策樹(shù)算法
- 2.1 經(jīng)典決策樹(shù)應(yīng)用的一般流程
- 2.1.1 缺失值的處理
- 2.1.2 連續(xù)數(shù)值屬性的離散化處理
- 2.2 CART算法
- 2.2.1 基尼不純度、基尼增益與基尼指數(shù)
- 2.2.2 CART分類(lèi)決策樹(shù)的原理
- 2.2.3 CART分類(lèi)決策樹(shù)的編程實(shí)踐
- 2.2.4 回歸問(wèn)題與回歸算法
- 2.2.5 CART回歸決策樹(shù)的特征和分割點(diǎn)選擇準(zhǔn)則
- 2.2.6 CART回歸決策樹(shù)的原理
- 2.2.7 CART回歸決策樹(shù)的編程實(shí)踐
- 2.3 ID3算法
- 2.3.1 信息熵與信息增益
- 2.3.2 ID3算法示例
- 2.3.3 ID3算法的編程實(shí)踐
- 2.4 C4.5算法
- 2.4.1 信息增益率
- 2.4.2 連續(xù)屬性的處理
- 2.4.3 缺失值的處理
- 2.4.4 基于C4.5算法處理連續(xù)屬性生成分類(lèi)決策樹(shù)的示例
- 2.4.5 C4.5算法的后續(xù)改進(jìn)——C5.0算法
- 2.5 決策樹(shù)的評(píng)估
- 2.6 決策樹(shù)的5種可視化方法
- 2.7 小結(jié)
- 2.8 參考文獻(xiàn)
- 第3章 決策樹(shù)的剪枝
- 3.1 代價(jià)復(fù)雜度剪枝
- 3.1.1 CCP算法的基本原理
- 3.1.2 CCP算法的編程實(shí)踐
- 3.1.3 基于sklearn的CCP示例
- 3.2 錯(cuò)誤率降低剪枝
- 3.2.1 REP算法的基本原理
- 3.2.2 REP算法的編程實(shí)踐
- 3.3 悲觀錯(cuò)誤剪枝
- 3.3.1 PEP算法的基本原理
- 3.3.2 PEP算法的編程實(shí)踐
- 3.4 最小錯(cuò)誤剪枝
- 3.4.1 MEP算法的基本原理
- 3.4.2 MEP算法的編程實(shí)踐
- 3.5 其他決策樹(shù)剪枝算法簡(jiǎn)介
- 3.6 小結(jié)
- 3.7 參考文獻(xiàn)
- 第4章 隨機(jī)森林
- 4.1 隨機(jī)森林的基本原理
- 4.1.1 構(gòu)造隨機(jī)森林的步驟
- 4.1.2 隨機(jī)森林的簡(jiǎn)單示例
- 4.1.3 基于sklearn的隨機(jī)森林編程示例
- 4.1.4 選擇最優(yōu)的隨機(jī)特征屬性數(shù)量
- 4.2 套袋法
- 4.2.1 套袋法的算法流程
- 4.2.2 套袋法的偏差和方差
- 4.2.3 套袋法的優(yōu)缺點(diǎn)
- 4.3 隨機(jī)森林的參數(shù)設(shè)置與調(diào)優(yōu)
- 4.3.1 sklearn隨機(jī)森林的參數(shù)
- 4.3.2 調(diào)參示例
- 4.3.3 OOB錯(cuò)誤率與交叉驗(yàn)證
- 4.4 隨機(jī)森林的優(yōu)缺點(diǎn)
- 4.5 使用隨機(jī)森林進(jìn)行特征屬性的重要性區(qū)分的示例
- 4.5.1 基于基尼指數(shù)的特征屬性重要性評(píng)估
- 4.5.2 基于袋外數(shù)據(jù)錯(cuò)誤率的特征屬性重要性評(píng)估
- 4.6 使用隨機(jī)森林進(jìn)行無(wú)監(jiān)督聚類(lèi)的示例
- 4.7 使用隨機(jī)森林進(jìn)行回歸分析的示例
- 4.8 隨機(jī)森林與核方法的結(jié)合
- 4.9 小結(jié)
- 4.10 參考文獻(xiàn)
- 第5章 集成學(xué)習(xí)方法
- 5.1 提升法
- 5.1.1 AdaBoost算法原理
- 5.1.2 AdaBoost算法實(shí)現(xiàn)
- 5.1.3 AdaBoost算法的編程實(shí)踐——基于sklearn解決分類(lèi)問(wèn)題
- 5.1.4 AdaBoost算法的編程實(shí)踐——基于sklearn解決回歸問(wèn)題
- 5.1.5 提升法的分類(lèi)、優(yōu)點(diǎn)和挑戰(zhàn)
- 5.2 梯度提升法
- 5.2.1 梯度提升法的原理和示例
- 5.2.2 梯度提升決策樹(shù)
- 5.2.3 梯度提升分類(lèi)決策樹(shù)
- 5.2.4 梯度提升回歸決策樹(shù)
- 5.2.5 隨機(jī)梯度提升樹(shù)
- 5.2.6 基于梯度提升法的機(jī)器學(xué)習(xí)庫(kù)
- 5.3 堆疊法
- 5.3.1 簡(jiǎn)單的二階段堆疊算法
- 5.3.2 基于K折交叉驗(yàn)證的二階段堆疊法
- 5.3.3 基于sklearn的K折交叉驗(yàn)證的二階段堆疊法的編程實(shí)踐
- 5.3.4 多階段堆疊模型
- 5.4 套袋法、提升法、堆疊法的比較
- 5.5 小結(jié)
- 5.6 參考文獻(xiàn)
- 第6章 并行決策樹(shù)
- 6.1 隨機(jī)森林的并行化
- 6.2 XGBoost基礎(chǔ)
- 6.2.1 XGBoost核心原理
- 6.2.2 XGBoost系統(tǒng)設(shè)計(jì)及其并行化加速
- 6.2.3 XGBoost編程基礎(chǔ)
- 6.2.4 XGBoost回歸問(wèn)題編程
- 6.2.5 XGBoost分類(lèi)問(wèn)題編程
- 6.2.6 XGBoost隨機(jī)森林編程
- 6.2.7 XGBoost特征篩選編程
- 6.2.8 XGBoost與傳統(tǒng)提升樹(shù)的比較
- 6.2.9 XGBoost的缺點(diǎn)
- 6.3 LightGBM基礎(chǔ)
- 6.3.1 LightGBM核心原理
- 6.3.2 LightGBM系統(tǒng)設(shè)計(jì)及其并行化加速
- 6.3.3 LigthGBM編程基礎(chǔ)
- 6.3.4 LightGBM與sklearn結(jié)合的示例
- 6.3.5 LightGBM回歸問(wèn)題編程
- 6.3.6 LightGBM分類(lèi)問(wèn)題編程
- 6.3.7 LightGBM的優(yōu)缺點(diǎn)
- 6.4 CatBoost基礎(chǔ)
- 6.4.1 CatBoost核心原理
- 6.4.2 CatBoost系統(tǒng)設(shè)計(jì)及其并行化加速
- 6.4.3 CatBoost編程基礎(chǔ)
- 6.4.4 CatBoost分類(lèi)問(wèn)題編程(不帶分類(lèi)特征屬性)
- 6.4.5 CatBoost回歸問(wèn)題編程(不帶分類(lèi)特征屬性)
- 6.4.6 CatBoost回歸問(wèn)題編程(帶分類(lèi)特征屬性)
- 6.4.7 CatBoost的優(yōu)缺點(diǎn)
- 6.4.8 XGBoost、LightGBM、CatBoost的比較
- 6.5 NGBoost簡(jiǎn)介
- 6.6 小結(jié)
- 6.7 參考文獻(xiàn)
- 第7章 蟻群決策樹(shù)
- 7.1 蟻群元啟發(fā)式算法
- 7.1.1 典型蟻群算法
- 7.1.2 MMAS算法
- 7.1.3 ACS算法
- 7.2 基于蟻群的分類(lèi)規(guī)則提取
- 7.2.1 Ant-Miner規(guī)則提取方法
- 7.2.2 Ant-Miner算法實(shí)現(xiàn)
- 7.2.3 Ant-Miner算法的早期變種
- 7.2.4 MYRA——開(kāi)源實(shí)現(xiàn)
- 7.2.5 Ant-MinerMA+G算法
- 7.2.6 AMclr算法
- 7.3 蟻群決策樹(shù)的算法原理
- 7.3.1 Ant-Tree-Miner決策樹(shù)生成算法
- 7.3.2 ACDT算法
- 7.4 自適應(yīng)蟻群決策森林
- 7.4.1 自適應(yīng)ACDF算法
- 7.4.2 ACDF算法中的長(zhǎng)期提升
- 7.5 小結(jié)
- 7.6 參考文獻(xiàn)
- 第8章 深度決策樹(shù)
- 8.1 深度森林
- 8.1.1 gcForest的基本原理
- 8.1.2 gcForest的編程實(shí)踐
- 8.1.3 DF21開(kāi)源庫(kù)
- 8.1.4 改進(jìn)的深度森林模型
- 8.2 深度神經(jīng)決策樹(shù)
- 8.2.1 DNDT的基本原理
- 8.2.2 DNDT的編程實(shí)踐
- 8.3 自適應(yīng)神經(jīng)決策樹(shù)
- 8.3.1 ANT的基本原理
- 8.3.2 ANT的編程實(shí)踐
- 8.4 神經(jīng)支持決策樹(shù)
- 8.4.1 NBDT的基本原理
- 8.4.2 NBDT的編程實(shí)踐
- 8.5 深度神經(jīng)決策森林
- 8.5.1 dNDF的基本原理
- 8.5.2 dNDF模型的優(yōu)缺點(diǎn)
- 8.5.3 dNDF的編程實(shí)踐
- 8.6 小結(jié)
- 8.7 參考文獻(xiàn) 更新時(shí)間:2022-08-12 16:12:50
同類(lèi)熱門(mén)書(shū)