舉報

會員
跟我一起學機器學習
最新章節:
圖書推薦
本書系統地闡述機器學習中常見的幾類模型,包括模型的思想、原理及實現細節等。同時,本書還結合了當前熱門的機器學習框架Sklearn,對書中所涉及的模型進行用法上詳細講解。全書共10章,第1章介紹機器學習開發環境的配置;第2章講解線性回歸模型的基本原理、回歸模型中常見的幾種評價指標,以及用于有監督模型訓練的梯度下降算法;第3章介紹邏輯回歸模型的基本原理和分類模型中常見的幾種評價指標;第4章介紹模型的改善與泛化,包括特征標準化、如何避免過擬合及如何進行模型選擇等;第5章講解K最近鄰分類算法的基本原理及kd樹的構造與搜索;第6章介紹樸素貝葉斯算法的基本原理;第7章介紹幾種常見的文本特征提取方法,包括詞袋模型和TF-IDF等;第8章講解決策樹的基本原理,包括幾種經典的決策樹生成算法和集成模型;第9章介紹支持向量機的基本原理與求解過程;第10章介紹幾種經典的聚類算法及相應的評價指標計算方法。
- 圖書推薦 更新時間:2023-08-10 16:31:37
- 10.7.7 小結
- 10.7.6 參數求解
- 10.7.5 從零實現加權k-means聚類算法
- 10.7.4 加權k-means聚類算法迭代公式
- 10.7.3 加權k-means聚類算法原理
- 10.7.2 加權k-means聚類算法思想
- 10.7.1 引例
- 10.7 加權k-means聚類算法
- 10.6.5 小結
- 10.6.4 聚類指標示例代碼
- 10.6.3 調整蘭德系數
- 10.6.2 蘭德系數與F值
- 10.6.1 聚類純度
- 10.6 聚類評估指標
- 10.5.4 小結
- 10.5.3 從零實現k-means++聚類算法
- 10.5.2 計算示例
- 10.5.1 算法原理
- 10.5 k-means++聚類算法
- 10.4.5 小結
- 10.4.4 聚類算法實現
- 10.4.3 簇中心矩陣實現
- 10.4.2 簇分配矩陣實現
- 10.4.1 隨機初始化簇中心
- 10.4 從零實現k-means聚類算法
- 10.3.4 小結
- 10.3.3 求解簇分配矩陣U
- 10.3.2 求解簇中心矩陣Z
- 10.3.1 k-means算法目標函數
- 10.3 k-means算法求解
- 10.2.4 小結
- 10.2.3 k-means聚類示例代碼
- 10.2.2 k值選取
- 10.2.1 算法原理
- 10.2 k-means聚類算法
- 10.1 聚類算法的思想
- 第10章 聚類
- 9.8.6 小結
- 9.8.5 SVM算法求解示例
- 9.8.4 偏置b求解
- 9.8.3 SMO算法原理
- 9.8.2 SMO算法思想
- 9.8.1 坐標上升算法
- 9.8 SMO算法
- 9.7.5 小結
- 9.7.4 軟間隔中的支持向量
- 9.7.3 構造軟間隔廣義拉格朗日函數
- 9.7.2 硬間隔求解計算示例
- 9.7.1 構造硬間隔廣義拉格朗日函數
- 9.7 SVM優化問題
- 9.6.6 小結
- 9.6.5 計算示例
- 9.6.4 KKT條件
- 9.6.3 對偶優化問題
- 9.6.2 原始優化問題
- 9.6.1 廣義拉格朗日乘數法
- 9.6 對偶性與KKT條件
- 9.5.3 小結
- 9.5.2 求解條件極值
- 9.5.1 條件極值
- 9.5 拉格朗日乘數法
- 9.4.4 小結
- 9.4.3 SVM軟間隔示例代碼
- 9.4.2 最大化軟間隔
- 9.4.1 軟間隔定義
- 9.4 SVM中的軟間隔
- 9.3.7 小結
- 9.3.6 常見核函數
- 9.3.5 從高維到無窮維
- 9.3.4 SVM中的核技巧
- 9.3.3 將低維特征映射到高維空間
- 9.3.2 從線性不可分談起
- 9.3.1 線性SVM示例代碼
- 9.3 SVM示例代碼與線性不可分
- 9.2.6 小結
- 9.2.5 函數間隔的性質
- 9.2.4 最大間隔分類器
- 9.2.3 幾何間隔
- 9.2.2 函數間隔
- 9.2.1 超平面的表達
- 9.2 SVM原理
- 9.1 SVM思想
- 第9章 支持向量機
- 8.8.6 小結
- 8.8.5 乘客生還預測
- 8.8.4 特征值轉換
- 8.8.3 缺失值填充
- 8.8.2 特征選擇
- 8.8.1 讀取數據集
- 8.8 泰坦尼克號生還預測
- 8.7.4 小結
- 8.7.3 特征重要性評估
- 8.7.2 隨機森林示例代碼
- 8.7.1 隨機森林原理
- 8.7 隨機森林
- 8.6.6 小結
- 8.6.5 Stacking集成學習
- 8.6.4 Boosting集成學習
- 8.6.3 Bagging集成學習
- 8.6.2 集成學習種類
- 8.6.1 集成學習思想
- 8.6 集成學習
- 8.5.6 小結
- 8.5.5 分類樹剪枝示例
- 8.5.4 分類樹剪枝步驟
- 8.5.3 分類樹生成示例
- 8.5.2 分類樹生成算法
- 8.5.1 CART算法
- 8.5 CART生成與剪枝算法
- 8.4.4 小結
- 8.4.3 剪枝示例
- 8.4.2 剪枝步驟
- 8.4.1 剪枝思想
- 8.4 決策樹剪枝
- 8.3.3 小結
- 8.3.2 決策樹可視化
- 8.3.1 ID3算法示例代碼
- 8.3 決策樹生成與可視化
- 8.2.6 小結
- 8.2.5 特征劃分
- 8.2.4 C4.5生成算法
- 8.2.3 ID3生成算法
- 8.2.2 計算示例
- 8.2.1 基本概念與定義
- 8.2 決策樹的生成之ID3與C4.5
- 8.1.3 小結
- 8.1.2 信息的度量
- 8.1.1 冠軍球隊
- 8.1 決策樹的基本思想
- 第8章 決策樹與集成學習
- 7.4.3 小結
- 7.4.2 自定義樣式
- 7.4.1 生成詞云圖
- 7.4 詞云圖
- 7.3.5 小結
- 7.3.4 TF-IDF示例代碼
- 7.3.3 TF-IDF計算示例
- 7.3.2 TF-IDF計算原理
- 7.3.1 理解TF-IDF
- 7.3 考慮權重的詞袋模型
- 7.2.5 小結
- 7.2.4 復用模型
- 7.2.3 訓練模型
- 7.2.2 制作數據集
- 7.2.1 載入原始文本
- 7.2 基于貝葉斯算法的垃圾郵件分類
- 7.1.6 小結
- 7.1.5 考慮詞頻的文本向量化
- 7.1.4 文本向量化
- 7.1.3 構造詞表
- 7.1.2 文本分詞
- 7.1.1 理解詞袋模型
- 7.1 詞袋模型
- 第7章 文本特征提取與模型復用
- 6.2.3 小結
- 6.2.2 計算示例
- 6.2.1 平滑處理
- 6.2 貝葉斯估計
- 6.1.5 小結
- 6.1.4 求解步驟
- 6.1.3 計算示例
- 6.1.2 理解樸素貝葉斯
- 6.1.1 概念介紹
- 6.1 樸素貝葉斯算法
- 第6章 樸素貝葉斯
- 5.4.6 小結
- 5.4.5 K近鄰搜索示例
- 5.4.4 K近鄰kd樹搜索
- 5.4.3 最近鄰搜索示例
- 5.4.2 最近鄰kd樹搜索
- 5.4.1 構造kd樹
- 5.4 kd樹
- 5.3.3 小結
- 5.3.2 K近鄰示例代碼
- 5.3.1 sklearn接口介紹
- 5.3 sklearn接口與示例代碼
- 5.2.3 距離度量
- 5.2.2 K值選擇
- 5.2.1 算法原理
- 5.2 K近鄰原理
- 5.1 K近鄰思想
- 第5章 K近鄰
- 4.6.4 小結
- 4.6.3 模型測試
- 4.6.2 模型選擇
- 4.6.1 數據預處理
- 4.6 實例分析手寫體識別
- 4.5.5 小結
- 4.5.4 模型選擇
- 4.5.3 超參數選擇
- 4.5.2 模型的偏差與方差
- 4.5.1 偏差與方差定義
- 4.5 偏差、方差與交叉驗證
- 4.4.5 小結
- 4.4.4 正則化示例代碼
- 4.4.3 正則化中的參數更新
- 4.4.2 訓練集導致糟糕的泛化誤差
- 4.4.1 測試集導致糟糕的泛化誤差
- 4.4 正則化
- 4.3.4 小結
- 4.3.3 解決欠擬合與過擬合問題
- 4.3.2 過擬合與欠擬合
- 4.3.1 模型擬合
- 4.3 過擬合
- 4.2.5 小結
- 4.2.4 特征組合與映射
- 4.2.3 標準化方法
- 4.2.2 梯度與等高線
- 4.2.1 等高線
- 4.2 特征標準化
- 4.1 基本概念
- 第4章 模型的改善與泛化
- 3.4.7 小結
- 3.4.6 從零實現多分類邏輯回歸
- 3.4.5 從零實現二分類邏輯回歸
- 3.4.4 求解梯度
- 3.4.3 極大似然估計
- 3.4.2 概率表示
- 3.4.1 映射函數
- 3.4 目標函數推導
- 3.3.5 小結
- 3.3.4 多分類指標示例代碼
- 3.3.3 多分類場景
- 3.3.2 二分類指標示例代碼
- 3.3.1 二分類場景
- 3.3 常見的分類評估指標
- 3.2.4 小結
- 3.2.3 多分類示例代碼
- 3.2.2 多分類邏輯回歸
- 3.2.1 多變量邏輯回歸
- 3.2 多變量與多分類
- 3.1.5 小結
- 3.1.4 邏輯回歸示例代碼
- 3.1.3 求解邏輯回歸模型
- 3.1.2 建立邏輯回歸模型
- 3.1.1 理解邏輯回歸模型
- 3.1 模型的建立與求解
- 第3章 邏輯回歸
- 2.7.5 小結
- 2.7.4 從零實現線性回歸
- 2.7.3 矢量化計算
- 2.7.2 求解梯度
- 2.7.1 目標函數
- 2.7 目標函數推導
- 2.6.2 正態分布
- 2.6.1 一個問題的出現
- 2.6 正態分布
- 2.5.3 小結
- 2.5.2 梯度下降算法
- 2.5.1 方向導數與梯度
- 2.5 梯度下降
- 2.4.3 小結
- 2.4.2 回歸指標示例代碼
- 2.4.1 常見回歸評估指標
- 2.4 回歸模型評估
- 2.3.4 小結
- 2.3.3 多項式回歸示例代碼
- 2.3.2 多項式回歸建模
- 2.3.1 理解多項式
- 2.3 多項式回歸
- 2.2.3 多變量回歸示例代碼
- 2.2.2 多變量線性回歸建模
- 2.2.1 理解多變量
- 2.2 多變量線性回歸
- 2.1.7 小結
- 2.1.6 線性回歸示例代碼
- 2.1.5 安裝sklearn及其他庫
- 2.1.4 sklearn簡介
- 2.1.3 求解線性回歸模型
- 2.1.2 建立線性回歸模型
- 2.1.1 理解線性回歸模型
- 2.1 模型的建立與求解
- 第2章 線性回歸
- 1.5 小結
- 1.4 PyCharm安裝與配置
- 1.3.2 虛擬環境使用
- 1.3.1 虛擬環境安裝
- 1.3 Conda環境管理
- 1.2 替換源
- 1.1.2 Linux環境
- 1.1.1 Windows環境
- 1.1 安裝Conda
- 第1章 環境配置
- 前言PREFACE
- 內容簡介
- 作者簡介
- 版權信息
- 封面
- 封面
- 版權信息
- 作者簡介
- 內容簡介
- 前言PREFACE
- 第1章 環境配置
- 1.1 安裝Conda
- 1.1.1 Windows環境
- 1.1.2 Linux環境
- 1.2 替換源
- 1.3 Conda環境管理
- 1.3.1 虛擬環境安裝
- 1.3.2 虛擬環境使用
- 1.4 PyCharm安裝與配置
- 1.5 小結
- 第2章 線性回歸
- 2.1 模型的建立與求解
- 2.1.1 理解線性回歸模型
- 2.1.2 建立線性回歸模型
- 2.1.3 求解線性回歸模型
- 2.1.4 sklearn簡介
- 2.1.5 安裝sklearn及其他庫
- 2.1.6 線性回歸示例代碼
- 2.1.7 小結
- 2.2 多變量線性回歸
- 2.2.1 理解多變量
- 2.2.2 多變量線性回歸建模
- 2.2.3 多變量回歸示例代碼
- 2.3 多項式回歸
- 2.3.1 理解多項式
- 2.3.2 多項式回歸建模
- 2.3.3 多項式回歸示例代碼
- 2.3.4 小結
- 2.4 回歸模型評估
- 2.4.1 常見回歸評估指標
- 2.4.2 回歸指標示例代碼
- 2.4.3 小結
- 2.5 梯度下降
- 2.5.1 方向導數與梯度
- 2.5.2 梯度下降算法
- 2.5.3 小結
- 2.6 正態分布
- 2.6.1 一個問題的出現
- 2.6.2 正態分布
- 2.7 目標函數推導
- 2.7.1 目標函數
- 2.7.2 求解梯度
- 2.7.3 矢量化計算
- 2.7.4 從零實現線性回歸
- 2.7.5 小結
- 第3章 邏輯回歸
- 3.1 模型的建立與求解
- 3.1.1 理解邏輯回歸模型
- 3.1.2 建立邏輯回歸模型
- 3.1.3 求解邏輯回歸模型
- 3.1.4 邏輯回歸示例代碼
- 3.1.5 小結
- 3.2 多變量與多分類
- 3.2.1 多變量邏輯回歸
- 3.2.2 多分類邏輯回歸
- 3.2.3 多分類示例代碼
- 3.2.4 小結
- 3.3 常見的分類評估指標
- 3.3.1 二分類場景
- 3.3.2 二分類指標示例代碼
- 3.3.3 多分類場景
- 3.3.4 多分類指標示例代碼
- 3.3.5 小結
- 3.4 目標函數推導
- 3.4.1 映射函數
- 3.4.2 概率表示
- 3.4.3 極大似然估計
- 3.4.4 求解梯度
- 3.4.5 從零實現二分類邏輯回歸
- 3.4.6 從零實現多分類邏輯回歸
- 3.4.7 小結
- 第4章 模型的改善與泛化
- 4.1 基本概念
- 4.2 特征標準化
- 4.2.1 等高線
- 4.2.2 梯度與等高線
- 4.2.3 標準化方法
- 4.2.4 特征組合與映射
- 4.2.5 小結
- 4.3 過擬合
- 4.3.1 模型擬合
- 4.3.2 過擬合與欠擬合
- 4.3.3 解決欠擬合與過擬合問題
- 4.3.4 小結
- 4.4 正則化
- 4.4.1 測試集導致糟糕的泛化誤差
- 4.4.2 訓練集導致糟糕的泛化誤差
- 4.4.3 正則化中的參數更新
- 4.4.4 正則化示例代碼
- 4.4.5 小結
- 4.5 偏差、方差與交叉驗證
- 4.5.1 偏差與方差定義
- 4.5.2 模型的偏差與方差
- 4.5.3 超參數選擇
- 4.5.4 模型選擇
- 4.5.5 小結
- 4.6 實例分析手寫體識別
- 4.6.1 數據預處理
- 4.6.2 模型選擇
- 4.6.3 模型測試
- 4.6.4 小結
- 第5章 K近鄰
- 5.1 K近鄰思想
- 5.2 K近鄰原理
- 5.2.1 算法原理
- 5.2.2 K值選擇
- 5.2.3 距離度量
- 5.3 sklearn接口與示例代碼
- 5.3.1 sklearn接口介紹
- 5.3.2 K近鄰示例代碼
- 5.3.3 小結
- 5.4 kd樹
- 5.4.1 構造kd樹
- 5.4.2 最近鄰kd樹搜索
- 5.4.3 最近鄰搜索示例
- 5.4.4 K近鄰kd樹搜索
- 5.4.5 K近鄰搜索示例
- 5.4.6 小結
- 第6章 樸素貝葉斯
- 6.1 樸素貝葉斯算法
- 6.1.1 概念介紹
- 6.1.2 理解樸素貝葉斯
- 6.1.3 計算示例
- 6.1.4 求解步驟
- 6.1.5 小結
- 6.2 貝葉斯估計
- 6.2.1 平滑處理
- 6.2.2 計算示例
- 6.2.3 小結
- 第7章 文本特征提取與模型復用
- 7.1 詞袋模型
- 7.1.1 理解詞袋模型
- 7.1.2 文本分詞
- 7.1.3 構造詞表
- 7.1.4 文本向量化
- 7.1.5 考慮詞頻的文本向量化
- 7.1.6 小結
- 7.2 基于貝葉斯算法的垃圾郵件分類
- 7.2.1 載入原始文本
- 7.2.2 制作數據集
- 7.2.3 訓練模型
- 7.2.4 復用模型
- 7.2.5 小結
- 7.3 考慮權重的詞袋模型
- 7.3.1 理解TF-IDF
- 7.3.2 TF-IDF計算原理
- 7.3.3 TF-IDF計算示例
- 7.3.4 TF-IDF示例代碼
- 7.3.5 小結
- 7.4 詞云圖
- 7.4.1 生成詞云圖
- 7.4.2 自定義樣式
- 7.4.3 小結
- 第8章 決策樹與集成學習
- 8.1 決策樹的基本思想
- 8.1.1 冠軍球隊
- 8.1.2 信息的度量
- 8.1.3 小結
- 8.2 決策樹的生成之ID3與C4.5
- 8.2.1 基本概念與定義
- 8.2.2 計算示例
- 8.2.3 ID3生成算法
- 8.2.4 C4.5生成算法
- 8.2.5 特征劃分
- 8.2.6 小結
- 8.3 決策樹生成與可視化
- 8.3.1 ID3算法示例代碼
- 8.3.2 決策樹可視化
- 8.3.3 小結
- 8.4 決策樹剪枝
- 8.4.1 剪枝思想
- 8.4.2 剪枝步驟
- 8.4.3 剪枝示例
- 8.4.4 小結
- 8.5 CART生成與剪枝算法
- 8.5.1 CART算法
- 8.5.2 分類樹生成算法
- 8.5.3 分類樹生成示例
- 8.5.4 分類樹剪枝步驟
- 8.5.5 分類樹剪枝示例
- 8.5.6 小結
- 8.6 集成學習
- 8.6.1 集成學習思想
- 8.6.2 集成學習種類
- 8.6.3 Bagging集成學習
- 8.6.4 Boosting集成學習
- 8.6.5 Stacking集成學習
- 8.6.6 小結
- 8.7 隨機森林
- 8.7.1 隨機森林原理
- 8.7.2 隨機森林示例代碼
- 8.7.3 特征重要性評估
- 8.7.4 小結
- 8.8 泰坦尼克號生還預測
- 8.8.1 讀取數據集
- 8.8.2 特征選擇
- 8.8.3 缺失值填充
- 8.8.4 特征值轉換
- 8.8.5 乘客生還預測
- 8.8.6 小結
- 第9章 支持向量機
- 9.1 SVM思想
- 9.2 SVM原理
- 9.2.1 超平面的表達
- 9.2.2 函數間隔
- 9.2.3 幾何間隔
- 9.2.4 最大間隔分類器
- 9.2.5 函數間隔的性質
- 9.2.6 小結
- 9.3 SVM示例代碼與線性不可分
- 9.3.1 線性SVM示例代碼
- 9.3.2 從線性不可分談起
- 9.3.3 將低維特征映射到高維空間
- 9.3.4 SVM中的核技巧
- 9.3.5 從高維到無窮維
- 9.3.6 常見核函數
- 9.3.7 小結
- 9.4 SVM中的軟間隔
- 9.4.1 軟間隔定義
- 9.4.2 最大化軟間隔
- 9.4.3 SVM軟間隔示例代碼
- 9.4.4 小結
- 9.5 拉格朗日乘數法
- 9.5.1 條件極值
- 9.5.2 求解條件極值
- 9.5.3 小結
- 9.6 對偶性與KKT條件
- 9.6.1 廣義拉格朗日乘數法
- 9.6.2 原始優化問題
- 9.6.3 對偶優化問題
- 9.6.4 KKT條件
- 9.6.5 計算示例
- 9.6.6 小結
- 9.7 SVM優化問題
- 9.7.1 構造硬間隔廣義拉格朗日函數
- 9.7.2 硬間隔求解計算示例
- 9.7.3 構造軟間隔廣義拉格朗日函數
- 9.7.4 軟間隔中的支持向量
- 9.7.5 小結
- 9.8 SMO算法
- 9.8.1 坐標上升算法
- 9.8.2 SMO算法思想
- 9.8.3 SMO算法原理
- 9.8.4 偏置b求解
- 9.8.5 SVM算法求解示例
- 9.8.6 小結
- 第10章 聚類
- 10.1 聚類算法的思想
- 10.2 k-means聚類算法
- 10.2.1 算法原理
- 10.2.2 k值選取
- 10.2.3 k-means聚類示例代碼
- 10.2.4 小結
- 10.3 k-means算法求解
- 10.3.1 k-means算法目標函數
- 10.3.2 求解簇中心矩陣Z
- 10.3.3 求解簇分配矩陣U
- 10.3.4 小結
- 10.4 從零實現k-means聚類算法
- 10.4.1 隨機初始化簇中心
- 10.4.2 簇分配矩陣實現
- 10.4.3 簇中心矩陣實現
- 10.4.4 聚類算法實現
- 10.4.5 小結
- 10.5 k-means++聚類算法
- 10.5.1 算法原理
- 10.5.2 計算示例
- 10.5.3 從零實現k-means++聚類算法
- 10.5.4 小結
- 10.6 聚類評估指標
- 10.6.1 聚類純度
- 10.6.2 蘭德系數與F值
- 10.6.3 調整蘭德系數
- 10.6.4 聚類指標示例代碼
- 10.6.5 小結
- 10.7 加權k-means聚類算法
- 10.7.1 引例
- 10.7.2 加權k-means聚類算法思想
- 10.7.3 加權k-means聚類算法原理
- 10.7.4 加權k-means聚類算法迭代公式
- 10.7.5 從零實現加權k-means聚類算法
- 10.7.6 參數求解
- 10.7.7 小結
- 圖書推薦 更新時間:2023-08-10 16:31:37