舉報

會員
深度學習高手筆記(卷2):經典應用
最新章節:
附錄F 仿射變換矩陣
本書通過扎實、詳細的內容,從理論知識、算法源碼、實驗結果等方面對深度學習中涉及的算法進行分析和介紹。本書共三篇,第一篇主要介紹深度學習在目標檢測與分割方向的前沿算法,包括雙階段檢測、單階段檢測、無錨點檢測、特征融合、損失函數、語義分割這6個方向;第二篇主要介紹深度學習在場景文字檢測與識別方向的重要突破,主要介紹場景文字檢測、場景文字識別這兩個階段的算法;第三篇主要介紹深度學習的其他算法與應用,包括圖像翻譯、圖神經網絡、二維結構識別、人像摳圖、圖像預訓練、多模態預訓練這6個方向的算法。附錄部分介紹雙線性插值、匈牙利算法、Shift-and-Stitch、德勞內三角化、圖像梯度、仿射變換矩陣等內容。本書結構清晰,內容廣度與深度齊備。通過閱讀本書,讀者可以了解前沿的深度學習算法,擴展自己的算法知識面。無論是從事深度學習科研的教師及學生,還是從事算法落地實踐的工作人員,都能從本書中獲益。
- 附錄F 仿射變換矩陣 更新時間:2024-09-05 16:47:30
- 附錄E 圖像梯度
- 附錄D 德勞內三角化
- 附錄C Shift-and-Stitch
- 附錄B 匈牙利算法
- 附錄A 雙線性插值
- 14.5.3 小結
- 14.5.2 BEiT v3詳解
- 14.5.1 背景:大融合
- 14.5 BEiT v3
- 14.4.4 小結
- 14.4.3 VLMo預訓練
- 14.4.2 MoME Transformer
- 14.4.1 算法動機
- 14.4 VLMo
- 14.3.7 小結
- 14.3.6 分布式運算
- 14.3.5 混合精度訓練
- 14.3.4 圖像生成
- 14.3.3 階段二:先驗分布學習
- 14.3.2 階段一:離散變分自編碼器
- 14.3.1 背景知識:變分自編碼器
- 14.3 DALL-E
- 14.2.7 小結
- 14.2.6 模型效果
- 14.2.5 CLIP用于圖像識別
- 14.2.4 文本編碼器
- 14.2.3 圖像編碼器
- 14.2.2 學習目標:對比學習(Contrastive Learning)預訓練
- 14.2.1 數據收集
- 14.2 CLIP
- 14.1.4 小結
- 14.1.3 模型微調
- 14.1.2 預訓練任務
- 14.1.1 模型結構
- 14.1 ViLBERT
- 第14章 多模態預訓練
- 13.3.5 小結
- 13.3.4 BEiT v2預訓練
- 13.3.3 矢量量化-知識蒸餾
- 13.3.2 BEiT v2概述
- 13.3.1 背景介紹
- 13.3 BEiT v2
- 13.2.6 小結
- 13.2.5 BEiT v1的損失函數
- 13.2.4 掩碼圖像模型
- 13.2.3 BEiT v1的模型結構
- 13.2.2 BEiT v1全覽
- 13.2.1 背景介紹
- 13.2 BEiT v1
- 13.1.4 小結
- 13.1.3 模型介紹
- 13.1.2 掩碼機制
- 13.1.1 算法動機
- 13.1 MAE
- 第13章 圖像預訓練
- 12.2.4 小結
- 12.2.3 訓練
- 12.2.2 網絡結構
- 12.2.1 問題定義
- 12.2 Background Matting v2
- 12.1.6 小結
- 12.1.5 模型推理
- 12.1.4 模型訓練
- 12.1.3 判別模型
- 12.1.2 生成模型
- 12.1.1 輸入
- 12.1 Background Matting
- 第12章 人像摳圖
- 11.3.3 小結
- 11.3.2 公式識別模型詳解
- 11.3.1 基礎介紹
- 11.3 數學公式識別
- 11.2.2 小結
- 11.2.1 整體框架
- 11.2 Show Attend and Tell
- 11.1.3 小結
- 11.1.2 解碼
- 11.1.1 網絡結構
- 11.1 Show and Tell
- 第11章 二維結構識別
- 10.3.3 小結
- 10.3.2 HAN詳解
- 10.3.1 基本概念
- 10.3 HAN
- 10.2.4 小結
- 10.2.3 GAT的屬性
- 10.2.2 GAT的推理
- 10.2.1 GAT詳解
- 10.2 GAT
- 10.1.3 小結
- 10.1.2 算法詳解
- 10.1.1 背景知識
- 10.1 GraphSAGE
- 第10章 圖神經網絡
- 9.4.5 小結
- 9.4.4 風格遷移
- 9.4.3 風格表示
- 9.4.2 內容表示
- 9.4.1 算法概覽
- 9.4 圖像風格遷移
- 9.3.5 小結
- 9.3.4 圖像生成
- 9.3.3 損失函數
- 9.3.2 輸入數據
- 9.3.1 網絡結構
- 9.3 Pix2PixHD
- 9.2.3 小結
- 9.2.2 Pix2Pix解析
- 9.2.1 背景知識
- 9.2 Pix2Pix
- 9.1.5 小結
- 9.1.4 理論證明
- 9.1.3 GAN的損失函數
- 9.1.2 GAN的訓練
- 9.1.1 邏輯基礎
- 9.1 GAN
- 第9章 圖像翻譯
- 第三篇 其他算法與應用
- 8.4.2 小結
- 8.4.1 算法詳解
- 8.4 CTC
- 8.3.4 小結
- 8.3.3 解碼層
- 8.3.2 編碼層
- 8.3.1 殘差網絡
- 8.3 Bi-STET
- 8.2.5 小結
- 8.2.4 基于字典的測試
- 8.2.3 訓練
- 8.2.2 序列識別網絡
- 8.2.1 基于TPS的STN
- 8.2 RARE
- 8.1.4 小結
- 8.1.3 STN的應用場景
- 8.1.2 STN
- 8.1.1 空間變形模塊
- 8.1 STN
- 第8章 場景文字識別
- 7.7.5 小結
- 7.7.4 后處理
- 7.7.3 PixelLink的損失函數
- 7.7.2 PixelLink的標簽
- 7.7.1 骨干網絡
- 7.7 PixelLink
- 7.6.6 小結
- 7.6.5 Advanced-EAST
- 7.6.4 局部感知NMS
- 7.6.3 EAST的損失函數
- 7.6.2 EAST的標簽生成
- 7.6.1 網絡結構
- 7.6 EAST
- 7.5.5 小結
- 7.5.4 檢測
- 7.5.3 訓練
- 7.5.2 HMCP的骨干網絡
- 7.5.1 HMCP的標簽值
- 7.5 HMCP
- 7.4.4 小結
- 7.4.3 HED的損失函數
- 7.4.2 整體嵌套網絡
- 7.4.1 HED的骨干網絡
- 7.4 HED
- 7.3.3 小結
- 7.3.2 位置精校
- 7.3.1 RRPN詳解
- 7.3 RRPN
- 7.2.7 小結
- 7.2.6 CTPN的損失函數
- 7.2.5 邊界微調
- 7.2.4 CTPN中的RNN
- 7.2.3 CTPN的錨點機制
- 7.2.2 數據準備
- 7.2.1 算法流程
- 7.2 CTPN
- 7.1.3 小結
- 7.1.2 DeepText詳解
- 7.1.1 RPN回顧
- 7.1 DeepText
- 第7章 場景文字檢測
- 第二篇 場景文字檢測與識別
- 6.4.5 小結
- 6.4.4 DeepLab v3+
- 6.4.3 DeepLab v3
- 6.4.2 DeepLab v2
- 6.4.1 DeepLab v1
- 6.4 DeepLab系列
- 6.3.3 小結
- 6.3.2 Dice損失
- 6.3.1 網絡結構
- 6.3 V-Net
- 6.2.3 小結
- 6.2.2 數據擴充
- 6.2.1 U-Net詳解
- 6.2 U-Net
- 6.1.5 小結
- 6.1.4 分割指標
- 6.1.3 SegNet詳解
- 6.1.2 FCN詳解
- 6.1.1 背景知識
- 6.1 FCN和SegNet
- 第6章 語義分割
- 5.5.4 小結
- 5.5.3 Focal-EIoU損失
- 5.5.2 Focal L1損失
- 5.5.1 EIoU損失
- 5.5 Focal-EIoU損失
- 5.4.4 小結
- 5.4.3 CIoU損失
- 5.4.2 DIoU損失
- 5.4.1 背景
- 5.4 DIoU損失和CIoU損失
- 5.3.3 小結
- 5.3.2 GIoU損失詳解
- 5.3.1 算法背景
- 5.3 GIoU損失
- 5.2.4 小結
- 5.2.3 UnitBox網絡結構
- 5.2.2 IoU損失
- 5.2.1 背景知識
- 5.2 IoU損失
- 5.1.3 小結
- 5.1.2 RetinaNet
- 5.1.1 Focal Loss介紹
- 5.1 Focal Loss
- 第5章 損失函數
- 4.4.3 小結
- 4.4.2 EfficientDet詳解
- 4.4.1 BiFPN
- 4.4 EfficientDet
- 4.3.3 小結
- 4.3.2 NAS-FPN Lite
- 4.3.1 NAS-FPN算法詳解
- 4.3 NAS-FPN
- 4.2.2 小結
- 4.2.1 PANet
- 4.2 PANet
- 4.1.4 小結
- 4.1.3 FPN的應用
- 4.1.2 FPN的網絡結構
- 4.1.1 CNN中的常見骨干網絡
- 4.1 FPN
- 第4章 特征融合
- 3.6.3 小結
- 3.6.2 損失函數
- 3.6.1 網絡結構
- 3.6 DETR
- 3.5.5 小結
- 3.5.4 測試
- 3.5.3 多尺度預測
- 3.5.2 FCOS的網絡結構
- 3.5.1 算法背景
- 3.5 FCOS
- 3.4.5 小結
- 3.4.4 推理過程
- 3.4.3 損失函數
- 3.4.2 數據準備
- 3.4.1 網絡結構
- 3.4 CenterNet
- 3.3.3 小結
- 3.3.2 CornerNet-Squeeze
- 3.3.1 CornerNet-Saccade
- 3.3 CornerNet-Lite
- 3.2.3 小結
- 3.2.2 CornerNet詳解
- 3.2.1 背景
- 3.2 CornerNet
- 3.1.6 小結
- 3.1.5 測試
- 3.1.4 結合關鍵點檢測
- 3.1.3 訓練數據
- 3.1.2 多任務模型
- 3.1.1 DenseBox的網絡結構
- 3.1 DenseBox
- 第3章 無錨點檢測
- 2.5.6 小結
- 2.5.5 YOLOv4改進介紹
- 2.5.4 后處理
- 2.5.3 模型
- 2.5.2 數據
- 2.5.1 背景介紹
- 2.5 YOLOv4
- 2.4.6 小結
- 2.4.5 YOLOv3一些失敗的嘗試
- 2.4.4 錨點聚類
- 2.4.3 多尺度特征
- 2.4.2 骨干網絡
- 2.4.1 多標簽任務
- 2.4 YOLOv3
- 2.3.3 小結
- 2.3.2 YOLO9000:更強
- 2.3.1 YOLOv2:更快,更高
- 2.3 YOLOv2
- 2.2.3 小結
- 2.2.2 DSSD
- 2.2.1 SSD
- 2.2 SSD和DSSD
- 2.1.3 小結
- 2.1.2 損失函數
- 2.1.1 YOLOv1的網絡結構
- 2.1 YOLOv1
- 第2章 單階段檢測
- 1.8.3 小結
- 1.8.2 DCNv2
- 1.8.1 DCNv1
- 1.8 DCNv1和DCNv2
- 1.7.3 小結
- 1.7.2 MaskX R-CNN的訓練
- 1.7.1 權值遷移函數T
- 1.7 MaskX R-CNN
- 1.6.3 小結
- 1.6.2 Mask R-CNN詳解
- 1.6.1 Mask R-CNN的動機
- 1.6 Mask R-CNN
- 1.5.4 小結
- 1.5.3 R-FCN結果可視化
- 1.5.2 R-FCN的網絡
- 1.5.1 提出動機
- 1.5 R-FCN
- 1.4.3 小結
- 1.4.2 Faster R-CNN的訓練
- 1.4.1 區域候選網絡
- 1.4 Faster R-CNN
- 1.3.7 小結
- 1.3.6 Fast R-CNN的推理流程
- 1.3.5 Fast R-CNN的訓練細節
- 1.3.4 多任務損失函數
- 1.3.3 Fast R-CNN網絡結構
- 1.3.2 數據準備
- 1.3.1 Fast R-CNN算法介紹
- 1.3 Fast R-CNN
- 1.2.3 小結
- 1.2.2 SPP-Net的推理流程
- 1.2.1 空間金字塔池化
- 1.2 SPP-Net
- 1.1.6 小結
- 1.1.5 NMS
- 1.1.4 訓練數據準備
- 1.1.3 預訓練及微調
- 1.1.2 候選區域提取
- 1.1.1 R-CNN檢測流程
- 1.1 R-CNN
- 第1章 雙階段檢測
- 第一篇 目標檢測與分割
- 資源獲取
- 資源與支持
- 前言
- 序2
- 序1
- 獻詞
- 內容提要
- 版權
- 版權信息
- 封面
- 封面
- 版權信息
- 版權
- 內容提要
- 獻詞
- 序1
- 序2
- 前言
- 資源與支持
- 資源獲取
- 第一篇 目標檢測與分割
- 第1章 雙階段檢測
- 1.1 R-CNN
- 1.1.1 R-CNN檢測流程
- 1.1.2 候選區域提取
- 1.1.3 預訓練及微調
- 1.1.4 訓練數據準備
- 1.1.5 NMS
- 1.1.6 小結
- 1.2 SPP-Net
- 1.2.1 空間金字塔池化
- 1.2.2 SPP-Net的推理流程
- 1.2.3 小結
- 1.3 Fast R-CNN
- 1.3.1 Fast R-CNN算法介紹
- 1.3.2 數據準備
- 1.3.3 Fast R-CNN網絡結構
- 1.3.4 多任務損失函數
- 1.3.5 Fast R-CNN的訓練細節
- 1.3.6 Fast R-CNN的推理流程
- 1.3.7 小結
- 1.4 Faster R-CNN
- 1.4.1 區域候選網絡
- 1.4.2 Faster R-CNN的訓練
- 1.4.3 小結
- 1.5 R-FCN
- 1.5.1 提出動機
- 1.5.2 R-FCN的網絡
- 1.5.3 R-FCN結果可視化
- 1.5.4 小結
- 1.6 Mask R-CNN
- 1.6.1 Mask R-CNN的動機
- 1.6.2 Mask R-CNN詳解
- 1.6.3 小結
- 1.7 MaskX R-CNN
- 1.7.1 權值遷移函數T
- 1.7.2 MaskX R-CNN的訓練
- 1.7.3 小結
- 1.8 DCNv1和DCNv2
- 1.8.1 DCNv1
- 1.8.2 DCNv2
- 1.8.3 小結
- 第2章 單階段檢測
- 2.1 YOLOv1
- 2.1.1 YOLOv1的網絡結構
- 2.1.2 損失函數
- 2.1.3 小結
- 2.2 SSD和DSSD
- 2.2.1 SSD
- 2.2.2 DSSD
- 2.2.3 小結
- 2.3 YOLOv2
- 2.3.1 YOLOv2:更快,更高
- 2.3.2 YOLO9000:更強
- 2.3.3 小結
- 2.4 YOLOv3
- 2.4.1 多標簽任務
- 2.4.2 骨干網絡
- 2.4.3 多尺度特征
- 2.4.4 錨點聚類
- 2.4.5 YOLOv3一些失敗的嘗試
- 2.4.6 小結
- 2.5 YOLOv4
- 2.5.1 背景介紹
- 2.5.2 數據
- 2.5.3 模型
- 2.5.4 后處理
- 2.5.5 YOLOv4改進介紹
- 2.5.6 小結
- 第3章 無錨點檢測
- 3.1 DenseBox
- 3.1.1 DenseBox的網絡結構
- 3.1.2 多任務模型
- 3.1.3 訓練數據
- 3.1.4 結合關鍵點檢測
- 3.1.5 測試
- 3.1.6 小結
- 3.2 CornerNet
- 3.2.1 背景
- 3.2.2 CornerNet詳解
- 3.2.3 小結
- 3.3 CornerNet-Lite
- 3.3.1 CornerNet-Saccade
- 3.3.2 CornerNet-Squeeze
- 3.3.3 小結
- 3.4 CenterNet
- 3.4.1 網絡結構
- 3.4.2 數據準備
- 3.4.3 損失函數
- 3.4.4 推理過程
- 3.4.5 小結
- 3.5 FCOS
- 3.5.1 算法背景
- 3.5.2 FCOS的網絡結構
- 3.5.3 多尺度預測
- 3.5.4 測試
- 3.5.5 小結
- 3.6 DETR
- 3.6.1 網絡結構
- 3.6.2 損失函數
- 3.6.3 小結
- 第4章 特征融合
- 4.1 FPN
- 4.1.1 CNN中的常見骨干網絡
- 4.1.2 FPN的網絡結構
- 4.1.3 FPN的應用
- 4.1.4 小結
- 4.2 PANet
- 4.2.1 PANet
- 4.2.2 小結
- 4.3 NAS-FPN
- 4.3.1 NAS-FPN算法詳解
- 4.3.2 NAS-FPN Lite
- 4.3.3 小結
- 4.4 EfficientDet
- 4.4.1 BiFPN
- 4.4.2 EfficientDet詳解
- 4.4.3 小結
- 第5章 損失函數
- 5.1 Focal Loss
- 5.1.1 Focal Loss介紹
- 5.1.2 RetinaNet
- 5.1.3 小結
- 5.2 IoU損失
- 5.2.1 背景知識
- 5.2.2 IoU損失
- 5.2.3 UnitBox網絡結構
- 5.2.4 小結
- 5.3 GIoU損失
- 5.3.1 算法背景
- 5.3.2 GIoU損失詳解
- 5.3.3 小結
- 5.4 DIoU損失和CIoU損失
- 5.4.1 背景
- 5.4.2 DIoU損失
- 5.4.3 CIoU損失
- 5.4.4 小結
- 5.5 Focal-EIoU損失
- 5.5.1 EIoU損失
- 5.5.2 Focal L1損失
- 5.5.3 Focal-EIoU損失
- 5.5.4 小結
- 第6章 語義分割
- 6.1 FCN和SegNet
- 6.1.1 背景知識
- 6.1.2 FCN詳解
- 6.1.3 SegNet詳解
- 6.1.4 分割指標
- 6.1.5 小結
- 6.2 U-Net
- 6.2.1 U-Net詳解
- 6.2.2 數據擴充
- 6.2.3 小結
- 6.3 V-Net
- 6.3.1 網絡結構
- 6.3.2 Dice損失
- 6.3.3 小結
- 6.4 DeepLab系列
- 6.4.1 DeepLab v1
- 6.4.2 DeepLab v2
- 6.4.3 DeepLab v3
- 6.4.4 DeepLab v3+
- 6.4.5 小結
- 第二篇 場景文字檢測與識別
- 第7章 場景文字檢測
- 7.1 DeepText
- 7.1.1 RPN回顧
- 7.1.2 DeepText詳解
- 7.1.3 小結
- 7.2 CTPN
- 7.2.1 算法流程
- 7.2.2 數據準備
- 7.2.3 CTPN的錨點機制
- 7.2.4 CTPN中的RNN
- 7.2.5 邊界微調
- 7.2.6 CTPN的損失函數
- 7.2.7 小結
- 7.3 RRPN
- 7.3.1 RRPN詳解
- 7.3.2 位置精校
- 7.3.3 小結
- 7.4 HED
- 7.4.1 HED的骨干網絡
- 7.4.2 整體嵌套網絡
- 7.4.3 HED的損失函數
- 7.4.4 小結
- 7.5 HMCP
- 7.5.1 HMCP的標簽值
- 7.5.2 HMCP的骨干網絡
- 7.5.3 訓練
- 7.5.4 檢測
- 7.5.5 小結
- 7.6 EAST
- 7.6.1 網絡結構
- 7.6.2 EAST的標簽生成
- 7.6.3 EAST的損失函數
- 7.6.4 局部感知NMS
- 7.6.5 Advanced-EAST
- 7.6.6 小結
- 7.7 PixelLink
- 7.7.1 骨干網絡
- 7.7.2 PixelLink的標簽
- 7.7.3 PixelLink的損失函數
- 7.7.4 后處理
- 7.7.5 小結
- 第8章 場景文字識別
- 8.1 STN
- 8.1.1 空間變形模塊
- 8.1.2 STN
- 8.1.3 STN的應用場景
- 8.1.4 小結
- 8.2 RARE
- 8.2.1 基于TPS的STN
- 8.2.2 序列識別網絡
- 8.2.3 訓練
- 8.2.4 基于字典的測試
- 8.2.5 小結
- 8.3 Bi-STET
- 8.3.1 殘差網絡
- 8.3.2 編碼層
- 8.3.3 解碼層
- 8.3.4 小結
- 8.4 CTC
- 8.4.1 算法詳解
- 8.4.2 小結
- 第三篇 其他算法與應用
- 第9章 圖像翻譯
- 9.1 GAN
- 9.1.1 邏輯基礎
- 9.1.2 GAN的訓練
- 9.1.3 GAN的損失函數
- 9.1.4 理論證明
- 9.1.5 小結
- 9.2 Pix2Pix
- 9.2.1 背景知識
- 9.2.2 Pix2Pix解析
- 9.2.3 小結
- 9.3 Pix2PixHD
- 9.3.1 網絡結構
- 9.3.2 輸入數據
- 9.3.3 損失函數
- 9.3.4 圖像生成
- 9.3.5 小結
- 9.4 圖像風格遷移
- 9.4.1 算法概覽
- 9.4.2 內容表示
- 9.4.3 風格表示
- 9.4.4 風格遷移
- 9.4.5 小結
- 第10章 圖神經網絡
- 10.1 GraphSAGE
- 10.1.1 背景知識
- 10.1.2 算法詳解
- 10.1.3 小結
- 10.2 GAT
- 10.2.1 GAT詳解
- 10.2.2 GAT的推理
- 10.2.3 GAT的屬性
- 10.2.4 小結
- 10.3 HAN
- 10.3.1 基本概念
- 10.3.2 HAN詳解
- 10.3.3 小結
- 第11章 二維結構識別
- 11.1 Show and Tell
- 11.1.1 網絡結構
- 11.1.2 解碼
- 11.1.3 小結
- 11.2 Show Attend and Tell
- 11.2.1 整體框架
- 11.2.2 小結
- 11.3 數學公式識別
- 11.3.1 基礎介紹
- 11.3.2 公式識別模型詳解
- 11.3.3 小結
- 第12章 人像摳圖
- 12.1 Background Matting
- 12.1.1 輸入
- 12.1.2 生成模型
- 12.1.3 判別模型
- 12.1.4 模型訓練
- 12.1.5 模型推理
- 12.1.6 小結
- 12.2 Background Matting v2
- 12.2.1 問題定義
- 12.2.2 網絡結構
- 12.2.3 訓練
- 12.2.4 小結
- 第13章 圖像預訓練
- 13.1 MAE
- 13.1.1 算法動機
- 13.1.2 掩碼機制
- 13.1.3 模型介紹
- 13.1.4 小結
- 13.2 BEiT v1
- 13.2.1 背景介紹
- 13.2.2 BEiT v1全覽
- 13.2.3 BEiT v1的模型結構
- 13.2.4 掩碼圖像模型
- 13.2.5 BEiT v1的損失函數
- 13.2.6 小結
- 13.3 BEiT v2
- 13.3.1 背景介紹
- 13.3.2 BEiT v2概述
- 13.3.3 矢量量化-知識蒸餾
- 13.3.4 BEiT v2預訓練
- 13.3.5 小結
- 第14章 多模態預訓練
- 14.1 ViLBERT
- 14.1.1 模型結構
- 14.1.2 預訓練任務
- 14.1.3 模型微調
- 14.1.4 小結
- 14.2 CLIP
- 14.2.1 數據收集
- 14.2.2 學習目標:對比學習(Contrastive Learning)預訓練
- 14.2.3 圖像編碼器
- 14.2.4 文本編碼器
- 14.2.5 CLIP用于圖像識別
- 14.2.6 模型效果
- 14.2.7 小結
- 14.3 DALL-E
- 14.3.1 背景知識:變分自編碼器
- 14.3.2 階段一:離散變分自編碼器
- 14.3.3 階段二:先驗分布學習
- 14.3.4 圖像生成
- 14.3.5 混合精度訓練
- 14.3.6 分布式運算
- 14.3.7 小結
- 14.4 VLMo
- 14.4.1 算法動機
- 14.4.2 MoME Transformer
- 14.4.3 VLMo預訓練
- 14.4.4 小結
- 14.5 BEiT v3
- 14.5.1 背景:大融合
- 14.5.2 BEiT v3詳解
- 14.5.3 小結
- 附錄A 雙線性插值
- 附錄B 匈牙利算法
- 附錄C Shift-and-Stitch
- 附錄D 德勞內三角化
- 附錄E 圖像梯度
- 附錄F 仿射變換矩陣 更新時間:2024-09-05 16:47:30