- 深度學(xué)習(xí)高手筆記(卷2):經(jīng)典應(yīng)用
- 劉巖(@大師兄)
- 531字
- 2024-09-05 16:45:36
1.3.4 多任務(wù)損失函數(shù)
Fast R-CNN是一個多任務(wù)的模型,一個任務(wù)是用N+1個SVM分類器計算候選區(qū)域每個類別的得分,然后通過N+1類的softmax函數(shù)根據(jù)N+1個SVM分類器的得分計算得到多分類的結(jié)果;另一個任務(wù)是用精校器來精校候選區(qū)域的位置,它計算的是候選區(qū)域與真值框的相對位置偏差。
1.分類任務(wù)
分類任務(wù)的輸入是候選區(qū)域經(jīng)過骨干網(wǎng)絡(luò)得到的特征向量,經(jīng)過一個N+1類(N類物體和1類背景)的softmax函數(shù)得到該候選區(qū)域的概率分布,表示為。log損失表示為
,其中u是該ROI的真值框,u=0表示該后續(xù)區(qū)域為背景。
2.檢測任務(wù)
在Fast R-CNN中,我們需要為除了背景類的每一個類別預(yù)測一個檢測框,假設(shè)類別為u, u≥1,那么預(yù)測的檢測框可以表示為。假設(shè)該候選區(qū)域的檢測框的真值框為
,那么檢測框的損失函數(shù)可表示為式(1.7):

(1.7)
其中,Smooth L1表示為式(1.8),它定義在/src/caffe/layers/smooth_L1_loss_layer.cpp文件中,函數(shù)曲線如圖1.11所示。Smooth L1可以理解為當(dāng)| x |>1時,損失值為L1損失,它能夠讓模型的誤差值快速下降;當(dāng)| x |<1時,損失值為L2損失,它的目的是讓模型精細(xì)地調(diào)整損失。

(1.8)

圖1.11 Smooth L1曲線
3.多任務(wù)損失函數(shù)
Fast R-CNN表示為式(1.9),其中λ是用來調(diào)整兩個損失的權(quán)值,F(xiàn)ast R-CNN中設(shè)置的值為1。在實際的訓(xùn)練過程中,可以根據(jù)兩個損失值的收斂情況靈活地調(diào)整這個權(quán)值。是我們在前文中介紹的指示函數(shù)。

(1.9)
- 深度探索:解碼DeepSeek及人工智能的未來
- 巧用ChatGPT進(jìn)行數(shù)據(jù)分析與挖掘
- 人工智能+機器人入門與實戰(zhàn)
- 邊緣人工智能
- 面向智能社會的國家創(chuàng)新力:智能化大趨勢
- 大模型工程化:AI驅(qū)動下的數(shù)據(jù)體系
- AI繁榮
- OpenCV4.5計算機視覺開發(fā)實戰(zhàn):基于Python
- 人工智能技術(shù)與大數(shù)據(jù)
- 智能物聯(lián)網(wǎng)的存儲器設(shè)計與實現(xiàn)
- 人工智能初學(xué)者指南
- 深度學(xué)習(xí)之TensorFlow:入門、原理與進(jìn)階實戰(zhàn)
- 人工智能核心:神經(jīng)網(wǎng)絡(luò)(青少科普版)
- 深度學(xué)習(xí)視頻理解
- 人工智能注意力機制:體系、模型與算法剖析