人工智能注意力機制:體系、模型與算法剖析
“注意”作為一切思維活動的起點,一直是哲學(xué)、心理學(xué)和認知神經(jīng)科學(xué)的重點研究對象。隨著計算機技術(shù)的發(fā)展,人類對注意力機制的模擬和應(yīng)用成為計算機科學(xué)領(lǐng)域的熱點研究方向——讓計算機能夠具有類似人類的注意力機制,使其能夠有效地應(yīng)用于對數(shù)據(jù)的理解和分析。Transformer模型誕生后,注意力機制在人工智能各大重要領(lǐng)域的研究和應(yīng)用更是如火如荼,成果豐碩。從注意力機制這一重要角度入手,闡述注意力機制的產(chǎn)生背景和發(fā)展歷程,通過詳實的理論剖析,以深入淺出的方式著重介紹注意力機制在計算機視覺、自然語言處理,以及多模態(tài)機器學(xué)習(xí)三大人工智能方向中的應(yīng)用思路、模型與算法。以人工智能相關(guān)專業(yè)研究人員,特別是計算機視覺與自然語言處理等領(lǐng)域的研發(fā)人員作為主要讀者對象,一方面幫其梳理技術(shù)的發(fā)展脈絡(luò)、開拓思路、構(gòu)建完整的認知體系;另一方面為其剖析算法原理、深刻理解算法細節(jié)。
·40.7萬字