- 大模型應用開發:動手做AI Agent
- 黃佳
- 1112字
- 2024-09-05 17:11:38
1.3.3 大模型就是Agent的大腦
大模型(或稱大語言模型、大型語言模型,Large Language Model,LLM)的出現(見圖1.8)標志著自主Agent的一大飛躍。大模型因令人印象深刻的通用推理能力而得到人們的大量關注。研究人員很快就意識到,這些大模型不僅僅是數據處理或自然語言處理領域的傳統工具,它們更是推動Agent從靜態執行者向動態決策者轉變的關鍵。

圖1.8 大模型如雨后春筍般出現[2]
研究人員馬上開始利用這些大模型來構造Agent的大腦(即核心控制器)。基于大模型的Agent通過將大模型作為主要組件來擴展感知和行動空間,并通過策略如多模態感知和工具使用來制訂具體的行動計劃。
這些基于大模型的Agent通過反饋學習和執行新的動作,借助龐大的參數以及大規模的語料庫進行預訓練,從而得到世界知識(World Knowledge)。同時,研究人員通過思維鏈(Chain of Thought,CoT)、ReAct(Reasoning and Acting,推理并行動)和問題分解(Problem Decomposition)等邏輯框架,引導Agent展現出與符號Agent相媲美的推理和規劃能力。這些Agent還能夠通過與環境的互動,從反饋中學習并執行新的動作,獲得交互能力。
咖哥發言
上述邏輯框架對Agent的設計非常重要,這里簡要介紹其來源,后面還會詳細剖析。
■ 思維鏈 : Wei等人在2022年的論文“Chain of Thought Prompting Elicits Reasoning in Large Language Models”(《思維鏈提示引發大模型的推理能力》)[3]中提出思維鏈提示方法,通過引導大模型進行逐步推理,使其在解決復雜問題時表現出更強的推理能力。
■ ReAct : Yao等人在2022年的論文“ReAct: Synergizing Reasoning and Acting in Language Models”(《ReAct:在語言模型中協同推理與行動》)[4]中介紹了ReAct框架。該框架可以將推理和行動相結合,使語言模型能夠根據推理結果采取適當的行動,從而更有效地完成任務。
■ 問題分解: Khot等人在2022年的論文“Decomposed Prompting: A Modular Approach for Solving Complex Tasks”(《分析提示:一種求解復雜任務的模塊化方法》)[5]中提出問題分解提示方法。這種方法先將復雜問題分解為多個子問題,然后逐步求解,最后整合結果。這種方法可以幫助語言模型更好地處理復雜任務。
同時,預訓練大模型具備少樣本和零樣本泛化的能力,在無須更新參數的情況下,可以在任務之間無縫轉換。因此,基于大模型的Agent已開始被應用于現實世界的各種場景。
此外,基于具有自然語言理解和生成能力,大模型可以無縫交互,促進多個Agent之間的協作和競爭。研究表明,多個Agent在同一環境中共存并進行交互,可以促進復雜社會現象的形成(見圖1.9),例如由斯坦福大學的研究團隊推出的Agent自主構建的虛擬社會“西部世界小鎮” [6]。
盡管大模型本質上是一種基于條件概率的數學模型,它們只是根據預設的情境和上下文來生成內容,以此模擬人類的語言和心理狀態。但是,由于大模型能夠通過在上下文預測的過程中生成內容,產生與人類語言相似的語句,創建基于特定上下文的與人類相似的表達方式,因此它們能夠與智能Agent的目的性行為相適應,成為Agent的邏輯引擎。

圖1.9 Agent形成的虛擬社會