- 大模型RAG實戰:RAG原理、應用與系統構建
- 汪鵬 谷清水 卞龍鵬
- 306字
- 2024-10-29 18:53:31
1.2.2 大模型生成結果的不可解釋性問題
深度模型由于其內部結構非常復雜,導致人們難以理解模型對輸入做出的決策。然而,模型的解釋性在很多方面都非常重要,因為它可以讓開發人員理解模型是如何進行預測的,從而對模型產生的結果更有信心。此外,解釋性還能幫助開發人員找到可以改進的方面,從而對模型進行更好的調整。在大模型領域中,模型基本都基于Transformer的解碼器結構,因此大模型的生成結果仍然存在不可解釋性問題。
然而,在使用RAG系統之后,我們可以從圖1-4的Bing Chat回答中看出,它不僅給出了答案,還告訴了我們每個答案的來源。如果對答案不確定,還可以單擊提供的溯源網頁進行查看,這也是RAG系統的一大優點。因此,相較于純粹的大模型生成,RAG具有更強的可解釋性。
推薦閱讀
- VMware View Security Essentials
- Advanced Machine Learning with Python
- 程序員面試算法寶典
- JavaScript+Vue+React全程實例
- Apache Mesos Essentials
- Unity 5.x By Example
- HDInsight Essentials(Second Edition)
- MATLAB for Machine Learning
- 區塊鏈底層設計Java實戰
- C語言程序設計
- Arduino計算機視覺編程
- Mastering Adobe Captivate 7
- Microsoft HoloLens By Example
- 深入大型數據集:并行與分布化Python代碼
- Testing Practitioner Handbook