- ChatGPT原理與應(yīng)用開發(fā)
- 郝少春 黃玉琳 易華揮
- 270字
- 2024-04-22 11:47:52
第1章 基礎(chǔ)知識——大語言模型背后
本章共包括三部分內(nèi)容。本章首先簡要回顧自然語言發(fā)展歷史,從語言、圖靈測試一直到2022年年底的新突破——ChatGPT;接下來介紹語言模型基礎(chǔ),包括Token、Embedding等基本概念和語言模型的基本原理,它們是自然語言處理(natural language processing,NLP)最基礎(chǔ)的知識;最后介紹與ChatGPT相關(guān)的基礎(chǔ)知識,包括Transformer、GPT和RLHF。Transformer是ChatGPT的基石,準確來說,Transformer的一部分是ChatGPT的基石;GPT(generative pre-trained transformer,生成式預(yù)訓練Transformer)是ChatGPT的本體,從GPT-1,一直到現(xiàn)在的GPT-4,按照OpenAI自己的說法,模型還是那個模型,只是它更大了,同時效果更好了;RLHF(reinforcement learning from human feedback,從人類反饋中強化學習)是ChatGPT的神兵利器,有此利刃,ChatGPT所向披靡。
推薦閱讀
- 玩轉(zhuǎn)ChatGPT:秒變AI文案創(chuàng)作高手
- 人工智能改變世界:走向社會的機器人
- 量子人工智能
- 巧用ChatGPT輕松學演講
- 物聯(lián)網(wǎng)+智能家居:移動互聯(lián)技術(shù)應(yīng)用
- 生命3.0
- 超AI入門
- 深入淺出神經(jīng)網(wǎng)絡(luò)與深度學習
- 大數(shù)據(jù)智能風控:模型、平臺與業(yè)務(wù)實踐
- 圖靈的大教堂:數(shù)字宇宙開啟智能時代
- TensorFlow神經(jīng)網(wǎng)絡(luò)到深度學習
- 如何創(chuàng)造可信的AI
- 自動調(diào)節(jié)系統(tǒng)解析與PID整定
- 機器人愛好者(第3輯)
- PaddlePaddle深度學習實戰(zhàn)