官术网_书友最值得收藏!

2.1 3步生成內(nèi)容

如何讓機器像人一樣思考并與人對話?

對于這一問題的原理,OpenAI前首席科學(xué)家伊利亞·蘇特斯克弗(Ilya Sutskever)曾有過通俗但準(zhǔn)確的解釋:“數(shù)字神經(jīng)網(wǎng)絡(luò)和人腦的生物神經(jīng)網(wǎng)絡(luò)在數(shù)學(xué)原理上其實是一樣的。”

為了讓大家更直觀地理解生成式人工智能的工作原理,我們進一步對它的工作流進行了拆分。整體來看,它的工作流一共包含3步。

第一步 “學(xué)習(xí)”:“模型”閱讀了人類說過的所有的話

以GPT為代表的生成式人工智能的大規(guī)模學(xué)習(xí)從“閱讀”海量文本數(shù)據(jù)開始,包括各種書籍、文章等。它通過統(tǒng)計分析和模式識別來掌握人類語言中固有的結(jié)構(gòu)和規(guī)則。這個過程依賴于轉(zhuǎn)換器的神經(jīng)網(wǎng)絡(luò)架構(gòu),它能夠處理長序列數(shù)據(jù),并有效捕捉文本中的復(fù)雜模式。結(jié)果是,各模型建立了一個龐大而復(fù)雜的語言知識庫,為后續(xù)的文本生成打下了堅實基礎(chǔ)。

第二步 “賦權(quán)”:把一串詞后面跟著的不同的詞出現(xiàn)的概率記下來

生成式人工智能的核心在于建立“賦權(quán)”系統(tǒng),這就像為所有可能的詞排序。通過大量的計算,模型計算出每個詞后可能跟隨的詞出現(xiàn)的概率。這依賴于深度學(xué)習(xí)中的反向傳播算法和自注意力機制,這些技術(shù)幫助模型在訓(xùn)練過程中自動優(yōu)化和調(diào)整權(quán)重。這樣的精確計算使得模型能夠理解和預(yù)測句子結(jié)構(gòu)及其合理性,從而生成連貫的文本。

第三步 “生成”:給它若干詞,算出下一個最有可能出現(xiàn)的詞是什么

生成過程是生成式人工智能發(fā)揮其作用的階段。當(dāng)用戶提供一個或多個詞時,模型利用之前學(xué)習(xí)到的建立的“賦權(quán)”系統(tǒng),迅速計算出下一個最有可能出現(xiàn)的詞。通過溫度(Temperature, T)參數(shù)控制,模型可以在每一步持續(xù)生成新詞,確保生成文本的邏輯性和可讀性。這樣,人工智能就能動態(tài)擴展文本,生成有意義且流暢的句子和段落,從而有效支持寫作和交流任務(wù)。

思考與討論:你是如何講話的?

想象一下,你要用一句話給你的朋友介紹生成式人工智能,你會將全部語言都組織好,然后像讀字條一樣讀出來嗎?

我想答案是否定的。

你是一個詞一個詞地聯(lián)想和判斷出來的,如同以下步驟。

生成式__________

生成式人工智能__________

生產(chǎn)式人工智能是__________

生成式人工智能是一種__________

生成式人工智能是一種模仿__________

生成式人工智能是一種模仿人類大腦的人工智能技術(shù)。

每一條橫線上的內(nèi)容都有很多可能性,你在講話的過程中不停地判斷下一個最有可能出現(xiàn)的詞是什么,不斷地組織句子。這是生成式人工智能工作的一個簡單的案例。

小知識:溫度參數(shù)

在生成式人工智能模型中,溫度是一個重要的參數(shù),用于控制模型生成的文本的隨機性和多樣性。數(shù)學(xué)上,溫度參數(shù)調(diào)整了模型輸出概率的分布。

? 當(dāng)溫度接近0時,模型趨向于選擇概率最高的下一個詞,這使得輸出更確定和保守。

? 當(dāng)溫度等于1時,模型按照其預(yù)測的原始概率分布進行采樣。

? 當(dāng)溫度大于1時,模型生成的詞更具隨機性,概率分布趨于更均勻,使得不太可能的詞有更大的機會被選中。

通過調(diào)整溫度,用戶可以控制生成文本的創(chuàng)造性和意外性。較低的溫度適用于需要確定性答案的任務(wù),較高的溫度則可能導(dǎo)致生成更具創(chuàng)造性或多樣性的內(nèi)容。

主站蜘蛛池模板: 开阳县| 双柏县| 米脂县| 凉城县| 双鸭山市| 靖西县| 巫山县| 孝昌县| 三台县| 化州市| 同江市| 丹凤县| 阳江市| 六安市| 全椒县| 高尔夫| 开封县| 武平县| 盖州市| 龙里县| 剑阁县| 闸北区| 偃师市| 从江县| 龙南县| 墨竹工卡县| 千阳县| 青阳县| 昔阳县| 盐津县| 麻栗坡县| 襄汾县| 青岛市| 忻城县| 昭平县| 岗巴县| 敦煌市| 化隆| 临潭县| 香港| 武夷山市|