首頁(yè) > 計(jì)算機(jī)網(wǎng)絡(luò) > 編程語(yǔ)言與程序設(shè)計(jì) > Python自然語(yǔ)言理解:自然語(yǔ)言理解系統(tǒng)開(kāi)發(fā)與應(yīng)用實(shí)戰(zhàn)
舉報(bào)

會(huì)員
Python自然語(yǔ)言理解:自然語(yǔ)言理解系統(tǒng)開(kāi)發(fā)與應(yīng)用實(shí)戰(zhàn)
最新章節(jié):
文后
本書(shū)的目標(biāo)是為Python開(kāi)發(fā)人員提供堅(jiān)實(shí)的NLU基礎(chǔ)知識(shí)。本書(shū)將深入探索自然語(yǔ)言理解相關(guān)實(shí)用技術(shù),并幫助讀者創(chuàng)建各種新穎實(shí)用的自然語(yǔ)言理解應(yīng)用程序。本書(shū)共分為三部分:第1部分介紹了NLU的背景以及如何開(kāi)始一個(gè)NLU項(xiàng)目;第二部分探討了完成NLU任務(wù)所需要使用的Python工具和相關(guān)技術(shù);第三部分討論了在管理和部署NLU應(yīng)用程序時(shí)應(yīng)該考慮的因素,以及對(duì)NLU未來(lái)的展望。
最新章節(jié)
書(shū)友吧品牌:機(jī)械工業(yè)出版社
譯者:李波等
上架時(shí)間:2024-09-10 16:11:05
出版社:機(jī)械工業(yè)出版社
本書(shū)數(shù)字版權(quán)由機(jī)械工業(yè)出版社提供,并由其授權(quán)上海閱文信息技術(shù)有限公司制作發(fā)行
- 文后 更新時(shí)間:2024-09-10 16:35:58
- 譯者簡(jiǎn)介
- 15.6 擴(kuò)展閱讀
- 15.5 本章小結(jié)
- 15.4.4 偏見(jiàn)檢測(cè)與校正
- 15.4.3 多模態(tài)交互
- 15.4.2 實(shí)時(shí)語(yǔ)音到語(yǔ)音翻譯
- 15.4.1 將自然語(yǔ)言理解技術(shù)擴(kuò)展到新語(yǔ)言中
- 15.4 自然語(yǔ)言理解未來(lái)發(fā)展方向
- 15.3.4 創(chuàng)作引人入勝的小說(shuō)
- 15.3.3 翻譯和生成手語(yǔ)
- 15.3.2 理解和創(chuàng)建視頻
- 15.3.1 處理長(zhǎng)文檔
- 15.3 超越當(dāng)前技術(shù)水平的應(yīng)用程序
- 15.2.3 其他需要改進(jìn)的地方
- 15.2.2 更快的訓(xùn)練速度
- 15.2.1 更高的準(zhǔn)確率
- 15.2 更高的準(zhǔn)確率和更快的訓(xùn)練速度
- 15.1 本書(shū)概述
- 第15章 總結(jié)與展望
- 14.6 本章小結(jié)
- 14.5 部署之后的問(wèn)題
- 14.4 系統(tǒng)部署
- 14.3.2 重構(gòu)應(yīng)用程序
- 14.3.1 更改數(shù)據(jù)
- 14.3 解決系統(tǒng)準(zhǔn)確率過(guò)低的問(wèn)題
- 14.2 找出系統(tǒng)不工作的原因
- 14.1 技術(shù)要求
- 第14章 如果系統(tǒng)不工作怎么辦
- 第三部分 自然語(yǔ)言理解系統(tǒng)的大規(guī)模應(yīng)用
- 13.8 本章小結(jié)
- 13.7.3 較大規(guī)模BERT模型
- 13.7.2 TF-IDF評(píng)估
- 13.7.1 小型Transformer模型
- 13.7 比較三種文本分類(lèi)方法
- 13.6 差異的統(tǒng)計(jì)顯著性
- 13.5 用戶(hù)測(cè)試
- 13.4.4 混淆矩陣
- 13.4.3 ROC曲線和曲線下面積
- 13.4.2 精度、召回率和F1分?jǐn)?shù)
- 13.4.1 準(zhǔn)確率和錯(cuò)誤率
- 13.4 評(píng)估指標(biāo)
- 13.3 數(shù)據(jù)切分
- 13.2.4 共享任務(wù)
- 13.2.3 消融實(shí)驗(yàn)
- 13.2.2 評(píng)估系統(tǒng)的輸出
- 13.2.1 標(biāo)準(zhǔn)評(píng)估指標(biāo)
- 13.2 評(píng)估范式
- 13.1 為什么要評(píng)估自然語(yǔ)言理解系統(tǒng)
- 第13章 模型評(píng)估
- 12.4 本章小結(jié)
- 12.3 充分利用數(shù)據(jù)的部分監(jiān)督學(xué)習(xí)方法
- 12.2.3 聚類(lèi)和主題建模之后的工作
- 12.2.2 使用BERTopic模型處理20newsgroups數(shù)據(jù)集
- 12.2.1 基于語(yǔ)義相似程度的文檔分組
- 12.2 基于聚類(lèi)和標(biāo)簽生成的主題建模
- 12.1 無(wú)監(jiān)督學(xué)習(xí)的概念
- 第12章 無(wú)監(jiān)督學(xué)習(xí)方法應(yīng)用
- 11.6 本章小結(jié)
- 11.5.2 GPT-3
- 11.5.1 ChatGPT
- 11.5 基于云的大語(yǔ)言模型
- 11.4.11 保存模型
- 11.4.10 使用測(cè)試數(shù)據(jù)評(píng)估模型
- 11.4.9 繪制訓(xùn)練過(guò)程
- 11.4.8 訓(xùn)練模型
- 11.4.7 編譯模型
- 11.4.6 定義優(yōu)化器和訓(xùn)練輪數(shù)
- 11.4.5 定義損失函數(shù)和模型度量指標(biāo)
- 11.4.4 創(chuàng)建微調(diào)模型
- 11.4.3 加載BERT模型
- 11.4.2 將數(shù)據(jù)集切分為訓(xùn)練數(shù)據(jù)集、驗(yàn)證數(shù)據(jù)集和測(cè)試數(shù)據(jù)集
- 11.4.1 下載數(shù)據(jù)集
- 11.4 BERT模型分類(lèi)示例
- 11.3 BERT模型及其衍生模型
- 11.2.3 大語(yǔ)言模型或預(yù)訓(xùn)練模型
- 11.2.2 Transformer中的注意力機(jī)制
- 11.2.1 注意力機(jī)制簡(jiǎn)介
- 11.2 Transformer和大語(yǔ)言模型概述
- 11.1 技術(shù)要求
- 第11章 機(jī)器學(xué)習(xí)第3部分——Transformer與大語(yǔ)言模型
- 10.6 本章小結(jié)
- 10.5 卷積神經(jīng)網(wǎng)絡(luò)
- 10.4 循環(huán)神經(jīng)網(wǎng)絡(luò)
- 10.3 超參數(shù)與超參數(shù)調(diào)優(yōu)
- 10.2 全連接神經(jīng)網(wǎng)絡(luò)分類(lèi)示例
- 10.1 神經(jīng)網(wǎng)絡(luò)基礎(chǔ)
- 第10章 機(jī)器學(xué)習(xí)第2部分——神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)
- 9.5 本章小結(jié)
- 9.4 基于條件隨機(jī)場(chǎng)模型的槽填充
- 9.3 基于支持向量機(jī)的文檔分類(lèi)
- 9.2.3 基于詞頻逆文檔頻率的文檔表示與基于樸素貝葉斯算法的文檔分類(lèi)示例
- 9.2.2 樸素貝葉斯文檔分類(lèi)
- 9.2.1 詞頻逆文檔頻率
- 9.2 基于詞頻逆文檔頻率的文檔表示與基于樸素貝葉斯算法的文檔分類(lèi)
- 9.1 模型評(píng)估方法簡(jiǎn)介
- 第9章 機(jī)器學(xué)習(xí)第1部分——統(tǒng)計(jì)機(jī)器學(xué)習(xí)
- 8.6 本章小結(jié)
- 8.5.2 語(yǔ)義分析與槽填充
- 8.5.1 句法分析
- 8.5 句子級(jí)分析
- 8.4.2 本體
- 8.4.1 詞形還原
- 8.4 詞匯級(jí)分析
- 8.3.2 常用的正則表達(dá)式技巧
- 8.3.1 使用正則表達(dá)式識(shí)別、分析和替換字符串
- 8.3 正則表達(dá)式
- 8.2 為什么要使用規(guī)則
- 8.1 基于規(guī)則的方法簡(jiǎn)介
- 第8章 基于規(guī)則的方法
- 7.6 本章小結(jié)
- 7.5 使用上下文相關(guān)向量表示單詞
- 7.4 使用上下文無(wú)關(guān)向量表示單詞
- 7.3 使用數(shù)學(xué)向量表示語(yǔ)言
- 7.2 自然語(yǔ)言處理應(yīng)用程序中的語(yǔ)言表示
- 7.1.4 初步研究
- 7.1.3 計(jì)算效率
- 7.1.2 從數(shù)據(jù)出發(fā)
- 7.1.1 選擇適合任務(wù)的方法
- 7.1 自然語(yǔ)言處理方法選擇
- 第7章 自然語(yǔ)言處理方法選擇與數(shù)據(jù)表示
- 6.5 本章小結(jié)
- 6.4 基于數(shù)據(jù)可視化信息對(duì)后續(xù)數(shù)據(jù)處理做出決策
- 6.3 數(shù)據(jù)可視化注意事項(xiàng)
- 6.2.2 文檔相似性度量
- 6.2.1 頻率分布
- 6.2 數(shù)據(jù)探索
- 6.1 為什么要進(jìn)行數(shù)據(jù)可視化
- 第6章 數(shù)據(jù)探索與數(shù)據(jù)可視化
- 5.6 本章小結(jié)
- 5.5 選擇合適的數(shù)據(jù)預(yù)處理方法
- 5.4.6 文本預(yù)處理pipeline
- 5.4.5 數(shù)據(jù)不平衡問(wèn)題
- 5.4.4 刪除HTML標(biāo)記
- 5.4.3 特定領(lǐng)域的停用詞
- 5.4.2 修改數(shù)據(jù)
- 5.4.1 用類(lèi)token替換單詞和數(shù)字
- 5.4 針對(duì)具體應(yīng)用程序的數(shù)據(jù)預(yù)處理
- 5.3.3 拼寫(xiě)錯(cuò)誤校正
- 5.3.2 文本正則化
- 5.3.1 刪除非文本數(shù)據(jù)
- 5.3 數(shù)據(jù)預(yù)處理
- 5.2.4 人道地對(duì)待眾包工作者
- 5.2.3 人道地對(duì)待實(shí)驗(yàn)參與者
- 5.2.2 確保運(yùn)行時(shí)數(shù)據(jù)的隱私
- 5.2.1 確保訓(xùn)練數(shù)據(jù)的隱私
- 5.2 確保數(shù)據(jù)的隱私性并遵守道德準(zhǔn)則
- 5.1.4 常用語(yǔ)料庫(kù)
- 5.1.3 元數(shù)據(jù)
- 5.1.2 收集科研項(xiàng)目所需數(shù)據(jù)
- 5.1.1 收集應(yīng)用程序所需數(shù)據(jù)
- 5.1 數(shù)據(jù)收集與數(shù)據(jù)標(biāo)注
- 第5章 數(shù)據(jù)收集與數(shù)據(jù)預(yù)處理
- 4.6 本章小結(jié)
- 4.5.3 查看語(yǔ)料庫(kù)屬性
- 4.5.2 處理一句話(huà)
- 4.5.1 設(shè)置JupyterLab
- 4.5 一個(gè)示例
- 4.4.6 其他有用的Python庫(kù)
- 4.4.5 自然語(yǔ)言處理Python庫(kù)的選擇
- 4.4.4 其他自然語(yǔ)言處理Python庫(kù)
- 4.4.3 Keras
- 4.4.2 spaCy
- 4.4.1 NLTK
- 4.4 常用的自然語(yǔ)言處理Python庫(kù)
- 4.3.2 GitHub
- 4.3.1 JupyterLab
- 4.3 安裝JupyterLab和GitHub
- 4.2 安裝Python
- 4.1 技術(shù)要求
- 第4章 用于自然語(yǔ)言理解的Python庫(kù)與工具
- 3.6 本章小結(jié)
- 3.5 選擇自然語(yǔ)言理解方法需要考慮的因素
- 3.4 預(yù)訓(xùn)練模型
- 3.3 深度學(xué)習(xí)方法
- 3.2.2 文檔分類(lèi)
- 3.2.1 文檔表示
- 3.2 傳統(tǒng)的機(jī)器學(xué)習(xí)算法
- 3.1.7 pipeline
- 3.1.6 語(yǔ)用分析
- 3.1.5 語(yǔ)義分析
- 3.1.4 句法分析
- 3.1.3 語(yǔ)法
- 3.1.2 詞性標(biāo)注
- 3.1.1 詞與詞典
- 3.1 基于規(guī)則的方法
- 第3章 自然語(yǔ)言理解方法
- 第二部分 自然語(yǔ)言理解系統(tǒng)開(kāi)發(fā)與測(cè)試
- 2.5 本章小結(jié)
- 2.4 決定是否使用自然語(yǔ)言理解的流程
- 2.3 維護(hù)成本
- 2.2 開(kāi)發(fā)成本
- 2.1.4 應(yīng)用數(shù)據(jù)
- 2.1.3 訓(xùn)練數(shù)據(jù)
- 2.1.2 不需要自然語(yǔ)言理解的應(yīng)用程序
- 2.1.1 自然語(yǔ)言理解難以解決的問(wèn)題
- 2.1 識(shí)別適合當(dāng)前技術(shù)水平的問(wèn)題
- 第2章 識(shí)別自然語(yǔ)言理解問(wèn)題
- 1.7 本章小結(jié)
- 1.6 Python自然語(yǔ)言處理展望
- 1.5.10 應(yīng)用程序類(lèi)型總結(jié)
- 1.5.9 其他應(yīng)用程序
- 1.5.8 機(jī)器翻譯
- 1.5.7 信息抽取
- 1.5.6 分析
- 1.5.5 文檔檢索
- 1.5.4 虛假新聞檢測(cè)
- 1.5.3 垃圾郵件與網(wǎng)絡(luò)釣魚(yú)檢測(cè)
- 1.5.2 情感分析
- 1.5.1 分類(lèi)
- 1.5 非交互式應(yīng)用程序
- 1.4.4 教育
- 1.4.3 翻譯
- 1.4.2 企業(yè)助手
- 1.4.1 通用語(yǔ)音助手
- 1.4 交互式應(yīng)用程序——聊天機(jī)器人與語(yǔ)音助手
- 1.3 對(duì)話(huà)式人工智能與自然語(yǔ)言理解
- 1.2 自然語(yǔ)言與字符編碼
- 1.1 自然語(yǔ)言基礎(chǔ)知識(shí)
- 第1章 自然語(yǔ)言理解方法與應(yīng)用程序
- 第一部分 自然語(yǔ)言理解技術(shù)入門(mén)
- 審校者簡(jiǎn)介
- 前言
- 獻(xiàn)詞
- 作者簡(jiǎn)介
- 版權(quán)信息
- 封面
- 封面
- 版權(quán)信息
- 作者簡(jiǎn)介
- 獻(xiàn)詞
- 前言
- 審校者簡(jiǎn)介
- 第一部分 自然語(yǔ)言理解技術(shù)入門(mén)
- 第1章 自然語(yǔ)言理解方法與應(yīng)用程序
- 1.1 自然語(yǔ)言基礎(chǔ)知識(shí)
- 1.2 自然語(yǔ)言與字符編碼
- 1.3 對(duì)話(huà)式人工智能與自然語(yǔ)言理解
- 1.4 交互式應(yīng)用程序——聊天機(jī)器人與語(yǔ)音助手
- 1.4.1 通用語(yǔ)音助手
- 1.4.2 企業(yè)助手
- 1.4.3 翻譯
- 1.4.4 教育
- 1.5 非交互式應(yīng)用程序
- 1.5.1 分類(lèi)
- 1.5.2 情感分析
- 1.5.3 垃圾郵件與網(wǎng)絡(luò)釣魚(yú)檢測(cè)
- 1.5.4 虛假新聞檢測(cè)
- 1.5.5 文檔檢索
- 1.5.6 分析
- 1.5.7 信息抽取
- 1.5.8 機(jī)器翻譯
- 1.5.9 其他應(yīng)用程序
- 1.5.10 應(yīng)用程序類(lèi)型總結(jié)
- 1.6 Python自然語(yǔ)言處理展望
- 1.7 本章小結(jié)
- 第2章 識(shí)別自然語(yǔ)言理解問(wèn)題
- 2.1 識(shí)別適合當(dāng)前技術(shù)水平的問(wèn)題
- 2.1.1 自然語(yǔ)言理解難以解決的問(wèn)題
- 2.1.2 不需要自然語(yǔ)言理解的應(yīng)用程序
- 2.1.3 訓(xùn)練數(shù)據(jù)
- 2.1.4 應(yīng)用數(shù)據(jù)
- 2.2 開(kāi)發(fā)成本
- 2.3 維護(hù)成本
- 2.4 決定是否使用自然語(yǔ)言理解的流程
- 2.5 本章小結(jié)
- 第二部分 自然語(yǔ)言理解系統(tǒng)開(kāi)發(fā)與測(cè)試
- 第3章 自然語(yǔ)言理解方法
- 3.1 基于規(guī)則的方法
- 3.1.1 詞與詞典
- 3.1.2 詞性標(biāo)注
- 3.1.3 語(yǔ)法
- 3.1.4 句法分析
- 3.1.5 語(yǔ)義分析
- 3.1.6 語(yǔ)用分析
- 3.1.7 pipeline
- 3.2 傳統(tǒng)的機(jī)器學(xué)習(xí)算法
- 3.2.1 文檔表示
- 3.2.2 文檔分類(lèi)
- 3.3 深度學(xué)習(xí)方法
- 3.4 預(yù)訓(xùn)練模型
- 3.5 選擇自然語(yǔ)言理解方法需要考慮的因素
- 3.6 本章小結(jié)
- 第4章 用于自然語(yǔ)言理解的Python庫(kù)與工具
- 4.1 技術(shù)要求
- 4.2 安裝Python
- 4.3 安裝JupyterLab和GitHub
- 4.3.1 JupyterLab
- 4.3.2 GitHub
- 4.4 常用的自然語(yǔ)言處理Python庫(kù)
- 4.4.1 NLTK
- 4.4.2 spaCy
- 4.4.3 Keras
- 4.4.4 其他自然語(yǔ)言處理Python庫(kù)
- 4.4.5 自然語(yǔ)言處理Python庫(kù)的選擇
- 4.4.6 其他有用的Python庫(kù)
- 4.5 一個(gè)示例
- 4.5.1 設(shè)置JupyterLab
- 4.5.2 處理一句話(huà)
- 4.5.3 查看語(yǔ)料庫(kù)屬性
- 4.6 本章小結(jié)
- 第5章 數(shù)據(jù)收集與數(shù)據(jù)預(yù)處理
- 5.1 數(shù)據(jù)收集與數(shù)據(jù)標(biāo)注
- 5.1.1 收集應(yīng)用程序所需數(shù)據(jù)
- 5.1.2 收集科研項(xiàng)目所需數(shù)據(jù)
- 5.1.3 元數(shù)據(jù)
- 5.1.4 常用語(yǔ)料庫(kù)
- 5.2 確保數(shù)據(jù)的隱私性并遵守道德準(zhǔn)則
- 5.2.1 確保訓(xùn)練數(shù)據(jù)的隱私
- 5.2.2 確保運(yùn)行時(shí)數(shù)據(jù)的隱私
- 5.2.3 人道地對(duì)待實(shí)驗(yàn)參與者
- 5.2.4 人道地對(duì)待眾包工作者
- 5.3 數(shù)據(jù)預(yù)處理
- 5.3.1 刪除非文本數(shù)據(jù)
- 5.3.2 文本正則化
- 5.3.3 拼寫(xiě)錯(cuò)誤校正
- 5.4 針對(duì)具體應(yīng)用程序的數(shù)據(jù)預(yù)處理
- 5.4.1 用類(lèi)token替換單詞和數(shù)字
- 5.4.2 修改數(shù)據(jù)
- 5.4.3 特定領(lǐng)域的停用詞
- 5.4.4 刪除HTML標(biāo)記
- 5.4.5 數(shù)據(jù)不平衡問(wèn)題
- 5.4.6 文本預(yù)處理pipeline
- 5.5 選擇合適的數(shù)據(jù)預(yù)處理方法
- 5.6 本章小結(jié)
- 第6章 數(shù)據(jù)探索與數(shù)據(jù)可視化
- 6.1 為什么要進(jìn)行數(shù)據(jù)可視化
- 6.2 數(shù)據(jù)探索
- 6.2.1 頻率分布
- 6.2.2 文檔相似性度量
- 6.3 數(shù)據(jù)可視化注意事項(xiàng)
- 6.4 基于數(shù)據(jù)可視化信息對(duì)后續(xù)數(shù)據(jù)處理做出決策
- 6.5 本章小結(jié)
- 第7章 自然語(yǔ)言處理方法選擇與數(shù)據(jù)表示
- 7.1 自然語(yǔ)言處理方法選擇
- 7.1.1 選擇適合任務(wù)的方法
- 7.1.2 從數(shù)據(jù)出發(fā)
- 7.1.3 計(jì)算效率
- 7.1.4 初步研究
- 7.2 自然語(yǔ)言處理應(yīng)用程序中的語(yǔ)言表示
- 7.3 使用數(shù)學(xué)向量表示語(yǔ)言
- 7.4 使用上下文無(wú)關(guān)向量表示單詞
- 7.5 使用上下文相關(guān)向量表示單詞
- 7.6 本章小結(jié)
- 第8章 基于規(guī)則的方法
- 8.1 基于規(guī)則的方法簡(jiǎn)介
- 8.2 為什么要使用規(guī)則
- 8.3 正則表達(dá)式
- 8.3.1 使用正則表達(dá)式識(shí)別、分析和替換字符串
- 8.3.2 常用的正則表達(dá)式技巧
- 8.4 詞匯級(jí)分析
- 8.4.1 詞形還原
- 8.4.2 本體
- 8.5 句子級(jí)分析
- 8.5.1 句法分析
- 8.5.2 語(yǔ)義分析與槽填充
- 8.6 本章小結(jié)
- 第9章 機(jī)器學(xué)習(xí)第1部分——統(tǒng)計(jì)機(jī)器學(xué)習(xí)
- 9.1 模型評(píng)估方法簡(jiǎn)介
- 9.2 基于詞頻逆文檔頻率的文檔表示與基于樸素貝葉斯算法的文檔分類(lèi)
- 9.2.1 詞頻逆文檔頻率
- 9.2.2 樸素貝葉斯文檔分類(lèi)
- 9.2.3 基于詞頻逆文檔頻率的文檔表示與基于樸素貝葉斯算法的文檔分類(lèi)示例
- 9.3 基于支持向量機(jī)的文檔分類(lèi)
- 9.4 基于條件隨機(jī)場(chǎng)模型的槽填充
- 9.5 本章小結(jié)
- 第10章 機(jī)器學(xué)習(xí)第2部分——神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)
- 10.1 神經(jīng)網(wǎng)絡(luò)基礎(chǔ)
- 10.2 全連接神經(jīng)網(wǎng)絡(luò)分類(lèi)示例
- 10.3 超參數(shù)與超參數(shù)調(diào)優(yōu)
- 10.4 循環(huán)神經(jīng)網(wǎng)絡(luò)
- 10.5 卷積神經(jīng)網(wǎng)絡(luò)
- 10.6 本章小結(jié)
- 第11章 機(jī)器學(xué)習(xí)第3部分——Transformer與大語(yǔ)言模型
- 11.1 技術(shù)要求
- 11.2 Transformer和大語(yǔ)言模型概述
- 11.2.1 注意力機(jī)制簡(jiǎn)介
- 11.2.2 Transformer中的注意力機(jī)制
- 11.2.3 大語(yǔ)言模型或預(yù)訓(xùn)練模型
- 11.3 BERT模型及其衍生模型
- 11.4 BERT模型分類(lèi)示例
- 11.4.1 下載數(shù)據(jù)集
- 11.4.2 將數(shù)據(jù)集切分為訓(xùn)練數(shù)據(jù)集、驗(yàn)證數(shù)據(jù)集和測(cè)試數(shù)據(jù)集
- 11.4.3 加載BERT模型
- 11.4.4 創(chuàng)建微調(diào)模型
- 11.4.5 定義損失函數(shù)和模型度量指標(biāo)
- 11.4.6 定義優(yōu)化器和訓(xùn)練輪數(shù)
- 11.4.7 編譯模型
- 11.4.8 訓(xùn)練模型
- 11.4.9 繪制訓(xùn)練過(guò)程
- 11.4.10 使用測(cè)試數(shù)據(jù)評(píng)估模型
- 11.4.11 保存模型
- 11.5 基于云的大語(yǔ)言模型
- 11.5.1 ChatGPT
- 11.5.2 GPT-3
- 11.6 本章小結(jié)
- 第12章 無(wú)監(jiān)督學(xué)習(xí)方法應(yīng)用
- 12.1 無(wú)監(jiān)督學(xué)習(xí)的概念
- 12.2 基于聚類(lèi)和標(biāo)簽生成的主題建模
- 12.2.1 基于語(yǔ)義相似程度的文檔分組
- 12.2.2 使用BERTopic模型處理20newsgroups數(shù)據(jù)集
- 12.2.3 聚類(lèi)和主題建模之后的工作
- 12.3 充分利用數(shù)據(jù)的部分監(jiān)督學(xué)習(xí)方法
- 12.4 本章小結(jié)
- 第13章 模型評(píng)估
- 13.1 為什么要評(píng)估自然語(yǔ)言理解系統(tǒng)
- 13.2 評(píng)估范式
- 13.2.1 標(biāo)準(zhǔn)評(píng)估指標(biāo)
- 13.2.2 評(píng)估系統(tǒng)的輸出
- 13.2.3 消融實(shí)驗(yàn)
- 13.2.4 共享任務(wù)
- 13.3 數(shù)據(jù)切分
- 13.4 評(píng)估指標(biāo)
- 13.4.1 準(zhǔn)確率和錯(cuò)誤率
- 13.4.2 精度、召回率和F1分?jǐn)?shù)
- 13.4.3 ROC曲線和曲線下面積
- 13.4.4 混淆矩陣
- 13.5 用戶(hù)測(cè)試
- 13.6 差異的統(tǒng)計(jì)顯著性
- 13.7 比較三種文本分類(lèi)方法
- 13.7.1 小型Transformer模型
- 13.7.2 TF-IDF評(píng)估
- 13.7.3 較大規(guī)模BERT模型
- 13.8 本章小結(jié)
- 第三部分 自然語(yǔ)言理解系統(tǒng)的大規(guī)模應(yīng)用
- 第14章 如果系統(tǒng)不工作怎么辦
- 14.1 技術(shù)要求
- 14.2 找出系統(tǒng)不工作的原因
- 14.3 解決系統(tǒng)準(zhǔn)確率過(guò)低的問(wèn)題
- 14.3.1 更改數(shù)據(jù)
- 14.3.2 重構(gòu)應(yīng)用程序
- 14.4 系統(tǒng)部署
- 14.5 部署之后的問(wèn)題
- 14.6 本章小結(jié)
- 第15章 總結(jié)與展望
- 15.1 本書(shū)概述
- 15.2 更高的準(zhǔn)確率和更快的訓(xùn)練速度
- 15.2.1 更高的準(zhǔn)確率
- 15.2.2 更快的訓(xùn)練速度
- 15.2.3 其他需要改進(jìn)的地方
- 15.3 超越當(dāng)前技術(shù)水平的應(yīng)用程序
- 15.3.1 處理長(zhǎng)文檔
- 15.3.2 理解和創(chuàng)建視頻
- 15.3.3 翻譯和生成手語(yǔ)
- 15.3.4 創(chuàng)作引人入勝的小說(shuō)
- 15.4 自然語(yǔ)言理解未來(lái)發(fā)展方向
- 15.4.1 將自然語(yǔ)言理解技術(shù)擴(kuò)展到新語(yǔ)言中
- 15.4.2 實(shí)時(shí)語(yǔ)音到語(yǔ)音翻譯
- 15.4.3 多模態(tài)交互
- 15.4.4 偏見(jiàn)檢測(cè)與校正
- 15.5 本章小結(jié)
- 15.6 擴(kuò)展閱讀
- 譯者簡(jiǎn)介
- 文后 更新時(shí)間:2024-09-10 16:35:58