官术网_书友最值得收藏!

2019 年初,OpenAI提出了 GPT-2。這是 GPT-1 的一個擴展版本,其參數量和訓練數據集的規模大約是 GPT-1 的 10 倍。這個新版本的參數量為 15 億,訓練文本數據量為 40 GB。2019 年 11 月,OpenAI發布了完整版的 GPT-2 模型。

 GPT-2 是公開可用的,可以從 Hugging Face 或 GitHub 下載。

GPT-2 表明,使用更大的數據集訓練更大的語言模型可以提高語言模型的任務處理能力,并使其在許多任務中超越已有模型 4。它還表明,更大的語言模型能夠更好地處理自然語言。

4 OpenAI于 2020 年發布論文“Scaling Laws for Neural Language Models”。該論文探討了基于 Transformer 架構的語言模型的性能如何隨著模型大小、數據集規模和訓練計算量的增加而變化,發現了模型性能與這些因素之間的冪律關系。——譯者注

主站蜘蛛池模板: 兴国县| 营山县| 遂昌县| 治县。| 衡阳市| 邻水| 巧家县| 京山县| 依兰县| 五河县| 阿坝| 潜江市| 富宁县| 苏尼特左旗| 顺昌县| 耒阳市| 神木县| 西充县| 凤凰县| 漳平市| 井研县| 新宁县| 乌鲁木齐县| 乐安县| 迁安市| 黄大仙区| 杭锦后旗| 枞阳县| 新绛县| 牟定县| 长泰县| 武胜县| 临沭县| 光山县| 二连浩特市| 六枝特区| 绥棱县| 乌鲁木齐县| 闽侯县| 西安市| 青浦区|