書名: AI大模型助你輕松搞定數(shù)據分析作者名: 吳曇編著本章字數(shù): 2102字更新時間: 2025-08-07 18:00:51
1.1 什么是大模型
1.1.1 大模型概述
小紅剛剛畢業(yè),帶著對數(shù)據分析的濃厚興趣和熱情,加入了一家互聯(lián)網公司。盡管在大學期間已經接觸過一些數(shù)據分析知識,并通過實際項目運用這些知識解決過問題,但她對于在公司里如何開展數(shù)據分析工作仍感到有些困惑。
今天是小紅第一天上班,她走進公司,看著陌生的環(huán)境,心中有些忐忑。吳老師熱情地迎接了她,吳老師是公司里的數(shù)據分析專家,也是小紅的指導老師。吳老師幫小紅準備好了辦公用品,開通了她所需的數(shù)據和文檔權限。
吳老師:我們從現(xiàn)在開始要學習一個工具,這個工具可能會伴隨你的整個職業(yè)生涯,是你工作中的得力助手。讓我們想象一下,如果有一個智能助手,它幾乎掌握了世界上所有的知識,你可以隨時和它對話,它可以幫你實時搜索信息,進行多語言編程、翻譯和寫作,進行邏輯推理、共同創(chuàng)作,甚至還能調用其他軟件幫你完成任務。聽起來是不是很神奇?
小紅眼睛一亮:太棒了,這簡直就像發(fā)現(xiàn)了新寶藏!
吳老師:現(xiàn)實中真有這么一個寶藏,它就是大模型。它可以成為你的助手、翻譯官、程序員、咨詢顧問、搜索引擎等。讓我們一起深入了解它,讓它助力你的數(shù)據分析之旅。
小紅好奇地瞪大了眼睛。
吳老師:在數(shù)據分析方面,我們常使用GPT大模型,市面上有很多GPT大模型產品,比如深度求索的DeepSeek、OpenAI的ChatGPT、月之暗面的Kimi、百度的文心一言、字節(jié)跳動的豆包、阿里巴巴的通義千問、智譜清言等。
小紅:這么多GPT產品,我應該選擇哪種呢?
吳老師:選任何一種或者同時用幾種都可以,先找到自己與GPT互動的方式。這分別是ChatGPT(見圖1-1)與DeepSeek(見圖1-2)的界面,我們在文本框中輸入問題,等待它的回答即可。我們可以先讓GPT介紹一下自己。

圖1-1

圖1-2
提問:
介紹一下GPT是什么,能做什么。
GPT(Generative Pre-trained Transformer)是一種基于變換器(Transformer)架構的大語言模型(Large Language Model,LLM),由人工智能研究實驗室OpenAI開發(fā)。GPT模型的核心是利用Transformer架構來處理和生成自然語言文本。
主要特點
(1)大規(guī)模參數(shù):GPT模型擁有數(shù)億甚至數(shù)千億的參數(shù),這使得它能夠捕捉到語言的細微差別和復雜關系。
(2)Transformer架構:GPT基于Transformer模型,這是一種特別擅長處理序列數(shù)據(如文本)的深度學習模型。
(3)預訓練和微調:GPT通常首先在大規(guī)模的文本數(shù)據集上進行預訓練,學習語言的通用模式,然后針對特定任務進行微調。
(4)上下文感知:GPT能夠理解文本的上下文信息,這使得它在生成文本或回答問題時更加準確。
能做的事情
(1)文本生成:生成文章、故事、詩歌等文本內容。
(2)對話:與用戶進行自然語言對話,回答問題、提供信息、進行閑聊等。
(3)文本摘要:提取文本的主要內容,生成摘要。
(4)翻譯:將一種語言的文本翻譯成另一種語言。
(5)編程輔助:提供編程相關的幫助,如代碼示例、調試建議等。
(6)教育輔助:幫助學習者理解復雜概念,提供教學資料等。
(7)創(chuàng)意寫作:協(xié)助用戶進行創(chuàng)意寫作,提供靈感和建議。
(8)數(shù)據分析:幫助分析數(shù)據,提供數(shù)據處理和可視化建議。
小紅:GPT回答的時候好像打字一樣,一個字一個字地出來的呢。
吳老師:這是因為GPT是基于Transformer的,我一點點來展開講。首先,先搞清楚什么是GPT。
小紅:好的。
吳老師:GPT的全稱是Generative Pre-trained Transformer。Generative是生成式,表示它能夠生成文本;Pre-trained是預訓練,意味著它在大量的文本數(shù)據上進行了預訓練;Transformer是一種深度學習模型的架構。GPT是一種基于Transformer架構的大語言模型。
小紅:什么又是大語言模型呀?
吳老師:這個問題非常好,要想了解GPT,就要先了解大語言模型。大語言模型(簡稱“大模型”)是深度學習的一種應用,專門用于進行自然語言處理任務。關于機器學習、深度學習等的知識,后續(xù)用到再詳細說明。
小紅:我有一個問題,大語言模型“大”在哪里呢?是指訓練數(shù)據量巨大嗎?
吳老師:大語言模型的“大”指的不僅僅是訓練數(shù)據量巨大,還有參數(shù)數(shù)量巨大。什么是參數(shù)呢?參數(shù)是模型內部的變量,可以理解為模型在訓練過程中學到的知識。簡單來說,參數(shù)就像是模型的“腦細胞”。你可以這么想,參數(shù)越多,模型的“大腦”能學習到的東西越多,變得越來越聰明。這就像要模型學習做蛋糕,只允許模型調整面粉、糖和雞蛋的量,以及允許模型調整面粉、糖、雞蛋、奶油、黃油、牛奶、小蘇打粉、可可粉的量及烤制的時長和溫度,后者由于可以調整的變量更多,更能讓模型做出好吃的蛋糕。當然,對模型來說這不是絕對的,但按照GPT這種模型的邏輯,參數(shù)越多能夠讓它越智能。
小紅:那GPT有多少個參數(shù)呀?
吳老師:這是一個好問題。以OpenAI的第一個大模型GPT-1為例,它有1.17億個參數(shù),到了GPT-2,參數(shù)有15億個,而 GPT-3的參數(shù)又增長到了1750億個。這讓大模型不像小模型那樣局限于單項或某幾項任務,它的功能十分強大。
小紅驚訝地說:竟然有千億個參數(shù),怪不得這么聰明。
吳老師:AI突然變聰明,在技術上有一個詞叫作“涌現(xiàn)”,涌現(xiàn)是一個很有意思的概念。想象一下,當AI系統(tǒng)能分析與處理海量的數(shù)據后,突然有一天,它就像穿越了一個魔法門,變得超級聰明,擁有了和人一樣的高級智慧。這個過程就好比它從一個只會做簡單計算的小助手,變成了能和你辯論哲學的大師。這種變化就是我們說的“涌現(xiàn)”。GPT系列大模型的發(fā)布,開創(chuàng)了AI技術共享和應用的新紀元。
小紅:原來GPT是技術涌現(xiàn)的成果。這真是太神奇了,我們用數(shù)據和算法構建了一個可以理解和預測的世界,就仿佛人類的智慧有了延伸。