官术网_书友最值得收藏!

1.2 基建:人工智能時代的變遷

1.2.1 歷史上人工智能科學發展史的三個階段

人工智能的科學發展歷程可以分為以下三個階段。

1.規則推理階段(1956年至20世紀80年代初)

這個階段的人工智能主要使用符號推理方法,基于一些規則和知識來進行決策。該階段的代表性成果是專家系統。然而,專家系統面臨的問題是它們需要人工編寫大量規則,且不能處理模糊和不確定的信息。

2.統計學習階段(20世紀80年代至21世紀10年代初)

隨著統計學習方法的興起,人工智能開始轉向從數據中學習知識和規律。這個階段的代表性成果是支持向量機(SVM)和神經網絡。這類方法的主要特點是使用數據訓練模型,并通過大量數據來提高模型的準確性和泛化能力。然而,由于計算能力和數據量的限制,這些方法并未在實際應用中取得重大突破。

3.深度學習階段(21世紀10年代初至今)

深度學習是一種基于神經網絡的機器學習方法,它可以自動學習高層次抽象特征,并在大規模數據上訓練更復雜的模型。這個階段的代表性成果是深度神經網絡(Deep Neural Network,DNN)和卷積神經網絡(Convolutional Neural Network,CNN)。深度學習方法的出現,使得人工智能在圖像識別、自然語言處理、語音識別等方面取得了重大突破。

當然,我們可以從另外一個角度,即人工智能發展態勢的起伏,來將其發展區分為不同的階段,如圖1-2所示。

早期萌芽階段:指人工智能的起源和初期探索階段,即1956年至20世紀90年代中期。

沉淀積累階段:指人工智能技術和理論得到深入研究和積累的階段,即20世紀90年代中期至21世紀10年代中期。

快速發展階段:指人工智能技術迅速發展和廣泛應用的階段,即21世紀10年代中期至今。

AIGC作為人工智能的一個分支,也在不斷發展壯大。在早期萌芽階段、沉淀積累階段及快速發展階段,AIGC都取得了相應的進步,并且發生了許多里程碑事件。與人工智能領域一樣,AIGC也經歷了起起落落,其發展的每個階段各具特點。每一個進展,都為AIGC的蓬勃發展做出了貢獻。

同許多領域的發展相似,AIGC的繁榮展現出一種不可被完全計劃的特質。就像ChatGPT的核心研發科學家肯尼斯·斯坦利(Kenneth Stanley)和喬爾·雷曼(Joel Lehman)在他們合著的新書《為什么偉大不能被計劃》(《Why Greatness Cannot Be Planned》)中提到的,科學領域中最重要的發現,往往不是完全按計劃發展而來,而是由各種因素的相互作用塑造而成的。這一觀點也可以解釋AIGC領域的崛起:各個階段的進展、里程碑事件和發展特點,構成了一幅不可預測但充滿活力的圖景。這源于人類創造力和科學探索的交匯,展現出人工智能領域的無限潛力。

圖1-2簡單梳理了上述三個階段的發展特點和AIGC領域的典型事件。

圖1-2

1.2.2 人工智能時代的三個子階段:AI 1.0、AI 2.0、AI 3.0

人工智能時代是指人工智能技術得到廣泛應用和發展的時期。目前通常將人工智能時代分為三個子階段:AI 1.0、AI 2.0和AI 3.0。

AI 1.0時代是指2010年至2022年,人工智能主要在算力、算法和數據三個方面發力狂奔,這一時期也被稱為“基礎建設時代”。

AI 2.0時代從2022年開始,這一時期,人工智能開始進入“應用落地時代”,大規模商業化應用逐漸成為主流,同時人工智能技術也逐漸被整合應用于各個領域。

AI 3.0時代則尚未到來,到這一時期,人工智能技術將進一步發展,開始追求更高層次的“智能”,并逐漸進入與人類協作的新時代。

1.2.3 算法、算力、數據三駕馬車的發力狂奔

AI 1.0時代是一個算法、算力、數據三架馬車發力狂奔的時代,如圖1-3所示。下面就分別介紹三者的發展。

圖1-3

1.關于算力那些事

算力是人工智能發展的基礎,決定了人工智能的計算能力和效率,就好比人類社會中的電力決定了電車能跑多遠的距離、速度能達到多少。隨著芯片的不斷發展,GPU、TPU等專用芯片極大地提升了人工智能的算力。

GPU最初被設計用于加速計算機圖形的處理,但是它們的高并行性能和能夠同時執行大量浮點運算的能力,使它們成為深度學習等人工智能應用的首選計算平臺。而TPU則是由Google專門為深度學習任務開發的定制芯片,具有更高的能效比和更好的加速性能,可以大幅提高人工智能算法的訓練速度和效率。人工智能的芯片可以分為通用處理器和專用處理器兩種類型。通用處理器是一種通用的計算機處理器,如中央處理器(Central Processing Unit,CPU)和圖形處理器(GPU)。專用處理器是一種針對特定的人工智能任務進行優化的芯片,如全定制化芯片(Application Specific Integrated Circuit,ASIC)中的TPU、半定制化芯片如現場可編程門陣列(Field Programmable Gate Array,FPGA)等。

2.關于算法那些事

算法是人工智能發展的核心,它好比人類社會中的交通工具,或者更具體地說,它就像不同的發動機引擎,決定了人工智能的計算方法、學習能力和應用范圍。隨著深度學習等技術的不斷發展,人工智能的算法得到了極大的提升。深度學習是一種基于神經網絡的機器學習方法,它模仿人腦神經元的工作方式,通過多層次的神經元模型來實現對數據的學習和識別。

深度學習算法發展過程中的一個重要的里程碑是2012年ILSVRC(ImageNet Large Scale Visual Recognition Challenge)比賽中,深度學習算法AlexNet的問世。AlexNet使用了卷積神經網絡(Convolutional Neural Network,CNN)的結構,成功地解決了大規模圖像分類問題,在比賽中取得了驚人的成績。自此以后,深度學習算法在圖像識別、語音識別、自然語言處理等領域的應用不斷拓展。

在深度學習算法的基礎上,還有一些其他的算法模型也得到了廣泛的應用,例如強化學習、遷移學習、生成對抗網絡等。這些算法模型的不斷發展,讓人工智能的應用范圍得到了進一步的擴展,進入了諸如自動駕駛、智能客服、智能家居等領域。

3.關于數據那些事

數據是人工智能發展的資源,決定了人工智能的輸入和輸出,以及應用場景和效果,它就好比人類社會中的物質資源。過去,由于缺乏大規模、高質量的數據,人工智能技術無法大規模應用,因此數據一直是人工智能發展的瓶頸。

隨著互聯網技術的不斷發展和普及,越來越多的數據被數字化并被儲存起來,這些數據成為人工智能技術發展的重要基礎。同時,由于物聯網和移動設備的普及,越來越多的設備能夠生成數據,并將這些數據傳輸到云端進行處理和分析,為人工智能技術提供了更多的數據來源和實時數據處理的可能性。數據的日益豐富是人工智能技術發展的重要驅動力。

主站蜘蛛池模板: 且末县| 婺源县| 秦皇岛市| 枞阳县| 来凤县| 略阳县| 怀仁县| 桐庐县| 全州县| 留坝县| 元氏县| 达州市| 三亚市| 巫山县| 绍兴市| 东兰县| 双鸭山市| 乌兰察布市| 临泉县| 西和县| 安阳县| 伊川县| 介休市| 三亚市| 宝应县| 兴义市| 陆良县| 临沂市| 重庆市| 贵港市| 永吉县| 永德县| 福安市| 沙湾县| 长岭县| 桂阳县| 镇沅| 湘阴县| 宽甸| 洮南市| 将乐县|