官术网_书友最值得收藏!

1.7 再一次騰飛

就像黑暗中的鉆石等到光線照射的時候就會無比絢爛一樣,人工智能終于等到了蓬勃發展的歷史時機,沉默耕耘了多年的研究者們成了這一次大潮的弄潮兒。

AI的這一次騰飛也不是無緣無故發生的,而是依賴于下面幾個主要的因素。

1.7.1 計算機綜合計算能力的大幅提升

計算機從誕生至今,經過人們的不斷努力,各方面能力得到了大幅的提升。其中與人工智能發展緊密相關的包括5個方面。

? 計算機進行計算與處理的核心——CPU的處理速度以2010年與1975年相比增長了6~7個數量級(106~107),并且多核CPU的出現,事實上進一步提升了CPU的處理能力。

? GPU(Graphics Processing Unit,圖形處理單元,也就是顯卡中的主要功能部件)的出現,大幅提升了計算機的科學運算能力。GPU的產生主要是為了高速處理大量的圖形圖像,而這需要大量的浮點數(一般所說的小數)運算,CPU處理整數運算速度尚可但對浮點數的運算能力很一般,而GPU設計時的主要目標之一就是應對浮點數的運算;另外,由于圖形處理要求巨量數據超高速的運算,因此GPU一般均采用大量的并發運算單元來進行同時運算以滿足其要求。而浮點數運算能力和大量并發運算能力恰恰是人工智能(尤其是神經網絡)運算最需要的能力。因此,GPU的出現和其能力的快速提升,可以說是大大促進了人工智能發展的速度。從圖1.7中可以看出,從2002年到2014年,GPU的理論浮點計算能力已經上升了數千倍。

圖1.7 CPU、GPU浮點運算能力理論峰值圖

? 神經網絡的計算需要大量的存儲數據,包括訓練數據、計算過程中間數據和輸出數據等,例如,現在自然語言處理的原始訓練數據一般均在幾百兆字節至幾個吉字節(在計算機存儲中,一般1TB≈1000GB,1GB≈1000MB,1MB≈1000KB,1KB≈1000B,B代表Byte,即字節,1個字節代表一個8位的二進制數字);而進行較大分辨率的圖像識別所需的數據就更多,往往有幾十個GB到1TB以上,這就要求計算機內存和外存(主要是硬盤)足夠大,另外還要訪問速度足夠快,才能支持神經網絡的運算。幸好,計算機的發展超出了我們的期望,一般計算機的內存從20世紀70年代的幾十KB大小快速發展到現在常見的幾十GB,訪問速度也有了指數級的提升。

? 計算機軟件發展至今,已經非常成熟,人們對于軟件的駕馭能力也越來越成熟。計算機軟件方面值得一提的是,現在在人工智能領域最常用的計算機語言Python。Python于1989年發明,到現在已經成為最受歡迎的語言。2017年IEEE(Institute of Electrical and Electronics Engineers,電氣和電子工程師協會)發布的年度編程語言排行榜中,Python高居首位。Python由于其免費、開源的特點,受到開發人員的喜愛,許多開發者為其編寫了不同用途的第三方代碼包和庫,使其功能在基本的計算機語言功能基礎上迅速擴充;另外,由于Python易于上手、編寫方便,許多科學研究者也喜歡使用Python來進行科學計算。因此,Python逐步成為人工智能領域中最熱門的語言,而Python語言的越來越成熟也反過來推動了人工智能的發展。

? 云計算技術的出現與GPU的出現類似,也大幅提升了計算機系統的計算能力。云計算的核心本質是調度網絡上具備運算能力的計算機,并行協同處理某些計算任務,以求實現人們所能掌控的計算能力不再被計算機所處的地理位置和單臺計算機的運算能力所限制。

1.7.2 大數據的出現

大數據(BigData)概念的出現,無疑也是推動人工智能(尤其是機器學習領域)發展的重要因素,甚至可以說是捅破的最后一層窗戶紙也不為過。

以前的人工智能研究,即使有了理論方法也很難研制出有實際價值的系統,其主要原因之一就是缺少大量的訓練數據。尤其是機器學習,更需要用海量的訓練數據來進行訓練才能夠使系統的準確率達到實用的要求。

經過IT行業幾十年的發展,人們對于數據的存儲和管理水平不斷進步。這期間,大型關系數據庫技術為人們積累數據、運用數據提供了重要的支撐。現在數據庫技術經過幾代發展,已經向多元化、多型態化進一步發展。數據存儲與管理技術的進步,促進了大型應用系統的實用化,例如政府部門的政務處理系統、銀行的金融管理系統、電信行業的營業系統和計費系統、企業內部的資源管理系統等,都得到了大范圍的應用;這反過來也推進了海量資源和用戶數據的積累。據測算,人類在2013年的數據存儲總量已經達到80EB(1EB≈1000PB,1PB≈1000TB),而到了2015年,已經達到了300EB;預計到2020年,人類數字化的數據總量將達到35ZB(1ZB≈1000EB)。海量的數據讓研究人員不再缺乏機器學習訓練數據的來源。

人們在大數據技術的發展過程中,并非僅僅得到了數據本身,還成功提升了自己處理數據、從數據中進行發掘/發現、對數據進行分類合并、快速從原始數據中提取有效的訓練數據的能力。

1.7.3 神經網絡研究的成熟化

現代社會某項科技的發展,離不開其研究者和關注者心態的成熟,這一點在人工智能這個領域體現得尤其明顯。人工智能經歷了兩次寒冬,但寒風抹去泡沫對這個領域的發展并非壞事,留下來的人們都謹慎了許多,也務實了許多,把研究向更能體現人工智能價值的方向進行,例如圖像識別、自然語言處理等。這期間,對于后來人工智能騰飛起到重大作用的事件包括以下幾個。

? 反向傳播學習算法研究進一步成熟,在前面所介紹的1986年提出的反向傳播算法基礎上,人們又對其在神經網絡中多層、多個不同類型的隱藏層等情況下,進行了大量的實驗驗證,并改進了其隨機性和適應性。如前所述,反向傳播算法對于神經網絡的訓練是具有歷史性意義的,因為它大幅縮減了神經網絡訓練所需要的時間。

? 在20世紀60年代就有了卷積網絡的最初思想,但到1989年,Yann LeCun發明了具有實際研究價值的第一個卷積神經網絡(Convolutional Neural Network,CNN)模型LeNet。卷積網絡是前饋神經網絡中的一種類型,最主要的特點是引入了卷積層、池化層這些新的隱藏層類型。卷積層特別適合對圖像這種不同位置的像素點之間存在關聯關系的數據進行特征提取,而池化層則用于對圖片降低分辨率以便減少計算量。因此卷積神經網絡的發明對于圖像識別具有重要意義;由于卷積層具有特征提取和特征抽象能力,它對于后面深度學習的發明也有重要的啟發意義。

? 早在20世紀80年代,已經有了循環神經網絡(Recurrent Neural Network,RNN)的思想,這種網絡與原來的純前饋神經網絡不同,引入了時序的概念,信號在神經網絡中傳遞時,在下一時刻可以反向往回傳遞,也就是說,某一時刻某個神經元的輸出,在下一時刻可能成為同一神經元的輸入,這就是它命名中“循環”兩個字的由來。循環神經網絡特別適合解決與出現順序有關的問題,例如自然語言處理中的語音識別,因為一句話中后一個單詞是什么往往與之前已出現的詞語有很大關系,所以判斷人說的某個詞往往要根據前面出現的詞來輔助。但后來人們又發現,這種關系與單詞之間的距離或者說時間順序的聯系并不是固定的,有時候距離很遠也有很大影響,有時候距離很近但影響不大。因此,1997年,賽普·霍克賴特(Sepp Hochreiter)和于爾根·施米德胡貝(Jürgen Schmidhuber)提出了能夠控制時間依賴性長短的新型循環神經網絡——長短期記憶網絡(Long Short-Term Memory Network,LSTMN),成功解決了這一類問題。2000年,菲力克斯·熱爾(Felix Gers)的團隊提出了一種改進的方案。

? 2006年,辛頓等人提出了深度學習的概念。深度學習并非是一種單一的技術或理論,而是結合了神經網絡多項理論和成果的一套綜合性方法,簡單地說可以用一句話概括:深度學習是在多層的神經網絡中,從原始數據開始,通過機器自主進行學習并獲得解決問題的知識的方法。深度學習最主要的特點是機器自主從原始數據開始逐步將低層次的特征提取、組合成高層次的特征,并在此基礎上進行訓練學習,獲得預測同類問題答案的能力。也就是說,AI已經具備了自主發現特征的能力,原來必須依靠人類指導來進行學習的機器,終于可以自己去學習了,這是人工智能發展史上一個劃時代的進步,是最激動人心的成果之一。現在,深度學習已經成為人工智能領域中最活躍的方向。

? 以卷積網絡和深度學習理論的出現為基礎,人工智能的研究者們敏銳地找到了最合適的突破點:計算機視覺。計算機視覺是指人工智能系統進行的圖像識別與分類、視頻中的動作識別、圖片中的物體分界、圖像視頻理解與描述文字生成、圖像內容抽取與合成、圖畫風格替換、網絡圖片智能搜索等一系列與圖形或視頻處理等有關的行為。由于計算機視覺需要處理的都是海量數據,人腦難以應付這么大量而又需要高速處理的任務,而這正是卷積網絡和深度學習理論上最擅長的方向,并且又具備了前面所述的軟硬件條件,所以在后面可以看到,很多人工智能取得的成就都是與計算機視覺緊密相關的。

在上面所說的各種因素的合力推進下,沉寂已久的人工智能在21世紀第一個十年前后突然爆發了,這可以說在大多數人意料之外,但回過頭看也在情理之中。

廣泛被界內認可是,這一次人工智能大發展的起點為2012年,在ImageNet工程舉辦的年度圖像識別大賽(Annual ImageNet Large Scale Visual Recognition Challenge)上,包括亞歷克斯·克里澤夫斯基(Alex Krizhevsky)和辛頓等人在內的團體推出的AlexNet神經網絡,獲得了當年的冠軍。ImageNet項目是一個大量收集圖片數據用于智能圖像識別研究的可視化數據庫項目。從2010年開始,ImageNet每年都舉辦這個年度圖像識別大賽。2012年,AlexNet在比賽中識別圖像的top-5錯誤率(即系統給出的可能性最高的前5個預測結果全部錯誤)僅有16%左右,遠遠低于其他參賽的系統,距第二名足有10個百分點以上。AlexNet就是一個采用了深度學習技術的、使用了GPU并發運算加速的多層卷積神經網絡,這也是在這項比賽中第一個采用了深度學習技術的系統。AlexNet在訓練時,使用的CPU能力相較于1998年LeNet使用的高了1000倍以上,并且使用了GPU進行加速,使用的訓練數據量較LeNet高了107倍,可以說在充分利用了之前的各項人工智能研究成果之外,也有當時各項客觀支撐條件發展的功勞。AlexNet取得一鳴驚人的成功后,在人工智能界引起了巨大反響和關注,很多大公司和有實力的研究團隊加入到深度學習的研發領域中來,在后來的新系統中,已經將top-1錯誤率(只判斷一次的錯誤概率)從AlexNet的50%~60%提升到80%以上。

如果說AlexNet的出現還僅僅是在IT業界獲得了較大反響,那么讓人工智能的能力廣泛為世人所知,無疑是2016年,谷歌旗下DeepMind公司研發的AlphaGo成為第一個擊敗圍棋世界冠軍的人工智能系統。2016年3月,AlphaGo與圍棋世界冠軍、職業九段李世石進行了五番棋大戰,最后4比1取勝。之后,AlphaGo在網絡上與中、日、韓等多國圍棋高手進行了幾十局對弈,無一敗績。2017年中,經過進一步訓練的AlphaGo與世界排名第一的柯潔對戰3局,全部取勝。現在,幾乎所有圍棋選手都承認無法戰勝人工智能,并且看不到勝機,甚至有圍棋界元老認為AlphaGo可以對目前人類最高水平的選手讓兩子以上。然而,人工智能的研究并沒有止步,2017年10月,DeepMind團隊公布了AlphaGo的最新進化版本AlphaGoZero。之前的AlphaGo是以職業棋手棋譜作為訓練的主要數據來源之一進行了大量的訓練而成的;而AlphaGoZero已經摒棄了人類的知識,僅在知曉下棋基本規則的情況下,從零開始訓練(這也是名稱中Zero的由來之因),經過不到1天訓練,就能對戰圍棋、國際象棋、日本將棋等最高水平的人類選手,甚至是AlphaGo這個它的前任實現完勝。

AlphaGo就是采用了深度學習的分支——增強學習技術來訓練的神經網絡系統。AlphaGo的出現,完全激發起了世人對人工智能的關注,讓人深深感覺到人工智能的強大實力。圍棋與國際象棋不同,每一步的下法以現在計算機的能力,也難以在正常時間內窮舉來判斷優劣,人類研究的人工智能在圍棋領域實現的突破,具有極大的象征意義,代表著人工智能不僅已經可以有實用的、有價值的系統應用,而且已經可以超越人類自身的極限,對人類生活和社會的發展必將帶來巨大的影響。于是,科技界的巨頭公司也紛紛投入或加大投入到人工智能的研發中來。

現在,人工智能尤其是深度學習的熱潮方興未艾。在指紋識別、人臉識別、網絡圖像視頻鑒別、疾病診斷、天氣預報、無人駕駛、無人機、機器人、機器翻譯、客戶關懷等方向上,取得了大量成果,并迅速應用于實際生活中。這也是這一次人工智能騰飛與前幾次AI泡沫相比最大的不同,即出現了真正有價值的系統而不僅僅是實驗成果。也因此,這一次AI的大發展給人以更堅實、更有底氣的感覺,它的發展前景一片光明。

主站蜘蛛池模板: 五莲县| 阳泉市| 新源县| 绿春县| 泸州市| 中江县| 且末县| 巨野县| 灵寿县| 伊金霍洛旗| 富平县| 军事| 湟源县| 昭通市| 蕉岭县| 河间市| 安庆市| 晋江市| 洛南县| 连平县| 辽阳市| 阿图什市| 雅安市| 湖州市| 麟游县| 松原市| 五华县| 原平市| 桂东县| 中宁县| 海林市| 锦州市| 岳阳县| 东莞市| 华容县| 边坝县| 正镶白旗| 石嘴山市| 衡水市| 德化县| 汨罗市|