- AI進化論:解碼人工智能商業場景與案例
- 億歐智庫
- 3309字
- 2019-01-04 16:40:08
第一節 揭開AI的神秘面紗
當人們大談人工智能的時候,究竟是在談什么?
在長達半個多世紀的人工智能研究歷程中,大量學者對其概念進行了不同維度的界定。綜合來看,大致可分為兩類。
第一類,從行為和功能的角度出發,定義人工智能機器的外在行為和能夠實現的功能。最典型的代表就是被譽為“計算機科學之父”的艾倫·圖靈(Alan M. Turing),他認為:
“如果一臺機器能夠與人展開對話(通過電傳設備),并且會被人誤以為它也是人,那么這臺機器就具有智能。”
約翰·麥卡錫(John McCarthy),是達特茅斯會議的重要成員之一,也是真正提出“人工智能”這一術語的學者。他認為:
“人工智能就是要讓機器的行為看起來就和人所表現出的智能行為一樣。”
全球著名的管理咨詢公司麥肯錫公司(McKinsey & Company)對于人工智能給出了如下定義:
“人工智能指機器表現出和人一樣的智能,例如在不使用包含了各種細節指導的手寫編碼程序的情況下能夠接近問題的答案。”
第二類,則將“人工智能”定義為一門新學科或新科學。典型的代表是達特茅斯會議的另一位重要成員,計算機科學最高獎“圖靈獎”得主(1975年),赫伯特·西蒙(Herbert A. Simon),他將人工智能定義為:
“人工智能是對物理符號的操作,是認知心理學與計算機科學相結合的新學科。”
約翰·尼爾森(Nils John Nilsson)是美國斯坦福大學計算機科學教授,是人工智能學科的奠基性研究者之一。他認為:
“人工智能是關于知識的學科——怎樣表示知識以及怎樣獲得知識并使用知識的學科。”
美國另外一家著名的管理咨詢公司波士頓咨詢公司(BCG)在其報告《人工智能:未來制勝之道》中對人工智能給出了如下定義:
“人工智能是研究、開發用于模擬、延伸和擴展人類智能的理論、方法、技術及應用系統的一門新的技術科學。”
上述兩種定義,一方面說明了人工智能具有較高的研究價值,另一方面也反映出,人工智能的本質是人類賦予機器的未來形態,即機器具備人類智能。六十多年來,人工智能研究學者研究與爭論的焦點之一,就是通過何種方法能使得機器具備人類智能。這些研究學者主要來自計算機科學與神經生物學(或神經物理學)領域。前者主要通過計算機編寫程序的方式來模仿人類的智能行為,以神經網絡相關研究為代表;后者則重點研究人類大腦皮層的工作原理,他們以大腦的生物學細節作為約束和指導,同時將智能視作一個計算性質的問題,以聯結主義范式下的“自—聯想”記憶網絡為代表。從今天人工智能的研究進展來看,顯然前者占據主流。而后者,學術界尚未形成一套能夠有效詮釋智能本質或大腦工作原理的完整理論。
人工智能相關研究的最終目標,是由機器替代人類完成部分相對簡單的重復性任務,使人類擁有更多時間進行創造性的勞動,享受更加高效便捷的生活,真正步入“智能時代”。歷史上,人工智能曾經兩次走出試驗室,被應用于生產活動之中。第一次源于1977年,斯坦福大學計算機科學家愛德華·費根鮑姆(Edward Albert Feigenbaum)通過實驗證明了實現智能行為的主要手段在于知識,提出了“知識工程”(Knowledge Engineering)概念,并為專家系統(Expert System)奠定了理論基礎。作為知識工程的倡導者,費根鮑姆早在1965年便與萊德伯格(Joshua Lederberg)等人合作,開發出了人類歷史上第一個專家系統DENDRAL。該專家系統由大量“如果—就”(If-Then)的規則定義,其中存有大量的化學分子式與質譜圖,能夠從上千種可能的分子結構中選出一個正確的分子結構。DENDRAL系統的成功開發,被認為是人工智能研究史上的重大突破。在隨后的十年間,約有上千種專家系統誕生,并被應用于化學、醫學、農業、計算機等各個領域,例如用于輔助醫生診斷傳染病和提供治療建議的著名專家系統MYCIN等。然而,當時的專家系統學習能力非常有限,無法滿足大規模的生產需求,所以1990年后專家系統逐漸淡出人們的視線。同一時期出現的多層神經網絡(Multi-layer Perceptron)技術熱潮,因受到當時的數據量與計算力的限制,也無奈“曇花一現”。此后,人工智能研究進入長達十多年的“寒冬期”。
人工智能歷史上的第二個應用階段,源自2006年“深度學習”(Deep Learning)的出現。2006年,被譽為“神經網絡之父”的多倫多大學教授杰弗里·辛頓(Geoffrey Hinton),與幾位學者聯合發表的論文A fast learning algorithm for deep belief nets中,首次提出了“深度學習”概念。深度學習,又名“深度神經網絡”,它源于人工神經網絡(Artificial Neural Network,即ANN)研究,能夠解決深層結構相關的優化難題,典型代表是卷積神經網絡(Convolutional Neural Network,即CNN),它是第一個真正的多層結構學習算法,它利用空間相對關系減少參數以提高訓練性能。深度學習算法模型的訓練優化,需要大量的標注數據樣本。隨著互聯網尤其是移動互聯網的發展,每天全球產生的數據量達萬億GB之多,無疑為深度學習的發展提供了良好的數據基礎。同時,產業界也在積極建設數據庫,例如,2007年李飛飛和普林斯頓大學的同事開始建立大型注釋圖像數據庫ImageNet,目的就是為視覺對象識別軟件的研究提供幫助。深度學習的另一個特點,就是需要強大的計算能力。而大規模并行GPU、FPGA等可編程邏輯器件的出現,以及云計算技術的逐漸成熟,使深度學習擁有了計算能力保障。
2012年,深度學習在圖像識別領域的運用取得重大突破。6月,谷歌深度學習項目的吳恩達(Andrew Ng)和杰夫·迪恩(Jeff Dean)利用1000臺計算機、16000個芯片搭建了一個深度學習系統,該系統在“學習了”數百萬張貓臉圖片后,自動將線條、亮度、邊界、色彩等多個特征進行分類。最后,當該系統“看”到貓的圖片后,自動識別并將其歸入貓的圖片分類之中。而在此之前,計算機系統內本身并沒有“貓”和“貓長得是什么樣子”的概念和數據。同年10月,辛頓教授組建的團隊將深度學習用于ImageNet大規模視覺識別挑戰賽(ILSVCR)中,創造了16%錯誤率的紀錄,與前一年25%的最佳水平相比,有了明顯的提高。該成就立刻引起了工業界強烈的興趣。辛頓教授和他的兩個研究生于2012年底成立了一個名為DNNresearch的公司,三個月后就被谷歌以五百萬美元的價格收購。
除圖像識別以外,2012年深度學習在語音識別領域也展示了出色的成績。這一年,谷歌將深度學習算法首次用于語音識別,在一個語音輸入基準測試中,單詞錯誤率(Word Error Rate)最低達到了12.3%。而在此之前,世界上各語音識別模型的單詞識別錯誤率在30%以上。而正是由于深度學習算法在具體技術領域的運用取得了重大突破,打通了底層算法與技術應用之間的通路,2012年也由此成了人工智能歷史上第二次進入應用階段的起始之年。
當然,深度學習僅僅是實現人工智能的技術方法之一。今天,不少人會狹隘地認為“人工智能=深度學習”。其實,假設我們身處于20世紀80年代,我們很可能會片面地認為“人工智能=專家系統”。事實上,人工智能在不同的發展階段——不論過去還是未來——都會因技術進步或新技術的誕生,而進一步得到發展。就目前的技術發展而言,人工智能以機器學習、數據挖掘為兩大技術核心,兩者技術范疇上有所交叉。機器學習又包含對抗學習等諸多種類,其中備受矚目的就是深度學習。按照拓撲結構分類,深度學習可分為卷積神經網絡、循環神經網絡和全連接神經網絡,并通過算法框架實現深度學習過程。在機器學習與數據挖掘的技術之上,實現了目前市場上最常見的三大技術應用,即計算機視覺、智能語音技術和自然語言處理,如圖1-1所示。

圖1-1 人工智能技術圖譜(部分)
各種機器學習與深度學習算法框架的出現與開源,極大地降低了算法模型的搭建與訓練門檻。2013年12月,畢業于美國加州伯克利大學的賈揚清教授,在GitHub平臺上開源了最初單機版本的深度學習框架Caffe,該框架可用于人臉識別、圖片分類、物體識別等圖像處理技術技術,通用性強,性能高,代碼可讀性好,是目前全球最受歡迎的深度學習框架之一。2017年,Facebook開源了升級版的深度學習框架Caffe 2。
2015年11月,谷歌開源了其開發的深度學習框架TensorFlow,該框架不僅提供了豐富的深度學習相關的API接口,而且還提供了可視化分析工具Tensorboard,使分析和模型調整更加便捷。該模型可用于語音識別、自然語言處理、計算機視覺、機器人控制、信息提取等眾多應用場景。此外,還有百度于2016年開源的深度學習框架PaddlePaddle、微軟于同年開源的深度學習工具包CNTK等等。
另外,人工智能技術的實現,還要依托于硬件的支持(處理器/芯片、傳感器元件等)以及云平臺提供的存儲與計算服務,等等。
從底層算法的不斷成熟,到各類算法框架的開源,從大型數據庫的建設,到硬件設備與云計算服務的逐步完善,人工智能于2012年后在產業界迎來了新一輪爆發階段。