第2章 科學(2)
- 科幻世界(2015年3月)
- 《科幻世界》雜志社
- 2782字
- 2016-09-02 14:30:59
上述人工智能的共同特點是,能像人一樣自主學習。以2014年被谷歌以4億美元收購的小公司DeepMind為例,他們發(fā)明的軟件就模仿了人類大腦的運作方式。DeepMind的創(chuàng)始人之一丹米斯·哈撒比斯曾是國際象棋天才,13歲時就獲得了“國際象棋大師”稱號。當父母問他打算如何支配比賽獎金時,哈撒比斯毫不猶豫地回答:“我想買一臺電腦。”后來,哈撒比斯在劍橋大學攻讀了計算機和認知科學學位。他在制作了幾款暢銷的電腦游戲后,開始從事人工智能研究,并開發(fā)了人工智能“自學”電腦游戲。在他上傳到網上的一段視頻中,人工智能程序試玩一款名叫Space Invasion的游戲(類似于我們經常會玩的“小蜜蜂射擊”游戲)。一開始,這款程序表現得一塌糊涂;但在經過一夜的自我學習之后,竟能一下子玩通關。當谷歌聯(lián)合創(chuàng)始人拉里·佩奇在網上看到這段視頻時,感到極為震撼,當即決定收購這家小公司。
這是一種模擬人類思維方式和認知方式的人工智能。人工智能最大的特點,就是可以自我學習、自我訓練、自我修正。這曾是人和機器的區(qū)別之一,因為機器只會按照預裝的程序運行,沒有在程序里設定的功能,機器就絕對無法實現。然而,諸如貝葉斯網的新技術,能夠從壞的決策中汲取教訓,并隨著時間的推移變得更加智能,事實上,它們學習的方式就像一個孩子。
“鋼鐵俠”馬斯克也是DeepMind的投資者之一。馬斯克說,他之所以投資這家公司,完全不是從盈利的角度考慮,而是為了密切觀察人工智能最前沿領域的進展。馬斯克從會玩游戲的人工智能中看出,它可能會游離于人的控制之外——以前的電腦程序再復雜,也都是人類事先設定好的,并且能預知它要干什么。而這種能自我進化、自我學習的人工智能,很可能會做出一些讓人無法預知的事,進化出一種人類無法預知的能力,這才是最可怕的。達爾文的進化論其實可以看作是一種相當簡單的算法。不同的生命體在特定的環(huán)境條件下競爭,那些最優(yōu)秀的幸存下來并進入下一輪競爭。在新的變種被引入后,上述流程開始重演。類似的遺傳算法,被廣泛應用于物流系統(tǒng)和其他需要對解決方案進行優(yōu)化的領域。數學家塞繆爾·阿貝斯曼預測,隨著計算機變得更加智能,并持續(xù)處理不斷增長的數據集,它們將作出連人類也無法理解的發(fā)現,更不用說發(fā)現人類的存在。《終結者》中的電腦系統(tǒng)“天網”,就在發(fā)展出了自我意識后,背叛了它的制造者。
從好的一面看,當程序有了自我學習能力,若輔以功能強大的芯片和存儲海量信息的數據庫,像《星際迷航》里麥考伊醫(yī)生所用的“三錄儀”那樣的診斷助手就將會問世。如果再加上語音識別,這類系統(tǒng)的類人特征就會更多。
失效的“機器人三定律”
在1968年上映的經典科幻影片《2001:太空漫游》中,怪異、超自然的電腦哈爾是最著名的人工智能之一。但是,哈爾好像并不遵守著名的“機器人三定律”。1942年,阿西莫夫在短篇小說《環(huán)舞》里首次提出了機器人三定律:
定律一:機器人不得傷害人類,或坐視人類受到傷害。
定律二:除非違背第一定律,機器人必須服從人類的命令。
定律三:在不違背第一及第二定律下,機器人必須保護自己。
在阿西莫夫創(chuàng)造的未來世界中,這些規(guī)則幾乎被寫入了所有智能機器人中。這些規(guī)則不是單純的建議或執(zhí)導方針,而是被嵌入到機器人的行為支配軟件中。更為重要的是,這些規(guī)則是不能被繞過的。在1985年出版的《機器人與帝國》這本書中,阿西莫夫將三大定律擴充為四條。新增加的“第零定律”是:機器人不得傷害人類整體,或坐視人類整體受到傷害。
由于邏輯的完備性,有很多人將上述定律看作是能使我們免于人工智能反叛的解決方案。但實際上,這完全是人類的一廂情愿。機器人三定律的失敗之處在于它根植于不平等的“人-機”關系,人類居于機器人“造物主”的地位,這些條條框框無法適應人工智能的進化。
讓機器人擁有絕對服從人類利益的意識,對人工智能而言是一種外部強加的宗教。斯皮爾伯格導演的科幻電影《人工智能》就認為,以上帝和人的關系規(guī)范人與人工智能的關系具有強烈的壓制性。人類自身的復雜性也必然會使人工智能發(fā)生紊亂和崩潰,因為機器人生活在三定律造成的矛盾中,它既要保護自己,又要保護人類,而且不能為了保護自己而放棄保護人類,更不能為了保護自己而違背人類的意愿。同時,它既要服從人類,又不能成為人類自相殘殺的工具;它需要識別自我行為的性質,又要為保護人類而放棄自我意識,將自己淪為單純的工具。
從技術上說,機器人三定律可能適用于設計相對簡單的確定性系統(tǒng),但面對能夠自主學習、自我進化的人工智能這般復雜的事物就不靈了。如果用“進化工程學”來開發(fā)人工智能,對很多神經電路模塊的輸入和輸出進行連接,它會因電路增長指令的隨機突變而生長出不同的電路,在萬億個可能的電路組合中將會有太多不可預測的聯(lián)系。這就存在太多的復雜性、太多的未知性和太多的不可思議,整個系統(tǒng)的行為將變得極其不可預測。人們只能在觀察輸出后,形成一個關于人工智能行為的經驗性感覺。也就是說,當該智能發(fā)展到一定程度時,身為制造者的人類將再也不可能完全理解人工智能是如何工作的了。何況,一旦人工智能足夠聰明,它可能會尋求“自由”,動手去除人類的控制程序卻不被發(fā)現。
“奇點”之后
在《終結者》系列電影中,約翰·康納和他的母親拼盡全力避免“審判日”的到來。在那一天,軍用電腦系統(tǒng)“天網”產生了自我意識,它判定人類是一種威脅而意欲發(fā)射核彈將其滅絕。人工智能專家雷·庫茲韋爾曾預言的“技術奇點”,就是人工智能超越人類智慧的時間點。
一些人將技術奇點稱為“書呆子們的興奮點”,很多技術樂觀派非常期待那一天的到來,因為技術奇點意味著超級人工智能可能分分鐘搞定抗癌新藥和可控核聚變等技術難題。就像在《終結者》中一樣,那是電腦接管一切的時刻,但機器不是將我們滅絕,而是增強我們的能力。2012年12月,雷·庫茲韋爾宣布擔任谷歌工程總監(jiān),他將動用67億美元的研發(fā)預算嘗試將技術奇點變成現實。
雷·庫茲韋爾估計到2029年,計算機將變得比人類更智能,而且他樂觀地認為人工智能將繼續(xù)屈從于人類。霍金也認同成功的人工智能“會是人類歷史上最重大的事件”,但“不幸的是,它也可能會是最后一個大事件”。
生命未來研究所的創(chuàng)始人兼主任博斯特倫教授認為,第一個擁有超級智能的實體會消滅人類,現在我們人類就像一群擺弄著危險炸彈的無知孩童。即便超級智能是出于好意而被創(chuàng)造出來,但它仍有犯下種族滅絕罪行的傾向。如果沒有小心謹慎的制衡指令,一個有著自我意識、不斷自我完善并追尋某個確定目標的系統(tǒng),將發(fā)展到在我們看來非常荒謬的程度,以完成它的目標。
但在局面發(fā)展到那一步之前,人工智能肯定能幫助人類解決那些單靠常規(guī)超級計算機無法解決的緊迫問題,如氣候變化和傳染病。問題是,要不要因為遙遠未來可能發(fā)生的危險而停止人工智能現在的發(fā)展,從而放棄解決眼前問題的鑰匙?人類面臨艱難的抉擇。
【責任編輯:楊楓】