- 機器意識:人工智能如何為機器人裝上大腦
- (印)阿卡普拉沃·包米克
- 4664字
- 2021-07-23 16:15:30
2.6.3 相關性問題——框架問題
這三個問題中框架問題吸引了最多的爭論[166],并且已經有能力改變人工智能的學科方向。與其說它是一個關于人工智能或編程的問題,不如說它是一個邏輯和我們對世界的理解上的空白,而且通常被重新定義為“相關性問題”。問題在于哪些變化與手頭的工作有關。例如,當我正在街上行走,并且看到在我前方大約六英尺有一個香蕉皮,我會略微改變我的方向以避開香蕉皮。現在,假設我正在行走,這次不是香蕉皮,而是在遠處的西伯利亞凍土帶出現了臺風。很顯然這不會影響到我的行走,但存在很多不能像這樣簡單地確定相關性的情境。
這個問題已經被很多著名的哲學家和人工智能科學家解析過了。丹尼特[89]用一個例證討論了框架問題,其中機器人Robot R1必須進入一個房間獲取電池來為自己供電,并同時避開一個定時炸彈,如圖2.32所示。Robot R1識別出了電池和炸彈,并推著同時載有電池和定時炸彈的手推車走了出來,很快炸彈爆炸,機器人被炸成了碎片。Robot R1知道炸彈在手推車上,但無法理解把手推車帶出房間的同時也會帶出炸彈,因此它無法完成任務,因為它無法推斷出自己行動的后果。為了克服這個看似微不足道的問題,機器人設計師開發了Robot Deducer R1D1,它比R1更完善,因為它被設計為不僅能識別其行動的預期影響,而且還能識別其副作用。潛在的想法是R1D1不會犯把電池和炸彈一起推出的錯誤,因為它將能夠推斷出這樣做的后果(讀取錯誤)。投入工作后,R1D1試圖推斷其行為的各種(很多是不必要的和無關的)后果。很快,炸彈在它無憂無慮的思考期間爆炸了,R1D1面臨了和它的前身一樣的命運。Robot Relevant Deducer R2D1是第三個改進的設計,嘗試使用一個詳盡的列表式的方法來將其行動的后果歸類為“相關的”和“不相關的”,即一個找出其行動的所有可能后果的徹底的方法。不幸的是,炸彈爆炸,Robot Relevant Deducer R2D1也被炸成了碎片。這三個機器人都遭受了“框架問題”,并且都沒有辦法找出是什么與手頭問題相關。

圖2.32 丹尼特的框架問題例證。機器人進入一個房間獲取電池來為自己供電,并同時避開一個定時炸彈
在這三個機器人中,隨著知識量的增加,讓機器人推斷相關信息以解決手頭問題的代碼量也會增加。隨著這些機器人的編程中被加入更多的代碼量和似乎更多的理性意識,它們的效率也隨之降低。即編碼和信息最簡單的R1至少能推著手推車走出來,這是R1D1和R2D1沒能做到的,它們在推斷各種行動的后果時就已經被炸成碎片了。R1D1和R2D1陷入了不知何時停止思考的困境,或者說陷入了哈姆雷特問題。框架問題可以被看作工程領域的哈姆雷特問題。丹尼特通過這個例證說明了框架問題可能看起來像是一個糟糕的設計、故障、硬件不良和編碼錯誤的問題,但與其說這是一個技術或設計上的缺陷,不如說這是一個認識論問題,是人類常識推理的后果,是“心理現實”的后果,這些情境都是編程代碼無法完全實現的。
當試圖使用符號表征[269]為機器人環境的可行描述找到足夠數量的公理時,框架問題出現了。該術語來源于“幀”技術,用于舞臺角色或動畫的開發,其中移動部分和角色被疊加在“幀”上,通常背景不會改變。一個框架或一個機器人的環境需要大量的語句來進行描述,但其中很多語句在最常見的交互中幾乎沒有變化。因此,就相對運動而言,框架問題被描述為物體的空間定位,在機器人的運動過程中,大致不會移動。從而機器人行動的構成必須聯系上在整個事件中保持靜態的對象。
在一個進一步理解框架問題的例證中,如圖2.33所示,如果即便最微不足道的事情也被提及的話,兩個朋友之間的對話可以很容易變得很奇怪。然而值得注意的是,看似荒謬的想法,如Joe的酒吧在晚上7點前會保持存在、對話中的兩個朋友之一的死亡以及被隕石擊中的災難,在戰爭、叛亂和可怕的情況下會有意義。所以無論這些看起來多么荒謬,它們都不能被先驗地排除在外。在這樣的對話中發現,人類的常識和已知的社會規范會決定理性,而這很難通過人工智能來復制,因此在機器人中很難實現。

圖2.33 對話變得奇怪。現實世界情境中如果有太多表征,“情境獨立”表征會失效。如果一方開始引入非常低概率的事件,簡單的對話就會變得奇怪。改編自French和Anselme[112]
框架問題是對確定在給定的情況下哪些信息與推理相關、哪些信息可以忽略的探索。它是人工情境智能設計中的一個問題,在人工智能和機器人的歷史上有著非常特殊的地位。著名的人工智能哲學家Dreyfus和Searle認為框架問題是人工智能的終結。要扭轉局面,一個明顯的解決方案是將每個事件與概率關聯起來。然而,概率知識在現實世界情境中幾乎沒有什么用處,在危險的情境甚至會完全失效,就像丹尼特的三個機器人一樣。此外,在機器人傳感器上近乎實時更新的概率建模計算代價太高[43],最多只能限于簡單的世界。
2.6.3.1 表征——萬惡之源
框架問題是由符號表征和推理規則引起的。它不是啟發式的問題,而是一個建模問題,就像一個算法問題解決者并不總是提前知道下一步要做什么,而且做詳盡的列表也不會得出解決方案。框架問題也不是內容的問題,而是形式的問題。可以看出,信息等價系統在效率上確實有很大的差異。因此,表征性知識可能適用于簡單的場景,但可能不適用于現實世界問題。框架問題更不是數據結構、編程語言和算法的問題,而是一個哲學問題。它出現在信息未封裝的過程,對于可能與之相關的信息不存在先驗限制。因此,非常低層次的認知過程將不受框架問題的影響,當然這也是公平的,因為它們能完成的任務也會少得多。綜上所述,解決這一難題的方法有:
1.無表征——基于行為的方法:不使用表征性知識,而是采用一個反射性方法。基于符號的系統嘗試模擬一個絕對可知的世界。與那些作用于行動的即時性的方法不同,無表征是來自生物和自然世界的靈感。這個方法適用于螞蟻、螃蟹、蟑螂等,而更高層次的認知,如人類的認知,眾所周知是基于一個非直接存在的環境的表征來構造思想,從而構建行動。
2.聯結主義——神經網絡方法:聯結主義方法,如人工神經網絡(ANN),能免受框架問題的困擾,因為ANN是通過固定的權重對從訓練數據獲取的知識進行編碼,從而讓表征永遠不會影響到模型。然而,由于缺乏訓練數據,以前沒有進行過的任務無法使用ANN建模,因此確實會遇到雞生蛋還是蛋生雞的問題。
3.情境獨立表征——傳統人工智能:傳統方法的靈感來自一種假設,即世界可以用大量的符號的意義來表示,這些符號代表世界上的對象和行動,并通過一系列規則來操縱這些符號。由于提前了解世界和規則通常是不太可能的,這個方法依賴于類推——將一個對象與另一個對象聯系起來,即一個見過立方體但沒有見過長方體的智能體將能夠聯系上自己的經驗將其作為立方體的擴展。然而,考慮到世界的動態性,這樣的方法并不能走得很遠。此外,隨著符號和規則數量的不斷增加,智能體的建模無法實現實時響應,可能會面臨計算能力上的挑戰。
4.情境依賴表征——適用于簡單場景:研究者嘗試了開發情境依賴的方法。在非常簡單的場景中,基于符號和基于規則的方法會運行得很好。例如PENGI[4]軟件仿真(如圖2.34所示)中的一個非常簡單的世界模型,在一個二維迷宮中,一只企鵝試圖在各種規則的限制下逃脫被蜜蜂咬傷。Agre與Chapman將其作為一個情境依賴表征的嘗試開發。在PENGI中,二維“世界”由企鵝、蜜蜂和冰塊組成。冰塊以方形塊表示,可以滑動。企鵝必須躲避蜜蜂的蜇咬,它可以通過躲在冰塊后面實現這一點。蜜蜂可以通過蜇咬企鵝或者蜇咬企鵝直接藏身的冰塊而殺死企鵝。企鵝可以通過踢蜜蜂碰巧在后面的冰塊來進行反擊。在PENGI中,所有的事件都是由情境決定的,它使用標引的功能實體將對象編入操作中。沒有像“蜜蜂”或“殺”這樣的實體,而只有“正在推動的冰塊”。因而也就沒有了框架問題。然而對于更復雜的世界來說,這樣的標引的功能實體數量會不斷增加,變得不太可能去處理。

圖2.34 PENGI。通過多種基于規則的策略建模的一只企鵝和一只蜜蜂。情境依賴方法在最小的二維方塊世界中運行得很好
情境獨立表征似乎非常適用于人工智能,但未能滿足具身人工智能的動態需求。對于情境依賴方法,如PENGI,主要有兩個思想流派:一派認為像PENGI這樣的模型能真正應用于更復雜的世界,而另一派則考慮轉到一個無表征、更像是一個感覺行動的領域。對人類進行的種族志研究表明,在計劃階段和執行階段之間沒有明確的界限,在不了解領域知識和計劃目標的情況下,計劃通常也是不可執行的。
1989大辯論
關于通用規劃最引人入勝的辯論之一是在AI Magazine 1989年冬季版上的四篇文章上發生的。辯論的雙方是Ginsberg(反對通用規劃)與Chapman和Schoppers(支持通用規劃)。
1.在第一篇文章中[124],Ginsberg對通用規劃提出了批判,部分論點是基于計算復雜性的。他還論證了使用通用規劃是不切實際的,因為其大小會隨域狀態數量的增長而呈指數增長。也就是說在類似于真實世界的復雜世界中,機器人的感覺-運動對數量會激增。Ginsberg認為通用規劃沒有把真實世界固有的不可預測性考慮進去。然而最有趣的是,Ginsberg指出這種繪制地圖的方法可能對移動等“預測活動”很有效。
2.在第二篇文章中[67],Chapman試圖用BLOCKHEAD中的例子來回應Ginsberg的批判。BLOCKHEAD是一個類似PENGI的系統,它可以安排字母塊來拼寫出F-R-U-I-T C-A-K-E,這樣就解決了所謂的水果蛋糕問題(Fruitcake Problem),因此也就堅持了通用規劃的方法。Chapman展示了利用可視化標記,水果蛋糕問題是可以處理的。
3.在第三篇文章中[293],Schoppers進一步用一些論點反駁了Ginsberg的批判。他主張使用標引的功能變量,這在簡單的、類似PENGI的世界中非常有效。他還支持在反應式規劃中使用程序緩存,在這種情況下,只要完成幾次任務,該任務就會成為智能體固有的特性,并且還可以在沒有任何實際規劃的情況下完成。
4.在第四篇文章中[123],Ginsberg回應了Chapman和Scho-ppers。他堅持認為由于現實世界中有太多可能的變化,反應式規劃無法捕獲代理的期望行為,而且反應式規劃無法通過更多的計算資源來提高性能,因此在智能行為的開發中存在明顯的缺陷。在對Schoppers的緩存規劃的回應中,Ginsberg提出了這樣的問題:何時該緩存規劃,緩存的規劃何時與特定的行動相關,是否可以對緩存的規劃進行調試和重新構造,以便將它們在運行時的有用性擴展到最初設計的情況之外等,這使得Schoppers使用緩存的論點至少說起來是不完善的。
Ginsberg的論點被證明是正確的,通用規劃確實非常適用于移動,在ND圖導航中,五種(或ND+的六種)狀態完全定義了智能體在二維平面上導航時遇到的所有可能情況。
通用規劃是Nilsson、Kaelbling、Schoppers、Agre和Drum-mond的研究的匯合點,這個術語是由Schoppers創造的。它包括制訂一項計劃,其中對智能體可能遇到的所有情況進行分析并制成表格,而智能體所要做的就是通過其傳感器探測情況然后參考該表。
然而,表2.1所示的三個困難本身都無法解決,它們只能被最小化或避免。同樣,對于低級別行為,如二維導航等,這些問題都是最小的。它們對于更高層次的認知過程是不利的,在朝類人認知前進的過程中,必須要有辦法克服這些困難,一個簡單的ANIMAT模型是不夠的。
表2.1 如何克服三個困難

[1] 《星球大戰》的參考確實很有說服力,但更多是一種推測,即R2D2可能完成了在取出電池的同時避開定時炸彈,框架問題得到了解決。
[2] 莎士比亞的戲劇《哈姆雷特》是一部“英雄是傻瓜”流派主題的悲劇。作為丹麥王位的繼承人,哈姆雷特王子是劇中的主角。他冷靜且善于思考,不按本能行動,而是非常努力地確保每一個行動都是預先考慮好的。他的角色被進一步打上了為演示可證明性的徒勞嘗試的標簽,各種質詢也無法得到肯定的回答。哈姆雷特為他父親被殺而復仇的抗爭造成了他的憂郁和與自己理智的斗爭。在此背景下,丹尼特的第三個機器人R2D1在被悲劇地炸毀之前,正處于一個像哈姆雷特一樣的思維流中。
[3] 無表征方法在人工智能社區遇到了強烈的反對。可以追溯到20世紀80年代中期,在大量的文獻中這些工作被貼上了矛盾修飾法的標簽。James Firby的博士論文常被認為是一個分水嶺,因為它將表述從“反應式規劃”變成了“反應式執行”。