官术网_书友最值得收藏!

深度學習帶來的問題

任何強大的技術都是一把雙刃劍。比如電力可以為人類社會的日常設施提供動力,但如果人直接碰觸電,就可能喪失性命。再如互聯網讓一切變得更加方便,但也大幅降低了人對事物的專注力。那么,深度學習在給人類帶來便利的同時,又會帶來什么問題呢?

第一個問題是,深度學習會使AI比你更了解你自己。雖然好處顯而易見──AI可以向你推薦以前沒有聽說過的商品,可以精準地為你推薦伴侶或者朋友,但事情的另一面是,AI也會掌握你的缺點——你有沒有過這樣的經歷:本來只想打開抖音看一個視頻,卻刷了3個小時還停不下來?在嗶哩嗶哩上無意中點擊了一個鬼畜視頻,然后就源源不斷地接收到更多的鬼畜內容?某天晚上不小心在網絡電臺點播了一個恐怖故事,之后的每個深夜都會定時被恐怖故事驚擾?

奈飛平臺2020年的高分紀錄片《智能陷阱》就展現了AI個性化推薦如何讓人們在無意識中被操縱,使AI應用程序背后的利益方達成目的。正如在紀錄片中出鏡的谷歌前產品設計師、設計倫理學家特里斯坦·哈里斯所說的那樣,你在手機上的每次點擊都會激活價值數十億美元的超級計算機,它會根據從20億用戶的行為中學習到和提取到的經驗,對準你的大腦,企圖左右你的思維。對于用戶來說,對個性化推薦上癮的行為會導致惡性循環。AI應用程序為用戶提供符合其特征的個性化推薦,使用戶不斷接收到其所偏好的信息,然后就不知不覺逐漸被困在“信息繭房”里,拒絕接收不符合其固有認知的異質信息。應用程序根據用戶接收信息的行為特征,向用戶推薦更多的其所偏好的同質信息,從而使用戶陷入“樂此不疲”的快感,難以自拔,無法戒掉這些應用程序。這種機制對于用戶來說是惡性循環,但對那些把這種機制當作印鈔機的大型互聯網公司來說,卻是良性循環。

這部紀錄片還提出了一種觀點:如果人們對AI的個性化推薦上癮,這類應用程序就可能縮窄人們的視野、扭曲事實的真相、加劇社會的分化,對人類的情緒、心理健康、幸福感等方面造成負面影響。

從技術層面來說,上述問題的關鍵在于目標函數的單一性,以及AI專注于優化單一目標函數所帶來的不利的外部效應——如今,AI所訓練的目標函數通常針對的是單一目標,例如賺錢(或者更多的點擊量、廣告),因此,AI有可能過度熱衷于企業的目標績效,而不考慮用戶的福祉。

《一葉知命》中的象頭神保險公司承諾盡量降低保費,由于保費的數額與投保人的重大疾病索賠概率高度相關,“金色小象”會給用戶提供養生建議,讓用戶改善自己的健康狀況。從表面來看,保險公司和投保人的目標似乎是一致的,然而在故事中,象頭神保險公司的AI系統計算出“高種姓”的納亞娜和“低種姓”的男生薩赫杰之間的戀愛關系會增加納亞娜一家將來的保費,所以不斷試圖阻撓這對年輕人相戀。象頭神保險公司的AI系統經過海量數據的訓練,能夠發現事物之間的因果關系,例如基于同一個目標函數,通過分析數據,發現吸煙會導致患病的風險升高,于是說服用戶戒煙,這是好事情。但另一方面,AI系統還發現,和“低種姓”的薩赫杰在一起會拖累納亞娜,這就導致了AI系統嘗試殘忍地拆散這對情侶,甚至可能因此而進一步加劇社會的不平等。

那么,如何才能解決這個問題呢?一種通用的方法是讓AI的目標函數變得不再單一。例如既要降低保費,又要維護社會的公平;再如對于權衡用戶花在社交網絡上的時間這個問題,特里斯坦·哈里斯建議把“用戶在社交網絡上花費的有意義的時間”也作為衡量標準之一,而不是僅限于“用戶在社交網絡上停留的時長”,通過同時考量這兩者,制定出混合型的復雜目標函數。AI專家斯圖爾特·拉塞爾(Stuart Russell)提出了另一種解決方法,他主張在設計目標函數時需要考慮人類的福祉,并讓人類更大程度地參與數據標注和目標函數的設計,比如我們能否建立關于“更大的人類利益”的目標函數——諸如“人類的幸福”之類的目標函數?能否讓人類來定義和標注什么是幸福?這方面的嘗試,將在第九章《幸福島》中做詳細的闡述。

所有這些方法,不僅需要對AI的復雜目標函數展開更加深入的研究,而且需要對“所花費的有意義的時間”“維護社會公平”“幸福”等概念進行量化。不過,這些方法會使企業的盈利變少,那么如何激勵企業讓步做正確的事情呢?一種方法是制定法規,對某些傷害人類福祉的行為給予處罰;另一種方法是對企業承擔社會責任的行為進行評價,比如目前ESG(1)得到了越來越多的來自商業界的關注,或許負責任地使用AI也可以成為未來ESG的一部分,以鼓勵企業的正面行為;還有一種方法是建立第三方監管機構,監督企業對技術是否有不當使用,例如追蹤產品中出現虛假新聞的比例或AI算法導致歧視的訴訟案件數量,并向企業施壓,要求企業把考慮用戶的福祉納入技術中;最后,特別困難但又特別有效的一種方法是,確保AI技術持有者的利益與每個用戶的利益達成100%的一致(參見第九章《幸福島》)。

深度學習所帶來的第二個問題,就是會使不公平和偏見得以延續。AI完全基于數據優化和結果優化進行決策,理論上應該比大部分人更加不受偏見的影響,但是,其實AI也可能產生偏見。比如,倘若用于訓練AI的數據不夠充分、全面,對某些群體的覆蓋率不足,那么就會產生偏見。曾經有一家著名公司的招聘部門發現,因為訓練樣本中女性的數據不夠,其所使用的AI軟件不看好女性候選人。再如,倘若訓練數據全部收集自一個有偏見的環境,那么數據本身就可能帶有偏見。微軟的Tay對話機器人和OpenAI的語言模型GPT-3,都生成過歧視少數群體的言論。

最近有研究表明,AI可以基于面部微表情精準地推斷一個人的性取向,這種AI應用就可能導致不公平和偏見。這與《一葉知命》中薩赫杰所遭遇的情況類似,薩赫杰的“低種姓”并不是直接標注給AI系統的,而是AI系統通過歷史數據和個人特征推斷出來的。換句話說,薩赫杰并沒有被直接貼上“達利特”的標簽,但因為他的數據和特征與“達利特”高度相關,所以象頭神保險公司的AI系統向納亞娜發出警告,并且阻撓她與薩赫杰在一起。盡管這些偏見和歧視并非出于AI的本意,但是仍會造成極其嚴重的后果,而且如果把帶有偏見的AI應用于醫學診斷或者司法判定,那么其風險將無法想象。

因此,我們需要全力以赴應對AI的公平性問題和偏見問題。第一,使用AI的公司應該披露AI系統被用在哪里以及使用目的。第二,AI工程師應該接受一套職業道德準則的培訓——類似醫學生宣誓用的“希波克拉底誓言”。這樣,工程師才能深刻地理解,他們所從事的職業使他們承擔了把事關倫理道德的重要決策嵌入產品之中的任務,這是足以改變他人人生軌跡的事情,工程師有責任承諾維護用戶的權益。第三,工程師使用的AI訓練工具應該嵌入嚴格的測試機制,以對基于樣本比例不公平的數據訓練出來的計算模型發出警告或徹底禁止生成模型。第四,應該制定AI審計法。這與傳統的財務審計或稅務審計類似,AI公司被舉報后,政府需要派遣專家對其進行審計。如果一家公司在AI的倫理道德或者公平性方面多次被投訴,它的AI算法就必須接受審計,以檢查、確定其是否存在不公平、偏見或隱私保護方面的漏洞。

深度學習的第三個問題,就是它的不可解釋性。人類總是能解釋人類決策背后的原因,因為人類的決策過程本身比較簡單,是基于經驗積累得出的規則。可是,深度學習的決策基于復雜的方程組,這種方程組有數千個特征和數百萬個參數,深度學習決策的“理由”,就是在一個有數千個維度的“空間”里經過海量數據訓練而得出的數學方程組,要把這個方程組精確地簡化成一個人類可以聽得懂的“原因”,基本上是不可能的。但是,無論是出于法律的考量,還是出于用戶的期望,許多關鍵的AI決策都需要給出一個解釋。為了解決這一問題,人們目前正在進行許多相關的研究,這些研究試圖簡化、總結AI復雜的邏輯過程,或者發明具有可解釋性框架的AI算法,從而使AI變得更加“透明”。

上面所提到的這些深度學習所帶來的問題,已經引起了公眾對AI的嚴重不信任。不過,所有的新技術都有缺點,而,歷史表明,許多技術的早期漏洞都將隨著時間的推移而得到糾正或被徹底解決。大家可以回想一下,當年防止人類觸電的斷路器,還有查殺電腦病毒的殺毒軟件,就是很好的例子。因此我相信,未來通過改進技術和完善政策法規,將會解決深度學習(乃至AI)所帶來的大部分問題,比如不公平、偏見、不透明。然而重要的是,我們必須追隨納亞娜和薩赫杰的腳步——讓人們意識到這些問題的嚴重性,然后動員人們為解決問題而努力。

(1) 即英文Environmental(環境)、Social(社會)和Governance(公司治理)的縮寫。

主站蜘蛛池模板: 武强县| 哈巴河县| 延庆县| 邹城市| 泾川县| 旬阳县| 祥云县| 绥江县| 喀什市| 礼泉县| 贡嘎县| 阿坝县| 庆云县| 绥中县| 泗洪县| 铁岭县| 隆尧县| 新和县| 鹤山市| 昔阳县| 遵化市| 洛南县| 怀宁县| 肃北| 习水县| 永德县| 雅安市| 上栗县| 涞水县| 全椒县| 宣恩县| 西宁市| 柳河县| 江安县| 威宁| 喀什市| 闵行区| 汉源县| 红河县| 江口县| 马尔康县|