1.3 人工智能安全治理
當前,人工智能技術已經在科學技術、經濟與金融、工業與農業、軍事與國防、教育與體育等方面獲得廣泛應用,并且暴露出大量安全風險。近年來,生成式人工智能的典型代表 ChatGPT 的快速發展給國家與社會安全、公民的隱私與人身安全、社會法制與倫理道德帶來新的風險與挑戰。以下從技術標準、政策、法律法規等方面介紹人工智能發展領先國家地區的有關情況。
1.美國
人工智能安全立足于美國的國際領導力和國家安全戰略。2018年5月10日,美國宣布成立人工智能國家安全委員會,直接向白宮匯報并且由其負責,統籌應對安全領域的挑戰。2021年,《美國創新與競爭法案》明確把人工智能列為提高美國國家競爭力和強化國家安全的關鍵技術。為了提高美國國家競爭力、強化國家安全,2021年,美國人工智能國家安全委員會又從機構、資源、技術、政策和措施等多個方面制定戰略規劃。美國人工智能安全政策的主要特點如下。
(1)建立應對人工智能安全問題的統籌機構——美國人工智能國家安全委員會,應對人工智能安全挑戰,該機構直接向白宮和國會匯報。
(2)重視人工智能的發展對國防、軍事、情報等領域的重要推動作用。
(3)將人工智能技術納入國家發展和國際博弈戰略,力圖使其對美國的領導能力發揮重要保障作用。
(4)在國家權力機構的不同層面(如聯邦政府、州和地方政府)構建法律監管體系,對人工智能系統的設計、應用等環節進行監管[68]。
(5)高科技企業、行業協會和各種社會組織共同努力,加強在人工智能治理、倫理、安全等方面的相關政策法規建設,具體如表1-1所示。
表1-1 美國人工智能安全政策法規

(續表)

2.歐盟
歐洲國家非常重視價值觀與人工智能技術的協調及其在人工智能技術中的體現,重視人工智能對政治、經濟、社會體系的影響和道德倫理的沖擊。歐盟人工智能高級別專家組,隸屬歐盟委員會,致力于使歐洲國家的人權、自由等價值觀體現在人工智能技術與倫理體系中[76],具體如表1-2所示。德國、法國等歐盟成員國家,以人工智能產業安全發展、監管規制的法律制定為主要側重點;英國重視機器人、智能系統、自動駕駛應用等人工智能深度應用場景下的數據隱私、技術倫理和安全等問題。
表1-2 歐盟人工智能安全相關政策法規

資料來源:惠志斌.《信息安全與通信保密》。
3.日本、韓國、新加坡
日本、韓國、新加坡關注安全領域偏少,這些國家更多地從智能化轉型和新興技術應用等發展的維度來看待人工智能問題[77]。韓國更重視在智能機器人場景中的人工智能安全,而新加坡、日本更關注人工智能的倫理原則和治理規范。
4.中國
我國非常重視人工智能技術發展及伴生的安全問題,強調必須高度重視人工智能技術可能帶來的安全風險挑戰,加強技術政策的前瞻預防與約束引導,最大限度地降低風險,確保人工智能安全、可靠、可控、持續發展;強調建立健全保障人工智能健康發展的法律法規、制度體系、倫理道德體系。我國政府在2017年7月頒布《新一代人工智能發展規劃》,設立了三步走的戰略目標:到2020年人工智能總體技術和應用與世界先進水平同步;到2025年人工智能基礎理論實現重大突破,部分技術與應用達到世界領先水平;到2030年人工智能理論、技術與應用總體達到世界領先水平,成為世界主要人工智能創新中心。在人工智能技術應用的安全問題上,我國政府予以高度重視。《新一代人工智能發展規劃》明確指出,在促進人工智能發展的同時,關注人工智能數據安全風險,提出“強化數據安全與隱私保護權力,為人工智能研發和廣泛應用提供海量數據支撐”,以及“促進人工智能行業和企業自律,切實加強管理,加大對數據濫用、侵犯個人隱私、違背道德倫理等行為的懲戒力度”。中國人工智能產業發展聯盟制定了《人工智能行業自律公約》,截至2022年5月,已有約100家單位簽署[78]。在強人工智能領域,與歐美相比,我國政府在政策層面更重視強人工智能可行性技術路線的探索研究,在對強人工智能安全與健康發展的未來布局中,要提前做好技術、倫理方面的統籌戰略規劃。
目前,人工智能主要面臨技術和應用兩方面安全風險。一方面,人工智能技術主要面臨算法、模型、數據安全、軟硬件平臺等類型的風險;另一方面,隨著人工智能應用的不斷普及,其給社會發展、倫理道德、人身安全等帶來的風險不斷加劇。需要從技術、法制、倫理、管理規范等不同角度加強人工智能安全規范與保障措施。適應人工智能安全需求,提升人工智能算法和應用的環境安全水平,強化人工智能安全管理能力,保障人工智能在安全的環境下快速可持續良性發展。