人工智能治理需正視“可容忍的風險”
在人工智能發展如火如荼的背景下,《人工智能安全治理框架》1.0版的發布可謂恰逢其時。不過,若要這部軟法發揮最大效用,可能還需要再問三個問題。
責任編輯:侯明輝
在基辛格百歲壽辰前夕,他接受了《經濟學人》雜志長達8小時的訪談。在這位期頤老人最后一次訪談中,他反復提及對人工智能的擔憂。作為可能是歷史上最重大、影響最深遠的革命之一,人工智能的興起不但會挑戰人類的認知能力和理解世界的方式,它也在改變著經濟模式、社會系統和權力結構,增加全球沖突的不可預測性和復雜性。
這并非基辛格的杞人憂天。事實上,隨著美國《關于安全、可靠、可信地開發和使用人工智能的行政命令》、歐盟《人工智能法》等規范的出臺,人工智能的安全治理已經成為各國高度關注并已然付諸行動的議題。在此背景下,全國網絡安全標準化技術委員會于9月9日發布的《人工智能安全治理框架》1.0版可謂是針對人工智能安全問題提出的中國方案。
《人工智能安全治理框架》1.0版以風險治理為理念,立足于人工智能技術特性,首先提出了包容審慎、確保安全;風險導向、敏捷治理;技管結合、協同應對;開放合作、共治共享等四項原則。進而遵循風險識別、技術應對、綜合治理的邏輯,針對人工智能系統設計、研發、訓練、測試、部署、使用、維護等生命周期各環節的安全風險,要求模型算法研發者、人工智能服務提供者、重點領域使用者各司其職,在訓練數據、算力設施、模型算法、產品服務、應用場景等方面積極采取技術應對措施的同時,還應與政府部門、行業協會、社會組織一道,共建多方參與的人工智能安全風險綜合治理制度。
可以預見,《人工智能安全治理框架》1.0版的實施,將為培育安全、可靠、公平、透明的人工智能技術研發和應用生態,促進人工智能的健康發展和規范應用,提供基礎性、框架性技術指南。同時,也有助于在全球范圍推動人工智能安全治理國際合作,推動形成具有廣泛共識的全球人工智能治理體系,確保人工智能技術造福于人類。
在人工智能發展如火如荼的背景下,《人工智能安全治理框架》1.0版的發布可謂恰逢其時。不過,若要這部軟法發揮最大效用,可能還需要再問如下三個問題。
如何準確評估人工智能的風險?
與之前《生成式人工智能服務安全基本要求》(TC260-003)聚焦于語料安全和模型生成內容安全不同,《人工智能安全治理框架》1.0版從內生安全風險與應用安全風險兩大方面,全面梳理了模型算法安全風險、數據安全風險、系統安全風險、應用安全風險等風險,并逐一描述和細化了各種風險表現。
不過,羅列風險只是第一步。根據風險規制的基本原理,風險問題包含三個先后相繼的問題:有什么樣的風險?發生風險的可能性有多大?可能的后果是什么?實際上,只有回答了后面兩個問題,才能準確評估人工智能風險的實際大小,也才能發展出更可操作的風險治理措施。正因如此,未來有必要在識別風險類型的基礎上,找到穩健且可驗證的可靠指標與衡量方法。由于人工智能風險的復雜性,在國家標準層面,應始終堅持科學原則(scientific principle),充分考慮評估的可信度、適用性,確保風險評估的結果是由確實的證據和科學的方法推導而出,盡可能排除政治介入和民粹干擾。
如何為人工智能的風險排序?
評估風險是為了應對風險。但應對風險的資源永遠是稀缺的,因此一個有效的風險回應機制是認識到風險并非都是同等的,從而根據人工智能風險類別的差異性,預先構建規制工具箱并準備相應工具,以提升規制的針對性和精準性,從而更有效的分配資源,而這正是敏捷治理的意義。
歐盟《人工智能法》將風險分為不可接受風險類、高風險類、有限風險類、最小風險類四個級別。每個類別適用不同程度的監管要求。高風險的人工智能系統須遵守更嚴格的合規要求,而構成不可接受風險的人工智能系統則被禁止。例如,高風險的人工智能就包括用于生物識別和分類、關鍵基礎設施管理、教育和職業培訓、就業、員工管理和獲得自營職業機會、獲得和享受基本私人服務及基本公共服務、執法活動、移民和邊境控制管理、司法和民主程序的人工智能。
在仔細評估各種風險后,各方就需要對特定使用環境中最嚴重的人工智能風險,給予最緊迫的優先級和最全面的風險管理流程。如果存在迫在眉睫、嚴重傷害正在發生或存在災難性風險,那么相關開發和部署應立即停止,直到風險得到充分管理。實際上,我國兩部人工智能的專家建議稿均認識到人工智能風險分級的重要性?!度斯ぶ悄苁痉斗?.0(專家建議稿)》提出:國家人工智能主管機關根據人工智能在經濟社會發展中的重要程度,以及一旦遭到攻擊、篡改、破壞或者非法獲取、非法利用,對國家安全、公共利益、社會穩定、環境保護,或者個人、組織合法權益、經濟秩序造成的危害程度確立人工智能產品、服務負面清單,開展人工智能負面清單內產品、服務的研發、 提供活動前,應當取得國家人工智能主管機關的行政許可?!度斯ぶ悄芊ǎ▽W者建議稿)》建議就“對個人的生命、自由、人格尊嚴等人身權益有重大影響的人工智能,以及在算力、參數、使用規模等方面達到一定級別的基礎模型”等“關鍵人工智能”開展特殊管理。
展望未來,如何為人工智能的分級管理提供可行方案,可能是全國網絡安全標準化技術委員會亟待解決的又一“關鍵問題”。
如何劃定人工智能風險的容忍程度?
“無危則安,無缺則全”,在中國傳統觀念中,“安全”往往意味著沒有危險且盡善盡美。然而,在當今風險社會(risk?society)中,這種絕對的安全觀念已經不合時宜。正如德國社會學巨擘盧曼所洞見的:我們生活在一個除了冒險別無選擇的社會。無時不在、無處不在的風險彌散在周圍,更重要的是,我們作為集體或個人做出的每個決定、每種選擇、每種行動同時也在制造著新的風險。這從反面證明了風險的絕對性:人們用于應對風險的規制方式,本身就是滋生新型風險的罪魁禍首。由于現代社會前所未有的復雜與抽象,無論是冒險取向還是安全取向的制度,都可能蘊含運轉失靈或決策失誤的風險。這一規律早已被習近平總書記在2016年“全國網絡安全和信息化工作會議”所指明:網絡安全是動態的而不是靜態的,開放的而不是封閉的,相對的而不是絕對的,因此一定避免不計成本追求絕對安全,那樣不僅會背上沉重負擔,甚至可能顧此失彼。
同樣,試圖完全消除人工智能的風險是對安全不切實際的期望,這不但可能浪費稀缺資源,更嚴重的是,可能導致不必要地犧牲了發展。在全球人工智能突飛猛進的背景下,不發展可能就是最大的不安全。為此,我們有必要借鑒英國金融服務局“合理期待”(Reasonable?Expectations)的規制經驗,與其說“零失誤”的安全是人工智能治理的目標,毋寧說是“可容忍的風險”才是我們的目標。
所謂“可容忍的風險”,就是社會各方為了獲得人工智能的利益而愿意承擔的風險。這一風險的閾值固然受到人工智能的技術發展、應用場景、社會規范的影響,但歸根到底,它有賴于企業、學界、技術專家、社會公眾和政府部門就如何實現人工智能風險與收益的平衡達成共識。作為體現行業聲音的規范指南,我們期待未來的《人工智能安全治理框架》2.0版能夠明確提出適用于特定領域、行業的可容忍風險標準,并在此基礎上,通過一個可行、漸進和包容的“公共討論議程”,遵循多利益相關方的商談邏輯和議題形成程序,最終凝聚“可容忍的風險”的共識。
毫無疑問,作為顛覆性的科技革命,人工智能帶來的挑戰也是顛覆性的。但我們不能沉湎于人工智能風險的恐懼中,而應積極和自信地構建以人為本的人工智能,寬容和容忍科技發展的不成熟和不安全。因為,只有為創新提供最大的空間,才能實現人工智能造福人類的偉大目標。
? (作者系對外經濟貿易大學數字經濟與法律創新研究中心主任)
校對:趙立宇