●一、全球人工智能監管格局●
目前,立法機構對監管人工智能的興趣日益濃厚,根據斯坦福大學以人為本人工智能研究所(Stanford HAI)最近發布的一份報告,從2016年到2023年,32個國家通過了148項有關人工智能的法律。2023年,48個國家的立法機構在聽證會和會議上提到了這一術語。此外,2024年7月13日,《人工智能法案》在《歐盟官方公報》上公布。
●二、新出現的人工智能監管方法●
全球人工智能治理框架由不同的利益相關者和機構安排組成,規定了如何開發和使用人工智能系統。它們包括有約束力(如條約、合同)和無約束力的文書(如指南、標準)。例如,聯合國教科文組織的《人工智能倫理問題建議書》,旨在確保人工智能治理促進負責任、合乎倫理和尊重人權的人工智能系統開發和采用。此外,聯合國大會最近通過了兩項有助于人工智能全球治理建設的重要決議:2024年3月21日《抓住安全、可靠和值得信賴的人工智能系統帶來的機遇,促進可持續發展》決議和2024年7月1日《加強人工智能能力建設國際合作》決議。
下面介紹受人工智能治理框架影響的9種監管方法。在對人工智能進行監管時,可以將不同的方法結合起來。大多數人工智能法規都綜合使用了這幾種方法。
2.1 基于原則的方法
基于原則的方法為利益相關者提供了一套基本原則,為通過合乎道德、以人為本和尊重人權的程序開發和使用人工智能系統提供指導。例如聯合國教科文組織的《人工智能倫理問題建議書》和聯合國經濟合作與發展組織(OECD)的《人工智能原則》。基于原則的方法并不對公共機構、私人組織或個人規定具體的義務或限制,也不規定不遵守的后果。法律主體可自行判斷如何根據原則調整自己的行為。然而,基于原則的方法可以與其他規定了具體的義務和權利的監管方法相結合。
2.2 基于標準的方法
基于標準的方法將國家的監管權力下放給標準制定機構,這些機構可以是公共、私營或混合機構。這種方法使專業和行業組織可直接或間接參與制定有關程序和活動的技術標準。人工智能標準中心(AI Standards Hub)已經確定了近300項人工智能相關標準,這些標準涉及眾多領域,如人工智能采購、人權、以人為本的設計、人工智能的發展和應用。
2.3 基于實驗主義的方法
在電信和金融等不同經濟部門以及數據保護、隱私法和公共采購等橫向立法中,已采用靈活制定的監管方法。監管沙盒(Regulatory Sandboxes)的主要目標是為公共和私營組織創造測試新商業模式的空間。最近,這種方法也被用于人工智能監管。如歐盟的《人工智能法案》,該法案建立了人工智能監管沙盒的創建框架。此外,英國的《支持創新的人工智能監管方法》提案還包括開發沙盒和測試平臺。
2.4 基于促進和扶持的方法
基于促進和扶持的方法旨在促進和營造一種環境,鼓勵私營和公共部門開發和使用負責任的、符合道德和人權的人工智能系統。例如,在這方面,聯合國教科文組織制定了準備情況評估方法(RAM),旨在幫助各國了解自己在為其所有公民實施人工智能方面的準備程度,并在此過程中強調需要進行哪些體制和監管變革。
2.5 基于調整現有法律的方法規則
一些地區傾向于調整特定部門的規則(如衛生、金融、教育、司法)和橫向規則(如刑法、數據保護法、勞動法),而不是發布人工智能法案。這種方法的一個潛在好處是,它允許立法者根據他們對人工智能的了解,討論并逐步改進監管框架。適應橫向規則的一個例子是哥倫比亞參議院的第225/2024號法案,該法案將修改《刑法典》,以加重對人工智能系統(例如,通過深度偽造)冒名頂替罪(the crime of impersonation)的處罰。
2.6 基于信息透明度的方法
要使用這一方法,需采用透明披露的基本信息。披露信息的范圍可包括人工智能系統生命周期的各個方面,包括模型是如何開發的、使用了哪些數據對其進行訓練、系統如何運行、系統的性能、系統對其支持的程序有哪些影響、人們如何對根據系統輸入信息做出的決定進行質疑等等。例如,歐盟《人工智能法案》第50條規定了人工智能系統提供商的透明度義務,旨在確保與自然人直接互動的人工智能系統的設計和開發方式應使相關自然人知曉他們正在與人工智能系統互動。該條款還規定了用戶的義務,如果部署的人工智能系統“生成或處理構成深度偽造的圖像、音頻或視頻內容,應披露該內容是人工生成或處理的”或“生成或處理以向公眾通報公共利益事項為目的而發布的文本,應披露該文本是人工生成或處理的”。
2.7 基于風險的方法
基于風險的方法旨在根據各方對監管機構實現其目標所帶來的風險的評估,確定監管行動的優先次序。這種監管方法已在不同部門實施,包括環境部門、稅收部門、食品安全部門和消費者保護部門。基于風險的方法側重于預防問題和控制與使用人工智能系統相關的風險。因此,其目的是根據不同類型的人工智能系統所造成的風險程度來調整法規的義務或要求。該方法根據風險水平,確定目標的優先次序,區分風險類型,并選擇干預措施。這種監管方法的一個例子是歐盟的《人工智能法案》。該法規定了基于不同風險等級的義務:不可接受風險、高風險、系統性風險、有限風險和最低風險。與歐盟的《人工智能法案》類似,世界各國的立法機構也在討論以風險為基礎的人工智能法案。例如,巴西、智利、哥倫比亞和厄瓜多爾的人工智能法案包含了“不可接受”和“高”風險類別,完全或部分采用了屬于這一類別的人工智能系統清單,并包括了一些針對高風險人工智能系統的義務。
2.8 基于權利的方法
基于權利的方法旨在確保人工智能法規保護個人的權利和自由,強調人權。這種方法假定,市場失靈不是監管的唯一理由,監管的合理性在于保護權利、促進分配公正和推進社會目標。基于權利的方法制定了強制性規則,以保證在人工智能系統的生命周期內尊重、保護和促進權利,包括人權和其他經濟或社會權利。例如,《通用數據保護條例》(GDPR)中與使用自動決策系統(ADM)處理個人數據相關的規則。只要這些系統被用于處理個人數據,就會被普遍強制執行。
2.9 基于責任的方法
這種方法旨在規定強制性行為標準以刑事、行政或民事責任為后盾。在這種監管方法中,法律的力量被用來禁止某些形式的行為,要求采取某些積極行動,或規定進入某個行業的條件。例如,歐盟的《人工智能法案》規定了適用于違反該法規的處罰措施。此外,歐洲議會正在審議關于人工智能造成傷害的民事責任新規定的提案。