北京5月10日消息(記者 樊瑞)人工智能技術的快速發展,對經濟社會發展和人類文明進步產生深遠影響,也給世界帶來巨大機遇。人工智能治理攸關全人類命運,加強國際合作構建人工智能治理圖景也顯得愈發迫切和重要。
日前,中法兩國元首發布關于人工智能和全球治理的聯合聲明,聲明共有十條,包括“人工智能的機遇、風險和挑戰本質上是全球性的”等內容。
這是繼一個月前的中非人工智能聲明后,中國與法國再牽手共同發布的人工智能領域聲明。發布關于人工智能的聯合聲明有何重要性和意義?現在全球人工智能治理面臨的共性問題是什么?應當秉持何種治理思路?
人工智能治理已是全球課題
事實上,中國已多次強調要加強人工智能治理的全球合作。
2023年10月,中國在第三屆“一帶一路”國際合作高峰論壇上正式發布《全球人工智能治理倡議》,圍繞人工智能發展、安全、治理三個方面闡述人工智能治理的中國方案,為人工智能的開發與安全提出建設性的解決思路。
2024年4月3日,中非互聯網發展與合作論壇成功舉行,中非雙方就人工智能領域的合作進行深入交流,并發表了《2024年中非互聯網發展與合作論壇關于中非人工智能合作的主席聲明》,呼吁加強中非間政策對話與溝通,加強技術研發與應用,推動中非人工智能創新合作。
這次中法兩國的聯合聲明,是在2023年4月7日《中法聯合聲明》達成共識的基礎上,兩國元首特別在人工智能方面達成的共識。
中國政法大學教授、聯合國高層人工智能咨詢機構專家張凌寒向央廣網記者介紹,中國和其他國家發起的人工智能合作共識,都是遵循《全球人工智能治理倡議》中所倡導的“各國應秉持共同、綜合、合作、可持續的安全觀,堅持發展和安全并重的原則”達成的具體共識。她指出,中國推進中非和中法之間人工智能治理的共識,是推進中國全球人工智能治理主張的一個重要步驟和有益嘗試,有利于向全球傳遞中國治理經驗。
為何要在人工智能治理領域單獨達成共識聲明?北京航空航天大學法學院副教授趙精武表示,系因ChatGPT、Sora等人工智能產品的面世徹底顛覆了人們對該項技術的傳統認知,人工智能技術已經成為未來數字經濟轉型升級的核心要素,需要加強對人工智能的治理。
近些年,人工智能的重要性也越發被強調。2020年,人工智能在“十四五”規劃和2035年遠景目標綱要中的優先級進一步提升,強調“培育壯大人工智能、大數據、區塊鏈、云計算、網絡安全等新興數字產業”。今年的政府工作報告中,三次提到人工智能,更首次提出要開展“人工智能+”行動。
放眼全球,發展和治理人工智能已成為全球各國面臨的共同課題。中國信息通信研究院互聯網法律研究中心副主任何波強調,中國和法國均高度重視人工智能,在人工智能技術發展、行業應用以及治理規范等方面都積累了大量經驗。中法兩國選擇在人工智能治理方面單獨達成共識聲明,直面國際社會熱點難點問題,積極回應全球人工智能治理面臨的挑戰,提出一系列原則和理念,為全球人工智能治理提供正能量,注入新動力,也充分展現中法兩國作為負責任大國的擔當與風范。
人工智能風險幾何?
聲明中指出,中法兩國認識到人工智能在發展與創新中的關鍵作用,同時考慮到人工智能的發展和使用可能帶來的一系列挑戰,一致認為促進人工智能的開發與安全,并為此推動適當的國際治理至關重要。
何波向央廣網記者介紹,當前,人工智能正在全球范圍內蓬勃發展,成為新一輪科技革命和產業變革的重要驅動力量。從全球最新進展來看,大模型成為人工智能發展最突出的熱點,在文本對話、圖像和視頻生成、意圖理解等方面不斷取得新突破,與以往人工智能技術相比,大模型技術具有規模擴展性強、多任務適應性強、能力可塑性強等特點,有望成為通向通用人工智能的可行路徑,將對全球經濟社會發展和人類文明進步產生深遠影響。
面對人工智能對社會帶來的革命性改變,人工智能伴生的風險和沖擊一直以來也頗受業內專家關注。
共識中也提出,兩國認識到該技術相關的潛在和實存風險,致力于采取有效措施應對這些風險。
何波介紹,當前國際社會普遍關注人工智能在數據、算法和應用方面的不同風險。在數據方面,關注信息隱私和數據安全;在算法方面,關注算法公平性、可解釋性方面的風險;在應用方面,關注深度偽造等內容風險。“以上已經成為人工智能技術的實存風險,對社會發展已經產生危害,例如,利用深度偽造技術進行網絡詐騙的行為已經給社會經濟發展和社會信任造成不良影響”,他總結表示。
趙精武也關注到人工智能帶來的網絡違法信息泛濫風險。生成式人工智能使得批量生成符合人類日常表達方式的網絡信息成為可能,加之“AI換臉”等深度合成技術的不斷優化,網絡虛假信息的生成成本越來越低,并且,這些虛假信息讓社會公眾難以辨別真假。一旦被用于國家領導人講話等場景時,甚至有可能存在威脅國家安全的風險。因此,針對這類風險,常見的有效措施是要求人工智能服務提供者或者網絡信息發布者履行顯著標識義務,提示該信息內容由AI生成。
國際上有關人工智能風險的討論較多,趙精武另一個較為關注的是科技倫理風險。他進一步向央廣網記者介紹指出,部分人工智能的應用方式可能顛覆了人們日常的倫理觀念。如近期引發爭議“AI復活死者”,究竟是“技術造福人類”,還是屬于“技術侵蝕人類情感”,尚存有爭議。針對這類風險,常見的應對措施是設置科技倫理審查機制,對人工智能技術應用功能方式進行倫理規范審查。
不可回避的是,人類正在步入人工智能社會,未來人工智能將會更加深入滲透進我們的生活之中,人工智能對社會變革將會帶來全方位、顛覆性的影響。
何波也表示,隨著人工智能技術的發展,其潛在風險和實存風險間的界限也將愈發模糊,算法可解釋性不足會對人工智能可控可信的結果產生影響。而隨著人工智能技術被更廣泛地應用,人工智能對環境、工作機會、教育等會帶來等正負面的影響。
建立安全與發展兩輪并重的治理觀念
人工智能的機遇、風險和挑戰本質上是全球性的。中法兩國在聲明中強調,在技術迅速發展的背景下,為確保國際安全與穩定以及尊重主權和基本權利,加強國際合作具有重要意義。
人工智能的安全與發展一直是人工智能治理領域的關鍵議題,應該如何促進人工智能的安全開發?
趙精武向央廣網記者介紹,需要實施全流程監管和分級分類監管機制。一方面,針對人工智能技術研發、測試、應用等多個技術環節,明確相應的安全技術標準,輔之以科技倫理審查機制,從各個環節預防和控制技術安全風險;另一方面,針對人工智能應用的不同場景、不同風險程度,設置不同的監管機制,在保障人工智能技術應用安全的同時,也能夠最大化預留人工智能產業創新空間。
在何波看來,要堅持發展、安全、治理的人工智能治理思路。具體來說,至少需要做好三個方面的工作:一是堅持倫理先行,前瞻研判人工智能倫理風險,注重風險預防、加強源頭治理,這也是確保人工智能健康發展的前提;
二是堅持法治化推進,人工智能治理的法治化是確保人工智能技術安全有序發展的重要保障,需要建立健全相關法律制度,明確各主體、各環節責任義務,關注權利保護;
三是堅持以技管技。邁入人工智能時代,技術性調整手段的重要性日益凸顯,人工智能發展具有鮮明的技術色彩,人工智能設計、研發、應用等全流程、各環節均有數智技術的深度參與,因此,輔以相應的技術治理十分必要,要積極發展促進人工智能安全相關技術,以人工智能技術促進人工智能安全開發。
現階段,人工智能治理正處于從原則走向實踐的關鍵期,也處于治理規則的塑造期。何波認為,各國的實踐路徑獨具特色,其人工智能治理模式的選擇與本國實際情況密切相關,考慮到我國人工智能技術、產業以及治理等方面都處于全球前列,我國人工智能發展和治理立足本國國情是非常必要的。