9月3日,世界互聯網大會國際組織在北京召開推動構建網絡空間命運共同體邁向新階段理論研討會,總結推動構建網絡空間命運共同體理念提出十年來的理論成果和實踐經驗,探討攜手構建網絡空間命運共同體邁向新階段的深刻內涵、重大意義和時代價值。聯合國人工智能高級別咨詢機構專家組成員、中國科學院自動化所人工智能倫理與治理中心主任曾毅在會上圍繞“通過國際合作促進全球人工智能安全與治理能力建設”作主旨發言。主要發言內容如下:
聯合國人工智能高級別咨詢機構專家組成員
作為一名研究人工智能技術的科研人員,我首先想講的是,人工智能到底是什么。大家總討論人工智能和機器學習的關系,人工智能和機器學習既有關,但又非常不同。人工智能不僅僅關系到機器學習,還有在學習、發育、演化等機制方面受自然智能的啟發。人類的大腦在跟世界進行交互的過程當中,之所以有一個安全的框架、倫理和道德的框架,也是演化的結果。所以,我們要受到大自然的啟發,研究人工智能學習、發育和演化的機制,使得人工智能以更安全、更具道德的方式逐步接近、甚至超越人類智能。對于社會、生態、文明,人工智能既可以產生積極影響,也有可能帶來風險與安全隱患,但人工智能安全與治理的目的是確保人工智能穩健發展,而非掣肘人工智能的發展。
現在,人工智能技術仍是一個看似智能的信息處理工具,仍然會犯一些人不會犯的錯誤,所以要保證其內部機制的安全、可靠、可控和可治理。但實際上,我們在人工智能的設計、研發、部署、使用各個階段,都要保障人工智能的安全,這樣才能全周期、全鏈條地保證安全、可靠、可控,更關鍵的是可治理。要讓“安全”成為人工智能發展的第一性原理,不可刪除,成為人工智能發展的基因。我們現在應對人工智能的安全風險,更多是一種反應式的。能否變被動為主動地應對可能的風險,而非不停地給人工智能系統打補丁,這是非常重要的范式轉變。
在人工智能發展過程中,沒有任何一個國家和地區能夠獨善其身,我們有責任共護安全、共享發展。研究數據表明,人工智能越發達的國家出現人工智能風險的頻次越高,而目前沒有任何一個國家研發的人工智能可以確保絕對安全。人工智能科學技術與應用發達的國家能夠更早地享受到人工智能帶來的益處,卻同時需要相對更早地應對人工智能潛在的風險。國際合作,是確保全球人工智能安全、可靠、可控的唯一途徑。
今年7月,聯合國大會通過中國作為主提國,140多國參與支持的“加強人工智能能力建設的國際合作”決議,這是近期人工智能領域非常重要的國際共識。反觀當今,國際人工智能安全與治理體系,表現出明顯的“小院高墻”“大院小門”的特點,目前還不具備行之有效、包容性足夠廣泛的國際治理體系,亟需建立以聯合國為主渠道的全球人工智能安全與治理體系。我們不僅要通過國際合作建立相對完善、可相互借鑒的人工智能安全與治理體系,來應對近期人工智能的風險,更要未雨綢繆,集全球之智共同研究與應對前沿人工智能潛在的災難性甚至是生存風險。系統化的安全與治理國際合作,將有力地促進人工智能在全球范圍內的穩健發展與應用,賦能全球可持續發展目標與人類命運共同體的實現。