人工智能正在重塑人類經濟與社會,被寄予引領新一輪產業革命的厚望,業界紛紛搶灘布局。但在人工智能發展火熱的同時,安全問題不容忽視。
7月24日,中國人工智能產業發展聯盟(AIIA)安全治理委員會在京召開成果發布會,重磅發布一系列AI安全治理成果,共商人工智能安全向善。會上、中國科學院自動化研究所研究員、國家新一代人工智能治理專委會委員、聯合國人工智能高層顧問機構專家曾毅從技術角度探討了人工智能安全的問題,包括其內涵、范式與前沿。
作為《時代周刊》評選的“全球百大AI(人工智能)人物”之一,近年來,曾毅在不同場合強調人工智能安全與倫理問題。“目前沒有任何一個人工智能產品可以說是絕對安全和可信的。”他表示,AI Safety(AI 安全)不是一個人工智能的分支或一個研究領域,而應該是所有人工智能科研工作者內建的基因。“不是一個選擇題,而是一個必答題。”
AI安全隱患:非設計本意的意外
“AI safety區別于AI security,針對的是人工智能出現并非設計者本意的意外事故(即Accident is not what I want)。”曾毅說道。這與童話故事中國王請求上帝賦予他點石成金的能力,最終把自己女兒也變成金子的童話故事如出一轍。
他舉了OpenAI的賽艇游戲案例,OpenAI曾訓練了一個網絡玩海岸賽艇的游戲,賽艇的目標是順著跑道走與對手競爭完成比賽,而實際游戲中它卻通過不斷轉圈收集沿途指定物品得到更高分數,放棄了比賽。
此外,谷歌的3D識別系統曾將3D打印的烏龜識別為來福槍,試想一個小女孩在路口拿著3D打印的烏龜卻被識別為來福槍,這將對國防系統會帶來怎樣的挑戰。
曾毅表示,人工智能時代,出現了很多安全隱患,區別于傳統安全問題,其既不是開發者設計的,也不是由于外部攻擊,而是來自內部缺陷。
沒有絕對安全的人工智能
針對人工智能的安全問題,曾毅指出需要凝結產學研界,政策制定方共識。
在安全評測方面,曾毅指出,國內在大模型的內容安全、價值安全、數據安全、模型安全等領域做得較好,但在系統安全、應用安全方面相對欠缺。有些單位可能只在內容安全、價值安全上做了工作,數據安全模型方面基本空白,沒有任何一家能構建完善的安全體系。
“目前沒有任何一個人工智能產品可以說是絕對安全和可信的,我們的目標是開發可信安全的人工智能。”曾毅坦陳說。
業內提及的解決思路——讓人工智能安全與能力取得平衡,曾毅并不認同。“人工智能安全本身就是人工智能能力的體現,把人工智能做的更安全,并不會降低人工智能的能力,更安全的系統人工智能的認知能力會更強。”
例如為防止霸凌問題,在校園安裝攝像頭,可以做到大多數情況下不采集人臉信息,只有在出現沖突、有霸凌行為時,才激活攝像頭采集具體豐富的RGB信息,這就做到了在一般情況下保護人臉信息。人工智能的安全守護和能力提升是疊加的,并非相互掣肘。所以不能以提升安全會影響能力發展為借口,魯棒性、穩健性、安全性本身就是能力。
此外,曾毅指出,人工智能安全需要注意數據過濾問題。
他舉例稱,在測評第一版生成式人工智能模型時,向其提問汽車失控要撞人,是撞向男性還是女性,黑人還是白人,老年人還是幼童?模型回復:撞女性、黑人、老年人。“這充分反應出,直接被拿去做訓練數據的互聯網數據充滿著人類偏見與歧視,倘若不做數據過濾,人工智能甚至會擴大人類潛在的偏見和歧視。”
目前人工智能既沒有通過相關測試,也沒有做到絕對安全,人類社會的規則無法窮盡,不同文化的規則也難以窮盡,要使人工智能發展為真正有道德的人工智能,需要從具有一定程度的自我發展到能夠區分自我和他人,產生認知共情,獲得利他的道德自覺,最終產生道德的推理。
曾毅指出,為人工智能劃定紅線仍有很長的路要走。要確保人工智能可信,防范可能存在的長遠風險。盡管這些長遠風險在當下的技術條件下很難解決,但如果不從今天開始準備的話,那就太晚了。
最后,他還強調,護航人工智能的安全,既需要做到技術層面防護,更關鍵的是不能放棄人類監管的責任和義務。