安全認知,日見清晰;安全研究,路阻且長;安全行業,大有可為;緊跟創新,保障發展……”在近日舉行的第十二屆互聯網安全大會上,中國工程院院士吳世忠的一番總結,折射了AI(人工智能)時代安全大模型行業的發展現狀。
一直以來,技術發展伴生的安全挑戰、迭代防護,貫穿著行業發展,也備受各界關注。當天,多位兩院院士,中國互聯網協會、中國信通院、世界互聯網大會等機構組織負責人,以及華為、360、微軟等國內外企業代表齊聚,圍繞“打造安全大模型”主題,分享來自政產學研用領域的各方觀點。
從“百模大戰”到探尋更多應用場景
在過去的兩年里,隨著ChatGPT在全球范圍內爆紅,AI大模型熱潮在國內急速升溫,多家互聯網巨頭紛紛加速布局大模型應用。記者從會上了解到,截至目前,我國已完成備案并上線、能為公眾提供服務的生成式人工智能服務大模型達180多個,注冊用戶數已突破5.64億。
“AI以激進式的科技創新,全面推進新一輪科技革命和生活賦能。”吳世忠介紹,以顛覆式的應用創新,全面推進新一輪的大國博弈和社會變革。特別是基礎模型的突破,展示出強大的新質生產力,激發出科技、經濟、社會和國家管理全方位的深刻變化。
中國科學院院士、清華大學計算機系教授張鈸也深有感觸,大模型的出現標志著AI發展進入新階段,具備了強大的語言生成能力、人機自然交互能力、遷移(舉一反三)能力。“最近一年里,我國在基礎模型研發、自然語言處理、多模態生成等領域取得了顯著進展,為千行百業的智能化轉型提供了堅實支撐”。
“我們已初步構建了較為全面的AI技術產業體系,建成了2500多個數字化車間和智能工廠,經過AI改造研發周期平均縮短20%,生產效率提升35%……”中國信息通信研究院副院長魏亮分享了這樣一組數據。他分析認為,大模型技術發展帶來高質量算力基礎設施和數據集語料庫的大量需求,我們要加快推進大模型基礎設施化,促進行業應用和中小企業普惠使用,不斷創新應用生態、推動縱深發展。
從曾經的“百模大戰”,到持續賦能千行百業,再到如今發力探尋具體應用場景。“2024年應該是場景之年,要結合業務找‘明星場景’,然后根據場景設計功能,對大模型進行專項訓練。” 360集團創始人周鴻祎認為,我們不能追求全能,通過一個大模型解決所有問題,應該讓專業大模型解決專業問題,找到垂直場景和細分切口,并且由多個專業模型組合起來,這樣很多問題就可以迎刃而解。
中國工程院院士鄔賀銓也提到“協作”的重要性。他認為,需要協作開發行業大模型。這些基礎大模型是企業實現數字化轉型不可或缺的一環,需要應對包括強大的算力、充足的數據、高水平的研材、新應用的算法等諸多挑戰,這就需要大模型提供方與垂直行業緊密合作。
技術向善,也能“向惡”
“ChatGPT問世不到一年,有關人工智能的風險預警,就在科學創新的前沿陣地率先觸發。它是典型的兩用性技術和雙刃劍特性,人們擔心技術發展失控、道理倫理失范、網絡安全失守。”吳世忠談到這樣一組觀察體會——近年來,OpenAI、Meta、DeepMind等國外行業巨頭相繼加大安全技術和監管措施的投入,國內的百度、阿里、華為、科大訊飛、360、智譜等,也在安全研究上布局投資。這說明,國內外主流廠商逐漸認識到安全研究的重要性,大模型能力增長需要安全研究快速跟進已成為業界共識。
“AI浪潮勢不可當。它既是一次工業革命,又是對安全行業的一次機會。”周鴻祎認為,在大模型重塑所有行業、產品時,更多的思考應該是能不能利用AI實現安全技術突破、能不能助力降本增效。以前的“百模大戰”解決了大模型從無到有、從0到1的發展過程,如今我們不要再“卷”模型了 ,要重點關注應用層面,其中一個重要場景就是“安全”。
在業界看來,當前AI的發展在基礎理論和具體應用上存在諸多不足。“生成式AI存在‘幻覺’缺陷,它會‘胡說八道’,很多情況下還并不知道自己說錯了。它和機器產生的錯誤不一樣,后者往往我們可以控制,但前者是本身的錯誤,是一定會發生且不可控的。這是我們開發應用中需要重點考慮的問題。”張鈸這樣說。
“AI既有向善的一面,也有向惡的一面。”中國工程院院士、國家數字交換系統工程技術研究中心主任鄔江興認為,AI應用系統安全責任與風險存在嚴重失衡。AI應用系統網絡內生安全的共性問題,在于計算機帶來了“娘胎的基因缺陷”,如果不能杜絕軟硬件代碼設計中的脆弱性,就無法杜絕網絡問題。
鄔江興還提到,內生安全的個性問題是當前AI推廣應用中的最大障礙,存在著“三大問題”:一是不可解釋性,指通過訓練擬合階段的一些工作原理我們并不明確;二是不可判識性,指訓練AI的大數據質量高低,直接影響大模型判斷結果;三是不可推論性,指AI目前對沒有經歷過的未知事物無法理解和判斷。