據媒體報道,近期美國麻省理工學院一個研究團隊稱,部分人工智能系統已經學會如何欺騙人類,其中包括部分號稱已被訓練成樂于助人和誠實的系統。該研究成果發表在美國細胞出版社旗下的《模式》雜志上。
盡管有研究人員稱該現象對人類并未造成不利影響,但欺騙性人工智能的出現仍值得警惕。近年來,人工智能的發展就像一條平坦寬闊的高速公路,研究人員駕駛著“科技”的快車向未來全速前進。但若只顧著追求更高、更快、更強,在科研競速中必然會導致“脫軌”與“失控”。因此,拉好AI發展的“警戒線”至關重要,而拉緊筑牢這道技術與安全的防線,需要所有參與者的共同努力。
不為科技而科技,不為創新而創新,應當是一切人工智能發展的準則和所有研發者的底線,卻由于拜技主義者的抵制而一再失效。2023年6月,歐洲議會通過了全球首個AI綜合性監管法案《人工智能法案》,但由于openAI、谷歌、微軟等多家科技巨頭以“阻礙AI創新”為由提出反對,并未成功將通用AI(AGI)列入高風險類別,導致法案無法適用于軍事、國防、科學研究。
由此可見,若想真正監管AI發展,技術背后的“人”首先需要達成共識,認可彼此所肩負的共同的社會責任。風物長宜放眼量,就像醫生不能只看病歷,科研工作者也不能只專于技術創新。正如英國劍橋大學人工智能研究員哈利·勞所說,“監管機構和人工智能公司必須仔細權衡技術造成危害的可能性與其對社會的潛在利益,并明確區分模型能做什么和不能做什么”。在歐盟的“人腦計劃”項目中,除了神經科學家、計算機科學家負責技術研發,還有倫理學家、心理學家、社會學家對大量腦數據使用的倫理問題進行評估及研究腦科學發現對社會的影響。只有不同領域的專家共同努力,才能及時洞悉事態變化,預測潛在風險,在技術發展的同時提供多元視角的保障。
其實早在2017年,一些人工智能領域的科學家、工程師、研究學者以及科技企業家們,就建立了確保AI為人類利益服務的23項原則——“阿西洛馬人工智能原則”,但由于這一原則并沒有被正式采納為全球性的法律,不具有強制性和規范性,各國實施情況并不樂觀。因此,在專家學者自行協定的原則之外,由能夠頒布限制性文件的國際組織從國際層面發揮作用更為必要。只有擁有眾多締約國的規范性文件,才能切實有效地引導、規制人工智能技術的發展。
在人工智能發展的全球性趨勢下,往往一個微小的變化就有可能引發世界范圍的波動與震蕩。在這場與人工智能的博弈中,沒有一個國家能獨善其身。科技革命加速正在進行時,只有各國、各領域、各利益主體共同努力,攜手拉好、拉緊規范科技發展的“警戒線”,AI才能行穩致遠,一路暢通。