美國開放人工智能研究中心(OpenAI)和谷歌旗下“深層思維”公司的13名現職員及前員工4日發表聯名公開信,對人工智能行業在缺乏對“吹哨人”法律保護的背景下快速發展表達擔憂。
據多家外媒援引信件報道,這些員工認為,人工智能企業受利益驅使缺乏有效監管,現有企業治理架構不足以改變這一點。而不受監管的人工智能會觸發虛假信息傳播、人工智能系統喪失獨立性和社會階層不平等深化等多重風險。
信件指出,外部人士對上述風險中的大部分不知情,因為人工智能企業“目前只承擔與政府分享部分相關信息的微弱義務,也沒有義務與公民社會分享信息”,“我們不認為能全然依靠企業自愿分享信息”。
信件還指出,一般的法律保護對人工智能行業“吹哨人”而言“不夠”,因為不少引人擔憂的風險在法律監管方面仍屬空白。另外,人工智能企業員工受制于保密協議,通常不得對外實質性披露企業所掌握的人工智能實力。
聯名信簽署人中,2人與“深層思維”有關,4名OpenAI現員工要求匿名。組織者包括OpenAI前工程師丹尼爾·齊格勒和前員工丹尼爾·科科塔耶羅。
齊格勒4日告訴美聯社記者,他2018年至2021年在OpenAI工作時參與聊天機器人ChatGPT部分技術研發,當時不擔心在企業內部講出他發現的問題,但他現在擔心,行業內企業競相將相關技術迅速商業化會讓它們承受忽視風險的壓力。“相較于責備OpenAI,我更感興趣的是借此機會讓全部人工智能前沿企業切實投入,強化監管和透明度,增進公眾信任。”
科科塔耶羅則發表書面聲明說,他今年早些時候離職,是對OpenAI“能采取負責任行為喪失希望”,特別是在企業嘗試打造通用人工智能系統之后。對于這類功能強大、卻又鮮為人熟知的技術,企業“快速出手、打破常規”,行事方式與所需“恰恰相反”。
OpenAI同一天回應聯名信時強調,已設立匿名舉報熱線和安全委員會保護“吹哨人”,相信能以科學方法應對風險。