6 月 5 日消息,OpenAI 和谷歌 DeepMind 的數(shù)名前任和現(xiàn)任員工近日聯(lián)名發(fā)布公開信,對高級人工智能的潛在風(fēng)險(xiǎn)以及當(dāng)前缺乏對人工智能科技公司的監(jiān)管表示擔(dān)憂。
IT之家注意到,這封公開信指出,人工智能的發(fā)展可能會帶來一系列的風(fēng)險(xiǎn),例如加劇現(xiàn)有社會的不平等、助長操控和虛假信息傳播,以及失控的自主人工智能系統(tǒng)可能導(dǎo)致人類滅絕等。
信中寫道,人工智能公司擁有強(qiáng)大的經(jīng)濟(jì)利益驅(qū)動(dòng)它們繼續(xù)推進(jìn)人工智能研發(fā),同時(shí)卻對保護(hù)措施和風(fēng)險(xiǎn)水平的信息諱莫如深。公開信認(rèn)為,不能指望這些公司會自愿分享這些信息,因此呼吁內(nèi)部人士站出來發(fā)聲。
由于缺乏有效的政府監(jiān)管,這些現(xiàn)任和前任員工成為能夠讓這些公司對公眾負(fù)責(zé)的少數(shù)群體之一。然而,由于嚴(yán)格的保密協(xié)議,員工被限制發(fā)聲,只能向可能并未妥善處理這些問題的公司反映問題。傳統(tǒng)的舉報(bào)人保護(hù)措施并不適用,因?yàn)榇祟惔胧﹤?cè)重于違法行為,而目前令人擔(dān)憂的許多風(fēng)險(xiǎn)尚不受監(jiān)管。
員工們呼吁人工智能公司為揭露人工智能風(fēng)險(xiǎn)的人士提供可靠的舉報(bào)人保護(hù)措施,具體包括:
不得創(chuàng)建或執(zhí)行阻止員工對風(fēng)險(xiǎn)相關(guān)問題提出批評的協(xié)議;
提供可驗(yàn)證的匿名程序,使員工能夠向董事會、監(jiān)管機(jī)構(gòu)和相關(guān)領(lǐng)域的獨(dú)立組織提出與風(fēng)險(xiǎn)相關(guān)的擔(dān)憂;
支持開放批評的文化,允許員工在保護(hù)商業(yè)機(jī)密的前提下,向公眾、董事會、監(jiān)管機(jī)構(gòu)等方面提出與技術(shù)相關(guān)的風(fēng)險(xiǎn)擔(dān)憂;
在其他程序失效后,避免對公開分享風(fēng)險(xiǎn)相關(guān)機(jī)密信息的員工進(jìn)行報(bào)復(fù)。
共有 13 名員工簽署了這封公開信,其中包括 7 名前 OpenAI 員工、4 名現(xiàn)任 OpenAI 員工、1 名前谷歌 DeepMind 員工和 1 名現(xiàn)任谷歌 DeepMind 員工。據(jù)悉,OpenAI 曾因員工發(fā)聲而威脅取消其既得權(quán)益,并要求員工簽署嚴(yán)格的保密協(xié)議限制他們批評公司。