OpenAI長期政策研究員邁爾斯·布倫戴奇宣布辭職,他負(fù)責(zé)的通用人工智能(AGI)準(zhǔn)備工作組也被解散并入其他團(tuán)隊。布倫戴奇在OpenAI工作了六年多,是公司中少數(shù)堅持遏制人工智能風(fēng)險的老員工之一。
OpenAI章程中定義AGI為“在大多數(shù)經(jīng)濟(jì)價值較高的工作中,能夠勝過人類的高度自主系統(tǒng)”。布倫戴奇的任務(wù)是確保安全、可靠、有益地開發(fā)、部署和管理能力日益增強的人工智能系統(tǒng)。然而,在離職聲明中,布倫戴奇直言無論是OpenAI還是其他前沿實驗室,都沒有為實現(xiàn)AGI做好準(zhǔn)備,世界還遠(yuǎn)未準(zhǔn)備好迎接強大的AGI。他認(rèn)為現(xiàn)有差距巨大,打算在職業(yè)生涯剩余時間里致力于人工智能政策方面的工作。
布倫戴奇計劃加入一個非營利組織,以便更自由地發(fā)表文章,獨立從事人工智能政策研究。他在OpenAI內(nèi)部感受到越來越多的限制,特別是在發(fā)布文章審查方面的限制變得太多。此前,OpenAI首席執(zhí)行官山姆·奧爾特曼曾試圖解雇海倫·托納,原因是她對OpenAI的安全承諾提出過多批評。
布倫戴奇的辭職標(biāo)志著OpenAI內(nèi)部關(guān)注人工智能安全和治理的聲音正在消亡,劍橋大學(xué)潛在風(fēng)險研究中心研究員海頓·貝爾菲爾德稱其為“一個時代的終結(jié)”。2019年OpenAI首次成立盈利部門時,一些老員工就對此表示擔(dān)憂,但最終接受了轉(zhuǎn)變。然而,隨著時間推移,情況發(fā)生了顯著變化。特別是在2023年11月奧爾特曼被短暫解雇后,員工們對OpenAI的文化和領(lǐng)導(dǎo)層產(chǎn)生了質(zhì)疑。盡管奧爾特曼復(fù)職,但這一事件只是OpenAI內(nèi)部動蕩的開始。自那時起,OpenAI失去了大量關(guān)注AGI安全的員工。
前超級對齊團(tuán)隊負(fù)責(zé)人伊利亞·蘇茨克沃爾和揚·萊克在離職時也公開批評了OpenAI的安全文化。萊克表示,在過去幾年里,OpenAI的安全文化已讓位于光鮮亮麗的產(chǎn)品。布倫戴奇表達(dá)了對整個行業(yè)在AGI安全問題上的擔(dān)憂,呼吁國會大力資助美國人工智能安全研究所,并提倡通過國際合作解決未來AGI非常棘手的安全問題。
6月25日,不少來自不同國家和地區(qū)的API開發(fā)者在社交平臺上分享收到OpenAI的通知,該通知表明將從7月9日起實施措施,限制不支持地區(qū)的API訪問
2024-06-27 10:22:22OpenAl對中國設(shè)限