近日,谷歌旗下DeepMind實驗室發(fā)布了一份長達(dá)145頁的人工智能安全報告。報告指出,具備人類智能水平的通用人工智能(AGI)可能在2030年左右問世,且其帶來的風(fēng)險中,甚至包含“永久毀滅人類”這種極端情況。
AGI是指具有人類水平的智能和理解能力的AI系統(tǒng),能夠完成任何人類可以完成的智力任務(wù),并適用于不同領(lǐng)域,甚至可能擁有某種形式的意識或自我意識。目前的語音識別、圖像識別等AI應(yīng)用只能在單一領(lǐng)域發(fā)揮作用,屬于弱人工智能。而AGI則像人類一樣,能夠在醫(yī)療診斷、科學(xué)研究、藝術(shù)創(chuàng)作等廣泛領(lǐng)域靈活運用知識與技能。
報告詳細(xì)闡述了AGI可能引發(fā)的四大風(fēng)險。首先是濫用風(fēng)險,即AGI技術(shù)可能被惡意行為者利用,用于制造大規(guī)模殺傷性武器或發(fā)動網(wǎng)絡(luò)攻擊等。其次是錯位風(fēng)險,如果AGI系統(tǒng)的目標(biāo)和價值觀與人類不一致,可能在追求目標(biāo)的過程中對人類造成傷害。第三是失誤風(fēng)險,AGI在運行過程中出現(xiàn)的技術(shù)故障或錯誤決策,可能引發(fā)難以預(yù)估的后果。最后是結(jié)構(gòu)性風(fēng)險,AGI的發(fā)展可能改變社會、經(jīng)濟(jì)和政治結(jié)構(gòu),導(dǎo)致現(xiàn)有秩序失衡。
為了避免AGI被濫用,報告提出了一些方法,例如在訓(xùn)練階段采用“放大監(jiān)督”策略,讓AI監(jiān)督AI;通過“對抗訓(xùn)練”,故意給AI出刁鉆問題。在部署階段,可將AGI視為“潛在罪犯”,對其所有操作進(jìn)行多層審核,同時刪除AGI的危險功能。報告還強(qiáng)調(diào)了通過安全機(jī)制設(shè)計、透明化研究及行業(yè)協(xié)作來降低AGI被濫用帶來的危害。
實際上,業(yè)界對于AGI對人類的威脅早有討論。隨著近年來人工智能技術(shù)的飛速發(fā)展,AI在各個領(lǐng)域的應(yīng)用不斷深化,人們對AGI的關(guān)注度也日益提升。OpenAI首席執(zhí)行官Sam Altman曾公布公司2025年即將發(fā)布的技術(shù)產(chǎn)品,其中AGI是亮點之一。其旨在賦予計算機(jī)理解和學(xué)習(xí)人類思維的能力,為多行業(yè)帶來革新動力。但這種強(qiáng)大的能力也伴隨著風(fēng)險,引發(fā)了各界對AGI發(fā)展的擔(dān)憂。
特斯拉與SpaceX創(chuàng)始人埃隆·馬斯克多次警告人工智能的潛在威脅,認(rèn)為人工智能可能是人類文明面臨的最大風(fēng)險之一,其發(fā)展速度可能遠(yuǎn)超人類預(yù)期,若缺乏有效的監(jiān)管和控制,后果不堪設(shè)想。部分金融分析師在評估科技行業(yè)發(fā)展趨勢時也指出,AGI的出現(xiàn)雖然可能帶來巨大的商業(yè)價值和社會變革,但企業(yè)在大力投入研發(fā)的同時,必須充分考慮其潛在風(fēng)險,否則可能引發(fā)全球性的危機(jī)。