今天,2025世界人工智能大會暨人工智能全球治理高級別會議開幕。在上午的主旨演講中,77歲的“深度學(xué)習(xí)之父”、圖靈獎得主、2024年諾貝爾物理學(xué)獎獲得者Geoffrey Hinton討論了人工智能的歷史、語言模型的本質(zhì)以及人類與AI的共通結(jié)構(gòu)。他還特別提到Deepseek,但認(rèn)為這種方式效率很低。
辛頓回顧了過去60年人工智能發(fā)展的兩條主流路徑:一是以推理為核心的“邏輯主義”,另一是以模擬人類認(rèn)知為基礎(chǔ)的“連接主義”。他認(rèn)為,語言理解更接近后者,不是符號演繹,而是從模糊中提取出概念之間的關(guān)聯(lián)。他回憶起1985年開發(fā)的一個(gè)早期小型模型,認(rèn)為如今的大語言模型本質(zhì)上是“它的后代”。盡管現(xiàn)在的模型擁有更深的網(wǎng)絡(luò)結(jié)構(gòu)和更龐大的參數(shù)規(guī)模,但核心機(jī)制并未改變。“語言模型的理解方式,和人類理解語言的方式是一樣的?!?/p>
辛頓強(qiáng)調(diào),大模型一旦具備比人類更強(qiáng)的智能,僅靠“關(guān)掉它”并不能解決問題。他說,有人覺得它們變得聰明后就可以把它們關(guān)掉,這是不現(xiàn)實(shí)的。它們會勸說操控機(jī)器的人不要關(guān)掉它們。人類的處境更像是在“養(yǎng)一只老虎當(dāng)寵物”,要么訓(xùn)練它永遠(yuǎn)不攻擊你,要么把它干掉。
辛頓建議,全球主要國家或AI大國應(yīng)建立一個(gè)由AI安全機(jī)構(gòu)組成的國際社群,研究如何訓(xùn)練高智能AI向善。各國可在自身主權(quán)范圍內(nèi)研究,再分享成果。盡管目前還不知道具體怎么做,但這是人類長期面臨的最重要問題,且所有國家都能在此領(lǐng)域合作。
辛頓長期致力于神經(jīng)網(wǎng)絡(luò)、機(jī)器學(xué)習(xí)、分類監(jiān)督學(xué)習(xí)、機(jī)器學(xué)習(xí)理論、細(xì)胞神經(jīng)網(wǎng)絡(luò)、信息系統(tǒng)應(yīng)用、馬爾可夫決策過程、神經(jīng)網(wǎng)絡(luò)、認(rèn)知科學(xué)等方面的研究。2023年,辛頓從谷歌辭職,稱生成式人工智能系統(tǒng)的商業(yè)應(yīng)用構(gòu)成了多重嚴(yán)重威脅,他警告說,從長遠(yuǎn)來看,自主人工智能系統(tǒng)可能會對人類構(gòu)成嚴(yán)重威脅。
在2025世界人工智能大會上,2024年諾貝爾獎得主、2018年圖靈獎得主杰弗里·辛頓指出,人類面臨的一個(gè)重要挑戰(zhàn)是如何讓人工智能既具備超凡智慧又能甘于輔助人類,這需要全球共同努力
2025-07-27 05:50:12AI教父呼吁全球聯(lián)手讓AI向善在成都天府三街的一間辦公室里,28歲的程序員楊平正對著電腦屏幕聚精會神地調(diào)試AI音樂生成工具
2025-04-16 17:32:43小伙用AI模仿周杰倫寫出爆款歌曲周鴻祎最近多次提到AI安全的核心命題——“用魔法打敗魔法”,這一思路值得科技界深入思考。他認(rèn)為,AI面臨的主要隱患包括杜撰信息、易被誘導(dǎo)、工具屬性不分善惡以及AIGC以假亂真
2025-03-14 16:19:09用魔法打敗魔法用AI識別AI