Hinton:說實話,很失望。我學的生理學,夏季學期教大腦的工作方式,結(jié)果只教了神經(jīng)元如何傳導動作電位。確實有趣,但并沒有說明白大腦究竟如何工作,所以我比較失望。我后面轉(zhuǎn)去學哲學,希望能學到思維是如何運作的。但同樣失望。
我最后去愛丁堡大學學習人工智能,那更有趣。至少可以進行模擬,可以測試理論。
主持人:還記得開始是對人工智能的哪些方面感興趣嗎?有沒有特定的一篇論文或者科學家,讓你發(fā)現(xiàn)了有意思的點子。
Hinton:唐納德·赫布的一本書對我影響頗深。他對如何學習神經(jīng)網(wǎng)絡中的連接強度非常感興趣。我還讀過約翰·馮·諾伊曼的一本書,關(guān)注大腦如何計算、大腦計算方式與普通計算機的差異。
主持人:你在愛丁堡的時候,覺得這些接觸到的想法以后會有用嗎?你那時候的直覺是怎樣的?
Hinton:在我看來,我們需要遵循大腦本身的學習方法。顯然,大腦不可能將所有東西先編程,然后使用邏輯推理,這從一開始就顯得不太對。所以必須弄清楚,大腦是如何學習調(diào)整神經(jīng)網(wǎng)絡中的連接,去處理復雜任務。馮·諾伊曼和圖靈都相信這一點,他們都非常擅長邏輯,但他們不相信這種邏輯方法。
主持人:學習神經(jīng)科學,僅僅做人工智能里的算法,你在二者之間如何分配精力的?你在早期受到了多少啟發(fā)?
Hinton:我對神經(jīng)科學研究不多,主要受到的啟發(fā)來自大腦的工作方式。大腦有一大堆神經(jīng)元,執(zhí)行相對簡單的操作,工作又是非線性的,但它們能接收輸入,進行加權(quán),然后在此基礎(chǔ)上輸出。問題是,到底如何改變權(quán)重使整個系統(tǒng)做一些厲害的事?這個問題看上去相當簡單。
主持人:那個時候,你和誰有合作?
Hinton:我在卡內(nèi)基梅隆大學做研究,但主要合作者并不是卡內(nèi)基梅隆大學的。我與特倫斯·謝諾夫斯基(注:他與杰弗里·辛頓共同發(fā)明了玻爾茲曼機)往來比較多。他在巴爾的摩的約翰霍普金斯大學。應該是每個月一次,要么他開車來匹茲堡,要么我開去巴爾的摩,距離是250英里。我們會用周末時間研究玻爾茲曼機。合作非常愉快,我們都相信這是大腦的工作方式,這是我做過的最令人興奮的研究。也許有很多成果也很棒,但我認為那不是大腦的工作方式。
5月14日,OpenAI在春季發(fā)布會上揭曉了其最新的旗艦AI模型——GPT-4o,這一模型以“全知全能”為目標,實現(xiàn)了實時的語音、文本、圖像交互功能
2024-05-15 09:10:07OpenAI發(fā)布全新生成式AI模型GPT-4o微軟在新園區(qū)發(fā)布了一款專為AI體驗設(shè)計的Windows 11 AI PC新品,這款產(chǎn)品內(nèi)置的NPU芯片每秒運算能力超過40萬億次,能顯著提升AI應用性能
2024-05-21 15:48:2611