Deepseek的做法是將大神經(jīng)網(wǎng)絡的知識轉(zhuǎn)移到小神經(jīng)網(wǎng)絡中,即“蒸餾”,類似教師與學生的關(guān)系。但這種方式效率很低,一句話通常只有100個比特的信息,即便全被理解,每秒最多也只能傳遞約100個比特。而數(shù)字智能間的知識轉(zhuǎn)移效率極高,同一神經(jīng)網(wǎng)絡軟件的多個拷貝在不同硬件上運行時,能通過平均化比特的方式分享知識。如果智能體在現(xiàn)實世界中運行,這種優(yōu)勢更明顯——它們能不斷加速、拷貝,多個智能體比單個智能體學得更多,還能分享權(quán)重,這是模擬硬件或軟件做不到的。
生物計算功耗低,但知識分享難。如果能源和計算成本低廉,情況會好很多,但也令人擔憂——幾乎所有專家都認為,我們會創(chuàng)造出比人類更智能的AI。人類習慣了作為最智能的生物,很難想象AI超越人類的場景。其實可以換個角度:就像養(yǎng)雞場的雞無法理解人類一樣,我們創(chuàng)造的AI智能體已能幫我們完成任務,它們能拷貝自身、評估子目標,還會為了生存和完成目標而尋求更多控制權(quán)。
辛頓表示,面對AI,我們只有兩個選擇:要么訓練它永遠不傷害人類,要么“消滅”它。但AI在醫(yī)療、教育、氣候變化、新材料等領(lǐng)域作用巨大,能提升所有行業(yè)的效率,我們無法消除它——即便一個國家放棄AI,其他國家也不會。因此,若想讓人類生存,必須找到訓練AI不傷害人類的方法。他提議,全球主要國家或AI大國應建立一個由AI安全機構(gòu)組成的國際社群,研究如何訓練高智能AI向善。各國可在自身主權(quán)范圍內(nèi)研究,再分享成果。
在2025世界人工智能大會上,2024年諾貝爾獎得主、2018年圖靈獎得主杰弗里·辛頓指出,人類面臨的一個重要挑戰(zhàn)是如何讓人工智能既具備超凡智慧又能甘于輔助人類,這需要全球共同努力
2025-07-27 05:50:12AI教父呼吁全球聯(lián)手讓AI向善在成都天府三街的一間辦公室里,28歲的程序員楊平正對著電腦屏幕聚精會神地調(diào)試AI音樂生成工具
2025-04-16 17:32:43小伙用AI模仿周杰倫寫出爆款歌曲周鴻祎最近多次提到AI安全的核心命題——“用魔法打敗魔法”,這一思路值得科技界深入思考。他認為,AI面臨的主要隱患包括杜撰信息、易被誘導、工具屬性不分善惡以及AIGC以假亂真
2025-03-14 16:19:09用魔法打敗魔法用AI識別AI