DeepSeek R1的推出給全球AI行業(yè)帶來了新的變數(shù)。面對這一沖擊,美國兩大AI巨頭Anthropic與OpenAI迅速做出回應(yīng),試圖緩解市場對其技術(shù)領(lǐng)先地位的擔(dān)憂。
周三,Anthropic首席執(zhí)行官達(dá)里奧·阿莫迪發(fā)布了一篇長文討論了DeepSeek的進(jìn)展。他指出,DeepSeek并沒有“用600萬美元做到美國AI公司花費(fèi)數(shù)十億美元才能實現(xiàn)的事情”。以Anthropic為例,Claude 3.5 Sonnet是一個中等規(guī)模的模型,訓(xùn)練成本達(dá)數(shù)千萬美元,遠(yuǎn)非數(shù)十億美元級別。他認(rèn)為DeepSeek的訓(xùn)練成本降低符合行業(yè)趨勢,并不代表突破性的技術(shù)成就。如果AI訓(xùn)練成本每年下降4倍,而DeepSeek-V3的訓(xùn)練成本比一年前開發(fā)的美國當(dāng)前模型低約8倍,這完全符合正常趨勢。即使接受DeepSeek的訓(xùn)練成本數(shù)據(jù),他們也只是處于趨勢線上,甚至可能還未完全達(dá)到。
此前一天,OpenAI首席研究員Mark Chen也對DeepSeek R1做出回應(yīng),其態(tài)度既肯定又帶有一絲微妙。Chen承認(rèn)DeepSeek“獨立發(fā)現(xiàn)了OpenAI在o1模型研發(fā)過程中的一些核心理念”,但他將焦點轉(zhuǎn)移到成本問題上,認(rèn)為“外界對成本優(yōu)勢的解讀有些過頭”。他還提到了“蒸餾技術(shù)”的成熟和“成本與能力解耦”的趨勢,強(qiáng)調(diào)OpenAI在模型壓縮和優(yōu)化技術(shù)方面的探索。他表示,低成本服務(wù)模型并不意味著擁有更強(qiáng)的模型能力。OpenAI將繼續(xù)在降低成本和提升能力兩個方向上努力,并承諾今年會發(fā)布更優(yōu)秀的模型。
紐約大學(xué)教授、AI專家Gary Marcus則認(rèn)為,DeepSeek對OpenAI的影響可能比想象中更大。他指出,DeepSeek基本上免費(fèi)提供了OpenAI想要收費(fèi)的東西,這可能會嚴(yán)重影響OpenAI的商業(yè)模式。此外,DeepSeek比OpenAI更開放,這將吸引更多人才。Marcus質(zhì)疑OpenAI 1570億美元的估值,在每年損失約50億美元的情況下,這一估值難以證明合理性。
阿莫迪進(jìn)一步解釋了AI發(fā)展的三大定律:規(guī)模法則、計算成本的下降和訓(xùn)練范式的變化。規(guī)模法則表明,訓(xùn)練規(guī)模越大,AI在一系列認(rèn)知任務(wù)上的表現(xiàn)越穩(wěn)定、越出色。計算成本的下降則是由于算法和硬件的改進(jìn),使得AI訓(xùn)練的計算成本每年下降約4倍。訓(xùn)練范式的改變則體現(xiàn)在從預(yù)訓(xùn)練到強(qiáng)化學(xué)習(xí)的發(fā)展。這些因素有助于理解DeepSeek最近的發(fā)布。盡管DeepSeek在某些方面表現(xiàn)出色,但并未從根本上改變LLM的經(jīng)濟(jì)性,它只是持續(xù)成本降低曲線上一個預(yù)期的點。不同的是,這次第一個展示預(yù)期成本降低的公司是中國的,這在地緣政治上具有重要意義。美國公司很快也會跟上這一趨勢。
盡管像ChatGPT這樣的大語言模型一直是AI新聞的焦點,但人們開始意識到它們的局限性。OpenAI表示其旗艦GPT模型的改進(jìn)速度正在放緩,這引發(fā)了對未來發(fā)展方向的疑問
2024-11-26 11:17:00科技巨頭開始“卷”AI智能體