開源=最強(qiáng)大模型!Llama3.1發(fā)布,405B超越閉源GPT-4o,扎克伯格:分水嶺時刻
7月23日晚,Meta宣布推出開源大模型Llama 3.1系列,該系列包含8B、70B及450B三種參數(shù)規(guī)模,旨在縮小開源與閉源模型之間的差距。尤其值得注意的是,450B參數(shù)的模型在多項基準(zhǔn)測試中超越了OpenAI的GPT-4o,并可與頂尖閉源模型如Claude 3.5 Sonnet相抗衡。
同期,Meta創(chuàng)始人兼CEO扎克伯格在其官網(wǎng)博客中強(qiáng)調(diào),Llama 3.1的發(fā)布標(biāo)志著行業(yè)轉(zhuǎn)折點(diǎn),預(yù)示著開源AI將成為未來的主流趨勢。英偉達(dá)高級研究科學(xué)家Jim Fan也對此表示祝賀,認(rèn)為這是一個具有歷史意義的時刻,開源技術(shù)正將GPT-4級別的能力帶入現(xiàn)實(shí)。
Llama 3.1在技術(shù)層面實(shí)現(xiàn)了顯著提升,所有模型的上下文窗口擴(kuò)大至128K,增加了對8種語言的支持。405B版本更是歷經(jīng)大規(guī)模訓(xùn)練,使用了超過15萬億個tokens,并動用了1.6萬塊H100 GPU,成為首個達(dá)到如此訓(xùn)練規(guī)模的Llama模型。
Meta在官方博客中詳細(xì)對比了Llama 3.1與其他模型的性能,旗艦?zāi)P?05B不僅在常識理解、操作性、數(shù)學(xué)任務(wù)上表現(xiàn)出色,能與GPT-4、GPT-4o及Claude 3.5 Sonnet競爭,8B和70B的小型模型也在同類參數(shù)模型中保持競爭力。實(shí)際應(yīng)用中,Llama 3.1 405B在人工評估中展現(xiàn)出優(yōu)于GPT-4o和Claude 3.5 Sonnet的整體性能。
此外,Meta更新了開源許可,首次允許開發(fā)者利用Llama模型的輸出優(yōu)化其他模型,并計劃將圖像、視頻和語音功能融入Llama 3,盡管這些功能仍在開發(fā)階段。據(jù)透露,Llama系列至今下載總量已突破3億次。
扎克伯格在另一篇博文中深入探討了開源AI的重要性,以Linux的成功為例,指出開源有利于創(chuàng)新、降低成本、增強(qiáng)安全,并為開發(fā)者提供靈活、高效的解決方案,同時強(qiáng)調(diào)開源AI對于推動全球經(jīng)濟(jì)和安全具有重要意義。
7月29日,SIGGRAPH圖形大會在美國丹佛舉行,英偉達(dá)CEO黃仁勛與Meta CEO馬克·扎克伯格展開對話,探討了人工智能和仿真模擬的未來發(fā)展
2024-07-30 08:51:25黃仁勛扎克伯格支持AI大模型開源6月7日,阿里云在技術(shù)博客上宣布了一個重要進(jìn)展:他們發(fā)布了名為Qwen2-72B的開源模型,這款模型在全球范圍內(nèi)以其卓越的性能脫穎而出
2024-06-07 10:49:47阿里云發(fā)布開源模型Qwen2