DeepSeek和李飛飛之后,英偉達(dá)也看上阿里千問? 千問潛力引關(guān)注!在全球開源大模型生態(tài)圈中,阿里無疑是備受矚目的存在。上周,繼DeepSeek和“AI教母”李飛飛之后,英偉達(dá)也選擇了與阿里合作。在最新的“混合推理模型”千問3宣布開源當(dāng)日,英偉達(dá)迅速接入適配,并于5月9日開源了全新的代碼推理模型Open Code Reasoning(簡稱OCR),包括7B、14B、32B三種尺寸,基礎(chǔ)模型均基于通義千問。
在LiveCodeBench評測中,英偉達(dá)的OCR-Qwen-32B-Instruct模型成功超越了Open AI公司的o3-mini和o1模型,該模型正是基于Qwen2.5-32B微調(diào)形成的。盡管通義千問已迭代至3.0版本,性能再度突破,但英偉達(dá)仍基于上一代千問模型做出了比肩全球一流水平的模型,這讓人不禁好奇千問究竟還有多少隱藏潛力待發(fā)掘。
目前,英偉達(dá)開源的OCR系列模型的代碼及數(shù)據(jù)集已在Hugging Face平臺上公開分享,供開發(fā)者們免費(fèi)瀏覽學(xué)習(xí)。其中,OCR-Qwen-32B-Instruct在LiveCodeBench的pass1測試中獲得了61.8%的成績,超過了OpenAI的O3-Mini-2025-01-31(Low)和O1-2024-12-17(Low)。長期以來,人們普遍認(rèn)為閉源模型在能力上遠(yuǎn)超開源模型,但英偉達(dá)此次開源的OCR模型反駁了這一觀點(diǎn)。只要底座模型足夠好,即使不是最新版本的開源模型,在經(jīng)過高質(zhì)量訓(xùn)練和優(yōu)化后,也能超越閉源模型。
此前,斯坦福大學(xué)人工智能研究院院長李飛飛團(tuán)隊(duì)也曾基于阿里通義千問Qwen2.5-32B-Instruct,訓(xùn)練出與OpenAI o1、DeepSeek R1等尖端推理模型數(shù)學(xué)及編碼能力相當(dāng)?shù)膕1-32B模型。今年4月,李飛飛團(tuán)隊(duì)的研究報(bào)告顯示:中美兩國模型性能差距由2023年的17.5%大幅縮小至0.3%,近乎持平。阿里的六大模型入選報(bào)告,貢獻(xiàn)度僅次于OpenAI和Google,排名全球第三、中國第一。