DeepSeek的開發(fā)成本大幅降低,在于應(yīng)用了不同的模型訓(xùn)練模式,打破了美國堆砌算力的方式。OpenAI選擇了“人海戰(zhàn)術(shù)”,堆砌算卡、將資源集中在算力,用海量數(shù)據(jù)投喂實現(xiàn)能力的提升。而DeepSeek利用算法把數(shù)據(jù)進行總結(jié)和分類,經(jīng)過選擇性處理之后再輸送給大模型,最大優(yōu)化算力,實現(xiàn)了成本的降低和模型性能提升。目前看來,Meta耗費大量資金訓(xùn)練的人工智能模型Llama效果并不如DeepSeek。
與此前大火的ChatGPT相比,DeepSeek致力于開辟差異化技術(shù)路線?!都~約時報》指出,DeepSeek可以被視為滿足特定需求的專用工具,而ChatGPT則是一個多功能助手。此外,DeepSeek在對提示做出響應(yīng)之前,會清晰地表達自己的推理。