IT之家 1 月 29 日消息,新年之際,阿里云公布了其全新的通義千問 Qwen 2.5-Max 超大規(guī)模 MoE 模型,大家可以通過 API 的方式進行訪問,也可以登錄 Qwen Chat 進行體驗,例如直接與模型對話,或者使用 artifacts、搜索等功能。
據(jù)介紹,通義千問 Qwen 2.5-Max 使用超過 20 萬億 token 的預(yù)訓(xùn)練數(shù)據(jù)及精心設(shè)計的后訓(xùn)練方案進行訓(xùn)練。
性能
阿里云直接對比了指令模型的性能表現(xiàn)(IT之家注:指令模型即我們平常使用的可以直接對話的模型)。對比對象包括 DeepSeek V3、GPT-4o 和 Claude-3.5-Sonnet,結(jié)果如下:
在 Arena-Hard、LiveBench、LiveCodeBench 和 GPQA-Diamond 等基準(zhǔn)測試中,Qwen2.5-Max 的表現(xiàn)超越了 DeepSeek V3,同時在 MMLU-Pro 等其他評估中也展現(xiàn)出了極具競爭力的成績。
在基座模型的對比中,由于無法訪問 GPT-4o 和 Claude-3.5-Sonnet 等閉源模型的基座模型,阿里云將 Qwen2.5-Max 與目前領(lǐng)先的開源 MoE 模型 DeepSeek V3、最大的開源稠密模型 Llama-3.1-405B,以及同樣位列開源稠密模型前列的 Qwen2.5-72B 進行了對比。對比結(jié)果如下圖所示:
我們的基座模型在大多數(shù)基準(zhǔn)測試中都展現(xiàn)出了顯著的優(yōu)勢。我們相信,隨著后訓(xùn)練技術(shù)的不斷進步,下一個版本的 Qwen2.5-Max 將會達(dá)到更高的水平。