日前,DeepSeek宣布DeepSeek V3模型完成小版本升級(jí),版本號(hào)為DeepSeek-V3-0324。
27日晚,摩爾線程宣布,其迅速響應(yīng)并完成了對(duì)DeepSeek-V3的無縫升級(jí),實(shí)現(xiàn)了零報(bào)錯(cuò)、零兼容性問題的光速部署。
摩爾線程表示,在Deepseek-V3-0324模型上的光速適配,再次有力驗(yàn)證了國產(chǎn)全功能GPU在推動(dòng)大模型產(chǎn)業(yè)化落地方面的巨大潛力。
據(jù)了解,DeepSeek-V3-0324模型參數(shù)從初代V3的6710億小幅增至6850億,依然采用混合專家(MoE)架構(gòu),每個(gè)token激活約370億參數(shù),在推理、編程、數(shù)學(xué)、中文處理等多個(gè)領(lǐng)域達(dá)到行業(yè)領(lǐng)先水平。
根據(jù)DeepSeek官方發(fā)布的測試報(bào)告,DeepSeek-V3-0324在各項(xiàng)能力評(píng)測中表現(xiàn)出色。
DeepSeek-V3-0324不僅全面超越Claude-3.7-Sonnet與Qwen-Max等同類型優(yōu)質(zhì)模型,更在數(shù)學(xué)、代碼類等相關(guān)評(píng)測集上勝過了GPT-4.5。
本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請(qǐng)及時(shí)通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。