8月30日消息,阿里通義千問發布第二代視覺語言模型Qwen2-VL。其中,旗艦模型Qwen2-VL-72B的API已上線阿里云百煉平臺。
據了解,Qwen2-VL在多個權威測評中刷新了多模態模型的最佳成績,在部分指標上甚至超越了GPT-4o和Claude3.5-Sonnet等閉源模型。
2023年8月,通義千問開源第一代視覺語言理解模型Qwen-VL,成為開源社區最受歡迎的多模態模型之一。
短短一年內,模型下載量突破1000萬次。目前,多模態模型在手機、車端等各類視覺識別場景的落地正在加速,開發者和應用企業也格外關注Qwen-VL的升級迭代。
相比上代模型,Qwen2-VL的基礎性能全面提升。可以讀懂不同分辨率和不同長寬比的圖片,在MathVista、DocVQA、RealWorldQA、MTVQA等基準測試創下全球領先的表現。
此外,Qwen2-VL可以理解20分鐘以上長視頻,支持基于視頻的問答、對話和內容創作等應用。同時,具備強大的視覺智能體能力,可自主操作手機和機器人,借助復雜推理和決策的能力,Qwen2-VL可以集成到手機、機器人等設備,根據視覺環境和文字指令進行自動操作。
該模型還能理解圖像視頻中的多語言文本,包括中文、英文,大多數歐洲語言,日語、韓語、阿拉伯語、越南語等。
通義千問團隊從六個方面評估了模型能力,包括綜合的大學題目、數學能力、文檔表格多語言文字圖像的理解、通用場景問答、視頻理解、Agent 能力。
Qwen2-VL-72B 在大部分的指標上都達到了最優,甚至超過了 GPT-4o 和 Claude3.5-Sonnet 等閉源模型,在文檔理解方面優勢尤其明顯,僅在綜合的大學題目方面與GPT-4o 存在差距。
本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。