9 月 29 日消息,AMD 在 Huggingface 平臺公布了自家首款 " 小語言模型 "AMD-Llama-135m,該模型具有推測解碼功能,擁有 6700 億個 token,采用 Apache 2.0 開源許可,附模型地址如下。
據介紹,這款模型主打 " 推測解碼 " 能力,其基本原理是使用小型草稿模型生成一組候選 token,然后由更大的目標模型進行驗證。這種方法允許每次前向傳遞生成多個 token,而不會影響性能,從而顯著減少 RAM 占用,實現效率提升。
AMD 表示,這款模型在四個 AMD Instinct MI250 節點訓練了六天,其 " 編程專用版本 " 變體 AMD-Llama-135m-code 則額外耗費了四天時間進行微調。
本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。