4月25日消息,蘋果公司于日前發布一個名為OpenELM的高效語言模型,具有開源訓練和推理框架。
蘋果方面表示,“大型語言模型的可重復性和透明性對于推進開放研究、確保結果的可信度以及調查數據和模型偏差以及潛在風險至關重要。為此,我們發布了 OpenELM。”
據介紹,OpenELM使用分層縮放策略,可以有效地分配Transformer模型每一層的參數,從而提高準確率。例如,在參數量約為10億的情況下,OpenELM與OLMo 相比準確率提升了2.36%,同時所需的預訓練 tokens 數量為原來的50%。
“與以往只提供模型權重和推理代碼并在私有數據集上進行預訓練的做法不同。”蘋果官方指出,“我們發布的版本包含了在公開數據集上訓練和評估語言模型的完整框架,包括訓練日志、多個檢查點和預訓練配置。我們還發布了將模型轉換為 MLX 庫的代碼,以便在蘋果設備上進行推理和微調。此次全面發布旨在增強和鞏固開放研究社區,為未來的開放研究工作鋪平道路。”
據悉,這是一項開源語言模型,其源碼及預訓練的模型權重和訓練配方可在蘋果 Github庫中獲取。
本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。