4 月 7 日消息,最近,來自谷歌、卡內基梅隆大學和 MultiOn 的聯合研究團隊發表了一項關于合成數據在大型模型訓練中應用的新研究。
據專注于人工智能發展的研究機構 Epoch AI 報告顯示,目前全球約有 300 萬億個公開可用的高質量文本訓練標記。然而,隨著類似 ChatGPT 這樣的大模型的迅猛發展,對訓練數據的需求呈指數級增長,預計到 2026 年之前,這些數據將被耗盡。因此,合成數據成為了至關重要的替代方案。
據IT之家了解,研究人員主要探索了兩種合成數據類型:正向數據和負向數據。正向數據是指由高性能大模型(如 GPT-4 和 Gemini 1.5 Pro)生成的正確問題解決方案,為模型提供解決數學問題的示例。但僅依靠正向數據進行訓練存在局限性。一方面,這種方法可能無法完全揭示問題解決過程背后的邏輯,模型可能會通過模式匹配來學習,而缺乏真正的理解;另一方面,隨著訓練數據量的增加,模型可能會學到虛假的相關性,導致在處理新問題時泛化能力下降。
鑒于此,研究人員引入了負向數據,即經過驗證為錯誤的問題解決步驟。這有助于模型識別并避免錯誤,從而增強其邏輯推理能力。盡管使用負向數據存在挑戰,因為錯誤的步驟可能包含誤導性信息,但研究人員通過直接偏好優化(DPO)方法成功地使模型能夠從錯誤中學習,強調了每個問題解決步驟的重要性。
DPO 方法為每個問題解決步驟分配一個優勢值,反映其相對于理想解決方案的價值。研究表明,高優勢步驟是正確解決方案的關鍵,而低優勢步驟可能表明模型推理中存在問題。利用這些優勢值,模型可以在強化學習框架內動態調整其策略,從而更高效地從合成數據中學習和改進。
為了驗證合成數據的有效性,研究團隊使用 DeepSeek-Math-7B 和 LLaMa2-7B 等模型,在 GSM8K 和 MATH 數據集上進行了全面測試。結果顯示,經過正向和負向合成數據預訓練的大模型在數學推理任務上的性能實現了八倍的提升。這一研究充分展示了合成數據在增強大模型邏輯推理能力方面的巨大潛力。