《電子技術應用》
您所在的位置:首頁 > 模擬設計 > 業界動態 > ICLR 2025丨云天勵飛多篇論文被機器學習頂會收錄

ICLR 2025丨云天勵飛多篇論文被機器學習頂會收錄

2025-02-08
來源:云天勵飛
關鍵詞: 云天勵飛

日前,第13屆國際學習表征會議(International Conference on Learning Representations,簡稱ICLR)公布論文錄用結果,云天勵飛4篇論文被錄用。

關于ICLR
ICLR 是深度學習領域的頂級會議,關注有關深度學習各個方面的前沿研究,在人工智能、統計和數據科學領域以及機器視覺、語音識別、文本理解等重要應用領域中發布了眾多極其有影響力的論文。會議具有廣泛且深遠的國際影響力,與 NeurIPS、ICML 并稱為機器學習領域三大頂會。

錄用論文一覽

1. 《Taming Transformer Without Using Learning Rate Warmup》

Transformer模型是現在大模型的最重要的基礎模型,但訓練過程中,它常常面臨諸如梯度爆炸、模型崩潰等問題。這篇論文從矩陣微分的角度推導了self-attention的反向梯度公式,通過該反向傳播公式的推導,作者定位到了模型崩潰的一個核心問題:(Wq)'Wk矩陣在訓練的過程中,它的譜能量集中到了幾個方向,最終導致所有的X塌陷到一個點上。通過理論的推導,作者得出了一種簡單的方案,通過控制(Wq)'Wk矩陣的奇異值的快速增長,來阻止能量的過度集中,作者將提出的方法稱之為AdamW2。

實驗證明,該方法無需依賴學習率預熱(Learning Rate Warmup),就可以有效緩解訓練初期因學習率過大導致的不穩定或發散問題。作者通過在ViT、GPT和Swin-Transformer模型上的大量實驗,驗證了AdamW2的有效性,證明其在無需學習率預熱的情況下,依然能夠實現穩定訓練,并取得與使用學習率預熱相當的性能。這一成果為Transformer模型的訓練提供了全新的視角和方法,具有重要的理論意義和實踐價值。

論文地址:

https://openreview.net/forum?id=GeUK3zGreN&referrer=%5BAuthor%20Console%5D(%2Fgroup%3Fid%3DICLR.cc%2F2025%2FConference%2FAuthors%23your-submissions)

2.《BiGR : Harnessing Binary Latent Codes for Image Generation and Improved Visual Representation Capabilities》

這篇論文介紹了一個新的圖像生成模型 BiGR,它能生成高質量的圖像,同時還能提升圖像的視覺表示能力。BiGR 通過使用二進制代碼來表示圖像,并結合一種特殊的編碼器和解碼器來生成圖像。模型基于 Transformer 架構,使用掩碼建模方法進行訓練,通過預測被掩碼的二進制代碼來生成圖像。

作者在多個任務上對BiGR進行了驗證,包括類別生圖、文生圖。實驗表明,BiGR 在生成圖像的質量和視覺表示能力上都優于現有的模型。此外,BiGR 還展示了在多種視覺任務上的零樣本泛化能力,比如圖像修復、編輯和插值等,無需針對特定任務進行結構調整或參數微調,是一個在圖像生成和視覺表示方面都很有潛力的模型。

論文地址:

https://openreview.net/forum?id=1Z6PSw7OL8&referrer=%5BAuthor%20Console%5D(%2Fgroup%3Fid%3DICLR.cc%2F2025%2FConference%2FAuthors%23your-submissions)

3. 《Exploring A Principled Framework for Deep Subspace Clustering》現有深度子空間聚類方法在處理復雜數據時常面臨特征崩潰的問題,即學習到的特征塌縮至低維空間,導致聚類效果不理想。為應對這一挑戰,本文提出了一種名為PRO-DSC(Principled fRamewOrk for Deep Subspace Clustering)的深度子空間聚類框架。通過引入有效的正則化項,該方法成功緩解了特征崩潰現象。實驗結果顯示,PRO-DSC在合成數據及多個真實數據集上的表現均優于現有方法。例如,在CIFAR-10和CIFAR-100數據集上,其聚類準確率分別達到97.2%和71.6%,顯著超越其他方法。這一研究為深度子空間聚類提供了全新的高效解決方案。論文地址:https://openreview.net/forum?id=7psWohxvxp&referrer=%5BAuthor%20Console%5D(%2Fgroup%3Fid%3DICLR.cc%2F2025%2FConference%2FAuthors%23your-submissions)
4. 《Unposed Sparse Views Room Layout Reconstruction in the Age of Pretrain Model》該論文提出了一種創新的3D基礎模型——Plane-DUSt3R,能夠直接從多張照片中一步完成房間3D布局的重建,極大簡化了傳統流程。該方法無需預先獲取相機的位置和角度信息,也不要求照片之間存在重疊部分,即可實現房間布局的重建。這一特性在實際應用中尤為實用,因為許多情況下,我們手頭的照片往往是隨意拍攝的,拍攝角度和位置并不固定。而傳統方法通常需要經過復雜步驟,例如先估計相機位置與角度,再進行圖像匹配和三角測量,這不僅流程繁瑣,還容易出錯。DUSt3R的引入顯著簡化了這一過程。我們的方法Plane-DUSt3R在DUSt3R基礎上,提出了一種新穎的獨立的多視圖(稀疏視圖)房間布局估計方法。

實驗結果顯示,該方法在多個數據集上均表現出色,不僅在合成數據集上優于現有方法,在真實世界的數據集上也展現了強大的泛化能力。例如,在Structure3D數據集上,Plane-DUSt3R在3D平面精度和召回率方面均實現了超過5%的提升,進一步驗證了其卓越性能。

論文地址:https://openreview.net/forum?id=DugT77rRhW&referrer=%5BAuthor%20Console%5D(%2Fgroup%3Fid%3DICLR.cc%2F2025%2FConference%2FAuthors%23your-submissions)


Magazine.Subscription.jpg

本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。
主站蜘蛛池模板: 小明免费视频一区二区 | 欧美国产综合 | 日本欧美视频在线 | 欧美精品在欧美一区二区 | 五月婷婷综合激情 | 五月婷婷中文 | 二区在线观看 | 男人操女人免费网站 | 在线播放性xxx欧美 在线播放你懂的 | 欧美日韩视频在线第一区 | 免费看污的视频网站 | 99re最新| 日本中文字幕在线看 | 欧美性精品人妖 | 国产自在自线午夜精品视频在 | 在线视频国产一区 | 午夜爽视频| 天天干天天舔 | 无人区理论片手机看片 | 456极品嫩模在线视频 | 美日韩中文字幕 | 妞妞影视一二三区 | 天天干天天草 | 亚洲成年人网址 | 新97人人模人人爽人人喊 | 亚洲欧美日产综合在线看 | 韩国2023理伦片免费观看 | h肉动漫在线视频无修无遮挡 | 999任你躁在线精品免费不卡 | 亚洲妇人成熟性成熟网站 | 黄色a一级 | 久久亚洲热 | 国产黄色在线免费观看 | 免费一级国产大片 | 1级a的观看视频 | 99视频精品免视3 | 成年人免费大片 | 久久精品2019www中文 | 久久国产欧美日韩精品 | 日本www色视频 | 日韩视频一区二区三区 |