《電子技術應用》
您所在的位置:首頁 > 模擬設計 > 業(yè)界動態(tài) > IBM開發(fā)出DDL軟件庫 提升深度學習效率

IBM開發(fā)出DDL軟件庫 提升深度學習效率

2017-08-10

近年來,處理器技術進入如此大,一個像U盤那么大的設備現(xiàn)在都可以用于為神經網絡提供能量。但是,企業(yè)通常很難充分發(fā)揮其計算能力,因為實施大規(guī)模人工智能過程中還存在的根本挑戰(zhàn)。

20170809154736_1502264856132714512.jpg

這個問題和可擴展性有關,本周二IBM發(fā)布了一種名為分布式深度學習(Distributed Deep Learning,DDL)的軟件庫來解決這個問題。深度學習是機器學習的一個子集,旨在教計算機以人類相同的方式進行學習。例如,人們不會通過描述這個生物有4條腿、1個鼻子和1條尾巴的事實來識別出這是一只狗。一旦人們知道狗是什么樣子,就會與貓做永久性的區(qū)分。深度學習試圖在軟件中復制這種方法。

大多數(shù)深度學習的框架都支持跨多個服務器擴展大型模式的能力,很多現(xiàn)在也支持GPU,但是收集和同步分析結果的方式還遠遠不夠,IBM研究部門總監(jiān)Hillery Hunter表示。

同步的工作流

深度學習模式運行在計算機集群上,通過GPU進行增強,GPU芯片有數(shù)百萬個分布式和互相關聯(lián)的處理元素,其作用大致類似于人類大腦中的神經元。這些人造神經元一起處理信息,就像人類的部分一樣,每個神經元都處理一小部分數(shù)據(jù)。當節(jié)點完成計算的時候,結果將同步在其他神經網絡上,以幫助協(xié)調工作。

在IBM看來,這就是瓶頸所在。人造神經元部署運行在越快的GPU上,完成計算的速度就越快,意味著結果的同步更加頻繁。由于AI集群的構建方式,如果環(huán)境中芯片的數(shù)量增加,同樣適用。但是深度學習框架只能頻繁地同步數(shù)據(jù)。

因此,處理速度收到了數(shù)據(jù)在GPU之間傳輸?shù)南拗?。DDL利用所謂的多層通信算法來改變這一平衡。這個軟件庫修改信息發(fā)送通過的網絡路徑,以實現(xiàn)延遲和帶寬之間“最優(yōu)化”的平衡,讓通信不再是主要的瓶頸。

創(chuàng)紀錄的性能

在一次內部測試中,IBM在一個有數(shù)百個GPU的集群上部署了DDL,并從一個受歡迎的研究數(shù)據(jù)集中發(fā)送處理750萬個圖像,將其分到22000個分類中的一個或者多個。該模型在經過7個小時的訓練之后,可準確識別33.8%的對象,打包了之前微軟在經過10天訓練之后創(chuàng)下的29.8%的紀錄。

如果4%的改進聽起來不足為奇,而且整體成功率還比較低,這是因為這個模型遠比現(xiàn)實中遇到的更為復雜,IBM高性能計算及人工智能副總裁Sumit Gupta表示。所以改進是循序漸進的,他指出,微軟此前的紀錄只比上一次改進了0.8%。這個基準測試旨在強調深度學習軟件,以證明研究人員真正構建了更好的模型。

DDL在訓練人工智能開發(fā)的過程中尤其有用,這是整個項目生命中其中占用時間最長的之一。有時候模型需要花費幾周甚至幾個月的時間來處理樣品數(shù)據(jù),才能變得足夠準確用于生產中。IBM稱,在某些情況下IBM的軟件庫可以將這個過程縮短至幾個小時?!叭绻枰?6天時間訓練一個模型如何識別新的信用卡,那么這16天你就是在虧本的?!?/p>

深度學習在醫(yī)療場景中也很有用,例如組織分析,長時間的訓練關于生存或者死亡的問題。此外還有其他好處,如果一個深度學習模型可以在數(shù)小時而不是數(shù)周時間內完成訓練,那么就能釋放企業(yè)的人工智能基礎設施,用于更快地完成其他項目和其他工作。

IBM還另外展示了如何利用DDL實現(xiàn)95%的擴展效率,相比之下Facebook在此前的測試中記錄是89%。這兩個測試都使用了相同的樣本數(shù)據(jù)。

IBM表示,DDL幫助企業(yè)培訓他們的模型,實現(xiàn)此前由于時間限制而無法實現(xiàn)的速度和范圍。它將DDL軟件庫與所有主流深度學習框架相連接,包括TensorFlow、Caffee、Chainer、Torch和Theano,都是在一個開源許可下的。

IBM還將這個軟件庫融入到自己的PowerAI深度學習共計套件平臺中,有免費和付費企業(yè)兩個版本,此外還有在Minbix Minsky Power Cloud上。Gupta表示:“我們將通過PowerAI把它帶給每個人?!?/p>


本站內容除特別聲明的原創(chuàng)文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內容無法一一聯(lián)系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。
主站蜘蛛池模板: 天天色天天干天天 | 最新大黄网站免费 | 夜鲁夜鲁夜鲁在线观看福利 | 另类异族videosex太狠了 | 国产午夜精品片一区二区三区 | 在线观看黄免费 | 猫色网站 | 日韩免费在线视频观看 | 亚洲va欧美va人人爽夜夜嗨 | 一级毛片免费观看不卡视频 | 欧美性群另类大交人妖 | 大片免费播放器免费观看 | 久久夜色精品国产亚洲 | 久久国产亚洲观看 | 成人性动漫在线观看视频 | 日本乱人伦免费播放 | 日韩在线三级 | 免费毛片网站在线观看 | 在线一级视频 | 大又大又粗又爽又黄毛片女人 | 久久久久久国产精品视频 | 狠狠干一区 | 999久久免费高清热精品 | 狠狠色狠狠色综合日日92 | 一级黄色片一级片 | 亚洲免费精品视频 | 狠狠狠狠狠狠狠狠狠狠 | 日本爽p大片免费观看 | 亚洲一级黄色片 | 日本aⅴ在线| 亚洲首页国产精品丝袜 | 日本三级香港三级少妇 | 在线视频你懂得 | 日本肥老妇色xxxxx日本老妇 | 成人免费一区二区三区 | 国产黄色三级 | 国产精品揄拍一区二区 | 欧美日韩不卡中文字幕在线 | 看全色黄大色大片免费久久怂 | 欧美一级专区免费大片野外交 | 精品成人免费播放国产片 |