《電子技術應用》
您所在的位置:首頁 > 嵌入式技術 > 業界動態 > 采用PIM等優化AI芯片設計的新方法

采用PIM等優化AI芯片設計的新方法

2018-05-30

比利時研究機構Imec在近日舉行的年度技術論壇(ITF BELGIUM 2018)上透露,該機構正在打造一款采用單位元精度的深度學習推論(inference)芯片原型;Imec并期望在明年收集采用創新資料型態與架構──采用存儲器內處理器(processor-in-memory,PIM),或是類比存儲器結構(analog memory fabric)──的客戶端裝置有效性資料。


學術界已經研究PIM架構數十年,而該架構越來越受到資料密集的機器算法歡迎,例如新創公司Mythic以及IBM Research都有相關開發成果。許多學術研究機構正在實驗1~4位元的資料型別(data type),以減輕深度學習所需的沉重存儲器需求;到目前為止,包括Arm等公司的AI加速器商用芯片設計都集中在8位元或更大容量的資料型別,部分原因是編程工具例如Google的TensorFlow缺乏對較小資料型別的支援。


Imec擁有在一家晶圓代工廠制作的40奈米制程加速器邏輯部份,而現在是要在自家晶圓廠添加一個MRAM層;該機構利用SRAM模擬此設計的性能,并且評估5奈米節點的設計規則。此研究是Imec與至少兩家匿名IDM業者伙伴合作、仍在開發階段的項目,從近兩年前展開,很快制作了采用某種電阻式存儲器(ReRAM)的65奈米PIM設計原型。


該65奈米芯片并非鎖定深度學習算法,雖然Imec展示了利用它啟動一段迷人的計算機合成音樂;其學習模式是利用了根據以音樂形式呈現、從傳感器所串流之資料的時間序列分析(time-series analysis)。而40奈米低功耗神經網絡加速器(Low-Energy Neural Network Accelerator,LENNA)則會鎖定深度學習,在相對較小型的MRAM單元中運算與儲存二進制權重。


Imec技術團隊的杰出成員Diederik Verkest接受EE Times采訪時表示:「我們的任務是定義出我們應該利用新興存儲器為機器學習開發什么樣的半導體技術──或許我們會需要制程上的調整,」以取得最佳化結果。該機構半導體技術與系統部門執行副總裁An Steegen則表示:「AI會是制程技術藍圖演化的推手,因此Imec會在AI (以及PIM架構)方面下很多功夫──這方面的工作成果將會非常重要。」

微信圖片_20180530234716.jpg


圖:Imec聲稱其LENNA芯片在推論任務上的表現將超越現有的CPU與GPU(來源:Imec)


確實,如來自英國的新創公司Graphcore執行長Nigel Toon所言,AI標志著「運算技術的根本性轉變」;該公司將于今年稍晚推出首款芯片。Toon在Imec年度技術論壇上發表專題演說時表示:「今日的硬件限制了我們,我們需要某種更靈活的方案…我們想看到能根據經驗調整的(神經網絡)模型;」他舉例指出,兩年前Google實習生總共花了25萬美元電費,只為了在該公司采用傳統x86處理器或Nvidia GPU的資料中心嘗試最佳化神經網絡模型。


實現復雜的折衷平衡


Imec希望LENNA能在關于PIM或類比存儲器架構能比需要存取外部存儲器的傳統架構節省多少能量方面提供經驗;此外該機構的另一個目標,是量化采用二進制方案在精確度、成本與處理量方面的折衷(tradeoff)。

加速器芯片通常能在一些熱門的測試上提供約90%的精確度,例如ImageNet競賽;Verkest表示,單位元資料型別目前有10%左右的精度削減,「但如果你調整你的神經網絡,可以達到最高85%~87%的精確度。」他原本負責督導Imec的邏輯制程微縮技術藍圖,在Apple挖腳該機構的第一個AI項目經理之后,又兼管AI項目。


Verkest表示,理論上類比存儲器單元應該能以一系列數值來儲存權重(weights),但是「那些存儲器元件的變異性有很多需要考量之處;」他指出,Imec的開發項目將嘗試找出能提供最佳化精度、處理量與可靠度之間最佳化平衡的精度水平。


而Toon則認為聚焦于資料型別是被誤導了:「低精度并沒有某些人想得那么嚴重,存儲器存取是我們必須修正之處;」他并未詳細介紹Graphcore的解決方案,但聲稱該公司技術可提供比目前采用HBM2存儲器的最佳GPU高40倍的存儲器頻寬。


在芯片架構方面,Imec的研究人員還未決定他們是要設計PIM或采用類比存儲器結構;后者比較象是一種類比SoC,計算是在類比區塊處理,可因此減少或免除數位-類比轉換。不同種類的神經網絡會有更適合的不同架構,例如卷積神經網絡(CNN)會儲存與重復使用權重,通常能以傳統GPU妥善運作;歸遞神經網絡(RNN)以及長短期記憶模型(long short-term memories,LSTMs)則傾向于在使用過后就拋棄權重,因此更適合表達式存儲器結構

微信圖片_20180530234742.jpg


圖:Imec可能會以存儲器結構來打造LENNA,讓運算留在類比功能區塊(來源:Imec)


新的平行架構非常難編程,因此大多數供應商正在嘗試建立在TensorFlow等現有架構中攝取程序碼的途徑。而Graphcore則是打造了一種名為Poplar的軟件層,旨在以C++或Python語言來完成這項工作;Toon表示:「我們把在處理器中映射圖形(graphs)的復雜性推到編譯器(也就是扮演該角色的Poplar)。」


Graphcore的客戶很快就會發現該程序會有多簡單或是多困難;這家新創公司預計在年中將第一款產品出貨給一線大客戶,預期他們會在今年底采用該款芯片執行大型云端供應商的服務。Toon聲稱,其加速器芯片將能把CNN的速度提升五至十倍,同時間采用RNN或LSTM的更復雜模型則能看到100倍的效能提升。


本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。
主站蜘蛛池模板: 男人女人真曰批的视频动态 | 国产碰碰| 91亚洲国产成人久久精品网站 | 中文字幕一区在线观看视频 | 黄色在线免费观看 | 海天翼精品一区二区三区 | 怡红院视频网 | 6080私人午夜性爽快影院 | 成人性视频在线三级 | 欧美日韩在线观看一区二区 | 欧美日韩一区二区三区高清不卡 | 中文字幕第四页 | 波多野结衣178部中文字幕 | 国产在线一区二区三区在线 | 丁香网五月网 | 天天摸天天碰成人免费视频 | 丝袜老师在办公室被狠狠 | 好色综合 | 国产综合在线观看 | 青青青亚洲精品国产 | 麻豆成人在线视频 | 一个人看的www日本高清视频 | 中文天堂在线最新2022更新 | 激情网站在线观看 | 在线亚洲精品防屏蔽 | 国产1级片| 97人人人人 | 一区二区在线免费视频 | 国产高清一级毛片在线不卡 | 免费看曰批女人的视频 | 欧美一区二区视频三区 | 国产精品嫩草视频永久网址 | 精品在线观看国产 | 国产精品高清一区二区三区 | 亚洲中文字幕特级毛片 | 亚洲精品第一 | 欧美一级特黄aa大片视频 | 欧美一区二区三区综合色视频 | 日日草视频 | 精品视频一区二区三区在线观看 | 毛片动态 |