<ins id="pbxhv"></ins>
<form id="pbxhv"><nobr id="pbxhv"></nobr></form>
    <address id="pbxhv"></address>

    <noframes id="pbxhv">
    <form id="pbxhv"><th id="pbxhv"><progress id="pbxhv"></progress></th></form>

      <address id="pbxhv"><address id="pbxhv"><listing id="pbxhv"></listing></address></address>
        首頁 > 推薦 > 正文

        谷歌又一野心浮現:用AI“反哺”芯片設計

        2020-04-16 16:11:14  來源: DeepTech深科技

        摘要:過去兩年來,隨著專用芯片的壯大,芯片開發基礎設施的變革浪潮也拉開序幕,例如在國內去年阿里平頭哥發布的無劍 SOC 平臺,希望能夠借助新興技術來降低芯片開發的門檻,以促進 AI 硬件的更新速度,追趕日新月異的市場。
        關鍵詞: 谷歌 AI
          “讓天下沒有難做的芯片”。

          過去兩年來,隨著專用芯片的壯大,芯片開發基礎設施的變革浪潮也拉開序幕,例如在國內去年阿里平頭哥發布的無劍 SOC 平臺,希望能夠借助新興技術來降低芯片開發的門檻,以促進 AI 硬件的更新速度,追趕日新月異的市場。
         
          而在國外,拉動世界技術革新的美國互聯網巨頭 “GAFA(谷歌、蘋果、Facebook、亞馬遜)” 們,是否也有相應布局?
         
          至少,最近谷歌在這方面又有了新的進展,且稱得上野心勃勃。
         
        \
        圖|谷歌大樓(來源:JHVEPHOTO)
         
          在今年 3 月舉辦的全球芯片設計領域頂會 ISSCC 上,計算機科學領域的傳奇人物、谷歌 TPU 之父 Jeff Dean 的演講,就透露出團隊正在嘗試的新方向:利用 AI 算法設計芯片。
         
          演講中,他一邊高度肯定了高性能計算芯片是人工智能的基礎設施,沒有算力發展就難以發揮 AI 模型的更多價值,一邊給出了 AI 算法“反哺”芯片設計的例子,特別是使用深度強化學習的方法來進行芯片的布局優化(Placement Optimization)。
         
          亮相芯片設計頂會,谷歌 AI 的牛刀小試
         
          提到谷歌的芯片事業,相信許多人的第一印象是它為深度學習框架 TensorFlow 專門開發的云端芯片 TPU。這款產品因在舉世矚目的 AlphaGo 對戰李世石、柯潔的圍棋大戰之中發揮重要作用而一炮走紅。
         
          TPU 為機器學習算法定制而生,是一款典型的專用芯片。相較于能夠處理各種任務的通用芯片,專用芯片處理的任務有限,但僅憑比通用芯片優越的能耗比,就足夠讓一些公司趨之如騖。這也是越來越多致力于開發專用芯片的造芯新勢力涌現的原因之一。
         
          特別對于自身就有龐大數據中心應用場景的互聯網巨頭而言,除了從英特爾或英偉達采購通用處理器,自主開發芯片的驅動力隨著AI算法吞噬算力的加劇而日益增強,谷歌就是一個典型代表。
         
          而近期的種種公開跡象顯示,這家公司在芯片領域的野心還不止 TPU 這么一條故事線
         
          谷歌團隊開發的通用型棋類游戲 AI 的 AlphaZero 背后的關鍵技術——深度強化學習——正在用于芯片設計。

        \
        圖|搭載 TPU 的服務器(來源:谷歌)
         
          與時下流行的深度學習不同,強化學習系統不會使用大量標記的數據進行訓練。相反,強化學習系統會邊做邊學,并在成功時根據有效信號調整網絡中的參數。一些 AI 專家認為,強化學習將是實現人類或超人類的通用人工智能的最可行方法。
         
          但是強化學習用在芯片設計上,又與用在下棋上有著很大區別。首先一點在于,下棋是為了戰勝人類對手,僅此獨立目標。但用來設計芯片,AI 應該考慮的是如何找到更好的設計方案,需要同時滿足多個目標,而非戰勝某個人類。另外,芯片設計的系統性工程屬性也會更強。
         
          以芯片布局為例,這項任務之所以復雜且耗時,是因為該過程涉及到邏輯和內存模塊,或者集群設置要兼顧功耗、性能、面積等,與此同時還需要遵守布線密度、互連的原則。

        \
        圖丨谷歌展示的 TPU 設計算法對比人類結果(來源:谷歌)
         
          在這種情況下,將芯片布局建模為強化學習問題,強化學習系統的目標是降低功率、改善性能和減少面積。為了找到滿足多個目標的最佳芯片布局,AI 算法將需要考慮許多變量,包括滿足一定的芯片性能,同時還要避免不必要的復雜設計,否則可能會增加芯片的制造成本。這種平衡是一項耗費芯片開發者智力資源的工作。但現在,谷歌認為自己的 AI 已經做出了成績。

        \
        圖丨和此前 AlphaGo 下棋類似,AI 還教給人類一些新穎的設計方法(來源:谷歌)
         
          谷歌展示的芯片設計布局布線任務中,強化學習算法可以用來確定構成芯片操作的電路在芯片中的布局,類似于設計建筑物的平面圖。Dean 在演講中稱,相比人類設計師 6 至 8 周內找到的解決方案,算法 24 小時就能實現,而且算法的設計成功減少了芯片所需的總布線,從而提高了效率。
         
          而就在 Dean 在 ISSCC 上公開進展之后不久,谷歌大腦團隊使用 AI 進行芯片布局的一篇相關研究論文也在 ArXiv 上公布。值得一提的是,這篇論文的作者、谷歌團隊的高級研究科學家 Azalia Mirhoseini,她也因為在用 AI 設計芯片上的工作,入選了最新一屆的《麻省理工科技評論》“35位35歲以下科技創新者”榜單。

        \
        圖|Azalia Mirhoseini(來源:《麻省理工科技評論》)
         
          彌合芯片和算法之間的“時滯”
         
          在 Azalia Mirhoseini 這篇 ArXiv 論文中,她和谷歌高級軟件工程師 Anna Goldie 表示,對芯片設計進行了足夠長時間的學習之后,團隊開發的算法可在不到 24 小時的時間內為谷歌 TPU 完成設計,且在功耗、性能、面積都超過了人類專家數周的設計成果。
         
          傳統的方法是,芯片工程師手動設計配置,最大程度地減少組件之間使用的電線數量以提高效率,然后使用電子設計自動化軟件來模擬和驗證其性能。由于每個芯片設計需要投入時間,一般認為芯片的使用壽命為兩到五年。但是,隨著 AI 算法的迅速發展,對新芯片架構的需求也在加速增長。
         
          而谷歌團隊希望借助AI解決長芯片設計周期和算法更新需求之間的鴻溝,幫助行業在相同時間內設計更多的芯片,并且帶來速度更快、功耗更低、制造成本更低、面積更小的芯片設計。

        \
        圖丨谷歌團隊論文(來源:arxiv)
         
          她們認為,理想情況下,新設計出的芯片應該能夠很好地滿足當今 AI 算法的需求,而非適配兩到五年前的 AI 算法,有些算法或神經網絡架構在現有的AI加速器上效果不佳,正是因為芯片的設計滯后,并不適合新發展出來的神經網絡架構和算法,“如果 AI 能夠縮短芯片的設計周期,在硬件與 AI 算法之間建立共生關系,會進一步推動彼此的進步”。
         
          早在 2017 年,谷歌就有利用AI來優化算力配置的成果。
         
          公開研究顯示,當時,谷歌訓練了一個強化學習模型,幫助優化神經網絡模型在設備上的計算資源分配,實現了更好地搭建異構分布式計算環境。當時的研究結果顯示,基于強化學習的設備配置優化用在 ImageNet 分類的 Inception-V3 任務、RNN LSTM 語言建模和神經機器翻譯任務上,表現優于普通手動設備配置(device placement)方式。
         
          在這之后,谷歌又有了更多的嘗試。直到這一次 ISSCC 上展示的進展,谷歌涉足利用人工智能算法在 ASIC(專用集成電路)芯片設計中進行自主布局和布線,已經不再是如同 2017 年時簡單地將軟件計算放置在不同的計算硬件上,意味著 AI 正在進入整個芯片設計中頗為關鍵的一環。

        \
        圖丨谷歌在 2017 年的嘗試(來源:谷歌)
         
          而且 Dean 也表示,對機器學習算法擴展到 IC 設計過程的其他部分——包括測試和驗證——也有興趣,這些可能的應用方向對機器學習本身的普及很重要,同時對加速集成電路設計進度也有重要性。
         
          谷歌對于 AI 的發展一直持有樂觀的態度,且其探索 AI 輔助芯片設計的當下,正是整個半導體受人工智能產業推動形成新格局之際,大量的科技公司和創企都在追求設計自有硬件以更快地運行機器學習。
         
          而芯片設計是整個芯片產業鏈的上游部分,技術壁壘較高,如果未來谷歌會在芯片基礎設施變革的新篇章中占據重要篇幅,近期的這些進展或許可被視為重要信號。

        \
          圖丨Jeff Dean (來源:谷歌)
         
          美國得克薩斯大學奧斯汀分校教授、納米級 IC 設計專家 David Z. Pan 認為:“谷歌現在做的工作帶了一個好頭,傳統 EDA 巨頭這些年一直在主導著市場,創新已經相對緩慢,有了谷歌的刺激,很可能會驅動創新。畢竟學術界對創新的產業化推動有限,如果有谷歌這些巨頭的加入,應該會有很好的效果。
         
          另外,使用 AI 設計芯片的設計成本可能相對較低。有了 AI 的輔助,芯片設計可能在人工成本和時間成本上有所降低。這不意味著工程師就會失業,我認為這降低了硬件的門檻,會讓更多的人有能力去設計芯片”。
         
          在得克薩斯大學奧斯汀分校,David Z. Pan 教授所帶領的團隊也是學術界中較早開始探索 AI 用于 IC 設計的團隊之一,Azalia Mirhoseini 的 ArXiv 論文同樣引用了 David Z. Pan 團隊此前在這方面的研究 DREAMPlace (獲 EDA 頂會 DAC 2019 最佳論文)。
         
          IC AI 化來勢洶洶,兩大 EDA 巨頭也已“亮劍”
         
          事實上,谷歌以外,AI 算法應用于芯片設計的趨勢已經在 EDA 界有所顯現:兩大 EDA 巨頭 Cadence、Synopsys 已經開始在其芯片設計工具中加入 AI 算法。
         
          就在剛剛過去的 2020 年 3 月,Synopsys、Cadence 都推出了相應的 IC 設計產品。

        \
        圖|兩大 EDA 巨頭(來源:網絡)
         
          Synopsys 宣布其用于芯片設計的自主 AI 應用程序——DSO.ai (Design Space Optimization AI)。根據 Synopsys 的介紹,DSO.ai 是業界首個用于芯片設計的自主人工智能應用程序,通過獲取由芯片設計工具生成的大數據流,并用其來探索搜索空間、觀察設計隨時間的演變情況,同時調整設計選擇、技術參數和工作流程,可以在芯片設計任務的巨大求解空間中搜索優化目標并迅速完成設計。
         
          Synopsys 稱,原本需要多位設計專家耗時一個多月才可完成的設計,DSO.ai 只要短短 3 天即可完成,受益的客戶包括半導體大戶三星。
         
          而 Cadence 則發布新版 Cadence 數字全流程,也宣稱業界首款基于機器學習引擎的新版數字全流程,其配置的機器學習算法,同樣用在實現傳統布局布線流程設計的工作量最小化。
         
          另外,美國國防部高級研究計劃局(DARPA)也已將芯片設計智能化視為重要的技術戰略方向。

        \
        圖丨DARPA “電子復興計劃”圖景(來源:DARPA)
         
          由其主導的 “IDEA” 電子資產智能設計項目,就是 DARPA 電子復興計劃(ERI)六個組成部分之一,旨在利用先進的 AI 算法為 SoC(片上系統)、SiP(系統封裝)和 PCB(印刷電路板)打造統一平臺,開發完整集成的智能設計流程,從而實現高度自動化的電子設計能力。不少美國高校和科技企業都參與到了這一項目中。
         
          對于諸多將 AI 用于 EDA 上的探索,北京大學教授、北京大學深圳系統芯片設計重點實驗室主任何進博士表示:“雖然目前發展 AI 算法來設計芯片的確是一個熱點,特別是用于 EDA 工具的建立和改進。但總的來講,這方面的工作還處于初步階段,應該說進展最快的仍屬 PLACEMENT OPTIMIZATION、功耗優化、模型建立和參數提取等領域,因為傳統上這些領域就是限制條件下的優化算法問題,與AI最靠近,但這些任務還只是設計一塊芯片的一個環節而已”。
         
          David Z. Pan 教授則分析道,現在已經有不少互聯網公司開始自己做芯片,在實際應用中,軟件和硬件需要進行適配和優化才能發揮最強效應,如果AI能夠將芯片設計的門檻降低的話,就可以縮短適配和優化的過程。
         
          不過,他也指出,僅就公開資料來看,谷歌團隊所做的工作并不是偏向于傳統  EDA,而是如上文所提的,從 Device Placement 切入。
         
          “Azalia Mirhoseini 所做的深度強化學習技術之前最主要是用于 Device Placement,他們在這方面取得了一定的成績。現在,谷歌團隊考慮的是深度強化學習技術能不能做 ASIC 中的布局工作,我們還沒有看到這方面大規模的具體結果。我認為,他們主要展示的是 TPU 中一小部分 IP 模塊的布局工作,而對芯片中的大規模布局布線工作,現在谷歌的成果還不太具體,沒有與其他解決方案做更多對比 ”。
         
          Jeff Dean 透露,目前,谷歌團隊將 AI 用于 EDA 的探索仍屬于測試其實用性的前期:“我們正在內部將其用于一些芯片設計項目,然后嘗試該工具是否可以進一步推廣”。
         
          “谷歌所做的工作和 Synopsys、Cadence 的工作應該側重點是不同的,不排除谷歌使用深度強化學習技術在市場上另辟蹊徑的可能,但是現在距離 AI 設計出完整的,有競爭力的芯片還有相當長的路要走。”David Z. Pan 說。

        第三十屆CIO班招生
        法國布雷斯特商學院碩士班招生
        北達軟EXIN網絡空間與IT安全基礎認證培訓
        北達軟EXIN DevOps Professional認證培訓
        責編:jiaxy
        三级床上长片完整版录像 - 视频 - 在线观看 - 影视资讯 - 品爱网