「摩爾定律已死,人工智慧萬歲!」(Moore’s Law is dead, long live AI.)。這是半導體產業最近的一個新口號,就從日前於美國西部半導體展(Semicon West 2018)中一場由應用材料(Applied Materials)贊助的全天活動上響起。

應材新市場與聯盟事業群資深副總裁Steve Ghanayem表示,「半導體製程節點的時代列車即將邁入尾聲。接下來,從材料到元件——硬體、軟體與系統——都必須以全新途徑展開更多的合作。」Steve Ghanayem原來負責應材的電晶體和互連部門,目前則致力於尋找收購和結盟的機會,協助該公司朝向摩爾定律(Moore’s Law)以外的方向進展。

當然,摩爾定律還沒有完全消失;對於幾家公司來說,朝向更小型晶片的競賽也仍持續進行中。

在Semicon West的專題演講中,應材執行長Gary Dickerson表示,該公司不久將發佈新的電晶體材料,它能將漏電流降低三個數量級以上。對於晶片製造商而言,這項消息幾乎就像2007年英特爾(Intel)在高k金屬閘方面取得進展一樣重要。但是,今天這樣的進展只會影響到規模越來越小的設計社群和公司。

根據人工智慧(AI)記憶體處理器(PIM)晶片設計公司Syntiant執行長Kurt Busch估計,7奈米(nm)晶片投片大約要花1億美元,而從投片到第一款晶片產出大概要拖延到4個月的時間。「只有很少的公司能負擔得起這樣龐大的金額。而像我們這樣的一家新創公司,可沒辦法負擔1億美元的天文數字。」

不久前才離開高通(Qualcomm)的伺服器處理器架構師Dileep Bhandarkar說:「我越來越不那麼熱衷於最新的製程節點了。它們對於像高通這樣的公司十分有利,但並不適用於其他所有人。」

柏克萊大學榮譽教授David Patterson表示,「我認為這大概就是摩爾定律終結的情況了。」他指出,台積電(TSMC)的電晶體成本持平,英特爾也在致力於生產10nm晶片,「而有95%的架構師認為未來都脫離不了專用處理器。」Patterson曾經參與Google TPU的設計。

最近才退休的前英特爾資深微技術影專家Yan Borodovsky則期望能從摩爾定律傳承火炬至AI,使其成為指引半導體產業未來道路的一盞明燈。

他說:「我認為超越當今馮·諾伊曼(von Neuman)的架構將因『超越摩爾定律』(more than Moore)而受益。例如,憶阻器交叉開關可望成為神經形態運算的基本組成部份……超越摩爾定律的世界很可能是關於你可以在特定區域放置多少種類的突觸以及他們有多麼複雜…。」

Applied Transistor Leakage Chart 應材準備發佈可大幅降低漏電的電晶體材料(來源:Applied Materials)

為嵌入式系統打造超級電腦

致力於宣傳所謂「新認知時代」(a new cognitive era)的IBM認知解決方案暨研究資深副總John Kelly III表示,支援包括AI的2兆美元業務決策,就建立在1.5兆美元的IT業務之上。

Kelly說:「我經歷過摩爾定律的早期階段,但現在發生的一些事情將真正改變這個世界,這些都與人工智慧有關……這將帶來50年或更久的技術創新,並將推動我們的半導體產業繼續向前發展。」

IBM最近為美國政府研究人員打造了13mW Summit系統,這是第一台專用於處理AI任務的超級電腦,其中並搭載部份的輝達(Nvidia) GPU。Kelly說:「你不會再看到其他的傳統超級電腦了——因為它們將在未來的運算中融入AI……。」

事實上,機器學習的一大挑戰在於推動推論工作,以及最終在網路邊緣為功耗受限的處理器進行訓練任務。對於像百度(Baidu)、Facebook和Google等巨擘而言,採用當今的GPU可能要花數週的時間才能完成訓練模型任務,這可說是個夢魘。

Syntiant的Busch說:「我們將在五年內看到邊緣開始執行一些訓練。一開始先在資料中心處理神經網路的前幾層,而最後幾層則在邊緣處理——這是不可避免的。」

AI將成為許多產業領域的性能驅動力。針對以30格/秒(f/s)速率進行高解析(HD)視訊串流進行AI處理,大約需要每秒9.4TFLOS的運算效能。Nvidia首席科學家Bill Dally在主題演講中表示,自動駕駛車將會需要許多像這樣的高性能攝影機。

John Kelly IBM IBM的Kelly宣傳認知運算時代來臨(來源:EE Times)

從材料到演算法全面思考AI

隨著AI設下了更積極的新性能目標,業界也提出了實現這些願景的新技術方向,包括在新材料、製程、電路、架構、封裝和演算法方面的研究。簡言之,必須為AI重新思考每一件事。

加州大學洛杉磯分校(UCLA)電子工程學系教授Jason Woo說:「我們一直在考慮將MRAM或ReRAM作為快閃記憶體(flash)的替代方案……但是,AI為採用新興記憶體與不同材料的交叉架構開闢了新的亮點,可用於實現更多的線性類比微縮,就像可編程的憶阻器一樣。」

Woo及其研究團隊一直在探索整合邏輯功能的三端比記憶體陣列。這是Syntiant和Mythic等新創公司以及IBM研究人員希望用於AI加速器(基於記憶體內運算)的新型編程元件。

由於AI工作負載的平行本質,也為封裝技術帶來了絕佳機會。為資料中心進行訓練提供全光罩晶片設計的新創公司Cerebras Systems技術長Gary Lauterback說,我們不應該局限於單晶片設計,封裝方面也有很大的潛力,可以克服在Denard微縮中遇到的瓶頸。

許多最新的資料中心晶片都採用了2.5D堆疊的邏輯和記憶體。同時,台積電正推出用於智慧型手機和其他裝置的眾多晶圓級扇出封裝版本,工程師還需要一個能因應AI需求的解碼器。

Bhandarkar說:「從成本和性能來看,我還找不到任何理想的多晶片技術。至今見過最好的要算是英特爾的EMIB,但它也並非所有人都可以使用。」

Dally透過縮減神經網路的大小及其矩陣數學的精度,快速地簡化了演算法與任務。他說,採用混合精度數學,超級電腦老將Jack Dongarra因而能在Summit系統上帶來exaFLOPS級的AI性能。

Nvidia的研究人員以低至2位元展現浮點運算的願景,而Imec研究機構則進一步探索單一位元的途徑。

Dally補充說,神經網路本身可以從根本上簡化,以減少運算量。他說,即使只使用了10%的神經網路權重和30%的啟動效能,其準確度也不至於降低到讓人無法接受。SqueezeNet就是針對嵌入式AI的案例之一。

Bits Per Weight Nvidia的Dally說神經網路需要減少一些權重(來源:EE Times)

量子電腦作為備用方案?

可怕的是必須走出已經熟悉的道路,但這也可能是一件好事。Dally說:「成為一名電腦架構師是一個非常激動人心的時刻。如今,就讓摩爾定律其自然地發展吧!我們必須真的變得更加智慧。」

IBM的Kelly指出,如果這一切不幸都失敗了,那麼就得發揮量子運算的潛力了。IBM的實驗室已開發出一套50個量子位元(qubit)的系統了。

他說:「在50到100個量子位元之間,系統將在幾秒鐘內完成運算,這是當今電腦永遠達不到的……除了AI之外,這是我一生中見過的最重要的事情了——它改變了遊戲規則。」

其他人則警告道,針對如何建構和使用量子系統,目前還有許多的基礎研究正在進行中。

美國桑迪亞國家實驗室(Sandia National Laboratories)首席技術研究員Conrad James說:「我們知道如何打造深度學習系統,但並不瞭解它們如何運作……而且我們現在仍然處於嘗試不同技術的起步階段。量子研究則恰好相反。我們瞭解數學和物理,但並不知道如何打造量子系統。」

隨著摩爾定律逐漸式微,量子運算的未來還有很長的路要走。在指引未來發展方向的道路上,半導體產業幾乎沒有太多的選擇。AI萬歲!

編譯:Susan Hong

(參考原文:AI Becomes the New Moore’s Law,by Rick Merritt)