Google Cloud高效率ML叢集號稱90%無碳能源
Google以應用於Google Cloud的ML加速器Cloud TPU (Tensor Processing Units) v4 Pod為基礎,推出速度更快、效率更好的Google Cloud機器學習叢集。
人工智慧(AI)、物聯網趨勢下,讓產業界對機器學習(Machine Learning,ML)的系統容量、運算效能及規模需求持續增加。著眼趨勢,Google以應用於Google Cloud的ML加速器Cloud TPU (Tensor Processing Units) v4 Pod為基礎,推出速度更快、效率更好的Google Cloud機器學習叢集。值得一提是,這個被Google譽為「全球規模最大的公開機器學習中樞」,尖峰的整體效能可達每秒900萬兆次的浮點運算,更高效同時也符合全球節能減碳趨勢,運作時有90%的電力是來自無碳能源。
透過本次亮相的機器學習叢集,Google期望能協助前線的人工智慧(AI)研究人員和開發人員有突破性創舉,訓練出漸趨精密的模型支援各種工作負載,比如大規模的自然語言處理 (Natural Language Processing,NLP) 作業等。Google研究團隊和AI部門資深副總裁Jeff Dean表示:「為了讓進階AI硬體更容易使用,我們在幾年前推出了TPU Research Cloud (TRC) 計畫,Cloud TPU v4 的推出,對 Google 研究團隊和 TRC 計畫來說都是一大里程碑,而我們也很高興能和世界各地的機器學習開發人員展開長期合作,利用 AI 技術造福人群。」
Google去年(2021年) Google I/O大會上宣布推出的Cloud TPU v4,為機器學習叢集擴充性和成本效益上優於前代的核心要素。據Google統計,Cloud TPU v4晶片具備高網路頻寬和編譯器最佳化功能,每秒浮點運算次數(FLOPs)大約是Cloud TPU v3的2.2倍,每1美元可獲得1.4倍的尖峰FLOPs成效,可有效縮短訓練時間並改善成本效益;內含 4,096 個透過極速互連網路介面相互連結的晶片,每部主機的頻寬相當於業界領先的每秒 6 TB (Tbps) 頻寬,也讓相關人員能夠快速訓練規模最龐大的模型。
此外,呼應Google 2030年前全面採用無碳能源的願景,存放Google Cloud機器學習叢集的美國奧克拉荷馬州資料中心,設施運作期間同一電網內每小時輸送的電力90%源自無碳能源;據Google統計,該資料中心評估測得的電力使用效能(PUE)1.1,為全球最節能的資料中心之一。Google分享,機器學習叢集之所以能大幅減少能源使用和碳排放量,也和Cloud TPU v4配備節能的機器學習專屬軟體、將相關內容存放在高效率資料中心、透過潔淨能源供電等三大關鍵做法有關。
另外,Google也在Google Workspace中導入AI,運用ML發表多項新服務,包括整合自然語言處理技術的Google文件自動摘要功能、Google Meet會議自動記錄功能,以及肖像還原、打光功能等。其中,肖像還原功能皆使用Google的AI技術,搭配雲端技術,解決因光線不足、網路攝影機品質不佳、抑或連線狀況不理想導致的畫質問題;肖像打光功能同樣採用ML技術,讓使用者在視訊畫面可模擬出攝影棚等級的照明效果。
目前寬能隙(WBG)半導體的發展仍相當火熱,是由於經過近幾年市場證明,寬能隙半導體能確實提升各應用系統的能源轉換效率,尤其是應用系統走向高壓此一趨勢,更是需要寬能隙元件才能進一步提升能效,對實現節能環保,有相當大的助益。因此,各家業者也紛紛精進自身技術,並加大投資力道,提升寬能隙元件的產能,以因應市場所需。
本研討會將邀請寬能隙半導體元件關鍵供應商與供應鏈上下游廠商,一同探討寬能隙半導體最新技術與應用市場進展,以及業者佈局市場的策略。
訂閱EETimes Taiwan電子報
加入我們官方帳號LINE@,最新消息一手掌握!