Google Cloud高效率ML叢集號稱90%無碳能源

作者 : 蔡銘仁,EE Times Taiwan

Google以應用於Google Cloud的ML加速器Cloud TPU (Tensor Processing Units) v4 Pod為基礎,推出速度更快、效率更好的Google Cloud機器學習叢集。

人工智慧(AI)、物聯網趨勢下,讓產業界對機器學習(Machine Learning,ML)的系統容量、運算效能及規模需求持續增加。著眼趨勢,Google以應用於Google Cloud的ML加速器Cloud TPU (Tensor Processing Units) v4 Pod為基礎,推出速度更快、效率更好的Google Cloud機器學習叢集。值得一提是,這個被Google譽為「全球規模最大的公開機器學習中樞」,尖峰的整體效能可達每秒900萬兆次的浮點運算,更高效同時也符合全球節能減碳趨勢,運作時有90%的電力是來自無碳能源。

透過本次亮相的機器學習叢集,Google期望能協助前線的人工智慧(AI)研究人員和開發人員有突破性創舉,訓練出漸趨精密的模型支援各種工作負載,比如大規模的自然語言處理 (Natural Language Processing,NLP) 作業等。Google研究團隊和AI部門資深副總裁Jeff Dean表示:「為了讓進階AI硬體更容易使用,我們在幾年前推出了TPU Research Cloud (TRC) 計畫,Cloud TPU v4 的推出,對 Google 研究團隊和 TRC 計畫來說都是一大里程碑,而我們也很高興能和世界各地的機器學習開發人員展開長期合作,利用 AI 技術造福人群。」

Google去年(2021年) Google I/O大會上宣布推出的Cloud TPU v4,為機器學習叢集擴充性和成本效益上優於前代的核心要素。據Google統計,Cloud TPU v4晶片具備高網路頻寬和編譯器最佳化功能,每秒浮點運算次數(FLOPs)大約是Cloud TPU v3的2.2倍,每1美元可獲得1.4倍的尖峰FLOPs成效,可有效縮短訓練時間並改善成本效益;內含 4,096 個透過極速互連網路介面相互連結的晶片,每部主機的頻寬相當於業界領先的每秒 6 TB (Tbps) 頻寬,也讓相關人員能夠快速訓練規模最龐大的模型。

此外,呼應Google 2030年前全面採用無碳能源的願景,存放Google Cloud機器學習叢集的美國奧克拉荷馬州資料中心,設施運作期間同一電網內每小時輸送的電力90%源自無碳能源;據Google統計,該資料中心評估測得的電力使用效能(PUE)1.1,為全球最節能的資料中心之一。Google分享,機器學習叢集之所以能大幅減少能源使用和碳排放量,也和Cloud TPU v4配備節能的機器學習專屬軟體、將相關內容存放在高效率資料中心、透過潔淨能源供電等三大關鍵做法有關。

另外,Google也在Google Workspace中導入AI,運用ML發表多項新服務,包括整合自然語言處理技術的Google文件自動摘要功能、Google Meet會議自動記錄功能,以及肖像還原、打光功能等。其中,肖像還原功能皆使用Google的AI技術,搭配雲端技術,解決因光線不足、網路攝影機品質不佳、抑或連線狀況不理想導致的畫質問題;肖像打光功能同樣採用ML技術,讓使用者在視訊畫面可模擬出攝影棚等級的照明效果。

 

加入我們官方帳號LINE@,最新消息一手掌握!

發表評論