• |
  • 極速報價
  • |
  • 會員
  • 產品服務 / 串流版
  • 設定

16/10/2023

ChatGPT變吃電巨獸!生成式AI用電量將等同荷蘭一年用電量?專家研發高效演算法與電源裝置鬥節能!

  • 加入最愛專欄
  • 收藏文章
  • 方展策

    方展策

    少年時,曾研習 Geographic Information System,可惜學無所成,僥倖畢業。成年後,誤打誤撞進入傳媒圈子,先後在印刷、電子、網絡媒體打滾,略有小成。中年後,修畢資訊科技碩士,眼界漸擴,決意投身初創企業,窺探不同科技領域。近年,積極鑽研數據分析與數碼策略,又涉足 Location Intelligence 開發項目;有時還會抽空執教鞭,既可向他人分享所學,亦可鞭策自己保持終身學習。

    智城物語

  ChatGPT這類生成式AI現已從「民間玩意」蛻變為「生產力工具」。最近各家大企業爭相引入生成式AI,藉此簡化業務流程,提升營運效率,但此舉背後可能會為自然環境帶來很大負擔。有專家預估,到2027年AI伺服器年均耗電量將會相當於荷蘭全國一年的用電量,故此呼籲企業在設計AI 軟硬件時應考慮電力消耗,以減低碳排放。

 

AI、雲端榮景背後隱藏環境危機

 

  市場研調機構International Data Corp預測,及至2026年,全球企業對AI支出將會逾3,010 億美元(約2.35兆港元),複合年增長率達到26.5%。另一市調機構Synergy則指出,2022年企業對雲端服務的總支出已達2,270億美元(約1.77兆港元),估計在AI應用需求的帶動下,往後年均增長率將高達42%。然而,在這一片經濟榮景背後,卻隱藏了極大的環境危機。

 

  荷蘭阿姆斯特丹自由大學商業及經濟學院博士候選人亞歷克斯·德弗里斯(Alex De Vries),創建數碼經濟分析平台「Digiconomist」,從經濟角度揭示數碼科技發達所帶來的意想不到問題。他於2023年10月發表一篇題為《持續成長的人工智能能源足跡》(The Growing Energy Footprint of Artificial Intelligence)論文,預測到2027年AI的電力使用可能等同於荷蘭、瑞典等國家一年的耗電量(約85至134 TWh)。

 

ChatGPT每日用電量564 MWh

 

  一般來說,生成式AI的電力消耗主要來自兩方面:訓練構成AI系統核心的大型語言模型時所需的電力,以及大型語言模型執行邏輯推論(Inference)運算時的能耗。德弗里斯指出,AI日常運算消耗的電力,已遠超訓練模型時所用的電量。

 

  根據半導體研究機構SemiAnalysis的資料,ChatGPT要依靠3,617台NVIDIA HGX A100伺服器、28,936顆GPU來支撐日常運作。德弗里斯以為基礎,計算出ChatGPT每日用電量為564 MWh,至於GPT-3模型訓練期間的耗電量則為1,287 MWh;換言之,ChatGPT運作3天所消耗的電量,已超過整個數據訓練階段了。故此,ChatGPT可說是一隻「吃電巨獸」,能夠產生大量碳排放。

 

OpenAI從來沒有透露ChatGPT的用電量,於是Alex de Vries基於NVIDIA A100伺服器的預計銷量,推算ChatGPT的電力消耗。(圖片來源:Unsplash圖片庫)

Alex De Vries估計,Google全面推出生成式搜尋後,其AI所用電力可能高達27.4 TWh,接近愛爾蘭一年耗電量(29.3 TWh)。(圖片來源:Google官網)

 

生成式搜尋普及AI耗電量將激增

 

  當微軟(Microsoft)、Google逐步把生成式AI整合至旗下的搜尋引擎,這個能耗問題將會變得更加嚴重。加拿大永續數碼基礎設施公司QScale指出,生成式AI每次回答提問所需的運算力,是一般搜尋引擎的4至5倍,相對應的電力消耗也會更高。假如日後Google全面推出其生成式搜尋服務(Search Generative Experience),AI耗電量和碳排放量可能會以幾何級數上升。

 

  有鑑於此,德弗里斯呼籲IT企業在開發AI軟硬件時,應要考慮背後的環境破壞。事實上,有專家已嘗試從演算法著手,降低AI運算的能耗。譬如說,AI可以利用「加法」或「乘法」,算出「10」的數值,惟前者需計算10次,後者則僅需計算1次,所以透過乘法取代加法的方式編寫演算法,就可以提高運算效率,兼且更加省電。

 

加州立法強制企業披露碳排放量

 

  再者,有科技業者提出,引入基於第三代半導體氮化鎵(GaN)設計的電源供應器,取代傳統電源供應器,以提升AI伺服器的能效表現和功率密度。假如一座數據中心轉用氮化鎵電源供應器,功率耗損可以減少達50%,以數據中心平均用電量換算,相當於減省370億kWh的電量,足以供應40座大規模數據中心一年的電力需求。

 

Google在美國本土擁有14座數據中心,為Google Search、以及其生成式AI模型Bard和LaMDA提供運算力。(圖片來源:Google官網)

 

  另一方面,監管機構亦應針對AI產業制定具體的環境披露要求,讓AI技術的環境成本變得更透明。美國加州於2023年9 月通過《企業氣候數據責任法案》,規定有加州業務、全球年收入逾10億美元(約78億港元)的大企業,到2026年必須揭露公司營運產生的碳排放量,到2027年更必須披露供應鏈中產生的碳量。因此,總部設於加州的OpenAI、Google等AI業者未來不得不在節能減排方面多下工夫了。

 

延伸閱讀:

ChatGPT比想像中更好賺!OpenAI推企業版搶吸大公司客戶,身價暴漲3倍、直逼900億美元!

銀行業AI起革命!大摩與OpenAI合研聊天機械人,化身財務顧問AI助手,瞄準富豪大客!

晶片新戰場開打!第三代半導體瞄準3大市場!普及應用遙遙無期全因一個障礙?

 

 

 《經濟通》所刊的署名及/或不署名文章,相關內容屬作者個人意見,並不代表《經濟通》立場,《經濟通》所扮演的角色是提供一個自由言論平台。

全新節目《說說心理話》青少年不可以戀愛!?真實個案講述驚心動魄經歷► 即睇

我要回應

你可能感興趣

放大顯示
師傅靈靈法

職場新常態

精選文章

  • 生活
  • DIVA
  • 健康好人生
專業版
HV2
精裝版
SV2
串流版
IQ 登入
強化版
TQ
強化版
MQ