近年人工智能技術發展迅速,而其耗電量亦讓人關注。根據《The New Yorker》日前的報導,OpenAI 旗下的生成式聊天機械人 ChatGPT,每天的查詢量達 2 億個,用電量因此超過 50 萬千瓦時。該雜誌以美國家庭平均每日用電量 29 千瓦時作為參考,ChatGPT 的用電量是普通家庭的 1.7 萬倍。
假如生成式人工智能技術得到更廣泛應用,其耗電量將會進一步增加。如果 Google 將生成式人工智能整合到他們的所有搜尋查詢,預計每年的耗電量可能會高達 290 億千瓦時,那超過了肯亞、危地馬拉和克羅地亞等國加起來一年的用電量。荷蘭國家銀行數據科學家 Alex de Vries 指人工智能非常耗電,每部伺服器的耗電量已相當於十多戶英國家庭的總和。然而,不同人工智能模型的運作方式存在差異,加上推動人工智能的科技公司缺乏透明度,因此很難準確估計總耗電量。
根據佔據圖形處理器市場約 95% 份額 Nvidia 所公佈的數據,de Vries 估計到了 2027 年,整個人工智能產業的年耗電量可能介乎 85 至 134 太瓦時。他表示人工智能的用電量,屆時將會佔全球用電量約 0.5%,是一個相當可觀的數字。
資料及圖片來源:businessworld