爲什麽說AI的盡頭是光伏和儲能?AI會對能源供給産生什麽影響?

三周檀的鲲 2024-03-12 15:57:46

爲什麽說AI的盡頭是光伏和儲能,AI會對能源産業産生什麽影響呢?

先看兩組數據,一是2023年我國全社會用電量爲92241億千瓦時,美國全社會用電量爲40220億千萬時,二是2023年全球發電總量爲26萬億千瓦時。中美兩國用電量占據全球發電總量的50%。

我們再看幾個AI巨頭的電力消耗,一是OpenAI的ChatGPT日消耗50萬千瓦時,年耗電18億千瓦時;二是谷歌的生成式AI技術應用于所有搜索,每年耗電約290億千瓦時。到2027年,整個AI行業每年消耗85至134太瓦時,這就意味著全球發電總量的一半都將被AI消耗掉。

而這樣的消耗還僅僅是在英偉達A100\200的GPU的消耗量,英偉達新推出的H100、200GPU芯片性能是A100、200的10倍甚至幾十部,所帶來的電力消耗或許也要呈同比遞增。

如果按照標准煤一噸發電3333千瓦時計算,再將13萬億千瓦時換算成煤炭的需求量,這是一個令人咋舌的天文數字。而這,也僅僅是專家們的預測,AI自身到底消耗了多少能源,消耗了多少電力,大型科技公司們表現都非常默契,一直守口如瓶,諱莫如深。這也使我們沒有辦法得到真實的或更貼近實際的數據。

根據摩爾定律,計算機的算力每18個月翻一番,而並行訓練日益複雜的AI網絡的需求,每三四個月就會翻一番。

有專家預測,到2027年新制造的人工智能設備的用電量將與荷蘭、瑞典、阿根廷等國的用電量幾乎相同,更甚至僅谷歌一家公司的人工智能就可以消耗與愛爾蘭等國家一樣多的電力。一個公司消耗的電力相當于一國消耗的電力,到時候估計也是稀松平常的事了。

除電力大量消耗外,AI還對水資源大量消耗。要對AI大量訓練就必須有與其匹配的散熱能力,因此對水資源的消耗也不斷加碼升級。谷歌2023年用水量達到驚人的2119.83萬立方米,Meta的數據中心2022年用水量就超過260萬立方米。微軟數據2022年用水量640萬立方米。

因此,也有專家稱當前數據中心耗水已經成爲制約數據中心快速發展的因素之一。爲了節約水資源,很多AI巨頭嘗試用各種方法爲數據中心散熱,例如,微軟曾嘗試部署海下數據中心,Facebook數據中心選址北極圈附近,阿裏雲千島湖數據中心使用深層湖水制冷。

另外,AI的迅猛發展,數據中心也被戴上“能耗大戶”帽子。訓練ChatGPT這樣一個包含1750億參數的大模型,帶來兩個月排碳1000噸的巨大消耗。在氣候挑戰日益嚴峻的今天,不斷膨脹的人工智能正消耗著越來越多的電力、水資源,産生著越來越多的碳排放。

目前,電力生産主要還是來源于不可再生資源的煤炭、石油、天然氣,隨著AI算力呈指數級不斷迅猛發展,對于電力的需求也必將是個天文數字,對傳統不可再生資源的消耗是一項巨大的挑戰。要解決這個問題,就要不斷發展可再生能源的循環利用。

另外,AI算力尋求的是不可間斷性,對電力的持續性供給有非常高的要求,從這一點上看,英偉達創始人兼CEO黃仁勳說,人工智能的盡頭是光伏和儲能,是有道理的。 (1太瓦時=1000吉瓦時=1000000兆瓦時=1000000000千瓦時—編者注)

0 阅读:44

三周檀的鲲

簡介:曾經的金融資深民工,現在專褥惡莊羊毛的鐵杆老韭菜!