發(fā)布時間:2025-09-17 來源:貴人賤己網(wǎng)作者:籃球是大家的
你跟AI說過謝謝嗎?
幾個月前,OpenAI的CEO山姆·奧特曼(Sam Altman)在推文中提及,對AI說“請”和“謝謝”或許讓他們花掉了“數(shù)千萬美元”電費(fèi)。巨額電費(fèi)也意味著,AI因?yàn)槿祟惖亩Y貌而消耗了大量的電力資源,變得更不環(huán)保了。
OpenAI的CEO山姆·奧特曼(Sam Altman)在推文中提及,對AI說“請”和“謝謝”或許讓他們花掉了“數(shù)千萬美元”電費(fèi)。
AI作為工具,可以助力環(huán)保研究和環(huán)保事業(yè),但這個工具的研發(fā)和運(yùn)營卻相當(dāng)耗能。更嚴(yán)重的問題是,我們說不清AI會造成多少碳排放。
要讓AI變得更環(huán)保,也絕不僅僅是人類不說“請”和“謝謝”那么簡單。
用一次AI有多少碳排放?
AI工具到底會消耗多少電能,又會造成多少碳排放,這其實(shí)是一個很難回答的問題。
最主要的困難在于信息不透明。提供AI服務(wù)的大公司往往不會公布詳細(xì)的能耗數(shù)據(jù),研究者經(jīng)常只能通過間接估算進(jìn)行分析——例如,他們有時會通過英偉達(dá)服務(wù)器的需求量對AI能耗規(guī)模進(jìn)行計(jì)算。
這些估算存在很多假設(shè),其結(jié)果的可靠程度也比較有限。有時,不同來源的估算會得出差異較大的結(jié)論:例如一項(xiàng)估算認(rèn)為,每使用一次ChatGPT平均會消耗2.9 瓦時的電力[1],而另一項(xiàng)估算則認(rèn)為每次查詢平均僅需要0.3瓦時電力[2],二者相差了將近10倍。
一項(xiàng)估算認(rèn)為,每次用ChatGPT查詢平均會消耗2.9瓦時電力,耗電量是使用搜索引擎的10倍——但我們很難判斷這些數(shù)字有多準(zhǔn)確 | pexels
除此之外,研究者還有另一種方法獲得數(shù)據(jù):他們可以親自下載并運(yùn)行AI模型,讓它們執(zhí)行標(biāo)準(zhǔn)化的任務(wù),然后測量由此產(chǎn)生的電能消耗。結(jié)合當(dāng)?shù)仉娋W(wǎng)中火力發(fā)電的占比,人們還可以進(jìn)一步計(jì)算出耗電背后的碳排放。這樣得出的數(shù)據(jù)更加準(zhǔn)確,但它只適用于開源模型,依然不足以揭示AI環(huán)境影響的全貌。
在最近發(fā)表的研究中,德國科學(xué)家就對14個開源大語言模型進(jìn)行了這樣的分析[3]。研究發(fā)現(xiàn),不同模型在回答相同問題時的能耗與碳排放差異極大,最大與最小的數(shù)據(jù)之間甚至相差了50倍以上。
擴(kuò)大參數(shù)規(guī)模、采用逐步推理可以提升AI的表現(xiàn),但這些因素也增加了運(yùn)算量,導(dǎo)致碳排放大幅增加。在這項(xiàng)研究的測試范圍內(nèi),碳排放最多的AI模型是Deepseek R1 70B,讓它回答60萬個問題所產(chǎn)生的碳排放,相當(dāng)于乘飛機(jī)在倫敦與紐約之間往返一次[4]。
目前仍有較大比例的電能來自火力發(fā)電,因此運(yùn)行AI模型在耗電的同時也會產(chǎn)生間接的二氧化碳排放 | Wikipedia
單次使用AI的碳排放并不算大,但考慮到熱門AI工具有著上億規(guī)模的訪問量,相關(guān)碳排放總數(shù)依然相當(dāng)可觀。在此之外,AI模型的訓(xùn)練、硬件生產(chǎn)、服務(wù)器冷卻等環(huán)節(jié)還有很多額外的環(huán)境成本——但由于數(shù)據(jù)不足,這些成本的總和究竟有多大同樣是個謎。
整體不高,但局部影響大
AI模型的計(jì)算工作通常在大型數(shù)據(jù)中心完成。隨著AI的迅速擴(kuò)張,近幾年數(shù)據(jù)中心用電需求快速增長,不過它在全球能源消耗和碳排放中的占比還比較小。
根據(jù)國際能源署(IEA)的統(tǒng)計(jì),2024年數(shù)據(jù)中心的用電總量約為415太瓦時(TWh),占到全球用電總量的1.5%。供應(yīng)這些電力產(chǎn)生的二氧化碳排放約為1.8億噸,約占燃燒排放總量的0.5%[5]。
根據(jù)該機(jī)構(gòu)的估計(jì),到2030年,數(shù)據(jù)中心的用電量可能會翻一番,達(dá)到約945太瓦時。雖然漲幅驚人,但在全球電力消耗總量中,它依然只占了大約3%[5]。
不過,數(shù)據(jù)中心有“扎堆”的特性,因此哪怕總量看起來不高,局部地區(qū)受到的影響仍可能會非常顯著。企業(yè)往往傾向于將數(shù)據(jù)中心建設(shè)得非常密集,這樣有利于高效傳輸信息,還可以共享電力與冷卻設(shè)施。這樣做非常方便,但可能會給局部供電帶來巨大的壓力。
與煉鋼廠等傳統(tǒng)的高耗能設(shè)施相比,數(shù)據(jù)中心在空間上更加密集 | cisco
在一些地方,數(shù)據(jù)中心的影響比全球平均值要高得多。例如,美國弗吉尼亞州目前已有340個數(shù)據(jù)中心。據(jù)研究機(jī)構(gòu)統(tǒng)計(jì),這些數(shù)據(jù)中心的用電量占到了該州電力消耗總量的四分之一以上[6]。
在這里,數(shù)據(jù)中心的建設(shè)仍在快速推進(jìn),電力不足的跡象也開始顯現(xiàn)。AI帶來的電力需求缺口可能要靠新建大型燃?xì)獍l(fā)電廠才能解決——而這樣一來,碳排放自然也會隨之增加。
為AI減碳,不說謝謝有用嗎?
在談?wù)摐p少AI碳排放時,不少人都會提議從不對AI說“謝謝”做起,這種說法確實(shí)有些道理。
大語言模型在接到用戶輸入指令時,會將文字拆分成許多基本的“詞元”(token)來分析。需要處理的詞元數(shù)量決定了AI的工作量,因此也與能耗和碳排放密切相關(guān)。如果能減少“謝謝”這樣可有可無的文字,就能讓詞元量減少一點(diǎn),讓AI在執(zhí)行任務(wù)時少費(fèi)一點(diǎn)電。
不過,比起一句客套話,對碳排放影響更大的可能還是AI的推理模式。上面提到的新研究發(fā)現(xiàn):啟用逐步推理的大語言模型,碳排放達(dá)到了其他模型的4-6倍[3]。這是因?yàn)椋谡宫F(xiàn)逐步“思考”過程時,AI模型會生成額外的文字,它們需要處理的詞元數(shù)量也會大幅增加。
精簡提問、謹(jǐn)慎地選擇AI模型,這對減少碳排放有些幫助;不過,這個問題終歸不能只靠約束使用者來解決。提升AI效率、更多使用清潔能源發(fā)電、合理布局?jǐn)?shù)據(jù)中心才是解決AI環(huán)境危機(jī)的根本途徑,而這些措施都需要企業(yè)與政府的共同努力。
參考文獻(xiàn)
[1]https://www.sciencedirect.com/science/article/pii/S2542435123003653
[2]https://epoch.ai/gradient-updates/how-much-energy-does-chatgpt-use
[3]https://www.frontiersin.org/journals/communication/articles/10.3389/fcomm.2025.1572947/full
[4]https://www.eurekalert.org/news-releases/1086116
[5]https://www.iea.org/reports/energy-and-ai
[6]https://www.nature.com/articles/d41586-025-00616-z
作者:窗敲雨
編輯:麥麥
題圖來源:pexels
本文來自果殼自然(ID:GuokrNature)
如需轉(zhuǎn)載請聯(lián)系sns@guokr.com
Guokr
9月8日晚19點(diǎn),果殼x羅萊家紡 秋冬上新專場來啦!
家紡國貨品牌送福利啦,買鵝絨被直接送新疆棉四件套!養(yǎng)膚級桑蠶絲被,買一得三!還有更多福利品:家居服、深睡枕、四件套、夏冬被等全場低至99元!還有超值滿贈、秒殺、福袋發(fā)不停!
一定一定要預(yù)約?。?/p>