游客發(fā)表
你跟AI說過謝謝嗎?
幾個月前,OpenAI的CEO山姆·奧特曼(Sam Altman)在推文中提及,對AI說“請”和“謝謝”或許讓他們花掉了“數(shù)千萬美元”電費。巨額電費也意味著,AI因為人類的禮貌而消耗了大量的電力資源,變得更不環(huán)保了。
OpenAI的CEO山姆·奧特曼(Sam Altman)在推文中提及,對AI說“請”和“謝謝”或許讓他們花掉了“數(shù)千萬美元”電費。
AI作為工具,可以助力環(huán)保研究和環(huán)保事業(yè),但這個工具的研發(fā)和運營卻相當耗能。更嚴重的問題是,我們說不清AI會造成多少碳排放。
要讓AI變得更環(huán)保,也絕不僅僅是人類不說“請”和“謝謝”那么簡單。
用一次AI有多少碳排放?
AI工具到底會消耗多少電能,又會造成多少碳排放,這其實是一個很難回答的問題。
最主要的困難在于信息不透明。提供AI服務(wù)的大公司往往不會公布詳細的能耗數(shù)據(jù),研究者經(jīng)常只能通過間接估算進行分析——例如,他們有時會通過英偉達服務(wù)器的需求量對AI能耗規(guī)模進行計算。
這些估算存在很多假設(shè),其結(jié)果的可靠程度也比較有限。有時,不同來源的估算會得出差異較大的結(jié)論:例如一項估算認為,每使用一次ChatGPT平均會消耗2.9 瓦時的電力[1],而另一項估算則認為每次查詢平均僅需要0.3瓦時電力[2],二者相差了將近10倍。
一項估算認為,每次用ChatGPT查詢平均會消耗2.9瓦時電力,耗電量是使用搜索引擎的10倍——但我們很難判斷這些數(shù)字有多準確 | pexels
除此之外,研究者還有另一種方法獲得數(shù)據(jù):他們可以親自下載并運行AI模型,讓它們執(zhí)行標準化的任務(wù),然后測量由此產(chǎn)生的電能消耗。結(jié)合當?shù)仉娋W(wǎng)中火力發(fā)電的占比,人們還可以進一步計算出耗電背后的碳排放。這樣得出的數(shù)據(jù)更加準確,但它只適用于開源模型,依然不足以揭示AI環(huán)境影響的全貌。
在最近發(fā)表的研究中,德國科學家就對14個開源大語言模型進行了這樣的分析[3]。研究發(fā)現(xiàn),不同模型在回答相同問題時的能耗與碳排放差異極大,最大與最小的數(shù)據(jù)之間甚至相差了50倍以上。
擴大參數(shù)規(guī)模、采用逐步推理可以提升AI的表現(xiàn),但這些因素也增加了運算量,導致碳排放大幅增加。在這項研究的測試范圍內(nèi),碳排放最多的AI模型是Deepseek R1 70B,讓它回答60萬個問題所產(chǎn)生的碳排放,相當于乘飛機在倫敦與紐約之間往返一次[4]。
目前仍有較大比例的電能來自火力發(fā)電,因此運行AI模型在耗電的同時也會產(chǎn)生間接的二氧化碳排放 | Wikipedia
單次使用AI的碳排放并不算大,但考慮到熱門AI工具有著上億規(guī)模的訪問量,相關(guān)碳排放總數(shù)依然相當可觀。在此之外,AI模型的訓練、硬件生產(chǎn)、服務(wù)器冷卻等環(huán)節(jié)還有很多額外的環(huán)境成本——但由于數(shù)據(jù)不足,這些成本的總和究竟有多大同樣是個謎。
整體不高,但局部影響大
AI模型的計算工作通常在大型數(shù)據(jù)中心完成。隨著AI的迅速擴張,近幾年數(shù)據(jù)中心用電需求快速增長,不過它在全球能源消耗和碳排放中的占比還比較小。
根據(jù)國際能源署(IEA)的統(tǒng)計,2024年數(shù)據(jù)中心的用電總量約為415太瓦時(TWh),占到全球用電總量的1.5%。供應(yīng)這些電力產(chǎn)生的二氧化碳排放約為1.8億噸,約占燃燒排放總量的0.5%[5]。
根據(jù)該機構(gòu)的估計,到2030年,數(shù)據(jù)中心的用電量可能會翻一番,達到約945太瓦時。雖然漲幅驚人,但在全球電力消耗總量中,它依然只占了大約3%[5]。
不過,數(shù)據(jù)中心有“扎堆”的特性,因此哪怕總量看起來不高,局部地區(qū)受到的影響仍可能會非常顯著。企業(yè)往往傾向于將數(shù)據(jù)中心建設(shè)得非常密集,這樣有利于高效傳輸信息,還可以共享電力與冷卻設(shè)施。這樣做非常方便,但可能會給局部供電帶來巨大的壓力。
與煉鋼廠等傳統(tǒng)的高耗能設(shè)施相比,數(shù)據(jù)中心在空間上更加密集 | cisco
在一些地方,數(shù)據(jù)中心的影響比全球平均值要高得多。例如,美國弗吉尼亞州目前已有340個數(shù)據(jù)中心。據(jù)研究機構(gòu)統(tǒng)計,這些數(shù)據(jù)中心的用電量占到了該州電力消耗總量的四分之一以上[6]。
在這里,數(shù)據(jù)中心的建設(shè)仍在快速推進,電力不足的跡象也開始顯現(xiàn)。AI帶來的電力需求缺口可能要靠新建大型燃氣發(fā)電廠才能解決——而這樣一來,碳排放自然也會隨之增加。
為AI減碳,不說謝謝有用嗎?
在談?wù)摐p少AI碳排放時,不少人都會提議從不對AI說“謝謝”做起,這種說法確實有些道理。
大語言模型在接到用戶輸入指令時,會將文字拆分成許多基本的“詞元”(token)來分析。需要處理的詞元數(shù)量決定了AI的工作量,因此也與能耗和碳排放密切相關(guān)。如果能減少“謝謝”這樣可有可無的文字,就能讓詞元量減少一點,讓AI在執(zhí)行任務(wù)時少費一點電。
不過,比起一句客套話,對碳排放影響更大的可能還是AI的推理模式。上面提到的新研究發(fā)現(xiàn):啟用逐步推理的大語言模型,碳排放達到了其他模型的4-6倍[3]。這是因為,在展現(xiàn)逐步“思考”過程時,AI模型會生成額外的文字,它們需要處理的詞元數(shù)量也會大幅增加。
精簡提問、謹慎地選擇AI模型,這對減少碳排放有些幫助;不過,這個問題終歸不能只靠約束使用者來解決。提升AI效率、更多使用清潔能源發(fā)電、合理布局數(shù)據(jù)中心才是解決AI環(huán)境危機的根本途徑,而這些措施都需要企業(yè)與政府的共同努力。
參考文獻
[1]https://www.sciencedirect.com/science/article/pii/S2542435123003653
[2]https://epoch.ai/gradient-updates/how-much-energy-does-chatgpt-use
[3]https://www.frontiersin.org/journals/communication/articles/10.3389/fcomm.2025.1572947/full
[4]https://www.eurekalert.org/news-releases/1086116
[5]https://www.iea.org/reports/energy-and-ai
[6]https://www.nature.com/articles/d41586-025-00616-z
作者:窗敲雨
編輯:麥麥
題圖來源:pexels
本文來自果殼自然(ID:GuokrNature)
如需轉(zhuǎn)載請聯(lián)系sns@guokr.com
Guokr
9月8日晚19點,果殼x羅萊家紡 秋冬上新專場來啦!
家紡國貨品牌送福利啦,買鵝絨被直接送新疆棉四件套!養(yǎng)膚級桑蠶絲被,買一得三!還有更多福利品:家居服、深睡枕、四件套、夏冬被等全場低至99元!還有超值滿贈、秒殺、福袋發(fā)不停!
一定一定要預(yù)約!!
{loop type="link" row=1 }{$vo.title} 午夜久久影视av| 欧美伦理片一区二区三区| 亚洲成人资源在线观看| 婷婷人人爽人人爽人人片| 亚洲国产精品一区二区WWW| 人妻体内射精一区二区三四| 性XXXfreeHD农民| 亚洲AV无码无限在线观看不卡| 国产精品免费久久久久久蜜桃| 成年人尤物视频在线观看| 奇米影视色网站| 精品国产精品国产偷麻豆| 搡老女人老女人老熟女| 久久久久成人片免费观看蜜芽| 无码人妻久久1区2区3区| 国产中文福利| 亚洲国产精品无码一区二区三区| 日本少妇××××××18| 81精品国产乱码久久久久久| 亚洲日本中文字幕天堂网| 熟妇高潮视频| 136Av少妇熟女一区二区三区| 中文无码123| 国产精品无码乱码免费视频| 国产AV一区二区三区猫咪| 一本大道加勒比av| 岛国精品一区免费视频在线观看| 丝袜人妻无码专区视频| 中文字幕日韩精品亚洲一区| 北条麻妃在线一区二区| 欧美丰满高潮XXXX喷水| 国产无码在线观看影院| 亚洲一区在线观看尤物| 亚洲无码网页| 肥大bbwbbw高潮喷水| 国产91对白在线观看| 好紧好爽AV| 成人做受120视频试看| 97人妻无码专区| 一级成人a做片免费| 精品久久裸体|