當(dāng)前位置: 首頁 > 能源互聯(lián)網(wǎng) > 產(chǎn)經(jīng)信息

生成式AI有多耗能:谷歌耗電堪比一國電量,ChatGPT答個問題“喝水”10毫升

上游新聞發(fā)布時間:2024-03-12 16:27:50

  11日,據(jù)環(huán)球時報援引《紐約客》雜志報道,OpenAI的ChatGPT聊天機(jī)器人每天消耗超過50萬千瓦時的電力,用于處理約2億個用戶請求,相當(dāng)于美國家庭每天用電量的1.7萬多倍。

  據(jù)報道,隨著生成式人工智能的廣泛應(yīng)用,預(yù)計到2027年,整個人工智能行業(yè)每年將消耗85至134太瓦時的電力,這顯示了AI技術(shù)對電力資源的巨大需求。是什么導(dǎo)致了生成式AI如此高的能耗?在未來有何解決方案?對此,上游新聞進(jìn)行了了解。

  耗電:堪比一國用電量

  隨著人工智能技術(shù)的發(fā)展,對芯片的需求急劇增加,進(jìn)而帶動了電力需求的激增。全球數(shù)據(jù)中心市場的耗電量已經(jīng)從十年前的100億瓦增加到如今的1000億瓦水平。根據(jù)美國機(jī)構(gòu)Uptime Institute的預(yù)測,到2025年,人工智能業(yè)務(wù)在全球數(shù)據(jù)中心用電量中的占比將從2%增加到10%。

  據(jù)經(jīng)濟(jì)觀察網(wǎng)消息,2023年10月10日,阿姆斯特丹自由大學(xué)商業(yè)與經(jīng)濟(jì)學(xué)院的博士候選人德弗里斯(Alex de Vries)在一篇論文中表示,像ChatGPT這樣的大型語言模型需要大量的數(shù)據(jù)集來訓(xùn)練人工智能,在人工智能模型經(jīng)過訓(xùn)練階段后,會過渡到推理階段,然后根據(jù)新的輸入生成信息。推理階段消耗的能源似乎更多。

  研究公司SemiAnalysis表示,OpenAI公司需要3617臺英偉達(dá)的HGX A100服務(wù)器,總共28936個圖形處理單元(GPU)來支持ChatGPT,這意味著每天的能源需求就要達(dá)到564兆瓦時,這要比訓(xùn)練階段的能源需求高得多。

  過去的工作常常關(guān)注的是人工智能訓(xùn)練所消耗的能量,但德弗里斯提醒道,需要更多考慮人工智能的整個生命周期。

  此外,英偉達(dá)生產(chǎn)的GPU芯片作為人工智能領(lǐng)域的命脈,該公司在2023年第二季度的收入為135億美元,其數(shù)據(jù)中心業(yè)務(wù)較上一季度增長了141%,這一點足以證明人工智能產(chǎn)品需求的迅速增長。

  德弗里斯表示:“考慮到未來幾年的預(yù)期產(chǎn)量,到2027年,新制造的人工智能設(shè)備的用電量將與荷蘭一樣多,這也與瑞典、阿根廷等國的用電量處于同一范圍。”

  德弗里斯還承認(rèn):“最壞的情況就是,僅谷歌一家公司的人工智能就可以消耗與愛爾蘭等國家一樣多的電力。”

  德弗里斯在論文中設(shè)想,如果將生成式人工智能集成到谷歌的每一個搜索中,那么屆時谷歌就會大幅增加對電力的需求。

  另一家研究機(jī)構(gòu)New Street Research也得出了類似的估計,認(rèn)為谷歌將需要大約40萬臺服務(wù)器,這將導(dǎo)致每天消耗62.4吉瓦時,每年消耗22.8太瓦時的能源。

  費(fèi)水:答50個問題“喝”水500毫升

  除了耗電,生成式AI同樣耗費(fèi)著巨量的水資源。

  要對AI進(jìn)行大量訓(xùn)練,也就意味著需要更強(qiáng)的算力中心和與之匹配的散熱能力。在AI快速進(jìn)步的道路上,對水資源的消耗也不斷加碼升級。

  谷歌發(fā)布的2023年環(huán)境報告顯示,公司前一年的用水量同比顯著增加了20%,達(dá)到56億加侖(21198305立方米),而其中絕大部分都被用于為該公司的數(shù)據(jù)中心散熱。而這并不是個例。2023年初,由OpenAI打造的ChatGPT火遍全球,一躍成為人工智能領(lǐng)域的現(xiàn)象級應(yīng)用,也引發(fā)了全球互聯(lián)網(wǎng)公司的AIGC“軍備競賽”。

  科羅拉多大學(xué)與德克薩斯大學(xué)的研究人員在一篇名為“讓AI更節(jié)水”的預(yù)印論文中也發(fā)布了訓(xùn)練AI的用水估算結(jié)果,顯示訓(xùn)練GPT-3所需的清水量相當(dāng)于填滿一個核反應(yīng)堆的冷卻塔所需的水量。ChatGPT(在GPT-3推出之后)每與用戶交流25到50個問題,就得“喝下”一瓶500毫升的水來降溫。

  除了谷歌,另一個巨頭Meta在美國亞利桑那州建設(shè)了數(shù)據(jù)中心,僅2022年用水量就超過260萬立方米。隨著全球人工智能“軍備競賽”的持續(xù)升級和大量科技公司競相建設(shè)新數(shù)據(jù)中心,其消耗的水量很可能會繼續(xù)上升。

  正在大力開發(fā)人工智能的微軟也在其最新的環(huán)境報告中透露,2022年公司用水量同比前一年激增了34%,達(dá)到640萬立方米,比2500個奧林匹克標(biāo)準(zhǔn)游泳池的水量還多。外部研究人員認(rèn)為這與微軟的人工智能研究有關(guān)。

  對此,有專家表示,整體來看,當(dāng)前數(shù)據(jù)中心耗水已經(jīng)成為制約數(shù)據(jù)中心快速發(fā)展的因素之一。中國電子節(jié)能技術(shù)協(xié)會數(shù)據(jù)中心節(jié)能技術(shù)委員會秘書長呂天文介紹稱,為了節(jié)約寶貴的自來水資源,很多企業(yè)嘗試用各種方法為數(shù)據(jù)中心散熱,例如,微軟曾嘗試部署海下數(shù)據(jù)中心,F(xiàn)acebook數(shù)據(jù)中心選址北極圈附近,阿里云千島湖數(shù)據(jù)中心使用深層湖水制冷,“但上述方法總是會帶來新的問題,目前國內(nèi)數(shù)據(jù)中心的用水主要使用的還是自來水,近幾年政府層面更鼓勵數(shù)據(jù)中心企業(yè)利用中水(循環(huán)再利用的水)。”

  據(jù)悉,此前北京市發(fā)展改革委修訂印發(fā)了《關(guān)于進(jìn)一步加強(qiáng)數(shù)據(jù)中心項目節(jié)能審查的若干規(guī)定》,其中就新增了關(guān)于引導(dǎo)數(shù)據(jù)中心充分利用再生水的內(nèi)容:再生水輸配管網(wǎng)覆蓋范圍內(nèi)的數(shù)據(jù)中心,設(shè)備冷卻水、機(jī)房加濕等非生活用水應(yīng)采用再生水。

  碳排放:兩月1000噸

  除了消耗大量的電力和水資源,以生成式AI為代表的智算算力還是碳排放大戶。

  新冠病毒的分子信息建模、石油勘探中的環(huán)境模擬、航空航天導(dǎo)航,需用到超算算力;互聯(lián)網(wǎng)、金融、工業(yè)、城市治理等,對通用算力和智算算力需求很大;智能網(wǎng)聯(lián)車、視頻監(jiān)控等,偏重于邊緣計算算力。而今,城市經(jīng)濟(jì)、社會、生活無時無刻不需要算力。

  阿里云中國區(qū)解決方案副總余勇舉例,在淘寶,拍照搜索商品的“拍立淘”,對算力要求是在30億張圖片中搜尋,2秒出結(jié)果;在制造能源領(lǐng)域,智算算力已運(yùn)用于海螺集團(tuán)150條水泥產(chǎn)線的經(jīng)營決策優(yōu)化,運(yùn)用于對山東德州電力的負(fù)荷預(yù)測等,算力需求驚人。“國內(nèi)企業(yè)的智算算力需求,平均每3.5個月就會翻一倍。”

  “截至2022年底,全國算力總規(guī)模達(dá)到180eflops(每秒18000億億次浮點運(yùn)算),位居全球第二。”中國信通院云大所副所長李潔博士說。

  需求急速擴(kuò)增同時,越來越多數(shù)據(jù)中心被戴上“能耗大戶”帽子。有研究機(jī)構(gòu)指出,訓(xùn)練ChatGPT這樣一個包含1750億參數(shù)的大模型,帶來兩個月排碳1000噸的巨大消耗。

  對此,早在2021年11月,我國就已出臺公共機(jī)構(gòu)碳達(dá)峰方案,新建大型、超大型數(shù)據(jù)中心須全部達(dá)到綠色數(shù)據(jù)中心要求,綠色低碳等級達(dá)4a級以上,電能利用效率(pue)1.3以下。

  應(yīng)對:優(yōu)化架構(gòu)提升能效

  在氣候挑戰(zhàn)日益嚴(yán)峻的今天,不斷膨脹的人工智能正消耗著越來越多的電力、水資源,產(chǎn)生著越來越多的碳排放。據(jù)預(yù)測,到2030年,智能計算的年耗電量將達(dá)到5000億度,占全球發(fā)電總量的5%。如果AlphaGo對弈一盤棋就要耗去1噸煤的發(fā)電量,訓(xùn)練對弈千萬盤棋局就要燃燒20萬噸煤,那么讓大模型賦能千行百業(yè),地球能否承受得起如此巨大的碳排放?

  此外,根據(jù)摩爾定律,計算機(jī)的算力每18個月翻一番,而并行訓(xùn)練日益復(fù)雜的AI網(wǎng)絡(luò)的需求,每三四個月就會翻一番。中國工程院院士、清華大學(xué)信息科學(xué)技術(shù)學(xué)院院長戴瓊海指出,近五年來,作為AI發(fā)展重要支撐的算力正逐漸變?yōu)橹萍sAI繼續(xù)向前的瓶頸。

  為此,行業(yè)大佬及科研人員也在進(jìn)行著不斷的研究和探索。

  近日,人工智能芯片龍頭英偉達(dá)的創(chuàng)始人兼CEO黃仁勛表示,人工智能的未來發(fā)展與狀態(tài)和儲能緊密相連。他強(qiáng)調(diào),不應(yīng)僅僅關(guān)注計算力,而是需要更全面地考慮能源消耗問題。

  OpenAl的創(chuàng)始人山姆·奧特曼也提出了類似的看法。他認(rèn)為,未來AI技術(shù)的發(fā)展將高度依賴于能源,特別是光伏和儲能技術(shù)的進(jìn)步。

  “在控制大模型帶來的能耗和成本方面,半導(dǎo)體企業(yè)可以通過優(yōu)化計算架構(gòu)、提升能效等措施,降低大模型的能耗和成本。”北京大學(xué)集成電路學(xué)院研究員賈天宇說。

  長期以來,人工智能及其熱門應(yīng)用常常被喻為“大腦”,比如自動駕駛被喻為“車輪上的大腦”。但是,人腦并不是僅僅依靠大腦工作,腦干、小腦也承擔(dān)了許多任務(wù),比如控制心跳和體溫,保持身體的穩(wěn)定性、協(xié)調(diào)性等。如果大腦進(jìn)行所有的決策和控制,人體就很難負(fù)擔(dān)大腦需要的能量。

  比照包含大腦、小腦、腦干的人腦系統(tǒng),恩智浦半導(dǎo)體執(zhí)行副總裁兼首席技術(shù)官Lars Reger描述了一種更加高效節(jié)能的計算體系:以AI算力芯片為“大腦”,進(jìn)行高效能的計算和加速;以網(wǎng)關(guān)處理器為“小腦”,實現(xiàn)不同功能區(qū)的互聯(lián)和集成,以及異構(gòu)網(wǎng)絡(luò)中的數(shù)據(jù)處理;以MCU、感知芯片、聯(lián)網(wǎng)芯片作為“腦干”,實現(xiàn)感知和實時任務(wù)處理。

  此外,目前在大算力芯片研發(fā)上,我國在光電智能芯片領(lǐng)域有望與歐美一爭高下。中國工程院院士、清華大學(xué)信息科學(xué)技術(shù)學(xué)院院長戴瓊海表示,一旦光電智能計算得到應(yīng)用,將對當(dāng)代計算的速度、能量效率和數(shù)據(jù)通量產(chǎn)生變革性影響,可實現(xiàn)計算速度的成千倍提升、能效的百萬倍提升。“改用光電智能芯片,AlphaGo整體計算能耗將從1噸煤下降到1克。”戴瓊海說。

  (1太瓦時=1000吉瓦時=1000000兆瓦時=1000000000千瓦時——編者注)

  上游新聞綜合自 環(huán)球時報、每日經(jīng)濟(jì)新聞、文匯報、上觀新聞、經(jīng)濟(jì)觀察網(wǎng)等


評論

用戶名:   匿名發(fā)表  
密碼:  
驗證碼:
最新評論0