為人工智能提供動力:人工智能在各個領(lǐng)域都有巨大的潛力,從編碼到駕駛,但廣泛采用可能導(dǎo)致能源需求超過一些國家。Digiconomist創(chuàng)始人亞歷克斯·德弗里斯在Joule的一篇評論中對人工智能的能源足跡提出了警告
自2022年以來,包括OpenAI的ChatGPT在內(nèi)的生成式人工智能經(jīng)歷了爆發(fā)式增長。然而,訓(xùn)練這些模型是一個資源密集型的過程,像Hugging Face這樣的公司報告說,他們的文本生成AI在訓(xùn)練期間一年消耗的能源相當(dāng)于40個美國家庭的能源,約為433兆瓦時(MWh)。
為人工智能提供動力:能量密集型訓(xùn)練階段
人工智能的能量消耗不僅限于訓(xùn)練。De Vries的分析表明,當(dāng)人工智能根據(jù)提示生成數(shù)據(jù)時,它會消耗大量的計算能力和能量。例如,ChatGPT每天可能消耗564兆瓦時的電力。
谷歌雄心勃勃的人工智能集成
提高人工智能硬件和軟件的效率可能會帶來更大的能源消耗。隨著人工智能的效率越來越高,它變得更容易訪問,并在更多的應(yīng)用程序中使用,遵循杰文斯悖論,導(dǎo)致資源使用的凈增加。
谷歌將生成性人工智能集成到其服務(wù)中,如電子郵件和搜索。De Vries估計,如果谷歌的每一次搜索都使用人工智能,每年將需要29.2太瓦時的電力,相當(dāng)于愛爾蘭的年用電量。雖然這種情況在短期內(nèi)似乎不太可能發(fā)生,但人工智能服務(wù)器產(chǎn)量的快速增長可能會改變形勢。
人工智能面臨的日益嚴(yán)峻的能源挑戰(zhàn)
到2027年,全球人工智能相關(guān)用電量可能每年激增85至134太瓦時,與荷蘭、阿根廷和瑞典等國的電力需求相當(dāng)。人工智能效率的提高和將計算機處理芯片重新用于人工智能可能會進(jìn)一步增加電力需求。De Vries強調(diào),由于人工智能的能量強度,需要謹(jǐn)慎應(yīng)用。
我們必須管理人工智能的能源消耗
總之,人工智能的潛在能源需求是一個關(guān)鍵問題。雖然人工智能提供了難以置信的可能性,從徹底改變行業(yè)到改善日常生活,但我們必須謹(jǐn)慎管理其能源消耗。提高效率應(yīng)該與提高可及性可以帶來更大的使用量這一認(rèn)識相平衡,從而產(chǎn)生能源悖論。
隨著我們的進(jìn)步,公司、研究人員和政策制定者必須優(yōu)先考慮節(jié)能的人工智能開發(fā)。通過這樣做,我們可以利用人工智能的力量,同時減輕其對環(huán)境的影響,確保這項變革性技術(shù)在不損害地球資源的情況下為我們服務(wù)。