业界动态
AI为何是耗电费水“大魔王”,训练,模型,消耗
2024-05-17 03:44:14
AI为何是耗电费水“大魔王”,训练,模型,消耗

人工智能将如何重塑我(wo)们的生(sheng)活? 图/新华社

羊城晚报记者王丹阳

人工智能正在重塑我(wo)们的生(sheng)活。

但是,在AI大(da)模型(xing)百舸争流背后,多项(xiang)研究表明,大(da)模型(xing)运行极其耗电费水,也会带来(lai)极高的碳排放量。有网友戏称“只(zhi)要电费贵过馒头,AI就永远不能完(wan)全代替人”。

在技(ji)术进步(bu)与能源消耗的矛与盾之间,将如何破题?AI热潮下又该如何为未来(lai)去除“暗礁”?

GPT-3单次(ci)训练耗电

相(xiang)当于3000辆特(te)斯拉跑到报废

你知道(dao)训练一次(ci)大(da)模型(xing)需要多少度电吗?

根据斯坦福人工智能研究所发布的《2023年人工智能指数报告》,OpenAI的GPT-3单次(ci)训练耗电量高达1287兆瓦时(1兆瓦时=1000千瓦时),也就是127.8万度电。

这是什么概(gai)念?据美国国家(jia)环保署评定(ding),特(te)斯拉ModelY每百英里(161公里)耗电28千瓦时,1278兆瓦时相(xiang)当于3000辆特(te)斯拉,每辆跑满20万英里(32.2万公里)。大(da)多数司机认为跑满30多万公里大(da)关(guan)是汽车(che)寿(shou)命上限(xian)。这意味着,大(da)模型(xing)的单次(ci)训练耗电,就相(xiang)当于3000辆特(te)斯拉跑到报废所需要消耗的电量。

即便如此,模型(xing)训练只(zhi)是开始。

AI的耗电主要来(lai)自(zi)两个阶段——训练阶段和(he)推(tui)理阶段。训练阶段涉及大(da)量数据集的输入和(he)模型(xing)参(can)数的调整,而推(tui)理阶段则是模型(xing)根据新数据生(sheng)成输出结果的过程。

在大(da)模型(xing)推(tui)理阶段,当用户(hu)使用时,根据估算,每生(sheng)成1000个英文单词大(da)约消耗0.125千瓦时的电量,也就是说每问8次(ci)就会消耗1度电,而1度电电量可(ke)至少充(chong)电50次(ci)手机,吹55分(fen)钟的空调,让笔记本电脑工作约10-15小时,让电视机播(bo)放约10个小时。而一个中等规模的电影放映厅,放映90分(fen)钟的电影,用电才17度,相(xiang)当于136个用户(hu)在ChatGPT只(zhi)问一次(ci)的电量。

ChatGPT现在差不多2亿用户(hu),有数据显示,其单日耗电量至少超50万千瓦时,一年电费就要近(jin)2亿美元。

除了OpenAI,谷(gu)歌也“吃电量”惊人:在谷(gu)歌搜索中应用生(sheng)成式AI技(ji)术,谷(gu)歌每年的耗电量将高达290亿千瓦时,也就是每天约7900万度电。这相(xiang)当于2.37亿台特(te)斯拉跑到报废所需要消耗的电量。

此外,亚马逊(xun)也估计,运行AI的能耗费用中,90%来(lai)自(zi)用户(hu)查询模型(xing)以获得结果的阶段,大(da)约相(xiang)当于训练阶段的10倍。

在今年2月,OpenAI首席执(zhi)行官萨姆·奥特(te)曼表示,AI技(ji)术消耗的电力(li)将远远超出人们预期。

“AI技(ji)术的发展速度前所未见,到了明年人类就没有足够的电力(li)来(lai)运行所有的芯片了。”一个月前,马斯克也表达了同样的“缺电焦虑”。

AI数据中心好比超大(da)“电热水器”

AI一下就没了“一瓶水”?

更重要的是除了是“耗电”大(da)魔王,AI其实也非常费水。

虽然太阳能和(he)风能发电不用消耗水,但是火电、天然气和(he)核能发电都会消耗大(da)量水。

服务于AI的芯片制造(zao)也是一个高度复杂和(he)精密的过程,涉及大(da)量的清洗和(he)化学处理步(bu)骤,这些步(bu)骤通常需要用到超纯(chun)水。生(sheng)产一个智能手机芯片大(da)约需要消耗5吨(dun)多的水。

在AI数据中心,除了芯片,“耗电”的重要机器还有风扇。如果没有不断(duan)吹过一排排计算机的冷空气,先(xian)进的芯片能将自(zi)己烧毁。

简言之,耗能越多,热能越多。

近(jin)年来(lai),液冷的散热方式成为AI算力(li)中心的部署趋势(shi)。数据显示,与传(chuan)统的风冷系统相(xiang)比,新型(xing)液冷系统可(ke)节省用电量的30%至50%。

因此,AI超算数据中心就需要大(da)量水来(lai)散热。

一个颇为形(xing)象的比喻:AI数据中心就好比一个超级大(da)的“电热水器”。

仍(reng)以初级的GPT-3为例,有学术研究显示,GPT-3在训练期间耗水近(jin)700吨(dun),足以用来(lai)生(sheng)产370辆宝(bao)马汽车(che)或(huo)320辆特(te)斯拉电动汽车(che)。

用户(hu)每一次(ci)和(he)GPT-3的简单对话,AI回答10至50个问题,就需消耗500毫升水。

“人们需要意识到,使用大(da)模型(xing)和(he)训练大(da)模型(xing)并不是不需要水的”加州大(da)学河(he)滨(bin)分(fen)校表示人工智能模型(xing)的“巨大(da)水足迹”一直“隐藏在雷达之下”,令人担忧。

值得一提的是,公开资料显示,微软承认用水是训练大(da)模型(xing)的一大(da)成本,从2021年到2022年,其全球(qiu)用水量飙升了34%,相(xiang)当于2500个奥运规格游泳池的大(da)小。

弗吉尼(ni)亚理工大(da)学的研究指出,Meta在2022年使用了超过260万立方米的水,主要就是数据中心使用。

有调研估算,到2027年,全球(qiu)范围内的AI需求(qiu)可(ke)能需要消耗掉66亿立方米的水资源,相(xiang)当于杭州西湖水量的450多倍、75个武(wu)汉东湖、9个云南滇池。

换句话说,AI的高耗电耗水量也带来(lai)了经济成本的上升,这一成本最终(zhong)转嫁到了消费者身上。

或(huo)许,这就不能理解,为何OPENAI的奥特(te)曼会在今年认为未来(lai)两种重要的货币(bi)是算力(li)和(he)能源。

比AI更耗电费水的是啥?

加密货币(bi)耗能更疯狂

今年1月底,美国信息技(ji)术与创新基(ji)金会(ITIF)发布报告《重新审视对人工智能能耗的担忧》称,应为AI模型(xing)制定(ding)能源透明度标准。

实际上,热潮之中的AI也不是最耗能源的,跟“数字黄金”的比特(te)币(bi)比起(qi)来(lai),甚至相(xiang)形(xing)见绌。

英特(te)尔CEO帕(pa)特(te)·基(ji)辛格认为一项(xiang)技(ji)术消耗太多能源,是不对的。

他表示,进入比特(te)币(bi)账户(hu)一次(ci),就比一个家(jia)庭一天的耗电量要高,比特(te)币(bi)使用太频繁会造(zao)成气候危机。

剑桥大(da)学正在开展的一项(xiang)研究估计,比特(te)币(bi)涉及的二(er)氧化碳排放高达7250万吨(dun)。如果所有比特(te)币(bi)矿工都使用水电,这一数字可(ke)低(di)至300万吨(dun)。相(xiang)比疯狂耗电的加密货币(bi),AI大(da)模型(xing)似乎(hu)微不足道(dao)。

正如马斯克所说,一个新兴产业爆发所带来(lai)的电力(li)需求(qiu),完(wan)全有可(ke)能颠(dian)覆原来(lai)的想象,更何况需要电力(li)的不止AI,还有电动车(che)、电动机器人、电解水制氢等等。

面对新技(ji)术带来(lai)的挑战,科技(ji)公司正在探索多种解决方案。一方面,通过优化算法提高效率,如模型(xing)量化和(he)剪枝,减少计算量和(he)电量消耗。另一方面,新型(xing)能源的投资也成为了一个重要方向。为了解决用电问题,微软和(he)OPENAI都在布局(ju)核聚变发电装置。

国际能源署在今年1月发布的报告中预测,未来(lai)三年,全球(qiu)对数据中心、加密货币(bi)和(he)人工智能的电力(li)需求(qiu)将增加一倍以上,相(xiang)当于一个德国的全部电力(li)需求(qiu)。到2026年,全球(qiu)总(zong)体电力(li)需求(qiu)预计将增长3.4%。

根据国际能源署的数据,数据中心和(he)输电网络的能源消耗已各占全球(qiu)总(zong)量的1.5%。它们每年的碳排放总(zong)量与巴西相(xiang)当。

中国作为全球(qiu)算力(li)总(zong)规模排名第二(er)的国家(jia),正在通过提升AI和(he)电力(li)相(xiang)关(guan)技(ji)术、优化数据中心软硬件技(ji)术,以及利用丰富的绿色电力(li)资源来(lai)应对AI耗电问题。

在海南陵水,海平面下30余米的海床上,单个重达1300吨(dun)的数据舱安静地运转着,这是全球(qiu)首个商用海底数据中心项(xiang)目。

海洋是全球(qiu)最大(da)的自(zi)然冷源,将数据中心建在海底,优势(shi)在于减少数据中心在制冷上所需的能耗,在几乎(hu)不消耗淡水资源的同时,可(ke)以支持更高的功率密度,进而稳定(ding)地提供澎湃算力(li)。

海兰(lan)云海底数据中心海南示范开发项(xiang)目总(zong)经理蒲定(ding)对外介绍,以100个海底数据舱为例,相(xiang)较于同等规模的陆地传(chuan)统数据中心,海底数据中心每年能节省用电总(zong)量1.22亿千瓦时、节省建设用地面积6.8万平方米、节省淡水10.5万吨(dun)。

可(ke)谓(wei)是省电、省水、省地,一举多得。全球(qiu)已实现在海底建设数据中心的只(zhi)有两个国家(jia),一个是中国,另一个就是美国。

当你下次(ci)开始与AI大(da)模型(xing)对话时,不如想一想人机交(jiao)互所需要的“那瓶水”。

且用且行且珍惜。

发布于:广东省
版权号:18172771662813
 
    以上就是本篇文章的全部内容了,欢迎阅览 !
     资讯      企业新闻      行情      企业黄页      同类资讯      首页      网站地图      返回首页 移动站 , 查看更多   
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7