业界动态
大模型为何成耗能大户,发展,能耗,人工智能
2024-05-03 12:15:04
大模型为何成耗能大户,发展,能耗,人工智能

随(sui)着人工智能技术快速发(fa)展,人工智能(AI)大模型的运行消(xiao)耗问(wen)题(ti)受到越来越多关(guan)注。大模型为何成了耗能大户?能耗问(wen)题(ti)会不会成为人工智能发(fa)展的“绊脚(jiao)石(shi)”?如何解决能耗问(wen)题(ti)?

耗电耗水(shui)量大

人工智能大模型到底有多耗能?据斯坦福人工智能研究所发(fa)布的《2023年AI指数报告》,AI大语言模型GPT-3一次训练的耗电量为1287兆瓦时,大概(gai)相当于3000辆(liang)特斯拉电动汽车共同开(kai)跑、每(mei)辆(liang)车跑20万英里所耗电量的总和。报告同时提出,AI大语言模型GPT-3一次训练,相当于排(pai)放了552吨(dun)二氧化碳。

国外研究显示,一次标准谷歌搜索耗电0.3瓦时,AI大语言模型ChatGPT响应一次用户请求耗电约2.96瓦时,在AI大模型驱动下的一次谷歌搜索耗电8.9瓦时。

除了耗电,另有研究显示,AI大语言模型GPT-3在训练期间耗水(shui)近700吨(dun),每(mei)回(hui)答20个至50个问(wen)题(ti)就要消(xiao)耗500毫升水(shui)。弗吉尼亚理工大学(xue)研究指出,Meta公司在2022年使用了超过(guo)260万立(li)方(fang)米的水(shui),主要作用是为数据中心提供冷却。

据了解,人工智能大模型GPT-4的主要参数是GPT-3的20倍,计算量是GPT-3的10倍,能耗也随(sui)之大幅增加(jia)。

华泰证券研报预(yu)测,到2030年,中国与美国的数据中心总用电量将分(fen)别达到0.65万亿千瓦时至0.95万亿千瓦时、1.2万亿千瓦时至1.7万亿千瓦时,是2022年的3.5倍和6倍以上。届时,AI用电量将达到2022年全社会用电量的20%和31%。

为何如此耗能

为什么(me)人工智能大模型如此耗能?AI技术迅速发(fa)展,对芯(xin)片的需求急剧增加(jia),进而带动电力需求激增。同时,对AI进行大量训练,也意(yi)味(wei)着需要更强的算力中心和与之匹配的散热能力。在AI快速迭代的道(dao)路上,电力和水(shui)资源(yuan)的消(xiao)耗也在快速增加(jia)。因为很多数据中心全年无休,发(fa)热量巨大,大规模电耗和水(shui)耗主要来自于冷却需求。

相关(guan)统计显示,数据中心运行成本的六成是电费,而电费里的四成多来自冷却散热,相应也会带来巨量冷却水(shui)的消(xiao)耗。风冷数据中心六成多的耗电量都会用在风冷上,只有不到四成电力用在实(shi)际计算上。如今,全球数据中心市场耗电量是10年前的近10倍。

能耗问(wen)题(ti)会不会成为人工智能发(fa)展的“绊脚(jiao)石(shi)”?英伟达首席执行官黄仁勋(xun)曾(ceng)提到,AI和算力耗能巨大,但由于计算机性能飞速增长,计算会更加(jia)高效,相当于更节省能源(yuan)。当前,我国实(shi)施严格的能耗双控政策,无论是AI大模型本身还是其应用行业,对单(dan)位GDP能耗来说均有明显降低作用。

从整体能耗来看,AI大模型带来的效率提升也会抵消(xiao)一部(bu)分(fen)能耗增长。随(sui)着绿电广泛应用,再加(jia)上我国逐步由能耗双控向(xiang)碳排(pai)放双控政策转变,可再生能源(yuan)对未来AI大模型发(fa)展的支撑能力也会越来越强。

此外,相较于其他国家(jia)而言,中美等能源(yuan)消(xiao)费大国和数据大国,具备更好发(fa)展AI大模型的资源(yuan)条件和基础。

怎样应对挑战

据预(yu)测,到2025年,AI相关(guan)业务在全球数据中心用电量中的占比将从2%增加(jia)至10%。到2030年,智能计算年耗电量将达到5000亿千瓦时,占全球发(fa)电总量的5%。因此,在大力发(fa)展AI大模型的同时,必须提前做好相关(guan)规划布局,以提供必要的电力和水(shui)资源(yuan)等技术支撑。

有专家(jia)认为,人工智能的未来发(fa)展与状态和储能紧密相连。因此,不应仅关(guan)注计算力,而是需要更全面地考虑能源(yuan)消(xiao)耗问(wen)题(ti)。OpenAI创始人奥尔特曼认为,未来AI技术取决于能源(yuan)突(tu)破,更绿色的能源(yuan)尤其是核聚变或更便宜的太阳能以及储能的可获得(de)性,是人工智能发(fa)展快慢的重要因素。

为降低电力和水(shui)资源(yuan)消(xiao)耗,很多企业在尝试采(cai)用各种方(fang)法为数据中心散热。例如,微软曾(ceng)尝试部(bu)署海下数据中心,脸书(Facebook)数据中心选址北极圈附近,阿里云千岛湖数据中心使用深层湖水(shui)制冷等,我国很多企业则把数据中心布局在水(shui)电资源(yuan)丰富的西南地区。

目前,可通(tong)过(guo)算法优化、开(kai)发(fa)和使用更高效的AI专用硬件、调整神经网络训练过(guo)程以优化计算资源(yuan)等技术方(fang)式来降低AI大模型的能耗,并更多采(cai)用自然冷却、液冷、三联供、余热回(hui)收等新兴节能技术,提高制冷效率以降低数据中心能耗。从技术未来发(fa)展方(fang)向(xiang)上看,光电智能芯(xin)片也有助于解决AI大模型的电耗和水(shui)耗问(wen)题(ti)。

AI大模型的发(fa)展,不能仅符合(he)高端(duan)化、智能化的要求,更要符合(he)绿色化的发(fa)展要求。为此,从国家(jia)和地方(fang)层面上看,为缓解AI大模型发(fa)展所带来的电力和水(shui)资源(yuan)冲击,有必要将数据中心行业纳入高耗能行业管(guan)理体系,并提前做好相关(guan)规划布局。同时,加(jia)强资源(yuan)整合(he),充分(fen)发(fa)挥人工智能大模型和数据中心的效能,通(tong)过(guo)使用效能下限(xian)设置等方(fang)式,确保其自身的电力和水(shui)资源(yuan)使用效率。还应严格落实(shi)国家(jia)能耗双控及碳排(pai)放双控政策,并将其碳足迹与水(shui)足迹纳入行业考核范围,切实(shi)推动碳足迹与水(shui)足迹逐步降低,以应对日(ri)益增长的AI大模型电力和水(shui)资源(yuan)需求。

发(fa)布于:北京市
版权号:18172771662813
 
    以上就是本篇文章的全部内容了,欢迎阅览 !
     资讯      企业新闻      行情      企业黄页      同类资讯      首页      网站地图      返回首页 移动站 , 查看更多   
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7