算力狂飙电力承压 英伟达、英特尔争相推出节能方案
当地时间8月26日,OpenAI硬件设施负责人Trevor Cai在Hot Chips 2024上发表了长达一小时(shí)的演讲,主题为“构建可(kě)扩展的AI基础(chǔ)设施 ”。他指出,OpenAI的一项重要观察结果是(shì),扩大规模(mó)可以(yǐ)产生更好、更有用的人工智能(AI)。
作为全球芯片行业影响力最大的会议之一,Hot Chips于每年8月份在斯坦(tǎn)福大(dà)学举(jǔ)行。不同于(yú)其他行(xíng)业会议以学术(shù)研究为主,Hot Chips是一场产业界的盛会,各大处理器公司会在每年的会上展现他们(men)最新(xīn)的产品以及在研(yán)的(de)产品。
《每日经(jīng)济新闻》记者(zhě)注意到(dào),AI浪潮推动数据中心激增(zēng),同时也伴(bàn)随着(zhe)能源需求的激增。在这(zhè)样的背(bèi)景下,此次的Hot Chips大(dà)会上,围绕人工智能的议(yì)题比以往(wǎng)任何(hé)一(yī)届都更加活跃(yuè)。Trevor Cai的(de)演讲着眼于解决能(néng)源和算力之间的问题(tí),英特算力狂飙电力承压 英伟达、英特尔争相推出节能方案尔、IBM和英伟达等则是提出了更节能的技术方案。
摩(mó)根士丹利在8月份发(fā)布的研究中预测(cè)称,生成式AI的电力需求将在(zài)未来几年内每年(nián)飙升(shēng)75%,预计到2026年,其消耗的(de)能源量将与西班(bān)牙在2022年的消耗量相当。科技(jì)巨头(tóu)们该如何应对能源挑战?
聚(jù)焦“节能方案”
当地时间8月26日,一年一度(dù)的半导体企业盛会Hot Chips2024在斯坦福大学纪念礼(lǐ)堂举行,今年是第36届。
从会议第一天的情况来看,大部分(fēn)的话题都集中在了更节能、安全(quán)且可扩展的大规模AI服务器部(bù)署方案上。
OpenAI硬件负责人Trevor Cai发表(biǎo)了“可预测的扩展和基础设施(shī)”主题(tí)演讲(jiǎng),谈到了提升计算能力所带来的可预测的扩展(zhǎn)效益,这也是OpenAI自成立(lì)之初就关注的重点。一个重要的观察结果是,扩大规模可以产生更好(hǎo)、更有用的人工智能。“每次(cì)计算量翻(fān)倍,都会得(dé)到更好的结果。模型的能力和计算资源的消耗是呈指(zhǐ)数级别上升的。自2018年以(yǐ)来,行业(yè)中前沿模型的计算量每年增长约(yuē)4倍。”他说道。
最初,GPT-1只需几周的时间完(wán)成 训练。如今,它(tā)已经扩展到需要(yào)庞大的GPU集群。因此,OpenAI认为AI的基础建设需要大量投资,因为计算能力的(de)提升已经产生了超过8个数量级的效益。
似乎是(shì)为(wèi)了呼(hū)应OpenAI的演讲(jiǎng),各大公司(sī)的演讲也不约而同地提到了大规模部(bù)署AI服务器的计划(huà)方案。
IBM在大(dà)会上披露了即将推出的IBM Telum II处理器和IBM Spyre加速器的架构(gòu)细节。新技术旨在显著扩展下一(yī)代IBM Z大型机系统的处理能力,通过一种新的AI集成方法(fǎ)帮助加速传统AI模型和大(dà)型语言 AI模型的协同使用。IBM特别强调这(zhè)次更新(xīn)的先进I/O技术旨在降(jiàng)低能耗和数(shù)据中心占用空间。
英伟达也在大会上放出了最新的AI集群架构(gòu)Blackwell的相(xiāng)关消息。英伟达(dá)称,Blackwell拥有6项革命性技术,可支持多达10万亿参(cān)数(shù)的(de)模型进(jìn)行AI训练和实时大语言模型(LLM)推理。值(zhí)得注意(yì)的是,英伟达的Quasar量化系统用于确定可以使用较低精度的(de)内容,从而减少计算和(hé)存储。英伟达(dá)表(biǎo)示他们的宗旨就是(shì)在提高能源效率的同时为AI和加速计算性能提供新标准。
除此之外,英特尔、博通、海力士(shì)等公司的演讲中均提(tí)到了更节能(néng)的技术方案。
能源需求激增
科技巨头们着眼“更节能的”技术(shù)方案的(de)根本原因在于,当前人工智(zhì)能热潮正在增加更强大的处理器以及保持数据中心冷却所需的能源需求(qiú)。
当前,微(wēi)软、Alphabet和Meta等大型科技公司正在投(tóu)资(zī)数十亿美元建设数据中心基础设施,以支持生成式人工智能,但数据中心的激增也伴随着能源需求的激增(zēng)。
据(jù)彭博社报道,仅去年,大型科(kē)技公司就向数据中心设施(shī)投入了约1050亿美元。谷歌、算力狂飙电力承压 英伟达、英特尔争相推出节能方案苹果(guǒ)和特斯(sī)拉等公司不断通过新产品和服务增强AI能力。每(měi)项AI任务都需要巨大的计算能力,这意(yì)味着数据中心会消耗大量电力。国际能源署(IEA)预测,到2026年,全球数据中心每年(nián)算力狂飙电力承压 英伟达、英特尔争相推出节能方案使用(yòng)的能源量将相当于日本的电力消耗量。
Hugging Face的人工(gōng)智能和气候(hòu)负责人Sasha Luccioni提到,虽然训(xùn)练AI模型需要耗费(fèi)大(dà)量能源(例如,训练 GPT-3模型(xíng)耗费了(le)大约1300兆瓦时的电力,而GPT-4的训练消(xiāo)耗(hào)是GPT3的50倍),但通常只进行一次。然(rán)而,由于查询量巨大(dà),模型生(shēng)成响应可能需(xū)要更多能源。
例如,当用户向(xiàng)ChatGPT等(děng)AI模型(xíng)提问时,需(xū)要(yào)向数据中心发(fā)送请求,然后强大(dà)的(de)处理器会生成响应。这个过程虽然(rán)很快,但消耗的能量也是巨大的。根据艾伦人(rén)工智能研究所的数据,对ChatGPT进行一次查询所消耗的电量相当于(yú)为灯泡点亮20分钟,是简(jiǎn)单Google搜索耗(hào)电量的10倍(bèi)以上。
然而,全球的电力资源有限,而数据中心需要持续稳定的电力供(gōng)应来运行服务器和其他核心运营设备。如(rú)果能(néng)源供应(yīng)不稳定,停机可能会给企业和其他用户造(zào)成重(zhòng)大经济损(sǔn)失。此外,巨(jù)大的能(néng)源消耗也(yě)引发了人们对环境的担忧。
为应(yīng)对这一挑战,科技公司们(men)开(kāi)始寻找解决方案。
部(bù)分公司选择更清洁且高效的能源供给,如核能。亚马逊最(zuì)近在美国宾夕法尼亚州东北部购买了一个价值6.5亿美元的核能数据中心(xīn)园区(qū)设(shè)施,该设(shè)施将使用核反应堆产生的高达40%的电力,最终使亚(yà)马逊(xùn)能够减少对当地电网的依赖(lài)。与此(cǐ)同时,微软聘(pìn)请了核专家来带头寻(xún)找这种替代电源。微软还(hái)与核电站运营商签订了合同协议,为(wèi)其位(wèi)于弗吉尼亚(yà)州(zhōu)的一个数据中心提供电力(lì)。
除此之外(wài),科技(jì)公司们不仅在(zài)前文(wén)所提到的一系列芯片节能技术进行努力,也在其他硬件设施和技术上(shàng)下足了功夫。
谷歌正在开发人工智能(néng)专(zhuān)用(yòng)芯片,例(lì)如张量处(chù)理单元(TPU),这些芯片针对人(rén)工智能任(rèn)务进行了优化,而不是使用为游戏技(jì)术创建的图形处理(lǐ)单元(GPU)。
英伟达针对(duì)Blackwell芯片的直(zhí)接液体冷却系统还宣布了一项研究,研(yán)究表明了如(rú)何(hé)重(zhòng)新(xīn)利用从服(fú)务器中吸(xī)收的(de)热量并将其回收到数据中心。据英伟达(dá)估计,冷却最多可减少数(shù)据中心(xīn)设施耗电量的(de)28%。
然而,威斯康星大学麦(mài)迪逊(xùn)分校的教授(shòu)辛克莱提醒,杰文斯悖论在这里依然适用。“提(tí)高人工智能的(de)效率(lǜ),虽(suī)然减少了单次能耗,但整体使用率(lǜ)的(de)增加最终(zhōng)会导致总体能耗的上升。”辛克莱解释道。这(zhè)个悖(bèi)论不(bù)仅适用(yòng)于19世纪的火车煤炭(tàn)使用,同样适用于当今的人工智能和(hé)电力消耗。
未经允许不得转载:橘子百科-橘子都知道 算力狂飙电力承压 英伟达、英特尔争相推出节能方案
最新评论
非常不错
测试评论
是吗
真的吗
哇,还是漂亮呢,如果这留言板做的再文艺一些就好了
感觉真的不错啊
妹子好漂亮。。。。。。
呵呵,可以好好意淫了