算力狂飙电力承压 英伟达、英特尔争相推出节能方案
算力狂飙电力承压 英伟达、英特尔争相推出节能方案当地(dì)时间8月26日,OpenAI硬件(jiàn)设施负责人Trevor Cai在Hot Chips 2024上发表了长(zhǎng)达一小时的演讲,主题(tí)为“构建可扩展的AI基础设施”。他指出,OpenAI的一项重要(yào)观察结果是,扩大规模(mó)可以产(chǎn)生更好、更有用的(de)人工(gōng)智能(AI)。
作为全球(qiú)芯片行业影响力最大的会议之(zhī)一,Hot Chips于每年(nián)8月份在斯坦福(fú)大学举行(xíng)。不同于其(qí)他(tā)行业会议以学术研究为主(zhǔ),Hot Chips是一场产业界的(de)盛会,各大处理器公司会在每年的会上(shàng)展现他们最(zuì)新的产品以及在研(yán)的产品。
《每日经济新闻》记者注意到,AI浪潮推动数(shù)据中心激增,同时也(yě)伴随着能源(yuán)需求的(de)激增。在这样的背景下,此次的Hot Chips大会上(shàng),围绕人工智能(néng)的议题比以往任何一届都更加活跃。Trevor Cai的演讲(jiǎng)着(zhe)眼于解决(jué)能源和算力之(zhī)间的问题,英(yīng)特尔、IBM和英(yīng)伟达等则是提出了更(gèng)节(jié)能的技术方案(àn)。
摩根士丹利在8月份发布的研究中预测称,生成式AI的电力需求将在未(wèi)来几年内每年飙(biāo)升75%,预计到2026年(nián),其消耗的能源量将与西(xī)班牙在2022年的消(xiāo)耗量相当。科技(jì)巨头(tóu)们该如何应(yīng)对能(néng)源挑战?
聚焦“节能方案”
当地时间8月(yuè)26日,一年一(yī)度的半导体企业盛会Hot Chips2024在(zài)斯坦(tǎn)福大(dà)学纪念礼(lǐ)堂举(jǔ)行,今年是(shì)第36届。
从会议第一天的情况来看,大部分的话题都集中在了更节能(néng)、安全且可扩展的(de)大规模AI服务器(qì)部署方(fāng)案上。
OpenAI硬(yìng)件(jiàn)负责人Trevor Cai发表了“可预测的(de)扩展和基础设(shè)施”主题演讲,谈到了提升计算能(néng)力(lì)所带来的可预测的(de)扩展效益,这也是OpenAI自成(chéng)立(lì)之初就关注的重点。一个重(zhòng)要的观察结果是,扩大规模可以(yǐ)产生更好、更有用的人工智能。“每次计算量翻倍,都会得到更好的结果。模型的能力和 计算资源的消(xiāo)耗是呈指数级别上升的。自2018年以来,行业中(zhōng)前沿模型的计算量每(měi)年增长约4倍(bèi)。”他说道。
最初(chū),GPT-1只 需几周的时间完(wán)成训练。如今,它已经扩展到需要庞大的GPU集群。因此,OpenAI认为(wèi)AI的基础建设需要大(dà)量投资,因为计(jì)算能力的提升已经产生了(le)超过8个数量级的效益。
似乎是(shì)为了(le)呼应OpenAI的演讲,各大公司的演讲也(yě)不(bù)约而(ér)同地提到(dào)了大规模(mó)部署AI服(fú)务器的计划方案。
IBM在大(dà)会上披露了即将推(tuī)出的IBM Telum II处理器和IBM Spyre加速器的架构细(xì)节。新技(jì)术旨在显(xiǎn)著扩展下一代IBM Z大型机系统(tǒng)的处理能力,通(tōng)过(guò)一种新(xīn)的AI集成方法帮助加(jiā)速传统AI模型和(hé)大型语言 AI模型的(de)协同使用(yòng)。IBM特别强调这次更新的先进I/O技术旨在(zài)降低能耗和数据中心占(zhàn)用空间。
英(yīng)伟达也在大会上放出了最新(xīn)的AI集群架构Blackwell的相关消息。英(yīng)伟达称,Blackwell拥有6项革命性技术,可支持多达10万(wàn)亿参数(shù)的模型(xíng)进行AI训练和实时大(dà)语言(yán)模型(LLM)推理。值得注意的是,英(yīng)伟达的Quasar量化系统用于确(què)定可以使用(yòng)较低(dī)精 度的内容,从而减少计算和(h算力狂飙电力承压 英伟达、英特尔争相推出节能方案é)存储(chǔ)。英(yīng)伟达(dá)表示他们(men)的宗旨就是在提高能源(yuán)效(xiào)率的同时为AI和加速计算性能提供(gōng)新标准。
除此之外,英特尔、博通、海力士等公(gōng)司的演(yǎn)讲中均提到(dào)了更节能的技术方案。
能源需求激增
科(kē)技(jì)巨头们(men)着眼“更节能的”技术方案的根本原(yuán)因(yīn)在于(yú),当前人工(gōng)智能热潮正在增加更强(qiáng)大的处理器(qì)以及保持数(shù)据(jù)中心冷却所需的(de)能源需求。
当前,微软(ruǎn)、Alphabet和Meta等大型科技(jì)公司正在投资数(shù)十亿美元建设(shè)数据中心基础设施,以支(zhī)持生(shēng)成式人工智能,但 数据中心的激增也伴(bàn)随着能源需求的(de)激增。
据彭博社报(bào)道,仅去(qù)年 ,大型科技公(gōng)司(sī)就向数据中(zhōng)心设施(shī)投入了约1050亿美(měi)元。谷歌、苹果和特斯(sī)拉等公司不(bù)断通过新(xīn)产品和服务增强AI能力(lì)。每项AI任务都(dōu)需要巨大的(de)计(jì)算能(néng)力(lì),这(zhè)意味着数据中心会(huì)消耗大量电力。国(guó)际能源署(IEA)预测,到2026年,全球数据中心(xīn)每年(nián)使用的能源量将(jiāng)相当于日本的电力消(xiāo)耗量。
Hugging Face的人工智 能和(hé)气候负责人(rén)Sasha Luccioni提到,虽(suī)然训练AI模型需要(yào)耗费大量能源(例如,训练 GPT-3模型耗费(fèi)了大约1300兆瓦时的电力(lì),而GPT-4的训练消耗是(shì)GPT3的50倍),但通常只进行一次。然而,由于查询量巨大(dà),模型(xíng)生成响应可能需要更多能源。
例如(rú),当用户向ChatGPT等AI模型提问时,需要向数据(jù)中心发(fā)送请求,然后(hòu)强大的处理器会生成响应。这个(gè)过程虽(suī)然很(hěn)快,但 消耗的能量也是巨大的(de)。根据艾伦人工 智能研究所的数据,对ChatGPT进行一次查询所消耗的电量相当于为灯泡点亮20分钟,是简单Google搜索耗电量的10倍以上。
然而(ér),全(quán)球的电力(lì)资源有限(xiàn),而数据中心需要持续稳定的电力供应来运行服务器和其他核心运营设备(bèi)。如(rú)果能源供应不稳(wěn)定(dìng),停机可能会给企业和(hé)其他用户造成重大经(jīng)济损失。此外,巨大的能(néng)源(yuán)消耗也引(yǐn)发了人们对环境的担忧。
为应对这(zhè)一挑(tiāo)战,科技公司(sī)们(men)开始寻找解(jiě)决方案。
部分(fēn)公(gōng)司选择更(gèng)清洁且高效的能源供给,如核能。亚马逊最近在美国宾夕法尼亚州东北(běi)部购买(mǎi)了一个价值6.5亿美元的核能(néng)数据中心园区设(shè)施,该设施将使用核反应堆产生(shēng)的高达40%的电力,最(zuì)终使亚(yà)马逊能够减少(shǎo)对当地(dì)电网的(de)依赖。与此同(tóng)时,微(wēi)软聘请了(le)核(hé)专家来带头寻找这种替代电源(yuán)。微软还与核电站运营(yíng)商签订了合同协议,为(wèi)其位于弗(fú)吉(jí)尼亚州的一个数据中心提供(gōng)电力。
除此之外,科技公司们不仅在前文所提到的一系列芯片节能技术进行努(nǔ)力,也在其他硬件设施和技术上下足了功夫。
谷歌正在开发(fā)人(rén)工智(zhì)能专用(yòng)芯片(piàn),例如张量(liàng)处理单元(TPU),这些芯片针(zhēn)对人工智能任务进行了优化,而不(bù)是使(shǐ)用为游戏技术创建(jiàn)的图形处理单元(GPU)。
英(yīng)伟达针对Blackwell芯片的直接液(yè)体冷(lěng)却系统(tǒng)还宣布了一项研究,研究表明了如何重新利用从服务器(qì)中吸(xī)收的热量并将(jiāng)其回收到数(shù)据中(zhōng)心 。据(jù)英伟达 估计,冷(lěng)却最(zuì)多可(kě)减少数据中心设施耗电量的28%。
然(rán)而,威斯康星大学麦迪逊分校的教(jiào)授辛克莱提醒,杰文斯悖论在这里(lǐ)依然(rán)适用。“提高(gāo)人工智能的效率,虽然减少了单次能耗,但整体使用率的增加最终会导致总体能耗的上升。”辛克莱解释道。这个(gè)悖论不仅适用于19世纪的火车煤炭使用,同样适用于(yú)当今的人工智能和电力消耗。
未经允许不得转载:橘子百科-橘子都知道 算力狂飙电力承压 英伟达、英特尔争相推出节能方案
最新评论
非常不错
测试评论
是吗
真的吗
哇,还是漂亮呢,如果这留言板做的再文艺一些就好了
感觉真的不错啊
妹子好漂亮。。。。。。
呵呵,可以好好意淫了