算力狂飙 电力承压 英伟达、英 特尔 争相推出节能方案
当地时间8月26日,OpenAI硬件(jiàn)设施(shī)负责人Trevor Cai在(zài)Hot Chips 2024上发表了长达一小时的演讲,主题为“构建可扩展的AI基础设施”。他指出,OpenAI的一项重要观察结果是,扩大规模可以产生更好、更有用的人工智(zhì)能(AI)。
作为全球芯片行(xíng)业影响力最(zuì)大的会(huì)议之一,Hot Chips于每年8月份在斯(sī)坦福大学(xué)举行。不同(tóng)于其他行业会(huì)议以学术研究为主,Hot Chips是一场产业(yè)界的盛会(huì),各大(dà)处理器公司会在每年的会上展现他(tā)们最(zuì)新的产品以及在(zài)研的产品。
《每日经济(jì)新闻》记者(zhě)注意到,AI浪潮推(tuī)动数据中心(xīn)激(jī)增,同时也伴随着能源需求的激增。在(zài)这样的背(bèi)景下,此次的Hot Chips大会上,围绕人工智能的议(yì)题(tí)比(bǐ)以往任何一届都(dōu)更加活跃。Trevor Cai的演讲着眼于解决能源和算力之间的问(wèn)题,英特尔、IBM和英伟达等则是提出了更节能的技术方案。
摩根士丹利在8月份发布(bù)的(de)研究中预测称,算力狂飙电力承压 英伟达、英特尔争相推出节能方案生成式AI的电力需求将在未来几年(nián)内(nèi)每年飙升75%,预计到2026年,其消耗的(de)能源量将与西班牙在2022年的(de)消耗量相当(dāng)。科技巨头们该如何应算力狂飙电力承压 英伟达、英特尔争相推出节能方案对能源挑战?
聚焦“节能(néng)方案”
当地时间8月(yuè)26日,一年一度的半导体企业盛会Hot Chips2024在斯(sī)坦福大学纪念礼堂举行,今年是第36届。
从会议(yì)第一(yī)天的(de)情况来看,大部分的话题都集中在了更节能、安全且可扩展(zhǎn)的大规模AI服务器部署(shǔ)方案上。
OpenAI硬件负责人Trevor Cai发表(biǎo)了“可预测的扩(kuò)展和(hé)基础设施(shī)”主题演讲(jiǎng),谈到了提升计算(suàn)能力所带来的可预测的扩展效益,这也是OpenAI自成立之初(chū)就关注的(de)重点(diǎn)。一个重要的观察结(jié)果是,扩大规模可以产生更好、更有用的人工智能。“每次计算量(liàng)翻倍(bèi),都会(huì)得(dé)到更好的结果。模型的能力和计(jì)算资源的消耗是呈指数级别上升(shēng)的。自2018年以来,行业(yè)中前沿模型(xíng)的计算量每年增(zēng)长约(yuē)4倍。”他说道。
最初,GPT-1只需几周的时间(jiān)完成训(xùn)练。如今,它已经扩(kuò)展到需要庞大的GPU集群。因此,OpenAI认(rèn)为AI的基础建设需 要大量投(tóu)资,因为计算能力(lì)的(de)提升已经产生了超过(guò)8个数量级的效益。
似乎是为了呼应OpenAI的演讲,各大公司的演讲也不约(yuē)而同地提到了大规模部署AI服务器的计划方案。
IBM在大会上披露(lù)了即将推出的IBM Telum II处(chù)理器和IBM Spyre加(jiā)速器的架(jià)构细节。新技术旨在显著扩展下一代(dài)IBM Z大型机系统的处理能力,通过(guò)一种新的AI集成方法帮助加速传统AI模 型和大型语言 AI模(mó)型的协同使用。IBM特别强调(diào)这次更新的先进(jìn)I/O技术旨在降低能(néng)耗和数据中心占用 空间。
英伟达(dá)也(yě)在(zài)大会上放出了最(zuì)新的AI集群架构Blackwell的相(xiāng)关(guān)消息。英伟达称,Blackwell拥有6项革命性技术,可支持多(duō)达10万(wàn)亿参(cān)数的模型进行(xíng)AI训练和实时大语言(yán)模型(LLM)推理。值得注意的(de)是,英伟(wěi)达的Quasar量化系统用于确(què)定可以(yǐ)使用较低精(jīng)度的内容,从而减少计算和(hé)存储(chǔ)。英(yīng)伟达表示他们的宗旨就(jiù)是(shì)在(zài)提高能源效率(lǜ)的同时为AI和加速计算性(xìng)能提供新标准。
除此之(zhī)外,英特尔、博通、海力士(shì)等(děng)公(gōng)司的(de)演讲中均 提到了更节能的技术(shù)方案 。
能源需求激增
科(kē)技巨头们着(zhe)眼“更节(jié)能的”技术方(fāng)案的根本原因在于,当前人算力狂飙电力承压 英伟达、英特尔争相推出节能方案工(gōng)智能热潮正 在增加更强大的处理器(qì)以及保持数据中心冷(lěng)却(què)所需的(de)能源(yuán)需(xū)求(qiú)。
当前(qián),微(wēi)软、Alphabet和Meta等大型科技公司正在投资数十亿美元建设数(shù)据中心基(jī)础设施(shī),以支持生(shēng)成式人工智能(néng),但数据(jù)中心的激增也伴随着能源需求的激增。
据彭博社报道,仅去年,大型科技(jì)公司就向数据中心设施投入了约1050亿(yì)美(měi)元。谷歌、苹果和(hé)特斯拉等公司(sī)不断通过新产品(pǐn)和服务增强AI能力。每项AI任务都需要巨大的计算能力,这(zhè)意味着数据中(zhōng)心会消耗大量电力。国际能源署(shǔ)(IEA)预测,到2026年,全球数据中心每年使用的能源量(liàng)将相当于日本的电力消耗量。
Hugging Face的(de)人工智能和气候(hòu)负责人Sasha Luccioni提到,虽然训练AI模型需要耗费大量能源(例如(rú),训(xùn)练 GPT-3模(mó)型耗费了大约1300兆瓦时的(de)电力,而GPT-4的训练消耗是(shì)GPT3的(de)50倍),但通常只进(jìn)行一(yī)次。然而,由于查(chá)询量巨大,模型生成响应可能(néng)需(xū)要更多能源。
例如,当用户向ChatGPT等AI模型提(tí)问时,需要向数据中心发送请(qǐng)求,然(rán)后强大的处(chù)理器会生成响应。这个过(guò)程(chéng)虽然很快,但消耗的能量也(yě)是巨大的。根据艾伦人工智能研究所的数据,对ChatGPT进(jìn)行一次查询所消(xiāo)耗的电量相当于为灯泡点亮20分钟,是简单Google搜索耗(hào)电量的10倍以上。
然而,全球的电力资(zī)源有(yǒu)限,而数据中心需要持续稳定的电力供应来运行服务器和其他核心运营设备。如果能源供应不稳定(dìng),停机可能会 给(gěi)企业和其他用(yòng)户造成(chéng)重大经济损失。此外,巨大的能源消耗也引发了人(rén)们对环境的担忧。
为应对这一挑战,科技公司(sī)们开始寻(xún)找(zhǎo)解决方案。
部分公(gōng)司(sī)选择更清洁且高效的能(néng)源供给,如(rú)核能。亚马逊最(zuì)近(jìn)在美国宾夕法尼亚(yà)州东北部购买了一个(gè)价(jià)值6.5亿美元的(de)核(hé)能(néng)数据中心(xīn)园区(qū)设施(shī),该(gāi)设施将(jiāng)使用核(hé)反应堆产生(shēng)的高(gāo)达40%的电力(lì),最终使亚马逊能够(gòu)减少对(duì)当地电网的依赖。与此同时,微软聘请了核专家(jiā)来(lái)带头寻找这种替代电源。微(wēi)软还与核电站运营商签订了合同协议,为其位于弗吉尼亚(yà)州的一个数据(jù)中心提供电(diàn)力。
除此之外,科技公司们(men)不仅在前文所提到的一系列(liè)芯片节能技术进行努力,也在其(qí)他硬件设(shè)施和技(jì)术上下足了功夫。
谷歌正(zhèng)在开发人(rén)工(gōng)智能专用芯片,例如张(zhāng)量处理单元(TPU),这些芯片针对人工智能任务进行了优化,而不是使用为游戏技术创建的图形处理(lǐ)单元(GPU)。
英伟达针对(duì)Blackwell芯(xīn)片的直接液体冷却系(xì)统还宣布(bù)了(le)一项研(yán)究,研究(jiū)表明了如(rú)何重(zhòng)新利用从服务器中吸收的热量并将(jiāng)其(qí)回收到数据中心。据英伟达估计,冷却(què)最多可减少数据中 心设施耗电量的28%。
然而,威斯康星大(dà)学麦迪逊分校的(de)教(jiào)授(shòu)辛(xīn)克莱提醒,杰文(wén)斯(sī)悖论在这(zhè)里依然适用。“提高人(rén)工智(zhì)能的效率,虽然减少了单次能耗,但(dàn)整体使用 率的增(zēng)加最终会导致总体能耗的上升。”辛克莱解释道。这(zhè)个(gè)悖论不仅适用于(yú)19世纪的火车煤炭使用,同样适(shì)用于当今的人工智能和电力消耗(hào)。
未经允许不得转载:橘子百科-橘子都知道 算力狂飙电力承压 英伟达、英特尔争相推出节能方案
最新评论
非常不错
测试评论
是吗
真的吗
哇,还是漂亮呢,如果这留言板做的再文艺一些就好了
感觉真的不错啊
妹子好漂亮。。。。。。
呵呵,可以好好意淫了