巴克莱:LLM计算需求远超预期 AI芯片支出浪潮尚未见顶
巴(bā)克莱表(biǎo)示,人工(gōng)智能(AI)芯片支出必须增(zēng)加,才能满足模型开发商的最低预期。
巴克莱分析师Tom O'Malley表示,自英伟达(NVDA.US)8月底发布财(cái)报以来,人工智能芯片股的(de)抛售已经在(zài)整(zhěng)个人工智能生态系统中引起了反响,人们越来越质疑人工智能芯(xīn)片支出浪潮“是否正在接(jiē)近顶(dǐng)峰”。分析师认为,这种(zhǒng)观点没有适当地考(kǎo)虑到未来 的计算需求。
分析师补充说,至少有9个独立(lì)的组织开发尖端的、参(cān)数数量庞大的大型语(yǔ)言模型(LLM)。由于多(duō)种原因(投资回报、资金(jīn)、训练数据限制、路线图问题(tí)等),这些公司(sī)中的大多数都无法保证会继续推进模型开发(fā)的下一轮 迭代。不(bù)过,仅仅几次模型迭代就需要令人(rén)难以置信的大量计算。
这一需求远远超过了行业目前的(de)预期(qī),分析师(shī)认为以下三个因素是他们(men)覆(fù)盖(gài)股票的关(guān)键。
首先,需要逐(zhú)步(bù)实现预计的(de)产能(néng)。分析(xī)师估计,到2027年,仅为三个参数约为 50T的前沿模(mó)型提供动(dòng)力所需的计算资源,就需要近2000万块芯片(piàn)进行训练。需求(qiú)量(liàng)大的一个(gè)主(zhǔ)要原因是(shì),新模型计算需求的增(zēng)长速(sù)度预计将(jiāng)远高于(yú)目前的预期。
其次,商家(jiā)和消费者有办法实现双赢。分析师认为,在人工(gōng)智能(néng)加速器方面(miàn),应(yīng)该采取双管(guǎn)齐下(xià)的方法,英伟达和AMD(AMD.US)的商业解决(jué)方案更适合于训练和(hé)推理前沿模(mó)型,而超大规模定制芯片将用于数据(jù)中心(xīn)内更专业(yè)的工作负载。
巴克莱:LLM计算需求远超预期 AI芯片支出浪潮尚未见顶ms-style="font-L">分析师补充(chōng)说,他们看到这种情况总体上如预期(qī)的 那样发展,除了(le)少数例外(wài),如(rú)苹果(AAPL.US)使用TPU。他们继续预计,这种市场(chǎng)分化(huà)将在未来发挥作用。
第三,推(tuī)理市场将十分强劲。O'Malley表示,英伟达最近声称其约40%的(de)芯片用于推理,再加上其他加速器提供商重新关(guān)注推理市场,为这个新兴市场的发展提供了支撑。
推理(lǐ)将成为目前正(zhèng)在(zài)开发的前沿模(mó)型货币化的主要渠(qú)道。分析师表示,投入(rù)更多资源以降低推理成本,将有助于提高(gāo)开发模型的(de)投资回(huí)报率。
责任编辑:郭明煜