橘子百科-橘子都知道橘子百科-橘子都知道

从GPT到“草莓 ”:OpenAI的野心与安全困境

从GPT到“草莓 ”:OpenAI的野心与安全困境

此前,一道低难度的数学题——9.11和9.9哪个更大,难倒了一众(zhòng)海内外AI大模型,也让外界了解到了大模型在推理方面的局(jú)限性。

不(bù)过(guò),情况(kuàng)正在迅速(sù)发生改变。当 地时(shí)间8月(yuè)27日,据The Information报道,OpenAI神秘的“草莓”(Strawberry,前身为Q*)项目,计划最(zuì)早于今年秋季推(tuī)出。同时(shí),用“草莓”合成 数据来(lái)开发的最新大模型——“猎户座”(Orion),或于明(míng)年(nián)年初推出(chū)。

The Information援引知 情人士的消息称,今年(nián)夏天,在秘(mì)密会(huì)议(yì)上,OpenAI向美国国家安全官(guān)员展示了“草莓”模型。

推(tuī)理能(néng)力出众

据The Information报道,参与(yǔ)OpenAI该项目的两名人员透露,研究人(rén)员计划在今年秋季推出代号为“草莓”的新型(xíng)AI,并有可能将其作为ChatGPT的(de)一部分。

据悉,OpenAI希望通过推出“草莓”为公司筹集更多资金(jīn),并 寻找减少亏损的(de)方(fāng)法 。此前(qián),据媒体报道,OpenAI今年的亏损可(kě)能(néng)高达50亿美元。

据前述外媒报道,“草莓”目前的功能极其强大(dà)。它可以解决此前从未见过的数学问题 ,这是当前的聊(liáo)天机器人无法(fǎ)可靠完成的任 务。它还可以解决(jué)涉及编程的问题,且不局限于回答技术(shù)性问(wèn)题。如(rú)果给予它更多时间 “思考”,“草莓”模型(xíng)还可(kě)以回答用户更“主观”的问题,例如产品(pǐn)营销策略。

为了展示“草莓”在语言方(fāng)面的实力,研究(jiū)人员向OpenAI内部同事展示了“草莓”如何解决《纽约时报》上刊登的复(fù)杂字谜游戏。

现有的人工智能并(bìng)不擅长解决航空 航天和结构工程等数学密集型领(lǐng)域的(de)问题(tí),因此,解决棘手数学问(wèn)题的AI可能(néng)是一(yī)个(gè)潜在有利可图的应用。为(wèi)了提高模型的推理能 力,一些初创公司尝试将问题(tí)分解为更小的步骤,但这些办法既慢又(yòu)贵。

数学推理(lǐ)能力的提(tí)升也有助于(yú)AI模型更好地处理对话查询,例如(rú)客户服务请求。这或许对OpenAI即将推出的AI代理服(fú)务将起(qǐ)到帮(bāng)助。

不仅是OpenAI,人工智能领域的其他主要参与者也在数学推理(lǐ)方(fāng)面(miàn)取得了长足进步。例(lì)如,谷(gǔ)歌DeepMind 最近开发了AlphaProof和AlphaGeometry 2,这是两个用于高级数学推理(lǐ)的 AI系统。两(liǎng)个系统协同(tóng)工作(zuò),在2024年 国际(jì)数(shù)学(xué)奥林 匹克 竞赛中获得银牌,解决了(le)六道题中的四道。

可帮助训练大模型

对OpenAI,“草莓”不仅是一个即将要向外界(jiè)推出的商业模型,它(tā)还被赋(fù)予了更重要的使命。

一位知情人士向The Information表示(shì),OpenAI在使(shǐ)用更大版本(běn)的“草莓”来生成训练下一代旗舰模型“猎户座”(Orion)的数据。该模型旨在改进其现有的旗舰(jiàn)模型GPT-4并(bìng)帮助(zhù)OpenA从GPT到“草莓”:OpenAI的野心与安全困境I领(lǐng)先其他资金雄厚的竞争对(duì)手,争夺对话式(shì)AI或大型语言模型的霸主地位。

GPT-4自2023年3月推出(chū)后,就成为(wèi)一个改变(biàn)游戏规则(zé)的大型语言模型。然而(ér),在过去18个月(yuè)中,竞争对手已基(jī)本 追赶上来(lái)。在某些情况下(xià),甚至超越(yuè)了OpenAI的最新模型(xíng)。

知情(qíng)人士表示,这种(zhǒng)由人工智能(néng)生成的数据被称为“合成数据”。这意味(wèi)着“草莓”可以(yǐ)帮助OpenAI克(kè)服获(huò)取足够高质量数据的限制 ,从而利 用从互联(lián)网上(shàng)提取的文本(běn)或图像等现实世界数据来训(xùn)练新模(mó)型。

代理初创公司Minion AI CEO、GitHub Copilot前首席架构师亚历(lì)克 斯·格雷夫利(lì)表(biǎo)示,使用“草莓”生成更高质量的训(xùn)练(liàn)数据可(kě)以帮助OpenAI减少其模型产生的错误(wù)数 量,即所谓的幻觉。幻觉是当前生成式AI的(de)一(yī)个重大限(xiàn)制,这会导致AI经常生(shēng)成看(kàn)似合 理但实(shí)际上不正确的数(shù)据。

“想象一下,一个没有幻觉的模型,你问它一个逻辑难题,它第一次尝试就能答对。”格雷夫利说道。该模(mó)型之所以能够做到这一点,是因为“训练数据中的歧义(yì)较少,所以它猜测的次数较少(shǎo)”。

据The Information报道,OpenA从GPT到“草莓”:OpenAI的野心与安全困境I首席执行官阿尔特曼(màn)在5月 份的一次活动中表示:“我(wǒ)们(men)觉得我们拥有足够的数(shù)据来开发下一个模型 。我们已经进行了各种实(shí)验,包括生成合(hé)成(chéng)数据。”据报道,他指的可能(néng)就是用(yòng)“草莓”训练的Orion(猎户座)。

安全隐患乌云(yún)未散(sàn)

不过(guò),就在OpenAI高歌猛进的同时,安全隐患的乌云从未散去。

“草莓”项目源于(yú)前OpenAI首席科学(xué)家Ilya Sutskever的早期研究,OpenAI研究人员Jakub Pachocki和Szymon Sidor在Sutskever的工(gōng)作 基础上开(kāi)发了一种新的数学(xué)求解模型Q*。

而2023年(nián)底,有(yǒu)关OpenAI的(de)Q*项目消息(xī)泄露时,一些专家(jiā)将(jiāng)该技 术定性为人工智能(néng)(AGI)的突破,但人们 对它知之甚少。这也让一(yī)些专注于人工智能安(ān)全的研究人员感到震惊。

这件事情发(fā)生在(zài)去(qù)年(nián)OpenAI罢免阿尔特曼事件之前。据知情人士爆料,此前OpenAI员工之间(jiān)就公司是否以足够安全的方(fāng)式开发人工智能展开了争论。安全也是罢免阿尔特曼(màn)后公司内部损(sǔn)害控制的一个重要主题(tí),当时罢(bà)免的 发(fā)起(qǐ)人(rén)正是Sutskever。

此(cǐ)后,安全问题就一直困扰着(zhe)OpenAI。而在阿(ā)尔特曼重返OpenAI后,负责OpenAI安全团队的成员也相继离(lí)开了公司。

今年5月离(lí)职的OpenAI“超级对齐”团队领导人Jan Leike在社媒平台X上写道:“过去几年,安 全文化和流程已经退居次要(yào)地位,而闪亮的产(chǎn)品则成为重中之重。”

鉴于今年(nián)早些时候几位安全部门领导人离职,以及美国参议员伊丽莎白·沃(wò)伦等美国政府高(gāo)官对 于技术安全问题的批评,OpenAI决定提升(shēng)对政府官员的透明度。

The Information援引一位了解相(xiāng)关 会 议情况人士的消息称,今年夏天,在一些(xiē)并未公开的会议(yì)上,阿尔特曼的团队向美国(guó)国(guó)家安全 官员展示了“草莓”模型。

报道指出,通(tōng)过向政府官员展示一项(xiàng)尚未发布的技术,OpenAI可能为(wèi)人工智能开发者树立了新标准,尤其(qí)是在先进人工(gōng)智能日(rì)益(yì)成为潜在安全隐患的今天。此次演示可能(néng)是OpenAI努力向(xiàng)政策制定者提高透明度(dù)的一部分,但如果政策制定者认(rèn)为该项技术对国家安全形成威从GPT到“草莓”:OpenAI的野心与安全困境胁,那么(me)他们可能给公(gōng)司带来麻烦。

不过(guò),一些业(yè)界人士对(duì)此并不买(mǎi)账,因为OpenAI并未向公众(zhòng)提升透明度。AI初创公司Abacus. AI的CEO Bindu Reddy表(biǎo)示(shì),OpenAI将他们(men)最好的大模型藏在背后,以此来取得领先优势。“如(rú)果没有 开源(yuán)AI,我(wǒ)们都会完蛋,我(wǒ)们可能会把文明的控制权交给1到2家公司。”Bindu Reddy说。

未经允许不得转载:橘子百科-橘子都知道 从GPT到“草莓”:OpenAI的野心与安全困境

评论

5+2=