橘子百科-橘子都知道橘子百科-橘子都知道

从GPT到“草莓”:OpenAI的野心与安全困境

从GPT到“草莓”:OpenAI的野心与安全困境

此前,一道低(dī)难度(dù)的数学题——9.11和9.9哪个更(gèng)大,难倒了一众海内外(wài)AI大模型,也让外界了解到了大模(mó)型 在(zài)推理方面的局限性。

不过(guò),情况正在迅速发(fā)生改(gǎi)变。当地(dì)时间8月27日,据The Information报道,OpenAI神秘的“草莓”(Strawberry,前身为Q*)项目,计划最早于今年秋季推(tuī)出。同时(shí),用“草莓”合成数据来开发的(de)最新大模型(xíng)——“猎户 座”(Orion),或于明(míng)年年(nián)初推出。

The Information援引知情人士的消息(xī)称,今(jīn)年夏天,在秘密会议上,OpenAI向美(měi)国国家安(ān)全官员展示了“草莓”模型(xíng)。

推理能力出众

据The Information报道,参(cān)与(yǔ)OpenAI该项目的(de)两名人员透露,研究人员计(jì)划在今年秋季推出(chū)代(dài)号为(wèi)“草莓”的新型 AI,并有可能将其作为ChatGPT的(de)一部分。

据悉,OpenAI希望通(tōng)过推出“草莓”为(wèi)公司筹集更多资金,并寻找减少亏损的(de)方法。此前,据媒体报(bào)道,从GPT到“草莓”:OpenAI的野心与安全困境OpenAI今年的亏损可能高达50亿美元。

据前述外媒报道,“草莓”目前的功(gōng)能极其强大。它(tā)可以解决(jué)此前从未见过的数学(xué)问题,这是(shì)当前的聊天机器人无法可靠完成的任务。它还可以解决涉及(jí)编程(chéng)的问题,且不局限于回答技术(shù)性(xìng)问题。如果给予它更多时间“思考”,“草(cǎo)莓”模型还 可以回答用户更 “主观”的问题(tí),例(lì)如产(chǎn)品营(yíng)销策略。

为了展示“草莓”在语言方面的实力,研究人员向(xiàng)OpenAI内部同事展示了“草莓”如何解决《纽(niǔ)约时报》上刊登的(de)复杂(zá)字谜(mí)游戏(xì)。

现有的人工智能并不擅长解决航空航(háng)天和结构工程(chéng)等数学密集型 领域的问题(tí),因此,解(jiě)决棘手数学问题的AI可(kě)能是一个潜在有利可图的应用。为了提高模型的推理能力,一些初创公司尝(cháng)试将(jiāng)问题分解为更小的步骤 ,但这些(xiē)办法既(jì)慢又贵。

数学推理能力的提升(shēng)也(yě)有助于AI模型更好地处理对话 查询,例如客户(hù)服务 请求(qiú)。这或许对OpenAI即将推出的AI代理服务将(jiāng)起到帮助。

不(bù)仅是OpenAI,人工(gōng)智能领域的其他 主要参与者也在(zài)数学推理方面取得了长足进步。例如,谷歌DeepMind 最(zuì)近开发了AlphaProof和AlphaGeometry 2,这是两个用(yòng)于高级数学推理的(de)AI系(xì)统。两个系统协同工作(zuò),在2024年国(guó)际数学奥林匹(pǐ)克竞(jìng)赛中(zhōng)获得银(yín)牌,解决了(le)六道题中的四道。

可帮助训练大模型

对OpenAI,“草莓(méi)”不仅(jǐn)是一个(gè)即(jí)将要向外界推出的商业模(mó)型,它还被赋予了更重要的使命(mìng)。

一位知情人士向The Information表示,OpenAI在使用更大版本(běn)的“草莓”来生成训练下一代旗舰(jiàn)模(mó)型“猎(liè)户座”(Orion)的数(shù)据(jù)。该模型旨在改进(jìn)其现有(yǒu)的旗舰模型(xíng)GPT-4并帮助OpenAI领先其他资金雄厚的竞争对手,争夺(duó)对话式AI或大(dà)型语言模型的霸主地位。

GPT-4自2023年3月推出后,就成(chéng)为一个改变游戏规则的大型语言(yán)模型。然而,在(zài)过去18个月中(zhōng),竞争对(duì)手已基本(běn)追(zhuī)赶上来。在某(mǒu)些情况下,甚至超越了OpenAI的最新模型。

知情人士表示,这种(zhǒng)由人 工智能生成(chéng)的数据(jù)被称为“合成数据”。这意(yì)味着“草莓”可以帮(bāng)助(zhù)OpenAI克服获取足够高质量数据的限制,从而利用从互联网上(shàng)提取的文本(běn)或图像等现实世界数据(jù)来训(xùn)练新模型。

代理初创(chuàng)公(gōng)司Minion AI CEO、GitHub Copilot前首席架构师亚(yà)历克(kè)斯·格雷(léi)夫利表示,使用“草莓(méi)”生(shēng)成更高质(zhì)量的训练数据可以帮助OpenAI减少其模型产生的错误(wù)数量,即所谓的(de)幻觉。幻觉是当前生成式AI的一个重大限制,这(zhè)会导致AI经常生成看似合理但实际上不正确的(de)数据 。

“想象一下,一个没有幻觉的模(mó)型,你问它一个逻辑难题,它第一(yī)次尝试就能(néng)答对。”格雷夫利说道。该模型之所 以能够 做到这一点,是(shì)因为“训练数据中的(de)歧义较少,所以它猜测的次数较少(shǎo)”。

据The Information报道,OpenAI首席执 行官阿尔特曼(màn)在5月份(fèn)的一次活(huó)动中(zhōng)表示:“我们觉得我们拥有足够的数(shù)据来(lái)开发(fā)下一个(gè)模型。我们已经进行了各种实(shí)验,包括生成(chéng)合成数据。”据报道,他指的可能就是用“草莓(méi)”训(xùn)练的Orion(猎户座)。

安全隐患乌云未散

不过(guò),就在OpenAI高歌(gē)猛从GPT到“草莓”:OpenAI的野心与安全困境进的同时,安全隐患的乌云从未散去(qù)。

“草莓”项目源于前OpenAI首席科学家Ilya Sutskever的早期研(yán)究,OpenAI研究人员Jakub Pachocki和Szymon Sidor在(zài)Sutskever的(de)工作基础上开发(fā)了一种新的数学(xué)求解模型Q*。

而2023年底,有关OpenAI的Q*项目消息泄露 时,一些专家将该技术定(dìng)性为人工智能(AGI)的突破(pò),但人们对它知之甚(shèn)少。这也让一些专注于人工智能安全的研究(jiū)人(rén)员感到震惊。

这件事情发生在去年OpenAI罢免阿尔特曼事件之前。据知情人士爆料,此前OpenAI员工之间就公司是否以足够安全的方式开发(fā)人工智能(néng)展开了争(zhēng)论。安全也是罢免阿(ā)尔特(tè)曼后公司内(nèi)部损害控制的一个重要主题,当时罢免(miǎn)的发起人正是Sutskever。

此后,安全问题就一直(zhí)困(kùn)扰着OpenAI。而 在阿尔特曼重返OpenAI后,负责OpenAI安全团队(duì)的成员也相继 离开了公司。

今年5月离职的OpenAI“超(chāo)级对齐”团队领导(dǎo)人Jan Leike在社媒平台X上写道(dào):“过去几(jǐ)年,安全文化和(hé)流(liú)程已经退居次要地位,而闪亮的产(chǎn)品则(zé)成为重中之(zhī)重。”

鉴于今年早些时候几位安全部门领导人离(lí)职,以及美国参(cān)议员伊(yī)丽莎白·沃(wò)伦等美(měi)国(guó)政府高官(guān)对于技术 安全问题(tí)的批评,OpenAI决定提升对 政府官员(yuán)的透明度。

The Information援引一位了解相(xiāng)关(guān)会议情况人(rén)士的消(xiāo)息称,今年夏天,在一(yī)些(xiē)并未公开的会议(yì)上,阿(ā)尔特曼的团队向美国国家安全官员展示了“草莓”模型。

报(bào)道指出,通过向政府官员展示一项尚(shàng)未发布的 技术,OpenAI可能为人工 智(zhì)能(néng)开发者树(shù)立了新(xīn)标准,尤其是(shì)在(zài)先(xiān)进人工智能日益成为(wèi)潜在安全隐患的今(jīn)天。此次演示可能是OpenAI努(nǔ)力向政策制定(dìng)者提高透明度的一部分,但如果政策制定者认为(wèi)该项(xiàng)技术对(duì)国家安全形成威胁,那么他(tā)们可能给公司带来麻烦。

不过,一些业界人士对此并不买(mǎi)账,因为OpenAI并未向公(gōng)众提升透(tòu)明度。AI初创公(gōng)司Abacus. AI的(de)CEO Bindu Reddy表示,OpenAI将他们最好(hǎo)的大模型藏在背后,以此来取得领先优势(shì)。“如果没有开源AI,我们都会完(wán)蛋,我们可(kě)能会把文明的(de)控制权交给 1到2家公司。”Bindu Reddy说。

未经允许不得转载:橘子百科-橘子都知道 从GPT到“草莓”:OpenAI的野心与安全困境

评论

5+2=