从GPT到“草莓”:OpenAI的野心与安全困境
此前,一道低难度的数学题——9.11和9.9哪个更大(dà),难倒了(le)一众海内外AI大模型,也让外界了解(jiě)到了大模 型在推理方面的局限性(xìng)。
不过,情(qíng)况(kuàng)正 在迅速发生改(gǎi)变。当地时间8月27日,据The Information报道,OpenAI神秘的“草莓”(Strawberry,前身为Q*)项目,计划最早 于今年(nián)秋季推出。同时,用“草(cǎo)莓”合成数据来开发的最新(xīn)大模型(xíng)——“猎(liè)户座”(Orion),或于明年年初推(tuī)出。
The Information援引知情人士的消息称,今年夏天,在秘密会议上,OpenAI向美国国家安全官员展示了“草莓”模型。
推理能力(lì)出众
据The Information报道,参与OpenAI该项(xiàng)目的两名人员(yuán)透露,研究人员计划在今年秋季推出代号为“草莓”的新型AI,并有可能将其作为ChatGPT的一部分。
据悉,OpenAI希望通(tōng)过推出“草莓”为公司筹集更多资金,并寻(xún)找减(jiǎn)少亏损(sǔn)的方法(fǎ)。此(cǐ)前,据媒体报道,OpenAI今(jīn)年的(de)亏损(sǔn)可能高达(dá)50亿美元。
据前(qián)述外媒报(bào)道,“草莓”目前的功能极其强大。它可以解决此前从未见过的数(shù)学问题,这是(shì)当前的聊天机器人无法可靠完成的任务。它还可(kě)以解决涉及编程的问题(tí),且不局限(xiàn)于回答技术性问题(tí)。如果给予它更多时(shí)间(jiān)“思考”,“草莓”模型还可以回答用户更“主观(guān)”的问题,例如(rú)产品营销策略。
为了展示“草莓”在语言方面(miàn)的实力(lì),研究人员向(xiàng)OpenAI内部同事展示了“草莓”如何解(jiě)决(jué)《纽约(yuē)时报》上刊登的(de)复杂字谜游戏。
现有的人工智能并不(bù)擅长(zhǎng)解决(jué)航空航天和(hé)结(jié)构工程等数学密集型领域的问题,因此(cǐ),解(jiě)决棘手(shǒu)数学问题的AI可能是一个潜在有利可图(tú)的应用。为了提高模(mó)型(xíng)的推理能力,一些初(chū)创 公司尝(cháng)试将问题分解为更小的步骤(zhòu),但这些办法既慢又贵。
数学推(tuī)理能力的提(tí)升也有助于AI模型更(gèng)好地(dì)处理对话查询,例如客户服务请求。这或许对OpenAI即将推出(chū)的AI代理服务将起到帮助(zhù)。
不仅是(shì)OpenAI,人工(gōng)智能领域的其他主要参与(yǔ)者也在数学推理方面取得了长(zhǎng)足进步。例如(rú),谷(gǔ)歌DeepMind 最近开发了AlphaProof和AlphaGeometry 2,这是两个用于高(gāo)级数学推理的AI系统(tǒng)。两个系统协同工作(zuò),在2024年国际数(shù)学奥林匹克竞赛中获得(dé)银牌,解决了六道题中的(de)四道。
可帮(bāng)助训练大模型
对OpenAI,“草(cǎo)莓”不仅是一(yī)个即将要向外界推出的商业模型,它 还被赋予了更重(zhòng)要的使命。
一位(wèi)知情人士向The Information表示(shì),OpenAI在使用更(gèng)大版本的(de)“草莓”来(lái)生成训练下一代旗舰模型“猎户座”(Orion)的数(shù)据。该模型(xíng)旨在改(gǎi)进其现有的旗舰模型GPT-4并帮助OpenAI领先其他资金雄厚的竞(jìng)争对手,争(zhēng)夺对话式AI或(huò)大型语言模(mó)型的(de)霸主地位。
GPT-4自2023年3月推出后,就成为一(yī)个改变游戏规则的(de)大型语言模型。然而,在过去18个月中,竞争对手已基本追赶上来。在某些情况下,甚至超越了OpenAI的最新模型。
知情人士表示,这种由人工智能生成的数(shù)据被称为“合成数据(jù)”。这意味着“草莓”可以帮助OpenAI克服获从GPT到“草莓”:OpenAI的野心与安全困境(huò)取足够高质量(liàng)数据的限制,从而利用从(cóng)互(hù)联(lián)网上(shàng)提取的文本或图像等现实世界数据来(lái)训练新(xīn)模(mó)型。
代理初创公司Minion AI CEO、GitHub Copilot前首席架构(gòu)师亚(yà)历克斯·格雷夫利表示,使(shǐ)用“草莓(méi)”生成更高质(zhì)量(liàng)的训练数据(jù)可(kě)以帮助OpenAI减少其模型产生的错误数量,即所谓的幻觉。幻觉(jué)是当前生成式AI的一个重大限制(zhì),这会 导致AI经(jīng)常生成(chéng)看似合理(lǐ)但实际上不正确的数据。
“想象一(yī)下,一个没(méi)有幻觉的模型,你问它一个逻辑(jí)难题,它第一次尝试就能答对。”格雷夫(fū)利说道(dào)。该模型之所(suǒ)以(yǐ)能够做到这一点,是因为“训练数据中(zhōng)的歧义较少(shǎo),所(suǒ)以它猜测的(de)次数较(jiào)少(shǎo)”。
据The Information报道,OpenAI首席执行官阿尔特曼在(zài)5月份的一次活动中表示:“我们觉得我们拥有足(zú)够的数据来开(kāi)发下一个模型。我们(men)已经进(jìn)行了各种实验,包括生成合成数据。”据报道,他 指的可能就是用“草莓”训练的Orion(猎户(hù)座)。
安全隐患乌(wū)云未散
不(bù)过(guò),就在OpenAI高歌猛进的同时,安(ān)全隐患的乌(wū)云从未散去。
“草莓”项目源于(yú)前OpenAI首席科学家Ilya Sutskever的早期研究,OpenAI研究人员(yuán)Jakub Pachocki和Szymon Sidor在Sutskever的工作基础上开发了一种新的数学求解模型Q*。
而(ér)2023年底,有关OpenAI的Q*项目消息泄露时,一些专家将该技术定性为人工智能(néng)(AGI)的突破,但人们对它知之甚(shèn)少。这也让一些专注于人工智能安(ān)全的研究人员感到震(zhèn)惊(jīng)。
这件事情发生在去年OpenAI罢免阿尔特曼事件(jiàn)之前。据知情人士爆料,此前(qián)OpenAI员工之间就公司是(shì)否以足够安全的方(fāng)式开发人工智(zhì)能展开(kāi)了争(zhēng)论。安(ān)全也是罢免(miǎn)阿尔(ěr)特曼后公司内部损(sǔn)害控制(zhì)的一个重(zhòng)要主题,当(dāng)时罢免(miǎn)的发(fā)起人正(zhèng)是Sutskever。
此后,安全(quán)问题就一直困扰着OpenAI。而在阿(ā)尔特曼重返OpenAI后,负责OpenAI安全(quán)团队的成员(yuán)也相继离开了公司。
今(jīn)年5月离职的OpenAI“超级对齐”团队领导人(rén)Jan Leike在社媒平台X上(shàng)写道:“过去几年,安全文化和流程已经退居(jū)次要地位,而闪(shǎn)亮的产品则成为重(zhòng)中之重。”
鉴于今年早些(xiē)时候几位安全(quán)部门领导人离职(zhí),以及美国参议(yì)员伊丽莎(shā)白·沃(wò)伦(lún)等美国政府高官对于技术从GPT到“草莓”:OpenAI的野心与安全困境安(ān)全问题的批评,OpenAI决定提升(shēng)对政府官员的透明度。
The Information援引一(yī)位了(le)解相关会议情况人士的消息称,今年夏天,在(zài)一些并未公开的会(huì)议 上,阿尔特曼的团队向(xiàng)美国(guó)国家安全官员展示了“草莓”模型。
报道指出,通过向政(zhèng)府官员展示一项(xiàng)尚未发布的技(jì)术,OpenAI可能为人工(gōng)智(zhì)能开发者树立了新标准(zhǔn),尤其是在先进人工智(zhì)能日益成为潜在安全隐(yǐn)患的今天(tiān)。此次演示可能是OpenAI努力向政策制定者提高透明度的一部分,但如果(guǒ)政策制(zhì)定者认为该项技术对国家(jiā)安全形成威胁,那么他们可能给公司带(dài)来麻烦。
不过(guò),一(yī)些业界人士对此并(bìng)不买账(zhàng),因(yīn)为OpenAI并未向公众提升透明度。AI初(chū)创公司Abacus. AI的CEO Bindu Reddy表示,OpenAI将他们最好的大模型藏(cáng)在背(bèi)后从GPT到“草莓”:OpenAI的野心与安全困境,以(yǐ)此来取得(dé)领先优(yōu)势。“如果没(méi)有开源AI,我们都会完蛋,我们可能会把文明的控制权(quán)交(jiāo)给(gěi)1到2家公司。”Bindu Reddy说。
未经允许不得转载:橘子百科-橘子都知道 从GPT到“草莓”:OpenAI的野心与安全困境
最新评论
非常不错
测试评论
是吗
真的吗
哇,还是漂亮呢,如果这留言板做的再文艺一些就好了
感觉真的不错啊
妹子好漂亮。。。。。。
呵呵,可以好好意淫了