“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题
▎截至目前,本吉奥(ào)发表了300多篇(piān)学(xué)术论(lùn)文,累计被引(yǐn)用次数超13.8万次。吴恩达曾(céng)表示,本吉奥的许多理论研究对他有很大启发。
钛媒体App 8月24日消息,被(bèi)誉为“AI教父”的加拿大计算机 科学家、深度学习技术先驱、2018年图灵奖得主约书亚·本吉(jí)奥(Yoshua Bengio)公开表示,随着ChatGPT的推出,AI技术风(fēng)险的时(shí)间被压缩,不(bù)幸的是,我们无法利(lì)用十(shí)年的时间解决AI风险和政(zhèng)策监管问(wèn)题,而是更短的时间,因此行业需要马上行动,加快(kuài)AI安全政策落地。
“制定政策需要花费大量时间,它需要解决多年分歧,像这样(yàng)的(de)立法都(dōu)需要(yào)数年时间才能颁布,需要建立一些流(liú)程,需很(hěn)多年时间才能(néng)真正做好(hǎo)这个工作,”本吉奥对彭博社表(biǎo)示,他现在担心可能没有太多时(shí)间来“做好这件事”。而且更糟糕的是,AI风险(xiǎn)这不仅是监管问题,它更是国际条(tiáo)约,大家需要在(zài)全(quán)球范围内(nèi)解决这个问题。
据悉,本吉奥出生于巴黎,成(chéng)长于加拿大,现居加拿大蒙特利(lì)尔,在蒙特(tè)利尔大(dà)学(University of Montreal)计算机科学与运算系(xì)任(rèn)教授。他于1991年获得加拿大麦(mài)吉尔大学计算机科学博士(shì)学位(wèi)。本吉奥的主要研究领域是深度学习和自然语(yǔ)言处(chù)理。
30余年的深度学习研究生涯里,本吉奥发表了300多篇学术论(lùn)文,累计(jì)被引(yǐn)用次数超13.8万次。吴恩(ēn)达曾表示,本吉(jí)奥的许多理论研究对他有很大启发(fā)。
2018年,他与“神经网络之父”Geoffrey Hinton和“卷积网(wǎng)络之父”Yann LeCun三人(rén)因开拓深度学习技术理论(lùn)而获得“图灵奖”,他们三位也被 AI 行业(yè)称为“AI 三巨头”、“深度学习三巨头”、“三大AI教父”。
作为(wèi)“深度学习三巨头”之一的本吉(jí)奥曾指出,AI一(yī)词(cí)正在被滥用(yòng),有些公司拟人化了AI系统 ,仿佛AI系统是与人类相当的(de)智慧实体(tǐ),但其实目(mù)前还(hái)没有出(chū)现与人类智慧相当的实体。当(dāng)然,他依然(rán)爱 AI 这一(yī)技术。
本吉奥表示,在2022年底ChatGPT出现之(zhī)前,他认为真正的 AI 风险至少还要(yào)几十(shí)年才(cái)会(huì)出现,他曾经有一段时间并(bìng)不怎么担(dān)心AI安全问题(tí),并且认为人(rén)类距离(lí)开发出能够与人类匹敌(dí)的 AI 技术还有(yǒu)“几十年的(de)时间”,他假设我们可以在面对风(fēng)险之前“收获AI的好处”多年。
但现在,ChatGPT的推出完全改变了他的(de)想法。他不再那么确定了。
他对AI发展速度的假设——以及技(jì)术对社会构成的潜在威胁——在(zài)2022年底OpenAI发布ChatGPT后被颠覆了,因为人类水平的 AI 技(jì)术已经到来。
“自从(cóng)我们最终拥有了能够与我们对话的机器(ChatGPT)后,我完全改变了(le)我的想法,”本吉奥表示,“我们现在(zài)有了能够掌握语言的(de)AI机器。我们没想到会(huì)这么快就做到这一点(diǎn)。我(wǒ)认为没(méi)有人真正预料到这一点,即使是构建这些系统的人。你可以看到,人(rén)们认为我们可能还需要几年、几十年甚至(zhì)更长时间才能达(dá)到人类水平的智能。人们普遍认为(wèi),一旦(dàn)我们达到人类水平的智(zhì)能,就很难预测会(huì)发生什么——我们最终会得到非常(cháng)非常好的东 西还是非常非常坏(huài)的东西,以及我(wǒ)们该如何应(yīng)对。有很多不确定性。这正是我目(mù)前在科学和政策方面工作的动力。”
在ChatGPT引发全球关于 AI 风险的讨论(lùn)之后,本吉奥开始投入更多的精力倡导AI监管,并且与(yǔ)同为学术界(jiè)和 AI 先驱(qū)的Geoffrey Hinton一起公开(kāi)支 持一项有争议的加(jiā)州 AI 安全法案SB1047,该法案将使(shǐ)公司在不采取安全预防措施的情况下(xià),对其AI模型造成的灾难性伤害(hài)承担责任。
本吉奥认为,这是“桌(zhuō)上第二(èr)重(zhòng)要的提案”,仅次于欧盟的AI法案(àn)。
当地时间8月(yuè)15日,饱受争议的美国加州《前沿AI模型安全创新法案》(后称加州AI安全法案SB 1047)在大幅度削弱相关条款之后,最终顺利通过加州众议院拨款委员会的审核。
SB 1047旨在通过追(zhuī)究开发者的责任来(lái)防止大型(xíng) AI 系统造成大量人员(yuán)死亡或造成损失(shī)超过 5 亿美元的网络安全事件。顺利通过(guò)审核之(zhī)后(hòu),这意味着,该法案(àn)朝着成为正式法律法规迈出了重要一步(bù),也是(shì)美国在AI监管上(shàng)迈出的重要一步(bù)。
但是,加州AI安全法案(àn)饱受争议。斯坦福(fú)大学教授李飞飞、Meta首席科学家杨立(lì)昆等人认为,该法案最终将(jiāng)会损害加州乃至 美国在AI领域(yù)的领(lǐng)先地(dì)位,100多位学界(jiè)人士也发文反(fǎn)对,风投(tóu)机(jī)构a16z专门建立(lì)网站细数法案六宗(zōng)罪。
甚至前美国众议院议长南希·佩洛西(Nancy Pelosi)也(yě)发声明(míng)反对此法案,认(rèn)为加州AI安(ān)全法案意图良好(hǎo)但缺(quē)乏充分了解,许多重要的加州科技公司学者和负责人都(dōu)表示反对该法案,认为它弊大于利。
最新一个反对加州 AI 法(fǎ)案的(de)是OpenAI。OpenAI本周发文称,该立(lì)法将损(sǔn)害AI创新,并可能对美国在 AI 和国家安全方面的竞争力产生(shēng)“广泛而重大”的影响。
然而,本吉奥却表示,加州AI安全法案避免了过于规(guī)定性,而是使用责任来确保AI公司不会忽视“合理专家会做的”安(ān)全预防措施。“它将为公司创造一个激励,使他们不会成(chéng)为(wèi)班上最差的学生。”
本吉奥(ào)指出,围绕 AI 监(jiān)管的讨论可(kě)能会受到风(fēng)险投资家和希望从该技术中获利的公(gōng)司的影(yǐng)响。“你(nǐ)可以将(jiāng)其(qí)与气候变化、化石(shí)燃料公(gōng)司等进行类比,”他说。
“事实并非如此,事实恰恰相反。它没有(yǒu)那么大的约束力(lì)。它并没有施加多大影响(xiǎng)。它只(zhǐ)是说:如果(guǒ)你(nǐ)造(zào)成了(le)数十亿美(měi)元的(de)损失,你(nǐ)就要负(fù)责。几十年(nián)来,整个计算领域在某种程度(dù)上一直不受任何 形式的(de)监管。
我认为(反对派(pài))更多的是意识形态。我(wǒ)真的很担(dān)心游说(shuō)团体的力量(liàng)以及 Ai 带来的数万亿甚至数千(qiān)万亿的利润(加州大学伯克利分校教授、人工智能系统中心创始人Stuart Russell表示)会激励企(qǐ)业反对任何监管。”本(běn)吉奥表示。
谈到风险管控,本吉奥指出,“我认为自己对风险(xiǎn)持怀疑态度。我听到过很多(duō)很好的论据,认为比我们更聪明(míng)的人(rén)工智能可能非常危险。甚至在它们比(bǐ)我们更聪明(míng)之前,它们就可能被人(rén)类以对民主极其危险的方式使(shǐ)用。任(rèn)何说他们(men)知道的(de)人都过于自信(xìn),因为事实上,科学并(bìng)没有答(dá)案。没有办法以可验(yàn)证的方(fāng)式回答。我们可以看到这样或那样的论点,它们都是合理的。但是如果你(nǐ)是(shì)不可知论(lùn)者,并(bìng)且正在考虑(lǜ)政策,你需要保护公众免受真正糟糕的事情(qíng)的伤害。这就是政府在许多其他领域一直在做的事情 。没有理由说(shuō)他们不能在计 算和 AI 领域(yù)做到这一点。”
本吉奥反复强调,他没想(xiǎng)到人类会这么(me)快掌握(wò)对话式AI语音技术,而且(qiě)目前至少达到足够人性化(huà)的水平(píng)。
“我认为,对危险事物进行快速创新(xīn)的渴望(wàng)是不(bù)明智(zhì)的。在生物(wù)学领(lǐng)域(yù),当研究人(rén)员发现(xiàn)通过所谓的功能获得(dé)研究(jiū)可以制造(zào)出危(wēi)险的病毒(dú)时(shí),他(tā)们一起决定,好吧,我们不这么做(zuò)了。让我们要求政府制定规则,这样如果你这样(yàng)做,至少在不受控制的情(qíng)况下,你就会进监狱。”本吉奥表示,“我相信你知道合(hé)成(chéng)儿童色情制品,也许情感上不那(nà)么具有(yǒu)挑战(zhàn)性,但更重要(yào)的是(shì),同样的(de)深(shēn)度伪造可能会扭曲社会。那些深度伪造只会(huì)越来越好。声(shēng)音会越来越好。视频(pín)会 越来越好。还有一件事人们谈论得(dé)不够:当前(qián)甚至(zhì)未来(lái)的系统说服人们改变想法的(de)能力。就(jiù)在几个月前,瑞士进行了一项 最新研究(jiū),他们将 GPT-4 与人类进行了比较(jiào),看看谁能说服(fú)那些显然不知道自己是在和人交(jiāo)谈还是(shì)在和机器交谈的人改(gǎi)变对(duì)某事的看法。猜猜谁(shuí)赢了。”
本吉奥指出,“我们应该(gāi)在AI方面采(cǎi)取类似的预防原则(zé)行为。”
展望未来,本吉奥强调,所有AI技术应用依然会以健康方式改(gǎi)变人类的生活方式。比如在生物学方面,AI会了解身体如(rú)何(hé)运作“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题、每个细胞(bāo)如何(hé)运作 ,这可能会彻底改变医学和药(yào)物研发(fā)等领域;气候方面它可以帮(bāng)助制造更好的电池(chí)、更好的碳捕获、更好的(de)能量(liàng)存储。
“虽然还没有(yǒu)发生,但我认(rèn)为这些都是我们可以用(yòng) AI 做出的很好的技术(shù)产品。顺便说一句(jù),这些应用——它(“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题tā)们大(dà)部分都不是危险(xiǎn)的。因此,我们应该(gāi)在这些显然可以帮助社会应对(duì)挑战的事情(qíng)上投入更多。”本吉奥在对话结尾表示。
▎截至(zhì)目前,本吉奥发表了300多篇“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题学术论文,累(lèi)计被引用次数超13.8万次。吴恩达曾表示,本吉奥(ào)的许多理论研究(jiū)对他有很大(dà)启发。
钛媒(méi)体App 8月24日消息,被誉为(wèi)“AI教父”的加拿大(dà)计算(suàn)机科学家、深(shēn)度学习技术(shù)先驱、2018年图(tú)灵奖(jiǎng)得主约书亚·本吉奥(Yoshua Bengio)公开表示,随(suí)着ChatGPT的推出(chū),AI技(jì)术风险的时(shí)间被压缩(suō),不幸的(de)是(shì),我们无法(fǎ)利用十年的时间解决AI风险和政策监管问题,而是更短的时间,因此行业需要马(mǎ)上行动,加(jiā)快AI安全政策落地。
“制定(dìng)政(zhèng)策需要(yào)花费大量(liàng)时间,它需(xū)要(yào)解决多年(nián)分歧,像这样的立(lì)法都需要数年时间才能颁布,需要建(jiàn)立一些流程,需很多年时间才能真正做好这个工(gōng)作,”本(běn)吉奥对彭博社表示,他现(xiàn)在担(dān)心可能没有(yǒu)太多(duō)时间来“做好这件事(shì)”。而且更糟(zāo)糕的是,AI风险这不仅是监管问题,它更是国际条约,大家需要在全球范围内解决这个问题。
据悉,本吉奥(ào)出生于巴黎,成长于加拿大,现居加拿大蒙特利尔,在蒙特利尔大学(University of Montreal)计算(suàn)机科学与运算系任教授。他于1991年获得(dé)加拿大麦吉尔大学(xué)计算机科学(xué)博(bó)士学(xué)位。本吉奥的主要研(yán)究领域是(shì)深度学习和自然语(yǔ)言处理。
30余年的深(shēn)度学习研究生(shēng)涯里,本吉奥发表了300多(duō)篇学术论(lùn)文,累计被(bèi)引用次数超13.8万次。吴(wú)恩达(dá)曾(céng)表示,本吉奥的许多理论(lùn)研究对他有很大启发。
2018年,他与“神经网络(luò)之父”Geoffrey Hinton和“卷积(jī)网络之父”Yann LeCun三人因开拓深度学习技术理论而(ér)获得“图灵(líng)奖”,他们三位也(yě)被 AI 行业称为“AI 三巨头”、“深度学(xué)习三巨头”、“三大AI教父”。
作为“深度学习三巨头”之一的(de)本吉奥曾(céng)指出,AI一词(cí)正在被滥用,有些公(gōng)司拟人化了(le)AI系统,仿佛AI系统(tǒng)是与人类相当(dāng)的(de)智慧实体,但其实目前还没有出现与人类智慧相当的实体。当然(rán),他依然(rán)爱 AI 这一技术。
本吉奥表示,在(zài)2022年底ChatGPT出现(xiàn)之前,他认为真正的 AI 风险至少还要几十年才会(huì)出现,他曾经有一(yī)段时间并不怎(zěn)么担心AI安全问(wèn)题,并且认为人类距离开发出能够与(yǔ)人类匹敌的 AI 技术还有“几十年的时间”,他假设我们(men)可以在面对风险之前“收获AI的好处”多年(nián)。
但现在,ChatGPT的推出完(wán)全改变了(le)他的(de)想法。他不再那(nà)么确定了。
他对AI发展速度的假设——以及技 术对社会构成的潜在(zài)威胁——在2022年底OpenAI发布ChatGPT后被颠(diān)覆了,因为人类水平的 AI 技术已经到来。
“自从我们最终(zhōng)拥有了能够与我们对(duì)话的机(jī)器(ChatGPT)后,我完全改变了我的想法,”本吉奥表(biǎo)示,“我们现在有了能够(gòu)掌握语言的AI机器。我(wǒ)们没(méi)想到会这么快就做到这一(yī)点。我认为没有(yǒu)人真(zhēn)正(zhèng)预料到这一(yī)点,即使是构建这些系统的人。你可以(yǐ)看到,人们认为我们可能还需要几年、几(jǐ)十 年甚至更长(zhǎng)时间才能达到人类水平的智能。人(rén)们普遍认(rèn)为,一旦我们(men)达到人(rén)类水平(píng)的智能,就很难预测会发生什么——我们最终会得到非(fēi)常非常好的(de)东西还是非常非常(cháng)坏的(de)东西,以及我(wǒ)们该如何应对。有很多不(bù)确定性。这正是我目前在科学和(hé)政策方面工作(zuò)的动力。”
在(zài)ChatGPT引发全球关(guān)于 AI 风险的讨论之后,本吉奥开始投入更多的精 力倡导AI监管,并且与同为学术界和(hé) AI 先(xiān)驱的Geoffrey Hinton一(yī)起公开支持一(yī)项有(yǒu)争议的加州 AI 安全法(fǎ)案SB1047,该法案将使公司在不采取安全预(yù)防措施的情况下,对其AI模型造成的灾难性伤害承担责任。
本吉奥认为,这是“桌(zhuō)上(shàng)第二重(zhòng)要(yào)的提案”,仅次于欧盟的AI法案。
当地时间8月15日,饱受争议的美国(guó)加州《前沿AI模型安(ān)全(quán)创新法案》(后称加州AI安全法案SB 1047)在大幅度(dù)削弱相关(guān)条款之后,最终顺(shùn)利通过(guò)加州众议院拨(bō)款委员会的审核。
SB 1047旨在通过追究开发者的责任来(lái)防止大型 AI 系统造成大量(liàng)人员死亡或造(zào)成(chéng)损失超过 5 亿美元的网(wǎng)络安全事件。顺利通(tōng)过审核之后,这意味着,该法案朝着成为正式法律法规迈出了重(zhòng)要一(yī)步(bù),也是美国在AI监管上迈出的重要一步。
但是,加(jiā)州(zhōu)AI安全法案饱受争议。斯坦福大(dà)学教授李飞飞、Meta首席科学家杨立(lì)昆等人认为,该法案最终将会损害加州乃至美国在AI领域的领先地位,100多位学 界人士也发文反对,风投机构(gòu)a16z专门建立网站细数法案六宗(zōng)罪。
甚至前美国众议院议长南希·佩洛西(Nancy Pelosi)也发声明反对此法案,认为加州AI安全法(fǎ)案意图良好但缺乏充分了解,许多重要的加州科技公(gōng)司学者和负责(zé)人都表示反对该法(fǎ)案,认为它弊(bì)大于利。
最新一个反对加州 AI 法案的是OpenAI。OpenAI本周发文称,该立法将(jiāng)损害(hài)AI创(chuàng)新,并可(kě)能对美(měi)国在 AI 和国家安全方面的竞争力产生“广泛而(ér)重大”的(de)影(yǐng)响。
然而,本吉奥却表示,加州AI安全法案避免了过(guò)于规定性,而是使用责任来确保(bǎo)AI公(gōng)司不会忽视“合理专家会做的”安全(quán)预防措施。“它将为公司创造一(yī)个激励,使他们(men)不会成为班上最差的学生。”
本(běn)吉奥(ào)指出,围绕 AI 监(jiān)管的讨论可能(néng)会受到风险投资家和希望(wàng)从该技术(shù)中(zhōng)获利(lì)的公司的(de)影响。“你可以将其与气候变化、化石燃料公司等进行类比,”他说。
“事(shì)实并非如此,事实恰(qià)恰(qià)相反。它没有那么大的约(yuē)束力。它并(bìng)没有施加多大影响。它只是说:如果你造成了数十亿美元的损失,你就要负责(zé)。几十(shí)年来,整个计算领域在某种程度上一直不受 任(rèn)何形式(shì)的监管。
我认为(反对派)更多的是(shì)意识形态。我真的很担心游说(shuō)团体(tǐ)的力量以及 Ai 带来的数万(wàn)亿(yì)甚至(zhì)数千万(wàn)亿(yì)的利润(加州(zhōu)大学伯克利分校教(jiào)授、人工(gōng)智(zhì)能系统中心创始人Stuart Russell表(biǎo)示(shì))会激励企业反对任何监管。”本吉奥表(biǎo)示。
谈到风险管控,本吉奥(ào)指出,“我认(rèn)为自(zì)己对(duì)风 险持怀疑态度。我听(tīng)到过很多很好的论 据,认(rèn)为比我们更聪明的(de)人工智能可能非常危险。甚至在它(tā)们(men)比我们更聪明之(zhī)前,它们就可能被(bèi)人类(lèi)以对民主极其危(wēi)险的方式使(shǐ)用。任何说(shuō)他们知(zhī)道的人都过于(yú)自信(xìn),因为 事实上,科学(xué)并没有答案。没有办法以可验(yàn)证的方式(shì)回答。我们可以看到这样(yàng)或(huò)那样的(de)论点,它们都是合理的。但是如果你是不可知论者,并且正(zhèng)在(zài)考虑政策,你需要保护公众(zhòng)免受真正糟糕的事情的伤害。这就是政府在许多其(qí)他领域一直在做(zuò)的事情。没有理由说(shuō)他们不能在计(jì)算和 AI 领域做(zuò)到(dào)这一点。”
本吉奥反复强调,他没想到人类(lèi)会(huì)这么(me)快(kuài)掌握对话式(shì)AI语音技术(shù),而且 目(mù)前至少达到足够人性化的水(shuǐ)平(píng)。
“我认为,对危险事物进行快(kuài)速创(chuàng)新的渴望是不(bù)明智的。在(zài)生(shēng)物学领域,当研究人员发现通过(guò)所谓 的(de)功能获得研究(jiū)可以制造出危险的病毒 时,他们一起决定(dìng),好(hǎo)吧,我(wǒ)们(men)不这么做了。让我们(men)要求政府(fǔ)制定规则,这样如果你(nǐ)这样做,至少在(zài)不受控制的情(qíng)况下,你就会进监狱。”本吉奥表示,“我相信你知道合成儿(ér)童色情制品(pǐn),也许情感上不那么具有挑战性,但更重要的是,同样的深度伪造可能会扭曲(qū)社会。那些(xiē)深(shēn)度伪造只会越来越好。声音会越来越(yuè)好。视频会(huì)越来越(yuè)好(hǎo)。还有一件事人 们谈论得不够:当(dāng)前甚至未来的系统(tǒng)说服人们改变想法的能力。就在几个(gè)月前,瑞士进行了一项最新研究,他们将(jiāng) GPT-4 与人类(lèi)进行了比(bǐ)较(jiào),看(kàn)看谁能说服那(nà)些(xiē)显(xiǎn)然(rán)不知道自己是在和人交谈还是在和机(jī)器交谈的人改变对某事的看法。猜猜谁赢了。”
本(běn)吉(jí)奥指出,“我们应该(gāi)在(zài)AI方(fāng)面采取类似的预防原(yuán)则行为。”
展(zhǎn)望未来(lái),本吉奥强调,所有AI技术应用依然会(huì)以健康方式(shì)改变人类的生活方式。比如在(zài)生(shēng)物(wù)学(xué)方(fāng)面,AI会了(le)解身体如何运作、每个细胞如(rú)何(hé)运作,这可(kě)能会彻底改变医(yī)学(xué)和药物研发等领域;气候方面(miàn)它可以帮(bāng)助制造更好的电池 、更好的碳捕获、更好的能(néng)量存储。
“虽然还没有发生,但我认(rèn)为这些都是我们可以用 AI 做出的(de)很好的技术(shù)产品。顺便说(shuō)一句,这(zhè)些应(yīng)用——它们大部分都不是危险的。因此,我(wǒ)们应该在这些显然可以帮助社会应对挑战的事情上投入更多。”本吉奥在对话结尾表(biǎo)示。
最新评论
非常不错
测试评论
是吗
真的吗
哇,还是漂亮呢,如果这留言板做的再文艺一些就好了
感觉真的不错啊
妹子好漂亮。。。。。。
呵呵,可以好好意淫了