橘子百科-橘子都知道橘子百科-橘子都知道

“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题

“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题

截至目前,本吉(jí)奥发表了300多篇学术论文,累计被引用次数超13.8万次。吴(wú)恩达曾表示,本吉奥的许多理论研究对他(tā)有很(hěn)大启发。

钛媒 体App 8月24日消息,被誉为“AI教(jiào)父”的加拿大计算机科 学家、深度学习(xí)技术先驱、2018年图灵奖得主(zhǔ)约书亚·本吉奥(Yoshua Bengio)公开表示,随着ChatGPT的推出,AI技术风险的时(shí)间被压缩,不幸的是,我们(men)无法利用十年的时间解决AI风险“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题和政策监(jiān)管(guǎn)问题,而是更短的时间,因此行业需(xū)要马上行动,加快AI安全政策落地。

“制定政策需要花(huā)费大量时(shí)间,它需要解决多年分歧,像这样的立法都需要数(shù)年时(shí)间才能颁布,需要(yào)建立(lì)一些流程(chéng),需很 多年时间 才(cái)能真正做好这个工作,”本吉奥对彭博社表示,他现在担心(xīn)可(kě)能没有太多时(shí)间来“做好(hǎo)这件(jiàn)事”。而且更糟糕的(de)是,AI风险这不仅是监管问(wèn)题,它更(gèng)是国(guó)际条约,大(dà)家需要在全球范围内(nèi)解(jiě)决这个问题。

据悉,本吉奥出生于巴黎,成长于加拿大,现居加拿大蒙特利尔(ěr),在蒙(méng)特利(lì)尔大(dà)学(University of Montreal)计算机(jī)科学与运算系任教(jiào)授(shòu)。他于(yú)1991年获得(dé)加 拿大麦吉尔大学计(jì)算机科学博士学位。本吉奥的主(zhǔ)要研究领(lǐng)域是深度学习(xí)和(hé)自然语言处理(lǐ)。

30余(yú)年的深度学习研究生涯里,本吉奥发表了300多篇学(xué)术论文 ,累计被引用次数超13.8万次(cì)。吴恩 达曾表(biǎo)示,本吉奥的许多理论研究对他有(yǒu)很(hěn)大启(qǐ)发。

2018年,他(tā)与“神经网络之父(fù)”Geoffrey Hinton和“卷积网络之父”Yann LeCun三人因开(kāi)拓深(shēn)度学习技术理论而获得“图灵(líng)奖”,他(tā)们三位也被 AI 行业(yè)称为“AI 三巨头”、“深度(dù)学习三巨头”、“三大AI教父”。

作为“深度学习三巨头(tóu)”之一的本(běn)吉奥曾指出,AI一词正在被滥用(yòng),有些(xiē)公司拟人化了AI系(xì)统,仿佛AI系统是与人类相当(dāng)的智慧实体,但其实目前还没有出现与人类智慧相(xiāng)当的实体。当然,他依然爱 AI 这一技术。

本吉(jí)奥表示,在2022年(nián)底ChatGPT出现之前,他认为真正的 AI 风险至少还要几(jǐ)十年才会出现,他曾经有一段时间并不怎么(me)担心AI安(ān)全问题,并(bìng)且认为人类距离(lí)开(kāi)发出能够与人类匹敌的 AI 技术还有“几十年的时间”,他假设我们可(kě)以(yǐ)在 面(miàn)对风险之前“收获AI的 好处”多年。

但现在,ChatGPT的(de)推出完全改变了(le)他(tā)的想法。他不再那么(me)确定了。

他对AI发展速度的假设——以及技术对社会构成的潜在威胁——在2022年底OpenAI发(fā)布ChatGPT后被颠覆了,因为人类水平的 AI 技术已经到来(lái)。

“自从我们最终拥有了能够与我们对(duì)话的(de)机器(qì)(ChatGPT)后,我完 全(quán)改变了我的想法,”本吉奥表(biǎo)示,“我们现在有 了能够掌握语言的AI机器(qì)。我们没想(xiǎng)到会这么快(kuài)就做(zuò)到这一点。我认为没有人(rén)真正预料到这一点,即使是构建这些系统的人。你(nǐ)可以看到,人们认(rèn)为我们可能还需要几年、几十年(nián)甚至更长 时间(jiān)才能达到人类水平(píng)的智能。人们(men)普遍认为,一旦我们达到人类水平的智(zhì)能(néng),就很难预测(cè)会发生什(shén)么——我们最终会得到非常非常好的东西还是非常非常(cháng)坏的东西,以及我(wǒ)们该(gāi)如何应对。有很多不确(què)定性。这正是我目前(qián)在科学和政策 方面(miàn)工作的动力。”

在(zài)ChatGPT引发全(quán)球关于 AI 风险的讨(tǎo)论之后,本吉奥开(kāi)始投入(rù)更多的精力倡导AI监管,并且与同为学术界和(hé) AI 先驱的Geoffrey Hinton一起公开(kāi)支持一项有争议的(de)加(jiā)州 AI 安全法案SB1047,该法(fǎ)案将使公司(sī)在不采 取安全预防措施(shī)的情况下,对其AI模型造成的灾难(nán)性伤(shāng)害承担责(zé)任。

本吉奥认为 ,这是(shì)“桌上第二重要的(de)提案”,仅次于欧盟的AI法(fǎ)案。

当(dāng)地时间8月15日,饱受争议的美国加州《前沿AI模型(xíng)安全创 新法案》(后称加 州(zhōu)AI安全法案(àn)SB 1047)在大幅度削弱相关条款之后(hòu),最终顺利通过加州众议院拨款委员会的审(shěn)核。

SB 1047旨在通过(guò)追究开发者的责任来防止大型 AI 系统造成大量人员死亡或(huò)造成损失超过 5 亿美元的网络安全事件。顺利通过审(shěn)核(hé)之后,这(zhè)意味着,该法案朝着成为正式法律法规迈出了 重要一步,也是美国(guó)在AI监管上迈(mài)出(chū)的重要一步(bù)。

但是(shì),加州AI安全法案饱受(shòu)争议。斯坦福大学教授李飞飞、Meta首席科学家杨(yáng)立昆(kūn)等人认为,该法(fǎ)案最(zuì)终将会损(sǔn)害加州乃(nǎi)至美国(guó)在(zài)AI领域的领(lǐng)先地位,100多位学界人士也发文(wén)反对,风投(tóu)机构a16z专门建(jiàn)立网站细数法案六(liù)宗罪。

甚至前美国众议院议(yì)长南希·佩洛西(Nancy Pelosi)也发声(shēng)明反对 此法案,认为加州AI安全(quán)法案意图良好但缺乏充分了解,许多重要的加(jiā)州科(kē)技公司学者和负责人都表示反对该法案,认为它弊大于 利(lì)。

最新一个 反对 加州 AI 法案的是OpenAI。OpenAI本周发(fā)文称(chēng),该立(lì)法将损(sǔn)害AI创新,并可能 对美国在 AI 和国家安全方面的竞争力产生“广泛而重大”的影响。

然而,本吉奥却(què)表示,加州(zhōu)AI安全法(fǎ)案避免了过于规(guī)定性,而是使用责任来确保AI公司不会忽(hū)视“合理专家会(huì)做的”安全预(yù)防措施。“它将为公司创造一个激励,使他们不会成为班(bān)上最 差的学生。”

本吉奥(ào)指出,围(wéi)绕 AI 监管的讨论可能会(huì)受到风险投资家和希望从该技术(shù)中获利的公司的影响。“你可以将其与(yǔ)气(qì)候变(biàn)化、化石燃料公(gōng)司等进行类比,”他说。

“事实并非如此,事(shì)实恰恰相反。它没有那么大的约束力。它并没有施加多大(dà)影响。它只是说:如果你造成了数十亿美(měi)元的(de)损失,你就要负责。几十年来(lái),整个计算(suàn)领域在某种程(chéng)度上一直不受任何形(xíng)式的监管。

我认 为(反对派)更多的是意识形 态。我(wǒ)真的很担心(xīn)游说团体的力量以及 Ai 带来(lái)的数万亿甚至数千万亿的(de)利(lì)润(加州大学伯克(kè)利分(fēn)校教授、人工智能系统中(zhōng)心创始人Stuart Russell表示)会激励企业反对任何监管。”本吉(jí)奥(ào)表示。

谈到风险管控,本吉奥指出,“我认为自己对(duì)风险持怀疑态度。我听到过很多很好的论据,认为比我们更聪明的人工智能可能非常危险。甚至在它们比我们(men)更聪(cōng)明(míng)之前(qián),它们就可能被人类以对民主极其危险的方式使用。任(rèn)何说他们知(zhī)道的人都过于(yú)自信,因为事 实上,科学并没有(yǒu)答案。没有(yǒu)办法以可验证的方式回答。我们可以看到(dào)这(zhè)样或那样的论点,它们都是合理(lǐ)的。但是如果你是不可知论者,并且正在考虑政(zhèng)策,你需要保护公众免受真正糟糕的事情的伤害。这就是政府在许 多其他领 域一直在做的事情。没有理(lǐ)由说他(tā)们不能在计(jì)算和(hé) AI 领域做到这一点。”

本吉(jí)奥反复强调,他没想(xiǎng)到(dào)人类会这么快掌握对(duì)话式AI语音技术,而且(qiě)目前(qián)至少达到足(zú)够人性化的水平。

“我认为,对危险(xiǎn)事物进行(xíng)快速创新的渴望(wàng)是不明智(zhì)的。在生物学领域,当研究人员发现通过所谓的(de)功能获得研究可以制造出危险的病毒时,他们一起决定,好(hǎo)吧,我们不这么做了。让我们要求政府制定规则,这样如果你这样做,至少在不受(shòu)控(kòng)制的情况下,你就会进监狱。”本(běn)吉奥表示(shì),“我相信你知道合成儿童色情(qíng)制品,也许情感上(shàng)不那(nà)么具(jù)有挑战性,但更重(zhòng)要的是,同样的深度 伪造可能会扭曲社(shè)会。那些深度伪(wěi)造只会越来(lái)越好。声音会越来越好。视(shì)频会越来越好。还有一件事人们谈(tán)论得不够:当前甚至未来(lái)的系统(tǒng)说服人们改变想法的能力(lì)。就在几个月前,瑞士进行了一项最新研究,他们将 GPT-4 与人类进行了(le)比较(jiào),看看谁能说服那些显然(rán)不知道(dào)自(zì)己是在和人交谈还是在和机器(qì)交谈的(de)人改变(biàn)对某事的看法。猜猜谁赢了。”

本吉奥指出,“我们(men)应该在(zài)AI方面采取类似(shì)的预防原则行为(wèi)。”

展望未来,本吉奥强(qiáng)调,所(suǒ)有AI技术应用依然会以健康方(fāng)式改变人类的生活方式。比如(rú)在生物(wù)学方 面,AI会了(le)解身体如(rú)何运作、每个细胞如何运作,这可(kě)能会彻底(dǐ)改变医学和药(yào)物研发等领域(yù);气(qì)候方面它可(kě)以帮助制造更好的电(diàn)池、更好的碳捕获、更好的能量存储(chǔ)。

“虽然还(hái)没有发生(shēng),但 我认 为这(zhè)些都是我们可以用 AI 做出的(de)很好的技术产(chǎn)品(pǐn)。顺便说一句,这些应(yīng)用——它们大部分都不是危险的。因此,我们应(yīng)该在这些显然(rán)可(kě)以帮助社会应对挑战的事情(qíng)上投入更多(duō)。”本(běn)吉(jí)奥在对话结尾表示。

截至目前,本吉奥发(fā)表了300多篇学(xué)术论(lùn)文(wén),累计被(bèi)引用次数超 13.8万次。吴恩(ēn)达(dá)曾表示,本(běn)吉(jí)奥的许多理论(lùn)研究对他有(yǒu)很大(dà)启发。

钛媒体App 8月24日消息,被誉为“AI教父”的加拿大计算机科学家、深度学习(xí)技术先 驱、2018年图灵奖得主约书亚·本吉奥(Yoshua Bengio)公开表示,随着ChatGPT的推出,AI技术风险(xiǎn)的时(shí)间被压缩,不(bù)幸的是,我们无法利用(yòng)十年的时间解(jiě)决AI风险(xiǎn)和政策监管问题,而(ér)是(shì)更短的时间,因(yīn)此行业需要马上行动,加快(kuài)AI安(ān)全(quán)政策落地。

“制定政策需要花费大量时间,它需要解决多年分歧,像这样(yàng)的立法(fǎ)都需(xū)要数年时间才能颁(bān)布 ,需要建立一些流程,需很多年时间才能真正做好(hǎo)这个(gè)工作,”本吉(jí)奥(ào)对彭博社表示,他现在担心可能没有太多时间来“做好这件事”。而且更糟糕(gāo)的是(shì),AI风险这不仅是监(jiān)管问(wèn)题,它更是国(guó)际条约,大家需要在全(quán)球范围内(nèi)解决这个问题。

据悉,本吉奥出生于巴黎,成(chéng)长(zhǎng)于加拿(ná)大,现居加拿大蒙特利尔,在蒙特利尔大学(University of Montreal)计算机科学与运算系任教授。他于1991年获得加(jiā)拿大麦(mài)吉尔大学计(jì)算(suàn)机科学博士学位。本吉奥的主要(yào)研究领域(yù)是深度学习和自然语言处理。

30余年的 深度学(xué)习研究生涯里,本吉奥发表了300多篇(piān)学术论文,累计被引用次 数超13.8万次。吴恩达曾表示(shì),本吉奥的许多理论研究(jiū)对(duì)他有很大启发。

2018年,他与“神经网(wǎng)络之父”Geoffrey Hinton和“卷积网络之父 ”Yann LeCun三人因开(kāi)拓深度学习技术理论而获得“图灵奖”,他们三位也被 AI 行业(yè)称为“AI 三(sān)巨头”、“深度(dù)学(xué)习三巨头”、“三大(dà)AI教父”。

作(zuò)为(wèi)“深度学习三巨头”之一(yī)的本吉奥曾指出,AI一词正在被滥用,有些公司拟人化了AI系统,仿佛AI系(xì)统(tǒng)是与人(rén)类相当的(de)智慧实体,但(dàn)其实目前还没有(yǒu)出(chū)现与人类智(zhì)慧(huì)相当的(de)实体。当然(rán),他依然爱 AI 这一技术(shù)。

本吉奥表(biǎo)示,在2022年底ChatGPT出现之前,他认为真正的(de) AI 风险至(zhì)少还(hái)要几十年(nián)才会出现,他曾经有(yǒu)一段时间并不怎么担心AI安全问题(tí),并且认为人(rén)类距离开发出能够与人类匹敌的(de) AI 技术还有“几十年的时(shí)间”,他假设我们可以(yǐ)在面对风险之前“收获AI的好处”多(duō)年 。

但现在,ChatGPT的(de)推出完全改变了(le)他的想法。他不再那(nà)么确定了。

他对(duì)AI发展 速度的假设——以及技术(shù)对社会(huì)构成的潜(qián)在威胁——在2022年底OpenAI发布ChatGPT后被颠(diān)覆了(le),因为人类水平 的 AI 技术已经到来。

“自从我们最终拥有了能够与我们对话的机器(ChatGPT)后,我(wǒ)完全(quán)改变了我的想法,”本吉奥表示,“我(wǒ)们现在有了能(néng)够掌握语言的AI机器。我们(men)没想到会这么快就做到这一点。我认为没有 人真正预料到(dào)这一点,即使是构建这(zhè)些系统的(de)人。你可以看(kàn)到,人们认为我们可能(néng)还需要几(jǐ)年(nián)、几十年甚至更长时间才能达到人类(lèi)水平的智能。人们普遍认为,一旦我们(men)达到 人类水平的智能,就很难预测会发生什么——我们(men)最(zuì)终会得(dé)到非常(cháng)非常好的东(dōng)西(xī)还是非常非常(cháng)坏的(de)东西,以及我们该如何应对(duì)。有很多(duō)不确定(dìng)性。这正是我目前(qián)在科学和政策方面工作的动力(lì)。”

在ChatGPT引发全球关于 AI 风险的讨论之后,本吉奥开始(shǐ)投(tóu)入(rù)更多的精力倡导AI监(jiān)管(guǎn),并且与 同为学术(shù)界和 AI 先驱的Geoffrey Hinton一起公 开支持一项 有(yǒu)争议的加州 AI 安全法案SB1047,该法(fǎ)案 将使公司在(zài)不采取安全预防措施的情况(kuàng)下,对其AI模(mó)型造成的灾难性伤害承担责任。

本吉奥认(rèn)为,这是(shì)“桌上第二重要的(de)提案”,仅次于欧(ōu)盟的AI法案。

当地时间(jiān)8月(yuè)15日(rì),饱受争议的美国加州《前沿AI模型安全创新法案 》(后称加州AI安(ān)全法案SB 1047)在大幅度削弱相(xiāng)关(guān)条款之后,最终顺(shùn)利通过加州众议院拨(bō)款委员会(huì)的审(shěn)核。

SB 1047旨在通过追究开发者的责任(rèn)来(lái)防止大型 AI 系统造成大量人员死亡或(huò)造成损失超过 5 亿美元的(de)网络安全事件。顺利通过审核之后,这意味着,该法案朝着(zhe)成为正(zhèng)式法律法规迈出了重要一(yī)步,也是美国在AI监管上迈出的(de)重要一步。

但是,加州AI安全(quán)法案饱受争议(yì)。斯坦福大学教授李飞飞、Meta首席科学家杨立昆等(děng)人认为,该 法案(àn)最终将会损害加州(zhōu)乃至美国在AI领域的 领先地位,100多位学界人士也发文反对,风投机(jī)构a16z专门建立网(wǎng)站细数法案六宗罪。

甚至前美国众(zhòng)议院议长南希·佩(pèi)洛西(Nancy Pelosi)也发(fā)声明反对此法案,认为加 州AI安全(quán)法案意图良好但缺(quē)乏充分了解,许多重要的加州科技公司学者和负责人(rén)都(dōu)表示反(fǎn)对 该法(fǎ)案(àn),认(rèn)为(wèi)它弊大(dà)于利(lì)。

最新一个反对加州 AI 法(fǎ)案的 是OpenAI。OpenAI本(běn)周发文称,该立法将损害AI创新,并可能对美(měi)国在 AI 和国家安全方面的竞争力产生“广泛而重大”的影响。

然而,本(běn)吉奥却 表示,加州AI安全(quán)法案避免了过于规(guī)定性,而是使用(yòng)责任来确保AI公司不会忽视“合理专家会做的”安全预防(fáng)措施。“它将为公司创造一个激励,使他们(men)不会成为班上最差的学生。”

本吉奥(ào)指出,围绕 AI 监管(guǎn)的讨论可能会受 到风险投资家和希望从该技(jì)术中获利的公司的影响。“你可以将其与气候变化、化石燃料公司等进行类 比,”他说。

“事实并(bìng)非如(rú)此,事实恰恰相反。它没有那么大的约束力。它(tā)并(bìng)没有(yǒu)施加多大影响。它只(zhǐ)是说:如果你造成了数十亿美(měi)元(yuán)的损失,你就要负责。几十年来,整个计算领域在某种程度 上一直不受任何形式的监管。

我认为(反对派)更多(duō)的是意识形态。我真的(de)很担心游说团体的力量以(yǐ)及 Ai 带(dài)来的数万亿甚至数千万(wàn)亿的利 润(加州大学伯克利(lì)分校教授、人工智能(néng)系统中心创始人Stuart Russell表(biǎo)示)会激励企业反对(duì)任何监管。”本吉奥(ào)表示。

谈到风险管控,本吉奥指出,“我认为自己对风(fēng)险持怀疑态度。我听到过很多很(hěn)好的(de)论据,认为比我们更聪(cōng)明的人工智能可能非常危险。甚至在它们比我们更聪明之前,它们就可能被人类以对民主极其危险的方式使用。任(rèn)何说他们知道的(de)人都过于自信,因为事实上,科(kē)学并没有答案。没有办法以可验证的方式回答(dá)。我们可以看到这样或(huò)那样的论点,它们都是合理的。但是如(rú)果(guǒ)你是不可知论者(zhě),并且正在考虑政策,你需(xū)要保护公众免受真正糟糕的事情的伤害。这就是(shì)政府在许多其(qí)他领域一直在(zài)做的事情。没有理由说(shuō)他们(men)不能在计算和 AI 领域做到这一点。”

本吉奥反复强调,他没想到人类会这么快掌(zh“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题ǎng)握对话式AI语音技术(shù),而(ér)且目前至少达到足够人性化的水平。

“我认为,对(duì)危 险事物进行(xíng)快速创 新的渴望(wàng)是不明智的。在生物学领域,当研究人员发 现通(tōng)过所谓的功(gōng)能获(huò)得研究可以制造出危险的病毒时,他们一(yī)起决定,好(hǎo)吧,我(wǒ)们不这么做了。让我们要求政府制定规则,这样(yàng)如果你这样做,至少在(zài)不(bù)受控制的情况下,你 就(jiù)会进(jìn)监狱。”本吉奥表示,“我相信你知道合成儿童色(sè)情制品,也(yě)许情感上不(bù)那么具 有挑战性,但更重要的(de)是,同样的深度伪造可能会扭(niǔ)曲社会。那些(xiē)深(shēn)度(dù)伪造只会越来越 好。声音会越来越好。视(shì)频会越 来越好。还(hái)有一(yī)件事人们谈论(lùn)得不够:当前甚至未(wèi)来(lái)的系(xì)统说服人们改变想(xiǎng)法的能(néng)力。就在几个月前,瑞士进行了一(yī)项最新研(yán)究,他们(men)将 GPT-4 与人类进行了比较,看看谁(shuí)能(néng)说服(fú)那些(xiē)显然不知(zhī)道自己是在和人交谈还是在和机器交谈的(de)人改变(biàn)对某事的看法。猜猜谁赢(yíng)了。”

本吉(jí)奥指出(chū),“我们应该在AI方面采取类似的预防原则行为(wèi)。”

展望未(wèi)来,本 吉奥强调,所有AI技术应用依然会以健(jiàn)康方式改变人类的生活方式。比(bǐ)如(rú)在生 物学方(fāng)面,AI会了解身体如何运作(zuò)、每个细胞(bāo)如何(hé)运作,这(zhè)可能会彻底改变医学和药(yào)物(wù)研发等(děng)领(lǐng)域(yù);气候方面它可以帮助制(zhì)造更好的电池、更(gèng)好的(de)碳捕(bǔ)获、更好(hǎo)的能量存储。

“虽(suī)然还没有发生,但(dàn)我认为这些(xiē)都是(shì)我们可 以用(yòng) AI 做(zuò)出的很好的技术产品。顺便说一句,这些应用(yòng)——它们大部分都不是危险的(de)。因此,我们应该在这些显然可以帮(bāng)助社会应对挑战的事情上(shàng)投入“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题更多。”本吉奥在对话结尾表示。

未经允许不得转载:橘子百科-橘子都知道 “AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题

评论

5+2=