“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题
▎截至目前(qián),本吉奥发(fā)表了(le)300多(duō)篇学术论文,累(lèi)计(jì)被引用次数超(chāo)13.8万(wàn)次。吴恩达曾表示,本吉奥的许多理论研究对他有很大启发。
钛媒体“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题App 8月(yuè)24日(rì)消息,被誉为“AI教父(fù)”的加拿大计算机科学(xué)家、深度学习技术先(xiān)驱、2018年图灵奖得(dé)主约(yuē)书亚·本吉奥(Yoshua Bengio)公开表示,随着ChatGPT的推出(chū),AI技术风险的时间被压(yā)缩(suō),不幸(xìng)的是(shì),我们(men)无法利用(yòng)十年(nián)的时间解决AI风险(xiǎn)和政策监管问题,而是更(gèng)短的时间,因此行业(yè)需要马(mǎ)上行(xíng)动,加快AI安(ān)全(quán)政策落地。
“制定政策需要花费大量时(shí)间,它需要解决多年分歧,像(xiàng)这样的立法(fǎ)都需要(yào)数(shù)年时(shí)间(jiān)才能颁(bān)布,需要建立一些流程,需很(hěn)多年时间才能真正做好这个工作,”本吉奥(ào)对彭博社表示,他现在担(dān)心(xīn)可能没有太“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题多时间 来“做好这件事”。而且更糟(zāo)糕的是 ,AI风(fēng)险这不仅是(shì)监管问(wèn)题,它更(gèng)是国际(jì)条约,大(dà)家需要(yào)在全球范围内解(jiě)决这(zhè)个问题。
据悉,本吉奥出生于巴黎,成长于加拿大,现居(jū)加拿大蒙(méng)特利尔,在蒙特利尔大学(University of Montreal)计算机科(kē)学与运(yùn)算系任教(jiào)授(shòu)。他于(yú)1991年获得加拿大麦吉尔大学(xué)计算机科学博士学位。本吉奥的(de)主要研究领域是深度学习和自然语言处理。
30余年的深度学习研究生涯里,本吉(jí)奥发表了300多篇学术论文,累(lèi)计被引用次(cì)数超13.8万次。吴恩达曾表示,本吉奥的许多(duō)理(lǐ)论研究对(duì)他有很大启发。
2018年,他与(yǔ)“神经网络之父”Geoffrey Hinton和“卷积网络之父”Yann LeCun三人因开拓深度学习技术理论而获得“图灵奖”,他们三(sān)位也被 AI 行业称为“AI 三巨(jù)头”、“深度(dù)学习三巨头”、“三大AI教父”。
作为“深度学习(xí)三(sān)巨头”之一的本吉奥(ào)曾(céng)指出,AI一词正在被滥用,有些公(gōng)司拟人(rén)化了AI系统,仿佛AI系统是与(yǔ)人类相当的智慧实体,但(dàn)其实目前还没有出现与人类智慧相(xiāng)当(dāng)的实体。当然,他依然爱(ài) AI 这一技术。
本吉奥表示,在(zài)2022年底ChatGPT出现之前,他认为真正的 AI 风(fēng)险(xiǎn)至少还要几十(shí)年才会出(chū)现,他曾经有一段时间并不怎么担心AI安全问题,并且(qiě)认为人类距离开发出能够与人类匹敌(dí)的 AI 技(jì)术还有“几十年的时间”,他假设我们可以在面对风险之前“收获AI的好处”多年。
但(dàn)现在,ChatGPT的推 出(chū)完全改变了他的想法。他不再那么(me)确定了。
他对AI发展速度的假设——以及技术对社会(huì)构成(chéng)的潜在威(wēi)胁——在2022年底OpenAI发(fā)布(bù)ChatGPT后被颠覆了,因为人类水平的 AI 技术已经到来。
“自从我们最终拥有(yǒu)了能够与我们对话的机器(ChatGPT)后,我完全改变了 我(wǒ)的想法,”本吉(jí)奥表示(shì),“我们现在有了能够掌(zhǎng)握语言的AI机(jī)器(qì)。我们没(méi)想到会这么快就(jiù)做到这一点。我认(rèn)为没有人真正预料到这一点,即使是构建这些系统的人。你(nǐ)可以看到,人们认为(wèi)我们可能还需要几年、几十年甚(shèn)至更长(zhǎng)时间才能达到(dào)人类水平的智(zhì)能。人们普(pǔ)遍认(rèn)为(wèi),一旦我们达到人类水平的智能,就很难预测(cè)会发生什么(me)——我们最终会得(dé)到非常非常好的东西还是非常非常坏的东 西,以及(jí)我们该如何应对。有很多不确(què)定性。这正是我目前在科(kē)学和政策方面工作的动力。”
在ChatGPT引发全球关(guān)于 AI 风险的讨(tǎo)论(lùn)之后,本吉奥开始投入(rù)更多的精力倡导AI监管(guǎn),并且与(yǔ)同为学术界(jiè)和 AI 先(xiān)驱的Geoffrey Hinton一起公开支持一项有争议的加州 AI 安全法案(àn)SB1047,该法案将使公司在不采取安全(quán)预防措施的情况下(xià),对其AI模型造成的灾(zāi)难性伤害承担责任。
本吉奥认(rèn)为,这是“桌上第二重要(yào)的提案”,仅次于欧(ōu)盟的AI法案。
当地时间8月15日,饱受争议(yì)的美国加州(zhōu)《前沿AI模(mó)型安全创新(xīn)法案》(后称(chēng)加州AI安全法(fǎ)案SB 1047)在大幅度(dù)削弱相关条款(kuǎn)之后,最终顺(shùn)利通过加州(zhōu)众议院(yuàn)拨款委员会的审核(hé)。
SB 1047旨在通过追究开(kāi)发者的责任来防止大(dà)型 AI 系统造成大量人员死亡或造成损失超过 5 亿美元(yuán)的网络安全(quán)事(shì)件。顺利通过审核之后,这意味着,该法案朝着成为正式法律法规迈出了重要一步,也是美国在AI监管上迈出的重(zhòng)要一步。
但是,加州AI安全(quán)法案饱(bǎo)受争议。斯坦福大学教授李飞飞、Meta首席科学(xué)家杨立昆(kūn)等人认为,该法案最终将会(huì)损害(hài)加州乃至美国(guó)在AI领域的领先地位,100多位学界人士也(yě)发文反对,风投机(jī)构a16z专门建立网站细数法案六(liù)宗罪。
甚至前美国众议(yì)院议长南(nán)希·佩洛西(Nancy Pelosi)也发(fā)声明(míng)反对此法案,认为(wèi)加(jiā)州AI安全法案意(yì)图良好但(dàn)缺乏充分了解,许多(duō)重要的(de)加(jiā)州科技公(gōng)司学者和负责人都表示反对该法案(àn),认为(wèi)它弊大于利。
最新一个反对加州(zhōu) AI 法案的是OpenAI。OpenAI本周(zhōu)发文称,该立法将损(sǔn)害AI创新,并(bìng)可能对(duì)美国在 AI 和国家安全方 面的竞争力产生“广泛而重大”的影响。
然而,本吉奥却表示(shì),加州(zhōu)AI安(ān)全法案避(bì)免了(le)过于规定性,而是使用责(zé)任来确保AI公司不会(huì)忽视“合理专家会做的(de)”安全预防措施。“它将为公司创造一个激励(lì),使他们不(bù)会成为班上最差(chà)的(de)学生。”
本(běn)吉奥指出,围绕 AI 监管(guǎn)的讨(tǎo)论可能会受到风险投资(zī)家和希望从该技术中获利(lì)的(de)公司的影响。“你可以将其与气候(hòu)变化、化石燃料(liào)公司等进行类比,”他说。
“事实并非如此,事(shì)实恰恰相反(fǎn)。它没有那(nà)么大的约束力。它并没有(yǒu)施加多大影(yǐng)响(xiǎng)。它只是说:如果你造成了数十亿美(měi)元的损失(shī),你就(jiù)要(yào)负责。几十年(nián)来,整个计算 领域在(zài)某种程度上一直不受任何形式的监管。
我认为(反对派)更多的是意识形态。我真的(de)很担心游说团体(tǐ)的力量以及 Ai 带(dài)来的(de)数(shù)万亿甚至数千万亿的(de)利润(加州大(dà)学伯克利分校教授、人工智能系统中(zhōng)心创(chuàng)始人Stuart Russell表示)会(huì)激励企业反对(duì)任何监管(guǎn)。”本吉奥表示。
谈到风险管控,本吉奥指出,“我认为自己对风险(xiǎn)持(chí)怀疑态度。我听到过很多很好的(de)论据,认为比 我们更聪明的人工智能(néng)可能非常危险。甚(shèn)至在(zài)它们比我们(men)更聪(cōng)明之前,它(tā)们就可(kě)能(néng)被人类以对民主极其(qí)危(wēi)险的方式使用。任何说他们知(zhī)道的人都过于自信,因为事实上,科学并没有答案。没有办法(fǎ)以可验证的方式回答。我们可以看到这样或那样的论点,它们都是合理(lǐ)的。但是如果你是(shì)不(bù)可知论者,并(bìng)且正(zhèng)在考虑政策,你需(xū)要保护公众免受真正糟糕的事情的伤害。这就是(shì)政府在许(xǔ)多(duō)其(qí)他领域一直在做的事情。没有理由(yóu)说他们(men)不能在计算和 AI 领域做到这一点(diǎn)。”
本吉奥反复强调,他没想到人类会(huì)这么快掌握对(duì)话式AI语音技术,而且目前(qián)至少达(dá)到足够人性化的水平。
“我认为,对危险 事(shì)物 进行快速创新的(de)渴望是不明智的。在生物学领域,当研究(jiū)人员发现通(tōng)过所谓的功能获得研究可以制造出危(wēi)险(xiǎn)的病毒时,他们一起决定,好吧,我们(men)不这(zhè)么做了(le)。让我们要(yào)求政府制(zhì)定(dìng)规则(zé),这样(yàng)如(rú)果你这样做,至少在不受控制的情况下,你就会进(jìn)监狱。”本吉奥表示,“我(wǒ)相信你(nǐ)知道合成儿童色情制品,也许情感(gǎn)上不那么具有挑战性(xìng),但更重要的是,同样的深度(dù)伪(wěi)造 可能会(huì)扭曲社会(huì)。那些深度(dù)伪造只会越来越好。声音会越来越(yuè)好。视频(pín)会越来越好。还有(yǒu)一件事人们谈论得不够:当前甚至未来(lái)的系统说(shuō)服人们改变想法(fǎ)的能力(lì)。就(jiù)在几个月前,瑞士进行(xíng)了一项最新研究,他们将(jiāng) GPT-4 与人 类进行(xíng)了比较 ,看看谁能说服那些显然不(bù)知(zhī)道自己是在(zài)和人(rén)交谈还是在和机器交谈的人改变(biàn)对某事的(de)看法。猜猜谁赢了。”
本吉奥指出,“我们应该在AI方面采 取类似的预防(fáng)原则行为。”
展望未来,本吉奥强(qiáng)调(diào),所有AI技(jì)术应用(yòng)依然会以健康方式改变人类的生活方式(shì)。比如在生物学方(fāng)面,AI会了解身体如何(hé)运作、每个细胞(bāo)如何运作,这可(kě)能会(huì)彻底改变医学和(hé)药(yào)物研发等领域;气候方面它可(kě)以帮助制(zhì)造更好的电池、更好的碳捕获、更好的能量存储。
“虽然还没有发生(shēng),但我认(rèn)为这些都是(shì)我们可以用 AI 做出的很(hěn)好的技术产品。顺便说一句(jù),这些(xiē)应用——它们大部分都(dōu)不是危(wēi)险的。因此,我(wǒ)们应该在这些(xiē)显然可以帮助社会应对挑(tiāo)战(zhàn)的事情上投入(rù)更多。”本吉(jí)奥在对话结尾表示。
▎截至目前,本(běn)吉奥发表了300多篇学术论文,累计被引用次数超13.8万次。吴恩达曾表示,本吉奥的许多理论研究对他有(yǒu)很大(dà)启发。
钛媒体App 8月24日消息,被誉为(wèi)“AI教父”的加拿大计算(suàn)机科学家、深度(dù)学习技术(shù)先驱、2018年(nián)图灵奖(jiǎng)得主约书亚·本吉奥(Yoshua Bengio)公(gōng)开表示,随着(zhe)ChatGPT的(de)推出,AI技术风险的时(shí)间被压缩,不幸的是,我们无法利用十(shí)年(nián)的时间解决AI风险和政策监管问题,而是更短的时 间,因此行业需(xū)要马上行动,加快AI安全政策(cè)落地(dì)。
“制(zhì)定政策需要花费大量时间,它需要解决多年分歧,像这(zhè)样的立法都需要数年时间才能颁布,需要建(jiàn)立一些流程,需(xū)很多(duō)年时间才(cái)能真正做好这个工(gōng)作,”本吉奥对彭博社表示,他现在(zài)担 心可能没有太多时(shí)间来“做好(hǎo)这件事”。而且更糟糕(gāo)的是,AI风险这不仅是监管问题,它更是国际条(tiáo)约,大家需要在(zài)全球(qiú)范围内(nèi)解决这个问(wèn)题。
据悉(xī),本吉奥出生(shēng)于巴黎,成长于加拿(ná)大,现居加拿大蒙(méng)特利尔,在蒙特利尔大学(University of Montreal)计算机科学与运算系任教授。他于1991年获得加拿大麦吉尔大学计算机科学博士学位。本(běn)吉(jí)奥的主要研究领域是深度学(xué)习和自然语言处理。
30余年的深度(dù)学习研(yán)究生涯(yá)里,本吉奥发(fā)表(biǎo)了300多篇学术论文,累计被引用次数超13.8万次。吴恩达曾表示,本吉奥(ào)的许多理论研究对他有很大启发。
2018年,他(tā)与“神经(jīng)网络之父”Geoffrey Hinton和 “卷积网络之父”Yann LeCun三(sān)人因开拓深度学习技(jì)术理论(lùn)而获得“图灵(líng)奖”,他(tā)们三(sān)位也被 AI 行业称为“AI 三(sān)巨头”、“深度学习三巨头”、“三(sān)大AI教父”。
作为“深度学习三巨头”之一的本吉奥曾指(zhǐ)出,AI一词正在被滥用,有些公司拟人化了AI系统(tǒng),仿佛AI系(xì)统是与人类相当的(de)智慧实体,但其实目前还没有出(chū)现(xiàn)与人类(lèi)智慧相当的实体。当然,他依然爱(ài) AI 这一技(jì)术。
本吉奥表(biǎo)示,在2022年底ChatGPT出现之前,他(tā)认为真正的 AI 风险至(zhì)少还要(yào)几十年才会(huì)出现,他曾经有一(yī)段时(shí)间并不怎么(me)担心AI安全问题,并且认为人类距 离开发出能够与人类匹敌的 AI 技术还有“几十年(nián)的时间(jiān)”,他假设我们可以在面对风(fēng)险之(zhī)前“收获AI的好(hǎo)处”多年。
但现在,ChatGPT的推出(chū)完全改(gǎi)变了他(tā)的想法。他不再那(nà)么确定了。
他对AI发展速度的假设——以及技术对社会构成的潜在威胁——在2022年底OpenAI发布(bù)ChatGPT后被颠覆了,因为人类水(shuǐ)平的 AI 技术(shù)已经到来。
“自从我们最终(zhōng)拥有了能够与我们对话的机器(ChatGPT)后,我完全改变了我的想(xiǎng)法,”本吉奥表示,“我们现在有了能(néng)够掌握(wò)语言的AI机器。我们没想到会这么快就做到这一点(diǎn)。我认为没有人真正(zhèng)预料(liào)到这一点,即使是(shì)构建(jiàn)这些(xiē)系统的人。你可以看到,人们认(rèn)为我们可(kě)能还(hái)需要几年、几十年甚至(zhì)更长时间才能达到人类水(shuǐ)平(píng)的智能。人们普遍认为,一旦我(wǒ)们达到人类水平的 智能,就很难预测会发生什么——我(wǒ)们最(zuì)终会得(dé)到非常非常好的东西还是非常非常坏的东西,以及我们该如何应对。有很多不确定(dìng)性。这正是我目前在(zài)科学和政(zhèng)策方(fāng)面工作的动力。”
在(zài)ChatGPT引发全球关于 AI 风险的(de)讨论之后,本吉奥开始投入更多的(de)精力倡导AI监管,并且与同为学术界和 AI 先驱(qū)的Geoffrey Hinton一起公开支(zhī)持一项有争(zhēng)议(yì)的加州 AI 安全法案SB1047,该法案将使公司在不采取安全预防措施的情况下,对其(qí)AI模型造成的灾难性伤(shāng)害(hài)承(chéng)担责(zé)任。
本(běn)吉(jí)奥认(rèn)为,这是“桌上第二重要的提(tí)案”,仅次于欧盟的AI法案。
当地时(shí)间8月15日,饱受争议的美国(guó)加州《前沿AI模型安全创新法案(àn)》(后称加州AI安全法案SB 1047)在大幅度削弱(ruò)相(xiāng)关条款之后,最终顺利通过加州众议院拨款委(wěi)员会的审核。
SB 1047旨在通过 追(zhuī)究开发者的责(zé)任来防止大型 AI 系统造成(chéng)大量人员死亡(wáng)或造成损失超过 5 亿美元的(de)网络安全事件。顺利通过审(shěn)核之后,这意味着,该法案朝着成为正(zhèng)式法律法规迈出了重要一步,也是美国在AI监管(guǎn)上迈出的重要一步。
但是(shì),加州AI安全法案饱受争议。斯坦福大学(xué)教授李飞飞、Meta首席科学家杨立昆等人认为,该法案最终将会损害加州乃至美国在AI领域的领先地位,100多位学(xué)界人士也发文反对,风投机(jī)构a16z专门建(jiàn)立网站细数(shù)法案六宗(zōng)罪。
甚至前(qián)美国众议院议长南希·佩洛西(Nancy Pelosi)也发声明反对(duì)此法案,认为加州AI安全法案意(yì)图(tú)良好但缺乏充分了解,许多重要的加(jiā)州科技公司学者和负责人都表(biǎo)示反对该法案,认(rèn)为它弊大于利。
最(zuì)新一个反对加州 AI 法案的是OpenAI。OpenAI本周(zhōu)发文称,该(gāi)立法将损害AI创新,并可能对美国在 AI 和国(guó)家安全方面的竞争(zhēng)力产生“广泛而重大(dà)”的(de)影响。
然而,本吉奥却表示,加州AI安全(quán)法(fǎ)案避免了(le)过于规定性(xìng),而是使用责任来确保AI公司(sī)不会忽视(shì)“合理专家会做的”安全预防(fáng)措施。“它将(jiāng)为公司创造一个激励,使他们不(bù)会成为班上最差的学生。”
本吉奥(ào)指(zhǐ)出,围绕 AI 监管的讨论可能会受到风险(xiǎn)投资(zī)家和希望(wàng)从该(gāi)技(jì)术中获利的公(gōng)司的影响。“你可以将其与气(qì)候变化、化石燃料公司等进行类比,”他说。
“事(shì)实并非如此,事(shì)实恰恰相反。它没有那么大的(de)约束力。它并没有施加(jiā)多大影响。它只是说:如果你造成了数十亿美元的损失,你就要负责。几(jǐ)十(shí)年来,整个计算领域在某种程度上一直不受任何形式的监管。
我认(rèn)为(反对派)更多的是意识形态。我真的很担心(xīn)游说团体(tǐ)的力量以及 Ai 带来的数万亿甚至数千万亿的利润(加州(zhōu)大学伯(bó)克利分校教授、人工智能系统中心创始人Stuart Russell表示)会激 励企业反对任何监(jiān)管。”本吉奥表示。
谈到风险管控,本(běn)吉奥指出,“我认为自己对风险持(chí)怀(huái)疑态度。我听到(dào)过(guò)很多很好(hǎo)的(de)论据,认为比我们更聪明的人工智能可能(néng)非常危险。甚至在它们(men)比我们更(gèng)聪明之前,它们就可能被人类以对民(mín)主极其危险的方式使用。任何说(shuō)他们知(zhī)道的(de)人都过(guò)于自信,因为事实上,科学并没有答案。没有(yǒu)办法以可验证(zhèng)的方 式回答。我们可(kě)以看到这样或那样的论点,它们(men)都是合理的。但是如果你是不可知论者,并(bìng)且正在考虑政策,你(nǐ)需(xū)要保护公众免受真正糟糕的(de)事情的伤害。这就是政府在许多其他领(lǐng)域一直在做的事情。没有理(lǐ)由说他们不能在计算和 AI 领域做到这一 点(diǎn)。”
本吉奥反复强调(diào),他没想到人类会这么快掌(zhǎng)握对话式AI语音技术,而且(qiě)目前至少达到足够人(rén)性化的水平。
“我认(rèn)为(wèi),对危险事物进行快速创新(xīn)的渴望是不明智的。在生(shēng)物学领域(yù),当研究人(rén)员发现通过所谓的功(gōng)能获得研究可(kě)以制造出危险的病毒时,他们一(yī)起决(jué)定(dìng),好吧,我们(men)不这么做了。让我(wǒ)们(men)要求(qiú)政府制(zhì)定规则,这样如果你这样做(zuò),至少在不(bù)受控(kòng)制的情况下,你就会进监狱。”本吉奥表示,“我相信你知道合成儿(ér)童色情制品,也许(xǔ)情感上不那么具有挑战性,但更重要的是,同样的深(shēn)度伪造可能会扭曲社会。那些深度伪 造只会越来越好。声(shēng)音会越来(lái)越好。视频会越来越好。还有一件事人们谈(tán)论得(dé)不够:当前甚至(zhì)未来的系统(tǒng)说服人们改变想法的能力。就在(zài)几个月前,瑞士进行了一(yī)项最新研究,他们将 GPT-4 与人(rén)类进行了比较,看看谁能(néng)说服那些显(xiǎn)然不知道自己(jǐ)是(shì)在(zài)和人交谈还是在和机器交谈的人改变对某事的看法。猜猜谁赢了。”
本吉奥指(zhǐ)出(chū),“我们应该在AI方面采取类似的预防原则行(xíng)为(wèi)。”
展望(wàng)未来,本吉(jí)奥强调,所(suǒ)有AI技术应 用依然会以(yǐ)健康方式改变人类的生活方式。比如在(zài)生物学方(fāng)面,AI会了解身体如何运作、每个细胞如何运作,这可能会彻底改变医学和药物(wù)研(yán)发等领域;气候方面它可以帮助制造更好的电池、更好的碳捕获、更好(hǎo)的能量存储。
“虽然还没有发生,但我认为这些都是我们可以用 AI 做出的很好的技术产品。顺便说(shuō)一句,这些应用(yòng)——它们(men)大部分都不是危险(xiǎn)的。因(yīn)此,我们应该在这些(xiē)显然可以帮助社会应对挑战的(de)事情上投入更多。”本吉奥在对话结尾表示(shì)。
最新评论
非常不错
测试评论
是吗
真的吗
哇,还是漂亮呢,如果这留言板做的再文艺一些就好了
感觉真的不错啊
妹子好漂亮。。。。。。
呵呵,可以好好意淫了