“AI教父”本吉奥:人类 无法用10年时间解决AI风险和监管问题
▎截至(zhì)目前,本吉奥发表了300多篇学(xué)术论文,累计被引用次数超13.8万次。吴恩达曾表示,本吉(jí)奥的许多理论研究(jiū)对他(tā)有很大启发。
钛(tài)媒体App 8月24日消息,被誉为“AI教父”的加拿大计算机科学家、深度学习技术先(xiān)驱(qū)、2018年图灵奖得主约书(shū)亚(yà)·本(běn)吉奥(ào)(Yoshua Bengio)公开表示,随着(zhe)ChatGPT的推出,AI技术风(fēng)险的(de)时间被压缩,不幸(xìng)的是,我们(men)无法 利用(yòng)十年(nián)的时间解决AI风险和政策监管问(wèn)题,而是更短的时间,因此行业(yè)需要马上行动,加快AI安全政策落地。
“制定政策需要花费大(dà)量时间,它需要解决多年分歧,像这样的立法都需要数年时间才能(néng)颁布,需要建立一些流程,需(xū)很(hěn)多(duō)年时间才能(néng)真(zhēn)正做好这(zhè)个工作,”本吉奥对彭博社(shè)表示,他现在担心可能没有太多时间来“做好这件事”。而(ér)且(qiě)更糟糕的是,AI风险这不仅是监管问题,它更是国际条约,大家需要在全球范(fàn)围内(nèi)解决这(zhè)个问题(tí)。
据悉,本(běn)吉奥出生于巴黎,成长于加拿大,现(xiàn)居加(jiā)拿大蒙特利尔,在蒙特利(lì)尔大学(xué)(University of Montreal)计算机科学与运算(suàn)系任(rèn)教授。他于1991年获得加拿大麦(mài)吉尔(ěr)大学计算机科(kē)学博士学位。本吉(jí)奥的主要研究领域是深度学习和自然语言处理。
30余年的深度学习研究生涯里,本吉奥发表了300多篇(piān)学术论文,累计被引用次数超13.8万次。吴恩达(dá)曾表(biǎo)示,本吉奥的许多理论研究对(duì)他(tā)有很(hěn)大启发(fā)。
2018年,他与“神经网络之父”Geoffrey Hinton和“卷积网络之父”Yann LeCun三人因开拓深度(dù)学习技术理论而获得“图(tú)灵奖”,他们三位也被(bèi) AI 行业称为(wèi)“AI 三(sān)巨头 ”、“深(shēn)度(dù)学习三巨头”、“三大AI教父”。
作为“深度学习三巨头(tóu)”之 一的本(běn)吉奥曾指出,AI一词正在被滥用(yòng),有些公司拟(nǐ)人化(huà)了AI系统(tǒng),仿(fǎng)佛AI系统是与人类相当(dāng)的(de)智(zhì)慧实体,但(dàn)其实目(mù)前(qián)还没有出现与人类智慧(huì)相当的实体。当然,他(tā)依然爱(ài) AI 这一技术。
本吉奥表示,在2022年底ChatGPT出现之前,他认为真(zhēn)正的 AI 风险至少还要几十年才会出现,他曾经有一段时间并不怎么担(dān)心AI安(ān)全问题(tí),并且认为人类距离开发出能够与人(rén)类匹敌的 AI 技术还有“几十年的时间”,他假设我(wǒ)们可以在(zài)面对风险之前“收获AI的好处”多年。
但现在,ChatGPT的推出完全改变了他的想法。他不再(zài)那么(me)确定了。
他对AI发展速度的(de)假设——以及技术对(duì)社会构成的潜在威胁——在(zài)2022年底OpenAI发布ChatGPT后被颠覆了,因为人类水平的 AI 技术已经到来(lái)。
“自从我们最终(zhōng)拥有了能够与我们对话的(de)机器(ChatGPT)后,我完全改变了我的想法,”本吉奥(ào)表示,“我们现(xiàn)在有了能够掌握语言的AI机(jī)器(qì)。我们没想到会这(zhè)么快就做(zuò)到这一(yī)点(diǎn)。我认为没有人真正(zhèng)预料到这一点,即使是构建这些系统的(de)人。你可(kě)以看到,人们认(rèn)为我们可(kě)能(néng)还需要几年、几十年甚至更长时间才能达到人类水平的智能。人们普(pǔ)遍认(rèn)为,一旦我(wǒ)们达到人类水 平的智能,就很难预测会发生什么——我们最(zuì)终会得到非常非常好的东西还(hái)是非常非常坏(huài)的(de)东西,以及我们(men)该如何应(yīng)对。有(yǒu)很多不确定性。这正是我目前在科(kē)学和政策方面工作的动力。”
在(zài)ChatGPT引发全球关于 AI 风险的讨论之后,本吉奥开始投入更多的精力倡导AI监管,并且与同为学术界和 AI 先驱的Geoffrey Hinton一起(qǐ)公开支持一项有争议的加(jiā)州 AI 安(ān)全法案SB1047,该法案将使(shǐ)公司在不采(cǎi)取安全预防(fáng)措施的情况下,对其AI模型 造成的灾难(nán)性伤害承担责任。
本(běn)吉奥认为,这是“桌上 第二(èr)重要的提(tí)案”,仅次于欧盟的AI法案。
当地时间(jiān)8月15日,饱受(shòu)争议(yì)的(de)美国(guó)加州《前沿AI模型(xíng)安 全创新法案(àn)》(后称加州AI安全法案SB 1047)在大幅度(dù)削弱相关条(tiáo)款之后,最终顺(shùn)利通过加 州众议(yì)院拨款委(wěi)员会的审核。
SB 1047旨在通过追究开(kāi)发者的责任(rèn)来防止大型 AI 系统造成大 量人员死亡或造成损失超过 5 亿美元的网络安全事件。顺利通过审核之(zhī)后(hòu),这意味着,该(gāi)法案(àn)朝着(zhe)成为正式法律法规迈出了重要一步,也是美(měi)国在AI监管上迈出的重(zhòng)要一步。
但是,加州AI安全法案饱受争(zhēng)议。斯坦福大学教授李飞飞、Meta首席科学(xué)家杨立昆等人认为(wèi),该法案最终将会损害加州(zhōu)乃至美国在AI领域的领 先地位,100多位学界人士也发文反对,风(fēng)投机构a16z专门建立网站细数法案六宗罪。
甚至前美(měi)国众议院议长南希·佩洛(luò)西(Nancy Pelosi)也发声明反(fǎn)对此法案,认为加州AI安全法案意(yì)图良好但缺乏充分了解,许多重要的加州科技公司学(xué)者和负责人都表示反对该法案,认为它弊大于利。
最新一 个(gè)反对加州 AI 法案的是OpenAI。OpenAI本周发文称(chēng),该立法将(jiāng)损害AI创新,并可能对美(měi)国在 AI 和国家安全(quán)方面的竞争力产生(shē“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题ng)“广泛而重(zhòng)大”的影响。
然而,本吉奥却表示,加州AI安全法案避免了过于(yú)规定性(xìng),而是(shì)使用责任来确保(bǎo)AI公司(sī)不会忽视“合理(lǐ)专家会做的”安全预防措施。“它将为公司创造(zào)一个激励(lì),使他们不(bù)会成为(wèi)班上最(zuì)差的学生。”
本(běn)吉奥指出,围绕 AI 监管的讨(tǎo)论可能会受到风险投资家和希望从该技术中(zhōng)获利的公司的影响。“你可以将其与(yǔ)气(qì)候变化、化石(shí)燃(rán)料公司等进行类比,”他说(shuō)。
“事实(shí)并非如此,事实恰恰相(xiāng)反。它没有那(nà)么大的约束(shù)力。它并没有施加多大影响。它只是说:如(rú)果你造成了数十亿美元的损失(shī),你就要负(fù)责。几十年来,整个计算领域在某种程度(dù)上一直不受任何形式的监管。
我认(rèn)为(反(fǎn)对派)更多的是意识形态。我真的很担心(xīn)游说团体的力量以及 Ai 带来的数万亿甚至(zhì)数千万亿的利润(rùn)(加州大学伯克利分校教授、人工智能系统中心创始人Stuart Russell表示)会激励企业(yè)反对任何(hé)监(jiān)管(guǎn)。”本 吉奥表示。
谈到 风险管控,本吉奥指出,“我认为自己对风(fēng)险持怀疑态度。我听到过很多(duō)很好(hǎo)的(de)论据,认为比我们更聪明的人工智能可能非常危险。甚至在它们比我们更聪明(míng)之(zhī)前,它们就可 能被人类以对民主极其危险的方式使用。任何说他们知道的人都过于自信,因为事实上,科学并没有答案。没有办法以(yǐ)可验证的方式回答(dá)。我(wǒ)们可以看到这样或那 样的论(lùn)点,它们都是合理的。但是如果你是不可知论(lùn)者,并且正在考(kǎo)虑政策,你需要(yào)保护公众免(miǎn)受真正糟糕的事情的伤害。这就是政府在许多其他(tā)领域一直在做的事情。没有理由说他们不能在计算和 AI 领域做到这一点。”
本吉奥反(fǎn)复强(qiáng)调,他没(méi)想到人(rén)类会这么快掌握对话式AI语(yǔ)音技术 ,而且目前至少达到足够人性(xìng)化的水平。
“我认为,对危险事(shì)物进行(xíng)快速(sù)创新的渴(kě)望是不明(míng)智的。在生物(wù)学领域,当研究(jiū)人(rén)员发现通过所谓的(de)功能获得(dé)研究可以制造出危险的病(bìng)毒时,他们一起(qǐ)决定,好吧,我们不这么做了。让我们要求政府制 定规则,这(zhè)样如果(guǒ)你这样(yàng)做,至 少在不受控(kòng)制的情况下,你就会进监狱。”本(běn)吉奥表示,“我相信你知道合成儿童色情制品,也许情感上不那么具有挑战性,但更重要的是,同(tóng)样(yàng)的深度伪造可能会 扭(niǔ)曲社会。那些深(shēn)度伪造只会越来越好。声音会越来(lái)越好。视频会越来越好。还有一件事人们谈(tán)论得不够(gòu):当前甚至未(wèi)来的系(xì)统说服人们改变想法的能力。就在几个月前,瑞士进行了一(yī)项最新研究,他们将(jiāng) GPT-4 与人(rén)类进(jìn)行了比较,看看谁能说(shuō)服那些显然不知(zhī)道自己是(shì)在和人交谈还是在和机器交谈的人改变对某事的看法。猜猜谁赢了。”
本吉奥指出(chū),“我们应该在(zài)AI方面采取类似的(de)预防原则行为。”
展望(wàng)未(wèi)来,本吉奥强调,所有AI技术应用依然会以健康方式改变人类的生活方式。比如在(zài)生物学方面,AI会了解身体如何运作、每个细胞(bāo)如(rú)何运作,这可能会(huì)彻底改变(biàn)医学和药物研发(fā)等(děng)领域;气候方面(miàn)它可以帮助制造更好的电池、更好的碳捕(bǔ)获、更好(hǎo)的能量存储。
“虽(suī)然还没有发生,但我认为这些都是我们可以用 AI 做出(chū)的很(hěn)好(hǎo)的技术产品。顺便说一句,这些应用——它们大部分都(dōu)不是(shì)危险的(de)。因此(cǐ),我们应该在这些(xiē)显然可以帮助社会(huì)应对挑战的事情上投 入更多。”本吉(jí)奥在对话结(jié)尾表(biǎo)示。
▎截至目前,本吉奥(ào)发表了300多(duō)篇学术论文,累 计被引(yǐn)用次数(shù)超13.8万次。吴恩达(dá)曾表示,本(běn)吉奥的许 多理(lǐ)论(lùn)研究对(duì)他有(yǒu)很大启发(fā)。
钛(tài)媒(méi)体(tǐ)App 8月24日消息(xī),被誉为“AI教父”的加拿大(dà)计算机科学家、深度学习技术(shù)先驱、2018年图灵奖得主约书亚·本吉奥(Yoshua Bengio)公开表示,随着ChatGPT的推出,AI技术风险的时间被压缩,不幸的是,我们无法利用十年的时间解决AI风险和政策监管问题,而(ér)是更短的时间,因此行业需(xū)要马上行(xíng)动,加快AI安全政策落地。
“制定政策需要花(huā)费大量时间,它需要 解决多年分歧,像(xiàng)这样的立法都需要数年时间才能颁布(bù),需要建立一些流程,需很多(duō)年时间才能真正做好(hǎo)这个工作,”本吉奥(ào)对彭博社表示,他(tā)现在担心可能没有太(tài)多(duō)时(shí)间来“做好这件事”。而且更糟糕的是,AI风险这不仅是监管(guǎn)问题,它更是国际(jì)条约,大家需要在(zài)全(quán)球范围内(nèi)解决这个问题。
据悉,本(běn)吉奥出生于(yú)巴(bā)黎,成长(zhǎng)于加拿大,现(xiàn)居加拿大蒙特(tè)利尔 ,在蒙特利尔大学(University of Montreal)计算机(jī)科(kē)学与运算系任教(jiào)授。他于1991年(nián)获得加拿大麦吉尔大学计算机科学博(bó)士学(xué)位。本吉奥的主要研(yán)究领域是深度(dù)学习和自(zì)然(rán)语言处理。
30余年的(de)深度(dù)学习研 究(jiū)生涯里,本吉奥(ào)发表了300多篇学术论文,累计被引(yǐn)用次数(shù)超13.8万次。吴恩达曾表示(shì),本吉奥的许(xǔ)多理论研究(jiū)对他有很大启发。
2018年,他与“神经网络之(zhī)父”Geoffrey Hinton和(hé)“卷积(jī)网络之父”Yann LeCun三人(rén)因开拓深度学(xué)习技术理论(lùn)而 获得“图灵奖(jiǎng)”,他们三位也被 AI 行业称为“AI 三巨头”、“深度学习三巨头”、“三大AI教父”。
作为“深度(dù)学习三巨头”之一的本吉(jí)奥(ào)曾指出,AI一词正在被滥“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题用,有些(xiē)公司拟人(rén)化了AI系统,仿佛AI系统是与(yǔ)人类(lèi)相当的智慧实体,但其实目前还没有出(chū)现(xiàn)与人类智慧相当的实(shí)体。当(dāng)然,他依(yī)然爱 AI 这一技术。
本吉(jí)奥(ào)表(biǎo)示,在2022年底(dǐ)ChatGPT出现 之(zhī)前,他认为真正的(de) AI 风险至(zhì)少还要几十年(nián)才会出(chū)现,他曾经有一段时间并不怎么担心AI安全(quán)问题,并且(qiě)认为人类距离开发出能(néng)够与人类匹敌的 AI 技术(shù)还有“几十年(nián)的时间”,他假设我们可以在面对(duì)风险之前“收获AI的好处”多年。
但现在,ChatGPT的推出完 全改变了他的想(xiǎng)法。他不再(zài)那么确定了。
他对AI发展速度(dù)的假设——以及技术对社会构成的潜在威胁——在2022年底OpenAI发布(bù)ChatGPT后被颠覆了,因为人类水平的(de) AI 技 术已经到来。
“自从我们最终拥有了能够与我们对话的机器(ChatGPT)后,我完全改变了我(wǒ)的想法,”本(běn)吉奥表示,“我们现(xiàn)在有了能够掌握语言的AI机器。我们没想(xiǎng)到会这么快就做(zuò)到这一点。我认为没有人真正(zhèng)预料到这一点,即使是构建这些系统的人。你可(kě)以看到,人们认为我们可能(néng)还(hái)需要几年、几十年甚至更长时间才能(néng)达到人类水平的智能。人们普遍认为,一旦我们达到人(rén)类水平的智能,就很难预测会发生什么(me)——我们最终会得 到非常非常好的东西还是非常非常(cháng)坏的东西,以及我们该如何应对。有很多不确(què)定性。这(zhè)正是我目(mù)前在科学(xué)和政策方面工作的动力。”
在ChatGPT引发全球关于 AI 风险的讨论之(zhī)后(hòu),本(běn)吉奥开始投入(rù)更多的精力倡导AI监管(guǎn),并且与同为学术界和 AI 先驱的Geoffrey Hinton一起公开支持一项有争议的加州 AI 安全法案SB1047,该法(fǎ)案将(jiāng)使公司在不采取安(ān)全(quán)预防措施的情况下,对其AI模型造成(chéng)的灾难(nán)性伤害承(chéng)担责任(rèn)。
本吉奥认为,这是“桌上第(dì)二重要的提案”,仅次于欧(ōu)盟(méng)的AI法案(àn)。
当(dāng)地时间8月15日,饱受争议的美国加州《前沿AI模型安(ān)全创新法(fǎ)案》(后称(chēng)加州AI安全法案SB 1047)在大幅度削弱(ruò)相(xiāng)关条(tiáo)款之后,最终顺利通(tōng)过加州众议院拨款委员会的审核。
SB 1047旨在(zài)通过追究开发者的责(zé)任(rèn)来防止大型 AI 系统造成大量人员死亡或(huò)造(zào)成损(sǔn)失超过 5 亿美元的网络安全事件(jiàn)。顺(shùn)利通过审核之后,这意味着,该法案朝着(zhe)成为正式法律法规迈出了重要一 步,也(yě)是美国在AI监管(guǎn)上迈(mài)出的重要一步。
但是(shì),加州AI安全法案饱受争议。斯坦福大学教授李飞飞、Meta首席科学家杨立昆等人认为,该法案最(zuì)终将会损害加州乃至美国在AI领域的领先地位,100多位学界人士也发文反对,风投机构(gòu)a16z专门建立网站细数法案六宗罪。
甚至(zhì)前美国众议院议长(zhǎng)南希·佩洛西(Nancy Pelosi)也发声明反对此法案,认为(wèi)加州AI安全法案意图良好但缺乏充分了解,许(xǔ)多重(zhòng)要的加州科技公(gōng)司学者和(hé)负责人都表示 反对该法案(àn),认为它弊(bì)大于利。
最新一(yī)个反对(duì)加州 AI 法案的是OpenAI。OpenAI本周发文(wén)称(chēng),该(gāi)立法将(jiāng)损害AI创新,并可能对美国在 AI 和国家(jiā)安全方面的竞争力产生“广泛(fàn)而重大”的影响。
然而(ér),本吉奥(ào)却表示,加州(zhōu)AI安全法案避免了过于规定性,而是使用责任来确保AI公司不会忽视“合理专(zhuān)家会做的”安全预防措施。“它将(jiāng)为公司创造一个激励,使他们不会成为班上最差的学生。”
本吉奥指出,围绕 AI 监管的(de)讨论可能(néng)会受到风险投资家和希望(wàng)从该技术中获利的公司的影响。“你可以将其与气候变化、化石燃料公司等进行类比(bǐ),”他说。
“事实并非如此,事实恰恰(qià)相(xiāng)反。它没(méi)有那(nà)么大(dà)的约(yuē)束力。它并(bìng)没(méi)有施加多大影响。它只是说:如(rú)果你(nǐ)造成了(le)数十(shí)亿美元的损失,你就要负责。几十年来,整个计算领域(yù)在某种程度上一(yī)直不受任何形式的监管。
我认为(反对派)更多的是意识 形态。我真的很担心游(yóu)说团体(tǐ)的力量以及(jí) Ai 带(dài)来的(de)数万亿甚至数千(qiān)万亿的利润(加 州大(dà)学伯(bó)克利分(fēn)校教授、人工智能系统中心创始人Stuart Russell表示(shì))会激(jī)励企(qǐ)业反对任何监管。”本吉奥表(biǎo)示。
谈到(dào)风险管控(kòng),本吉奥指(zhǐ)出,“我认为自己对风险持怀疑(yí)态度。我听到过很多很好的论据,认为比我们更聪明(míng)的人工智能(néng)可(kě)能非常危险。甚至在它们比我们更聪明之前,它们就可能被人(rén)类以对民(mín)主 极(jí)其危(wēi)险(xiǎn)的方(fāng)式使用。任何(hé)说他们知道的(de)人都过于自信,因为事实上,科(kē)学并没有答案。没 有办法以可(kě)验证的方式(shì)回答。我们可以看到这样或那样的论点,它们(men)都是合理的。但是 如果你是不(bù)可知论者,并且(qiě)正在考虑政策(cè),你需要保护公众(zhòng)免受(shòu)真正糟糕的事(shì)情的伤害。这就(jiù)是政府在(zài)许多其他领域一直在做的事(shì)情。没有理由说他们不(bù)能在计算和 AI 领域做(zuò)到这一点(diǎn)。”
本吉奥反复 强调,他没想到人类会这么快掌握对话式AI语音(yīn)技术,而且(qiě)目前至少达到足够人(rén)性化的水(shuǐ)平。
“我(wǒ)认为,对危险(xiǎn)事物(wù)进行快速创新的渴望是不明智的。在(zài)生物学领域,当研(yán)究人(rén)员发现通过所谓的功能获得研究可以 制造出危险的(de)病毒(dú)时,他们一起决定,好吧,我们不这么做了(le)。让我们(men)要求政府制(zhì)定规则,这样如(rú)果你这样做,至少在不受(shòu)控制的情况下,你就会进监狱。”本吉(jí)奥表示,“我相信你 知(zhī)道合成儿童色情制(zhì)品,也许情感上不那么具有挑战性,但更重要的是,同(tóng)样的深度伪造可能会扭曲社会。那些(xiē)深度伪造只会(huì)越来越好。声音会越来越好(hǎo)。视频会越来越好。还(hái)有一(yī)件事人 们谈论(lùn)得不够:当前甚至未来的系统说服人 们改变想法(fǎ)的能力。就在几个月前,瑞士进(jìn)行了一项最新研究,他们(men)将 GPT-4 与人类进行(xíng)了比较,看看谁能说服那些显然(rán)不知道自己是在和人交谈还是在和(hé)机器(qì)交谈的人改变对(duì)某事的(de)看法。猜猜谁赢了。”
本吉奥指出,“我们应(yīng)该在AI方(fāng)面采取类似的预(yù)防原则行为。”
展望未(wèi)来,本吉奥强调(diào),所(suǒ)有AI技术应用依然(rán)会以健康方式改变人类的生活方式(sh“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题ì)。比如在生物学方面,AI会(huì)了解身体如何运作(zuò)、每个细(xì)胞如何运(yùn)作(zuò),这可能会彻底(dǐ)改变(biàn)医(yī)学和药(yào)物研发等领域;气(qì)候方面它可以(yǐ)帮助制造更好的电池(chí)、更(gèng)好(hǎo)的(de)碳捕获、更(gèng)好的能量存储。
“虽然还没有(yǒu)发生,但我认(rèn)为这些(xiē)都是我们可以用(yòng) AI 做出(chū)的很好的技术产品。顺便说(shuō)一句(jù),这些应用——它们大部分都不是危(wēi)险的。因此,我(wǒ)们应该在这些(xiē)显然(rán)可以帮助社(shè)会应对挑战(zhàn)的(de)事情上投入更多。”本吉奥在对(duì)话结尾(wěi)表(biǎo)示。
最新评论
非常不错
测试评论
是吗
真的吗
哇,还是漂亮呢,如果这留言板做的再文艺一些就好了
感觉真的不错啊
妹子好漂亮。。。。。。
呵呵,可以好好意淫了