“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题
▎截至目前,本吉奥发(fā)表了300多篇学(xué)术论文,累计被引用(yòng)次数超13.8万次。吴恩达曾表示(shì),本吉奥的许多(duō)理论研究对他有很大启发。
钛媒体App 8月24日消息,被(bèi)誉为“AI教父”的加拿大(dà)计算机科学家、深度学习技术(shù)先驱、2018年图灵奖得(dé)主约书亚·本吉奥(Yoshua Bengio)公开表示,随着ChatGPT的推出(chū),AI技术风险的时间被压缩,不幸的是,我们(men)无(wú)法(fǎ)利用十年的时间解决AI风(fēng)险和政策监(jiān)管问题,而是更短 的时间,因此行(xíng)业(yè)需要(yào)马上行动,加快AI安(ān)全政策落(luò)地 。
“制定政策需要花费大(dà)量时间,它需要解决(jué)多年(nián)分歧(qí),像这样(yàng)的立(lì)法都需要数年时间才(cái)能颁布,需要建立一些流程,需很多年时间才能真正做好这个工作,”本吉奥对彭博社表示,他现在担心可能(néng)没(méi)有太多时间来“做好这(zhè)件事(shì)”。而且更(gèng)糟糕的(de)是,AI风险这不(bù)仅是监管问题,它更是(shì)国际条约,大家需要(yào)在全球范(fàn)围内解决这个问(wèn)题。
据悉(xī),本吉奥出(chū)生(shēng)于巴黎,成长(zhǎng)于加拿大,现居加拿大蒙特利尔,在蒙特利(lì)尔大学(University of Montreal)计算机科学与运算系任(rèn)教授。他(tā)于1991年获得(dé)加拿大“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题(dà)麦吉尔大学计(jì)算机科学博(bó)士学(xué)位。本吉(jí)奥的主要研究领域是深度学习和自然语言处理。
30余年的深度(dù)学习研究生涯里,本吉奥(ào)发表(biǎo)了(le)300多篇(piān)学术论文,累计被引用次数超13.8万次。吴(wú)恩达(dá)曾表示(shì),本吉(jí)奥的许多理(lǐ)论研究对他有很(hěn)大启发。
2018年,他与(yǔ)“神经网络之父”Geoffrey Hinton和“卷(juǎn)积网络(luò)之父”Yann LeCun三人因(yīn)开(kāi)拓深度学习技术理论而获得(dé)“图灵奖”,他们三位 也被 AI 行业(yè)称为“AI 三巨头”、“深度(dù)学习(xí)三巨头”、“三大AI教父”。
作为“深度学习三巨头”之一的本吉奥曾指出,AI一词正在被滥用,有些公司拟人化了(le)AI系统,仿佛AI系统是与人类相当的智(zhì)慧实体,但(dàn)其实目前还没有出现与人类智慧相当的实体。当然(rán),他依然 爱 AI 这一技术。
本吉奥表示(shì),在2022年底ChatGPT出现之前,他认(rèn)为真正的 AI 风险至少还要(yào)几十年才会出现(xiàn),他曾经有一段(duàn)时间并不(bù)怎么(me)担(dān)心(xīn)AI安全问题,并(bìng)且认为人类距(jù)离(lí)开发出能够与人类匹敌(dí)的 AI 技术(shù)还有“几十年的时间”,他假设我们(men)可以在面对风险之前“收获AI的好处”多年。
但现在,ChatGPT的推出完(wán)全改变了他的想法。他不再那么确定了(le)。
他对AI发展速(sù)度的假设——以及(jí)技术对社会构成的(de)潜在威胁——在2022年底OpenAI发布ChatGPT后被颠覆了,因为人类水平的 AI 技术已经到来。
“自从我们最终拥有了能够与我们对话的机器(ChatGPT)后,我完全改变了我的想法,”本(běn)吉奥(ào)表示,“我们现在有了能够掌(zhǎng)握语言的AI机器。我们没想到会这么快就做到这一点。我认为没(méi)有(yǒu)人真(zhēn)正“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题预料到这(zhè)一点,即使(shǐ)是构建这(zhè)些系(xì)统的人。你可以看到,人们认为我们可能还需要几年、几十年甚至更长时间才能(néng)达到人类水平的智能。人(rén)们普遍认(rèn)为,一旦我们达到人(rén)类水平的智能(néng),就(jiù)很难预测(cè)会发生什么——我们最终会得到非常非常好(hǎo)的东西还(hái)是非常非常坏的东西(xī),以及我(wǒ)们该如何应对。有很多(duō)不确定性。这正是我目前在科学和政策(cè)方(fāng)面工(gōng)作的(de)动力(lì)。”
在ChatGPT引发全球关于 AI 风险的(de)讨论之后,本吉奥开始投入更多的精力倡导AI监(jiān)管,并(bìng)且与(yǔ)同为学术界和 AI 先驱的Geoffrey Hinton一起公开支持一项有争议的加州 AI 安全法案SB1047,该法(fǎ)案将使公司在不采取安全预防措(cuò)施的情(qíng)况下,对其AI模型造成的灾难性伤害承担(dān)责(zé)任。
本吉奥(ào)认(rèn)为,这是(shì)“桌上第二(èr)重要的(de)提案”,仅次于欧盟的(de)AI法案。
当地时间(jiān)8月15日,饱受(shòu)争议的美国加州《前沿AI模型安全创新法案》(后称加州AI安全法案SB 1047)在大幅度削弱相关条(tiáo)款之后,最终顺利通过加州众议院拨款委(wěi)员会的审核。
SB 1047旨(zhǐ)在通过追究开发者的责任来防止大型 AI 系统造成大量人员死亡或(huò)造成损失超过 5 亿美(měi)元的网络安全事件。顺(shùn)利通过审核之后(hòu),这意味着,该法(fǎ)案朝(cháo)着成(chéng)为正式法律法(fǎ)规迈出了重要(yào)一步,也(yě)是美国在AI监管上(shàng)迈出(chū)的重要一步。
但是,加州(zhōu)AI安全法案饱受争议。斯坦福大学教授李飞(fēi)飞、Meta首席科学家杨立(lì)昆等人认(rèn)为,该法(fǎ)案最终(zhōng)将会损害加州乃至美国在AI领(lǐng)域的领(lǐng)先地(dì)位(wèi),100多位学界人士也发文(wén)反对,风投机构a16z专门建立网站细数法(fǎ)案六(liù)宗罪。
甚至前美国众议院(yuàn)议长南希(xī)·佩洛西(Nancy Pelosi)也发声明反对此法案,认为加州(zhōu)AI安(ān)全法案意图良好但缺乏充分了解,许多重要(yào)的加州科技公司学 者和(hé)负责人都表 示反对该(gāi)法案,认为它弊大于利。
最新一个反对加州 AI 法案的是OpenAI。OpenAI本周发文称,该立法将损(sǔn)害AI创新,并可能对美(měi)国在 AI 和国家安全方(fāng)面(miàn)的竞争力产生“广泛(fàn)而重大(dà)”的影响。
然而,本吉奥却表(biǎo)示(shì),加州AI安全法案避免了过(guò)于规定性,而(ér)是使用责(zé)任来(lái)确保AI公司不会(huì)忽视“合理专家会做的”安全预防措施。“它将为公司创造一个激励,使他们不(bù)会成为班上最差的学生。”
本吉(jí)奥指出,围绕 AI 监管的讨论可能会(huì)受到风险投资家和希望从该技术中获利的公(gōng)司的影(yǐng)响。“你可(kě)以将其与(yǔ)气候变化、化石燃料公(gōng)司等进行类比,”他说。
“事实(shí)并非(fēi)如(rú)此,事实恰恰相反。它 没有那么大的约束力。它并没有施加多大影响。它只是说:如果你造(zào)成了数十亿美元的损失,你就要负(fù)责。几十年来,整个计算领域在某种程度上一直不受任何形式的监管。
我认(rèn)为(反对派)更多的是意识形态。我真 的很担心游(yóu)说(shuō)团体的力量 以 及 Ai 带来的数万亿甚至数千万亿的利润“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题(rùn)(加州大学伯(bó)克利(lì)分校教授、人工(gōng)智能系统中心创始人Stuart Russell表示)会激励企业反对任何监管。”本吉奥表示。
谈到风险管控,本吉奥指(zhǐ)出,“我认为自己对风(fēng)险持怀疑态度。我听到过很多很(hěn)好的论据,认为比我们更聪明的人工智能可(kě)能非常危险。甚至在(zài)它们比我们更聪明之前,它们就可能被人类以(yǐ)对(duì)民主极其危险(xiǎn)的方式使用。任何说(shuō)他们知道的人都过于自信(xìn),因为事实上,科(kē)学并(bìng)没有(yǒu)答案(àn)。没有办法以可验(yàn)证的方式回答。我(wǒ)们可以看到这样或那(nà)样的论点,它们都是合理的。但是如(rú)果你是不可知论(lùn)者,并且正(zhèng)在考虑(lǜ)政策,你(nǐ)需要保护公众免受真正糟糕的事情的伤(shāng)害。这就是政府在许多其他领(lǐng)域一直在 做的事情。没有理由(yóu)说他们不能在计算和 AI 领域做到这一点。”
本吉奥反复强调,他没想到人(rén)类会这么快(kuài)掌握(wò)对话式AI语音技术,而且目前至少达到足够人性化的水平。
“我认为,对(duì)危(wēi)险事物进行快速创新的渴望是不明智的。在生物学领域,当(dāng)研究人员发现(xiàn)通过所谓的(de)功能获得研究可以制造出(chū)危险的病毒时(shí),他们一起决定,好吧,我们(men)不这么做了。让我们要求(qiú)政府制定(dìng)规则,这样如果你这样做,至少在不受控制的(de)情(qíng)况下,你就会进监狱(yù)。”本吉奥表示,“我相信你知(zhī)道合成儿童色情制品,也许情感(gǎn)上不那么具有挑战性,但更重要的是,同样的深度伪(wěi)造可能会扭(niǔ)曲社会。那些深度伪造只(zhǐ)会越来越好。声音会越来越(yuè)好。视频(pín)会越来越好。还(hái)有一件(jiàn)事人们谈论得不够(gòu):当前甚至未来(lái)的系统说(shuō)服人们改变想法的(de)能力(lì)。就在几个(gè)月前(qián),瑞(ruì)士进行了一项最新研究,他们将 GPT-4 与人(rén)类进行了比较,看看谁能说服那些显然不知道自己是在和人交谈还是(shì)在(zài)和机器交(jiāo)谈的人改变对某事的看法。猜猜谁(shuí)赢了。”
本吉奥指出,“我们(men)应该在AI方(fāng)面采取类似的预(yù)防原则行为。”
展望未来,本吉奥(ào)强(qiáng)调,所有AI技术(shù)应用依(yī)然会(huì)以健康方式改变人类的生活方式。比如在生物学方面,AI会了解身体如何运作、每个细胞如何运作,这可能会彻底(dǐ)改变医学和药物研发等领域;气候方面它可以帮助制造更好的电池、更(gèng)好的碳捕获、更好的能量存储。
“虽然还没有发生,但我认为这些都是我们可以(yǐ)用(yòng) AI 做出的很(hěn)好的技(jì)术产品。顺便说一句,这些应用——它们大部分都不是危险(xiǎn)的。因(yīn)此(cǐ),我们 应该在这些显然可以帮(bāng)助社会应对挑战的事情上投入更多。”本吉(jí)奥在对话结尾(wěi)表(biǎo)示。
▎截(jié)至目前,本(běn)吉(jí)奥发表(biǎo)了300多篇学(xué)术论文,累计被引用次数超13.8万次。吴(wú)恩达曾表示,本吉奥的许多理论研究对(duì)他有很大启发。
钛媒体App 8月24日消(xiāo)息,被誉为“AI教(jiào)父”的加拿大计算机科学家、深度学习技术先驱、2018年图灵奖得主约书亚·本吉奥(Yoshua Bengio)公(gōng)开表示,随着ChatGPT的推出 ,AI技术风险的时间被压缩(suō),不幸(xìng)的是,我(wǒ)们无法利用十(shí)年的时间解决AI风险(xiǎn)和政策监管问题,而是更短的时间,因此行业需要马上行(xíng)动,加快AI安全政策落地。
“制定政策需要花费(fèi)大量时间,它需要解决多年分歧,像这样的立法都需要数(shù)年时间才能(néng)颁布,需要建立(lì)一些流程,需很多(duō)年(nián)时间才(cái)能(néng)真正做好(hǎo)这个工作,”本吉奥(ào)对彭博社表示,他(tā)现(xiàn)在担心可能没有太多时间来“做好这件事(shì)”。而且更糟(zāo)糕的(de)是(shì),AI风险这不仅是(shì)监(jiān)管 问题(tí),它更是国(guó)际条约,大家需(xū)要在全球范(fàn)围内解决这个问题。
据悉,本(běn)吉奥出生(shēng)于巴黎,成长于(yú)加拿大(dà),现居加拿大蒙特(tè)利(lì)尔,在蒙特利尔大学(University of Montreal)计算机科学与运算系任教授。他于1991年获得加拿大麦吉(jí)尔大学(xué)计算机科学博士学(xué)位。本吉奥的主要研究领域是深度学习和(hé)自然语言(yán)处理。
30余年的(de)深度学(xué)习研究生涯里(lǐ),本吉奥发表了300多篇学术(shù)论文,累计被(bèi)引用次数超13.8万次。吴恩(ēn)达曾表示,本吉奥的许多理论研究对他有很(hěn)大启发。
2018年(nián),他与“神经网络之父”Geoffrey Hinton和“卷积网络(luò)之父”Yann LeCun三人因开拓深度学习技术理论(lùn)而获得“图灵奖”,他们三位(wèi)也被 AI 行业称为“AI 三巨头”、“深(shēn)度学习三巨(jù)头”、“三大AI教父”。
作为“深度学习三巨头”之(zhī)一的本吉奥曾指出,AI一词正在被滥用,有(yǒu)些(xiē)公司拟人化了AI系统,仿佛AI系统是与人类相当(dāng)的智慧实体,但其实目前还没有出现与人类智慧(huì)相当(dāng)的实体。当然,他依然爱 AI 这一技(jì)术。
本吉奥表示,在2022年底ChatGPT出现之前(qián),他认为真正的 AI 风险至(zhì)少还要几十(shí)年才会出现,他曾经(jīng)有(yǒu)一段(duàn)时间并不怎么(me)担(dān)心AI安全问题,并且认为人类距(jù)离开发出能够与人类匹敌的 AI 技术还有“几十年的时间”,他假设我们可以在面(miàn)对风险之前“收获(huò)AI的好处”多(duō)年。
但现在,ChatGPT的推(tuī)出完全(quán)改变了他的想法。他(tā)不再那么确定了。
他对AI发展速度的假设(shè)——以及技术对(duì)社会构成(chéng)的潜在威(wēi)胁(xié)——在2022年底OpenAI发布ChatGPT后被颠覆了(le),因为人类水平的 AI 技(jì)术已经到来。
“自从(cóng)我们最终拥有了能够(gòu)与我们对话的机器(ChatGPT)后,我完全改变了我的想法,”本吉奥表示,“我们(men)现在有了能够掌握语(yǔ)言的AI机器(qì)。我们没想到会这(zhè)么快就做到这一(yī)点。我 认为(wèi)没有人真正预料到这一点,即使是构建这些系统(tǒng)的(de)人。你可以看到,人们认为我们可能还(hái)需 要几年(nián)、几(jǐ)十年甚至(zhì)更(gèng)长时间才能达到人类水(shuǐ)平的智能。人 们普遍认为,一旦我们达到人类水平的智能,就很难预(yù)测会发生(shēng)什么——我们最终(zhōng)会得到非常非常好的东西还是非常非常坏的东西,以及我们该如何应对。有很多不确定性。这正是我目前在科学和政策方面工作的动力。”
在ChatGPT引发全球关于 AI 风险的讨论之后,本(běn)吉奥开始投入更多的精力倡导AI监管,并 且与同为学术界和 AI 先驱的Geoffrey Hinton一起(qǐ)公(gōng)开支持(chí)一项有争议的加(jiā)州 AI 安全法案SB1047,该法案将使公司在不(bù)采(cǎi)取安全预防措(cuò)施的情况下,对其AI模型造(zào)成的灾难性伤害承担(dān)责任(rèn)。
本吉奥认为,这(zhè)是“桌上第二重要的(de)提案”,仅次于欧(ōu)盟的AI法案。
当地时间8月15日,饱受争议的美国加州《前(qián)沿AI模型安全创新法案》(后称加州AI安全法案SB 1047)在大(dà)幅度削弱相关条款之后,最终顺利通过加州众(zhòng)议院拨款委员(yuán)会的审(shěn)核(hé)。
SB 1047旨在通过追究(jiū)开发者的责任来防止大(dà)型(xíng) AI 系(xì)统造成大量人员死亡或造成损失超(chāo)过 5 亿(yì)美元的网络(luò)安全事件。顺利通过审核之后,这意味着,该法(fǎ)案朝着成为正式法律法规迈出了重要一步,也是(shì)美国在AI监管上迈出的重要一步。
但是,加州(zhōu)AI安全法案(àn)饱受争议。斯坦福大(dà)学教授李飞飞、Meta首(shǒu)席科学家 杨(yáng)立昆(kūn)等人认为,该法案最终将会损害(hài)加州(zhōu)乃至美国在AI领域的领先地位,100多位学界人士也(yě)发文反对(duì),风投机构(gòu)a16z专门建立网站细(xì)数法案六宗罪。
甚至前美国众(zhòng)议院议长南(nán)希·佩洛西(Nancy Pelosi)也发声明反对此(cǐ)法案,认为加州AI安(ān)全法案意图良好但(dàn)缺乏充分了解,许多重(zhòng)要的加(jiā)州科技公司学(xué)者(zhě)和(hé)负责人都表示反对该法案,认(rèn)为它弊大于(yú)利。
最新(xīn)一个反对(duì)加州 AI 法案的(de)是OpenAI。OpenAI本周发文(wén)称,该立法将损害AI创新,并可能对美国在 AI 和(hé)国家安 全方面的竞争(zhēng)力产生“广(guǎng)泛而重大”的影响。
然而,本吉奥(ào)却表示,加州AI安全(quán)法案避免了过于规定性,而是(shì)使用责任来确(què)保AI公司不会忽视“合理专家会做的”安全预防措施(shī)。“它将为公司创造一个激励,使他们不会成为班上最差的(de)学生。”
本吉(jí)奥(ào)指出,围绕 AI 监管的讨论(lùn)可能会受到风险投资家和希望从该(gāi)技术中获利的公司的影响。“你可(kě)以将其与气候变(biàn)化、化石燃(rán)料公司等进(jìn)行类比,”他说。
“事(shì)实并非(fēi)如此,事实恰恰相反。它(tā)没有那(nà)么大(dà)的约束(shù)力。它并没有施加多大影响。它只是说:如(rú)果你造成(chéng)了数十亿美元的损失,你就要负责。几十(shí)年来,整个计(jì)算领域(yù)在某种程度上一直不受任何形式的(de)监管。
我认为(反对派)更多(duō)的是意识形态。我真的很(hěn)担(dān)心游说团体的(de)力量以及 Ai 带来的数(shù)万亿甚至数千(qiān)万亿的利润(加(jiā)州大学伯克利分校教授、人工智能系统(tǒng)中心创始人Stuart Russell表示)会激励企(qǐ)业反对任何监管。”本(běn)吉奥表(biǎo)示。
谈到风险管控,本吉奥指(zhǐ)出,“我认为自己(jǐ)对风险持怀疑(yí)态度。我听到过(guò)很多很好的论据,认为比我们更(gèng)聪明的人工智(zhì)能可能非常危险。甚至在它们比我们更聪明之前,它们就(jiù)可能被人类以对民主(zhǔ)极其危险的方式使用。任何说他们知道的人都过于(yú)自信(xìn),因为事实(shí)上(shàng),科学(xué)并没有(yǒu)答案。没(méi)有办法以可验证的(de)方(fāng)式回答。我们(men)可以 看到这样或那样的论点,它们都是合理的。但(dàn)是如果你是不可知论者,并且正在考虑政策,你需要保护公众免受(shòu)真正糟糕的事情的伤(shāng)害。这就是政府在许多其他领域一直在做的(de)事情。没有理由说他们不(bù)能在计算和 AI 领域做到这一(yī)点(diǎn)。”
本吉奥(ào)反复(fù)强调,他没想到人类会这么快掌握对话式AI语音技术,而且目前(qián)至少达到足够人性(xìng)化(huà)的水平。
“我认为,对危险事物进行(xíng)快速创新的渴望是不(bù)明智的。在生(shēng)物(wù)学领域,当研究人员(yuán)发现通过所谓的功(gōng)能(néng)获得研究可以制造出危险的病毒时,他们一起(qǐ)决定,好吧,我们不这么做了(le)。让我们要求政(zhèng)府(fǔ)制定规(guī)则(zé),这样如(rú)果你这样做,至少在(zài)不受控制的情况下,你就会(huì)进监狱(yù)。”本(běn)吉奥表示,“我相信你知道合成儿童色情制品,也(yě)许情感上不那么具有 挑战性,但更重要的是,同样的深度(dù)伪(wěi)造(zào)可能(néng)会扭曲社会。那些深度伪造只会越来越好。声音会越来越好。视(shì)频会越来越好。还有一件事(shì)人们谈(tán)论得不够:当前甚至未(wèi)来的系统说(shuō)服人们(men)改变想法的能(néng)力。就在几(jǐ)个月前,瑞士进行了(le)一项最新研究,他(tā)们将 GPT-4 与人类进行(xíng)了比较,看看谁能说服那些显然(rán)不知道自己是(shì)在和人交谈还是在和机(jī)器交谈的人改变对(duì)某事的看法。猜猜谁赢了。”
本吉奥指(zhǐ)出,“我们应(yīng)该在(zài)AI方(fāng)面(miàn)采取类似的预防原则 行为。”
展望未来,本吉奥(ào)强调,所有AI技(jì)术应用依然(rán)会(huì)以健康方(fāng)式改变(biàn)人类的(de)生活方式。比如在生(shēng)物学方面,AI会了解身体如何 运作、每个细胞如何运作,这可能会彻底(dǐ)改变医学(xué)和药物研发等领域;气候(hòu)方(fāng)面它可以帮助制(zhì)造更好的电(diàn)池、更好的碳捕获、更好的能量存储。
“虽然还没(méi)有发生,但我认为这些(xiē)都是我们可以用 AI 做出的很好的技术产品。顺便说(shuō)一句,这些应用——它们大部(bù)分都不是危险的。因此,我们应(yīng)该在这些显然可以帮助社会应对(duì)挑战的事情上投(tóu)入更多。”本吉奥在对话结尾(wěi)表示。
最新评论
非常不错
测试评论
是吗
真的吗
哇,还是漂亮呢,如果这留言板做的再文艺一些就好了
感觉真的不错啊
妹子好漂亮。。。。。。
呵呵,可以好好意淫了