橘子百科-橘子都知道橘子百科-橘子都知道

“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题

“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题

截至目前,本吉(jí)奥发(fā)表了300多篇学术论(lùn)文,累计被引用次(cì)数(shù)超13.8万次。吴恩达曾表示,本吉奥的许多(duō)理论研究对他有很大启发(fā)。

钛媒体App 8月24日消息(xī),被誉为“AI教父”的(de)加拿大(dà)计算机科学(xué)家、深度学习技(jì)术先驱、2018年图(tú)灵奖(jiǎng)得主约书亚·本吉奥(Yoshua Bengio)公开表示,随着ChatGPT的推出,AI技术风险的时间(jiān)被压缩,不幸的是,我们无法利用十年的时间解决AI风险和政策(cè)监管问题,而是更短的时间,因(yīn)此行(xíng)业需要马上行(xíng)动(dòng),加快 AI安全(quán)政策(cè)落地。

“制定政策需要花费大量时间,它需要解决多年分歧,像这样的立法都需要数年(nián)时(shí)间才能颁布(bù),需要建立一些流程(chéng),需很多年时 间才能真(zhēn)正做(zuò)好这个工作,”本(běn)吉奥对彭博社表示,他现在担心可能(néng)没有(yǒu)太多时间来“做好(hǎo)这件事(shì)”。而且(qiě)更糟(zāo)糕的是,AI风险 这不(bù)仅是监管问题,它更是国际条约,大家(jiā)需(xū)要在全球范围内解 决这(zhè)个问 题。

据(jù)悉,本吉奥出生于巴黎(lí),成长于(yú)加拿(ná)大(dà),现居(jū)加拿大(dà)蒙特利尔,在蒙特利尔大学(University of Montreal)计算机科学与 运(yùn)算系任教授。他于1991年获得(dé)加拿大麦吉(jí)尔大学计算机科学博士(shì)学(xué)位。本吉奥的主要 研究领域是深度学习和自然语言处理。

30余(yú)年的深度学习研(yán)究生涯里,本吉奥发表了300多篇学术论文,累计被引用次数超13.8万次。吴恩(ēn)达(dá)曾表示,本(běn)吉奥的许多理论研(yán)究对他有很大启发。

2018年,他与“神经网(wǎng)络之父”Geoffrey Hinton和“卷积网络之父”Yann LeCun三人因(yīn)开拓深度学习技(jì)术理论而获得“图灵奖”,他们三位也被 AI 行业称为 “AI 三(sān)巨头”、“深度学习三(sān)巨(jù)头”、“三大AI教(jiào)父”。

作(zuò)为“深度学习(xí)三巨头(tóu)”之一的(de)本吉奥曾指出,AI一词正(zhèng)在被滥用,有些公司拟人化了AI系统,仿佛(fú)AI系统是(shì)与人(rén)类相(xiāng)当的智(zhì)慧(huì)实体,但其实目前(qián)还没有出现(xiàn)与人类智慧相当的实体。当然,他(tā)依然爱 AI 这一(yī)技术(shù)。

本吉奥表示,在2022年底ChatGPT出(chū)现之前,他(tā)认为真正的 AI 风险至少还要 几十年(nián)才会出现,他曾经有一段时间并不怎么担心AI安全问题,并且(qiě)认为人类距离开发出能够与人(rén)类匹敌的 AI 技术还有“几十年的时间”,他假设我们可以(yǐ)在面对风险之前“收获(huò)AI的好(hǎo)处”多年(nián)。

但现在,ChatGPT的推出完全(quán)改变了他的想法。他不再(zài)那么(me)确定了。

他对AI发展速度(dù)的假设——以及技术对社会构成的潜在 威胁——在2022年(nián)底(dǐ)OpenAI发布ChatGPT后被颠覆了(le),因为人(rén)类水平(píng)的 AI 技术已经到 来。

“自从我们(men)最终拥(yōng)有了能(néng)够与我们(men)对(duì)话的机器(ChatGPT)后,我完全改变了我(wǒ)的想法,”本吉奥表示(shì),“我们现在有了能(néng)够掌握(wò)语言的AI机器(qì)。我们(men)没想到会这么快就做(zuò)到这(zhè)一点。我认为没有人真正预料到这一点,即使是构建这些(xiē)系统的人。你可以看到,人们认为我(wǒ)们可能(néng)还需要几年(nián)、几(jǐ)十年甚至更(gèng)长时间才能达到人类水平的(de)智能。人们普遍认为,一旦我们达到人类水(shuǐ)平的智能,就很难预测会发生什么(me)——我们最终会得(dé)到非常(cháng)非(fēi)常(cháng)好的东西(xī)还是非常(cháng)非常坏的东(dōng)西(xī),以及我们该(gāi)如何应对。有很多不确定性。这正是我目前在科学和政策方面工作的动力。”

在ChatGPT引(yǐn)发全球关于 AI 风险的讨论之后,本吉奥开始投入更多的精力倡导(dǎo)AI监管,并且与同为学术界和 AI 先驱 的Geoffrey Hinton一起(qǐ)公开支持一项(xiàng)有争议的加州 AI 安全(quán)法案SB1047,该(gāi)法案将使公司(sī)在不采(cǎi)取安(ān)全预(yù)防措施的情(qíng)况下,对其AI模型造成的 灾难性伤害承担责任(rèn)。

本吉奥认为,这是“桌上第二重要 的提案(àn)”,仅次于欧盟(méng)的AI法案。

当地时间8月15日,饱受争(zhēng)议的美国加(jiā)州《前沿AI模型安全创新法(fǎ)案(àn)》(后(hòu)称加州AI安全法案SB 1047)在大(dà)幅度削弱相关条款(kuǎn)之后,最终顺(shùn)利通过加州众议院拨款(kuǎn)委员会的审核。

SB 1047旨在 通过追究开发者的责任来防止大型(xíng) AI 系统造成大(dà)量人员死亡或造成损失(shī)超过 5 亿美元的网络安全(quán)事件。顺利通过(guò)审核之后,这意味着,该法案朝着成为正式法律(lǜ)法 规迈(mài)出了重要一步,也是美(měi)国在(zài)AI监管上(shàng)迈出的重要一步。

但是,加(jiā)州(zhōu)AI安全法案饱受争议。斯坦福大学教授李飞飞、Meta首席科学家杨立昆等人认为(wèi),该法案最终将会损(sǔn)害加州乃(nǎi)至美国在AI领域的领(lǐng)先地(dì)位(wèi),100多位学界(jiè)人士也发文反对,风投机构a16z专门建立网站细数法案六宗罪。

甚至前美(měi)国众议院议(yì)长南希·佩(pèi)洛西(Nancy Pelosi)也发声(shēng)明反对此法案,认为加州AI安全法案意图良好但缺乏充分了解,许多重要的加州科技公司学者和负责(zé)人都表示反对该法案,认为它弊大于利。

最新(xīn)一个反对加州 AI 法案的是OpenAI。OpenAI本周(zhōu)发(fā)文(wén)称,该立法将损害AI创新,并可能对美国在 AI 和(hé)国家安(ān)全方面的(de)竞(jìng)争(zhēng)力产生“广泛而(ér)重大”的影响。

然而(ér),本(běn)吉奥却表示,加州AI安全法案避免(miǎn)了过于规定(dìng)性,而是使用责任(rèn)来确保AI公司不会忽视“合理专家会做的”安全预(yù)防措施。“它将(jiāng)为公司(sī)创造一个激励,使他们不会成(chéng)为班上最差的(de)学生。”

本吉奥指出,围绕 AI 监管的讨论可能(néng)会受到风险投资家和希望(wàng)从该技术(shù)中(zhōng)获利的公司的影(yǐng)响。“你可以将其与气候变化、化(huà)石燃料公司等进行类比,”他(tā)说。

“事(shì)实(shí)并非如此,事实恰(qià)恰相反。它没有那么大的约束力。它并没有施加(jiā)多大影响。它只是说(shuō):如果你造成了(le)数(shù)十亿美元的损失,你就要负责。几十年来,整个计算领域在某(mǒu)种程度上(shàng)一直不受任何形式的监管。

我认为(反对派)更(gèng)多(duō)的是意识形态。我真(zhēn)的很担(dān)心游说团(tuán)体的(de)力量以及 Ai 带来的数(shù)万亿甚至数千万 亿的利 润(加州大学伯克利分校(xiào)教授、人工智能系统中心创始 人Stuart Russell表示)会激励企业反(fǎn)对任何监管(guǎn)。”本吉奥表示(shì)。

谈到风险管控(kòng),本吉奥指出,“我认为自己对风险持怀疑态度。我听到过很多(duō)很好的论据(jù),认为比我们更聪明的人工智能可能非常危险。甚至在它(tā)们比我们更聪(cōng)明之前,它们就(jiù)可能(néng)被人类以对民主极其危险的(de)方(fāng)式使用。任何说他(tā)们知道(dào)的人都过(guò)于自信,因为事实上,科学并没有答(dá)案。没(méi)有办(bàn)法以(yǐ)可验 证(zhèng)的(de)方式回答。我们可以看(kàn)到这样或那样(yàng)的论点,它们都是合理的。但是如果你是(shì)不可 知论(lùn)者,并且正在考(kǎo)虑(lǜ)政策(cè),你(nǐ)需要保护公(gōng)众免受真正糟糕的事情的伤害。这就(jiù)是(shì)政府在许(xǔ)多其他(tā)领域一直在做的事(shì)情。没有(yǒu)理由说他们不能在计算和 AI 领(lǐng)域做到这一点。”

本吉奥反复强调(diào),他没(méi)想到人类会这么快掌握对话式(shì)AI语音技术,而(ér)且目前至少达(dá)到足够人性化的水平。

“我认(rèn)为,对危险事物(wù)进行快 速创新的渴(kě)望是不明智(zhì)的。在生(shēng)物学(xué)领域,当研究人员发现通(tōng)过所谓的(de)功能获得研究(jiū)可以制造出危(wēi)险的病毒(dú)时,他们(men)一起决定,好吧,我(wǒ)们(men)不这么做了。让我们要求政府(fǔ)制 定(dìng)规则,这样如果你这样做,至少在不受控制的情况下(xià),你就会进监狱(yù)。”本吉奥表示,“我相信你知道合成儿童色情制品(pǐn),也许情(qíng)感上不那么具有(yǒu)挑战性,但更(gèng)重要的是(shì),同样的深度(dù)伪造(zào)可能会扭曲社会。那(nà)些深度伪造只会越来越好。声音会越来越好。视频会越来越好。还有(yǒu)一件事人们(men)谈论得不(bù)够 :当前甚至未来的系统说服人们改变想法的(de)能力。就在几个月前,瑞(ruì)士进行了一项最(zuì)新(xīn)研究,他们将 GPT-4 与人类进行了比较,看看谁能说(shuō)服那些显然不知道(dào)自己是(shì)在和人交谈还是在和机器交谈的人改(gǎi)变(biàn)对(duì)某(mǒu)事(shì)的看法。猜猜谁赢了。”

本吉(jí)奥(ào)指出,“我(wǒ)们(men)应该在AI方面采取类似的预防原则(zé)行为(wèi)。”

展望未来,本吉奥强(qiáng)调,所(suǒ)有AI技术应(yīng)用依然会以健康方式改变(biàn)人类的(de)生活方(fāng)式。比如(rú)在生(shēng)物学方(fāng)面,AI会了解(jiě)身体如(rú)何运作、每个细胞如何运作,这可能会彻底改变医学和药物研发(fā)等 领域(yù);气候方面(miàn)它(tā)可以帮助制造更好(hǎo)的电池、更好(hǎo)的碳捕获、更好的能量存储。

“虽然(rán)还没有发生,但我认为这些都是我们(men)可以用 AI 做(zuò)出的很好的技术产品。顺便说(shuō)一句(jù),这些应用——它们大部分都不是危(wēi)险(xiǎn)的。因(yīn)此,我们应该 在这些显然可以 帮助社会应(yīng)对(duì)挑战的事情上投入 更多。”本吉奥在对话结尾表 示。

截至目(mù)前,本吉奥发表了300多篇学(xué)术(shù)论文,累计被引用次数超13.8万次 。吴恩达曾表(biǎo)示,本吉奥的许多理论研究对他有很大(dà)启发。

钛媒体App 8月24日消息,被(bèi)誉为“AI教父”的加(jiā)拿大计算机科学家、深度学习技(jì)术先驱、2018年图灵奖得主约书亚(yà)·本吉奥(Yoshua Bengio)公开表示,随着ChatGPT的(de)推出(chū),AI技(jì)术风(fēng)险的时间被压 缩,不幸的是,我们无 法利用十年的时间解决AI风险和政策监管问题,而是更(gèng)短的(de)时间,因此行业需要马上行动,加(jiā)快AI安(ān)全政策落地。

“制定政策需 要花费大量时间,它需要解决(jué)多年分歧,像这样(yàng)的立法都需要数年时间才能颁布,需要建立一些流程,需很多年时间才能真(zhēn)正做好这个(gè)工作,”本吉奥(ào)对彭博社(shè)表示,他现(xiàn)在担心(xīn)可能没有太多时间来“做好这件事”。而且更糟糕(gāo)的是,AI风险(xiǎn)这不仅是监管问题,它(tā)更是国际条约,大家需要在全球范围内解决这个问题。

据悉,本吉奥出生于(yú)巴黎 ,成长于(yú)加拿 大,现居加拿大蒙特利尔,在蒙特利尔大学(xué)(University of Montreal)计算机科学与运算(suàn)系任教授。他于1991年获得加(jiā)拿大麦吉尔大学计算机科学博士(shì)学位。本吉奥(ào)的主要研究领域是深(shēn)度学习(xí)和自然语言处(chù)理。

30余(yú)年的深度学习研究生(shēng)涯里,本吉奥发 表了300多篇学术论文,累(lèi)计被引用次(cì)数超13.8万次。吴恩达曾表示,本吉奥的许多理论研究(jiū)对他有很大(dà)启(qǐ)发。

2018年,他与“神经网络之父(fù)”Geoffrey Hinton和“卷(juǎn)积网络之(zhī)父”Yann LeCun三人(rén)因开拓深度(dù)学习技术(shù)理论而获得“图灵奖”,他们三位也(yě)被 AI 行业称为“AI 三巨头”、“深度学习三巨头”、“三大AI教父”。

作为“深(shēn)度学习三巨(jù)头”之一的(de)本(běn)吉奥曾指(zhǐ)出,“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题AI一词正在被(bèi)滥用,有些公司拟人化了AI系统,仿佛AI系统 是与人类相当的智慧实体,但其实目前还(hái)没有出现(xiàn)与人类智慧相(xiāng)当(dāng)的实体。当然,他依然爱 AI 这(zhè)一(yī)技(jì)术(shù)。

本吉奥表示,在2022年底ChatGPT出现之前(qián),他认为真正(zhèng)的 AI 风险至少还要几十(shí)年才会出(chū)现,他曾经有一段时间(jiān)并不怎么担心AI安全问题,并且认为人类距离开发出能够与人类(lèi)匹(pǐ)敌的 AI 技术(shù)还有“几十年的时间(jiān)”,他假设我们可以在面对风险之前“收(shōu)获AI的好处”多年(nián)。

但现在,ChatGPT的推出完全(quán)改变了他的想法。他不再那么确定了。

他对AI发(fā)展速度的假(jiǎ)设(shè)——以及技术对社会构成的(de)潜在威胁(xié)——在2022年底OpenAI发(fā)布(bù)ChatGPT后(hòu)被颠覆(fù)了,因为(wèi)人类水平的 AI 技(jì)术已(yǐ)经到来。

“自从我们(men)最终拥有(yǒu)了(le)能够与我(wǒ)们对话(huà)的机器(ChatGPT)后,我完(wán)全改变了我的(de)想法,”本(běn)吉奥表示,“我们现在(zài)有了能够掌握语言的AI机器。我们(men)没想到会这么快就做到这一点。我认(rèn)为没有人真正预(yù)料到这(zhè)一点,即使是构建这些系统的人。你可以看到(dào),人们认为我们可能(néng)还(hái)需要几年、几十年甚至更(gèng)长时间才能(néng)达到人类水平的 智能 。人们普遍认为,一旦我们达到人类水平 的智能,就(jiù)很难预测会发生什么(me)——我们最终会得到非(fēi)常(cháng)非常好的东西还是非常非常坏的东西,以及我们该(gāi)如何应对(duì)。有很多不确定(dìng)性。这正是我目前在科学和政策方(fāng)面工作的动(dòng)力。”

在(zài)ChatGPT引发全(quán)球(qiú)关于(yú) AI 风险(xiǎn)的讨论之后,本吉奥开始(shǐ)投入更多(duō)的精力倡导AI监管,并且与同为(wèi)学术界和 AI 先驱的Geoffrey Hinton一起公开支持一项有争议的加(jiā)州 AI 安全法案SB1047,该法案(àn)将使公司在 不采取安全预防措施(shī)的情况下,对其AI模型造成的灾难性伤害承担责任。

本吉奥(ào)认 为,这是“桌(zhuō)上第二重要的提案”,仅次于(yú)欧盟的AI法案。

当(dāng)地时间8月15日,饱受争议的美国加州《前沿AI模型安全创新法(fǎ)案》(后称(chēng)加州AI安全法案SB 1047)在大(dà)幅度削弱相关条款 之(zhī)后,最终(zhōng)顺利通过加州众议(yì)院拨(bō)款委员会的审核。

SB 1047旨在通过追究开发者的(de)责(zé)任来防止大型(xíng) AI 系统造成大量人员死亡或(huò)造成损(sǔn)失(shī)超过 5 亿(yì)美元的网 络(luò)安全事件。顺利通过审核之后,这意味着,该法案朝着成为正(zhèng)式法律法规迈出了(le)重(zhòng)要一步,也是美国在AI监管上迈(mài)出的重要一步。

但是,加州AI安全法案饱受争议。斯坦福大学(xué)教授李飞飞、Meta首席科学家杨立昆(kūn)等人认(rèn)为,该法案(àn)最终将(jiāng)会损害加州乃至美国在AI领域的领先地位,100多位学(xué)界人士也发文(wén)反(fǎn)对(duì),风投(tóu)机构a16z专门建(jiàn)立(lì)网(wǎng)站 细(xì)数法案(àn)六宗罪。

甚至前 美国众议院议长南希·佩洛西(Nancy Pelosi)也发声明反对(“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题duì)此法案,认为加州AI安全法案意(yì)图良好但(dàn)缺乏充分(fēn)了解,许多重要的加州科 技公司学者(zhě)和负责人都表(biǎo)示反对该法案,认(rèn)为(wèi)它弊(bì)大于(yú)利。

最新一个反对加州 AI 法案的是 OpenAI。OpenAI本周发文称,该立(lì)法将(jiāng)损害AI创新,并可能对美国在 AI 和国家安全方面的竞(jìng)争力产生“广泛而重大”的影响。

然而,本吉奥却(què)表示,加州AI安全 法案避免了过于规定性,而是使用责任来确(què)保AI公(gōng)司不会忽(hū)视“合理专家会做(zuò)的”安全预防措施。“它将为公司(sī)创(chuàng)造(zào)一个激励,使他们不会成为班上最差的学生。”

本吉奥指出,围(wéi)绕 AI 监管的讨论可能会受到风(fēng)险投资家和希望从该(gāi)技术(shù)中获利的公司的影响。“你可以将其与气候变化、化石燃(rán)料公司(sī)等(děng)进行类比,”他说。

“事实并(bìng)非如此(cǐ),事实(shí)恰恰(qià)相反。它(tā)没有那(nà)么(me)大的约束力(lì)。它并(bìng)没有施加多(duō)大影响(xiǎng)。它只是说:如 果你(nǐ)造成了数十亿美元的(de)损失,你(nǐ)就要负(fù)责。几十(shí)年(nián)来,整个计算领域在某种程度上一直(zhí)不受任何形式的监管。

我认(rèn)为(反对派)更多的是意识形态。我(wǒ)真的很担心游说团体的力 量以及 Ai 带来(lái)的数万(wàn)亿甚至数千万(wàn)亿的利(lì)润(加州大(dà)学伯克利分校 教授、人工(gōng)智能系统中心(xīn)创始人Stuart Russell表示)会激励企业反对任何监管。”本(běn)吉奥表示。

谈到风险管控,本吉奥指出,“我认为自己对风险持怀(huái)疑态度。我听到过很多很好(hǎo)的论据,认为比我们更聪(cōng)明的人(rén)工智能可能非常危险。甚至在它们比(bǐ)我们(men)更聪明之前,它们就(jiù)可(kě)能(néng)被人类以对民主极其危险的方式(shì)使用。任何(hé)说他们(men)知道的人都过于自信,因为事实上(shàng),科学并(bìng)没有 答案。没有办法以可验证(zhèng)的方式回答。我们可以看到这样(yàng)或那样的论点,它们都(dōu)是合理的。但是如果(guǒ)你是(shì)不(bù)可知(zhī)论者,并且正在考虑政策,你需要保(bǎo)护公众免(miǎn)受真正糟(zāo)糕的事情的(de)伤害。这就是政府在许(xǔ)多 其他领域一直在做的事情。没有理由说他们不能(néng)在计算和 AI 领域做到 这一点。”

本(běn)吉奥反复强调,他没(méi)想到人类(lèi)会这么快掌握对话式AI语音技术 ,而且目前(qián)至少达到足够人性化(huà)的水平。

“我认为 ,对危(wēi)险事物进行快速创(chuàng)新的渴望是不明(míng)智的。在生物学领域,当研究人员发现通过所谓的功能获得研究可以制造出危险 的病毒 时(shí),他们一起决定,好吧(ba),我们不这么做了。让我们要求政(zhèng)府制(zhì)定规则,这样(yàng)如果你这(zhè)样做,至少在不受(shòu)控制的情况下,你就会进监狱。”本吉奥表(biǎo)示(shì),“我相信你知道合成儿(ér)童色情制品(pǐn),也许情感上不那(nà)么具有挑战(zhàn)性(xìng),但更重要的是,同样的深度伪(wěi)造可能(néng)会(huì)扭曲社会。那些深(shēn)度(dù)伪造只会越(yuè)来越(yuè)好。声音会越来越好。视频会越来越好。还有一件事人们谈论得 不(bù)够:当前甚至未来的系统说服(fú)人们改变想法的能力。就在几个月前,瑞(ruì)士进(jìn)行了 一项最新研究,他们将 GPT-4 与人类进行了比较,看看谁能说服那些显然不知道自己是在和人交谈还是在和机器交谈的人改变对某事的看 法。猜猜谁赢了。”

本吉奥(ào)指出,“我们应该在AI方(fāng)面采取类似的预防原则行为。”

展望未来,本吉奥强调,所(suǒ)有AI技术应用依然会以(yǐ)健(jiàn)康(kāng)方式改变人类的生活方式。比如在生物学方面,AI会 了解身体如何运作、每个细胞如何 运作,这可能会彻底改变医学和药物研发等领域;气候方面它可以帮助制造更好的电池、更好的碳捕获、更好的(de)能量存储。

“虽然还没有发生,但我认为这些都是(shì)我们可以用 AI 做(zuò)出(chū)的很好的技术产品。顺便说一句,这些应用——它们大部分都不是危险的。因此,我们应该在这些显然可以(yǐ)帮助(zhù)社会应对挑战(zhàn)的事(shì)情上投入更多。”本吉奥在对话结(jié)尾(wěi)表示。

未经允许不得转载:橘子百科-橘子都知道 “AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题

评论

5+2=