橘子百科-橘子都知道橘子百科-橘子都知道

“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题

“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题

截(jié)至目前,本吉(jí)奥发表了300多篇学术论文,累计被引用次数(shù)超13.8万次。吴恩达曾表示,本吉奥的(de)许多理论研(yán)究对(duì)他有很大启发。

钛媒体(tǐ)App 8月(yuè)24日(rì)消息,被誉为“AI教父”的(de)加拿大(dà)计算机科学家、深度(dù)学习技术先(xiān)驱、2018年 图灵奖得主约书亚·本吉奥(Yoshua Bengio)公开 表示,随着ChatGPT的(de)推出,AI技术风险的时(shí)间被压缩,不幸的是,我们无法利用十年的时间解决(jué)AI风(fēng)险和政策监(jiān)管问题,而是更短的时间,因此行业需(xū)要马上行动(dòng),加快AI安全政策落地。

“制定政策(cè)需要花费大量时间,它需要解决多年分歧,像这样的立法都需要数(shù)年时间才(cái)能颁布,需要建立一些(xiē)流程,需很多年时间才能真正做好这个工作,”本吉奥(ào)对彭博(bó)社表示,他现在担心可能没(méi)有太多时间来“做好这(zhè)件 事”。而且更糟 糕(gāo)的是,AI风险这(zhè)不仅是监管问题,它更是国际条(tiáo)约,大家需要在(zài)全球范(fàn)围内解决这个问题。

据悉,本吉奥出生于巴黎,成长于加拿大,现居加拿大蒙特利(lì)尔,在蒙特利尔大学(University of Montreal)计(jì)算机科学与(yǔ)运算(suàn)系任教授。他于1991年获得加拿(ná)大麦吉尔大(dà)学计算机科学(xué)博(bó)士学位。本吉奥的主要(yào)研究领域是深度学习和自然语言处(chù)理(lǐ)。

30余年的(de)深度学习研究生(shēng)涯里,本吉奥发表了300多篇学术论文,累计被引用次(cì)数超13.8万次。吴恩达曾表示,本吉奥的许多理论研究对他有很大启发。

2018年,他与“神经网(wǎng)络之父”Geoffrey Hinton和“卷积网络之(zhī)父”Yann LeCun三人因开拓深度学习技术理论(lùn)而(ér)获得“图灵奖”,他们三位也 被 AI 行业称为“AI 三巨头”、“深度学(xué)习三巨头”、“三大AI教父”。

作为“深度学习三巨(jù)头”之(zhī)一的本吉奥曾指出,AI一词正在被滥用,有些公(gōng)司拟人化了AI系统,仿佛AI系(xì)统是与人类相当的智慧实体,但其实目前还没有出现与人类智慧相当的(de)实体(tǐ)。当(dāng)然,他依然(rán)爱 AI 这(zhè)一技术(shù)。

本吉奥表示,在2022年 底ChatGPT出现之前(qián),他认为真正的 AI 风险至少还(hái)要几十年才(cái)会出现,他(tā)曾经有一(yī)段时间并不怎么担(dān)心AI安(ān)全问题,并且认为人类距离开发出(chū)能够与人类匹敌的 AI 技术还有(yǒu)“几十年的时间”,他假(jiǎ)设(shè)我们(men)可以在面(miàn)对风险之前“收获AI的好(hǎo)处”多年。

但现在,ChatGPT的(de)推出完(wán)全改变了他的想法。他不再 那么确定(dìng)了。

他对AI发展速度的假(jiǎ)设(shè)——以及技术对社会(huì)构成的潜(qián)在威胁(xié)——在2022年(nián)底OpenAI发布(bù)ChatGPT后被颠覆(fù)了(le),因为(wèi)人类水平的 AI 技术已(yǐ)经到来。

“自从我们最终拥有了能够与我们对话的机器(qì)(ChatGPT)后,我完全(quán)改变了我的(de)想法,”本吉奥表示(shì),“我们现在有了能够掌握(wò)语言的(de)AI机(jī)器。我们没想 到会这么快就做到这一点。我认为 没(méi)有(yǒu)人真(zhēn)正预料到这一点,即使是构建这些系统的人。你(nǐ)可以看到,人们认为我们可能还需要(yào)几(jǐ)年、几(jǐ)十年甚 至更长时 间才(cái)能达到人类水平的智能(néng)。人们普遍认为,一旦我们达到人类水平的智能,就(jiù)很难预测会发(fā)生什么——我们最终会得到非常非常好的东西还是非常非常坏的东西,以及我们(men)该如何应对。有很多不(bù)确(què)定性。这正是我目前在科(kē)学和(hé)政策方面工作的(de)动力。”

在ChatGPT引发全(quán)球(qiú)关于 AI 风(fēng)险的讨论之后,本吉(jí)奥开始投入更(gèng)多的精力倡导AI监管 ,并且与同为(wèi)学术界(jiè)和 AI 先驱的(de)Geoffrey Hinton一 起公开(kāi)支持一项有争议的加州 AI 安(ān)全法案SB1047,该法案将使公司在不(bù)采取安全预防措施的情况下,对其AI模型(xíng)造成的灾难性伤害承担责任。

本吉奥认为(wèi),这是“桌上第二(èr)重要的提(tí)案”,仅次于欧盟的(de)AI法案。

当地时间8月15日,饱受争(zhēng)议的美国加(jiā)州《前(qián)沿(yán)AI模型安全创新法案》(后称加州AI安全法案(àn)SB 1047)在大幅度削弱相关(guān)条款之后(hòu),最终顺利通(tōng)过加州众议院拨款(kuǎn)委员会的审核(hé)。

SB 1047旨在通过追究开发者的责任(rèn)来防止大(dà)型 AI 系统造成大量人员死亡或造成(chéng)损(sǔn)失超过 5 亿美元(yuán)的网络安全事件。顺利通过审核之后,这意味着,该法案朝着(zhe)成 为正式法律(lǜ)法规迈出(chū)了(le)重要 一 步,也是美国在AI监管上迈出的重要一步。

但是,加州AI安全法案饱受争议。斯坦福大(dà)学教授李(lǐ)飞飞、Meta首席 科学家杨立昆(kūn)等人认为,该法案最终将(jiāng)会损害加(jiā)州乃至(zhì)美国(guó)在AI领域的领先地位,100多位学(xué)界(jiè)人(rén)士(shì)也发文反对,风投机构a16z专门建(jiàn)立网站细数法案六宗罪。

甚至前美国众议院议长(zhǎng)南希·佩洛西(xī)(Nancy Pelosi)也发(fā)声明反对(duì)此(cǐ)法案 ,认为加(jiā)州AI安全(quán)法案意图良好但缺乏(fá)充分了解,许多重要(yào)的加州科技公司学者和负责人都表示反对该法案,认为它弊大于利。

最新(xīn)一个反对(duì)加州(zhōu) AI 法案的是OpenAI。OpenAI本周发文称,该立(lì)法将损害AI创新,并可(kě)能对美国在 AI 和国家安(ān)全方(fāng)面的竞(jìng)争力(lì)产生“广泛而重大(dà)”的影响。

然而,本吉奥却表示,加州AI安(ān)全法案避免了(le)过(guò)于规定性,而是使用责任来确保AI公(gōng)司不 会忽视“合理专家会做的”安全预防措施。“它将为公(gōng)司创造一(yī)个激励,使他们不会成为班上最(zuì)差的学生。”

本吉奥指出,围绕 AI 监管的讨论(lùn)可能会受到风险投资家和希望从该技术中获利的公司的影响。“你(nǐ)可以将其与气(qì)候变化 、化(huà)石燃料公司(sī)等进行(xíng)类比,”他(tā)说。

“事实并非如此,事(shì)实(shí)恰恰相反。它没有那么大的约束力。它并没有施加多大影响。它只是说:如果你(nǐ)造成(chéng)了数十亿美元的(de)损失,你就(jiù)要(yào)负责。几十年来,整个计算领域在某种程度上一直不(bù)受任何形式(shì)的(de)监管(guǎn)。

我认为(反对派)更多的是意识形态。我真的很(hěn)担心(xīn)游说团体(tǐ)的力量以及 Ai 带来的(de)数万亿甚至数千万亿的利润(加州大学伯克利分校教授、人工智能系统中心创始人Stuart Russell表示)会激励企(qǐ)业反 对任何监管。”本吉(jí)奥表示(shì)。

谈到风险管控,本吉奥指出,“我认为 自己对(duì)风险持怀疑态度。我听到过很多很好的论据,认为比我们更聪(cōng)明的(de)人(rén)工智能可能非常危险(xiǎn)。甚至在它(tā)们比我们更聪明之前,它们就可能被人类以对民主极其危(wēi)险的方式 使用。任何说他们知道的人都过于(yú)自信,因为 事实上,科(kē)学并没有答案。没 有办法以(yǐ)可验证的方式(shì)回答。我们可(kě)以(yǐ)看到这样 或那样 的论点,它们都是合理(lǐ)的。但是如果你(nǐ)是不可(kě)知论者,并且正在考虑(lǜ)政策,你需要保(bǎo)护公众免(miǎn)受真正糟糕的事情的(de)伤害。这就是政府在(zài)许多其他领域一直(zhí)在 做的事情。没有理由说他们不能在计算和 AI 领域做到这一点。”

本吉奥反复强(qiáng)调,他没想到人类会这么快掌握对话式AI语音技术,而且目前至(zhì)少达到足够人 性化的水平。

“我认为,对(duì)危险事物进行快速创新的(de)渴(kě)望是不明智的。在生(shēng)物学领域,当研(yán)究人员发现通过所谓的功(gōng)能获得研究可以制造出危险的病毒时,他们一(yī)起决定,好吧,我们不这么做了。让我们要(yào)求政府(fǔ)制定规则,这样如(rú)果你这样做,至少在不受控制的情况下,你就会进监狱(yù)。”本吉奥表示,“我相信你知道合成儿童色情制(zhì)品,也许情感上不(bù)那么具有(yǒu)挑战性,但更重要的是,同样(yàng)的深度伪造可能会扭曲(qū)社会(huì)。那些深度伪造只会越来越好(hǎo)。声音会越来越好(hǎo)。视频会越来越好。还有一件事人(rén)们谈论得(dé)不够:当前甚至未来的系统说服人们改变想法的能力(lì)。就在几个月前,瑞士进行了一项最新研究,他(tā)们将 GPT-4 与人类(lèi)进行了比较,看看谁能说服那些(xiē)显然不知道自己是(shì)在和人交谈还是在和机器交谈的人改(gǎi)变对某事的看法。猜猜谁赢了。”

本吉奥指出(chū),“我们应该在AI方面采取类似的预防原则行为。”

展望未来,本吉奥强调(diào),所有(yǒu)AI技术应用依然(rán)会以(yǐ)健康方(fāng)式改变人类(lèi)的生(shēng)活方式。比如在生物学(xué)方面,AI会了解 身体(tǐ)如何运作(zuò)、每(měi)个细胞如何运作,这可(kě)能会彻底改变医学和(hé)药物研发等领域;气候方面它(tā)可以帮助制造更好的电池、更好的碳(tàn)捕获、更好(hǎo)的能量(liàng)存储。

“虽然(rán)还没有发 生,但我认为这些都是我们可以用 AI 做出的很好的技术产品(pǐn)。顺便说一句,这 些应(yīng)用——它们大部(bù)分都不是危险的。因此,我们应该在(zài)这些显然可以帮助(zhù)社会应 对挑战的事情上投(tóu)入更多。”本吉(jí)奥在对(duì)话结尾表示。

截至目前,本 吉奥发表了300多篇学术论文,累计被引用次数超13.8万次。吴(wú)恩达曾表示,本吉奥的许(xǔ)多理论研究对他有(yǒu)很大启发。

钛媒体App 8月24日消息,被誉为“AI教父”的加拿大计(jì)算(suàn)机科学家、深度学习技术先(xiān)驱、2018年图灵奖得(dé)主(zhǔ)约书亚·本(běn)吉奥(Yoshua Bengio)公开表示,随着ChatGPT的推出,AI技术风险的时间(jiān)被压缩,不幸的是 ,我们无法利(lì)用十年的时间(jiān)解决AI风险和(hé)政策监管(guǎn)问题,而(ér)是更短的时间,因此行业需(xū)要马(mǎ)上行动,加快AI安(ān)全政策落地。

“制定政策需要花费大量 时间,它需要解决(jué)多(duō)年(nián)分歧,像这样(yàng)的(de)立法都需要(yào)数年时间才(cái)能颁布(bù),需要建立(lì)一些流程(chéng),需很多年时间才能真正(zhèng)做好(hǎo)这个工作,”本 吉奥 对彭博社表示,他现在担 心可能没(méi)有太多时(shí)间来“做好这件事”。而且更(gèng)糟 糕的是,AI风险这(zhè)不仅是监管问题,它更 是国际条约,大家需要在全球范围内解决这个问题。

据悉,本吉奥出生于巴黎,成长于 加拿大,现居 加拿大(dà)蒙特利尔,在蒙(méng)特利尔大学(University of Montreal)计(jì)算机科学与运(yùn)算(suàn)系任(“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题rèn)教授。他于1991年获(huò)得 加(jiā)拿大麦吉尔大学计算机科(kē)学博士学位。本(běn)吉奥的主要(yào)研究(jiū)领域是深度学习和(hé)自然语言(yán)处理。

30余年的深度学习研究生涯里,本吉奥发表了300多(duō)篇学术(shù)论文,累(lèi)计被引用(yòng)次数超13.8万次。吴恩达曾表示,本吉奥的许(xǔ)多理论研究对他有(yǒu)很大启发。

2018年,他与“神经网络之父”Geoffrey Hinton和“卷积网络之父”Yann LeCun三人因开(kāi)拓深度学习技术理论而获得“图灵奖”,他们三位也被 AI 行业称为(wèi)“AI 三(sān)巨头”、“深度学(xué)习三巨头”、“三大AI教父”。

作 为(wèi)“深度学(xué)习三巨头(tóu)”之一的本(běn)吉奥曾指出,AI一(yī)词正在被滥用,有些公(gōng)司拟人化了AI系统,仿佛AI系统是与人类相当的智慧实体,但其实目前还没有出现与人类智(zhì)慧(huì)相当的实体。当然,他依然爱 AI 这一技术。

本吉奥(ào)表示,在2022年底ChatGPT出现之前,他认为真(zhēn)正的 AI 风险至少还要几(jǐ)十年才会出现(xiàn),他(tā)曾(céng)经有一段(duàn)时间并不怎么担心 AI安全问题,并且认为(wèi)人类距离(lí)开发出能够与人类(lèi)匹敌(dí)的(de) AI 技术还有“几十年的时间”,“AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题他假设(shè)我们可以在面对 风险之前“收获AI的好处”多年。

但现在,ChatGPT的(de)推出完全改变了(le)他的想法(fǎ)。他不再 那么确定(dìng)了。

他对(duì)AI发展速度的假设——以及 技术对(duì)社会构成的潜在威胁——在2022年底OpenAI发布ChatGPT后被颠覆了(le),因为人类水平的 AI 技术已经到来。

“自从我们最终(zhōng)拥有了能够与我们对话 的 机(jī)器(ChatGPT)后,我完全改变了我的想(xiǎng)法,”本吉奥表示,“我们(men)现在有了能够掌握(wò)语言的AI机器。我们(men)没想(xiǎng)到会这么快就做到(dào)这一点。我(wǒ)认为没有(yǒu)人真(zhēn)正预料到这一点,即使是构建这些系统的人。你可以看到,人们认为我们(men)可能还需要几年、几(jǐ)十年甚至更长时间才能达到人类 水平的智能。人们普遍 认为,一旦我们达到人类水(shuǐ)平的智能,就很难预测(cè)会发生(shēng)什么——我们最终会得到非常非常好的东西还是非常非常(cháng)坏的东西,以(yǐ)及(jí)我们该如何应对。有很多不确定(dìng)性。这正是(shì)我目前在科学和政策方面工(gōng)作的动力。”

在ChatGPT引发全球关于(yú) AI 风险的讨论之后(hòu),本吉奥开始(shǐ)投入更多的精力(lì)倡导(dǎo)AI监管,并且与同为(wèi)学术界和 AI 先驱的Geoffrey Hinton一起公开 支(zhī)持一项有争议的加州 AI 安全法案SB1047,该法(fǎ)案将使公司在不采取安全(quán)预防措施的情况下,对其AI模型造成的灾难性伤害承担责任。

本 吉奥认为,这是“桌上(shàng)第二(èr)重要的提案”,仅次于欧盟的AI法案。

当地(dì)时间8月15日,饱受争(zhēng)议 的美(měi)国加州《前沿AI模型安全 创新法案》(后称加州AI安全法案SB 1047)在大幅度削弱相(xiāng)关条(tiáo)款之后(hòu),最终(zhōng)顺利通过加州众议院拨款委员(yuán)会的审核。

SB 1047旨在通过 追究开发者的责任来防止大型 AI 系统造(zào)成(chéng)大量人员(yuán)死(sǐ)亡或造成损失超过 5 亿(yì)美元的网络(luò)安全事件。顺利通(tōng)过审(shěn)核之后,这意味着,该法案(àn)朝着成(chéng)为正式(shì)法律法(fǎ)规迈出了重(zhòng)要一步,也是美国在AI监 管上(shàng)迈出的(de)重要一步。

但是,加州AI安全法案饱受争议。斯坦福(fú)大(dà)学教(jiào)授李飞飞、Meta首(shǒu)席科学家杨立昆等人认为,该法(fǎ)案最(zuì)终将会损害加州乃至(zhì)美 国在AI领域的(de)领(lǐng)先地位,100多位学(xué)界(jiè)人(rén)士也发文反对,风投机构a16z专门(mén)建立网站细数法案六宗罪。

甚至前美国众议院(yuàn)议长南希·佩(pèi)洛西(xī)(Nancy Pelosi)也发声明反对此法案,认为加州AI安全法案 意图良好(hǎo)但缺乏充分了解,许多重(zhòng)要(yào)的加(jiā)州(zhōu)科技(jì)公(gōng)司学者和负(fù)责人都表(biǎo)示反对该法案,认为它弊大于利。

最新一个反对加州(zhōu) AI 法案的是OpenAI。OpenAI本周发文称,该立法将损(sǔn)害AI创新(xīn),并可(kě)能对(duì)美国在 AI 和国家安全方面的竞争力产生“广泛而重大(dà)”的影响。

然而,本吉奥却表示,加州AI安全(quán)法案避免了过于规(guī)定性(xìng),而是(shì)使用责(zé)任来确保AI公司(sī)不会忽(hū)视“合 理(lǐ)专(zhuān)家(jiā)会做的”安全预防措施。“它将为公司(sī)创造一个激励,使他们不会成(chéng)为班上最差的学生。”

本吉(jí)奥指出,围绕 AI 监管的讨论可能会受到风险投资家(jiā)和希 望从(cóng)该技术中(zhōng)获利(lì)的公司的影响。“你可以 将其与气候变(biàn)化、化(huà)石燃料公司等进行 类比,”他说。

“事实并(bìng)非如此,事实恰恰相反。它没有那么大的约束力。它并没有施加多大影响。它只是说:如(rú)果(guǒ)你造成了数十亿美元(yuán)的(de)损失,你就要负(fù)责。几十年(nián)来,整(zhěng)个计算领域在某种程 度上一直(zhí)不受任何形式的监(jiān)管(guǎn)。

我认(rèn)为(反对派)更多的是意识形态。我真的很担心游说(shuō)团体的力量以及 Ai 带来(lái)的数万亿甚至数千万亿的利润(加州大学伯(bó)克利(lì)分校教授、人工智能系统中心创始 人(rén)Stuart Russell表示(shì))会激励企业反对任何监管。”本(běn)吉奥表示。

谈到风险管控,本吉奥指出,“我认为自己(jǐ)对风险(xiǎn)持(chí)怀疑态度。我听(tīng)到过很多很好的论据,认为比我(wǒ)们(men)更聪明的(de)人工智能可能非常危险。甚至在(zài)它们比我们(men)更聪明之前,它们就可能被人类 以对民主极(jí)其危险的方(fāng)式使用。任何说他(tā)们知道的人都过于自信,因为(wèi)事实上(shàng),科学并没有答案。没(méi)有办法以可验证的方式回(huí)答(dá)。我们可以看到(dào)这样或那(nà)样的 论点,它(tā)们都(dōu)是合理的。但(dàn)是(shì)如果你是不可知论者,并且正在考虑(lǜ)政(zhèng)策,你(nǐ)需要保(bǎo)护公众免受(shòu)真正糟糕的(de)事(shì)情的伤害。这(zhè)就是政(zhèng)府在许多其他(tā)领域一直在做的事情。没有理由说他们不能在计算和 AI 领域做到(dào)这一点。”

本吉奥反复强调,他没(méi)想到(dào)人类会这么快掌握对(duì)话式AI语音技术,而且目前至少达到足够人性化的水平。

“我(wǒ)认为,对危(wēi)险(xiǎn)事物进行(xíng)快速创(chuàng)新的(de)渴望是不明智的(de)。在生物学领域,当研(yán)究人员发现通过所谓的功能获得研究可以制(zhì)造出危险的病毒时,他们一起(qǐ)决定,好吧,我们(men)不这么做了。让我们要求政(zhèng)府制定 规则,这样如果你这样(yàng)做,至少在不受(shòu)控制的(de)情况下,你就会进监狱。”本吉奥表示,“我相信你知道合成儿童色情制品,也许情感上不那么具有挑战(zhàn)性,但更重要的是,同样的深度伪造可能会扭曲 社(shè)会。那些深度伪造只会越来越好。声音会越来越好。视频会越来越(yuè)好。还有(yǒu)一(yī)件(jiàn)事人(rén)们谈论得不够:当前甚至未来的(de)系统说服人们改变想法的能力。就在几 个月(yuè)前,瑞士进行了一项最新研究(jiū),他们将 GPT-4 与人类进(jìn)行(xíng)了比较,看看谁能说服那些显然不(bù)知道自(zì)己是在和人交 谈还是在和机器交(jiāo)谈的人(rén)改变对某事的(de)看法。猜猜谁赢了。”

本吉奥指出,“我们应该在AI方面(miàn)采取类似(shì)的预防原则行为。”

展望未来,本吉奥强调,所有AI技术应用依 然会以健康 方式改变人类的生活方式。比如(rú)在(zài)生物(wù)学方 面(miàn),AI会了解身体如何运作、每 个细胞如何运作,这可能会彻底改变医学和药 物 研发(fā)等领(lǐng)域;气候(hòu)方面它可以帮助制造更好的电池、更好的碳捕获、更好的能量存 储。

“虽然还没有发生,但我认为这些都是我们可以用 AI 做出的很好的技术产品。顺便说一句,这些应用——它们大(dà)部分都不是危险的(de)。因 此,我们(men)应该(gāi)在这(zhè)些显然(rán)可以帮 助社会应对挑战的事情上(shàng)投入更(gèng)多。”本(běn)吉奥在对话(huà)结尾表示(shì)。

未经允许不得转载:橘子百科-橘子都知道 “AI教父”本吉奥:人类无法用10年时间解决AI风险和监管问题

评论

5+2=