“AI教父”本吉奥发声:人类可能无法用10年时间解决AI风险和政策监管问题
钛媒体App 8月24日消息,被誉为“AI教父”的加拿大计算机科学家、深度学习技术先驱、2018年图灵奖得主约书亚·本吉奥(Yoshua Bengio)公开表示,随着ChatGPT的推出,AI技术风险的时间被压缩,不幸的是,我们无法利用十年的时间解决AI风险和政策监管问题,而是更短的时间,因此行业需要马上行动,加快AI安全政策落地。
“制定政策需要花费大量时间,它需要解决多年分歧,像这样的立法都需要数年时间才能颁布,需要建立一些流程,需很多年时间才能真正做好这个工作,”本吉奥对彭博社表示,他现在担心可能没有太多时间来“做好这件事”。而且更糟糕的是,AI风险这不仅是监管问题,它更是国际条约,大家需要在全球范围内解决这个问题。
据悉,本吉奥出生于巴黎,成长于加拿大,现居加拿大蒙特利尔,在蒙特利尔大学(University of Montreal)计算机科学与运算系任教授。他于1991年获得加拿大麦吉尔大学计算机科学博士学位。本吉奥的主要研究领域是深度学习和自然语言处理。
30余年的深度学习研究生涯里,本吉奥发表了300多篇学术论文,累计被引用次数超13.8万次。吴恩达曾表示,本吉奥的许多理论研究对他有很大启发。
2018年,他与“神经网络之父”Geoffrey Hinton和“卷积网络之父”Yann LeCun三人因开拓深度学习技术理论而获得“图灵奖”,他们三位也被 AI 行业称为“AI 三巨头”、“深度学习三巨头”、“三大AI教父”。
作为“深度学习三巨头”之一的本吉奥曾指出,AI一词正在被滥用,有些公司拟人化了AI系统,仿佛AI系统是与人类相当的智慧实体,但其实目前还没有出现与人类智慧相当的实体。当然,他依然爱 AI 这一技术。
本吉奥表示,在2022年底ChatGPT出现之前,他认为真正的 AI 风险至少还要几十年才会出现,他曾经有一段时间并不怎么担心AI安全问题,并且认为人类距离开发出能够与人类匹敌的 AI 技术还有“几十年的时间”,他假设我们可以在面对风险之前“收获AI的好处”多年。
但现在,ChatGPT的推出完全改变了他的想法。他不再那么确定了。他对AI发展速度的假设——以及技术对社会构成的潜在威胁——在2022年底OpenAI发布ChatGPT后被颠覆了,因为人类水平的 AI 技术已经到来。
“自从我们最终拥有了能够与我们对话的机器(ChatGPT)后,我完全改变了我的想法,”本吉奥表示,“我们现在有了能够掌握语言的AI机器。我们没想到会这么快就做到这一点。我认为没有人真正预料到这一点,即使是构建这些系统的人。你可以看到,人们认为我们可能还需要几年、几十年甚至更长时间才能达到人类水平的智能。人们普遍认为,一旦我们达到人类水平的智能,就很难预测会发生什么——我们最终会得到非常非常好的东西还是非常非常坏的东西,以及我们该如何应对。有很多不确定性。这正是我目前在科学和政策方面工作的动力。”
在ChatGPT引发全球关于 AI 风险的讨论之后,本吉奥开始投入更多的精力倡导AI监管,并且与同为学术界和 AI 先驱的Geoffrey Hinton一起公开支持一项有争议的加州 AI 安全法案SB1047,该法案将使公司在不采取安全预防措施的情况下,对其AI模型造成的灾难性伤害承担责任。
本吉奥认为,这是“桌上第二重要的提案”,仅次于欧盟的AI法案。
当地时间8月15日,饱受争议的美国加州《前沿AI模型安全创新法案》(后称加州AI安全法案SB 1047)在大幅度削弱相关条款之后,最终顺利通过加州众议院拨款委员会的审核。
SB 1047旨在通过追究开发者的责任来防止大型 AI 系统造成大量人员死亡或造成损失超过 5 亿美元的网络安全事件。顺利通过审核之后,这意味着,该法案朝着成为正式法律法规迈出了重要一步,也是美国在AI监管上迈出的重要一步。
但是,加州AI安全法案饱受争议。斯坦福大学教授李飞飞、meta首席科学家杨立昆等人认为,该法案最终将会损害加州乃至美国在AI领域的领先地位,100多位学界人士也发文反对,风投机构a16z专门建立网站细数法案六宗罪。
甚至前美国众议院议长南希·佩洛西(Nancy Pelosi)也发声明反对此法案,认为加州AI安全法案意图良好但缺乏充分了解,许多重要的加州科技公司学者和负责人都表示反对该法案,认为它弊大于利。
最新一个反对加州 AI 法案的是OpenAI。OpenAI本周发文称,该立法将损害AI创新,并可能对美国在 AI 和国家安全方面的竞争力产生“广泛而重大”的影响。
然而,本吉奥却表示,加州AI安全法案避免了过于规定性,而是使用责任来确保AI公司不会忽视“合理专家会做的”安全预防措施。“它将为公司创造一个激励,使他们不会成为班上最差的学生。”
本吉奥指出,围绕 AI 监管的讨论可能会受到风险投资家和希望从该技术中获利的公司的影响。“你可以将其与气候变化、化石燃料公司等进行类比,”他说。
“事实并非如此,事实恰恰相反。它没有那么大的约束力。它并没有施加多大影响。它只是说:如果你造成了数十亿美元的损失,你就要负责。几十年来,整个计算领域在某种程度上一直不受任何形式的监管。我认为(反对派)更多的是意识形态。我真的很担心游说团体的力量以及 Ai 带来的数万亿甚至数千万亿的利润(加州大学伯克利分校教授、人工智能系统中心创始人Stuart Russell表示)会激励企业反对任何监管。”本吉奥表示。
谈到风险管控,本吉奥指出,“我认为自己对风险持怀疑态度。我听到过很多很好的论据,认为比我们更聪明的人工智能可能非常危险。甚至在它们比我们更聪明之前,它们就可能被人类以对民主极其危险的方式使用。任何说他们知道的人都过于自信,因为事实上,科学并没有答案。没有办法以可验证的方式回答。我们可以看到这样或那样的论点,它们都是合理的。但是如果你是不可知论者,并且正在考虑政策,你需要保护公众免受真正糟糕的事情的伤害。这就是政府在许多其他领域一直在做的事情。没有理由说他们不能在计算和 AI 领域做到这一点。”
本吉奥反复强调,他没想到人类会这么快掌握对话式AI语音技术,而且目前至少达到足够人性化的水平。
“我认为,对危险事物进行快速创新的渴望是不明智的。在生物学领域,当研究人员发现通过所谓的功能获得研究可以制造出危险的病毒时,他们一起决定,好吧,我们不这么做了。让我们要求政府制定规则,这样如果你这样做,至少在不受控制的情况下,你就会进监狱。”本吉奥表示,“我相信你知道合成儿童色情制品,也许情感上不那么具有挑战性,但更重要的是,同样的深度伪造可能会扭曲社会。那些深度伪造只会越来越好。声音会越来越好。视频会越来越好。还有一件事人们谈论得不够:当前甚至未来的系统说服人们改变想法的能力。就在几个月前,瑞士进行了一项最新研究,他们将 GPT-4 与人类进行了比较,看看谁能说服那些显然不知道自己是在和人交谈还是在和机器交谈的人改变对某事的看法。猜猜谁赢了。”
本吉奥指出,“我们应该在AI方面采取类似的预防原则行为。”
展望未来,本吉奥强调,所有AI技术应用依然会以健康方式改变人类的生活方式。比如在生物学方面,AI会了解身体如何运作、每个细胞如何运作,这可能会彻底改变医学和药物研发等领域;气候方面它可以帮助制造更好的电池、更好的碳捕获、更好的能量存储。
“虽然还没有发生,但我认为这些都是我们可以用 AI 做出的很好的技术产品。顺便说一句,这些应用——它们大部分都不是危险的。因此,我们应该在这些显然可以帮助社会应对挑战的事情上投入更多。”本吉奥在对话结尾表示。
(本文首发于钛媒体App,作者|林志佳,编辑|胡润峰)
本文 狮子狗个人网站 原创,转载保留链接!网址:https://m.9377news.com/post/2141.html
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。