虚假内容越来越难以检测,但“人工智能教父”Hinton有一个让它变得更容易的想法
人工智能先驱杰弗里·辛顿表示,将人工智能技术生成的视频、声音和图像与真实材料区分开来越来越困难,但他有一个想法可以帮助这场战斗。
本文可以免费阅读注册解锁。
创建一个帐户或登录继续你的阅读体验。
使用一个帐户访问来自加拿大各地的文章
分享你的想法并加入我们评论里的对话
享受additio每月文章数
获取电子邮件更新来自你最喜欢的作家
或
这场斗争愈演愈烈,促使这位英裔加拿大计算机科学家、最近获得诺贝尔奖的人对世界应对虚假内容的看法发生了转变。
“有一段时间,我认为我们可能能够给人工智能生成的东西贴上标签,”辛顿周一在首届辛顿讲座上说。
“我认为,现在更合理的方法是,通过输入代码,访问一些网站,在网站上看到同样的东西,就能识别出这些东西是真实的。”
他认为,这种方法可以验证内容的真实性,并认为在政治视频广告方面,这种方法可能特别方便。
辛顿解释说:“你可以在它们里面放上二维码(把你带到)一个网站,如果那个网站上有一模一样的视频,你所要做的就是知道那个网站是真的。”
今年4月,多伦多城市大学(Toronto Metropolitan University)公共政策机构Dais对2501名加拿大人进行的一项调查显示,大多数加拿大人都在网上发现过深度造假,近四分之一的人每周都会遇到这种情况。
深度造假是用数字技术处理的图像或视频,描绘没有发生过的场景。最近的深度假照片中,教皇弗朗西斯穿着巴黎世家羽绒服,流行歌手泰勒·斯威夫特摆出露骨的性感姿势。
辛顿讲座是全球风险研究所本周在多伦多约翰·w·h·巴塞特剧院举办的为期两晚的活动。
第一个晚上,常被称为人工智能教父的辛顿在台上简短地提醒观众,过去几年他一直在警告公众,这项技术会带来一连串的风险。他认为人工智能可能导致或促成意外灾难、失业、网络犯罪、歧视以及生物和生存威胁。
然而,当晚的大部分时间都花在了来自加州大学伯克利分校电子工程、计算机科学和统计学助理教授雅各布·斯坦哈特(Jacob Steinhardt)的演讲上。
斯坦哈特告诉观众,他相信人工智能的发展速度将超过许多人的预期,但在此过程中也会有惊喜。
他设想,到2030年,人工智能在数学、编程和黑客方面将成为“超人”。
他还认为,支撑人工智能系统的大型语言模型可能会变得有说服或操纵的能力。
斯坦哈特说:“如果有人试图训练(他们)的说服力,可能是一家不道德的公司,也可能是一个关心说服公民的政府,这是一个很大的空间。”“你可以做很多事情。”
他告诉观众,他认为自己是一个“忧心忡忡的乐观主义者”,他认为这项技术有10%的可能性会导致人类灭绝,有50%的可能性会带来巨大的经济价值和“彻底的繁荣”。
在随后的新闻发布会上,当被问及斯坦哈特的“忧虑乐观主义者”标签时,辛顿称自己为“忧虑悲观主义者”。
Hinton说:“有研究表明,如果你让人们估计风险,正常、健康的人往往会低估真正不好的事情的风险……而正确估计风险的人是轻度抑郁的人。”
“我认为自己就是其中之一,我认为风险比雅各布(斯坦哈特)认为的要高一些,比方说20%左右。”
辛顿还在新闻发布会上分享了更多关于他和普林斯顿大学研究员约翰·霍普菲尔德(John Hopfield)在本月早些时候获得诺贝尔物理学奖时获得的1100万瑞典克朗(约合135万加元)奖金的一半的事情。
辛顿说,他已经把一半奖金捐给了安大略省克里莫尔市的Water First公司。组织培训土著社区如何发展和提供安全供水系统。
他最初考虑把一部分钱捐给马特·达蒙(Matt Damon)在非洲参与的一个水组织,但后来他说他的搭档问他:“那加拿大呢?”
这让辛顿发现了水第一。他说,他是被迫捐款的,因为他在许多活动开始时听到的土地承认。
“我认为他们认识到(谁先住在这片土地上)是件好事,但这并不能阻止土著儿童腹泻,”他说。
辛顿此前表示,他的部分奖金也将直接捐给一个为神经多样性年轻人提供就业机会的组织。
相关文章
发表评论