一旦AI可以操纵我们看到的东西 感知就不会成为现实

发布时间:2023-11-13 16:47:13编辑:蒋桂来源:

今年3月,语音欺骗技术从一家能源公司毫无戒心的首席执行官那里窃取了25万美元,该首席执行官认为他正在与自己的老板通话。最近的一项研究表明,在阅读AI生成的新闻故事时,72%的人认为它是可信的。9月,智能手机应用Zao在中国引起了轰动。在政府突然禁止之前,赵无极允许人们无缝地融入著名的电影场景。

另一个臭名昭著的例子是众议院议长南希佩洛西。被篡改的视频在被发现之前就开始传播了,被人操纵让它看起来像喝醉了。

人工智能人工智能的最新进展大多来自于感知智能领域。这使得我们的设备可以查看(例如,识别朋友的脸)、聆听(以及识别歌曲),甚至解析文本(以及识别邮箱中电子邮件的大致意图)。今天的人工智能技术也可以产生这些感知——我们的设备可以产生从未存在过的场景和面孔,克隆声音以产生语音,甚至可以在收件箱中对电子邮件写下简洁(如果刻板的话)的回复。

这种产生感知的能力将AI置于充满希望和巨大危险的境地。合成媒体可以有许多有益的应用。毕竟引起观众怀疑的暂停是很多娱乐活动的基石。但正是这种技术的潜在滥用,尤其是以“深度造假”的名义,引起了人们的警觉。

如果感知是现实,那么当AI可以产生或操纵感知时,现实会发生什么?虽然伪造、造假、欺骗在人类很多历史上都有,但都必须手工制作……直到现在。感知人工智能技术的出现大大减少了生产令人信服的假货所需的工作。正如我们所看到的,Zao应用程序允许非专业用户将自己切换到电影场景中。而且随着技术的发展,发现假货会变得更加困难。

如“哪张脸是真的?”已经表明,大多数人无法区分AI生成的图像和真实图像。

合成媒体的容易生产和广泛传播将对民间社会的许多方面产生相当严重的不利影响。你可以通过传播深度虚假视频来操纵选举,从而使一些候选人处于不利地位。骗人的语音视频电话,会释放出大量新的消费骗局。将人的肖像插入泄露的(有时是色情的)图片和视频会侵犯个人隐私。

在应对这种基于人工智能的合成媒体的影响时,我们有什么选择?首先,人工智能技术本身可以利用当前人工智能技术中已知的缺陷,帮助我们检测深度伪造;一些技术可以发现伪造的文本、语音、图像和视频。例如,在图像的情况下,伪造可以通过不可检测的像素级缺陷或背景不一致来检测;对于大多数伪造的生成器来说,很难正确获取背景细节。

几乎同样的道理,当我们想起早晨的梦时,无意义的部分通常不是人的脸,而是背景故事。要检测人的虚假视频,请使用当前的技术,重点关注原说话人的嘴唇运动、声音模式和手势之间的相关性。一旦检测到,