Deepfakes正在全球范围内制造混乱,传播假新闻和色情,被用来窃取身份,剥削名人,欺骗普通人,甚至影响选举
然而,一项全球调查发现,71%的人不知道deepfakes是什么
Deepfakes是真实人物的数字照片、视频或声音,它们要么是使用人工智能(AI)合成或操纵的,很难与真实事物区分开来
你可能在没有意识到的情况下看到过深度伪造的视频或照片。计算机生成的Tom Cruises、Taylor Swifts和Mark Zuckerbergs已经在互联网上流传了几年,但一开始只是一点无害的乐趣,现在变得更加严肃了
今年早些时候,香港一家跨国公司的一名财务人员被诱骗向骗子支付3900万澳元,这些骗子在视频会议中使用deepfake技术冒充该公司的首席财务官
2022年,乌克兰总统弗拉基米尔·泽连斯基的一段假视频曝光,虚假描述他敦促军队向入侵的俄罗斯军队投降。虽然这很快被乌克兰领导人关闭,但人们确实担心deepfakes会在今年的多场竞选活动中传播虚假信息和阴谋论,包括在美国、英国、印度和俄罗斯
澳大利亚国防部长安格斯·坎贝尔表示担心,世界正在进入“真相腐朽的时代”,在这个时代,错误信息会通过挑拨离间和不信任来破坏民主
Campbell在2023年的一次国防会议上表示,人工智能和深度伪造将“严重损害公众对民选官员的信心”,使大多数人无法区分事实和虚构
多年来,计算机科学家;包括UniSA STEM中的那些;一直在开发新的人工智能技术,以帮助应对工业、医疗保健、工程和国防领域的重要挑战
通过机器学习和深度神经网络的进步,他们已经将这项技术用于好的方面—但一直以来,怀有恶意的人(业内称为“坏人”)都有可能将其转化为自己的优势。输入deepfakes
在本专题中,Wolfgang Mayer副教授和Javaan Chahl教授提供了他们对deepfakes的看法
Wolfgang Mayer副教授,UniSA计算机科学家和人工智能专家
Q:通过机器学习和人工智能的进步,Deepfakes是可能的。由于这项技术,我们取得了哪些积极的成果,这能抵消危险的用途吗
世代人工智能技术总是有好的用途和坏的用途
我们在媒体上听到很多关于生成性人工智能如何被用于有害目的的报道,但它在世界上做的好事多于坏事。如果你考虑自动驾驶汽车来避免事故,并允许残疾人自由活动,这只有通过人工智能和机器学习才能实现
这项技术使我们能够加快医学健康研究,更早地发现疾病;它也是建筑和工程中的一个强大工具,可以解放平凡的任务,最大限度地减少错误;它是计算机视觉系统的基础。积极的作用远远大于消极的作用
然而,毫无疑问,deepfakes正在引发问题。宣传和错误信息的问题并不是什么新鲜事,但由于deepfakes,它现在的规模有所不同
Q:大多数人会认为人工智能只有计算机科学家、专业IT工程师才能理解,而不是普通人。是吗
构建受大脑启发的系统是一个复杂的过程,但现在使用这些系统相对容易—这就是deepfakes激增的原因。这些系统已经变得足够强大,我们不需要成为机器学习专家来使用它们。这只是下载一个由科技公司开发的应用程序的问题
Q:在真实的人工智能图像上添加数字水印是否有助于解决deepfakes的扩散问题
不。这可能会阻止最简单的用户,但严肃的用户将能够在不添加水印的情况下复制这项技术。随着生成人工智能的质量提高,检测假照片、视频和克隆语音将变得更加困难
Q:你有哪些方法可以发现deepfakes
这可能很棘手,这取决于某人为创建deepfake付出了多少努力。合成双手总是很困难,而且嘴唇往往与视频中的声音不同步。然而,在视频会议中复制人脸要容易得多。我认为最终很难根据外观发现deepfakes。我们需要依赖于所说的话,情况如何,以及在某种程度上是否奇怪
Q:人们能做些什么来保护自己不成为deepfakes的目标
除非你身居要职或名人之位,否则你可能不会有被复制的风险。然而,人们需要小心他们在网上发布的内容,因为所有这些数据都可以用来模仿我们。
如果我把所有的讲义都放在网上,那么生成一个虚拟的Wolfgang来给我讲课就不会那么困难了,但幸运的是,他们是在付费墙后面。最好从其他来源核实您是否看到或听到了什么;尤其是在社交媒体上;事实上是准确的
Javaan Chahl教授,DST/UniSA传感器系统联合主席
Q:deepfakes会对政府产生什么影响?它们会侵蚀对我们领导人的信任和信心吗
政府和政客们已经在破坏民主。在每一次竞选活动的边缘,特别是在过去十年中,都有假传单;政客们所说的话后来被证明是极其错误的。那场比赛已经进行得很顺利了
为了减轻人们对deepfakes的恐慌感,来自更高层的错误信息已经持续了很长一段时间。政府高层可能担心人工智能的使用,是因为他们过去对信息有过控制,他们可以决定告诉你什么。现在,不露面的人可能会开始向系统中发送嘈杂的信号,并造成混乱
在澳大利亚,我们与权力的关系是不信任的,而且一直如此。我不认为人们像领导人认为的那样信任领导,而deepfakes的渗透意味着他们将不得不更加努力地向公众保证他们说的是实话。这不是一件坏事
Q:媒体在确保他们不传播deepfakes方面扮演什么角色
新闻媒体已经在使用ChatGPT来撰写他们的故事,所以如果人们完全不再信任他们,也不要感到惊讶。无论如何,观众应该质疑他们在社交媒体和主流新闻频道上看到的每一段视频,因为这些视频通常只包括适合他们叙事的片段
近年来,新闻媒体变得更加党派化,即使没有deepfakes的渗透,这也在侵蚀公众的信任。如果媒体想得到信任,就需要采取无党派立场,更多地依赖事实,并开始核实媒体的来源
Q:由于人工智能,我们是否正在进入一个很难将事实与虚构区分开来的时代
人们不会自动相信他们从数字媒体上看到、阅读或听到的内容可能是一件好事。我们需要更多的批判性思维,而不是表面上接受一切。我的建议是质疑你在社交媒体或新闻上看到的任何东西,除非你认识拍摄者,并且你含蓄地信任他们
即使是未经数字处理的图像和视频也可能包含宣传形式的虚假信息,因此人们应该像对待电影一样对待所有视频,这本质上是创造一个不同程度上与现实世界相似的人工世界的练习
Q:我们应该担心deepfakes和人工智能渗透到我们的国防军并对我们的国家安全构成威胁吗
虚假信息已经存在了几十年—现在只是形式不同了。过去,敌对政权利用知识分子常见的人格缺陷,输出聪明、诱人和分裂的意识形态。在这些政权消失很久之后,这些破坏稳定的行动仍在进行
现在我们有非常复杂的技术,这些技术正以网络战的形式部署,为战略或军事目的破坏重要的计算机系统,以及削弱社会凝聚力的深度伪造技术。这一切都是关于信息的操纵,而信息一直是冲突的一部分
Q:像你这样的研究人员能做些什么来解决deepfakes问题,还是我们只是在打一场失败的仗
现在,我们可以使用计算机视觉技术读取视频上的生命体征,看看它是否是假的。我们知道deepfake视频除了呼吸和心率之外,还有不规则的生命体征;比如血氧饱和度、血压、体温等可以表明它是否是假的东西。这可能会为我们争取几年的时间,但最终这些视频的质量只能与导致视频的人类监管链一样好
想要了解更多关于脑机接口技术的内容,请关注脑机网,我们将定期发布最新的研究成果和应用案例,让您第一时间了解脑机接口技术的最新进展。