骗人还是文字强:eepake换脸还不如编辑动动笔

不过MIT的最新研究表明,伪造文字信息的破坏力要远高过伪造的图片或视频。这与传播领域的旧观点相反,过往学界认为当同一版本的内容以视频而不是文本形式呈现时,人们会更容易被假消息欺骗。

DeepFake还是太“年轻”

超现实视觉效果技术的最新进展引发了人们的担忧,即政治演讲的DeepFake视频很快将与真实的视频在视觉上无法区分。然而,视听信息如何影响人们对假消息的易感性,针对此项目的实证研究很少。

最近,MIT媒体实验室的科学家向5727人展示了16篇真实的政治演讲片段和16篇被DeepFake加工篡改过的演讲片段。声音片段以文本、视频和音频的排列形式呈现,例如带有字幕的视频等。

受试者被告知其中一半的内容是假的,并被询问他们认为其中哪些片段是伪造的。

在仅显示文本时,受访者在识别谎言(57% 的准确率)方面仅比随机猜测好一点。当给出带字幕的视频时,受访者的猜测更准确(66%),而在同时显示视频和音频时更成功(82%)。

也就是说,受试者在观看视频或听音频时比阅读文字记录时更能识别事件是否真的发生。

这些发现还表明,普通人有时(但并非总是)能够识别出由DeepFake同步变造产生的视觉失真效果。

按照论文作者的解释,受试者的判断基础更多依赖于内容表达的方式而非内容本身。

受试者在带音轨视频上的判断率比无声视频更准确、在无声视频上的判断率又比文字更准确,是因为影、音、文字三种载体中,影、音除了内容本身,还有说话人的各种微小表情、动作、语音模式等方面的细微差异。

如果旁观者无法观察这些细微差异,光从书面文字上判定何为真实演讲、何为AI生成,准确率是只能达到一半一半的抛硬币程度。

论文作者称:“伪造的政治演讲视频比伪造的文字记录更容易识别,这一发现强调了重新让人们忆起常被遗忘的‘眼见为实’格言的必要性。”

不过此研究有明显局限:研究者生成的DeepFake材料并不是真实性超级出众的。研究者自己都警告:“真正危险的伪造视频,可能并不是普通算法随便生成的DeepFake视频,而是经过精加工、极引人入信的单一视频。”

总统DeepFake数据集中的32个视频

在当下时局中,这一警示尤有现实意义。这些担忧可以理解,不过当下散播的各种假消息还几乎没用到DeepFake技术。

按《今日美国》事实核查组的成员称,在动荡时局中,造假者搜索、剪裁旧的影音材料,安上时下新消息的名目再贴出,这种造假行为的难度比DeepFake低多了。例如,一段TikTok视频声称展示了最近在乌克兰发生的爆炸,但实际来源在1月份就已经有了。

正如本研究所揭示的,DeepFake可能会影响公众事件的结果,但彻头彻尾的谎言和简单剪切编辑,是传播假消息的更为突出的形式。

当然,这并不意味着DeepFake没有危险。只不过更原始的欺骗技术可能威胁更大。

补充实验

与不同演讲和模式条件下准确性的高变异性相比,受试者的确信程度变化较小。

在文字记录中,受试者的平均确信度为81%。在视频和音频呈现的演讲上,受试者的确信度分别提高了6%和9%。如果把所有内容都提供给受试者,则可以让确信度提高12%。

也就是说当受试者通过视频和音频接收到更多的信息时,受试者的加权准确性、确信度、对捏造的演讲的辨别力和对真实演讲的辨别力都会平均增加。

不过,研究人员发现字幕似乎对结果并没有明显的影响。

受试者反应时间的中位数是24秒,比视频的平均长度长3秒。无声的、有字幕的视频的反应时间中位数是31秒,比其他所有模式条件的反应时间略长。在所有7种模式条件下,受试者对伪造内容的反应时间比真实内容要短。其中,文字、视频和音频分别为3.8秒、2.5秒和3.7秒。

此外研究人员发现,相对于所有其他模式的条件,受试者对识别文字记录的真实性有更大的偏差。

下图a显示,受试者对文字稿的准确度大多低于无声的字幕视频。同样地,c显示受试者对有声视频的准确率始终高于无声字幕视频。与此相反,b显示了受试者在有字幕和无字幕的情况下表现的异质性。

受试者对32个演讲中的每个演讲的文字记录、无声视频和有声视频判断的准确性

总的来说,信息载体的确影响辨别准确性:受试者在判断有音频的视频时,比无声视频更准确;在判断无声视频时,比文本记录更准确。同时,研究者发现受试者更多地依赖于说话人的语言方式、微表情、动作等视听线索,而非内容本身来判断。

评估伪造和非伪造演讲之间的这种难度上的不对称加剧了“说谎者的红利”,即消息会被伪造的普遍可能性,会让公众质疑所有消息都是伪造的,从而使撒谎者能够避免对真实的负面新闻负责。

不过,研究者发现当演讲与政治家固有的公众印象不符时,会降低参与者对视觉线索的依赖。演讲者所说的话与受试者对说话者的期望相匹配的程度,被研究者称为“期望违反启发式”。

用白话说,越笨、越不动脑子的人,越容易单纯取信于政客演讲的内容,而不观察政客说话时的表情与动作。

如何辨别

MIT的研究人员从100,000个DeepFake视频和19,154个在公开的Kaggle竞赛中,训练了一系列神经网络来检测DeepFake。

根据机器学习模型的表现,研究人员筛选出了3000个最容易被误判的视频。这些视频不仅仅是机器学习模型难以辨别的,而且对许多人来说也很难辨别真假。

研究人员认为,多接触被DeepFake编辑了的视频可以提高人们的判断力。于是便建立了之前提到的“Detect Fakes”网站,并公开展示了数千个高质量的DeepFake和真实视频。

虽然不能靠着单一的线索来辨别哪个是假的,不过可以留意一下以下这8个要点。

注意脸部:DeepFake几乎都是面部改造。

注意脸颊和额头:皮肤是否显得太光滑或皱纹过多?皮肤的老化程度是否与头发和眼睛的老化程度相似?DeepFake在某些方面往往是不协调的。

请注意眼睛和眉毛:阴影是否出现在应该出现的地方?DeepFake往往不能对真实的物理学进行重现。

注意眼镜:是否存在眩光,还是眩光过多?移动时,眩光的角度是否改变?再一次,DeepFake表现出了物理学方面的弱点。

注意面部的毛发:看起来是否真实?DeepFake可能会添加或去掉鬓角或胡须,但通常会有违和感。

THE END
0.换脸软件ZAO一夜火爆朋友圈版权和隐私问题不容忽视隐私新浪财经换句话说,“ZAO”背后的大老板其实就是著名线上交友软件“陌陌”。 值得一提的是,ZAO的开发商显示为“长沙深度融合网络科技有限公司”,而陌陌创始人兼CEO唐岩本人就是湖南人。 换脸早在2017年就火爆全球 其实,AI换脸视频并不是新鲜事了。 早在2017年12月,国外某ID名为“deepfakes”的Reddit论坛用户首次将自己制jvzq<84hkpgoen3ukpg/exr0ep5djjslkpm0e‚}y1462;65:/570fxh/kkif|ƒws46=989<0ujznn
1.Deepfake2020发展报告:AI换脸术滥用肆无忌惮,但技术仍很“菜对于真正无缝的 Deepfake,这样的工具可以提供高质量的脸部生成,但你仍然需要一些视频编辑软件的经验(如 Adobe After Effects),将它们添加到视频中。如果你没有意愿或能力自己制作,你甚至可以找到一些服务和市场来帮你制作 Deepfake。一个例子是https://Deepfakesweb.com/,你只需要上传你想要的视频和图片,就会在云端为jvzquC41yy}/kwkqs0io1jwvkerf1^3:
2.kpopdeepfakes换脸Deepfakes教程及各个换脸软件下载 源:https://blog.csdn.net/koest/article/details/80720078 Deepfakes目前用于深度换脸的程序基本都是用python编程语言基于tensorflow进行计算.以下列出几款常用的换脸程序优缺点浅析,用户可以根据自己的爱好和水平来选择,以下软件均需要先安装windows 版本的 VS2015,CUDA9.0和CuDNN7.0.5jvzquC41yy}/uqz|jkjvq7hqo1zprrh1mruqfnjrhcqfu.J8':J&C;*G:'>5'K=1
3.黑客用AI换脸技术应聘人工智能安全问题不容忽视你是不是也很好奇,这软件这么好用吗? 答案是,的确很高级。 Deepfake利用生成对抗网络(GAN)强大的图像生成能力,可以将任意的现有图像和视频组合并叠加到源图像和视频上,它可以记录一个人面部的细节。经过多年的发展,Deepfake技术已经可以进行实时换脸,并且毫无违和感。 jvzquC41yy}/d~ucskgoi7hqo1}fdjv144;20qyon
4.秒杀Deepfake!微软北大提出AI换脸工具FaceShifter和假脸检测工具Face微软北大提出AI换脸工具FaceShifter和假脸检测工具Face X-Ray 最先进的AI和机器学习算法不仅可以生成栩栩如生的位置和物体的图像,还擅长将人脸头像从一个人换成另一个人的。另一方面,研究人员也在不断开发能够检测deepfake假图像的识别工具。这场在机器学习图像识别领域的“矛与盾”之争愈演愈烈。jvzquC41vgii0|npc0ipo7hp1eyk1;542/62/9<1fqi.krmp|jnb2A;946
5.游戏下载软件下载BT变态版手游大全下载07076下载站提供新鲜的好玩的手机软件下载、游戏下载、单机游戏网络游戏、手游公益服、BT手游,海量APP应用免费下载,汇集各类游戏软件合集,专区等,供网友们更好找到绿色放心的资源。jvzquC41yy}/2@5980io1
6.AI换脸软件ZAO刷屏背后:女星AI换脸视频售价49元AI换脸视频制作成早在今年年初,一段通过AI技术将《射雕英雄传》中朱茵脸部替换成杨幂的视频在网络引起热议。记者搜索发现,视频网站哔哩哔哩(B站)上存在大量AI换脸视频,且人气较高。其中,一个将蔡徐坤脸部替换成前网络游戏主播卢本伟的视频,播放量达到253.1万。 根据《纽约时报》报道,Deepfake指的是用人工智能软件制作的虚假视频,由FakeApjvzquC41kv4djrscktt/exr1pg}t1;53;2?1586832;47=70jvsm
7.​AI换脸技术原理是什么?识别DeepFakes深度造假的创新正在涌现微软发布了一款深度商业造假检测工具,该工具可分析视频帧,并生成一个软件可信度评分,验证视频帧是真实的还是人工智能造假的。 来自英特尔和宾厄姆顿大学的图形和图像计算实验室的研究团队开发了一种工具,该工具利用生物信号和数据来识别和分类DeepFakes深度造假,准确率高达96%。该工具基于的想法是,虽然面部视频可以合成,但jvzquC41dcoew6rkr0~jcwokejooc7hqo1yqglncn1jfvjnna768:>;0jvsm
8.DeepFakes深度造假,如何识破“AI换脸术”?DeepFakes深度造假,如何识破“AI换脸术”? 极客网·人工智能5月17日我们正处在一个越来越容易制造虚假信息的时代。深度造假(Deepfakes)、扩散模型、生成对抗网络(GAN)以及其他AI技术被居心不良者用于伪造照片和视频,或者创建从未发生过的事件的一些照片或视频。jvzquC41yy}/h{toigkl0lto1co07<787;4ivvq
9.看完这个视频,发誓再也不当榜一大哥了deepfakevfx本文介绍了AI界流行的DeepFaceLive软件,它基于DeepFaceLab,能进行实时换脸,用于视频通话、直播和面部动画。通过深度学习技术,该软件从源视频和目标视频中分离面孔并进行合成,提供高保真体验。 最近在AI界有个视频很火,网友看完之后表示:十年前担心网友是抠脚大汉,十年后担心网友是抠脸大汉。 jvzquC41dnuh0lxfp0tfv8xrgeytu|4ctvodnn4fgvgjn|435:844B62