换脸软件背后的隐忧:生物信息收集和视频伪造

换脸软件背后的隐忧:生物信息收集和视频伪造

扫一扫下载界面新闻APP

大规模收集生物识别信息和Deepfake,本身都是现有技术的自然延申,可二者产生的影响可能是深远、不可逆的。对于ZAO这样的换脸APP,应该更严肃地对待、更严格地监管。

作者王新锐为北京市安理律师事务所高级合伙人

像ZAO这样的换脸App在国内外社交网络上的走红在意料之中。

用户从下载App,到生成量身定制、有强烈的代入感的视频、音频,短则几秒钟、长则数十分钟,既有趣也操作简单,只要技术过关,想不流行都难。这就好比平时只买大众服装品牌的人,突然有机会免费尝试一下高级订制的服务,短暂体验明星的待遇,自然抵挡不住诱惑。

然而这其实是一场复杂的魔鬼交易,只是包括App的开发者在内,并没有意识到魔鬼在谁、隐藏在哪里。评论者多聚焦于对用户协议或隐私政策的批评,或者对知识产权、肖像权的侵犯,这当然有道理,但笔者认为这些权利义务失衡的条款及侵权行为被司法和监管纠正并不困难,在现有法律框架下也有成熟的方案。换脸、换声这类APP最大的问题在于其大规模收集的生物识别信息如果发生泄露及滥用,会造成各种欺诈和造假。社会各界应对此问题高度重视,加强监管。

静态或动态的人脸信息(ZAO都会向用户收集)以及指纹、声纹、虹膜属于生物识别信息,在各国的立法中通常都属于个人敏感信息。其之所以敏感,在于天然能够真正识别个人身份且终身无法更改(毁容之类的特例除外),而且除了指纹外容易以非接触的方式收集。从某种程度上说,这些生物识别信息真正定义了我们每个人。

生物识别信息的不同类别,又有所区别,其中人脸信息的公开性更强,也更容易被收集,目前在国际上加强监管的趋势也更明显。多国都在开始进行立法,强化对人脸信息收集以及识别技术应用场景的约束。

生物识别信息的收集和利用,具有很大的不对称性,个人得到的可能仅仅是一个带有娱乐性的视频片段,收集者却掌握了个人最基础的信息。技术都很难做到万无一失,但生物识别信息一旦泄露,真的是“一失万无”,缺乏救济渠道。邮箱密码、电话号码泄露了,还可以更改,但人脸、声纹、虹膜等信息泄露后,却没有办法进行更改,个人几乎终生暴露在被攻击和骚扰的风险中。

当提到技术带来的风险时,一定会有人指出创新的价值以及技术的中立性。然而需要看到的是,技术并不是天然具有中立性,有的技术天然具有破坏性、伤害性,虽然也有正面价值,但在一些场景下其带来的风险可能涉及人类的底线,在没有进行审慎的论证和评估前,不应该大规模应用或扩散。这就像很多青少年都玩过弹弓甚至弓箭,虽然也会造成损失,但完全可控;但如果给每人发一只自动步枪,无疑会带来巨大的混乱。

加强监管也不意味着阻碍技术进步,而是在风险较高的领域、场景进行更充分的防范,这样也不会让技术本身被污名化,引发更高的监管压力。比如生物识别信息既可以用于安防、反欺诈,也可以用于造假、监视、强化歧视。这就要求在源头上就要加以限制,必须考虑收集信息的目的是否正当、必要,不能“为了芝麻,要个西瓜”。

在国内外,对于收集生物识别信息的监管和立法已经有不少,如美国有多个州通过了与生物识别信息有关的法案,欧盟GDPR对于生物识别信息的收集也有相应的严格要求。尽管有不同的思路,但基本思路都是一致的,必须保证透明性,让用户清楚了解后果并明确同意,同时有权要求更正或删除该类信息;收集者只有在必要的情况下才能收集生物识别信息,并尽量不存储原始信息,同时负有较高的义务保护这些信息的安全,绝对不能滥用。除了政府监管以外,涉及生物识别信息的企业也需要建立行业自律,对于害群之马建立某种淘汰机制。除此以外,对于生物识别信息的收集者,是否应当采取备案或登记制度,人脸识别技术在哪些特定场景下应被禁止,以保护个人的基本权利,都是很值得讨论的话题。

生物识别信息需要重视,也和快速发展的deepfake技术有关。当不可修改的生物识别信息遇上几乎可以以假乱真的视频、音频伪造技术,对很多普通人都是灾难。

在2017年年底,一个名为“Deepfake” (意为深度伪造)的用户在Reddit平台发布了一批色情视频,借由机器学习技术尤其是deep learning(深度学习)将色情明星面孔 “换脸”成名人。这类技术随后就被统称为deepfake,并不断迭代,也离公众的生活越来越近。根据不完全统计,deepfake技术的应用对象已包括了:娱乐明星、政治领袖与政治人物、商业领袖、间谍与情报人员、新闻媒体主播、世界名人与艺术形象、一般公众。制作的视频既有充满幽默的恶搞也有带有明显恶意的色情、造假,有的故意留有破绽,有的则真假莫辨。

相比之前仿真度已经非常高的图片造假, deepfake制造视频和音频难度要更大,但也更容易让普通人相信,毕竟“眼见为实”。从笔者朋友圈曾多次传播过的此类视频来看,在未经提示的情况下,大部分人都没有能力分辨真伪。而且该技术在早期需要提供大量的照片或音频用于训练模型,因此只适用于有很多曝光记录的名人,尤其是政客和影视明星;但随着技术的进化,目前该技术只需要很少量的照片和音频就能相当实现逼真的效果。

从现有实例看, deepfake技术大概会在几个方面给人类社会造成风险,包括:个体人身和精神损害、企业信誉和商业利益的损失、国家安全和公共安全受到的威胁、新闻媒体行业的社会信任受损。试想一家大型企业在上市前,其CEO的不雅视频或CFO揭露企业财务造假的视频突然在网上传播,造成股市的大幅波动,而通过权威媒体的辟谣也无助于事,尽管当事人知道这些视频都是通过deepfake伪造的。

对于deepfake,有不少人认为不必过虑,毕竟各种视觉、听觉造假技术在历史上层出不穷。但需要注意的是,视觉和听觉的造假以前掌握在专业的欺诈者或职业的影像制造者手中。比如,大型电影公司早就有能力制做足以乱真的已过世名人的影像,但需要花费不菲的成本并获得相应的授权。而deepfake技术则让很多普通人的“造假水平”迅速提升到专业级,而且成本接近于零。

假如deepfake技术不加以监管和限制,人们对于事实的基本共识会被破坏,何为真实将会被反复质疑,需要花费很高的成本进行验证(目前技术上还能够分辨)。一个互相信任程度很低、缺乏共识的社会,协作成本一定是很高的,而且容易造成撕裂。

大规模收集生物识别信息和Deepfake,本身都是现有技术的自然延申,可二者产生的影响可能是深远、不可逆的。对于ZAO这样的换脸APP,应该更严肃地对待、更严格地监管。

下载界面新闻

大规模收集生物识别信息和Deepfake,本身都是现有技术的自然延申,可二者产生的影响可能是深远、不可逆的。对于ZAO这样的换脸APP,应该更严肃地对待、更严格地监管。

作者王新锐为北京市安理律师事务所高级合伙人

像ZAO这样的换脸App在国内外社交网络上的走红在意料之中。

用户从下载App,到生成量身定制、有强烈的代入感的视频、音频,短则几秒钟、长则数十分钟,既有趣也操作简单,只要技术过关,想不流行都难。这就好比平时只买大众服装品牌的人,突然有机会免费尝试一下高级订制的服务,短暂体验明星的待遇,自然抵挡不住诱惑。

然而这其实是一场复杂的魔鬼交易,只是包括App的开发者在内,并没有意识到魔鬼在谁、隐藏在哪里。评论者多聚焦于对用户协议或隐私政策的批评,或者对知识产权、肖像权的侵犯,这当然有道理,但笔者认为这些权利义务失衡的条款及侵权行为被司法和监管纠正并不困难,在现有法律框架下也有成熟的方案。换脸、换声这类APP最大的问题在于其大规模收集的生物识别信息如果发生泄露及滥用,会造成各种欺诈和造假。社会各界应对此问题高度重视,加强监管。

静态或动态的人脸信息(ZAO都会向用户收集)以及指纹、声纹、虹膜属于生物识别信息,在各国的立法中通常都属于个人敏感信息。其之所以敏感,在于天然能够真正识别个人身份且终身无法更改(毁容之类的特例除外),而且除了指纹外容易以非接触的方式收集。从某种程度上说,这些生物识别信息真正定义了我们每个人。

生物识别信息的不同类别,又有所区别,其中人脸信息的公开性更强,也更容易被收集,目前在国际上加强监管的趋势也更明显。多国都在开始进行立法,强化对人脸信息收集以及识别技术应用场景的约束。

生物识别信息的收集和利用,具有很大的不对称性,个人得到的可能仅仅是一个带有娱乐性的视频片段,收集者却掌握了个人最基础的信息。技术都很难做到万无一失,但生物识别信息一旦泄露,真的是“一失万无”,缺乏救济渠道。邮箱密码、电话号码泄露了,还可以更改,但人脸、声纹、虹膜等信息泄露后,却没有办法进行更改,个人几乎终生暴露在被攻击和骚扰的风险中。

当提到技术带来的风险时,一定会有人指出创新的价值以及技术的中立性。然而需要看到的是,技术并不是天然具有中立性,有的技术天然具有破坏性、伤害性,虽然也有正面价值,但在一些场景下其带来的风险可能涉及人类的底线,在没有进行审慎的论证和评估前,不应该大规模应用或扩散。这就像很多青少年都玩过弹弓甚至弓箭,虽然也会造成损失,但完全可控;但如果给每人发一只自动步枪,无疑会带来巨大的混乱。

加强监管也不意味着阻碍技术进步,而是在风险较高的领域、场景进行更充分的防范,这样也不会让技术本身被污名化,引发更高的监管压力。比如生物识别信息既可以用于安防、反欺诈,也可以用于造假、监视、强化歧视。这就要求在源头上就要加以限制,必须考虑收集信息的目的是否正当、必要,不能“为了芝麻,要个西瓜”。

在国内外,对于收集生物识别信息的监管和立法已经有不少,如美国有多个州通过了与生物识别信息有关的法案,欧盟GDPR对于生物识别信息的收集也有相应的严格要求。尽管有不同的思路,但基本思路都是一致的,必须保证透明性,让用户清楚了解后果并明确同意,同时有权要求更正或删除该类信息;收集者只有在必要的情况下才能收集生物识别信息,并尽量不存储原始信息,同时负有较高的义务保护这些信息的安全,绝对不能滥用。除了政府监管以外,涉及生物识别信息的企业也需要建立行业自律,对于害群之马建立某种淘汰机制。除此以外,对于生物识别信息的收集者,是否应当采取备案或登记制度,人脸识别技术在哪些特定场景下应被禁止,以保护个人的基本权利,都是很值得讨论的话题。

生物识别信息需要重视,也和快速发展的deepfake技术有关。当不可修改的生物识别信息遇上几乎可以以假乱真的视频、音频伪造技术,对很多普通人都是灾难。

在2017年年底,一个名为“Deepfake” (意为深度伪造)的用户在Reddit平台发布了一批色情视频,借由机器学习技术尤其是deep learning(深度学习)将色情明星面孔 “换脸”成名人。这类技术随后就被统称为deepfake,并不断迭代,也离公众的生活越来越近。根据不完全统计,deepfake技术的应用对象已包括了:娱乐明星、政治领袖与政治人物、商业领袖、间谍与情报人员、新闻媒体主播、世界名人与艺术形象、一般公众。制作的视频既有充满幽默的恶搞也有带有明显恶意的色情、造假,有的故意留有破绽,有的则真假莫辨。

相比之前仿真度已经非常高的图片造假, deepfake制造视频和音频难度要更大,但也更容易让普通人相信,毕竟“眼见为实”。从笔者朋友圈曾多次传播过的此类视频来看,在未经提示的情况下,大部分人都没有能力分辨真伪。而且该技术在早期需要提供大量的照片或音频用于训练模型,因此只适用于有很多曝光记录的名人,尤其是政客和影视明星;但随着技术的进化,目前该技术只需要很少量的照片和音频就能相当实现逼真的效果。

从现有实例看, deepfake技术大概会在几个方面给人类社会造成风险,包括:个体人身和精神损害、企业信誉和商业利益的损失、国家安全和公共安全受到的威胁、新闻媒体行业的社会信任受损。试想一家大型企业在上市前,其CEO的不雅视频或CFO揭露企业财务造假的视频突然在网上传播,造成股市的大幅波动,而通过权威媒体的辟谣也无助于事,尽管当事人知道这些视频都是通过deepfake伪造的。

对于deepfake,有不少人认为不必过虑,毕竟各种视觉、听觉造假技术在历史上层出不穷。但需要注意的是,视觉和听觉的造假以前掌握在专业的欺诈者或职业的影像制造者手中。比如,大型电影公司早就有能力制做足以乱真的已过世名人的影像,但需要花费不菲的成本并获得相应的授权。而deepfake技术则让很多普通人的“造假水平”迅速提升到专业级,而且成本接近于零。

假如deepfake技术不加以监管和限制,人们对于事实的基本共识会被破坏,何为真实将会被反复质疑,需要花费很高的成本进行验证(目前技术上还能够分辨)。一个互相信任程度很低、缺乏共识的社会,协作成本一定是很高的,而且容易造成撕裂。

大规模收集生物识别信息和Deepfake,本身都是现有技术的自然延申,可二者产生的影响可能是深远、不可逆的。对于ZAO这样的换脸APP,应该更严肃地对待、更严格地监管。

THE END
0.换脸软件ZAO一夜火爆朋友圈版权和隐私问题不容忽视隐私新浪财经换句话说,“ZAO”背后的大老板其实就是著名线上交友软件“陌陌”。 值得一提的是,ZAO的开发商显示为“长沙深度融合网络科技有限公司”,而陌陌创始人兼CEO唐岩本人就是湖南人。 换脸早在2017年就火爆全球 其实,AI换脸视频并不是新鲜事了。 早在2017年12月,国外某ID名为“deepfakes”的Reddit论坛用户首次将自己制jvzq<84hkpgoen3ukpg/exr0ep5djjslkpm0e‚}y1462;65:/570fxh/kkif|ƒws46=989<0ujznn
1.Deepfake2020发展报告:AI换脸术滥用肆无忌惮,但技术仍很“菜对于真正无缝的 Deepfake,这样的工具可以提供高质量的脸部生成,但你仍然需要一些视频编辑软件的经验(如 Adobe After Effects),将它们添加到视频中。如果你没有意愿或能力自己制作,你甚至可以找到一些服务和市场来帮你制作 Deepfake。一个例子是https://Deepfakesweb.com/,你只需要上传你想要的视频和图片,就会在云端为jvzquC41yy}/kwkqs0io1jwvkerf1^3:
2.kpopdeepfakes换脸Deepfakes教程及各个换脸软件下载 源:https://blog.csdn.net/koest/article/details/80720078 Deepfakes目前用于深度换脸的程序基本都是用python编程语言基于tensorflow进行计算.以下列出几款常用的换脸程序优缺点浅析,用户可以根据自己的爱好和水平来选择,以下软件均需要先安装windows 版本的 VS2015,CUDA9.0和CuDNN7.0.5jvzquC41yy}/uqz|jkjvq7hqo1zprrh1mruqfnjrhcqfu.J8':J&C;*G:'>5'K=1
3.黑客用AI换脸技术应聘人工智能安全问题不容忽视你是不是也很好奇,这软件这么好用吗? 答案是,的确很高级。 Deepfake利用生成对抗网络(GAN)强大的图像生成能力,可以将任意的现有图像和视频组合并叠加到源图像和视频上,它可以记录一个人面部的细节。经过多年的发展,Deepfake技术已经可以进行实时换脸,并且毫无违和感。 jvzquC41yy}/d~ucskgoi7hqo1}fdjv144;20qyon
4.秒杀Deepfake!微软北大提出AI换脸工具FaceShifter和假脸检测工具Face微软北大提出AI换脸工具FaceShifter和假脸检测工具Face X-Ray 最先进的AI和机器学习算法不仅可以生成栩栩如生的位置和物体的图像,还擅长将人脸头像从一个人换成另一个人的。另一方面,研究人员也在不断开发能够检测deepfake假图像的识别工具。这场在机器学习图像识别领域的“矛与盾”之争愈演愈烈。jvzquC41vgii0|npc0ipo7hp1eyk1;542/62/9<1fqi.krmp|jnb2A;946
5.游戏下载软件下载BT变态版手游大全下载07076下载站提供新鲜的好玩的手机软件下载、游戏下载、单机游戏网络游戏、手游公益服、BT手游,海量APP应用免费下载,汇集各类游戏软件合集,专区等,供网友们更好找到绿色放心的资源。jvzquC41yy}/2@5980io1
6.AI换脸软件ZAO刷屏背后:女星AI换脸视频售价49元AI换脸视频制作成早在今年年初,一段通过AI技术将《射雕英雄传》中朱茵脸部替换成杨幂的视频在网络引起热议。记者搜索发现,视频网站哔哩哔哩(B站)上存在大量AI换脸视频,且人气较高。其中,一个将蔡徐坤脸部替换成前网络游戏主播卢本伟的视频,播放量达到253.1万。 根据《纽约时报》报道,Deepfake指的是用人工智能软件制作的虚假视频,由FakeApjvzquC41kv4djrscktt/exr1pg}t1;53;2?1586832;47=70jvsm
7.​AI换脸技术原理是什么?识别DeepFakes深度造假的创新正在涌现微软发布了一款深度商业造假检测工具,该工具可分析视频帧,并生成一个软件可信度评分,验证视频帧是真实的还是人工智能造假的。 来自英特尔和宾厄姆顿大学的图形和图像计算实验室的研究团队开发了一种工具,该工具利用生物信号和数据来识别和分类DeepFakes深度造假,准确率高达96%。该工具基于的想法是,虽然面部视频可以合成,但jvzquC41dcoew6rkr0~jcwokejooc7hqo1yqglncn1jfvjnna768:>;0jvsm
8.DeepFakes深度造假,如何识破“AI换脸术”?DeepFakes深度造假,如何识破“AI换脸术”? 极客网·人工智能5月17日我们正处在一个越来越容易制造虚假信息的时代。深度造假(Deepfakes)、扩散模型、生成对抗网络(GAN)以及其他AI技术被居心不良者用于伪造照片和视频,或者创建从未发生过的事件的一些照片或视频。jvzquC41yy}/h{toigkl0lto1co07<787;4ivvq
9.看完这个视频,发誓再也不当榜一大哥了deepfakevfx本文介绍了AI界流行的DeepFaceLive软件,它基于DeepFaceLab,能进行实时换脸,用于视频通话、直播和面部动画。通过深度学习技术,该软件从源视频和目标视频中分离面孔并进行合成,提供高保真体验。 最近在AI界有个视频很火,网友看完之后表示:十年前担心网友是抠脚大汉,十年后担心网友是抠脸大汉。 jvzquC41dnuh0lxfp0tfv8xrgeytu|4ctvodnn4fgvgjn|435:844B62