换脸拟声“深度伪造”的迷局何时能解

明星现身、专家卖药……一张图片、一段声音,就能生成虚假视频,今年两会期间,雷军等受害者的回应,让AI伪造侵权再次成为热点。

换脸拟声合成视频 AI伪造何时休?

全国人大代表 雷军:有网友说去年国庆放了7天假,8天被我骂醒。网上出现非常非常多的,用我的声音和人脸骂人的内容。刚开始我觉得这是网民喜闻乐见拿我开涮,我也能接受,但是内容比较低劣,多到不得了的时候,就防不胜防了。

除了雷军被恶搞外,AI刘德华虚假宣传,AI张文宏医生和AI工程院院士张伯礼甚至做起了带货主播。

中国政法大学副教授 朱巍:我们现在看到的一些编辑的人脸,包括声音在内,实际上按照民法典的规定,都属于当事人权利人自己的人格权利。未经允许,任何人是不得侵害的,不仅不能直接用,也不能使用当事人的人脸信息、声音信息进行深度合成,不能把它放到深度合成的物料库或场景库里。

持续处置

滥用AI伪造名人形象带货营销

针对滥用AI技术伪造名人形象开展带货营销问题,网信部门持续督促各网站平台进行巡查处置,近一个月,重点网站平台累计处置违法违规账号和店铺797个。

新闻链接

AI换脸换声诈骗案件时有发生

除了伪造名人形象带货营销,AI换脸和语音合成技术还被用于诈骗。犯罪分子通过非法获取的人脸照片和语音样本,利用开源AI工具生成逼真的虚拟形象。

此前内蒙古警方破获的一起AI换脸诈骗案中,福建某科技公司老板郭先生在视频通话中目睹“好友”面容,10分钟内被骗转账430万元,事后发现对方竟是AI换脸与拟声技术合成的“数字替身”。

在另外一起案件中,上海的刘先生在短视频平台结识“焦女士”,发展为网恋后以各种名义被骗取20万元,警方调查发现该团伙使用AI生成虚假照片实施婚恋诈骗,涉案金额超200万元。

AI换脸+拟声

记者体验“深度伪造”

人脸替换、声音模拟,网络上泛滥的AI“深度伪造”究竟是怎么做到的?真的很容易吗?记者找技术人员去做了个测试,将事先录制好的视频换成记者的脸和声音。仅通过记者的证件照片,不到两分钟,视频的人脸就换成了记者的脸。随后是声音的AI制作,记者现场录制了一段声音输入到AI资料库中。

网络技术人员 潘季明:我们收到您的录音片段之后,通过AI算法进行分析和学习,然后通过任意的输入文本,可用您的声音进行朗读。

AI制作的换脸和声音的视频完成后,将两段视频合成后,一段AI生成的记者视频就产生了。

AI合成声音制作视频

购物平台随意定制

专家表示,AI换脸和换声之类的软件,属于半专业软件,普通网民还不能轻松掌握。但是,记者在调查中发现,普通网民即便不能掌握技术,也能轻松获得自己需要的合成视频。

在购物平台搜索声音克隆,就会出现众多商家。记者发现声音AI深度合成的价格,根据字数不同在20到50元之间。商家告诉记者,只要提供一分钟的语音素材,就可以用AI深度合成该声音的任何话语。其中一个商家还给记者发来了此前客户在他的网店定制的刘德华的声音。

总台央视记者崔世杰介绍,AI深度合成视频分两个步骤,

首先是声音克隆,获取目标人的声音。

再用目标人的一段视频,将克隆好的声音与之合成,并进行嘴型匹配。

这样一个AI深度合成视频就完成了。

记者选择一家声音克隆的网店,在支付了20元提供了自己的声音模板和文字后,得到了AI深度合成的记者的声音。

记者随后在另一家AI制作视频的网店,支付58元,提供AI深度合成的记者声音和视频后,就得到了AI制作的记者自己的带货视频。

AI伪造视频

违反了哪些法律法规?

针对AI深度合成作品,法律法规有明确的规定。2023年施行的《互联网信息服务深度合成管理规定》要求,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息。

今年9月1日即将实施的《人工智能生成合成内容标识办法》也提出,对AI生成合成内容要进行标识,以便公众识别和区分,防止误导性信息传播。

如何防止人工智能技术被滥用

亟待破题

网店制作、售卖AI声音和视频并没有做任何标识。他们应该承担什么样的法律责任呢?

中国政法大学副教授 朱巍:未经权利人同意随便使用别人的肖像和声音,并且对外发布,至少按照民法典的规定是一种侵权责任,要承担包括损害赔偿、精神损害赔偿在内的相关责任。但如果把这个相关的视频,包括声音编辑之后,形成了相关的内容,那么这个内容如果违反了网络安全法的相关规定,当事人可能要承担包括刑事责任在内的法律责任。

今年两会期间,“应对和防止人工智能技术被滥用”的话题热度始终不减,如何在技术创新和法律约束间找到平衡,是治理虚假信息和谣言传播,亟待破题的关键。

中国计算机学会计算机安全专业委员会委员 吕延辉:AI侵权问题需要从法律、平台和公众多个层面综合施策。法律层面,要进一步完善相关立法,细化AI克隆技术的法律条款,明确侵权行为的定义和责任,同时加强执法力度。

THE END
0.AI换脸通话10分钟骗430万?记者调查:目前没这么容易!AI技术被用于犯罪领域的风险日益凸显。裴智勇介绍,这些风险包括:“过脸产业”,比如利用他人照片合成动态人脸,欺骗各种人脸识别系统,如绑定APP、绑定支付工具等;换脸欺诈,如将一段绑架视频中的受害者人脸替换成其他人,之后对其亲属进行诈骗;换脸敲诈,如将一个人的脸换到一段不雅视频上,之后威胁对方将视频发送给其亲人jvzquC41pg}t0|npc0ipo7hp1q532;8/273388iqe/on{hgt|=5898220yivvq
1.AI换脸用于诈骗真假难辨怎么办?新闻频道最近,视频网站上通过人工智能换脸,《亮剑》里的主角用英语飚起了台词,通过小程序用户也可以将自己变成电影里的人物。新技术带来欢乐的同时,也带来了一种名为“AI换脸诈骗”的新骗术。jvzquC41pg}t0lhvx0ipo872455238561CXUKk=ZEN=Qzb{dkQiirZ9q94923990ujznn
2.AI换脸用于诈骗真假难辨怎么办?AI换脸用于诈骗 反诈也有新手段 不断迭代的AI技术已经把换脸视频做到“真假难辨”,那么我们应该如何防范此类新型诈骗呢? 让对方在脸部做动作 可发现合成破绽 首先,目前视频换脸的技术上也不是无懈可击的,视频沟通时的一些动作,就可以发现破绽。 深圳安络科技副总裁 肖坚炜:在这个操作中,如果我用另外第三个图像去jvzq<84pgyy/ew|guv4dqv4vkctykj4c1463586312:04;5539?90qyon
3.男子用AI换脸技术合成“明星淫秽视频”,被提起公诉用“AI换脸技术”合成淫秽视频,收费供他人观看,甚至根据顾客的需要使用不同的女明星形象进行“私人定制”,以及通过出售“换脸软件”非法获利。 记者6月20日从杭州萧山区检察院获悉,除了此前以涉嫌制作、传播淫秽物品牟利罪对被告人虞某某提起公诉外,该院在审查时发现,被告人不仅涉嫌刑事犯罪,同时还存在损害社会公共利益jvzquC41pg}t0‚hyd0ipo872453188721euovnsva7814=8;60nuo
4.“AI换脸”合成“女神”淫秽视频出售!安徽一男子被起诉新闻频道用“AI换脸技术”合成淫秽视频,收费供他人观看,甚至根据顾客的需要使用不同的女明星形象进行“私人定制”。 4月9日,据杭州市人民检察院消息,80后安徽男子虞某因涉嫌制作、传播淫秽物品牟利罪被提起公诉。 虞某称,早在2020年“AI换脸”刚刚开始兴起的时候,他就对该项技术产生了兴趣,甚至还专门在网上购买了换脸软件的教程并通过jvzq<84pgyy/{xzvj0io1|m142842=4v42842=63a3:56>>8:0nuo
5.一张图片就能“活化”成视频?警惕AI深度合成击穿风险底线一段视频、一段语音,未必是真人拍摄或录制,在你不知道的手机App后台、支付界面、门禁闸机,或许有人正在盗刷你的脸。随着人工智能(AI)深度合成技术日益精湛,合成的音频、视频等伪造内容越来越能以假乱真。毫无疑问,我们生活的现实世界正在面临技术滥用的风险与挑战。 jvzquC41ngmbn7loy0io1;544/671:51eqtugwya57>12A>90jzn
6.室研究员赫然:图像及视频的AI合成与鉴别5月20日,车辆与运载学院第255期学术沙龙在清华大学汽车研究所301成功举办,中科院自动化所模式识别国家重点实验室研究员赫然博士受邀参加此次沙龙,作题为“图像及视频的AI合成与鉴别”的报告。赫然回顾了当前图像视频合成的现状及应用,随后对合成技术和鉴别技术分别进行了介绍。 jvzquC41yy}/ur0vuooiqzc0gjv0ls1guyb{8=13:>70qyon
7.趋深向实与“国家在场”:2023年中国网络内容治理报告11月,上虞AI技术合成虚假视频案宣判,涉案团伙为博取社会关注,利用AI技术合成并发布了虚假的“上虞工业园区火灾”视频,引发大量点击。经警方查获,法院判决涉案人的行为构成编造、故意传播虚假信息罪,处以刑罚(澎湃新闻,2023年11月21日)。 相比之前社交网络、算法推荐等智能应用主要在传播阶段发力,AIGC将介入智能传播的jvzquC41yy}/j~grf0ipo8igvcom1rsfgz4ivvqAeqtugwyKf?727;>4376589>724:18