通讯lus·深度明星脸直播带货换脸诈骗……狂飙的人工智能技术需要降速了杨幂ai迪丽热巴

“AI孙燕姿”火爆全网、迪丽热巴、杨幂这些明星开始直播带货了、朋友借钱视频确认身份依然被骗……

近年来,随着人工智能技术的不断发展,AIGC产业也迎来了爆发式增长。AI实时换脸已从最初的娱乐“整活”,向直播等多个应用场景发展。通过智能后台的AI换脸技术,主播可以实现形象的实时替换。

当AI实时换脸出现,人工智能技术还能整出多少花活?

杨幂、迪丽热巴直播带货?

假的!AI实时换脸下场整活

最近一段时间,不少网友点开直播软件发现,不少“当红女明星”正在直播间里卖力吆喝带货,而等观众仔细一看,就不难发现这些正在带货的“明星”,其实只是使用了AI实时换脸技术的普通主播。

目前,杨幂、迪丽热巴、Angelababy等当红女星,已经成为了AI换脸的重点对象。

封面新闻注意到,目前相关的实时换脸项目已经在GitHub站内开源,相关技术可利用深度学习识别和交换图片和视频中人脸的工具,进而做出更加逼真的动态实时换脸效果,使用者可以在两天的时间内完成机器学习的训练。值得注意的是,开发者还在项目内包含了包括迪丽热巴、埃隆·马斯克、憨豆先生、成龙等已经完成训练的人脸模型。

此外,一家提供“换脸软件”的网站客服也曾对媒体表示,他们提供的全套模型购买价格仅为3.5万元,AI实时换脸可适用于各大直播平台。借助AI实时换脸技术,可以实现0延迟的动态换脸,而直播画面传输的延迟则取决于使用者的网络配置和进行直播的平台。

对此,不少直播间的消费者表示:“看了好几个直播间,我都惊呆了,全都把脸换成明星带货了,那还要我们这些普通的主播干什么?”“昨天我刷到殷桃,好吓人啊。”“我还看过一个一直用杨幂的脸的。”“上次还刷到了刘亦菲呢。”

网聊10分钟被骗430万

视频核实身份不可信

被冒用人脸的不仅仅是明星。公安部治安管理局官微“中国警方在线”发文提示称“警惕AI换脸骗局”,并表示“AI诈骗正在全国爆发”。

此前,包头市公安局的在线警务平台“平安包头”公布的消息披露,随着人工智能的快速发展,诈骗团伙的诈骗手段也日益科技化,甚至采用了AI换脸技术。包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,警银联动成功紧急止付涉嫌电信诈骗资金330多万元。

据了解,福州市某科技公司法人代表郭先生突然收到好友的微信视频,称想要借用其公司的账户“走一下账”,而在他先后分两笔把430万元打到对方账户后,却发现电话联系的好友并不知道此事。在报警后,当事人才意识到遭遇了AI实时换脸诈骗,最终诈骗账户内的336.84万元被骗资金被成功拦截,但仍有93.16万元资金尚未追回。

AI也可形成反噬

人工智能时代的技术不作恶,会是什么样的?

作为新生事物,因人工智能而引发的风险还尚未引起大多数人的关注,但实际上随着AI技术的加速变革,如何营造创新生态、重视防范风险,正在成为整体AI技术行业亟待解决的关键性问题。

此前,清华大学人工智能研究院等部门发布的《深度合成十大趋势报告(2022)》显示,创作者在互联网平台中发布的深度合成内容的数量高速增长,以视频为例,2021年新发布的深度合成视频的数量,较2017年已增长10倍以上。显然,如何让AI合成视频在法律允许的快车道内行驶,成为当前解决问题的关键。

封面新闻采访了泰和泰律师事务所曾维宇律师,曾律师表示,未经允许运用AI换脸等深度合成技术易产生侵犯肖像权、侵犯名誉权等民事侵权风险,同时亦有可能构成刑事犯罪。根据《民法典》第1019条的规定,任何组织或者个人不得以丑化、污损,,或者利用信息技术手段伪造等方式侵害他人的肖像权。其中“不得利用信息技术手段伪造等方式侵害他人的肖像权”即主要是指利用人工智能合成技术深度伪造他人肖像,形成高度逼真且难以甄别的影像等。

此外,曾律师也提到,我国近年来涌现出一批以“AI换脸”技术为手段,通过装亲戚等套近乎的方法来实施财产诈骗犯罪,此时AI换脸技术成为了一种诈骗的手段,侵害了他人的财产权。该类别下,除了可能涉及诈骗罪,还可能涉及的罪名包括敲诈勒索罪,非法侵入计算机信息系统罪,非法获取计算机信息系统数据,非法控制计算机信息系统罪,提供侵入、非法控制计算机信息系统程序、工具罪等。

封面新闻记者 温彦博

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

THE END
0.AI换脸通话10分钟骗430万?记者调查:目前没这么容易!AI技术被用于犯罪领域的风险日益凸显。裴智勇介绍,这些风险包括:“过脸产业”,比如利用他人照片合成动态人脸,欺骗各种人脸识别系统,如绑定APP、绑定支付工具等;换脸欺诈,如将一段绑架视频中的受害者人脸替换成其他人,之后对其亲属进行诈骗;换脸敲诈,如将一个人的脸换到一段不雅视频上,之后威胁对方将视频发送给其亲人jvzquC41pg}t0|npc0ipo7hp1q532;8/273388iqe/on{hgt|=5898220yivvq
1.AI换脸用于诈骗真假难辨怎么办?新闻频道最近,视频网站上通过人工智能换脸,《亮剑》里的主角用英语飚起了台词,通过小程序用户也可以将自己变成电影里的人物。新技术带来欢乐的同时,也带来了一种名为“AI换脸诈骗”的新骗术。jvzquC41pg}t0lhvx0ipo872455238561CXUKk=ZEN=Qzb{dkQiirZ9q94923990ujznn
2.AI换脸用于诈骗真假难辨怎么办?AI换脸用于诈骗 反诈也有新手段 不断迭代的AI技术已经把换脸视频做到“真假难辨”,那么我们应该如何防范此类新型诈骗呢? 让对方在脸部做动作 可发现合成破绽 首先,目前视频换脸的技术上也不是无懈可击的,视频沟通时的一些动作,就可以发现破绽。 深圳安络科技副总裁 肖坚炜:在这个操作中,如果我用另外第三个图像去jvzq<84pgyy/ew|guv4dqv4vkctykj4c1463586312:04;5539?90qyon
3.男子用AI换脸技术合成“明星淫秽视频”,被提起公诉用“AI换脸技术”合成淫秽视频,收费供他人观看,甚至根据顾客的需要使用不同的女明星形象进行“私人定制”,以及通过出售“换脸软件”非法获利。 记者6月20日从杭州萧山区检察院获悉,除了此前以涉嫌制作、传播淫秽物品牟利罪对被告人虞某某提起公诉外,该院在审查时发现,被告人不仅涉嫌刑事犯罪,同时还存在损害社会公共利益jvzquC41pg}t0‚hyd0ipo872453188721euovnsva7814=8;60nuo
4.“AI换脸”合成“女神”淫秽视频出售!安徽一男子被起诉新闻频道用“AI换脸技术”合成淫秽视频,收费供他人观看,甚至根据顾客的需要使用不同的女明星形象进行“私人定制”。 4月9日,据杭州市人民检察院消息,80后安徽男子虞某因涉嫌制作、传播淫秽物品牟利罪被提起公诉。 虞某称,早在2020年“AI换脸”刚刚开始兴起的时候,他就对该项技术产生了兴趣,甚至还专门在网上购买了换脸软件的教程并通过jvzq<84pgyy/{xzvj0io1|m142842=4v42842=63a3:56>>8:0nuo
5.一张图片就能“活化”成视频?警惕AI深度合成击穿风险底线一段视频、一段语音,未必是真人拍摄或录制,在你不知道的手机App后台、支付界面、门禁闸机,或许有人正在盗刷你的脸。随着人工智能(AI)深度合成技术日益精湛,合成的音频、视频等伪造内容越来越能以假乱真。毫无疑问,我们生活的现实世界正在面临技术滥用的风险与挑战。 jvzquC41ngmbn7loy0io1;544/671:51eqtugwya57>12A>90jzn
6.室研究员赫然:图像及视频的AI合成与鉴别5月20日,车辆与运载学院第255期学术沙龙在清华大学汽车研究所301成功举办,中科院自动化所模式识别国家重点实验室研究员赫然博士受邀参加此次沙龙,作题为“图像及视频的AI合成与鉴别”的报告。赫然回顾了当前图像视频合成的现状及应用,随后对合成技术和鉴别技术分别进行了介绍。 jvzquC41yy}/ur0vuooiqzc0gjv0ls1guyb{8=13:>70qyon
7.趋深向实与“国家在场”:2023年中国网络内容治理报告11月,上虞AI技术合成虚假视频案宣判,涉案团伙为博取社会关注,利用AI技术合成并发布了虚假的“上虞工业园区火灾”视频,引发大量点击。经警方查获,法院判决涉案人的行为构成编造、故意传播虚假信息罪,处以刑罚(澎湃新闻,2023年11月21日)。 相比之前社交网络、算法推荐等智能应用主要在传播阶段发力,AIGC将介入智能传播的jvzquC41yy}/j~grf0ipo8igvcom1rsfgz4ivvqAeqtugwyKf?727;>4376589>724:18