2017年12月,一个名为“DeepFakes”的用户在Reddit上发布了一个基于深度学习技术的“假视频”。他交换了神奇女侠-盖尔·加朵和色情演员的脸来满足自己的私欲。从此,“AI变脸”正式进入大众视野。
上周微博上一个视频火了。视频直接把《神雕侠侣》中朱茵饰演的“黄蓉”形象换成了杨幂的脸。效果接近,真假难辨。吃瓜的人都夸过“史上最可爱的黄蓉”▼
https://v.qq.com/x/page/g08426h98iu.html
在此之前,网上出现了很多变脸视频。比如著名的斗鱼主播“阿冷”▼
此外,恶搞视频的精髓得以保存,奥巴马、特朗普等公众人物几乎被宠坏。▼
其他人则盯上了这项技术的潜在商机,准备做一些商业内容。▼
变脸手法复杂吗?
社区最初的开发者有一颗服务大众的心,他们毫不吝惜的公开了变脸的技术手段。
还有一个很流行的软件叫fakeapp,它把技术门槛降得更低。▼
使用这个软件,你可以分三步改变你的脸:
1.获取数据,将你的素材视频逐帧切割成图片,自动识别提取出人的面部特征数据。
2.训练模型。基于第一步的数据,软件会自动帮你训练模型。这一步需要很长时间。
3.根据您的训练模型,替换给定视频材料中角色的面部,以生成替换的视频。
从1到3,操作流程清晰,加上bilibili、Jane Books等各种网站上的大量教学教程,AI小白可以上手了。▼
用户用fakeapp做的变脸视频截图
换脸软件的选择不止一个,要求比较高的朋友觉得fakeapp的换脸效果有点不一致,不太满意。会选择使用另一个叫OpenFaceSwapd的软件,并且可以做一些更高级的设置。▼
另外,你可以在Github上找到很多特别变脸的开源项目,比如这个deepfacelaps。▼
值得注意的是,由于该项目的争议性,fakeapp最近一直无法访问官网。
现有威胁
由于巨大的娱乐性和潜在的商机,AI变脸的普及和广泛使用是必然的。我们要注意他背后的威胁和伦理陷阱。
1.诈骗——语音是伪造的,视频也可以伪造。骗子很可能在梦中笑醒了。。。
2.欺诈——不要以为只有明星才会被陷害,普通人同样危险。
外国高中生用女同学的脸拍了色情视频,上传到网上。虽然已经被学校查出来了,但是网上流传的视频却无法保存。
3.虚假新闻的传播——虚假视频的传播,除了微信业务会见各种重要人物,还会导致新闻事件真假难辨,造成社会动荡。
4.肖像权——在什么情况下可以使用别人的肖像权,如果侵犯了应该承担什么处罚,肖像权的问题在以后会很复杂。
5.电视剧的拍摄——变脸可以这么逼真,以后拍电视剧就不用担心被发现了?
好的一面是,很多研究人员都在探索如何利用AI来识别模仿度高的变脸视频。如果我们能够通过一个app快速识别视频的真实性,那么这些威胁自然就不用害怕了。
未来来了,视频可以复制,但是上面我们期待鉴别真伪的app还没有出现,请警惕!
1.《ai换脸网站 “AI 换脸”效果炸裂!神仙姐姐出现在大尺度视频》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。
2.《ai换脸网站 “AI 换脸”效果炸裂!神仙姐姐出现在大尺度视频》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。
3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/keji/1229643.html