原题目:“蚂蚁啊,嘿”屏幕效果燃烧,又冷却了。AI“换脸”背后有安全隐患。
东方互联网记者海民3月3日:“蚂蚁啊,蚂蚁啊,蚂蚁啊,蚂蚁啊,蚂蚁啊哈哈。”过去一周,在微信朋友圈、微博、抖音(抖音)等社交媒体平台上,许多人相信,随着这首魔声的音乐,他们用夸张的扭曲面部视频擦拭了屏幕。
然而,Avatarify这款火爆前景的AI变脸软件从2月底开始登上苹果应用商店免费榜首,到今天为止,在应用商店安静“下车”还不到一周的时间。(阿尔伯特爱因斯坦,Northern Exposure(美国电视剧),)目前当局没有给出具体的下车理由,业界推测该软件可能包含隐私、安全等问题。
你换过AI脸吗?
Avatarify的名字源自《阿凡达》电影,创作者是开发工程师。一开始疫情期间太无聊了,开发了这个变脸应用程序,开发了开源。事实上,Avatarify去年7月已经上线,但直到“蚂蚁啊”这种特效获得人气后,它才带上这个软件。
软件运行的原理是把别人的脸套在自己的表情上,实时驱动。用户只需要三个步骤。导入手机的脸部照片,选择视频模板后,软件会自动生成短视频,再按一次键就可以保存。要想让照片中的很多人移动,并且基于抖音(抖音)中的大多数视频制作教程,需要几个剪辑软件。
Avatarify软件的背后使用了名为deepfakes的强大AI面部交换技术。这项技术不仅可以生成照片,还可以生成视频。深度机器学习(deep machine learning)和假照片(fake photo)的组合“深度机器学习”(deep machine learning)是图像合成、替代领域深度学习模型的技术框架。
AI换脸安全争议不可避免
然而,与过去的任何变脸AI软件一样,Avatarify不可避免地面临相关的安全和隐私问题。脸是非常隐私和重要的个人信息。因为变脸软件在使用过程中收集用户个人信息,如照片、面部特征等。如果通过AI技术合成此信息,一旦泄露,可能会对个人财产造成损害,从而产生未知的危险。曾经在国内很火的《ZAO》也因担心隐私泄露而引起公众不安和讨论,并被工信部承诺退场。
关于Avatarify的下架,一位网友表示:“技术是一项好技术,但必须有正确的使用规范。”除非有规范,否则要慎重使用。“AI变脸最害怕的是被不法分子利用。”
2019年11月末,国家网申处、文在寅、广电总局等三个部门联合发布了《网络音视频信息服务管理规定》,其中“利用以深度学习、虚拟现实等为基础的虚假影像、制作、发布音频视频生成技术、传播谣言,应及时采取相应的造谣措施”法规还指出,利用以深度学习、虚拟现实等为基础的新技术制作、发布新应用程序、传播真实音频视频信息,必须以引人注目的方式识别。(威廉莎士比亚,Northern Exposure(美国电视新闻))不得利用这项技术制作、发布、传播虚假信息。此外,还规定,不得利用相关音频、视频技术作为“侵犯他人名誉权、肖像权、隐私权、知识产权和其他合法权益”。
所有AI技术的使用都是人类科技发展和进步的体现,但在使用任何高科技或新手段时,都必须遵守法律和道德的底线。用户在体验应用程序时要更加注意。不能只顾乐趣,忽视信息安全及个人信息泄露问题。(过敏)
1.《【抖音蚂蚁呀嘿特效】“蚂蚁啊,嘿”屏幕效果火辣辣的,很冷。AI“换脸”背后有安全隐患。》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。
2.《【抖音蚂蚁呀嘿特效】“蚂蚁啊,嘿”屏幕效果火辣辣的,很冷。AI“换脸”背后有安全隐患。》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。
3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/gl/2588983.html