AI变脸后,又出现了另一个有争议的AI应用:生成女性裸照。
AI前哨注意到,最近有一个国外开发者推出了一个叫“DeepNude”的应用,包括客户端版和web版。输入一个女人的照片后,应用程序可以“自动脱下”女人身上的衣服,生成一张假的裸照。
根据正常的穿着衣服的照片生成女性的裸照
deep裸照官网显示,技术人员开发了一种“高级人工智能算法”,可以识别和删除照片中人的衣服。
美国媒体母板的测试表明,在几十张不同肤色、不同服装的照片中,高分辨率照片的转换结果是最自然的。同时,原图中女性裸露的皮肤越多,转换结果似乎越好。比如输入一个穿比基尼的女人的高分辨率图片,对着镜头,转换后的图片就比较逼真。该算法准确地填充了衣服身体部位的细节,甚至填充了胸部下方的阴影。
但仔细鉴别后可以发现,假图片存在一些缺陷,比如细节模糊、局部图片边缘参差不齐、液化等。在主板的测试中,低分辨率照片转换后缺陷会更明显。
左边是真照片,右边是假照片。图片来自主板。
AI前哨注意到deep裸照网站留下的联系地址位于爱沙尼亚。它的开发者,别名阿尔贝托,接受了主板的采访。他说,该应用程序是基于pix2pix创建的,pix2pix是加州大学伯克利分校开发的开源算法。Pix2pix使用的是生成式对抗网络,在训练算法时需要庞大的数据集支持——阿尔贝托说,他在训练deep裸照时使用了1万张女性裸照。
在主板的测试中,男性照片上传后,女性身体器官也发生了转化。阿尔贝托解释说,他也希望创建一个男性版本的应用程序,但DeepNude目前只能用于女性图片,因为女性裸照更容易在网上找到。
阿尔贝托告诉母板,他大约两年前开始研究人工智能。当他发现创生对抗网可以把白天的照片转换成夜晚的照片时,他意识到把一张有衣服的照片转换成裸照也是可行的。他自称不是偷窥狂,而是科技爱好者。他做这个实验是因为好玩和好奇。
左边是真照片,右边是假照片。图片来自主板。
据了解,DeepNude使用的算法类似于Deepfake,常用于换脸。此前,Reddit用户上传了大量色情视频,用许多著名女明星的面孔替换了原演员的面孔,如盖尔·加朵和艾玛·沃森。很多人认为这样会导致虚假视频泛滥,影响女性权益。
有网友指出,这样大大方便了喜欢色情报复的人,可以把报复对象的脸改成色情视频。所谓情色报复,是指情侣分手后,被甩方发布对方裸照等私密照片和视频。国外有很多这样的案例,受害者往往是女性。
像Deepfake一样,deep裸照的出现很快引起了关注和批评。
“这绝对是可怕的,”复仇色情活动组织的创始人兼首席执行官凯特琳·鲍登说。“现在任何人,即使根本没有拍裸照,也可能发现自己是色情报复的受害者。这项技术不应该向公众开放。”
马里兰大学法学院教授丹妮尔·香橼认为,深度裸体是对性隐私的侵犯。“是的,这不是你真正的私处,但别人会认为他们看到了你的裸体。Deepfake的一个受害者曾经告诉我,她觉得成千上万的人看过她裸体,她的身体似乎不再是自己的了。”香橼说。
阿尔贝托声称他也问过自己,他应该做这个申请吗?会伤害到别人吗?但他说技术足够成熟,就算他不做,别人也会做。“如果有人居心不良,是否有至德也没多大关系。”
加州大学伯克利分校的教授哈尼·法里德看到《裸体写真》时感到震惊。“我们必须在检测深度伪造内容方面做得更好。如何更好地保护技术进步,防止技术武器化或被用于某些计划外的有害目的?学术界和研究人员应该有更多的辩证思维。”法里德对主板说。
他还指出,社交媒体平台应该更仔细地思考如何定义深度伪造的内容,以及如何围绕这些内容制定规则。立法者也需要思考相应的监管措施,以便在这一领域做出深思熟虑的监管。
专注于色情报复的律师凯莉·戈德堡(Carrie Goldberg)在接受《母板》采访时表示,虽然美国很多州都有禁止色情报复的法律,但深度伪造技术的出现就像是对法律的公开挑衅:因为深度伪造内容的展示其实并不是受害者的身体。
她说不管是情色报复还是深度伪造内容,建议大家都不要点,不要赞,不要分享。在她看来,公众有责任抵制这些内容。人们应该道德地使用互联网,而不是打着网络ID的幌子为所欲为。
汇编与综合:南方记者冯群星
1.《女性裸体图片 AI应用可将女性正常照片转换为裸体图片!批评者称侵犯女性权益》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。
2.《女性裸体图片 AI应用可将女性正常照片转换为裸体图片!批评者称侵犯女性权益》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。
3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/tiyu/1068010.html