相关技术人员使用一个因果模型分析表示,能够识别AI生成艺术品的相关方面,以及这些不同方面是如何相互影响的。其中偏见比其他问题更有害。GoArt是一个类似DeepArt的平台,它将克莱曼婷·亨特的《黑矩阵女主角》的面部颜色从黑色改为红色,将其转化为表现主义风格。另一个AI生成的艺术工具,“Abacus”将拉斐尔和皮耶罗·迪·科西莫作品中留长发的年轻男性错当成了女性。
相关技术人员将这些问题归咎于用于训练生成人工智能模型的数据集失衡,指出,这可能受到数据集管理员偏好的影响。
例如,研究中提到的一款应用“人工智能肖像”人工智能使用了4.5万幅文艺复兴时期的肖像画,其中大部分是白人。根据研究人员的说法,另一个潜在的偏差来源可能是标记过程中的不一致。不同的注释者有不同的偏好、文化和信念,这些可能反映在它们创建的标签中。
在艺术流派、艺术家、艺术运动等方面可能存在不平衡。另外,描述不同种族、外貌等信息也没有纳入数据集,因此造成了代表性偏见。错误地建模或忽视某些微妙的信息,生成艺术可能会助长对过去社会、文化和政治方面的错误认知,并阻碍了解重要历史事件。
1.《AI技术没有考虑到社会经济的影响 存在着明显偏见》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。
2.《AI技术没有考虑到社会经济的影响 存在着明显偏见》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。
3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/keji/2189680.html