人脸识别技术被滥用
2019年,人脸识别技术的发展和广泛应用引发了人们的探讨。芒罗表示,当前公共及私人场所普遍应用人脸识别技术,带来的危害也日益凸显。人们希望各方采取行动来管控人脸识别技术的使用。例如,包括旧金山、萨默维尔和奥克兰在内的少数美国城市通过了限制使用人脸识别技术的法规,这促使美国和加拿大的其他司法管辖区也考虑采取类似政策。
芒罗指出,尽管政府做出了一些管控努力,但人脸识别监视技术在2019年仍以惊人的速度传播开来。在英国,无处不在的闭路电视摄像机系统已与人脸识别技术联系在一起,并被用于识别监视对象及其可能构成的威胁行为。同时,个人消费者也在安装家用监控系统,如亚马逊的智能门铃系统。然而,用户并未因此体会到生活安全性的改善,反而发现这些“智能”系统容易受到黑客攻击,一些警察部门也可以在不事先获得逮捕令的情况下从居民那里获取监控录像。
道德监管委员会名不副实
在芒罗看来,科技公司的工作环境与劳工关系在2019年并没有实现真正意义上的变革。这一年,人们了解到了许多“脸书”内容版主的工作状况。他们要识别和审查种族主义、暴力和色情等内容,不仅薪资低、工作不稳定,而且在应对工作中所遭受的心理创伤方面,也没有得到公司必要的支持。一些亚马逊物流中心工人面临的致命工作条件被曝光,使亚马逊被美国职业安全与健康委员会列入2019年最危险工作场所名单。同时,一些大型科技公司的员工勇敢地对雇主可疑的行为和商业模式发声,但没有得到恰当的回应,甚至遭到了公司的报复。2019年11月,谷歌解雇了四名员工。这些员工此前批评公司和美国海关与边境保护局之间的往来,但谷歌坚称,解雇他们与他们批评公司无关。
2019年,一些高调的“道德洗白”行为也引起人们的担忧。芒罗称,一些科技公司宣称正在制定和准备实施道德守则,并成立伦理咨询委员会,以更好地监督和管理其工作。但这些公司这样做主要是为了避免受到批评和监管,而不是真正要应对道德挑战。谷歌就曾成立了一个外部人工智能伦理咨询委员会,但很快就将其解散。谷歌给出的理由是遭到了员工对委员会成员任职资格的批评。该委员会成员中有一家军用无人机公司的首席执行官和一家右翼智库的负责人。而且有评论人士指出,该智库的负责人曾有反对移民等过激言行。
同样,一个欧盟专家小组发布了一套人工智能开发与使用的道德准则之后,有观察人士注意到,这个由52位专家组成的道德准则专家小组中只有4位伦理学家。这个小组制定的准则也平庸、无力。专家小组成员之一、德国美因兹大学理论哲学教授托马斯·麦琴格曾表示,该小组受到行业代表的影响过大,作用仅相当于一台“道德清洗机”。
公众期待实质性进展
2019年11月,美国皮尤研究中心发布了一项针对4000多名美国人展开的调查。结果显示,有81%的受访者认为,他们因数据收集所面临的风险大于收益。此外,有79%的人不确定这些公司能否妥当地管理这些数据,也不确信他们在滥用或破坏数据后是否会承认错误或承担责任。2019年10月,加拿大民调机构“论坛研究”也曾进行了一项针对约2000名加拿大人的调查。结果显示,有56%的受访者认为,“脸书”、谷歌和其他科技公司正在“使社会变得更糟”;有61%的受访者表示,支持通过更严格的法律,来监管加拿大的科技公司。人们对技术伦理问题的现状感到失望。
尽管如此,芒罗认为,2020年依然值得期待。如今,除了技术人员在监管公司行为方面做出努力之外,民间组织也越来越多地参与进来,一些政府也释放了积极信号。用于监管和引导技术行业变革的资金正在增加,政府开始加大对大型科技公司商业行为的审查力度。加拿大总理已指示,创新、科学和工业部,司法部等部门的部长要在新设立的“数据专员”的帮助下,采取措施保护加拿大人的隐私安全,防止在线数据滥用。芒罗表示,这些都是好的迹象,但能否真正促使科技公司走上符合道德伦理的技术发展道路,还有待观察。
1.《伦理电线在2019 2019年全球技术伦理鲜有进步》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。
2.《伦理电线在2019 2019年全球技术伦理鲜有进步》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。
3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/guonei/417814.html