近年来,人工智能在越来越多的领域和场景中得到了应用,如自主车、医疗、媒体、金融、工业机器人、互联网服务等,其影响范围越来越广。各国工业巨头投入大量精力和资金,开展人工智能关键技术相关的研究和产品开发,推出了不同的人工智能平台和产品。这些发展一方面带来了效率的提高和成本的降低,另一方面也给社会带来了新的伦理问题。
对人工智能伦理问题的讨论不仅包括形而上的研究,还包括寻求解决实际问题和寻求社会共识的讨论。如何在人工智能的新技术条件下找到伦理共识,对经济、社会和政治都具有深远的意义。目前,人工智能领域的各个国家、行业组织、社会组织和商业公司都提出了人工智能的伦理准则来规范人工智能技术本身及其应用。中国政府把人工智能作为产业升级和经济转型的主要动力,鼓励、支持和促进人工智能的发展。在推动我国人工智能发展的关键时期,探讨人工智能的伦理问题具有重要意义。在此背景下,本文着重探讨人工智能所引发的短期和长期伦理问题以及相应的对策,以期真正造福人类。
人工智能的伦理问题和来源
在艺术作品中,很多人都熟悉弗兰肯斯坦的形象——一个出生在雷电中的怪物。人们通常害怕这些强大但不好的力量。人工智能会和弗兰肯斯坦一样吗?我们会创造出最终会毁灭我们的技术吗?包括埃隆马斯克(elon musk)在内的一些技术领导人公开提出了这个问题,很快引起了公众的关注。在人工智能技术的背景下,机器的自主性已经超出了人们之前预期的范围,这当然需要构建新的责任体系。
公众讨论中最著名的人工智能伦理雏形来自科幻作家阿西莫夫提出的机器人三定律。今天我们知道阿西莫夫的机器人三定律并不能一劳永逸地对人工智能建立合理的约束,但它真正的价值在于它提出了一种可能性。这种可能性是,我们创造的技术——在处理某些问题上比我们更快、在机械和体力上比我们更强的“自主”决策机构——不会伤害人类,反而会造福人类社会。三鼎律师事务所要处理的核心问题是人的主体性,这也是讨论人工智能伦理与治理的核心问题。关于人工智能的伦理和治理,无论是涉及算法决策、数据和隐私,还是社会影响,都与人的主体性有关。
从人工智能现有的能力/技术潜力及其给人类社会带来的负面后果来看,会出现两大问题:1。人工智能被赋予了对人类事务进行决策的能力,但对决策结果的伦理判断能力不足;2.人类缺乏指导人工智能发挥作用的终极伦理原则。
第一类问题来自于我们对人工智能系统缺乏对其决策结果的伦理意义的判断的担心。人工智能往往是用来解决某个具体问题的,决策只能通过有限的数据做出,往往无法像人类一样理解更广泛的社会伦理语境。因此,我们害怕人工智能缺乏对决策后果的伦理意义的认识是可以理解的。当人工智能决策的结果涉及一个结果与另一个结果的比较时,往往会导致不可预测的后果。例如,人们可能会给人工智能系统一个获取食物的指令,但该系统会杀死人们的宠物。这是因为人工智能不能完全理解一个结果的伦理意义,所以它错误地执行了指令。在人工智能技术本身缺乏透明性(黑箱问题)的情况下,我们对于人工智能对决策结果缺乏伦理判断能力的担忧就更加严重了。人工智能采用的机器学习往往由于算法(如机器学习)和计算能力的限制,无法追踪机器决策的具体机制。回不去会导致我们提前预测后果、事后改正的能力受到限制,导致我们在决定是否应用人工智能技术时犹豫不决。
第二个问题来自我们对人工智能潜力的担忧。人工智能可能成为所有人类决策的参与者和影响者,但我们不知道没有已知的道德准则来指导上述行为。人类创造的“上帝”无法关爱这个世界,这让我们感到震惊和恐惧。我们担心随着人工智能的发展,会导致现有社会问题进一步恶化,同时可能带来新的社会问题。
基于上述前提,作者从目的和手段两个方面提出了关于人工智能伦理(嵌入机器的伦理)的两个基本思考方向:技术必须促进人的善(体现在人的根本利益原则上);在越来越发达的机器自主的背景下确认人的主体性(体现在责任原则上)。换句话说,认识到新技术本身的特点及其潜在的社会影响,我们可以看到,人工智能伦理应该强调:(1)人们可以利用人工智能获得更大的能力(做好/做坏),所以他们有更大的责任,所以应该更加强调归责;(2)人工智能必须遵守人类设定的伦理规则。这也是《人工智能标准化白皮书》(2018)的基本依据,它提出了人工智能的设计和应用应该遵循的两个基本原则。人工智能,违背了人的根本利益原则,违背了人工智能的伦理原则,无论是用来欺骗客户的营销算法,还是用来歧视部分公民的司法决策系统,还是个人信息的过度收集和滥用。
根据人工智能伦理风险的具体性质和特点,可以从算法、数据和应用三个方面对人工智能的风险进行梳理。为了管理道德风险,需要立法和政策来明确所有相关主体的责任,包括信息提供者、信息处理者和系统协调者。此外,人工智能还可能给社会带来长期的发展风险,比如对就业、市场竞争秩序、产权等现有法律制度的挑战,甚至是生产方式的根本性改变,我们将其归类为长期的、间接的伦理风险。
算法方面
算法中的风险主要包括算法安全性、算法可解释性、算法区分性和算法决策困境。算法安全问题源于算法漏洞受到黑客攻击和恶意利用的挑战。同时,算法从设计、训练到使用都面临着可靠性问题,算法的可用性对可靠性提出了挑战。
算法的可解释性涉及人类的知情兴趣和主体地位,对人工智能的长远发展具有重要意义。国务院颁布了《新一代人工智能发展规划》。同时,潘云鹤院士提到,人工智能应用中需要注意的问题之一是算法的不可解释性。算法的可解释性也引起了国外媒体和公众的关注。例如,电气与电子工程师学会(IEEE)在2016年和2017年连续发布了《人工智能设计伦理指南》白皮书,其中提出了人工智能和自动化系统在很多部分都要有解释能力的要求。2017年初,美国计算机协会美国公共政策委员会发布了《算法透明与问责声明》,提出了七项基本原则,其中一项是“解释”,希望鼓励使用算法进行决策的系统和机构,为算法和具体决策的过程提供解释。2017年,美国加州大学伯克利分校发表了《伯克利对人工智能系统挑战的看法》,从人工智能的发展趋势出发,总结了9个挑战和研究方向。其中之一,第三种,就是开发可解释的决策,让人们可以识别人工智能算法输入的哪些特征导致了特定的输出结果。
算法判别往往与可解释性问题同时出现,即在看似中立的算法中,由于算法设计者在认知上存在一定的偏见或者训练算法使用有问题的数据集,使得人工智能系统的决策具有歧视性。这样的例子媒体时有报道,比如“降低弱势群体信用评分”、“拒绝向‘有色人种’贷款”、“广告主更倾向于向低收入群体展示高息贷款信息”等等。
算法判别主要分为三类:“人为判别”、“数据驱动判别”和“机器自学习引起的判别”。人为歧视是指算法由于人为原因在决策过程中引入歧视或偏见。数据驱动判别是指原始训练数据的偏差,导致算法执行时决策过程中的判别。算法本身不会质疑它接收到的数据,而只是简单地发现和挖掘数据背后隐藏的模式或结构。如果一开始在数据选择上有一些偏差或偏好,算法会得到类似于人为偏差的输出结果。机器自学习引起的判别是指机器在学习过程中会学习到多维的、不同特征的数据。即使有些特征不是人为赋予数据集的,或者程序员或科学家刻意避免输入一些敏感数据,机器在自我学习的过程中还是会学习输入数据的其他特征,从而在决策过程中引入一些偏见。这就是机器自学习造成的歧视。
算法决策的困境源于人工智能的自学习能力导致算法结果的不可预测性。因此,为了减少或消除算法决策的困境,除了提高算法的可解释性外,还可以引入相应的算法终止机制。
就数据而言
数据风险主要包括侵犯隐私的风险和敏感个人信息被识别和保护的风险。在现代社会,隐私保护是信任和个人自由的基础,也是人工智能时代维护文明和尊严的基本方式。人工智能时代,侵犯隐私的风险更大,受害者更多。
传统法律规范中对隐私的保护侧重于保护私人领域的个人活动、私人空,以及保护个人的私人和非公共信息。法律规范以个人信息为基础,区分普通个人信息和敏感个人信息。法律通常对敏感的个人信息给予更高的保护。比如敏感个人信息的处理需要基于个人信息主体的明示同意或重大法律利益或公共利益的需要,这就严格限制了敏感个人信息的自动处理,要求对其进行加密存储或采取更严格的访问控制等安全保护措施。敏感个人信息在授权同意范围之外的扩散,个人信息在收集和使用个人信息的组织机构控制范围之外的扩散,用户在授权范围之外的使用(如改变处理目的、扩大处理范围等)。)可能给个人信息主体的权益带来重大风险。
人工智能技术的应用极大地扩展了个人信息收集的场景、范围和数量。图像识别、语音识别、语义理解等人工智能技术可以采集海量非结构化数据,而人工智能与物联网设备的结合丰富了离线数据采集场景。比如家用机器人、智能冰箱、智能音箱等智能家居设备进入人们的客厅、卧室,实时采集人们的生活习惯、消费偏好、语音交互、视频图像等信息;各种智能助手不仅为用户提供更加便捷的服务,还可以全方位获取和分析用户的浏览、搜索、位置、行程、邮件、语音交互等信息;支持面部识别的监控摄像头可以在个人不知情的情况下在公共场合识别个人并跟踪个人。这些都需要法律进一步规范。
社会方面
与社会相关的伦理问题主要包括算法的误用和误用。算法的滥用和误用是指分析、决策、协调、组织等一系列活动。,其中算法的用途、模式和使用范围发生偏离,造成不良影响或不良后果。比如人脸识别算法,可以提高公安水平,加快发现犯罪嫌疑人。而如果把人脸识别算法应用于发现潜在罪犯或者根据人脸形状判断某人是否有犯罪潜力,则是典型的算法滥用。由于人工智能系统的自动性质,算法滥用会放大算法产生的误差效应,成为系统的重要特征。
算法的滥用主要是算法设计者出于经济利益或其他动机的操纵行为,平台和用户对算法的过度依赖,算法的应用盲目扩展到算法设计中没有考虑的领域。电商平台算法设计师推荐不符合用户兴趣的产品,或者娱乐平台为了自己的商业利益诱导用户的娱乐或信息消费行为,导致用户上瘾等。,所有这些都显示了算法设计者的操作行为。医疗领域过度依赖基于人工智能平台的读图诊断导致误诊,安全领域误判和犯罪引发的问题直接关系到公民的人身安全和自由。
需要注意的是,与社会相关的伦理问题具有以下特点:第一,与个人利益密切相关。比如,算法用于犯罪评估、信用贷款、就业评估等关注个人利益的场合,对个人利益有广泛的影响。第二,他们带来的问题通常很难在短时间内处理。比如深度学习就是典型的“黑箱”算法。如果基于深度学习的模型是歧视性的,那么在处理时很难找出原因。第三,当这类问题出现在商业应用中时,由于资本的逐利性质,公共权益很容易受到侵犯。
人工智能治理的原理与实践
人工智能技术的特点及其伦理挑战给社会治理带来了问题。传统上,治理的前提是能够遵循规则的代理人,也就是人们自己。今天,我们认识到人工智能的特点是高度自治,即其决策不再需要操作者的进一步指令。考虑到这种决策可能产生意想不到的结果,人工智能技术的设计者和使用者必须在人工智能技术的研发和应用的各个方面贯彻伦理原则,以实现对人工智能的有效治理。
在传统技术领域,防止损害的常见方法是在造成损害后进行干预。然而,当人工智能系统造成危害时,考虑干预往往为时已晚。一种更好的方法是将即时持续的伦理风险评估和合规系统建设作为系统运行的一个组成部分,即时持续地评估人工智能系统是否存在伦理风险,并在损害发生前和损害不显著时通过合规系统进行处理。对于人工智能系统的保护,即时连续的风险评估比按下“紧急按钮”要有效得多。
因此,在讨论人工智能治理应遵循的思路和逻辑时,必须警惕行业自律的局限性和立法的滞后性。正如阿西莫夫等科技伦理思想家所认识到的那样,伦理必须在技术层面得到澄清,以确保治理的有效性。构建人工智能的伦理标准是治理不可或缺的一个方面。此外,根据法律和政策的特点制定法律、完善政策、设立控制机构也是治理必须实施的方法。
国内外对人工智能治理的探索值得我们关注和借鉴。比如欧盟对机器人的监管,就体现了基于人工智能伦理设计治理体系的前沿探索。美国2016年发布的战略文件提出要理解和解决人工智能的伦理、法律和社会影响。英国政府在其众多关于人工智能的报告中提出要应对人工智能的法律、伦理和社会影响,其中最典型的是英国议会2018年4月发布的长达180页的报告《英国人工智能发展计划、能力和抱负》。
2017年9月,联合国发布了《机器人道德报告》,其中建议在国家和国际层面制定道德准则。电气与电子工程师学会(IEEE)于2016年启动了“自主/智能系统伦理全球倡议”,并开始组织人工智能设计伦理指南。在未来生命研究所(FLI)的主持下,来自各行各业的近4000名专家签署并支持人工智能的23项基本原则。
中国也在这方面进行了探索和实践。2017年发布的《新一代人工智能发展规划》提出了我国的人工智能战略,提出制定促进人工智能发展的法律法规和伦理规范作为重要保障措施。2018年1月18日,在全国人工智能标准化总组和专家咨询组成立大会上发布了《人工智能标准化白皮书(2018)》。白皮书探讨了人工智能的安全性、伦理性和隐私性,认为设定人工智能技术的伦理要求,取决于社会和公众对人工智能伦理的深度思考和广泛共识,遵循一定的共识原则。
人工智能技术的发展和应用深刻地改变了人类的生活,必然会冲击现有的伦理道德和社会秩序,引发一系列问题。这些问题可能表现为直观的短期风险,如算法漏洞隐患、算法偏差制定的歧视性政策等。,也可能是相对间接和长期的,如对产权、竞争、就业甚至社会结构的影响。虽然短期风险更具体、更明智,但长期风险带来的社会影响更广泛、更深远,也应引起重视。
人工智能技术的快速发展和治理体系的相对稳定之间存在着不可避免的矛盾,这就要求我们明确处理人工智能的基本原则。从国际比较来看,人工智能伦理的基本原则最受关注的是2017年1月在意大利马举行的“有益人工智能”会议提出的“阿西洛马尔人工智能原则”(Asilomar AI Principles),以及电气和电子工程师协会(IEEE)组织的人工智能伦理标准工作。此前,各国也提出了机器人原则和伦理标准。笔者认为,我国人工智能的研究和应用应遵循人工智能伦理的两个基本原则,即人类根本利益原则和责任原则。
人民根本利益原则
人的根本利益原则,即人工智能应以实现人的根本利益为最终目标。这一原则反映了对人权的尊重、人类和自然环境利益的最大化以及技术风险和对社会负面影响的减少。人民根本利益原则要求:
(1)在社会影响方面,人工智能的研发和应用旨在促进人类向善,这也包括和平利用人工智能和相关技术,以避免致命的人工智能武器的军备竞赛。
(2)在人工智能算法方面,人工智能的研发和应用应符合人的尊严,保障人的基本权利和自由;保证算法决策的透明性,避免算法设置中的歧视;促进人工智能利益在全球的公平分配,缩小数字鸿沟。
(3)在数据使用方面,人工智能的研发和应用应注重隐私保护,加强对个人数据的控制,防止数据滥用。
责任原则
责任原则,即在人工智能相关技术的开发和应用中建立明确的责任制度,使人工智能的应用结果导致人类伦理与法律冲突时,人们可以从技术层面追究人工智能技术开发者或设计部门的责任,在人工智能的应用层面建立合理的责任制度。在责任原则下,人工智能技术的发展应遵循透明原则;在人工智能技术的应用中,应遵循权责一致的原则。
透明原则
透明原则要求在人工智能的设计中,人类要知道自主决策系统的工作原理,从而预测其输出,即人类要知道人工智能是如何以及为什么做出具体决策的。透明原则的实现依赖于人工智能算法的可解释性、可验证性和可预测性。
权责一致原则
权责一致原则是指在人工智能的设计和应用中应保证责任的实现,包括在人工智能的设计和使用中保持相关算法、数据和决策的准确记录,以便在产生损害结果时审查和找出责任归属。权责一致原则的实现需要建立人工智能算法的公开审查制度。公开审查可以提高相关政府、科研、商业机构采用的人工智能算法纠错的可能性。合理的公开审查可以保证,一方面合理记录必要的商业数据,监督相应的算法,合理审查商业应用,另一方面,商业主体仍然可以使用合理的知识产权或商业秘密来保护自己企业的利益。
需要明确的是,人工智能的伦理原则不仅要被开发和应用人工智能系统的人类主体(包括科技企业和研究机构、行业的工作者)遵守,而且要嵌入到人工智能系统本身。有些人仍然质疑机器是如何遵循伦理规则的。典型的观点是伦理规则只针对人,不可能为人工智能系统(包括机器人)设定伦理规则。事实上,传统上,伦理原则是针对能够遵循这些原则的代理人,即人本身。但是,考虑到人工智能的特点在于机器对人类智能的“模拟、延伸和扩展”,即它的决策不需要操作员一步一步的指令,并且这种决策可能产生意想不到的结果,人工智能系统也应该受到伦理规则的规范。
结论
社会必须相信人工智能技术能给人们带来利大于弊,从而支撑人工智能的持续发展。这种信任需要我们了解和探讨人工智能领域的伦理和治理问题,并在开发人工智能技术的早期阶段有意识地应用。今天,学者、科技工作者和社会已经达成了一个基本共识,即负责人工智能系统研发和应用的人类主体,包括科技企业和研究机构、行业的科技工作者,都应该遵守一些基本的伦理原则。本文提出的两个基本伦理原则是国内在这方面思考的总结和升华。除了人工智能的基本伦理原则之外,前人给我们的另一个启示是,人工智能伦理应该嵌入系统本身。当我们越来越依赖机器人来代替我们做决策时,我们应该把伦理思维嵌入到决策过程中,而不是等决策结果给我们带来负面影响后再去纠正。
本文希望从更清晰的角度来看待人工智能的伦理和治理。学者和公众需要一起讨论:我们有没有可能阻止人工智能对个人和社会的危害?只有深入思考并妥善解决这个问题,人工智能的发展才有真正的基础。
转自同一法律期刊
1.《透明度原则 人工智能的伦理问题与治理原则》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。
2.《透明度原则 人工智能的伦理问题与治理原则》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。
3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/jiaoyu/1087278.html