参考消息网5月14日报道 美国石英财经网站5月11日发表了贾斯廷·罗尔利希的题为的文章,现将原文编译如下:
自主致命性武器——批评者称之为“杀人机器人”——的出现让许多分析人士感到惊恐。在没有人类近距离控制的情况下,装备了人工智能的某些此类武器能以士兵无法企及的速度和效率选定并消灭目标。
包括美国在内的多个国家正在研发自主致命性武器,相关项目包括装备人工智能的无人坦克、无人战斗机等。
各国就此自行实施了一些准则,但专家说这些还不够。美国军方政策规定,无人武器装备作出开火决定时必须有“适当程度的”人类判断,但并未对此作出明确定义,而且允许有例外。美国也是反对在该领域进行国际监管的少数国家之一。
不过,担心爆发军备竞赛的荷兰非政府组织“和平”反战组织最新发表的报告称,要想防止最终的灾难,除了全面禁止之外别无选择。
资料图片:科幻电影中的天网机器人。
资料图片:未来士兵想象图。
这种担忧不无道理。人工智能专家认为这种武器将引发“第3次战争革命”。和前两次战争革命——黑色火药和核弹——一样,此类武器系统能迅速证明其价值,让拥有它们的一方获得几乎不可超越的技术优势。
如果不加以禁止,人工智能武器可能在全世界的军队中投入使用。就像社交媒体一样,在相关公司强烈抵制——而同时技术还在飞速发展——的情况下,试图到后来再回溯性地实施监管将被证明困难重重。
正如“和平”组织所声称的,“将生死决定权交给机器或算法是极不道德的”。
问题是,我们会及时行动起来吗?对于人工智能武器,快速采取行动极为重要。
解禁“杀人机器人”?美军AI发展战略涉伦理争议
参考消息网2月15日报道 据英国网站2月14日报道称,美国军方希望扩大人工智能在战争中的应用,但表示会注意按照国家价值观部署该技术。
报道称,在一份17页的报告中,五角大楼阐述了如何向未来的军事行动注入人工智能,以及如何跟上俄罗斯和中国在未来技术方面的进展。
这份名为的报告标志着,五角大楼首次就如何应对人工智能的兴起制定了战略。
该战略规划要求加快在全军使用人工智能系统,执行从情报搜集行动到预测战机或舰船维护问题等一系列任务。它敦促美国在被其他国家削弱其技术优势之前,迅速推进此类技术。
报告称:“其他国家,尤其是中国和俄罗斯,也在为军事目的对人工智能进行大量投资,其中包括那些在国际准则和人权方面受到外界质疑的应用。”
报告几乎没有提及自动化武器,但引用了2012年的一项要求人工掌控的军事指令。包括美国在内的少数几个国家,一直在联合国阻挠国际社会对“杀人机器人”设下禁令。有朝一日,这种完全自主的武器系统可能在没有人类干预的情况下发动战争。
美国认为,试图对“杀人机器人”进行监管还为时过早。
报道认为,五角大楼本周公布的这项战略报告的重点是更即时的应用,但即便是其中的一些应用也引发了伦理辩论。
去年谷歌的内部抗议导致这家科技公司退出Maven项目后,五角大楼在人工智能领域遇到了障碍。Maven项目是利用演算法分析冲突地区的航拍图像。
其他公司试图填补这一真空,五角大楼正与业界和学术界的人工智能专家合作,为其人工智能应用制定伦理准则。
美国雷神公司人工智能部门副总裁托德·普罗伯特说:“我们所看到的一切都是由人类决策者来决定的。”
普罗伯特说:“该项目正在利用技术帮助加快这一进程,但并没有取代现有的指挥结构。”
专家警告:杀人机器人军备竞赛或导致对平民屠杀
参考消息网11月21日报道 英国网站11月17日发表了题为的报道。
一名人工智能专家透露,美国、英国、俄罗斯、以色列等国正卷入一场打造杀人机器人军团的竞赛。
从自主射击枪械和无人机到遥控超级坦克,美国和俄罗斯的原型机器人已经打造成功并整装待发。而人形机器人上战场也不过是几十年内就会出现的事情——并为这个世界勾勒出可怕的前景。
英国设菲尔德大学的人工智能与机器人学荣誉教授诺埃尔·沙尔基对本网站记者说:“一场军备竞赛已经拉开序幕。”
沙尔基说:“我们现在看到,美国、以色列和俄罗斯已经开始了。如果这些东西登场,那么它们随时可能意外触发战争。”
他还说:“怎样才能取缔它们?你完全可以把这些东西永远搁置起来,可它们只需再充一次电就能再次启动。”
如今,人工智能机器人正在全球掀起一股热潮。沙尔基教授担心,杀人机器人的研发可能也有着如此惊人的速度。因此,他正在领导一场禁止杀人机器人的全球运动。
在本网站披露了相关的最新进展——美国机器人做后空翻——后,这名专家警告说,俄罗斯的最新项目“绝对令人害怕”。
沙尔基表示:“还有很可怕的东西……俄罗斯人研发出了这个被称为‘超级坦克’的东西,而它是世界上最先进的坦克,领先很多。它绝对是一个拥有巨大破坏力的庞然大物,而且他们可以远程遥控它。他们还在努力以最快速度把它变成一种全自动的机器人。”
虽然自主武装机器人比人形机器人领先很多年,但沙尔基教授担心,可能出现的人形机器人也许会给世界带来灾难——导致对平民的大屠杀。
在警告杀人机器人的可怕后果时,沙尔基教授说:“这不可能符合战争法,它们能区分某个目标是军事目标还是民用目标吗?这是战争法的关键。”
他说:“杀死试图投降的人也是不允许的。我知道很多人以为投降就是举白旗,其实投降是指任何表明不再战斗的姿态,比如手无寸铁地躺在地上……但机器人无法对此加以区分。我个人最大的担心是,这会对全球安全造成怎样的破坏——因为一场此类武器的军备竞赛已经拉开序幕。”
资料图片:能做后空翻的美国机器人。
英媒:杀人机器人与现代战争密切相关 要求取缔或为时已晚
参考消息网9月8日报道 英国网站8月22日发表了题为的报道。
对于机器人技术和人工智能领域专家发出的取缔“杀人机器人”的呼声,有一种回应是:你们为什么没有早些想到这一点?
在呼吁制定这方面禁令的116名专家当中,包括像特斯拉公司首席执行官埃隆·马斯克这样的重量级人物。他们说:“让我们采取行动的时间不多了。一旦潘多拉盒子被打开,就很难再关上。”但是或许这样的系统早就存在,比如由英国BAE系统公司研发的“雷神”隐身无人战机,或者由三星公司制造并被部署到韩国边境的SGR-A1无人哨戒机枪。自动坦克也在筹划之中,而人类对于会造成伤亡的无人机的控制正在变成只是程度大小的问题。
不过从本质上讲,自从机器人问世,杀人机器人就伴随我们左右。1920年捷克作家卡雷尔·恰佩克创作的科幻剧本让我们第一次拥有了机器人这个词。他笔下的人形机器人反抗并屠杀人类。从那以后,机器人一直在做这样的事情,从赛博人到终结者。关于机器人的故事很少有好的结局。
甚至很难不在机器人世界末日即将到来的背景下去思考马斯克和与他一道发声的人所提出的这个问题。即便人类最终的命运没有面临威胁,我们也知道其中的某一台机器会出现故障,产生像中Omni公司的机器人警察所制造的那种混乱。
这似乎让一个极为严肃的话题变得过于轻松。这些故事尽管引发了人们深层的恐惧,说到底不过是娱乐。不过,让这一讨论的焦点最终集中在机器人技术有好有坏上,进而暗示只要我们避免坏的技术,就会天下太平,这样的方式未免过于简单。
这个问题要更为复杂。一方面,这涉及更广泛、也越来越紧迫的机器人道德规范的问题;另一方面,这也关乎现代战争的本质。
我们如何让自动技术系统既安全又遵守道德规范?避免机器人给人类造成伤害是阿西莫夫在小说中所探讨的主题,这本科幻小说短篇集对后世影响巨大,以至于阿西莫夫的“机器人三定律”如今有时几乎与牛顿的三大定律一样重要。具有讽刺意味的是,阿西莫夫的小说主要是关于这些出发点良好的定律如何在一些情况下遭到破坏的。
无论如何,道德问题不能简单地被当做一个放之四海而皆准的原则。历史学家尤瓦尔·诺亚·哈拉里指出,无人驾驶汽车需要一些行为准则来确定在面对不可避免并有可能致命的碰撞时应该怎样做:机器人应该去救谁?哈拉里说,或许我们会得到两种模式:利己主义和利他主义。
“人权观察”组织2012年的一份关于杀人机器人的报告带有些许科幻色彩。报告说:“将害怕的平民与具有威胁性的敌方战斗人员区分开来,需要士兵了解一个人行为背后的动机,这是机器人办不到的事情。”此外,“机器人不能受到人类情感和共情能力的约束,而这种情感和共情能力会对杀戮平民的行为起到重要的阻止作用。”但是前面的说法是在表达一种信仰——使用生物特征识别技术的机器人在作出评估方面难道不比用直觉去判断的惊恐的士兵更胜一筹吗?至于后面的说法,给人的感觉是:有时的确如此。但是另外一些时候,身处战区的人也会肆意强奸和屠杀。
这样说不是要反驳报告对于自动机器人士兵的恐惧,我本人也同样对这样的前景感到害怕。不过,这让我们又回到了一个关键的问题上,这个问题无关技术,而是关乎战争。
目前我们对于战争伦理的看法已经带有强烈的随心所欲的色彩。“人权观察”组织的报告说:“使用完全自动的武器带来了问责方面的严重问题,这会破坏在平民保护方面的已有手段。”这样的观点不假,但是只要核武器在国际范围内是合法的,这种说法在道德伦理上就站不住脚。
自动化军事技术的问题与不断变化的战争性质本身存在密切的关联,在恐怖主义和叛乱活动频繁的年代,战争不再有开始或结束,也不再有战场或军队:正如美国战略分析家安东尼·科德斯曼所言:“现代战争所带来的教训之一是,战争不再能称之为战争。”不管我们如何应对这一问题,战争都不会再像诺曼底登陆。
古往今来的战争无不在使用当时可以获得的最先进的技术;“杀人机器人”也不例外。潘多拉的盒子随着炼钢技术的出现而被打开,或者打开得更早。可以肯定,有人从中得到了好处。
我们务必克制自己要铸犁为剑的冲动,不过让国际武器贸易行业不要制造杀人机器人就如同让饮料制造商不要制造橙汁。
资料图片:图为英国“雷神”隐身无人战机。
1.《杀人机器人 危险程度堪比核武?“杀人机器”研发或引发灾难》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。
2.《杀人机器人 危险程度堪比核武?“杀人机器”研发或引发灾难》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。
3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/guoji/36945.html