首页 > 新闻中心 > 数码科技 > 正文

当机器人能决定人类生死时 我们还能信赖它吗?

2016-06-26 12:34 来源:cnbeta 0

­  悄然兴起的智能化武器装备

­  自主武器几十年前就已出现,但数量较少,而且基本上都是用于防御性目的。最近,军事供应商开发出了被认为是进攻型的自主武器。以色列航空工业公司的Harpy和Harop无人机,能朝着敌方防空系统发出的无线电波飞去,撞毁它们。公司称,这种无人机已广泛向全世界出售。韩国国防承包商DoDAAMSystems公司也开发出了一种警卫机器人“超级aEgisII”,装备有机枪,能利用计算机视觉自动探测射击3公里内的目标。据韩国军方报告,已经在临朝鲜边界的非武装地区对这些装备了机器人的武器进行测试。DoDAAMSystems公司称,他们已经售出超过30套这种系统,有些买家在中东。目前,这种自动系统的数量大大超过机器人武器。

­  有些分析师认为,未来几年,武器的自主程度将变得越来越高。位于华盛顿特区的一个无党派研究机构“新美国”的机器人战争专家彼得·辛格说:“战争将会变得完全不同,自动化将发挥重要作用,速度成为关键。”他预测,未来战争的场景就像无人机之间的混战,或机器人战舰和敌方潜艇之间的遭遇战,能提供刹那间优势的武器将决定战争的胜负。“可能是高密度的直接对抗,对人类来说根本来不及介入,因为只在几秒钟内一切就已发生了。”

­  美国军方在一份无人系统路线图中,对这种新型战争列出了一些详细计划,但它在武器化方面的意图仍含糊不清。国防部长罗伯特·沃克去年3月曾在一次论坛中强调,要在AI和机器人方面投资,并称在战场上出现越来越多的自动化系统是不可避免的。

­  问及关于自主武器时,沃克坚持美国军方“不会把做致命决定的权利授权给一台机器。”但他也补充说,如果“竞争对手”更愿意把这样的权利交给机器的话,我们也不得不决定,怎样才能最好地竞争。

­  在开发陆海空无人战斗系统方面,俄罗斯也遵循同样策略,但至少现在还依靠人类操作。俄罗斯的M平台是一种小型遥控机器人,装备有卡拉什尼科夫步枪和榴弹发射器,类似美国“魔爪SWORDS”系统(配备M16及其它武器的地面机器人)。俄罗斯还造了一个更大的无人战车Uran-9,配备30毫米机关炮和反坦克导弹,去年还演示了一个人形战士机器人。

­  联合国一直坚持讨论致命自主机器人已近5年,但其成员国还未能起草一份协议。2013年,联合国人权问题特别报告员克里斯·海恩斯写了一份有影响的报告指出,世界各国有一个难得的机会,在自主武器大规模发展之前讨论它们的风险。

­  今年12月,联合国“特定常规武器公约”将召开5年审查会议,致命性自主机器人的话题将提上日程,但要在会议上通过禁令是不可能的。这一决策需要所有参会国一致同意,在如何处理未来可能出现的泛自主武器问题上,各国仍存在根本分歧。

­  最终,“杀手机器人”的辩论似乎更关乎人类自身而不是机器人,自主武器也和其他任何技术一样,至少在第一次使用时,应该更加谨慎,否则会是混乱和灾难性的。像“自主作战机器人是个好主意吗?”这样的提问可能不太合适,更好的应该是“我们确信自己能充分信任机器人并和它们生活在一起吗?”

­  兼顾逻辑与道德的无人驾驶车

­  设想一下,将来的某个夜晚,一个醉醺醺的行人突然在一辆无人驾驶汽车前面摔倒,结果当场被撞死。如果车里有人,这会被认为是一次事故,因为行人显然有错,理性的司机也难以及时躲避。但到了本世纪20年代,随着无人驾驶汽车日益普及,车祸发生的概率会减少90%,对应司机过失的“理性人”的法律标准也会消失,对应的标准是给“理性机器人”。

­  死者家属会把汽车制造商告上法庭,指称汽车虽然来不及刹车,但它应该躲避周围行人,越过双黄线,撞上旁边车道上那辆空空的无人驾驶车。而根据该汽车的传感器数据分析,再现撞人场景也确实如此。原告律师会质问汽车头部软件设计师:“为什么汽车不会转弯?”

­  但法庭绝不会质问一个司机,为什么即将撞车前他不采取某个紧急措施,因为这是毫无意义的——司机惊慌失措无法思考,只能凭本能做事。但如果司机是个机器人,问“为什么”就变得合理了。

­  在人类的道德标准、有瑕疵的法典案例、各种各样工程师想不到的假设情况中,最重要的假设是:一个有着良好判断能力的人知道何时应不顾文字上的法律条规,真正维护法律精神的至高无上。现在工程师必须做的是,把一些基本的判断因素教给自动驾驶汽车和其他机器人。

­  目前,在英国部分地区、德国、日本、美国4个州和哥伦比亚特区,法律已明确允许对完全自动化车辆进行测试,但车里还要有一个测试司机。谷歌、日产、福特及其他公司也表示,他们预计在今后5到10年内实现真正的无人驾驶操作。

­  自动车辆获得环境信息是通过一系列传感器,如视频摄像机、超声波传感器、雷达和激光雷达(激光测距)。在加利福尼亚州,申请自动车测试牌照要向机动车管理局提供碰撞前30秒的所有传感器数据,工程师可以凭着这些数据精确重现碰撞事故场景。利用汽车的传感器记录,就能推知它决策背后的逻辑。发生车祸后,监管机构和律师能根据这些记录,坚称自动车辆有着超人的安全标准,通过了严格的审查。制造商和软件开发商也将以目前人类司机无法想象的方式,为无人驾驶车的行为辩护。

­  所有驾驶都会涉及到风险问题,但这些风险如何在司机、行人、骑自行车者之间分配,甚至风险的性质都有着道德的成分。无论对工程师还是对一般公众来说,最重要的是自动驾驶汽车的决策系统,它决定了汽车行为中所含的道德成分。

­  对于道德上模棱两可的情况,在遵循法律的同时尽量减少损失。这种策略很有吸引力,因为它允许开发人员为肇事车“不作为”的行为辩护,也向立法者传递了定义道德行为的责任。但不幸的是,这方面的法律尚未完善。

­  在大多数国家,法律依赖于人类的常识,对自动驾驶汽车编程也应遵守法律规定:不得越过双黄线,即使有撞上一个醉汉的风险,即使另一边车道上只有空的无人驾驶车——法律很难为紧急情况制定例外,汽车开发商无从确定何时越过双黄线是安全的。

­  在道路车辆自动化伦理学上,这并非不可解的难题。可以借鉴其他领域的大量案例,来安全合理地处理类似的风险和利益。比如,给病人捐献器官,依据它会带来更有质量的生命还是残疾的生命,还增加了一些对社会更有用的职业。自动驾驶车辆面临的更大挑战是,它们必须在信息不完全、程序员常常考虑不到的情况下,利用编码在软件中死板的道德条规,迅速做出决定。

­  幸运的是,公众并没有过分地期望超人智慧,考虑到伦理道德的复杂性,只要对自动车行为有个合理的判断就可以了。一种解决方案不一定要完美无瑕,但应该是多方考虑、合情合理的。

­  原标题:我们能信赖机器人吗?

­  原标题:当机器人能决定人类生死时 我们还能信赖它吗?

新闻推荐

到头了;
下一条:科学家提癌症神奇疗法:利用癌细胞自相残杀
24小时新闻排行榜