美军操控的军事机器人
美军专家警告:机器人程序可能发生变异,建议为军事机器人设定道德规范,否则全人类将付出生命代价。
毫无疑问,未来战争中,自动机器人士兵将成为作战的绝对主力。但是美国海军研究室帕特里克·林博士近日在关于机器人士兵的研究报告《自动机器人的危险、道德以及设计》中,对美国军方使用机器人提出警告,建议为军事机器人设定道德规范。研究人员认为,必须对军事机器人提前设定严格的密码,否则整个世界都有可能毁于他们的钢铁之手。
军事机器人已足够聪明
报告中表示,为军事机器人设定道德规范是一项严肃的工作,人类必须正视快速发展的机器人,它们足够聪明,甚至最后可能展示出超过现代士兵的认知优势。
美军操控的军事机器人
帕特里克·林博士在报告中说:“现在存在一个共同的误解:认为机器人只会做程序中规定它们做的事情。可不幸的是,这种想法已经过时了,一个人书写和理解程序的时代已经一去不复返了。”林博士说,实际上,现在的程序大都是由一组程序师共同完成的,几乎没有哪个人能完全理解所有程序。因此,也没有任何一个人能精确预测出这些程序中哪部分可能发生变异。
如何能够保护机器人士兵不受恐怖分子、黑客的袭击或者出现软件故障呢?如果机器人突然变得狂暴,谁应该负责呢,是机器人的程序设计师还是美国总统?机器人应该有“自杀开关”吗?林暗示说,唯一解决这些问题的办法就是提前为机器人设定“密码”,包括伦理道德、法律、社会以及政治等因素。
警告程序师不要急于求成
报告还指出,现今美国的军事机器人设计师往往急于求成,常常会将还不成熟的机器人技术急匆匆推入市场,促使人工智能的进步在不受控制的领域内不断加速发展。更糟糕的是,目前还没有一套控制自动系统出错的有效措施。如果设计出现错误,足以让全人类付出生命的代价。
设计师的这种心理原因可能与美国国会的命令有关。美国国会规定:到2010年前,三分之一的“纵深”打击行动必须由机器人完成;到2015年前,三分之一的地面战斗将使用机器人士兵。
机器人军团正在组建
成本是士兵的10%,可降低士兵伤亡率达60%至80%
目前,一些国家正在组建机器人部队。一些军队的机器人已开始执行侦察和监视任务,替代士兵站岗放哨、排雷除爆。英国谢菲尔德大学计算机系教授夏基认为,机器人的成本仅是士兵的1/10,它替人类厮杀疆场的场景,将有可能在10年内变成现实。目前,世界已在不知不觉中滑进了机器人军备竞赛;而研制出能够决定在什么时候以及向谁动用致命武力的机器人,也许就在今后10年之内。
数千机器人服役美军
2004年美军仅有163个地面机器人。2007年则增长到5000个,至少10款智能战争机器人在伊拉克和阿富汗“服役”。
部署到阿富汗的智能机器人“赫耳墨斯”主要用于探穴钻洞,它身上安装有两个照相机,能爬进漆黑洞穴并向外发送图片;美军机器人“剑”在伊拉克战场更是神通广大,它能轻易通过任何阻碍,备弹200发,装备一挺经改造的M249型机枪,射速高达1000发/分钟,火力强度足以与一挺重机枪媲美;而“背包”机器人则能在巷战环境中捕捉、分辨反美武装狙击手的细微动静;“嗅弹”机器人能灵敏地嗅出伪装起来的爆炸物;名为“仿生苍蝇”的机器人则可做一些复杂的手术……
美国投入千亿研究费
五角大楼的决策者们开始认同,10年内智能战争机器人将成为美军未来主要战斗力。为此投入了美国历史上最大的单笔军备研究费1270亿美元,以完成未来战场上士兵必须完成的一切战斗任务,包括进攻、防护、寻找目标。创意很简单:未来战场上,一个机器人士兵发现目标,然后向指挥所汇报,之后由另一个机器人士兵(或导弹)摧毁目标。
据悉,美军未来一个旅级作战单元,将至少包括151个机器人战士。为了验证这支智能战争机器人队伍的作战能力,美陆军第29步兵团2007年举行了一场“机器人战争演习”:整支机器人作战兵团由18种执行不同任务的机器人组成,每名机器人与战场上各种陆、空作战平台及传感器连接在一起。战斗打响后,地面机器人充当先锋,当隐藏着的敌人攻击它时,空中的无人驾驶侦察机发现敌军位置,通知巡航中的无人驾驶智能战斗机,然后智能战斗机发射导弹命中目标。所有战术行动都由智能战争机器人自行完成。据估算,这支机器人作战部队将使战斗时间缩短一半,而美军士兵伤亡率降低 60%-80%。美军事专家称,到2015年半数美军将是机器人,而另一半是普通人类士兵。
机器人军备竞赛正展开
目前,俄罗斯、英国、德国、加拿大、日本、韩国等已相继推出各自的机器人战士,预计在不久的将来,还会有更多的国家会投入到这项新战争机器的研制与开发中去。
英国专家日前发出警告,随着世界上多个国家不顾法律和道德后果加紧开发军用机器人,一场机器人军备竞赛正在展开。英国设菲尔德大学科学家诺埃尔·夏基说,他对美国等国提出的军用机器人计划进行研究后感到“很害怕”。他最担心的是,机器人今后将自己决定何时“扣动扳机”,而“机器人对于为什么要这样做没有判断能力”。夏基建议,各国政府和机器人研究者应重新考虑目前的研发计划。
驻伊美军机器人“叛乱” 去年正式部署前线仅11小时后便被召回
去年,曾有3台带有武器的“剑(SWORDS)”式美军地面作战机器人被部署到了伊拉克,但是这种遥控机器人小队还未开一枪就很快被从战场撤回——因为它们做了可怕的事情:将枪口对向它们的人类指挥官。
美陆军地面作战指挥官凯文·法赫去年5月证实,这些机器人的“枪管在操作者未发指令的时候自己移动”,也就是说,“剑”式机器人工作时将枪口指向友军部队。而这也导致了这支机器人部队在正式部署前线仅11小时后便被召回。
法赫证实机器人并未开火,也无任何人类在此次事件中伤亡。但这并不意味着零损失,所有关于机器人作战的研究项目都可能因此取消。法赫称:“一旦遇到如此严重的事变,我们必须花上10年乃至20年,推倒重来。”因此,我们必须再等上很久才能看到机器人和人类并肩作战了。
这不仅仅对于机器人工业是重大损失,而且也树立了一个重要先例:关于机器人的任何试验都必须以无人类伤亡为绝对前提。也许对一切事故的极度厌恶,终将导致此领域的任何创新都步履维艰。