专家忧心:军事机器人对人类构成威胁

作者:向天星 发表:2010-04-06 22:23
手机版 正体 打赏 0个留言 打印 特大

3月2日在德国汉诺威举办的电脑展(CeBIT)中,出场表演的“足球机器人”技惊四座。Getty Images

今年3月初在德国汉诺威举办的电脑展(CeBIT),出场表演的“足球机器人”技惊四座,吸引了全场目光。然而,美国智库布鲁金斯研究所(Brookings Institution)资深研究员辛格博士(Dr. Peter Warren Singer)警告,看似蓬勃发展的机器人技术,隐藏着令人忧心的问题。

在伊拉克战场上,美军于地面部署了4,000多个武装机器人,无人飞机也累积了数十万小时的飞行时数。辛格指出,美国空军招募的无人飞机领航员数量,已超过了载人飞机的飞行员。美国军方规划在2015年之前,军队的一半人员由机器人所取代。

据美国防部2007~2032年无人系统计划(Unmanned Systems Roadmap 2007-2032)资料显示,美国预计花费240亿美元投入无人技术系统。专家预测,美国在10年内就可布署编制有150名士兵与2,000名机器人的特遣部队。

英国雪菲尔大学(University of Sheffield)人工智慧与机器人专家夏基(Noel Sharkey)教授则警告:军事机器人对人类构成威胁。

夏基指出,这些以战争为目的制造出来的持枪机器人,自主性愈来愈高,不但可轻易落入恐怖分子手中,随着价格下跌,科技愈来愈简单化,有朝一日或许会引发全球机器人军备竞赛。

迄今,机器人仍需由人类按下按钮,或是扣扳机。但如果人类不小心,情况可能改观。夏基说,最令人忧心的是,目前布署的半自动型军用机器人,将发展到成为完全独立的杀人机器。美军明白表示,想尽快拥有自主型机器人(autonomous robots),就成本效益来说,可打一场无伤亡风险的战争。

夏基曾在英国《卫报》发表专文指出,美国防部为了平息反对声浪,特别投资设计让机器人士兵具备道德判断能力。然而,机器人根本无法有效分辨前方是载满敌军的巴士或只是学童校车,遑论道德判断。

在人类发展机器人早期,俄裔美籍作家兼生化学家以萨.艾西莫夫(Isaac Asimov)在其科幻小说中发表了机器人三大定律:第一、机器人不能伤害人类,见到人类陷入危险也不能置之不理。第二、在不违反第一原则下,机器人必须服从人类命令。第三、在不违反第一、第二原则下,机器人必须保护自己。

但是,各国无视机器人三大定律,争相制造战争机器,这个定律能发挥多少作用令人质疑。

辛格表示,机器人内部所设定的道德程式不是重点,使用机器人的人类之道德水准才攸关重大。夏基则说:“我在人工智慧领域钻研数十年,机器人可决定人类生死的想法,令我十分恐惧。”

《看》杂志订阅网站http://www.watchinese.com



来源:看杂志59期

短网址: 版权所有,任何形式转载需本站授权许可。 严禁建立镜像网站.



【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看中国》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。
荣誉会员

看完这篇文章您觉得

评论



加入看中国会员
donate

看中国版权所有 Copyright © 2001 - Kanzhongguo.com All Rights Reserved.

blank
x
我们和我们的合作伙伴在我们的网站上使用Cookie等技术来个性化内容和广告并分析我们的流量。点击下方同意在网络上使用此技术。您要使用我们网站服务就需要接受此条款。 详细隐私条款. 同意