战地机器人会服从战争法则吗?训练有素的机器代替人上战场,让战争变得“对人类不那么危险”,这可能吗?那些制造和研究这些未来军事机器的公司可对此垂涎不已,满怀希望。现在已经有8000部机器人在战场上投入使用了,但这还不够,这些激进主义者相信他们能带来一场军事变革。目前大多数的机器人都被部署在地面部队,它们只参与非战斗任务例如拆弹等,不同于那些杀人不眨眼的空中四轴飞行器。但鲍勃·奎因对这样的现状不满,他在英国机器人制造商奎奈蒂克的美国分公司工作,他认为将来一定会有更多的武装机器人出现在战场上,包括无人驾驶汽车。“你离子弹越近,你就越感到要是能有一件能遥控的武器该多好,”鲍勃·奎因说。看过《终结者》系列电影的人恐怕会对那种景象心有余悸,奎因承认,即使是在那些老兵油子中,“科幻电影也会引发众多的焦虑”。他同时强调说:“必须确保在可控的情况下由士兵来操作武装机器人,绝对不能让它自主行动。”但彼得·辛格认为现代战争的速度要求使得直接的人为控制变得困难,他是《网络战争》一书的作者。其实自动化的反火**系统已经被部署在阿富汗了。“人类的反应需要时间,如果有一发**火打了过来,我们恐怕连骂娘的时间都没了;但反火**系统能很快反应过来,并且在半空中就能将它打下来,这样我们就安全了。我们可以关上系统,也可以打开,但我们不足以影响它的决策,它有一票否决权,”辛格说。吃素的汽车如果自动化系统可以自己进行决策,那我们怎么能肯定它们打击的是正确目标呢?它们会遵守战争法吗?最近美国军方委派美国学者帕特里克·林对机器人伦理学进行研究。“当谈及所谓的自主机器人时,”林解释说,“我们的自然反应是可以为它们植入道德程序,我们对电脑不就是这样干的吗?”五角大楼曾开发出一种名为EATR的无人驾驶汽车,让世人为之一震,但它也需要被精心编程。 在长途跋涉时,EATR可以通过搜寻有机材料来为自己补充燃料,说到这点,恐怕会有人胡思乱想的认为这种鬼机器是不是可以通过消耗战场上的尸体来为自己补充啊?EATR的发明者,机器人科技公司的罗伯特·冯克斯坦博士**认为这种车会消耗“有机物质但主要是‘素食’”。“这种机器人只能按编程行事,它有一个菜单,”他补充说。但这一切让那些怀疑者感到担忧,诺埃尔·沙基就是其中一员,他是机器人武装控制国际委员会的创始人之一。“你可以训练它干任何事,也可以将世界上所有的道德法则都塞给它。但如果输进去的就不正确的话,那机器再好也没用,”诺埃尔说,“人类可以承担责任,机器人可不能。”如果你不能依靠机器人来确定目标或分辨敌军和无辜平民的话,帕特里克·林还提供了另外一个解决方案。“在一块战斗区域上,如果激战正酣的时候,你可以先假设所有在此区域上的人都是参战分子,”他解释说,“在那种情形下,你就可以使用机器人。一些人管这区域叫‘击杀区’,所有在击杀区内的目标都被假定为合法击杀目标。”无情的机器还有一些其他的研究者认为机器人也许可以避免犯人类战士的错误。罗伯特·冯克斯坦说:“那些被正确编程的机器人不可能犯错误去杀害非战斗人员以及无辜平民,因为它们是没有感情的,它们也不会害怕,不会在某些情形下行为失当。”但伦敦经济学院的克里斯托夫·库克不同意这种观点,他是一位古今战争观察家。 “我们应当信任人类身上的某些因子,”他说,“不幸的是战争报告中通常都把人为因素视为最弱的一环,我认为那并不是最弱的一环,相反我觉得它是最强的一环。”克里斯托夫认为电脑无法模拟出“武士精神”,也无法拥有专业战士的思维模式和道德观念。利用机器人进行军事变革的想法已经快接近付诸实施了,在一些军事冲突地区如阿富汗,遥控四轴飞行器已经是有力的作战武器了。但在地面,机器人的使用到目前为止还有很多限制。鉴于北约部队伤亡所造成的政治影响和民众担忧,机器人制造者鲍勃·奎因的这一套推销说辞可能会很有说服力。他说:“让我们为保障这些勇士们的安全出点力吧,我们会奋勇杀敌的,只可惜现在打战的是你们而不是我们。”
奇兵语:机器人应用于战场的确是一个不错的想法,可以减少战士的伤亡。但是,战争最大的受害者还是平民,如果战争发生在平民区它能十分准确的识别平民和敌人吗!人类的每一项技术都像一柄双刃剑,为人类带来好处的同时不可避免会存在弊端! |