机器人战争来临人类如何应对?

法律滞后于新技术


维持核武器同时研发致命军用机器人是保障国家安全的一条造价高昂又危险的策略。这些技术产物有可能扩散到流氓国家或组织,更会恶化冲突,加剧暴力与犯罪,增加恐怖主义袭击的风险。要抑制这些威胁,国际社会应当从现有准则中寻找指针。例如,强大的全球准则禁止使用化学武器,新技术产品问世后,可以比照这套规则制定相关准则。例如,2014年的《武器贸易条约》根据长期人权实践与国际法对常规武器的转让进行管控。这份条约制定了很高的国际准则禁止武器转让,规定了各国维护贸易禁运的责任,使人权法得到切实落实。这套模式对现有武器很管用,但对未来的致命性机器人和其他自主作战技术来说,预防性禁令可能有助于从源头上规避高价危险技术的扩散。例如,“阻止杀手机器人运动组织”呼吁实施禁令,而不要采用先造再禁的追加性禁令做法—这样不致于白白送掉许多生命,也可以避免旷日持久的国际争论。

致命性作战技术研发与法律体系之间存在明显差距。《国际人道主义法》被迫总是跟在新武器技术后面扮演追赶者的角色,还要等若干国家对新武器完成试验后才能将这些武器视为国际法管辖的对象。至今《国际人道主义法》没有对无人机—诞生好几年的技术—进行管控,这让国际社会几乎不相信,未来它会对可能出现的自主性致命武器采取行动。

武器管控需要合作

新兴武器装备的隐秘使得国际准则建立起来尤为困难。正如政治学家玛莎·芬尼莫尔在她的书《国际社会中的国家利益》中所写的那样,“武器使用管控恰恰是各国戒备最森严的”。人们认为,安全需要隐秘与独立才能实现,因此相比其他国际问题,这是一种特殊的“野兽”。同时,常识认为,武器技术只能在国家安全不受监管或者少受监管的领域才能出现。

但是,这些看法不一定正确:国家之间可以在安全与防御领域合作,联合国行动和其他地方也有先例。实际上,各国调整了军事学说,不再部署部分武器装备,并因应国际准则的建立禁止使用部分武器。地雷、集束炸弹、激光致盲武器以及化学武器都由于国际禁令的修改而减产或者禁产,未来的武器有可能也照这样处理。

人们很容易想当然地认为,各国只会放弃它们认为不再有用的部分武器。或者只会同意裁掉自己不需要或者原本没有的武器装备,或者在损失代价较低的条件下才会同意裁撤。但是,这些理由是不够的。许多情况下的合作是因为国家安全问题与人道主义因素的结合。新式武器技术的出现会引发别的合作方法,有些是跟传统关联更紧密的,有些新合作形式是来自民间社会更广泛的投入。各国在武器管控上礼让的动机会强化国际社会的决心,佐证一种看法,即联合国能够建立有效的全球准则。

如果管理不当,核武器与未来的致命性自主技术会危及人类。如果不加管理,就会葬送文明。因此,研究如何能让高阶政治安全领域的国家安全学说更加透明,透过国际准则实现互通的表述,并在国际舞台接受国际法的监管就变得至关重要。

关注微信公众号.jpg

更多精彩内容,请扫一扫关注微信公众号!

1 2

相关热词搜索: 机器人战争 来临 人类

上一篇:朝鲜战争与大国谋略
下一篇:谋略学家柴宇球将军在线答网友留言

  • 谋略网 (www.moulue.com.cn) 版权所有 © 2013-2019 皖ICP备13014727号  皖公网安备 34082802000417号
    本站部分内容来自互联网,若侵犯了您的权益,请来信告之,本站将予删除处理!谢谢!
    QQ:76805046 Q群:29847517 VIP群:271211298 倡导共赢谋略,传播正义能量! 常年法律顾问:刘志勇