人工智能军事应用及其国际法问题.docx
《人工智能军事应用及其国际法问题.docx》由会员分享,可在线阅读,更多相关《人工智能军事应用及其国际法问题.docx(12页珍藏版)》请在优知文库上搜索。
1、O1.人工智能军事应用的主要领域与以往大多数新兴军事技术不同,人工智能技术并不专属于某个作战空间或领域,而是能蜉应用于各领域并提升武器装备性能的一种技术,甚至可以改变现有战争形态。根据一些学者的分类,人工智能目前可以分为“弱人工智能和强人工智能两类,弱人工智能能蜉借鉴人类的智能行为.以减轻人类智力劳动强人工智能则是达到甚至超越人类智慧水平的人造物,具有心智和意识、能根据自己的意图开展行动.从目前来看,强人工智能”的出现依然较为遥远,但基于大数据和深度学习的计算机视觉、语音识别、自然语言处理等弱人工智能”技术正在不断地得到开发应用,因此本文仅讨论“弱人工智能”的军事应用问题。通过梳理现有文献与案
2、例可以发现,人工智能的军事应用主要集中在情报与侦察、作战决策与指挥控制、自主武器系统、训练与演习、作战支援与保障等领域。在情报与侦察领域,由于人工智能在图像、语音识别方面具有强大能力,其与各类传感器的结合能够大幅提升战略与战术侦察能力,提升卫星照片判读、光学/电子侦察、水声探测识别的效率例如,美国国防部2017年启动了Maven项目,以实现计算机从视频图像中自主识别人员、车辆等目标,并计划在后续将其集成在各类平台上.当年12月,Maven项目的原型系统已经部署在美军中央司令部和非洲司令部的辖区进行试验,并在一周时间内使目标识别准确率从60%提升至80%.尽管该项目曾因合作方谷歌的退出而受到影响
3、,但目前仍在美国国防部的重点支持下平稳推进.在作战决策与指挥控制领域,人工智能因具有出色的数据处理、系统集成、高性能计算能力,被视为辅助甚至替代决策者与指挥员的工具.美军目前提出的联合全域指挥控制(JADC2马赛克战忠诚僚机分布式杀伤”等概念对人工智能算法支持的任务规划、态势分析、作战决策、指挥控制、通信传输提出了较高要求,以期加快决策速度并提高作战效率,克服人力处理信息的局限性.在自主武器系统领域,人工智能使得传统的遥控式无人武器开始向不受人工干预的自主武器方向升级,这是目前人们关注人工智能军事应用问题的焦点.目前关于自主武器还没有公认的定义.美国国防部认为,自主武器系统指的是“一旦启动,可
4、以在不受操作人员干预下选择目标并交战的武器系统,它也包括受到人类监督的此种武器系统.国际红十字会也提出了类似的定义,并明确其应区别于自动武器/半自主武器,以及遥控武器.也有一些学者从人机关系角度出发,根据约翰博伊德提出的OoDA(观察一判断一决策一行动)循环,将自主武器分为半自主武器、有监督的自主武器和完全自主武器。从目前各国发展人工智能军事应用的公开资料来看,自主武器无疑是重中之重.就包含半自主与完全自主的广义范围而言,目前各军事大国正在研发或部署阶段的此类武器已涵盖了防空系统、主动防御系统、机器哨兵、制导弹药、巡飞武器等.此外,还包括自主无人机、无人车辆、无人舰艇、战斗机器人等主战装备,例
5、如美国的MQ-9无人机、海上猎手”无人船,俄罗斯的“天王星-9战斗机器人、涅列赫塔无人战车、无人版T-14主战坦克,以色列的哈比无人机,韩国的SGR-A1自动岗哨炮等.值得一提的是,除了常规武器,俄罗斯还专门研发了具有自主能力的战略武器.如携带核弹头的波塞冬(Poseidon)核动力无人潜肮器.目前,上述一些装备已经以集群编队的方式进行了测试,甚至已被部署到战场使用。人工智能技术还在训练与演习、作战支援与保障领域得到广泛应用.这里主要包括训练模拟、计算机推演、网络攻防、信息作战、医疗救护、维修保障等用途.例如,美国国防高级研究计划局(DARPA)正在推进先迸空战演进”项目,以对人机协同作战提供
6、训练;而在DARPA举行的A1.phaDogfight人机空战对抗模拟演习中,人工智能以5:0的比分战胜了美军F-16飞行员.02人工智能军,应用对国际法带来的挑战新军事技术的出现往往对战争模式和交战规则带来巨大甚至颠覆性的影响,从而对已有的国际法体系带来了挑战。针对这个问题,1977年的日内瓦公约第一附加议定书在第36条“新武器”明确了各国应当承担的国际义务,即在研究、发展、取得或采用新的武器、作战手段或方法时,缔约一方有义务断定,在某些或所有情况下,该新的武器、作战手段或方法的使用是否为本议定书或适用于该缔约一方的任何其它国际法规则所禁止.人工智能的军事应用当然也应遵循这一条规定.近年来,
7、人们已普遍认识到致命自主性武器(1.AWS)对国际人道主义法带来的严峻挑战.2016年中国政府向特定常规武器公约五审会提交了立场文件,呼吁从国际法层面对致命自主武器引发的人道主义问题进行规制.相关研究人员也就致命自主武器对国际人道主义法的区分原则、比例原则、责任归属等方面引发的问迤展开了较为广泛的讨论。但是,在致命自主性武器与人道主义问题以外,更为广泛的人工智能军事应用还可能在武力使用合法性、国家主权、武器犷散方面对现有国际法造成挑战,由于其对国际安全与地区稳定具有重要影响,需要引起国际社会的同等重视.2.1 对武力使用合法性的挑战目前的国际法已对武力使用的合法性做出了严格规定.联合国宪章第1
8、章第2条第4款规定:”各会员国在其国际关系上不得使用威胁或武力,或以与联合国宗旨不符之任何其他方法,侵害任何会员国或国家之领土完整或政治独立,这一条款禁止了武力的使用,并受到联合国会员国的普遍认可,在法律层面上有强制约束力.但在普遍禁止之外,国际法还针对两种例外情况授予了使用武力的合法性,根据联合国宪章第7章第42条和第51条,这两种例外分别是:(1)安理会授权以武力维持或恢复国际和平及安全;(2)会员国受武力攻击时行使单独或集体自卫。从以往的经验来看,由于使用武力的决策权一直牢牢地掌握在武器使用者的手中,新军事技术本身几乎不会对武力使用的合法性产生景乡响。但是,随着人工智能开始逐渐被用在军事
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 人工智能 军事 应用 及其 国际法 问题
