简介:目前,随着第三轮人工智能浪潮的兴起,世界范围内的军事智能化变革也在加快,人工智能已经开始深入到了军队的各个领域。借助人工智能的力量,这款新的武器具有自主的目标选择和攻击目标的能力,可以在不需要人的参与的情况下自我主动完成任务。自主性是人工智能武器的核心属性,而人工智能技术是人工智能武器的技术基石,所以该武器也随之展现出了法律特性。 随着人工智能武器的自主性逐渐加强,它在战争中的应用将会更为广泛。但是,人工智能武器的广泛部署给当前的国际法体系带来了极大的考验。从国际人道法的角度分析,人工智能武器在不断变化的战场环境中,由于缺少对情境意识、道德标准和价值观,同时遵守区分、比例还有预防原则几乎是不可能的;与此同时,新引入人工智能武器中的“致命决策去决定化”,与马尔顿条款倡导的精神截然相反。从国际人道法的视角来看,因为人工智能武器的自主性的不断增强,滥用该武器会极大加大个人责任的追责难度。国家责任在执行过程中也碰到了“拦路虎”,进而出现了责任真空的问题。因此从国际法的层面对人工智能武器进行规制成为最为紧急的事情。 考虑到智能武器在军事领域中的重要性,我们无法完全禁止或者限制它。引入“有意义的人类控制”作为规制内容方面的核心原则,同时确保人类在关键功能和关键环节持有最终决策权。其次,构建人工智能武器的国家审查机制,对其审查的要求和标准进行统一规定。在此基础上,通过在战争犯罪中引入“间接故意”、“过失”等犯罪构成要件,进一步完善和发展我国的刑法体系;与此同时,应加强各国在研发方面的行动,并对其他国家的行动负责,以指导人工智能武器的标准化开发与合理利用。 作为联合国五大常任理事国以及人工智能技术领域的领先者,中国应当践行“人类命运共同体”理念,在研制人工智能武器方面,尽显大国担当。在国际层面,应当积极促进在《特定常规武器公约》平台下推机制建设核军控建设,为全球治理问题贡献中国智慧。从国家层面来说,要从构建新的法律审查机制、完善问责机制等方面着手,防范并应对人工智能武器的潜在风险。展开