人工智能技术对撬动军事变革的作用不容小觑,但与此同时,战争中的技术、伦理、道德等一系列风险与挑战也逐步显现。近几年的几场战争中已经有了像无人机这样的自动杀人机器。有的科幻电影里,也出现了这样的场景:那些自动杀人机器完全不考虑人的生命,他们会肆意杀人或四处破坏。于是,许多国家和地区开始成立相关组织,他们认为人工智能不会毁灭人类,倡导人类禁止发展生产和使用致命的自主武器系统,甚至主张彻底禁止任何机器人技术。


(相关资料图)

图注:人工智能想象图(图片来源于网络)

然而,对于军队来说,这样的伦理困境实质上是不存在的。因为,军队作为国家的暴力机器,是人们实现政治目的的工具。既然如此,“命令和控制”必定会存在于军队的各个方面。如果服务军队的人工智能拥有无法控制的能力,那么军队将失去意义。

因此,走出人工智能的伦理困境,探索与发展人工智能技术是时代之需。

一是制定发展战略。未来,随着超大规模计算、量子计算、云计算、大数据等技术的进步,人工智能的信息处理与控制技术将获得极大发展,在现代战争中所占的技术比重将显著增加。在这样的大背景下,必须及时制定人工智能发展规划与战略,见之于未萌,识之于未发。

二是保证人类的绝对控制权。在完善人工智能战争伦理规范的过程中,应确保人类对智能化武器的控制权,将人机关系纳入战争伦理的讨论维度之中,针对人工智能使用的特殊领域与战场情境建立独立的伦理评价体系,防范人类战争伦理与人工智能参与后的战争伦理相混杂,将技术、伦理与法律等控制手段配合使用、高度融合。

图注:人工智能应用效果图(图片来源于网络)

三是加强国际沟通合作。各国应加强人工智能技术与伦理层面的交流与沟通,建立起长期有效的对话机制,根据现有国际准则推进人工智能相关研究,加强人工智能的技术预测与评估,在充分试验与分析的基础上逐步推进人工智能技术的军事应用。

正如第一次工业革命中蒸汽改变了世界一样,人工智能正以飞快的速度改变着这个世界。未来的军事系统不仅仅是“物质系统”“能量系统”“信息系统”,还是一个人机融合的“智慧系统”;需要指出的是,无论未来战争如何演变,在新模式下人依然是最终决策者,人类战士将根据需要自主进出作战链,采取必要的干预措施。如何确保人类能够随时接管控制权,将是今后一段时期内,人机协同技术发展面临的最大挑战。

专家简介:翁宗波,军事装备科普专家,主要从事国内外高科技装备、各兵种主战装备、联合作战战略战术等方面的研究,先后在《解放军报》《中国国防报》《兵器》杂志等军事类报刊杂志发表文章200余篇,个人荣立三等功1次。

出品:科普中国军事科技前沿

作者:翁宗波(军事科普作家)

策划:金赫

科学审核:费伯禹(资深军事编审)

监制:光明网科普事业部

【征稿】

为在全社会普及科技知识、弘扬科学精神、传播科学思想、倡导科学方法,光明网科普频道面向创作者征集各类原创优秀科普、科幻作品,鼓励广大科技工作者、各领域专业人士、在职教师与在校学生等积极参与,首次投稿作者请提供个人简介。投稿邮箱:gmkepu2023@163.com。

推荐内容