快讯 >

脆弱性:智能化作战体系“阿喀琉斯之踵”

时间:2023-05-16 06:11:35       来源:解放军报

●掌握智能化作战体系的脆弱性特征,宛如洞悉对手的“阿喀琉斯之踵”,通过有针对性的攻击与反制,能够赢得智能对抗的先机

作战体系是各种作战系统按照一定的指挥关系、组织关系和运行机制构成的有机整体。与传统信息化作战体系相比,智能化作战体系呈现出自主、多维、韧性等新反脆弱性特性,鲁棒性得到极大提高。但是,从支撑技术、运行机理等视角看,智能化作战体系仍然存在较为显著的脆弱性,是破坏敌体系有效运行,形成相对智能优势,进而夺取制智权的关键所在。


(资料图)

支撑技术视角:固有缺陷无法避免

系统驱动过分依赖数据。基于深度神经网络的主流军事智能技术,是一种数据驱动模型,即使用海量标记样本来训练、拟合出智能决策模型,数据测试合格后,再部署到实际环境中应用。它并未像人一样理解学习样本真实含义,只不过恰好构建了一个在预设训练集上运行良好的模型。由此构建的智能模型对原始数据轻微扰动具有非线性放大效应,一旦出现了预测空间之外的样本,即不良甚至错误数据,就可能崩溃,作出错误决策,导致决策灾难。

决策模型适应性偏弱。随着技术发展,人工智能技术难点已从数据边界转为决策边界。军事人工智能模型的算法构造和参数设定,天然地依赖于领域知识并受限于有限的数据集空间,须满足确定性信息、完全信息、有限领域等条件,是完全信息博弈。但是,军事决策环境恰好是典型的非完全信息博弈。此外,模型的训练、测试数据与知识范围均基于已有案例产生,但军事决策的对抗性决定了新的决策结论往往与既往相似决策环境中的结论存在差异甚至截然相反,智能模型尚不能够有效产生这种出乎意料、合乎作战艺术之中的决策结论。

算法“不可解释”会衍生风险。作为特殊对抗活动,军事智能系统的决策过程应当具备“可解释性”,也就是人能够理解智能算法决策逻辑过程与结果。但是,当前人工智能系统算法呈现“黑箱”特征,人无法了解并掌握它的决策过程,初始条件、权重等简单参数的微小变化和调整,可能产生复杂的结果。这意味着智能系统存在着结构性漏洞,存在不可预知的决策风险,极可能产生错误甚至危险决策。同时,这还导致军事智能系统的数据、算法、模型等可能存在难以发现的后门或漏洞,无法预知系统安全风险。

运行机理视角:体系控制难度放大

多域交互产生认知失真。智能化作战体系分布于物理域、联通于信息域、角逐于认知域,作战过程中,数据、信号、指令等信息跨域传递,人脑、机脑认知结果多次交互,一组信息需要历经多轮交叉映射,数据失真进而产生信息受损不可避免。

复杂结构导致控制困难。器件小型化、系统集成化,是智能化武器装备平台的典型特征。系统内部器件的小型化使得器件抗毁性、信号完整性受到挑战,相邻器件还可能相互影响造成信号干扰和信息泄露。集成的各子系统之间依靠各类传感器、网络交换元器件和系统通信协议等联结形成新的系统,结构繁复,控制信号难以流畅传递。在此基础上叠加无序的人员意识、错综复杂的关系与机制等要素,进一步放大了这种控制困难。

体系演化加剧不确定性。如果将智能化作战体系视为复杂巨系统,除了系统稳定依赖少数关键节点、作战链路易损易毁等复杂系统共同脆弱性等外,作战体系还存在着涌现性机制不清楚的薄弱环节,即系统知道1+1>2,但是等于几不知道。传统作战体系可通过人的活动来有意识地控制体系演化方向。但是,智能化作战体系的显著特征就是自主性极大增强,除少数关键活动有人介入外,大部分活动均是“人在回路上”,这就导致体系的自主演化方向不可控,既可以趋于稳定,也可能趋向崩溃。

人机协同视角:人机关系难以平衡

人机难以彻底信任。智能化作战体系中,各级指挥机构人机协同,人脑+机脑共同构成指挥主体。作战过程中,除人脑指令外,各级还要贯彻执行机脑下达的指令。受人工智能技术缺陷、决策过程“黑箱”、人的主观意识等因素影响,人很难无条件地信任并接受机器决策结果。这种不信任感可以通过长期人机协同训练降低,但是无法绝对消除。在战场态势发展的关键时刻,一旦人和机器的决策结果发生分歧,势必影响决策速度与质量。

战争伦理无法回避。在未来智能化作战系统中,无论人、机以何种模式共存,人工智能系统的机脑都将获取部分指挥控制权限。但是,战争活动有其特殊性,它直接带来人的流血与死亡。按照“机器人三定律”,机器人不能对人造成伤害。但是,未来智能化战争,军事智能系统的决策与行动,势必造成人类的伤亡。军事智能系统是否拥有对人攻击的权限,其决策权限边界在哪里,滥用这种权限是否导致机器人寻求主动伤害人类等,一直是科学界争论的焦点,也是当前各国发展军事人工智能无法回避的问题。(顾静超 张永亮 王光雷)

关键词: