系统工程与电子技术, 2023, 45(9): 2793-2801 doi: 10.12305/j.issn.1001-506X.2023.09.18

系统工程

基于多智能体强化学习的协同目标分配

马悦1,2, 吴琳3, 许霄3

1. 国防大学研究生院, 北京 100091

2. 中国人民解放军31002部队, 北京 100091

3. 国防大学联合作战学院, 北京 100091

Cooperative targets assignment based on multi-agent reinforcement learning

MA Yue1,2, WU Lin3, XU Xiao3

1. Graduate School, National Defense University, Beijing 100091, China

2. Unit 31002 of the PLA, Beijing 100091, China

3. Academy of Joint Operation, National Defense University, Beijing 100091, China

通讯作者: 马悦

收稿日期: 2021-12-31  

Received: 2021-12-31  

作者简介 About authors

马悦(1990—),男,工程师,博士研究生,主要研究方向为军事运筹、智能决策 。

吴琳(1974—),男,教授,博士,主要研究方向为军事运筹 。

许霄(1989—),男,工程师,博士,主要研究方向为军事运筹 。

摘要

针对传统方法难以适用于动态不确定环境下的大规模协同目标分配问题, 提出一种基于多智能体强化学习的协同目标分配模型及训练方法。通过对相关概念和数学模型的描述, 将协同目标分配转化为多智能体协作问题。聚焦于顶层分配策略的学习, 构建了策略评分模型和策略推理模型, 采用Advantage Actor-Critic算法进行策略优化。仿真实验结果表明, 所提方法能够准确刻画作战单元之间的协同演化内因, 有效地实现了大规模协同目标分配方案的动态生成。

关键词: 协同目标分配 ; 多智能体协作 ; 强化学习 ; 神经网络 ; Advantage Actor-Critic

Abstract

Aiming at the problem that traditional methods are difficult to apply to large-scale cooperative targets assignment in dynamic uncertain environment, a cooperative targets assignment model and training method based on multi-agent reinforcement learning is proposed. Through the description of related concepts and mathematical models, the cooperative targets assignment is transformed into a multi-agent cooperation problem. Focusing on the learning of top-level assignment strategy, the scoring model and reasoning model of strategy are constructed, and the Advantage Actor-Critic algorithm is used for strategy optimization. The simulation results show that the proposed method can accurately describe the evolution of the cooperative relationship between operational units, and effectively realize the dynamic generation of large-scale cooperative targets assignment scheme.

Keywords: cooperative targets assignment ; multi-agent cooperation ; reinforcement learning ; neural network ; Advantage Actor-Critic

PDF (2372KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

马悦, 吴琳, 许霄. 基于多智能体强化学习的协同目标分配. 系统工程与电子技术[J], 2023, 45(9): 2793-2801 doi:10.12305/j.issn.1001-506X.2023.09.18

MA Yue. Cooperative targets assignment based on multi-agent reinforcement learning. Systems Engineering and Electronics[J], 2023, 45(9): 2793-2801 doi:10.12305/j.issn.1001-506X.2023.09.18

0 引言

协同目标分配, 决定了兵力运用的科学性和合理性, 是将作战意图落地为作战行动的关键环节[1]。在同一时间或空间范围内, 多个作战单元为完成同一项作战任务或相互之间存在逻辑关系的多个作战任务时, 需从时间、空间和效果等角度考虑, 进行目标或火力的合理分配, 以最大作战效费比和最小作战风险获得最优打击效果。

协同目标分配是一种典型的非线性多项式完全问题, 决策空间随问题规模(即作战单元数目和作战目标数目)增大呈指数级增长, 求解结果的的实时性、准确性和有效性将直接影响军事对抗中能否取得最佳作战效果。在军事运筹领域, 协同目标分配通常被规约为兵力分配、火力分配或武器目标分配(weapon target assignment, WTA)等问题[2-3], 常用求解方法可分为传统规划方法[4]、模拟退火(simulated annealing, SA)算法[5-6]、蚁群优化(ant colony optimization, ACO)算法[7]、粒子群优化(partical swarm optimization, PSO)算法[8-11]、进化算法(evolutionary algorithm, EA)[12-15]和合同网协议(contract net protocol, CNP)[16]。现有研究虽从不同角度对各种算法进行了改进, 并成功应用于不同场景, 但关于动态不确定环境下的协同目标分配研究较少, 且难以保证大规模目标分配问题的求解效率。

在分布式作战自同步理论中[17], 协同关系体现为作战单元“自底向上组织复杂战争的行为”。将作战单元构建为智能体, 协同目标分配问题便转化为多智能体协作(multi-agent cooperation, MAC)问题, 多智能体强化学习(multi-agent reinforcement learning, MARL)[18]在解决类似协作问题上有着广泛应用[19-23]。据此, 通过分析协同目标分配的军事内涵, 构建了基于MARL的协同目标分配模型, 采用局部策略评分和集中式策略推理, 利用Advantage Actor-Critic算法进行策略学习, 以期能够实现简单场景中训练好的模型直接泛化应用到复杂场景, 从而有效实现大规模目标分配。

1 协同目标分配数学模型

1.1 相关概念

为在统一语义框架下描述协同目标分配问题, 定义以下相关概念。

作战单元, 指能够独立遂行作战任务的基本作战单位, 为执行作战任务提供作战资源。在协同目标分配中, 作战单元是不可再分割的基本作战单位或作战平台。

作战目标, 指战场上存在且具有一定军事价值的客观实体, 是作战单元执行作战任务时所作用的客观对象。

作战协同关系, 指多个作战单元在同一时空范围内执行同一作战任务或具有逻辑关系的不同作战任务时, 在空间部署、时间衔接、目标分配、火力分配和效果达成等方面, 所形成的相互照应、相互配合和优劣互补的关系。

1.2 符号定义

协同目标分配描述过程中, 定义以下符号。

(1) Tg={tg1, tg2, …, tgN}: 打击目标清单列表, N为打击目标总数。

(2) U={u1, u2, …, uM}: 进攻方可用作战单元列表, M为作战单元总数。

(3) W={w1, w2, …, wL}: 进攻方可用弹药类型列表, L为弹药类型总数。

(4) Vtg={vtg1, vtg2, …, vtgN}: 各作战目标被摧毁后的收益价值列表。vtgi为打击目标tgi被摧毁后的收益价值, i∈{1, 2, …, N}。

(5) Vu={vu1, vu2, …, vuM}: 各作战单元被摧毁后的损失价值列表。vuj为作战单元uj被摧毁后的损失价值, j∈{1, 2, …, M}。

(6) Vw={vw1, vw2, …, vwL}: 各类型弹药消耗单位数量后的损失价值列表。vwlwl类型弹药消耗单位数量后的损失价值, l∈{1, 2, …, L}。

(7) Tglt=(tglt, 1, tglt, 2, …, tglt, N): 执行第t次分配方案时被摧毁目标清单。tglt, i表示目标tgi是否被摧毁, tglt, i=1表示被摧毁, 否则tglt, i=0。

(8) Ult=(ult, 1, ult, 2, …, ult, M): 执行第t次目标分配方案时被摧毁单元清单。ult, j表示单元uj是否被摧毁, ult, j=1表示被摧毁, 否则ult, j=0。

(9) Wlt=(wlt, 1, wlt, 2, …, wlt, L): 执行第t次目标分配方案时进攻方的弹药消耗清单。wlt, l表示wl类型弹药的消耗数量。

(10) Vlsumt: 执行第t次目标分配方案时防守方的弹药消耗价值总量。

(11) Wut, j=(wt, j, 1, wt, j, 2, …, wt, j, L): 执行第t次目标分配方案时进攻方作战单元uj的挂载。wj, l为作战单元uj挂载的wl类型弹药的数目。

(12) RPro=[rprol, i]L×N: 进攻方各类弹药对不同作战目标的命中毁伤概率矩阵。rprol, iwl类型弹药对作战目标tgi的命中毁伤概率。

(13) BPro=(bpro1, bpro2, …, bproM): 防守方一体化联合防空反导对进攻方各作战单元的综合命中毁伤概率矩阵。bproj为对作战单元uj的综合命中毁伤概率。

1.3 数学模型

考虑使命任务、弹目匹配以及作战效费比等因素建立数学模型, 如下所示:

$\text { s. t. }\left\{ \begin{array}{l}(\varPhi(t): \left\{\boldsymbol{X}_t, {\bf{BPro}}, {\bf{RPro}} \right\} \\~~~~ \rightarrow\left\{\mathrm{Ul}_t, \mathrm{Tgl}_t, \mathrm{Wl}_t, \mathrm{Vlsum}_t\right\} \\\sum\limits_{i=1}^N x_{i, j, t} \leqslant 1\\ \sum\limits_{j=1}^M x_{i, j, t} \leqslant M_i^{\prime} \\x_{i, j, t} \leqslant 1-\sum\limits_{t^{\prime}=1}^t \operatorname{tgl}_{t^{\prime}, i}\\x_{i, j, t} \leqslant 1-\sum\limits_{t^{\prime}=1}^t \mathrm{ul}_{t^{\prime}, j} \\x_{i, j, t} \leqslant f\left(\sum\limits_{l=1}^L w_{t, j, l}\right) \\i \in\{1, 2, \cdots, N\} \\j \in\{1, 2, \cdots, M\} \\l \in\{1, 2, \cdots, L\} \\t \in\{1, 2, \cdots, T\}\end{array} \right.$

(1) 模型变量

令变量xi, j, t表示在第t次作战目标分配时, 是否指派作战单元uj打击作战目标tgi。当指派单元uj打击目标tgi时, xi, j, t=1, 否则xi, j, t=0。因此, 模型变量为

$\boldsymbol{X}=\left[x_{i, j, t}\right]^{N \times M \times T}$

式中: T为作战过程中进行目标分配的总次数; 模型变量规模为N×M×T, 在相同问题背景下, 随着决策次数T的增大呈线性增长。

(2) 目标函数

模型目标函数, 衡量了作战效果的大小。参数αβ, 用于平衡两部分计算结果对目标函数值的影响;F1(X)表示任务使命完成度, 计算方法如下所示:

$\begin{gathered}\text { s.t. }\left\{\begin{array}{r}\mathrm{Rle}=\frac{M-\sum\limits_{t=1}^{T} \sum\limits_{j=1}^{M} \mathrm{ul}_{t, j}}{M} \\\text { Ble }=\frac{N-\sum\limits_{t=1}^{T} \sum\limits_{i=1}^{N} \operatorname{tgl}_{t, i}}{N}\end{array}\right.\end{gathered}$

式中: Rle和Ble分别表示作战结束后作战单元和作战目标的剩余率。

F2(X)/F3(X)表示作战效费比; F2(X)表示作战过程中摧毁敌方作战目标和消耗敌方弹药所产生的总收益; F3(X)表示作战过程中自身作战单元被摧毁和弹药消耗所产生的总损失, 计算方法如下所示:

$\begin{gathered}F_{2}(\boldsymbol{X})=\sum\limits_{t=1}^{T}\left(\sum\limits_{i=1}^{N} \operatorname{tgl}_{t, i} \cdot \mathrm{vtg}_{i}+\mathrm{Vlsum}_{t}\right) \\F_{3}(\boldsymbol{X})=\sum\limits_{t=1}^{T}\left(\sum\limits_{j=1}^{M} \mathrm{ul}_{t, j} \cdot \mathrm{vu}_{j}+\sum\limits_{l=1}^{L} \mathrm{wl}_{t, l} \cdot \mathrm{vw}_{l}\right)\end{gathered}$

(3) 约束条件

1) Φ(t)表示执行第t次目标分配方案所产生的结果。根据各方弹目匹配关系及命中毁伤概率(BProRPro), 执行作战目标分配方案Xt, 得到进攻方作战单元损失情况Ult和弹药消耗情况Wlt、敌方作战目标被摧毁情况Tglt和弹药消耗总价值Vlsumt

2) $\sum_{i=1}^{N} x_{i, j, t} \leqslant 1$, 表示在第t次分配方案中, 作战单元uj最多只能攻击一个作战目标。

3) $\sum_{j=1}^{M} x_{i, j, t} \leqslant M_{i}^{\prime}$, 表示在第t次分配方案中, 为避免作战资源浪费, 最多只能指派Mi(MiM)个作战单元去攻击作战目标tgi

4) $x_{i, j, t} \leqslant 1-\sum_{t^{\prime}=1}^{t} \operatorname{tgl}_{t^{\prime}, i}$, 表示如果作战目标tgi已被摧毁, 那么在以后作战目标分配方案制定中, 不再指派作战单元对其进行攻击。

5) $x_{i, j, t} \leqslant 1-\sum_{t^{\prime}=1}^{t} \mathrm{ul}_{t^{\prime}, j}$, 表示如果作战单元uj已被摧毁, 那么在以后作战目标分配方案制定中, 不再指派该作战单元执行打击任务。

6) $x_{i, j, t} \leqslant f\left(\sum_{l=1}^{L} w_{t, j, l}\right)$, 表示若作战单元uj已消耗完自身弹药, 那么在以后作战目标分配方案制定中, 不再指派该作战单元执行打击任务。函数$f\left(\sum_{l=1}^{L} w_{t, j, l}\right)$的计算方法, 如下所示:

$f\left(\sum\limits_{l=1}^{L} w_{t, j, l}\right)=\left\{\begin{array}{l}1, \sum\limits_{l=1}^{L} w_{t, j, l}>0 \\0, \sum\limits_{l=1}^{L} w_{t, j, l}=0\end{array}\right.$

2 协同目标分配求解方法

MAC问题的联合状态动作空间, 随着智能体与任务数目的增多呈指数级增长。大规模作战场景下的协同策略训练, 对训练时间和计算能力具有更高要求。因此, 如何能够实现简单场景中训练好的模型直接泛化应用到复杂场景, 是有效解决大规模协同目标分配问题的关键。诸多学者针对上述类似问题, 或利用空间近邻性构建奖励函数和任务分配策略以期实现可泛化应用模型[24-25], 或使用集中式评价方法以期解决分散策略学习问题[26-27]。而Carion提出了一种学习预测模型及训练方法[28], 为解决本文问题提供了很好的借鉴。

协同目标分配, 可表示为MDP(S1, S2, A, R, P, m, n, π), mn分别表示作战单元和作战目标的数目; S1是所有作战目标的联合状态空间, S1i(i∈{1, 2, …, m})是第i个作战目标的状态集; S2A是所有作战单元的联合状态空间和联合动作空间, S2jAj(j∈{1, 2, …, n})是第j个作战单元的状态集和动作集; R: S1×S2×AR为奖励函数; P: S1×S2×A×S1×S2→[0, 1]为状态转移概率; π: S1×S2A为一个确定的联合策略。

考虑远期决策对当前收益影响的衰减, 动作价值函数如下所示:

$q_{\pi}\left(\boldsymbol{S}_{t}, \boldsymbol{A}_{t}\right)=\mathrm{E}\left(R_{t+1}+\gamma q_{\pi}\left(\boldsymbol{S}_{t+1}, \boldsymbol{A}_{t+1}\right) \mid \boldsymbol{S}_{t}, \boldsymbol{A}_{t}\right)$

式中: St为时刻t作战单元和作战目标的联合状态; E(·)为求解期望值的函数。

问题目标是通过学习获取一个最优协同目标分配策略, 保证所有作战单元的协同打击行动能够使奖励函数在长期内达到最大化, 如下所示:

$\pi^{*}=\arg \max \limits_{\pi} q_{\pi}$

2.1 模型训练及应用框架

在此, 构建基于MARL的协同目标分配模型训练及应用框架, 如图 1所示, 具体流程如下。

图1

图1   基于MARL的协同目标分配模型训练与应用

Fig.1   Training and application of cooperative targets assignment model based on MARL


步骤1  基于深度强化学习优化协同目标分配策略。在此, “智能体”是进攻方的各作战单元, “动作”是作战单元选择打击哪个作战目标, “环境”是本文实验平台-计算机兵棋推演系统的模拟仿真环境, “状态”为所有作战单元和作战目标的联合状态。在每一步学习中, 采用“集中式策略推理模型”获取目标分配方案, 各作战单元根据分配方案和固定行动规则对作战目标进行打击, 兵棋系统会实时返回各棋子状态和交战结果。而后, 依据系统环境返回的收益值信息, 利用基于多层神经网络的“评分模型”对该步目标分配方案进行优劣评价, 评价值用于优化策略。

步骤2  最优协同目标分配策略的模拟执行。在利用计算机兵棋系统对某次联合火力打击进行模拟仿真时, 每隔一段时间Δt, 依据最优协同目标分配策略生成目标分配方案, 各作战单元依据当前方案实时调整打击对象。当完成打击任务后, 将得到一个随时间变化的“作战目标分配方案序列”。

作战单元在各目标分配方案中分配得到的作战目标, 组成了该作战单元的打击目标序列; 作战目标在各目标分配方案中是否被打击, 形成了不同作战目标之间的先后打击顺序。

2.1.1 协同目标分配方案表示

在决策时刻t, 一个确定的策略π会根据所有作战单元和作战目标的联合状态〈S1, t, S2, t〉, 给出能够获取最大回报的联合动作At=max π(S1, t, S2, t, t)。At实质就是时刻t的协同目标分配方案, 可用分配矩阵Bt等价表示, 如下所示:

$\boldsymbol{B}_{t}=\left[\begin{array}{cccc}b_{1, 1} & b_{1, 2} & \cdots & b_{1, m} \\b_{2, 1} & b_{2, 2} & \cdots & b_{2, m} \\\vdots & \vdots & \ddots & \vdots \\b_{n, 1} & b_{n, 2} & \cdots & b_{n, m}\end{array}\right]$

式中: bi, j表示作战单元uj是否打击作战目标tgi, 如果打击则bi, j=1, 否则bi, j=0。

若每隔时间Δt生成一次作战目标分配方案, 当完成打击任务后, 将会得到该作战场景下的一个作战目标分配方案序列, 如下所示:

$\boldsymbol{B}=\left[\boldsymbol{B}_1, \boldsymbol{B}_2, \cdots, \boldsymbol{B}_t, \cdots, \boldsymbol{B}_T\right]$

2.1.2 底层固定行动规则

当给定分配矩阵Bt后, 各作战单元将会按照固定行动规则对指派的作战目标进行打击。作战单元的行动规则包括: 作战单元自动规划打击目标的最短路径; 作战目标进入射程范围后, 作战单元将根据自身挂载的命中毁伤概率, 计算弹药发射数量; 作战单元消耗完自身弹药或油料后将自动退出作战。上述行动规划均由计算机兵棋系统自动完成, 符合军事规范并在长期应用中得到验证。因此, 学习任务将聚焦于分配策略π的学习, 而作战单元对作战目标的具体打击行为不需要进行训练。

2.1.3 奖励函数

根据协同目标分配模型的目标函数, 构建强化学习的单步奖励函数, 计算方法如下所示:

$\begin{gathered}R_t=\left\{\begin{array}{l}100\left(\frac{\mathrm{bls}_t}{\mathrm{bvs}}-\frac{\mathrm{rls}_t}{\mathrm{rvs}}\right), d=0 \\r_{-} d, d=1\end{array}\right. \\r_{-} d=\left\{\begin{array}{l}100(1+\mathrm{Rle}), \mathrm{Ble}=0 ; \mathrm{Rle} \neq 0 \\-50, \mathrm{Ble}=0 ; \mathrm{Rle}=0 \\50 \frac{\mathrm{Rle}-\mathrm{Ble}}{\mathrm{Rle}+\mathrm{Ble}}, \mathrm{Ble} \neq 0 ; \mathrm{Rle} \neq 0 \\-100(1+\mathrm{Ble}), \mathrm{Ble} \neq 0 ; \mathrm{Rle}=0\end{array}\right.\end{gathered}$

式中: Rt表示在第t步得到的单步奖励值; bvs和blst表示防守方作战目标及弹药的总价值与第t步时被摧毁/消耗后的总收益; rvs和rlst表示进攻方作战单元及弹药的总价值与第t步时被摧毁/消耗后的总损失; d标识作战过程是否结束, 若结束则d=1, 否则d=0;r_d为作战结束时的奖励值; Rle和Ble分别表示作战过程结束后作战单元和作战目标的剩余率。

2.2 协同策略评分模型

评分模型根据作战单元和作战目标的状态,评价当前策略的优劣。在此,采用多层神经网络构建局部评分模型,通过不断学习优化模型参数来提高模型评分的精确度,可用h(s1, i, s2, j, θ1)和g(s1, i, s1, k, θ2)表示。其中,h(·)对作战单元与作战目标的分配关系进行评分, 反映了指派作战单元uj打击作战目标tgi的优劣; g(·)对作战目标之间的打击顺序进行评分, 反映了作战目标tgi与tgk先后打击顺序的优劣; s2, j表示作战单元uj的状态; s1, is1, k分别表示作战目标tgi与tgk的状态; θ1θ2分别为两个神经网络的参数。

在某一决策时刻, 经过评分后可得到两个评分矩阵HG, 分别如下所示:

$\begin{array}{l}\boldsymbol{H}=\left[\begin{array}{cccc}h_{\theta_{1}}(1,1) & h_{\theta_{1}}(2,1) & \cdots & h_{\theta_{1}}(m, 1) \\h_{\theta_{1}}(1,2) & h_{\theta_{1}}(2,2) & \cdots & h_{\theta_{1}}(m, 2) \\\vdots & \vdots & \ddots & \vdots \\h_{\theta_{1}}(1, n) & h_{\theta_{1}}(2, n) & \cdots & h_{\theta_{1}}(m, n)\end{array}\right]\end{array}$

$\begin{array}{l}\boldsymbol{G}=\left[\begin{array}{cccc}g_{\theta_{2}}(1,1) & g_{\theta_{2}}(2,1) & \cdots & g_{\theta_{2}}(n, 1) \\g_{\theta_{2}}(1,2) & g_{\theta_{2}}(2,2) & \cdots & g_{\theta_{2}}(n, 2) \\\vdots & \vdots & \ddots & \vdots \\g_{\theta_{2}}(1, n) & g_{\theta_{2}}(2, n) & \cdots & g_{\theta_{2}}(n, n)\end{array}\right]\end{array}$

式中: hθ1(i, j)表示对作战单元uj打击作战目标tgi的评分; gθ2(i, k)表示对作战目标tgi与tgk打击顺序的评分。

评分模型h(·)和g(·)分别采用结构相同但参数不同的神经网络, 如图 2所示。h(·)的输入数据为评分对象“作战单元和作战目标”的联合状态向量; g(·)的输入数据为评分对象“作战目标和作战目标”的联合状态向量。作战单元和作战目标的特征状态, 包括类型、位置、自身价值、弹药携带量和弹药单位价值。输入数据经过批标准化层和4个全连接层后, 输出评分数值。

图2

图2   评分模型神经网络

Fig.2   Scoring model neural network


2.3 协同策略推理模型

协同策略推理模型主要负责根据评分矩阵HG确定能够获取最大评分总数的分配矩阵Bt。在协同目标分配策略π为确定性策略时, 分配矩阵Bt只与当前t时刻各作战单元和作战目标的联合状态有关。在学习过程中, 分配矩阵Bt还取决于评分模型的网络参数θ1θ2。因此, 可使用参数化Bt(S1, S2, θ1, θ2)表示分配矩阵。

一种贪婪的策略推理, 是将作战单元指派给h(·)分数最高的作战目标。但贪婪地选择分数最大的作战单元打击作战目标, 实质是默认打击目标的效益与指派打击该目标的作战单元数目呈正比例关系。然而, 当作战单元和作战目标数目较多时, 打击某一作战目标的总收益, 会随着指派作战单元的数目增大而趋于饱和, 从而导致严重的资源浪费。因此, 需要限制打击同一作战目标的作战单元数量。

此外, 还需要考虑不同作战目标的先后打击顺序。当考虑作战目标之间的约束关系时, 可能会出现两种极端情况: 一种情况是作战目标之间的相关关系较弱, 则作战单元会被“分散”指派给各个作战目标并同时执行打击任务; 另一种情况是作战目标之间存在较强的相关关系, 则作战单元会被“集中”指派去打击重要性较大的作战目标, 而后按照重要性顺序依次打击其他作战目标。在实际作战中, 作战目标之间的重要性对比关系, 应处于上述两种极端情况之间。

协同策略推理过程, 可表示为

$\begin{aligned}\max \sum\limits_{i \in n, j \in m} b_{i, j} h\left(i, j, \theta_{1}\right)+\sum\limits_{i, k \in n ; j, l \in m} b_{i, j} b_{k, l} g\left(i, k, \theta_{2}\right) \\\text { s.t. }\left\{\begin{array}{l}\sum\limits_{i=1}^{n} b_{i, j} \leqslant 1 \\\sum\limits_{j=1}^{m} \phi_{i, j}\left(s_{i}, s_{j}\right) b_{i, j} \leqslant \phi_{i}\left(s_{i}\right) \\b_{i, j} \in\{0, 1\} \\\phi_{i}\left(s_{i}\right) \in \bf{R} \\\phi_{i, j}\left(s_{i}, s_{j}\right) \in \bf{R} \\i, k \in\{1, 2, \cdots, n\} \\j, l \in\{1, 2, \cdots, m\}\end{array}\right.\end{aligned}$

式中, bi, j为分配矩阵Bt(S1, S2, θ1, θ2)中第i行第j列的元素, 表示作战单元uj是否打击作战目标tgi; h(i, j, θ1) 为评分矩阵H中第i行第j列的元素, 表示指派作战单元uj打击作战目标tgi的优劣程度; g(i, k, θ2)为评分矩阵G中第i行第k列的元素, 表示对作战目标tgi与tgk的打击顺序的评分; 约束条件$\sum b_{i, j} \leqslant 1 $, 表示指派作战单元uj打击的作战目标数目最多为1; ϕi(si)表示打击作战目标tgi的最大弹药需求量, 使用ϕi, j(si, sj)表示作战单元uj打击作战目标tgi的打击效果; 约束条件$\sum \phi_{i, j}\left(s_{i}, s_{j}\right) b_{i, j} \leqslant \phi_{i}\left(s_{i}\right)$表示指派打击作战目标tgi的作战单元的打击效果之和不能超出该作战目标的打击需求。

2.4 协同策略学习算法

协同目标分配策略的优化, 需要通过学习算法实现。在此, 将“评分”视为一个负责顶层决策的虚拟中心智能体的“动作”, 将“评分模型”作为需要学习的“策略”, 将协同策略推理过程和仿真模拟环境统一看作为学习“环境”, 通过A2C (advantage actor-critic)算法[29-30]进行策略优化。策略网络Actor用于逼近“评分模型”, 评价网络Critic用于逼近整个“环境”运行产生的累计回报。学习优化的基本过程, 如图 3所示, 具体步骤如下。

图3

图3   基于A2C算法的学习过程

Fig.3   Learning process based on A2C


步骤1  策略网络Actor为第2.2节中所构建的评分模型。神经网络接收当前作战单元和作战目标的空间分布状态, 通过网络前向传播计算评分矩阵HG。然后, 将HG作为“动作”输出给协同策略推理模型。

步骤2  协同策略推理模型根据评分矩阵HG, 通过策略推理制定协同目标分配方案, 具体方法如第2.3节所述。然后, 将协同目标分配方案下达给各作战单元, 各作战单元按照底层固定的行动策略执行目标打击任务。

步骤3  评价网络Critic接收目标分配方案单步执行后产生的奖励值, 单步奖励值的计算方法如式(11)所示。然后, 通过神经网络的前向传播计算执行“动作”HG所产生的评价值, 并更新优化网络参数。最后, 将计算得到的关于收益的TD-error输出给策略网络Actor。

步骤4  策略网络Actor接收TD-error后, 更新优化评分模型的网络参数θ1θ2

步骤5  迭代上述过程, 直至学习结束。

3 实验验证

在某型计算机兵棋系统上, 以联合火力打击为例, 验证本文协同目标分配方法。

(1) 实验设计与数据

实验背景: 为保证联合任务部队能够顺利渡海登陆, 现对敌沿岸雷达阵地、防空阵地、机场和指挥所进行联合火力打击。

实验思路: 构建两个不同复杂度的实验场景, 如表 1所示; 在小场景中进行模型训练, 而后在相同场景下, 应用训练好的模型进行仿真模拟, 验证模型构建和训练的合理性; 最后, 将训练好的模型直接泛化应用的大场景中, 验证解决大规模问题的有效性。实验数据: 敌我双方武器平台、作战目标及弹药的价值系数, 是综合造价和影响己方作战程度而计算的评价值。敌方一体化防空反导, 弹药类型以W表示, 其价值系数为0.05。综合考虑武器平台性能及挂载类型、作战目标性质以及弹目匹配关系, 敌我双方的“武器-目标”命中毁伤概率, 如表 2所示。

表1   武器平台和作战目标信息

Table 1  The data of platform and operational targets

类型平台价值系数挂载类型数量弹药
小场景大场景数量价值系数
常导0.6W128--
歼轰机10.4W23440.05
歼轰机20.5W23440.05
轰炸机0.6W32380.05
雷达0.5-24--
导弹发射架0.8-414--
机场跑道0.6-12--
指挥所0.9-12--

新窗口打开| 下载CSV


表2   武器-目标命中毁伤概率

Table 2  Hit and kill probability of weapon-target

武器目标
常导歼轰机1歼轰机2轰炸机雷达防空阵地机场跑道指挥所
常导----0.60.700.8
歼轰机1----0.80.700.6
歼轰机2----0.60.60.50.7
轰炸机----0.700.70.6
防空反导系统0.40.40.40.5----

新窗口打开| 下载CSV


(2) 小场景下模型训练与验证

由于“武器-目标”命中毁伤概率小于1, 即便训练得到的策略最优, 也会出现收益值很差的情况。在此, 将每一轮训练的总回报, 设置为本次训练总回报与前一轮训练总回报的综合值, 计算方法如下所示:

$G_{n+1}^{\prime}=0.9 G_n^{\prime}+0.1 G_{n+1}$

式中: Gn+1为第n+1次训练周期的综合回报值; Gn为第n次训练周期的综合回报值; Gn+1为第n+1次训练周期的原始回报值。

根据本文方法构建评分模型、推理模型和学习模型, 利用计算机兵棋系统进行1 050轮学习训练。训练过程中, 综合回报值随训练次数的变化曲线, 如图 4所示。可见, 基于A2C算法的策略优化方法能够保证策略回报值趋于收敛, 从而得到最优协同目标分配策略。

图4

图4   仿真实验结果

Fig.4   Results of simulation experiment


在相同场景下, 使用训练好的模型和策略, 进行70次模拟仿真验证, 统计以下信息: 模拟仿真回报值, 如图 5(a)所示; 任务完成度(作战目标的摧毁数目与初始数目之比)和进攻方作战单元剩余率, 如图 5(b)所示。

图5

图5   小场景下模型验证结果

Fig.5   Results of model verification in small scenes


(3) 大场景下模型泛化应用

在大场景下, 不进行任何学习训练, 直接使用小场景中训练好的模型和策略, 进行70次模拟仿真泛化应用验证, 统计信息如图 6所示。

图6

图6   大场景下模型泛化应用结果

Fig.6   Results of model generalization application in large scenes


(4) 实验结果分析

1) 在小场景验证实验中, 综合回报值落在区间[50, 200]的模拟次数占总次数的77%;能够百分之百完成打击任务的模拟次数占总次数的78.6%, 而能够保证自身损失不超过50%的模拟次数占总次数的48.6%。虽然存在我方损失很大而敌方损失较小的情况, 但非协同分配策略导致, 而是由于敌我双方命中毁伤概率小于1产生的小概率随机结果。因此, 训练优化的策略能够保证进攻方以较小损失完成联合火力打击任务。

2) 在大场景泛化应用实验中, 综合回报值落在区间[50, 200]的模拟次数占总次数的62.9%;能够百分之百完成打击任务的模拟次数占总次数的71.4%。相比小场景实验, 进攻方的作战单元损失较大且收益平均值较小。主要原因是大场景下作战目标是小场景的2.75倍, 而武器平台只是小场景的1.9倍, 因此进攻方会产生更大的损失。但训练优化的策略, 依旧能够保证进攻方以较大概率完成联合火力打击任务。

4 结论

本文针对传统方法难以实现动态不确定环境下的大规模协同目标分配问题, 提出了基于MARL的协同目标分配方法。通过策略分层将学习任务聚焦于顶层分配策略的学习, 构建了策略评分模型和策略推理模型, 并基于A2C算法进行策略的优化学习。实验结果表明, 基于多智能体系统对作战单元协同作战行为进行建模, 能够形象地刻画协同作战的演化内因; 基于A2C算法的策略优化方法, 能够确保最优协同目标分配策略的有效生成; 而生成的最优目标分配策略, 能够在执行时以较好的效果完成联合火力打击任务。

参考文献

欧峤,贺筱媛,陶九阳.

协同目标分配问题研究综述

[J].系统仿真学报,2019,31(11):2216-2227.

DOI:10.16182/j.issn1004731x.joss.19-FZ0382      [本文引用: 1]

OUQ,HEX Y,TAOJ Y.

Overview of cooperative target assignment

[J].Journal of System Simulation,2019,31(11):2216-2227.

DOI:10.16182/j.issn1004731x.joss.19-FZ0382      [本文引用: 1]

KLINEA,AHNERD,HILLR.

The weapon-target assignment problem

[J].Computers and Operations Research,2019,105,226-236.

DOI:10.1016/j.cor.2018.10.015      [本文引用: 1]

KLINEA G,AHNERD K,LUNDAYB J.

Real-time heuristic algorithms for the static weapon target assignment problem

[J].Journal of Heuristic,2019,25(3):377-397.

DOI:10.1007/s10732-018-9401-1      [本文引用: 1]

MA F, NI M F, YU Z K, et al. An optimal assignment of multi-type weapons to single-target[C]//Proc. of the IEEE Advanced Information Technology, Electronic and Automation Control Conference, 2015: 75-78.

[本文引用: 1]

SONUCE,SENB,BAYIRS.

A parallel simulated annealing algorithm for weapon-target assignment problem

[J].International Journal of Advanced Computer Science & Applications,2017,8(4):87-92.

[本文引用: 1]

吴坤鸿,詹世贤.

分布式遗传模拟退火算法的火力打击目标分配优化

[J].火力与指挥控制,2016,41(3):89-92.

DOI:10.3969/j.issn.1002-0640.2016.03.022      [本文引用: 1]

WUK H,ZHANS X.

Optimization for target assignment in fire strike based on distributed genetic simulated annealing algorithm

[J].Fire Control & Command Control,2016,41(3):89-92.

DOI:10.3969/j.issn.1002-0640.2016.03.022      [本文引用: 1]

HU X W, LUO P C, ZHANG X N, et al. Improved ant colony optimization for weapon-target assignment[EB/OL]. [2021-12-25]. https://doi.org/10.1155/2018/6481635.

[本文引用: 1]

LIY,DONGY N.

Weapon-target assignment based on simulated annealing and discrete particle swarm optimization in coope-rative air combat

[J].Hangkong Xuebao / Acta Aeronautica et Astronautica Sinica,2010,31(3):626-631.

[本文引用: 1]

LAIC M,WUT H.

Simplified swarm optimization with initialization scheme for dynamic weapon-target assignment problem

[J].Application Soft Computing,2019,82,105542.

DOI:10.1016/j.asoc.2019.105542     

ZHOU Y L, LI X B, ZHU Y F, et al. A discrete particle swarm optimization algorithm applied in constrained static weapon-target assignment problem[C]//Proc. of World Congress on Intelligent Control and Automation, 2016: 3118-3123.

CHANGT Q,KONGD P,HAON,et al.

Solving the dynamic weapon target assignment problem by an improved artificial bee colony algorithm with heuristic factor initialization

[J].Application Soft Computing,2018,70,845-863.

DOI:10.1016/j.asoc.2018.06.014      [本文引用: 1]

LI X Y, ZHOU D Y, PAN Q, et al. Weapon-target assignment problem by multi objective evolutionary algorithm based on decomposition[EB/OL]. [2021-12-01]. https://doi.org/10.1155/2018/8623051.

[本文引用: 1]

BOGDANOWICZZ R.

Advanced input generating algorithm for effect-based weapon-target pairing Optimization

[J].IEEE Trans.on Systems, Man and Cybernetics, Part A (Systems and Humans),2012,42(1):276-280.

DOI:10.1109/TSMCA.2011.2159591     

PHAM H A, VU T C, NGUYEN B D, et al. Engineering optimization using an improved epsilon differential evolution with directional mutation and nearest neighbor comparison[C]//Proc. of the International Conference on Advances in Computational Mechanics, 2017: 201-216.

吴文海,郭晓峰,周思羽,.

改进差分进化算法求解武器目标分配问题

[J].系统工程与电子技术,2021,43(4):1012-1021.

URL     [本文引用: 1]

WUW H,GUOX F,ZHOUS Y,et al.

Improved differential evolution algorithm for solving weapon-target assignment pro-blem

[J].Systems Engineering and Electronics,2021,43(4):1012-1021.

URL     [本文引用: 1]

郭智杰,糜玉林,肖阳,.

改进合同网协议在防空武器目标分配中的应用

[J].现代防御技术,2017,45(4):104-111.

DOI:10.3969/j.issn.1009-086x.2017.04.017      [本文引用: 1]

GUOZ J,MIY L,XIAOY,et al.

Application of improved contract net protocol on weapon target assignment of air defense combat

[J].Modern Defence Technology,2017,45(4):104-111.

DOI:10.3969/j.issn.1009-086x.2017.04.017      [本文引用: 1]

黄广连. 分布式作战体系自同步构建方法研究[D]. 长沙: 国防科技大学, 2007.

[本文引用: 1]

HUANG G L. Research on methodology of distributed combat SoS self-synchronizing constructed[D]. Changsha: National University of Defense Technology, 2007.

[本文引用: 1]

HERNANDEZ-LEALP,KARTALB,TAYLORM E.

A survey and critique of multiagent deep reinforcement learning

[J].Autonomous Agents and Multi-Agent Systems,2019,33(6):750-797.

DOI:10.1007/s10458-019-09421-1      [本文引用: 1]

KURACH K, RAICHUK A, STANCZYK P, et al. Google research football: a novel reinforcement learning environment[EB/OL]. [2021-12-05]. https://doi.org/10.48550/arXiv.1907.11180.

[本文引用: 1]

CHUT,WANGJ,CODECAL,et al.

Multi-agent deep reinforcement learning for large-scale traffic signal control

[J].IEEE Trans.on Intelligent Transportation Systems,2020,21(3):1086-1095.

DOI:10.1109/TITS.2019.2901791     

李琛,黄炎焱,张永亮,.

Actor-Critic框架下的多智能体决策方法及其在兵棋上的应用

[J].系统工程与电子技术,2021,43(3):755-762.

URL    

LIC,HUANGY Y,ZHANGY L,et al.

Multi-agent decision-making method based on Actor-Critic framework and its application in wargame

[J].Systems Engineering and Electronics,2021,43(3):755-762.

URL    

YE D H, LIU Z, SUN M F, et al. Mastering complex control in MOBA games with deep reinforcement learning[EB/OL]. [2021-12-05]. https://doi.org/10.48550/arXiv.1912.09729.

OHMER X, MARINO M, FRANKE M, et al. Why and how to study the impact of perception on language emergence in artificial agents[EB/OL]. [2022-03-27]. https://escholarship.org/uc/item/6p82v6st.

[本文引用: 1]

GUESTRIN C, KOLLER D, GEARHART C, et al. Generalizing plans to new environments in relational mdps[C]//Proc. of the 18th International Joint Conference on Artificial Intelligence, 2003: 1003-1010.

[本文引用: 1]

PROPER S, TADEPALLI P. Solving multi agent assignment markov decision processes[C]//Proc. of the 8th International Conference on Autonomous Agents and Multi agent Systems-Volume 1, 2009: 681-688.

[本文引用: 1]

RASHID T, SAMVELYAN M, WITT C S, et al. Qmix: monotonic value function factorisation for deep multi-agent reinforcement learning[EB/OL]. [2022-02-24]. https://arxiv.org/abs/1803.11485.

[本文引用: 1]

LIN K X, ZHAO R Y, XU Z, et al. Efficient large-scale fleet management via multi-agent deep reinforcement learning[C]//Proc. of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining, 2018: 1774-1783.

[本文引用: 1]

CARION N, SYNNAEVE G, LAZARIC A, et al. A structured prediction approach for generalization in cooperative multi-agent reinforcement learning[EB/OL]. [2021-12-01]. https://proceedings.neurips.cc/paper/2019/file/3c3c139bd8467c1587a41081ad78045e-Paper.pdf.

[本文引用: 1]

WU Y H, MANSIMOV E, LIAO S, et al. OpenAI baselines: ACKTR & A2C[EB/OL]. [2021-12-29]. https://openai.com/blog/baselines-acktr-a2c/.

[本文引用: 1]

SUTTONR,BARTOA.Reinforcement learning: an introduction[M].London:MIT press,2018.

[本文引用: 1]

/