文章快速检索  
  高级检索
相控阵雷达长时跟踪波束调度与波形优化策略
刘一鸣, 盛文, 胡冰, 张磊     
空军预警学院 防空预警装备系, 武汉 430019
摘要: 针对相控阵雷达多目标跟踪波束调度和波形参数优化控制的问题,本文提出了一种基于马尔可夫决策过程(MDP)的相控阵雷达跟踪波束调度与波形参数优化策略,该方法以无迹卡尔曼滤波(UKF)算法为基础来估计目标的状态。首先将本文的序列决策问题建模为马尔可夫决策过程,定义了资源的效费比和长期回报率,然后与当前实际跟踪误差综合考虑作为MDP的回报函数,进而给出了调度的优化模型,最后将长时决策问题转化为动态规划算法结构进行求解,并且提出了一种并行混合遗传粒子群优化算法来求解各决策时刻的最优策略。仿真结果表明了长时策略的先进性以及寻优算法的优越性,与传统的短时策略相比,跟踪精度可提高11.17%。
关键词: 相控阵雷达    波束调度    波形参数优化    马尔可夫决策过程    无迹卡尔曼滤波(UKF)    长期回报率    混合遗传粒子群优化    
Long time tracking beam scheduling and waveform optimization strategy for phased array radar
LIU Yiming, SHENG Wen, HU Bing, ZHANG Lei     
Air Defense Early Warning Equipment Department, Air Force Early Warning Academy, Wuhan 430019, China
Abstract: Aiming at the problem of multi-target tracking beam scheduling and waveform parameter optimization control of phased array radar, a strategy of tracking beam scheduling and waveform parameter optimization based on Markov Decision Process (MDP) is proposed. The Unscented Kalman Filter (UKF) algorithm is used to estimate the state of the target. Firstly, the sequence decision problem of this paper is modeled as a Markov decision process, and the cost-effectiveness ratio and the long-term return rate of the resource are defined. Then, the current actual tracking error is intigrated as the reward function of MDP, and the optimization model of joint scheduling is given. Finally, the long-term decision problem is transformed into a dynamic programming algorithm structure, and a parallel hybrid genetic particle swarm optimization algorithm is proposed to solve the optimal strategy at each decision time. The simulation result shows the advanced nature of the strategy and the superiority of the optimization algorithm. Compared with the traditional "short-term" strategy, the tracking accuracy can be improved by 11.17%.
Keywords: phased array radar    beam scheduling    waveform parameter optimization    Markov decision process    Unscented Kalman Filter (UKF)    long-term return rate    hybrid genetic particle swarm optimization    

在现代化的战争中,战场环境日趋多样化、复杂化和持久化。大型相控阵雷达作为预警体系中的骨干装备,其功能的充分发挥对整个预警体系的作战效能起到了至关重要的作用。而跟踪工作模式占据其大部分资源,所以利用自适应波束波形调度策略来提高多目标跟踪性能的研究是不可或缺的。

相控阵雷达多目标跟踪波束调度策略是利用对目标状态变量的估计和当前可用资源制定相应的规则,来实现在跟踪波束调度时刻做出合理决策的目的。相控阵雷达作为一种特殊的传感器,其管理策略与多传感器有很多相似之处,常见的传感器控制方法包括信息论[1-2]、协方差[3-4]和克拉美罗下界(Cramer-Rao Low Bound, CRLB)[5],很多学者将其引入相控阵雷达多目标跟踪资源管理的研究中取得了丰硕的成果。文献[6]在信息论的框架下,将跟踪前后信息熵的变化作为跟踪精度的衡量指标来控制跟踪波束的调度情况。但是该方法将每个目标的精度需求视为相同的,这与实际的作战环境是不相符的。进而,鉴于协方差控制的方法具有很强的自适应性,文献[7]提出了基于协方差偏差均值最小准则和最大协方差偏差最小准则的相控阵雷达多目标资源管理算法。文献[8]在最小化后验估计误差协方差的条件下,实现了对雷达波束、功率和波形参数的选择。但以上研究仅考虑了目标跟踪精度,而忽略了雷达资源的消耗。文献[9-10]通过当前时刻目标实际协方差与期望值的偏差和所选波形能量的加权平均为调度代价,进而选择下一时刻的工作方式和参数。文献[11-12]在检测概率和跟踪精度的约束条件下,预估了波束的驻留时间,通过定义的紧迫(调度)系数来确定下一时刻的波束指向。然而,协方差控制思想的调度性能受期望协方差矩阵和滤波算法的影响很大,考虑到CRLB是参数估计误差的理论下界,文献[13-17]针对多输入多输出雷达波束的特性,以后验CRLB为跟踪精度的评价指标,建立相应的优化模型,对波束指向、发射功率、重访时间和驻留时间等参数实现了有效管理。

以上研究仅考虑了波束调度当前的代价,然而当前调度决策会影响到雷达对目标的观测结果,继而影响到下一时刻对目标状态的估计,最终影响下一时刻的调度决策,显然这是一个序贯的时序决策过程,所以考虑当前时刻决策的长远代价可以一定程度上提高系统整体的调度性能。文献[18-21]将多传感器网络动态控制问题描述为马尔可夫决策过程(MDP),设计了相应的参数优化策略,提高了系统的性能。文献[22]利用概率密度函数对跟踪精度进行评价,采用马尔可夫决策过程对当前时刻调度的长远代价进行建模,实现对雷达资源的实时管理,但该方法并没有考虑到雷达消耗的能量。文献[23]将雷达跟踪资源管理问题建模为MDP,设计了发射功率、载频、驻留时间和采样间隔优化策略,并提出了一种改进的二元风驱动优化算法加速最优策略的求解。文献[24]类比随机控制问题,将雷达多目标跟踪目标选择问题建模为MDP,给出了相关策略,降低了资源过载时多目标跟踪误差。上述研究不断丰富了相控阵雷达跟踪波束调度的内容,但仍存在以下不足:调度策略设计过程中没能考虑到跟踪资源对不同目标跟踪精度改善程度的差异性。

针对上述文献中未能综合考虑跟踪资源对不同目标跟踪精度改善程度的差异性和决策长期性的问题,研究了相控阵雷达波束调度和波形参数优化的问题,将上述序列决策问题建模为一个离散MDP,利用有限阶段的累计资源消耗收益率来衡量当前时刻资源对目标跟踪精度改善的差异性,进而与当前时刻的实际跟踪精度相结合作为长时策略的回报函数,考虑到预测的准确性,利用预测的后验克拉美罗下界(Posterior Cramer-Rao Low Bound, PCRLB)来衡量预测精度,而实际精度仍采用协方差来表征;同时,提出了一种并行混合遗传粒子群算法来求解最优策略,最后在多目标跟踪场景下,将所提调度策略与其他已有方法进行对比,验证了有效性和优越性。

1 基于MDP的跟踪波束波形调度模型

相控阵雷达多目标跟踪波束波形调度问题可描述为:如何根据当前时刻的滤波结果确定下一时刻跟踪波束指向及跟踪波形参数。为提高系统长期跟踪性能,可将其建模为一个序列决策问题,而序列决策模型要求决策者不仅要考虑决策的即时效应,还要考虑为将来决策创造机会,则tk时刻的具体决策过程如图 1所示。同时多目标跟踪滤波过程具有明显的马尔可夫性,故将该问题建模为MDP,基于MDP框架,本文的具体模型要素如下。

图 1 tk时刻长期决策过程示意图 Fig. 1 Schematic diagram of long-term decision-making process at tk time
1.1 调度动作

定义tk时刻的调度动作向量ak=[akp, akw]T,其中akptk时刻雷达的波束指向,akw=[a, akT]为tk时刻雷达跟踪波形参数向量,a为驻留时间,akT为跟踪采样间隔。

1.2 系统状态与状态转移

系统状态即跟踪目标运动状态,定义tk时刻的系统状态Xk=[xk, yk, vxk, vyk]T,其中xkykvxkvyk分别表示目标在xy方向的位置和速度。则系统的状态及状态转移可表示为

$ {\mathit{\boldsymbol{X}}_{k + 1}} = {\mathit{\boldsymbol{F}}_k}{\mathit{\boldsymbol{X}}_k} + {\mathit{\boldsymbol{\omega }}_k} $ (1)
 

式中:Fk为状态转移矩阵;ωk为零均值高斯噪声,其协方差矩阵为Qk

1.3 系统观测及观测矩阵

定义tk时刻的系统观测Zk=[rk, θk]T,其中rk为目标距离,θk为目标方位角。则系统的观测方程可表示为

$ {\mathit{\boldsymbol{Z}}_{k + 1}} = H\left( {{\mathit{\boldsymbol{X}}_{k + 1}}} \right) + {\mathit{\boldsymbol{v}}_k} $ (2)
 

式中:H(·)为雷达的非线性观测函数;νk为零均值高斯量测噪声,其协方差矩阵为Rk

1.4 回报函数

相控阵雷达长期调度的关键是对系统未来状态的准确预测,而PCRLB给出了目标状态估计误差的理论下界,故将其作为预测精度的衡量指标。PCRLB定义为Fisher信息矩阵(FIM)的逆矩阵[25],即

$ E\left\{ {\left( {{{\mathit{\boldsymbol{\hat X}}}_k} - {\mathit{\boldsymbol{X}}_k}} \right){{\left( {{{\mathit{\boldsymbol{\hat X}}}_k} - {\mathit{\boldsymbol{X}}_k}} \right)}^{\rm{T}}}} \right\} \ge \mathit{\boldsymbol{J}}_k^{ - 1} = {\mathit{\boldsymbol{C}}_k} $ (3)
 

式中:${\mathit{\boldsymbol{\widehat X}}_k}$tk时刻系统状态的无偏估计;Jk为系统的FIM;Ck为系统的PCRLB。

针对本文问题,文献[26]提出了FIM的递推求解方法,即

$ \left\{ \begin{array}{l} {\mathit{\boldsymbol{J}}_{k + 1}} = \mathit{\boldsymbol{D}}_k^{22} - \mathit{\boldsymbol{D}}_k^{21}{\left( {{\mathit{\boldsymbol{J}}_k} + \mathit{\boldsymbol{D}}_k^{12}} \right)^{ - 1}}\\ \mathit{\boldsymbol{D}}_k^{11} = \mathit{\boldsymbol{F}}_k^{\rm{T}}\mathit{\boldsymbol{Q}}_k^{ - 1}{\mathit{\boldsymbol{F}}_k}\\ \mathit{\boldsymbol{D}}_k^{12} = - \mathit{\boldsymbol{F}}_k^{\rm{T}}\mathit{\boldsymbol{Q}}_k^{ - 1} = {\left( {\mathit{\boldsymbol{D}}_k^{21}} \right)^{\rm{T}}}\\ \mathit{\boldsymbol{D}}_k^{22} = \mathit{\boldsymbol{Q}}_k^{ - 1} + \mathit{\boldsymbol{G}}_{k + 1}^{\rm{T}}\mathit{\boldsymbol{R}}_{k + 1}^{ - 1}{\mathit{\boldsymbol{G}}_{k + 1}} \end{array} \right. $ (4)
 

式中:Gk+1= Xk+1H(Xk+1)为观测矩阵的雅可比矩阵。

相控阵雷达消耗的资源可分为时间资源和能量资源,其中能量资源主要为发射功率和脉冲宽度,时间资源主要为驻留时间和采样间隔。本文不考虑辐射控制的问题,假定发射功率和占空比值为最大值,故仅考虑时间资源的消耗,所以雷达跟踪消耗的资源Ek由驻留时间dk和采样间隔Tk来表征,即

$ {E_k} = {d_k}/{T_k} $ (5)
 

目标跟踪精度仅考虑位置估计误差,为了便于目标后验克拉美罗下界的量化以及后续的计算,故从Ck中提取位置分量估计误差的下界,并取其迹和Frobenius范数(F范数)作为其量化值Bk,用ΔAk描述Bk的变化率,即

$ \left\{ \begin{array}{l} {B_k} = \sqrt {Tr\left( {\mathit{\boldsymbol{ \boldsymbol{\varLambda} }}{\mathit{\boldsymbol{C}}_k}{\mathit{\boldsymbol{ \boldsymbol{\varLambda} }}^{\rm{T}}}} \right)} \\ \mathit{\boldsymbol{ \boldsymbol{\varLambda} }} = {\rm{blkdiag}}\left( {{\mathit{\boldsymbol{I}}_{\rm{m}}} \otimes \left[ {\begin{array}{*{20}{c}} 1&0\\ 0&{{T_k}} \end{array}} \right]} \right)\\ \Delta {A_k} = \left( {{B_{k + 1}} - {B_k}} \right)/{B_k} \end{array} \right. $ (6)
 

式中:blkdiag(·)为生成指定对角线元素的矩阵;Im为单位矩阵;⊗代表Kronecker运算。

为了提高系统长期调度的性能,就要充分考虑调度时刻目标消耗相应资源给系统带来回报的差异性,借鉴效益理论中效费比这一核心概念来描述预测资源消耗回报率,可以实现对波束调度过程的精确控制,进而提高管理过程效益。然而,相控阵雷达系统中资源种类繁多,如波形资源、设备运算资源和存储资源等,需对调度过程中资源概念予以界定。跟踪波束波形调度决策问题只关心波形能量的调度情况,故上述“资源”具体指发射波形资源,对应的“效费比”是波束调度效费比ηk,定义为预测精度变化率与发射波形资源消耗的比值,即

$ {\eta _k} = \Delta {A_k}/{E_k} $ (7)
 

同时,当跟踪目标的跟踪精度超过精度门限时,应及时调度这些目标,故需要将决策时刻各目标的实际跟踪误差考虑到回报函数中来。首先,目标跟踪的误差协方差矩阵不能衡量大小,需要取其某种意义下的范数值来反映其误差水平;同时,由于协方差矩阵中对角线上元素可以很好地体现目标位置估计误差的水平,故取误差协方差矩阵的F范数来表征目标实际误差协方差矩阵的大小,当某个目标当前实际误差超过门限时,但其波束调度效费比很小,这会使得这些目标不能及时被调度,所以定义一步回报函数r(Xk, ak)为

$ \begin{array}{l} r\left( {{\mathit{\boldsymbol{X}}_k},{\mathit{\boldsymbol{a}}_k}} \right) = \\ \;\;\;\;\;\;\left\{ {\begin{array}{*{20}{l}} {\eta \left( {{\mathit{\boldsymbol{X}}_k},{\mathit{\boldsymbol{a}}_k}} \right)F\left[ {\mathit{\boldsymbol{P}}\left( {{a_{k{\rm{p}}}}} \right)} \right]}&{F\left[ {\mathit{\boldsymbol{P}}\left( {{a_{k{\rm{p}}}}} \right)} \right] < {P_{{\rm{thr}}}}}\\ {{\kappa _k}F\left[ {\mathit{\boldsymbol{P}}\left( {{a_{k{\rm{p}}}}} \right)} \right]}&{F\left[ {\mathit{\boldsymbol{P}}\left( {{a_{k{\rm{p}}}}} \right)} \right] \ge {P_{{\rm{thr}}}}} \end{array}} \right. \end{array} $ (8)
 

式中:F[P(akp)]表示tk时刻目标akp实际跟踪协方差矩阵P(akp)的F范数;Pthr为设定的跟踪精度门限,记优势系数κk=maxηktk时刻所有策略中资源效费比的最大值,目的是让跟踪误差超过门限的目标波束调度效费比绝对占优。

定义R(Xk, ak, ak+1, …, a k+n, n)为在系统状态为Xk时采取系列动作Ak:k+n=[ak, ak+1, …, ak+n]时n步预测的回报函数,即

$ R\left( {{\mathit{\boldsymbol{X}}_k},{\mathit{\boldsymbol{a}}_k},{\mathit{\boldsymbol{a}}_{k + 1}}, \cdots ,{\mathit{\boldsymbol{a}}_{k + n}},n} \right) = \sum\limits_{\tau = 0}^{n - 1} {{\alpha _\tau }} r\left( {{\mathit{\boldsymbol{X}}_k},{\mathit{\boldsymbol{a}}_{k + \tau }}} \right) $ (9)
 

式中:αττ+1步预测的折扣因子,用于表示各步预测的重要程度。

2 问题模型建立 2.1 目标跟踪滤波算法

目标跟踪算法主要用于对目标状态预测和观测进行滤波,使其更接近目标实际运动情况。考虑到系统为非线性高斯,常用的算法有扩展卡尔曼滤波(EKF)、无迹卡尔曼滤波(UKF)和粒子滤波(PF),EKF计算量较小,但仅适合于弱非线性高斯系统;PF适用于任何非线性高斯系统,但其本质上属于蒙特卡罗方法,计算量大;UKF计算量适中,且适合于非线性高斯系统。本文的状态方程仍为线性高斯,故可采用简化无迹卡尔曼滤波(SUKF)算法,其具体步骤为

步骤1   预测。将tk-1时刻的状态矢量${\mathit{\boldsymbol{\widehat X}}_{k - 1|k - 1}}$和误差协方差矩阵${\mathit{\boldsymbol{\widehat P}}_{k - 1|k - 1}}$作为输入,即

$ \left\{ \begin{array}{l} {{\mathit{\boldsymbol{\hat X}}}_{k|k - 1}} = {\mathit{\boldsymbol{F}}_{k - 1}}{{\mathit{\boldsymbol{\hat X}}}_{k - 1|k - 1}}\\ {\mathit{\boldsymbol{P}}_{k|k - 1}} = {\mathit{\boldsymbol{F}}_{k - 1}}{\mathit{\boldsymbol{P}}_{k - 1|k - 1}}\mathit{\boldsymbol{F}}_{k - 1}^{\rm{T}} + {\mathit{\boldsymbol{Q}}_{k - 1}} \end{array} \right. $ (10)
 

步骤2   时间更新。利用不敏变换(UT)生成2L+1个Sigma点Xk|k-1(i)及其均值权重Wm(i)和方差权重Wc(i),即

$ \begin{array}{l} \mathit{\boldsymbol{X}}_{k|k - 1}^{(i)} = \left\{ {\begin{array}{*{20}{l}} {{{\mathit{\boldsymbol{\hat X}}}_{k|k - 1}}}&{i = 0}\\ {{{\mathit{\boldsymbol{\hat X}}}_{k|k - 1}} + \sqrt {(L + \lambda ){\mathit{\boldsymbol{P}}_{k|k - 1}}} }&{i = 1,2, \cdots ,L}\\ {{{\mathit{\boldsymbol{\hat X}}}_{k|k - 1}} - \sqrt {(L + \lambda ){\mathit{\boldsymbol{P}}_{k|k - 1}}} }&{i = L + 1,L + 2, \cdots ,2L} \end{array}} \right.\\ \left\{ {\begin{array}{*{20}{l}} {W_{\rm{m}}^{(0)} = \lambda /(L + \lambda )}\\ {W_{\rm{c}}^{(0)} = \lambda /(L + \lambda ) + \left( {1 - {\alpha ^2} + \beta } \right)}\\ {W_{\rm{m}}^{(i)} = W_{\rm{c}}^{(i)} = 1/[2(L + \lambda )]\;\;\;\;i = 1,2, \cdots ,2L} \end{array}} \right. \end{array} $ (11)
 

式中:λ=α2(L+b)-L为尺度参数,用来降低总的预测误差,α控制了采样点的分布状态,通常设为一个较小的正数(1×10-4α < 1),b为待选参数,通常取0或3-Lβ为状态分布参数,对于状态变量为高斯分布,通常取β=0为最优。

步骤3   测量更新。将步骤2得到的Sigma点集代入观测方程中得到观测预测值${\mathit{\boldsymbol{\widehat Z}}_{k|k - 1}}$,进而通过加权和得到系统预测的方差PZkZkPXkZk,即

$ \left\{ \begin{array}{l} {{\mathit{\boldsymbol{\hat Z}}}_{k|k - 1}} = \sum\limits_{i = 1}^{2L} {W_{\rm{m}}^{(i)}} H\left( {\mathit{\boldsymbol{X}}_{k|k - 1}^{(i)}} \right)\\ {\mathit{\boldsymbol{P}}_{{\mathit{\boldsymbol{Z}}_k}{\mathit{\boldsymbol{Z}}_k}}} = \sum\limits_{i = 0}^{2L} {\left[ {W_{\rm{c}}^{(i)}\left( {H\left( {\mathit{\boldsymbol{X}}_{k|k - 1}^{(i)}} \right) - {{\mathit{\boldsymbol{\hat Z}}}_{k|k - 1}}} \right) \cdot } \right.} \\ \;\;\;\;\;\;\;\;\left. {{{\left( {H\left( {\mathit{\boldsymbol{X}}_{k|k - 1}^{(i)}} \right) - {{\mathit{\boldsymbol{\hat Z}}}_{k|k - 1}}} \right)}^{\rm{T}}}} \right] + {\mathit{\boldsymbol{R}}_k}\\ {\mathit{\boldsymbol{P}}_{{\mathit{\boldsymbol{X}}_k}{\mathit{\boldsymbol{Z}}_k}}} = \sum\limits_{i = 0}^{2L} {\left[ {W_{\rm{c}}^{(i)}\left( {\mathit{\boldsymbol{X}}_{k|k - 1}^{(i)} - {{\hat X}_{k|k - 1}}} \right) \cdot } \right.} \\ \;\;\;\;\;\;\;\;\left. {{{\left( {H\left( {\mathit{\boldsymbol{X}}_{k|k - 1}^{(i)}} \right) - {{\mathit{\boldsymbol{\hat Z}}}_{k|k - 1}}} \right)}^{\rm{T}}}} \right] \end{array} \right. $ (12)
 

步骤4   滤波更新。利用步骤3得到的观测预测的方差可得滤波增益Kk,更新系统的状态向量${\mathit{\boldsymbol{\widehat X}}_{k|k}}$和协方差矩阵Pk|k,即

$ \left\{ \begin{array}{l} {\mathit{\boldsymbol{K}}_k} = {\mathit{\boldsymbol{P}}_{{\mathit{\boldsymbol{X}}_k}{\mathit{\boldsymbol{Z}}_k}}}\mathit{\boldsymbol{P}}_{{\mathit{\boldsymbol{Z}}_k}{\mathit{\boldsymbol{Z}}_k}}^{ - 1}\\ {{\mathit{\boldsymbol{\hat X}}}_{k|k}} = {{\mathit{\boldsymbol{\hat X}}}_{k|k - 1}} + {\mathit{\boldsymbol{K}}_k}\left( {{\mathit{\boldsymbol{Z}}_k} - {{\mathit{\boldsymbol{\hat Z}}}_{k|k - 1}}} \right)\\ {\mathit{\boldsymbol{P}}_{k|k}} = {\mathit{\boldsymbol{P}}_{k|k - 1}} - {\mathit{\boldsymbol{K}}_k}{\mathit{\boldsymbol{P}}_{{\mathit{\boldsymbol{Z}}_k}{\mathit{\boldsymbol{Z}}_k}}}\mathit{\boldsymbol{K}}_k^{\rm{T}} \end{array} \right. $ (13)
 
2.2 相控阵雷达长时调度策略

在调度过程中寻求的最优策略,不仅是要最大化回报函数,还要满足检测和跟踪的基本要求,所以本文的长时调度策略优化模型可描述为

$ \begin{array}{l} A_{k + n}^{{\rm{opt}}} = \arg \mathop {\max }\limits_{{\mathit{\boldsymbol{A}}_{k + n}}} \left[ {R\left( {{\mathit{\boldsymbol{X}}_k},{\mathit{\boldsymbol{a}}_k}, \cdots ,{\mathit{\boldsymbol{a}}_{k + n}},n} \right)} \right]\\ {\rm{s}}.\;{\rm{t}}.\;\left\{ {\begin{array}{*{20}{l}} {P_{\rm{d}}^{k + i} \ge {P_{{\rm{dmin }}}}}\\ {F\left( {\mathit{\boldsymbol{P}}_{\rm{e}}^{k + i}} \right) \le {P_{{\rm{thr }}}}} \end{array}} \right.i = 1,2, \cdots ,n \end{array} $ (14)
 

式中:Ak+nopttk时刻第n步预测的最优策略;Pdk+itk时刻第i步预测的检测概率,大于雷达目标检测所需的最小检测概率PdminF(Pek+i)为tk时刻第i步预测的跟踪误差协方差的F范数,不能超过雷达目标跟踪所要求的最大跟踪误差门限Pthr

2.3 策略实现流程

上述调度策略下的资源管理框架描述如图 2所示,资源管理流程实际上是一个最优控制的过程,调度过程主要由波束调度及波形参数优化和最优策略执行2个模块构成,具体步骤为

图 2 长时调度策略最优控制流程 Fig. 2 Optimal control flow of long-term scheduling strategy

步骤1  初始化。在t0时刻,监视区域内共有L个目标,其初始状态变量X0=[X01, X02, …, X0L],协方差为P0=[P01, P02, …, P0L];同时,依据雷达的最大跟踪距离和跟踪精度门限设定采样间隔序列T=[T1, T2, …, Tm],驻留时间序列τ=[τ1, τ2, …, τn],同时重置时间指针tres=0。

步骤2   跟踪目标数量及状态更新。在tk时刻雷达消耗时间资源Tsd, kj搜索到新目标j后转入跟踪状态,进而更新目标状态变量Xk,时间指针步进tres=tres+Tsd, kj

步骤3   tk时刻波束调度及波形参数优化(为简化表示,以下推导忽略目标编号)。

1) 多步预测的波束调度效费比计算。由式(14)可知,需要在tk时刻预测i步的检测概率Pdk+i和误差协方差矩阵Pek+i,其中i=1, 2, …,n,进而计算出各目标的最优效费比和其对应跟踪波形参数。由于目标在雷达预测时间内距离变化很小,可以利用rk来近似rpk+i,则给定驻留时间序列τpk=[τpk+1, τpk+2, …, τpk+n]条件下可得回波信噪比SNRpk+i

$ \left\{ \begin{array}{l} {\rm{SNR}}_{\rm{p}}^{k + i} = {\rm{SN}}{{\rm{R}}_{{\rm{ref}}}}\left( {\tau _{\rm{p}}^{k + i}/{\tau _{{\rm{ref}}}}} \right){\left( {r_{\rm{p}}^{k + i}/{r_{{\rm{ref}}}}} \right)^{ - 4}}\\ r_{\rm{p}}^{k + i} \approx {r_k} = \sqrt {{{\left( {{x_k} - {x_{\rm{p}}}} \right)}^2} + {{\left( {{y_k} - {y_{\rm{p}}}} \right)}^2}} \end{array} \right. $ (15)
 

式中:SNRrefτrefrref分别为参考信噪比、驻留时间和目标跟踪距离。

假设目标的起伏模型为SwerlingⅢ型,虚警概率为Pf,故可得预测的检测概率为

$ \begin{array}{l} P_{\rm{d}}^{k + i} = \\ \;\;\;\;\;\;\exp \left( {\frac{{2\ln {P_{\rm{f}}}}}{{2 + {\rm{SNR}}_{\rm{p}}^{k + i}}}} \right)\left[ {1 - \frac{{2{\rm{SNR}}_{\rm{p}}^{k + i}\ln {P_{\rm{f}}}}}{{{{\left( {2 + {\rm{SNR}}_{\rm{p}}^{k + i}} \right)}^2}}}} \right] \end{array} $ (16)
 

将采样间隔值Tpk和脉冲宽度值τpk代入式(10)~式(13)中得到多步预测协方差矩阵Pek+i,进而将其代入式(3)~式(7)中得到波束调度效费比值η(Xk, ak)。

2) 多步预测的回报函数值计算。将目标tk时刻i步预测误差协方差矩阵Pek+i中位置分量估计误差提取后并计算相应的F范数,即

$ F\left( {\mathit{\boldsymbol{P}}_{\rm{e}}^{k + i}} \right) = {\left\| {\mathit{\boldsymbol{P}}_{\rm{e}}^{k + i}} \right\|_{\rm{F}}} = \sqrt {\mathit{\boldsymbol{P}}_{\rm{e}}^{k + i}\left( {1,1} \right) + \mathit{\boldsymbol{P}}_{\rm{e}}^{k + i}\left( {3,3} \right)} $ (17)
 

将1)中的结果代入式(8)~式(9)可得目标tk时刻的最优回报函数值R(Xk, ak, …, ak+n, n);循环1)和2)可得所有目标的最优回报函数值,进而结合式(14)获得tk时刻的最优策略Ak+nopt

步骤4  最优策略执行。时间指针步进tres=tres+Ak+nopt(akp, a),其中Ak+nopt(akp, a)为tk时刻实际跟踪目标驻留时,返回步骤2,直到完成相应的搜索与跟踪任务。

2.4 混合优化算法

本文马尔可夫决策问题的最优决策序列可转化为动态规划算法结构进行求解,但是随着预测步数的增加,寻求最优策略的效率就会下降,故引入智能优化算法加快寻优速度。常用的遗传算法(Genetic Algorithm, GA)全局搜索能力强,粒子群优化(Particle Swarm Optimization, PSO)算法收敛速度快,其混合算法在雷达参数优化[27-29]方面得到了成功运用,但是上述混合算法均是将其中某一算法的核心思想引入到另一种算法中,本文提出了一种并行混合GAPSO算法,将2种算法更新的种群对比选优组成新的种群,其算法流程如图 3所示,流程中关键步骤说明如下:

步骤1   适应度函数设计。适应度函数是度量个体适应度的函数,其值定义为非负,故通过目标函数R(y)设计适应度函数$\widehat R\left( y \right)$,即

$ \mathord{\buildrel{\lower3pt\hbox{$\scriptscriptstyle\frown$}} \over R} \left( y \right) = R\left( y \right) - {c_{\min }} $ (18)
 

式中:cmin为常数,取R(y)的最小值。

步骤2   PSO粒子矢量更新。假设在一个由ND维粒子组成的群体,定义其第i个粒子的D维向量Xwi=[TXi1, dXi1, …, TXiD, dXiD]、飞行速度向量Vwi=[TVVi1, di1, …, TViD, dViD]、最优位置的个体极值$\mathit{\boldsymbol{p}}_{best}^i = \left[ {T_p^{i1}, \mathit{d}_p^{i1}, \cdot \cdot \cdot , T_p^{iD}, \mathit{d}_p^{iD}} \right]$和全局最优位置极值${\mathit{\boldsymbol{g}}_{best}} = \left[ {T_g^i, \mathit{d}_g^1, \cdot \cdot \cdot , T_g^D, \mathit{d}_g^D} \right]$,其中,i=1, 2, …, N。进而,粒子i的第j维速度和位置分量更新关系为

$ \left\{ \begin{array}{l} v_w^{ij}\left( {t + 1} \right) = \omega v_w^{ij}\left( t \right) + {c_1}{r_1}\left[ {p_{{\rm{best}}}^{ij}\left( t \right) - x_w^{ij}\left( t \right)} \right] + \\ \;\;\;\;\;\;\;\;{c_2}{r_2}\left[ {g_{{\rm{best}}}^j\left( t \right) - x_w^{ij}\left( t \right)} \right]\\ x_w^{ij}\left( {t + 1} \right) = x_w^{ij}\left( t \right) + v_w^{ij}\left( {t + 1} \right) \end{array} \right. $ (19)
 

式中:ω为权重系数,用于平衡局部搜索与全局搜索;t为迭代次数;r1r2为(0, 1)的随机数,用于保持种群的多样性;c1c2为加速常数;其中,$v_w^{ij} \in \left[ { - {v_{\max }}, {v_{\max }}} \right]$

图 3 并行混合GAPSO算法实现流程图 Fig. 3 Flow chart of parallel hybrid GAPSO algorithm implementation

步骤3   GA选择、交叉和变异算子。假设群体中包含N个个体,个体i的染色体可以表示成一个D维向量Ywi,即:Ywi=[TYi1, di1, …, TYiD, dYiD]。

1) 选择算子。选择又称为复制,是在群体中选择生命力强的个体产生新群体的过程,利用比例选择方法,则个体i被选则概率Pi

$ {P_i} = \mathord{\buildrel{\lower3pt\hbox{$\scriptscriptstyle\frown$}} \over R} \left( {\mathit{\boldsymbol{Y}}_{\rm{w}}^i} \right)/\sum\limits_i^N {\mathord{\buildrel{\lower3pt\hbox{$\scriptscriptstyle\frown$}} \over R} \left( {\mathit{\boldsymbol{Y}}_{\rm{w}}^i} \right)} $ (20)
 

通过上述方式会破坏适应度较高的优良个体,使问题收敛速度慢甚至陷入局部最优,故引入最优保存策略来保护优秀个体,其基本思想概括为:当前种群中适应度最高的个体不参与进化,而是用它替换掉本代种群中经过杂交、变异等遗传后所产生的适应度最低的个体。

2) 交叉算子。交叉算子是个体间交配重组的过程,对于实数编码方式,常采用算术交叉方式进行,假设在2个体YwA(t)和YwB(t)之间交叉,则产生的2个新个体为

$ \left\{ {\begin{array}{*{20}{l}} {Y_{\rm{w}}^{\rm{A}}\left( {t + 1} \right) = \alpha Y_{\rm{w}}^{\rm{B}}\left( t \right) + \left( {1 - \alpha } \right)Y_{\rm{w}}^{\rm{A}}\left( t \right)}\\ {Y_{\rm{w}}^{\rm{B}}\left( {t + 1} \right) = \alpha Y_{\rm{w}}^{\rm{A}}\left( t \right) + \left( {1 - \alpha } \right)Y_{\rm{w}}^{\rm{B}}\left( t \right)} \end{array}} \right. $ (21)
 

式中:α为一个参数,α∈(0, 1)。同时,交叉操作的执行与否由交叉概率Pc决定。

3) 变异算子。变异算子是个体间染色体等位基因替换的过程,为了增加种群的多样性,本文采用均匀变异的方式,其操作过程描述为:依次指定个体中每个基因座为变异点,对每个变异点,以变异概率Pm从对应基因的取值范围内取一随机数代替原来的基因值。

3 仿真实验

由于目标的机动性和目标位置预测的局限性,过分的长期预测可能会带来较大的预测误差,从而影响目标的跟踪精度。因此,为分析长时调度策略中决策步长对目标跟踪精度的影响,选取不同的预测步长n进行实验。为了验证上述策略中回报函数和长时调度方式2点创新性工作的有效性和优越性,在同一仿真场景下,选取相应短时调度策略和常规的波束波形联合调度策略[9-10]2种方法进行对比验证。

3.1 对比方法介绍

方法1   该方法在上述调度策略的基础上,采用一步预测方式对目标进行跟踪。

方法2[9-10]   该方法中的调度策略的目标函数选为预测跟踪精度与波形能量的归一化加权平均值。

3.2 仿真场景

仿真场景如图 4所示,雷达位置为(0, 0)km,其责任区[0, π]×[0, 3 000] km内存在10个匀速直线运动的目标,飞行马赫数在8~12之间。本节在一个搜索帧周期Tsi=9 s的时间内并且跟踪资源占比为70%的情况下对跟踪波束调形波度问题进行仿真,假设雷达的基准探测距离rref=2 500 km,其对应的信噪比SNRref=17.2 dB和脉冲宽度τref=5 ms,初始量测噪声协方差矩阵$\mathit{\boldsymbol{R}}=\left[ {{(100\text{m})}^{2}},{{\left( {{0.0016}^{^{{}^\circ }}} \right)}^{2}} \right]$,位置过程噪声均值为$\mathit{\boldsymbol{Q}} = {\rm{diag}}\left[ {{{(\sqrt 5 {\rm{m}})}^2},{{\left( {\sqrt {10} {\rm{m}}/{\rm{s}}} \right)}^2},{{\left( {\sqrt 5 } \right)}^2},{{\left( {\sqrt {10} {\rm{m}}/{\rm{s}}} \right)}^2}} \right]$,跟踪误差门限设为600 m。

图 4 责任区内跟踪目标运动轨迹 Fig. 4 Tracking target motion trajectory in area of responsibility
3.3 仿真结果

在上述多目标场景中,为了更全面地反映目标的跟踪情况,将均方根误差(Root Mean Square Error,RMSE)作为跟踪质量的评价指标,信号驻留时间和采样间隔时间作为资源消耗的评价指标。图 5给出了不同方法下各目标在调度过程中的RMSE,可以看出,长时调度方法在调度过程中的跟踪精度普遍高于方法1和2,同时,方法1的跟踪精度要高于方法2;图 6给出了不同方法下目标在调度过程中的平均资源消耗情况,可以看出,长时调度方法在保持适中的采样间隔时间水平时能够利用更多的驻留时间来跟踪目标,然而方法2相对方法1具有更高的采样间隔时间水平并利用更多的驻留时间来跟踪目标。综上分析可得,长时调度策略通过回报函数可以选择各决策时刻的最优跟踪目标,进而实现对采样间隔时间和驻留时间的最优控制,通过预测步长的增加,来提高整体的调度性能。

图 5 不同方法下各目标RMSE Fig. 5 RMSE of each target under different methods
图 6 不同方法下调度过程平均消耗资源 Fig. 6 Average consumption of resources in scheduling process under different methods

为了精确刻画长时调度策略的优越性,表 1给出了各方法性能指标和决策时长的统计结果,实验环境为MATLAB2016a,实验的平台为Windows10 64位操作系统,计算机配置为Intel Corei5-8250U CPU,主频1.6 GHz,显示适配器NVIDIAGeForce MX150,可得当预测步长n=5时,跟踪精度相对方法1提高11.17%,方法1相对方法2提高1.69%。

表 1 长时调度策略下跟踪性能指标和决策时长统计值 Table 1 Tracking performance indicators and decision duration statistics under long-term scheduling strategy
方法 均方
误差/m
驻留
时间/s
采样
间隔/s
决策
时长/s
预测
步长
n=2 327.82 0.02293 1.1538 5.6698
n=3 319.17 0.03008 1.1935 7.4832
n=4 305.80 0.03355 1.2172 9.5013
n=5 292.60 0.03496 1.2280 12.507
n=6 306.74 0.03534 1.2265 15.445
方法1 329.41 0.01542 1.1072 3.9864
方法2 335.08 0.02044 1.4823 1.1809

为了更好地分析长时调度策略整体调度性能和预测步长的关系,取步长n=2, 3, 4, 5, 6情况时进行分析,图 6表 1给出了调度过程中时间资源消耗随预测步长的变化情况,可以看出,随着预测步长的增加,驻留时间和采样间隔时间都有所增加;图 7给出了调度过程中RMSE和决策时长与预测步长的关系,可以看出,随着预测步长的增加,决策时长增加且增长速度越来越快,RMSE先减小再增加,即跟踪精度先增加后减小,在预测步长n=5时获得最优跟踪精度,这是因为长期预测的优势是建立在目标状态预测准确的基础上,而跟踪目标存在机动特性,从而大大降低了预测的准确性,最终导致决策的偏差。综上所述,针对不同的作战场景,在一定的预测步长范围内,长期调度策略要优于短期调度策略,最优步长需要在调度过程中寻找并设置。同时,当最优预测步长所需较长的决策时长时,决策者需要在跟踪性能和决策实时性之间进行合理地权衡。

图 7 RMSE和决策时长随预测步长的变化曲线 Fig. 7 RMSE and decision duration as a function of predicted step size

同时,为了进一步体现长时调度策略的优越性,选取在各方法中跟踪调度情况均较好的目标1进行分析,考虑到上述情况分析的结果,选取n=5、方法1和方法2这3种方法进行分析,结果如图 8所示,可以看出长时调度策略在目标跟踪误差超过门限后能及时对其进行调度,很大程度上避免了目标失跟,然而其他2种方法没有这种控制效果;同时随着时间的推移,目标跟踪精度的变化趋于稳定且能保持在较低的跟踪误差水平。

图 8 3种方法下目标1调度过程RMSE变化情况 Fig. 8 Changes in RMSE of target 1 scheduling process under three methods

为了更好地展现长时调度方法在调度过程中对目标跟踪精度的控制情况,选取预测步长n=5时对波束照射情况进行分析,结果如图 9所示,可以看出,在整个调度过程中雷达对大部分目标的照射次数相当,虽然各目标在不同时刻的回报函数值存在差异,但各目标本身的运动特性相似,所以回报函数在各决策时刻所反映的目标间的差异体现在目标的状态,而并不是目标本身的属性。

图 9 预测步长n=5时调度过程波束照射情况 Fig. 9 Scheduling process beam illumination when predicting step size n=5
4 结论

借鉴了马尔可夫决策过程的理论框架,将波束波形调度问题建模为序列决策问题,提出了基于马尔可夫决策过程的波束波形联合长时调度策略,仿真分析表明,所提出的调度策略:

1) 可以在各决策时刻选取最为合适的目标进行调度,在保证跟踪精度的同时,适当增大了跟踪驻留时间和采样间隔时间,提高了时间资源利用率。

2) 在调度过程中,能够及时对跟踪精度超门限目标进行调度,有效提高了跟踪目标容量,降低了失跟率。

3) 存在最优步长,同时,调度性能的提高是以牺牲决策实时性为代价,实际运用过程中决策者需要在性能和实时性之间进行权衡,进而选取合适的预测步长。

4) 为解决波束波形联合调度问题提供了一个很好的理论框架,具有良好地拓展性,可解决多目标决策问题。

参考文献
[1] MCLNTYRE G A, HINTZ K J. Sensor measurement scheduling an enhanced dynamic preemptive algorithm[J]. Optical Engineering, 1998, 37(2): 517-523.
Click to display the text
[2] 刘先省, 申石磊, 潘泉, 等. 基于信息熵的一种传感器管理算法[J]. 电子学报, 2000(9): 39-41.
LIU X X, SHEN S L, PAN Q, et al. A sensor management algorithm based on information entropy[J]. Journal of Electronic Science, 2000(9): 39-41. (in Chinese)
Cited By in Cnki (66) | Click to display the text
[3] KALANDROS M, PAO L Y. Covariance control for multi-sensor systems[J]. IEEE Transactions on Aerospace and Electronic Systems, 2002, 38(4): 1138-1157.
Click to display the text
[4] 周文辉, 胡卫东, 余安喜, 等. 基于协方差控制的集中式传感器分配算法研究[J]. 电子学报, 2003, 31(12A): 2158-2162.
ZHOU W H, HU W D, YU A X, et al. Research on centralized sensor allocation algorithm based on covariance control[J]. Journal of Electronic Science, 2003, 31(12A): 2158-2162. (in Chinese)
Cited By in Cnki (50) | Click to display the text
[5] HERNANDEZ M L, KIRUBARAJAN T, BRASHALOM Y. Multi-sensor resource deployment using posterior Cramer-Rao bounds[J]. IEEE Transactions on Aerospace Electronic Systems, 2004, 40(2): 399-416.
Click to display the text
[6] 胡卫东, 郁文贤, 卢建斌, 等. 相控阵雷达资源管理的理论与方法[M]. 北京: 国防工业出版社, 2010: 142-185.
HU W D, YU W X, LU J B, et al. Theory and method of phased array radar resource management[M]. Beijing: National Defense Industry Press, 2010: 142-185. (in Chinese)
[7] 卢建斌, 胡卫东, 郁文贤. 基于协方差控制的相控阵雷达资源管理算法[J]. 电子学报, 2007, 35(3): 402-408.
LU J B, HU W D, YU W X. Phased array radar resource management algorithm based on covariance control[J]. Journal of Electronic Science, 2007, 35(3): 402-408. (in Chinese)
Cited By in Cnki (58) | Click to display the text
[8] ZHANG H W, XIE J W, SHI J P, et al. Joint beam and waveform selection for the MIMO radar target tracking[J]. Signal Processing, 2018, 156: 31-40.
Click to display the text
[9] 卢建斌, 肖慧, 席泽敏, 等. 相控阵雷达波束波形联合自适应调度算法[J]. 系统工程与电子技术, 2011, 33(1): 84-88.
LU J B, XIAO H, XI Z M, et al. Phased array radar beam and waveform combined adaptive scheduling algorithm[J]. Systems Engineering and Electronic Technology, 2011, 33(1): 84-88. (in Chinese)
Cited By in Cnki (32) | Click to display the text
[10] CHENG T, LI S Y, ZHANG J. Adaptive resource management in multiple targets tracking for co-located multiple input multiple output radar[J]. IET Radar Sonar Navigation, 2018, 12(9): 1038-1045.
Click to display the text
[11] 张贞凯, 汪飞, 周建江, 等. 多目标跟踪中自适应时间资源调度[J]. 航空学报, 2011, 32(3): 522-530.
ZHANG Z K, WANG F, ZHOU J J, et al. Adaptive time resource scheduling in multi objective tracking[J]. Acta Aeronautica et Astronautica Sinica, 2011, 32(3): 522-530. (in Chinese)
Cited By in Cnki (22) | Click to display the text
[12] 喻晨龙, 李凡, 谭贤四, 等. 基于TAS模式的多目标跟踪波束调度策略[J]. 系统工程与电子技术, 2017, 39(7): 1445-1450.
YU C L, LI F, TAN X S, et al. Multi-target tracking beam scheduling strategy based on TAS mode[J]. Systems Engineering and Electronic Technology, 2017, 39(7): 1445-1450. (in Chinese)
Cited By in Cnki (5) | Click to display the text
[13] YAN J K, LIU H W, JIU B, et al. Simultaneous multibeam resource allocation scheme for multiple target tracking[J]. IEEE Transactions on Signal Processing, 2015, 63(12): 3110-3122.
Click to display the text
[14] YAN J K, LIU H W, PU W Q, et al. Joint beam selection and power allocation for multiple target tracking in netted colocated MIMO radar system[J]. IEEE Transactions on Signal Processing, 2016, 64(24): 6417-6427.
Click to display the text
[15] XIE M C, YI W, KINBARAJAN T, et al. Joint node selection and power allocation strategy for multitarget tracking in decentralized radar networks[J]. IEEE Transactions on Signal Processing, 2018, 66(3): 729-743.
Click to display the text
[16] 王祥丽, 易伟, 孔令讲. 基于多目标跟踪的相控阵雷达波束和驻留时间联合分配方法[J]. 雷达学报, 2017, 6(6): 602-610.
WANG X L, YI W, KONG L J. Phased array radar beam and dwell time joint allocation method based on multi-target tracking[J]. Journal of Radar, 2017, 6(6): 602-610. (in Chinese)
Cited By in Cnki (7) | Click to display the text
[17] WANG X L, YI W, XIE M C, et al. Time management for target tracking based on the predicted Bayesian Cramer-Rao lower bound in phase array radar system[C]//20th International Conference on Information Fusion. Piscataway, NJ: IEEE Press, 2017: 1-5.
Click to display the text
[18] XIAO J M, LIU W R, HE Y, et al. Energy-efficient sensor scheduling scheme for target tracking in wireless sensor networks[C]//26th Chinese Control and Decision Conference. Piscataway, NJ: IEEE Press, 2014: 1869-1874.
Click to display the text
[19] ZHOU L, TANG H, LI H Z, et al. Dynamic power management strategies for a sensor node optimised by reinforcement learning[J]. International Journal of Computational Science and Engineering, 2016, 13(1): 24-36.
Click to display the text
[20] LI Y Z, ZHANG F, QUEVEDO D E, et al. Power control of an energy harvesting sensor for remote state estimation[J]. IEEE Transactions on Automatic Control, 2017, 62(1): 277-290.
Click to display the text
[21] ZHANG F, JING T, HUO Y, et al. Joint spectrum access and transmission power management for energy harvesting cognitive radio sensor networks[J]. International Journal of Sensor Networks, 2018, 27(2): 103-115.
Click to display the text
[22] 秦童, 戴奉周, 刘宏伟, 等. 火控相控阵雷达的时间资源管理算法[J]. 系统工程与电子技术, 2016, 38(3): 545-550.
QIN T, DAI F Z, LIU H W. Time resource management algorithm for fire control phased array radar[J]. Systems Engineering and Electronic Technology, 2016, 38(3): 545-550. (in Chinese)
Cited By in Cnki (10) | Click to display the text
[23] ZHANG Z K, TIAN Y B. A novel resource scheduling method of netted radars based on Markov decision process during target tracking in clutter[J]. EURASIP Journal on Advances in Signal Processing, 2016, 16: 1-9.
Click to display the text
[24] CAYIR O, CANDAN C. Performance improvement of time-balance radar schedulers through decision policies[J]. IEEE Transactions on Aerospace and Electronic Systems, 2018, 54(4): 1679-1691.
Click to display the text
[25] HAUG A J. Bayesian estimation and tracking a practical guide[M]. Hoboken: John Wiley & Sons, Inc., 2012: 145-165.
[26] LIU Z G, WANG J K, XUE Y B. PCRLB-based sensor selection for maneuvering target tracking in range-based sensor networks[J]. Future Generation Computer Systems, 2013, 29(7): 1751-1757.
Click to display the text
[27] 张浩为, 谢军伟, 张昭建, 等. 基于混合遗传-粒子群算法的相控阵雷达调度方法[J]. 系统工程与电子技术, 2017, 39(9): 1985-1991.
ZHANG H W, XIE J W, ZHANG Z J. Phased array radar scheduling method based on hybrid genetic-particle swarm optimization[J]. Systems Engineering and Electronic Technology, 2017, 39(9): 1985-1991. (in Chinese)
Cited By in Cnki (14) | Click to display the text
[28] JIANG H Q, ZHANG Y R, XU H Y. Optimal allocation of cooperative jamming resource based on hybrid quantum-behaved particle swarm optimisation and genetic algorithm[J]. IET Radar, Sonar & Navigation, 2017, 11(1): 185-192.
Click to display the text
[29] ZHU M X, LI J C, CHANG D G, et al. Optimization of antenna array deployment for partial discharge localization in substations by hybrid particle swarm optimization and genetic algorithm method[J]. Energies, 2018, 11(7): 1-18.
Click to display the text
http://dx.doi.org/10.7527/S1000-6893.2019.23519
中国航空学会和北京航空航天大学主办。
0

文章信息

刘一鸣, 盛文, 胡冰, 张磊
LIU Yiming, SHENG Wen, HU Bing, ZHANG Lei
相控阵雷达长时跟踪波束调度与波形优化策略
Long time tracking beam scheduling and waveform optimization strategy for phased array radar
航空学报, 2020, 41(3): 323519.
Acta Aeronautica et Astronautica Sinica, 2020, 41(3): 323519.
http://dx.doi.org/10.7527/S1000-6893.2019.23519

文章历史

收稿日期: 2019-09-23
退修日期: 2019-10-18
录用日期: 2019-12-09
网络出版时间: 2019-12-13 10:49

相关文章

工作空间