CN117423271B - 一种无人机探测与反制方法及其探测与反制系统 - Google Patents
一种无人机探测与反制方法及其探测与反制系统 Download PDFInfo
- Publication number
- CN117423271B CN117423271B CN202311746438.XA CN202311746438A CN117423271B CN 117423271 B CN117423271 B CN 117423271B CN 202311746438 A CN202311746438 A CN 202311746438A CN 117423271 B CN117423271 B CN 117423271B
- Authority
- CN
- China
- Prior art keywords
- countering
- module
- unmanned aerial
- aerial vehicle
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 83
- 238000001514 detection method Methods 0.000 title claims abstract description 74
- 230000004927 fusion Effects 0.000 claims abstract description 87
- 238000004088 simulation Methods 0.000 claims abstract description 57
- 238000012545 processing Methods 0.000 claims abstract description 55
- 238000012795 verification Methods 0.000 claims abstract description 23
- 238000007726 management method Methods 0.000 claims description 39
- 238000006243 chemical reaction Methods 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 20
- 238000010276 construction Methods 0.000 claims description 19
- 238000007499 fusion processing Methods 0.000 claims description 17
- 238000007500 overflow downdraw method Methods 0.000 claims description 13
- 238000012800 visualization Methods 0.000 claims description 9
- 230000000694 effects Effects 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 8
- 238000012544 monitoring process Methods 0.000 claims description 7
- 238000013079 data visualisation Methods 0.000 claims description 6
- 238000013439 planning Methods 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 claims description 5
- 238000013461 design Methods 0.000 claims description 5
- 238000012986 modification Methods 0.000 claims description 4
- 230000004048 modification Effects 0.000 claims description 4
- 238000002360 preparation method Methods 0.000 claims description 3
- 238000013468 resource allocation Methods 0.000 claims description 3
- 230000002441 reversible effect Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000009545 invasion Effects 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000005755 formation reaction Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 230000007123 defense Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 239000000523 sample Substances 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000005094 computer simulation Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000033001 locomotion Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 150000002739 metals Chemical class 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 229920003023 plastic Polymers 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41H—ARMOUR; ARMOURED TURRETS; ARMOURED OR ARMED VEHICLES; MEANS OF ATTACK OR DEFENCE, e.g. CAMOUFLAGE, IN GENERAL
- F41H11/00—Defence installations; Defence devices
- F41H11/02—Anti-aircraft or anti-guided missile or anti-torpedo defence installations or systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
- G09B9/003—Simulators for teaching or training purposes for military purposes and tactics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Data Mining & Analysis (AREA)
- Educational Technology (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本申请公开了一种无人机探测与反制方法及其探测与反制系统,在任务处理模块中处理反无人机验证与集群反制教学系统下发的反制任务,并将处理后的任务传递给设备管理模块和值守策略模块。在设备管理模块中将反制设备的工作状态反馈给数据融合与显示模块和态势显示模块。在数据融合与显示模块中对所采集不同传感器设备的实时数据并进行融合获取目标信息。在态势显示模块中接收反馈数据呈现出当前的仿真场景。在值守策略模块中接收目标信息,将策略动作反馈至态势显示模块,将仿真结果反馈至反无人机验证与集群反制教学系统,解决了如何提高无人机探测与反制的准确性和效率,同时降低对其他用户和公共安全的影响的问题。
Description
技术领域
本申请无人机技术领域,尤其涉及一种无人机探测与反制方法及其探测与反制系统。
背景技术
随着无人机技术的快速发展,无人机在军事、商业和民用领域的应用越来越广泛。然而,无人机的不当使用或恶意攻击也带来了潜在的安全威胁。对于无人机的反制手段,常见的包括使用干扰设备、激光炮、捕捉网等方法,但这些方法在实施过程中可能会对其他无辜用户造成影响,甚至可能对公共安全造成威胁。
因此,如何提高无人机探测与反制的准确性和效率,同时降低对其他用户和公共安全的影响,是当前待解决的问题。
发明内容
在本申请实施例中,通过提供一种无人机探测与反制方法及其探测与反制系统,解决了如何提高无人机探测与反制的准确性和效率,同时降低对其他用户和公共安全的影响的问题。
第一方面,本申请实施例提供一种无人机探测与反制方法,包括:在任务处理模块中处理反无人机验证与集群反制教学系统下发的反制任务,并将处理后的任务传递给设备管理模块和值守策略模块,在任务处理模块的任务描述单元中进行仿真任务简要描述获得任务主题;在地图选择单元中为态势显示模块提供不同电子地图类型,并在地图选择单元中根据任务主题选择所需的电子地图类型;其中,电子地图类型包括标准地图、卫星地图和混合路网地图;在部署单元中进行入侵方的设备与反制方的设备部署操作,当部署操作完成时,通过部署单元控制仿真任务的开始;其中,入侵方的设备为无人机,反制方的设备为无人机反制设备,无人机反制设备包括低空补盲雷达、无线电侦测设备、光电仿真设备和无线电干扰设备;在仿真控制单元中控制仿真实验的开始与停止;在设备管理模块中接收来自任务处理模块的任务,采集不同传感器设备的实时数据,根据任务的要求管理和控制反制设备,实验人员在任务处理模块中进行的各设备部署完成后,设备管理模块中显示在任务处理模块进行各设备部署操作的各设备的信息,并将反制设备的工作状态反馈给数据融合与显示模块和态势显示模块;在数据融合与显示模块中对在设备管理模块中采集的不同传感器设备的实时数据进行融合,并以列表的形式显示出融合后的目标信息;其中,融合后的目标信息包括编号、目标类型、经度、纬度、高度、速度、方位和俯仰信息;将融合后的目标信息发送给态势显示模块和值守策略模块;态势显示模块用于接收来自任务处理模块、数据融合与显示模块、设备管理模块和值守策略模块的反馈数据,对反馈数据进行融合处理,生成三维态势信息,呈现出当前的仿真场景,将实时态势反馈至反无人机验证与集群反制教学系统;在值守策略模块中接收数据融合与显示模块中融合后的目标信息,根据目标信息生成策略动作,将策略动作反馈至态势显示模块,将仿真结果反馈至反无人机验证与集群反制教学系统;在值守策略模块的操作选择单元中的不同操作类别中进行策略动作;其中,不同操作类别包括手动操作模式、半自动模式和自动模式;在任务监控单元中显示当前反制流程的进度并通过不同的显示方式显示每一步反制流程的执行状态;其中,反制流程包括目标探测、目标跟踪、目标识别和目标打击,执行状态包括已完成、正在执行和尚未完成;在设备控制单元中管理反制设备,包括设备的显示、参数设置、参数修改以及设备的手动控制功能,并与多种上位机控制系统进行关联,实现设备的全面调控;在数据融合与显示模块中对在设备管理模块中采集的不同传感器设备的实时数据进行融合,包括:多雷达数据融合方法和多无线电侦测数据融合方法;多雷达数据融合方法包括时间配准方法、空间配准方法和航迹融合处理方法;时间配准方法包括:根据公式tbi=(Timod Tb)/Ti×Tb+tb计算每个雷达数据点在基准雷达扫描周期中的对应时间点;其中,Tb为基准雷达的扫描周期,Ti为其他雷达的扫描周期,Timod Tb为计算基准雷达与其他雷达之间的余数,表示在基准雷达的扫描周期中,对应的其他雷达的扫描周期所处的位置,tb为基准雷达的起始时间。
结合第一方面,在一种可能的实现方式中,空间配准方法包括两种情况;第一种情况为:根据公式xc=(x-xb)/R+xb,yc=(y-yb)/R+yb,zc=(z-zb)/R+zb计算单雷达数据的配准后的坐标(xc,yc,zc);其中,(x,y,z)为雷达原始坐标,(xb,yb,zb)为以地心为基准的基准坐标,R为地球半径;第二种情况为:根据公式xd=(x-xb)/R+xb-NX×sin(θ)+Ny×cos(θ),yd=(y-yb)/R+yb-NX×cos(θ)-Ny×sin(θ),zd=(z-zb)/R+zb-Nz计算多雷达数据的配准后的坐标(xd,yd,zd);其中,(x,y,z)为雷达原始坐标,(xb,yb,zb)为以地心为基准的基准坐标,R为地球半径,(NX×sin(θ)+Ny×cos(θ),NX×cos(θ)-Ny×sin(θ),Nz)为雷达相对于基准坐标的偏移量,θ为雷达与地心的夹角,NX为雷达在x轴方向上的单位向量,Ny为雷达在y轴方向上的单位向量,Nz为雷达在z轴方向上的单位向量。
结合第一方面,在一种可能的实现方式中,航迹融合处理方法包括:将多部雷达发出的不同航迹进行判断,对所判断出的属于同一目标的不同航迹进行融合处理,获得系统航迹。
结合第一方面,在一种可能的实现方式中,多无线电侦测数据融合方法包括信号处理、数据融合和数据可视化;信号处理包括:根据公式O=(S-N)×G+B计算目标无人机的输出信号,从而抑制杂波并放大目标无人机的信号;其中,S为从目标无人机接收到的原始信号,N为杂波背景,G为用于放大目标无人机信号的系数,B为基线。
结合第一方面,在一种可能的实现方式中,数据融合包括数据级融合、特征级融合和策略级融合;数据级融合为进行数据的配准和同步,特征级融合为从数据中提取特征并进行分类和识别,策略级融合为制定最优的传感器资源分配方案和任务规划。
结合第一方面,在一种可能的实现方式中,数据可视化包括数据准备步骤、选择可视化工具步骤、设计可视化视图步骤、实现可视化视图步骤和数据解读和分析步骤。
第二方面,本申请实施例提供了一种无人机探测与反制系统,包括任务处理模块、设备管理模块、数据融合与显示模块、态势显示模块和值守策略模块;所述任务处理模块被配置为处理反无人机验证与集群反制教学系统下发的反制任务,并将处理后的任务传递给设备管理模块和值守策略模块,向所述态势显示模块提供不同电子地图类型数据;所述设备管理模块被配置为接收来自所述任务处理模块的任务,采集不同传感器设备的实时数据,根据任务的要求管理和控制反制设备,并将反制设备的工作状态反馈给所述数据融合与显示模块和所述态势显示模块;所述数据融合与显示模块被配置为对从所述设备管理模块采集不同传感器设备的实时数据并进行融合,以列表的形式显示出融合后的目标信息,将融合后的目标信息发送给态势显示模块和值守策略模块;所述态势显示模块被配置为接收来自所述任务处理模块、所述数据融合与显示模块、所述设备管理模块和所述值守策略模块的反馈数据,对反馈数据进行融合处理,生成三维态势信息,呈现出当前的仿真场景,将实时态势反馈至反无人机验证与集群反制教学系统;所述值守策略模块被配置为接收所述数据融合与显示模块中融合后的目标信息,根据目标信息生成策略动作,将策略动作反馈至态势显示模块,将仿真结果反馈至反无人机验证与集群反制教学系统。
结合第二方面,在一种可能的实现方式中,所述任务处理模块包括任务描述单元、地图选择单元、部署单元和仿真控制单元;所述态势显示模块包括地形库构建单元、反制单元模型库构建单元、指控模型构建单元、特效库构建单元、天气场景构建单元和音效库构建单元;所述值守策略模块包括操作选择单元、任务监控单元和设备控制单元。
本申请实施例中提供的一个或多个技术方案,至少具有如下技术效果:
本申请实施例提供了一种无人机探测与反制方法及其探测与反制系统,在任务处理模块中处理反无人机验证与集群反制教学系统下发的反制任务,并将处理后的任务传递给设备管理模块和值守策略模块。在设备管理模块中接收来自任务处理模块的任务,根据任务的要求管理和控制反制设备,并将反制设备的工作状态反馈给数据融合与显示模块和态势显示模块。在数据融合与显示模块中对从设备管理模块采集不同传感器设备的实时数据并进行融合,以列表的形式显示出融合后的目标信息,将融合后的目标信息发送给态势显示模块和值守策略模块。在态势显示模块中接收来自任务处理模块、数据融合与显示模块和值守策略模块的反馈数据,对反馈数据进行融合处理,生成三维态势信息,呈现出当前的仿真场景,将实时态势反馈至反无人机验证与集群反制教学系统。在值守策略模块中接收数据融合与显示模块中融合后的目标信息,根据目标信息生成策略动作,将策略动作反馈至态势显示模块,将仿真结果反馈至反无人机验证与集群反制教学系统,解决了如何提高无人机探测与反制的准确性和效率,同时降低对其他用户和公共安全的影响的问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对本发明实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的无人机探测与反制方法的流程图;
图2为本申请实施例提供的无人机探测与反制系统组成示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请实施例提供了一种无人机探测与反制方法,如图1所示,该方法包括步骤S101至步骤S105。其中,图1仅为本申请实施例示出的一种执行顺序,并不代表一种无人机探测与反制系统的探测与反制方法的唯一执行顺序,在可实现最终结果的情况下,图1所示出的步骤可以被并列或颠倒执行。
S101:在任务处理模块中处理反无人机验证与集群反制教学系统下发的反制任务,并将处理后的任务传递给设备管理模块和值守策略模块,在任务处理模块的任务描述单元中进行仿真任务简要描述获得任务主题。在地图选择单元中为态势显示模块提供不同电子地图类型,并在地图选择单元中根据任务主题选择所需的电子地图类型。其中,电子地图类型包括标准地图、卫星地图和混合路网地图。在部署单元中进行入侵方的设备与反制方的设备部署操作,当部署操作完成时,通过部署单元控制仿真任务的开始。其中,入侵方的设备为无人机,反制方的设备为无人机反制设备,无人机反制设备包括低空补盲雷达、无线电侦测设备、光电仿真设备和无线电干扰设备。在仿真控制单元中控制仿真实验的开始与停止。
具体地,部署单元主要用于部署入侵方与反制方的设备。入侵方主要是部署无人机,其信息包含入侵无人机机型、数量、入侵编队和路径规划信息,如果需要进行混合编队入侵时,可通过新建按钮进行新编机型编队部署,编队队形支持人字形、矩形和一字形。路径规划主要是为入侵无人机集群规划最优的入侵航线,实验人员可以通过在地图上点选航迹点或者手动输入航迹点的方式来指定初始航迹,初始航迹信息包含:航点号、航点类型、经度、纬度和高度。在确定好初始航迹之后,可通过下发按钮将初始航迹下发给航迹规划算法,航迹规划算法结合航迹点信息与地形信息规划出最优航迹,将其装订给入侵无人机集群。反制方部署主要是在指定位置部署无人机反制设备,其包含了低空补盲雷达、无线电侦测设备、光电仿真设备和无线电干扰设备。实验人员可根据任务信息在仿真场景中添加相应的反制设备,其信息包含编号、ID、经度、纬度和方位。当反制设备添加成功后,其会以列表的形式出现在设备管理模块的界面中,以三维模型的形式出现在态势显示模块中。当实验人员部署好实验场景时,可通过仿真控制单元控制仿真实验的开始与停止。
S102:在设备管理模块中接收来自任务处理模块的任务,采集不同传感器设备的实时数据,根据任务的要求管理和控制反制设备,实验人员在任务处理模块中进行的各设备部署完成后,设备管理模块中显示在任务处理模块进行各设备部署操作的各设备的信息,并将反制设备的工作状态反馈给数据融合与显示模块和态势显示模块。
具体地,设备管理模块主要用于管理接入系统中的反制设备,其包含真实设备和仿真设备。当实验人员在任务处理模块中点击各反制设备的添加按钮时,设备管理模块的界面会出现对应的反制设备的名称、类型和状态信息,其状态信息包含在线与离线两个状态,即就是是否与系统建立连接。初始默认反制设备的状态为离线,实验人员可通过对应设备后面的操作按钮来连接与断开设备。
S103:在数据融合与显示模块中对在设备管理模块中采集的不同传感器设备的实时数据进行融合,并以列表的形式显示出融合后的目标信息。其中,融合后的目标信息包括编号、目标类型、经度、纬度、高度、速度、方位和俯仰信息。将融合后的目标信息发送给态势显示模块和值守策略模块。
具体地,在数据融合与显示模块中对在设备管理模块中采集的不同传感器设备的实时数据进行融合,包括:多雷达数据融合方法和多无线电侦测数据融合方法。
进一步地,多雷达数据融合方法包括时间配准方法、空间配准方法和航迹融合处理方法。具体地,多雷达数据融合方法为将部署在不同地点的多部雷达探测到的数据进行融合处理,对于同一目标的航迹进行关联和同和,得到唯一的一致性航迹。
时间配准方法包括:根据公式tbi=(Timod Tb)/Ti×Tb+tb计算每个雷达数据点在基准雷达扫描周期中的对应时间点。其中,Tb为基准雷达的扫描周期,Ti为其他雷达的扫描周期,Timod Tb为计算基准雷达与其他雷达之间的余数,表示在基准雷达的扫描周期中,对应的其他雷达的扫描周期所处的位置,tb为基准雷达的起始时间。
具体地,由于各雷达都是独立部署的,雷达之间可能会以不同的频率对目标进行探测,并且在数据传输的过程中,还可能会受到距离或网络延迟的影响,使得综合指挥控制系统接收到的雷达数据往往来自不同的时刻,在进行航迹融合之前,需要将来自不同时刻的雷达数据对准到同一时刻,才能识别出属于同一目标的航迹。时间配准就是将各个雷达探测到的同一目标的不同步数据同步到同一时刻。
具体地,上述公式通过计算其他雷达的扫描周期与基准雷达的扫描周期之间的余数,表示在基准雷达的扫描周期中对应的其他雷达的扫描周期所处的位置,将余数转换为在基准雷达的扫描周期内的相对时间,再通过加上基准雷达的起始时间,最终得到其他雷达数据点在基准雷达扫描周期中的时间点,目的是为了将不同雷达的采集数据的时间对齐到同一时间参考点上,以便进行后续的数据处理和分析。需要进行说明的是,通常选择扫描周期较大的雷达作为基准雷达,其他雷达为除了基准雷达以外的雷达,扫描周期为雷达在连续两次采集数据之间的时间间隔。
下面列举一个实施例对上述公式进行说明,当然,还可以为其他的实施例,本申请不以此实施例为限制。
假设基准雷达的扫描周期Tb为10秒,某个对应的其他雷达的扫描周期Ti为8秒,将基准雷达的起始时间设为0。计算对应的其他雷达在第2次扫描时在基准雷达扫描周期中的位置。
根据公式计算每个雷达数据点在基准雷达扫描周期中的对应时间点:tbi=(TimodTb)/Ti×Tb+tb=(8mod 10)/8×10+0=2/8×10=2.5,那么所计算对应的其他雷达在第2次扫描时在基准雷达扫描周期中的位置是2.5秒。具体地,这个公式是在处理时间数据,因此,实际上是指在第2次扫描时,对应的其他雷达的时间点与基准雷达的扫描周期的时间点对齐后,对应的其他雷达的时间点是2.5秒。
具体地,由于各个雷达都是独立部署的,对空间内同一目标的探测结果可能存在偏差,需要使用不同雷达对同一目标的探测数据对雷达的偏差进行补偿。空间配准就是将部署在不同地方的雷达设备采集到的数据进行坐标转换,将各雷达探测到的目标数据转换到相同的坐标系中。
具体地,空间配准方法包括两种情况。第一种情况为:根据公式xc=(x-xb)/R+xb,yc=(y-yb)/R+yb,zc=(z-zb)/R+zb计算单雷达数据的配准后的坐标(xc,yc,zc)。其中,(x,y,z)为雷达原始坐标,(xb,yb,zb)为以地心为基准的基准坐标,R为地球半径。
具体地,上述公式是将雷达原始坐标减去基准坐标,得到相对于基准坐标的偏移量,将所得到的偏移量除以地球半径,得到相对于地心的坐标,将得到的相对于地心的坐标加上基准坐标,得到配准后的坐标,目的是将雷达的探测数据转换到地心坐标系中,以便与其他雷达的数据进行配准和融合。
第二种情况为:根据公式xd=(x-xb)/R+xb-NX×sin(θ)+Ny×cos(θ),yd=(y-yb)/R+yb-NX×cos(θ)-Ny×sin(θ),zd=(z-zb)/R+zb-Nz计算多雷达数据的配准后的坐标(xd,yd,zd)。其中,(x,y,z)为雷达原始坐标,(xb,yb,zb)为以地心为基准的基准坐标,R为地球半径,(NX×sin(θ)+Ny×cos(θ),NX×cos(θ)-Ny×sin(θ),Nz)为雷达相对于基准坐标的偏移量,θ为雷达与地心的夹角,NX为雷达在x轴方向上的单位向量,Ny为雷达在y轴方向上的单位向量,Nz为雷达在z轴方向上的单位向量。
具体地,上述公式用于多雷达数据配准,考虑多个雷达之间的相对位置关系,将每个雷达的探测数据转换到地心坐标系中,并对探测数据进行配准。上述公式是将雷达原始坐标减去基准坐标,得到相对于基准坐标的偏移量,将所得到的偏移量除以地球半径,得到相对于地心的坐标。对于每个雷达,减去该雷达相对于基准坐标的偏移量,以便进行配准,将得到的结果加上基准坐标,得到配准后的坐标,基准坐标的偏移量,目的是将每个雷达的探测数据都转换到地心坐标系中,并考虑到雷达之间的相对位置关系,以便进行更精确的配准和数据融合。
具体地,在进行时间配准和空间配准处理之后,可以得到同一时空下的航迹信息。对多部雷达发出的不同航迹,需要判断哪些航迹属于同一目标,对属于同一目标的不同航迹进行融合处理,才能得到唯一的系统航迹。
进一步地,航迹融合处理方法包括:将多部雷达发出的不同航迹进行判断,对所判断出的属于同一目标的不同航迹进行融合处理,获得系统航迹。
具体地,多无线电侦测数据融合方法包括信号处理、数据融合和数据可视化。
具体地,传感器接收到的信号中既包含无人机的位置信息,也包含无人机的属性信息。探测数据的处理目的一定程度上决定了探测数据的处理方法。根据提取信息的侧重点不同,可将探测数据的处理目的分为:(1)对无人机的定位,即已知传感器的位置和传感器接收到的信号,推断无人机的位置。(2)对无人机的测速,即通过无人机运动对信号产生的影响来测算无人机的速度。(3)无人机识别,即从传感器接收到的信号中得出无人机的属性信息包括种类和大小。波的幅值、频谱和功率谱中含有丰富的特征可用来识别无人机。另外,目前多采用深度学习方法处理信号中的高维目标特征。
具体地,各种探测所得的信号都是在开放的空间传播,会产生能量的损耗以及杂波的干扰。对于由“低慢小”无人机构成的无人机集群而言,其可探测性本身就很微弱,而且还处于复杂的低空环境中,导致对无人机集群的探测比较困难。因此,本申请采用下面公式抑制杂波并放大目标无人机的信号。
信号处理包括:根据公式O=(S-N)×G+B计算目标无人机的输出信号,从而抑制杂波并放大目标无人机的信号。其中,S为从目标无人机接收到的原始信号,N为杂波背景,G为用于放大目标无人机信号的系数,B为基线。
下面列举一个实施例对上述公式进行说明,当然,还可以为其他的实施例,本申请不以此实施例为限制。
假设从目标无人机接收到的原始信号为10毫伏,而杂波背景为5毫伏。为了能够清晰地检测和识别目标无人机的信号,将用于放大目标无人机信号的系数设置为3即放大3倍,将基线设为0,根据公式计算目标无人机的输出信号,从而抑制杂波并放大目标无人机的信号:O=(S-N)×G+B=(10毫伏-5毫伏)×3+0=15毫伏,得到目标无人机的输出信号为15毫伏,比从目标无人机接收到的原始信号10毫伏要大,因此抑制了杂波背景并放大目标无人机的信号。
需要进行说明的是,在信号处理中,基线通常是指在没有信号输入时的信号输出值,在上述公式计算中,基线设为0并不意味着信号的基线真的是0毫伏,它只是一个相对的参考值,基线的具体设置可以根据实际情况进行调整。具体地,杂波背景可以通过测量环境中的噪声或其他干扰信号获得。例如,可以使用噪声测量设备或传感器来测量环境中的噪声水平,并将其作为杂波背景。另外,如果目标无人机在特定的环境中工作,也可以通过分析该环境中的信号来估计杂波背景。例如,如果目标无人机在室内工作,可以分析室内的背景噪声水平,并将其作为杂波背景。需要注意的是,杂波背景的获取方式可能会受到多种因素的影响,如环境噪声、设备性能和测量方法等。因此,在选择杂波背景的获取方式时,需要考虑这些因素,并选择合适的方法来确保准确性和可靠性。
进一步地,数据融合的目的是从源数据中分析得出无人机的位置、速度与其它属性信息。无人机集群多传感器数据融合探测的模式为:目标无人机的可探测信号,例如雷达回波、光电成像、声成像、激光成像和无线电通信截获等进行时空配准、信息关联,之后通过冲突度量、多层次多周期融合判决,输出目标无人机的位置、速度和属性等信息。在这个模式下,数据的配准关联和融合判决可发生在不同的层次,根据不同的层次,数据融合包括数据级融合、特征级融合和策略级融合。
具体地,数据级融合为进行数据的配准和同步,主要解决直接从多个传感器获得的数据之间在空间上的配准和时间上的同步问题以及网络通信协议等。特征级融合为从数据中提取特征并进行分类和识别,指多个传感器探测所得的目标无人机的信息,例如坐标和速度之间的融合,主要处理特征级的互证和冲突问题。策略级融合为制定最优的传感器资源分配方案和任务规划,并处理各传感器在与决策直接相关的信息方面互证与冲突。
进一步地,在无人机集群探测应用中,可能发生的融合探测形式有:(1)红外与可见光融合成像。这一技术不但使得探测系统能够适应白天和夜间的任务,而且能够同时保留可见光图像丰富的细节信息、色彩信息与红外图像的亮度信息,提升了探测的准确性。(2)图像与超声波信息融合。这一技术类似于蝙蝠等生物在飞行时的目标探测原理,目前多用于无人机避障。(3)图像与雷达的信息融合。这两者的融合模式是:雷达进行大范围地扫描搜索,发现目标无人机后,运用相机对目标无人机成像。这样可以在获得探测距离的同时,不失探测精度。其中的关键技术是雷达的目标探测与识别及其与相机之间快速、稳定的响应关系。(4)图像与声音融合。声阵列对无人机的探测在五百米范围内有良好效果。作为一种辅助探测手段,声探测的融入能够大大提高近距探测的响应速度和精度。(5)图像与激光雷达融合。这种融合是将像素点所携带的颜色等信息,与点云数据所携带的位置等信息进行融合。
具体地,以红外与可见光融合成像技术为例,可以分为像素级融合、特征级融合和决策级融合三种表现层次。
具体地,对于同一时刻的可见光图像和红外图像,像素级融合即为建立两幅图之间像素之间的对应关系。像素级融合需要对每一个像素点进行运算,其融合精度是所有融合层次中最高的,但同时运算量也最高的,因而实时性最低。特征级融合为对无人机图像的特征进行融合,包括形状、纹理、轮廓、线段等,特征级融合是将可见光图像和红外图像中的这些特征分别提取出来,在特征这一层面进行融合。图像经特征提取后,形成特征空间,特征空间包含的信息比原图少,因而特征级融合存在信息丢失的风险。决策级融合为对无人机集群探测中与决策直接相关的量进行融合,包括无人机的位置、速度和属性等,决策级融合是分别基于可见光图像和红外图像独立提取这些决策变量,然后通过一定的算法选择最优决策,实现在决策层面融合。
进一步地,数据可视化包括数据准备步骤、选择可视化工具步骤、设计可视化视图步骤、实现可视化视图步骤和数据解读和分析步骤。
S104:态势显示模块用于接收来自任务处理模块、数据融合与显示模块、设备管理模块和值守策略模块的反馈数据,对反馈数据进行融合处理,生成三维态势信息,呈现出当前的仿真场景,将实时态势反馈至反无人机验证与集群反制教学系统。
具体地,态势显示模块中的地形库构建单元利用着色器软件实现对真实世界中地形、石头、木头、玻璃、塑料和金属等对象的渲染。
S105:在值守策略模块中接收数据融合与显示模块中融合后的目标信息,根据目标信息生成策略动作,将策略动作反馈至态势显示模块,将仿真结果反馈至反无人机验证与集群反制教学系统。在值守策略模块的操作选择单元中的不同操作类别中进行策略动作。其中,不同操作类别包括手动操作模式、半自动模式和自动模式。在任务监控单元中显示当前反制流程的进度并通过不同的显示方式显示每一步反制流程的执行状态。其中,反制流程包括目标探测、目标跟踪、目标识别和目标打击,执行状态包括已完成、正在执行和尚未完成。在设备控制单元中管理反制设备,包括设备的显示、参数设置、参数修改以及设备的手动控制功能,并与多种上位机控制系统进行关联,实现设备的全面调控。
具体地,在手动操作模式下,整个仿真过程都需要人的参与,比如,当雷达探测到来袭无人机时,并且已经进行了稳定跟踪,但由于处于手动模式下,无法将数据发送给光电仿真设备,致使光电仿真设备无法跟踪目标,进而致使反制流程停留在目标探测环节,此时需要实验人员手动打开光电控制系统与雷达建立通信联系,并进行手动操作光电跟踪目标,该模式适用于单个且慢速的无人机目标跟踪。
具体地,在半自动模式下,实验人员只需要在每个环节的结尾处执行决策操作即可。即当仿真开始时,实验人员可以打开雷达控制界面,设置好雷达初始参数,点击开始最终按钮,即可自动搜索目标,当搜索到目标时,实验人员可通过任务监控单元中的任务进度显示来打开光电控制界面,根据雷达返回的目标信息,设置好初始参数,点击开始跟踪按钮即可自动跟踪,如此操作,直至完成整个反制流程。该模式适用于多无人机低空低速来袭无人机的反制场景。
具体地,在自动模式下,即全自动无需人员参与,整个反制流程自动执行,实验人员只需在仿真开始之前部署好设备与场景信息,待仿真开始之后,所有的反制设备自动建立通信,各设备之间通过数据交换来实现自身参数调节,以保证每一项反制流程自动执行。在反制推演过程中,需要观察个反制设备的状态时,可通过设备控制单元来打开相应的控制系统进行观察。
进一步地,设备控制单元仅显示已经建立通信的反制设备,实验人员可在仿真开始之前对各个设备进行参数初始化设置,也可在仿真过程中修改参数和手动控制反制设备。设备控制单元可与雷达及上位机控制系统、无线电侦测上位机控制系统、光电上位机控制系统和无线电干扰上位机控制系统进行关联,在反制流程中,实验人员可通过点击相应设备后面的打开按钮,即可调出相应设备的控制系统界面,从而实现对设备的全面调控。
进一步地,综合指挥控制系统的评估方法多样,需要考虑的要素也比较多。从不同的层次、不同的角度对综合指挥控制系统进行评估,所得结果也不尽相同。对综合指挥控制系统的评估一般可以从静态属性和动态属性两个方面开展。系统的静态属性是指系统的能力范围和性能指标,例如指挥决策能力、信息处理速度等,一般与作战环境无关。系统的动态属性则是指系统在作战环境中的整体表现和任务完成情况。反无人机综合指挥控制系统具有指挥要素多、数据种类多、运行逻辑复杂等特点,若只评估系统的静态属性,如数据融合能力、信息处理速度、决策计算周期等,不能完整的反应系统的整体作战效能。因此,本申请从评估系统的动态属性入手,采用计算机仿真的方法,利用系统建模仿真技术,构建综合指挥控制系统的仿真模型,并将仿真模型代入仿真作战场景中进行评估分析,能够检验综合指挥控制系统对拦截设备的分配是否合理有效,系统是否能够实现反无人机作战的总体目标等。
具体地,基于上述的综合指挥控制系统的工作原理,无人机探测与反制流程实质上是多传感器协同探测与拦截反制的过程,其主要包括无线电侦测与雷达协同、雷达与光电协同。无线电可以远距离对目标进行侦测,发现目标后,引导雷达设备对指定空域进行重点搜索,如果无线电侦测设备为发现目标,则雷达进行全空域搜索。当雷达发现目标后,保持对目标的稳定跟踪,使用光电设备对目标进行搜索识别,当光电设备识别到目标后,值守策略模块生成反制策略,并将目标的具体信息发送至反制设备,最终由反制设备对入侵无人机进行反制拦截。
图2为本申请实施例提供的无人机探测与反制系统组成示意图,如图2所示,该无人机探测与反制系统包括任务处理模块、设备管理模块、数据融合与显示模块、态势显示模块和值守策略模块。任务处理模块被配置为处理反无人机验证与集群反制教学系统下发的反制任务,并将处理后的任务传递给设备管理模块和值守策略模块,向态势显示模块提供不同电子地图类型数据。设备管理模块被配置为接收来自任务处理模块的任务,采集不同传感器设备的实时数据,根据任务的要求管理和控制反制设备,并将反制设备的工作状态反馈给数据融合与显示模块和态势显示模块。数据融合与显示模块被配置为对从设备管理模块采集不同传感器设备的实时数据并进行融合,以列表的形式显示出融合后的目标信息,将融合后的目标信息发送给态势显示模块和值守策略模块。态势显示模块被配置为接收来自任务处理模块、数据融合与显示模块、设备管理模块和值守策略模块的反馈数据,对反馈数据进行融合处理,生成三维态势信息,呈现出当前的仿真场景,将实时态势反馈至反无人机验证与集群反制教学系统。值守策略模块被配置为接收数据融合与显示模块中融合后的目标信息,根据目标信息生成策略动作,将策略动作反馈至态势显示模块,将仿真结果反馈至反无人机验证与集群反制教学系统。需要进行说明的是本申请中的无人机探测与反制系统可以相当于综合指挥控制系统。
任务处理模块包括任务描述单元、地图选择单元、部署单元和仿真控制单元。态势显示模块包括地形库构建单元、反制单元模型库构建单元、指控模型构建单元、特效库构建单元、天气场景构建单元和音效库构建单元。值守策略模块包括操作选择单元、任务监控单元和设备控制单元。
本申请对反无人机群作业进行了仿真设计,构建了反无人机攻防对抗的实体模型,包括无人机模型、指控系统模型、拦截设备模型、探测设备模型等,然后设计仿真场景,给攻防双方的实体赋予相应的作战任务。在攻防双方对抗仿真的过程中,观察指控系统的工作状态和任务完成情况,对出现的问题及时记录,仿真结束后通过平台的统计数据再对指控系统的效能进行评估。针对不同的作战单元组合、不同的拦截设备分配方案、不同的敌机来袭方式等设计不同的案例,通过模拟不同的指控系统应用方式,得到不同的仿真结果。通过对这些仿真数据进行评估,能够分析出不同因素对综合指挥控制系统效能的影响,综合比较之后可以得到能够发挥系统最大效能的最优设计方案。需要进行说明的是,本申请中的指控系统为综合指挥控制系统。
本申请所述装置中的部分模块可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构、类等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
上述申请实施例阐明的装置或模块,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。为了描述方便,描述以上装置时以功能分为各种模块分别描述。在实施本申请实施例时可以把各模块的功能在同一个或多个软件和/或硬件中实现。当然,也可以将实现某功能的模块由多个子模块或子单元组合实现。
本申请中所述的方法、装置或模块可以以计算机可读程序代码方式实现控制器按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(英文:Application Specific Integrated Circuit,简称:ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内部包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本申请可借助软件加必需的硬件的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,也可以通过数据迁移的实施过程中体现出来。该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,移动终端,服务器,或者网络设备等)执行本申请实施例所述的方法。
本说明书中的各个实施方式采用递进的方式描述,各个实施方式之间相同或相似的部分互相参见即可,每个实施方式重点说明的都是与其他实施方式的不同之处。本申请的全部或者部分可用于众多通用或专用的计算机系统环境或配置中。
以上实施例仅用以说明本申请的技术方案,而非对本申请限制;尽管参照前述实施例对本申请进行了详细的说明,本领域普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请技术方案的范围。
Claims (8)
1.一种无人机探测与反制方法,其特征在于,包括:在任务处理模块中处理反无人机验证与集群反制教学系统下发的反制任务,并将处理后的任务传递给设备管理模块和值守策略模块,在任务处理模块的任务描述单元中进行仿真任务简要描述获得任务主题;在地图选择单元中为态势显示模块提供不同电子地图类型,并在地图选择单元中根据任务主题选择所需的电子地图类型;其中,电子地图类型包括标准地图、卫星地图和混合路网地图;在部署单元中进行入侵方的设备与反制方的设备部署操作,当部署操作完成时,通过部署单元控制仿真任务的开始;其中,入侵方的设备为无人机,反制方的设备为无人机反制设备,无人机反制设备包括低空补盲雷达、无线电侦测设备、光电仿真设备和无线电干扰设备;在仿真控制单元中控制仿真实验的开始与停止;
在设备管理模块中接收来自任务处理模块的任务,采集不同传感器设备的实时数据,根据任务的要求管理和控制反制设备,实验人员在任务处理模块中进行的各设备部署完成后,设备管理模块中显示在任务处理模块进行各设备部署操作的各设备的信息,并将反制设备的工作状态反馈给数据融合与显示模块和态势显示模块;
在数据融合与显示模块中对在设备管理模块中采集的不同传感器设备的实时数据进行融合,并以列表的形式显示出融合后的目标信息;其中,融合后的目标信息包括编号、目标类型、经度、纬度、高度、速度、方位和俯仰信息;将融合后的目标信息发送给态势显示模块和值守策略模块;
态势显示模块用于接收来自任务处理模块、数据融合与显示模块、设备管理模块和值守策略模块的反馈数据,对反馈数据进行融合处理,生成三维态势信息,呈现出当前的仿真场景,将实时态势反馈至反无人机验证与集群反制教学系统;
在值守策略模块中接收数据融合与显示模块中融合后的目标信息,根据目标信息生成策略动作,将策略动作反馈至态势显示模块,将仿真结果反馈至反无人机验证与集群反制教学系统;在值守策略模块的操作选择单元中的不同操作类别中进行策略动作;其中,不同操作类别包括手动操作模式、半自动模式和自动模式;在任务监控单元中显示当前反制流程的进度并通过不同的显示方式显示每一步反制流程的执行状态;其中,反制流程包括目标探测、目标跟踪、目标识别和目标打击,执行状态包括已完成、正在执行和尚未完成;在设备控制单元中管理反制设备,包括设备的显示、参数设置、参数修改以及设备的手动控制功能,并与多种上位机控制系统进行关联,实现设备的全面调控;
在数据融合与显示模块中对在设备管理模块中采集的不同传感器设备的实时数据进行融合,包括:多雷达数据融合方法和多无线电侦测数据融合方法;
多雷达数据融合方法包括时间配准方法、空间配准方法和航迹融合处理方法;
时间配准方法包括:根据公式tbi=(Timod Tb)/Ti×Tb+tb计算每个雷达数据点在基准雷达扫描周期中的对应时间点;其中,Tb为基准雷达的扫描周期,Ti为其他雷达的扫描周期,Timod Tb为计算基准雷达与其他雷达之间的余数,表示在基准雷达的扫描周期中,对应的其他雷达的扫描周期所处的位置,tb为基准雷达的起始时间。
2.根据权利要求1所述的无人机探测与反制方法,其特征在于,空间配准方法包括两种情况;
第一种情况为:根据公式xc=(x-xb)/R+xb,yc=(y-yb)/R+yb,zc=(z-zb)/R+zb计算单雷达数据的配准后的坐标(xc,yc,zc);其中,(x,y,z)为雷达原始坐标,(xb,yb,zb)为以地心为基准的基准坐标,R为地球半径;
第二种情况为:根据公式xd=(x-xb)/R+xb-NX×sin(θ)+Ny×cos(θ),yd=(y-yb)/R+yb-NX×cos(θ)-Ny×sin(θ),zd=(z-zb)/R+zb-Nz计算多雷达数据的配准后的坐标(xd,yd,zd);其中,(x,y,z)为雷达原始坐标,(xb,yb,zb)为以地心为基准的基准坐标,R为地球半径,(NX×sin(θ)+Ny×cos(θ),NX×cos(θ)-Ny×sin(θ),Nz)为雷达相对于基准坐标的偏移量,θ为雷达与地心的夹角,NX为雷达在x轴方向上的单位向量,Ny为雷达在y轴方向上的单位向量,Nz为雷达在z轴方向上的单位向量。
3.根据权利要求1所述的无人机探测与反制方法,其特征在于,航迹融合处理方法包括:
将多部雷达发出的不同航迹进行判断,对所判断出的属于同一目标的不同航迹进行融合处理,获得系统航迹。
4.根据权利要求1所述的无人机探测与反制方法,其特征在于,多无线电侦测数据融合方法包括信号处理、数据融合和数据可视化;
信号处理包括:根据公式O=(S-N)×G+B计算目标无人机的输出信号,从而抑制杂波并放大目标无人机的信号;其中,S为从目标无人机接收到的原始信号,N为杂波背景,G为用于放大目标无人机信号的系数,B为基线。
5.根据权利要求4所述的无人机探测与反制方法,其特征在于,数据融合包括数据级融合、特征级融合和策略级融合;
数据级融合为进行数据的配准和同步,特征级融合为从数据中提取特征并进行分类和识别,策略级融合为制定最优的传感器资源分配方案和任务规划。
6.根据权利要求4所述的无人机探测与反制方法,其特征在于,数据可视化包括数据准备步骤、选择可视化工具步骤、设计可视化视图步骤、实现可视化视图步骤和数据解读和分析步骤。
7.根据权利要求1-6中任意一项所述的无人机探测与反制方法的探测与反制系统,其特征在于,包括任务处理模块、设备管理模块、数据融合与显示模块、态势显示模块和值守策略模块;
所述任务处理模块被配置为处理反无人机验证与集群反制教学系统下发的反制任务,并将处理后的任务传递给设备管理模块和值守策略模块,向所述态势显示模块提供不同电子地图类型数据;
所述设备管理模块被配置为接收来自所述任务处理模块的任务,采集不同传感器设备的实时数据,根据任务的要求管理和控制反制设备,并将反制设备的工作状态反馈给所述数据融合与显示模块和所述态势显示模块;
所述数据融合与显示模块被配置为对从所述设备管理模块采集不同传感器设备的实时数据并进行融合,以列表的形式显示出融合后的目标信息,将融合后的目标信息发送给态势显示模块和值守策略模块;
所述态势显示模块被配置为接收来自所述任务处理模块、所述数据融合与显示模块、所述设备管理模块和所述值守策略模块的反馈数据,对反馈数据进行融合处理,生成三维态势信息,呈现出当前的仿真场景,将实时态势反馈至反无人机验证与集群反制教学系统;
所述值守策略模块被配置为接收所述数据融合与显示模块中融合后的目标信息,根据目标信息生成策略动作,将策略动作反馈至态势显示模块,将仿真结果反馈至反无人机验证与集群反制教学系统。
8.根据权利要求7所述的无人机探测与反制方法的探测与反制系统,其特征在于,所述任务处理模块包括任务描述单元、地图选择单元、部署单元和仿真控制单元;
所述态势显示模块包括地形库构建单元、反制单元模型库构建单元、指控模型构建单元、特效库构建单元、天气场景构建单元和音效库构建单元;
所述值守策略模块包括操作选择单元、任务监控单元和设备控制单元。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311746438.XA CN117423271B (zh) | 2023-12-19 | 2023-12-19 | 一种无人机探测与反制方法及其探测与反制系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311746438.XA CN117423271B (zh) | 2023-12-19 | 2023-12-19 | 一种无人机探测与反制方法及其探测与反制系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117423271A CN117423271A (zh) | 2024-01-19 |
CN117423271B true CN117423271B (zh) | 2024-03-22 |
Family
ID=89528874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311746438.XA Active CN117423271B (zh) | 2023-12-19 | 2023-12-19 | 一种无人机探测与反制方法及其探测与反制系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117423271B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118230620B (zh) * | 2024-05-24 | 2024-08-09 | 江西联创精密机电有限公司 | 一种反无人机模拟训练方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160036284A (ko) * | 2014-09-25 | 2016-04-04 | 국방과학연구소 | 실시간 시각화 전자전 시뮬레이션 시스템 및 그 방법 |
CN106382857A (zh) * | 2016-11-15 | 2017-02-08 | 成都赫尔墨斯科技有限公司 | 一种无人机拦截方法及系统 |
CN106839881A (zh) * | 2016-12-23 | 2017-06-13 | 成都赫尔墨斯科技有限公司 | 一种基于动态图像识别的反无人机方法 |
US11074827B2 (en) * | 2017-08-25 | 2021-07-27 | Aurora Flight Sciences Corporation | Virtual reality system for aerial vehicle |
WO2022257510A1 (zh) * | 2021-06-09 | 2022-12-15 | 航天科工仿真技术有限责任公司 | 一种无人机的反制方法及无人机的反制系统 |
CN117153016A (zh) * | 2023-09-08 | 2023-12-01 | 四川九源微能科技有限公司 | 一种虚实结合的无人机探测及反制的模拟训练系统及方法 |
-
2023
- 2023-12-19 CN CN202311746438.XA patent/CN117423271B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160036284A (ko) * | 2014-09-25 | 2016-04-04 | 국방과학연구소 | 실시간 시각화 전자전 시뮬레이션 시스템 및 그 방법 |
CN106382857A (zh) * | 2016-11-15 | 2017-02-08 | 成都赫尔墨斯科技有限公司 | 一种无人机拦截方法及系统 |
CN106839881A (zh) * | 2016-12-23 | 2017-06-13 | 成都赫尔墨斯科技有限公司 | 一种基于动态图像识别的反无人机方法 |
US11074827B2 (en) * | 2017-08-25 | 2021-07-27 | Aurora Flight Sciences Corporation | Virtual reality system for aerial vehicle |
WO2022257510A1 (zh) * | 2021-06-09 | 2022-12-15 | 航天科工仿真技术有限责任公司 | 一种无人机的反制方法及无人机的反制系统 |
CN117153016A (zh) * | 2023-09-08 | 2023-12-01 | 四川九源微能科技有限公司 | 一种虚实结合的无人机探测及反制的模拟训练系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN117423271A (zh) | 2024-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN117423271B (zh) | 一种无人机探测与反制方法及其探测与反制系统 | |
CN104077601B (zh) | 一种利用不同类型信息进行目标综合识别的方法 | |
CN111025283B (zh) | 雷达与球机联动的方法及装置 | |
CN108008408B (zh) | 搜索跟踪成像方法、装置及系统 | |
CN112068111A (zh) | 一种基于多传感器信息融合的无人机目标侦测方法 | |
CN108416361A (zh) | 一种基于海域监视的信息融合系统以及方法 | |
CN111044052B (zh) | 一种基于智能感知的无人机自适应导航系统及方法 | |
CN109255286A (zh) | 一种基于yolo深度学习网络框架的无人机光学快速检测识别方法 | |
CN108469817A (zh) | 基于fpga和信息融合的无人船避障控制系统 | |
CN110135686A (zh) | 要地综合防御仿真系统 | |
CN109708659B (zh) | 一种分布式智能光电低空防护系统 | |
KR101076240B1 (ko) | 증강현실을 이용한 방공 전장상황 제공 장치 및 방법 | |
CN116956731A (zh) | 基于智能体的电磁目标多模态感知仿真博弈方法与装置 | |
CN116466307B (zh) | 一种基于深度图的毫米波雷达点云仿真的方法和装置 | |
CN112040215A (zh) | 电磁环境裸眼立体显示系统 | |
Siddiqui | UWB RTLS for construction equipment localization: experimental performance analysis and fusion with video data | |
Wei et al. | CAM-PC: A novel method for camouflaging point clouds to counter adversarial deception in remote sensing | |
CN113467450A (zh) | 无人机器控制方法、装置、计算机设备及存储介质 | |
CN112947577A (zh) | 网电复合无人机目标拦截方法、装置及系统 | |
Lindgren et al. | Multisensor configurations for early sniper detection | |
Li et al. | Research on the intelligent obstacle avoidance and path planning strategy of UAV based on multi-sensor fusion | |
CN110515079A (zh) | 融合sar雷达与红外成像技术的可视化融合方法 | |
Svensson et al. | Building an information fusion demonstrator | |
Hou et al. | Research Advancements in Artificial Intelligence for Space Situational Awareness | |
AL-EMADI | DDI: Drones Detection and Identification using Deep Learning Techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |