CN110866887A - 一种基于多传感器的目标态势融合感知方法和系统 - Google Patents

一种基于多传感器的目标态势融合感知方法和系统 Download PDF

Info

Publication number
CN110866887A
CN110866887A CN201911066852.XA CN201911066852A CN110866887A CN 110866887 A CN110866887 A CN 110866887A CN 201911066852 A CN201911066852 A CN 201911066852A CN 110866887 A CN110866887 A CN 110866887A
Authority
CN
China
Prior art keywords
target
track
fusion
information
enemy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201911066852.XA
Other languages
English (en)
Inventor
夏春秋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Vision Technology Co Ltd
Original Assignee
Shenzhen Vision Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Vision Technology Co Ltd filed Critical Shenzhen Vision Technology Co Ltd
Priority to CN201911066852.XA priority Critical patent/CN110866887A/zh
Publication of CN110866887A publication Critical patent/CN110866887A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Architecture (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明提供一种基于多传感器的目标态势融合感知方法,包括:对探测区域进行监视,获取识别环境下多目标态势情报数据;基于视觉特征,重建点云目标及三维场景模型;检测目标航迹,进行局部航迹与整体航迹配准融合;通过DS证据理论获取目标身份,实现目标敌我分群;分析敌方目标行为态势,获取敌方目标威胁度,按照威胁度等级采取压制措施;还提供一种装置包括测量与定位系统、信息融合系统、态势感知与威胁评估系统、决策系统和显示系统。本发明基于DS证据理论和目标数据多融合实现目标态势感知和威胁评估,同时利用点云实现目标与场景重建,可以为受遮挡目标的探测识别、场景重现、航迹检测和预测、战场目标态势感知等提供精准信息。

Description

一种基于多传感器的目标态势融合感知方法和系统
技术领域
本发明涉及人工智能、目标融合、态势感知等领域,尤其是涉及了一种基于多传感器的目标态势融合感知方法和系统。
背景技术
近年来,以远程遥控和自主控制为核心的机器人技术迅猛发展,导致无人机、无人船、无人水下前潜航器等作战系统相继出现,并先后投入战场,无人化作战这一崭新作战样式正在破土而出,为了对战场环境进行完整全面的感知,无人平台安装了大量的传感器,对环境信息进行实时采集。
为了克服单个平台能力不足的问题,无人平台多形成多平台无人班组执行任务,这样的有人与无人协同控制存在技术难点,具体体现在指挥人员需要根据大量的传感器数据,对当前形势进行实时分析,有必要引入辅助态势感知系统,帮助进行信息的整合和筛选,提供参考态势信息,推送与态势和决策关联的重要信息,使指挥员的主要精力投入在决策上。
在传感器信息的整合方法上,目前大多采用引入态势感知模块的方法,即使用根据实际需求,将整体情况划分为便于理解的态势,将辅助系统的态势理解结果上报给控制中心,从而减轻作战人员的负担,其数学过程来讲,辅助控制系统中的态势感知模块是一个推理过程,目前主流技术包括:采用贝叶斯推理的方法来构建态势感知网络,网络架构层级清晰,但是在实际使用中面临先验概率难以确定的问题。一种基于模糊认知图的算法,削弱了传感器误差的影响,但缺乏对样本随机性的包含,专家系统中对专家经验的差异性也存在合理的处理方法。
尽管上述的这些研究所得到的方法具有很不错的完成任务的效果,但在实际复杂战场环境中,辅助指控系统单纯的直接对传感器信息进行态势感知是不够的,如何保证态势感知的准确性,如何进行合理的信息筛选和排序,以保证指挥干预和决策快速有效进行,是现在急需重点解决的问题。
发明内容
为解决现实技术的不足,本发明提供一种基于多传感器的目标态势融合感知方法和系统,以分析敌方目标行为态势,获取敌方目标威胁度,按照威胁度等级采取压制措施。
本发明提供一种基于多传感器的目标态势融合感知方法,包括:对探测区域进行监视,获取识别环境下多目标态势情报数据;基于视觉特征,重建点云目标及三维场景模型;检测目标航迹,进行局部航迹与整体航迹配准融合;通过DS证据理论获取目标身份,实现目标敌我分群;分析敌方目标行为特征,获取敌方目标威胁度,按照威胁度等级采取压制措施;还提供一种装置包括测量与定位系统、信息融合系统、态势感知与威胁评估系统、决策系统和显示系统。本发明集成现有传感器的系统,对组合数据进行智能分析,尽可能产生丰富的势态感知,从而确定合适的行动计划;对模糊条件反应灵敏,迅速,具有较高的实用性,基于DS证据理论和目标数据多融合实现目标态势感知和威胁评估,为目标探测与识别、场景重现、航迹检测和预测、战场目标态势感知等提供精准信息。
实现本发明目的的技术方案为:
(一)对探测区域进行监视,获取识别环境下多目标态势情报数据;
(二)检测目标航迹,进行局部航迹与整体航迹配准融合;
(三)通过DS证据理论获取目标身份,实现目标敌我分群;
(四)分析敌方目标行为特征,获取敌方目标威胁度,按照威胁度等级采取压制措施。
其中,所述(一)对探测区域进行监视,获取识别环境下多目标态势情报数据,具体包括:目标信息及场景信息;所述目标,包括:位置、目标三维点云、速度、加速度、航向角、方位角、距离;所述场景,包括场景三维点云、深度图像、彩色图像;其步骤包括:
步骤1,由于利用多个传感器对多个目标进行监测,进行时间配准和空间配准,得到时间同步的三维点云数据中的探测区域和视频图像中的探测区域,相同帧时刻对探测区域配准和融合,以丰富所述区域特征,从而实现多目标区分;
步骤2,预设目标类别、特征类别,将获取的目标信息输入卷积神经网络,提取目标特征,通过在卷积层后连接上采样层、以及在池化层后增加残差结构,弥补原始输入图像经过过各个卷积层得到的新图像的分辨率的损失;
步骤3,将通过步骤2获取的目标特征进行聚类,按照多目标之间进行特征聚类,划分为共有特征和非共有特征,保留满足预设要求的非共有特征;
步骤4,基于视觉特征,重建点云目标及三维场景模型。
进一步的,所述重建点云目标及三维场景模型,其步骤如下:
步骤1,由激光雷达传感器扫描目标及场景,得到三维点云,选择当前帧与前t帧的三维点云,对点云数据进行预处理,得到点云轮廓数据,预分割目标点云;
步骤2,计算点云第t帧相对于第t-1帧的相对位移和角度,以角度的垂直方向作为点云投影方向,获取点云深度信息,构成点云深度信息矩阵;
步骤3,根据视频帧和深度图像,以所述对应的点云深度信息作为参考进行比对,在深度图像中选择候选区域,得到深度图像候选区域集合;
步骤4,在深度图像候选区域集合中,找到每帧与点云信息对应的像素点的三维空间点,获取该空间点的法向量,根据所述法向量确定形状特征;
步骤5,根据在所述深度图像候选区域中找到与视频帧图像最接近的像素点,计算RGB特征向量,得到深度图像候选区域集合对应的RGB特征向量矩阵;
步骤6,根据所述RGB特征向量矩阵与所述形状特征矩以及所述深度图像,重复上述步骤,确定由激光雷达传感器获取的检测目标及场景的特征;
步骤7,以场景的栅格失配度和置信度作为聚类算法的输入,获得表征特征的栅格聚类,将聚类结果作为重聚类初始算法的聚类种子,在设定的k邻域中搜索距离阈值约束后符合要求的聚类种子,则将该聚类种子标记,剩余非聚类种子作为噪声;将聚类种子通过ICP算法配准对应到相同视角和时间帧的激光点云聚类上,以矫正优化后的关联点云进行融合重建;
所述失配度为:ηi=Savg(i)-Lavg(i),其中,Savg(i)表示激光点云聚类,Lavg(i)表示由步骤7得到的聚类种子,ηi表示第i个栅格的失配度;
Figure BDA0002259645020000031
η表示失配度,n*m表示栅格总个数;
所述置信度为:
Figure BDA0002259645020000032
表示i个栅格的失配度的置信度情况,k表示第k层,共有
Figure BDA0002259645020000033
个栅格组合。
进一步的,所述获取的目标特征进行聚类,包括:在视频帧图像中,针对若干时刻的视频帧,检测出同一目标的共有特征和非共有特征,保留共有特征,对于非共有特征部分,按照非共有特征在所述特征区域的权重大小,判断重要性,预设权重阈值,若权重大于预设权重阈值,则保留非共有特征,公式如下:
Figure BDA0002259645020000034
其中,N表示目标类,i表示1~N之间的第i目标类;M表示特征类,j表示1~M之间的第j特征集合;ij表示i目标的j特征集合,
Figure BDA0002259645020000035
表示在第i目标的j特征集合中1~kb的特征,Rijk表示在第i目标的j特征集合中1~k的特征;W(A)表示A目标在所属目标类、特征类、特征集合的权重;
Figure BDA0002259645020000036
其中,Fijkmax(A)表示特征A在1~k个特征中的占比最大值,即在第i目标类、第j特征集合中查找由1~k中的最大值;Fijkmin(A)表示特征A在1~k个特征中的占比最小值;
预设权重值:
Figure BDA0002259645020000041
当满足W(A)大于W0(A)时,保留非共有特征A;则经过配准与融合后的目标特征包含共有特征和满足条件的非共有特征。
其中,所述(二)检测目标航迹,进行局部航迹与整体航迹配准融合,具体包括:对于不能将目标视为质点的情况下,通过三段法解决姿态约束的航迹规划,以目标质心跟踪模式、前端顶点跟踪模式和尾部顶点跟踪模式的运动航迹也不相同,如无人机在收翼和展翼状态;检测航迹步骤在于:
步骤1,栅格化场景的二维电子地图,划分为n*m区域块,则目标位置为(x,y,φ);分别为位置坐标和平面上的航向角;
步骤2,构建局部航迹检测包围盒,在航迹两侧,以目标最窄宽度的1/2对路径中心线构建弯曲的带状包围盒;
步骤3,将目标起点和终点处的轮廓描述为凸多边形,将路径中间段描述为圆形,利用三段法检测路径片段,通过连续帧形成的目标整体航迹。
进一步的,所述进行局部航迹与整体航迹配准融合,具体包括:
由于数据采集设备中各雷达上报数据的时间频率不相同,对于不能将目标视为质点的情况下,考虑到位置变换,还会出现姿态变换,目标在不同时刻帧的局部航迹和连续时间段的整体航迹不一定相同,因此需要进行局部航迹和整体航迹的配准,判断目标位姿,公式如下:
MP=F*MS+T(F*MSv+T*MSa/2) (4)
其中,T是航迹预测时间,即局部航迹的时间和整体航迹的时间的差值,Mp表示目标在各个时间帧的位置,
Figure BDA0002259645020000042
表示融合航迹中各个局部航迹的速度,
Figure BDA0002259645020000043
表示融合航迹中各个局部航迹的加速度;
若当前时刻未检测到整体航迹,则根据局部航迹建立融合航迹;否则通过局部航迹与整体航迹进行匹配融合,形成融合轨迹;然后将航迹进行下一时刻帧的预测,包括各个目标的位置坐标和速度。
其中,所述(三)通过DS证据理论获取目标身份,实现目标敌我分群;
步骤1,建立目标身份预测的样本空间矩阵,D={L,M,H},L表示敌方、M表示我方、H表示不明身份;
步骤2,将敌我识别软件、激光雷达和合成孔径雷达输出的初步识别结果作为证据,包括:目标基本信息、电磁辐射源、辐射频率、辐射强度、气象水文、地理环境、装备性能;输出各自识别权重转换成概率得到证据m1、m2、m3,...,表示为mi,基本概率赋值表示为mi(Ai);
步骤3,运用DS证据理论对m1、m2、m3进行合成,将满足合成决策规则的类作为最终结果输出,将目标身份预测作为基本命题A,计算基本概率;
利用三级最大差和三级最小差确定置信度函数与似然函数对基本概率赋值分配的影响程度;
证据支持度反映该证据被其他证据的支持程度,S(mi)值越大,表明证据之间的距离越小,该证据的支持度就越大,D(mi)是证据之间距离;
Figure BDA0002259645020000051
其中,Smax(mi)表示证据的最大支持度,Smin(mi)表示证据的最小支持度;
计算基本概率赋值:
mi(Ai)=S(mi)‘′*P(mi) (6)
合成:
Figure BDA0002259645020000052
最终输出合成概率结果,判断该目标的身份。
其中,所述(四)分析敌方目标行为特征,获取敌方目标威胁度,具体包括:构建卷积神经网络识别目标意图,步骤1,利用激光雷达传感器和合成孔径雷达获取行为特征:目标运动速度、高度、航向角、方位角、距离、加速度等为数值参数;对数值进行归一化;步骤2,根据实际识别结果与专家系统进行判断标记意图标签,利用获取的目标特征与意图标签构建数据库,选择数据分别作为测试、训练和验证;步骤3,调整深度神经网络结构,确定隐藏层和节点数;步骤4,将训练数据输入卷积神经网络,调整网络权值,将输出意图与标签对比,计算识别精度,当识别精度满足预设要求,则进行下一步,否则继续训练;步骤5,将测试数据库中的目标特征输入到训练好的深度神经网络中,计算识别精度;步骤6,将待识别作战意图的目标特征数据输入模型,输出意图。
进一步的,所述获取敌方目标威胁度,具体包括:判断敌方实力,预测敌方意图、进行威胁度评估,
包括:对敌方目标类型、空间位置以及装备能力评估敌方目标实力;
根据敌方目标的历史行动规律以及航迹,预测敌方的意图;
通过对敌方目标的行动预测、我方重点区域备战状态以及环境态势分析,识别潜在威胁程度;
通过威胁程度,执行决策指令,对敌方目标实时干扰压制;
其中,威胁度计算公式如下:
W=(ωb*Wbt*Wtp*Wp)*km*kt (8)
其中,W表示威胁度;当目标为敌方时,km=1;当目标身份不明时,km=0.5;kt表示目标行动预测的情况;ωb表示目标靠近重要区域的权重值,Wb表示靠近受保护区域的威胁度等级;ωt表示敌方装备能力权重值,Wt表示敌方装备能力对应的威胁度等级;ωp表示目标类型的权重值,Wp表示拦截目标的紧急程度。
本发明还提供一种基于多融合传感器的目标态势融合感知装置,其特征在于,主要包括:
(1)测量与定位系统,包括敌我识别器、激光雷达传感器、合成孔径雷达;对探测区域内的目标进行监视,获取当前场景中的目标彩色图像,深度图像,点云数据,位置信息以及状态信息,构建三维场景模型,同时获取情报信息,包括雷达获取海陆空情报、敌我识别设备侦察海陆空情报、电磁情报、战场环境;
(2)信息融合系统,用于接收来自于测量与定位系统中的目标信息及状态信息;包括:信息预处理,即进行时空配准;航迹融合,即局部航迹融合、整体航迹融合;传感器测量数据的融合进行目标分类识别。
(3)态势感知与威胁评估系统,用于处理测量与定位系统中传感器搜集到的相关信息,并依据信息融合系统处理的结果,获得目标的态势信息,并计算得到目标的威胁等级,生成决策命令;
(4)决策系统,用于相应决策指令,对目标实时进行干扰压制;
(5)显示系统,包括二维显示和三维显示;所述二维显示,用于叠加显示从测量与定位系统采集的待识别目标的实时影像数据与环境数据库中获取的与当前环境相同的影像数据,即叠加显示局部地图;所述三维显示,用于叠加显示待识别目标的实时真实状态和实时周围环境信息,即从测量与定位系统中获取的待识别目标的实时影像数据,以及由三维场景重建系统中生成的三维场景的叠加显示,包括三维场景重建。
本发明与现有技术相比,其显著优点为:
针对无人控制指挥作业的交互要求与指挥所环境断续、遮挡、噪声、模糊、不完备等苛刻条件之间的矛盾,提出利用点云进行目标与场景的三维重建,基于多源数据的目标识别方法,基于深度学习的目标意图感知,可以实现部分遮挡条件下的目标识别,并依据对应规则实现较高准备率的处置决策能力,实现对目标的实时探测监视、目标判定、决策分析与干扰处置,实现对目标的干扰防御。
附图说明
图1是本发明一种基于多传感器的目标态势融合感知方法的实现流程图。
图2是本发明一种基于多传感器的目标态势融合感知方法的目标初步识别与综合处理流程图。
图3是本发明一种基于多传感器的目标态势融合感知方法的多目标航迹融合流程图。
图4是本发明一种基于多融合传感器的目标态势融合感知装置的装置结构图。
图5是本发明一种基于多传感器的目标态势融合感知方法和系统的效果展示图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本发明作进一步详细说明。
图1是本发明一种基于多传感器的目标态势融合感知方法的实现流程图,主要包括:监视探测区域,获取识别环境下多目标态势情报数据;检测目标轨迹,进行局部航迹融合与整体航迹配准融合;通过DS证据理论获取目标真实身份,实现敌我目标分群;最后通过分析敌方目标特征,获取威胁度,对应采取压制措施。
图2是本发明一种基于多传感器的目标态势融合感知方法的目标初步识别与综合处理流程图。主要显示了对于海陆空目标,通过敌我识别器、合成孔径雷达、激光雷达对目标进行信息获取,得到目标应答信号、辐射信号、视频、位置信息和运动信息、点云信息等初步识别结果;然后对初步识别结果进行信息融合处理,获取目标敌我属性综合识别结果。
对探测区域进行监视,获取识别环境下多目标态势情报数据,具体包括:获取目标及场景信息,所述目标,包括:位置、目标三维点云、速度、加速度、航向角、方位角、距离;所述场景,包括场景三维点云、深度图像、彩色图像;其步骤包括:
步骤1,由于利用多个传感器对多个目标进行监测,进行时间配准和空间配准,得到时间同步的三维点云数据中的探测区域和视频图像中的探测区域,相同帧时刻对探测区域配准和融合,以丰富所述区域特征,从而实现多目标区分;
步骤2,预设目标类别、特征类别,将获取的目标信息输入卷积神经网络,提取目标特征;
通过在卷积层后连接上采样层、以及在池化层后增加残差结构,弥补原始输入图像经过过各个卷积层得到的新图像的分辨率的损失;
步骤3,将通过步骤2获取的目标特征进行聚类,按照多目标之间进行特征聚类,划分为共有特征和非共有特征,保留满足预设要求的非共有特征;
步骤4,基于视觉特征,重建点云目标及三维场景模型。
进一步的,基于视觉特征,重建点云目标及三维场景模型,其步骤如下:
步骤1,由激光雷达传感器扫描目标及场景,得到三维点云,选择当前帧与前t帧的三维点云,对点云数据进行预处理,得到点云轮廓数据,预分割目标点云;
步骤2,计算点云第t帧相对于第t-1帧的相对位移和角度,以角度的垂直方向作为点云投影方向,获取点云深度信息,构成点云深度信息矩阵;
步骤3,根据视频帧和深度图像,以所述对应的点云深度信息作为参考进行比对,在深度图像中选择候选区域,得到深度图像候选区域集合;
步骤4,在深度图像候选区域集合中,找到每帧与点云信息对应的像素点的三维空间点,获取该空间点的法向量,根据所述法向量确定形状特征;
步骤5,根据在所述深度图像候选区域中找到与视频帧图像最接近的像素点,计算RGB特征向量,得到深度图像候选区域集合对应的RGB特征向量矩阵;
步骤6,根据所述RGB特征向量矩阵与所述形状特征矩以及所述深度图像,重复上述步骤,确定由激光雷达传感器获取的检测目标及场景的特征;
步骤7,以场景的栅格失配度和置信度作为聚类算法的输入,获得表征特征的栅格聚类,将聚类结果作为重聚类初始算法的聚类种子,在设定的k邻域中搜索距离阈值约束后符合要求的聚类种子,则将该聚类种子标记,剩余非聚类种子作为噪声;将聚类种子通过ICP算法配准对应到相同视角和时间帧的激光点云聚类上,以矫正优化后的关联点云进行融合重建;
所述失配度为:ηi=Savg(i)-Lavg(i),其中,Savg(i)表示激光点云聚类,Lavg(i)表示由步骤7得到的聚类种子,ηi表示第i个栅格的失配度;
Figure BDA0002259645020000081
η表示失配度,n*m表示栅格总个数;
所述置信度为:
Figure BDA0002259645020000091
表示i个栅格的失配度的置信度情况,k表示第k层,共有
Figure BDA0002259645020000092
个栅格组合。
进一步的,对获取的目标特征进行聚类,包括:在视频帧图像中,针对若干时刻的视频帧,检测出同一目标的共有特征和非共有特征,保留共有特征,对于非共有特征部分,按照非共有特征在所述特征区域的权重大小,判断重要性,预设权重阈值,若权重大于预设权重阈值,则保留非共有特征,公式如下:
Figure BDA0002259645020000093
其中,N表示目标类,i表示1~N之间的第i目标类;M表示特征类,j表示1~M之间的第j特征集合;ij表示i目标的j特征集合,
Figure BDA0002259645020000094
表示在第i目标的j特征集合中1~kb的特征,Rijk表示在第i目标的j特征集合中1~k的特征;W(A)表示A目标在所属目标类、特征类、特征集合中的权重;
Figure BDA0002259645020000095
其中,Fijkmax(A)表示特征A在1~k个特征中的占比最大值,即在第i目标类、第j特征集合中查找由1~k中的最大值;Fijkmin(A)表示特征A在1~k个特征中的占比最小值;
预设权重值:
Figure BDA0002259645020000096
当满足W(A)大于W0(A)时,保留非共有特征A;则经过配准与融合后的目标特征包含共有特征和满足条件的非共有特征。
所述通过DS证据理论获取目标身份,实现目标敌我分群,其步骤如下:
步骤1,建立目标身份预测的样本空间矩阵,D={L,M,H},L表示敌方、M表示我方、H表示不明身份;
步骤2,将敌我识别软件、激光雷达和合成孔径雷达输出的初步识别结果作为证据,包括:目标基本信息、电磁辐射源、辐射频率、辐射强度、气象水文、地理环境、装备性能;输出各自识别权重转换成概率得到证据m1、m2、m3,...,表示为mi,基本概率赋值表示为mi(Ai);
步骤3,运用DS证据理论对m1、m2、m3进行合成,将满足合成决策规则的类作为最终结果输出,将目标身份预测作为基本命题A,计算基本概率;
Figure BDA0002259645020000101
其中,(1-∑Bel)表示可分配基本概率赋值;α表示置信度函数Bel与似然函数Pl对基本概率赋值分配的影响程度:
Figure BDA0002259645020000102
Δmxyz(n)表示多个证据之间关于第n个特征指标的差,
Figure BDA0002259645020000103
表示三级最小差,
Figure BDA0002259645020000104
表示三级最大差,S(mi)表示证据支持度;
其中,证据支持度:
Figure BDA0002259645020000105
证据支持度反映该证据被其他证据的支持程度,S(mi)值越大,表明证据之间的距离越小,该证据的支持度就越大,D(mi)是证据之间距离;
Figure BDA0002259645020000106
其中,Smax(mi)表示证据的最大支持度,Smin(mi)表示证据的最小支持度;
计算基本概率赋值:
mi(Ai)=S(mi)‘′*P(mi) (6)
合成:
Figure BDA0002259645020000107
最终输出合成概率结果,判断该目标的身份。
图3是本发明一种基于多传感器的目标态势融合感知方法的多目标航迹融合流程图。主要显示了基于时空配准的前提下,进行目标关联,对相同/同一目标检测航迹,获得局部航迹和整体航迹,判断是否存在整体航迹,若存在,则进行局部航迹与整体航迹的配准融合,否则根据局部航迹1建立融合航迹,其中局部航迹1,局部航迹2,...局部航迹n构成整体航迹;
若当前时刻未检测到整体航迹,则根据局部航迹建立融合航迹;否则通过局部航迹与整体航迹进行匹配融合,形成融合轨迹;然后将航迹进行下一时刻帧的预测,包括各个目标的位置坐标和速度。
所述检测目标航迹,进行局部航迹与整体航迹配准融合,具体包括:对于不能将目标视为质点的情况下,通过三段法解决姿态约束的航迹规划,以目标质心跟踪模式、前端顶点跟踪模式和尾部顶点跟踪模式的运动航迹也不相同,如无人机在收翼和展翼状态;检测航迹步骤在于:
步骤1,栅格化场景的二维电子地图,划分为n*m区域块,则目标位置为(x,y,φ);分别为位置坐标和平面上的航向角;
步骤2,构建局部航迹检测包围盒,在航迹两侧,以目标最窄宽度的1/2对路径中心线构建弯曲的带状包围盒;
步骤3,将目标起点和终点处的轮廓描述为凸多边形,将路径中间段描述为圆形,利用三段法检测路径片段,通过连续帧形成的目标整体航迹。
进一步的,所述进行局部航迹与整体航迹配准融合,具体包括:
由于数据采集设备中各雷达上报数据的时间频率不相同,对于不能将目标视为质点的情况下,考虑到位置变换,还会出现姿态变换,目标在不同时刻帧的局部航迹和连续时间段的整体航迹不一定相同,因此需要进行局部航迹和整体航迹的配准,判断目标位姿,公式如下:
MP=F*MS+T(F*MSv+T*MSa/2) (4)
其中,T是航迹预测时间,即局部航迹的时间和整体航迹的时间的差值,Mp表示目标在各个时间帧的位置,
Figure BDA0002259645020000111
表示融合航迹中各个局部航迹的速度,
Figure BDA0002259645020000112
表示融合航迹中各个局部航迹的加速度。
所述分析敌方目标行为态势,获取敌方目标威胁度,具体包括:通过构建卷积神经网络识别目标意图,利用激光雷达传感器和合成孔径雷达获取行为特征:目标运动速度、高度、航向角、方位角、距离、加速度等为数值参数;对数值进行归一化;
然后根据实际识别结果与专家系统进行判断标记意图标签,利用获取的目标特征与意图标签构建数据库,选择数据分别作为测试、训练和验证;
调整深度神经网络结构,确定隐藏层和节点数;将训练数据输入卷积神经网络,调整网络权值,将输出意图与标签对比,计算识别精度,当识别精度满足预设要求,则进行下一步,否则继续训练;将测试数据库中的目标特征输入到训练好的深度神经网络中,计算识别精度;将待识别作战意图的目标特征数据输入模型,输出意图。
进一步的,所述获取敌方目标威胁度,具体包括:判断敌方实力,预测敌方意图、进行威胁度评估,包括:对敌方目标类型、空间位置以及装备能力评估敌方目标实力;根据敌方目标的历史行动规律以及航迹,预测敌方的意图;通过对敌方目标的行动预测、我方重点区域备战状态以及环境态势分析,识别潜在威胁程度;通过威胁程度,执行决策指令,对敌方目标实时干扰压制;
其中,威胁度计算公式如下:
W=(ωb*Wbt*Wtp*Wp)*km*kt (8)
其中,W表示威胁度;当目标为敌方时,km=1;当目标身份不明时,km=0.5;kt表示目标行动预测的情况;ωb表示目标靠近重要区域的权重值,Wb表示靠近受保护区域的威胁度等级;ωt表示敌方装备能力权重值,Wt表示敌方装备能力对应的威胁度等级;ωp表示目标类型的权重值,Wp表示拦截目标的紧急程度。
图4是本发明一种基于多融合传感器的目标态势融合感知装置的装置结构图,其特征在于,主要包括:
(1)测量与定位系统,包括敌我识别器、激光雷达传感器、合成孔径雷达;对探测区域内的目标进行监视,获取当前场景中的目标彩色图像,深度图像,点云数据,位置信息以及状态信息,构建三维场景模型,同时获取情报信息,包括雷达海陆空情报、敌我识别设备侦察海陆空情报、电磁情报、战场环境;
(2)信息融合系统,用于接收来自于测量与定位系统中的目标信息及状态信息;包括:信息预处理,即进行时空配准;采集信息,进行目标及场景重建;航迹融合,即局部航迹融合、整体航迹融合;传感器测量数据的融合进行目标分类识别。
(3)态势感知与威胁评估系统,用于处理测量与定位系统中传感器搜集到的相关信息,并依据信息融合系统处理的结果,获得目标的态势信息,并计算得到目标的威胁等级,生成决策命令;
(4)决策系统,用于相应决策指令,对目标实时进行干扰压制;
(5)显示系统,包括二维显示和三维显示;所述二维显示,用于叠加显示从测量与定位系统采集的待识别目标的实时影像数据与环境数据库中获取的与当前环境相同的影像数据,即叠加显示局部地图;所述三维显示,用于叠加显示待识别目标的实时真实状态和实时周围环境信息,即从测量与定位系统中获取的待识别目标的实时影像数据,以及由三维场景重建系统中生成的三维场景的叠加显示,包括三维场景重建。
图5是本发明一种基于多融合传感器的目标态势融合感知方法和装置的效果展示图,主要展示了使用本发明技术方案得到的多个目标的威胁度预测情况,图中显示的在当前时刻,落入受保护区域范围的敌机312、400以及401的威胁度预测值较大,“敌我属性”属于目标属性的“目标特征信息”、“达到方位”属于“位置信息”以及属于当前帧的“轨迹信息”,敌机310和311在当前时刻威胁度值小于312、400以及401。
对于本领域技术人员,本发明不限制于上述实施例的细节,在不背离本发明的精神和范围的情况下,能够以其他具体形式实现本发明。此外,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围,这些改进和变型也应视为本发明的保护范围。因此,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。

Claims (10)

1.一种基于多传感器的目标态势融合感知方法,其特征在于,主要包括:
(一)对探测区域进行监视,获取识别环境下多目标态势情报数据;
(二)检测目标航迹,进行局部航迹与整体航迹配准融合;
(三)通过DS证据理论获取目标身份,实现目标敌我分群;
(四)分析敌方目标行为态势,获取敌方目标威胁度,按照威胁度等级采取压制措施。
2.基于权利要求1所述的基于多传感器的目标态势融合感知方法,其特征在于,所述(一)对探测区域进行监视,获取识别环境下多目标态势情报数据,具体包括:目标信息及场景信息;所述目标,包括:位置、目标三维点云、速度、加速度、航向角、方位角、距离;所述场景,包括场景三维点云、深度图像、彩色图像;其步骤包括:
步骤1,由于利用多个传感器对多个目标进行监测,进行时间配准和空间配准,得到时间同步的三维点云数据中的探测区域和视频图像中的探测区域,相同帧时刻对探测区域配准和融合,以丰富所述区域特征,从而实现多目标区分;
步骤2,预设目标类别、特征类别,将获取的目标信息输入卷积神经网络,提取目标特征;
通过在卷积层后连接上采样层、以及在池化层后增加残差结构,弥补原始输入图像经过过各个卷积层得到的新图像的分辨率的损失;
步骤3,将通过步骤2获取的目标特征进行聚类,按照多目标之间进行特征聚类,划分为共有特征和非共有特征,保留满足预设要求的非共有特征;
步骤4,基于视觉特征,重建点云目标及三维场景模型。
3.基于权利要求2所述的基于多传感器的目标态势融合感知方法,其特征在于,所述重建点云目标及三维场景模型,其步骤如下:
步骤1,由激光雷达传感器扫描目标及场景,得到三维点云,选择当前帧与前t帧的三维点云,对点云数据进行预处理,得到点云轮廓数据,预分割目标点云;
步骤2,计算点云第t帧相对于第t-1帧的相对位移和角度,以角度的垂直方向作为点云投影方向,获取点云深度信息,构成点云深度信息矩阵;
步骤3,根据视频帧和深度图像,以所述对应的点云深度信息作为参考进行比对,在深度图像中选择候选区域,得到深度图像候选区域集合;
步骤4,在深度图像候选区域集合中,找到每帧与点云信息对应的像素点的三维空间点,获取该空间点的法向量,根据所述法向量确定形状特征;
步骤5,根据在所述深度图像候选区域中找到与视频帧图像最接近的像素点,计算RGB特征向量,得到深度图像候选区域集合对应的RGB特征向量矩阵;
步骤6,根据所述RGB特征向量矩阵与所述形状特征矩以及所述深度图像,重复上述步骤,确定由激光雷达传感器获取的检测目标及场景的特征;
步骤7,以场景的栅格失配度和置信度作为聚类算法的输入,获得表征特征的栅格聚类,将聚类结果作为重聚类初始算法的聚类种子,在设定的k邻域中搜索距离阈值约束后符合要求的聚类种子,则将该聚类种子标记,剩余非聚类种子作为噪声;将聚类种子通过ICP算法配准对应到相同视角和时间帧的激光点云聚类上,以矫正优化后的关联点云进行融合重建;
所述失配度为:ηi=Savg(i)-Lavg(i),其中,Savg(i)表示激光点云聚类,Lavg(i)表示由步骤7得到的聚类种子,ηi表示第i个栅格的失配度;
Figure FDA0002259645010000021
η表示失配度,n*m表示栅格总个数;
所述置信度为:
Figure FDA0002259645010000022
表示i个栅格的失配度的置信度情况,k表示第k层,共有
Figure FDA0002259645010000023
个栅格组合。
4.基于权利要求2所述的基于多融合传感器的目标态势融合感知方法,其特征在于,所述获取的目标特征进行聚类,包括:在视频帧图像中,针对若干时刻的视频帧,检测出同一目标的共有特征和非共有特征,保留共有特征,对于非共有特征部分,按照非共有特征在所述特征区域的权重大小,判断重要性,预设权重阈值,若权重大于预设权重阈值,则保留非共有特征,公式如下:
Figure FDA0002259645010000024
其中,N表示目标类,i表示1~n之间的第i目标类;M表示特征类,j表示1~M之间的第j特征集合;ij表示i目标的j特征集合,
Figure FDA0002259645010000025
表示在第i目标的j特征集合中1~kb的特征,Rijk表示在第i目标的j特征集合中1~k的特征;W(A)表示A目标在所属目标类、特征类、特征集合中的权重;
Figure FDA0002259645010000026
其中,Fijkmax(A)表示特征A在1~k个特征中的占比最大值,即在第i目标类、第j特征集合中查找由1~k中的最大值;Fijkmin(A)表示特征A在1~k个特征中的占比最小值;
预设权重值:
Figure FDA0002259645010000031
当满足W(A)大于W0(A)时,保留非共有特征A;则经过配准与融合后的目标特征包含共有特征和满足条件的非共有特征。
5.基于权利要求1所述的基于多传感器的目标态势融合感知方法,其特征在于,所述(二)检测目标航迹,进行局部航迹与整体航迹配准融合,具体包括:对于不能将目标视为质点的情况下,通过三段法解决姿态约束的航迹规划,以目标质心跟踪模式、前端顶点跟踪模式和尾部顶点跟踪模式的运动航迹也不相同,如无人机在收翼和展翼状态;检测航迹步骤在于:
步骤1,栅格化场景的二维电子地图,划分为n*m区域块,则目标位置为(x,y,φ);分别为位置坐标和平面上的航向角;
步骤2,构建局部航迹检测包围盒,在航迹两侧,以目标最窄宽度的1/2对路径中心线构建弯曲的带状包围盒;
步骤3,将目标起点和终点处的轮廓描述为凸多边形,将路径中间段描述为圆形,利用三段法检测路径片段,通过连续帧形成的目标整体航迹。
6.基于权利要求1所述的基于多传感器的目标态势融合感知方法,其特征在于,所述进行局部航迹与整体航迹配准融合,具体包括:
由于数据采集设备中各雷达上报数据的时间频率不相同,对于不能将目标视为质点的情况下,考虑到位置变换,还会出现姿态变换,目标在不同时刻帧的局部航迹和连续时间段的整体航迹不一定相同,因此需要进行局部航迹和整体航迹的配准,判断目标位姿,公式如下:
MP=F*MS+T(F*MSv+T*MSa/2) (4)
其中,T是航迹预测时间,即局部航迹的时间和整体航迹的时间的差值,Mp表示目标在各个时间帧的位置,MSv表示融合航迹中各个局部航迹的速度,MSa表示融合航迹中各个局部航迹的加速度;
若当前时刻未检测到整体航迹,则根据局部航迹建立融合航迹;否则通过局部航迹与整体航迹进行匹配融合,形成融合轨迹;然后将航迹进行下一时刻帧的预测,包括各个目标的位置坐标和速度。
7.基于权利要求1所述的基于多传感器的目标态势融合感知方法,其特征在于,所述(三)通过DS证据理论获取目标身份,实现目标敌我分群;
步骤1,建立目标身份预测的样本空间矩阵,D={L,M,H},L表示敌方、M表示我方、H表示不明身份;
步骤2,将敌我识别软件、激光雷达和合成孔径雷达输出的初步识别结果作为证据,包括:目标基本信息、电磁辐射源、辐射频率、辐射强度、气象水文、地理环境、装备性能;输出各自识别权重转换成概率得到证据m1、m2、m3,...,表示为mi,基本概率赋值表示为mi(Ai);
步骤3,运用DS证据理论对m1、m2、m3进行合成,将满足合成决策规则的类作为最终结果输出,将目标身份预测作为基本命题A,计算基本概率;
利用三级最大差和三级最小差确定置信度函数与似然函数对基本概率赋值分配的影响程度;
证据支持度反映该证据被其他证据的支持程度,S(mi)值越大,表明证据之间的距离越小,该证据的支持度就越大,D(mi)是证据之间距离;
Figure FDA0002259645010000041
其中,Smax(mi)表示证据的最大支持度,Smin(mt)表示证据的最小支持度;
计算基本概率赋值:
mt(At)=S(mt)‘’*P(mt) (6)
合成:
Figure FDA0002259645010000042
最终输出合成概率结果,判断该目标的身份。
8.基于权利要求1所述的基于多融合传感器的目标态势融合感知方法,其特征在于,所述(四)分析敌方目标行为态势,获取敌方目标威胁度,具体包括:利用激光雷达传感器和合成孔径雷达获取行为特征:目标运动速度、高度、航向角、方位角、距离、加速度等为数值参数;对数值进行归一化;
根据实际识别结果与专家系统进行判断标记意图标签,利用获取的目标特征与意图标签构建数据库,选择数据分别作为测试、训练和验证;
构建卷积神经网络识别目标意图,调整深度神经网络结构,确定隐藏层和节点数;将训练数据输入卷积神经网络,调整网络权值,将输出意图与标签对比,计算识别精度,当识别精度满足预设要求,则进行下一步,否则继续训练;
将测试数据库中的目标特征输入到训练好的深度神经网络中,计算识别精度;将待识别作战意图的目标特征数据输入模型,输出意图。
9.基于权利要求8所述的基于多融合传感器的目标态势融合感知方法,其特征在于,所述获取敌方目标威胁度,具体包括:判断敌方实力,预测敌方意图、进行威胁度评估,
包括:对敌方目标类型、空间位置以及装备能力评估敌方目标实力;
根据敌方目标的历史行动规律以及航迹,预测敌方的意图;
通过对敌方目标的行动预测、我方重点区域备战状态以及环境态势分析,识别潜在威胁程度;
通过威胁程度,执行决策指令,对敌方目标实时干扰压制;
其中,威胁度计算公式如下:
W=(ωb*Wbt*Wtp*Wp)*km*kt (8)
其中,W表示威胁度;当目标为敌方时,km=1;当目标身份不明时,km=0.5;kt表示目标行动预测的情况;ωb表示目标靠近重要区域的权重值,Wb表示靠近受保护区域的威胁度等级;ωt表示敌方装备能力权重值,Wt表示敌方装备能力对应的威胁度等级;ωp表示目标类型的权重值,Wp表示拦截目标的紧急程度。
10.一种基于多融合传感器的目标态势融合感知装置,其特征在于,主要包括:
(1)测量与定位系统,包括敌我识别器、激光雷达传感器、合成孔径雷达;对探测区域内的目标进行监视,获取当前场景中的目标彩色图像,深度图像,点云数据,位置信息以及状态信息,构建三维场景模型,同时获取情报信息,包括雷达获取海陆空情报、敌我识别设备侦察海陆空情报、电磁情报、战场环境;
(2)信息融合系统,用于接收来自于测量与定位系统中的目标信息及状态信息;包括:信息预处理,即进行时空配准;航迹融合,即局部航迹融合、整体航迹融合;传感器测量数据的融合进行目标分类识别。
(3)态势感知与威胁评估系统,用于处理测量与定位系统中传感器搜集到的相关信息,并依据信息融合系统处理的结果,获得目标的态势信息,并计算得到目标的威胁等级,生成决策命令;
(4)决策系统,用于相应决策指令,对目标实时进行干扰压制;
(5)显示系统,包括二维显示和三维显示;所述二维显示,用于叠加显示从测量与定位系统采集的待识别目标的实时影像数据与环境数据库中获取的与当前环境相同的影像数据,即叠加显示局部地图;所述三维显示,用于叠加显示待识别目标的实时真实状态和实时周围环境信息,即从测量与定位系统中获取的待识别目标的实时影像数据,以及由三维场景重建系统中生成的三维场景的叠加显示,包括三维场景重建。
CN201911066852.XA 2019-11-04 2019-11-04 一种基于多传感器的目标态势融合感知方法和系统 Withdrawn CN110866887A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911066852.XA CN110866887A (zh) 2019-11-04 2019-11-04 一种基于多传感器的目标态势融合感知方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911066852.XA CN110866887A (zh) 2019-11-04 2019-11-04 一种基于多传感器的目标态势融合感知方法和系统

Publications (1)

Publication Number Publication Date
CN110866887A true CN110866887A (zh) 2020-03-06

Family

ID=69654701

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911066852.XA Withdrawn CN110866887A (zh) 2019-11-04 2019-11-04 一种基于多传感器的目标态势融合感知方法和系统

Country Status (1)

Country Link
CN (1) CN110866887A (zh)

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111427032A (zh) * 2020-04-24 2020-07-17 森思泰克河北科技有限公司 基于毫米波雷达的房间墙体轮廓识别方法及终端设备
CN111539921A (zh) * 2020-04-16 2020-08-14 华北电力大学 一种基于多传感器信息融合的图像质量评估方法
CN111582399A (zh) * 2020-05-15 2020-08-25 吉林省森祥科技有限公司 一种面向杀菌机器人的多传感器信息融合方法
CN111597873A (zh) * 2020-03-27 2020-08-28 中国人民解放军海军工程大学 一种基于支持向量数据描述的超短波威胁信号感知方法
CN111707260A (zh) * 2020-06-24 2020-09-25 电子科技大学 一种基于频域分析及卷积神经网络的定位方法
CN111711923A (zh) * 2020-06-30 2020-09-25 江南大学 一种基于uav的无线传感器网络节点定位方法
CN111860613A (zh) * 2020-06-30 2020-10-30 江苏科技大学 一种基于多源异构信号的多目标追踪及状态预测方法
CN111950456A (zh) * 2020-08-12 2020-11-17 成都成设航空科技股份公司 一种基于无人机的智能化fod探测方法及系统
CN112033394A (zh) * 2020-09-03 2020-12-04 成都汇蓉国科微系统技术有限公司 一种基于定位设备的合作目标识别方法及装置
CN112148008A (zh) * 2020-09-18 2020-12-29 中国航空无线电电子研究所 一种基于深度强化学习的实时无人机路径预测方法
CN112150503A (zh) * 2020-09-21 2020-12-29 浙江吉利控股集团有限公司 一种环境动态模型的确定方法、装置、电子设备及存储介质
CN112329615A (zh) * 2020-11-04 2021-02-05 中国海洋大学 一种用于水下视觉目标自主抓取的环境态势评估方法
CN112509050A (zh) * 2020-12-18 2021-03-16 武汉库柏特科技有限公司 一种位姿估计方法、防碰撞抓物方法和装置
CN112990363A (zh) * 2021-04-21 2021-06-18 中国人民解放军国防科技大学 一种战场电磁态势感知与利用方法
CN113221944A (zh) * 2021-04-02 2021-08-06 西安理工大学 一种紫外光协作多传感器数据融合无人机敌我识别方法
CN113361579A (zh) * 2021-05-31 2021-09-07 西安交通大学 一种水下目标探测辨识方法、系统、设备及可读存储介质
CN113378693A (zh) * 2021-06-08 2021-09-10 北京百度网讯科技有限公司 生成目标检测系统和检测目标的方法及装置
CN113392882A (zh) * 2021-05-28 2021-09-14 中国人民解放军海军工程大学 一种主被动传感器抗差数据关联方法
CN113447027A (zh) * 2021-07-16 2021-09-28 电信科学技术第五研究所有限公司 一种基于几何图形的目标融合过滤方法
CN113466571A (zh) * 2021-09-06 2021-10-01 中国人民解放军国防科技大学 一种用于构建电磁地图的方法和系统
CN113505686A (zh) * 2021-07-07 2021-10-15 中国人民解放军空军预警学院 一种无人机目标威胁评估方法及装置
CN113568435A (zh) * 2021-09-24 2021-10-29 深圳火眼智能有限公司 一种基于无人机自主飞行态势感知趋势的分析方法与系统
CN113723305A (zh) * 2021-08-31 2021-11-30 北京百度网讯科技有限公司 图像和视频检测方法、装置、电子设备和介质
CN113761889A (zh) * 2021-07-28 2021-12-07 中国电子科技集团公司第十五研究所 基于动向态势融合的热点区域计算方法及装置
CN114139373A (zh) * 2021-11-30 2022-03-04 中航空管系统装备有限公司 一种面向无人机反制车的多传感器自动协同管理方法
CN114240866A (zh) * 2021-12-09 2022-03-25 广东省农业科学院环境园艺研究所 基于二维图像与三维生长信息的组培苗分级方法及装置
CN114492059A (zh) * 2022-02-07 2022-05-13 清华大学 基于场能的多智能体对抗场景态势评估方法及装置
CN114510078A (zh) * 2022-02-16 2022-05-17 南通大学 一种基于深度强化学习的无人机机动规避决策方法
CN114548674A (zh) * 2022-01-17 2022-05-27 清华大学 面向多智能体对抗场景的威胁态势评估方法、装置及设备
CN114623816A (zh) * 2022-02-16 2022-06-14 中国电子科技集团公司第十研究所 一种机载融合信息引导传感器跟踪维护方法及装置
WO2022126396A1 (zh) * 2020-12-15 2022-06-23 深圳市大疆创新科技有限公司 状态信息确定方法、装置、平台及计算机可读存储介质
CN114980024A (zh) * 2022-06-28 2022-08-30 安徽大学 一种基于离散种子优化算法的通信节点无人机网络部署方法
CN114967728A (zh) * 2022-02-25 2022-08-30 珠海紫燕无人飞行器有限公司 一种无人机集群协同搜索方法
CN115170663A (zh) * 2022-07-08 2022-10-11 中国科学院长春光学精密机械与物理研究所 跨时空真伪目标多模态关联超远程无源测距方法
RU2791599C1 (ru) * 2022-04-27 2023-03-13 Федеральное государственное казенное военное образовательное учреждение высшего образования "Военный учебно-научный центр Военно-воздушных сил "Военно-воздушная академия имени профессора Н.Е. Жуковского и Ю.А. Гагарина" (г. Воронеж) Способ идентификации наземных целей
CN116229286A (zh) * 2023-05-08 2023-06-06 中国科学院国家空间科学中心 一种知识驱动的空间目标态势感知方法及系统
CN116842127A (zh) * 2023-08-31 2023-10-03 中国人民解放军海军航空大学 一种基于多源动态数据的自适应辅助决策智能方法及系统
CN117251748A (zh) * 2023-10-10 2023-12-19 中国船舶集团有限公司第七〇九研究所 一种基于历史规律挖掘的航迹预测方法、设备及存储介质
CN117824625A (zh) * 2024-03-05 2024-04-05 河海大学 基于改进视觉里程计的高坝大库水下环境感知与构图方法

Cited By (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111597873A (zh) * 2020-03-27 2020-08-28 中国人民解放军海军工程大学 一种基于支持向量数据描述的超短波威胁信号感知方法
CN111539921A (zh) * 2020-04-16 2020-08-14 华北电力大学 一种基于多传感器信息融合的图像质量评估方法
CN111427032B (zh) * 2020-04-24 2022-02-01 森思泰克河北科技有限公司 基于毫米波雷达的房间墙体轮廓识别方法及终端设备
CN111427032A (zh) * 2020-04-24 2020-07-17 森思泰克河北科技有限公司 基于毫米波雷达的房间墙体轮廓识别方法及终端设备
CN111582399A (zh) * 2020-05-15 2020-08-25 吉林省森祥科技有限公司 一种面向杀菌机器人的多传感器信息融合方法
CN111707260A (zh) * 2020-06-24 2020-09-25 电子科技大学 一种基于频域分析及卷积神经网络的定位方法
CN111711923A (zh) * 2020-06-30 2020-09-25 江南大学 一种基于uav的无线传感器网络节点定位方法
CN111860613A (zh) * 2020-06-30 2020-10-30 江苏科技大学 一种基于多源异构信号的多目标追踪及状态预测方法
CN111860613B (zh) * 2020-06-30 2023-10-27 江苏科技大学 一种基于多源异构信号的多目标追踪及状态预测方法
CN111950456A (zh) * 2020-08-12 2020-11-17 成都成设航空科技股份公司 一种基于无人机的智能化fod探测方法及系统
CN112033394A (zh) * 2020-09-03 2020-12-04 成都汇蓉国科微系统技术有限公司 一种基于定位设备的合作目标识别方法及装置
CN112148008A (zh) * 2020-09-18 2020-12-29 中国航空无线电电子研究所 一种基于深度强化学习的实时无人机路径预测方法
CN112150503A (zh) * 2020-09-21 2020-12-29 浙江吉利控股集团有限公司 一种环境动态模型的确定方法、装置、电子设备及存储介质
CN112150503B (zh) * 2020-09-21 2023-05-02 浙江吉利控股集团有限公司 一种环境动态模型的确定方法、装置、电子设备及存储介质
CN112329615A (zh) * 2020-11-04 2021-02-05 中国海洋大学 一种用于水下视觉目标自主抓取的环境态势评估方法
CN112329615B (zh) * 2020-11-04 2022-04-15 中国海洋大学 一种用于水下视觉目标自主抓取的环境态势评估方法
WO2022126396A1 (zh) * 2020-12-15 2022-06-23 深圳市大疆创新科技有限公司 状态信息确定方法、装置、平台及计算机可读存储介质
CN112509050A (zh) * 2020-12-18 2021-03-16 武汉库柏特科技有限公司 一种位姿估计方法、防碰撞抓物方法和装置
CN113221944B (zh) * 2021-04-02 2024-04-26 河北翌航航天科技有限公司 一种紫外光协作多传感器数据融合无人机敌我识别方法
CN113221944A (zh) * 2021-04-02 2021-08-06 西安理工大学 一种紫外光协作多传感器数据融合无人机敌我识别方法
CN112990363A (zh) * 2021-04-21 2021-06-18 中国人民解放军国防科技大学 一种战场电磁态势感知与利用方法
CN113392882A (zh) * 2021-05-28 2021-09-14 中国人民解放军海军工程大学 一种主被动传感器抗差数据关联方法
CN113392882B (zh) * 2021-05-28 2022-04-26 中国人民解放军海军工程大学 一种主被动传感器抗差数据关联方法
CN113361579A (zh) * 2021-05-31 2021-09-07 西安交通大学 一种水下目标探测辨识方法、系统、设备及可读存储介质
CN113361579B (zh) * 2021-05-31 2024-04-02 西安交通大学 一种水下目标探测辨识方法、系统、设备及可读存储介质
CN113378693A (zh) * 2021-06-08 2021-09-10 北京百度网讯科技有限公司 生成目标检测系统和检测目标的方法及装置
CN113378693B (zh) * 2021-06-08 2023-07-18 北京百度网讯科技有限公司 生成目标检测系统和检测目标的方法及装置
CN113505686A (zh) * 2021-07-07 2021-10-15 中国人民解放军空军预警学院 一种无人机目标威胁评估方法及装置
CN113447027A (zh) * 2021-07-16 2021-09-28 电信科学技术第五研究所有限公司 一种基于几何图形的目标融合过滤方法
CN113447027B (zh) * 2021-07-16 2022-03-08 电信科学技术第五研究所有限公司 一种基于几何图形的目标融合过滤方法
CN113761889A (zh) * 2021-07-28 2021-12-07 中国电子科技集团公司第十五研究所 基于动向态势融合的热点区域计算方法及装置
CN113723305A (zh) * 2021-08-31 2021-11-30 北京百度网讯科技有限公司 图像和视频检测方法、装置、电子设备和介质
CN113466571B (zh) * 2021-09-06 2022-02-22 中国人民解放军国防科技大学 一种用于构建电磁地图的方法和系统
CN113466571A (zh) * 2021-09-06 2021-10-01 中国人民解放军国防科技大学 一种用于构建电磁地图的方法和系统
CN113568435B (zh) * 2021-09-24 2021-12-24 深圳火眼智能有限公司 一种基于无人机自主飞行态势感知趋势的分析方法与系统
CN113568435A (zh) * 2021-09-24 2021-10-29 深圳火眼智能有限公司 一种基于无人机自主飞行态势感知趋势的分析方法与系统
CN114139373A (zh) * 2021-11-30 2022-03-04 中航空管系统装备有限公司 一种面向无人机反制车的多传感器自动协同管理方法
CN114139373B (zh) * 2021-11-30 2024-04-12 中航空管系统装备有限公司 一种面向无人机反制车的多传感器自动协同管理方法
CN114240866B (zh) * 2021-12-09 2022-07-08 广东省农业科学院环境园艺研究所 基于二维图像与三维生长信息的组培苗分级方法及装置
CN114240866A (zh) * 2021-12-09 2022-03-25 广东省农业科学院环境园艺研究所 基于二维图像与三维生长信息的组培苗分级方法及装置
CN114548674A (zh) * 2022-01-17 2022-05-27 清华大学 面向多智能体对抗场景的威胁态势评估方法、装置及设备
CN114492059A (zh) * 2022-02-07 2022-05-13 清华大学 基于场能的多智能体对抗场景态势评估方法及装置
CN114623816B (zh) * 2022-02-16 2023-11-07 中国电子科技集团公司第十研究所 一种机载融合信息引导传感器跟踪维护方法及装置
CN114623816A (zh) * 2022-02-16 2022-06-14 中国电子科技集团公司第十研究所 一种机载融合信息引导传感器跟踪维护方法及装置
CN114510078A (zh) * 2022-02-16 2022-05-17 南通大学 一种基于深度强化学习的无人机机动规避决策方法
CN114967728A (zh) * 2022-02-25 2022-08-30 珠海紫燕无人飞行器有限公司 一种无人机集群协同搜索方法
CN114967728B (zh) * 2022-02-25 2023-03-31 珠海紫燕无人飞行器有限公司 一种无人机集群协同搜索方法
RU2791599C1 (ru) * 2022-04-27 2023-03-13 Федеральное государственное казенное военное образовательное учреждение высшего образования "Военный учебно-научный центр Военно-воздушных сил "Военно-воздушная академия имени профессора Н.Е. Жуковского и Ю.А. Гагарина" (г. Воронеж) Способ идентификации наземных целей
CN114980024B (zh) * 2022-06-28 2023-10-13 安徽大学 一种基于离散种子优化算法的通信节点无人机网络部署方法
CN114980024A (zh) * 2022-06-28 2022-08-30 安徽大学 一种基于离散种子优化算法的通信节点无人机网络部署方法
CN115170663B (zh) * 2022-07-08 2023-03-14 中国科学院长春光学精密机械与物理研究所 跨时空真伪目标多模态关联超远程无源测距方法
CN115170663A (zh) * 2022-07-08 2022-10-11 中国科学院长春光学精密机械与物理研究所 跨时空真伪目标多模态关联超远程无源测距方法
CN116229286A (zh) * 2023-05-08 2023-06-06 中国科学院国家空间科学中心 一种知识驱动的空间目标态势感知方法及系统
CN116842127A (zh) * 2023-08-31 2023-10-03 中国人民解放军海军航空大学 一种基于多源动态数据的自适应辅助决策智能方法及系统
CN116842127B (zh) * 2023-08-31 2023-12-05 中国人民解放军海军航空大学 一种基于多源动态数据的自适应辅助决策智能方法及系统
CN117251748A (zh) * 2023-10-10 2023-12-19 中国船舶集团有限公司第七〇九研究所 一种基于历史规律挖掘的航迹预测方法、设备及存储介质
CN117251748B (zh) * 2023-10-10 2024-04-19 中国船舶集团有限公司第七〇九研究所 一种基于历史规律挖掘的航迹预测方法、设备及存储介质
CN117824625A (zh) * 2024-03-05 2024-04-05 河海大学 基于改进视觉里程计的高坝大库水下环境感知与构图方法

Similar Documents

Publication Publication Date Title
CN110866887A (zh) 一种基于多传感器的目标态势融合感知方法和系统
US20220197281A1 (en) Intelligent decision-making method and system for unmanned surface vehicle
CN110675418B (zh) 一种基于ds证据理论的目标轨迹优化方法
CN110956651B (zh) 一种基于视觉和振动触觉融合的地形语义感知方法
CN108596101B (zh) 一种基于卷积神经网络的遥感图像多目标检测方法
Vandapel et al. Natural terrain classification using 3-d ladar data
Waltz et al. Principles and practice of image and spatial data fusion
CN113223059B (zh) 基于超分辨率特征增强的弱小空域目标检测方法
CN112923904B (zh) 面向多无人机协同摄影测量的地质灾害隐患探测方法
CN110533695A (zh) 一种基于ds证据理论的轨迹预测装置及方法
CN115661204B (zh) 一种无人机集群对运动目标的协同搜寻与跟踪定位方法
CN112347895A (zh) 一种基于边界优化神经网络的舰船遥感目标检测方法
CN114970321A (zh) 一种基于动态轨迹流的场景流数字孪生方法及系统
US11238307B1 (en) System for performing change detection within a 3D geospatial model based upon semantic change detection using deep learning and related methods
US20220092812A1 (en) Artificial intelligence (ai) system and methods for generating estimated height maps from electro-optic imagery
Cheng et al. Moving Target Detection Technology Based on UAV Vision
Kaya et al. Car Detection from Very High-Resolution UAV Images Using Deep Learning Algorithms
Uzkent et al. Feature matching with an adaptive optical sensor in a ground target tracking system
Yang et al. Autonomous UAVs landing site selection from point cloud in unknown environments
Hellert et al. Using algorithm selection for adaptive vehicle perception aboard UAV
Castellano et al. Crowd flow detection from drones with fully convolutional networks and clustering
CN112069997B (zh) 一种基于DenseHR-Net的无人机自主着陆目标提取方法及装置
Sanchez-Lopez et al. Deep learning based semantic situation awareness system for multirotor aerial robots using LIDAR
Gavrilov et al. Automated visual information processing using artificial intelligence
Yang et al. Study on the trajectory positioning and prediction framework of unmanned aerial vehicle based on long short-term memory neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20200306

WW01 Invention patent application withdrawn after publication