CN111784752B - 一种固定式多平台被动目标联合探测方法 - Google Patents
一种固定式多平台被动目标联合探测方法 Download PDFInfo
- Publication number
- CN111784752B CN111784752B CN202010581086.7A CN202010581086A CN111784752B CN 111784752 B CN111784752 B CN 111784752B CN 202010581086 A CN202010581086 A CN 202010581086A CN 111784752 B CN111784752 B CN 111784752B
- Authority
- CN
- China
- Prior art keywords
- coordinate
- position energy
- coordinates
- energy diagram
- frame position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 37
- 238000010586 diagram Methods 0.000 claims abstract description 52
- 230000007774 longterm Effects 0.000 claims abstract description 6
- 238000000034 method Methods 0.000 claims description 34
- 238000004891 communication Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 6
- 238000009825 accumulation Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01V—GEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
- G01V1/00—Seismology; Seismic or acoustic prospecting or detecting
- G01V1/38—Seismology; Seismic or acoustic prospecting or detecting specially adapted for water-covered areas
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oceanography (AREA)
- Acoustics & Sound (AREA)
- Environmental & Geological Engineering (AREA)
- Geology (AREA)
- Remote Sensing (AREA)
- General Life Sciences & Earth Sciences (AREA)
- Geophysics (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明提供一种固定式多平台被动目标联合探测方法,本发明是一种固定式多平台被动目标联合探测方法,包括聚类门限检测模型、连通区域二次判别模型、连通区域标记模型、坐标库生成模型、帧间关联模型五部分。本发明以固定式多平台被动目标联合长时观测得到的位置能量图为基础,通过门限检测、二次判别滤除部分随机噪声点、保证弱目标的可检测性,然后多帧图像进行帧间关联,以连通区域几何中心坐标作为帧间关联内容,极大程度上滤除了随机的虚警点和噪声,保留了缓慢运动目标的运动轨迹。
Description
技术领域
本发明涉及的是一种水声探测方法,具体地实施涉及一种固定式多平台被动目标联合探测方法。可应用于水下多平台被动目标探测中,属于水声学和水声信号处理领域。
背景技术
随着信息技术的发展和人们对海洋重视程度的增加,水声技术成为各国研究的热点,水声信号处理技术也越来越受到重视。水下被动目标观测是水声信号处理领域的一项核心内容。被动目标观测过程中不需要主动发射探测信号,而是由接收平台被动采集到目标能量、方位角等信息,以此来进行目标观测、定位、跟踪,相对于主动探测隐蔽性好,在军事上有着广泛的运用。
然而随着目标降噪技术的不断进步,单平台接收信号的信噪比越来越低,被动声纳阵列对目标的观测性能降低,甚至无法检测到目标。20世纪70年代,多平台被动联合探测应运而生,多个携带传感器的平台各自观测得到的目标数据经过集中处理,从而获得目标运动状态的具体信息,这种方式大大提高了系统对目标的探测能力,因此被广泛地应用在雷达、声纳、自动化等领域。多平台被动联合探测不仅可以获得目标能量、方位角信息,还可通过多个平台的角度探测信息对目标进行定位。但在多目标、低信噪比的环境下,多平台被动定位系统会出现大量的虚假点,且很难消除,严重影响了目标定位的准确度。期刊(戴光华,黄伟平,乐艳丽.基于传感器和目标自身特性的幻影排除算法[J].空军预警学院学报,2012(5):334-338.)利用传感器的最大探测距离、相对位置以及目标信息,通过几何推导出关联张角、候选观测集和有效观测集,得到一个可靠的角度关联范围,挑选出可以进入关联的角度观测,然后采用基准线最小距离法找出目标的定位点集,消除了无源探测定位中测向线交叉产生的大量虚假交点。本专利参考了其关联的思想,利用长时观测的特性,可以应用在传感器的最大探测距离未知或待观测区域覆盖率较大的情况下来定位运动目标。
基于多平台被动联合观测得到的方位角、距离、能量信息,可以获得预估目标坐标(含噪声、虚警点)及其能量,即待观测区域内的位置能量图,因此可以采用图像处理的方法消除虚警点,实现目标的定位、跟踪。长时观测为实现图像多帧处理提供了位置能量图的数目保障。期刊(李怀琼,陈钱,隋修宝,刘强.多帧累加平均技术在红外实时图像处理中的应用[J].激光与红外,035(12):978-979,982.)认为图像中的目标信号帧间关联性很强而噪声随机,其帧间相关性很弱,提出了红外图像多帧累加平均实时图像处理技术,大大提高了图像的信噪比,达到正确提取目标的目的。但此方法是针对目标静止的情况,当目标缓慢运动时,多帧累加平均不能提高信噪比,反而会造成虚警。本专利同样利用了信号、噪声的帧间关联性,引入关联半径的概念,可定位缓慢运动的目标。
发明内容
本发明的目的在于提供一种能够利用多平台长时观测得到的位置能量图定位并跟踪被动目标的固定式多平台被动目标联合探测方法。利用多平台对被动目标进行联合观测,通过测角定位技术估计目标位置(含噪声、虚警点)并记录其能量,形成位置能量图。基于长时观测对多帧位置能量图进行帧间关联处理,从而滤除噪声、虚警点,实现对目标的定位、跟踪。
本发明的目的是这样实现的:步骤如下:
步骤1:依据多平台被动目标联合观测得到一帧位置能量图;
步骤2:聚类门限检测:对得到的位置能量图进行门限检测,记录能量超过门限的点的坐标;
步骤3:连通区域判别:判断步骤2中过门限的点是否连续,若非连续则进行步骤4,若连续则记录坐标后进行步骤5;
步骤4:连通区域二次判别:设置二次判别门限,对以非连续点为中心的一定区域再次进行门限检测,若非连续则舍去,若连续则记录坐标后进行步骤5;
步骤5:连通区域标记:合并步骤3、步骤4的连续点坐标,重新设置图像,记录的坐标点标记为1,其余点标记为0,对图像从左向右、从上向下进行扫描,将不同的连通区域做不同标记;
步骤6:将连通区域的几何中心存入到该帧位置能量图对应的坐标库中;
步骤7:长时观测:重复步骤1~6,得到N帧位置能量图对应个数的坐标库;
步骤8:帧间关联:将第一帧位置能量图对应的坐标库记为第一帧位置能量图对应的对比坐标库,依次计算本帧位置能量图对应的坐标库与前一帧位置能量图对应的对比坐标库中坐标距离,若小于等于预设运动距离限制,则将本帧位置能量图对应的坐标库中的坐标存入本帧位置能量图对应的对比坐标库,若大于预设运动距离限制则舍去该坐标;
步骤9:输出第二到第N帧位置能量图对应的对比坐标库中的坐标,即为目标运动轨迹。
本发明还包括这样一些结构特征:
1.二次判别门限低于步骤2中的门限。
2.预设运动距离限制为关联半径。
3.步骤6具体是:将具有同一标记的坐标取平均,作为其几何中心,记录在该帧位置能量图对应的坐标库中。
4.步骤7中保证连续观测。
5.步骤8中设定目标单帧运动距离限制range;将第一帧位置能量图对应的坐标库Φ1记为第一帧位置能量图对应的对比坐标库Ψ1;第n+1帧位置能量图对应的坐标库Φn+1中每一个元素和第n帧位置能量图对应的对比坐标库Ψn中每一个元素对比,若两坐标间距离大于range,则舍去该坐标;若两坐标间距离小于等于range,则将第n+1帧位置能量图对应的坐标库Φn+1中的坐标记录在对比坐标库Ψn+1中:
与现有技术相比,本发明的有益效果是:本发明以固定式多平台被动目标联合长时观测得到的位置能量图为基础,通过门限检测、二次判别滤除部分随机噪声点、保证弱目标的可检测性,然后多帧图像进行帧间关联,以连通区域的几何中心坐标作为帧间关联内容,极大程度上滤除了随机的虚警点和噪声,保留了缓慢运动目标的运动轨迹。
1.首先,本发明基于多平台被动目标联合长时观测得到的位置能量图,本方法提出的固定式多平台被动目标联合探测方法框架和理论过程。
2.其次,本方法虽使用多平台被动目标联合角度定位方法,但不限于此种定位方法,其他方法如时延定位方法均可替代本方法中的角度定位方法,从而达到相似的效果。
3.再次,本方法采用帧间关联技术,以连通区域的几何中心坐标作为帧间关联内容,极大程度上滤除了随机的虚警点和噪声,保留了缓慢运动目标的运动轨迹。
4.最后,本方法采用二次判别模型,极大程度上保证了弱目标的可检测性。
附图说明
图1本发明方法流程图
图2 20帧图像累积定位结果图
图3目标定位结果
图4目标定位结果局部放大(实线表示目标理论运动轨迹)
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述。
结合图
本发明是一种固定式多平台被动目标联合探测方法,包括聚类门限检测模型、连通区域二次判别模型、连通区域标记模型、坐标库生成模型、帧间关联模型五部分:
聚类门限检测模型:
步骤1:依据多平台被动目标联合观测得到一帧位置能量图;
步骤1中,取多平台被动目标联合长时观测得到的一帧位置能量图,确保其可检测到弱目标,图像有p×q个点,定义为第n帧图像,n=1,2,…,N.
位置能量图是由多平台对被动目标联合观测,通过测角定位技术估计目标位置(含噪声、虚警点)并记录其能量得到的。具体原理如下:
接收平台1测得目标方位角为θ1,接收平台2测得目标方位角为θ2,两平台距离为D,可得目标k的坐标为(xc(k),yc(k)):
能量则通过接收平台的接收信号求得。由于低信噪比、多目标情况下求得的方位角度误差较大且有多值,因此目标定位结果中有真实目标,还存在噪声、虚警点。
步骤2:聚类门限检测:对得到的位置能量图进行门限检测,记录能量超过门限的点的坐标;
步骤2中设定检测门限th1,将第n帧图像能量过门限的点标记出来。
步骤3:连通区域判别:判断步骤2中过门限的点是否连续,若非连续则进行步骤4,若连续则记录坐标后进行步骤5;
步骤3中判断标记点是否连续,即判断标记点的四周是否为标记点。若标记点连续,则记录其位置(x,y);若为非连续点,则记录坐标(x',y')进行连通区域二次判别。
连通区域二次判别模型:
步骤4:连通区域二次判别:设置二次判别门限,对以非连续点为中心的一定区域再次进行门限检测,若非连续则舍去,若连续则记录坐标后进行步骤5;
步骤4中设定二次判别门限th2,其中th2<th1。取第n帧图像聚类门限检测后得到的非连续点(x',y'),在非连续点能量最高点的w×v邻域内,使用二次判别门限th2对其进一步判别。若二次判别后,过门限th2的点为连续点,则记录其坐标(x″,y″);若仍为非连续点,则认为是噪声点,舍去。
连通区域标记模型:
步骤5:连通区域标记:合并步骤3、步骤4的连续点坐标,重新设置图像,记录的坐标点标记为1,其余点标记为0,对图像从左向右、从上向下进行扫描,将不同的连通区域做不同标记;
步骤5中针对第n帧图像,将上述两模型记录的连续点坐标(x,y)、(x″,y″)合并去重,记为(X,Y)。将位置能量图的p×q个点赋予0值。将记录的坐标点(X,Y)赋予1值。从左到右,从上到下逐一扫描,对于标记为1的点搜索其左、左上、上方的点是否是标记为1的点,若是,则做同一标记。针对每个标记不为0的点第二次扫描,如果第p1个点在其四周相邻8个点中存在标记不同且不为0的相关点p2,则更新p1、p2点的标记为两者最小值(合并等价标记)。记录连通区域各点坐标及其对应的标记编号(XL,YL,L),L=1,2,...,m,m为连通区域个数。
其中,步骤5假设目标近似为点源,能量集中在一定范围内,即能量集中在多个连续点内。
坐标库生成模型:
步骤6:将连通区域的几何中心存入到该帧位置能量图对应的坐标库中;
步骤6中针对第n帧图像,将标记L对应的坐标(XL,YL)取平均,记为(xL,yL)。将其存入坐标库中,可以得到第n帧位置能量图对应的坐标库Φn:
步骤7:长时观测:重复步骤1~6,得到N帧位置能量图对应个数的坐标库;
步骤7中保证连续观测,每帧图像均可生成一个坐标库,且允许各库中元素个数不同。
帧间关联模型:
步骤8:帧间关联:将第一帧位置能量图对应的坐标库记为第一帧位置能量图对应的对比坐标库,依次计算本帧位置能量图对应的坐标库与前一帧位置能量图对应的对比坐标库中坐标距离,若小于等于预设运动距离限制,则将本帧位置能量图对应的坐标库中的坐标存入本帧位置能量图对应的对比坐标库,若大于预设运动距离限制则舍去该坐标;
步骤8中设定目标单帧运动距离限制range;将第一帧位置能量图对应的坐标库Φ1记为第一帧位置能量图对应的对比坐标库Ψ1;第n+1帧位置能量图对应的坐标库Φn+1中每一个元素和第n帧位置能量图对应的对比坐标库Ψn中每一个元素对比,若两坐标间距离小于等于range,则将第n+1帧位置能量图对应的坐标库Φn+1中的坐标记录在对比坐标库Ψn+1中,若两坐标间距离大于range,则舍去该坐标:
步骤9:输出第二到第N帧位置能量图对应的对比坐标库中的坐标。
步骤9中第一帧位置能量图作为对比,其对应的对比坐标库中不只包含目标,还包含噪声、虚警点,因此不可显示。
现利用仿真分析阐述本发明的有益效果:
采用20帧多平台连续被动长时观测得到的位置能量图,探测范围为40km×40k m。接收平台为2个,坐标分别是(-15000,-10000)和(15000,-10000),在图3中分别由“□”和“○”表示。干扰位置(-10000,-3000),固定不动;弱目标起始位置(10000,8000),运动轨迹如图4中标注,单位:1m。
干扰能量150dB,目标能量139dB,噪点随机,能量均值在160dB。两次聚类门限分别为138dB和128dB。将20帧图像的定位结果直接累积(含噪声、虚警点),如图2所示。20帧图像处理后,目标定位结果如图3、4所示。图3、4中检测到的目标运动轨迹与设置运动轨迹(实线标出)一致,可见本方法对随机的虚警点和噪声具有良好的滤波性能,而且算法思路简单、易于理解。
Claims (6)
1.一种固定式多平台被动目标联合探测方法,其特征在于:步骤如下:
步骤1:依据多平台被动目标联合观测得到一帧位置能量图;
步骤2:聚类门限检测:对得到的位置能量图进行门限检测,记录能量超过门限的点的坐标;
步骤3:连通区域判别:判断步骤2中过门限的点是否连续,若非连续则进行步骤4,若连续则记录坐标后进行步骤5;
步骤4:连通区域二次判别:设置二次判别门限,对以非连续点为中心的一定区域再次进行门限检测,若非连续则舍去,若连续则记录坐标后进行步骤5;
步骤5:连通区域标记:合并步骤3、步骤4的连续点坐标,重新设置图像,记录的坐标点标记为1,其余点标记为0,对图像从左向右、从上向下进行扫描,将不同的连通区域做不同标记;
步骤6:将连通区域的几何中心存入到该帧位置能量图对应的坐标库中;
步骤7:长时观测:重复步骤1~6,得到N帧位置能量图对应个数的坐标库;
步骤8:帧间关联:将第一帧位置能量图对应的坐标库记为第一帧位置能量图对应的对比坐标库,依次计算本帧位置能量图对应的坐标库与前一帧位置能量图对应的对比坐标库中坐标距离,若小于等于预设运动距离限制,则将本帧位置能量图对应的坐标库中的坐标存入本帧位置能量图对应的对比坐标库,若大于预设运动距离限制则舍去该坐标;
步骤9:输出第二到第N帧位置能量图对应的对比坐标库中的坐标,即为目标运动轨迹。
2.根据权利要求1所述的一种固定式多平台被动目标联合探测方法,其特征在于:二次判别门限低于步骤2中的门限。
3.根据权利要求2所述的一种固定式多平台被动目标联合探测方法,其特征在于:预设运动距离限制为关联半径。
4.根据权利要求3所述的一种固定式多平台被动目标联合探测方法,其特征在于:步骤6具体是:将具有同一标记的坐标取平均,作为其几何中心,记录在该帧位置能量图对应的坐标库中。
5.根据权利要求4所述的一种固定式多平台被动目标联合探测方法,其特征在于:步骤7中保证连续观测。
6.根据权利要求5所述的一种固定式多平台被动目标联合探测方法,其特征在于:步骤8中设定目标单帧运动距离限制range;将第一帧位置能量图对应的坐标库Φ1记为第一帧位置能量图对应的对比坐标库Ψ1;第n+1帧位置能量图对应的坐标库Φn+1中每一个元素和第n帧位置能量图对应的对比坐标库Ψn中每一个元素对比,若两坐标间距离大于range,则舍去该坐标;若两坐标间距离小于等于range,则将第n+1帧位置能量图对应的坐标库Φn+1中的坐标记录在对比坐标库Ψn+1中:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010581086.7A CN111784752B (zh) | 2020-06-23 | 2020-06-23 | 一种固定式多平台被动目标联合探测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010581086.7A CN111784752B (zh) | 2020-06-23 | 2020-06-23 | 一种固定式多平台被动目标联合探测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111784752A CN111784752A (zh) | 2020-10-16 |
CN111784752B true CN111784752B (zh) | 2023-07-21 |
Family
ID=72757249
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010581086.7A Active CN111784752B (zh) | 2020-06-23 | 2020-06-23 | 一种固定式多平台被动目标联合探测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111784752B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103617633A (zh) * | 2013-11-26 | 2014-03-05 | 北京航空航天大学 | 一种空间红外目标的级联识别方法 |
CN110208789A (zh) * | 2019-05-29 | 2019-09-06 | 西安空间无线电技术研究所 | 一种多帧联合目标航迹识别方法 |
CN110376574A (zh) * | 2019-07-04 | 2019-10-25 | 西北工业大学 | 一种基于多基地被动声纳观测数据的目标跟踪方法 |
CN111310606A (zh) * | 2020-01-21 | 2020-06-19 | 上海扩博智能技术有限公司 | 多张图片之间重复内容获取方法、系统、设备和介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10733739B2 (en) * | 2017-09-29 | 2020-08-04 | Nanjing Avatarmind Robot Technology Co., Ltd. | Method and system for displaying target image based on robot |
-
2020
- 2020-06-23 CN CN202010581086.7A patent/CN111784752B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103617633A (zh) * | 2013-11-26 | 2014-03-05 | 北京航空航天大学 | 一种空间红外目标的级联识别方法 |
CN110208789A (zh) * | 2019-05-29 | 2019-09-06 | 西安空间无线电技术研究所 | 一种多帧联合目标航迹识别方法 |
CN110376574A (zh) * | 2019-07-04 | 2019-10-25 | 西北工业大学 | 一种基于多基地被动声纳观测数据的目标跟踪方法 |
CN111310606A (zh) * | 2020-01-21 | 2020-06-19 | 上海扩博智能技术有限公司 | 多张图片之间重复内容获取方法、系统、设备和介质 |
Non-Patent Citations (1)
Title |
---|
复杂背景中一种特定运动目标检测与跟踪方法;马超;沈微;董景峰;;计算机工程(第05期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111784752A (zh) | 2020-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111781608B (zh) | 一种基于fmcw激光雷达的运动目标检测方法及系统 | |
JP2022153351A5 (zh) | ||
CN105223551B (zh) | 一种可穿戴的声源定位跟踪系统及方法 | |
CN105184816A (zh) | 基于usv的视觉检测和水面目标追踪系统及其检测追踪方法 | |
CN112346096B (zh) | 一种高低轨遥感卫星舰船目标航迹与点迹关联方法及系统 | |
CN108828501B (zh) | 在室内声场环境中对移动声源进行实时跟踪定位的方法 | |
CN109188430B (zh) | 一种基于地面监视雷达系统的目标提取方法 | |
CN109738902B (zh) | 一种基于同步信标模式的水下高速目标高精度自主声学导航方法 | |
CN112487912B (zh) | 基于改进YOLOv3的任意方向舰船检测方法 | |
CN110751077B (zh) | 一种基于部件匹配与距离约束的光学遥感图片船舶检测方法 | |
CN112986914A (zh) | 一种单兵头盔及其目标声源定位和声纹识别方法 | |
CN109975813A (zh) | 一种基于水下滑翔机平台的十字阵线谱目标被动探测方法 | |
CN109100697B (zh) | 一种基于地面监视雷达系统的目标凝聚方法 | |
CN111784752B (zh) | 一种固定式多平台被动目标联合探测方法 | |
CN108983194B (zh) | 一种基于地面监视雷达系统的目标提取及凝聚方法 | |
CN112114300B (zh) | 一种基于图像稀疏表示的水下弱目标检测方法 | |
CN104537690B (zh) | 一种基于最大值‑时间索引联合的运动点目标检测方法 | |
CN111289944A (zh) | 一种基于uwb定位的无人艇位置航向测定方法 | |
CN110208731A (zh) | 一种高帧率无模糊水声定位方法 | |
CN113554123B (zh) | 一种基于声光联动的采砂船自动识别方法 | |
CN115144847A (zh) | 针对海杂波中弱目标探测的参数空间多通道目标搜索技术 | |
CN108152824A (zh) | 一种基于激光雷达的网球定位系统及方法 | |
CN111239761B (zh) | 一种用于室内实时建立二维地图的方法 | |
CN113009417A (zh) | 利用声场干涉特性的海底声学阵列阵形估计方法 | |
Wang et al. | The unified object detection framework with arbitrary angle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |