CN116338716B - 基于方位角拓扑结构的空地无人系统多目标关联方法 - Google Patents

基于方位角拓扑结构的空地无人系统多目标关联方法 Download PDF

Info

Publication number
CN116338716B
CN116338716B CN202310160117.5A CN202310160117A CN116338716B CN 116338716 B CN116338716 B CN 116338716B CN 202310160117 A CN202310160117 A CN 202310160117A CN 116338716 B CN116338716 B CN 116338716B
Authority
CN
China
Prior art keywords
target
azimuth
obtaining
unmanned
ring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310160117.5A
Other languages
English (en)
Other versions
CN116338716A (zh
Inventor
牛轶峰
李旭东
吴立珍
贾圣德
马兆伟
王菖
李�杰
于宏渤
王钟鸣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN202310160117.5A priority Critical patent/CN116338716B/zh
Publication of CN116338716A publication Critical patent/CN116338716A/zh
Application granted granted Critical
Publication of CN116338716B publication Critical patent/CN116338716B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/04Constraint-based CAD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Evolutionary Computation (AREA)
  • Computer Hardware Design (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开了一种基于方位角拓扑结构的空地无人系统多目标关联方法,本发明属于多传感器目标关联领域,包括:构建空中无人平台的视觉探测模型,基于视觉探测模型,得到无人机视觉图像中多目标的相对位置;构建地面无人平台的激光雷达探测模型,基于激光雷达探测模型,得到无人车激光雷达中多目标的相对位置;基于两种相对位置,构建方位角拓扑结构,基于方位角拓扑结构中的约束条件,构建双环匹配模型;基于双环匹配模型,计算旋转步长,基于旋转步长,得到多目标的关联结果。本发明通过双环旋转匹配模型,能够实现拓扑序列的匹配和目标关联,同时能够在最少旋转步数内获取全部关联结果,且内环旋转总步长小于2π。

Description

基于方位角拓扑结构的空地无人系统多目标关联方法
技术领域
本发明属于多传感器目标关联技术领域,尤其涉及一种基于方位角拓扑结构的空地无人系统多目标关联方法。
背景技术
拓扑结构特征是从一种不同于轨迹关联和视觉关联的新角度提出的多目标关联算法,下面是近些年基于拓扑结构特征的多目标关联算法相关研究解决的问题和取得的成果。
石玥等人首先在雷达探测领域提出基于拓扑特征的多目标关联算法。针对多雷达系统观测目标时,由于系统偏差较大导致轨迹关联方法效果较差的问题。利用目标空间上的相对位置信息提取目标拓扑向量,实现对目标的关联。算法根据邻居目标的位置构造,如图1所示的拓扑结构,然后提取目标的参照拓扑矩阵,对参照拓扑矩阵弥散化,基于弥散拓扑向量进行模糊轨迹关联。该方法在提取参照拓扑矩阵时对目标周围空间经验性的划分网格,因此目标关联的经度受到网格大小的影响。
杨哲等人提出高速移动的平台传感器具有自身定位误差较大的问题,给目标的关联带来很大的难度。所以提出使用邻居目标构造一种如图2所示三角形拓扑结构对目标进行关联。方法首先对目标区域内的所有邻居目标构造三角结构,利用公式计算两个三角形结构的相似度,然后对目标之间的拓扑结构进行模糊匹配和搜索,找到最佳的关联拓扑组合。由于构造三角拓扑结构的过程具有很强的随机性,因此该方法在实际使用过程中效果不好,并且三角形的相似度计算方法与三角形的边长相关,因此算法受坐标系尺度影响,在不同尺度的坐标系之间不适用。
吴泽民针对基本拓扑法存在的空间划分不均匀、算法经验性太强、对密集航迹场景不适应的缺点,提出了使用拓扑序列法进行航迹关联。拓扑序列法是指将邻居目标按照一定的顺序和表示方法进行排列,每个邻居目标对应向量中的一个元素,将所有的邻居目标组成的拓扑单元组成拓扑序列。拓扑序列法是一种将零散的拓扑结构有序组织起来的方法,因此在不同尺度下的坐标系中也不适用。
拓扑结构特征是从一种新的角度提出的多目标关联算法,该方法首先提出于雷达探测领域,用于解决系统偏差较大导致轨迹关联方法效果较差的问题。目前基于拓扑结构的关联算法相关研究仍存在一下问题:一是拓扑结构特征不能适应尺度不同的坐标系;二是依靠经验阈值来确定参考目标;三是现有的工作只关注局部拓扑结构,忽视了全局一致性。
发明内容
本发明提出了一种基于方位角拓扑结构的空地无人系统多目标关联方法,以解决上述现有技术存在的问题。
为实现上述目的,本发明提供了一种基于方位角拓扑结构的空地无人系统多目标关联方法,包括:
构建空中无人平台的视觉探测模型,基于所述视觉探测模型,得到第一位置关系,所述第一位置关系为无人机视觉图像中多目标的相对位置;
构建地面无人平台的激光雷达探测模型,基于所述激光雷达探测模型,得到第二位置关系,所述第二位置关系为无人车激光雷达中多目标的相对位置;
基于所述第一位置关系和所述第二位置关系,构建方位角拓扑结构,基于方位角拓扑结构中的约束条件,构建双环匹配模型;
基于所述双环匹配模型,计算旋转步长,基于旋转步长,使所述双环匹配模型中内环向前旋转,得到多目标的关联结果。
优选地,得到第一位置关系的过程包括:
基于无人机视觉相机,得到地面拍摄图片,基于目标识别算法和所述地面拍摄图片,得到无人机视觉图像中多目标的像素坐标,基于所述像素坐标,得到第一位置关系。
优选地,得到第二位置关系的过程包括:
建立激光雷达的极坐标系,其中激光雷达位于所述极坐标系的极点,基于无人车激光雷达探测目标,通过发射并接收激光束,得到第二位置关系,所述第二位置关系的数据信息包括:目标距离和目标方位角。
优选地,构建方位角拓扑结构的过程包括:
基于所述第一位置关系,得到目标像素坐标和无人车像素坐标,基于所述目标像素坐标和无人车像素坐标,得到无人车指向目标的向量集合,基于所述向量集合,选取任意角度为0°,得到向量在顺时针顺序上与参考0°的第一夹角,基于所述第一夹角,得到无人机视角下目标的第一方位角拓扑序列;
基于所述第二位置关系,得到若干个目标极坐标,基于所述目标极坐标中的目标方位角,选取任意方向为0°,得到地面视角下目标的向量与参考0°的第二夹角,基于所述第二夹角,得到第二方位角拓扑序列;基于所述第一方位角拓扑序列和第二方位角拓扑序列,构建方位角拓扑结构。
优选地,所述约束条件包括:顺序不变条件和夹角不变条件。
优选地,构建双环匹配模型的过程包括:
获取目标像素坐标集合和目标极坐标集合,将所述目标像素坐标集合和所述目标极坐标集合按照顺时针排列,构建双环匹配模型;其中双环匹配模型包括:内环和外环,所述内环为地面视角下的目标极坐标集合,所述外环为无人机视角下的目标集合。
优选地,得到旋转步长的过程包括:
基于所述双环匹配模型,计算旋转步长求解矩阵,基于所述旋转步长求解矩阵,计算得到旋转步长,并将所述内环按照顺时针方向逐步旋转并完成整个旋转匹配过程。
优选地,得到多目标的关联结果的过程包括:
基于所述旋转步长,其中所述内环的目标集合与所述外环的目标集合处于新的对应关系,通过双环旋转匹配模型的多目标关联算法,得到旋转后的多目标关联结果;所述内环经过有限次旋转遍历所述双环匹配模型中所有的匹配状态,并获取每个匹配状态对应的目标关联结果,所有匹配状态中,选择关联误差最小的双环匹配状态为双环匹配结果,匹配状态下对应的多目标关联结构为多目标关联结果。
与现有技术相比,本发明具有如下优点和技术效果:
本发明提出了一种基于方位角拓扑结构的空地无人系统多目标关联方法,构建空中无人平台的视觉探测模型,基于视觉探测模型,得到无人机视觉图像中的地面目标的相对位置关系;构建地面无人平台的激光雷达探测模型,基于激光雷达探测模型,得到无人车激光雷达中的目标的相对位置关系;基于无人机视觉图像和无人车激光雷达数据,构建方位角拓扑结构,基于方位角拓扑结构中的约束条件,构建双环匹配模型;基于双环匹配模型,得到旋转步长,基于旋转步长,得到多目标的关联结果。
本发明通过双环旋转匹配模型,能够实现拓扑序列的匹配和目标关联,同时能够在最少旋转步数内获取全部关联结果;在仿真和真实实验过程中,本发明所构建的方位角拓扑结构能力不受目标数量的影响,同时能够提高关联准确率。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本发明背景技术的基于拓扑特征的多目标关联算法图;
图2为本发明背景技术的三角拓扑结构示意图;
图3为本发明实施例的地面目标分布示意图;
图4为本发明实施例的基于方位角拓扑结构的多目标关联算法设计流程图;
图5为本发明实施例的双环匹配模型示意图;
图6为本发明实施例的旋转步长求解矩阵示意图;
图7为本发明实施例的不完全观测率与关联效果曲线示意图;
图8为本发明实施例的观测误差与关联效果曲线示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
实施例一
如图3所示,本实施例从目标的相对位置关系出发,本实施例提供了一种基于方位角拓扑结构的空地无人系统多目标关联方法,包括:
构建空中无人平台的视觉探测模型,基于所述视觉探测模型,得到第一位置关系,所述第一位置关系为无人机视觉图像中多目标的相对位置;
构建地面无人平台的激光雷达探测模型,基于所述激光雷达探测模型,得到第二位置关系,所述第二位置关系为无人车激光雷达中多目标的相对位置;
基于所述第一位置关系和所述第二位置关系,构建方位角拓扑结构,基于方位角拓扑结构中的约束条件,构建双环匹配模型;
基于所述双环匹配模型,计算旋转步长,基于旋转步长,使所述双环匹配模型中内环向前旋转,得到多目标的关联结果。
本实施例中,空中无人平台视觉探测模型,无人机视觉相机成像原理主要涉及坐标系转换。对于无人机而言,像素坐标通常由目标的地理坐标乘以外参和内参矩阵得到。其中,外参矩阵由无人机和云台的位姿信息计算得到,内参矩阵是相机的内部参数。
地面无人平台激光雷达探测模型,无人车使用二维激光雷达探测目标,获取地面目标的二维位置分布。激光雷达使用极坐标系,激光雷达的位置位于极坐标系的极点,通过发射并接收激光束来探测目标相对无人车的距离和方位角。
多目标关联问题描述,在某一时刻,无人机视觉图像和无人车雷达同时探测到多个目标,分别表示无人机和无人车探测目标的拓扑结构组成的拓扑序列。通过设计拓扑序列关联算法用于获取给定两条拓扑序列的最优匹配状态。本发明工作即探索合适的拓扑结构构造方法和拓扑序列关联算法是关联结果在拓扑空间中的关联误差最小,如图4所示。
本实施例中,构造方位角拓扑结构的过程包括:
在某一时刻无人机获取的图像中,目标i的像素坐标可以表示为无人车的像素坐标可以表示为Ga=(ua,va)。图像上由无人车指向目标i的向量可以表示为那么由无人车指向目标i和目标j的向量夹角可以表示为/>
同一时刻无人车获取的激光雷达数据中,目标i的极坐标可以表示为目标j的极坐标可以表示为/>则由无人车指向目标i和目标j的向量夹角可以表示为/>
在该时刻,无人机视觉中由无人车的坐标Ga指向M个目标坐标的向量为/>当选取/>作为参考向量时,向量/>指向的方向为0°。根据向量夹角计算公式/>以/>作为参考向量时/>对应的方位角拓扑序列为/>类似的,对无人车激光雷达探测的所有目标以/>作为参考目标时,可以得到/>对应的方位角拓扑序列特别的,在Za和Zg中/>均成立。
无人机视觉图像的产生过程是一个透视变换过程,图像的透视变换不改变直线的交比,当无人机相机近似垂直地面时,透视变换退化为相似变换,相交直线的夹角也近似不变。这种特性使无人机和无人车探测的目标之间满足以下两个约束条件:一是无人车传感器探测的目标顺时针排列顺序和无人机图像中目标相对于无人车的顺序保持不变。即顺序不变约束;二是(Ti a,Ti g)和是两对真正关联的目标,那么/>成立。即夹角不变约束。
针对上述两个约束,本发明构造了双环匹配模型,如图5所示。将某一时刻无人机探测的目标和无人车激光雷达探测的目标/>按照图示顺序排列,内环为无人车探测的N个目标,外环为无人机探测的M个目标。基于拓扑序列的多目标关联问题转化为使图示的其中一条圆环旋转一定的角度,使内环和外环上的目标点尽可能多的对齐。双环匹配模型保证了在满足约束一和约束二前提下对目标进行关联。在双环匹配模型中,只需要求解最佳内环旋转角度即可提取目标的关联结果。使用双环匹配模型对拓扑序列进行匹配的过程中存在两个问题需要解决,一是确定内环每次旋转的步长,二是明确判断两个目标是关联的条件。
本发明针对双环匹配模型中的问题提出了解决方案:
步骤1:在双环匹配模型的框架下,内环始终在顺时针方向旋转,且总旋转角度在2π内能够找出最佳匹配状态。本发明设计了一个旋转步长求解矩阵和基于该矩阵的双环模型旋转匹配方法,旋转步长求解矩阵如图6所示,该方法使用简单的循环操作完成整个旋转匹配过程。
步骤2:由于传感器的观测误差和相似变换条件下角度的近似性,所有关联的目标完全对齐几乎不可能。因此本文设置一个阈值γ,当认为此时的和/>是一对关联目标。
下表展示了基于双环旋转匹配的多目标关联算法。
基于双环旋转匹配的多目标关联算法
输出的{b1,b2,…,bp}是每次内环旋转的步长,p是总步数,满足即有限次内环旋转总角度不会超过一周。Ri是旋转第i步时提取的关联集合,由于双环只有一个最佳匹配状态,因此只有一个Ri是需要保留的。算法以包含关联目标数量最多的Ri作为最终结果。
本实施例有益效果:
本实施例提出了一个有严格数学定义的方位拓扑序列并且在理论上分析了其在空地传感器中的相似变换不变性。本实施例提出了双环旋转匹配模型,能够实现拓扑序列的匹配和目标关联,同时能够在最少旋转步数内获取全部关联结果。在仿真和真实实验过程中,本实施例所构建的方位角拓扑结构能够不受目标数量的影响,不完全观测率与关联效果曲线示意图,如图7所示,不完全观测率小于20%;观测误差与关联效果曲线示意图,如图8所示,观测误差小于1.5m的情况下,关联准确率不小于80%。
以上所述,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。

Claims (5)

1.一种基于方位角拓扑结构的空地无人系统多目标关联方法,其特征在于,包括以下步骤:
构建空中无人平台的视觉探测模型,基于所述视觉探测模型,得到第一位置关系,所述第一位置关系为无人机视觉图像中多目标的相对位置;
构建地面无人平台的激光雷达探测模型,基于所述激光雷达探测模型,得到第二位置关系,所述第二位置关系为无人车激光雷达中多目标的相对位置;
基于所述第一位置关系和所述第二位置关系,构建方位角拓扑结构,基于方位角拓扑结构中的约束条件,构建双环匹配模型;
构建方位角拓扑结构的过程包括:
基于所述第一位置关系,得到目标像素坐标和无人车像素坐标,基于所述目标像素坐标和无人车像素坐标,得到无人车指向目标的向量集合,基于所述向量集合,选取任意角度为0°,得到向量在顺时针顺序上与参考0°的第一夹角,基于所述第一夹角,得到无人机视角下目标的第一方位角拓扑序列;
基于所述第二位置关系,得到若干个目标极坐标,基于所述目标极坐标中的目标方位角,选取任意方向为0°,得到地面视角下目标的向量与参考0°的第二夹角,基于所述第二夹角,得到第二方位角拓扑序列;基于所述第一方位角拓扑序列和第二方位角拓扑序列,构建方位角拓扑结构;
所述约束条件包括:顺序不变条件和夹角不变条件;
构建双环匹配模型的过程包括:
获取目标像素坐标集合和目标极坐标集合,将所述目标像素坐标集合和所述目标极坐标集合按照顺时针排列,构建双环匹配模型;其中双环匹配模型包括:内环和外环,所述内环为地面视角下的目标极坐标集合,所述外环为无人机视角下的目标集合;
基于所述双环匹配模型,计算旋转步长,基于旋转步长,使所述双环匹配模型中内环向前旋转,得到多目标的关联结果。
2.根据权利要求1所述的基于方位角拓扑结构的空地无人系统多目标关联方法,其特征在于,得到第一位置关系的过程包括:
基于无人机视觉相机,得到地面拍摄图片,基于目标识别算法和所述地面拍摄图片,得到无人机视觉图像中多目标的像素坐标,基于所述像素坐标,得到第一位置关系。
3.根据权利要求1所述的基于方位角拓扑结构的空地无人系统多目标关联方法,其特征在于,得到第二位置关系的过程包括:
建立激光雷达的极坐标系,其中激光雷达位于所述极坐标系的极点,基于无人车激光雷达探测目标,通过发射并接收激光束,得到第二位置关系,所述第二位置关系的数据信息包括:目标距离和目标方位角。
4.根据权利要求1所述的基于方位角拓扑结构的空地无人系统多目标关联方法,其特征在于,得到旋转步长的过程包括:
基于所述双环匹配模型,计算旋转步长求解矩阵,基于所述旋转步长求解矩阵,计算得到旋转步长,并将所述内环按照顺时针方向逐步旋转并完成整个旋转匹配过程。
5.根据权利要求4所述的基于方位角拓扑结构的空地无人系统多目标关联方法,其特征在于,得到多目标的关联结果的过程包括:
基于所述旋转步长,其中所述内环的目标集合与所述外环的目标集合处于新的对应关系,通过双环旋转匹配模型的多目标关联算法,得到旋转后的多目标关联结果;所述内环经过有限次旋转遍历所述双环匹配模型中所有的匹配状态,并获取每个匹配状态对应的目标关联结果,所有匹配状态中,选择关联误差最小的双环匹配状态为双环匹配结果,匹配状态下对应的多目标关联结构为多目标关联结果。
CN202310160117.5A 2023-02-24 2023-02-24 基于方位角拓扑结构的空地无人系统多目标关联方法 Active CN116338716B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310160117.5A CN116338716B (zh) 2023-02-24 2023-02-24 基于方位角拓扑结构的空地无人系统多目标关联方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310160117.5A CN116338716B (zh) 2023-02-24 2023-02-24 基于方位角拓扑结构的空地无人系统多目标关联方法

Publications (2)

Publication Number Publication Date
CN116338716A CN116338716A (zh) 2023-06-27
CN116338716B true CN116338716B (zh) 2023-10-20

Family

ID=86893922

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310160117.5A Active CN116338716B (zh) 2023-02-24 2023-02-24 基于方位角拓扑结构的空地无人系统多目标关联方法

Country Status (1)

Country Link
CN (1) CN116338716B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116662765B (zh) * 2023-07-31 2023-10-20 北京理工大学 一种基于目标拓扑的多航迹关联方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103426165A (zh) * 2013-06-28 2013-12-04 吴立新 一种地面激光点云与无人机影像重建点云的精配准方法
CN106443664A (zh) * 2016-09-13 2017-02-22 中国人民解放军海军航空工程学院 系统误差下基于拓扑信息的雷达与esm航迹关联方法
WO2021219093A1 (en) * 2020-04-30 2021-11-04 International Business Machines Corporation Multi objective optimization of applications

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103426165A (zh) * 2013-06-28 2013-12-04 吴立新 一种地面激光点云与无人机影像重建点云的精配准方法
CN106443664A (zh) * 2016-09-13 2017-02-22 中国人民解放军海军航空工程学院 系统误差下基于拓扑信息的雷达与esm航迹关联方法
WO2021219093A1 (en) * 2020-04-30 2021-11-04 International Business Machines Corporation Multi objective optimization of applications

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
Target data association in communication constrained environment using CART: Compressed adaptive reference topology;Yue Wang 等;《2016 8th IEEE International Conference on Communication Software and Networks (ICCSN)》;全文 *
基于EM聚类的水下多目标轨迹关联方法研究;王科智;《中国优秀硕士学位论文全文数据库》;全文 *
基于最近邻-拓扑图的异类传感器目标关联算法;袁定波;孟藏珍;许稼;彭应宁;;雷达学报(第04期);全文 *
基于目标之间拓扑信息的数据关联方法;杨哲;韩崇昭;李晨;褚敏;;系统仿真学报(第09期);全文 *
基于目标参照拓扑的模糊航迹关联方法;石;王钺;王树刚;山秀明;;国防科技大学学报(第04期);全文 *
无人机激光雷达采集遥感图像的重建技术;敬远兵;陈秀万;;激光杂志(第08期);全文 *
面向空中和地面无人平台的仿生节点递推导航方法;毛军;《中国优秀硕士学位论文全文数据库》;全文 *

Also Published As

Publication number Publication date
CN116338716A (zh) 2023-06-27

Similar Documents

Publication Publication Date Title
Zhang et al. Photogrammetric processing of low‐altitude images acquired by unpiloted aerial vehicles
Kalinov et al. High-precision uav localization system for landing on a mobile collaborative robot based on an ir marker pattern recognition
Hebel et al. Simultaneous calibration of ALS systems and alignment of multiview LiDAR scans of urban areas
US20200234491A1 (en) System for generating point cloud map and method therefor
CN116338716B (zh) 基于方位角拓扑结构的空地无人系统多目标关联方法
CN114743021A (zh) 一种输电线路图像与点云数据的融合方法及系统
Yuan et al. GNSS-IMU-assisted colored ICP for UAV-LiDAR point cloud registration of peach trees
Kim et al. As-is geometric data collection and 3D visualization through the collaboration between UAV and UGV
Chen et al. Real-time geo-localization using satellite imagery and topography for unmanned aerial vehicles
CN116522548B (zh) 一种基于三角拓扑结构的空地无人系统多目标关联方法
CN110160503B (zh) 一种顾及高程的无人机景观匹配定位方法
Li et al. Topological similarity-based multi-target correlation localization for aerial-ground systems
CN109764864A (zh) 一种基于颜色识别的室内无人机位姿获取方法及系统
Li et al. Collaborative positioning for swarms: A brief survey of vision, LiDAR and wireless sensors based methods
Majdik et al. Micro air vehicle localization and position tracking from textured 3d cadastral models
Li et al. Prediction of wheat gains with imagery from four-rotor UAV
Wang et al. Study on target detection and tracking method of uav based on lidar
CN115525062A (zh) 面向返回式航天器测量任务无人机实时在线航迹规划方法
Chen et al. Real-time active detection of targets and path planning using UAVs
US10964055B2 (en) Methods and systems for silent object positioning with image sensors
Ma et al. Robust visual-inertial odometry with point and line features for blade inspection UAV
Shahbazi Professional drone mapping
Cheng et al. Monocular visual based obstacle distance estimation method for ultra-low altitude flight
Wang et al. Research on Real-time and High-precision Positioning Method of Ground Target through UAV Stereo Vision and Spatial Information Fusion
RU2787946C1 (ru) Способ определения координат объектов и их распознавания

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant