CN108519075B - 一种空间多目标位姿测量方法 - Google Patents
一种空间多目标位姿测量方法 Download PDFInfo
- Publication number
- CN108519075B CN108519075B CN201810238195.1A CN201810238195A CN108519075B CN 108519075 B CN108519075 B CN 108519075B CN 201810238195 A CN201810238195 A CN 201810238195A CN 108519075 B CN108519075 B CN 108519075B
- Authority
- CN
- China
- Prior art keywords
- target
- point cloud
- window
- targets
- type
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/87—Combinations of systems using electromagnetic waves other than radio waves
- G01S17/875—Combinations of systems using electromagnetic waves other than radio waves for determining attitude
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种空间多目标位姿测量方法,尤其适用于空间多个非合作目标的侦查、监视和测量,属于空间探测技术领域。本发明通过单目相机和激光雷达联合工作方式,自适应调整激光扫描窗口,可实现同时对多个非合作目标类型识别和相对位置姿态测量,满足空间多个非合作目标侦查、监视和测量需求。
Description
技术领域
本发明涉及一种空间多目标位姿测量方法,所述的空间多目标为两个以上(包括两个);尤其适用于空间多个非合作目标的侦查、监视和测量,属于空间探测技术领域。
背景技术
随着新时代空间任务需求多样化,空间打击武器和对抗方式全面升级。空间航天器需要对多个空间武器目标来袭的情况进行防御,同时也有对多个目标进行侦查、监视和意图判断的需求,在这些任务中,都需要对目标的位置姿态进行测量,尤其是针对多个目标同时来袭的情况下,为了有效保证自身安全,需要快速同时对多个目标的相对位姿进行测量,快速决策进行响应,对空间多目标的位姿测量的精度和实时性也提出了更高的要求。
现有的针对非合作目标的测量主要采用激光雷达和立体视觉方法来实现,而这些方法中都是针对单个刚体的非合作目标进行测量,当多个目标同时进入视场时,只能测量其中一个目标。针对多个目标同时测量时需要合理安排工作时序和扫描路径,才能同时保证高精度、高点云分辨率和实时性,现有方法测量多个目标时需要逐个进行测量,难以同时满足高精度和实时性的要求。针对多个目标还需要对目标类型进行类型识别然后再对其进行测量,现有测量方法难以对同时出现的多个目标进行自适应分类测量。
发明内容
本发明的技术解决问题是:克服现有技术的不足,提出一种空间多目标位姿测量方法。
本发明的技术解决方案是:
一种空间多目标位姿测量方法,该方法的步骤包括:
(1)在地面建立空间多目标的图像特征库和点云数据库;
(2)使用单目相机对视场内的空间多目标进行成像,得到空间多目标图像,并对各个目标所在的区域进行识别和计算,得到各个目标所在的窗口;
(3)根据步骤(2)得到的各个目标所在的窗口,确定激光雷达扫描窗口和扫描路径;
(4)根据步骤(3)确定的扫描路径,使用激光雷达获取每个窗口内的空间目标的点云数据;
(5)将步骤(2)得到的空间多目标图像与步骤(1)建立的空间多目标的图像特征库进行比对,得到各个窗口内的空间目标类型和目标粗姿态;
(6)根据步骤(5)得到的各个窗口内的空间目标类型和目标粗姿态,选取步骤(1)中与该空间目标类型对应的点云数据,并将选取的点云数据与步骤(4)得到的点云数据进行配准,使用ICP算法对各个目标的位置姿态进行计算。
(7)根据步骤(6)得到的各个目标的位置姿态,对各个目标的运动方向,任务意图进行判断,指引自身进行快速决策。
所述的步骤(2)中,所述的区域识别是指对各个目标在视场内的位置进行判断,所述的计算是指计算各个目标在视场内的大小进行计算;
各个目标所在的区域进行识别和计算后,定义该区域的外接矩形为目标所在的窗口。
所述的步骤(3)中,所述的扫描路径上包含多个窗口,每个窗口内包含一个空间目标,不扫描其他区域。
根据步骤(5)得到的各个窗口内的空间目标类型和目标粗姿态,选取步骤(1)中与该空间目标类型对应的点云数据,并将选取的点云数据与步骤(4)得到的点云数据进行配准,使用ICP算法对各个目标的位置姿态进行计算。
不同窗口内的空间目标类型一致,不同窗口内的空间目标类型不同。
有益效果
(1)本发明针对现有方法无法同时测量多个非合作目标的问题,提供一种空间多目标位姿测量方法,采用视场重叠的激光雷达和单目相机联合工作的方式,实现了对多个目标类型识别、位置姿态测量。
(2)本发明的方法,采用视场重叠的激光雷达和单目相机联合工作,利用单目相机对多个非合作目标的窗口确定、目标类型识别,激光雷达多目标区域扫描和分类点云配准得到目标位置姿态,实现对多个目标的跟踪和测量。
(3)本发明针对多目标的智能扫描和分类、姿态测量进行设计,基于现有产品下进行测量方法改进,使用单目相机和激光雷达联合工作,合理安排工作时序和测量方法,使敏感器由单目标测量升级为多个目标同时测量。
(4)本发明方法中使用单目相机对多目标视场区域进行识别和定位,指引激光雷达进行扫描,激光雷达只需扫描目标区域,其他部分不进行扫描,在相同扫描点数情况下可以获得更多有效的点云数据,提高了目标的点云分辨率,可以提高位姿求解的精度。
(5)本发明方法中使用单目相机对目标进行分类识别并获得目标的粗姿态,然后使用激光点云数据进行目标位置姿态精细配准;单目相机提供的粗姿态可以有效提高点云配准的效率,使点云配准迭代次数由20次以上降低到5次以下。
附图说明
图1为本发明的方法流程示意图;
图2a为实施例1中单目相机目标窗口计算示意图;
图2b为实施例1中激光雷达扫描路径示意图;
图3为实施例1的方法流程示意图;
图4a为实施例2中单目相机目标窗口计算示意图;
图4b为实施例2中激光雷达扫描路径示意图;
图5为实施例2的方法流程示意图。
具体实施方式
一种空间多目标位姿测量方法,该方法的步骤包括:
(1)在地面建立空间多目标的图像特征库和点云数据库;
(2)使用单目相机对视场内的空间多目标进行成像,得到空间多目标图像,并对各个目标所在的区域进行识别和计算,得到各个目标所在的窗口;
所述的区域识别是指对各个目标在视场内的位置进行判断,所述的计算是指计算各个目标在视场内的大小进行计算;
各个目标所在的区域进行识别和计算后,定义该区域的外接矩形为目标所在的窗口;
(3)根据步骤(2)得到的各个目标所在的窗口,确定激光雷达扫描窗口和扫描路径;
所述的扫描路径上包含多个窗口,每个窗口内包含一个空间目标,不扫描其他区域;
(4)根据步骤(3)确定的扫描路径,使用激光雷达获取每个窗口内的空间目标的点云数据;
(5)将步骤(2)得到的空间多目标图像与步骤(1)建立的空间多目标的图像特征库进行比对,得到各个窗口内的空间目标类型和目标粗姿态;
(6)根据步骤(5)得到的各个窗口内的空间目标类型和目标粗姿态,选取步骤(1)中与该空间目标类型对应的点云数据,并将选取的点云数据与步骤(4)得到的点云数据进行配准,使用ICP算法对各个目标的位置姿态进行迭代计算。
(7)根据步骤(6)得到的各个目标的位置姿态,对目标的运动方向,任务意图进行判断,指引自身进行快速决策。
本发明提供一种空间多目标位姿测量方法,采用视场重叠的激光雷达和单目相机联合工作的方式,实现同时对多个非合作目标位置姿态测量。主要配置和步骤如下:1.地面建立多个非合作目标图像特征库和点云数据库;2.使用单目相机进行成像,对多个非合作目标在视场内的区域进行识别和计算;3.根据单目相机的结果,计算激光雷达扫描窗口,规划扫描路径;4.激光雷达获取视场内多个非合作目标的点云数据;5.单目相机根据成像结果和图像特征库进行比对,对不同窗口内的目标进行类型识别;6.根据类型识别结果,匹配激光雷达点云数据和非合作目标点云数据库,使用ICP算法对各个目标的位置姿态进行计算。7.根据各个目标的位置姿态,对各个目标的运动方向,任务意图进行判断,指引自身进行快速决策。本发明通过单目相机和激光雷达联合工作方式,自适应调整激光扫描窗口,可实现同时对多个非合作空间目标分类识别和相对位置姿态测量,满足空间多个非合作目标的侦查、监视和测量需求。
对多个非合作目标在视场内的区域进行识别和计算,然后计算激光雷达扫描窗口,规划扫描路径。
使用激光雷达进行成像,此时激光雷达的扫描范围只覆盖单目相机确定的多个非合作目标的扫描窗口,其他部分不进行扫描,可以有效提高点云的分辨率。
单目相机根据成像结果和图像特征库进行比对,对不同窗口内的目标进行类型识别和粗姿态计算;
激光雷达成像结果根据单目相机对目标类型识别结果,匹配激光雷达点云数据和非合作目标点云数据库,利用单目相机图像识别对粗姿态作为初值使用ICP算法对各个目标的位置姿态进行计算。
所述地面建立多个非合作目标图像特征库和点云数据库;数据库中含有多个空间目标的图像和点云模型,其中图像为对目标缩比模型在各个角度下成像得到的图像,点云模型为目标模型的三维点云,图像和点云模型为一一对应关系。
下面结合附图对本发明做进一步说明。
本发明的一种空间多目标位姿测量方法,采用视场重叠的激光雷达和单目相机联合工作,利用单目相机对多个非合作目标的视场范围定位、目标类型识别,激光雷达多目标区域扫描和分类点云配准得到目标位置姿态,实现对多个目标的跟踪和测量。如图1所示,主要实施方法步骤如下:
1.地面建立多个非合作目标图像特征库和点云数据库;其中图像特征库用于基于图像的类型识别和分类,点云数据用于后续的精细位置姿态求解。数据库中含有多个空间目标的图像和点云模型,其中图像为对目标缩比模型在各个角度下成像得到的图像,点云模型为目标模型的三维点云,图像和点云模型为一一对应关系。
2.使用单目相机进行成像,对多个非合作目标在视场内的区域进行识别和计算,确定非合作目标在视场内所覆盖的窗口;
3.根据单目相机的结果,计算激光雷达扫描窗口,规划扫描路径,激光雷达扫描时将只覆盖多个目标所处窗口区域,其他部分将不进行扫描;
4.激光雷达获取多个窗口内非合作目标的点云数据,将其存储为窗口1数据,窗口2数据直至所有窗口存储完成;
5.单目相机根据成像结果和图像数据库进行比对,对每个窗口内的目标进行类型识别,确定每个窗口内目标的类型,并将查询得到其对应的三维点云模型,图中以视场内有AB两种目标为例,获取了A点云模型数据和B点云模型数据;
6.单目图像对A和B两种目标求取粗姿态,为后续精细姿态求解获得先验知识。
7.不同类型目标对应的点云模型和激光雷达扫描的大片点云数据进行精细配准。使用单目粗姿态作为初始值对点云进行ICP配准,得到多个目标的位置和姿态。
实施例1
如图3所示,一种空间两目标位姿测量方法,该方法的步骤包括:
(1)在地面建立空间多目标的图像特征库和点云数据库;数据库中含有多个空间目标的图像和点云模型,其中图像为对目标缩比模型在各个角度下成像得到的图像,点云模型为目标模型的三维点云,图像和点云模型为一一对应关系。
(2)在轨使用时,使用单目相机对视场内的空间多目标进行成像,得到空间多目标图像,如图2a所示;并对各个目标所在的区域进行识别和计算,得到各个目标所在的窗口;图2a中含有A和B两个目标,则计算A和B在像面上的窗口,其中包含窗口位置和大小,定义为窗口1和窗口2,窗口1内包含A目标,窗口2内包含B目标。
(3)根据步骤(2)得到的两个目标所在的窗口,确定激光雷达扫描窗口和扫描路径,如图2b所示;激光雷达扫描路径上只包含窗口1和窗口2,每个窗口内包含一个空间目标,视场内其他区域不进行扫描;
(4)根据步骤(3)确定的扫描路径,使用激光雷达获取每个窗口内的空间目标的点云数据,则可以得到窗口1内的目标A的点云数据和窗口2内的目标B的点云数据;
(5)将步骤(2)得到的空间多目标图像与步骤(1)建立的空间多目标的图像特征库进行比对,得到各个窗口内的空间目标类型和目标粗姿态;窗口1中的目标A的图像在步骤(1)建立的图像特征库进行查询和比对,确定目标A为类型1,并根据目标A在像面上的分布计算其最长轴的方向,作为目标A的粗姿态。窗口2中的目标B的图像在步骤(1)建立的图像特征库进行查询和比对,确定目标B为类型2,并根据目标B在像面上的分布计算其最长轴的方向,作为目标B的粗姿态。
(6)根据步骤(5)得到的各个窗口内的空间目标类型和目标粗姿态,选取步骤(1)中与该空间目标类型对应的点云数据,并将选取的点云数据与步骤(4)得到的点云数据进行匹配,使用ICP算法对各个目标的位置姿态进行计算。
根据步骤(5)得到的各目标的类型和粗姿态,目标A为步骤(1)中建立的空间多目标的图像特征库中类型1,则其对应的点云模型为类型1,步骤(4)得到的目标A实际点云数据和类型1点云数据匹配成功,使用目标A的粗姿态作为先验知识,使用ICP算法对目标A的位置姿态进行迭代计算。
根据步骤(5)得到的各目标的类型和粗姿态,目标B为步骤(1)中建立的空间多目标的图像特征库中类型2,则其对应的点云模型为类型2,步骤(4)得到的目标B实际点云数据和类型2点云数据匹配成功,使用目标B的粗姿态作为先验知识,使用ICP算法对目标B的位置姿态进行迭代计算。
(7)根据步骤(6)得到的目标A和B的位置和姿态,对目标A和B的运行状态,任务意图进行判断,对进一步操作、打击或规避进行决策。
实施例2
如图5所示,一种空间多目标位姿测量方法,该方法的步骤包括:
(1)在地面建立空间多目标的图像特征库和点云数据库;数据库中含有多个空间目标的图像和点云模型,其中图像为对目标缩比模型在各个角度下成像得到的图像,点云模型为目标模型的三维点云,图像和点云模型为一一对应关系。
(2)在轨使用时,使用单目相机对视场内的空间多目标进行成像,得到空间多目标图像,如图4a所示;并对各个目标所在的区域进行识别和计算,得到各个目标所在的窗口;图4a中含有ABC三个目标,则计算ABC在像面上的窗口,其中包含窗口位置和大小,定义为窗口1、窗口2和窗口3,窗口1内包含A目标,窗口2内包含B目标,窗口3内包含C目标。
(3)根据步骤(2)得到的三个目标所在的窗口,确定激光雷达扫描窗口和扫描路径,如图4b所示;激光雷达扫描路径上只包含窗口1、窗口2和窗口3,每个窗口内包含一个空间目标,视场内其他区域不进行扫描;
(4)根据步骤(3)确定的扫描路径,使用激光雷达获取每个窗口内的空间目标的点云数据,则可以得到窗口1内的目标A的点云数据、窗口2内的目标B的点云数据和窗口3内的目标C的点云数据;
(5)将步骤(2)得到的空间多目标图像与步骤(1)建立的空间多目标的图像特征库进行比对,得到各个窗口内的空间目标类型和目标粗姿态;窗口1中的目标A的图像在步骤(1)建立的图像特征库进行查询和比对,确定目标A为类型1,并根据目标A在像面上的分布计算其最长轴的方向,作为目标A的粗姿态。窗口2中的目标B的图像在步骤(1)建立的图像特征库进行查询和比对,确定目标B为类型2,并根据目标B在像面上的分布计算其最长轴的方向,作为目标B的粗姿态。窗口3中的目标C的图像在步骤(1)建立的图像特征库进行查询和比对,确定目标C为类型3,并根据目标C在像面上的分布计算其最长轴的方向,作为目标C的粗姿态。
(6)根据步骤(5)得到的各个窗口内的空间目标类型和目标粗姿态,选取步骤(1)中与该空间目标类型对应的点云数据,并将选取的点云数据与步骤(4)得到的点云数据进行匹配,使用ICP算法对各个目标的位置姿态进行计算。
根据步骤(5)得到的各目标的类型和粗姿态,目标A为步骤(1)中建立的空间多目标的图像特征库中类型1,则其对应的点云模型为类型1,步骤(4)得到的目标A实际点云数据和类型1点云数据匹配成功,使用目标A的粗姿态作为先验知识,使用ICP算法对目标A的位置姿态进行迭代计算。
根据步骤(5)得到的各目标的类型和粗姿态,目标B为步骤(1)中建立的空间多目标的图像特征库中类型2,则其对应的点云模型为类型2,步骤(4)得到的目标B实际点云数据和类型2点云数据匹配成功,使用目标B的粗姿态作为先验知识,使用ICP算法对目标B的位置姿态进行迭代计算。
根据步骤(5)得到的各目标的类型和粗姿态,目标C为步骤(1)中建立的空间多目标的图像特征库中类型3,则其对应的点云模型为类型3,步骤(4)得到的目标C实际点云数据和类型3点云数据匹配成功,使用目标C的粗姿态作为先验知识,使用ICP算法对目标C的位置姿态进行迭代计算。
(7)根据步骤(6)得到的目标A、B和C的位置和姿态,对目标A、B和C的运行状态,任务意图进行判断,对进一步操作、打击或规避进行决策。
Claims (1)
1.一种空间多目标位姿测量方法,其特征在于该方法的步骤包括:
(1)在地面建立空间多目标的图像特征库和点云数据库;数据库中含有多个空间目标的图像和点云模型,其中图像为对目标缩比模型在各个角度下成像得到的图像,点云模型为目标模型的三维点云,图像和点云模型为一一对应关系;
(2)在轨使用时,使用单目相机对视场内的空间多目标进行成像,得到空间多目标图像,并对各个目标所在的区域进行识别和计算,得到各个目标所在的窗口,含有A和B两个目标,则计算A和B在像面上的窗口,其中包含窗口位置和大小,定义为窗口1和窗口2,窗口1内包含A目标,窗口2内包含B目标;
(3)根据步骤(2)得到的两个目标所在的窗口,确定激光雷达扫描窗口和扫描路径,激光雷达扫描路径上只包含窗口1和窗口2,每个窗口内包含一个空间目标,视场内其他区域不进行扫描;
(4)根据步骤(3)确定的扫描路径,使用激光雷达获取每个窗口内的空间目标的点云数据,则可以得到窗口1内的目标A的点云数据和窗口2内的目标B的点云数据;
(5)将步骤(2)得到的空间多目标图像与步骤(1)建立的空间多目标的图像特征库进行比对,得到各个窗口内的空间目标类型和目标粗姿态;窗口1中的目标A的图像在步骤(1)建立的图像特征库进行查询和比对,确定目标A为类型1,并根据目标A在像面上的分布计算其最长轴的方向,作为目标A的粗姿态;窗口2中的目标B的图像在步骤(1)建立的图像特征库进行查询和比对,确定目标B为类型2,并根据目标B在像面上的分布计算其最长轴的方向,作为目标B的粗姿态;
(6)根据步骤(5)得到的各个窗口内的空间目标类型和目标粗姿态,选取步骤(1)中与该空间目标类型对应的点云数据,并将选取的点云数据与步骤(4)得到的点云数据进行匹配,使用ICP算法对各个目标的位置姿态进行计算;
根据步骤(5)得到的各目标的类型和粗姿态,目标A为步骤(1)中建立的空间多目标的图像特征库中类型1,则其对应的点云模型为类型1,步骤(4)得到的目标A实际点云数据和类型1点云数据匹配成功,使用目标A的粗姿态作为先验知识,使用ICP算法对目标A的位置姿态进行迭代计算;
根据步骤(5)得到的各目标的类型和粗姿态,目标B为步骤(1)中建立的空间多目标的图像特征库中类型2,则其对应的点云模型为类型2,步骤(4)得到的目标B实际点云数据和类型2点云数据匹配成功,使用目标B的粗姿态作为先验知识,使用ICP算法对目标B的位置姿态进行迭代计算;
(7)根据步骤(6)得到的目标A和B的位置和姿态,对目标A和B的运行状态,任务意图进行判断,对进一步操作、打击或规避进行决策。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810238195.1A CN108519075B (zh) | 2018-03-22 | 2018-03-22 | 一种空间多目标位姿测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810238195.1A CN108519075B (zh) | 2018-03-22 | 2018-03-22 | 一种空间多目标位姿测量方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108519075A CN108519075A (zh) | 2018-09-11 |
CN108519075B true CN108519075B (zh) | 2021-04-13 |
Family
ID=63433958
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810238195.1A Active CN108519075B (zh) | 2018-03-22 | 2018-03-22 | 一种空间多目标位姿测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108519075B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109444911B (zh) * | 2018-10-18 | 2023-05-05 | 哈尔滨工程大学 | 一种单目相机和激光雷达信息融合的无人艇水面目标检测识别与定位方法 |
CN109239384B (zh) * | 2018-10-23 | 2021-02-09 | 北京控制工程研究所 | 一种二维三维融合的非合作目标转速转轴测量方法 |
CN110849331B (zh) * | 2019-11-04 | 2021-10-29 | 上海航天控制技术研究所 | 基于三维点云数据库模型的单目视觉测量与地面试验方法 |
CN111522020A (zh) * | 2020-06-23 | 2020-08-11 | 山东亦贝数据技术有限公司 | 一种园区活动要素混合定位系统及方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102253375B (zh) * | 2011-04-02 | 2013-05-29 | 海华电子企业(中国)有限公司 | 雷达多目标数据互联方法 |
CN102609720B (zh) * | 2012-01-31 | 2013-12-18 | 中国科学院自动化研究所 | 一种基于位置校正模型的行人检测方法 |
CN104050716B (zh) * | 2014-06-25 | 2017-06-16 | 北京航空航天大学 | 一种海上多目标sar图像可视化建模方法 |
CN106441311B (zh) * | 2016-07-15 | 2019-06-28 | 上海宇航系统工程研究所 | 一种基于激光成像雷达的非合作航天器相对位姿测量方法 |
CN106650809B (zh) * | 2016-12-20 | 2018-02-23 | 福州大学 | 一种车载激光点云目标分类方法和系统 |
-
2018
- 2018-03-22 CN CN201810238195.1A patent/CN108519075B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN108519075A (zh) | 2018-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108519075B (zh) | 一种空间多目标位姿测量方法 | |
CN108445480B (zh) | 基于激光雷达的移动平台自适应扩展目标跟踪系统及方法 | |
Veľas et al. | Calibration of rgb camera with velodyne lidar | |
RU2609434C2 (ru) | Выявление расположения и местоположения объектов | |
EP3151164A2 (en) | A method for foreign object debris detection | |
KR100920931B1 (ko) | Tof 카메라를 이용한 로봇의 물체 자세 인식 방법 | |
WO2017049994A1 (zh) | 一种高光谱图像角点检测方法与系统 | |
CN105279769B (zh) | 一种联合多特征的层次粒子滤波跟踪方法 | |
Klippenstein et al. | Quantitative evaluation of feature extractors for visual slam | |
CN112184765B (zh) | 一种用于水下航行器的自主跟踪方法 | |
CN101173987A (zh) | 多模多目标精密跟踪装置和方法 | |
CN112213264B (zh) | 用于景象匹配制导的机场参考图制备方法 | |
Chen et al. | Global path planning in mobile robot using omnidirectional camera | |
Hochdorfer et al. | 6 DoF SLAM using a ToF camera: The challenge of a continuously growing number of landmarks | |
McGreavy et al. | Next best view planning for object recognition in mobile robotics | |
Li et al. | A mobile robotic arm grasping system with autonomous navigation and object detection | |
Schellberg et al. | MmSight: Towards robust millimeter-wave imaging on handheld devices | |
Lu | Vision-enhanced lidar odometry and mapping | |
JP7117878B2 (ja) | 処理装置、及びプログラム | |
Hahn et al. | Tracking of human body parts using the multiocular contracting curve density algorithm | |
Ali et al. | Improved method for stereo vision-based human detection for a mobile robot following a target person | |
Ali et al. | Segmentation and pose estimation of planar metallic objects | |
Bouain et al. | An extrinsic sensor calibration framework for sensor-fusion based autonomous vehicle perception | |
Wei | Research on automatic target acquisition and tracking in an infrared tracking system | |
Veibäck et al. | Tracking of dolphins in a basin using a constrained motion model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |