CN108489496A - 基于多源信息融合的非合作目标相对导航运动估计方法及系统 - Google Patents
基于多源信息融合的非合作目标相对导航运动估计方法及系统 Download PDFInfo
- Publication number
- CN108489496A CN108489496A CN201810401074.4A CN201810401074A CN108489496A CN 108489496 A CN108489496 A CN 108489496A CN 201810401074 A CN201810401074 A CN 201810401074A CN 108489496 A CN108489496 A CN 108489496A
- Authority
- CN
- China
- Prior art keywords
- camera
- target
- coordinate
- point
- laser scanner
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
一种基于多源信息融合的非合作目标相对导航运动估计方法及系统,首先给出激光与视觉测量系统的联合标定方法,进而基于联合标定后的测量系统获取激光扫描点云在相机坐标系的重投影信心,采用两次插值方法分别获取目标点的深度补偿信息和补偿后的深度信息,实现激光扫描点云与视觉相机图像的信息融合,最后在融合信息基础上获取目标的运动估计。本发明给出了视觉相机与激光扫描的信息融合方法,能够通过激光扫描点云的高精度深度信息弥补视觉图像在深度方向精度差的不足,同时又避免了激光扫描分辨率低的缺点,兼具了激光扫描深度信息精度高与视觉测量系统的图像分辨率高的优点;同时,信息融合的插值计算方法为简单的代数运算,易于工程实现与应用。
Description
技术领域
本发明涉及一种基于多源信息融合的非合作目标相对导航运动估计方法及系统,属于导航运动估计技术领域。
背景技术
近年来,伴随着空间技术的快速发展,面向各种任务要求的航天器相继被送上太空,其可靠性和安全性也越来越受到重视。如今,在轨服务已逐渐成为延长航天器使用寿命、完成航天器设备升级以及清理太空垃圾的重要手段,也是今后进行空间探索亟待解决的重要课题,尤其是近些年发展起来的非合作航天器在轨服务技术有着广阔的应用前景。
非合作航天器在轨服务技术首先需要解决的问题就是非合作目标的近距离相对导航问题,在轨服务航天器近距离接近段,需要凭借相对导航系统全面检测和估计相对运动状态。相比于合作目标,非合作目标缺乏先验知识、不能安装人工标记、信息获取途径少,且无法进行航天器间的通信,只能利用摄像机和激光雷达等传感器获取有效信息。目前空间非合作目标相对导航运动估计的方法主要通过视觉图像或激光点云获取目标特征点的三维坐标,进而开展目标的运动估计。但是,视觉摄像与激光扫描又具有不同的特点与优势,视觉相机相比于激光扫描仪可以获得丰富的色彩、纹理、形状等场景信息,便于进行图像处理操作,且可以进行三维重构。激光扫描仪与视觉相机相比具有更高精度的深度信息,视场范围大,数据处理简单等优势,然而其只能获得离散的点云数据。
发明内容
本发明解决的技术问题为:克服现有技术的不足,提供了一种基于多源信息融合的非合作目标相对导航运动估计方法及系统。通过对视觉-激光测量系统进行联合标定后,获取视觉摄像的图像信息与三维激光扫面的点云信息,进行图像信息与点云信息融合,用于最终实现目标运动估计。
本发明解决的技术方案为:一种基于多源信息融合的非合作目标相对导航运动估计方法,步骤如下:
(1)建立双目视觉相机与三维激光扫描仪的联合标定模型;
(2)采用双目视觉相机与三维激光扫描仪的联合标定模型,将激光扫描仪坐标系下的点集转换成相机坐标系下,构造两组点集匹配的误差函数,采用ICP算法优化两组点集匹配的误差函数,实现双目相机与三维激光扫描仪联合标定;
(3)目标双目视觉相机拍摄非合作目标,在步骤(2)双目视觉相机与三维激光扫描仪联合标定得到的最优的外参数下,获取目标双目视觉相机拍摄的图像坐标与激光扫描目标形成的点云在相机坐标系下坐标;采用插值法,完成目标双目视觉相机拍摄图像与激光扫描仪扫描点云的信息融合所需的深度补偿初值;
(4)对步骤(3)的深度补偿初值进一步采用插值法,完成视觉图像的像素点的深度补偿。
(5)通过步骤(4)的结果,估计非合作目标的转动情况。
步骤(1)建立双目视觉-三维激光扫描测量系统的联合标定模型,具体步骤如下:
(1.1)设定坐标系Oc-XcYcZc为相机坐标系,Ol-XlYlZl为激光扫描仪坐标系,有空间点P在Oc-XcYcZc与Ol-XlYlZl坐标系中坐标分别为(Xc Yc Zc)与(Xl Yl Zl);
(1.2)建立双目视觉-三维激光扫描测量系统的联合标定模型,即双目视觉坐标系(即相机坐标系)和激光扫描仪坐标系的转换关系如下:
其中:R为从激光扫描仪坐标系到相机坐标系的坐标变换矩阵;T从从激光扫描仪坐标系到相机坐标系的的平移矢量。
步骤(2)采用双目视觉-三维激光扫描测量系统的联合标定模型,将激光扫描仪坐标系下的点集转换成相机坐标系下,构造两组点集匹配的误差函数,采用ICP算法优化两组点集匹配的误差函数,实现双目相机-三维激光扫描仪联合标定,具体步骤如下:
(2.1)选择不规则几何外形、特征明显的物体作为标定物,选择标定物边界角点作为特征点,使用激光扫描仪扫描标定物获取特征点的点云,组成激光扫描仪坐标系下特征点集Ml:(ml1 ml2…mln);
(2.2)采用双目视觉-三维激光扫描测量系统的联合标定模型,将特征点集Ml:(ml1ml2…mln)变换成相机坐标系下的特征点集Mc′:(mc′1 mc′2…mc′n)。
(2.3)使用双目视觉系统的左右相机对标定物拍照,采集左右目两幅图像,基于图像重构特征点集中的所有特征点在相机坐标系下的三维坐标,组成相机坐标系下的特征点集Mc:(mc1 mc2…mcn),构造两组特征点集匹配的误差函数如下:
其中:A表示最优化目标函数值;
mci为特征点i在相机坐标系下的坐标;i=1,2,…n
mli为特征点i在激光扫描仪坐标系下的坐标;
m'ci为mci变换到相机坐标系下的坐标;
R为从激光扫描仪坐标系到相机坐标系的坐标变换矩阵;
T从从激光扫描仪坐标系到相机坐标系的的平移矢量。
(2.4)采用ICP算法,实现以上目标函数即两组点集匹配的误差函数的优化,当目标函数值最小时,停止ICP算法迭代,从而得到最优的外参数R与T,其中R为相机坐标系与激光扫描仪坐标系的转动关系,T为相机坐标系与激光扫描仪坐标系的位置关系,实现双目相机-三维激光扫描仪联合标定。
步骤(3)目标双目视觉相机拍摄非合作目标,在最优的外参数R与T下,获取目标双目视觉相机拍摄的图像坐标与激光扫描目标形成的点云;采用插值法,完成目标双目视觉相机拍摄图像与激光扫描仪扫描点云的信息融合所需的深度补偿初值,具体步骤如下:。
(3.1)目标双目视觉相机拍摄非合作目标,在图像平面建立二维笛卡尔坐标系,激光点云重投影在图像系中形成的重投影点l1必然位于相机成像的某四个像素点c1、c2、c3、c4中,重投影点l1坐标为l1:(xl1 yl1 zl1);
(3.2)将双目视觉相机拍摄的非合作目标的两幅图像按照双目视觉系统数学模型恢复得到的像素点在相机坐标系的坐标为c1:(xc1 yc1 zc1)、c2:(xc2 yc2 zc2)、c3:(xc3 yc3zc3)、c4:(xc4 yc4 zc4);
(3.3)采用线性插值方法,对四个像素点c1、c2、c3、c4对应深度z方向坐标插值得到l1点的z坐标,如下表达:
其中:
(3.4)根据视觉成像的四个像素点c1、c2、c3、c4插值得到的l1处的估计深度坐标通过与激光扫描点的重投影坐标l1:(xl1 yl1 zl1)中的zl1进行比对,得到l1处的深度补偿量Δzl1,即目标双目视觉相机拍摄图像与激光扫描仪扫描点云的信息融合所需的深度补偿初值:
步骤(4)对深度补偿初值进一步采用插值法,完成视觉图像的像素点的深度补偿,具体步骤如下:
(4.1)采用步骤(3)的方法,获取所有激光扫描点li由视觉图像恢复点坐标插值得到的深度补偿初值,由此组成一组补偿坐标Δli:(xli yli Δzli)。
(4.2)对任意像素点外部的四个激光扫描点l1-l4内部的视觉像素点cj通过插值方法获得cj处补偿量如下:
其中:
(4.3)视觉图像的像素点cj对应的补偿后的深度信息即为:
其中,zcj为像素点cj在图像系下的深度坐标;
(4.4)获得一组融合后的目标特征点集:{{cj}∪{li}},其中所有像素点cj经过融合补偿后的对应的坐标为:m为大于等于4的正整数;从而完成视觉图像的像素点的深度补偿;
步骤(5)通过步骤(4)的结果,估计非合作目标的转动情况,具体步骤如下:
(5.1)在初始时刻,设定目标的本体系与相机坐标系平行(即目标的本体系的x、y、z轴分别与相机坐标系x、y、z轴平行),
(5.2)由初始时刻目标的部分特征点集{{cj0}∪{li0}},得到目标体上若干矢量的本体系投影r0k,即三维坐标列向量,k代表特征点集{{cj0}∪{li0}}中某一点k;
(5.3)当目标运动t时刻后,得到相机坐标系下此特征点集{{cj0}∪{li0}}在t时刻的坐标{{cjt}∪{lit}},而这些特征点得到的矢量在目标本体系中的投影仍为r0k,但在相机坐标系中的投影为rtk,两投影量的关系式如下:
rtk=R·r0k (9)
其中:
r0k表示目标体上矢量在目标本体坐标系上的投影,为常量;
rtk表示t时刻目标体上矢量在相机坐标系下的投影,k为特征点集{{cj}∪{li}}中的第k个点。
(5.4)对于每三个非线性相关矢量组成的矢量组,获得一个姿态矩阵Rs的解为:
Rs=[rt1 rt2 rt3]·[r01 r02 r03]-1 (10)
(5.5)对于若干组这样的矢量组,解得若干个姿态矩阵Rs,然后进一步采用优化方法优化,如遗传算法优化得到最优的姿态矩阵R的所有元素值的所有元素值;
(5.6)然后将步骤(5.5)得到的R代入式(9),应用式(9)对非合作目标上所有观测点估计其运动量,即能估计出非合作目标的转动情况。
双目视觉系统采用左右目光学相机,两相机主光轴平行,空间间隔一定距离安装,此距离范围需要根据具体相机指标计算得到,单个相机成像图像像元数长宽相等,帧率大于60FPS,成像传感器尺寸小于1”,镜头采用定焦镜头,焦段范围选取:6mm、8mm、12.5mm、16mm、25mm。
采用激光扫描仪与三轴转台组成激光扫描系统,三轴转台可以实现水平方向180°和垂直方向180°扫描,从而保证扫描点云为正方形网格,保证水平和垂直扫描分辨率相等且小于1°,激光扫描仪扫描频率小于25Hz。
一种基于多源信息融合的非合作目标相对导航运动估计系统,包括:建立模块、标定模块、第一补偿模块、第二补偿模块、转动情况估计模块;
建立模块,建立双目视觉相机与三维激光扫描仪的联合标定模型;
标定模块,采用双目视觉相机与三维激光扫描仪的联合标定模型,将激光扫描仪坐标系下的点集转换成相机坐标系下,构造两组点集匹配的误差函数,采用ICP算法优化两组点集匹配的误差函数,实现双目相机与三维激光扫描仪联合标定;
第一补偿模块,目标双目视觉相机拍摄非合作目标,在标定模块的双目视觉相机与三维激光扫描仪联合标定得到的最优的外参数下,获取目标双目视觉相机拍摄的图像坐标与激光扫描目标形成的点云在相机坐标系下坐标;采用插值法,完成目标双目视觉相机拍摄图像与激光扫描仪扫描点云的信息融合所需的深度补偿初值;
第二补偿模块,对第一补偿模块的深度补偿初值进一步采用插值法,完成视觉图像的像素点的深度补偿;
转动情况估计模块,通过第二补偿模块的结果,估计非合作目标的转动情况。
本发明与现有技术相比的优点在于:
(1)本发明激光扫描仪高精度的深度信息与视觉相机丰富的场景信息具有很强的互补性,将这两种传感器获得的数据进行融合将对非合作目标的相对导航具有很大的工程价值。
(2)本发明结合我国航天工程中非合作目标的近距相对导航这一迫切工程需求,给出了一种基于多源信息融合的非合作目标相对导航运动估计方法的方案流程,进一步给出了利用插值方法的视觉与激光的信息融合方法,最后根据融合的三维信息估计目标运动,重构目标的三维实体空间运动。
(3)本发明给出了一种基于多源信息融合的非合作目标相对导航运动估计方法,可用于非合作目标相对导航运动估计。本发明采用视觉与激光两套测量系统获取信息进行融合,弥补每个单独系统测量的不足,可以获取更精确与丰富的目标信息,进一步可以提高运动估计的准确度。
(4)该方法基于视觉摄像与三维激光扫描的信息融合,传统的激光扫描点云较稀疏、分辨率较低,但是每个点的位置精度高,而视觉测量的分辨率很高、像素点密集,但是每个点的深度方向精度差,本方法能够综合视觉成像与激光扫描的优点,提高目标特征点位置测量精度,弥补激光扫描点云稀疏的缺点。
(5)该方法提出了一种基于两次插值的特征点深度误差估计与补偿,首先基于插值方法获取补偿初值,然后再基于插值方法获取所有点的最终深度补偿,方法依据简单的代数运算,理论方法易于工程实现,能够完成视觉与激光测量的信息快速融合。
附图说明
图1为本方法的流程图;
图2本发明的相机图像像素点与激光点云重投影示意图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步详细描述。
本发明的基本思路为:一种基于多源信息融合的非合作目标相对导航运动估计方法及系统,首先给出视觉-激光测量系统的联合标定方法,获得两个传感器坐标系之间的相对位姿关系;进一步获取视觉摄像的图像信息与三维激光扫面的点云信息,通过插值方法进行图像信息与点云信息融合;最后通过特征点获取运动学参数进一步完成目标的三维运动估计。
双目视觉相机安装于安装台上,保证双目相机的空间位置姿态固定;激光扫描仪具有垂直两方向扫描能力,两个方向扫描角度中分线定为标称指向;根据相机的内参数确定满足精度的观测距离,即非合作目标的距离要求,同时保证双目视觉相机与激光扫描仪都对准目标,目标位于每个相机的视野中,同时激光扫描仪标称指向对准目标。
本发明给出了一种基于多源信息融合的非合作目标相对导航运动估计方法,可用于非合作目标相对导航运动估计。本发明采用视觉与激光两套测量系统获取信息进行融合,弥补每个单独系统测量的不足,可以获取更精确与丰富的目标信息,进一步可以提高运动估计的准确度。
一种基于多源信息融合的非合作目标相对导航运动估计方法,步骤如下:
(1)建立双目视觉-三维激光扫描测量系统的联合标定模型;在由双目相机和三维激光扫描仪组成的传感集成系统中,双目相机负责获取场景的二维图像信息,三维激光扫描仪负责获取三维场景的深度信息。由于二者在视场上重合,于是可以获得同一场景的图像和深度信息,从而为高精度三维重构奠定基础。
设定坐标系Oc-XcYcZc为相机坐标系,Ol-XlYlZl为激光扫描仪坐标系,有空间点P在Oc-XcYcZc与Ol-XlYlZl坐标系中坐标分别为(Xc Yc Zc)与(Xl Yl Zl),那么两坐标系的转换关系如下,此关系即可表示激光扫描仪与双目视觉系统的位置与姿态关系:
其中:
R为从激光扫描仪坐标系到相机坐标系的坐标变换矩阵;
T从从激光扫描仪坐标系到相机坐标系的的平移矢量。
(2)采用ICP算法实现双目相机-三维激光扫描仪联合标定。
首先选择不规则几何外形特征明显的物体作为标定物,这样有利于获得匹配特征点。在确定标定物方位后选择激光扫描区域边界角点作为特征点。
然后使用激光扫描仪扫描标定物,并确定激光扫描仪坐标系下特征点集Ml:(ml1ml2…mln)。同时使用预先单独完成标定的双目视觉系统采集标定物图像,对以上预先确定的特征点重构相机坐标系下的三维坐标,组成点集Mc′:(mc′1 mc′2…mc′n)。
之后,构造两组点集匹配的误差函数,通过使误差函数值最小寻找到最优的旋转矩阵R与平移矢量T。
误差函数如下:
其中:
mci为特征点i在相机坐标系下的坐标;
mli为特征点i在激光扫描仪坐标系下的坐标;
m'ci为mci变换到相机坐标系下的坐标;
R为从激光扫描仪坐标系到相机坐标系的坐标变换矩阵;
T从从激光扫描仪坐标系到相机坐标系的的平移矢量。
最后,采用ICP算法实现以上目标函数的优化,当目标函数值最小时,停止算法迭代,从而得到最优的R与T。
(3)采用插值法完成目标双目视觉相机拍摄图像与激光扫描仪扫描点云的信息融合。按照双目视觉成像的原理可以得到目标成像后所有图像像素点的三维空间坐标,这些点坐标以其中一相机坐标系为参考描述;同时,双目视觉-三维激光扫描测量系统经过联合标定后,可以较精确的将激光扫描点云通过转换关系式可以重投影到此相机坐标系中,相机图像像素点与激光点云重投影后示意如图1所示。由于相机成像与激光扫描的特点,所以激光扫描点云的分辨率比相机图像低,点云更加稀疏。
激光点云在图像系中重投影点l1必然位于相机成像的某四个图像点c1、c2、c3、c4中,如图2所示。重投影点坐标为l1:(xl1 yl1 zl1),由视觉图像恢复的图像点坐标为c1:(xc1yc1 zc1)、c2:(xc2 yc2 zc2)、c3:(xc3 yc3 zc3)、c4:(xc4 yc4 zc4)。
由于视觉成像在xy方向精度较好,而在深度z方向精度较差,那么采用线性插值方法,对图像所有像素点对应深度z方向坐标作为重构目标,通过x和y方向坐标建立插值权重。通过插值得到l1点的z坐标如下表达:
其中:
综上,由视觉成像的四个像素点插值得到了l1处的估计深度坐标通过与激光扫描点的重投影坐标进行比对,得到l1处的深度补偿量Δzl1:
首先基于插值方法获取补偿初值,然后再基于插值方法获取所有点的最终深度补偿,方法依据简单的代数运算,理论方法易于工程实现,能够完成视觉与激光测量的信息快速融合。
(4)进一步采用插值法完成视觉图像的像素点的深度补偿。按照步骤(3),可以对所有激光扫描点得到此位置由视觉像素点插值的深度补偿量,由此得到一组补偿坐标Δli:(xli yli Δzli),其中xli、yli表示位置信息,用于获得插值权重,Δzli为此位置补偿量,那么对任意四个激光扫描点l1~l4,如图2,对其内部的视觉图像点通过补偿坐标Δl1~Δl4插值进行补偿,依然采用式(3)、~(5)的插值方法,可以获得cj处补偿量如下:
其中:
那么,视觉图像的像素点cj对应的补偿后的深度信息即为:
至此,通过本方法获得一组融合后的目标特征点集:{{cj}∪{li}},其中所有像素点cj经过融合补偿后的对应的坐标为:
(5)通过若干特征点组估计目标转动情况。对于任一姿态旋转矩阵,可以表示一空间矢量在不同坐标系的变换关系,表达式如下:
rt=R·r0 (10)
R即表示了矢量由0坐标系变换到t坐标系的变换关系。
如果在初始时刻,设定目标的本体系即与相机坐标系是平行的,那么由此时刻目标的部分特征点集{{cj0}∪{li0}}可以得到目标体上若干矢量投影r0k,即在目标本体坐标系下描述目标上某特征点k的坐标。
当目标运动t时刻后,得到相机坐标系下此特征点集t时刻的坐标{{cjt}∪{lit}},那么由这些特征点得到的矢量在目标本体系中的投影仍为r0k,而在相机坐标系的投影为rtk。
其中:
r0k表示初始时刻目标体上矢量在相机坐标系下的投影,也表示t时刻在目标本体坐标系上的投影;
rtk表示t时刻目标体上矢量在相机坐标系下的投影。
那么,对于每三个非线性相关矢量可以获得一个姿态矩阵Rs的解为:
Rs=[rt1 rt2 rt3]·[r01 r02 r03]-1 (12)
对于若干组这样的矢量组,可以解得若干个姿态矩阵Rs,此处可进一步采用遗传算法优化得到最优的姿态矩阵然后应用式(11)可以对初始时刻观测到的目标上任一观测点估计其t时刻后的运动量。
本发明的一种基于多源信息融合的非合作目标相对导航运动估计系统,包括:建立模块、标定模块、第一补偿模块、第二补偿模块、转动情况估计模块;
建立模块,建立双目视觉相机与三维激光扫描仪的联合标定模型;
标定模块,采用双目视觉相机与三维激光扫描仪的联合标定模型,将激光扫描仪坐标系下的点集转换成相机坐标系下,构造两组点集匹配的误差函数,采用ICP算法优化两组点集匹配的误差函数,实现双目相机与三维激光扫描仪联合标定;
第一补偿模块,目标双目视觉相机拍摄非合作目标,在标定模块的双目视觉相机与三维激光扫描仪联合标定得到的最优的外参数下,获取目标双目视觉相机拍摄的图像坐标与激光扫描目标形成的点云在相机坐标系下坐标;采用插值法,完成目标双目视觉相机拍摄图像与激光扫描仪扫描点云的信息融合所需的深度补偿初值;
第二补偿模块,对第一补偿模块的深度补偿初值进一步采用插值法,完成视觉图像的像素点的深度补偿;
转动情况估计模块,通过第二补偿模块的结果,估计非合作目标的转动情况。
建立模块,建立双目视觉-三维激光扫描测量系统的联合标定模型,具体步骤如下:
(1.1)设定坐标系Oc-XcYcZc为相机坐标系,Ol-XlYlZl为激光扫描仪坐标系,有空间点P在Oc-XcYcZc与Ol-XlYlZl坐标系中坐标分别为(Xc Yc Zc)与(Xl Yl Zl);
(1.2)建立双目视觉-三维激光扫描测量系统的联合标定模型,即双目视觉坐标系(即相机坐标系)和激光扫描仪坐标系的转换关系如下:
其中:R为从激光扫描仪坐标系到相机坐标系的坐标变换矩阵;T从从激光扫描仪坐标系到相机坐标系的的平移矢量。
标定模块,采用双目视觉-三维激光扫描测量系统的联合标定模型,将激光扫描仪坐标系下的点集转换成相机坐标系下,构造两组点集匹配的误差函数,采用ICP算法优化两组点集匹配的误差函数,实现双目相机-三维激光扫描仪联合标定,具体步骤如下:
(2.1)选择不规则几何外形、特征明显的物体作为标定物,选择标定物边界角点作为特征点,使用激光扫描仪扫描标定物获取特征点的点云,组成激光扫描仪坐标系下特征点集Ml:(ml1 ml2 … mln);
(2.2)采用双目视觉-三维激光扫描测量系统的联合标定模型,将特征点集Ml:(ml1ml2 … mln)变换成相机坐标系下的特征点集M′c:(m′c1 m′c2…m′cn)。
(2.3)使用双目视觉系统的左右相机对标定物拍照,采集左右目两幅图像,基于图像重构特征点集中的所有特征点在相机坐标系下的三维坐标,组成相机坐标系下的特征点集Mc:(mc1 mc2 … mcn),构造两组特征点集匹配的误差函数如下:
其中:A表示最优化目标函数值;
mci为特征点i在相机坐标系下的坐标;i=1,2,…n
mli为特征点i在激光扫描仪坐标系下的坐标;
m'ci为mci变换到相机坐标系下的坐标;
R为从激光扫描仪坐标系到相机坐标系的坐标变换矩阵;
T从从激光扫描仪坐标系到相机坐标系的的平移矢量。
(2.4)采用ICP算法,实现以上目标函数即两组点集匹配的误差函数的优化,当目标函数值最小时,停止ICP算法迭代,从而得到最优的外参数R与T,其中R为相机坐标系与激光扫描仪坐标系的转动关系,T为相机坐标系与激光扫描仪坐标系的位置关系,实现双目相机-三维激光扫描仪联合标定。
第一补偿模块,控制目标双目视觉相机拍摄非合作目标,在最优的外参数R与T下,获取目标双目视觉相机拍摄的图像坐标与激光扫描目标形成的点云;采用插值法,完成目标双目视觉相机拍摄图像与激光扫描仪扫描点云的信息融合所需的深度补偿初值,具体步骤如下:。
(3.1)目标双目视觉相机拍摄非合作目标,在图像平面建立二维笛卡尔坐标系,激光点云重投影在图像系中形成的重投影点l1必然位于相机成像的某四个像素点c1、c2、c3、c4中,重投影点l1坐标为l1:(xl1 yl1 zl1);
(3.2)将双目视觉相机拍摄的非合作目标的两幅图像按照双目视觉系统数学模型恢复得到的像素点在相机坐标系的坐标为c1:(xc1 yc1 zc1)、c2:(xc2 yc2 zc2)、c3:(xc3 yc3zc3)、c4:(xc4 yc4 zc4);
(3.3)采用线性插值方法,对四个像素点c1、c2、c3、c4对应深度z方向坐标插值得到l1点的z坐标,如下表达:
其中:
(3.4)根据视觉成像的四个像素点c1、c2、c3、c4插值得到的l1处的估计深度坐标通过与激光扫描点的重投影坐标l1:(xl1 yl1 zl1)中的zl1进行比对,得到l1处的深度补偿量Δzl1,即目标双目视觉相机拍摄图像与激光扫描仪扫描点云的信息融合所需的深度补偿初值:
第二补偿模块,对深度补偿初值进一步采用插值法,完成视觉图像的像素点的深度补偿,具体步骤如下:
(4.1)采用第一补偿模块的方法,获取所有激光扫描点li由视觉图像恢复点坐标插值得到的深度补偿初值,由此组成一组补偿坐标Δli:(xli yli Δzli)。
(4.2)对任意像素点外部的四个激光扫描点l1-l4内部的视觉像素点cj通过插值方法获得cj处补偿量如下:
其中:
(4.3)视觉图像的像素点cj对应的补偿后的深度信息即为:
其中,zcj为像素点cj在图像系下的深度坐标;
(4.4)获得一组融合后的目标特征点集:{{cj}∪{li}},其中所有像素点cj经过融合补偿后的对应的坐标为:m为大于等于4的正整数;从而完成视觉图像的像素点的深度补偿。
转动情况估计模块,通过第二补偿模块的结果,估计非合作目标的转动情况,具体步骤如下:
(5.1)在初始时刻,设定目标的本体系与相机坐标系平行(即目标的本体系的x、y、z轴分别与相机坐标系x、y、z轴平行),
(5.2)由初始时刻目标的部分特征点集{{cj0}∪{li0}},得到目标体上若干矢量的本体系投影r0k,即三维坐标列向量,k代表特征点集{{cj0}∪{li0}}中某一点k;
(5.3)当目标运动t时刻后,得到相机坐标系下此特征点集{{cj0}∪{li0}}在t时刻的坐标{{cjt}∪{lit}},而这些特征点得到的矢量在目标本体系中的投影仍为r0k,但在相机坐标系中的投影为rtk,两投影量的关系式如下:
rtk=R·r0k (9)
其中:
r0k表示目标体上矢量在目标本体坐标系上的投影,为常量;
rtk表示t时刻目标体上矢量在相机坐标系下的投影,k为特征点集{{cj}∪{li}}中的第k个点。
(5.4)对于每三个非线性相关矢量组成的矢量组,获得一个姿态矩阵Rs的解为:
Rs=[rt1 rt2 rt3]·[r01 r02 r03]-1 (10)
(5.5)对于若干组这样的矢量组,解得若干个姿态矩阵Rs,然后进一步采用优化方法优化,如遗传算法优化得到最优的姿态矩阵R的所有元素值的所有元素值;
(5.6)然后将步骤(5.5)得到的R代入式(9),应用式(9)对非合作目标上所有观测点估计其运动量,即能估计出非合作目标的转动情况。
双目视觉系统采用左右目光学相机,两相机主光轴平行,空间间隔一定距离安装,此距离范围需要根据具体相机指标计算得到,单个相机成像图像像元数长宽相等,帧率大于60FPS,成像传感器尺寸小于1”,镜头采用定焦镜头,焦段范围优选选取:6mm、8mm、12.5mm、16mm、25mm。
本发明激光扫描仪高精度的深度信息与视觉相机丰富的场景信息具有很强的互补性,将这两种传感器获得的数据进行融合将对非合作目标的相对导航具有很大的工程价值,
结合我国航天工程中非合作目标的近距相对导航这一迫切工程需求,给出了一种基于多源信息融合的非合作目标相对导航运动估计方法的方案流程,进一步给出了利用插值方法的视觉与激光的信息融合方法,最后根据融合的三维信息估计目标运动,重构目标的三维实体空间运动。
本发明的系统和方法基于视觉摄像与三维激光扫描的信息融合,能够综合视觉成像与激光扫描的优点,提高目标特征点位置测量精度,弥补激光扫描点云稀疏的缺点。
Claims (10)
1.一种基于多源信息融合的非合作目标相对导航运动估计方法,其特征在于步骤如下:
(1)建立双目视觉相机与三维激光扫描仪的联合标定模型;
(2)采用双目视觉相机与三维激光扫描仪的联合标定模型,将激光扫描仪坐标系下的点集转换成相机坐标系下,构造两组点集匹配的误差函数,采用ICP算法优化两组点集匹配的误差函数,实现双目相机与三维激光扫描仪联合标定;
(3)目标双目视觉相机拍摄非合作目标,在步骤(2)双目视觉相机与三维激光扫描仪联合标定得到的最优的外参数下,获取目标双目视觉相机拍摄的图像坐标与激光扫描目标形成的点云在相机坐标系下坐标;采用插值法,完成目标双目视觉相机拍摄图像与激光扫描仪扫描点云的信息融合所需的深度补偿初值;
(4)对步骤(3)的深度补偿初值进一步采用插值法,完成视觉图像的像素点的深度补偿;
(5)通过步骤(4)的结果,估计非合作目标的转动情况。
2.根据权利要求1所述的一种基于多源信息融合的非合作目标相对导航运动估计方法,其特征在于步骤(1)建立双目视觉-三维激光扫描测量系统的联合标定模型,具体步骤如下:
(1.1)设定坐标系Oc-XcYcZc为相机坐标系,Ol-XlYlZl为激光扫描仪坐标系,有空间点P在Oc-XcYcZc与Ol-XlYlZl坐标系中坐标分别为(Xc Yc Zc)与(Xl Yl Zl);
(1.2)建立双目视觉-三维激光扫描测量系统的联合标定模型,即双目视觉坐标系和激光扫描仪坐标系的转换关系如下:
其中:R为从激光扫描仪坐标系到相机坐标系的坐标变换矩阵;T从从激光扫描仪坐标系到相机坐标系的的平移矢量。
3.根据权利要求1所述的一种基于多源信息融合的非合作目标相对导航运动估计方法,其特征在于步骤(2)采用双目视觉-三维激光扫描测量系统的联合标定模型,将激光扫描仪坐标系下的点集转换成相机坐标系下,构造两组点集匹配的误差函数,采用ICP算法优化两组点集匹配的误差函数,实现双目相机-三维激光扫描仪联合标定,具体步骤如下:
(2.1)选择不规则几何外形、特征明显的物体作为标定物,选择标定物边界角点作为特征点,使用激光扫描仪扫描标定物获取特征点的点云,组成激光扫描仪坐标系下特征点集Ml:(ml1 ml2 … mln);
(2.2)采用双目视觉-三维激光扫描测量系统的联合标定模型,将特征点集Ml:(ml1 ml2… mln)变换成相机坐标系下的特征点集M′c:(m′c1 m′c2 … m′cn);
(2.3)使用双目视觉相机对标定物拍照采集左右目两幅图像,基于图像重构特征点集中的所有特征点在相机坐标系下的三维坐标,组成相机坐标系下的特征点集Mc:(mc1 mc2 …mcn),构造两组特征点集匹配的误差函数如下:
其中:A表示最优化目标函数值;
mci为特征点i在相机坐标系下的坐标,i=1,2,…n;
mli为特征点i在激光扫描仪坐标系下的坐标;
m'ci为mci变换到相机坐标系下的坐标;
R为从激光扫描仪坐标系到相机坐标系的坐标变换矩阵;
T从从激光扫描仪坐标系到相机坐标系的的平移矢量;
(2.4)采用ICP算法,实现以上目标函数即两组点集匹配的误差函数的优化,当目标函数值最小时,停止ICP算法迭代,从而得到最优的外参数R与T,实现双目相机-三维激光扫描仪联合标定。
4.根据权利要求1所述的一种基于多源信息融合的非合作目标相对导航运动估计方法,其特征在于:步骤(3)目标双目视觉相机拍摄非合作目标,在最优的外参数R与T下,获取目标双目视觉相机拍摄的图像坐标与激光扫描目标形成的点云;采用插值法,完成目标双目视觉相机拍摄图像与激光扫描仪扫描点云的信息融合所需的深度补偿初值,具体步骤如下:
(3.1)目标双目视觉相机拍摄非合作目标,激光点云重投影在图像系中形成的重投影点l1必然位于相机成像的某四个像素点c1、c2、c3、c4中,重投影点l1在相机坐标系中的坐标为l1:(xl1 yl1 zl1);
(3.2)将双目视觉相机拍摄的非合作目标的两幅图像恢复得到的像素点在相机坐标系的坐标为c1:(xc1 yc1 zc1)、c2:(xc2 yc2 zc2)、c3:(xc3 yc3 zc3)、c4:(xc4 yc4 zc4);
(3.3)采用线性插值方法,对四个像素点c1、c2、c3、c4对应深度z方向坐标插值得到l1点的z坐标,如下表达:
其中:
(3.4)根据视觉成像的四个像素点c1、c2、c3、c4插值得到的l1处的估计深度坐标通过与激光扫描点的重投影坐标l1:(xl1 yl1 zl1)中的zl1进行比对,得到l1处的深度补偿量Δzl1,即目标双目视觉相机拍摄图像与激光扫描仪扫描点云的信息融合所需的深度补偿初值:
5.根据权利要求1所述的一种基于多源信息融合的非合作目标相对导航运动估计方法,其特征在于:步骤(4)对深度补偿初值进一步采用插值法,完成视觉图像的像素点的深度补偿,具体步骤如下:
(4.1)采用步骤(3)的方法,获取所有激光扫描点li由视觉像素点插值得到的深度补偿初值,由此组成一组补偿坐标Δli:(xli yli Δzli);
(4.2)对任意像素点外部的四个激光扫描点l1ˉl4内部的视觉像素点cj通过插值方法获得cj处补偿量如下:
其中:
(4.3)视觉图像的像素点cj对应的补偿后的深度信息即为:
其中,zcj为像素点cj在图像系下的深度坐标;
(4.4)获得一组融合后的目标特征点集:{{cj}∪{li}},其中所有像素点cj经过融合补偿后的对应的坐标为:j=1,2…m,m为大于等于4的正整数;从而完成视觉图像的像素点的深度补偿。
6.根据权利要求1所述的一种基于多源信息融合的非合作目标相对导航运动估计方法,其特征在于:步骤(5)通过步骤(4)的结果,估计非合作目标的转动情况,具体步骤如下:
(5.1)在初始时刻,设定目标的本体系与相机坐标系平行(即目标的本体系的x、y、z轴分别与相机坐标系x、y、z轴平行);
(5.2)由初始时刻目标的部分特征点集{{cj0}∪{li0}},得到目标体上若干矢量的本体系投影r0k;
(5.3)当目标运动t时刻后,得到相机坐标系下此特征点集{{cj0}∪{li0}}在t时刻的坐标{{cjt}∪{lit}},由这些特征点得到的矢量在目标本体系中的投影仍为r0k,而在相机坐标系中的投影为rtk,公式如下:
其中:
r0k表示目标体上矢量在目标本体坐标系上的投影,为常量;
rtk表示t时刻目标体上矢量在相机坐标系下的投影,k为特征点集{{cj}∪{li}}中的第k个点;
(5.4)对于每三个非线性相关矢量组成的矢量组,获得一个姿态矩阵Rs的解为:
Rs=[rt1 rt2 rt3]·[r01 r02 r03]-1 (10)
(5.5)对于若干组这样的矢量组,解得若干个姿态矩阵Rs,然后进一步采用优化方法优化得到最优的姿态矩阵
(5.6)然后将步骤(5.5)得到的R代入式(9),应用式(9)对非合作目标上所有观测点估计其运动量,即能估计出非合作目标的转动情况。
7.根据权利要求1所述的一种基于多源信息融合的非合作目标相对导航运动估计方法,其特征在于:双目视觉系统采用左右目光学相机,两相机主光轴平行,空间间隔一定距离安装,此距离范围需要根据具体相机指标计算得到。
8.根据权利要求1所述的一种基于多源信息融合的非合作目标相对导航运动估计方法,其特征在于:双目视觉系统采用左右目光学相机,单个相机成像图像像元数长宽相等,帧率大于60FPS,成像传感器尺寸小于1”,镜头采用定焦镜头,焦段范围选取:6mm、8mm、12.5mm、16mm、25mm。
9.根据权利要求1所述的一种基于多源信息融合的非合作目标相对导航运动估计方法,其特征在于:采用激光扫描仪与三轴转台组成激光扫描系统,三轴转台可以实现水平方向180°和垂直方向180°扫描,从而保证扫描点云为正方形网格,保证水平和垂直扫描分辨率相等且小于1°,激光扫描仪扫描频率小于25Hz。
10.一种基于多源信息融合的非合作目标相对导航运动估计系统,其特征在于包括:建立模块、标定模块、第一补偿模块、第二补偿模块、转动情况估计模块;
建立模块,建立双目视觉相机与三维激光扫描仪的联合标定模型;
标定模块,采用双目视觉相机与三维激光扫描仪的联合标定模型,将激光扫描仪坐标系下的点集转换成相机坐标系下,构造两组点集匹配的误差函数,采用ICP算法优化两组点集匹配的误差函数,实现双目相机与三维激光扫描仪联合标定;
第一补偿模块,控制目标双目视觉相机拍摄非合作目标,在标定模块的双目视觉相机与三维激光扫描仪联合标定得到的最优的外参数下,获取目标双目视觉相机拍摄的图像坐标与激光扫描目标形成的点云在相机坐标系下坐标;采用插值法,完成目标双目视觉相机拍摄图像与激光扫描仪扫描点云的信息融合所需的深度补偿初值;
第二补偿模块,对第一补偿模块的深度补偿初值进一步采用插值法,完成视觉图像的像素点的深度补偿;
转动情况估计模块,通过第二补偿模块的结果,估计非合作目标的转动情况。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810401074.4A CN108489496B (zh) | 2018-04-28 | 2018-04-28 | 基于多源信息融合的非合作目标相对导航运动估计方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810401074.4A CN108489496B (zh) | 2018-04-28 | 2018-04-28 | 基于多源信息融合的非合作目标相对导航运动估计方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108489496A true CN108489496A (zh) | 2018-09-04 |
CN108489496B CN108489496B (zh) | 2021-02-05 |
Family
ID=63313495
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810401074.4A Active CN108489496B (zh) | 2018-04-28 | 2018-04-28 | 基于多源信息融合的非合作目标相对导航运动估计方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108489496B (zh) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109211223A (zh) * | 2018-09-30 | 2019-01-15 | 北京控制工程研究所 | 一种集成化接近测量敏感器及系统 |
CN109360228A (zh) * | 2018-10-18 | 2019-02-19 | 清华大学苏州汽车研究院(吴江) | 单目摄像头与毫米波雷达间的位姿配准方法 |
CN109541632A (zh) * | 2018-09-30 | 2019-03-29 | 天津大学 | 一种基于四线激光雷达辅助的目标检测漏检改进方法 |
CN110132272A (zh) * | 2019-06-20 | 2019-08-16 | 河北工业大学 | 一种用于空间碎片运动参数的测量方法及系统 |
CN110243380A (zh) * | 2019-06-26 | 2019-09-17 | 华中科技大学 | 一种基于多传感器数据与角度特征识别的地图匹配方法 |
CN110824576A (zh) * | 2019-11-14 | 2020-02-21 | 山东大学 | 浅层空腔类灾害源精细化探测成像装置与方法 |
CN111562624A (zh) * | 2019-02-28 | 2020-08-21 | 杭州芯影科技有限公司 | 适用于非合作对象的毫米波三维成像方法和系统 |
CN111709989A (zh) * | 2020-05-11 | 2020-09-25 | 哈尔滨工业大学 | 一种基于多源特征数据控制的双向闭合模式的立体视觉全场测量方法 |
CN111768448A (zh) * | 2019-03-30 | 2020-10-13 | 北京伟景智能科技有限公司 | 一种基于多相机检测的空间坐标系标定方法 |
CN111950524A (zh) * | 2020-08-28 | 2020-11-17 | 广东省现代农业装备研究所 | 一种基于双目视觉和rtk的果园局部稀疏建图方法和系统 |
CN112102387A (zh) * | 2020-08-14 | 2020-12-18 | 上海西虹桥导航技术有限公司 | 一种基于深度相机深度估计性能的测试方法与测试系统 |
CN112233148A (zh) * | 2020-09-14 | 2021-01-15 | 浙江大华技术股份有限公司 | 目标运动的估计方法、设备及计算机存储介质 |
CN112233097A (zh) * | 2020-10-19 | 2021-01-15 | 中国科学技术大学 | 基于空时域多维融合的道路场景他车检测系统和方法 |
CN112766328A (zh) * | 2020-01-05 | 2021-05-07 | 北京航空航天大学 | 融合激光雷达、双目相机和ToF深度相机数据的智能机器人深度图像构建方法 |
CN112833784A (zh) * | 2021-01-04 | 2021-05-25 | 中铁四局集团有限公司 | 一种单目相机结合激光扫描的钢轨定位方法 |
CN113587904A (zh) * | 2021-07-29 | 2021-11-02 | 中国科学院西安光学精密机械研究所 | 一种融合机器视觉和激光参照点信息的目标位姿测量方法 |
WO2022078442A1 (zh) * | 2020-10-15 | 2022-04-21 | 左忠斌 | 一种基于光扫描和智能视觉融合的3d信息采集方法 |
CN114964266A (zh) * | 2022-07-26 | 2022-08-30 | 中国人民解放军国防科技大学 | 基于多视觉矢量的运动状态协同群组相对姿态确定方法 |
CN115127493A (zh) * | 2022-09-01 | 2022-09-30 | 广东三姆森科技股份有限公司 | 一种用于产品测量的坐标标定方法及装置 |
CN115218804A (zh) * | 2022-07-13 | 2022-10-21 | 长春理工大学中山研究院 | 一种大型构件多源系统融合测量方法 |
CN116793257A (zh) * | 2023-08-28 | 2023-09-22 | 成都量芯集成科技有限公司 | 一种三维测量系统和方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101033972A (zh) * | 2007-02-06 | 2007-09-12 | 华中科技大学 | 一种空间非合作物体三维信息的获取方法 |
CN101453647A (zh) * | 2007-12-04 | 2009-06-10 | 华为技术有限公司 | 插值系数的编/解码方法及装置 |
CN101882313A (zh) * | 2010-07-14 | 2010-11-10 | 中国人民解放军国防科学技术大学 | 单线激光雷达与ccd相机之间相互关系的标定方法 |
CN102914262A (zh) * | 2012-09-29 | 2013-02-06 | 北京控制工程研究所 | 一种基于附加视距的非合作目标贴近测量方法 |
CN104296753A (zh) * | 2014-09-26 | 2015-01-21 | 北京控制工程研究所 | 一种基于多模型滤波的空间目标定位方法 |
CN105157604A (zh) * | 2015-08-07 | 2015-12-16 | 天津大学 | 外场多束线结构光视觉测量系统的快速标定方法 |
CN106441311A (zh) * | 2016-07-15 | 2017-02-22 | 上海宇航系统工程研究所 | 一种基于激光成像雷达的非合作航天器相对位姿测量方法 |
CN106780588A (zh) * | 2016-12-09 | 2017-05-31 | 浙江大学 | 一种基于稀疏激光观测的图像深度估计方法 |
CN107301654A (zh) * | 2017-06-12 | 2017-10-27 | 西北工业大学 | 一种多传感器的高精度即时定位与建图方法 |
CN107610084A (zh) * | 2017-09-30 | 2018-01-19 | 驭势科技(北京)有限公司 | 一种对深度图像和激光点云图进行信息融合的方法与设备 |
-
2018
- 2018-04-28 CN CN201810401074.4A patent/CN108489496B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101033972A (zh) * | 2007-02-06 | 2007-09-12 | 华中科技大学 | 一种空间非合作物体三维信息的获取方法 |
CN101453647A (zh) * | 2007-12-04 | 2009-06-10 | 华为技术有限公司 | 插值系数的编/解码方法及装置 |
CN101882313A (zh) * | 2010-07-14 | 2010-11-10 | 中国人民解放军国防科学技术大学 | 单线激光雷达与ccd相机之间相互关系的标定方法 |
CN102914262A (zh) * | 2012-09-29 | 2013-02-06 | 北京控制工程研究所 | 一种基于附加视距的非合作目标贴近测量方法 |
CN104296753A (zh) * | 2014-09-26 | 2015-01-21 | 北京控制工程研究所 | 一种基于多模型滤波的空间目标定位方法 |
CN105157604A (zh) * | 2015-08-07 | 2015-12-16 | 天津大学 | 外场多束线结构光视觉测量系统的快速标定方法 |
CN106441311A (zh) * | 2016-07-15 | 2017-02-22 | 上海宇航系统工程研究所 | 一种基于激光成像雷达的非合作航天器相对位姿测量方法 |
CN106780588A (zh) * | 2016-12-09 | 2017-05-31 | 浙江大学 | 一种基于稀疏激光观测的图像深度估计方法 |
CN107301654A (zh) * | 2017-06-12 | 2017-10-27 | 西北工业大学 | 一种多传感器的高精度即时定位与建图方法 |
CN107610084A (zh) * | 2017-09-30 | 2018-01-19 | 驭势科技(北京)有限公司 | 一种对深度图像和激光点云图进行信息融合的方法与设备 |
Non-Patent Citations (6)
Title |
---|
FEIWANG等: "An Accurate Non-Cooperative Method for", 《SENSORS》 * |
仇越等: "航天器非合作目标相对导航的联邦滤波算法研究", 《宇航学报》 * |
刘晓丽等: "一种非合作目标矩形面判定和顶点提取方法", 《合肥工业大学学报(自然科学版)》 * |
吴云等: "二维三维信息融合的空间非合作目标姿态求解方法", 《空间控制技术与应用》 * |
徐培智: "《基于视觉和激光的空间非合作目标相对位姿测量技术研究》", 《中国硕士学位论文全文数据库 工程科技Ⅱ辑》 * |
郑帅超等: "单目视觉-激光测距定位系统的标定与姿态校正", 《机械科学与技术》 * |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109541632A (zh) * | 2018-09-30 | 2019-03-29 | 天津大学 | 一种基于四线激光雷达辅助的目标检测漏检改进方法 |
CN109541632B (zh) * | 2018-09-30 | 2022-06-03 | 天津大学 | 一种基于四线激光雷达辅助的目标检测漏检改进方法 |
CN109211223A (zh) * | 2018-09-30 | 2019-01-15 | 北京控制工程研究所 | 一种集成化接近测量敏感器及系统 |
CN109360228A (zh) * | 2018-10-18 | 2019-02-19 | 清华大学苏州汽车研究院(吴江) | 单目摄像头与毫米波雷达间的位姿配准方法 |
CN111562624B (zh) * | 2019-02-28 | 2024-04-26 | 杭州芯影科技有限公司 | 适用于非合作对象的毫米波三维成像方法和系统 |
CN111562624A (zh) * | 2019-02-28 | 2020-08-21 | 杭州芯影科技有限公司 | 适用于非合作对象的毫米波三维成像方法和系统 |
CN111768448A (zh) * | 2019-03-30 | 2020-10-13 | 北京伟景智能科技有限公司 | 一种基于多相机检测的空间坐标系标定方法 |
CN110132272A (zh) * | 2019-06-20 | 2019-08-16 | 河北工业大学 | 一种用于空间碎片运动参数的测量方法及系统 |
CN110243380B (zh) * | 2019-06-26 | 2020-11-24 | 华中科技大学 | 一种基于多传感器数据与角度特征识别的地图匹配方法 |
CN110243380A (zh) * | 2019-06-26 | 2019-09-17 | 华中科技大学 | 一种基于多传感器数据与角度特征识别的地图匹配方法 |
CN110824576B (zh) * | 2019-11-14 | 2021-07-27 | 山东大学 | 浅层空腔类灾害源精细化探测成像装置与方法 |
CN110824576A (zh) * | 2019-11-14 | 2020-02-21 | 山东大学 | 浅层空腔类灾害源精细化探测成像装置与方法 |
CN112766328A (zh) * | 2020-01-05 | 2021-05-07 | 北京航空航天大学 | 融合激光雷达、双目相机和ToF深度相机数据的智能机器人深度图像构建方法 |
CN112766328B (zh) * | 2020-01-05 | 2022-08-12 | 北京航空航天大学 | 融合激光雷达、双目相机和ToF深度相机数据的智能机器人深度图像构建方法 |
CN111709989A (zh) * | 2020-05-11 | 2020-09-25 | 哈尔滨工业大学 | 一种基于多源特征数据控制的双向闭合模式的立体视觉全场测量方法 |
CN111709989B (zh) * | 2020-05-11 | 2023-04-18 | 哈尔滨工业大学 | 一种基于多源特征数据控制的双向闭合模式的立体视觉全场测量方法 |
CN112102387B (zh) * | 2020-08-14 | 2024-01-26 | 上海西虹桥导航技术有限公司 | 一种基于深度相机深度估计性能的测试方法与测试系统 |
CN112102387A (zh) * | 2020-08-14 | 2020-12-18 | 上海西虹桥导航技术有限公司 | 一种基于深度相机深度估计性能的测试方法与测试系统 |
CN111950524A (zh) * | 2020-08-28 | 2020-11-17 | 广东省现代农业装备研究所 | 一种基于双目视觉和rtk的果园局部稀疏建图方法和系统 |
CN111950524B (zh) * | 2020-08-28 | 2024-03-29 | 广东省现代农业装备研究所 | 一种基于双目视觉和rtk的果园局部稀疏建图方法和系统 |
CN112233148A (zh) * | 2020-09-14 | 2021-01-15 | 浙江大华技术股份有限公司 | 目标运动的估计方法、设备及计算机存储介质 |
WO2022078442A1 (zh) * | 2020-10-15 | 2022-04-21 | 左忠斌 | 一种基于光扫描和智能视觉融合的3d信息采集方法 |
CN112233097A (zh) * | 2020-10-19 | 2021-01-15 | 中国科学技术大学 | 基于空时域多维融合的道路场景他车检测系统和方法 |
CN112233097B (zh) * | 2020-10-19 | 2022-10-28 | 中国科学技术大学 | 基于空时域多维融合的道路场景他车检测系统和方法 |
CN112833784B (zh) * | 2021-01-04 | 2022-02-25 | 中铁四局集团有限公司 | 一种单目相机结合激光扫描的钢轨定位方法 |
CN112833784A (zh) * | 2021-01-04 | 2021-05-25 | 中铁四局集团有限公司 | 一种单目相机结合激光扫描的钢轨定位方法 |
CN113587904B (zh) * | 2021-07-29 | 2022-05-20 | 中国科学院西安光学精密机械研究所 | 一种融合机器视觉和激光参照点信息的目标位姿测量方法 |
CN113587904A (zh) * | 2021-07-29 | 2021-11-02 | 中国科学院西安光学精密机械研究所 | 一种融合机器视觉和激光参照点信息的目标位姿测量方法 |
CN115218804A (zh) * | 2022-07-13 | 2022-10-21 | 长春理工大学中山研究院 | 一种大型构件多源系统融合测量方法 |
CN114964266A (zh) * | 2022-07-26 | 2022-08-30 | 中国人民解放军国防科技大学 | 基于多视觉矢量的运动状态协同群组相对姿态确定方法 |
CN115127493A (zh) * | 2022-09-01 | 2022-09-30 | 广东三姆森科技股份有限公司 | 一种用于产品测量的坐标标定方法及装置 |
CN116793257B (zh) * | 2023-08-28 | 2023-10-27 | 成都量芯集成科技有限公司 | 一种三维测量系统和方法 |
CN116793257A (zh) * | 2023-08-28 | 2023-09-22 | 成都量芯集成科技有限公司 | 一种三维测量系统和方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108489496B (zh) | 2021-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108489496A (zh) | 基于多源信息融合的非合作目标相对导航运动估计方法及系统 | |
CN107389026B (zh) | 一种基于固定点射影变换的单目视觉测距方法 | |
CN111045017B (zh) | 一种激光和视觉融合的巡检机器人变电站地图构建方法 | |
CN106327573B (zh) | 一种针对城市建筑的实景三维建模方法 | |
CN105157566B (zh) | 三维立体彩色点云扫描的方法 | |
CN101692283B (zh) | 无人旋翼机仿生着陆系统的摄像机外参数在线自标定方法 | |
CN105243637B (zh) | 一种基于三维激光点云进行全景影像拼接方法 | |
CN110033480B (zh) | 基于航摄测量的机载光电系统目标运动矢量估计方法 | |
Xie et al. | Study on construction of 3D building based on UAV images | |
CN105928498A (zh) | 通过基于模板的uav控制来确定对象数据 | |
CN109544679A (zh) | 管道内壁的三维重建方法 | |
CN106871787A (zh) | 大空间线扫描成像三维测量方法 | |
CN103411587B (zh) | 定位定姿方法及系统 | |
CN106705962B (zh) | 一种获取导航数据的方法及系统 | |
CN110378969A (zh) | 一种基于3d几何约束的汇聚式双目相机标定方法 | |
CN111091076B (zh) | 基于立体视觉的隧道限界数据测量方法 | |
CN105136108A (zh) | 一种基于立体视觉高精度波浪浪高测量方法 | |
CN112461204B (zh) | 卫星对动态飞行目标多视角成像联合计算航行高度的方法 | |
CN102519434A (zh) | 一种用于立体视觉三维恢复数据精度测量的试验验证方法 | |
CN108629829A (zh) | 一种球幕相机与深度相机结合的三维建模方法和系统 | |
CN111402315B (zh) | 一种自适应调整双目摄像机基线的三维距离测量方法 | |
CN105115560A (zh) | 一种船舱舱容的非接触测量方法 | |
CN108010125A (zh) | 基于线结构光和图像信息的真实尺度三维重建系统及方法 | |
CN113240749B (zh) | 一种面向海上舰船平台无人机回收的远距离双目标定与测距方法 | |
CN110986888A (zh) | 一种航空摄影一体化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |