CN109724586B - 一种融合深度图和点云的航天器相对位姿测量方法 - Google Patents

一种融合深度图和点云的航天器相对位姿测量方法 Download PDF

Info

Publication number
CN109724586B
CN109724586B CN201810953205.XA CN201810953205A CN109724586B CN 109724586 B CN109724586 B CN 109724586B CN 201810953205 A CN201810953205 A CN 201810953205A CN 109724586 B CN109724586 B CN 109724586B
Authority
CN
China
Prior art keywords
frame
point cloud
vector
point
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810953205.XA
Other languages
English (en)
Other versions
CN109724586A (zh
Inventor
徐嗣雄
赵高鹏
薄煜明
王超尘
范伟杰
韦雷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN201810953205.XA priority Critical patent/CN109724586B/zh
Publication of CN109724586A publication Critical patent/CN109724586A/zh
Application granted granted Critical
Publication of CN109724586B publication Critical patent/CN109724586B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供一种融合深度图和点云的航天器相对位姿测量方法,本发明针对具有轴对称几何特性的目标航天器,利用深度传感器获得的深度图计算相邻帧的视线方向的角偏差,克服了因帧间差距较大而可能造成的滚转角计算错误等问题,并利用此偏差和上一帧的位姿测量结果进行点云配准,计算得到6自由度的相对位姿值,提高了位姿测量的精度。

Description

一种融合深度图和点云的航天器相对位姿测量方法
技术领域
本发明属于空间导航技术领域,具体涉及一种融合深度图和点云的航天器相对位姿测量方法。
背景技术
近年来,随着人类对外太空的不断深入,故障卫星的修理、空间碎片的清理等航天任务的不断开展,航天器相对位姿测量技术的重要性显得越来越明显。
通常采用的测量传感器包括雷达、卫星定位、单目视觉、双目视觉、扫描式激光雷达等。基于视觉的位姿测量技术具有构造简单、性能稳定、可靠性高等优点,一直是近距离阶段实现相对位姿测量的主要手段。双目视觉在相机参数一定的情况下,需要有适当的基线,才能获取高精度的深度信息。由于双目视觉匹配算法复杂,通常采用特征提取的方法,仅获取相应特征点的深度信息,这种方法得到的是稀疏点云,且深度精度与特征匹配的精度关系较大。扫描式激光雷达具有测量范围远、精度高、可靠性强等优点,但其质量大、功耗高、有运动部件,需要逐行扫描或按照特定方式的扫描测量来获取场景的深度数据。非扫描式激光成像雷达在无需扫描的情况下可以获得整个场景的密集点云、深度图和强度图数据,具有对背景杂散光的抑制能力强、探测距离远、且不存在运动模糊、帧率高等优点,可以满足实时测量。
发明内容
本发明的目的在于提出一种融合深度图和点云的航天器相对位姿测量方法。
发明内容:通过二维深度图直线特征的检测辅助三维点云配准,提出了一种实时高精度的相对位姿测量方法。首先,对深度传感器获得的深度图进行直线边框检测;然后对相邻帧最长的边框进行对应直线的边框差角计算;接着利用相邻帧边框差角以及前一帧的位姿配准结果变换点云;最后对变换过后的点云进行ICP配准并解算出六自由度分量。
本发明的具体实现步骤为:
一种融合深度图和点云的航天器相对位姿测量方法,包括以下步骤:
步骤1:利用深度传感器获取第k(k>1)帧的目标点云Ck及其对应的深度图Ik
步骤2:对第k帧深度图Ik进行高斯滤波预处理,得到图像Gk
步骤3:基于步骤2,对第k帧的深度图像Gk进行直线检测;
步骤4:计算第k帧最长边框以及第k-1帧对应边框的偏差角度θk
步骤5:利用滚转偏差角度θk对应的位姿矩阵Bk和第k-1帧的位姿矩阵Hk-1同时对第k帧目标点云Ck进行变换,得到待配准的目标点云C'k
C'k=Hk-1BkCk
步骤6,利用ICP算法将待配准的目标点云C'k与模型点云D进行配准,获取第k帧的位姿矩阵Hk
步骤7,从位姿变换矩阵Hk中解算出六自由度分量。
更进一步的,所述步骤3具体包括:
步骤3-1:求取图像Gk的梯度grad(x,y),保留梯度大于ρ(梯度阈值)的像素(x',y'),并对所有的像素(x',y')根据梯度从大到小的顺序列入状态列表list中,并设置Not-Used的状态;
步骤3-2:若列表List中仍有状态为Not-Used的像素点,从列表中取出第一个状态为Not-Used的像素作为起源点Ps(xs,ys),根据此像素点进行区域增长,得到区域A;否则结束;区域增长过程如下:
初值为:θr=θl;Sx=cos(θr);Sy=sin(θr)
其中区域增长的判断条件:
Figure GDA0001937281610000021
若满足条件,更新公式:
Figure GDA0001937281610000022
Figure GDA0001937281610000023
Figure GDA0001937281610000024
更新
Figure GDA0001937281610000031
的状态为Used,否则,不更新;
迭代结束条件:不再有满足增长判断条件的点
其中,
Figure GDA0001937281610000032
为Ps邻域内状态为Not-Used的点,Sx、Sy分别为区域角度的余弦值和正弦值,τ为区域增长的角度阈值,θr为区域角度,θl为起源点Ps(xs,ys)的水平线角,
Figure GDA0001937281610000033
Figure GDA0001937281610000034
点的水平线角,像素点的水平线方向与像素的梯度方向垂直;
步骤3-3:建立包含A的最小外接矩形框rb;
首先以区域A内点的梯度值为权重计算矩形框rb的重心点(cx,cy),
Figure GDA0001937281610000035
Figure GDA0001937281610000036
接着计算矩阵M的最小特征值对应的特征向量,作为矩阵的主方向θrb,其中
Figure GDA0001937281610000037
Figure GDA0001937281610000038
Figure GDA0001937281610000039
Figure GDA00019372816100000310
最后根据区域A中离rb重心点最远的点以及rb的主方向θrb可以计算出rb的长和宽;
步骤3-4:根据contrario模型,可以计算矩形框rb的误检度NFA:
Figure GDA0001937281610000041
其中,L,W为输入深度图的长宽尺寸,n(rb)为矩形框内的点数,t(rb)为满足矩形的主方向与矩形框内点的水平线方向差值小于角度阈值τ的总点数;
Figure GDA0001937281610000042
t(rb)~b(n(rb),p),
式中,b代表二项分布;
Figure GDA0001937281610000043
步骤3-5:如果NFA大于等于误检阈值ε,对矩形框进行一系列改进,诸如减小矩形框的大小等,得到新的矩形框rb’;否则执行步骤3-7;
步骤3-6:计算新矩形框rb’的NFA’;
步骤3-7:如果NFA’的值仍然大于等于ε,转至步骤3-2;否则执行步骤3-8;
步骤3-8:将最终矩形框rb-fianl内的所有像素点的状态改为Used;
步骤3-9:计算矩形框rb-fianl的左右顶点作为检测到的直线的两个端点,即可在图像上做出一条直线段。
更进一步的,所述步骤4具体包括:
步骤4-1:取出每一帧图片中最长的边框线段;
步骤4-2:将最长的边框向量归入二维笛卡尔坐标系的第一象限;
根据边框线段的两个顶点(x1,y1),(x2,y2)计算边框的向量,为了将向量能够归到第一象限,需要先比较x1和x2的大小,若x1>x2,则向量为(x1-x2,y1-y2);否则向量为(x2-x1,y2-y1);此时得到的向量定在第一象限或者第四象限,设为中间向量vl;再继续判断vl的y值分量,若yvl<0,则将其逆时针旋转90°即可得到最终的向量vf;否则vf=vl
步骤4-3:根据相邻两帧的向量
Figure GDA0001937281610000044
便可以得出相邻两帧间的旋转角θk
Figure GDA0001937281610000051
再根据坐标的比值可以判断出从一帧到后一帧的旋转方向:
Figure GDA0001937281610000052
则为逆时针旋转;否则为顺时针旋转;
最终可以得出θk=±|θ|,当为逆时针时为+。
更进一步的,所述步骤7具体包括:
Figure GDA0001937281610000053
其中,Hk是4*4的方阵,R是3*3的方阵,t为3*1的向量;
点云按照姿态角
Figure GDA0001937281610000057
的顺序进行旋转,其中,
Figure GDA0001937281610000056
是绕X轴的旋转角,Y(θ)是绕Y轴的旋转角,Z(ψ)是绕Z轴的旋转角;设目标坐标系为静止坐标系,相机相对目标坐标系的旋转矩阵为:
Figure GDA0001937281610000054
其中,
Figure GDA0001937281610000055
-90°≤θ≤90°,-180°≤ψ≤180°
t=[tx,ty,tz]'
其中,tx、ty、tz是X、Y、Z三轴方向上的平移量;解算步骤基于点云的主动旋转。
本发明是航天器相对位姿测量方法的一种改进。其中,相机坐标系的视线方向为X轴,目标点云坐标系的方向与相机坐标系的方向一致。
本发明与现有成果相比,其有益效果为:本发明针对具有轴对称几何特性的目标航天器,利用深度传感器获得的深度图计算相邻帧的视线方向的角偏差,克服了因帧间差距较大而可能造成的滚转角计算错误等问题,并利用此偏差和上一帧的位姿测量结果进行点云配准,计算得到6自由度的相对位姿值,提高了位姿测量的精度。
附图说明
图1是本发明基于深度图和点云的航天器相对位姿测量方法的流程图。
图2是本发明实施例中仿真点云序列位姿估计的旋转量误差对比曲线图。
图3是本发明实施例中仿真点云序列位姿估计的平移量误差对比曲线图。
具体实施方式
如图1所示,本发明基于深度图和点云的航天器相对位姿测量方法,包括以下步骤:
步骤1:利用深度传感器获取第k(k>1)帧的目标点云Ck及其对应的深度图Ik
步骤2:对第k帧深度图Ik进行高斯滤波预处理,得到图像Gk
步骤3:基于步骤2,对第k帧的深度图像Gk进行直线检测。步骤3具体包括:
步骤3-1:求取图像Gk的梯度grad(x,y),保留梯度大于ρ(梯度阈值)的像素(x',y'),并对所有的像素(x',y')根据梯度从大到小的顺序列入状态列表list中,并设置Not-Used的状态;
步骤3-2:若列表List中仍有状态为Not-Used的像素点,从列表中取出第一个状态为Not-Used的像素作为起源点Ps(xs,ys),根据此像素点进行区域增长,得到区域A;否则结束;区域增长过程如下:
初值为:θr=θl;Sx=cos(θr);Sy=sin(θr)
其中区域增长的判断条件:
Figure GDA0001937281610000061
若满足条件,更新公式:
Figure GDA0001937281610000062
Figure GDA0001937281610000063
Figure GDA0001937281610000064
更新
Figure GDA0001937281610000065
的状态为Used
否则,不跟新;
迭代结束条件:不再有满足增长判断条件的点
其中,
Figure GDA0001937281610000066
为Ps邻域内状态为Not-Used的点,Sx、Sy分别为区域角度的余弦值和正弦值,τ为区域增长的角度阈值,θr为区域角度,θl为起源点Ps(xs,ys)的水平线角,
Figure GDA0001937281610000071
Figure GDA0001937281610000072
点的水平线角,像素点的水平线方向与像素的梯度方向垂直。
步骤3-3:建立包含A的最小外接矩形框rb;
具体过程为:首先以区域A内点的梯度值为权重计算矩形框rb的重心点(cx,cy),
Figure GDA0001937281610000073
Figure GDA0001937281610000074
接着计算矩阵M的最小特征值对应的特征向量,作为矩阵的主方向θrb,其中
Figure GDA0001937281610000075
Figure GDA0001937281610000076
Figure GDA0001937281610000077
Figure GDA0001937281610000078
最后根据区域A中离rb重心点最远的点以及rb的主方向θrb可以计算出rb的长和宽。
步骤3-4:根据contrario模型,可以计算矩形框rb的误检度NFA:
Figure GDA0001937281610000079
其中,L,W为输入深度图的长宽尺寸,n(rb)为矩形框内的点数,t(rb)为满足矩形的主方向与矩形框内点的水平线方向差值小于角度阈值τ的总点数
Figure GDA0001937281610000081
t(rb)~b(n(rb),p),
式中,b代表二项分布。
Figure GDA0001937281610000082
步骤3-5:如果NFA大于等于误检阈值ε,对矩形框进行一系列改进,诸如减小矩形框的大小等,得到新的矩形框rb’;否则执行步骤3-7;
步骤3-6:计算新矩形框rb’的NFA’;
步骤3-7:如果NFA’的值仍然大于等于ε,转至步骤3-2;否则执行步骤3-8;
步骤3-8:将最终矩形框rb-fianl内的所有像素点的状态改为Used;
步骤3-9:计算矩形框rb-fianl的左右顶点作为检测到的直线的两个端点,即可在图像上做出一条直线段。
步骤4,计算第k帧最长边框以及第k-1帧对应边框的偏差角度θk。步骤4具体包括:
步骤4-1:取出每一帧图片中最长的边框线段;
步骤4-2:将最长的边框向量归入二维笛卡尔坐标系的第一象限。
具体步骤为:根据边框线段的两个顶点(x1,y1),(x2,y2)计算边框的向量,为了将向量能够归到第一象限,需要先比较x1和x2的大小,若x1>x2,则向量为(x1-x2,y1-y2);否则向量为(x2-x1,y2-y1)。此时得到的向量定在第一象限或者第四象限,设为中间向量vl。再继续判断vl的y值分量,若yvl<0,则将其逆时针旋转90°即可得到最终的向量vf;否则vf=vl
步骤4-3:根据相邻两帧的向量
Figure GDA0001937281610000083
便可以得出相邻两帧间的旋转角θk
Figure GDA0001937281610000084
再根据坐标的比值可以判断出从一帧到后一帧的旋转方向:
Figure GDA0001937281610000091
则为逆时针旋转;否则为顺时针旋转。
最终可以得出θk=±|θ|,当为逆时针时为+。
步骤5,利用滚转偏差角度θk对应的位姿矩阵Bk和第k-1帧的位姿矩阵Hk-1同时对第k帧目标点云Ck进行变换,得到待配准的目标点云C'k
C'k=Hk-1BkCk
步骤6,利用ICP算法将待配准的目标点云C'k与模型点云D进行配准,获取第k帧的位姿矩阵Hk
步骤7,从位姿变换矩阵Hk中解算出六自由度分量。
Figure GDA0001937281610000092
其中,Hk是4*4的方阵,R是3*3的方阵,t为3*1的向量。
点云按照姿态角
Figure GDA0001937281610000095
的顺序进行旋转,其中,
Figure GDA0001937281610000096
是绕X轴的旋转角,Y(θ)是绕Y轴的旋转角,Z(ψ)是绕Z轴的旋转角。设目标坐标系为静止坐标系,相机相对目标坐标系的旋转矩阵为:
Figure GDA0001937281610000093
其中,
Figure GDA0001937281610000094
-90°≤θ≤90°,-180°≤ψ≤180°
t=[tx,ty,tz]'
其中,tx、ty、tz是X、Y、Z三轴方向上的平移量;解算步骤是基于点云的主动旋转而进行的。
实施例
为了对本发明算法的有效性进行说明,充分展现出该方法具有更加准确的位姿获取性能,完成实验如下:
(1)实验初始条件及参数设置
仿真实验采用虚拟深度传感器对模型点云拍摄产生的数据点云。虚拟深度传感器的参数设置为:分辨率500×500,视场角20°×20°。在60m处开始拍摄模型点云。数据点云的位姿设置为:平移量为沿着X轴从60m开始以1m间隔减少到10m,旋转量为绕着X轴从50°开始以1°间隔减少到0°,其余自由度分量均为0。
误差计算为:模拟产生数据点云的参数作为位姿真实值,仿真实验计算出的位姿结果为测量值,计算误差为测量值减去真实值。
(2)实验结果分析
图2为仿真点云配准过程的示意图,灰度较亮的为目标模型点云,灰度较暗的为目标仿真相机点云,图2右侧为配准结果,相机点云和目标点云重合,表明位姿估计结果良好。
将估计序列帧采用的基本ICP算法记为改进前,将本专利使用的配准算法记为改进后。图3为序列位姿估计的旋转量误差对比。从图3(a)可以看出,改进后的X轴方向旋转量的误差在0.5°以内,明显比改进前的误差要小。从图3(b)、图3(c)可以看出,改进后的Y轴和Z轴方向的旋转量误差依然和改进前一样,在0.1°以内。综合可以看出,本专利的改进确实大大提高了序列帧点云配准的精度,尤其是对滚转角误差的改进,显得尤为突出。

Claims (3)

1.一种融合深度图和点云的航天器相对位姿测量方法,其特征在于,包括以下步骤:
步骤1:利用深度传感器获取第k帧的目标点云Ck及其对应的深度图Ik,其中k>1;
步骤2:对第k帧深度图Ik进行高斯滤波预处理,得到图像Gk
步骤3:基于步骤2,对第k帧的深度图像Gk进行直线检测,具体包括:
步骤3-1:求取图像Gk的梯度grad(x,y),保留梯度大于梯度阈值ρ的像素(x′,y′),并对所有的像素(x′,y′)根据梯度从大到小的顺序列入状态列表list中,并设置Not-Used的状态;
步骤3-2:若列表List中仍有状态为Not-Used的像素点,从列表中取出第一个状态为Not-Used的像素作为起源点Ps(xs,ys),根据此像素点进行区域增长,得到区域A;否则结束;区域增长过程如下:
初值为:θr=θl;Sx=cos(θr);Sy=sin(θr)
其中区域增长的判断条件:
Figure FDA0003608350280000011
若满足条件,更新公式:
Figure FDA0003608350280000017
Figure FDA0003608350280000018
Figure FDA0003608350280000012
更新
Figure FDA0003608350280000013
的状态为Used,否则,不更新;
迭代结束条件:不再有满足增长判断条件的点
其中,
Figure FDA0003608350280000014
为Ps邻域内状态为Not-Used的点,Sx、Sy分别为区域角度的余弦值和正弦值,τ为区域增长的角度阈值,θr为区域角度,θl为起源点Ps(xs,ys)的水平线角,
Figure FDA0003608350280000019
Figure FDA0003608350280000015
点的水平线角,像素点的水平线方向与像素的梯度方向垂直;
步骤3-3:建立包含A的最小外接矩形框rb;
首先以区域A内点的梯度值为权重计算矩形框rb的重心点(cx,cy),
Figure FDA0003608350280000016
Figure FDA0003608350280000021
接着计算矩阵M的最小特征值对应的特征向量,作为矩阵的主方向θrb,其中
Figure FDA0003608350280000022
Figure FDA0003608350280000023
Figure FDA0003608350280000024
Figure FDA0003608350280000025
最后根据区域A中离rb重心点最远的点以及rb的主方向θrb计算出rb的长和宽;
步骤3-4:根据contrario模型,计算矩形框rb的误检度NFA:
Figure FDA0003608350280000026
其中,L,W为输入深度图的长宽尺寸,n(rb)为矩形框内的点数,t(rb)为满足矩形的主方向与矩形框内点的水平线方向差值小于角度阈值τ的总点数;
Figure FDA0003608350280000027
t(rb)~b(n(rb),p),
式中,b代表二项分布;
Figure FDA0003608350280000028
步骤3-5:如果NFA大于等于误检阈值ε,对矩形框进行一系列改进,减小矩形框的大小,得到新的矩形框rb’;否则执行步骤3-7;
步骤3-6:计算新矩形框rb’的NFA’;
步骤3-7:如果NFA’的值仍然大于等于ε,转至步骤3-2;否则执行步骤3-8;
步骤3-8:将最终矩形框rb-fianl内的所有像素点的状态改为Used;
步骤3-9:计算矩形框rb-fianl的左右顶点作为检测到的直线的两个端点,即在图像上做出一条直线段;
步骤4:计算第k帧最长边框以及第k-1帧对应边框的偏差角度θk
步骤5:利用滚转偏差角度θk对应的位姿矩阵Bk和第k-1帧的位姿矩阵Hk-1同时对第k帧目标点云Ck进行变换,得到待配准的目标点云C′k
C′k=Hk-1BkCk
步骤6:利用ICP算法将待配准的目标点云C′k与模型点云D进行配准,获取第k帧的位姿矩阵Hk
步骤7:从位姿矩阵Hk中解算出六自由度分量。
2.根据权利要求1所述的一种融合深度图和点云的航天器相对位姿测量方法,其特征在于,所述步骤4具体包括:
步骤4-1:取出每一帧图片中最长的边框线段;
步骤4-2:将最长的边框向量归入二维笛卡尔坐标系的第一象限;
根据边框线段的两个顶点(x1,y1),(x2,y2)计算边框的向量,为了将向量能够归到第一象限,需要先比较x1和x2的大小,若x1>x2,则向量为(x1-x2,y1-y2);否则向量为(x2-x1,y2-y1);此时得到的向量定在第一象限或者第四象限,设为中间向量vl;再继续判断vl的y值分量,若
Figure FDA0003608350280000031
则将其逆时针旋转90°即得到最终的向量vf;否则vf=vl
步骤4-3:根据相邻两帧的向量
Figure FDA0003608350280000032
便得出相邻两帧间的旋转角θk
Figure FDA0003608350280000033
再根据坐标的比值判断出从一帧到后一帧的旋转方向:
Figure FDA0003608350280000034
则为逆时针旋转;否则为顺时针旋转;
最终得出θk=±|θ|,当为逆时针时为+。
3.根据权利要求1所述的一种融合深度图和点云的航天器相对位姿测量方法,其特征在于,所述步骤7具体包括:
Figure FDA0003608350280000035
其中,Hk是4*4的方阵,R是3*3的方阵,t为3*1的向量;
点云按照姿态角
Figure FDA0003608350280000041
的顺序进行旋转,其中,
Figure FDA0003608350280000042
是绕X轴的旋转角,Y(θ)是绕Y轴的旋转角,Z(ψ)是绕Z轴的旋转角;设目标坐标系为静止坐标系,相机相对目标坐标系的旋转矩阵为:
Figure FDA0003608350280000043
其中,
Figure FDA0003608350280000044
-90°≤θ≤90°,-180°≤ψ≤180°
t=[tx,ty,tz]′
其中,tx、ty、tz是X、Y、Z三轴方向上的平移量;解算步骤基于点云的主动旋转。
CN201810953205.XA 2018-08-21 2018-08-21 一种融合深度图和点云的航天器相对位姿测量方法 Active CN109724586B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810953205.XA CN109724586B (zh) 2018-08-21 2018-08-21 一种融合深度图和点云的航天器相对位姿测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810953205.XA CN109724586B (zh) 2018-08-21 2018-08-21 一种融合深度图和点云的航天器相对位姿测量方法

Publications (2)

Publication Number Publication Date
CN109724586A CN109724586A (zh) 2019-05-07
CN109724586B true CN109724586B (zh) 2022-08-02

Family

ID=66295405

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810953205.XA Active CN109724586B (zh) 2018-08-21 2018-08-21 一种融合深度图和点云的航天器相对位姿测量方法

Country Status (1)

Country Link
CN (1) CN109724586B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110308459B (zh) * 2019-06-30 2023-05-09 南京理工大学 不依赖模型的非合作卫星相对位姿测量方法
CN110794422B (zh) * 2019-10-08 2022-03-29 歌尔光学科技有限公司 一种含有tof成像模组的机器人数据采集系统及方法
WO2021072710A1 (zh) * 2019-10-17 2021-04-22 深圳市大疆创新科技有限公司 移动物体的点云融合方法、系统及计算机存储介质
CN111951314B (zh) * 2020-08-21 2021-08-31 贝壳找房(北京)科技有限公司 点云配准方法和装置、计算机可读存储介质、电子设备
CN113392879B (zh) * 2021-05-26 2023-02-24 中铁二院工程集团有限责任公司 一种航空影像多视图匹配方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012172853A1 (ja) * 2011-06-13 2012-12-20 シャープ株式会社 立体画像生成装置、立体画像生成方法、プログラム、および記録媒体
CN106556412A (zh) * 2016-11-01 2017-04-05 哈尔滨工程大学 一种室内环境下考虑地面约束的rgb‑d视觉里程计方法
CN106780576A (zh) * 2016-11-23 2017-05-31 北京航空航天大学 一种面向rgbd数据流的相机位姿估计方法
CN107909612A (zh) * 2017-12-01 2018-04-13 驭势科技(北京)有限公司 一种基于3d点云的视觉即时定位与建图的方法与系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012172853A1 (ja) * 2011-06-13 2012-12-20 シャープ株式会社 立体画像生成装置、立体画像生成方法、プログラム、および記録媒体
CN106556412A (zh) * 2016-11-01 2017-04-05 哈尔滨工程大学 一种室内环境下考虑地面约束的rgb‑d视觉里程计方法
CN106780576A (zh) * 2016-11-23 2017-05-31 北京航空航天大学 一种面向rgbd数据流的相机位姿估计方法
CN107909612A (zh) * 2017-12-01 2018-04-13 驭势科技(北京)有限公司 一种基于3d点云的视觉即时定位与建图的方法与系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Automatic registration of airborne LiDAR point cloud data and optical imagery depth map based on line and points features;Fang Lv 等;《Infrared Physics & Technology》;20150618;第71卷;第457-463页 *
Robust_Model-Based_3D_Head_Pose_Estimation;Gregory P. Meyer等;《 2015 IEEE International Conference on Computer Vision 》;20160218;第3649-3657页 *
基于Kinect的多足机器人定位与构图技术研究;邓超锋;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20180715(第07期);第I140-270页 *
基于线匹配的三维重建的研究与实现;张帆;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20180415(第04期);第I138-3014页 *

Also Published As

Publication number Publication date
CN109724586A (zh) 2019-05-07

Similar Documents

Publication Publication Date Title
CN109724586B (zh) 一种融合深度图和点云的航天器相对位姿测量方法
CN105976353B (zh) 基于模型和点云全局匹配的空间非合作目标位姿估计方法
CN102999759B (zh) 一种基于光流的车辆运动状态估计方法
CN108665499B (zh) 一种基于视差法的近距飞机位姿测量方法
CN107316325A (zh) 一种基于图像配准的机载激光点云与影像配准融合方法
CN106127683B (zh) 一种无人机载sar图像实时拼接方法
CN103578117A (zh) 确定摄像头相对于环境的姿态的方法
CN101114022A (zh) 无姿态信息条件下的航空多光谱扫描仪几何粗校正方法
CN103697883B (zh) 一种基于天际线成像的飞行器水平姿态确定方法
CN112461204B (zh) 卫星对动态飞行目标多视角成像联合计算航行高度的方法
CN112862818B (zh) 惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法
CN113240749B (zh) 一种面向海上舰船平台无人机回收的远距离双目标定与测距方法
CN112580683B (zh) 一种基于互相关的多传感器数据时间对齐系统及其方法
CN115574816A (zh) 仿生视觉多源信息智能感知无人平台
CN110308459A (zh) 不依赖模型的非合作卫星相对位姿测量方法
CN108225273A (zh) 一种基于传感器先验知识的实时跑道检测方法
CN109341685B (zh) 一种基于单应变换的固定翼飞机视觉辅助着陆导航方法
CN105403886B (zh) 一种机载sar定标器图像位置自动提取方法
CN112407344B (zh) 空间非合作目标的位姿预测方法和装置
CN110686593B (zh) 一种测量拼接焦平面中图像传感器相对位置关系的方法
Wang et al. Micro aerial vehicle navigation with visual-inertial integration aided by structured light
CN112577463A (zh) 姿态参数修正的航天器单目视觉测距方法
Yingying et al. Fast-swirl space non-cooperative target spin state measurements based on a monocular camera
Alekseev et al. Visual-inertial odometry algorithms on the base of thermal camera
Kupervasser et al. Robust positioning of drones for land use monitoring in strong terrain relief using vision-based navigation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant