CN109724586B - 一种融合深度图和点云的航天器相对位姿测量方法 - Google Patents
一种融合深度图和点云的航天器相对位姿测量方法 Download PDFInfo
- Publication number
- CN109724586B CN109724586B CN201810953205.XA CN201810953205A CN109724586B CN 109724586 B CN109724586 B CN 109724586B CN 201810953205 A CN201810953205 A CN 201810953205A CN 109724586 B CN109724586 B CN 109724586B
- Authority
- CN
- China
- Prior art keywords
- frame
- point cloud
- vector
- point
- angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000691 measurement method Methods 0.000 title claims description 7
- 238000000034 method Methods 0.000 claims abstract description 17
- 239000013598 vector Substances 0.000 claims description 33
- 239000011159 matrix material Substances 0.000 claims description 21
- 238000001514 detection method Methods 0.000 claims description 11
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 230000005484 gravity Effects 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 3
- 230000000717 retained effect Effects 0.000 claims description 3
- 230000003068 static effect Effects 0.000 claims description 3
- 238000005096 rolling process Methods 0.000 abstract description 4
- 238000004364 calculation method Methods 0.000 abstract description 2
- 238000005259 measurement Methods 0.000 description 7
- 238000009616 inductively coupled plasma Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 241000282414 Homo sapiens Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供一种融合深度图和点云的航天器相对位姿测量方法,本发明针对具有轴对称几何特性的目标航天器,利用深度传感器获得的深度图计算相邻帧的视线方向的角偏差,克服了因帧间差距较大而可能造成的滚转角计算错误等问题,并利用此偏差和上一帧的位姿测量结果进行点云配准,计算得到6自由度的相对位姿值,提高了位姿测量的精度。
Description
技术领域
本发明属于空间导航技术领域,具体涉及一种融合深度图和点云的航天器相对位姿测量方法。
背景技术
近年来,随着人类对外太空的不断深入,故障卫星的修理、空间碎片的清理等航天任务的不断开展,航天器相对位姿测量技术的重要性显得越来越明显。
通常采用的测量传感器包括雷达、卫星定位、单目视觉、双目视觉、扫描式激光雷达等。基于视觉的位姿测量技术具有构造简单、性能稳定、可靠性高等优点,一直是近距离阶段实现相对位姿测量的主要手段。双目视觉在相机参数一定的情况下,需要有适当的基线,才能获取高精度的深度信息。由于双目视觉匹配算法复杂,通常采用特征提取的方法,仅获取相应特征点的深度信息,这种方法得到的是稀疏点云,且深度精度与特征匹配的精度关系较大。扫描式激光雷达具有测量范围远、精度高、可靠性强等优点,但其质量大、功耗高、有运动部件,需要逐行扫描或按照特定方式的扫描测量来获取场景的深度数据。非扫描式激光成像雷达在无需扫描的情况下可以获得整个场景的密集点云、深度图和强度图数据,具有对背景杂散光的抑制能力强、探测距离远、且不存在运动模糊、帧率高等优点,可以满足实时测量。
发明内容
本发明的目的在于提出一种融合深度图和点云的航天器相对位姿测量方法。
发明内容:通过二维深度图直线特征的检测辅助三维点云配准,提出了一种实时高精度的相对位姿测量方法。首先,对深度传感器获得的深度图进行直线边框检测;然后对相邻帧最长的边框进行对应直线的边框差角计算;接着利用相邻帧边框差角以及前一帧的位姿配准结果变换点云;最后对变换过后的点云进行ICP配准并解算出六自由度分量。
本发明的具体实现步骤为:
一种融合深度图和点云的航天器相对位姿测量方法,包括以下步骤:
步骤1:利用深度传感器获取第k(k>1)帧的目标点云Ck及其对应的深度图Ik;
步骤2:对第k帧深度图Ik进行高斯滤波预处理,得到图像Gk;
步骤3:基于步骤2,对第k帧的深度图像Gk进行直线检测;
步骤4:计算第k帧最长边框以及第k-1帧对应边框的偏差角度θk;
步骤5:利用滚转偏差角度θk对应的位姿矩阵Bk和第k-1帧的位姿矩阵Hk-1同时对第k帧目标点云Ck进行变换,得到待配准的目标点云C'k:
C'k=Hk-1BkCk
步骤6,利用ICP算法将待配准的目标点云C'k与模型点云D进行配准,获取第k帧的位姿矩阵Hk:
步骤7,从位姿变换矩阵Hk中解算出六自由度分量。
更进一步的,所述步骤3具体包括:
步骤3-1:求取图像Gk的梯度grad(x,y),保留梯度大于ρ(梯度阈值)的像素(x',y'),并对所有的像素(x',y')根据梯度从大到小的顺序列入状态列表list中,并设置Not-Used的状态;
步骤3-2:若列表List中仍有状态为Not-Used的像素点,从列表中取出第一个状态为Not-Used的像素作为起源点Ps(xs,ys),根据此像素点进行区域增长,得到区域A;否则结束;区域增长过程如下:
初值为:θr=θl;Sx=cos(θr);Sy=sin(θr)
若满足条件,更新公式:
迭代结束条件:不再有满足增长判断条件的点
其中,为Ps邻域内状态为Not-Used的点,Sx、Sy分别为区域角度的余弦值和正弦值,τ为区域增长的角度阈值,θr为区域角度,θl为起源点Ps(xs,ys)的水平线角,为点的水平线角,像素点的水平线方向与像素的梯度方向垂直;
步骤3-3:建立包含A的最小外接矩形框rb;
首先以区域A内点的梯度值为权重计算矩形框rb的重心点(cx,cy),
接着计算矩阵M的最小特征值对应的特征向量,作为矩阵的主方向θrb,其中
最后根据区域A中离rb重心点最远的点以及rb的主方向θrb可以计算出rb的长和宽;
步骤3-4:根据contrario模型,可以计算矩形框rb的误检度NFA:
其中,L,W为输入深度图的长宽尺寸,n(rb)为矩形框内的点数,t(rb)为满足矩形的主方向与矩形框内点的水平线方向差值小于角度阈值τ的总点数;
t(rb)~b(n(rb),p),
式中,b代表二项分布;
步骤3-5:如果NFA大于等于误检阈值ε,对矩形框进行一系列改进,诸如减小矩形框的大小等,得到新的矩形框rb’;否则执行步骤3-7;
步骤3-6:计算新矩形框rb’的NFA’;
步骤3-7:如果NFA’的值仍然大于等于ε,转至步骤3-2;否则执行步骤3-8;
步骤3-8:将最终矩形框rb-fianl内的所有像素点的状态改为Used;
步骤3-9:计算矩形框rb-fianl的左右顶点作为检测到的直线的两个端点,即可在图像上做出一条直线段。
更进一步的,所述步骤4具体包括:
步骤4-1:取出每一帧图片中最长的边框线段;
步骤4-2:将最长的边框向量归入二维笛卡尔坐标系的第一象限;
根据边框线段的两个顶点(x1,y1),(x2,y2)计算边框的向量,为了将向量能够归到第一象限,需要先比较x1和x2的大小,若x1>x2,则向量为(x1-x2,y1-y2);否则向量为(x2-x1,y2-y1);此时得到的向量定在第一象限或者第四象限,设为中间向量vl;再继续判断vl的y值分量,若yvl<0,则将其逆时针旋转90°即可得到最终的向量vf;否则vf=vl
再根据坐标的比值可以判断出从一帧到后一帧的旋转方向:
最终可以得出θk=±|θ|,当为逆时针时为+。
更进一步的,所述步骤7具体包括:
其中,Hk是4*4的方阵,R是3*3的方阵,t为3*1的向量;
t=[tx,ty,tz]'
其中,tx、ty、tz是X、Y、Z三轴方向上的平移量;解算步骤基于点云的主动旋转。
本发明是航天器相对位姿测量方法的一种改进。其中,相机坐标系的视线方向为X轴,目标点云坐标系的方向与相机坐标系的方向一致。
本发明与现有成果相比,其有益效果为:本发明针对具有轴对称几何特性的目标航天器,利用深度传感器获得的深度图计算相邻帧的视线方向的角偏差,克服了因帧间差距较大而可能造成的滚转角计算错误等问题,并利用此偏差和上一帧的位姿测量结果进行点云配准,计算得到6自由度的相对位姿值,提高了位姿测量的精度。
附图说明
图1是本发明基于深度图和点云的航天器相对位姿测量方法的流程图。
图2是本发明实施例中仿真点云序列位姿估计的旋转量误差对比曲线图。
图3是本发明实施例中仿真点云序列位姿估计的平移量误差对比曲线图。
具体实施方式
如图1所示,本发明基于深度图和点云的航天器相对位姿测量方法,包括以下步骤:
步骤1:利用深度传感器获取第k(k>1)帧的目标点云Ck及其对应的深度图Ik
步骤2:对第k帧深度图Ik进行高斯滤波预处理,得到图像Gk。
步骤3:基于步骤2,对第k帧的深度图像Gk进行直线检测。步骤3具体包括:
步骤3-1:求取图像Gk的梯度grad(x,y),保留梯度大于ρ(梯度阈值)的像素(x',y'),并对所有的像素(x',y')根据梯度从大到小的顺序列入状态列表list中,并设置Not-Used的状态;
步骤3-2:若列表List中仍有状态为Not-Used的像素点,从列表中取出第一个状态为Not-Used的像素作为起源点Ps(xs,ys),根据此像素点进行区域增长,得到区域A;否则结束;区域增长过程如下:
初值为:θr=θl;Sx=cos(θr);Sy=sin(θr)
若满足条件,更新公式:
否则,不跟新;
迭代结束条件:不再有满足增长判断条件的点
其中,为Ps邻域内状态为Not-Used的点,Sx、Sy分别为区域角度的余弦值和正弦值,τ为区域增长的角度阈值,θr为区域角度,θl为起源点Ps(xs,ys)的水平线角,为点的水平线角,像素点的水平线方向与像素的梯度方向垂直。
步骤3-3:建立包含A的最小外接矩形框rb;
具体过程为:首先以区域A内点的梯度值为权重计算矩形框rb的重心点(cx,cy),
接着计算矩阵M的最小特征值对应的特征向量,作为矩阵的主方向θrb,其中
最后根据区域A中离rb重心点最远的点以及rb的主方向θrb可以计算出rb的长和宽。
步骤3-4:根据contrario模型,可以计算矩形框rb的误检度NFA:
其中,L,W为输入深度图的长宽尺寸,n(rb)为矩形框内的点数,t(rb)为满足矩形的主方向与矩形框内点的水平线方向差值小于角度阈值τ的总点数
t(rb)~b(n(rb),p),
式中,b代表二项分布。
步骤3-5:如果NFA大于等于误检阈值ε,对矩形框进行一系列改进,诸如减小矩形框的大小等,得到新的矩形框rb’;否则执行步骤3-7;
步骤3-6:计算新矩形框rb’的NFA’;
步骤3-7:如果NFA’的值仍然大于等于ε,转至步骤3-2;否则执行步骤3-8;
步骤3-8:将最终矩形框rb-fianl内的所有像素点的状态改为Used;
步骤3-9:计算矩形框rb-fianl的左右顶点作为检测到的直线的两个端点,即可在图像上做出一条直线段。
步骤4,计算第k帧最长边框以及第k-1帧对应边框的偏差角度θk。步骤4具体包括:
步骤4-1:取出每一帧图片中最长的边框线段;
步骤4-2:将最长的边框向量归入二维笛卡尔坐标系的第一象限。
具体步骤为:根据边框线段的两个顶点(x1,y1),(x2,y2)计算边框的向量,为了将向量能够归到第一象限,需要先比较x1和x2的大小,若x1>x2,则向量为(x1-x2,y1-y2);否则向量为(x2-x1,y2-y1)。此时得到的向量定在第一象限或者第四象限,设为中间向量vl。再继续判断vl的y值分量,若yvl<0,则将其逆时针旋转90°即可得到最终的向量vf;否则vf=vl
再根据坐标的比值可以判断出从一帧到后一帧的旋转方向:
最终可以得出θk=±|θ|,当为逆时针时为+。
步骤5,利用滚转偏差角度θk对应的位姿矩阵Bk和第k-1帧的位姿矩阵Hk-1同时对第k帧目标点云Ck进行变换,得到待配准的目标点云C'k:
C'k=Hk-1BkCk
步骤6,利用ICP算法将待配准的目标点云C'k与模型点云D进行配准,获取第k帧的位姿矩阵Hk:
步骤7,从位姿变换矩阵Hk中解算出六自由度分量。
其中,Hk是4*4的方阵,R是3*3的方阵,t为3*1的向量。
t=[tx,ty,tz]'
其中,tx、ty、tz是X、Y、Z三轴方向上的平移量;解算步骤是基于点云的主动旋转而进行的。
实施例
为了对本发明算法的有效性进行说明,充分展现出该方法具有更加准确的位姿获取性能,完成实验如下:
(1)实验初始条件及参数设置
仿真实验采用虚拟深度传感器对模型点云拍摄产生的数据点云。虚拟深度传感器的参数设置为:分辨率500×500,视场角20°×20°。在60m处开始拍摄模型点云。数据点云的位姿设置为:平移量为沿着X轴从60m开始以1m间隔减少到10m,旋转量为绕着X轴从50°开始以1°间隔减少到0°,其余自由度分量均为0。
误差计算为:模拟产生数据点云的参数作为位姿真实值,仿真实验计算出的位姿结果为测量值,计算误差为测量值减去真实值。
(2)实验结果分析
图2为仿真点云配准过程的示意图,灰度较亮的为目标模型点云,灰度较暗的为目标仿真相机点云,图2右侧为配准结果,相机点云和目标点云重合,表明位姿估计结果良好。
将估计序列帧采用的基本ICP算法记为改进前,将本专利使用的配准算法记为改进后。图3为序列位姿估计的旋转量误差对比。从图3(a)可以看出,改进后的X轴方向旋转量的误差在0.5°以内,明显比改进前的误差要小。从图3(b)、图3(c)可以看出,改进后的Y轴和Z轴方向的旋转量误差依然和改进前一样,在0.1°以内。综合可以看出,本专利的改进确实大大提高了序列帧点云配准的精度,尤其是对滚转角误差的改进,显得尤为突出。
Claims (3)
1.一种融合深度图和点云的航天器相对位姿测量方法,其特征在于,包括以下步骤:
步骤1:利用深度传感器获取第k帧的目标点云Ck及其对应的深度图Ik,其中k>1;
步骤2:对第k帧深度图Ik进行高斯滤波预处理,得到图像Gk;
步骤3:基于步骤2,对第k帧的深度图像Gk进行直线检测,具体包括:
步骤3-1:求取图像Gk的梯度grad(x,y),保留梯度大于梯度阈值ρ的像素(x′,y′),并对所有的像素(x′,y′)根据梯度从大到小的顺序列入状态列表list中,并设置Not-Used的状态;
步骤3-2:若列表List中仍有状态为Not-Used的像素点,从列表中取出第一个状态为Not-Used的像素作为起源点Ps(xs,ys),根据此像素点进行区域增长,得到区域A;否则结束;区域增长过程如下:
初值为:θr=θl;Sx=cos(θr);Sy=sin(θr)
若满足条件,更新公式:
迭代结束条件:不再有满足增长判断条件的点
其中,为Ps邻域内状态为Not-Used的点,Sx、Sy分别为区域角度的余弦值和正弦值,τ为区域增长的角度阈值,θr为区域角度,θl为起源点Ps(xs,ys)的水平线角,为点的水平线角,像素点的水平线方向与像素的梯度方向垂直;
步骤3-3:建立包含A的最小外接矩形框rb;
首先以区域A内点的梯度值为权重计算矩形框rb的重心点(cx,cy),
接着计算矩阵M的最小特征值对应的特征向量,作为矩阵的主方向θrb,其中
最后根据区域A中离rb重心点最远的点以及rb的主方向θrb计算出rb的长和宽;
步骤3-4:根据contrario模型,计算矩形框rb的误检度NFA:
其中,L,W为输入深度图的长宽尺寸,n(rb)为矩形框内的点数,t(rb)为满足矩形的主方向与矩形框内点的水平线方向差值小于角度阈值τ的总点数;
t(rb)~b(n(rb),p),
式中,b代表二项分布;
步骤3-5:如果NFA大于等于误检阈值ε,对矩形框进行一系列改进,减小矩形框的大小,得到新的矩形框rb’;否则执行步骤3-7;
步骤3-6:计算新矩形框rb’的NFA’;
步骤3-7:如果NFA’的值仍然大于等于ε,转至步骤3-2;否则执行步骤3-8;
步骤3-8:将最终矩形框rb-fianl内的所有像素点的状态改为Used;
步骤3-9:计算矩形框rb-fianl的左右顶点作为检测到的直线的两个端点,即在图像上做出一条直线段;
步骤4:计算第k帧最长边框以及第k-1帧对应边框的偏差角度θk;
步骤5:利用滚转偏差角度θk对应的位姿矩阵Bk和第k-1帧的位姿矩阵Hk-1同时对第k帧目标点云Ck进行变换,得到待配准的目标点云C′k:
C′k=Hk-1BkCk
步骤6:利用ICP算法将待配准的目标点云C′k与模型点云D进行配准,获取第k帧的位姿矩阵Hk:
步骤7:从位姿矩阵Hk中解算出六自由度分量。
2.根据权利要求1所述的一种融合深度图和点云的航天器相对位姿测量方法,其特征在于,所述步骤4具体包括:
步骤4-1:取出每一帧图片中最长的边框线段;
步骤4-2:将最长的边框向量归入二维笛卡尔坐标系的第一象限;
根据边框线段的两个顶点(x1,y1),(x2,y2)计算边框的向量,为了将向量能够归到第一象限,需要先比较x1和x2的大小,若x1>x2,则向量为(x1-x2,y1-y2);否则向量为(x2-x1,y2-y1);此时得到的向量定在第一象限或者第四象限,设为中间向量vl;再继续判断vl的y值分量,若则将其逆时针旋转90°即得到最终的向量vf;否则vf=vl
再根据坐标的比值判断出从一帧到后一帧的旋转方向:
最终得出θk=±|θ|,当为逆时针时为+。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810953205.XA CN109724586B (zh) | 2018-08-21 | 2018-08-21 | 一种融合深度图和点云的航天器相对位姿测量方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810953205.XA CN109724586B (zh) | 2018-08-21 | 2018-08-21 | 一种融合深度图和点云的航天器相对位姿测量方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109724586A CN109724586A (zh) | 2019-05-07 |
CN109724586B true CN109724586B (zh) | 2022-08-02 |
Family
ID=66295405
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810953205.XA Active CN109724586B (zh) | 2018-08-21 | 2018-08-21 | 一种融合深度图和点云的航天器相对位姿测量方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109724586B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110308459B (zh) * | 2019-06-30 | 2023-05-09 | 南京理工大学 | 不依赖模型的非合作卫星相对位姿测量方法 |
CN110794422B (zh) * | 2019-10-08 | 2022-03-29 | 歌尔光学科技有限公司 | 一种含有tof成像模组的机器人数据采集系统及方法 |
WO2021072710A1 (zh) * | 2019-10-17 | 2021-04-22 | 深圳市大疆创新科技有限公司 | 移动物体的点云融合方法、系统及计算机存储介质 |
CN111951314B (zh) * | 2020-08-21 | 2021-08-31 | 贝壳找房(北京)科技有限公司 | 点云配准方法和装置、计算机可读存储介质、电子设备 |
CN113392879B (zh) * | 2021-05-26 | 2023-02-24 | 中铁二院工程集团有限责任公司 | 一种航空影像多视图匹配方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012172853A1 (ja) * | 2011-06-13 | 2012-12-20 | シャープ株式会社 | 立体画像生成装置、立体画像生成方法、プログラム、および記録媒体 |
CN106556412A (zh) * | 2016-11-01 | 2017-04-05 | 哈尔滨工程大学 | 一种室内环境下考虑地面约束的rgb‑d视觉里程计方法 |
CN106780576A (zh) * | 2016-11-23 | 2017-05-31 | 北京航空航天大学 | 一种面向rgbd数据流的相机位姿估计方法 |
CN107909612A (zh) * | 2017-12-01 | 2018-04-13 | 驭势科技(北京)有限公司 | 一种基于3d点云的视觉即时定位与建图的方法与系统 |
-
2018
- 2018-08-21 CN CN201810953205.XA patent/CN109724586B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012172853A1 (ja) * | 2011-06-13 | 2012-12-20 | シャープ株式会社 | 立体画像生成装置、立体画像生成方法、プログラム、および記録媒体 |
CN106556412A (zh) * | 2016-11-01 | 2017-04-05 | 哈尔滨工程大学 | 一种室内环境下考虑地面约束的rgb‑d视觉里程计方法 |
CN106780576A (zh) * | 2016-11-23 | 2017-05-31 | 北京航空航天大学 | 一种面向rgbd数据流的相机位姿估计方法 |
CN107909612A (zh) * | 2017-12-01 | 2018-04-13 | 驭势科技(北京)有限公司 | 一种基于3d点云的视觉即时定位与建图的方法与系统 |
Non-Patent Citations (4)
Title |
---|
Automatic registration of airborne LiDAR point cloud data and optical imagery depth map based on line and points features;Fang Lv 等;《Infrared Physics & Technology》;20150618;第71卷;第457-463页 * |
Robust_Model-Based_3D_Head_Pose_Estimation;Gregory P. Meyer等;《 2015 IEEE International Conference on Computer Vision 》;20160218;第3649-3657页 * |
基于Kinect的多足机器人定位与构图技术研究;邓超锋;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20180715(第07期);第I140-270页 * |
基于线匹配的三维重建的研究与实现;张帆;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20180415(第04期);第I138-3014页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109724586A (zh) | 2019-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109724586B (zh) | 一种融合深度图和点云的航天器相对位姿测量方法 | |
CN105976353B (zh) | 基于模型和点云全局匹配的空间非合作目标位姿估计方法 | |
CN102999759B (zh) | 一种基于光流的车辆运动状态估计方法 | |
CN108665499B (zh) | 一种基于视差法的近距飞机位姿测量方法 | |
CN107316325A (zh) | 一种基于图像配准的机载激光点云与影像配准融合方法 | |
CN106127683B (zh) | 一种无人机载sar图像实时拼接方法 | |
CN103578117A (zh) | 确定摄像头相对于环境的姿态的方法 | |
CN101114022A (zh) | 无姿态信息条件下的航空多光谱扫描仪几何粗校正方法 | |
CN103697883B (zh) | 一种基于天际线成像的飞行器水平姿态确定方法 | |
CN112461204B (zh) | 卫星对动态飞行目标多视角成像联合计算航行高度的方法 | |
CN112862818B (zh) | 惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法 | |
CN113240749B (zh) | 一种面向海上舰船平台无人机回收的远距离双目标定与测距方法 | |
CN112580683B (zh) | 一种基于互相关的多传感器数据时间对齐系统及其方法 | |
CN115574816A (zh) | 仿生视觉多源信息智能感知无人平台 | |
CN110308459A (zh) | 不依赖模型的非合作卫星相对位姿测量方法 | |
CN108225273A (zh) | 一种基于传感器先验知识的实时跑道检测方法 | |
CN109341685B (zh) | 一种基于单应变换的固定翼飞机视觉辅助着陆导航方法 | |
CN105403886B (zh) | 一种机载sar定标器图像位置自动提取方法 | |
CN112407344B (zh) | 空间非合作目标的位姿预测方法和装置 | |
CN110686593B (zh) | 一种测量拼接焦平面中图像传感器相对位置关系的方法 | |
Wang et al. | Micro aerial vehicle navigation with visual-inertial integration aided by structured light | |
CN112577463A (zh) | 姿态参数修正的航天器单目视觉测距方法 | |
Yingying et al. | Fast-swirl space non-cooperative target spin state measurements based on a monocular camera | |
Alekseev et al. | Visual-inertial odometry algorithms on the base of thermal camera | |
Kupervasser et al. | Robust positioning of drones for land use monitoring in strong terrain relief using vision-based navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |