CN104406594A - 交会对接航天器相对位姿的测量算法 - Google Patents

交会对接航天器相对位姿的测量算法 Download PDF

Info

Publication number
CN104406594A
CN104406594A CN201410744336.9A CN201410744336A CN104406594A CN 104406594 A CN104406594 A CN 104406594A CN 201410744336 A CN201410744336 A CN 201410744336A CN 104406594 A CN104406594 A CN 104406594A
Authority
CN
China
Prior art keywords
image
same place
pose
unique point
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410744336.9A
Other languages
English (en)
Other versions
CN104406594B (zh
Inventor
张翰墨
卢山
刘宗明
张宇
曹姝清
朱春艳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Xinyue Instrument Factory
Original Assignee
Shanghai Xinyue Instrument Factory
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Xinyue Instrument Factory filed Critical Shanghai Xinyue Instrument Factory
Priority to CN201410744336.9A priority Critical patent/CN104406594B/zh
Publication of CN104406594A publication Critical patent/CN104406594A/zh
Application granted granted Critical
Publication of CN104406594B publication Critical patent/CN104406594B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/24Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for cosmonautical navigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种交会对接航天器相对位姿的测量算法,包含如下步骤:航天器的相机采集交会目标航天器的图像;对所述的采集的对接口图像进行预处理;通过OTSU算法对图像进行目标分割,得出感兴趣区域;对分割得到的感兴趣区域的边界点进行亚像素特征点提取,进行基于亚像素特征点的位姿测量。本发明解决了视觉导航过程中高精度特征检测与位姿测量问题。

Description

交会对接航天器相对位姿的测量算法
技术领域
本发明涉及卫星相对导航技术,特别涉及一种交会对接航天器相对位姿的测量算法。
背景技术
航天器与目标航天器的空间对接中,需要对航天器与目标航天器之间的相对位置和姿态参数进行精确测量。基于视觉的测量方式具有非接触、精度较高、稳定性好等特点。在非合作的目标视觉测量实现过程中,通过实现对被测目标的特征进行准确的提取,为后续的空间位姿解算提供基础。
空间相对位姿的高精度测量是交会对接的关键步骤,但是在交会对接过程中,由于空间环境的复杂性,会对图像造成各种干扰,如运动和散焦模糊、复杂噪声和杂散光的干扰等。如何对图像进行有效的预处理以提高图像质量,和高精度的特征提取和匹配,成为对接技术中相对位姿超高精度测量中的关键问题。 
发明内容
本发明的目的是提供一种交会对接航天器相对位姿的测量算法,解决了视觉导航过程中高精度特征检测与位姿测量问题。
为了实现以上目的,本发明是通过以下技术方案实现的:
一种交会对接航天器相对位姿的测量算法,包含如下步骤:
航天器的相机采集交会目标航天器的图像;
对所述的采集的对接口图像进行预处理;
通过OTSU算法对图像进行目标分割,得出感兴趣区域;
对分割得到的感兴趣区域的边界点进行亚像素特征点提取,进行基于亚像素特征点的位姿测量。
所述的采集图像的相机采用双目相机,采集时分别得到左图像和右图像。
所述的对接口图像预处理包含如下子步骤:
分别对左图像和右图像进行去模糊处理; 
对去模糊处理的图像进行降噪处理。
所述的去模糊处理采用总变分最小化模糊图像反卷积处理的方法。
所述的降噪处理基于SUSAN滤波。
在基于SUSAN滤波时,区分特征目标和背景的阈值的选值范围为                                               
所述的进行基于亚像素特征点的位姿测量包含如下子步骤:
在提取得到的亚像素特征点中进行双向极线约束特征点匹配,得到同名点对;
若提取的同名点对数量大于3对,采用基于双目视觉的位姿测量方法计算位姿参数;若提取的同名点对数量小于等于3对,采用基于单目视觉的位姿测量方法计算位姿参数。
所述的双向极线约束特征点匹配的步骤为:
以左图像或右图像的某图像上的特征点为起始点集,遍历该某图像上的特征点,计算与之对应的另一图像的特征点,得到初始同名点对集合;
以初始同名点对集合中的另一图像上的特征点为起始,遍历初始同名点对集合中该图像的特征点,计算与之对应的某图像特征点,若得到的某图像特征点不在初始同名点对集合中,更新初始同名点对集合中某图像的特征点坐标,得到最优的同名点对。
本发明与现有技术相比,具有以下优点:
解决了视觉导航过程中高精度特征检测与位姿测量问题。
附图说明
图1为本发明交会对接航天器相对位姿的测量算法的方法流程图。 
具体实施方式
以下结合附图,通过详细说明一个较佳的具体实施例,对本发明做进一步阐述。
如图1所示,一种交会对接航天器相对位姿的测量算法,包含如下步骤:
航天器的相机采集交会目标航天器的图像,采集图像的相机采用双目相机,采集时分别得到左图像和右图像;
对所述的采集的对接口图像进行预处理,首先分别对左图像和右图像进行去模糊处理,采用总变分最小化模糊图像反卷积处理的方法,计算公式为:
其中:F(u,v)为去模糊后图像,G(u,v)为原始图像的傅里叶变换,计算公式为:,其中I(x,y)为原始图像,(x,y)表示图像像素坐标,范围为[1,…,M],M为图像宽和高,p和q为常数,取值范围为[1,…,M]。
H(u,v)为退化的传递函数,H*(u,v)表示H(u,v)的复共轭,计算公式为:,其中real(H(u,v))为H(u,v)函数的实部,imag(H(u,v))为H(u,v)函数的虚部。
的计算公式为:,其中H*(u,v)表示H(u,v)的复共轭。
取0.3,表示原始图像的功率谱,计算公式为:
其中:N为图像宽度,M为图像高度,x,y表示图像坐标,表示图像自相关函数,计算公式如下:
其中:N为图像宽度,M为图像高度,m,n为图像坐标,I为原始图像。
根据得到的去模糊后图像,进一步基于SUSAN滤波进行降噪处理,计算公式为:
其中:I(x,y)为原始图像,J(x,y)为降噪后图像,(x,y)为表示图像像素坐标,范围为[1,…,M]。
E的计算公式为:,其中,(i,j)为表示图像像素坐标在x方向和y方向上的位移量,σ为高斯平滑滤波器的标准差,取值4,t为区分特征目标和背景的阈值,选值范围为,在本实施例中,特征目标为图像中的目标航天器。
通过OTSU算法对去模糊和降噪后的图像进行目标分割,得出感兴趣区域,在本实施例中,感兴趣区域指的是目标航天器;分割阈值的计算公式为:
其中:k为灰度阈值,取值范围为[1,m],m为图像上灰度级,μ为整幅图像灰度均值,计算公式为:,其中i为图像中灰度值,取值范围为[1,m],m为图像上灰度级。pi为灰度值为i的像素在整幅图像中的概率,计算公式为:,n为图像中总像素数量,ni为图像中灰度值为i的像素数量。ω0为图像所有像素灰度值小于k 的概率,计算公式为:,其中i为图像中灰度值,取值范围为[1,k-1],k为图像灰度级阈值,pi为灰度值为i的像素在整幅图像中的概率。ω1为图像所有像素灰度值大于等于k 的概率,计算公式为:,其中i为图像中灰度值,取值范围为[k, m],k为图像灰度级阈值,m为图像灰度级上限,pi为灰度值为i的像素在整幅图像中的概率。
μ0为图像中所有像素灰度值小于k的平均值,计算公式为:
其中i为图像中灰度值,取值范围为[k, m],k为图像灰度级阈值,m为图像灰度级上限,pi为灰度值为i的像素在整幅图像中的概率。
μ1为图像中所有像素灰度值大于等于k的平均值,计算公式为:,其中i为图像中灰度值,取值范围为[k, m],k为图像灰度级阈值,m为图像灰度级上限,pi为灰度值为i的像素在整幅图像中的概率。
对分割得到的感兴趣区域的边界点进行亚像素特征点提取,在本实施例中,基于灰度值的亚像素特征点插值计算公式为:,其中:
(x,y)为图像特征点整像素坐标,坐标范围为图像的宽和高,f(x,y)表示图像坐标为(x,y)的像素点的灰度值。(u,v)为计算的亚像素图像坐标,符号[]表示向下取整。α为图像特征点在x方向坐标取整后的余数,β为图像特征点在y方向坐标取整后的余数。
在通过上述方法,提取得到的亚像素特征点中进行双向极线约束特征点匹配,以左图像或右图像的某图像(以左图像为例)上的特征点为起始点集,遍历左图像上的特征点,计算与之对应的右图像的特征点,得到初始同名点对集合CP;再以CP中的右图像上的特征点为起始,遍历CP中右图像的特征点,计算与之对应的左图像特征点,若得到的左图像特征点不在CP中,更新CP中左图像的特征点坐标,得到最优的同名点对。
左右图像中同名点对匹配的判据是点间的相对距离最小,点间距离计算方法为:,其中,(Xright,Yright)为右图像上的提取的亚像素特征点在右图像上的坐标,(Xleft,Yleft)为左图像上的提取的亚像素特征点在左图像上的坐标。在确定以某一幅图像为基准(以左图像为例),则计算左图像上的亚像素特征点在右图像上的对应特征点的搜索中心与搜索范围,搜索中心计算公式为:
其中(Xright,Yright)为左图像上的提取的亚像素特征点在左图像上的坐标,B为两相机基线距,HD为相机距基准面距离,f为相机焦距(左右相机具有相同焦距参数),Zp为特征点对应实物上的点距基准面的距离。搜索范围计算公式为:
在(Xright,Yright)为中心,Srange为搜索范围内的所有特征点中,距离D最小的点为(Xleft,Yleft)的同名点对,计算公式为:,其中(Xright,Yright)为右图像上的与左图像(Xleft,Yleft)对应的搜索中心,Srange为搜索范围,D为搜索空间中所有符合要求的点间距离。
若提取的同名点对数量大于3对,采用基于双目视觉的位姿测量方法计算位姿参数;若提取的同名点对数量小于等于3对,采用基于单目视觉的位姿测量方法计算位姿参数。
其中,基于双目视觉的位姿测量计算方法为:
其中(X1,Y1)为右图像上特征点坐标,(Xr,Yr)为与之对应的左图像同名点坐标,f1为相机焦距(左右相机设置为相同焦距),为左相机坐标系与右相机坐标系之间的旋转矩阵;为左相机坐标系原点与右相机坐标系原点之间的平移变换矢量。
假设共有N对同名点对,每对同名点对在目标坐标系下对应为同一点,(Xtj,Ytj,Ztj)为同名点在目标坐标系下的坐标,则每对同名点在目标坐标系下的坐标向量是Mtj=(Xtj,Ytj,Ztj),其中,j=1,2,3,…N。从同名点对集合CP中任取三对,以Mt1,Mt2,Mt3为例,要求三点不共线,可得:
 
 
旋转矩阵计算公式为: 
遍历同名点对集合,使用的均值减小测量误差,旋转矩阵的计算公式为:,其中,N表示同名点数量,ijk分别为选取的同名点标号,表示ijk三个同名点计算得到的旋转矩阵,符号∑表示求和。
滚转角φ、偏航角Ψ、俯仰角θ的公式分别为:
其中δ13为旋转矩阵的第一行第三列,δ23为旋转矩阵的第二行第三列,δ12为旋转矩阵的第一行第二列。
平移向量,计算公式为:,其中Zp、ZT分别指同名点在摄像机坐标系下和在目标坐标系下的坐标,为旋转矩阵。
基于单目视觉的位姿测量计算方法如下所示:
利用透视投影原理,通过迭代收敛得到目标的位姿解。收敛判据为ε,ε趋近于0。
前述步骤得到同名点三个,记为P1,P2,P3,构建矩阵:
其中G为6×7矩阵,Pi为3个同名点,i = 1,2,3, ri为同名点在图像上像元大小与焦距间比例值,αi为变量。
计算方阵I:I=G*GT,其中,符号*表示矩阵乘积,符号上标T表示矩阵的转置。
对方阵I进行奇异值分解,得到分量V:I=U*A*VT,其中,符号*表示矩阵乘积,符号上标T表示矩阵的转置。U,V为7×7矩阵,A为对角阵。
变量αi的计算公式为:
 
 
 
其中Vj为矩阵V的第j个值,xi,yi,zi为三个同名点在目标坐标系下的坐标,i=1,2,3。迭代过程中αi变化导致V矩阵最后一个量V49的变化,收敛条件为:V49<ε。收敛后,滚转角φ、偏航角Ψ、俯仰角θ的计算公式分别为:
其中Vj为矩阵V的第j个值。
综上所述,本发明交会对接航天器相对位姿的测量算法,解决了视觉导航过程中高精度特征检测与位姿测量问题。
尽管本发明的内容已经通过上述优选实施例作了详细介绍,但应当认识到上述的描述不应被认为是对本发明的限制。在本领域技术人员阅读了上述内容后,对于本发明的多种修改和替代都将是显而易见的。因此,本发明的保护范围应由所附的权利要求来限定。

Claims (8)

1.一种交会对接航天器相对位姿的测量算法,其特征在于,包含如下步骤:
航天器的相机采集交会目标航天器的图像;
对所述的采集的对接口图像进行预处理;
通过OTSU算法对图像进行目标分割,得出感兴趣区域;
对分割得到的感兴趣区域的边界点进行亚像素特征点提取,进行基于亚像素特征点的位姿测量。
2.如权利要求1所述的交会对接航天器相对位姿的测量算法,其特征在于,所述的采集图像的相机采用双目相机,采集时分别得到左图像和右图像。
3.如权利要求2所述的交会对接航天器相对位姿的测量算法,其特征在于,所述的对接口图像进行预处理包含如下子步骤:
分别对左图像和右图像进行去模糊处理; 
对去模糊处理的图像进行降噪处理。
4.如权利要求3所述的交会对接航天器相对位姿的测量算法,其特征在于,所述的去模糊处理采用总变分最小化模糊图像反卷积处理的方法。
5.如权利要求3所述的交会对接航天器相对位姿的测量算法,其特征在于,所述的降噪处理基于SUSAN滤波。
6.如权利要求5所述的交会对接航天器相对位姿的测量算法,其特征在于,在基于SUSAN滤波时,区分特征目标和背景的阈值的选值范围为                                               
7.如权利要求1所述的交会对接航天器相对位姿的测量算法,其特征在于,所述的进行基于亚像素特征点的位姿测量包含如下子步骤:
在提取得到的亚像素特征点中进行双向极线约束特征点匹配,得到同名点对;
若提取的同名点对数量大于3对,采用基于双目视觉的位姿测量方法计算位姿参数;若提取的同名点对数量小于等于3对,采用基于单目视觉的位姿测量方法计算位姿参数。
8.如权利要求7所述的交会对接航天器相对位姿的测量算法,其特征在于,所述的双向极线约束特征点匹配的步骤为:
以左图像或右图像的某图像上的特征点为起始点集,遍历该某图像上的特征点,计算与之对应的另一图像的特征点,得到初始同名点对集合;
以初始同名点对集合中的另一图像上的特征点为起始,遍历初始同名点对集合中该图像的特征点,计算与之对应的某图像特征点,若得到的某图像特征点不在初始同名点对集合中,更新初始同名点对集合中某图像的特征点坐标,得到最优的同名点对。
CN201410744336.9A 2014-12-09 2014-12-09 交会对接航天器相对位姿的测量算法 Expired - Fee Related CN104406594B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410744336.9A CN104406594B (zh) 2014-12-09 2014-12-09 交会对接航天器相对位姿的测量算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410744336.9A CN104406594B (zh) 2014-12-09 2014-12-09 交会对接航天器相对位姿的测量算法

Publications (2)

Publication Number Publication Date
CN104406594A true CN104406594A (zh) 2015-03-11
CN104406594B CN104406594B (zh) 2017-06-06

Family

ID=52644241

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410744336.9A Expired - Fee Related CN104406594B (zh) 2014-12-09 2014-12-09 交会对接航天器相对位姿的测量算法

Country Status (1)

Country Link
CN (1) CN104406594B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107314882A (zh) * 2017-07-03 2017-11-03 哈尔滨工业大学 基于双目立体视觉技术的膜结构气弹模型的风振响应获取方法
CN105910535B (zh) * 2016-05-10 2018-06-08 天津大学 一种用于舱段自动对接的单双目位姿偏差测量方法
CN108801135A (zh) * 2016-05-31 2018-11-13 哈尔滨工业大学 核燃料棒位姿自动识别装置
CN111366162A (zh) * 2020-03-13 2020-07-03 青岛科技大学 基于太阳帆板投影与模板匹配的小天体探测器位姿估计方法
US10882644B1 (en) 2017-07-31 2021-01-05 Space Systems/Loral, Llc Spacecraft rendezvous and docking techniques
CN115720254A (zh) * 2023-01-09 2023-02-28 北京无线电测量研究所 一种视频合成孔径雷达的稳定视频流生成方法和系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101839721A (zh) * 2010-03-12 2010-09-22 西安电子科技大学 自主交会对接中的视觉导航方法
CN101908230A (zh) * 2010-07-23 2010-12-08 东南大学 一种基于区域深度边缘检测和双目立体匹配的三维重建方法
CN102012217A (zh) * 2010-10-19 2011-04-13 南京大学 一种基于双目视觉的大形貌物体三维几何外形测量方法
CN102032878A (zh) * 2009-09-24 2011-04-27 甄海涛 基于双目立体视觉测量系统的精确在线测量方法
CN102175222A (zh) * 2011-03-04 2011-09-07 南开大学 基于立体视觉的吊车避障系统
US20120044476A1 (en) * 2008-05-09 2012-02-23 Ball Aerospace & Technologies Corp. Systems and methods of scene and action capture using imaging system incorporating 3d lidar
CN103247053A (zh) * 2013-05-16 2013-08-14 大连理工大学 基于双目显微立体视觉的零件精确定位方法
US20140122046A1 (en) * 2012-10-31 2014-05-01 Honeywell International Inc. Methods and systems for emulating spacecraft proximity operations in a laboratory

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120044476A1 (en) * 2008-05-09 2012-02-23 Ball Aerospace & Technologies Corp. Systems and methods of scene and action capture using imaging system incorporating 3d lidar
CN102032878A (zh) * 2009-09-24 2011-04-27 甄海涛 基于双目立体视觉测量系统的精确在线测量方法
CN101839721A (zh) * 2010-03-12 2010-09-22 西安电子科技大学 自主交会对接中的视觉导航方法
CN101908230A (zh) * 2010-07-23 2010-12-08 东南大学 一种基于区域深度边缘检测和双目立体匹配的三维重建方法
CN102012217A (zh) * 2010-10-19 2011-04-13 南京大学 一种基于双目视觉的大形貌物体三维几何外形测量方法
CN102175222A (zh) * 2011-03-04 2011-09-07 南开大学 基于立体视觉的吊车避障系统
US20140122046A1 (en) * 2012-10-31 2014-05-01 Honeywell International Inc. Methods and systems for emulating spacecraft proximity operations in a laboratory
CN103247053A (zh) * 2013-05-16 2013-08-14 大连理工大学 基于双目显微立体视觉的零件精确定位方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
钱萍 等: "基于对偶四元数的航天器交会对接位姿双目视觉测量算法", 《宇航学报》 *
高珊 等: "一种基于机器视觉的航天器交会对接相对位置和姿态确定算法研究", 《航天控制》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105910535B (zh) * 2016-05-10 2018-06-08 天津大学 一种用于舱段自动对接的单双目位姿偏差测量方法
CN108801135A (zh) * 2016-05-31 2018-11-13 哈尔滨工业大学 核燃料棒位姿自动识别装置
CN109000557A (zh) * 2016-05-31 2018-12-14 哈尔滨工业大学 一种核燃料棒位姿自动识别方法
CN109000557B (zh) * 2016-05-31 2019-07-05 哈尔滨工业大学 一种核燃料棒位姿自动识别方法
CN107314882A (zh) * 2017-07-03 2017-11-03 哈尔滨工业大学 基于双目立体视觉技术的膜结构气弹模型的风振响应获取方法
US10882644B1 (en) 2017-07-31 2021-01-05 Space Systems/Loral, Llc Spacecraft rendezvous and docking techniques
CN111366162A (zh) * 2020-03-13 2020-07-03 青岛科技大学 基于太阳帆板投影与模板匹配的小天体探测器位姿估计方法
CN111366162B (zh) * 2020-03-13 2021-09-14 青岛科技大学 基于太阳帆板投影与模板匹配的小天体探测器位姿估计方法
CN115720254A (zh) * 2023-01-09 2023-02-28 北京无线电测量研究所 一种视频合成孔径雷达的稳定视频流生成方法和系统
CN115720254B (zh) * 2023-01-09 2023-04-18 北京无线电测量研究所 一种视频合成孔径雷达的稳定视频流生成方法和系统

Also Published As

Publication number Publication date
CN104406594B (zh) 2017-06-06

Similar Documents

Publication Publication Date Title
CN107063228B (zh) 基于双目视觉的目标姿态解算方法
CN104406594A (zh) 交会对接航天器相对位姿的测量算法
Sharma Comparative assessment of techniques for initial pose estimation using monocular vision
EP2833322B1 (en) Stereo-motion method of three-dimensional (3-D) structure information extraction from a video for fusion with 3-D point cloud data
US10417533B2 (en) Selection of balanced-probe sites for 3-D alignment algorithms
Aftab et al. Convergence of iteratively re-weighted least squares to robust m-estimators
CN106595659A (zh) 城市复杂环境下多无人机视觉slam的地图融合方法
Muñoz-Bañón et al. Targetless camera-LiDAR calibration in unstructured environments
CN104281148A (zh) 基于双目立体视觉的移动机器人自主导航方法
Ge et al. Binocular vision calibration and 3D re-construction with an orthogonal learning neural network
KR102126722B1 (ko) 3차원 피사체 인식의 안티-스푸핑 방법
CN114494644A (zh) 一种基于双目立体匹配的空间非合作目标位姿估计与三维重建方法及系统
Ramakrishnan et al. Adaptive window strategy for high-speed and robust KLT feature tracker
CN110634160B (zh) 二维图形中目标三维关键点提取模型构建及姿态识别方法
Lv et al. 3D pose estimation of ground rigid target based on ladar range image
Brink Stereo vision for simultaneous localization and mapping
CN115861352A (zh) 单目视觉、imu和激光雷达的数据融合和边缘提取方法
CN111899284B (zh) 一种基于参数化esm网络的平面目标跟踪方法
Kobayashi et al. AI-Assisted Near-Field Monocular Monostatic Pose Estimation of Spacecraft
Li et al. Camera pose estimation based on global structure from motion
Al-Isawi et al. Pose estimation for mobile and flying robots via vision system
CN109840894A (zh) 视差图精修方法、装置及存储介质
Feng et al. Research on Target Tracking Algorithm of Micro‐UAV Based on Monocular Vision
CN115131401B (zh) 基于多尺度多方向核相关滤波的遥感视频目标跟踪方法
Hong et al. Adaptive ICP Registration Algorithm Based on the Neighborhood of SIFT Feature Points

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170606