CN107527366A - 一种面向深度相机的相机跟踪方法 - Google Patents

一种面向深度相机的相机跟踪方法 Download PDF

Info

Publication number
CN107527366A
CN107527366A CN201710727980.9A CN201710727980A CN107527366A CN 107527366 A CN107527366 A CN 107527366A CN 201710727980 A CN201710727980 A CN 201710727980A CN 107527366 A CN107527366 A CN 107527366A
Authority
CN
China
Prior art keywords
mrow
camera
msub
depth
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710727980.9A
Other languages
English (en)
Other versions
CN107527366B (zh
Inventor
李朔
杨高峰
李骊
周晓军
王行
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei Zhuxi Technology Co ltd
Original Assignee
Shanghai Wisdom Electronic Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Wisdom Electronic Technology Co Ltd filed Critical Shanghai Wisdom Electronic Technology Co Ltd
Priority to CN201710727980.9A priority Critical patent/CN107527366B/zh
Publication of CN107527366A publication Critical patent/CN107527366A/zh
Application granted granted Critical
Publication of CN107527366B publication Critical patent/CN107527366B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种面向深度相机的相机跟踪方法,根据灰度图像的特征点是否明显,选择基于视觉信息的相机跟踪模式和基于深度信息的相机跟踪模式,在基于视觉信息的相机跟踪模式中构建关于光测量误差和深度值误查的联合目标函数,在基于深度信息的相机跟踪模式中构件关于有符号距离函数模型的目标函数。本发明通过双模式切换,增强了系统的适用性,提高了系统的稳定性。

Description

一种面向深度相机的相机跟踪方法
技术领域
本发明属于智能感知技术领域,特别涉及了一种面向深度相机的相机跟踪方法。
背景技术
使用深度相机来构造出视觉里程计而跟踪相机的运动,是Visual SLAM(Simultaneous Localization and Mapping)技术中越来越流行的方法。准确的相机位姿估计,是环境建模的基础,也是Visual SLAM中重要的研究对象。对于相机运动的跟踪,一般常用的方法都是提取和匹配离散的稀疏视觉特征,然后再利用重投影误差构造出目标函数,再求解目标函数的最小值从而来估算相机的位姿。该类方法的有效性与准确度依赖于图像特征的关键点与描述子;在特征提取的过程中,会耗费较大的计算资源。
中国专利申请(公开号106556412A)公开了“一种室内环境下考虑地面约束的RGB-D视觉里程计方法”。该方法使用RGB-D彩色深度信息构造出空间点云,再提取彩色图的ORB旋转不变视觉特征,从而构造出增强的点集。这样在假设相机常速运动模型的前提下,通过地面的平面信息,以及相机的高度与俯仰角信息,可以预先估计出平面在下一帧中的可能位置,以此作为初值,来匹配对齐增强的点集,就可以比较准确地估算相机的相对位姿变换。在视觉特征缺失或视觉信息中所包含的特征角点比较少的情形下,该方法就比较容易受到局限。
中国专利申请(申请号:201610219378)公开了“一种融合RGB和Depth信息的视觉里程计实现方法”。该方法首先提取特征点,并通过随机采样一致性(RANSAC)进行粗略的匹配。然后,再通过对点云进行降采样,以及迭代最近点方法(ICP)进行精细的匹配。由于使用了视觉特征点,同样使得对于特征点不够明显的情形,该方法有着非常大的局限性。
中国专利申请(公开号:105045263A)公开了“一种基于Kinect的机器人自定位方法”。类似于平面激光雷达与环境模型匹配的方法,该方法首先提取出点云中的地面特征,然后将三维点云投影到二维地面上,再对地面上的投影与环境栅格模型进行匹配,从而估算相机的帧间相对运动。由于事先构造好了环境的平面栅格地图作为参照来进行匹配,计算结果相对比较准确。但是,由于依赖于已有的环境模型,使得适用范围比较局限,不适应未知环境模型的场合进行在线运动跟踪。
综上可见,基于视觉特征点的方法比较依赖于环境中的丰富特征点信息,使得适用范围受到严重限制。
发明内容
为了解决上述背景技术提出的技术问题,本发明旨在提供一种面向深度相机的相机跟踪方法,根据图像的灰度梯度变化选择不同的处理方式,增强了适用性。
为了实现上述技术目的,本发明的技术方案为:
一种面向深度相机的相机跟踪方法,包括以下步骤:
(1)初始化深度相机的位姿;
(2)将深度相机获取的彩色图像转换为灰度图像;
(3)提取出灰度图像中灰度梯度变化大于设定阈值a的像素点,将这些像素点作为灰度梯度变化明显的像素点;
(4)若灰度梯度变化明显的像素点数目大于设定阈值b,则对于灰度梯度明显的像素点,构造光测量误差函数和深度值误差函数,并利用这两个函数的二范数构造出联合目标函数,优化联合目标函数估算相机位姿的变化,得到当前时刻的相机位姿;若灰度梯度变化明显的像素点数目未大于设定阈值b,则进入步骤(5);
(5)利用当前时刻的深度图数据构建出有符号距离函数模型,从而量化出空间体素网格与所感知的物体表面的距离,通过有符号距离函数模型构造目标函数,通过优化目标函数得到当前时刻的相机位姿。
进一步地,在步骤(4)中,所述光测量误差函数如下式所示:
上式中,E1(x)表示光测量误差函数,x表示成像平面上的像素坐标,In(x)表示第n帧图像中像素点的灰度值,π(·)表示重投影函数,π-1(·)表示重投影的逆函数,Tn,n-1表示相机位姿的增量变化,Tn-1表示上一时刻的相机位姿,i表示所有灰度梯度明显的像素点的索引。
进一步地,在步骤(4)中,所述深度值误差函数如下式所示:
Ez(x)=[Tn,n-1·Tn-1·π-1(x)]z-Zn(π(Tn,n-1·Tn-1·π-1(x)))
上式中,Ez(x)表示深度值误差函数,Zn(·)表示灰度梯度明显的像素点所关联的空间点的深度数值,[·]z表示取z方向的分量。
进一步地,在步骤(4)中,所述联合目标函数如下式所示:
上式中,E(x)表示联合目标函数,上标T表示转置;
通过求解E(x)的最小值,得到Tn,n-1,再根据Tn,n-1得到当前时刻的相机位姿Tn:Tn=Tn,n-1·Tn-1
进一步地,在步骤(5)中,所述有符号距离函数模型为,对于物体被感知的三维表面,有符号距离函数的数值为零;在该感知表面的外侧,即物体的前方,有符号距离函数为正值,且其数值大小与该点与感知表面的距离成正比;在该感知表面的内侧,即物体的后方,有符号距离函数为负值,且其数值大小与该点与感知表面的距离成正比。
进一步地,步骤(5)的具体步骤如下:
(501)利用当前深度图数据构建有符号距离函数模型;
(502)在下一帧深度图数据到来之时,通过惯导传感器获取前后两帧之间的相对位姿变化,根据下式计算当前时刻相机位姿的预测值:
ETn=ETn,n-1·Tn-1
上式中,ETn为当前时刻相机位姿的预测值,ETn,n-1为前后两帧之间的相对位姿变化,Tn-1为上一时刻相机位姿;
(503)将当前帧所感知的空间点在相机坐标系中的坐标值转换到世界坐标系中:
Pw=R·Pc+t
上式中,Pw为空间点在世界坐标系中的坐标值,Pc为空间点在相机坐标系中的坐标值,R为旋转矩阵,t为平移向量,R和t根据当前时刻相机位姿的预测值ETn得到,
(504)构造目标函数:
上式中,E为目标函数,SDF2(Pw)表示点Pw处有符号距离函数的平方,i表示当前帧图像中所有像素点的索引;
(505)将ETn作为求解目标函数的初值,在初值附近调整,得到目标函数的最小值,则该最小值对应的解即为当前时刻的相机位姿Tn
采用上述技术方案带来的有益效果:
本发明不需要提取彩色图像的特征,相反,仅仅针对灰度图中灰度梯度变化较大的像素点进行处理,这样大大减少了计算量,对于灰度梯度不明显的情形,切换到直接使用深度图进行“点云与模型匹配”的模式,因此不受限制于有光照的情形,即使在无光照情况下,基于深度图的方法依旧可以发挥作用。
附图说明
图1是本发明的方法流程图。
具体实施方式
以下将结合附图,对本发明的技术方案进行详细说明。
一种面向深度相机的相机跟踪方法,如图1所示,具体步骤如下。
步骤1:初始化深度相机的位姿。
步骤2:将深度相机获取的彩色图像转换为灰度图像。
步骤3:提取出灰度图像中灰度梯度变化大于设定阈值a的像素点,将这些像素点作为灰度梯度变化明显的像素点。
步骤4:若灰度梯度变化明显的像素点数目大于设定阈值b,则对于灰度梯度明显的像素点,构造光测量误差函数和深度值误差函数,并利用这两个函数的二范数构造出联合目标函数,优化联合目标函数估算相机位姿的变化,得到当前时刻的相机位姿;若灰度梯度变化明显的像素点数目未大于设定阈值b(例如成像环境较暗或成像对象为纯色区域),则进入步骤5。
所述光测量误差函数如下式所示:
上式中,E1(x)表示光测量误差函数,x表示成像平面上的像素坐标,In(x)表示第n帧图像中像素点的灰度值,π(·)表示重投影函数,π-1(·)表示重投影的逆函数,Tn,n-1表示相机位姿的增量变化,Tn-1表示上一时刻的相机位姿,i表示所有灰度梯度明显的像素点的索引。
对于空间点[xc,yc,zc]T以及所对应的成像平面上的像素点[u,v]T,相机的焦距[fx,fy]T,成像平面的光心[cx,cy]T,则重投影函数如下:
重投影函数的逆函数如下:
上式中,d为像素点的深度值,s为缩放因子。
所述深度值误差函数如下式所示:
Ez(x)=[Tn,n-1·Tn-1·π-1(x)]z-Zn(π(Tn,n-1·Tn-1·π-1(x)))
上式中,Ez(x)表示深度值误差函数,Zn(·)表示灰度梯度明显的像素点所关联的空间点的深度数值,[·]z表示取z方向的分量。
所述联合目标函数如下式所示:
上式中,E(x)表示联合目标函数,上标T表示转置。
通过求解E(x)的最小值,得到Tn,n-1,再根据Tn,n-1得到当前时刻的相机位姿Tn:Tn=Tn,n-1·Tn-1
步骤5:利用当前时刻的深度图数据构建出有符号距离函数模型,从而量化出空间体素网格与所感知的物体表面的距离,通过有符号距离函数模型构造目标函数,通过优化目标函数得到当前时刻的相机位姿。
所述有符号距离函数(Signed Distance Function,SDF)模型为,对于物体被感知的三维表面,有符号距离函数的数值为零;在该感知表面的外侧,即物体的前方,有符号距离函数为正值,且其数值大小与该点与感知表面的距离成正比;在该感知表面的内侧,即物体的后方,有符号距离函数为负值,且其数值大小与该点与感知表面的距离成正比。
步骤5的具体步骤如下:
(1)利用当前深度图数据构建有符号距离函数模型;
(2)在下一帧深度图数据到来之时,通过惯导传感器获取前后两帧之间的相对位姿变化,根据下式计算当前时刻相机位姿的预测值:
ETn=ETn,n-1·Tn-1
上式中,ETn为当前时刻相机位姿的预测值,ETn,n-1为前后两帧之间的相对位姿变化,Tn-1为上一时刻相机位姿;
(3)将当前帧所感知的空间点在相机坐标系中的坐标值转换到世界坐标系中:
Pw=R·Pc+t
上式中,Pw为空间点在世界坐标系中的坐标值,Pc为空间点在相机坐标系中的坐标值,R为旋转矩阵,t为平移向量,R和t根据当前时刻相机位姿的预测值ETn得到,
(4)构造目标函数:
上式中,E为目标函数,SDF2(Pw)表示点Pw处有符号距离函数的平方,i表示当前帧图像中所有像素点的索引;
(5)将ETn作为求解目标函数的初值,在初值附近调整,得到目标函数的最小值,则该最小值对应的解即为当前时刻的相机位姿Tn
实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。

Claims (6)

1.一种面向深度相机的相机跟踪方法,其特征在于,包括以下步骤:
(1)初始化深度相机的位姿;
(2)将深度相机获取的彩色图像转换为灰度图像;
(3)提取出灰度图像中灰度梯度变化大于设定阈值a的像素点,将这些像素点作为灰度梯度变化明显的像素点;
(4)若灰度梯度变化明显的像素点数目大于设定阈值b,则对于灰度梯度明显的像素点,构造光测量误差函数和深度值误差函数,并利用这两个函数的二范数构造出联合目标函数,优化联合目标函数估算相机位姿的变化,得到当前时刻的相机位姿;若灰度梯度变化明显的像素点数目未大于设定阈值b,则进入步骤(5);
(5)利用当前时刻的深度图数据构建出有符号距离函数模型,从而量化出空间体素网格与所感知的物体表面的距离,通过有符号距离函数模型构造目标函数,通过优化目标函数得到当前时刻的相机位姿。
2.根据权利要求1所述面向深度相机的相机跟踪方法,其特征在于:在步骤(4)中,所述光测量误差函数如下式所示:
<mrow> <msub> <mi>E</mi> <mn>1</mn> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mi>i</mi> </munder> <msup> <mrow> <mo>|</mo> <msub> <mi>I</mi> <mi>n</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>I</mi> <mrow> <mi>n</mi> <mo>-</mo> <mn>1</mn> </mrow> </msub> <mrow> <mo>(</mo> <mi>&amp;pi;</mi> <mo>(</mo> <mrow> <msub> <mi>T</mi> <mrow> <mi>n</mi> <mo>,</mo> <mi>n</mi> <mo>-</mo> <mn>1</mn> </mrow> </msub> <mo>&amp;CenterDot;</mo> <msub> <mi>T</mi> <mrow> <mi>n</mi> <mo>-</mo> <mn>1</mn> </mrow> </msub> <mo>&amp;CenterDot;</mo> <msup> <mi>&amp;pi;</mi> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mo>|</mo> </mrow> <mn>2</mn> </msup> </mrow>
上式中,E1(x)表示光测量误差函数,x表示成像平面上的像素坐标,In(x)表示第n帧图像中像素点的灰度值,π(·)表示重投影函数,π-1(·)表示重投影的逆函数,Tn,n-1表示相机位姿的增量变化,Tn-1表示上一时刻的相机位姿,i表示所有灰度梯度明显的像素点的索引。
3.根据权利要求2所述面向深度相机的相机跟踪方法,其特征在于:在步骤(4)中,所述深度值误差函数如下式所示:
Ez(x)=[Tn,n-1·Tn-1·π-1(x)]z-Zn(π(Tn,n-1·Tn-1·π-1(x)))
上式中,Ez(x)表示深度值误差函数,Zn(·)表示灰度梯度明显的像素点所关联的空间点的深度数值,[·]z表示取z方向的分量。
4.根据权利要求2所述面向深度相机的相机跟踪方法,其特征在于:在步骤(4)中,所述联合目标函数如下式所示:
<mrow> <mi>E</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mi>i</mi> </munder> <msubsup> <mi>E</mi> <mn>1</mn> <mi>T</mi> </msubsup> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <msub> <mi>E</mi> <mn>1</mn> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>+</mo> <msubsup> <mi>E</mi> <mi>z</mi> <mi>T</mi> </msubsup> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>&amp;CenterDot;</mo> <msub> <mi>E</mi> <mi>z</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> </mrow>
上式中,E(x)表示联合目标函数,上标T表示转置;
通过求解E(x)的最小值,得到Tn,n-1,再根据Tn,n-1得到当前时刻的相机位姿Tn:Tn=Tn,n-1·Tn-1
5.根据权利要求1所述面向深度相机的相机跟踪方法,其特征在于:在步骤(5)中,所述有符号距离函数模型为,对于物体被感知的三维表面,有符号距离函数的数值为零;在该感知表面的外侧,即物体的前方,有符号距离函数为正值,且其数值大小与该点与感知表面的距离成正比;在该感知表面的内侧,即物体的后方,有符号距离函数为负值,且其数值大小与该点与感知表面的距离成正比。
6.根据权利要求5所述面向深度相机的相机跟踪方法,其特征在于:步骤(5)的具体步骤如下:
(501)利用当前深度图数据构建有符号距离函数模型;
(502)在下一帧深度图数据到来之时,通过惯导传感器获取前后两帧之间的相对位姿变化,根据下式计算当前时刻相机位姿的预测值:
ETn=ETn,n-1·Tn-1
上式中,ETn为当前时刻相机位姿的预测值,ETn,n-1为前后两帧之间的相对位姿变化,Tn-1为上一时刻相机位姿;
(503)将当前帧所感知的空间点在相机坐标系中的坐标值转换到世界坐标系中:
Pw=R·Pc+t
上式中,Pw为空间点在世界坐标系中的坐标值,Pc为空间点在相机坐标系中的坐标值,R为旋转矩阵,t为平移向量,R和t根据当前时刻相机位姿的预测值ETn得到,
(504)构造目标函数:
<mrow> <mi>E</mi> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mi>i</mi> </munder> <msup> <mi>SDF</mi> <mn>2</mn> </msup> <mrow> <mo>(</mo> <msub> <mi>P</mi> <mi>w</mi> </msub> <mo>)</mo> </mrow> </mrow>
上式中,E为目标函数,SDF2(Pw)表示点Pw处有符号距离函数的平方,i表示当前帧图像中所有像素点的索引;
(505)将ETn作为求解目标函数的初值,在初值附近调整,得到目标函数的最小值,则该最小值对应的解即为当前时刻的相机位姿Tn
CN201710727980.9A 2017-08-23 2017-08-23 一种面向深度相机的相机跟踪方法 Active CN107527366B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710727980.9A CN107527366B (zh) 2017-08-23 2017-08-23 一种面向深度相机的相机跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710727980.9A CN107527366B (zh) 2017-08-23 2017-08-23 一种面向深度相机的相机跟踪方法

Publications (2)

Publication Number Publication Date
CN107527366A true CN107527366A (zh) 2017-12-29
CN107527366B CN107527366B (zh) 2020-04-10

Family

ID=60681959

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710727980.9A Active CN107527366B (zh) 2017-08-23 2017-08-23 一种面向深度相机的相机跟踪方法

Country Status (1)

Country Link
CN (1) CN107527366B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108615244A (zh) * 2018-03-27 2018-10-02 中国地质大学(武汉) 一种基于cnn和深度滤波器的图像深度估计方法及系统
CN109947886A (zh) * 2019-03-19 2019-06-28 腾讯科技(深圳)有限公司 图像处理方法、装置、电子设备及存储介质
CN110059651A (zh) * 2019-04-24 2019-07-26 北京计算机技术及应用研究所 一种相机实时跟踪注册方法
CN110375765A (zh) * 2019-06-28 2019-10-25 上海交通大学 基于直接法的视觉里程计方法、系统及存储介质
CN110657803A (zh) * 2018-06-28 2020-01-07 深圳市优必选科技有限公司 机器人定位方法、装置以及存储装置
CN110926334A (zh) * 2019-11-29 2020-03-27 深圳市商汤科技有限公司 测量方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102216957A (zh) * 2008-10-09 2011-10-12 埃西斯创新有限公司 图像中对象的视觉跟踪以及图像分割
CN105678754A (zh) * 2015-12-31 2016-06-15 西北工业大学 一种无人机实时地图重建方法
CN105809687A (zh) * 2016-03-08 2016-07-27 清华大学 一种基于图像中边沿点信息的单目视觉测程方法
CN105825520A (zh) * 2015-01-08 2016-08-03 北京雷动云合智能技术有限公司 一种可创建大规模地图的单眼slam方法
CN107025668A (zh) * 2017-03-30 2017-08-08 华南理工大学 一种基于深度相机的视觉里程计的设计方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102216957A (zh) * 2008-10-09 2011-10-12 埃西斯创新有限公司 图像中对象的视觉跟踪以及图像分割
CN105825520A (zh) * 2015-01-08 2016-08-03 北京雷动云合智能技术有限公司 一种可创建大规模地图的单眼slam方法
CN105678754A (zh) * 2015-12-31 2016-06-15 西北工业大学 一种无人机实时地图重建方法
CN105809687A (zh) * 2016-03-08 2016-07-27 清华大学 一种基于图像中边沿点信息的单目视觉测程方法
CN107025668A (zh) * 2017-03-30 2017-08-08 华南理工大学 一种基于深度相机的视觉里程计的设计方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
唐巍,等: ""灰色关联分析法在双目视觉测量系统误差分析中的应用"", 《光学精密工程》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108615244A (zh) * 2018-03-27 2018-10-02 中国地质大学(武汉) 一种基于cnn和深度滤波器的图像深度估计方法及系统
CN110657803A (zh) * 2018-06-28 2020-01-07 深圳市优必选科技有限公司 机器人定位方法、装置以及存储装置
CN110657803B (zh) * 2018-06-28 2021-10-29 深圳市优必选科技有限公司 机器人定位方法、装置以及存储装置
CN109947886A (zh) * 2019-03-19 2019-06-28 腾讯科技(深圳)有限公司 图像处理方法、装置、电子设备及存储介质
CN109947886B (zh) * 2019-03-19 2023-01-10 腾讯科技(深圳)有限公司 图像处理方法、装置、电子设备及存储介质
CN110059651A (zh) * 2019-04-24 2019-07-26 北京计算机技术及应用研究所 一种相机实时跟踪注册方法
CN110059651B (zh) * 2019-04-24 2021-07-02 北京计算机技术及应用研究所 一种相机实时跟踪注册方法
CN110375765A (zh) * 2019-06-28 2019-10-25 上海交通大学 基于直接法的视觉里程计方法、系统及存储介质
CN110375765B (zh) * 2019-06-28 2021-04-13 上海交通大学 基于直接法的视觉里程计方法、系统及存储介质
CN110926334A (zh) * 2019-11-29 2020-03-27 深圳市商汤科技有限公司 测量方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN107527366B (zh) 2020-04-10

Similar Documents

Publication Publication Date Title
CN107527366A (zh) 一种面向深度相机的相机跟踪方法
CN105096386B (zh) 大范围复杂城市环境几何地图自动生成方法
CN105809687B (zh) 一种基于图像中边沿点信息的单目视觉测程方法
CN104484648B (zh) 基于轮廓识别的机器人可变视角障碍物检测方法
CN104484668B (zh) 一种无人机多重叠遥感影像的建筑物轮廓线提取方法
CN103400409B (zh) 一种基于摄像头姿态快速估计的覆盖范围3d可视化方法
CN104299244B (zh) 基于单目相机的障碍物检测方法及装置
CN104704384B (zh) 具体用于装置的基于视觉的定位的图像处理方法
CN109544636A (zh) 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法
CN105956539B (zh) 一种应用背景建模和双目视觉原理的人体身高测量方法
CN106204443A (zh) 一种基于多目复用的全景无人机系统
CN103886107B (zh) 基于天花板图像信息的机器人定位与地图构建系统
CN107292965A (zh) 一种基于深度图像数据流的虚实遮挡处理方法
CN105225230A (zh) 一种识别前景目标对象的方法及装置
CN106780592A (zh) 基于相机运动和图像明暗的Kinect深度重建算法
CN107481315A (zh) 一种基于Harris‑SIFT‑BRIEF算法的单目视觉三维环境重建方法
CN109671120A (zh) 一种基于轮式编码器的单目slam初始化方法及系统
CN107679537A (zh) 一种基于轮廓点orb特征匹配的无纹理空间目标姿态估计算法
CN105184857A (zh) 基于点结构光测距的单目视觉重建中尺度因子确定方法
CN109523589A (zh) 一种更鲁棒的视觉里程计的设计方法
CN112270698B (zh) 基于最邻近曲面的非刚性几何配准方法
CN107677274A (zh) 基于双目视觉的无人机自主着陆导航信息实时解算方法
CN104574387A (zh) 水下视觉slam系统中的图像处理方法
CN111998862B (zh) 一种基于bnn的稠密双目slam方法
CN108362205A (zh) 基于条纹投影的空间测距方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: Building 26, Tsinghua Road Science and Technology Park, No. 5708 Jinxiu Avenue, Hefei Economic and Technological Development Zone, Anhui Province, 230000

Patentee after: Hefei Zhuxi Technology Co.,Ltd.

Address before: 201301 Shanghai Pudong New Area China (Shanghai) Pilot Free Trade Zone 5709 Shenjiang Road, Building 1 607, No. 26 Qiuyue Road

Patentee before: SHANGHAI SHIZHI ELECTRONIC TECHNOLOGY CO.,LTD.

CP03 Change of name, title or address
PP01 Preservation of patent right

Effective date of registration: 20230824

Granted publication date: 20200410

PP01 Preservation of patent right