CN106780576B - 一种面向rgbd数据流的相机位姿估计方法 - Google Patents
一种面向rgbd数据流的相机位姿估计方法 Download PDFInfo
- Publication number
- CN106780576B CN106780576B CN201611046495.7A CN201611046495A CN106780576B CN 106780576 B CN106780576 B CN 106780576B CN 201611046495 A CN201611046495 A CN 201611046495A CN 106780576 B CN106780576 B CN 106780576B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- camera
- camera pose
- dimensional
- dimensional point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000013507 mapping Methods 0.000 claims abstract description 31
- 239000011159 matrix material Substances 0.000 claims abstract description 24
- 230000009466 transformation Effects 0.000 claims abstract description 15
- 238000001914 filtration Methods 0.000 claims abstract description 12
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 239000013598 vector Substances 0.000 claims description 29
- 230000002146 bilateral effect Effects 0.000 claims description 4
- 239000003086 colorant Substances 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 3
- 238000005457 optimization Methods 0.000 abstract description 3
- 238000010276 construction Methods 0.000 abstract description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 101150041326 air-2 gene Proteins 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明涉及一种面向RGBD数据流的相机位姿估计方法,包括构建三维点云映射图、三维点云映射图的配准两个部分。首先将深度数据进行滤波等预处理操作,然后根据相机内参将预处理后的深度图像构建三维点云映射图;根据上一帧的相机位姿,采用投影映射算法对两帧三维点云映射图进行对应点匹配,然后对点到平面的距离误差函数作能量优化,估计两帧点云间变换矩阵的六个参数;根据上一帧的相机位姿估计当前帧的相机位姿,迭代上述过程优化得到最终的相机位姿。本发明能够在现有的移动设备上实时运行,并能够在输入数据分辨率较低时也能得到良好的结果。
Description
技术领域
本发明属于计算机视觉与计算机图形图像处理领域,具体地说是一种面向RGBD数据流的相机实时位姿估计方法,该方法可在输入数据分辨率较低、深度数据存在空洞和噪声、设备运算能力较低的情况下实时地估计相机位姿,对于SLAM和实时三维重建技术的研究有着重要意义。
背景技术
随着深度传感器的普及和三维重建技术的发展,近年来基于深度数据的三维模型重建的研究正在兴起。与传统基于RGB数据的三维重建相比,深度数据提供了场景的三维信息,极大地提高了三维重建的可行性和精度。而相机位姿的估计在三维重建等相关应用场景中起到了至关重要的作用。
目前在三维重建中相机位姿估计方法可以分为以下三类:一是基于RGB图像的方法,这类方法大多利用RGB图像进行特征点匹配,然后估计两幅图像的变换矩阵,由于没有深度信息,这类方法估计的变换矩阵精度较低;二是基于深度图像的方法,或是基于RGBD的方法,这类方法借助深度数据提供的三维信息,进行三维点云配准,精度相对较高;三是基于惯性传感器的方法,这类方法利用加速度计、电子罗盘和陀螺仪等惯性导航设备,有的也结合视觉估计相机位姿,鲁棒性和精度一般较高,但对硬件设备的需求较高。
上述相机位姿估计方法有的耗时较大,比如特征点的提取,能量方程的优化等步骤,有的对输入数据的质量要求较高,如光照一致、分辨率较高等,通常难以在移动设备等运算效率较低的平台上达到实时性的要求。
发明内容
为克服上述缺点,本发明的目的在于根据RGBD数据流的特点,结合三维重建的需求,提供一种相机位姿实时估计方法,其能够在现有的移动设备上实时运行,并能够在输入数据分辨率较低时也能得到良好的结果。
为了达到上述目的,本发明提出了一种面向RGBD数据流的相机位姿实时估计方法,其特征在于包括以下步骤:
步骤(1)、对原始RGBD数据流中的深度数据作预处理操作,得到平滑的深度数据;同时对原始RGBD数据流中的RGB图像去模糊;
步骤(2)、对平滑的深度数据,根据相机内部参数,将所述深度数据中的每一个像素点的深度转化为相机坐标系下的三维坐标;利用相邻像素的三维坐标值计算每一个像素对应的三维点云的法向量;由所述三维坐标和法向量构成三维点云映射图;
步骤(3)、对于当前帧和上一帧的两组三维点云映射图,利用当前估计的相机位姿和上一帧的相机位姿,将当前帧三维点云映射图中每一个像素的三维点云坐标P1转化到上一帧相机坐标系下的坐标,再利用相机内部参数投影到像素坐标系下,获得上一帧三维点云映射图中对应像素坐标的点云数据P2;将P1与P2分别计算在世界坐标系下的三维坐标和法向量以及颜色值,其中三维坐标的距离、法向量的夹角及颜色的差值均在设定阈值范围内的对应点对视为匹配;
步骤(4)、将两帧三维点云映射图之间的相机变换矩阵表示为六个参数,根据点到平面的距离误差函数,利用步骤(3)所得的对应点对构造系数矩阵,求解所述六个参数的线性方程组,将所述六个参数转化为当前估计的两帧三维点云映射图之间的相机变换矩阵;
步骤(5)、根据步骤(4)所得的两帧三维点云映射图之间的相机变换矩阵,及上一帧的相机位姿,估计当前帧的相机位姿,再将估计的当前相机位姿代回到步骤(3)中,迭代步骤(3)~(4)直到设定次数或误差在设定范围内。
所述(1)中,预处理操作包括阈值分割和滤波去噪,所述滤波去噪采用快速双边滤波,对带有噪声的深度数据进行滤波去噪;对RGBD数据流中带有运动模糊的RGB图像通过维纳滤波进行去模糊操作。
所述(5)中,迭代步骤(3)~(4)的次数为6次。
本发明的原理在于:首先结合深度相机采集精度的分布特征,对深度图像进行阈值分割,保留深度值在一定范围内的像素点。采用快速双边滤波,对带有噪声的深度数据进行滤波去噪。对预处理后的深度图像,根据相机内部参数计算每一个像素对应的相机坐标系下的三维坐标,构成初步的三维点云映射图。基于相邻像素的点云在三维坐标系下也相邻的假设,利用相邻像素的三维坐标的差值,计算每一个像素对应的点云法向量,构造三维点云映射图。为了找到两幅三维点云映射图的对应点,首先利用当前估计的相机位姿和上一帧的相机位姿,将当前帧每一个像素的三维点云坐标转化到上一帧相机坐标系下的坐标,再利用相机内部参数投影到像素坐标系下,获得上一帧三维点云映射图中对应像素坐标的数据,法向量的夹角、三维坐标的距离以及灰度值的差值在一定阈值范围内的对应点视为匹配。为了得到两帧数据的相机变换矩阵,根据点到平面的距离误差函数,求解关于相机位姿六个参数的线性方程组,然后利用上一帧的相机位姿估计当前的相机位姿。迭代对应点匹配和误差距离函数优化的过程优化当前帧的相机位姿。
本发明中深入分析了三维重建中对相机位姿估计的需求,与现有的一般针对三维重建的相机位姿估计方法相比的优点在于:
(1)对低分辨率的深度数据能够得到比较精确的相机位姿估计结果。现有的相机位姿估计算法大多针对640*480分辨率的深度数据,本发明在输入低分辨率的深度数据(如320*240)时,结合了颜色信息,弥补了深度数据分辨率低的缺点,提高了相机位姿估计的精确度。
(2)考虑移动设备等计算能力有限的应用场合,能够在现有的移动平台下使相机位姿估计达到实时。本发明将三维点云的配准转化为二维的点云映射图的配准,大大减小了计算量,并且所有步骤均可在GPU下加速执行,能够空出CPU的资源用于其他模块。经过实验,在移动设备上相机位姿估计的帧率能够达到15fps,而现有的大多数位姿估计算法只能在PC机上达到实时。
附图说明
图1为本发明中输入低分辨率(320*240)RGBD数据时,相机位姿估计在不同迭代次数下的相对误差值(以1000帧数据为例);
图2为本发明中输入低分辨率(320*240)RGBD数据时,相机位姿估计在不同迭代次数下的绝对误差值(以1000帧数据为例);
图3为本发明中移动平台下输入低分辨率(320*240)RGBD数据时,相机位姿估计算法在各个不同阶段的平均耗时情况,每一步都在GPU上执行,步骤(3),(4)以迭代6次耗时为例;
图4为本发明的一种面向RGBD数据流的相机位姿估计方法的原理图。
具体实施方式
结合附图对本发明实施例进行详细的描述。
如图4所示,本发明的实施过程主要分成四个步骤:深度数据预处理、构建三维点云映射图、对应点匹配、优化距离误差。
步骤一、深度数据预处理
其主要步骤为:
(1)对于给定的输入RGBD(彩色+深度)数据流中的深度数据,根据深度相机的误差范围设定阈值wmin,wmax,深度值在wmin与wmax之间的点视为可信值,只保留阈值范围内的深度数据I。
(2)对深度数据的每一个像素做快速双边滤波,具体如下:
其中pj为像素pi的邻域内的像素,s为邻域内有效像素的个数,σ1与σ2为预设参数,dpi为像素pi滤波后的深度值。
(3)对给定的输入RGBD数据流中的RGB数据作维纳滤波去模糊。
步骤二、构建三维点云映射图
其主要步骤为:
(1)根据相机内部参数,对滤波后的深度数据图中的每一个像素,计算其在相机坐标系下的三维坐标:
p(x,y,z)=K*(u,v,d)T (2)
其中,p为映射后的三维点坐标,u,v为滤波后的深度数据图中的像素坐标,d为对应的深度值,K为深度相机的内参矩阵。
(2)对每一个像素在相机坐标系下的三维坐标,根据其相邻像素的三维坐标,计算其法向量:
n(u,v)=normalize(cross(p(u+1,v)-p(u-1,v),p(u,v+1)-p(u,v-1))) (3)
其中,normalize为向量的单位化,cross为向量的叉乘运算,p(u,v)为像素坐标u,v处的三维点坐标。
最终的三维点云映射图是一组二维数据,每一个像素存储对应三维点云在相机坐标系下的三维点坐标p以及对应的法向量n。
步骤三、对应点匹配
假设当前为第i帧,那么按照如下所述的方式匹配第i帧与第i-1帧数据的对应点对。
(1)根据当前估计的相机位姿矩阵,将第i帧的三维点云映射图中的每一个像素在世界坐标系下的三维坐标和法向量。具体对每一个像素作如下操作:
(2)计算每一个像素上由式(4)计算所得的三维坐标在上一帧坐标系下对应的像素:
sp=K-1*(Ti-1 -1*p_gi) (5)
其中,Ti-1表示上一帧的相机位姿,K为深度相机的内参矩阵,sp为三维点向上一帧像素坐标系投影得到的像素坐标。
(3)根据第i-1帧的相机位姿矩阵按照式(4)计算第i-1帧三维点云映射图在像素sp处世界坐标系下的点云坐标p_gi-1和法向量n_gi-1。
(4)按照如下所述的方式计算三维坐标和法向量的差值筛选对应点:
其中,ci为对应像素的RGB值,cross为向量的叉乘运算。dist_p表示对应点三维坐标的距离,dist_n表示对应点法向量的夹角正弦值,dist_c表示对应点颜色的差值。dist_p、dist_n、dist_c均在一定阈值范围内的点对视为第i帧与第i-1帧的对应点对。
步骤四、优化距离误差
其主要步骤为:
(2)对每一组对应点对,构造其系数矩阵和目标向量
(3)将所有对应点对的系数矩阵和目标向量相加,求解变换矩阵系数:
(4)根据上述所得的六个参数构造变换矩阵:
步骤五、迭代
如式(11)所述更新第i帧估计的相机位姿矩阵,迭代步骤三与步骤四若干次,最终得到第i帧的相机位姿矩阵:
Tk=Tinc·Tk-1 (11)
其中,Tk表示第k次迭代时估计的相机位姿矩阵。
如图1所示,为本发明在不同迭代次数下的相对位姿误差RPE,该指标衡量局部相机位姿的漂移程度,输入为320*240的深度图像和640*480的RGB图像,数据长度为1000帧,轨迹长度大约20m,可以发现迭代步骤(3)(4)6次以上时,RPE基本保持稳定,即基本收敛。
如图2所示,为本发明在不同迭代次数下的绝对位姿误差ATE,该指标衡量相机轨迹的全局误差,输入为320*240的深度图像和640*480的RGB图像,数据长度为1000帧,轨迹长度大约20m,可以发现迭代步骤(3)(4)6次以上时,ATE基本保持稳定,即基本收敛。
如图3所示,为本发明在步骤(3)(4)迭代次数为6时,各步骤的耗时情况,实验在移动设备iPad Air2上进行,可以发现本发明相机位姿估计的平均帧耗时约为66ms,已达到实时,其中步骤(3)(4)耗时最大。
总之,本发明与现有技术相比,能够适应输入深度数据分辨率较低的场景,并且具有较高的时间效率,能够在移动设备上实时运行。
Claims (3)
1.一种面向RGBD数据流的相机位姿估计方法,其特征在于包括以下步骤:
步骤(1)、对原始RGBD数据流中的深度数据作预处理操作,得到平滑的深度数据;同时对原始RGBD数据流中的RGB图像去模糊;
步骤(2)、对平滑的深度数据,根据相机内部参数,将所述深度数据中的每一个像素点的深度转化为相机坐标系下的三维坐标;利用相邻像素的三维坐标值计算每一个像素对应的三维点云的法向量;由所述三维坐标和法向量构成三维点云映射图;
步骤(3)、对于当前帧和上一帧的两组三维点云映射图,利用当前估计的相机位姿和上一帧的相机位姿,将当前帧三维点云映射图中每一个像素的三维点云坐标P1转化到上一帧相机坐标系下的坐标,再利用相机内部参数投影到像素坐标系下,获得上一帧三维点云映射图中对应像素坐标的点云数据P2;将P1与P2分别计算在世界坐标系下的三维坐标和法向量以及颜色值,其中三维坐标的距离、法向量的夹角及颜色的差值均在设定阈值范围内的对应点对视为匹配;
步骤(4)、将两帧三维点云映射图之间的相机变换矩阵表示为六个参数,根据点到平面的距离误差函数,利用步骤(3)所得的对应点对构造系数矩阵,求解所述六个参数的线性方程组,将所述六个参数转化为当前估计的两帧三维点云映射图之间的相机变换矩阵;
步骤(5)、根据步骤(4)所得的两帧三维点云映射图之间的相机变换矩阵,及上一帧的相机位姿,估计当前帧的相机位姿,再将估计的当前相机位姿代回到步骤(3)中,迭代步骤(3)~(4)直到设定次数或误差在设定范围内。
2.根据权利要求1所述的面向RGBD数据流的相机位姿估计方法,其特征在于:所述(1)中,预处理操作包括阈值分割和滤波去噪,所述滤波去噪采用快速双边滤波,对带有噪声的深度数据进行滤波去噪;对RGBD数据流中带有运动模糊的RGB图像通过维纳滤波进行去模糊操作。
3.根据权利要求1所述的面向RGBD数据流的相机位姿估计方法,其特征在于:所述(5)中,迭代步骤(3)~(4)的次数为6次。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611046495.7A CN106780576B (zh) | 2016-11-23 | 2016-11-23 | 一种面向rgbd数据流的相机位姿估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611046495.7A CN106780576B (zh) | 2016-11-23 | 2016-11-23 | 一种面向rgbd数据流的相机位姿估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106780576A CN106780576A (zh) | 2017-05-31 |
CN106780576B true CN106780576B (zh) | 2020-03-17 |
Family
ID=58975458
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611046495.7A Expired - Fee Related CN106780576B (zh) | 2016-11-23 | 2016-11-23 | 一种面向rgbd数据流的相机位姿估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106780576B (zh) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107240077B (zh) * | 2017-06-02 | 2021-02-02 | 华中科技大学无锡研究院 | 一种基于椭圆构像偏差迭代矫正的视觉测量方法 |
CN107292921B (zh) * | 2017-06-19 | 2020-02-04 | 电子科技大学 | 一种基于kinect相机的快速三维重建方法 |
CN107452037B (zh) * | 2017-08-02 | 2021-05-14 | 北京航空航天大学青岛研究院 | 一种基于gps辅助信息加速的从运动中恢复结构方法 |
CN107657656B (zh) * | 2017-08-31 | 2023-11-10 | 成都通甲优博科技有限责任公司 | 同名点匹配及三维重建方法、系统和光度立体摄像终端 |
US10529089B2 (en) * | 2018-02-23 | 2020-01-07 | GM Global Technology Operations LLC | Crowd-sensed point cloud map |
CN108804161B (zh) * | 2018-06-21 | 2022-03-04 | 北京字节跳动网络技术有限公司 | 应用的初始化方法、装置、终端和存储介质 |
CN109074668B (zh) * | 2018-08-02 | 2022-05-20 | 达闼机器人股份有限公司 | 路径导航方法、相关装置及计算机可读存储介质 |
CN109724586B (zh) * | 2018-08-21 | 2022-08-02 | 南京理工大学 | 一种融合深度图和点云的航天器相对位姿测量方法 |
CN109242809B (zh) * | 2018-10-31 | 2023-06-13 | 安徽中科智链信息科技有限公司 | 一种基于rgb-d信息的点云滤波系统及滤波方法 |
CN109544599B (zh) * | 2018-11-22 | 2020-06-23 | 四川大学 | 一种基于相机位姿估计的三维点云配准方法 |
CN109509226B (zh) * | 2018-11-27 | 2023-03-28 | 广东工业大学 | 三维点云数据配准方法、装置、设备及可读存储介质 |
CN111383261B (zh) * | 2018-12-27 | 2023-06-20 | 浙江舜宇智能光学技术有限公司 | 移动机器人、及其位姿估计方法和位姿估计装置 |
CN110322512A (zh) * | 2019-06-28 | 2019-10-11 | 中国科学院自动化研究所 | 结合小样本实例分割和三维匹配的物体位姿估计方法 |
CN110706332B (zh) * | 2019-09-25 | 2022-05-17 | 北京计算机技术及应用研究所 | 一种基于噪声点云的场景重建方法 |
CN110728717B (zh) * | 2019-09-27 | 2022-07-15 | Oppo广东移动通信有限公司 | 定位方法及装置、设备、存储介质 |
US11420334B2 (en) | 2020-04-14 | 2022-08-23 | Hong Kong Applied Science And Technology Research Institute Co., Ltd. | Candidate six dimensional pose hypothesis selection |
CN111739071B (zh) * | 2020-06-15 | 2023-09-05 | 武汉尺子科技有限公司 | 基于初始值的快速迭代配准方法、介质、终端和装置 |
CN111784834B (zh) * | 2020-06-24 | 2024-06-18 | 阿波罗智能技术(北京)有限公司 | 一种点云地图生成方法、装置以及电子设备 |
CN111862316B (zh) * | 2020-07-28 | 2024-01-05 | 杭州深瞳科技有限公司 | 一种基于优化的imu紧耦合稠密直接rgbd的三维重建方法 |
CN112017229B (zh) * | 2020-09-06 | 2023-06-27 | 桂林电子科技大学 | 一种相机相对位姿求解方法 |
CN112634439B (zh) * | 2020-12-25 | 2023-10-31 | 北京奇艺世纪科技有限公司 | 一种3d信息展示方法及装置 |
CN113034582A (zh) * | 2021-03-25 | 2021-06-25 | 浙江商汤科技开发有限公司 | 位姿优化装置及方法、电子设备及计算机可读存储介质 |
CN113180709B (zh) * | 2021-07-01 | 2021-09-07 | 晓智未来(成都)科技有限公司 | 一种基于摄影测量的人体待检测部位姿态识别方法 |
CN114511600A (zh) * | 2022-04-20 | 2022-05-17 | 北京中科慧眼科技有限公司 | 基于点云配准的位姿计算方法和系统 |
CN114782540B (zh) * | 2022-06-22 | 2022-09-09 | 南开大学 | 一种考虑机械臂运动约束的三维重建中相机位姿估计方法 |
CN115164918B (zh) * | 2022-09-06 | 2023-02-03 | 联友智连科技有限公司 | 语义点云地图构建方法、装置及电子设备 |
CN115619855A (zh) * | 2022-12-05 | 2023-01-17 | 合肥的卢深视科技有限公司 | 深度图像的稳像方法、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103247075A (zh) * | 2013-05-13 | 2013-08-14 | 北京工业大学 | 基于变分机制的室内环境三维重建方法 |
CN104851094A (zh) * | 2015-05-14 | 2015-08-19 | 西安电子科技大学 | 一种基于rgb-d的slam算法的改进方法 |
CN105184789A (zh) * | 2015-08-31 | 2015-12-23 | 中国科学院自动化研究所 | 一种基于点云约减的相机定位系统及方法 |
CN105913488A (zh) * | 2016-04-15 | 2016-08-31 | 长安大学 | 一种基于三维映射表的三维点云快速重建方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9767574B2 (en) * | 2014-08-22 | 2017-09-19 | Applied Research Associates, Inc. | Techniques for accurate pose estimation |
US9846042B2 (en) * | 2014-11-13 | 2017-12-19 | Worcester Polytechnic Institute | Gyroscope assisted scalable visual simultaneous localization and mapping |
-
2016
- 2016-11-23 CN CN201611046495.7A patent/CN106780576B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103247075A (zh) * | 2013-05-13 | 2013-08-14 | 北京工业大学 | 基于变分机制的室内环境三维重建方法 |
CN104851094A (zh) * | 2015-05-14 | 2015-08-19 | 西安电子科技大学 | 一种基于rgb-d的slam算法的改进方法 |
CN105184789A (zh) * | 2015-08-31 | 2015-12-23 | 中国科学院自动化研究所 | 一种基于点云约减的相机定位系统及方法 |
CN105913488A (zh) * | 2016-04-15 | 2016-08-31 | 长安大学 | 一种基于三维映射表的三维点云快速重建方法 |
Non-Patent Citations (4)
Title |
---|
Real-Time Pose Estimation with RGB-D Camera;Ivan Dryanovski et al;《2012 IEEE International Conference on Multisensor Fusion and Integration for Intelligent Systems (MFI)》;20120915;13-20页 * |
RGB-D Camera-Based Parallel Tracking and Meshing;Sebastian Lieberknecht et al;《2011 10th IEEE International Symposium on Mixed and Augmented Reality》;20111029;147-155页 * |
基于Kinect传感器的三维点云地图构建与优化;张毅等;《光电技术应用》;20161031;第37卷(第5期);754-757,762页 * |
基于混合位姿估计模型的移动机器人三维地图创建方法;王可等;《控制与决策》;20150831;第30卷(第8期);1504-1508页 * |
Also Published As
Publication number | Publication date |
---|---|
CN106780576A (zh) | 2017-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106780576B (zh) | 一种面向rgbd数据流的相机位姿估计方法 | |
CN107292965B (zh) | 一种基于深度图像数据流的虚实遮挡处理方法 | |
CN106940704B (zh) | 一种基于栅格地图的定位方法及装置 | |
CN109974743B (zh) | 一种基于gms特征匹配及滑动窗口位姿图优化的视觉里程计 | |
CN106875437B (zh) | 一种面向rgbd三维重建的关键帧提取方法 | |
CN112258658B (zh) | 一种基于深度相机的增强现实可视化方法及应用 | |
CN111028292B (zh) | 一种亚像素级图像匹配导航定位方法 | |
WO2015080993A1 (en) | Aligning ground based images and aerial imagery | |
CN112561978B (zh) | 深度估计网络的训练方法、图像的深度估计方法、设备 | |
CN110930411B (zh) | 一种基于深度相机的人体分割方法及系统 | |
CN111311664B (zh) | 一种深度、位姿与场景流的联合无监督估计方法及系统 | |
CN114399554A (zh) | 一种多相机系统的标定方法及系统 | |
CN110766024A (zh) | 基于深度学习的视觉里程计特征点提取方法及视觉里程计 | |
CN114677479A (zh) | 一种基于深度学习的自然景观多视图三维重建方法 | |
CN114494150A (zh) | 一种基于半直接法的单目视觉里程计的设计方法 | |
CN114519772A (zh) | 一种基于稀疏点云和代价聚合的三维重建方法及系统 | |
CN110580715B (zh) | 一种基于照度约束和格网变形的图像对齐方法 | |
CN113436251B (zh) | 一种基于改进的yolo6d算法的位姿估计系统及方法 | |
CN113766117B (zh) | 一种视频去抖动方法和装置 | |
CN112365516B (zh) | 一种增强现实中虚实遮挡处理方法 | |
CN107274477B (zh) | 一种基于三维空间表层的背景建模方法 | |
CN116878524A (zh) | 一种基于金字塔l-k光流与多视角几何约束的动态slam稠密地图构建方法 | |
Zhao et al. | 3D object tracking via boundary constrained region-based model | |
Ge et al. | 3D Reconstruction of Ancient Buildings Using UAV Images and Neural Radiation Field with Depth Supervision | |
CN111160362A (zh) | 一种fast特征均匀化提取与基于imu的帧间特征误匹配去除方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200317 |