CN114612525A - 基于网格分割与双地图耦合的机器人rgb-d slam方法 - Google Patents
基于网格分割与双地图耦合的机器人rgb-d slam方法 Download PDFInfo
- Publication number
- CN114612525A CN114612525A CN202210119777.4A CN202210119777A CN114612525A CN 114612525 A CN114612525 A CN 114612525A CN 202210119777 A CN202210119777 A CN 202210119777A CN 114612525 A CN114612525 A CN 114612525A
- Authority
- CN
- China
- Prior art keywords
- map
- dynamic
- optical flow
- image
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 107
- 230000011218 segmentation Effects 0.000 title claims abstract description 46
- 238000010168 coupling process Methods 0.000 title claims abstract description 19
- 238000005859 coupling reaction Methods 0.000 title claims abstract description 19
- 230000008878 coupling Effects 0.000 title claims abstract description 17
- 230000003287 optical effect Effects 0.000 claims abstract description 104
- 230000003068 static effect Effects 0.000 claims abstract description 28
- 230000002457 bidirectional effect Effects 0.000 claims abstract description 15
- 238000012216 screening Methods 0.000 claims abstract description 5
- 239000011159 matrix material Substances 0.000 claims description 38
- 239000013598 vector Substances 0.000 claims description 36
- 230000008569 process Effects 0.000 claims description 30
- 230000002441 reversible effect Effects 0.000 claims description 29
- 238000004364 calculation method Methods 0.000 claims description 24
- 230000009466 transformation Effects 0.000 claims description 21
- 238000005259 measurement Methods 0.000 claims description 17
- 238000013507 mapping Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 8
- 238000005457 optimization Methods 0.000 claims description 5
- 230000009977 dual effect Effects 0.000 claims description 4
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 3
- 230000019771 cognition Effects 0.000 claims description 3
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 230000008030 elimination Effects 0.000 claims description 3
- 238000003379 elimination reaction Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 230000000717 retained effect Effects 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- HOWHQWFXSLOJEF-MGZLOUMQSA-N systemin Chemical compound NCCCC[C@H](N)C(=O)N[C@@H](CCSC)C(=O)N[C@@H](CCC(N)=O)C(=O)N[C@@H]([C@@H](C)O)C(=O)N[C@@H](CC(O)=O)C(=O)OC(=O)[C@@H]1CCCN1C(=O)[C@H]1N(C(=O)[C@H](CC(O)=O)NC(=O)[C@H](CCCN=C(N)N)NC(=O)[C@H](CCCCN)NC(=O)[C@H](CO)NC(=O)[C@H]2N(CCC2)C(=O)[C@H]2N(CCC2)C(=O)[C@H](CCCCN)NC(=O)[C@H](CO)NC(=O)[C@H](CCC(N)=O)NC(=O)[C@@H](NC(=O)[C@H](C)N)C(C)C)CCC1 HOWHQWFXSLOJEF-MGZLOUMQSA-N 0.000 claims 1
- 108010050014 systemin Proteins 0.000 claims 1
- 238000010276 construction Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/005—Tree description, e.g. octree, quadtree
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
一种基于网格分割与双地图耦合的RGB‑D SLAM方法,适用于室内动态环境,基于单应运动补偿与双向补偿光流法,根据几何关系与深度值聚类结果得到网格化运动分割,保证了算法的快速性。利用静态区域内的特征点最小化重投影误差得到相机位姿估计。结合相机位姿、RGB‑D图像、网格化运动分割图像,同时构建场景的稀疏点云地图和静态八叉树地图并进行耦合,在关键帧上使用基于网格分割和八叉树地图光线遍历的方法筛选静态地图点,更新稀疏点云地图,保障定位精度。本发明能够有效提升室内动态场景中的相机位姿估计精度,实现场景静态八叉树地图的实时构建和更新。
Description
技术领域
本发明涉及一种室内动态环境的移动机器人视觉同步定位与建图方法。
背景技术
同时定位与地图构建(simultaneous localization and mapping,SLAM)是移动机器人实现自主导航和完成复杂环境交互任务的基础,使得机器人可以在未知环境中一方面确定自身位置,另一方面构建场景的地图。RGB-D(RGB-Depth)相机可以直接采集到彩色和深度图像且成本较低,因此基于RGB-D相机的视觉 SLAM系统被广泛应用于室内移动机器人等领域。实际室内场景中常常包含各种运动物体,对SLAM系统形成位姿估计和地图构建两方面的干扰。
现有的视觉SLAM系统大部分都假设场景为静态,并根据这一假设简化位姿估计。这些SLAM算法将动态特征点加入位姿计算,在稀疏点云地图中生成对应的错误地图点,使位姿估计产生偏差。因此,需要一种有效的方法区分动态特征或区域。运动物体还将影响SLAM系统的稠密建图,错误的位姿估计使得算法错误叠加多帧观测信息,造成地图扭曲。即便位姿估计正确,同一运动物体在不同时刻的信息被多次加入地图将形成物体运动的“残影”,无法正确反映场景的真实状态。
而针对室内动态环境,现有的解决方案大都在稠密建图或者计算效率方面存在不足,因此在保证计算效率、不依赖高性能硬件的同时,实现具备实时稠密建图能力的视觉SLAM具有重要意义。
发明内容
为了克服现有技术在动态环境下受到动态物体干扰而发生位姿估计漂移、地图构建错误的不足,本发明提出一种基于网格分割与双地图耦合的机器人RGB-D SLAM方法,适用于室内动态环境,提升了移动机器人SLAM方法在该工况下的性能。
本发明解决其技术问题所采用的技术方案是:
一种基于网格分割与双地图耦合的机器人RGB-D SLAM方法,包括以下步骤:
步骤1:对RGB-D相机拍摄的图像,提取并匹配灰度图像中的ORB特征点,基于单应变换原理对图像进行单应运动补偿,并使用根据光流理论设计的双向补偿光流法来识别图像中的动态特征点,过程如下:
步骤1.1:对由RGB-D相机拍摄的图像,提取灰度图像中的ORB特征点并进行特征匹配;
步骤1.2:首先求解单应矩阵,单应矩阵描述两个平面之间的映射关系,单应变换前后点的坐标对应关系由式(1)计算,在图像包含明确前景和背景且运动前景不占据画面的绝大部分像素的情形下,单应变换可以补偿由于相机自身运动引起的图像背景变化。
xt+1=Ht+1,txt (1)
其中,Ht+1,t为第t帧到第t+1帧之间的3×3单应矩阵,xt和xt+1分别为第t 帧和第t+1帧之间对应点的齐次坐标,由于xt和xt+1为齐次坐标,该等式为齐次坐标等式,即等式两边乘以任意非0的常数仍然成立,将式(1)表示为(2)的形式;
其中,xt=[xt yt 1]T,xt+1=[xt+1 yt+1 1]T,h11至h33为单应矩阵Ht+1,t各元素,k为任意非0常数;
两帧图像的单应矩阵计算依赖两帧之间的对应点信息,由于实际图像中的特征点对不可能全部满足同一刚体透视变换,使用LMedS(Least Median of Squares) 方法确定参与单应矩阵计算的内点,使用Levenberg-Marquardt方法迭代求解单应矩阵;
其中,(xi,t,yi,t)和(xi,t+1,yi,t+1)分别为第i个t帧和t+1帧中的对应坐标,Median表示取所有数据样本的中值;
如式(3),将变换后坐标和与实际对应坐标之间的像素距离作为误差项, LMedS的求解使得选出点集误差的中值最小化;
所需的两帧之间的对应点信息,通过光流法求得;将第t帧中提取的ORB特征点利用Lucas-Kanade稀疏光流法向第t+1帧追踪得到对应点位置;
步骤1.3:提出基于光流原理的双向补偿光流法,步骤1.2已经对前后两帧t与t+1进行前向光流计算,根据对应点信息计算单应矩阵,对第t帧图像应用该单应变换得到补偿图像,此时从第t+1帧向补偿图像做反向光流追踪得到消除干扰的反向光流场;
在双向补偿光流过程中,记第t帧的时刻为t,t时刻位于(x,y)处的像素,在 t+dt时刻运动到(x+dx,y+dy)处,根据光流法中的灰度不变假设,有前向光流灰度关系式(4),其中I(x,y,t)表示t时刻(x,y)处的像素灰度,I(x+dx,y+dy,t+ dt)表示t+dt时刻(x+dx,y+dy)处的像素灰度,前向光流的意义主要在于建立前后两帧之间的对应点联系,计算单应矩阵;
I(x+dx,y+dy,t+dt)=I(x,y,t) (4)
I(xb,yb,t)=I(x+dx,y+dy,t+dt) (5)
反向光流过程中,由t+dt时刻的像素位置(x+dx,y+dy)在经单应补偿的t 时刻图像中计算得到对应点位置(xb,yb),用I(xb,yb,t)表示该时刻和位置的像素灰度,有反向光流灰度关系式(5);
前向光流的光流矢量为式(6),反向光流的光流矢量定义为该过程中原本光流失量的相反矢量,如式(7);
vforward=(x+dx,x+dy)-(x,y)=(dx,dy) (6)
其中,vforward为前向光流矢量,vbackward为反向光流矢量;
两个矢量的差值(x–xb,y-yb)表征了单应运动补偿对于相机自身运动引起的背景运动的补偿,使得vbackward接近于运动前景的位移;
和前向光流的结果相比,反向光流计算后静止背景中特征点的移动得到了有效的抵消,从而反向光流矢量可以一定程度表征一个特征点的运动方向和速度;
从多帧图像序列角度考虑,双向补偿光流法为了提高可靠性,在计算t帧和t +1帧之间的反向光流场1的基础上,同理计算t帧和t+2帧之间的反向光流场2 并对比分析两个光流场中的光流失量;
除了一些显著错误的点,反向光流场的时间跨度更长,运动前景的移动更为显著,按以下条件判断特征点是否做稳定的运动:
1)两个矢量的模均大于一定阈值δ;
2)场2中矢量的模大于场1中对应矢量模;
3)两矢量的夹角小于180°,即内积大于0;
以上条件表述为式(8),v1和v2分别为两个光流场中的对应光流矢量,δ选取为一个极小的值,受运动程度影响小;
步骤2:将输入的图像划分为矩形网格区域,将动态特征点转换为动态区域表示,并根据几何连通性和深度值聚类方法优化动态区域,得到最终的网格化运动分割图像,过程如下:
步骤2.1:将输入的图像划分为20×20的矩形网格区域。通过网格划分将动态特征点转换为动态区域,将含有动态特征点的区块标记为疑似动态区块,同时对每个矩形区域内的动态特征点数量进行计数;
步骤2.2:在得到的动态区域结果基础上,基于几何连通性处理其中的孤立区块与被包围区块;若某动态区块孤立且动态特征点计数少于设定阈值(取为3),则标记该区块为静止;若某静态区块被较多动态区块包围,则标记该区块为运动;
步骤2.3:将深度图像降采样至20×20分辨率,对应所划分的图像网格,降低聚类算法计算量;以深度值为特征,使用K-Means++方法进行深度值聚类,聚类结果能够在一定程度上区分不同深度层次物体,参照深度聚类结果扩展和填充动态区域,若动态区域中的一个连通区域与某聚类簇内的一个连通区域重合度高于设定的阈值ε,将动态区域周围属于同一聚类簇的非动态区域,也标记为动态区域;
重合度r的计算方法如式(9)所示,s为重合区域面积,s1为聚类簇连通区域面积,s2为动态区域面积;
步骤3:根据网格分割对当前帧中的特征点运动性质做出判断,初始化稀疏点云地图,利用最小化重投影误差的方式计算当前帧去除动态影响的相机位姿;过程如下:
步骤3.1:若输入图像为视频流中的第一帧,使用该帧特征点的深度测量值计算三维点坐标,插入到地图中,进行稀疏点云地图的初始化;
步骤3.2:结合RGB图像和深度图像得出动态区域分割结果后,根据网格分割对当前帧中的特征点运动性质做出判断,落在动态区域内的特征点为动态特征点,记为集合χs;
步骤3.3:利用最小化重投影误差的方式计算当前帧的相机位姿,如式(10),其中,不对动态特征点计算误差项,不加入优化问题;
其中,Tcw为世界坐标系到相机坐标系的坐标变换,即相机的位姿,ρ(·)为Huber鲁棒损失函数,xi为静态特征点坐标,Pi为对应的三维点坐标;
π(·)为相机的投影函数,对某个三维点[X Y Z]T,有:
其中所涉及的其余变量为相机内参;
Σ为信息矩阵,有:
Σ=n·E (12)
n为当前特征点所在图像金字塔的层数,E为3×3的单位矩阵;
利用高斯-牛顿方法对最小化重投影误差问题进行求解,优化得到相机的位姿估计;
步骤4:结合相机位姿、RGB-D图像、网格化运动分割图像,构建场景的静态八叉树地图,过程如下:
步骤4.1:为了降低计算量、减少冗余,更新地图时对图像进行1/4降采样,在行和列上每4个像素选取1个像素进行更新;将网格化运动分割应用到八叉树地图的建立当中,算法只根据静态区域内的图像信息更新八叉树地图,不在八叉树地图当中插入动态区域对应节点,一定程度避免动态物体的信息被记录到地图当中;
步骤4.2:在更新地图的时候,采用一种光线遍历方法,从相机光心O向平面像素点pi对应的空间点Pi投射一道光线,遍历光线穿越的所有节点,存在以下三种情况:
(4.2.1)光线穿过若干数量的被占据节点,则将路径上所有的被占据节点置为空,将末端节点置为占据;
(4.2.2)光线未穿过被占据节点,但末端落在被占据节点上,则不更新地图;
(4.2.3)光线未穿过被占据节点,且末端不落在被占据节点上,则将末端节点置为占据;
八叉树中的光线遍历计算,通过三维数值微分算法实现;
步骤5:逐步构建场景的稀疏点云地图,在这一过程中结合八叉树地图进行双地图耦合,在关键帧上使用基于网格分割和八叉树地图光线遍历的方法筛选静态地图点,更新稀疏点云地图,保障定位精度,过程如下:
步骤5.1:在关键帧上,通过RGB-D相机的深度测量结果,还原部分ORB 特征点在三维空间中的坐标,将他们加入到稀疏点云地图中用于特征匹配和位姿计算;
步骤5.2:属于动态物体的地图点被加入地图后,将导致后期在该位置上进行位姿跟踪时产生错误匹配,影响位姿估计精度;为了减轻这种效应,可以使用运动分割生成的动态区域掩膜帮助稀疏点云地图筛选一部分动态地图点。除此之外,还将采用一种基于八叉树地图光线遍历法的方法进一步剔除一部分动态地图点,实现两种地图之间的耦合,通过先前对场景三维结构的认知来指导稀疏点云建图;
根据特征点的二维坐标可以在深度图中查询对应的深度值,记为zc;进一步将特征点的二维坐标P=[u v 1]T反投影为相机坐标系中的三维坐标 Pc=[xc yc zc]T,元素对应坐标各轴分量,K为相机内参矩阵:
Pc=zcK-1P (13)
根据相机位姿变换Tcw得到该点在世界坐标系中的坐标Pw=[x y z]T:
Pw=Tcw -1Pc=R-1(Pc-t) (14)
相机位姿变换Tcw表示为旋转矩阵R和平移向量t,相机在世界坐标系中的坐标Pcam即为t,表示为三轴分量的形式,有:
Pcam=t=[xcam ycam zcam]T (15)
在八叉树地图中进行从Pcam向Pw方向的光线遍历,投射的光线为一条射线,而不仅仅遍历两点之间的节点;记第一个被穿越节点的坐标为Pw′=[x′ y′ z′]T,变换到相机坐标系,得到该点的深度值zc′;由于八叉树地图中信息根据先前关键帧更新,在八叉树中进行光线遍历得到的深度值与相机测量得到的深度值有较大出入的地图点很可能在关键帧之间发生运动;
RGB-D相机在测量较远物体的深度时误差较大,因此只对4m内的地图点做深度值检查,当遍历深度zc′在测量深度zc附近的误差范围内,地图点得到保留,被插入到稀疏点云地图中,将该过程表示为式(16):
其中Δ为误差范围大小,这一过程的误差来源于采用的RGB-D相机的测量误差、位姿估计带来的误差、八叉树建模的精度,表示为:
Δ=Δz+Δt+Δo (17)
其中,Δz为RGB-D相机对深度的测量误差,Δt为位姿估计的误差,Δo为八叉树建模精度的误差,Δz是关于测量的实际深度的函数,实际深度越大,误差越大,可以对所用的RGB-D相机进行合理建模和误差分析得到关系式。
本发明的技术构思为:本发明是一种适用于室内动态环境的基于网格分割与双地图耦合的机器人RGB-D SLAM方法,提出网格分割方法,代替像素级分割,引入单应运动补偿与根据光流理论设计的双向补偿光流法,结合几何连通性与深度值聚类,进行逐帧动态区域分割,避免动态特征点参与位姿优化,并大幅优化计算速度。同时构建稀疏点云地图和静态八叉树地图,并进行耦合,在关键帧上使用基于网格分割和八叉树地图光线遍历的方法筛选静态地图点,更新稀疏点云地图,保障定位精度。
本发明的有益效果主要表现在:(1)对硬件要求较低,消除动态场景干扰,定位精度高;(2)计算效率高;(3)动态物体分割和标记;(4)在线稠密建图。
附图说明
图1是本发明具体实施方式的系统流程图;
图2是本发明具体实施方式的双向补偿光流原理示意图;
图3是本发明具体实施方式的多帧光流信息对比融合示意图;
图4是本发明具体实施方式得到的网格化运动分割;
图5是本发明具体实施方式的光线遍历法原理示意图;
图6是本发明具体实施方式构建的场景稀疏点云地图;
图7是本发明具体实施方式构建的场景八叉树地图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1~图7,一种基于网格分割与双地图耦合的机器人RGB-D SLAM方法包括以下步骤:
步骤1:对RGB-D相机拍摄的图像,提取并匹配灰度图像中的ORB特征点,基于单应变换原理对图像进行单应运动补偿,并使用根据光流理论设计的双向补偿光流法来识别图像中的动态特征点,过程如下:
步骤1.1:对由RGB-D相机拍摄的图像,提取灰度图像中的ORB特征点并进行特征匹配。
步骤1.2:首先求解单应矩阵,单应矩阵描述两个平面之间的映射关系,单应变换前后点的坐标对应关系由式(1)计算,在图像包含明确前景和背景且运动前景不占据画面的绝大部分像素的情形下,单应变换补偿由于相机自身运动引起的图像背景变化。
xt+1=Ht+1,txt (1)
其中,Ht+1,t为第t帧到第t+1帧之间的3×3单应矩阵,xt和xt+1分别为第t 帧和第t+1帧之间的对应点的齐次坐标,由于xt和xt+1为齐次坐标,该等式为齐次坐标等式,即等式两边乘以任意非0的常数仍然成立,将式(1)表示为(2) 的形式;
其中,xt=[xt yt 1]T,xt+1=[xt+1 yt+1 1]T,h11至h33为单应矩阵Ht+1,t各元素,k为任意非0常数;
两帧图像的单应矩阵计算依赖两帧之间的对应点信息。由于实际图像中的特征点对不可能全部满足同一刚体透视变换,使用LMedS(Least Median of Squares) 方法确定参与单应矩阵计算的内点,使用Levenberg-Marquardt方法迭代求解单应矩阵;
其中,(xi,t,yi,t)和(xi,t+1,yi,t+1)分别为第i个t帧和t+1帧中的对应坐标,Median表示取所有数据样本的中值;
如式(3),将变换后坐标和与实际对应坐标之间的像素距离作为误差项, LMedS的求解使得选出点集误差的中值最小化;
本步骤中所需的两帧之间的对应点信息,通过光流法求得;将第t帧中提取的 ORB特征点利用Lucas-Kanade稀疏光流法向第t+1帧追踪得到对应点位置;
步骤1.3:提出基于光流原理的双向补偿光流法,步骤1.2已经对前后两帧t与 t+1进行前向光流计算,根据对应点信息计算单应矩阵对第t帧图像应用该单应变换得到补偿图像,此时从第t+1帧向补偿图像做反向光流追踪得到消除干扰的反向光流场;
在双向补偿光流过程中,记第t帧的时刻为t,t时刻位于(x,y)处的像素,在 t+dt时刻运动到(x+dx,y+dy)处;根据光流法中的灰度不变假设,有前向光流灰度关系式(4),其中I(x,y,t)表示t时刻(x,y)处的像素灰度,前向光流的意义主要在于建立前后两帧之间的对应点联系,计算单应矩阵;
I(x+dx,y+dy,t+dt)=I(x,y,t) (4)
I(xb,yb,t)=I(x+dx,y+dy,t+dt) (5)
反向光流过程中,由t+dt时刻的像素位置(x+dx,y+dy)在经单应补偿的t 时刻图像中计算得到对应点位置(xb,yb),用I(xb,yb,t)表示该时刻和位置的像素灰度,有反向光流灰度关系式(5)。
前向光流的光流矢量为式(6),反向光流的光流矢量定义为该过程中原本光流失量的相反矢量,如式(7);
vforward=(x+dx,x+dy)-(x,y)=(dx,dy) (6)
vbackward=-((xb,yb)-(x+dx,y+dy)) (7)
=(dx+x-xb,dy+y-yb)
其中,vforward为前向光流矢量,vbackward为反向光流矢量;
两个矢量的差值(x–xb,y-yb)表征了单应运动补偿对于相机自身运动引起的背景运动的补偿,使得vbackward接近于运动前景的位移;
和前向光流的结果相比,反向光流计算后静止背景中特征点的移动得到了有效的抵消,从而反向光流矢量可以一定程度表征一个特征点的运动方向和速度;
从多帧图像序列角度考虑,双向补偿光流法为了提高可靠性,在计算t帧和t +1帧之间的反向光流场1的基础上,同理计算t帧和t+2帧之间的反向光流场2 并对比分析两个光流场中的光流失量;
除了一些显著错误的点,反向光流场2的时间跨度更长,运动前景的移动更为显著,按以下条件判断特征点是否做稳定的运动:
1)两个矢量的模均大于一定阈值δ;
2)反向光流场2中矢量的模大于反向光流场1中对应矢量模;
3)两矢量的夹角小于180°,即内积大于0。
以上条件表述为式(8),v1和v2分别为两个光流场中的对应光流矢量,δ选取为一个极小的值,受运动程度影响小。
如图2所示,为双向补偿光流原理示意图,描述了本发明提出的双向补偿光流法的原理和实施流程。
如图3所示,为多帧光流信息对比融合示意图,描述了本发明融合多帧之间的反向光流场信息的方式,考虑了短时间内物体运动方向和速度的一致性,去除了光流法错误跟踪和相机高频抖动的干扰。
步骤2:将输入的图像划分为矩形网格区域,将动态特征点转换为动态区域表示,并根据几何连通性和深度值聚类方法优化动态区域,得到最终的网格化运动分割图像,过程如下:
步骤2.1:将输入的图像划分为20×20的矩形网格区域。通过网格划分将动态特征点转换为动态区域。将含有动态特征点的区块标记为疑似动态区块,同时对每个矩形区域内的动态特征点数量进行计数;
步骤2.2:在得到的动态区域结果基础上,基于几何连通性处理其中的孤立区块与被包围区块;若某动态区块孤立且动态特征点计数少于设定阈值(取为3),则标记该区块为静止;若某静态区块被较多动态区块包围,则标记该区块为运动;
步骤2.3:将深度图像降采样至20×20分辨率,对应所划分的图像网格,降低聚类算法计算量;以深度值为特征,使用K-Means++方法进行深度值聚类。聚类结果能够在一定程度上区分不同深度层次物体,参照深度聚类结果扩展和填充动态区域;若动态区域中的一个连通区域与某聚类簇内的一个连通区域重合度高于一定的阈值ε,将动态区域周围属于同一聚类簇的非动态区域,也标记为动态区域。
重合度计算方法如式(9)所示,s为重合区域面积,s1为聚类簇连通区域面积,s2为动态区域面积;
如图4所示,为本发明具体实施方式经过优化得到的网格化运动分割图像。图中通过网格标识出画面中的动态区域。
步骤3:根据网格分割对当前帧中的特征点运动性质做出判断,初始化稀疏点云地图,利用最小化重投影误差的方式计算当前帧去除动态影响的相机位姿,过程如下:
步骤3.1:若输入图像为视频流中的第一帧,使用该帧特征点的深度测量值计算三维点坐标,插入到地图中,进行稀疏点云地图的初始化;
步骤3.2:结合RGB图像和深度图像得出动态区域分割结果后,根据网格分割对当前帧中的特征点运动性质做出判断,落在动态区域内的特征点为动态特征点,记为集合χs;
步骤3.3:利用最小化重投影误差的方式计算当前帧的相机位姿,如式(10),其中,不对动态特征点计算误差项,不加入优化问题;
其中,Tcw为世界坐标系到相机坐标系的坐标变换,即相机的位姿,ρ(·)为 Huber鲁棒损失函数,xi为静态特征点坐标,Pi为对应的三维点坐标;
π(·)为相机的投影函数,对某个三维点[X Y Z]T,有:
其中所涉及的其余变量为相机内参;
Σ为信息矩阵,有:
Σ=n·E (12)
n为当前特征点所在图像金字塔的层数,E为3×3的单位矩阵;
利用高斯-牛顿方法对最小化重投影误差问题进行求解,优化得到相机的位姿估计;
步骤4:结合相机位姿、RGB-D图像、网格化运动分割图像,构建场景的静态八叉树地图,过程如下:
步骤4.1:为了降低计算量、减少冗余,更新地图时对图像进行1/4降采样,在行和列上每4个像素选取1个像素进行更新。将网格化运动分割应用到八叉树地图的建立当中,算法只根据静态区域内的图像信息更新八叉树地图,不在八叉树地图当中插入动态区域对应节点,一定程度避免动态物体的信息被记录到地图当中;
步骤4.2:在更新地图的时候,采用一种光线遍历方法。从相机光心O向平面像素点pi对应的空间点Pi投射一道光线,遍历光线穿越的所有节点。存在以下三种情况:
(4.2.1)光线穿过若干数量的被占据节点,则将路径上所有的被占据节点置为空,将末端节点置为占据;
(4.2.2)光线未穿过被占据节点,但末端落在被占据节点上,则不更新地图;
(4.2.3)光线未穿过被占据节点,且末端不落在被占据节点上,则将末端节点置为占据;
八叉树中的光线遍历计算,通过三维数值微分算法实现。
如图5所示,为本发明具体实施方式的光线遍历法原理示意图。图中展示了光线遍历过程中光线穿过占据节点的三种情况。
如图7所示,为本发明具体实施方式构建的场景八叉树地图。由于位姿估计未受动态物体干扰,地图未出现扭曲,房间结构清晰。所得到的八叉树地图分辨率高,包含节点的颜色信息,还原了场景的原貌。地图根据运动分割和后续的观察更新有效地剔除了动态物体导致的“残影”,仅包含场景中的静态要素,适用于移动机器人导航等用途。
步骤5:逐步构建场景的稀疏点云地图,在这一过程中结合八叉树地图进行双地图耦合,在关键帧上使用基于网格分割和八叉树地图光线遍历的方法筛选静态地图点,更新稀疏点云地图,保障定位精度,过程如下:
步骤5.1:在关键帧上,通过RGB-D相机的深度测量结果,还原部分ORB 特征点在三维空间中的坐标,将他们加入到稀疏点云地图中用于特征匹配和位姿计算;
如图6所示,为本发明具体实施方式构建的场景稀疏点云地图;
步骤5.2:属于动态物体的地图点被加入地图后,将导致后期在该位置上进行位姿跟踪时产生错误匹配,影响位姿估计精度;为了减轻这种效应,可以使用运动分割生成的动态区域掩膜帮助稀疏点云地图筛选一部分动态地图点;除此之外,还将采用一种基于八叉树地图光线遍历法的方法进一步剔除一部分动态地图点,实现两种地图之间的耦合,通过先前对场景三维结构的认知来指导稀疏点云建图。
根据特征点的二维坐标可以在深度图中查询对应的深度值,记为zc,进一步将特征点的二维坐标P=[u v 1]T反投影为相机坐标系中的三维坐标 Pc=[xc yc zc]T,元素对应坐标各轴分量,K为相机内参矩阵:
Pc=zcK-1P (13)
根据相机位姿变换Tcw得到该点在世界坐标系中的坐标Pw=[x y z]T:
Pw=Tcw -1Pc=R-1(Pc-t) (14)
相机位姿变换Tcw可以表示为旋转矩阵R和平移向量t,相机在世界坐标系中的坐标Pcam即为t,表示为三轴分量的形式,有:
Pcam=t=[xcam ycam zcam]T (15)
在八叉树地图中进行从Pcam向Pw方向的光线遍历。与之前不同,投射的光线为一条射线,而不仅仅遍历两点之间的节点。记第一个被穿越节点的坐标为 Pw′=[x′ y′ z′]T,变换到相机坐标系,得到该点的深度值zc′,由于八叉树地图中信息根据先前关键帧更新,在八叉树中进行光线遍历得到的深度值与相机测量得到的深度值有较大出入的地图点很可能在关键帧之间发生运动;
RGB-D相机在测量较远物体的深度时误差较大,因此只对4m内的地图点做深度值检查,当遍历深度zc′在测量深度zc附近的误差范围内,地图点得到保留,被插入到稀疏点云地图中,将该过程表示为式(16):
其中Δ为误差范围大小,这一过程的误差主要来源于采用的RGB-D相机的测量误差、位姿估计带来的误差、八叉树建模的精度,表示为:
Δ=Δz+Δt+Δo (17)
其中,Δz为RGB-D相机对深度的测量误差,Δt为位姿估计的误差,Δo为八叉树建模精度的误差,Δz是关于测量的实际深度的函数,实际深度越大,误差越大,可以对所用的RGB-D相机进行合理建模和误差分析得到关系式。
表1为TUM数据集上本发明的绝对轨迹误差统计值
表1
本发明的具体实施方式在TUM数据集上的测试结果如表1所示。使用绝对轨迹误差的RMSE(均方根误差)作为评价指标来评价本发明在室内动态环境下准确定位的能力,使用ORB-SLAM3算法作为基准进行对比。“sitting”图像序列仅包含极少的人物肢体运动,称为低动态序列,“walking”图像序列包含较多的人物行走画面,称为高动态序列。在低动态序列中,本发明与ORB-SLAM3有相似的定位精度。在高动态序列中,ORB-SLAM3在多个场景中都受到动态物体的严重干扰,发生位姿漂移,产生了很高的定位误差,而本发明输出的结果相较 ORB-SLAM3方法有较大的提升。
本说明书的实施例所述的内容仅仅是对发明构思的实现形式的列举,仅作说明用途。本发明的保护范围不应当被视为仅限于本实施例所陈述的具体形式,本发明的保护范围也及于本领域的普通技术人员根据本发明构思所能想到的等同技术手段。
Claims (6)
1.一种基于网格分割与双地图耦合的机器人RGB-D SLAM方法,其特征在于,所述方法包括以下步骤:
步骤1:对RGB-D相机拍摄的图像,提取并匹配灰度图像中的ORB特征点,基于单应变换原理对图像进行单应运动补偿,并使用根据光流理论设计的双向补偿光流法来识别图像中的动态特征点;
步骤2:将输入的图像划分为矩形网格区域,将动态特征点转换为动态区域表示,并根据几何连通性和深度值聚类方法优化动态区域,得到最终的网格化运动分割图像;
步骤3:根据网格分割对当前帧中的特征点运动性质做出判断,初始化稀疏点云地图,利用最小化重投影误差的方式计算当前帧去除动态影响的相机位姿;
步骤4:结合相机位姿、RGB-D图像、网格化运动分割图像,构建场景的静态八叉树地图;
步骤5:逐步构建场景的稀疏点云地图,在这一过程中结合八叉树地图进行双地图耦合,在关键帧上使用基于网格分割和八叉树地图光线遍历的方法筛选静态地图点,更新稀疏点云地图,保障定位精度。
2.如权利要求1所述的基于网格分割与双地图耦合的机器人RGB-D SLAM方法,其特征在于,所述步骤1的过程如下:
步骤1.1:对由RGB-D相机拍摄的图像,提取灰度图像中的ORB特征点并进行特征匹配;
步骤1.2:首先求解单应矩阵,单应矩阵描述两个平面之间的映射关系,单应变换前后点的坐标对应关系由式(1)计算,在图像包含明确前景和背景且运动前景不占据画面的绝大部分像素的情形下,单应变换可以补偿由于相机自身运动引起的图像背景变化;
xt+1=Ht+1,txt (1)
其中,Ht+1,t为第t帧到第t+1帧之间的3×3单应矩阵,xt和xt+1分别为第t帧和第t+1帧之间的对应点的齐次坐标,由于xt和xt+1为齐次坐标,该等式为齐次坐标等式,即等式两边乘以任意非0的常数仍然成立,将式(1)表示为(2)的形式;
其中,xt=[xt yt 1]T,xt+1=[xt+1 yt+1 1]T,h11至h33为单应矩阵Ht+1,t各元素,k为任意非0常数;
两帧图像的单应矩阵计算依赖两帧之间的对应点信息,由于实际图像中的特征点对不可能全部满足同一刚体透视变换,使用LMedS方法确定参与单应矩阵计算的内点,使用LMedS方法迭代求解单应矩阵;
其中,(xi,t,yi,t)和(xi,t+1,yi,t+1)分别为第i个t帧和t+1帧中的对应坐标,Median表示取所有数据样本的中值;
如式(3),将变换后坐标和与实际对应坐标之间的像素距离作为误差项,LMedS的求解使得选出点集误差的中值最小化;
所需的两帧之间的对应点信息,通过光流法求得;将第t帧中提取的ORB特征点利用Lucas-Kanade稀疏光流法向第t+1帧追踪得到对应点位置;
步骤1.3:提出基于光流原理的双向补偿光流法,步骤1.2已经对前后两帧t与t+1进行前向光流计算,根据对应点信息计算单应矩阵,对第t帧图像应用该单应变换得到补偿图像,此时从第t+1帧向补偿图像做反向光流追踪得到消除干扰的反向光流场;
在双向补偿光流过程中,记第t帧的时刻为t,t时刻位于(x,y)处的像素,在t+dt时刻运动到(x+dx,y+dy)处,根据光流法中的灰度不变假设,有前向光流灰度关系式(4),其中I(x,y,t)表示t时刻(x,y)处的像素灰度,前向光流的意义主要在于建立前后两帧之间的对应点联系,计算单应矩阵;
I(x+dx,y+dy,t+dt)=I(x,y,t) (4)
I(xb,yb,t)=I(x+dx,y+dy,t+dt) (5)
反向光流过程中,由t+dt时刻的像素位置(x+dx,y+dy)在经单应补偿的t时刻图像中计算得到对应点位置(xb,yb),用I(xb,yb,t)表示该时刻和位置的像素灰度,有反向光流灰度关系式(5);
前向光流的光流矢量为式(6),反向光流的光流矢量定义为该过程中原本光流失量的相反矢量,如式(7);
vforward=(x+dx,x+dy)-(x,y)=(dx,dy) (6)
其中,vforward为前向光流矢量,vbackward为反向光流矢量;
两个矢量的差值(x–xb,y-yb)表征了单应运动补偿对于相机自身运动引起的背景运动的补偿,使得vbackward接近于运动前景的位移;
在计算t帧和t+1帧之间的反向光流场1的基础上,同理计算t帧和t+2帧之间的反向光流场2并对比分析两个光流场中的光流失量;
按以下条件判断特征点是否做稳定的运动:
1)两个矢量的模均大于一定阈值δ;
2)场2中矢量的模大于场1中对应矢量模;
3)两矢量的夹角小于180°,即内积大于0;
以上条件表述为式(8),v1和v2分别为两个光流场中的对应光流矢量,δ选取为一个极小的值,受运动程度影响小。
3.如权利要求2所述的基于网格分割与双地图耦合的机器人RGB-D SLAM方法,其特征在于,所述步骤2的过程如下:
步骤2.1:将输入的图像划分为20×20的矩形网格区域,通过网格划分将动态特征点转换为动态区域,将含有动态特征点的区块标记为疑似动态区块,同时对每个矩形区域内的动态特征点数量进行计数;
步骤2.2:在得到的动态区域结果基础上,基于几何连通性处理其中的孤立区块与被包围区块;若某动态区块孤立且动态特征点计数少于设定阈值,则标记该区块为静止;若某静态区块被较多动态区块包围,则标记该区块为运动;
步骤2.3:将深度图像降采样至20×20分辨率,对应所划分的图像网格,降低聚类算法计算量;以深度值为特征,使用K-Means++方法进行深度值聚类,若动态区域中的一个连通区域与某聚类簇内的一个连通区域重合度高于设定的阈值ε,将动态区域周围属于同一聚类簇的非动态区域,也标记为动态区域;
重合度r的计算方法如式(9)所示,s为重合区域面积,s1为聚类簇连通区域面积,s2为动态区域面积。
4.如权利要求3所述的基于网格分割与双地图耦合的机器人RGB-D SLAM方法,其特征在于,所述步骤3的过程如下:
步骤3.1:若输入图像为视频流中的第一帧,使用该帧特征点的深度测量值计算三维点坐标,插入到地图中,进行稀疏点云地图的初始化;
步骤3.2:结合RGB图像和深度图像得出动态区域分割结果后,根据网格分割对当前帧中的特征点运动性质做出判断,落在动态区域内的特征点为动态特征点,记为集合χs;
步骤3.3:利用最小化重投影误差的方式计算当前帧的相机位姿,如式(10),其中,不对动态特征点计算误差项,不加入优化问题;
其中,Tcw为世界坐标系到相机坐标系的坐标变换,即相机的位姿,ρ(·)为Huber鲁棒损失函数,xi为静态特征点坐标,Pi为对应的三维点坐标;
π(·)为相机的投影函数,对某个三维点[X Y Z]T,有:
其中所涉及的其余变量为相机内参;
Σ为信息矩阵,有:
Σ=n·E (12)
n为当前特征点所在图像金字塔的层数,E为3×3的单位矩阵;
利用高斯-牛顿方法对最小化重投影误差问题进行求解,优化得到相机的位姿估计。
5.如权利要求4所述的基于网格分割与双地图耦合的机器人RGB-D SLAM方法,其特征在于,所述步骤4的过程如下:
步骤4.1:更新地图时对图像进行1/4降采样,在行和列上每4个像素选取1个像素进行更新;将网格化运动分割应用到八叉树地图的建立当中,算法只根据静态区域内的图像信息更新八叉树地图,不在八叉树地图当中插入动态区域对应节点,一定程度避免动态物体的信息被记录到地图当中;
步骤4.2:在更新地图的时候,采用一种光线遍历方法,从相机光心O向平面像素点pi对应的空间点Pi投射一道光线,遍历光线穿越的所有节点,存在以下三种情况:
(4.2.1)光线穿过若干数量的被占据节点,则将路径上所有的被占据节点置为空,将末端节点置为占据;
(4.2.2)光线未穿过被占据节点,但末端落在被占据节点上,则不更新地图;
(4.2.3)光线未穿过被占据节点,且末端不落在被占据节点上,则将末端节点置为占据;
八叉树中的光线遍历计算,通过三维数值微分算法实现。
6.如权利要求5所述的基于网格分割与双地图耦合的机器人RGB-D SLAM方法,其特征在于,所述步骤5的过程如下:
步骤5.1:在关键帧上,通过RGB-D相机的深度测量结果,还原部分ORB特征点在三维空间中的坐标,将他们加入到稀疏点云地图中用于特征匹配和位姿计算;
步骤5.2:使用运动分割生成的动态区域掩膜帮助稀疏点云地图筛选一部分动态地图点,还将采用一种基于八叉树地图光线遍历法的方法进一步剔除一部分动态地图点,实现两种地图之间的耦合,通过先前对场景三维结构的认知来指导稀疏点云建图;
根据特征点的二维坐标可以在深度图中查询对应的深度值,记为zc;进一步将特征点的二维坐标P=[u v 1]T反投影为相机坐标系中的三维坐标Pc=[xc yc zc]T,元素对应坐标各轴分量,K为相机内参矩阵:
Pc=zcK-1P (13)
根据相机位姿变换Tcw得到该点在世界坐标系中的坐标Pw=[x y z]T:
Pw=Tcw -1Pc=R-1(Pc-t) (14)
相机位姿变换Tcw表示为旋转矩阵R和平移向量t,相机在世界坐标系中的坐标Pcam即为t,表示为三轴分量的形式,有:
Pcam=t=[xcam ycam zcam]T (15)
在八叉树地图中进行从Pcam向Pw方向的光线遍历,投射的光线为一条射线,而不仅仅遍历两点之间的节点;记第一个被穿越节点的坐标为Pw′=[x′ y′ z′]T,变换到相机坐标系,得到该点的深度值zc′;由于八叉树地图中信息根据先前关键帧更新,在八叉树中进行光线遍历得到的深度值与相机测量得到的深度值有较大出入的地图点很可能在关键帧之间发生运动;
RGB-D相机在测量较远物体的深度时误差较大,因此只对4m内的地图点做深度值检查,当遍历深度zc′在测量深度zc附近的误差范围内,地图点得到保留,被插入到稀疏点云地图中,将该过程表示为式(16):
其中Δ为误差范围大小,这一过程的误差来源于采用的RGB-D相机的测量误差、位姿估计带来的误差、八叉树建模的精度,表示为:
Δ=Δz+Δt+Δo (17)
其中,Δz为RGB-D相机对深度的测量误差,Δt为位姿估计的误差,Δo为八叉树建模精度的误差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210119777.4A CN114612525A (zh) | 2022-02-09 | 2022-02-09 | 基于网格分割与双地图耦合的机器人rgb-d slam方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210119777.4A CN114612525A (zh) | 2022-02-09 | 2022-02-09 | 基于网格分割与双地图耦合的机器人rgb-d slam方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114612525A true CN114612525A (zh) | 2022-06-10 |
Family
ID=81858646
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210119777.4A Pending CN114612525A (zh) | 2022-02-09 | 2022-02-09 | 基于网格分割与双地图耦合的机器人rgb-d slam方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114612525A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114926536A (zh) * | 2022-07-19 | 2022-08-19 | 合肥工业大学 | 一种基于语义的定位与建图方法、系统及智能机器人 |
CN117541755A (zh) * | 2023-12-26 | 2024-02-09 | 广州市大湾区虚拟现实研究院 | 一种基于rgb-d三维重建的刚性物体虚实遮挡方法 |
-
2022
- 2022-02-09 CN CN202210119777.4A patent/CN114612525A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114926536A (zh) * | 2022-07-19 | 2022-08-19 | 合肥工业大学 | 一种基于语义的定位与建图方法、系统及智能机器人 |
CN114926536B (zh) * | 2022-07-19 | 2022-10-14 | 合肥工业大学 | 一种基于语义的定位与建图方法、系统及智能机器人 |
CN117541755A (zh) * | 2023-12-26 | 2024-02-09 | 广州市大湾区虚拟现实研究院 | 一种基于rgb-d三维重建的刚性物体虚实遮挡方法 |
CN117541755B (zh) * | 2023-12-26 | 2024-05-10 | 广州市大湾区虚拟现实研究院 | 一种基于rgb-d三维重建的刚性物体虚实遮挡方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109387204B (zh) | 面向室内动态环境的移动机器人同步定位与构图方法 | |
CN112902953B (zh) | 一种基于slam技术的自主位姿测量方法 | |
CN107980150B (zh) | 对三维空间建模 | |
CN109242873B (zh) | 一种基于消费级彩色深度相机对物体进行360度实时三维重建的方法 | |
Vedula et al. | Three-dimensional scene flow | |
US9940725B2 (en) | Method for estimating the speed of movement of a camera | |
CN110945565A (zh) | 利用概率面元地图的密集视觉slam | |
CN110070598B (zh) | 用于3d扫描重建的移动终端及其进行3d扫描重建方法 | |
Herbst et al. | Toward online 3-d object segmentation and mapping | |
CN114612525A (zh) | 基于网格分割与双地图耦合的机器人rgb-d slam方法 | |
CN111862316B (zh) | 一种基于优化的imu紧耦合稠密直接rgbd的三维重建方法 | |
CN109974743A (zh) | 一种基于gms特征匹配及滑动窗口位姿图优化的rgb-d视觉里程计 | |
CN112465021B (zh) | 基于图像插帧法的位姿轨迹估计方法 | |
CN113689539A (zh) | 基于隐式光流场的动态场景实时三维重建方法与装置 | |
Yuan et al. | 3D reconstruction of background and objects moving on ground plane viewed from a moving camera | |
CN112233179A (zh) | 一种视觉里程计测量方法 | |
Furukawa | High-fidelity image-based modeling | |
CN117197333A (zh) | 基于多目视觉的空间目标重构与位姿估计方法及系统 | |
CN114494150A (zh) | 一种基于半直接法的单目视觉里程计的设计方法 | |
CN113284251A (zh) | 一种自适应视角的级联网络三维重建方法及系统 | |
CN111598927A (zh) | 一种定位重建方法和装置 | |
Liu et al. | Real-time dense construction with deep multi-view stereo using camera and IMU sensors | |
CN113345032A (zh) | 一种基于广角相机大畸变图的初始化建图方法及系统 | |
CN111950599B (zh) | 一种动态环境下融合边缘信息的稠密视觉里程计方法 | |
Guan et al. | Efficient recovery of multi-camera motion from two affine correspondences |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |