CN106384383B - 一种基于fast和freak特征匹配算法的rgb-d和slam场景重建方法 - Google Patents

一种基于fast和freak特征匹配算法的rgb-d和slam场景重建方法 Download PDF

Info

Publication number
CN106384383B
CN106384383B CN201610810785.8A CN201610810785A CN106384383B CN 106384383 B CN106384383 B CN 106384383B CN 201610810785 A CN201610810785 A CN 201610810785A CN 106384383 B CN106384383 B CN 106384383B
Authority
CN
China
Prior art keywords
point
key frame
algorithm
fast
freak
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610810785.8A
Other languages
English (en)
Other versions
CN106384383A (zh
Inventor
叶秀芬
邢会明
张建国
王璘
黄乐
李鹏
贾同超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN201610810785.8A priority Critical patent/CN106384383B/zh
Publication of CN106384383A publication Critical patent/CN106384383A/zh
Application granted granted Critical
Publication of CN106384383B publication Critical patent/CN106384383B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于计算机图形学领域,具体地说是一种基于FAST和FREAK特征匹配算法的RGB‑D和SLAM场景重建方法。本发明包括,首先对Kinect进行标定;对彩色图像进行FAST特征点提取,采用FREAK特征描述子进行图像匹配,然后再对特征点对采用RANSAC算法剔除掉外点,保留内点。本发明采用对关键帧进行筛选,仅对关键帧进行点云的拼接,这样极大地减少了点云的拼接次数。本发明还采用了基于图优化的回环检测算法,通过构建姿态图,对其进行全局优化,极大降低了误差的累积。

Description

一种基于FAST和FREAK特征匹配算法的RGB-D和SLAM场景重建 方法
技术领域
本发明属于计算机图形学领域,具体地说是一种基于FAST和FREAK特征匹配算法的RGB-D和SLAM场景重建方法。
背景技术
三维重建技术涉及计算机图形学、传感技术、机器视觉、逆向工程、虚拟现实、机器人导航等领域,它的目的在于更加真实和客观地展示物体模型或者室内场景的空间形状及位置,因此,该技术是目前国内外众多学者研究的热点内容。
Marr提出的视觉计算理论将视觉划分为三个阶段。第一阶段,三维重建的初级阶段,从简单的二维图像信息的获取开始,包括深度图像、边缘图、彩色纹理图像等基本几何形态或者特征要素等。通过灰度值表征了采样空间中物体表面的位置和形状信息,在这个阶段所获取的数据都是二维坐标上的。而进入第二阶段,这些二维信息需要转换到三维信息空间坐标系中。实际上,第二阶段并非真正意义的三维显示,我们称为2.5维坐标系下的信息还原。该阶段中所包含的空间信息是不完全的,并且是在以观察者为原点的坐标系中的三维形状和位置,是从观察值或者摄像头的位置出发对重建物体进行描述。这样物体背面的全部信息无法正常地获得。
可见,前两个阶段只是“视觉的低层次的处理”。仅依靠在第二阶段获得的数据并不能真实、全面地展示一个场景的全部空间信息。所以对三维重建提出了更高的要求,进入了第三阶段。首先。坐标的原点应该是基于观察物体本身或者是客观世界中的固定位置;其次,应该从多个角度观察并获取场景中物体的三维数据信息,并将其转换至同一坐标系中。
三维重建是连接摄像机与真实环境的一个重要桥梁,在虚拟现实与人机交互中有着重要额作用。作为图像处理和模式识别在工程应用上的重要分支,三维重建在3D打印、机器人导航、文物修复、3D视频、医学CT图像等领域都有着广泛的应用。
本发明的研究意义在于通过个人消费级别的深度摄像头来获取室内三维场景的相关数据,采用OpenCV、G2O和PCL等工具包,使消费者在家里就可以完成小范围室内场景的重建。
如果要实现场景的三维重建,一个完整的RGB-D SLAM方法主要包括图像匹配、回环检测以及图优化三大步骤,流程如3所示。(由于Kinect标定参数通过标定程序即可获得,所以在重建过程中,被当作已知参数,在框架中没有添加标定过程)。该框架又可分为两大部分:SLAM前端和SLAM后端。SLAM前端包括图像匹配和回环检测两步,完成场景重建;SLAM后端对重建场景点云数据进行全局图优化。下面我们详细介绍这两大部分。
1.SLAM前端
下面我们首先来介绍一下SLAM前端(SLAM front-end):图像匹配主要解决连续图像帧间的匹配及相对Kinect摄像机的姿态估计问题,而回环检测则主要根据图像匹配判断摄像机是否先前来过该区域,这两部分密切相关。SLAM前端主要解决数据关联的问题,图像匹配考虑局部数据关系,而回环检测则处理全局数据关系。或者说,图像匹配与回环检测都是根据图像帧数据建立图节点间的约束,即完成场景图的重建。
2.SLAM后端
由于图像噪声以及匹配误差的存在,通过图像帧配准得到的位姿图通常不一致。反而,图中的边与边之间常常存在“冲突”。从理论上分析,若用Ti来表示图像帧间的相对变换矩阵并且T0,T1,T2…Tn构成一个回环的话,理论上讲,必然存在T0T1T2…Tn=I其中I为单位矩阵。但通过图像帧配准得到的相对变换矩阵通常不满足单位阵的理论约束。在采用图结构来表示摄像机位姿及其约束中,摄像机的位姿可看作随机变量,位姿间的约束则是与随机变量相关的观测,那么图优化结果则对应于位姿的最大似然估计。与图像匹配和回环检测不同,图优化部分不直接处理图像帧数据,而只是对SLAM前端构造的图进行优化。所以我们将图优化称为SLAM后端(SLAM back-end),与SLAM前端区分开来。
发明内容
本发明的目的在于提供一种基于FAST和FREAK特征匹配算法的RGB-D和SLAM场景重建方法。
本发明具体包括如下步骤:
(1)首先对Kinect进行标定;
(2)对彩色图像进行FAST特征点提取,采用FREAK特征描述子进行图像匹配,然后再对特征点对采用RANSAC算法剔除掉外点,保留内点;
(3)通过图像匹配获得的内点对当前帧与最近关键帧进行运动估计和获取变换矩阵,只有当运动距离在(Dmin,Dmax)之间,我们才将当前帧作为是关键帧。
(4)根据获得的关键帧序列构建出姿态图,并且用图优化算法对姿态图进行全局误差一致性优化。
(5)通过(4),得到的关键帧序列的变换关系是误差一致的,然后对关键帧的彩色图和深度图像进行融合,获得点云数据。再通过变换矩阵进行点云拼接,最终获得整个场景的点云数据。
本发明的有益效果在于:现有的室内场景重建采用的特征匹配算法大多是SIFT、SURF、ORB和KAZE等。SIFT、SURF和KAZE等算法的鲁棒性较好,但是实时性较差。ORB算法实时性较好,鲁棒性较差。在实时性和鲁棒性上很难两者兼顾。以前的RGB-D SLAM方法通过特征匹配计算变换矩阵,直接点云帧数据进行拼接。这样做的弊端是加大了计算量,并且容易造成无匹配现象。本发明采用对关键帧进行筛选,仅对关键帧进行点云的拼接,这样极大地减少了点云的拼接次数。本发明还采用了基于图优化的回环检测算法,通过构建姿态图,对其进行全局优化,极大降低了误差的累积。
附图说明
图1是本发明方法的基本流程图;
图2是本发明方法中Kinect的标定流程图;
图3是待FAST和FREAK特征匹配的原始图像;
图4是FAST和FREAK特征匹配结果图和RANSAC后的结果图;
图5是SIFT、SURF、ORB、FREAK和KAZE匹配时间对比图;
图6是SIFT、SURF、ORB、FREAK和KAZE匹配成功率对比图;
图7是待拼接的一帧彩色图像和深度图像;
图8是待拼接的另一帧彩色图像和深度图像;
图9是两帧图像的点云拼接图;
图10是RGB-D SLAM场景重建方法对场景的重建结果图;
图11是RGB-D SLAM场景重建方法对场景的重建结果图。
具体实施方式
下面结合附图对本发明做进一步描述。
传统的RGB-D SLAM采用的是SIFT、SURF和ORB等特征匹配算法,在实时性方面,SIFT和SURF等算法表现不理想,ORB和FREAK算法是为了在移动设备上运行提出的算法,所以实时性较好;在鲁棒性方面,SIFT的综合表现较好,SURF在光照变化时表现较差,其他条件下表现比较稳定,ORB算法的综合表现一般,FREAK算法在各种环境下表现出较好的稳定性。综合方法实时性和鲁棒性两方面的考虑,提出了一种基于FAST和FREAK的特征匹配算法的RGB-D SLAM场景重建方法。
(1)首先对Kinect设备进行标定。本发明采用OpenCV库中的标定函数。通过这些函数,可以比较容易地完成摄像机标定,获得彩色摄像机和红外摄像机的内参数和外参数。Kinect标定流程如附图2所示。
本发明采用cvFindChessboardCorners()计算棋盘图像上的角点位置,函数原型如下:
int cvFindChessboardCorners(const void*image,CvSize pattern_size,CvPoint2D32f*corners,int*corner_count=NULL,int flags=CV_CALIB_CB_ADAPTIVE_THRESH);
函数输入参数有:输入的棋盘图像、标定板每行和每列的角点数目,检测到的角点、输出角点的个数以及使用的操作标志。
我们采用函数cvFindCornerSubPix()对角点进行细化,函数原型为:
void cvFindCornerSubPix(const CvArr*image,CvPoint2D32f*corners,intcount,CvSize win,CvSize zero_zone,CvTermCriteria criteria);
这个函数的输入参数有:棋盘标定板图像、提取的角点的初始坐标和数目、搜索窗口和死区的一半尺寸、校正角点的迭代的终止条件。
角点的精细化过程使用了迭代算法,所以需要确定一个迭代的终止条件。在本系统中,设定迭代过程的终止条件为:
cvTermCriteria(CV_TERMCRIT_EPS+CV_TERMCRIT_ITER,30,0.1)
即迭代终止条件为:迭代次数最高达到30次,或者迭代精度达到0.1个像素。
下面将得到的精确的角点位置代入函数cvStereoCalibrate(),函数的原型为:
cvStereoCalibrate(const CvMat*object_points,const CvMat*image_points1,
const CvMat*image_points2,const CvMat*npoints,
CvMat*camera_matrix1,CvMat*dist_coeffs1,
CvMat*camera_matrix2,CvMat*dist_coeffs2,
CvSize image_size,CvMat*R,CvMat*T,
CvMat*E CV_DEFAULT(0),CvMat*F CV_DEFAULT(0),
CvTermCriteria term_crit CV_DEFAULT(cvTermCriteria(
CV_TERMCRIT_ITER+CV_TERMCRIT_EPS,30,1e-6)),
int flags CV_DEFAULT(CV_CALIB_FIX_INTRINSIC));
该函数将要做大量分解工作,所以运行的时间较长,返回值为摄像机的内参数和外参数矩阵。
(2)图像特征匹配算法。首先本发明研究了SIFT、SURF、ORB、KAZE和FREAK等特征匹配算法。选取的三组实验图像如附图3,图像分辨率为640*480。特征匹配算法的执行效率手硬件设备的约束较大,本发明采用的硬件配置:处理器为Intel Core i5-2300 2.8GHz四核,内存8GB,显卡NvidiaQuadro 4000(2GB)。实验结果如附图4所示,统计算法执行时间如表1所示。
表1特征提取匹配算法执行时间统计表
将表1特征匹配算法执行时间统计表绘制成柱状图,如附图5,按照由长到短顺序为KAZE>SIFT>SURF>ORB>FREAK,KAZE耗时最长,根本无法达到实时性的要求。ORB和FREAK执行时间属于同数量级的,FREAK稍快一点,都能符合实时性的要求,适于应用到场景重建中。
在RGB-D SLAM场景重建方法中鲁棒性与实时性同样重要,如果出现特征无匹配,那么容易导致场景重建的不连续,最终导致场景重建的失败。SIFT、SURF、ORB、FREAK、KAZE五种算法的匹配成功率统计如表2。
表2特征提取匹配算法匹配成功率统计表
从表2中可以看出这几种算法的平均匹配成功率,虽然各算法区分度不大,但仍然能够看出算法的优劣。将表2的数据采用柱状图来显示,更加形象,如图6所示。匹配成功率最高的是KAZE,其次是FREAK,接下来依次为SURF和SIFT,但是相差不大,最低的是ORB。
尽管KAZE算法的匹配成功率高,稳定,但是算法耗时太长,无法满足实时性的要求。ORB算法虽然检测和匹配效率高,但是匹配成功率较低。所以综合算法执行效率和匹配成功率两个方面,FREAK算法是最适合场景重建的。
本发明采用FAST和FREAK算法对图像进行匹配。FAST特征提取运行效率较高,通过检测候选点邻域一周像素的灰度值,若候选点邻近域内有足够的像素点和候选点的灰度值差别较大,我们则规定该候选点为特征点。
其中,I(x)为圆周上任意一点的灰度,I(p)为圆心的灰度,εd为灰度值之差的阈值,如果N大于给定阈值,一般为周围圆圈点的四分之三,则认为p是一个特征点。
FAST特征点方向规定为特征点与圆形邻域重心的夹角:
FREAK描述子是利用了视网膜的拓扑结构原理,由0和1组成的二进制串。用M表示:
式中Pα代表感受域对,N代表采样点对的个数,T(Pα)是0和1的测试,分别代表Pα的上一位和下一位的灰度均值,是采样点经过高斯平滑后的强度值。
采用FAST和FREAK特征匹配算法获得的特征点对存在误匹配,所以本发明采用RANSAC算法对其进行筛选,剔除掉外点,保留内点。
(3)Kinect设备采集点云数据的速度能达到30fps,数据量是相当大,因为帧与帧之间的距离很近,如果对每一帧数据都进行匹配,将会消耗大量的时间和内存空间,是完全没有必要的。所以我们在这里引用了“关键帧”,只需要把检测到的关键帧拼接到重建场景中,这样不仅降低了帧与帧间匹配次数,还避免了重建场景的频繁更新,从而节省时间和空间。
关键帧满足条件:
1.与上一关键帧能特征匹配成功。
2.与上一关键帧之间的距离在设定范围(Dmin,Dmax)之内,该设定距离范围为经验值。
(4)构建姿态图并进行基于图优化的回环检测。在姿态图中每个节点代表摄像机的一个姿态,每条边代表了一个转换关系。
本发明采用Rainer等人开发的G2O库,使得图优化较为方便。要想构建一个姿态图并进行图优化,只需要以下几步:
1.定义一个SparseOptimizer,它一般使用Gauss-Newton或LM算法;
2.库中定义的边、节点变量,与节点相关的操作的头文件都以vertex_开头,而与边相关的操作的头文件则以edge_开头,该节点和边的类型都可以直接来自于Eigen::Isometry;
3.通过帧间匹配程序,计算出变换矩阵;
4.将计算出的关键帧作为节点,关键帧之间的变换矩阵作为节点间的边,添加到optimizer中,同时设定节点的估计值与边的约束;
5.不断做帧间检测来维护姿态图;
6.在程序结束时调用optimizer.optimize(steps)进行优化,优化完成后读取每个关键帧节点的估计值。
回环检测的任务是判断当前帧是否在帧序列中出现过。在回环检测中,通过保存过去关键帧,然后判断当前帧是否与过去关键帧匹配,如果当前帧与某一过去关键帧相似度较高,可以计算该两帧之间的转换和添加新约束。加入新的约束可以有效地减少误差的累积。
RGB-D SLAM场景重建方法回环检测流程伪代码如下:
1.初始化关键帧序列H,并将第一帧h0放入H。
2.对于当前帧hi,计算H中上一帧hi-1与hi的运动,并估算该运动的大小d。有以下几种可能性:
a.若d>Dmax,则表明上一帧与当前帧之间的距离较大,容易导致计算错误。为防止该现象,选择丢弃当前帧;
b.如果出现无匹配现象,说明图像的质量不高和检测到的inliers点对太少,以至于无法匹配,丢弃;
c.若d<Dmin,则表明与上一关键帧运动距离较近,同样丢弃该帧;
d.其余情况均是理想的关键帧,特征匹配成功,运动估计正确,同时又与上一关键帧hi-1有一定距离,并且该距离较为合适,则把hi作为新的关键帧,接下来进入回环检测。
3.近距离回环:匹配hi与关键帧序列H末尾的k个关键帧,如果匹配成功,就在图G里增加一条边。
4.均匀回环:在从帧首开始的n-k个关键帧中均匀等间距选取(n-k)/k个关键帧,与hi进行匹配,如果能匹配,则再在图G里增加一条边。
5.将hi放入H末尾,并进行优化再与当前重建场景拼接。若有新的数据,则返回步骤2;若无,则程序停止。
(5)对关键帧的彩色图和深度图像进行融合,获得关键帧的点云数据。再通过变换矩阵进行点云拼接,最终获得整个场景的点云数据。
要想获得点云数据,我们首先要用Kinect设备的RGB摄像头和红外CMOS摄像机分别读取RGB图像和Depth图像。RGB图像含有颜色信息,Depth图像含有距离信息,所以我们定义数据结构来保存两者的信息。数据结构定义如下:
struct PointXYZRGB{
float x;float y;float z;float rgb[3];
};
点云数据融合的过程:将Depth图像经过一定的坐标变换与RGB图像对齐,然后计算出空间点的X、Y坐标,最后将三维点云数据(X,Y,Z,R,G,B)通过PCL开源库显示。
获得点云数据后,我们需要知道前后帧之间的变换矩阵。接下来我们通过OpenCV中的solvePnPRansac()函数求解变换矩阵(即相机的旋转矩阵和平移矩阵),实现对Kinect设备的摄像机姿态估计。下面是solvePnPRansac()函数原型:
void solvePnPRansac(InputArray objectPoints,InputArray imagePoints,InputArray cameraMatrix,InputArray distCoeffs,OutputArray rvec,OutputArraytvec,bool useExtrinsicGuess=false,intiterationsCount=100,floatreprojectionError=8.0,int minInliersCount=100,OutputArray inliers=noArray(),int flags=ITERATIVE)
PCL库中含有对点云拼接的方法,函数为transformPointCloud(input,output,T)。通过该方法不断进行两两拼接,即可得到完整重建场景。
图10是对数据集1的场景重建图,重建过程中,关键帧筛选和重建时间情况如表3所示。
表3数据集1重建中关键帧和重建时间情况
图11是对数据集2的场景重建图,表4是关键帧筛选和重建时间情况表
表4数据集2重建中关键帧和重建时间情况

Claims (1)

1.一种基于FAST和FREAK特征匹配算法的RGB-D和SLAM场景重建方法,其特征在于,包括以下步骤:
对彩色图像进行FAST特征点提取,采用FREAK特征描述子进行图像匹配,然后再对特征点采用RANSAC算法剔除外点,保留内点;
通过图像匹配内点对当前帧与最近关键帧进行运动估计和获得变换矩阵T,只有当运动距离在(Dmin,Dmax)之间,当前帧作为关键帧,并且放入关键帧序列,构建关键帧序列的姿态图;
通过回环检测判断当前关键帧是否在关键帧序列中出现,回环检测有两种方式近距离回环检测和均匀回环检测;
若当前关键帧与某关键帧匹配,则在姿态图中增加一条边;并且采用图优化算法对姿态图进行全局优化,减小误差累计;
对关键帧的彩色图和深度图融合得到关键帧的点云数据;通过姿态图信息对关键帧的点云数据序列进行拼接,获得整个场景的点云数据;
候选点为特征点;
其中,I(x)为圆周上任意一点的灰度,I(p)为圆心的灰度,εd为灰度值之差的阈值,如果N大于给定阈值,一般为周围圆圈点的四分之三,则认为p是一个特征点;
FAST特征点方向规定为特征点与圆形邻域重心的夹角:
FREAK描述子是利用了视网膜的拓扑结构原理,由0和1组成的二进制串;用M表示:
式中Pα代表感受域对,N代表采样点对的个数,T(Pα)是0和1的测试,分别代表Pα的上一位和下一位的灰度均值,是采样点经过高斯平滑后的强度值;
采用FAST和FREAK特征匹配算法获得的特征点对存在误匹配,所以本发明采用RANSAC算法对其进行筛选,剔除掉外点,保留内点。
CN201610810785.8A 2016-09-08 2016-09-08 一种基于fast和freak特征匹配算法的rgb-d和slam场景重建方法 Active CN106384383B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610810785.8A CN106384383B (zh) 2016-09-08 2016-09-08 一种基于fast和freak特征匹配算法的rgb-d和slam场景重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610810785.8A CN106384383B (zh) 2016-09-08 2016-09-08 一种基于fast和freak特征匹配算法的rgb-d和slam场景重建方法

Publications (2)

Publication Number Publication Date
CN106384383A CN106384383A (zh) 2017-02-08
CN106384383B true CN106384383B (zh) 2019-08-06

Family

ID=57939102

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610810785.8A Active CN106384383B (zh) 2016-09-08 2016-09-08 一种基于fast和freak特征匹配算法的rgb-d和slam场景重建方法

Country Status (1)

Country Link
CN (1) CN106384383B (zh)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106878628A (zh) * 2017-02-23 2017-06-20 珠海数字动力科技股份有限公司 一种通过摄像头进行视频拼接的方法
CN107480580B (zh) * 2017-03-31 2021-06-15 触景无限科技(北京)有限公司 图像识别方法和图像识别装置
CN107292949B (zh) * 2017-05-25 2020-06-16 深圳先进技术研究院 场景的三维重建方法、装置及终端设备
CN107204015B (zh) * 2017-05-27 2021-06-08 中山大学 基于色彩图像和红外图像融合的即时定位与建图系统
CN107369170A (zh) * 2017-07-04 2017-11-21 云南师范大学 图像配准处理方法和装置
CN107748569B (zh) * 2017-09-04 2021-02-19 中国兵器工业计算机应用技术研究所 用于无人机的运动控制方法、装置及无人机系统
CN107808395B (zh) * 2017-10-31 2020-12-04 南京维睛视空信息科技有限公司 一种基于slam的室内定位方法
CN108124489B (zh) * 2017-12-27 2023-05-12 达闼机器人股份有限公司 信息处理方法、装置、云处理设备以及计算机程序产品
CN108364257B (zh) * 2018-02-06 2023-05-09 深圳市菲森科技有限公司 三维扫描点云数据的拼接方法及系统
CN108550180B (zh) * 2018-03-09 2021-11-19 南京信息工程大学 基于内点集域约束及高斯过程参数优化的血管建模方法
GB201804400D0 (en) * 2018-03-20 2018-05-02 Univ Of Essex Enterprise Limited Localisation, mapping and network training
CN108648224B (zh) * 2018-05-18 2021-07-13 杭州电子科技大学 一种基于人工神经网络的实时场景布局识别及重建的方法
CN109141395B (zh) * 2018-07-10 2020-06-09 深圳市无限动力发展有限公司 一种基于视觉回环校准陀螺仪的扫地机定位方法及装置
CN109241901B (zh) * 2018-08-30 2019-08-06 天津理工大学 一种对具有孔洞的三维点云的检测与识别方法
CN109255815B (zh) * 2018-08-30 2019-11-12 天津理工大学 一种基于零阶球谐函数的物体检测与识别方法
CN110070571B (zh) * 2019-04-28 2020-10-16 安徽农业大学 一种基于深度相机的毛竹形态参数检测方法
CN110097016A (zh) * 2019-05-08 2019-08-06 广东工业大学 一种应用于vslam回环验证的路标特征点匹配方法
CN110363806B (zh) * 2019-05-29 2021-12-31 中德(珠海)人工智能研究院有限公司 一种利用不可见光投射特征进行三维空间建模的方法
CN110223351B (zh) * 2019-05-30 2021-02-19 杭州蓝芯科技有限公司 一种基于卷积神经网络的深度相机定位方法
CN110322511B (zh) * 2019-06-28 2021-03-26 华中科技大学 一种基于物体和平面特征的语义slam方法和系统
CN111160298B (zh) * 2019-12-31 2023-12-01 深圳市优必选科技股份有限公司 一种机器人及其位姿估计方法和装置
WO2021184302A1 (zh) * 2020-03-19 2021-09-23 深圳市大疆创新科技有限公司 图像处理方法、装置、成像设备、可移动载体及存储介质
CN112016484B (zh) * 2020-08-31 2024-04-05 深圳市赛为智能股份有限公司 植物侵扰评估方法、装置、计算机设备及存储介质
CN113103232B (zh) * 2021-04-12 2022-05-20 电子科技大学 一种基于特征分布匹配的智能设备自适应运动控制方法
CN113884025B (zh) * 2021-09-16 2024-05-03 河南垂天智能制造有限公司 增材制造结构光回环检测方法、装置、电子设备和存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103106688A (zh) * 2013-02-20 2013-05-15 北京工业大学 基于双层配准方法的室内三维场景重建方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103106688A (zh) * 2013-02-20 2013-05-15 北京工业大学 基于双层配准方法的室内三维场景重建方法

Also Published As

Publication number Publication date
CN106384383A (zh) 2017-02-08

Similar Documents

Publication Publication Date Title
CN106384383B (zh) 一种基于fast和freak特征匹配算法的rgb-d和slam场景重建方法
Tateno et al. Cnn-slam: Real-time dense monocular slam with learned depth prediction
Barnea et al. Segmentation of terrestrial laser scanning data using geometry and image information
CN107679537B (zh) 一种基于轮廓点orb特征匹配的无纹理空间目标姿态估计算法
CN103839277B (zh) 一种户外大范围自然场景的移动增强现实注册方法
CN103854283B (zh) 一种基于在线学习的移动增强现实跟踪注册方法
CN110717494B (zh) Android移动端室内场景三维重建及语义分割方法
Tian et al. Depth estimation using a self-supervised network based on cross-layer feature fusion and the quadtree constraint
US20160189419A1 (en) Systems and methods for generating data indicative of a three-dimensional representation of a scene
CN110349247B (zh) 一种基于语义理解的室内场景cad三维重建方法
Oxholm et al. Shape and reflectance estimation in the wild
CN106960442A (zh) 基于单目红外的夜间机器人视觉大视场三维构建方法
Bi et al. A dynamic mode decomposition based edge detection method for art images
CN106155299B (zh) 一种对智能设备进行手势控制的方法及装置
Xu et al. Survey of 3D modeling using depth cameras
CN101777129A (zh) 一种基于特征检测的图像匹配方法
Vu et al. Efficient hybrid tree-based stereo matching with applications to postcapture image refocusing
CN111899295A (zh) 一种基于深度学习的单目场景深度预测方法
Tao et al. Indoor 3D semantic robot VSLAM based on mask regional convolutional neural network
CN110060304A (zh) 一种生物体三维信息采集方法
Chen et al. Image stitching algorithm research based on OpenCV
CN108510434B (zh) 通过球幕相机进行三维建模的方法
Zhang et al. When 3d reconstruction meets ubiquitous rgb-d images
Teng et al. Reconstructing three-dimensional models of objects using a Kinect sensor
CN111126508A (zh) 一种基于hopc改进的异源图像匹配方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant