CN109974707B - 一种基于改进点云匹配算法的室内移动机器人视觉导航方法 - Google Patents
一种基于改进点云匹配算法的室内移动机器人视觉导航方法 Download PDFInfo
- Publication number
- CN109974707B CN109974707B CN201910208650.8A CN201910208650A CN109974707B CN 109974707 B CN109974707 B CN 109974707B CN 201910208650 A CN201910208650 A CN 201910208650A CN 109974707 B CN109974707 B CN 109974707B
- Authority
- CN
- China
- Prior art keywords
- camera
- robot
- point cloud
- point
- transformation matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明涉及基于改进点云匹配算法的室内移动机器人视觉导航方法,属于机器人视觉导航领域。该方法包括:S1:校准Kinect相机,通过外部参数对齐多个点云;S2:得到离线校准的外部参数形成的变换矩阵,计算出多视点变换矩阵;S3:获取周围环境的ORB特征点进行特征提取和匹配;S4:估算相邻图像间相机运动构建局部地图,使用RANSAC算法消除误匹配,对获取的特征点进行PNP求解;S5:引入闭环检测机制确保机器人得到全局一致的轨迹和地图;S6:结合闭环检测机制,采用基于局部与全局特征点的相机位姿闭环约束点云优化算法,抑制系统的累积误差。本发明能够降低计算量,实现机器人对实时性的要求。
Description
技术领域
本发明属于室内移动机器人视觉导航领域,涉及一种基于改进点云匹配算法的室内移动机器人视觉导航方法。
背景技术
随着机器人技术的不断发展,人类对移动机器人要求也在不断提高。同时定位和映射(Simultaneous Localization and Mapping,SLAM)是机器人能否真正实现智能化的关键技术之一。视觉传感器可以获得更加丰富的环境信息,其中,三维场景重建是机器人视觉应用中的一个重要问题,比如地图构建、环境识别、增强现实、以及SLAM等。在点云匹配中,局部匹配已被证明能够生成准确的重建模型,已经提出了几种精度更高的局部匹配方法。有三种类型的局部配准方法:迭代最近点(ICP),陈氏方法和遗传算法。
现在常用的局部匹配方法是ICP方法,ICP方法由Besl等人提出有效匹配三维形状,包括自由曲线和曲面。随后的时间内研究人员对ICP方法的进行改进。Rusinkiewicz等人基于法线空间的均匀采样得出ICP变体,这可以为相对较小的场景和稀疏特征提供相对较好的收敛结果。Low提出线性最小二乘问题逼近非线性最小二乘优化问题来解决点到面的ICP算法,使用近似方法来提高确定最优解的效率。Serafin和Grisetti提出了一种新的优化成本函数,不仅包括点到点距离,还包括表面法线或切线;不仅增加了收敛速度,而且具有更好得鲁棒性。李恒宇等人提出了一种基于图像的RGB-D图像拼接方法,首先进行校准找出深度图和彩色图像之间的变换矩阵,然后对齐深度图和彩色图像。但是上述方法计算量大并且难以满足机器人实时性。
发明内容
有鉴于此,本发明的目的在于提供一种基于改进点云匹配算法的室内移动机器人视觉导航方法,用于降低计算量,从而实现机器人对实时性的要求。
为达到上述目的,本发明提供如下技术方案:
一种基于改进点云匹配算法的室内移动机器人视觉导航方法,具体包括以下步骤:
S1:使用平面棋盘格校准Kinect相机,通过Kinect相机的外部参数对齐多个点云;
S2:得到离线校准的外部参数形成的变换矩阵,计算出多视点变换矩阵,用于全局匹配;
S3:使用Kinect相机获取周围环境的ORB特征点进行特征提取和匹配;
S4:估算相邻图像间相机运动构建局部地图,使用消除误匹配,对获取的特征点进行PNP求解,用于机器人相邻位姿的增量估计;
S5:引入闭环检测机制确保机器人得到全局一致的轨迹和地图;
S6:结合闭环检测机制,采用基于局部与全局特征点的相机位姿闭环约束点云优化算法,用于抑制系统的累积误差。
进一步,所述步骤S1具体包括:通过旋转RGB-D相机或平移机器人位置得到棋盘不同角度的对应参数,变换矩阵从正向运动学中分析得到:
其中,Ti 0为相机正向运动方程,为相机的第k-1和k个关键帧之间的变换矩阵,为相机转向角,为相机倾斜角,平台与棋盘转向角,平台与棋盘倾斜角度,α2为方程偏导数,θp和θt分别表示相机转向角度和倾斜角度。
进一步,所述步骤S2具体包括:
S21:得到离线校准的外部参数形成的变换矩阵为:
其中,K是固定值,旋转矩阵,是机器人坐标到相机坐标的平移矢量,[u v 1]T是二维平面上2D像素坐标,[x y z 1]T是全局坐标系中三维点坐标,s是与深度图片尺寸比,从Kinect相机深度图像中获得;
S21:计算多视点变换矩阵:
基于多视点摄像机标定生成多视角变换矩阵的离线标定方法:
其中,Pr是棋盘上坐标系的关键点坐标,Pi为第i帧点云图,为第i帧处棋盘特征点矩阵,是将Pr映射到Pi,是将Pr映射到Pi的变换矩阵,通过使用Kinect标定获得不同视角的变换矩阵;假设定义F0全局坐标为W,并把所有的Pi都转换为F0,得到:
进一步,所述步骤S5中,引入的闭环检测机制具体包括:引用机器人位姿优化的目标函数:
其中,xk表示第k时刻机器人位姿即pose节点,yj表示第k时刻观测到的路标即point节点,zk,j表示xk和yj之间的约束;在闭环检测过程中,e(xk,yj,zk,j)为两点之间所产生的向量误差,即zk,j满足约束的程度,当其值为0时,表示完全满足约束条件;g(xk,yj)表示第k时刻的位姿节点和路标之间的函数,C表示二维矩阵,Ωkj表示所有位恣节点和路标节点;
其次,在机器人运动过程中,误差函数符合高斯分布函数,将视觉SLAM等效为一个最小二乘问题,利于李群代数模型求解出目标函数与各节点的导数FX和Fy,求解方程为:
e(x+δx,y+δy)=e(x,y)+Fxδx+Fyδy
其中,δx为机器人位姿误差,δy为机器人路标误差,为李群代数,ei为代价函数,矩阵H为稀疏特征矩阵,FX和Fy分别表示相机运动和机器人运动后像素变化;通过使用变换矩阵对稀疏特征点进行匹配,包含所有SLAM求解变量与边缘值的问题;通过多次迭代得到适合目标函数的x值;通过上述转化把SLAM问题转换成节点和边,节点包含pose节点和point节点,表示优化变量;边为不同节点的约束,表示为误差约束条件,point-pose约束取决于系统中闭环产生的约束,pose-point取决于相机观测产生的约束。
进一步,所述步骤S5中,在闭环检测中为保证机器人闭环检测实时性设定相应性阈值,其中相似性计算函数为:
其中,Vl表示上一帧图像加权量,Vc表示当前帧加权向量,X越大说明图像相似性越高。因此,当X大于一定阈值则舍弃当前帧。
进一步,所述步骤S6中,对于稠密点云地图,基于局部与全局特征点的相机位姿闭环约束点云优化算法,具体步骤为:
S61:根据帧间关联度选出关键帧序列,机器人局部状态与关键帧进行匹配;
S62:根据求得的相机多视角变换矩阵,得到优化后的相机位姿,对获取的点云进行坐标变换,初步实现点云融合;
S63:闭环检测采用K均值分类方法构建视觉词典树,提高闭环识别率;
S64:闭环检测完成后,遍历关键帧与当前帧进行相似变换矩阵Sim3求解与优化,如果闭环成功则跳出Sim3,得到对应相似性变换矩阵为:
其中,SO(3)为特殊正交群,R为点云对准时旋转矩阵,t为平移向量,s是与深度图片尺寸比,从Kinect相机深度图像中获得;
S65:点云优化:使用因子图优化算法对点云进行优化,进行点云拼接融合,实现点云优化,构建精确的三维点云地图。
本发明的有益效果在于:本发明提出的是一种改进的校准方法,通过使用深度相机标定技术计算出离线状态下不同角度控制点之间的变换矩阵,然后在匹配过程中直接使用这些变换矩阵。通过离线校准,可以获得相机在固定位置及固定角度的相对变换矩阵并用于全局匹配,由于仅需要对每个输入点云数据进行简单的坐标变换计算,具有较低的计算量,可以满足机器人实时性要求。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为本发明所述室内机器人视觉导航方法示意图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
请参阅图1,图1为一种基于改进点云匹配的室内移动机器人视觉导航方法,具有包括:首先使用平面棋盘格校准Kinect相机,通过Kinect相机的外部参数对齐多个点云,得到由外部参数离线校准后形成的多视点变换矩阵,用于全局点云匹配。其次,在构建地图的过程采用计算量小、实时性高的ORB特征进行特征提取和匹配。利用RANSAC算法对可能存在的误匹配点进行剔除完成初始匹配,对获取的特征点进行PNP求解,用于机器人相邻位姿的增量估计。最后,在后端优化中,结合闭环检测机制提出了一种点云优化算法,用于抑制系统的累积误差,确保机器人得到全局一致的轨迹和地图。
实施例:根据如下表1、2取值进行不同算法直接的效果比较。
表1不同算法之间的RMS比较结果
ICP | Super4PCS | FRG | 本发明算法 | |
fr1/xyz | 0.225 | 0.215 | 0.197 | 0.195 |
fr2/rpy | 0.354 | 0.352 | 0.307 | 0.289 |
fr2/pioneer_slam | 0.741 | 0.844 | 0.862 | 0.704 |
fr2/coke | 0.243 | 0.356 | 0.235 | 0.209 |
Fr3/teddy | 0.394 | 0.416 | 0.445 | 0.359 |
表2不同算法之间每帧处理视觉比较结果
FRG | ORB-SLAM | 本发明算法 | |
fr1/xyz | 0.009 | 0.015 | 0.005 |
fr2/pioneer_slam | 0.461 | 0.556 | 0.453 |
fr2/coke | 0.089 | 0.106 | 0.096 |
Fr3/teddy | 0.049 | 0.056 | 0.035 |
表1表示本发明采用算法和Super4PCS方法和FRG算法以及传统ICP方法实时匹配对比结果。从表1可以得到由于模型不确定性和相机校准误差等原因的存在,本发明提出的算法相对于Super4PCS算法和传统ICP方法分别具有较低的RMS误差。在数据集fr2/pioneer_slam中,由于场景比较复杂,存在大量的无效数据,降低了所提出的方法和所比较的方法的匹配性能,但是本文算法依然高于所对比的算法,算法在实时性也优于所对比算法。
表2表示不同算之间每帧处理时间对比结果,本发明所述方法由于事先对相机进行标定,平均处理每帧图片仅用0.201s,FRG方法平均每帧处理时间为0.649s,而Super4PCS算法平均每帧时间消耗约是本文算法的3倍。在没有其他外部加速的情况下,不能保证v-SLAM实时性和精准性。本发明采用算法在后端不需要使用RANSAC算法剔除误匹配,在使用相机离线校准的参数后点云地图大约以9.6帧/秒速度进行更新,可以满足v-SLAM实时性。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (2)
1.一种基于改进点云匹配算法的室内移动机器人视觉导航方法,其特征在于,该方法具体包括以下步骤:
S1:使用平面棋盘格校准Kinect相机,通过Kinect相机的外部参数对齐多个点云;
S2:得到离线校准的外部参数形成的变换矩阵,计算出多视点变换矩阵,用于全局匹配;
S3:使用Kinect相机获取周围环境的ORB特征点进行特征提取和匹配;
S4:估算相邻图像间相机运动构建局部地图,使用RANSAC消除误匹配,对获取的特征点进行PNP求解,用于机器人相邻位姿的增量估计;其中,RANSAC表示随机抽样一致算法,PNP表示Perspective-N-Point;
S5:引入闭环检测机制确保机器人得到全局一致的轨迹和地图;
S6:结合闭环检测机制,采用基于局部与全局特征点的相机位姿闭环约束点云优化算法,用于抑制系统的累积误差;
所述步骤S1具体包括:通过旋转RGB-D相机或平移机器人位置得到棋盘不同角度的对应参数,相机视图的所有变换矩阵Ti 0从正向运动学中分析得到:
所述步骤S2具体包括:
S21:得到离线校准的外部参数形成的变换矩阵为:
其中,K为固定值,为旋转矩阵,为机器人坐标到相机坐标的平移矢量,[u v 1]T是二维平面上2D像素坐标,[x y z 1]T是全局坐标系中三维点坐标,s是与深度图片尺寸比,从Kinect相机深度图像中获得;
S22:计算多视点变换矩阵:
基于多视点摄像机标定生成多视角变换矩阵的离线标定方法:
其中,Pr是棋盘上坐标系的关键点坐标,Pi为第i帧点云图,为第i帧处棋盘特征点矩阵,是将Pr映射到Pi的平移矢量,Tr i是将Pr映射到Pi的变换矩阵;假设定义F0为全局坐标W,并把所有的Pi都转换为F0,得到:
所述步骤S5中,引入的闭环检测机制具体包括:利用机器人位姿优化的目标函数:
其中,xk表示第k时刻机器人位姿即pose节点,yj表示第k时刻观测到的路标即point节点,zk,j表示xk和yj之间的约束;在闭环检测过程中,e(xk,yj,zk,j)为pose节点与point节点之间所产生的向量误差,即zk,j满足约束的程度,当其值为0时,表示完全满足约束条件;g(xk,yj)表示第k时刻的位姿节点和路标之间的函数,C表示二维矩阵,Ωkj表示所有位姿节点和路标节点;
其次,在机器人运动过程中,误差函数符合高斯分布函数,将SLAM等效为一个最小二乘问题,利用李群代数模型求解出目标函数与各节点的导数FX和Fy,求解方程为:
e(x+δx,y+δy)=e(x,y)+Fxδx+Fyδy
其中,δx为机器人位姿误差,δy为机器人路标误差,为李群代数,ei为代价函数,矩阵H为稀疏特征矩阵,FX和Fy分别表示相机运动和机器人运动后像素变化;通过使用变换矩阵对稀疏特征点进行匹配,包含所有SLAM求解变量与边缘值的问题;通过多次迭代得到适合目标函数的位姿节点x的值;通过上述转化把SLAM问题转换成节点和边,节点包含pose节点和point节点,表示优化变量;边为不同节点的约束,表示为误差约束条件,point-pose约束取决于系统中闭环产生的约束,pose-point取决于相机观测产生的约束;其中,SLAM表示视觉同步定位与映射;
所述步骤S6中,基于局部与全局特征点的相机位姿闭环约束点云优化算法,具体步骤为:
S61:根据帧间相似性选出关键帧序列,机器人局部状态与关键帧进行匹配;
S62:根据求得的相机多视角变换矩阵,得到优化后的相机位姿,对获取的点云进行坐标变换,初步实现点云融合;
S63:闭环检测采用K均值分类方法构建视觉词典树,提高闭环识别率;
S64:闭环检测完成后,遍历关键帧与当前帧进行相似变换矩阵Sim3求解与优化,闭环成功则跳出Sim3,得到对应相似性变换矩阵为:
其中,SO(3)为特殊正交群,R为点云对准时旋转矩阵,t为平移向量,s是与深度图片尺寸比,从Kinect相机深度图像中获得;
S65:点云优化:使用因子图优化算法对点云进行优化,进行点云拼接融合,实现点云优化,构建精确的三维点云地图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910208650.8A CN109974707B (zh) | 2019-03-19 | 2019-03-19 | 一种基于改进点云匹配算法的室内移动机器人视觉导航方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910208650.8A CN109974707B (zh) | 2019-03-19 | 2019-03-19 | 一种基于改进点云匹配算法的室内移动机器人视觉导航方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109974707A CN109974707A (zh) | 2019-07-05 |
CN109974707B true CN109974707B (zh) | 2022-09-23 |
Family
ID=67079562
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910208650.8A Active CN109974707B (zh) | 2019-03-19 | 2019-03-19 | 一种基于改进点云匹配算法的室内移动机器人视觉导航方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109974707B (zh) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110455301A (zh) * | 2019-08-01 | 2019-11-15 | 河北工业大学 | 一种基于惯性测量单元的动态场景slam方法 |
CN110675307B (zh) * | 2019-08-19 | 2023-06-06 | 杭州电子科技大学 | 基于vslam的3d稀疏点云到2d栅格图的实现方法 |
CN110544279B (zh) * | 2019-08-26 | 2023-06-23 | 华南理工大学 | 一种结合图像识别和遗传算法精配准的位姿估计方法 |
CN110849367B (zh) * | 2019-10-08 | 2021-12-10 | 杭州电子科技大学 | 基于融合uwb的视觉slam的室内定位与导航的方法 |
CN111047631B (zh) * | 2019-12-04 | 2023-04-07 | 广西大学 | 一种基于单Kinect加圆盒的多视角三维点云配准方法 |
CN111121805A (zh) * | 2019-12-11 | 2020-05-08 | 广州赛特智能科技有限公司 | 基于道路交通标线标志的局部定位修正方法、设备及介质 |
CN111207670A (zh) * | 2020-02-27 | 2020-05-29 | 河海大学常州校区 | 一种线结构光标定装置及方法 |
CN111462029B (zh) * | 2020-03-27 | 2023-03-03 | 阿波罗智能技术(北京)有限公司 | 视觉点云与高精地图融合方法、装置和电子设备 |
CN111580554B (zh) * | 2020-05-13 | 2022-09-09 | 东南大学 | 基于逐帧识别生成原始点云的室内无人机编队飞行方法 |
CN111784835B (zh) * | 2020-06-28 | 2024-04-12 | 北京百度网讯科技有限公司 | 制图方法、装置、电子设备及可读存储介质 |
CN112183285B (zh) * | 2020-09-22 | 2022-07-12 | 合肥科大智能机器人技术有限公司 | 一种变电站巡检机器人的3d点云地图融合方法和系统 |
CN112543859B (zh) * | 2020-10-28 | 2022-07-15 | 华为技术有限公司 | 定位方法、装置、电子设备和存储介质 |
CN112465899A (zh) * | 2020-11-25 | 2021-03-09 | 国网福建省电力有限公司电力科学研究院 | 基于双目视觉的导线自动剥皮定位方法 |
CN112697158A (zh) * | 2020-12-03 | 2021-04-23 | 南京工业大学 | 一种用于室内外场景的人为回环即时定位和建图方法及系统 |
CN112767545A (zh) * | 2021-01-19 | 2021-05-07 | 西人马帝言(北京)科技有限公司 | 一种点云地图构建方法、装置、设备及计算机存储介质 |
CN113340293A (zh) * | 2021-05-28 | 2021-09-03 | 上海高仙自动化科技发展有限公司 | 一种定位方法、装置、电子设备及存储介质 |
CN113379915B (zh) * | 2021-07-05 | 2022-12-23 | 广东工业大学 | 一种基于点云融合的行车场景构建方法 |
CN113624239B (zh) * | 2021-08-11 | 2024-05-31 | 火种源码(中山)科技有限公司 | 基于层级可开关稀疏位姿图优化的激光建图方法及装置 |
CN114115231B (zh) * | 2021-10-25 | 2023-07-25 | 南京工业大学 | 移动机器人空间位姿点云校正方法及系统 |
CN114046779B (zh) * | 2021-11-24 | 2023-10-03 | 散裂中子源科学中心 | 基于测站和控制点间附加大尺度约束的视觉测量平差方法 |
CN114216465B (zh) * | 2021-12-08 | 2022-11-01 | 哈尔滨工程大学 | 一种海底地形导航并行匹配方法 |
CN114111803B (zh) * | 2022-01-26 | 2022-04-19 | 中国人民解放军战略支援部队航天工程大学 | 一种室内卫星平台的视觉导航方法 |
CN114462545A (zh) * | 2022-02-15 | 2022-05-10 | 集美大学 | 一种基于语义slam的地图构建方法及装置 |
CN115235475B (zh) * | 2022-09-23 | 2023-01-03 | 成都凯天电子股份有限公司 | 一种基于mcc的ekf-slam后端导航路径优化方法 |
CN115631314B (zh) * | 2022-12-19 | 2023-06-09 | 中汽研(天津)汽车工程研究院有限公司 | 一种基于多特征和自适应关键帧的点云地图构建方法 |
CN115950427B (zh) * | 2022-12-23 | 2024-02-09 | 合肥中科深谷科技发展有限公司 | 一种基于icp和遗传优化相结合的机器人导航扫描匹配算法 |
CN116977622A (zh) * | 2023-09-22 | 2023-10-31 | 国汽(北京)智能网联汽车研究院有限公司 | 初始化定位方法及其装置、设备、介质 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2500384B (en) * | 2012-03-19 | 2020-04-15 | The Chancellor Masters And Scholars Of The Univ Of Oxford | Generating and using navigation data |
CN103456038A (zh) * | 2013-08-19 | 2013-12-18 | 华中科技大学 | 一种井下环境三维场景重建方法 |
CN105934949A (zh) * | 2013-12-03 | 2016-09-07 | 日本电信电话株式会社 | 视频编码装置和方法、视频解码装置和方法、以及它们的程序 |
US9761008B2 (en) * | 2014-05-08 | 2017-09-12 | The Trustees Of The University Of Pennsylvania | Methods, systems, and computer readable media for visual odometry using rigid structures identified by antipodal transform |
JP2017531228A (ja) * | 2014-08-08 | 2017-10-19 | ケアストリーム ヘルス インク | ボリューム画像への顔テクスチャのマッピング |
CN104932001B (zh) * | 2015-07-08 | 2018-01-30 | 四川德马克机器人科技有限公司 | 一种实时3d核辐射环境重建监测系统 |
CN105427317B (zh) * | 2015-11-25 | 2017-03-29 | 武汉大学 | 一种适用于多视角自动化配准多站地面激光点云数据的方法 |
CN105678833A (zh) * | 2016-01-11 | 2016-06-15 | 塔里木大学 | 一种基于多视点图像三维建模的点云几何数据的自动拼接算法 |
CN106204731A (zh) * | 2016-07-18 | 2016-12-07 | 华南理工大学 | 一种基于双目立体视觉系统的多视角三维重建方法 |
KR102404155B1 (ko) * | 2016-09-28 | 2022-05-31 | 톰톰 글로벌 콘텐트 비.브이. | 위치파악 참조 데이터를 생성 및 사용하기 위한 방법 및 시스템 |
CN106570903B (zh) * | 2016-10-13 | 2019-06-18 | 华南理工大学 | 一种基于rgb-d摄像头的视觉识别与定位方法 |
CN106556356A (zh) * | 2016-12-07 | 2017-04-05 | 西安知象光电科技有限公司 | 一种多角度三维轮廓测量系统及测量方法 |
SG10201700299QA (en) * | 2017-01-13 | 2018-08-30 | Otsaw Digital Pte Ltd | Three-dimensional mapping of an environment |
CN106871815B (zh) * | 2017-01-20 | 2019-04-12 | 南昌航空大学 | 一种Kinect与条纹反射法结合的类镜面三维面形测量方法 |
CN107680133A (zh) * | 2017-09-15 | 2018-02-09 | 重庆邮电大学 | 一种基于改进闭环检测算法的移动机器人视觉slam方法 |
CN108346165B (zh) * | 2018-01-30 | 2020-10-30 | 深圳市易尚展示股份有限公司 | 机器人与三维传感组件联合标定方法与装置 |
CN108592787B (zh) * | 2018-03-19 | 2019-11-19 | 上海交通大学 | 3d旋转扫描系统的转轴标定方法与系统 |
CN109215063B (zh) * | 2018-07-05 | 2021-12-17 | 中山大学 | 一种事件触发相机与三维激光雷达的配准方法 |
CN108981569A (zh) * | 2018-07-09 | 2018-12-11 | 南京农业大学 | 一种基于多光谱点云融合的高通量温室植物表型测量系统 |
CN108717728A (zh) * | 2018-07-19 | 2018-10-30 | 安徽中科智链信息科技有限公司 | 一种基于多视角深度摄像机的三维重建装置及方法 |
CN109407111B (zh) * | 2018-09-27 | 2021-05-14 | 长沙科达智能装备股份有限公司 | 一种隧道三维扫描机特征识别的方法 |
-
2019
- 2019-03-19 CN CN201910208650.8A patent/CN109974707B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109974707A (zh) | 2019-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109974707B (zh) | 一种基于改进点云匹配算法的室内移动机器人视觉导航方法 | |
CN111968129B (zh) | 具有语义感知的即时定位与地图构建系统及方法 | |
CN104732518B (zh) | 一种基于智能机器人地面特征的ptam改进方法 | |
CN107025668B (zh) | 一种基于深度相机的视觉里程计的设计方法 | |
US9613420B2 (en) | Method for locating a camera and for 3D reconstruction in a partially known environment | |
CN110223348A (zh) | 基于rgb-d相机的机器人场景自适应位姿估计方法 | |
CN109308737A (zh) | 一种三阶段式点云配准方法的移动机器人v-slam方法 | |
CN113256698B (zh) | 一种具有深度预测的单目3d重建方法 | |
CN112734839B (zh) | 一种提高鲁棒性的单目视觉slam初始化方法 | |
CN104395932A (zh) | 对准数据的方法 | |
CN113658337B (zh) | 一种基于车辙线的多模态里程计方法 | |
CN108229416A (zh) | 基于语义分割技术的机器人slam方法 | |
CN112132876B (zh) | 2d-3d图像配准中的初始位姿估计方法 | |
CN108776989A (zh) | 基于稀疏slam框架的低纹理平面场景重建方法 | |
CN111415375B (zh) | 一种基于多鱼眼摄像机和双针孔投影模型的slam方法 | |
CN117197333A (zh) | 基于多目视觉的空间目标重构与位姿估计方法及系统 | |
CN112419411A (zh) | 一种基于卷积神经网络和光流特征视觉里程计的实现方法 | |
CN111429571A (zh) | 一种基于时空图像信息联合相关的快速立体匹配方法 | |
Yabuuchi et al. | Visual localization for autonomous driving using pre-built point cloud maps | |
CN117218210A (zh) | 一种基于仿生眼的双目主动视觉半稠密深度估计方法 | |
CN113345032B (zh) | 一种基于广角相机大畸变图的初始化建图方法及系统 | |
Le Besnerais et al. | Dense height map estimation from oblique aerial image sequences | |
Wang et al. | Perspective 3-D Euclidean reconstruction with varying camera parameters | |
Zhu et al. | MGS-SLAM: Monocular Sparse Tracking and Gaussian Mapping with Depth Smooth Regularization | |
Wenzhi et al. | FVLoc-NeRF: Fast Vision-Only Localization within Neural Radiation Field |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |