CN109974707A - 一种基于改进点云匹配算法的室内移动机器人视觉导航方法 - Google Patents

一种基于改进点云匹配算法的室内移动机器人视觉导航方法 Download PDF

Info

Publication number
CN109974707A
CN109974707A CN201910208650.8A CN201910208650A CN109974707A CN 109974707 A CN109974707 A CN 109974707A CN 201910208650 A CN201910208650 A CN 201910208650A CN 109974707 A CN109974707 A CN 109974707A
Authority
CN
China
Prior art keywords
camera
closed loop
point
robot
pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910208650.8A
Other languages
English (en)
Other versions
CN109974707B (zh
Inventor
张毅
杨光辉
罗元
陈旭
黄超
陈文�
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN201910208650.8A priority Critical patent/CN109974707B/zh
Publication of CN109974707A publication Critical patent/CN109974707A/zh
Application granted granted Critical
Publication of CN109974707B publication Critical patent/CN109974707B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Abstract

本发明涉及基于改进点云匹配算法的室内移动机器人视觉导航方法,属于机器人视觉导航领域。该方法包括:S1:校准Kinect相机,通过外部参数对齐多个点云;S2:得到离线校准的外部参数形成的变换矩阵,计算出多视点变换矩阵;S3:获取周围环境的ORB特征点进行特征提取和匹配;S4:估算相邻图像间相机运动构建局部地图,使用RANSAC算法消除误匹配,对获取的特征点进行PNP求解;S5:引入闭环检测机制确保机器人得到全局一致的轨迹和地图;S6:结合闭环检测机制,采用基于局部与全局特征点的相机位姿闭环约束点云优化算法,抑制系统的累积误差。本发明能够降低计算量,实现机器人对实时性的要求。

Description

一种基于改进点云匹配算法的室内移动机器人视觉导航方法
技术领域
本发明属于室内移动机器人视觉导航领域,涉及一种基于改进点云匹配算法的室内移动机器人视觉导航方法。
背景技术
随着机器人技术的不断发展,人类对移动机器人要求也在不断提高。同时定位和映射 (Simultaneous Localization and Mapping,SLAM)是机器人能否真正实现智能化的关键技术之一。视觉传感器可以获得更加丰富的环境信息,其中,三维场景重建是机器人视觉应用中的一个重要问题,比如地图构建、环境识别、增强现实、以及SLAM等。在点云匹配中,局部匹配已被证明能够生成准确的重建模型,已经提出了几种精度更高的局部匹配方法。有三种类型的局部配准方法:迭代最近点(ICP),陈氏方法和遗传算法。
现在常用的局部匹配方法是ICP方法,ICP方法由Besl等人提出有效匹配三维形状,包括自由曲线和曲面。随后的时间内研究人员对ICP方法的进行改进。Rusinkiewicz等人基于法线空间的均匀采样得出ICP变体,这可以为相对较小的场景和稀疏特征提供相对较好的收敛结果。Low提出线性最小二乘问题逼近非线性最小二乘优化问题来解决点到面的ICP算法,使用近似方法来提高确定最优解的效率。Serafin和Grisetti提出了一种新的优化成本函数,不仅包括点到点距离,还包括表面法线或切线;不仅增加了收敛速度,而且具有更好得鲁棒性。李恒宇等人提出了一种基于图像的RGB-D图像拼接方法,首先进行校准找出深度图和彩色图像之间的变换矩阵,然后对齐深度图和彩色图像。但是上述方法计算量大并且难以满足机器人实时性。
发明内容
有鉴于此,本发明的目的在于提供一种基于改进点云匹配算法的室内移动机器人视觉导航方法,用于降低计算量,从而实现机器人对实时性的要求。
为达到上述目的,本发明提供如下技术方案:
一种基于改进点云匹配算法的室内移动机器人视觉导航方法,具体包括以下步骤:
S1:使用平面棋盘格校准Kinect相机,通过Kinect相机的外部参数对齐多个点云;
S2:得到离线校准的外部参数形成的变换矩阵,计算出多视点变换矩阵,用于全局匹配;
S3:使用Kinect相机获取周围环境的ORB特征点进行特征提取和匹配;
S4:估算相邻图像间相机运动构建局部地图,使用消除误匹配,对获取的特征点进行PNP 求解,用于机器人相邻位姿的增量估计;
S5:引入闭环检测机制确保机器人得到全局一致的轨迹和地图;
S6:结合闭环检测机制,采用基于局部与全局特征点的相机位姿闭环约束点云优化算法,用于抑制系统的累积误差。
进一步,所述步骤S1具体包括:通过旋转RGB-D相机或平移机器人位置得到棋盘不同角度的对应参数,变换矩阵从正向运动学中分析得到:
其中,Ti 0为相机正向运动方程,为相机的第k-1和k个关键帧之间的变换矩阵,为相机转向角,为相机倾斜角,平台与棋盘转向角,平台与棋盘倾斜角度,α2为方程偏导数,θp和θt分别表示相机转向角度和倾斜角度。
进一步,所述步骤S2具体包括:
S21:得到离线校准的外部参数形成的变换矩阵为:
其中,K是固定值,旋转矩阵,是机器人坐标到相机坐标的平移矢量,[u v 1]T是二维平面上2D像素坐标,[x y z 1]T是全局坐标系中三维点坐标,s是与深度图片尺寸比,从Kinect相机深度图像中获得;
S21:计算多视点变换矩阵:
基于多视点摄像机标定生成多视角变换矩阵的离线标定方法:
其中,Pr是棋盘上坐标系的关键点坐标,Pi为第i帧点云图,为第i帧处棋盘特征点矩阵,是将Pr映射到Pi是将Pr映射到Pi的变换矩阵,通过使用Kinect标定获得不同视角的变换矩阵;假设定义F0全局坐标为W,并把所有的Pi都转换为F0,得到:
其中,F0为初始坐标,为平移矢量,为初始平移矢量,是旋转矩阵;
定义旋转矩阵用于将Pi变换到F0坐标,平移矢量计算出相机视图的所有变换矩阵为:
进一步,所述步骤S5中,引入的闭环检测机制具体包括:引用机器人位姿优化的目标函数:
其中,xk表示第k时刻机器人位姿即pose节点,yj表示第k时刻观测到的路标即point 节点,zk,j表示xk和yj之间的约束;在闭环检测过程中,e(xk,yj,zk,j)为两点之间所产生的向量误差,即zk,j满足约束的程度,当其值为0时,表示完全满足约束条件;g(xk,yj)表示第k 时刻的位姿节点和路标之间的函数,C表示二维矩阵,Ωkj表示所有位恣节点和路标节点;
其次,在机器人运动过程中,误差函数符合高斯分布函数,将视觉SLAM等效为一个最小二乘问题,利于李群代数模型求解出目标函数与各节点的导数FX和Fy,求解方程为:
e(x+δx,y+δy)=e(x,y)+Fxδx+Fyδy
其中,δx为机器人位姿误差,δy为机器人路标误差,为李群代数,ei为代价函数,矩阵H为稀疏特征矩阵,FX和Fy分别表示相机运动和机器人运动后像素变化;通过使用变换矩阵对稀疏特征点进行匹配,包含所有SLAM求解变量与边缘值的问题;通过多次迭代得到适合目标函数的x值;通过上述转化把SLAM问题转换成节点和边,节点包含pose节点和point节点,表示优化变量;边为不同节点的约束,表示为误差约束条件,point-pose约束取决于系统中闭环产生的约束,pose-point取决于相机观测产生的约束。
进一步,所述步骤S5中,在闭环检测中为保证机器人闭环检测实时性设定相应性阈值,其中相似性计算函数为:
其中,Vl表示上一帧图像加权量,Vc表示当前帧加权向量,X越大说明图像相似性越高。因此,当X大于一定阈值则舍弃当前帧。
进一步,所述步骤S6中,对于稠密点云地图,基于局部与全局特征点的相机位姿闭环约束点云优化算法,具体步骤为:
S61:根据帧间关联度选出关键帧序列,机器人局部状态与关键帧进行匹配;
S62:根据求得的相机多视角变换矩阵,得到优化后的相机位姿,对获取的点云进行坐标变换,初步实现点云融合;
S63:闭环检测采用K均值分类方法构建视觉词典树,提高闭环识别率;
S64:闭环检测完成后,遍历关键帧与当前帧进行相似变换矩阵Sim3求解与优化,如果闭环成功则跳出Sim3,得到对应相似性变换矩阵为:
其中,SO(3)为特殊正交群,R为点云对准时旋转矩阵,t为平移向量,s是与深度图片尺寸比,从Kinect相机深度图像中获得;
S65:点云优化:使用因子图优化算法对点云进行优化,进行点云拼接融合,实现点云优化,构建精确的三维点云地图。
本发明的有益效果在于:本发明提出的是一种改进的校准方法,通过使用深度相机标定技术计算出离线状态下不同角度控制点之间的变换矩阵,然后在匹配过程中直接使用这些变换矩阵。通过离线校准,可以获得相机在固定位置及固定角度的相对变换矩阵并用于全局匹配,由于仅需要对每个输入点云数据进行简单的坐标变换计算,具有较低的计算量,可以满足机器人实时性要求。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为本发明所述室内机器人视觉导航方法示意图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
请参阅图1,图1为一种基于改进点云匹配的室内移动机器人视觉导航方法,具有包括:首先使用平面棋盘格校准Kinect相机,通过Kinect相机的外部参数对齐多个点云,得到由外部参数离线校准后形成的多视点变换矩阵,用于全局点云匹配。其次,在构建地图的过程采用计算量小、实时性高的ORB特征进行特征提取和匹配。利用RANSAC算法对可能存在的误匹配点进行剔除完成初始匹配,对获取的特征点进行PNP求解,用于机器人相邻位姿的增量估计。最后,在后端优化中,结合闭环检测机制提出了一种点云优化算法,用于抑制系统的累积误差,确保机器人得到全局一致的轨迹和地图。
实施例:根据如下表1、2取值进行不同算法直接的效果比较。
表1不同算法之间的RMS比较结果
ICP Super4PCS FRG 本发明算法
fr1/xyz 0.225 0.215 0.197 0.195
fr2/rpy 0.354 0.352 0.307 0.289
fr2/pioneer_slam 0.741 0.844 0.862 0.704
fr2/coke 0.243 0.356 0.235 0.209
Fr3/teddy 0.394 0.416 0.445 0.359
表2不同算法之间每帧处理视觉比较结果
FRG ORB-SLAM 本发明算法
fr1/xyz 0.009 0.015 0.005
fr2/pioneer_slam 0.461 0.556 0.453
fr2/coke 0.089 0.106 0.096
Fr3/teddy 0.049 0.056 0.035
表1表示本发明采用算法和Super4PCS方法和FRG算法以及传统ICP方法实时匹配对比结果。从表1可以得到由于模型不确定性和相机校准误差等原因的存在,本发明提出的算法相对于Super4PCS算法和传统ICP方法分别具有较低的RMS误差。在数据集fr2/pioneer_slam 中,由于场景比较复杂,存在大量的无效数据,降低了所提出的方法和所比较的方法的匹配性能,但是本文算法依然高于所对比的算法,算法在实时性也优于所对比算法。
表2表示不同算之间每帧处理时间对比结果,本发明所述方法由于事先对相机进行标定,平均处理每帧图片仅用0.201s,FRG方法平均每帧处理时间为0.649s,而Super4PCS算法平均每帧时间消耗约是本文算法的3倍。在没有其他外部加速的情况下,不能保证v-SLAM实时性和精准性。本发明采用算法在后端不需要使用RANSAC算法剔除误匹配,在使用相机离线校准的参数后点云地图大约以9.6帧/秒速度进行更新,可以满足v-SLAM实时性。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (6)

1.一种基于改进点云匹配算法的室内移动机器人视觉导航方法,其特征在于,该方法具体包括以下步骤:
S1:使用平面棋盘格校准Kinect相机,通过Kinect相机的外部参数对齐多个点云;
S2:得到离线校准的外部参数形成的变换矩阵,计算出多视点变换矩阵,用于全局匹配;
S3:使用Kinect相机获取周围环境的ORB特征点进行特征提取和匹配;
S4:估算相邻图像间相机运动构建局部地图,使用随机抽样一致算法(Random sampleconsensus,RANSAC)消除误匹配,对获取的特征点进行PNP(Perspective-N-Point)求解,用于机器人相邻位姿的增量估计;
S5:引入闭环检测机制确保机器人得到全局一致的轨迹和地图;
S6:结合闭环检测机制,采用基于局部与全局特征点的相机位姿闭环约束点云优化算法,用于抑制系统的累积误差。
2.根据权利要求1所述的一种基于改进点云匹配算法的室内移动机器人视觉导航方法,其特征在于,所述步骤S1具体包括:通过旋转RGB-D相机或平移机器人位置得到棋盘不同角度的对应参数,变换矩阵从正向运动学中分析得到:
其中,Ti 0为相机正向运动方程,为相机的第k-1和k个关键帧之间的变换矩阵,为相机转向角,为相机倾斜角,平台与棋盘转向角,平台与棋盘倾斜角度,α2为方程偏导数,θp和θt分别表示相机转向角度和倾斜角度。
3.根据权利要求2所述的一种基于改进点云匹配算法的室内移动机器人视觉导航方法,其特征在于,所述步骤S2具体包括:
S21:得到离线校准的外部参数形成的变换矩阵为:
其中,K为固定值,为旋转矩阵,为机器人坐标到相机坐标的平移矢量,[u v 1]T是二维平面上2D像素坐标,[x y z 1]T是全局坐标系中三维点坐标,s是与深度图片尺寸比,从Kinect相机深度图像中获得;
S21:计算多视点变换矩阵:
基于多视点摄像机标定生成多视角变换矩阵的离线标定方法:
其中,Pr是棋盘上坐标系的关键点坐标,Pi为第i帧点云图,为第i帧处棋盘特征点矩阵、是将Pr映射到Pi,Tr i是将Pr映射到Pi的变换矩阵,通过使用Kinect标定获得不同视角的变换矩阵;假设定义F0全局坐标为W,并把所有的Pi都转换为F0,得到:
其中,F0为初始坐标,为平移矢量,为初始平移矢量,是旋转矩阵;
定义旋转矩阵用于将Pi变换到F0坐标,平移矢量计算出相机视图的所有变换矩阵为:
4.根据权利要求3所述的一种基于改进点云匹配算法的室内移动机器人视觉导航方法,其特征在于,所述步骤S5中,引入的闭环检测机制具体包括:引用机器人位姿优化的目标函数:
其中,xk表示第k时刻机器人位姿即pose节点,yj表示第k时刻观测到的路标即point节点,zk,j表示xk和yj之间的约束;在闭环检测过程中,e(xk,yj,zk,j)为两点之间所产生的向量误差,即zk,j满足约束的程度,当其值为0时,表示完全满足约束条件;g(xk,yj)表示第k时刻的位姿节点和路标之间的函数,C表示二维矩阵,Ωkj表示所有位恣节点和路标节点;
其次,在机器人运动过程中,误差函数符合高斯分布函数,将视觉同步定位与映射(simultaneous localization and mapping,SLAM)等效为一个最小二乘问题,利于李群代数模型求解出目标函数与各节点的导数FX和Fy,求解方程为:
e(x+δx,y+δy)=e(x,y)+Fxδx+Fyδy
其中,δx为机器人位姿误差,δy为机器人路标误差,为李群代数,ei为代价函数,矩阵H为稀疏特征矩阵,FX和Fy分别表示相机运动和机器人运动后像素变化;通过使用变换矩阵对稀疏特征点进行匹配,包含所有SLAM求解变量与边缘值的问题;通过多次迭代得到适合目标函数的x值;通过上述转化把SLAM问题转换成节点和边,节点包含pose节点和point节点,表示优化变量;边为不同节点的约束,表示为误差约束条件,point-pose约束取决于系统中闭环产生的约束,pose-point取决于相机观测产生的约束。
5.根据权利要求4所述的一种基于改进点云匹配算法的室内移动机器人视觉导航方法,其特征在于,所述步骤S5中,在闭环检测中为保证机器人闭环检测实时性设定相应性阈值,其中相似性计算函数为:
其中,Vl表示上一帧图像加权量,Vc表示当前帧加权向量,X越大说明图像相似性越高。因此,当X大于一定阈值则舍弃当前帧。
6.根据权利要求5所述的一种基于改进点云匹配算法的室内移动机器人视觉导航方法,其特征在于,所述步骤S6中,基于局部与全局特征点的相机位姿闭环约束点云优化算法,具体步骤为:
S61:根据帧间关联度选出关键帧序列,机器人局部状态与关键帧进行匹配;
S62:根据求得的相机多视角变换矩阵,得到优化后的相机位姿,对获取的点云进行坐标变换,初步实现点云融合;
S63:闭环检测采用K均值分类方法构建视觉词典树,提高闭环识别率;
S64:闭环检测完成后,遍历关键帧与当前帧进行相似变换矩阵Sim3求解与优化,如果闭环成功则跳出Sim3,得到对应相似性变换矩阵为:
其中,SO(3)为特殊正交群,R为点云对准时旋转矩阵,t为平移向量,s是与深度图片尺寸比,从Kinect相机深度图像中获得;
S65:点云优化:使用因子图优化算法对点云进行优化,进行点云拼接融合,实现点云优化,构建精确的三维点云地图。
CN201910208650.8A 2019-03-19 2019-03-19 一种基于改进点云匹配算法的室内移动机器人视觉导航方法 Active CN109974707B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910208650.8A CN109974707B (zh) 2019-03-19 2019-03-19 一种基于改进点云匹配算法的室内移动机器人视觉导航方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910208650.8A CN109974707B (zh) 2019-03-19 2019-03-19 一种基于改进点云匹配算法的室内移动机器人视觉导航方法

Publications (2)

Publication Number Publication Date
CN109974707A true CN109974707A (zh) 2019-07-05
CN109974707B CN109974707B (zh) 2022-09-23

Family

ID=67079562

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910208650.8A Active CN109974707B (zh) 2019-03-19 2019-03-19 一种基于改进点云匹配算法的室内移动机器人视觉导航方法

Country Status (1)

Country Link
CN (1) CN109974707B (zh)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110455301A (zh) * 2019-08-01 2019-11-15 河北工业大学 一种基于惯性测量单元的动态场景slam方法
CN110544279A (zh) * 2019-08-26 2019-12-06 华南理工大学 一种结合图像识别和遗传算法精配准的位姿估计方法
CN110675307A (zh) * 2019-08-19 2020-01-10 杭州电子科技大学 基于vslam的3d稀疏点云到2d栅格图的实现方法
CN110849367A (zh) * 2019-10-08 2020-02-28 杭州电子科技大学 基于融合uwb的视觉slam的室内定位与导航的方法
CN111047631A (zh) * 2019-12-04 2020-04-21 广西大学 一种基于单Kinect加圆盒的多视角三维点云配准方法
CN111121805A (zh) * 2019-12-11 2020-05-08 广州赛特智能科技有限公司 基于道路交通标线标志的局部定位修正方法、设备及介质
CN111207670A (zh) * 2020-02-27 2020-05-29 河海大学常州校区 一种线结构光标定装置及方法
CN111462029A (zh) * 2020-03-27 2020-07-28 北京百度网讯科技有限公司 视觉点云与高精地图融合方法、装置和电子设备
CN111580554A (zh) * 2020-05-13 2020-08-25 东南大学 基于逐帧识别生成原始点云的室内无人机编队飞行方法
CN111784835A (zh) * 2020-06-28 2020-10-16 北京百度网讯科技有限公司 制图方法、装置、电子设备及可读存储介质
CN112183285A (zh) * 2020-09-22 2021-01-05 合肥科大智能机器人技术有限公司 一种变电站巡检机器人的3d点云地图融合方法和系统
CN112465899A (zh) * 2020-11-25 2021-03-09 国网福建省电力有限公司电力科学研究院 基于双目视觉的导线自动剥皮定位方法
CN112697158A (zh) * 2020-12-03 2021-04-23 南京工业大学 一种用于室内外场景的人为回环即时定位和建图方法及系统
CN113340293A (zh) * 2021-05-28 2021-09-03 上海高仙自动化科技发展有限公司 一种定位方法、装置、电子设备及存储介质
CN113379915A (zh) * 2021-07-05 2021-09-10 广东工业大学 一种基于点云融合的行车场景构建方法
CN113624239A (zh) * 2021-08-11 2021-11-09 火种源码(中山)科技有限公司 基于层级可开关稀疏位姿图优化的激光建图方法及装置
CN114046779A (zh) * 2021-11-24 2022-02-15 散裂中子源科学中心 基于测站和控制点间附加大尺度约束的视觉测量平差方法
CN114115231A (zh) * 2021-10-25 2022-03-01 南京工业大学 适用于医院场景下移动机器人空间位姿点云校正方法及系统
CN114111803A (zh) * 2022-01-26 2022-03-01 中国人民解放军战略支援部队航天工程大学 一种室内卫星平台的视觉导航方法
CN114216465A (zh) * 2021-12-08 2022-03-22 哈尔滨工程大学 一种海底地形导航并行匹配方法
CN115235475A (zh) * 2022-09-23 2022-10-25 成都凯天电子股份有限公司 一种基于mcc的ekf-slam后端导航路径优化方法
CN115631314A (zh) * 2022-12-19 2023-01-20 中汽研(天津)汽车工程研究院有限公司 一种基于多特征和自适应关键帧的点云地图构建方法
CN115950427A (zh) * 2022-12-23 2023-04-11 合肥中科深谷科技发展有限公司 一种基于icp和遗传优化相结合的机器人导航扫描匹配算法
CN116977622A (zh) * 2023-09-22 2023-10-31 国汽(北京)智能网联汽车研究院有限公司 初始化定位方法及其装置、设备、介质
EP4215874A4 (en) * 2020-10-28 2023-11-29 Huawei Technologies Co., Ltd. POSITIONING METHOD AND APPARATUS, ELECTRONIC DEVICE AND STORAGE MEDIUM

Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201204750D0 (en) * 2012-03-19 2012-05-02 Univ Oxford Generating navigational data
CN103456038A (zh) * 2013-08-19 2013-12-18 华中科技大学 一种井下环境三维场景重建方法
CN104932001A (zh) * 2015-07-08 2015-09-23 四川德马克机器人科技有限公司 一种实时3d核辐射环境重建监测系统
CN105427317A (zh) * 2015-11-25 2016-03-23 武汉大学 一种适用于多视角自动化配准多站地面激光点云数据的方法
CN105678833A (zh) * 2016-01-11 2016-06-15 塔里木大学 一种基于多视点图像三维建模的点云几何数据的自动拼接算法
CN105934949A (zh) * 2013-12-03 2016-09-07 日本电信电话株式会社 视频编码装置和方法、视频解码装置和方法、以及它们的程序
US20160267678A1 (en) * 2014-05-08 2016-09-15 The Trustees Of The University Of Pennsylvania Methods, systems, and computer readable media for visual odometry using rigid structures identified by antipodal transform
CN106204731A (zh) * 2016-07-18 2016-12-07 华南理工大学 一种基于双目立体视觉系统的多视角三维重建方法
CN106556356A (zh) * 2016-12-07 2017-04-05 西安知象光电科技有限公司 一种多角度三维轮廓测量系统及测量方法
CN106570903A (zh) * 2016-10-13 2017-04-19 华南理工大学 一种基于rgb‑d摄像头的视觉识别与定位方法
US20170135655A1 (en) * 2014-08-08 2017-05-18 Carestream Health, Inc. Facial texture mapping to volume image
CN106871815A (zh) * 2017-01-20 2017-06-20 南昌航空大学 一种Kinect与条纹反射法结合的类镜面三维面形测量方法
CN107680133A (zh) * 2017-09-15 2018-02-09 重庆邮电大学 一种基于改进闭环检测算法的移动机器人视觉slam方法
WO2018060313A1 (en) * 2016-09-28 2018-04-05 Tomtom Global Content B.V. Methods and systems for generating and using localisation reference data
WO2018130885A1 (en) * 2017-01-13 2018-07-19 Otsaw Digital Pte. Ltd. Three-dimensional mapping of an environment
CN108346165A (zh) * 2018-01-30 2018-07-31 深圳市易尚展示股份有限公司 机器人与三维传感组件联合标定方法与装置
CN108592787A (zh) * 2018-03-19 2018-09-28 上海交通大学 3d旋转扫描系统的转轴标定方法与系统
CN108717728A (zh) * 2018-07-19 2018-10-30 安徽中科智链信息科技有限公司 一种基于多视角深度摄像机的三维重建装置及方法
CN108981569A (zh) * 2018-07-09 2018-12-11 南京农业大学 一种基于多光谱点云融合的高通量温室植物表型测量系统
CN109215063A (zh) * 2018-07-05 2019-01-15 中山大学 一种事件触发相机与三维激光雷达的配准方法
CN109407111A (zh) * 2018-09-27 2019-03-01 长沙科达智能装备股份有限公司 一种隧道三维扫描机特征识别的方法

Patent Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201204750D0 (en) * 2012-03-19 2012-05-02 Univ Oxford Generating navigational data
CN103456038A (zh) * 2013-08-19 2013-12-18 华中科技大学 一种井下环境三维场景重建方法
CN105934949A (zh) * 2013-12-03 2016-09-07 日本电信电话株式会社 视频编码装置和方法、视频解码装置和方法、以及它们的程序
US20160267678A1 (en) * 2014-05-08 2016-09-15 The Trustees Of The University Of Pennsylvania Methods, systems, and computer readable media for visual odometry using rigid structures identified by antipodal transform
US20170135655A1 (en) * 2014-08-08 2017-05-18 Carestream Health, Inc. Facial texture mapping to volume image
CN104932001A (zh) * 2015-07-08 2015-09-23 四川德马克机器人科技有限公司 一种实时3d核辐射环境重建监测系统
CN105427317A (zh) * 2015-11-25 2016-03-23 武汉大学 一种适用于多视角自动化配准多站地面激光点云数据的方法
CN105678833A (zh) * 2016-01-11 2016-06-15 塔里木大学 一种基于多视点图像三维建模的点云几何数据的自动拼接算法
CN106204731A (zh) * 2016-07-18 2016-12-07 华南理工大学 一种基于双目立体视觉系统的多视角三维重建方法
WO2018060313A1 (en) * 2016-09-28 2018-04-05 Tomtom Global Content B.V. Methods and systems for generating and using localisation reference data
CN106570903A (zh) * 2016-10-13 2017-04-19 华南理工大学 一种基于rgb‑d摄像头的视觉识别与定位方法
CN106556356A (zh) * 2016-12-07 2017-04-05 西安知象光电科技有限公司 一种多角度三维轮廓测量系统及测量方法
WO2018130885A1 (en) * 2017-01-13 2018-07-19 Otsaw Digital Pte. Ltd. Three-dimensional mapping of an environment
CN106871815A (zh) * 2017-01-20 2017-06-20 南昌航空大学 一种Kinect与条纹反射法结合的类镜面三维面形测量方法
CN107680133A (zh) * 2017-09-15 2018-02-09 重庆邮电大学 一种基于改进闭环检测算法的移动机器人视觉slam方法
CN108346165A (zh) * 2018-01-30 2018-07-31 深圳市易尚展示股份有限公司 机器人与三维传感组件联合标定方法与装置
CN108592787A (zh) * 2018-03-19 2018-09-28 上海交通大学 3d旋转扫描系统的转轴标定方法与系统
CN109215063A (zh) * 2018-07-05 2019-01-15 中山大学 一种事件触发相机与三维激光雷达的配准方法
CN108981569A (zh) * 2018-07-09 2018-12-11 南京农业大学 一种基于多光谱点云融合的高通量温室植物表型测量系统
CN108717728A (zh) * 2018-07-19 2018-10-30 安徽中科智链信息科技有限公司 一种基于多视角深度摄像机的三维重建装置及方法
CN109407111A (zh) * 2018-09-27 2019-03-01 长沙科达智能装备股份有限公司 一种隧道三维扫描机特征识别的方法

Non-Patent Citations (16)

* Cited by examiner, † Cited by third party
Title
CHI-YI TSAI等: "Design and implementation of a RANSAC RGB-D mapping algorithm for multi-view point cloud registration", 《2013 CACS INTERNATIONAL AUTOMATIC CONTROL CONFERENCE (CACS)》 *
WEN CHEN等: "Monocular semantic SLAM in dynamic street scene based on multiple object tracking", 《2017 IEEE INTERNATIONAL CONFERENCE ON CYBERNETICS AND INTELLIGENT SYSTEMS (CIS) AND IEEE CONFERENCE ON ROBOTICS, AUTOMATION AND MECHATRONICS (RAM)》 *
ZHANG YI等: "Research on error propagation of point cloud registration", 《2012 IEEE INTERNATIONAL CONFERENCE ON COMPUTER SCIENCE AND AUTOMATION ENGINEERING (CSAE)》 *
伍梦琦: "无标记点三维点云数据拼接技术的研究", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》 *
余杰: "基于ORB关键帧闭环检测算法的SLAM方法研究", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》 *
刘玉影: "基于变焦立体视觉的三维全景图像生成方法研究", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》 *
宋俊: "基于坐标配准的牙颌测量点云拼合技术研究", 《装备制造技术》 *
张毅等: "基于图优化的移动机器人视觉SLAM", 《智能系统学报》 *
成怡等: "基于改进ORB算法的移动机器人视觉SLAM方法研究", 《电子技术应用》 *
梁明杰等: "基于图优化的同时定位与地图创建综述", 《机器人》 *
洪亮等: "基于RGB-D相机数据的SLAM算法", 《电子设计工程》 *
罗元: "基于FAST角点和仿射改进的随机蕨丛的单目视觉实时匹配算法", 《机器人》 *
胡媛媛等: "基于机器人的管道内壁三维重建技术研究", 《工业仪表与自动化装置》 *
胡章芳等: "V-SLAM中点云配准算法改进及移动机器人实验", 《哈尔滨工业大学学报》 *
胡章芳等: "基于改进闭环检测算法的视觉同时定位与地图构建", 《计算机应用》 *
陈金波、李恒宇等: "基于仿生机械云台的声纳图像拼接", 《应用科学学报》 *

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110455301A (zh) * 2019-08-01 2019-11-15 河北工业大学 一种基于惯性测量单元的动态场景slam方法
CN110675307A (zh) * 2019-08-19 2020-01-10 杭州电子科技大学 基于vslam的3d稀疏点云到2d栅格图的实现方法
CN110675307B (zh) * 2019-08-19 2023-06-06 杭州电子科技大学 基于vslam的3d稀疏点云到2d栅格图的实现方法
CN110544279A (zh) * 2019-08-26 2019-12-06 华南理工大学 一种结合图像识别和遗传算法精配准的位姿估计方法
CN110849367A (zh) * 2019-10-08 2020-02-28 杭州电子科技大学 基于融合uwb的视觉slam的室内定位与导航的方法
CN111047631A (zh) * 2019-12-04 2020-04-21 广西大学 一种基于单Kinect加圆盒的多视角三维点云配准方法
CN111047631B (zh) * 2019-12-04 2023-04-07 广西大学 一种基于单Kinect加圆盒的多视角三维点云配准方法
CN111121805A (zh) * 2019-12-11 2020-05-08 广州赛特智能科技有限公司 基于道路交通标线标志的局部定位修正方法、设备及介质
CN111207670A (zh) * 2020-02-27 2020-05-29 河海大学常州校区 一种线结构光标定装置及方法
CN111462029A (zh) * 2020-03-27 2020-07-28 北京百度网讯科技有限公司 视觉点云与高精地图融合方法、装置和电子设备
CN111462029B (zh) * 2020-03-27 2023-03-03 阿波罗智能技术(北京)有限公司 视觉点云与高精地图融合方法、装置和电子设备
CN111580554A (zh) * 2020-05-13 2020-08-25 东南大学 基于逐帧识别生成原始点云的室内无人机编队飞行方法
CN111784835B (zh) * 2020-06-28 2024-04-12 北京百度网讯科技有限公司 制图方法、装置、电子设备及可读存储介质
CN111784835A (zh) * 2020-06-28 2020-10-16 北京百度网讯科技有限公司 制图方法、装置、电子设备及可读存储介质
CN112183285A (zh) * 2020-09-22 2021-01-05 合肥科大智能机器人技术有限公司 一种变电站巡检机器人的3d点云地图融合方法和系统
CN112183285B (zh) * 2020-09-22 2022-07-12 合肥科大智能机器人技术有限公司 一种变电站巡检机器人的3d点云地图融合方法和系统
EP4215874A4 (en) * 2020-10-28 2023-11-29 Huawei Technologies Co., Ltd. POSITIONING METHOD AND APPARATUS, ELECTRONIC DEVICE AND STORAGE MEDIUM
CN112465899A (zh) * 2020-11-25 2021-03-09 国网福建省电力有限公司电力科学研究院 基于双目视觉的导线自动剥皮定位方法
CN112697158A (zh) * 2020-12-03 2021-04-23 南京工业大学 一种用于室内外场景的人为回环即时定位和建图方法及系统
CN113340293A (zh) * 2021-05-28 2021-09-03 上海高仙自动化科技发展有限公司 一种定位方法、装置、电子设备及存储介质
CN113379915A (zh) * 2021-07-05 2021-09-10 广东工业大学 一种基于点云融合的行车场景构建方法
CN113624239A (zh) * 2021-08-11 2021-11-09 火种源码(中山)科技有限公司 基于层级可开关稀疏位姿图优化的激光建图方法及装置
CN114115231B (zh) * 2021-10-25 2023-07-25 南京工业大学 移动机器人空间位姿点云校正方法及系统
CN114115231A (zh) * 2021-10-25 2022-03-01 南京工业大学 适用于医院场景下移动机器人空间位姿点云校正方法及系统
CN114046779B (zh) * 2021-11-24 2023-10-03 散裂中子源科学中心 基于测站和控制点间附加大尺度约束的视觉测量平差方法
CN114046779A (zh) * 2021-11-24 2022-02-15 散裂中子源科学中心 基于测站和控制点间附加大尺度约束的视觉测量平差方法
CN114216465A (zh) * 2021-12-08 2022-03-22 哈尔滨工程大学 一种海底地形导航并行匹配方法
CN114216465B (zh) * 2021-12-08 2022-11-01 哈尔滨工程大学 一种海底地形导航并行匹配方法
CN114111803A (zh) * 2022-01-26 2022-03-01 中国人民解放军战略支援部队航天工程大学 一种室内卫星平台的视觉导航方法
CN115235475B (zh) * 2022-09-23 2023-01-03 成都凯天电子股份有限公司 一种基于mcc的ekf-slam后端导航路径优化方法
CN115235475A (zh) * 2022-09-23 2022-10-25 成都凯天电子股份有限公司 一种基于mcc的ekf-slam后端导航路径优化方法
CN115631314B (zh) * 2022-12-19 2023-06-09 中汽研(天津)汽车工程研究院有限公司 一种基于多特征和自适应关键帧的点云地图构建方法
CN115631314A (zh) * 2022-12-19 2023-01-20 中汽研(天津)汽车工程研究院有限公司 一种基于多特征和自适应关键帧的点云地图构建方法
CN115950427A (zh) * 2022-12-23 2023-04-11 合肥中科深谷科技发展有限公司 一种基于icp和遗传优化相结合的机器人导航扫描匹配算法
CN115950427B (zh) * 2022-12-23 2024-02-09 合肥中科深谷科技发展有限公司 一种基于icp和遗传优化相结合的机器人导航扫描匹配算法
CN116977622A (zh) * 2023-09-22 2023-10-31 国汽(北京)智能网联汽车研究院有限公司 初始化定位方法及其装置、设备、介质

Also Published As

Publication number Publication date
CN109974707B (zh) 2022-09-23

Similar Documents

Publication Publication Date Title
CN109974707A (zh) 一种基于改进点云匹配算法的室内移动机器人视觉导航方法
CN109712172A (zh) 一种初始位姿测量结合目标追踪的位姿测量方法
CN106127739B (zh) 一种结合单目视觉的rgb-d slam方法
CN107220995B (zh) 一种基于orb图像特征的icp快速点云配准算法的改进方法
CN105913489B (zh) 一种利用平面特征的室内三维场景重构方法
CN109523589B (zh) 一种更鲁棒的视觉里程计的设计方法
CN108830150A (zh) 一种基于三维人体姿态估计方法及装置
CN109579825B (zh) 基于双目视觉和卷积神经网络的机器人定位系统及方法
CN108369741A (zh) 用于配准数据的方法和系统
CN108229416B (zh) 基于语义分割技术的机器人slam方法
CN109870118B (zh) 一种面向绿色植物时序模型的点云采集方法
CN107563323A (zh) 一种视频人脸特征点定位方法
CN108597009A (zh) 一种基于方向角信息进行三维目标检测的方法
CN105184857A (zh) 基于点结构光测距的单目视觉重建中尺度因子确定方法
CN109087325A (zh) 一种基于单目视觉的直接法点云三维重建及尺度确定方法
CN109215085A (zh) 一种利用计算机视觉与图像识别的物品统计算法
CN111998862A (zh) 一种基于bnn的稠密双目slam方法
CN115018989B (zh) 基于rgb-d序列的三维动态重建方法、训练装置及电子设备
CN109584347B (zh) 一种基于主动表观模型的增强现实虚实遮挡处理方法
CN114494150A (zh) 一种基于半直接法的单目视觉里程计的设计方法
Wei et al. Optimization of 3-D pose measurement method based on binocular vision
CN111275764A (zh) 基于线段阴影的深度相机视觉里程测量方法
CN107203759A (zh) 一种基于两视图几何的分行递归式道路重构算法
CN112700505B (zh) 一种基于双目三维跟踪的手眼标定方法、设备及存储介质
CN110176041A (zh) 一种基于双目视觉算法的新型列车辅助装配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant