CN112288813A - 基于多目视觉测量与激光点云地图匹配的位姿估计方法 - Google Patents

基于多目视觉测量与激光点云地图匹配的位姿估计方法 Download PDF

Info

Publication number
CN112288813A
CN112288813A CN202011212309.9A CN202011212309A CN112288813A CN 112288813 A CN112288813 A CN 112288813A CN 202011212309 A CN202011212309 A CN 202011212309A CN 112288813 A CN112288813 A CN 112288813A
Authority
CN
China
Prior art keywords
model
point cloud
points
vision measurement
pose estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011212309.9A
Other languages
English (en)
Other versions
CN112288813B (zh
Inventor
张宇
万泽宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202011212309.9A priority Critical patent/CN112288813B/zh
Publication of CN112288813A publication Critical patent/CN112288813A/zh
Application granted granted Critical
Publication of CN112288813B publication Critical patent/CN112288813B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

本发明公开了一种基于多目视觉测量与激光点云地图匹配的位姿估计方法,简称多目激光位姿估计方法,该方法包括:组成多目视觉测量系统,多目视觉测量系统中相机数量至少三个,每个相机至少与其它两个相机共视,当三个及以上相机的摆放位置在同一直线上时,该直线必须与其中某两个相机恢复的环境空间的近似平面相交。获取有共视区域的图片,重建近似平面,恢复环境空间在近似平面前后的误差分布信息,计算近似平面到相机的真实距离,得到多目视觉测量模型。针对激光点云地图,边缘化过拟合模型,对边缘化模型的点进行重新分配,生成点云的连续函数模型。基于表面扫描原理,对多目视觉测量模型和点云的连续函数模型进行对齐配准,实现位姿估计。

Description

基于多目视觉测量与激光点云地图匹配的位姿估计方法
技术领域
本发明涉及机器人导航领域,尤其涉及一种基于多目视觉测量与激光点云地图匹配的位姿估计方法。
背景技术
传统单目视觉方法恢复的点云存在尺度未知的问题,这极大的制约了该方法的实用性。传统双目相机恢复点云的方法依赖于两个相机的基线进行三角测量,然而使用广角相机时只能恢复中近距离的点云,远处的点没有视差,无法恢复;使用长焦相机时,可以恢复远距离的点,但恢复的精度及其依赖于这两个相机之间标定的外参数,外参数的微小差异都可能导致恢复的远处点离它的真实值相去甚远。因此为克服恢复点云依赖于标定外参数的缺点,本发明提出了三目及其以上的多目视觉测量恢复点云的方法。激光点云地图精度高但较为稀疏,视觉测量所恢复点云精度低但较为稠密,针对对齐配准这两种性质特殊点云的问题,本发明提出了边缘化过拟合模型的算法,对两种点云提取模型拟合,边缘化过拟合的模型后再对齐配准,从而提高精度。
发明内容
鉴于此,本发明提供一种基于多目视觉测量与激光点云地图匹配的位姿估计方法,通过特殊的多目系统配置与测量,得到较为稠密、精度略低的环境点云数据,而激光扫描得到是较为稀疏、精度较高的环境点云地图,因此使用边缘化过拟合模型的期望最大化算法,将视觉点云和激光点云表达为连续函数模型,使用表面扫描原理进行模型与模型之间的对齐配准,对齐时优化算法只保留表面法向量方向的误差项。
本发明的目的是通过以下技术方案来实现的:一种基于多目视觉测量与激光点云地图匹配的位姿估计方法,该方法包括以下步骤:
(1)组成多目视觉测量系统,所述多目视觉测量系统中相机数量至少三个,每个相机至少与其它两个相机共视,当三个及以上相机的摆放位置在同一直线上时,该直线必须与其中某两个相机恢复的环境空间的近似平面相交;
(2)获取有共视区域的图片,重建近似平面,恢复环境空间在近似平面前后的误差分布信息,计算近似平面到相机的真实距离,得到多目视觉测量模型;
(3)针对激光点云地图,边缘化过拟合模型,对边缘化模型的点进行重新分配,生成点云的连续函数模型;
(4)基于表面扫描原理,对多目视觉测量模型和点云的连续函数模型进行对齐配准,实现位姿估计。
进一步地,所述步骤(2)具体为:获取有共视区域的图片,根据多视图几何原理,恢复所观测环境空间的同一近似平面,恢复环境空间在近似平面前后的误差分布信息,根据空间中任意两点在不同距离相机观测,产生透视投影比例关系,恢复近似平面到相机的真实距离,恢复环境空间的真实三维点云结构。
进一步地,通过计算有共视区域图片的单应性矩阵,恢复近似平面的方程表达式,单应性矩阵的计算可用如下两种方式:
(a)提取特征点并匹配的特征点法:对有共视区域的A张图片均提取特征点,其中第a张图片提取N对特征点
Figure BDA00027592189100000211
对A张图片两两之间进行特征点匹配,构建以单应性矩阵H为变量的代价函数并进行最小化,如下:
Figure BDA0002759218910000021
其中特征点qia是特征点
Figure BDA0002759218910000022
的匹配对应点;
(b)采用图片光度误差信息的直接法:初始时,将单应性矩阵H设置为满足单应性矩阵条件的随机矩阵,构建以单应性矩阵H为变量的代价函数并进行最小化,如下:
Figure BDA0002759218910000023
其中px、py分别表示第x张图与第y张图上的像素点,满足px=H*py,I(.)表示此像素点处的光度值。
进一步地,将多目视觉测量系统中的一部分图片用于重建近似平面,记为集合X,图片数为A;另一部分图片用于恢复近似平面到任意相机的真实距离,记为集合Y,图片数为B;在X,Y中的每张图片中提取尺度信息,利用相机位姿、射影定理比例关系,恢复近似平面到任意相机的真实距离。
进一步地,提取尺度信息方法可采用提取特征点匹配,计算匹配点对图片像素距离的方式,具体为:对X中的A张图片均提取M对特征点
Figure BDA0002759218910000024
再对Y中的B张图片均提取M对特征点
Figure BDA0002759218910000025
特征点
Figure BDA0002759218910000026
Figure BDA0002759218910000027
之间进行特征匹配,对X,Y中的每张图,计算该图片上两两特征点的像素距离
Figure BDA0002759218910000028
Figure BDA0002759218910000029
Figure BDA00027592189100000210
即为尺度信息。
进一步地,所述边缘化过拟合模型的步骤包括:
确定需要被边缘化的过拟合模型;
删除被边缘化的过拟合模型,对其所包含的点的后验概率进行更新,实现重新分配。
进一步地,确定需要被边缘化的过拟合模型采用协方差矩阵的特征值分析法,步骤包括:
利用SVD分解将所有高斯模型的协方差矩阵Σ解耦到3个正交方向Σ=VΛVT,其中V是3×3矩阵,其3组列向量即为3个正交方向,
Figure BDA0002759218910000031
通过重写矩阵的排列组合使特征值满足σa>σb>σc,分析特征值,判断协方差矩阵椭球是否在两个维度塌缩为线模型或三个维度塌缩为点模型,如果是,则该高斯模型标记为应该边缘化的模型。
进一步地,分析特征值判断协方差椭球塌缩为线或点的判断条件为:当协方差特征值满足σa>kσb,k为给定阈值,即高斯模型塌缩为线或点。
进一步地,更新边缘化模型所属点的后验概率具体为:读取记录所有点相对于所有模型后验概率的二维数组,遍历所有被标记为应该边缘化的模型,选取该模型所属后验概率大于阈值的点,删去该模型,将这些点的后验概率归一化。
进一步地,所述步骤(4)中,模型之间对齐配准使用表面扫描原理,构建优化误差项error,error为模型均值到模型均值的协方差加权距离。协方差矩阵的最小特征值σc所对应的特征向量为V.col(c),将协方差矩阵Σ沿最小特征值σc的方向V.col(c)分解,只保留V.col(c)方向的误差项,另外两个方向的误差项予以舍弃。具体方程如下:
Figure BDA0002759218910000032
使用非线性优化算法,优化所有上述误差项构成误差函数,得到最优的旋转矩阵与平移向量。
本发明的有益效果是:通过多目视觉测量系统能恢复远距离点云,并且克服双目测量恢复点云对外参数标定的依赖,因此具备实用的恢复点云作用。而边缘化过拟合模型的算法,能较好地应对两种不同性质的点云,对两种点云提取模型拟合,边缘化不合适的模型后再对齐配准,具备较高精度。
附图说明
为了更清楚的说明本发明的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对本发明保护范围的限定。在各个附图中,类似的构成部分采用类似的编号。
图1为一个实施例中提供的一种多目视觉测量与激光点云地图匹配的位姿估计方法的流程示意图;
图2为一个实施例中提供的边缘化过拟合模型期望最大化算法示意图。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
在下文中,将更全面地描述本公开的各种实施例。本公开可具有各种实施例,并且可在其中做出调整和改变。然而,应理解:不存在将本公开的各种实施例限于在此公开的特定实施例的意图,而是应将本公开理解为涵盖落入本公开的各种实施例的精神和范围内的所有调整、等同物和/或可选方案。
在下文中,可在本发明的各种实施例中使用的术语“包括”、“具有”及其同源词仅意在表示特定特征、数字、步骤、操作、元件、组件或前述项的组合,并且不应被理解为首先排除一个或更多个其它特征、数字、步骤、操作、元件、组件或前述项的组合的存在或增加一个或更多个特征、数字、步骤、操作、元件、组件或前述项的组合的可能性。
此外,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
除非另有限定,否则在这里使用的所有术语(包括技术术语和科学术语)具有与本发明的各种实施例所属领域普通技术人员通常理解的含义相同的含义。所述术语(诸如在一般使用的词典中限定的术语)将被解释为具有与在相关技术领域中的语境含义相同的含义并且将不被解释为具有理想化的含义或过于正式的含义,除非在本发明的各种实施例中被清楚地限定。
图1为一个实施例中提供的一种多目视觉测量与激光点云地图匹配的位姿估计方法的流程示意图,该方法包括:
步骤S110,按如下要求组成多目视觉测量系统:多目视觉测量系统中相机数量至少三个,每个相机至少与其它两个相机共视,当三个及以上相机的摆放位置在同一直线上时,该直线必须与其中某两个相机恢复的环境空间的近似平面相交。
步骤S120,通过计算有共视区域图片的单应性矩阵,恢复近似平面的方程表达式,单应性矩阵的计算可采用两种方式:
(1)采用提取特征点并匹配的特征点法,对有共视区域的A张图片均提取特征点,其中第a张图片提取N对特征点
Figure BDA0002759218910000041
对A张图片两两之间进行特征点匹配,构建以单应性矩阵H为变量的代价函数并进行最小化,如下:
Figure BDA0002759218910000051
其中特征点qia是特征点
Figure BDA0002759218910000052
的匹配对应点;
(2)采用图片光度误差信息的直接法,初始时,将单应性矩阵H设置为满足单应性矩阵条件的随机矩阵,构建以单应性矩阵H为变量的代价函数并进行最小化,如下:
Figure BDA0002759218910000053
其中px、py分别表示第x张图与第y张图上的像素点,满足px=H*py,I(.)表示此像素点处的光度值。
将多目视觉测量系统中的一部分图片用于重建近似平面,记为集合X,图片数为A;另一部分图片用于恢复近似平面到任意相机的真实距离,记为集合Y,图片数为B;在X,Y中的每张图片中提取尺度信息,利用相机位姿、射影定理比例关系,恢复近似平面到任意相机的真实距离。
对X中的A张图片均提取M对特征点
Figure BDA0002759218910000054
再对Y中的B张图片均提取M对特征点
Figure BDA0002759218910000055
特征点
Figure BDA0002759218910000056
Figure BDA0002759218910000057
之间进行特征匹配,对X,Y中的每张图,计算该图片上两两特征点的像素距离
Figure BDA0002759218910000058
Figure BDA0002759218910000059
Figure BDA00027592189100000510
即为尺度信息。
对X,Y中每张图片利用单应矩阵矫正,恢复每张图片到近似平面的误差分布,再根据透视投影比例关系和尺度信息
Figure BDA00027592189100000511
Figure BDA00027592189100000512
恢复环境空间的真实三维点云结构。
步骤S130,为实现连续函数模型表达点云,构建高斯混合模型,使用边缘化过拟合模型的期望最大化算法,该算法是在传统EM算法的期望步和最大化步后加入边缘化步,具体步骤如图2所示。
步骤S131,初始化连续函数模型的参数,可以使用随机选点初始化,也可按照点云的质心分布来进行初始化,然后进入循环过程。
步骤S132,循环的判断条件,可设置为是否达到最大循环的次数,达到则退出。
步骤S133,传统EM算法的期望步与最大化步;期望步是在当前模型参数下得到点属于每个模型概率的期望值;最大化步是在当前点属于模型的期望下,调整每个高斯模型参数,使所有点属于对应模型的概率值的乘积最大。
步骤S134,遍历所有模型,利用SVD分解将所有高斯模型的协方差矩阵Σ解耦到3个正交方向
Σ=VΛVT
其中V是3×3矩阵,其3组列向量即为3个正交方向,
Figure BDA0002759218910000061
通过重写矩阵的排列组合使特征值σa>σb>σc,分析特征值,判断协方差矩阵椭球在两个维度塌缩为线模型或三个维度塌缩为点模型,当协方差特征值满足σa>kσb,k为给定阈值,即高斯模型塌缩为线或点。如果是,该高斯模型标记为应该边缘化的模型。
步骤S135,从所有模型中删除需要被边缘化的模型,更新边缘化模型所属点的后验概率,读取记录所有点相对于所有模型后验概率的二维数组,遍历所有被标记为应该边缘化的模型,选取该模型所属后验概率大于阈值的点,从而将这些点的后验概率归一化。
步骤S140,模型之间对齐配准使用表面扫描原理,构建优化误差项error,error为模型均值到模型均值的协方差加权距离。协方差矩阵的最小特征值σc所对应的特征向量为V.col(c),将协方差矩阵Σ沿最小特征值σc的方向V.col(c)分解,只保留V.col(c)方向的误差项,另外两个方向的误差项予以舍弃。具体方程如下:
Figure BDA0002759218910000062
使用非线性优化算法,优化所有上述误差项构成误差函数,得到最优的旋转矩阵与平移向量。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。

Claims (10)

1.一种基于多目视觉测量与激光点云地图匹配的位姿估计方法,其特征在于,包括:
(1)组成多目视觉测量系统,所述多目视觉测量系统中相机数量至少三个,每个相机至少与其它两个相机共视,当三个及以上相机的摆放位置在同一直线上时,该直线必须与其中某两个相机恢复的环境空间的近似平面相交;
(2)获取有共视区域的图片,重建近似平面,恢复环境空间在近似平面前后的误差分布信息,计算近似平面到相机的真实距离,得到多目视觉测量模型;
(3)针对激光点云地图,边缘化过拟合模型,对边缘化模型的点进行重新分配,生成点云的连续函数模型;
(4)基于表面扫描原理,对多目视觉测量模型和点云的连续函数模型进行对齐配准,实现位姿估计。
2.根据权利要求1所述的一种基于多目视觉测量与激光点云地图匹配的位姿估计方法,其特征在于,所述步骤(2)具体为:获取有共视区域的图片,根据多视图几何原理,恢复所观测环境空间的同一近似平面,恢复环境空间在近似平面前后的误差分布信息,根据空间中任意两点在不同距离相机观测,产生透视投影比例关系,恢复近似平面到相机的真实距离,恢复环境空间的真实三维点云结构。
3.根据权利要求2所述的一种基于多目视觉测量与激光点云地图匹配的位姿估计方法,其特征在于,通过计算有共视区域图片的单应性矩阵,恢复近似平面的方程表达式,单应性矩阵的计算可用如下两种方式:
(a)提取特征点并匹配的特征点法:对有共视区域的A张图片均提取特征点,其中第a张图片提取N对特征点
Figure FDA0002759218900000011
对A张图片两两之间进行特征点匹配,构建以单应性矩阵H为变量的代价函数并进行最小化,如下:
Figure FDA0002759218900000012
其中特征点qia是特征点
Figure FDA0002759218900000013
的匹配对应点;
(b)采用图片光度误差信息的直接法:初始时,将单应性矩阵H设置为满足单应性矩阵条件的随机矩阵,构建以单应性矩阵H为变量的代价函数并进行最小化,如下:
Figure FDA0002759218900000014
其中px、py分别表示第x张图与第y张图上的像素点,满足px=H*py,I(.)表示此像素点处的光度值。
4.根据权利要求1所述的一种基于多目视觉测量与激光点云地图匹配的位姿估计方法,其特征在于,将多目视觉测量系统中的一部分图片用于重建近似平面,记为集合X,图片数为A;另一部分图片用于恢复近似平面到任意相机的真实距离,记为集合Y,图片数为B;在X,Y中的每张图片中提取尺度信息,利用相机位姿、射影定理比例关系,恢复近似平面到任意相机的真实距离。
5.根据权利要求4所述的一种基于多目视觉测量与激光点云地图匹配的位姿估计方法,其特征在于,提取尺度信息方法可采用提取特征点匹配,计算匹配点对图片像素距离的方式,具体为:对X中的A张图片均提取M对特征点
Figure FDA0002759218900000021
再对Y中的B张图片均提取M对特征点
Figure FDA0002759218900000022
特征点
Figure FDA0002759218900000023
Figure FDA0002759218900000024
之间进行特征匹配,对X,Y中的每张图,计算该图片上两两特征点的像素距离
Figure FDA0002759218900000025
Figure FDA0002759218900000026
Figure FDA0002759218900000027
即为尺度信息。
6.根据权利要求1所述的一种基于多目视觉测量与激光点云地图匹配的位姿估计方法,其特征在于,所述边缘化过拟合模型的步骤包括:
确定需要被边缘化的过拟合模型;
删除被边缘化的过拟合模型,对其所包含的点的后验概率进行更新,实现重新分配。
7.根据权利要求6所述的一种基于多目视觉测量与激光点云地图匹配的位姿估计方法,其特征在于,确定需要被边缘化的过拟合模型采用协方差矩阵的特征值分析法,步骤包括:
利用SVD分解将所有高斯模型的协方差矩阵Σ解耦到3个正交方向
Σ=VΛVT
其中V是3×3矩阵,其3组列向量即为3个正交方向,
Figure FDA0002759218900000028
通过重写矩阵的排列组合使特征值σa>σb>σc,分析特征值,判断协方差矩阵椭球在两个维度塌缩为线模型或三个维度塌缩为点模型,如果是,该高斯模型标记为应该边缘化的模型。
8.根据权利要求7所述的一种基于多目视觉测量与激光点云地图匹配的位姿估计方法,其特征在于,分析特征值判断协方差椭球塌缩为线或点的判断条件为:当协方差特征值满足σa>kσb,k为给定阈值,即高斯模型塌缩为线或点。
9.根据权利要求6所述的一种基于多目视觉测量与激光点云地图匹配的位姿估计方法,其特征在于,更新边缘化模型所属点的后验概率具体为:读取记录所有点相对于所有模型后验概率的二维数组,遍历所有被标记为应该边缘化的模型,选取该模型所属后验概率大于阈值的点,删去该模型,将这些点的后验概率归一化。
10.根据权利要求7所述的一种基于多目视觉测量与激光点云地图匹配的位姿估计方法,其特征在于,所述步骤(4)中,模型之间对齐配准使用表面扫描原理,协方差矩阵的最小特征值σc所对应的特征向量为V.col(c),V.col(c)方向的误差项在对齐配准中予以保留,另外两个方向的误差项予以舍弃。
CN202011212309.9A 2020-11-03 2020-11-03 基于多目视觉测量与激光点云地图匹配的位姿估计方法 Active CN112288813B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011212309.9A CN112288813B (zh) 2020-11-03 2020-11-03 基于多目视觉测量与激光点云地图匹配的位姿估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011212309.9A CN112288813B (zh) 2020-11-03 2020-11-03 基于多目视觉测量与激光点云地图匹配的位姿估计方法

Publications (2)

Publication Number Publication Date
CN112288813A true CN112288813A (zh) 2021-01-29
CN112288813B CN112288813B (zh) 2022-06-21

Family

ID=74350667

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011212309.9A Active CN112288813B (zh) 2020-11-03 2020-11-03 基于多目视觉测量与激光点云地图匹配的位姿估计方法

Country Status (1)

Country Link
CN (1) CN112288813B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113625288A (zh) * 2021-06-15 2021-11-09 中国科学院自动化研究所 基于点云配准的相机与激光雷达位姿标定方法和装置
CN114332232A (zh) * 2022-03-11 2022-04-12 中国人民解放军国防科技大学 基于空间点线面特征混合建模的智能手机室内定位方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105627926A (zh) * 2016-01-22 2016-06-01 尹兴 四像机组平面阵列特征点三维测量系统及测量方法
CN108717712A (zh) * 2018-05-29 2018-10-30 东北大学 一种基于地平面假设的视觉惯导slam方法
CN109658444A (zh) * 2018-11-23 2019-04-19 大连理工大学 一种基于多模态特征的规则三维彩色点云配准方法
CN110443837A (zh) * 2019-07-03 2019-11-12 湖北省电力勘测设计院有限公司 一种直线特征约束下的城区机载激光点云与航空影像配准方法和系统
CN111457927A (zh) * 2020-04-26 2020-07-28 北京工商大学 动态障碍物下的无人巡航船多目标路径规划方法
CN111709998A (zh) * 2019-03-18 2020-09-25 长春工业大学 一种tof相机深度数据测量误差校正的elm空间配准模型方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105627926A (zh) * 2016-01-22 2016-06-01 尹兴 四像机组平面阵列特征点三维测量系统及测量方法
CN108717712A (zh) * 2018-05-29 2018-10-30 东北大学 一种基于地平面假设的视觉惯导slam方法
CN109658444A (zh) * 2018-11-23 2019-04-19 大连理工大学 一种基于多模态特征的规则三维彩色点云配准方法
CN111709998A (zh) * 2019-03-18 2020-09-25 长春工业大学 一种tof相机深度数据测量误差校正的elm空间配准模型方法
CN110443837A (zh) * 2019-07-03 2019-11-12 湖北省电力勘测设计院有限公司 一种直线特征约束下的城区机载激光点云与航空影像配准方法和系统
CN111457927A (zh) * 2020-04-26 2020-07-28 北京工商大学 动态障碍物下的无人巡航船多目标路径规划方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
IHTISHAM ALI 等: "Multi-View Camera Pose Estimation for Robotic Arm Manipulation", 《IEEE ACCESS ( VOLUME: 8)》 *
毛家宁等: "基于滑窗非线性优化的双目视觉SLAM算法", 《应用科技》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113625288A (zh) * 2021-06-15 2021-11-09 中国科学院自动化研究所 基于点云配准的相机与激光雷达位姿标定方法和装置
CN114332232A (zh) * 2022-03-11 2022-04-12 中国人民解放军国防科技大学 基于空间点线面特征混合建模的智能手机室内定位方法

Also Published As

Publication number Publication date
CN112288813B (zh) 2022-06-21

Similar Documents

Publication Publication Date Title
CN108369741B (zh) 用于配准数据的方法和系统
US10339390B2 (en) Methods and apparatus for an imaging system
US10311595B2 (en) Image processing device and its control method, imaging apparatus, and storage medium
US10225473B2 (en) Threshold determination in a RANSAC algorithm
CN108510551B (zh) 一种远距离大视场条件下相机参数的标定方法及系统
CN112233177B (zh) 一种无人机位姿估计方法及系统
US9959625B2 (en) Method for fast camera pose refinement for wide area motion imagery
CN111199564A (zh) 智能移动终端的室内定位方法、装置与电子设备
CN106485690A (zh) 基于点特征的点云数据与光学影像的自动配准融合方法
US9761008B2 (en) Methods, systems, and computer readable media for visual odometry using rigid structures identified by antipodal transform
US20150325003A1 (en) Methods, systems, and computer readable media for visual odometry using rigid structures identified by antipodal transform
US10460471B2 (en) Camera pose estimating method and system
CN104077760A (zh) 一种航空摄影测量的快速拼接系统及其实现方法
CN111123242B (zh) 一种基于激光雷达和相机的联合标定方法及计算机可读存储介质
CN109493384B (zh) 相机位姿估计方法、系统、设备及存储介质
Wujanz et al. Identification of stable areas in unreferenced laser scans for deformation measurement
CN112288813B (zh) 基于多目视觉测量与激光点云地图匹配的位姿估计方法
CN113643366B (zh) 一种多视角三维对象姿态估计方法及装置
Zheng et al. Minimal solvers for 3d geometry from satellite imagery
Hallquist et al. Single view pose estimation of mobile devices in urban environments
CN114332125A (zh) 点云重建方法、装置、电子设备和存储介质
CN109636852A (zh) 一种单目slam初始化方法
CN113450334B (zh) 一种水上目标检测方法、电子设备及存储介质
CN109961092B (zh) 一种基于视差锚点的双目视觉立体匹配方法及系统
CN108416811B (zh) 一种摄影机自标定方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant