CN113436235A - 一种激光雷达与视觉点云的初始化自动配准方法 - Google Patents
一种激光雷达与视觉点云的初始化自动配准方法 Download PDFInfo
- Publication number
- CN113436235A CN113436235A CN202110573218.6A CN202110573218A CN113436235A CN 113436235 A CN113436235 A CN 113436235A CN 202110573218 A CN202110573218 A CN 202110573218A CN 113436235 A CN113436235 A CN 113436235A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- point
- transformation matrix
- clouds
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明公开了一种激光雷达与视觉点云的初始化自动配准方法,在现有的JRMPC(多点集联合注册)算法的基础上,加入了尺度估计,采用带有尺度估计的JRMPC算法进行激光雷达点云和视觉点云的精匹配;该方法采用将体素降采样和ESF(形状函数集成)描述符相结合,进行激光雷达点云和视觉点云的粗匹配,解决了激光雷达点云和视觉点云的规模不同问题;采用欧式距离计算,可以降低计算量,缩短计算时间。
Description
技术领域
本发明属于信息技术领域,具体涉及一种激光雷达与视觉点云的初始化自动配准方法。
背景技术
三维点云的配准一直以来是一个重要的研究方向,在自动驾驶、机器人导航、增强现实等各领域均有运用。但是异源3D点云的配准却十分困难,这是因为异源点云之间的尺度、密度、规模大小、噪声分布机制等各方面都有较大的差异性。目前3D点云的配准算法主要分为两类,一类是全局配准算法,另一类是非全局配准算法。全局配准算法是基于BnB(分支与定界)的方法,不断更新变换空间的几何边界,从而搜寻出最佳变换矩阵。这类算法的关键在于如何精准地数学建模出变换空间的几何边界,从而实现最佳变换矩阵的准确搜寻。该算法虽然配准精度较高,但是由于其需要进行大量的计算,比较耗时,不适合实际的运用。非全局配准方法主要分为基于点云特征的配准方法和基于混合高斯模型的配准方法。基于点云特征的配准算法,其算法的精确程度上取决于点云特征的描述是否准确。但是每一种描述子都有局限性,其鲁棒性在异源点云的描述中较低,这将导致无法实现点云对之间准确匹配,从而不能实现准确的注册。基于混合高斯模型的配准算法,是一种基于概率模型的配准算法,采用混合高斯模型模型来表示点云的分布,通过最小化相应混合高斯模型的统计差异,从而求取最佳的变换矩阵。该类算法在参数求解的时候,通常采用EM(期望最大化)或ECM(期望条件最大化)方法求解。由于该类算法鲁棒性高,对噪声、密度、视角等因素不敏感,在异源点云的配准中比较适用。
在复杂的跟踪定位系统中,通常会采集激光雷达构建离线地图,该地图规模较大,且是稠密点云,而在系统的在线阶段,采用视觉的方式进行在线的跟踪定位。为了实现二者之间的关联,需要将激光雷达点云和视觉重建的点云进行配准,以便实现精确的定位、导航等各种需求。由于二者构建的点云数据属于异源数据,在点云的尺度、密度、规模大小、噪声分布机制等各个方面存在较大差异性。因此,需要着重解决激光雷达与视觉点云的初始化配准。
发明内容
有鉴于此,本发明的目的是提供一种激光雷达与视觉点云的初始化自动配准方法,能够解决激光雷达和视觉点云异源数据的关联问题,具有快速实现异源点云初始化配准的效果。
一种激光雷达与视觉点云的初始化自动配准方法,其特征在于,包括如下步骤:
步骤一:获得整个真实场景的激光雷达扫描点云Pl;
步骤二:利用相机对真实场景的某一区域进行拍照,采用视觉重建的方式获得该区域的视觉点云Pv;
步骤三:对点云Pl和点云Pv进行预处理;
步骤四:从点云Pl中随机选取M个点作为球心,以每一个球心构建N个半径大小不同的球体,把球体内部的点作为构建候选区域点云的点,从而获得规模大小不同的候选区域点云a=1,...,N;b=1,...,M;M>1;N>1;
步骤十一:选出配准误差最小的变换矩阵Tbest和其对应的点云Yv-best,完成点云Pl和Pv的配准。
较佳的,所述步骤九具体计算过程如下:
S90、将Xl n表示为X1,Yv n表示为X2;
S91、假设点云X1和X2之间存在一个虚拟场景中心点云W,用K个混合高斯模型表示该点云;其中μk,σk,k=1,...,K是混合高斯模型的均值和方差,且W=[μk],W为3*K的矩阵,K为虚拟场景中心点云W的点云数量;
S92、基于此混合高斯模型的参数,构建点云X1和X2分别到虚拟场景中心点云W变换后点云T1(X1)、T2(X2),点云T1(X1)、T2(X2)中各点属于混合高斯模型的概率如公式(2)所示:
其中p()表示一个混合高斯模型的概率;xji表示第j个点云中的第i个点,且j=1,2,i=1,...,Nj,Nj为第j个点云中点的数量;ω是内外点比率,h是点云Xj球体的体积;变换后点云中各点Tj(xji)=sjRjxji+tj,sj、Rj和tj分别是第j个点云到虚拟场景中心点云W变换矩阵的尺度因子、变换矩阵和平移矢量;
S93、采用EM算法计算混合模型参数和变换矩阵参数,具体为:
S931、初始化混合高斯模型参数和变换矩阵参数;
S932、E步计算点云Xj的后验分布概率,其后验分布概率αjik表示第j个点云的第i个点属于第k个高斯模型的概率:
S933、M步计算混合高斯模型参数和变换矩阵参数:先利用步骤a计算变换矩阵参数Tj,j=1,2;然后利用步骤b计算混合高斯模型参数μk,σk:
步骤a:计算变换矩阵Tj的Rj、tj、sj参数:
Rj=Uj*diag([11det(UjVj T)])*Vj T (4)
步骤b:计算混合高斯模型参数μk,σk:
其中公式(8)中的ε2是调整因子;
S934、重复S932和S933直至迭代达到设定次数;
S94、计算点云Xl n到Yv n的变换矩阵Tn;
较佳的,所述预处理包括降采样和滤波去噪。
其中F表示F范数。
本发明具有如下有益效果:
本发明针对激光雷达与视觉点云的初始化自动配准问题,提出了一种从粗到细的配准方法:
在现有的JRMPC(多点集联合注册)算法的基础上,加入了尺度估计,采用带有尺度估计的JRMPC算法进行激光雷达点云和视觉点云的精匹配;
该方法采用将体素降采样和ESF(形状函数集成)描述符相结合,进行激光雷达点云和视觉点云的粗匹配,解决了激光雷达点云和视觉点云的规模不同问题;
采用欧式距离计算,可以降低计算量,缩短计算时间。
附图说明
图1为本发明实施方式的流程图;
图2为Lidar(激光雷达)扫描构建的点云;
图3为视觉重建的点云(SFM(由运动产生的结构)重建的点云);
图4为粗匹配选出第一个Lidar候选区域;
图5为精匹配第一个的注册结果;
图6为Lidar点云和SFM点云最终的注册结果。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
本发明的一种激光雷达与视觉点云的初始化自动配准方法,其基本实施过程如下:
步骤一:利用三维激光扫描仪在固定位置对整个真实场景扫描建模,获得整个真实场景的激光雷达扫描点云Pl。
步骤二:利用相机对真实场景的某一区域进行拍照,采用视觉重建的方式获得该区域的视觉点云Pv。
步骤三:对点云Pl和点云Pv进行降采样、滤波去噪等预处理。
步骤九:采用具有尺度估计的JRMPC算法计算变换矩阵,重复执行该算法NN次,每执行一次迭代MM次,得到点云与点云间的变换矩阵Tn(n=1,...,NN)。以点云和间的第n次变换矩阵Tn的计算为例,为了便于表示,设Xl n为X1、Yv n为X2,其具体计算过程如下:
S91、假设点云X1和X2之间存在一个虚拟场景中心点云W,用K个混合高斯模型表示该点云。其中μk,σk(k=1,...,K)是混合高斯模型的均值和方差,且W=[μk](k=1,...,K),W为3*K的矩阵,其中3为虚拟场景中心点云构建点云W的维度,K为其点云的数量。
S92、基于此混合高斯模型的参数,构建点云X1和X2分别到虚拟场景中心点云W变换后点云T1(X1)、T2(X2),两者对应的变换矩阵分别设为T1和T2;点云T1(X1)、T2(X2)中各点属于混合高斯模型的概率如公式(2)所示,其中xji表示第j个点云的第i个点,且j=(1,2),i=(1,...,Nj),Nj为第j个点云的数量。ω是内外点比率,h是Xj(j=1,2)是包围球体的体积。变换后点云中各点Tj(xji)=sjRjxji+tj,sj、Rj、tj分别是第j个点云到虚拟场景中心点云W变换矩阵的尺度因子、变换矩阵、平移矢量。
点云中各点属于混合高斯模型的概率为:
S93、采用EM算法计算混合模型参数和变换矩阵参数,具体为:
S931、初始化混合高斯模型参数和变换矩阵参数。
S933、M步计算混合高斯模型参数和变换矩阵参数。先计算变换矩阵参数Tj(j=1,2),其具体计算过程步骤a。然后计算混合高斯模型参数μk,σk(k=1,...,K),其具体计算过程见步骤b。
步骤a:计算变换矩阵Tj(j=1,2)的Rj、tj、sj参数,其计算顺序是先计算Rj,然后计算sj,最后计算tj。Rj、tj、sj的具体计算公式分别见公式(4)、(6)、(5)。
Rj=Uj*diag([11det(UjVj T)])*Vj T (4)
其中Aj=[Ajk](k=1,...,K),为3*K的矩阵,W=[μk](1,...,K),为3*K的矩阵,Λj是K*K的对角矩阵,λjk是Λj的第k个对角元素的值,且取e为1*k的单位矢量。其中将矩阵DjΛj 2Cj T进行SVD分解,得到矩阵Uj、Mj、Vj T。
步骤b:计算混合高斯模型参数μk,σk(k=1,...,K)。其μk,σk的具体计算公式如公式(7)、(8)所示,其中公式(8)的ε2是调整因子。
S934、重复S932和S933,直至迭代MM次,完成。
S94、计算点云Xl n和Yv n的变换矩阵Tn,其中s,R,t分别是点云到变换的尺度因子、旋转矩阵、平移矢量。具体计算公式如公式(9)所示。其中,sl、sv分别是和的尺度因子,Rl、Rv分别是和的旋转矩阵,tl和tv分别是和的平移矢量。
返回步骤九,直到达到设定的执行次数。
步骤十一:选出配准误差最小的变换矩阵Tbest和其对应的点云Yv-best,完成点云Pl和Pv的配准。由于Yv-best是Pv尺度统一化后点云,只需完成点云Pl和Yv-best的配准,即完成点云Pl和Pv的配准。至此,激光雷达与视觉点云的初始化自动配准便可实现。
以下给出带有尺度估计的JRMPC算法的推导过程:
给定点云Xj(j=1,2),其为3*Nj的矩阵,其中3为点云Xj的维度,Nj为第j个点云的数量。并假设Xj之间存在一个虚拟场景中心点云W,采用混合高斯模型μk,σk(k=1,...,K)来表示虚拟场景中心点云W=[μk](k=1,...,K),其为3*K的矩阵。基于此混合高斯模型,点云Xj在其变换矩阵Tj变换后的点云Tj(Xj)的概率表示如公式(1)所示,其中xji为第j(j=(1,2))个点云的第i(i=(1,...,Nj))个点,ω为内外点比率,h为点云Xj的包围球体的体积。Tj(xji)=sjRjxji+tj,sj、Rj、tj分别是第j个点云到虚拟场景中心点云W变换矩阵的尺度因子、变换矩阵、平移矢量。
采用最大似然法对参数θ(μk,σk,(k=1,...,K);sj,Rj,tj,(j=1,2))估计,由于无法采用求导的方法计算参数,这里是EM算法迭代的方式估计参数。通过推导,可得点云Xj其后验概率分布中,其中αjik表示第j个点云的第i个点属于第k个混合高斯模型的概率,具体如公式(2)所示。
在EM算法的M步需要完成对参数θ的估计,先对变换矩阵参数进行估计,后对混合高斯模型参数估计。在最大似然概率的约束下,推出尺度因子、旋转矩阵和平移矢量的最优估计约束条件如下公式(3)。令Aj=[Ajk](k=1,...,K),其中且Aj为3*K的矩阵,W为虚拟场景中心点云,也是3*K的矩阵。Λj是K*K的对角矩阵,tj为Aj到W的变换矩阵的尺度因子、变换矩阵、平移矢量。e是1*K的单位矢量。
min|(sjRjAj+tje-W)Λj| (3)
通过公式(3)对tj求导,并导数等于0,得到tj的最优估计。
根据定理,可以得到Rj的SVD分解矩阵为DjΛj 2Cj T,其分解值为UjMjVj T。可得Rj的最优估计如公式(6)所示。
Rj=Uj*diag([11det(UjVj T)])*VjT (6)
对于公式(5)关于sj求导,令其导数等于0,可得sj的最优估计,如公式(7)所示。
基于公式(5)、(6)、(7),可以得出sj、Rj、tj的最优估计。计算流程先计算Rj,再计算sj,最后计算tj。
接下需要完成对对高斯模型参数μk,σk(k=1,...,K)进行估计,通过对μk,σk求导并令其导数等于0,可得均值μk和方差σk的估计,具体估计见公式(8)、(9)。
其中,ε2是调整因子,有固定的取值。
整个带有尺度估计的JRMPC的算法流程如下,仅针对两个点云的注册。
输入:P1、P2点云。
输出:θ(si,Ri,ti,(j=1,2);μk,σk,(k=1,...,K))
初始化参数θ。
(1)E步:计算后验概率αjik,其计算公式见公式(2)。
(2)M步:更新参数θ(sj,Rj,tj,μk,σk)
使用公式(7)、(6)、(4)计算sj,Rj,tj。
使用公式(8)、(9)更新μk,σk。
重复(1)、(2)直至迭代完成。
实现P1到P2的注册P1=sRP1+t
至此,已经完成带有尺度的JRMPC算法中的整个求解过程。
实施例:
一种激光雷达与视觉点云的初始化自动配准方法,其具体步骤包括:
步骤一、将Faro三维激光扫描仪固定室内某一位置,扫描整个真实场景并获得整个室内的真实场景点云PLidar。点云PLidar中每一个三维点包含位置信息(x,y,z)(空间位置坐标,单位为m)。
步骤二、以室内的某一区域为中心,采用相机从不同角度进行拍照。采用VisualSFM软件重建出该区域的点云PSFM,点云PSFM是室内的某一区域场景重建所得,而非整个室内场景。点云PSFM中每一个三维点包括位置信息(x,y,z)(空间位置坐标,单位未知)。
步骤三、基于PCL库完成对点云PLidar和点云PSFM的预处理。采用PCL库中体素降采样方法对点云PLidar和点云PSFM进行降采样,采用PCl库中直通滤波算法对点云PSFM进行降噪处理。
步骤四、基于PCL库完成点云PLidar的候选区域的构建,得到候选区域点云从点云PLidar中随机选取1000个点作为球心,分别设置其半径为1.2、1.1、1.0、0.9、0.8。(单位为m),将球体内部的点作为构建候选区域点云的点,总共构建5000个候选区域。
步骤六、基于PCL库将体素降采样与ESF描述符计算结合,先对候选区域点云进行体素降采样,采样网格大小设置设为候选区域点云最小包围盒的长、宽、高分别除以20。然后采用ESF算法计算候选区域点云的ESF描述子。点云也是先进行体素降采样,采样网格大小设置设为点云最小包围盒的长、宽、高分别除以20,再采用ESF算法计算点云的ESF描述子。
步骤九、在原有的JRMPC的基础上,加入了尺度估计。采用带有尺度估计的JRMPC算法计算变换矩阵,重复该算法5次,每次迭代100次,得到点云和的变换矩阵Tn(n=1,...,5)。以点云和间的第n次的变换矩阵Tn计算为例,其具体计算过程如下:
①初始化混合高斯模型参数和变换矩阵参数、其他参数。混合高斯模型参数μk(k=1,...,20(在单位球体内随机产生2000个三维离散点作为初始化值,并构建虚拟场景中心点云W=[μk](k=1,...,2000),变换矩阵参数的尺度因子均设为1,旋转矩阵设为单位矩阵,平移矢量分别取各自点云的均值与虚拟场景中心点云W均值之差。混合高斯模型参数σk(k=1,...,2000)取点云和在变换矩阵变换之后,分别与虚拟场景中心点云W作差后的最大值与最小值的欧式距离的倒数。设置ω=0.01,ε2=1×10-6。
③EM算法M步更新混合高斯模型参数和变换矩阵参数。其中变换矩阵参数的更新见公式(4)、(5)、(6);混和高斯模型参数的更新见公式(7)、(8)。
④重复②和③,迭代100次完成计算。
步骤十一、根据配准误差排序,挑选出最佳变换矩阵Tbest和对应点云YSFM-best,其中完成YSFM-best是点云PSFM尺度统一化后点云,完成PLidar和YSFM-best的配准,即完成PLidar和PSFM的配准。其具体计算公式见公式(13)。
YSFM-best=sbestRbestYSFM-best+tbest (13)
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种激光雷达与视觉点云的初始化自动配准方法,其特征在于,包括如下步骤:
步骤一:获得整个真实场景的激光雷达扫描点云Pl;
步骤二:利用相机对真实场景的某一区域进行拍照,采用视觉重建的方式获得该区域的视觉点云Pv;
步骤三:对点云Pl和点云Pv进行预处理;
步骤十一:选出配准误差最小的变换矩阵Tbest和其对应的点云Yv-best,完成点云Pl和Pv的配准。
2.如权利要求1所述的一种激光雷达与视觉点云的初始化自动配准方法,其特征在于,所述步骤九具体计算过程如下:
S90、将Xl n表示为X1,Yv n表示为X2;
S91、假设点云X1和X2之间存在一个虚拟场景中心点云W,用K个混合高斯模型表示该点云;其中μk,σk,k=1,...,K是混合高斯模型的均值和方差,且W=[μk],W为3*K的矩阵,K为虚拟场景中心点云W的点云数量;
S92、基于此混合高斯模型的参数,构建点云X1和X2分别到虚拟场景中心点云W变换后点云T1(X1)、T2(X2),点云T1(X1)、T2(X2)中各点属于混合高斯模型的概率如公式(2)所示:
其中p()表示一个混合高斯模型的概率;xji表示第j个点云中的第i个点,且j=1,2,i=1,...,Nj,Nj为第j个点云中点的数量;ω是内外点比率,h是点云Xj球体的体积;变换后点云中各点Tj(xji)=sjRjxji+tj,sj、Rj和tj分别是第j个点云到虚拟场景中心点云W变换矩阵的尺度因子、变换矩阵和平移矢量;
S93、采用EM算法计算混合模型参数和变换矩阵参数,具体为:
S931、初始化混合高斯模型参数和变换矩阵参数;
S932、E步计算点云Xj的后验分布概率,其后验分布概率αjik表示第j个点云的第i个点属于第k个高斯模型的概率:
S933、M步计算混合高斯模型参数和变换矩阵参数:先利用步骤a计算变换矩阵参数Tj,j=1,2;然后利用步骤b计算混合高斯模型参数μk,σk:
步骤a:计算变换矩阵Tj的Rj、tj、sj参数:
Rj=Uj*diag([11det(UjVj T)])*Vj T (4)
步骤b:计算混合高斯模型参数μk,σk:
其中公式(8)中的ε2是调整因子;
S934、重复S932和S933直至迭代达到设定次数;
S94、计算点云Xl n到Yv n的变换矩阵Tn。
3.如权利要求1或2所述的一种激光雷达与视觉点云的初始化自动配准方法,其特征在于,所述预处理包括降采样和滤波去噪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110573218.6A CN113436235B (zh) | 2021-05-25 | 2021-05-25 | 一种激光雷达与视觉点云的初始化自动配准方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110573218.6A CN113436235B (zh) | 2021-05-25 | 2021-05-25 | 一种激光雷达与视觉点云的初始化自动配准方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113436235A true CN113436235A (zh) | 2021-09-24 |
CN113436235B CN113436235B (zh) | 2022-07-01 |
Family
ID=77803380
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110573218.6A Active CN113436235B (zh) | 2021-05-25 | 2021-05-25 | 一种激光雷达与视觉点云的初始化自动配准方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113436235B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113917452A (zh) * | 2021-09-30 | 2022-01-11 | 北京理工大学 | 一种视觉与雷达结合的盲道检测装置和方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105701820A (zh) * | 2016-01-14 | 2016-06-22 | 上海大学 | 一种基于匹配区域的点云配准方法 |
CN107204009A (zh) * | 2017-05-23 | 2017-09-26 | 哈尔滨工业大学 | 基于仿射变换模型cpd算法的三维点云配准方法 |
CN110658530A (zh) * | 2019-08-01 | 2020-01-07 | 北京联合大学 | 一种基于双激光雷达数据融合的地图构建方法、系统及地图 |
CN111508008A (zh) * | 2020-04-08 | 2020-08-07 | 达闼机器人有限公司 | 一种点云配准的方法、电子设备和存储介质 |
-
2021
- 2021-05-25 CN CN202110573218.6A patent/CN113436235B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105701820A (zh) * | 2016-01-14 | 2016-06-22 | 上海大学 | 一种基于匹配区域的点云配准方法 |
CN107204009A (zh) * | 2017-05-23 | 2017-09-26 | 哈尔滨工业大学 | 基于仿射变换模型cpd算法的三维点云配准方法 |
CN110658530A (zh) * | 2019-08-01 | 2020-01-07 | 北京联合大学 | 一种基于双激光雷达数据融合的地图构建方法、系统及地图 |
CN111508008A (zh) * | 2020-04-08 | 2020-08-07 | 达闼机器人有限公司 | 一种点云配准的方法、电子设备和存储介质 |
Non-Patent Citations (5)
Title |
---|
NINGSHENG HUANG 等: "Optimization for RGB-D SLAM Based on Plane Geometrical Constraint", 《2019 IEEE INTERNATIONAL SYMPOSIUM ON MIXED AND AUGMENTED REALITY ADJUNCT (ISMAR-ADJUNCT)》 * |
ZHEN DONG 等: "Registration of large-scale terrestrial laser scanner point clouds: A review", 《ISPRS JOURNAL OF PHOTOGRAMMETRY AND REMOTE SENSING》 * |
彭蹦等: "一种多模式融合的激光点云配准算法", 《激光与红外》 * |
郭杭等: "基于体素格尺度不变特征变换的快速点云配准方法", 《中国惯性技术学报》 * |
陈思颖等: "城区机载激光雷达点云数据与航空影像的多尺度配准方法", 《北京理工大学学报》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113917452A (zh) * | 2021-09-30 | 2022-01-11 | 北京理工大学 | 一种视觉与雷达结合的盲道检测装置和方法 |
CN113917452B (zh) * | 2021-09-30 | 2022-05-24 | 北京理工大学 | 一种视觉与雷达结合的盲道检测装置和方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113436235B (zh) | 2022-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109544677B (zh) | 基于深度图像关键帧的室内场景主结构重建方法及系统 | |
CN110458939B (zh) | 基于视角生成的室内场景建模方法 | |
Gruen et al. | Least squares 3D surface and curve matching | |
CN110853075B (zh) | 一种基于稠密点云与合成视图的视觉跟踪定位方法 | |
US8406509B2 (en) | Three-dimensional surface generation method | |
CN108665491B (zh) | 一种基于局部参考点的快速点云配准方法 | |
Pons-Moll et al. | Model-based pose estimation | |
CN112651944B (zh) | 基于cad模型的3c部件高精度六维位姿估计方法及系统 | |
CN114067075A (zh) | 基于生成对抗网络的点云补全方法及装置 | |
CN113436235B (zh) | 一种激光雷达与视觉点云的初始化自动配准方法 | |
He et al. | Pose tracking of spacecraft based on point cloud DCA features | |
CN111612887B (zh) | 一种人体测量方法和装置 | |
JP6761388B2 (ja) | 推定装置及びプログラム | |
Shang et al. | Model-based tracking by classification in a tiny discrete pose space | |
CN115423854A (zh) | 一种基于多尺度特征提取的多视角点云配准及点云融合方法 | |
JP6853150B2 (ja) | 選別装置、方法及びプログラム | |
Wang et al. | Slow-Spinning Spacecraft Cross-Range Scaling and Attitude Estimation Based on Sequential ISAR Images | |
Sainz et al. | Recovering 3D metric structure and motion from multiple uncalibrated cameras | |
CN117876447B (zh) | 一种基于微表面融合与对齐的三维点云配准方法 | |
CN117541614B (zh) | 基于改进icp算法的空间非合作目标近距离相对位姿跟踪方法 | |
Hall et al. | Object Registration in Neural Fields | |
CN118135107A (zh) | 三维场景快速建模以及姿态获取方法及系统 | |
Srichumroenrattana et al. | Stereoscopic face reconstruction from a single 2-dimensional face image using orthogonality of normal surface and y-ratio | |
Wu et al. | Registration for cross-source point clouds based on Gaussian mixture model | |
Tokime et al. | CrowdSLAM: Toward Large-Scale 3D Structure from Crowd-Captured Images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |