CN114037745A - 一种基于分支定界的多视点三维点云数据的粗配准方法 - Google Patents
一种基于分支定界的多视点三维点云数据的粗配准方法 Download PDFInfo
- Publication number
- CN114037745A CN114037745A CN202111364818.8A CN202111364818A CN114037745A CN 114037745 A CN114037745 A CN 114037745A CN 202111364818 A CN202111364818 A CN 202111364818A CN 114037745 A CN114037745 A CN 114037745A
- Authority
- CN
- China
- Prior art keywords
- point
- cloud data
- matching
- characteristic
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000012216 screening Methods 0.000 claims abstract description 7
- 238000012545 processing Methods 0.000 claims abstract description 4
- 239000013598 vector Substances 0.000 claims description 33
- 238000004364 calculation method Methods 0.000 claims description 20
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000013519 translation Methods 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 5
- 230000005484 gravity Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 abstract description 9
- 238000005516 engineering process Methods 0.000 description 5
- 238000002360 preparation method Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种基于分支定界的多视点三维点云数据的粗配准方法,包括:第一步:对待配准的三维点云数据特征点进行提取并得到点集;第二步:将第一步中得到的点集进行处理初步获取三维点云数据中的匹配点;第三步:将第二步中初步获得的匹配点集作为输入数据,进行特征点的进一步筛选,精确获取三维点云数据中匹配点;第四步:将第三步中得到的精确匹配点集作为输入数据,进行相机位姿参数估计,借此,本发明与现存的三维点云数据配准方法相比,本发明的方法使用的切比雪夫距离更加严格,具备速度快,准确率高的特点,能够更加快速、更加准确的进行粗配准,使得后续的精确配准过程更加节省计算资源和时间。
Description
技术领域
本发明属于三维点云数据配准技术领域,特别涉及一种基于分支定界的多视点三维点云数据的粗配准方法。
背景技术
目前,三维重建技术在AR/VR、机器人导航、数字图书馆/博物馆建设和无人自动驾驶等领域中有较为广泛的应用场景,当前的技术背景下,多视点的三维重建成为研究的热点和应用的热点之一,三维点云数据的配准技术是其中的重要环节。三维点云数据的配准技术的重要性主要展现在以下的几个方面:
首先,点云数据的配准环节是三维重建过程中的重要流程。从整个重建过程来看,三维点云数据的配准步骤之前是三维点云数据的获取过程,三维点云数据的配准步骤之后是三维点云数据的融合过程。
其次,当前的三维重建过程大多数是基于多个深度传感器采集二维图像信息,多个深度传感器处于不同的坐标系之下,这使得必须获得精准的坐标变换关系才能实现精准的三维点云数据融合,三维点云数据成为精准的呈现三维重建模型的关键之处。
最后,除了在三维重建技术领域的广阔应用场景之外,三维点云数据配准技术也是增强现实和机器人SLAM算法的核心关键技术。
从三维点云数据配准过程来看,可以分为粗配准和精配准两类方法,粗配准往往是精配准的准备和预处理步骤,首先经过粗配准步骤的预处理可以将两片不同视点的三维点云数据大致配准,为精配准做准备,节省精配准步骤使用的计算资源,提升整个三维重建过程的实时效率。
因此,三维点云数据粗配准技术的研究有重要的实际意义和理论价值。
发明内容
本发明提出一种基于分支定界的多视点三维点云数据的粗配准方法,实现将两片不同视点的三维点云数据进行大致配准的过程。
本发明的技术方案是这样实现的:一种基于分支定界的多视点三维点云数据的粗配准方法,包括:
第一步:对待配准的三维点云数据特征点进行提取并得到点集;
第二步:将第一步中得到的点集进行处理初步获取三维点云数据中的匹配点;
第三步:将第二步中初步获得的匹配点集作为输入数据,进行特征点的进一步筛选,精确获取三维点云数据中匹配点;
第四步:将第三步中得到的精确匹配点集作为输入数据,进行相机位姿参数估计。
作为一种优选的实施方式,所述第一步中输入两片待配准三维点云数据并计算三维点云数据中每个点的K-邻域内的每个点到其切平面的距离,将此距离大于预先设定阈值的点保留,将此距离小于预先设定阈值的点剔除,得到的点集将作为第二步的输入数据,用于计算特征量,提取匹配点。
作为一种优选的实施方式,特征点提取步骤中具体的操作方式如下:对于待配准的两片点云,如果对整个点云搜索匹配点对,将会消耗大量的时间,同时也会出现大量错误匹配点对,为了快速精确的配准,需要对点云进行预处理,获得特征点集。通过对点的切平面观察很容易发现,如果点云局部区域邻域点集到切平面的距离较小时,说明该区域比较平坦,特征性不明显;相反,如果邻域点集到切平面的距离较大则表明该区域起伏变化较大,特征性较为明显,根据以上观察,定义三维点云数据中某一点Pi处其K-邻域内点到该点切平面的平均距离即特征距离gi作为判定点Pi是否为特征点的依据,计算公式为:
其中,dij指点Pi邻域某点到Pi点切平面的距离,gi为点Pi的邻域点到点切平面的平均距离,根据该定义,特征距离越大的点表示该区域起伏变化大,选择阈值σ1,去掉点三维点云数据中平坦的点,保留gi>σ1三维点云数据的点,对于保留的点中任意一个点Pn,若满足,
g(Pn)=max[g(Pn1),g(Pn2),...,g(Pnk)]
则将Pn作为特征点,其中g(Pn1),g(Pn2),...,g(Pnk)为点Pn的K-邻近点的特征距离,假设两片三维点云数据分别为P和Q,其中P为目标点集,Q为参考点集,分别对两片三维点云数据进行特征提取,得到P的特征点集为Pt={Pt1,Pt2,...,Ptm},Q的特征点集为Qt={Qt1,Qt2,...,Qtn},其中m和n分别为P和Q的特征点个数。
作为一种优选的实施方式,所述第二步中获取三维点云数据中匹配点步骤包括:①分别计算两片点云中每个点的四种特征量;②根据特征量相同或相似的原则获得匹配点集。在第二步中将获得第一步中得到的特征点提取后的点集作为第二步输入数据,在第二步中将对第一步中得出点集中的每个点计算如下的4种特征描述算子,根据求解的4种特征描述算子,计算得出特征向量点集,本发明选择四种基本几何特征作为特征描述算子,初步搜索特征点集中的匹配点对。采用多种几何特征信息不仅可以更加细致精确的描述邻域特征信息,同时也可以避免大量错误匹配点对的出现,以目标点集为例,四种几何特征描述如下:
作为一种优选的实施方式,第一种所述特征量是点集Pt中每个点Pti的K-邻近点的特征距离,计算公式如下:
f1(Pti)=g(Pti);
第二种特征量是根据点集Pt中的每一个点Pti,计算的该点的K-邻近点重心O(Pti),以该点与其K邻近点重心O(Pti)之间的距离值,计算公式如下:
f2(Pti)=Pti-O(Pti);p
第三种特征量是根据点集Pt中的每一个点,计算的该点法向量的变化程度,即该点法向量与K-邻近点法向量之间夹角余弦的几何平均值,计算公式如下:
第四种特征量是根据点集Pt中的每一个点,以该点法向量ni和该点与其K-邻近点重心之间连线的夹角余弦值,计算公式如下:
f4(Pti)=cos<ni,[O(Pti)-Pti]>
通过上述四种特征量的求解得到Pti和Qti的特征向量,分别得到Pt和Qt的特征向量点集L1和L2。
作为一种优选的实施方式,所述根据特征量相同或相似的原则获得匹配点集的方式如下:对于点集Pt中的每一个点,在点集Qt中搜索匹配点,若Pti和Qti是一对匹配点,则他们应该具备相同或者起码相似的几何特征,因此特征向量也应当相同或者相似;在初步获取匹配特征点集步骤中应当以特征向量空间切比雪夫距离为比较准则,同时满足以下条件时可以认为是初步匹配点:
上述四个条件中的σi参数均设置为0.01,根据上述条件可以获得初步的特征匹配点集。由于两片点云中可能存在多个特征相似区域,为了避免出现大量的错误匹配点对,综合多种特征对应关系寻找匹配点,选取合理的阈值建立初步匹配点集并记为:
W={(mi1,mi2)|mi1∈Pt,mi2∈Qt,i=1,2,3,...,N}。
作为一种优选的实施方式,在第三步中,将使用第二步中初步获得的匹配点集作为输入数据,进行特征点的进一步筛选,在如下的筛选之后,将精确获得点云中的匹配点,作为输出,进而计算相机的外部参数,所述第三步中精确获取三维点云数据中匹配点的操作方式如下:设定一个新的阈值σ6=0.01,对第二步中获得的每一个匹配点对(mi1,mi2)∈W计算W中符合距离约束条件的点对数量Nm,若W中的一个点对满足:
则认为该点是符合条件的点对,若W中的大部分点对都符合条件,那么(mi1,mi2)是一个正确的点对,否则是错误的,应当剔除出去,设定另一个阈值σ7=0.8,如果点对(mi1,mi2)计算的Nm满足:
Nm≥σ7*N
可以认为是正确的匹配点对,否则认为是错误的将点对剔除出点集,得到最终的匹配点集:
W={(mi1,mi2)|mi1∈Pt,mi2∈Qt,i=1,2,3,...,N}
其中,N‘是剔除了错误匹配点对之后的匹配点对数目。
作为一种优选的实施方式,所述第四步中使用第三步中得出的精确匹配点集作为输入数据粗略的计算相机位姿参数矩阵,得出旋转矩阵和平移向量参数。
作为一种优选的实施方式,所述相机位姿初始参数的计算采用四元数法,所述相机旋转矩阵和平移向量的计算方式为:根据第三步中的结果将目标三维点云数据中的点mi1点通过旋转和平移变换后得到的点记为m′i1。
采用了上述技术方案后,本发明的有益效果是:
与现存的三维点云数据配准方法相比,本发明的方法使用的切比雪夫距离更加严格,具备速度快,准确率高的特点,在粗配准方法的应用中,能够更加快速,更加准确的进行粗配准,使得后续的精确配准过程更加节省计算资源和时间。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,一种基于分支定界的多视点三维点云数据的粗配准方法,包括:
第一步:对待配准的三维点云数据特征点进行提取并得到点集;
第二步:将第一步中得到的点集进行处理初步获取三维点云数据中的匹配点;
第三步:将第二步中初步获得的匹配点集作为输入数据,进行特征点的进一步筛选,精确获取三维点云数据中匹配点;
第四步:将第三步中得到的精确匹配点集作为输入数据,进行相机位姿参数估计。
所述第一步中输入两片待配准三维点云数据并计算三维点云数据中每个点的K-邻域内的每个点到其切平面的距离,将此距离大于预先设定阈值的点保留,将此距离小于预先设定阈值的点剔除,得到的点集将作为第二步的输入数据,用于计算特征量,提取匹配点。
特征点提取步骤中具体的操作方式如下:对于待配准的两片点云,如果对整个点云搜索匹配点对,将会消耗大量的时间,同时也会出现大量错误匹配点对,为了快速精确的配准,需要对点云进行预处理,获得特征点集。通过对点的切平面观察很容易发现,如果点云局部区域邻域点集到切平面的距离较小时,说明该区域比较平坦,特征性不明显;相反,如果邻域点集到切平面的距离较大则表明该区域起伏变化较大,特征性较为明显,根据以上观察,定义三维点云数据中某一点Pi处其K-邻域内点到该点切平面的平均距离即特征距离gi作为判定点Pi是否为特征点的依据,计算公式为:
其中,dij指点Pi邻域某点到Pi点切平面的距离,gi为点Pi的邻域点到点切平面的平均距离,根据该定义,特征距离越大的点表示该区域起伏变化大,选择阈值σ1,去掉点三维点云数据中平坦的点,保留gi>σ1三维点云数据的点,对于保留的点中任意一个点Pn,若满足,
g(Pn)=max[g(Pn1),g(Pn2),...,g(Pnk)]
则将Pn作为特征点,其中g(Pn1),g(Pn2),...,g(Pnk)为点Pn的K-邻近点的特征距离,假设两片三维点云数据分别为P和Q,其中P为目标点集,Q为参考点集,分别对两片三维点云数据进行特征提取,得到P的特征点集为Pt=(Pt1,Pt2,...,Ptm},Q的特征点集为Qt={Qt1,Qt2,…,Qtn},其中m和n分别为P和Q的特征点个数。
所述第二步中获取三维点云数据中匹配点步骤包括:①分别计算两片点云中每个点的四种特征量;②根据特征量相同或相似的原则获得匹配点集。在第二步中将获得第一步中得到的特征点提取后的点集作为第二步输入数据,在第二步中将对第一步中得出点集中的每个点计算如下的4种特征描述算子,根据求解的4种特征描述算子,计算得出特征向量点集,本发明选择四种基本几何特征作为特征描述算子,初步搜索特征点集中的匹配点对。采用多种几何特征信息不仅可以更加细致精确的描述邻域特征信息,同时也可以避免大量错误匹配点对的出现,以目标点集为例,四种几何特征描述如下:
,第一种所述特征量是点集Pt中每个点Pti的K-邻近点的特征距离,计算公式如下:
f1(Pti)=g(Pti);
第二种特征量是根据点集Pt中的每一个点Pti,计算的该点的K-邻近点重心O(Pti),以该点与其K邻近点重心O(Pti)之间的距离值,计算公式如下:
f2(Pti)=Pti-O(Pti);p
第三种特征量是根据点集Pt中的每一个点,计算的该点法向量的变化程度,即该点法向量与K-邻近点法向量之间夹角余弦的几何平均值,计算公式如下:
第四种特征量是根据点集Pt中的每一个点,以该点法向量ni和该点与其K-邻近点重心之间连线的夹角余弦值,计算公式如下:
f4(Pti)=cos<ni,[O(Pti)-Pti]>
通过上述四种特征量的求解得到Pti和Qti的特征向量,分别得到Pt和Qt的特征向量点集L1和L2。
所述根据特征量相同或相似的原则获得匹配点集的方式如下:对于点集Pt中的每一个点,在点集Qt中搜索匹配点,若Pti和Qti是一对匹配点,则他们应该具备相同或者起码相似的几何特征,因此特征向量也应当相同或者相似;在初步获取匹配特征点集步骤中应当以特征向量空间切比雪夫距离为比较准则,同时满足以下条件时可以认为是初步匹配点:
上述四个条件中的σi参数均设置为0.01,根据上述条件可以获得初步的特征匹配点集。由于两片点云中可能存在多个特征相似区域,为了避免出现大量的错误匹配点对,综合多种特征对应关系寻找匹配点,选取合理的阈值建立初步匹配点集并记为:
W={(mi1,mi2)|mi1∈Pt,mi2∈Qt,i=1,2,3,...,N}。
在第三步中,将使用第二步中初步获得的匹配点集作为输入数据,进行特征点的进一步筛选,在如下的筛选之后,将精确获得点云中的匹配点,作为输出,进而计算相机的外部参数,所述第三步中精确获取三维点云数据中匹配点的操作方式如下:设定一个新的阈值σ6=0.01,对第二步中获得的每一个匹配点对(mi1,mi2)∈W计算W中符合距离约束条件的点对数量Nm,若W中的一个点对满足:
则认为该点是符合条件的点对,若W中的大部分点对都符合条件,那么(mi1,mi2)是一个正确的点对,否则是错误的,应当剔除出去,设定另一个阈值σ7=0.8,如果点对(mi1,mi2)计算的Nm满足:
Nm≥σ7*N
可以认为是正确的匹配点对,否则认为是错误的将点对剔除出点集,得到最终的匹配点集:
W={(mi1,mi2)|mi1∈Pt,mi2∈Qt,i=1,2,3,...,N}
其中,N‘是剔除了错误匹配点对之后的匹配点对数目。
所述第四步中使用第三步中得出的精确匹配点集作为输入数据粗略的计算相机位姿参数矩阵,得出旋转矩阵和平移向量参数。所述相机位姿初始参数的计算采用四元数法,所述相机旋转矩阵和平移向量的计算方式为:根据第三步中的结果将目标三维点云数据中的点mi1点通过旋转和平移变换后得到的点记为′i1:
m′i1=R*mi1+T。
本发明提出的特征算子:点集Pt中每个点Pti的K-邻近点的特征距离;特征量是根据点集Pt中的每一个点Pti,计算的该点的K-近点重心O(Pti),以该点与其K邻近点重心O(Pti)之间的距离值;根据点集Pt中的每一个点,计算的该点法向量的变化程度,即该点法向量与K-近点法向量之间夹角余弦的几何平均值;是根据点集Pt中的每一个点,以该点法向量ni和该点与其K-近点重心之间连线的夹角余弦值。
在本发明的描述中,需要理解的是,术语“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。在本发明的描述中,除非另有规定和限定,需要说明的是,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是机械连接或电连接,也可以是两个元件内部的连通,可以是直接相连,也可以通过中间媒介间接相连,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
以上仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于分支定界的多视点三维点云数据的粗配准方法,其特征在于,包括:
第一步:对待配准的三维点云数据特征点进行提取并得到点集;
第二步:将第一步中得到的点集进行处理初步获取三维点云数据中的匹配点;
第三步:将第二步中初步获得的匹配点集作为输入数据,进行特征点的进一步筛选,精确获取三维点云数据中匹配点;
第四步:将第三步中得到的精确匹配点集作为输入数据,进行相机位姿参数估计。
2.根据权利要求1所述的一种基于分支定界的多视点三维点云数据的粗配准方法,其特征在于,所述第一步中输入两片待配准三维点云数据并计算三维点云数据中每个点的K-邻域内的每个点到其切平面的距离,将此距离大于预先设定阈值的点保留,将此距离小于预先设定阈值的点剔除,得到点集。
3.根据权利要求2所述的一种基于分支定界的多视点三维点云数据的粗配准方法,其特征在于,定义三维点云数据中某一点Pi处其K-邻域内点到该点切平面的平均距离即特征距离gi作为判定点Pi是否为特征点的依据,计算公式为:
其中,dij指点Pi邻域某点到Pi点切平面的距离,gi为点Pi的邻域点到点切平面的平均距离,根据该定义,特征距离越大的点表示该区域起伏变化大,选择阈值σ1,去掉点三维点云数据中平坦的点,保留gi>σ1三维点云数据的点,对于保留的点中任意一个点Pn,若满足,
g(Pn)=max[g(Pn1),g(Pn2),...,g(Pnk)]
则将Pn作为特征点,其中g(Pn1),g(Pn2),...,g(Pnk)为点Pn的K-邻近点的特征距离,假设两片三维点云数据分别为P和Q,其中P为目标点集,Q为参考点集,分别对两片三维点云数据进行特征提取,得到P的特征点集为Pt={Pt1,Pt2,...,Ptm},Q的特征点集为Qt={Qt1,Qt2,...,Qtn},其中m和n分别为P和Q的特征点个数。
4.根据权利要求1所述的一种基于分支定界的多视点三维点云数据的粗配准方法,其特征在于,所述第二步中获取三维点云数据中匹配点步骤包括:①分别计算两片点云中每个点的四种特征量;②根据特征量相同或相似的原则获得匹配点集。
5.根据权利要求4所述的一种基于分支定界的多视点三维点云数据的粗配准方法,其特征在于,第一种所述特征量是点集Pt中每个点Pti的K-邻近点的特征距离,计算公式如下:
f1(Pti)=g(Pti);
第二种特征量是根据点集Pt中的每一个点Pti,计算的该点的K-邻近点重心O(Pti),以该点与其K邻近点重心O(Pti)之间的距离值,计算公式如下:
f2(Pti)=Pti-O(Pti);p
第三种特征量是根据点集Pt中的每一个点,计算的该点法向量的变化程度,即该点法向量与K-邻近点法向量之间夹角余弦的几何平均值,计算公式如下:
第四种特征量是根据点集Pt中的每一个点,以该点法向量ni和该点与其K-邻近点重心之间连线的夹角余弦值,计算公式如下:
f4(Pti)=cos<ni,[O(Pti)-Pti]>
通过上述四种特征量的求解得到Pti和Qti的特征向量,分别得到Pt和Qt的特征向量点集L1和L2。
7.根据权利要求1所述的一种基于分支定界的多视点三维点云数据的粗配准方法,其特征在于,所述第三步中精确获取三维点云数据中匹配点的操作方式如下:设定一个新的阈值σ6=0.01,对第二步中获得的每一个匹配点对(mi1,mi2)∈W计算W中符合距离约束条件的点对数量Nm,若W中的一个点对满足:
则认为该点是符合条件的点对,若W中的大部分点对都符合条件,那么(mi1,mi2)是一个正确的点对,否则是错误的,应当剔除出去,设定另一个阈值σ7=0.8,如果点对(mi1,mi2)计算的Nm满足:
Nm≥σ7*N
可以认为是正确的匹配点对,否则认为是错误的将点对剔除出点集,得到最终的匹配点集:
W={(mi1,mi2)|mi1∈Pt,mi2∈Qt,i=1,2,3,...,N‘}
其中,N‘是剔除了错误匹配点对之后的匹配点对数目。
8.根据权利要求1所述的一种基于分支定界的多视点三维点云数据的粗配准方法,其特征在于,所述第四步中使用第三步中得出的精确匹配点集作为输入数据粗略的计算相机位姿参数矩阵,得出旋转矩阵和平移向量参数。
9.根据权利要求1所述的一种基于分支定界的多视点三维点云数据的粗配准方法,其特征在于,所述相机位姿初始参数的计算采用四元数法,所述相机旋转矩阵和平移向量的计算方式为:根据第三步中的结果将目标三维点云数据中的点mi1点通过旋转和平移变换后得到的点记为m′i1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111364818.8A CN114037745A (zh) | 2021-11-17 | 2021-11-17 | 一种基于分支定界的多视点三维点云数据的粗配准方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111364818.8A CN114037745A (zh) | 2021-11-17 | 2021-11-17 | 一种基于分支定界的多视点三维点云数据的粗配准方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114037745A true CN114037745A (zh) | 2022-02-11 |
Family
ID=80144689
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111364818.8A Pending CN114037745A (zh) | 2021-11-17 | 2021-11-17 | 一种基于分支定界的多视点三维点云数据的粗配准方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114037745A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117495785A (zh) * | 2023-10-18 | 2024-02-02 | 深圳市沐沐计算机科技有限公司 | 一种基于点云数据的产品检测方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103236064A (zh) * | 2013-05-06 | 2013-08-07 | 东南大学 | 一种基于法向量的点云自动配准方法 |
CN110473239A (zh) * | 2019-08-08 | 2019-11-19 | 刘秀萍 | 一种三维激光扫描的高精度点云配准方法 |
CN111145232A (zh) * | 2019-12-17 | 2020-05-12 | 东南大学 | 一种基于特征信息变化度的三维点云自动配准方法 |
-
2021
- 2021-11-17 CN CN202111364818.8A patent/CN114037745A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103236064A (zh) * | 2013-05-06 | 2013-08-07 | 东南大学 | 一种基于法向量的点云自动配准方法 |
CN110473239A (zh) * | 2019-08-08 | 2019-11-19 | 刘秀萍 | 一种三维激光扫描的高精度点云配准方法 |
CN111145232A (zh) * | 2019-12-17 | 2020-05-12 | 东南大学 | 一种基于特征信息变化度的三维点云自动配准方法 |
Non-Patent Citations (1)
Title |
---|
马山庄: "一种基于特征提取和匹配的点云自动配准算法", 《科技创新与应用》, no. 25, 31 December 2016 (2016-12-31), pages 21 - 22 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117495785A (zh) * | 2023-10-18 | 2024-02-02 | 深圳市沐沐计算机科技有限公司 | 一种基于点云数据的产品检测方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108615246B (zh) | 提高视觉里程计系统鲁棒性和降低算法计算消耗的方法 | |
EP2385496A1 (en) | Extraction of 2D surfaces from a 3D point cloud | |
CN108776989B (zh) | 基于稀疏slam框架的低纹理平面场景重建方法 | |
CN106203342A (zh) | 基于多角度局部特征匹配的目标识别方法 | |
CN106530333B (zh) | 基于捆绑约束的分级优化立体匹配方法 | |
CN107818598B (zh) | 一种基于视觉矫正的三维点云地图融合方法 | |
CN112419497A (zh) | 基于单目视觉的特征法与直接法相融合的slam方法 | |
CN113140036A (zh) | 一种三维建模方法、装置、设备及存储介质 | |
CN116449384A (zh) | 基于固态激光雷达的雷达惯性紧耦合定位建图方法 | |
CN109961461B (zh) | 一种基于三维分层图模型的多运动目标跟踪方法 | |
Xu et al. | High-speed stereo matching algorithm for ultra-high resolution binocular image | |
CN113052880A (zh) | 一种sfm稀疏重建方法、系统及应用 | |
CN114037745A (zh) | 一种基于分支定界的多视点三维点云数据的粗配准方法 | |
CN113052954A (zh) | 基于线段匹配的三维重建方法、装置、终端及存储介质 | |
CN111325828A (zh) | 一种基于三目相机的三维人脸采集方法及装置 | |
CN107730543B (zh) | 一种半稠密立体匹配的快速迭代计算方法 | |
CN107122782B (zh) | 一种均衡的半密集立体匹配方法 | |
CN115965961B (zh) | 局部到全局的多模态融合方法、系统、设备及存储介质 | |
CN112489097A (zh) | 基于混合2d卷积和伪3d卷积的立体匹配方法 | |
Lu et al. | Depth-based view synthesis using pixel-level image inpainting | |
CN115423854B (zh) | 一种基于多尺度特征提取的多视角点云配准及点云融合方法 | |
CN115359193B (zh) | 一种基于双目鱼眼相机的快速半稠密三维重建方法 | |
CN114463396B (zh) | 一种利用平面形状和拓扑图投票的点云配准方法 | |
CN113850293B (zh) | 基于多源数据和方向先验联合优化的定位方法 | |
CN110942102A (zh) | 一种概率松弛核线匹配方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |