CN1684105A - 大规模三维场景多视点激光扫描数据自动配准方法 - Google Patents
大规模三维场景多视点激光扫描数据自动配准方法 Download PDFInfo
- Publication number
- CN1684105A CN1684105A CN 200410031157 CN200410031157A CN1684105A CN 1684105 A CN1684105 A CN 1684105A CN 200410031157 CN200410031157 CN 200410031157 CN 200410031157 A CN200410031157 A CN 200410031157A CN 1684105 A CN1684105 A CN 1684105A
- Authority
- CN
- China
- Prior art keywords
- point
- registration
- viewpoint
- data
- laser
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 239000013598 vector Substances 0.000 claims description 21
- 238000005070 sampling Methods 0.000 claims description 14
- 238000006243 chemical reaction Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 10
- 230000003044 adaptive effect Effects 0.000 claims description 9
- 238000005267 amalgamation Methods 0.000 claims description 8
- 241000209094 Oryza Species 0.000 claims description 7
- 235000007164 Oryza sativa Nutrition 0.000 claims description 7
- 235000009566 rice Nutrition 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 6
- 230000008676 import Effects 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000003825 pressing Methods 0.000 claims description 3
- 238000002310 reflectometry Methods 0.000 claims description 3
- 238000000926 separation method Methods 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 5
- 238000009826 distribution Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000000903 blocking effect Effects 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000013332 literature search Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000013011 mating Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010189 synthetic method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及的大规模三维场景多视点激光扫描数据自动配准方法,其步骤包括:获取数据,在被测场景前放置激光测距仪,调节激光测距仪使其Z轴垂直地面,X和Y轴平行于地面;对被测场景进行逐行逐列扫描,获得每一个视点的三维数据;相邻视点扫描数据要求保持10%~20%的重叠;提取被测物结构并对其数据进行特征提取;计算虚拟特征与构建特征单元,并进行粗配准精配准和全局配准,最后建立配准模型本发明可不借助任何外协设备和人工参与的方法,可解决大规模三维场景多视点激光扫描数据自动配准;具有普遍适用性,即适用于现代结构的场景又适用于复杂的大兴文物和古建。
Description
技术领域
本发明属于计算机信息处理领域的三维数据配准方法,特别涉及一种大规模三维场景多视点激光扫描数据自动配准方法。
背景技术
三维数据配准是数字化和反求工程的关键技术。特别是随着中远距离三维激光扫描技术的出现,简化了三维数据获取过程,促进了数字城市、数字导航、虚拟现实、城市规划、文物数字化保护等相关领域的发展,基于地面的三维激光扫描数据备受重视。为了获得大规模三维场景完整几何描述,需要在几十个甚至几百个视点位置采集激光三维扫描数据,故而存在将不同视点的激光三维扫描数据转换在同一坐标系的配准问题。
传统的多视点三维数据配准的研究多针对单一物体,最有代表性的是最近点迭代算法,即ICP算法该方法通过迭代在两视点激光扫描点集内寻找对应点,计算两视点的位置关系。不足之处在于需人工设定初始转换估计,易陷入局部最小,迭代时间长,不适合大规模配准。对于大规模场景常用配准方法有两种:靶标控制点法和GPS等外协设备法。靶标控制点法要求在相邻视点重叠区域摆放靶标,利用激光对靶标特殊的反射特性自动寻找靶标控制点,只要相邻视点的激光扫描数据中有三个以上的同名控制点,即可求出相邻视点的坐标转换关系。如果场景中存在与靶标具有相同反射特性的物质,会误识靶标,配准失败,靶标控制点法需要大量人工干预,且有些环境无法放置靶标。GPS等外协设备法主要是借助外协设备获得激光扫描仪在各视点的位姿参数,不但设备价格昂贵,而且位姿参数精度不高,配准结果与实际情况有差异。因此,急需一种不借助任何外协设备直接将各视点的三维激光扫描数据无缝拼合在同一坐标系的自动大规模三维场景多视点三维数据配准方法。经文献检索分析,发现I.Stamos在2003年发表的名为“基于特征的城市大规模场景距离数据自动配准(AutomatedFeature-Based Range Registration of Urban Scenes of Large Scale)”的文章中提出了采用特征直线实现相邻视点三维激光数据自动配准方法,并称直线特征减少了几何复杂性,适合大规模配准。该方法不足之处在于只采用线性特征不具有普遍性,对于线性特征较少的大型文物、古建等三维场景配准常常失败。此外,没能解决因遮挡等实际因素影响重叠区域缺乏有效线性特征的配准问题。
上述方法意在解决有重叠区域的两视点三维数据配准,至于几十个甚至几百个视点,必需采取有效的配准策略方可将其三维数据无锋拼合在同一坐标系。常用的配准策略有序列配准和同步配准。序列配准指一对视点配准后,另一对视点开始配准,且须包含前一对视点中的一个视点,环环相扣直到遍历所有视点为止。序列配准策略的优点在于同一时间只有一对视点参加配准,占用内存少;缺点在于存在较大的累积误差,特别是闭环形场景,首末视点间出现缝隙。同步配准则是所有视点同时配准,不会出现累积误差,配准精度高,但计算量大,对计算设备要求高。序列配准和同步配准均不适合大规模场景。
发明内容
本发明的目的是提供一种不借助任何外借设备直接将大规模三维场景多视点激光扫描数据自动无缝拼合在同一坐标系的配准方法。
本发明的技术方案如下:
本发明提供的大规模三维场景多视点激光扫描数据自动配准方法,包括如下步骤:
1)数据获取
由于大规模场景尤其室外场景,不仅包含主要建筑结构,而且含有树木、行人车辆等遮挡物,以及激光穿过透明物体形成的散乱点。遮挡物位于三维激光扫描仪与主要建筑结构之间,而激光穿过透明物体形成散乱点位于主要建筑结构之后。在测量时,在被测场景前放置激光测距仪,调整三维激光扫描仪,使其Z轴垂直地面,X和Y轴与地面平行;对被测场景进行逐行逐列扫描,获得每一个视点的三维数据;相邻视点扫描数据保持10%~20%的重叠;
2)提取主要建筑结构
输入每一视点对应的激光三维扫描数据,计算各垂直扫描线上采样点与激光测距仪的水平距离,并根据水平距离,利用哈夫变换检测垂直线段;以其所含的点数计算垂直线的长度,并选择最长垂直线段对应的水平距离为基准,基准之前δ1米和基准之后δ2米范围内的数据点为主要建筑结构;所述δ1为1米,δ2为0.5米;
因为激光测距仪对场景是逐行逐列采样,对于每一垂直扫描线,其上属于同一垂直面的点到激光测距仪的水平距离相等,且主要建筑结构一般与地面垂直本发明逐一分析每一垂直扫描线,根据采样点到激光测距仪的水平距离,采用统计分布的方法确定主要建筑结构的区域范围,将主要建筑结构提取出来;
3)对保留的主要建筑结构的数据点进行特征提取
三维特征反映了场景内在的结构特征,简化了场景的几何复杂度,是多视点三维数据配准的有效基元。本发明首先采用加权局部曲线拟合分别处理水平扫描线和垂直扫描线,计算扫描线各点的一次微分;接着根据点的上下两邻域点的微分符号和点与其上下两邻域点的距离检测场景边缘点;然后利用链码跟踪技术形成不同的边缘链,并将同一边缘链的点拟合成首尾相连的一组线段,称为特征线段。相邻特征线段的交点为特征点;
a)扫描线上各点微分
对于每条扫描线上的采样点用(1)式进行局部二次拟合,并以该点沿扫描线方向上下k个邻近点为拟合区间[-K,K],K为3-5;
式中:i-扫描线上采样点排序,i=0,1,…,n;
第i点到激光测距仪的计算水平距离;
a0,a1,a2-拟合方程(1)式的拟合系数;
采用自适应加权拟合方法,求取拟合系数a0,a1,a2,且加权拟合误差函数为
式中:d(i)-第i点到激光测距仪的实际水平距离;
w(i)-扫描线上第i点的权值,代表点的可靠性;采用迭代权值修正法,逐步消除局部点的影响,使拟合仅在可靠点内进行;具体方法如下:假设已知第m次迭代中系数为a0 m,a1 m,a2 m,求第k+1次迭代中系数为a0 m+1,a1 m+1,a2 m+1;首先计算第m次迭代的拟合残余量和第m次迭代的权值;
式中:bs-误差允许阈值;
初始权值w0(i)=1,用(3)、(4)、(5)式不断修正拟合系数和权值,直至拟合曲线满足误差要求且包含最多点数为止;标记参与拟合的点;
然后,利用(1)式计算扫描线上有标记各点的一次微分;
b)检测边缘点
对于扫描线上有标记的各点,考察其沿扫描线方向上下有标记两点的一次微分符号,选择异号的点为法向不连续点,并标记为0;
对于扫描线上有标记的各点,计算其与沿扫描线方向上下有标记两点距离,考察其中最大距离,选择最大距离大于阈值ε为深度不连续点,并标记为1;
c)特征点线提取
首先采用链码跟踪方法将边缘点区分成不同的边缘链,并将每一边缘链上的点按顺时针排序,然后通过分裂合并的方法将每一边缘链拟合成一组首尾相接的特征线段,具体方法如下:
·初始化
将边缘链分为等长的若干段L0,L1,…,Ln
·分裂
利用最小二乘法对当前每一段Li拟合成直线选择离该拟合直线最远且最小残差Ei大于允许阈值T的一点为基准,将本段边缘链断开为两段,并不断分裂至满足拟合误差为止;依次处理其它各段;
·合并
选择拟合残差小于阈值T的相邻两段合并成一段为特征线段,特征线段的端点为特征点;
4)计算虚特征与构造特征单元
特征线对应场景的边缘信息,特征点对应场景的角点或尖点,它们构成了场景基本结构框架。然而,由于真实场景不可避免地存在遮挡现象,如果遮挡严重,在两视点的重叠区内缺乏有效特征,导致配准失败。本发明提出虚特征概念,将实际不相交的特征线段延长相交形成虚特征线段和虚特征点,并加入上述提取的特征线段和特征点中,虚特征说明了特征之间的几何位置关系;
本发明将特征点连同其相邻的两特征线段嵌套成特征单元PU{P|L1,L2:<n1,n2,n3,p>}。特征单元包含丰富的几何信息,即三个方向矢量和一个位置矢量:两个特征线段L1和L2的方向矢量(n1,n2),矢量方向由特征点指向线段,第三个矢量为前两矢量的合成矢量,反映了相邻两特征线段构成平面的法向n3=n1×n2,×为矢量叉乘位置矢量为特征点p;
5)配准
局部配准指带有重叠区域的相邻视点两两配准。本发明采用由粗到精的配准方式,使两视点数据完全融合;
先进行粗配准:利用特征单元将两视点的三维数据自动拼合在同一坐标系一对特征单元便可构造一个空间转换关系:从对应的特征线的方向及其合成法向计算旋转矩阵;从对应的特征点对计算平移向量。给定一对分别属于视点S1和视点S2的特征单元PU{P|L1,L2:<n1,n2,n3,p>}∈ S1和PU′{P′|L1′,L2′:<n1′,n2′,n3′,p′>}∈S2,旋转矩阵由ni和ni′(i=1,2,3)计算,即使下式误差函数最小,并采用四元素法求出旋转矩阵;
设p和p′在各自局部坐标系的坐标为(x,y,z)与(x′,y′,z′),计算向量;
遍历所有特征单元构造N个候选转换估计,采用匹配程度确定出最佳配准转换估计。匹配程度以得到匹配的特征单元数目计算。特征单元匹配的约束条件如下:
·位置约束
p′是视点S2中与视点S1中p点最近的特征点,且p和p′间的距离小于阈值Δ1;
·方向约束
Li与Li′两线段所在直线间的距离和方向夹角分别小于Δ2和Δ3;
再进行精配准:经过粗配准之后,带有重叠区域的两视点的三维数据基本拼合在同一坐标系内,只在某些细节部分配准质量稍差些,需进一步精配准。具体方法:1)在粗配准的基础上,确定重叠区。2)将重叠区划分成N块,每块含u×v个点。3)计算每块对应点的平均差异,找出差异较大的M块作为适配区。在适配区内利用ICP算法进行精配准,可大大减少运算时间。4)利用了激光采样点的激光反射率和点位信息,结合马氏距离寻找对应点。
对于视点超过2个以上的多视点三维场景,所述步骤还包括全局配准:
全局配准指将所有视点三维数据拼合在同一坐标系的策略。首先所有视点两两配准,计算匹配程度;再以视点为结点,以匹配程度为连结权,生成无向带权图;然后利用最小生成树原则建立全局配准模型图。由全局配准模型图确定一个固定视点Sa,并使其它视点的数据向其转化。其中建立全局配准模型的具体方法如下:
设第i对有重叠区的两视点计算出的转换矩阵为Ti=[Ri,ti]和对应的局部匹配程度为g(Ti);以视点为结点,以g(Ti)为结点连接权重,生成一个包含所有视点在内的无向带权连通图G=<V,E>,V为结点,E为边,且ei=g(Ti)∈E,并采用逐步短接法求出最小生成树,建立全局配准模型。
本发明的技术效果为:
本发明不借助任何外协设备和人工参与的方法,解决了大规模三维场景多视点激光扫描数据自动配准。其优势在于:1)构造特征单元,描述了不同特征之间的关系,简化了几何复杂性,更适于大规模配准。2)引入虚特征解决了因遮挡等因素影响相邻视点重叠区缺少有效特征的配准问题。3)采用最小生成树原则建立了全局配准模型图,配准精度可靠。4)本发明提供的方法具有普遍适用性,既适用于现代结构的场景又适用于复杂的大型文物和古建。
附图说明
图1为本发明对场景被测物进行激光扫描的示意图;
图2(a)为垂直扫描面内激光采样点分布情况;
图2(b)为垂直扫描面内激光采样点按水平投影值的统计情况;
图3(a)和3(b)为主要建筑结构提取的实例;
图4(a)、4(b)、4(c)、4(d)和4(e)为在遮挡严重情况下两视点三维数据配准实例;
图5为全局配准模型生成过程;
图6(a)、6(b)为全局配准实例;
具体实施方式
以下结合附图及具体的实施例对本发明的技术方案作进一步描述:
本发明要求输入的是中远距离的三维激光测距仪获取的激光扫描数据。三维激光测距仪的作用距离一般大于200m,沿激光束方向测量精度是5cm/200m。本发明的具体实施步骤如下:
实施例1
1)数据获取
激光测距仪放在被测场景前20-50米,调节测距仪使Z轴垂直地面,X和Y轴平行于地面,对被测场景进行逐行逐列扫描(如图1),获得对应视点的三维数据。另外,相邻视点扫描数据保持10%~20%的重叠,以便使各视点三维数据顺利配准。
2)提取主要建筑结构
输入每一视点对应的激光扫描数据,计算各垂直扫描面各点与激光测距仪的水平距离,并根据水平距离,利用哈夫变换检测垂直线段【如图2(a)和图2(b)】,以其所含的点数计算垂直线的长度,选择最长垂直线段对应的水平距离为基准dmi,基准之前δ1米和基准之后δ2米范围内的数据为主要建筑结构保留。图2(a)某一垂直扫描面激光采样点的分布图,由图可以看出,保留区段内为主要建筑结构,其保留区段之前和之后的景物和散乱点删去;图2(b)为图2(a)中该垂直扫描面激光采样点水平距离统计分布示意图,由图可以看出,主要建筑墙面上的点在同一垂直线上,即水平距离相等。
本实施例δ1=1.0m,δ2=0.5m可提取主要建筑结构,图3(a)和3(b)为主要建筑结构提取实例。图3(a)为对被测物进行逐行逐列激光扫描的全景实测图,其中A为主要建筑结构(墙面),B为地面,C为主要建筑结构的遮挡物;图3(b)为使用上述方法提取主要建筑结构的结果图,图中A为提取出的主要建筑结构(墙面)。
3)特征提取
a)计算扫描线上各点的一次微分
对于每条扫描线上采样点用(1)式进行局部二次拟合,并以该点沿扫描线方向上下k个邻近点为拟合区间[-k,k],K为3-5;本实施例k=3(当然K也可为4或5;可根据扫描点密度而定,至于究竟应该取多少,属本技术领域技术人员应知应会);
式中:i-扫描线上采样点排序,i=0,1,…,n;
a0,a1,a2-拟合方程(1)式的拟合系数
传统的方法根据(2)式的拟合误差函数E(i),利用最小二乘法计算拟合系数a0,a1,a2。
式中:d(i)-第i点到激光测距仪的实际水平距离;
但最小二乘法对不连续点和局外点不敏感,故采用自适应加权曲线拟合方法求取拟合系数a0,a1,a2,式(3)为加权拟合误差函数。
式中:w(i)-扫描线上第i点的权值,代表点的可靠性。采用迭代权值修正法,逐步消除局部点的影响,使拟合仅在可靠点内进行。具体方法如下:
假设已知第m次迭代中拟合系数为a0 m,a1 m,a2 m,求第k+1次迭代中拟合系数a0 m+1,a1 m+1,a2 m+1。首先计算第m次迭代的拟合残余量和第m次迭代的权值
式中:bs-误差允许阈值
初始权值w0(i)=1,利用(3)、(4)、(5)式不断修正拟合系数和权值,至拟合曲线满足误差要求且包含最多点数为止。标记参与拟合的点。
然后,利用(1)式计算扫描线上有标记各点的一次微分。
b)检测边缘点
对于扫描线上任意一个有标记的点p,及其上下有标记的邻域点(p1和p2),检测邻域点(p1和p2)一次微分的符号,若异号则p点为法向不连续,并标记为0。
计算p与p1和p2的距离,如果dis=max(dis(p,p1),dis(p,p2)>ε(ε为阈值),则p点为深度不连续,标记为l。
c)特征点线提取
首先采用链码跟踪方法将边缘点区分成不同的边缘链,并将每一边缘链上的点按顺时针排序,然后通过分裂合并的方法将每一边缘链拟合成一组首尾相接的特征线段,具体方法如下:
·初始化
将边缘链分为等长的若干段L0,L1,…,Ln
·分裂
利用最小二乘法对当前每一段Li拟合成直线。选择离该拟合直线最远且最小残差Ei大于允许阈值T的一点为基准,将本段边缘链断开为两段,并不断分裂至满足拟合误差为止。依次处理其它各段。
·合并
选择拟合残差小于阈值T的相邻两段合并成一段为特征线段,特征线段的端点为特征点。
4)计算虚特征与构造特征单元
选择实际不相交的特征线段延长相交形成虚特征线段和虚特征点加入上述提取的特征线段和特征点中。将特征点连同其相邻的两特征线段嵌套成特征单元PU{P|L1,L2:<n1,n2,n3,p>}。n1和n2为特征线段L1和L2的方向矢量,n3=n1×n2为前两矢量合成的第三矢量,×为矢量叉乘p为特征点。
5)配准
a)粗配准:给定一对分别属于两视点S1和S2的特征单元PU{P|L1,L2:<n1,n2,n3,p>}∈S1和PU′{P′|L1′,L2′:<n1′,n2′,n3′,p′>}∈S2,那么旋转矩阵会由ni和ni′(i=1,2,3)得到,即使下式误差函数最小,并采用四元素法求出旋转矩阵。
设p和p′在各自局部坐标系的坐标为(x,y,z)与(x′,y′,z′),计算向量。
每对对应特征单元得到一个对应的配准转换估计,选择匹配程度最大的为最佳配准转换估计。特征单元匹配的约束条件如下:
·位置约束
p′是视点S2中与视点S1中p点最近的特征点,且p和p′间的距离小于阈值Δ1。
·方向约束
Li与Li′两线段所在直线间的距离和方向夹角分别小于Δ2和Δ3。
b)精配准:按粗配准获得的转换估计,将两视点的三维数据拼合在同一坐标系,确定出重叠区域。将两视点对应的重叠区分别等分成10块,计算每块内对应点的平均差异。选择差异最大的3块作为适配区。在适配区内利用ICP算法进行精配准为增加对应点搜索的鲁棒性,利用激光采样点的反射率和三维信息,以马氏距离衡量两点p∈S1和p′∈S2的差异,即
式中:d2(p,p′)-p和p′点的马氏距离;
Cp′-p′点及其k×k个邻域点的协方差,本实施例k=3。
图4(a)、4(b)、4(c)、4(d)和4(e)为招待所两视点三维数据配准结果;图4(a)为在S1视点获取的激光采样点云;图4(b)为在S2视点获取的激光采样点云;图4(c)和图4(d)为利用上述方法的粗配准结果,其中图4(c)没采用虚特征,图4(d)采用了虚特征;图4(e)为利用上述方法进行精配准的结果。
实施例2
为使用本发明的方法对学生餐厅进行大规模三维场景8个视点的激光扫描数据自动配准,其步骤1)-5)同实施例1,所不同的是:由于视点数目超过2个,需要进行全局配准:
首先所有(有重叠区)视点进行两两配准,利用最小生成树原则建立全局配准模型,然后根据全局配准模型选择一个视点Sa固定,其它视点的激光扫描数据转换在Sa所在的坐标系内。
具体地讲,每一对有重叠区的两视点都可计算出转换矩阵Ti=[Ri,ti]和局部匹配程度g(Ti)(以得到配准的点数计)。以各视点为结点,以g(Ti)为结点的连接权重,则会生成一个包含所有视点在内的无向带权连通图G=<V,E>,V为结点,E为边(权重),且ei=g(Ti)∈E。根据局部匹配程度g(Ti),在无向连通带权图G=<V,E>中,采用逐步短接法可求最小生成树,建立全局配准模型。
图5为其全局配准模型生成过程示意图,图中的结点1、2、3、4、5和6表示了6个视点;第1步,计算所有视点两两配准的局部匹配程度;第2步为将匹配程度最大化的两视点进行短接;第3-5步为将匹配程度次之的两视点进行短接,直至所有视点短接完成;第6步为将分枝最多的视点4固定为Sa。
图6(a)为本实施例《学生餐厅》8个视点全局配准结果图;图6(b)为图6(a)中窗户部位的局部放大图。
Claims (2)
1一种大规模三维场景多视点激光扫描数据自动配准方法,包括如下步骤:
1)获取数据
在被测场景前放置激光测距仪,调节激光测距仪使其Z轴垂直地面,X和Y轴平行于地面,对被测场景进行逐行逐列扫描,获得每一个视点的三维数据;相邻视点扫描数据保持10%~20%的重叠;
2)提取主要建筑结构
输入每一视点对应的激光三维扫描数据,计算各垂直扫描线上采样点与激光测距仪的水平距离,并根据水平距离,利用哈夫变换检测垂直线段;以其所含的点数计算垂直线的长度,并选择最长垂直线段对应的水平距离为基准,基准之前δ1米和基准之后δ2米范围内的数据点为主要建筑结构;所述δ1为1米,δ2为0.5米;
3)对保留的主要建筑结构的数据点进行特征提取
a)扫描线上各点微分
对于每条扫描线上的采样点用(1)式进行局部二次拟合,并以该点沿扫描线方向上下k个邻近点为拟合区间,其拟合区间[-K,K]为[-3,3];
a0,a1,a2-拟合方程(1)式的拟合系数;
采用自适应加权拟合方法,求取拟合系数a0,a1,a2,且加权拟合误差函数为
式中:d(i)-第i点到激光测距仪的实际水平距离;
w(i)-扫描线上第i点的权值,代表点的可靠性;采用迭代权值修正法,逐步消除局部点的影响,使拟合仅在可靠点内进行;具体方法如下:假设已知第m次迭代中系数为a0 m,a1 m,a2 m,求第k+1次迭代中系数为a0 m+1,a1 m+1,a2 m+1;首先计算第m次迭代的拟合残余量和第m次迭代的权值;
式中:bs-误差允许阈值;
初始权值w0(i)=1,用(3)、(4)、(5)式不断修正拟合系数和权值,直至拟合曲线满足误差要求且包含最多点数为止;标记参与拟合的点;
然后,利用(1)式计算扫描线上有标记各点的一次微分;
b)检测边缘点
对于扫描线上有标记的各点,考察其沿扫描线方向上下有标记两点的一次微分符号,选择异号的点为法向不连续点,并标记为0;
对于扫描线上有标记的各点,计算其与沿扫描线方向上下有标记两点距离,考察其中最大距离,选择最大距离大于阈值ε为深度不连续点,并标记为1;
c)特征点线提取
首先采用链码跟踪方法将边缘点区分成不同的边缘链,并将每一边缘链上的点按顺时针排序,然后通过分裂合并的方法将每一边缘链拟合成一组首尾相接的特征线段,具体方法如下:
·初始化
将边缘链分为等长的若干段L0,L1,…,Ln
·分裂
利用最小二乘法对当前每一段Li拟合成直线选择离该拟合直线最远且最小残差Ei大于允许阈值T的一点为基准,将本段边缘链断开为两段,并不断分裂至满足拟合误差为止;依次处理其它各段;
合并
选择拟合残差小于阈值T的相邻两段合并成一段为特征线段,特征线段的端点为特征点;
4)计算虚特征与构造特征单元
选择实际不相交的特征线段延长相交形成虚特征线段和虚特征点加入上述提取的特征线段和特征点中;将特征点连同其相邻的两特征线段嵌套成特征单元PU{P|L1,L2:<n1,n2,n3,p>};n1和n2为特征线段L1和L2的方向矢量,n3=n1×n2为前两矢量合成的第三矢量,×为矢量叉乘p为特征点;
5)配准
a)粗配准
给定一对分别属于两视点S1和S2的特征单元PU{P|L1,L2:<n1,n2,n3,p>}∈S1和PU′{P′|L1′,L2′:<n1′,n2′,n3′,p′>}∈S2,那么旋转矩阵会由ni和ni′(i=1,2,3)得到,即使下式误差函数最小,并采用四元素法求出旋转矩阵;
设p和p′在各自局部坐标系的坐标为(x,y,z)与(x′,y′,z′),计算向量;
每对对应特征单元得到一个对应的配准转换估计,选择匹配程度最大的为最佳配准转换估计。特征单元匹配的约束条件如下:
·位置约束
p′是视点S2中与视点S1p点最近的特征点,且p和p′间的距离小于阈值Δl;
·方向约束
Li与Li′两线段所在直线间的距离和方向夹角分别小于Δ2和Δ3;
b)精配准
按粗配准获得的转换估计,将两视点的三维数据拼合在同一坐标系,确定出重叠区域;将两视点对应的重叠区分别等分成N块,计算每块内对应点的平均差异;选择差异最大的M块作为适配区,在适配区内利用ICP算法进行精配准为增加对应点搜索的鲁棒性,利用激光采样点的反射率和三维信息,以马氏距离衡量两点p∈S1和p′∈S2的差异,即
式中:d2(p,p′)-p和p′点的马氏距离;Cp′-p′点及其k×k个邻域点的协方差,k=3。
2、按权利要求1所述的大规模三维场景多视点激光扫描数据自动配准方法,其特征在于,对于视点超过2个以上的多视点三维场景,所述步骤还包括全局配准:
首先所有有重叠区的视点两两进行配准,利用最小生成树原则建立全局配准模型,然后根据全局配准模型选择一个视点Sa固定,其它视点的激光扫描数据转换在Sa所在的坐标系内,其中建立全局配准模型的具体方法如下:
设第i对有重叠区的两视点计算出的转换矩阵为Ti=[Ri,ti]和对应的局部匹配程度为g(Ti);以视点为结点,以g(Ti)为结点连接权重,生成一个包含所有视点在内的无向带权连通图G=<V,E>,V为结点,E为边,且ei=g(Ti)∈E,并采用逐步短接法求出最小生成树,建立全局配准模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNB2004100311577A CN1312633C (zh) | 2004-04-13 | 2004-04-13 | 大规模三维场景多视点激光扫描数据自动配准方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNB2004100311577A CN1312633C (zh) | 2004-04-13 | 2004-04-13 | 大规模三维场景多视点激光扫描数据自动配准方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1684105A true CN1684105A (zh) | 2005-10-19 |
CN1312633C CN1312633C (zh) | 2007-04-25 |
Family
ID=35263428
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB2004100311577A Expired - Fee Related CN1312633C (zh) | 2004-04-13 | 2004-04-13 | 大规模三维场景多视点激光扫描数据自动配准方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN1312633C (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101726255B (zh) * | 2008-10-24 | 2011-05-04 | 中国科学院光电研究院 | 从三维激光点云数据中提取感兴趣建筑物的方法 |
CN102271255A (zh) * | 2011-08-09 | 2011-12-07 | 清华大学 | 双拼立体视频编码的运动估计方法和装置 |
CN102903117A (zh) * | 2012-10-24 | 2013-01-30 | 深圳大学 | 一种基于共形几何代数的三维图像配准方法及装置 |
CN101432776B (zh) * | 2006-05-05 | 2013-04-24 | 汤姆森特许公司 | 用于从二维图像进行三维物体重建的系统和方法 |
CN103914828A (zh) * | 2012-12-31 | 2014-07-09 | 柯耐克斯公司 | 用于确定多视点对齐的成像系统 |
CN104395932A (zh) * | 2012-06-29 | 2015-03-04 | 三菱电机株式会社 | 对准数据的方法 |
CN105787933A (zh) * | 2016-02-19 | 2016-07-20 | 武汉理工大学 | 基于多视角点云配准的岸线三维重建装置及方法 |
CN108921095A (zh) * | 2018-07-03 | 2018-11-30 | 安徽灵图壹智能科技有限公司 | 一种基于神经网络的停车位管理系统、方法及停车位 |
CN109978919A (zh) * | 2019-03-22 | 2019-07-05 | 广州小鹏汽车科技有限公司 | 一种基于单目相机的车辆定位方法及系统 |
CN110136179A (zh) * | 2018-02-08 | 2019-08-16 | 中国人民解放军战略支援部队信息工程大学 | 一种基于直线拟合的三维激光点云配准方法及装置 |
CN110209160A (zh) * | 2019-04-29 | 2019-09-06 | 北京云迹科技有限公司 | 基于激光的障碍物提取方法及装置 |
CN110399892A (zh) * | 2018-04-24 | 2019-11-01 | 北京京东尚科信息技术有限公司 | 环境特征提取方法和装置 |
CN110706357A (zh) * | 2019-10-10 | 2020-01-17 | 青岛大学附属医院 | 导航系统 |
CN112381863A (zh) * | 2020-11-12 | 2021-02-19 | 中国电建集团江西省电力设计院有限公司 | 森林场景的地面激光点云方法 |
CN113155510A (zh) * | 2021-04-16 | 2021-07-23 | 伊达生物有限公司 | 组织细胞分割采样系统和方法 |
CN117428582A (zh) * | 2023-12-22 | 2024-01-23 | 泉州装备制造研究所 | 一种异形工件的加工方法及介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69332042T2 (de) * | 1992-12-18 | 2003-01-02 | Koninklijke Philips Electronics N.V., Eindhoven | Ortungszurückstellung von relativ elastisch verformten räumlichen Bildern durch übereinstimmende Flächen |
US5937083A (en) * | 1996-04-29 | 1999-08-10 | The United States Of America As Represented By The Department Of Health And Human Services | Image registration using closest corresponding voxels with an iterative registration process |
US6266453B1 (en) * | 1999-07-26 | 2001-07-24 | Computerized Medical Systems, Inc. | Automated image fusion/alignment system and method |
CA2369710C (en) * | 2002-01-30 | 2006-09-19 | Anup Basu | Method and apparatus for high resolution 3d scanning of objects having voids |
CN1203292C (zh) * | 2003-08-15 | 2005-05-25 | 清华大学 | 测量物体三维表面轮廊的方法 |
-
2004
- 2004-04-13 CN CNB2004100311577A patent/CN1312633C/zh not_active Expired - Fee Related
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101432776B (zh) * | 2006-05-05 | 2013-04-24 | 汤姆森特许公司 | 用于从二维图像进行三维物体重建的系统和方法 |
CN101726255B (zh) * | 2008-10-24 | 2011-05-04 | 中国科学院光电研究院 | 从三维激光点云数据中提取感兴趣建筑物的方法 |
CN102271255A (zh) * | 2011-08-09 | 2011-12-07 | 清华大学 | 双拼立体视频编码的运动估计方法和装置 |
CN104395932A (zh) * | 2012-06-29 | 2015-03-04 | 三菱电机株式会社 | 对准数据的方法 |
CN104395932B (zh) * | 2012-06-29 | 2017-04-26 | 三菱电机株式会社 | 对准数据的方法 |
CN102903117A (zh) * | 2012-10-24 | 2013-01-30 | 深圳大学 | 一种基于共形几何代数的三维图像配准方法及装置 |
CN103914828A (zh) * | 2012-12-31 | 2014-07-09 | 柯耐克斯公司 | 用于确定多视点对齐的成像系统 |
CN103914828B (zh) * | 2012-12-31 | 2018-07-24 | 柯耐克斯公司 | 用于确定多视点对齐的成像系统 |
CN105787933B (zh) * | 2016-02-19 | 2018-11-30 | 武汉理工大学 | 基于多视角点云配准的岸线三维重建装置及方法 |
CN105787933A (zh) * | 2016-02-19 | 2016-07-20 | 武汉理工大学 | 基于多视角点云配准的岸线三维重建装置及方法 |
CN110136179A (zh) * | 2018-02-08 | 2019-08-16 | 中国人民解放军战略支援部队信息工程大学 | 一种基于直线拟合的三维激光点云配准方法及装置 |
CN110136179B (zh) * | 2018-02-08 | 2022-02-22 | 中国人民解放军战略支援部队信息工程大学 | 一种基于直线拟合的三维激光点云配准方法及装置 |
CN110399892B (zh) * | 2018-04-24 | 2022-12-02 | 北京京东尚科信息技术有限公司 | 环境特征提取方法和装置 |
CN110399892A (zh) * | 2018-04-24 | 2019-11-01 | 北京京东尚科信息技术有限公司 | 环境特征提取方法和装置 |
CN108921095A (zh) * | 2018-07-03 | 2018-11-30 | 安徽灵图壹智能科技有限公司 | 一种基于神经网络的停车位管理系统、方法及停车位 |
CN109978919A (zh) * | 2019-03-22 | 2019-07-05 | 广州小鹏汽车科技有限公司 | 一种基于单目相机的车辆定位方法及系统 |
CN110209160A (zh) * | 2019-04-29 | 2019-09-06 | 北京云迹科技有限公司 | 基于激光的障碍物提取方法及装置 |
CN110706357A (zh) * | 2019-10-10 | 2020-01-17 | 青岛大学附属医院 | 导航系统 |
CN110706357B (zh) * | 2019-10-10 | 2023-02-24 | 青岛大学附属医院 | 导航系统 |
CN112381863A (zh) * | 2020-11-12 | 2021-02-19 | 中国电建集团江西省电力设计院有限公司 | 森林场景的地面激光点云方法 |
CN112381863B (zh) * | 2020-11-12 | 2022-04-05 | 中国电建集团江西省电力设计院有限公司 | 森林场景的地面激光点云方法 |
CN113155510A (zh) * | 2021-04-16 | 2021-07-23 | 伊达生物有限公司 | 组织细胞分割采样系统和方法 |
CN113155510B (zh) * | 2021-04-16 | 2024-05-10 | 伊达生物有限公司 | 组织细胞分割采样系统和方法 |
CN117428582A (zh) * | 2023-12-22 | 2024-01-23 | 泉州装备制造研究所 | 一种异形工件的加工方法及介质 |
CN117428582B (zh) * | 2023-12-22 | 2024-03-15 | 泉州装备制造研究所 | 一种异形工件的加工方法及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN1312633C (zh) | 2007-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106600690B (zh) | 基于点云数据的复杂建筑体三维建模方法 | |
Zebedin et al. | Fusion of feature-and area-based information for urban buildings modeling from aerial imagery | |
CN1684105A (zh) | 大规模三维场景多视点激光扫描数据自动配准方法 | |
Rottensteiner et al. | Results of the ISPRS benchmark on urban object detection and 3D building reconstruction | |
Baillard et al. | A plane-sweep strategy for the 3D reconstruction of buildings from multiple images | |
Pu et al. | Extracting windows from terrestrial laser scanning | |
CN102506824B (zh) | 一种城市低空无人机系统生成数字正射影像图的方法 | |
WO2012012943A1 (en) | Method for reconstruction of urban scenes | |
CN113052881A (zh) | 提取极点的室内三维点云自动化配准方法 | |
Kim et al. | Semiautomatic reconstruction of building height and footprints from single satellite images | |
Hammoudi et al. | Extracting wire-frame models of street facades from 3D point clouds and the corresponding cadastral map | |
Xiao et al. | Automatic detection of buildings with rectangular flat roofs from multi-view oblique imagery | |
WO2011085435A1 (en) | Classification process for an extracted object or terrain feature | |
CN112446844A (zh) | 一种基于点云特征提取与配准融合方法 | |
Sun et al. | Geographic, geometrical and semantic reconstruction of urban scene from high resolution oblique aerial images. | |
Milde et al. | Building reconstruction using a structural description based on a formal grammar | |
CN117745941A (zh) | 一种利用卫星图像的建筑物三维模型自动生成方法及装置 | |
Gao et al. | Automatic geo-referencing mobile laser scanning data to UAV images | |
Tournaire et al. | Towards a sub-decimetric georeferencing of groundbased mobile mapping systems in urban areas: Matching ground-based and aerial-based imagery using roadmarks | |
AU2010200146A1 (en) | Extraction processes | |
Pu | Automatic building modeling from terrestrial laser scanning | |
Agouris et al. | Automation and digital photogrammetric workstations | |
Toth et al. | Using road pavement markings as ground control for LiDAR data | |
Riveiro et al. | Automatic creation of structural models from point cloud data: the case of masonry structures | |
Pu | Generating building outlines from terrestrial laser scanning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20070425 Termination date: 20140413 |