CN103279941A - 一种基于贪婪算法的多视场深度像的并行同步配准方法 - Google Patents
一种基于贪婪算法的多视场深度像的并行同步配准方法 Download PDFInfo
- Publication number
- CN103279941A CN103279941A CN2012100429821A CN201210042982A CN103279941A CN 103279941 A CN103279941 A CN 103279941A CN 2012100429821 A CN2012100429821 A CN 2012100429821A CN 201210042982 A CN201210042982 A CN 201210042982A CN 103279941 A CN103279941 A CN 103279941A
- Authority
- CN
- China
- Prior art keywords
- registration
- registering
- degree
- depth
- view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
本发明提供一种基于贪婪算法的多视场深度像的并行同步配准方法,将每一个视点的深度数据看作二叉树中的一个节点,通过深度像间不同的配对模式,比如第一次视点0和视点1先配准,然后配准后的结果作为上一层次的节点继续参与配准,而第二次则选择视点1和视点2先配准,然后配准结果再参与上一层树结构的配准,最后通过贪婪的逐个检验每一种全局配准的可能策略,寻找出全部配准误差和最小的一种模式作为最优的配准策略。本发明实现了多视场深度像的同步配准,整个配准所用时间大大减少。
Description
技术领域
本发明涉及三维数字成像及造型技术领域,特别设计一种基于贪婪算法的多视场深度像的并行同步配准方法。
背景技术
不同视场深度像的高精度空间配准是数字几何造型技术中非常重要的一个环节。在深度像的两两配准中,最著名的方法就是由Besl和Mckay以及Chen和Medioni提出的迭代最近点ICP(Iterative Closest Point)算法及其各种变形[1]。正是这两种算法开创了国际上深度像配准的统一理论和框架,为配准精度的提高和进一步发展奠定了里程碑式的基础。可以说这两种算法的提出是深度像配准技术上的一个跨越式发展,在该技术的发展历程中具有无比重要的意义。几何上,ICP算法可以被理解为用来确定两个不同视点获得的深度像的刚体变换参数,包括三个平移变量和三个旋转变量。为了解决ICP算法中点对对应关系搜索耗时的问题,近年来国际上提出了多种ICP的改进算法,包括K-D树和Z-缓冲算法等[2];也有学者提出在ICP算法的误差测度中引入附加信息,例如颜色和法向量信息。在纹理丰富的情况下,与采用纯几何特征的深度像配准相比,此类算法更加鲁棒,精确度和执行效率也更高一些[2-4]。国内南京航空航天大学[3]、北京航空航天大学[4]、以及北京大学的查红彬教授[5]和北京工业大学的张鸿宾教授[6,7]都报道过他们在深度像配准方面的研究进展。
数学上,两个深度像之间的配准实际上是一个六自由度的空间优化问题。因此,在ICP算法发展的同时,也有不少学者提出采用人工智能算法如遗传算法[8,9]、模拟退火[10]等来解决深度像的精确配准问题,也取得了不错的效果,但是考虑到算法的执行效率和运行时间,在实际应用中,ICP算法仍然具有无可比拟的优势,始终占据着不可撼动的主体地位。在ICP算法提出后不久,人们就发现,仅仅依靠ICP算法通过两两配准多个深度像来实现多视场深度数据的序列配准,往往会出现较大的误差积累。尽管每两个深度像之间的配准精度都很高,但是最终还是会出现令人无法接受的造型误差。因此,上世纪90年代后期,人们根据弹性力学[11]以及图论的理论[12,13]又先后提出了同步配准的概念。即通过建立一个合适的物理模型,来平均分配各个深度像之间的配准误差。与多视场深度像的序列配准不同,这些方法可以在很大程度上减小配准的积累误差,但是数据量大,计算繁琐耗时也是这些方法急需解决的问题之一。
本专利申请人曾提出过一种衡量配准误差的新方法——表面间平均体积测度[14],并基于该测度,实现了ICP框架下深度像的迭代配准和遗传算法框架下深度像的精确配准[14,15],这两种方法在收敛速度和配准精度上都有很大改善。但是实验结果也使申请人认识到,如果能够将并行计算技术应用于多视场深度像的同步配准,对于提高配准过程的精度和速度都将大有裨益。毕竟基于最小生成树的多视场深度像配准算法[12,13],只能被视为同步配准的一个粗配准。
发明内容
为了克服现有技术中存在的技术问题,本发明提供了一种基于贪婪算法的多视场深度像的并行同步配准方法,通过采用贪婪算法遍历所有可能的配准模式,从而达到有效提高多视场深度像配准精度的目的;而并行计算技术的应用则是为了大大加快多视场深度像的配准过程。
为了实现上述目的,本发明提供以下技术方案:
一种基于贪婪算法的多视场深度像的并行同步配准方法,将每一个视点的深度数据看作二叉树中的一个节点,通过深度像间不同的配对模式,比如第一次视点0和视点1先配准,然后配准后的结果作为上一层次的节点继续参与配准,而第二次则选择视点1和视点2先配准,然后配准结果再参与上一层树结构的配准,最后通过贪婪的逐个检验每一种全局配准的可能策略,寻找出全部配准误差和最小的一种模式作为最优的配准策略。
本发明带来的有益效果是:实现了多视场深度像的同步配准,整个配准所用时间大大减少。
附图说明
图1为基于贪婪算法和“逆”二叉树结构的多视场深度像全局配准的示意图
图2为不同视场深度像全局配准的结果示例
图3(c)为多视场深度像全局并行配准的执行效率的并行效率图
图3(b)为多视场深度像全局并行配准的执行效率的加速比图
图3(a)为多视场深度像全局并行配准的执行效率计算时间图
具体实施方式
下面对结合附图对本发明的较佳实施例作详细阐述,以使本发明的优点和特征能更易于被本领域技术人员理解,从而对本发明的保护范围作出更为清楚明确的界定。
如图1所示,本发明所述方法的关键技术点包括误差测度的定义、贪婪算法搜索次数的确定以及并行计算技术与配准算法的结合。
在误差测度的定义上,由于采用了“逆”二叉树结构的配准过程,因此对于n个多视场深度像的同步配准来说,本发明同样将深度像两两配准得到的误差函数值作为基础,然后将深度像两两配准后的图像作为一个单独的深度像参与“逆”二叉树中上一个层次的配准。在这个过程中,两个配准后的相邻深度像间也是有重合区域的,因此他们的配准误差和空间变换参数仍然可以采用深度像两两配准的误差函数值,直到“逆”二叉树的最高一层,由于只剩两个大的经过多次配准后的深度像,虽然它们两个重合的区域也有两两配准时的误差函数值,但是在最后一步的配准过程中,本发明是同时配准两部分重叠区域,因此其考核的误差函数就不是两部分重叠区域单独的配准误差,而是两个重叠区域的配准误差和。也就是说,采用本发明将在最后两个重叠区域间平均分配配准的误差,而不是将所有误差积累在一个重叠区域上。最后从多种不同的配准组合中,选取一个配准误差和最小的作为全局的配准误差。本发明定义的误差函数如下:
其中,T是最上一层多个底层深度像配准后的两幅图像S1={Pi}和S2={Qi}之间的一个空间位置变换关系,n是深度像的个数,e(T)是深度像两两配准的误差测度值(既可以采用点对间的距离,也可以采用点到对应切平面的距离,在本公式中,采用的是点到对应切平面的距离),“+”号后面部分是最上层两幅深度像的配准误差。本专利方法通过遍历各种不同的配准组合,尽可能的将配准误差分摊到各个不同视角采集的深度像上,避免了累积的配准误差集中于最后配准的两幅深度像上。
假设待配准的深度像是从n个视角拍摄的,如果n≤2m,由于本专利方法仍然以深度像两两配准的结果为基础,并且采用的是“逆”二叉树结构的配准过程,因此,在最下面一层只能有两种可能的配准模式,因为每个深度像在同一维度上只有两个相邻的深度像(在另一个维度上采集的深度像,向在第一个维度上配准后的世界坐标系上进行配准)。这样,在整个配准的过程中,贪婪算法一共需要遍历2n-1种可能的配准模式。
虽然遍历的次数多了,但是本发明所述方法由于采用了并行计算技术,因此可以大幅度的减少多视场深度像整个配准过程的时间。由于本方法仍然是以深度像两两配准的结果为基础,因此配准的计算只需要执行最后一步的误差值计算,而且由于每个深度数据间没有任何的相关性,可以将任务划分为不同的子任务,并将子任务分配到高性能计算集群中不同的进程上执行,最后将计算结果都汇总到管理节点上进行排序,从而找到全局最优的配准模式。
如图2所示,是采用不同数量深度像进行全局配准的结果示例。其中模型上的不同颜色代表着从不同视角采集的深度图像。
如图3(a)至图3(c)所示,采用并行计算技术还可以大大缩短完成多视场深度像配准所需的计算时间。
以上所述,仅为本发明的具体实施方式之一,但本发明的保护范围并不局限于此,任何熟悉本领域的技术人员在本发明所揭露的技术范围内,可不经过创造性劳动想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书所限定的保护范围为准。
参考文献
[1]Rusinkiewicz S.,Levoy M..Efficient Variants of the ICP Algorithm.In:the Third International Conference on 3D Digital Imaging andModeling,Québec,2001,145-152.
[2]刘晓利,多视场深度像造型中的若干关键技术,[博士学位论文],天津,天津大学,2008.
[3]韦虎,张丽艳,刘胜兰,石春琴,基于SIFT图像特征匹配的多视角深度图配准算法,计算机辅助几何设计与图形学学报,2010,22(4),654-661.
[4]杨棽,齐越,沈旭昆,赵沁平,一种快速的三维扫描数据自动配准方法,软件学报,2010,21(6),1438-1450.
[5]W.He,W.Ma,H.Zha.Automatic Registration of Range Images Basedon Correspondence of Complete Plane Patches.5th InternationalConferences on 3-D Imaging and Modeling(3DIM’05),470-476.
[6]张鸿宾,唐积尧,多视点距离图像的对准算法,自动化学报,2001,27(1),39-46.
[7]张鸿宾,谢丰,基于表面间距离度量的多视点距离图像的对准算法,中国科学(E),2005,35(2),150-160.
[8]Chow C.K.,Tsui H.T.,Lee T..Surface Registration Using a DynamicGenetic Algorithm.Pattern Recognition,2004,37(1):105-117.
[9]Silva L.,Bellon Olga R.P.,Boyer Kim L..Precision Range ImageRegistration Using a Robust Surface Interpenetration Measure andEnhanced Genetic Algorithms.IEEE Transactions on Pattern Analysisand Machine Intelligence,2005,27(5):762-776.
[10]Blais G.,Levine M..Registering multi-view range data to create3D computer objects.IEEE Transactions on Pattern Analysis andMachine Intelligence,1995,17(8):820-824.
[11]A.Hilton,A.J.Stoddart,J.Illingworth.Marching Triangles.Range Image Fusion for Complex Object Modeling.In:Proceedings ofIEEE International Conference On Image Processing,Lausanne,1996,381-384
[12]Pulli K..Multi-view Registration for Large Data Sets.In:theSecond International Conference on 3D Digital Imaging and Modeling,Ottawa,1999,160-168.
[13]Danie F.Huber.Automatic Three-dimensional Modeling from Reality:[Ph.D Thesis],Pittsburgh,Pennsylvania,Carnegie Mellon University,2002.
[14]高鹏东,彭翔,李阿蒙,刘晓利,ICP框架下基于表面间平均体积测度的深度像配准.计算机辅助设计与图形学学报.2007,19(6),719-724.
[15]高鹏东,彭翔,李阿蒙,刘则毅,基于混合遗传算法和表面间平均体积度量的深度像匹配.计算机学报.2007,30(12),2189-2197.
Claims (1)
1.一种基于贪婪算法的多视场深度像的并行同步配准方法,其特征在于,将每一个视点的深度数据看作二叉树中的一个节点,通过深度像间不同的配对模式,比如第一次视点0和视点1先配准,然后配准后的结果作为上一层次的节点继续参与配准,而第二次则选择视点1和视点2先配准,然后配准结果再参与上一层树结构的配准,最后通过贪婪的逐个检验每一种全局配准的可能策略,寻找出全部配准误差和最小的一种模式作为最优的配准策略。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012100429821A CN103279941A (zh) | 2012-02-24 | 2012-02-24 | 一种基于贪婪算法的多视场深度像的并行同步配准方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012100429821A CN103279941A (zh) | 2012-02-24 | 2012-02-24 | 一种基于贪婪算法的多视场深度像的并行同步配准方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103279941A true CN103279941A (zh) | 2013-09-04 |
Family
ID=49062448
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2012100429821A Pending CN103279941A (zh) | 2012-02-24 | 2012-02-24 | 一种基于贪婪算法的多视场深度像的并行同步配准方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103279941A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116580069A (zh) * | 2023-07-12 | 2023-08-11 | 四川大学 | 一种由粗到精的叶片型面多视场数据配准方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1987896A (zh) * | 2005-12-23 | 2007-06-27 | 中国科学院中国遥感卫星地面站 | 高分辨率sar影像配准处理方法及系统 |
WO2009053977A2 (en) * | 2007-10-23 | 2009-04-30 | Elta Systems Ltd. | A stereo-image registration and change detection system and method |
-
2012
- 2012-02-24 CN CN2012100429821A patent/CN103279941A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1987896A (zh) * | 2005-12-23 | 2007-06-27 | 中国科学院中国遥感卫星地面站 | 高分辨率sar影像配准处理方法及系统 |
WO2009053977A2 (en) * | 2007-10-23 | 2009-04-30 | Elta Systems Ltd. | A stereo-image registration and change detection system and method |
Non-Patent Citations (1)
Title |
---|
周海芳: "基于互信息的遥感图像区域配准并行算法的研究", 《中国图象图形学报》, vol. 15, no. 1, 31 January 2010 (2010-01-31), pages 174 - 180 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116580069A (zh) * | 2023-07-12 | 2023-08-11 | 四川大学 | 一种由粗到精的叶片型面多视场数据配准方法 |
CN116580069B (zh) * | 2023-07-12 | 2023-09-19 | 四川大学 | 一种由粗到精的叶片型面多视场数据配准方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Fan et al. | Rethinking road surface 3-d reconstruction and pothole detection: From perspective transformation to disparity map segmentation | |
CN102938142B (zh) | 基于Kinect的室内LiDAR缺失数据填补方法 | |
CN106709947A (zh) | 一种基于rgbd相机的三维人体快速建模系统 | |
CN104966317B (zh) | 一种基于矿体轮廓线的三维自动建模方法 | |
CN111696210A (zh) | 一种基于三维点云数据特征轻量化的点云重构方法及系统 | |
CN106780751A (zh) | 基于改进的屏蔽泊松算法的三维点云重建方法 | |
CN109960402A (zh) | 一种基于点云和视觉特征融合的虚实注册方法 | |
CN102490909B (zh) | 一种飞行器多体分离模拟方法 | |
CN101504767B (zh) | 基于水平集接力的图像分割方法 | |
CN104318605A (zh) | 矢量实线与三维地形的并行贴合渲染方法 | |
CN105118091A (zh) | 一种构建多精度非均匀地质网格曲面模型的方法和系统 | |
CN103955945A (zh) | 基于双目视差和活动轮廓的自适应彩色图像分割方法 | |
CN114332291A (zh) | 一种倾斜摄影模型建筑物外轮廓规则提取方法 | |
CN111028335B (zh) | 一种基于深度学习的点云数据的分块面片重建方法 | |
Sun et al. | Phi-mvs: Plane hypothesis inference multi-view stereo for large-scale scene reconstruction | |
CN103279941A (zh) | 一种基于贪婪算法的多视场深度像的并行同步配准方法 | |
Zhang et al. | Edge-preserving stereo matching using minimum spanning tree | |
Mikula et al. | 4D numerical schemes for cell image segmentation and tracking | |
Guo et al. | Improved marching tetrahedra algorithm based on hierarchical signed distance field and multi-scale depth map fusion for 3D reconstruction | |
Yang et al. | Mapping technology in visual slam: A review | |
Park et al. | Shape-indifferent stereo disparity based on disparity gradient estimation | |
Xia et al. | A novel approach for computing exact visual hull from silhouettes | |
Jokinen | Building 3-D city models from multiple unregistered profile maps | |
Lv et al. | Point-based integration for 3D object reconstruction from Ladar range images | |
CN102663674B (zh) | 并行化实时无标记人体运动跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20130904 |