CN104715504A - 一种鲁棒的大场景稠密三维重建方法 - Google Patents

一种鲁棒的大场景稠密三维重建方法 Download PDF

Info

Publication number
CN104715504A
CN104715504A CN201510074141.2A CN201510074141A CN104715504A CN 104715504 A CN104715504 A CN 104715504A CN 201510074141 A CN201510074141 A CN 201510074141A CN 104715504 A CN104715504 A CN 104715504A
Authority
CN
China
Prior art keywords
image
dimensional
dimensional point
robust
depth value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510074141.2A
Other languages
English (en)
Inventor
刘怡光
易守林
曹丽萍
罗以宁
吴鹏飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN201510074141.2A priority Critical patent/CN104715504A/zh
Publication of CN104715504A publication Critical patent/CN104715504A/zh
Pending legal-status Critical Current

Links

Abstract

本发明公开了一种鲁棒的大场景稠密三维重建方法。针对大场景图像集具有尺度多变、角度不一、焦距不同和数量巨大等特点,首先尺度鲁棒的选取每幅图像的邻居图像,随后利用DAISY特征和PatchMatch信息传播框架精确快速计算每幅图像的深度图,然后利用图像与邻居图像集的一致性优化融合深度图,最后利用重建三维点精度去除冗余点得到最终的三维模型。本发明方法步骤简单、重建精度高、运行速度快,容易在图像级实现并行,能真实的还原场景模型,非常适合大场景三维重建。

Description

一种鲁棒的大场景稠密三维重建方法
技术领域
本发明涉及一种鲁棒三维重建算法,尤其涉及一种鲁棒邻居图像选取方法,属于图像处理和计算机视觉领域。
背景技术
基于图像的多视图三维重建是利用目标场景不同视角下的图像序列来恢复该场景的三维模型,在保护历史文物、数字娱乐和城市规划等领域具有广泛的应用前景。相比于传统的激光扫描方法,基于图像的三维重建具有使用简单灵活、成本低、使用性广等优点,是计算机视觉领域一个研究热点。现有的基于图像的三维重建可以分为四类:基于体素的方法,基于表面演化的方法,基于特征点扩展的方法和基于深度图融合的方法。基于体素的方法需要估计目标对象的三维包盒,然后利用能量函数优化提取三维模型,这类方法不适用大场景,而且重建精度受体素模型分辨率的限制。基于表面演化的方法通过迭代演化初始曲面模型来最小化能量函数,使其逐步收敛到目标的真实三维模型,这类方法易收敛于局部最优,而且对于室外大场景也很难获取到初始模型。基于特征点扩展的方法先在有纹理区域重建三维稀疏点,然后再扩展到无纹理区域,这类方法同时使用所有可用的图像来重建三维模型,用于室外大场景时计算复杂度高,而且在弱纹理和无纹理区域计算得到准确度不高。基于深度图融合方法先单独计算每幅图像对应的深度图像,然后利用约束条件将深度图融合成完整三维模型,这类方法灵活、方便,能生成高精度的三维模型,适用室外大场景,但重建精度对邻居图像的选取敏感。
发明内容
本发明所要解决的技术问题是提供一种鲁棒的大场景稠密三维重建方法,针对大尺度、无结构的大场景图像序列,能快速、精确的恢复出真实的三维场景模型。
本发明的解决方案是:首先,充分考虑尺度、角度、基线和覆盖面积等因素,鲁棒的选取邻居图像,随后利用像素的DAISY特征和PatchMatch信息传播框架精确计算每幅图像的深度图,然后利用图像间的一致性优化、融合深度图,最后利用重建三维点的精度去除冗余的点得到最后的三维模型。
本发明为实现上述解决方法,其方法步骤如下:
1、首先,对于输入的图像集,利用现有的从运动恢复结构算法(Structure From Motion,SFM)标定图像的摄像机参数,然后充分考虑基线、尺度、覆盖面积等因素,对每一幅图像都选取多幅邻居图像,选图公式为
其中,R是目标图像,I是候选图像,p是SFM重建出的稀疏三维点,FX表示能在图像X中看到的三维点,Wv是可见三维点的图像数量权重,Wα是三维点与两摄像机中心所成夹角权重,Ws是两幅图像尺度权重,Wc是图像间覆盖权重。各个权重定义如下:
其中,V(p)表示能看到三维点p的图像数量,表示三维点p与两摄像机所成夹角,IS表示已选邻居图像集,,SR(p)表示空间三维点p在图像R上的尺度;
2、随后,利用步骤1选取的邻居图像,提取图像的DAISY特征,将图像与邻居图像集进行匹配,匹配代价函数定义为:
其中,,DR(xR)表示图像点x的DAISY特征,xR和xI可以通过单应矩阵计算得到。利用PatchMatch信息传播框架,先随机初始化每幅图像的深度值和法向量,然后进行邻居扩散,扩散结束后对每个深度值进行多次随机扰动,得到精确的深度值和法向量;
3、然后,利用图像与邻居图像之间的一致性,对步骤2计算得到每幅图像的深度图进行优化和融合,图像点x反投影回三维空间得到三维点X,将X投影到图像的邻居图像上可以得到投影深度d(X,Ni),而对应点原来计算的深度值为,如果计算准确则这两个值应该相等或相近,而邻居图像对应的三维点Xi投影到目标图像正好在位置x处,则投影深度值为d(Xi,R),x处原来的深度值为,如果计算准确,这两个值也应该相等或相近,其中i=1,2…,k,是阈值为常数,故对于图像上任意一点如果满足,则保留该点值,否则删除该点值。是狄拉克雷Delta函,n的计算如下式所示:
4、最后,利用深度值和摄像机参数把图像点反投影回三维空间得到三维模型,由于同一个三维点会在多幅图像中可见,所以在融合后同一个位置会有多个三维点,则利用每个点的重建精度删除冗余的点,保留精度最高的那个点,重建三维点精度定义为:
最后就可以得到目标场景的稠密三维点云模型。

Claims (5)

1.一种鲁棒的大场景稠密三维重建方法,其特征在于包括以下步骤:
1)充分考虑尺度、基线、覆盖面积等因素的鲁棒邻居图像选取;
2)使用DAISY特征差异的自我加权的代价匹配函数和PatchMatch信息传播框架来计算深度值;
3)利用图像间的一致性优化和融合深度图;
4)根据重建三维点精度去除冗余三维点信息。
2.根据权利1所述的一种鲁棒的大场景稠密三维重建方法,其特征在于所述的充分考虑尺度、基线、覆盖面积等因素的鲁棒邻居图像选取,选图权重公式定义为:
其中,可见三维点的图像数量权重定义为:;三维点与两摄像机中心所成夹角权重定义为:;两幅图像尺度权重定义为:,其中,SR(p)表示空间三维点p在图像R上的尺度;图像间覆盖面积权重定义为:
3.根据权利1所述的一种鲁棒的大场景稠密三维重建方法,其特征在于所述的使用DAISY特征差异的自我加权的代价匹配函数来计算深度值,匹配代价函数定义为:
             
其中,,DR(xR)表示图像点x的DAISY特征,xR和xI可以通过单应矩阵计算得到,同时提取图像和它邻居图像的DAISY特征,然后进行匹配,利用PatchMatch信息传播框架进行深度值计算,首先随机初始化深度值和法向量,然后邻居点扩散可靠的深度值,最后进行多次随机扰动获得精确的深度值。
4.根据权利1所述的一种鲁棒的大场景稠密三维重建方法,其特征在于所述的利用图像间的一致性优化和融合深度图,对于每个深度值,如果满足则保留该值,否则删除该点深度值,n定义为:
其中,δ(.)是狄拉克雷Delta函数,τ是阈值为常数。
5.根据权利1所述的一种鲁棒的大场景稠密三维重建方法,其特征在于所述的根据重建三维点精度去除冗余三维点信息,先利用深度值和摄像机参数把图像点反投影回三维空间得到三维模型,因为同一个三维点在多幅图像中可见,故反投影回三维空间后得到的模型同一个位置会有多个三维点,故需要删除冗余的点,删除后即可以得到最后的三维点云模型,这里考虑保留精度最高的那个点,三维点的精度定义为:
CN201510074141.2A 2015-02-12 2015-02-12 一种鲁棒的大场景稠密三维重建方法 Pending CN104715504A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510074141.2A CN104715504A (zh) 2015-02-12 2015-02-12 一种鲁棒的大场景稠密三维重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510074141.2A CN104715504A (zh) 2015-02-12 2015-02-12 一种鲁棒的大场景稠密三维重建方法

Publications (1)

Publication Number Publication Date
CN104715504A true CN104715504A (zh) 2015-06-17

Family

ID=53414795

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510074141.2A Pending CN104715504A (zh) 2015-02-12 2015-02-12 一种鲁棒的大场景稠密三维重建方法

Country Status (1)

Country Link
CN (1) CN104715504A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105184863A (zh) * 2015-07-23 2015-12-23 同济大学 一种基于无人机航拍序列影像的边坡三维重建方法
CN105654492A (zh) * 2015-12-30 2016-06-08 哈尔滨工业大学 基于消费级摄像头的鲁棒实时三维重建方法
CN107330930A (zh) * 2017-06-27 2017-11-07 晋江市潮波光电科技有限公司 三维图像深度信息提取方法
CN109087344A (zh) * 2018-07-18 2018-12-25 四川华雁信息产业股份有限公司 三维重建中的图像选择方法及装置
WO2019042028A1 (zh) * 2017-09-01 2019-03-07 叠境数字科技(上海)有限公司 全视向的球体光场渲染方法
CN110728671A (zh) * 2019-10-15 2020-01-24 西安电子科技大学 基于视觉的无纹理场景的稠密重建方法
WO2022028254A1 (zh) * 2020-08-03 2022-02-10 罗琳捷 定位模型优化方法、定位方法和定位设备
CN114820916A (zh) * 2021-01-22 2022-07-29 四川大学 基于gpu的大型场景三维稠密重建方法
CN115170746A (zh) * 2022-09-07 2022-10-11 中南大学 一种基于深度学习的多视图三维重建方法、系统及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102881043A (zh) * 2012-09-18 2013-01-16 天津工业大学 一种应用于明暗反差大场景的高精度三维重建方法
CN103413352A (zh) * 2013-07-29 2013-11-27 西北工业大学 基于rgbd多传感器融合的场景三维重建方法
CN103426165A (zh) * 2013-06-28 2013-12-04 吴立新 一种地面激光点云与无人机影像重建点云的精配准方法
CN104200523A (zh) * 2014-09-11 2014-12-10 中国科学院自动化研究所 一种融合附加信息的大场景三维重建方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102881043A (zh) * 2012-09-18 2013-01-16 天津工业大学 一种应用于明暗反差大场景的高精度三维重建方法
CN103426165A (zh) * 2013-06-28 2013-12-04 吴立新 一种地面激光点云与无人机影像重建点云的精配准方法
CN103413352A (zh) * 2013-07-29 2013-11-27 西北工业大学 基于rgbd多传感器融合的场景三维重建方法
CN104200523A (zh) * 2014-09-11 2014-12-10 中国科学院自动化研究所 一种融合附加信息的大场景三维重建方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JIAN WEI ET AL: "Multi-View Depth Map Estimation With Cross-View Consistency", 《PROCEEDINGS OF THE BRITISH MACHINE VISION CONFERENCE》 *
SHUHAN SHEN: "Accurate Multiple View 3D Reconstruction Using Pathch-Based Stereo for Large-Scale Scenes", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105184863A (zh) * 2015-07-23 2015-12-23 同济大学 一种基于无人机航拍序列影像的边坡三维重建方法
CN105654492A (zh) * 2015-12-30 2016-06-08 哈尔滨工业大学 基于消费级摄像头的鲁棒实时三维重建方法
CN105654492B (zh) * 2015-12-30 2018-09-07 哈尔滨工业大学 基于消费级摄像头的鲁棒实时三维重建方法
CN107330930A (zh) * 2017-06-27 2017-11-07 晋江市潮波光电科技有限公司 三维图像深度信息提取方法
CN107330930B (zh) * 2017-06-27 2020-11-03 晋江市潮波光电科技有限公司 三维图像深度信息提取方法
US10909752B2 (en) 2017-09-01 2021-02-02 Plex-Vr Digital Technology (Shanghai) Co., Ltd. All-around spherical light field rendering method
WO2019042028A1 (zh) * 2017-09-01 2019-03-07 叠境数字科技(上海)有限公司 全视向的球体光场渲染方法
GB2584753B (en) * 2017-09-01 2021-05-26 Plex Vr Digital Tech Shanghai Co Ltd All-around spherical light field rendering method
GB2584753A (en) * 2017-09-01 2020-12-16 Plex Vr Digital Tech Shanghai Co Ltd All-around spherical light field rendering method
CN109087344A (zh) * 2018-07-18 2018-12-25 四川华雁信息产业股份有限公司 三维重建中的图像选择方法及装置
CN110728671A (zh) * 2019-10-15 2020-01-24 西安电子科技大学 基于视觉的无纹理场景的稠密重建方法
CN110728671B (zh) * 2019-10-15 2021-07-20 西安电子科技大学 基于视觉的无纹理场景的稠密重建方法
WO2022028254A1 (zh) * 2020-08-03 2022-02-10 罗琳捷 定位模型优化方法、定位方法和定位设备
CN114820916A (zh) * 2021-01-22 2022-07-29 四川大学 基于gpu的大型场景三维稠密重建方法
CN114820916B (zh) * 2021-01-22 2023-05-23 四川大学 基于gpu的大型场景三维稠密重建方法
CN115170746A (zh) * 2022-09-07 2022-10-11 中南大学 一种基于深度学习的多视图三维重建方法、系统及设备

Similar Documents

Publication Publication Date Title
CN104715504A (zh) 一种鲁棒的大场景稠密三维重建方法
JP4392507B2 (ja) 3次元サーフェス生成方法
KR102096673B1 (ko) 포인트 클라우드에서의 포인트 백필링
CN103021017B (zh) 基于gpu加速的三维场景重建方法
US7272264B2 (en) System and method for hole filling in 3D models
CN108734728A (zh) 一种基于高分辨序列图像的空间目标三维重构方法
CN113012293B (zh) 石刻模型构建方法、装置、设备及存储介质
CA2914020A1 (en) Texturing a 3d modeled object
Pepe et al. Techniques, tools, platforms and algorithms in close range photogrammetry in building 3D model and 2D representation of objects and complex architectures
TW200935353A (en) Geospatial modeling system and related method using multiple sources of geographic information
quan Li et al. Construction and accuracy test of a 3D model of non-metric camera images using Agisoft PhotoScan
CN113192200B (zh) 一种基于空三并行计算算法的城市实景三维模型的构建方法
CN108399631B (zh) 一种尺度不变性的倾斜影像多视密集匹配方法
CN103606151A (zh) 基于影像点云的大范围虚拟地理场景自动构建方法
CN104063860A (zh) 一种激光点云边缘精细化的方法
CN114494589A (zh) 三维重建方法、装置、电子设备和计算机可读存储介质
Chen et al. Research on 3D reconstruction based on multiple views
CN105701787A (zh) 基于置信度的深度图融合方法
CN113393577B (zh) 一种倾斜摄影地形重建方法
Singh et al. Image based 3D city modeling: Comparative study
KR102318522B1 (ko) 수치표고모델을 이용한 3차원 가상 환경 저작 시스템 및 그것의 동작 방법
Previtali et al. An automatic multi-image procedure for accurate 3D object reconstruction
Re et al. Evaluation of an area-based matching algorithm with advanced shape models
Weßling et al. Structure from motion for systematic single surface documentation of archaeological excavations
Yang et al. A high-realistic texture mapping algorithm based on image sequences

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20150617