CN116805355B - 一种抗场景遮挡的多视图立体重建方法 - Google Patents
一种抗场景遮挡的多视图立体重建方法 Download PDFInfo
- Publication number
- CN116805355B CN116805355B CN202311079988.0A CN202311079988A CN116805355B CN 116805355 B CN116805355 B CN 116805355B CN 202311079988 A CN202311079988 A CN 202311079988A CN 116805355 B CN116805355 B CN 116805355B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- dense
- depth map
- cloud model
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 238000012545 processing Methods 0.000 claims abstract description 14
- 238000009499 grossing Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 239000011159 matrix material Substances 0.000 claims description 5
- 238000004422 calculation algorithm Methods 0.000 claims description 3
- 238000009792 diffusion process Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 13
- 238000004088 simulation Methods 0.000 abstract description 6
- 230000003190 augmentative effect Effects 0.000 abstract description 3
- 238000013079 data visualisation Methods 0.000 abstract description 2
- 239000007787 solid Substances 0.000 abstract description 2
- 230000002708 enhancing effect Effects 0.000 abstract 1
- 230000006870 function Effects 0.000 description 7
- 238000011161 development Methods 0.000 description 5
- 238000010276 construction Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开一种抗场景遮挡的多视图立体重建方法,首先根据输入的图像数据计算场景的稀疏点云模型和摄像机参数;其次,根据稀疏点云模型和摄像机参数,从输入的图像数据中计算场景的半稠密点云模型;再次,根据半稠密的点云模型,计算图像的深度图;第四,计算输入图像的轮廓信息;第五,使用图像的轮廓信息对深度图进行增强处理,获得稠密的深度图;最后,使用稠密的深度图对半稠密的点云模型进行增强处理,即可获得高质量的稠密点云模型。本发明充分利用了图形的轮廓信息,提高遮挡场景下的多视图立体重建的质量,为基于多视图立体重建技术的相关应用领域(例如:虚拟现实、增强现实、数字孪生、元宇宙、农业与工业仿真、数据可视化、自动驾驶、场景的数字化、文化遗产的数字化保护等)奠定坚实的技术基础。
Description
技术领域
本发明涉及三维重建技术,具体涉及一种抗场景遮挡的多视图立体重建方法。
背景技术
基于图像的三维重建(Image-based 3D Reconstruction)是一项具有挑战性的研究课题,目的是从输入图像数据中计算出场景的三维模型,且受到了国内外学者的广泛关注。基于图像的三维重建技术具有广泛的应用前景,例如:元宇宙、数字孪生、三维目标检测、三维目标跟踪、视觉定位与导航、同时定位与地图构建(Simultaneous Localizationand Mapping,SLAM)、文化遗产的数字化保护、古遗址的叙事可视化、自动驾驶、军事仿真、复杂地形构建、工业仿真、四维城市建设、自然灾害仿真与模拟、虚拟现实与增强现实等。基于图像的三维重建技术通常由以下模块所组成:(1)运动推断结构(Structure fromMotion,SfM),用于从图像数据中计算出场景的稀疏点云模型和摄像机参数;(2)多视图立体(Multi-view Stereo,MVS),用于从图像数据中计算出场景的稠密点云模型;(3)表面重建,用于稠密点云中计算出场景的网格模型。本发明提供的“抗场景遮挡的多视图立体重建方法与系统”重点聚焦于稠密点云重建问题,其输入数据是场景的稀疏点云模型和摄像机参数。
随着图像采集设备的快速发展,例如手持相机和消费级无人机设备等,人们很容易为三维重建系统采集大量的图像数据,这些大量的图像数据给三维重建技术带来了新的挑战,主要有:(1)场景中的目标之间存在遮挡,导致重建的稠密点云出现残缺问题,甚至导致三维重建过程失败;(2)大量的图像数据增加了三维重建的时间开销,对硬件计算设备提出了更高的要求。
上述问题严重阻碍了多视图立体重建方法和系统的应用与发展,同时也爆漏了现有多视图立体重建方法与系统存在的不足。因此,人们迫切希望设计和实现一种抗场景遮挡的多视图立体重建方法与系统,以便能够快速地从遮挡场景的图像数据中快速地计算出高质量的稠密点云模型。
目前,关于多视图立体重建方法存在的经典论文有:[1]《Multi-ViewStereoRevisited》,[2]《Plan3D: Viewpoint and Trajectory Optimization for AerialMulti-View Stereo Reconstruction》;[3]《BlendedMVS: A large-scale dataset forgeneralizedmulti-view stereo networks》。论文[1]于2006年发表在CVPR(IEEEComputer Society Conference on Computer Vision andPattern Recognition)会议,是一种通过优化局部视图选择和全局视图选择策略提高三维重建质量的方法;论文[2]于2018年发表在SIGGRAPH(The ACM Special Interest Group on Computer Graphics)会议上,是一种通过优化采集数据过程中无人机的轨迹提高三维重建质量的方法,论文的核心是无人机的路径规划;论文[3]是2020年发表在CVPR(IEEE International Conference onComputer Vision and Pattern Recognition)会议上,是以一种通过深度学习技术生成图像的深度图,然后对深度图进行融合,从而计算出场景的三维点云模型的方法。概括地说,现有的经典多视图立体重建方法的核心思想是:建立在基于深度图融合的多视图立体重建理论和体系之上,使用各种策略提高深度图的质量,进而提高三维模型的质量。但是,这些方法仍然无法解决场景中物体之间的遮挡所导致的三维模型残缺以及导致三维重建过程失败等问题。
综上所述,现有的多视图立体重建方法在处理遮挡场景下的图像数据时,仍然面临如下挑战:(1)现有的多视图立体重建方法计算出来的点云模型出现残缺,破坏了三维模型与真实场景的几何一致性,影响了高层次应用系统的性能;甚至更导致三维重建过程失败。(2)现有的多视图立体重建方法的计算效率太低,难以快速的从大规模遮挡场景的图像数据中计算出三维点云模型。例如,处理1200幅图像需要消耗11天的时间,难以满足高层次应用系统的时间效率需求。因此,上述问题严重影响了多视图立体重建技术的发展和应用,迫切需要一种抗场景遮挡的多视图立体重建方法与系统,以便促进三维重建技术的快速发展。
发明内容
发明目的:本发明的目的在于解决现有技术中存在的不足,提供一种抗场景遮挡的多视图立体重建方法,充分利用遮挡场景中图像的轮廓信息提高深度图的质量,融合高质量的深度图从而获得高精度的三维点云模型,进而促进面向遮挡场景的多视图立体重建技术的快速发展,最终实现能够从大规模遮挡场景的图像数据中快速地计算出高质量的三维点云模型的目标。
技术方案:本发明的一种抗场景遮挡的多视图立体重建方法,包括以下步骤:
步骤S1、对于输入的图像数据,计算对应场景的稀疏点云模型和摄像机参数,/>,/>表示输入图像的数量;
所述稀疏点云模型;/>表示整个场景的稀疏点云所包含的三维点的数量,/>表示第/>个三维点/>在世界坐标系中的位置,/>表示三维点的序号;
所述摄像机参数;/>表示第/>个摄像机的内部参数矩阵,/>表示第/>个摄像机的旋转矩阵,/>表示第/>个摄像机的平移向量,/>表示摄像机的序号;
步骤S2、根据步骤S1所得稀疏点云模型和摄像机参数/>,使用基于块(Patch)扩散的多视图立体法从输入的图像数据(/>)中计算出场景的半稠密点云模型/>,/>;
其中,表示整个半稠密点云中所包含的三维点的数量,/>表示第/>个三维点/>在世界坐标系中的位置,/>表示三维点的序号;
步骤S3、根据S2中的半稠密的点云模型和多视图几何原理计算中各图像的深度图,得到半稠密深度图集合/>;
;/>表示第/>幅图像/>的深度图;
步骤S4、使用轮廓提取算法为输入图像数据中的每一幅图像计算对应的轮廓信息,得到对应轮廓信息集合/>;其中,/>表示第/>幅图像的轮廓;
步骤S5、使用图像的轮廓信息对深度图/>进行增强处理,获得稠密深度图:/>;其中,/>表示第/>幅图像/>的深度图;
步骤S6、使用S5中稠密深度图对S2中半稠密的点云模型/>进行增强处理,即可获得高质量的稠密点云模型/>;
;其中,/>表示整个稠密点云中所包含的三维点的数量,/>表示第/>个三维点/>在世界坐标系中的位置,/>表示三维点的序号。
本发明的步骤S1图像数据既可以是使用无人机采集的航拍图像,又可以是手持相机(包括手机)采集的图像数据;对于所得图像数据/>,获得稀疏点云模型和摄像机参数的具体方法为运动推断结构技术(Structure from Motion,SFM),既可以是全局式的运动推断结构技术,也可以是增量式的运动推断结构技术,还可以是混合式的运动推断结构技术。
进一步地,所述步骤S3中采用多视图几何原理中的反向投影方法从半稠密的点云模型()为S1中的输入图像数据/>计算对应深度图,具体方法为:
首先读取中图像,并转换为HSV格式,计算HSV格式图像的直方图并进行归一化,记录给定的像素点的直方图像素分布模型,然后使用模型寻找图像中存在的该特征,将计算的归一化后的直方图进行反向投影,将三维空间中的点投影到二维平面上,从而得到深度图。
进一步地,所述步骤S5计算稠密深度图的步骤为:
步骤S5.1、记表示稀疏的深度图像/>中的像素点位置,/>表示未知的深度值,/>表示已知的深度值,/>表示已知深度值/>的集合;
步骤S5.2、构造能量函数,如下所示:
(1)
其中,表示误差平方和,/>表示全局的平滑权重;/>和表示水平和垂直方向上的局部平滑权重函数,具体计算如下:
(2)
其中,代表(x,y)处的像素值,/>是正态分布的标准差,用于控制权重函数的平滑程度,/>和/>分别表示水平和垂直方向上的轮廓强度;
步骤S5.3、最小化能量函数,使用非线性最小二乘方法进行求解未知的深度值;
至此获得稠密深度图像,;其中,/>表示第/>幅图像/>的深度图,/>表示输入图像的数量。进一步地,所述步骤S6获得高质量稠密点云模型的详细步骤为:
步骤S6.1、记表示稠密深度图中的像素/>的置信度,因此,可以定义深度值的置信度能量函数,如下所示:
(3)
其中,和/>的计算方法如下:
(4)
步骤S6.2、使用最小二乘方法快速计算出每个深度值的置信度;
如果置信度,则将深度图中的点/>添加到半稠密点云模型中;假设点/>表示空间中的三维点,/>和/>分别表示在深度图/>和/>上的投影点,如果/>,则将/>添加到点云模型中,即取置信度最大的点,保证稠密点云模型的精确性;
步骤S6.3、重复步骤S6.2,直到所有的稠密深度图像()均处理完毕为止,即可获得稠密点云模/>。
有益效果:与现有技术相比,本发明具有如下优点:
(1)本发明提供的多视图立体重建方法仅计算输入图像的半稠密的深度图,避免计算稠密深度图所带来的时间开销,提高了三维重建的时间效率。
(2)本发明提供的多视图立体重建方法充分利用图像的轮廓信息提高了深度图的质量,弥补了遮挡区域的深度图残缺问题。
(3)本发明提供的多视图立体重建方法既提高了三维点云模型的质量,又降低了三维重建过程的时间开销,为设计和开发面向遮挡场景的快速及高精度的多视图立体重建方法与系统奠定了基础。
附图说明
图1为本发明的整体流程示意图;
图2为本实施例中的输入图像数据的样本;
图3为本实施例中的输入图像数据对应的稀疏点云模型;
图4为本实施例中的输入图像数据的样本对应的深度图;
图5为本实施例输出的三维点云模型。
具体实施方式
下面对本发明技术方案进行详细说明,但是本发明的保护范围不局限于所述实施例。
本发明从遮挡场景的图像数据中计算出高质量的三维点云模型,核心思想如下:首先根据输入的图像数据计算场景的稀疏点云模型和摄像机参数;其次,根据稀疏点云模型和摄像机参数,从输入的图像数据中计算场景的半稠密点云模型;再次,根据半稠密点云模型,计算图像的半稠密深度图;接着计算输入图像的轮廓信息;并使用图像的轮廓信息对半稠密深度图进行增强处理,获得稠密深度图;最后,使用稠密深度图对半稠密点云模型进行增强处理,即可获得高质量的稠密点云模型。
如图1所示,本实施例的抗场景遮挡的多视图立体重建方法,包括以下步骤:
步骤S1、对于输入的图像数据,计算对应场景的稀疏点云模型和摄像机参数,/>,/>表示输入图像的数量;
所述稀疏点云模型;/>表示整个场景的稀疏点云所包含的三维点的数量,/>表示第/>个三维点/>在世界坐标系中的位置,/>表示三维点的序号;
所述摄像机参数;/>表示第/>个摄像机的内部参数矩阵,/>表示第/>个摄像机的旋转矩阵,/>表示第/>个摄像机的平移向量,/>表示摄像机的序号;
步骤S2、根据步骤S1所得稀疏点云模型和摄像机参数/>,使用基于块(Patch)扩散的多视图立体方法从输入的图像数据(/>)中计算出场景的半稠密点云模型/>,/>;其中,/>表示整个稀疏点云中所包含的三维点的数量,/>表示第/>个三维点/>在世界坐标系中的位置,/>表示三维点的序号;
步骤S3、根据S2中的半稠密的点云模型和多视图几何原理计算图像的深度图/>;
;/>表示第/>幅图像/>的深度图;
步骤S4、使用轮廓提取算法为输入图像数据中的每一幅图像计算对应的轮廓信息,得到对应轮廓信息集合/>;其中,/>表示第/>幅图像的轮廓;
步骤S5、使用图像的轮廓信息对深度图数据/>进行增强处理,获得稠密深度图:/>;其中,/>表示第/>幅图像/>的深度图;
步骤S6、使用S5中稠密的深度图对S2中半稠密的点云模型/>进行增强处理,即可获得高质量的稠密点云模型/>;
;其中,/>表示整个稠密点云中所包含的三维点的数量,/>表示第/>个三维点/>在世界坐标系中的位置,/>表示三维点的序号。
本实施例中,步骤S5计算稠密深度图的具体步骤为:
步骤S5.1、记表示稀疏的深度图像/>中的像素点位置,/>表示未知的深度值,/>表示已知的深度值,/>表示已知深度值/>的集合;
步骤S5.2、构造能量函数,如下所示:
(1)
其中,表示全局的平滑权重;/>和/>表示水平和垂直方向上的局部平滑权重函数,具体计算如下:
(2)
其中,和/>分别表示水平和垂直方向上的轮廓强度;
步骤S5.3、最小化能量函数,使用非线性最小二乘方法进行求解深度值/>;
至此获得稠密深度图像,;其中,/>表示第/>幅图像/>的深度图。
本实施例中,步骤S6获得高质量稠密点云模型的详细步骤为:
步骤S6.1、记表示稠密深度图中的像素/>的置信度,则深度值的置信度能量函数如下所示:
(3)
其中,和/>的计算方法如下:
(4)
步骤S6.2、使最小二乘方法计算每个深度值的置信度;
如果置信度,则将深度图中的点/>添加到半稠密点云模型中;假设点/>表示空间中的三维点,/>和/>分别表示在深度图/>和/>上的投影点,如果/>,则将/>添加到点云模型中,即取置信度最大的点;
步骤S6.3、重复步骤S6.2,直到所有的稠密深度图像均处理完毕为止,即可获得稠密点云模型/>。
实施例:
本实施例的输入图像的样本如图2所示,本实施例的最终重建结果如图5所示,可以看出从遮挡场景的图像中重建出的稠密点云模型与真实场景具有较高的几何一致性。
通过上述实施例可以看出,本发明首先计算出完整场景的稀疏点云模型(如图3所示),其次,根据稀疏点云模型和摄像机参数,从输入的图像数据中计算场景的半稠密点云模型;再次,根据半稠密点云模型,计算图像的深度图;第四,计算输入图像的轮廓信息;第五,使用图像的轮廓信息对深度图进行增强处理,获得稠密深度图(如图4所示);最后,使用稠密的深度图对半稠密的点云模型进行增强处理,即可获得高质量的稠密点云模型(如图5所示)。
本发明充分利用了图形的轮廓信息,提高遮挡场景下的多视图立体重建的质量,为基于多视图立体重建技术的相关应用领域(例如:虚拟现实、增强现实、数字孪生、元宇宙、农业与工业仿真、数据可视化、自动驾驶、场景的数字化、文化遗产的数字化保护等)奠定坚实的技术基础。
此外,本实施例技术方案处理2000幅高分辨率的图像数据仅需要使用1个小时,且仅占用12Gb内存空间,这说明本发明提供的“抗场景遮挡的多视图立体重建方法与系统”既能够提高遮挡场景的多视图立体重建质量,又可以避免处理大规模图像数据时所导致的内存溢出问题。
Claims (2)
1.一种抗场景遮挡的多视图立体重建方法,其特征在于,包括以下步骤:
步骤S1、对于输入的图像数据 ,计算对应场景的稀疏点云模型和摄像机参数,/>,/>表示输入图像的数量;
所述稀疏点云模型;/>表示整个场景的稀疏点云所包含的三维点的数量,/>表示第/>个三维点/>在世界坐标系中的位置,/>表示三维点的序号;
所述摄像机参数;/>表示第/>个摄像机的内部参数矩阵,/>表示第/>个摄像机的旋转矩阵,/>表示第/>个摄像机的平移向量,/>表示摄像机的序号;
步骤S2、根据步骤S1所得稀疏点云模型和摄像机参数/>,使用基于块扩散的多视图立体法从图像数据/>中计算出场景的半稠密点云模型/>,;
其中,表示整个半稠密点云中所包含的三维点的数量,/>表示第/>个三维点在世界坐标系中的位置,/>表示三维点的序号;
步骤S3、根据S2中的半稠密的点云模型和多视图几何原理计算/>中各图像的深度图,得到半稠密深度图集合/>;
;/>表示第/>幅图像/>的半稠密深度图;
步骤S4、使用轮廓提取算法为图像数据中的每一幅图像计算对应的轮廓信息,得到对应轮廓信息集合/>;其中,/>表示第/>幅图像/>的轮廓;
步骤S5、使用步骤S4所得轮廓信息对步骤S3所得深度图/>进行增强处理,获得稠密深度图/>:/>;其中,/>表示第/>幅图像/>的稠密深度图;
步骤S5.1、记表示稀疏的深度图像/>中的像素点位置,/>表示未知的深度值,表示已知的深度值,/>表示已知深度值/>的集合;
步骤S5.2、构造能量函数,如下所示:
(1)
其中,表示误差平方和,/>表示全局的平滑权重;/>和表示水平和垂直方向上的局部平滑权重函数,具体计算如下:
(2)
其中,代表(x,y)处的像素值,/>是正态分布的标准差,用于控制权重函数的平滑程度,/>和/>分别表示水平和垂直方向上的轮廓强度;
步骤S5.3、最小化能量函数,使用非线性最小二乘方法进行求解深度值/>;
至此获得稠密深度图像,;其中,/>表示第/>幅图像/>的稠密深度图;
步骤S6、使用S5中稠密的深度图对S2中半稠密的点云模型/>进行增强处理,即可获得高质量的稠密点云模型/>;
;其中,/>表示整个稠密点云中所包含的三维点的数量,/>表示第/>个三维点/>在世界坐标系中的位置,/>表示三维点的序号;
步骤S6.1、记表示稠密深度图中的像素/>的置信度,则深度值的置信度能量函数如下所示:
(3)
其中,和/>的计算方法如下:
(4)
步骤S6.2、使最小二乘方法计算每个深度值的置信度;
如果置信度,则将深度图中的点/>添加到半稠密点云模型/>中;假设点/>表示空间中的三维点,/>和/>分别表示在深度图/>和/>上的投影点,如果/>,则将/>添加到点云模型中,即取置信度最大的点;
步骤S6.3、重复S6.2,直到所有的稠密深度图像均处理完毕为止,即可获得稠密点云模型/>。
2.根据权利要求1所述的抗场景遮挡的多视图立体重建方法,其特征在于,所述步骤S3计算深度图的具体方法为:
首先读取中图像,并转换为HSV格式,计算HSV格式图像的直方图并进行归一化,记录给定的像素点的直方图像素分布模型,然后使用模型寻找图像中存在的该特征,将计算的归一化后的直方图进行反向投影,将三维空间中的点投影到二维平面上,从而得到深度图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311079988.0A CN116805355B (zh) | 2023-08-25 | 2023-08-25 | 一种抗场景遮挡的多视图立体重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311079988.0A CN116805355B (zh) | 2023-08-25 | 2023-08-25 | 一种抗场景遮挡的多视图立体重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116805355A CN116805355A (zh) | 2023-09-26 |
CN116805355B true CN116805355B (zh) | 2023-11-21 |
Family
ID=88079782
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311079988.0A Active CN116805355B (zh) | 2023-08-25 | 2023-08-25 | 一种抗场景遮挡的多视图立体重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116805355B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115512042A (zh) * | 2022-09-15 | 2022-12-23 | 网易(杭州)网络有限公司 | 网络训练及场景重建方法、装置、机械、系统及设备 |
CN115719407A (zh) * | 2023-01-05 | 2023-02-28 | 安徽大学 | 一种面向大规模航拍图像的分布式多视图立体重建方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170171525A1 (en) * | 2015-12-14 | 2017-06-15 | Sony Corporation | Electronic system including image processing unit for reconstructing 3d surfaces and iterative triangulation method |
US11727587B2 (en) * | 2019-11-12 | 2023-08-15 | Geomagical Labs, Inc. | Method and system for scene image modification |
-
2023
- 2023-08-25 CN CN202311079988.0A patent/CN116805355B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115512042A (zh) * | 2022-09-15 | 2022-12-23 | 网易(杭州)网络有限公司 | 网络训练及场景重建方法、装置、机械、系统及设备 |
CN115719407A (zh) * | 2023-01-05 | 2023-02-28 | 安徽大学 | 一种面向大规模航拍图像的分布式多视图立体重建方法 |
Non-Patent Citations (3)
Title |
---|
Surface reconstruction from a sparse point cloud by enforcing visibility consistency and topology constraints;Maxime Lhuillier 等;《Computer Vision and Image Understanding》;第52–71页 * |
丝路文化虚拟体验中的多视角立体重建技术研究;李兆歆 等;《计算机学报》;第第45卷卷(第第3期期);第500-512页 * |
基于低分辨率彩色指导图像的深度图像超分辨率重建.《图学学报》.2018,第39卷(第2期),第235-243页. * |
Also Published As
Publication number | Publication date |
---|---|
CN116805355A (zh) | 2023-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111968129B (zh) | 具有语义感知的即时定位与地图构建系统及方法 | |
CN111462329B (zh) | 一种基于深度学习的无人机航拍影像的三维重建方法 | |
CN103400409B (zh) | 一种基于摄像头姿态快速估计的覆盖范围3d可视化方法 | |
CN110853075B (zh) | 一种基于稠密点云与合成视图的视觉跟踪定位方法 | |
CN103247075A (zh) | 基于变分机制的室内环境三维重建方法 | |
CN114241125B (zh) | 一种基于多视角卫星影像精细三维建模方法及系统 | |
CN114359509A (zh) | 一种基于深度学习的多视图自然场景重建方法 | |
CN113192200B (zh) | 一种基于空三并行计算算法的城市实景三维模型的构建方法 | |
CN115719407A (zh) | 一种面向大规模航拍图像的分布式多视图立体重建方法 | |
CN116977596A (zh) | 一种基于多视角图像的三维建模系统及方法 | |
CN115049794A (zh) | 通过深度补全生成稠密的全局点云图方法及系统 | |
CN117115359B (zh) | 一种基于深度图融合的多视图电网三维空间数据重建方法 | |
CN117132737B (zh) | 一种三维建筑模型构建方法、系统及设备 | |
CN107610216B (zh) | 基于粒子群优化多视角立体点云生成方法及应用的摄像机 | |
CN115631317B (zh) | 隧道衬砌正射影像生成方法及装置、存储介质、终端 | |
CN116805355B (zh) | 一种抗场景遮挡的多视图立体重建方法 | |
Chen et al. | Densefusion: Large-scale online dense pointcloud and dsm mapping for uavs | |
CN116704112A (zh) | 一种用于对象重建的3d扫描系统 | |
CN111260712A (zh) | 一种基于重聚焦极线图邻域分布的深度估计方法和装置 | |
CN113850293B (zh) | 基于多源数据和方向先验联合优化的定位方法 | |
KR102558095B1 (ko) | 의미론적 객체 매칭을 통한 파노라마 텍스처 매핑 방법 및 시스템 | |
CN113554102A (zh) | 代价计算动态规划的航空影像dsm匹配法 | |
Wang et al. | State of the art in dense image matching cost computation for high-resolution satellite stereo | |
Yang et al. | A high-realistic texture mapping algorithm based on image sequences | |
Wu et al. | Building Facade Reconstruction Using Crowd-Sourced Photos and Two-Dimensional Maps |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |