CN116109781B - 一种三维重建方法及系统 - Google Patents

一种三维重建方法及系统 Download PDF

Info

Publication number
CN116109781B
CN116109781B CN202310382872.8A CN202310382872A CN116109781B CN 116109781 B CN116109781 B CN 116109781B CN 202310382872 A CN202310382872 A CN 202310382872A CN 116109781 B CN116109781 B CN 116109781B
Authority
CN
China
Prior art keywords
point cloud
dimensional
image
reconstruction
weak texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310382872.8A
Other languages
English (en)
Other versions
CN116109781A (zh
Inventor
李广来
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Qiyu Innovation Technology Co ltd
Original Assignee
Shenzhen Qiyu Innovation Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Qiyu Innovation Technology Co ltd filed Critical Shenzhen Qiyu Innovation Technology Co ltd
Priority to CN202310382872.8A priority Critical patent/CN116109781B/zh
Publication of CN116109781A publication Critical patent/CN116109781A/zh
Application granted granted Critical
Publication of CN116109781B publication Critical patent/CN116109781B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)

Abstract

本发明涉及三维重建技术领域,尤其涉及一种三维重建方法,包括:获取对应于待重建目标的多张图像,多张所述图像中至少部分含有弱纹理图像;对所述图像进行SFM稀疏重建得到第一点云;对弱纹理图像重建得到第二点云;对第二点云进行数据优化,优化过程包括点云滤波和匀光匀色。增加了对弱纹理图像的单独处理,丰富点云数据,填补SFM稀疏重建在弱纹理图像区域中的点云缺失,对弱纹理图像区域重建的点云并对点云进行点云滤波、匀光匀色,使重建更加精确,颜色更均匀,能够达到更好的重建效果。

Description

一种三维重建方法及系统
技术领域
本发明涉及三维重建技术领域,尤其涉及一种三维重建方法及系统。
背景技术
通过图像进行三维重建应用于各个领域,一般的重建流程为对极几何进行SFM、稠密重建、网格表面重建,纹理贴图。在这个过程中,如果重建的物体中含有大量的弱纹理图像如白墙,会导致重建效果不佳。因为三维重建通常由立体像对中的同名像点通过三角量测得到物体的三维点,但是弱纹理区域由于特征较少、纹理信息单一,无法在立体相对中找到同名点,无法进行重建。而由于弱纹理区域的重建点缺失,导致最终的重建效果不佳。
现有技术中对弱纹理重建主要采用聚类分割法和多尺度估计法。聚类分割法的主要思想是将一块颜色相近的弱纹理区域看成同一块表面,进行聚类分割,再进行视差估计,但是由于聚类本身会存在过分割和欠分割的情况,效果并不理想;多尺度估计法是由于弱纹理区域在原尺度图像的滑动窗口下不易区分,通过扩大滑动窗口或在低分辨率图像上进行立体匹配,再映射到原分辨率图像上,但这样会增加计算量。
发明内容
本发明提供了一种三维重建方法及系统,旨在解决传统的通过图像进行重建过程,由于弱纹理的存在重建点缺失,导致重建效果不佳的问题。
为解决上述技术问题,本发明的第一方案提供一种三维重建方法,包括:
获取对应于待重建目标的多张图像,多张所述图像中至少部分含有弱纹理图像;
对所述图像进行SFM稀疏重建得到第一点云;
对弱纹理图像重建得到第二点云;
对第二点云进行数据优化,优化过程包括点云滤波和匀光匀色。
将第一点云与第二点云叠加融合,得到待重建目标的全部点云。
本发明的第二方案提供了一种三维重建系统,包括摄像头和三维重建模块,所述摄像头和所述三维重建模块被配置为采用上述的三维重建方法进行三维重建。
本发明的有益效果:
本发明所提供的三维重建方法中,不同于现有技术,在通过SFM稀疏重建得到点云后,增加了对弱纹理图像的单独处理,对弱纹理图像进行重建得到弱纹理图像的点云,丰富点云数据,填补SFM稀疏重建在弱纹理图像区域中的点云缺失,能够达到更好的重建效果。
弱纹理图像重建采用单像片法,即使用单张图像对其中包含的弱纹理图像进行点云重建,更加简单方便,计算量更小,适应场景也更广。对由多张图像进行单像片重建得到的点云,进行数据优化,通过点云滤波去除其中的重复点,匀光匀色使多张图像重建得到的三维点颜色更均匀,能够对弱纹理图像区域重建更加精确,显示效果更好。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中三维重建方法的步骤流程图;
图2为本发明实施例中基于空间patch融合方法示意图。
实施方式
为了使得本公开的目的、技术方案和优点更为明显,下面将参照附图详细描述根据本公开的示例实施例。显然,所描述的实施例仅仅是本公开的一部分实施例,而不是本公开的全部实施例,应理解,本公开不受这里描述的示例实施例的限制。基于本公开中描述的实施例,本领域技术人员在没有付出创造性劳动的情况下所得到的所有其它实施例都应落入本公开的保护范围之内。
本发明的实施例提供了一种三维重建方法,包括:
获取对应于待重建目标的多张图像,多张所述图像中至少部分含有弱纹理图像;
对所述图像进行SFM稀疏重建得到第一点云;
对弱纹理图像重建得到第二点云;
对第二点云进行数据优化,优化过程包括点云滤波和匀光匀色。
在现有技术中,对于含有大量弱纹理图像的带重建物体或场景,如白墙、玻璃等,在采用SFM稀疏重建时,可能只能重建出轮廓和由明显特征的点,对其中的弱纹理图像区域重建效果不好,仅能重建出很少的三维点,会出现大面积的空洞,本实施例的方法中,不同于现有技术,在通过SFM稀疏重建得到点云后,增加了对弱纹理图像区域的单独处理,对弱纹理图像进行重建得到弱纹理图像的点云,丰富点云数据,填补SFM稀疏重建在弱纹理图像区域中的点云缺失,能够达到更好的重建效果。
弱纹理图像重建采用单像片法,即使用单张图像对其中包含的弱纹理图像进行点云重建,更加简单方便,计算量更小,适应场景也更广。对由多张图像进行单像片重建得到的点云,进行数据优化,通过点云滤波去除其中的重复点,匀光匀色使多张图像重建得到的三维点颜色更均匀,能够对弱纹理图像区域重建更加精确,显示效果更好。
上述所采用的多张图像的拍摄角度不同,以保证对弱纹理图像区域的重建效果。
将第一点云与第二点云叠加融合,即得到待重建目标的全部点云。
得到带重建目标的全部点云后再通过后续的网格表面重建和纹理贴图即可完成整个物体或场景的重建。
作为一种可选的实施方式,对弱纹理图像重建得到第二点云,包括:
识别并分割图像中包含的弱纹理平面;
通过弱纹理平面在三维坐标系中的至少三个三维点,拟合该弱纹理平面在三维坐标系下的平面方程;
将平面方程代入到映射模型中,得到通过像点坐标求解对应三维坐标点的关系模型,所述映射模型为三维点投影到像平面坐标下的映射模型;
通过像点坐标和所述关系模型求解三维坐标点,多张图像中包含的弱纹理平面求解的三维点组成第二点云。
一张图像上可能会包括多个弱纹理平面,本发明的实施例中,首先需要识别并分割获得这些弱纹理平面,然后依托规则平面的特性,即空间中的三个点分布在同一个平面上,根据弱纹理平面在三维坐标系中对应的至少三个三维点拟合出弱纹理平面的空间平面方程,在通过三维点投影到像平面坐标下的映射模型求解对应的三维点坐标时,添加弱纹理平面的平面方程作为约束条件,在相机的内参和外参已知的情况下,即可通过弱纹理平面上的的像平面坐标点解算对应的三维点坐标,并可得到三维点坐标的颜色信息,而多张图像中包含的弱纹理平面求解的三维点则组成了弱纹理图像区域的三维点云。相对于现有技术中对弱纹理重建主要采用的聚类分割法和多尺度估计法,一方面重建效果更理想,另一方面重建更加简单,容易实现,对计算量要求较低,有良好的场景易用性。
可以使用语义识别的方法进行分析,识别并分割图像中的弱纹理平面,能够达到较好的识别和分割效果。
上述方法中使用建立空间平面方程使用的至少三个三维点为在通过SFM稀疏重建中获得的第一点云中弱纹理平面对应的三维点。需要注意的是,对于弱纹理图像区域,SFM稀疏重建并非不能获得重建点,而是仅能获得少量的重建点,这些重建点不足以完成重建,但能够为单像片重建提供拟合平面方程所需的三维点。
对弱纹理图像重建得到的第二点云,是对多张图像的弱纹理平面进行单像片重建得到的,这样就会存在多张、不同角度图像重建同一弱纹理平面点云的问题,这样一方面会存在点云冗余的问题,另一方面也会引起重建平面不一致的问题。
为了解决点云冗余的问题,要进行点云滤波,剔除到空间中的重复点,常见的方法有:体素网格采样、均匀采样、几何采样、随机下采样等。其中体素网格采样,速度快、可以满足大部分点云处理需求;均匀采样精度较高,比较耗时;几何采样需要点云的表面特征丰富;随机采样具有随机性。
基于当前点云的特性,本发明的实施例中采用体素网格采样进行点云降采样,首先将点云空间进行网格化,也称体素化,网格化后的每一个格子称为一个体素,在这些划分为一个个极小的格子中包含一些点,然后对这些点取平均或加权平均得到一个点,以此来替代原来网格中所有的点,网格选取越大则采样之后的点云越少,处理速度变快,但会对原先点云过度模糊,网格选取越小,则会降低处理速度,但也更加精确。
为了解决重建平面不一致的问题,要进行匀光匀色处理。传统的处理方法是采用光度一致性假设进行处理,光度一致性假设是指同一空间的点在不同视角的投影应当具有相同的颜色。但由于本发明的实施例中重建过程的特殊性,即通过单张图像重建,没有三维点和多张图像二维点的对应关系,无法采用传统的方法进行处理。
首先需要采用一种新的数据结构存储三维点云,点云后面附加图像ID属性,{X、Y、Z、R、G、B、image_id};然后对点云进行空间patch划分,即在点云空间的平面内建立patch;随后遍历patch内的三维点的图像ID并统计不同图像ID的数量,根据不同图像ID数量的比例对patch内点的颜色进行加权融合,进行颜色均匀化;最后以patch作为滑动窗口遍历平面上的点云进行颜色均化,使重建的平面颜色均匀,重建效果更好,垂直于同一法线的不同空间平面均采用上述的方法进行匀光匀色处理。
本发明的实施例还提供了一种弱纹理表面的三维重建系统,包括摄像头和三维重建模块,所述摄像头和所述三维重建模块被配置为采用上述的三维重建方法进行三维重建。
下面针对本发明三维重建方法的一具体实施例进行说明。
请参照图1,一种三维重建方法,包括以下步骤:
S1:通过旋转摄像头对待重建物体进行不同角度的拍摄,得到多张不同角度的二维图像,多张不同角度的二维图像组成图像集,图像集的内容为待重建的物体或场景,图像中至少有部分包括弱纹理图像。
S2:对所拍摄的图像进行SFM稀疏重建,得到了第一点云,第一点云中包括具有明显特征区域的大量点云和弱纹理图像区域的少量点云。
S3:遍历图像集中的每张图像,通过语义识别的方法进行分析,识别并分割得到其中包含的多个弱纹理平面。
S4:通过单像片重建获得弱纹理平面上的像点对应的三维点坐标,得到第二点云。其中,
单像片重建的最低条件为需要:相机内参、无畸变的图像、相机外参和空间平面方程。相机内参采用张氏标定法进行标定,可通过opencv库、Matlab工具箱现有的工具进行标定,也可在Bundle Adjustment中把相机内参的优化加进去求解内参,对相机标定的步骤一般在SFM稀疏重建前已完成;无畸变的图像可以采用迭代法去畸变,在SFM稀疏重建中也已完成该步骤;相机外参可通过PNP、EPNP、P3P等多种方法求解,如重建时未求解过相机外参则需要先求解相机外参;空间平面方程则需要根据弱纹理平面在三维坐标系中的至少三个不共线点进行拟合,一般通过SFM稀疏重建获得,可通过RANSAC、ACRANSAC拟合空间平面方程,拟合空间平面方程具体如下:
Figure SMS_1
其中,
Figure SMS_2
为空间平面方程的系数。
假设三个不共线的点坐标为P1(x1,y1,z1),P2(x2,y2,z2),P3(x3,y3,z3),将三个点的坐标代入上述方程,即可求得
Figure SMS_3
的值。
满足重建所需的最低条件即可进行单像片重建,根据相机投影模型获得空间中的三维点和像点之间的对应关系,再联合空间平面方程,即可得到由像点坐标求解物方坐标系中的三维坐标的关系模型。
三维点投影到像平面坐标下的映射模型如下所示:
Figure SMS_4
式中:
Figure SMS_5
—像平面坐标;
Figure SMS_6
—深度值;
Figure SMS_7
—旋转矩阵的系数;
Figure SMS_8
—物方坐标点;
Figure SMS_9
—平移向量的系数。
联合空间平面方程由像点坐标求解物方坐标系中的三维坐标的关系模型,具体表达形式如下所示:
Figure SMS_10
将像点坐标代入关系模型中求解对应的三维点,多张像片中包含的弱纹理平面求解的三维点组成了第二点云。
S5:对第二点云进行数据优化,主要包括点云滤波、匀光匀色。点云滤波可以采用体素网格采样,这里就不再赘述。
匀光匀色处理采用基于空间patch融合方法进行,下面以图2为例对基于空间patch融合方法进行示意,图中p为重建出来空间中的平面,
Figure SMS_11
为平面的法线,patch为平面中的一个3×3大小的区域,patch内的点/>
Figure SMS_12
由第一张图像重建出,点
Figure SMS_13
由第二张图像重建出,点云的存储形式为{X、Y、Z、R、G、B、image_ID},如第一张图像重建出的点image_ID为1,第二张图像重建出的点image_ID为2。
首先要构建patch大小,此例中大小为3×3,以A点为中心的patch内周围有8个邻域点云,以上仅做示例,并非实际情况,实际应用时patch大小根据需求确定,patch内的点云数量一般会更多;
然后遍历patch中的点,根据不同的图像ID的数量比例,计算相应的权重,对颜色进行加权融合。
Figure SMS_14
A为融合后的颜色{ R、G、B }
最后以patch作为滑动窗口遍历平面上的点云进行颜色均化,通过patch达到对空间中的平面进行划分处理的目的。
S6:将第一点云与第二点云叠加融合,得到待重建目标的全部点云。
S7:网格表面重建和纹理贴图,网格表面重建包括Delaunay网格构网和RefinedMesh网格优化。
以上结合具体实施例描述了本公开的基本原理,但是,需要指出的是,在本公开中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本公开的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本公开为必须采用上述具体的细节来实现。
本公开中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
另外,如在此使用的,在以“至少一个”开始的项的列举中使用的“或”指示分离的列举,以便例如“A、B或C的至少一个”的列举意味着A或B或C,或AB或AC或BC,或ABC(即A和B和C)。此外,措辞“示例的”不意味着描述的例子是优选的或者比其他例子更好。
还需要指出的是,在本公开的系统和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本公开的等效方案。
可以不脱离由所附权利要求定义的教导的技术而进行对在此所述的技术的各种改变、替换和更改。此外,本公开的权利要求的范围不限于以上所述的处理、机器、制造、事件的组成、手段、方法和动作的具体方面。可以利用与在此所述的相应方面进行基本相同的功能或者实现基本相同的结果的当前存在的或者稍后要开发的处理、机器、制造、事件的组成、手段、方法或动作。因而,所附权利要求包括在其范围内的这样的处理、机器、制造、事件的组成、手段、方法或动作。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本公开。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本公开的范围。因此,本公开不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本公开的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。

Claims (8)

1.一种三维重建方法,其特征在于,包括:
获取对应于待重建目标的多张图像,多张所述图像中至少部分含有弱纹理图像;
对所述图像进行SFM稀疏重建得到第一点云;
对弱纹理图像重建得到第二点云;
对第二点云进行数据优化,优化过程包括点云滤波和匀光匀色;
对弱纹理图像重建得到第二点云,包括:
识别并分割图像中包含的弱纹理平面;
通过弱纹理平面在三维坐标系中的至少三个三维点,拟合该弱纹理平面在三维坐标系下的平面方程;
将平面方程代入到映射模型中,得到通过像点坐标求解对应三维坐标点的关系模型,所述映射模型为三维点投影到像平面坐标下的映射模型;
通过像点坐标和所述关系模型求解三维坐标点,多张图像中包含的弱纹理平面求解的三维点组成第二点云;
所述匀光匀色包括:
重建时给每个三维点附加图像ID属性;
在重建出来的第二点云空间中的平面内建立patch;
遍历patch内的三维点的图像ID,并统计不同图像ID的数量,根据不同图像ID数量的比例对patch内三维点的颜色进行加权融合,进行颜色均匀化;
以patch作为滑动窗口,遍历平面上的点云进行颜色均化。
2.根据权利要求1所述的三维重建方法,其特征在于,拟合平面方程所使用的至少三个三维点为在通过SFM稀疏重建中获得的第一点云中弱纹理平面对应的三维点。
3.根据权利要求1所述的三维重建方法,其特征在于,使用语义识别方法对图像进行分析,识别并分割图像中的弱纹理平面。
4.根据权利要求1所述的三维重建方法,其特征在于,所述点云滤波包括:
将点云空间网格化;
将网格内的多个点取平均或加权平均得到一个点,替代原来网格中的点。
5.根据权利要求1所述的三维重建方法,其特征在于,多张所述图像的拍摄角度不同。
6.根据权利要求1所述的三维重建方法,其特征在于,还包括:将第一点云与第二点云叠加融合,得到待重建目标的全部点云。
7.根据权利要求1所述的三维重建方法,其特征在于,还包括:网格表面重建和纹理贴图。
8.一种三维重建系统,其特征在于,包括摄像头和三维重建模块,所述摄像头和所述三维重建模块被配置为采用所述权利要求1-7中任一项的三维重建方法进行三维重建。
CN202310382872.8A 2023-04-12 2023-04-12 一种三维重建方法及系统 Active CN116109781B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310382872.8A CN116109781B (zh) 2023-04-12 2023-04-12 一种三维重建方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310382872.8A CN116109781B (zh) 2023-04-12 2023-04-12 一种三维重建方法及系统

Publications (2)

Publication Number Publication Date
CN116109781A CN116109781A (zh) 2023-05-12
CN116109781B true CN116109781B (zh) 2023-06-23

Family

ID=86260055

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310382872.8A Active CN116109781B (zh) 2023-04-12 2023-04-12 一种三维重建方法及系统

Country Status (1)

Country Link
CN (1) CN116109781B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108765298A (zh) * 2018-06-15 2018-11-06 中国科学院遥感与数字地球研究所 基于三维重建的无人机图像拼接方法和系统
CN110148180A (zh) * 2019-04-22 2019-08-20 河海大学 一种激光雷达与相机融合装置与标定方法
CN111666935A (zh) * 2019-03-06 2020-09-15 北京京东尚科信息技术有限公司 物品中心定位方法、装置以及物流系统和存储介质
CN112509141A (zh) * 2020-12-22 2021-03-16 华南理工大学 一种建筑室内三维点云数据中正交平面对的提取方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9905039B2 (en) * 2014-02-21 2018-02-27 Qualcomm Incorporated View independent color equalized 3D scene texturing
CN114494589A (zh) * 2022-01-14 2022-05-13 广州极飞科技股份有限公司 三维重建方法、装置、电子设备和计算机可读存储介质
CN115345990A (zh) * 2022-07-19 2022-11-15 土豆数据科技集团有限公司 针对弱纹理场景的倾斜摄影三维重建方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108765298A (zh) * 2018-06-15 2018-11-06 中国科学院遥感与数字地球研究所 基于三维重建的无人机图像拼接方法和系统
CN111666935A (zh) * 2019-03-06 2020-09-15 北京京东尚科信息技术有限公司 物品中心定位方法、装置以及物流系统和存储介质
CN110148180A (zh) * 2019-04-22 2019-08-20 河海大学 一种激光雷达与相机融合装置与标定方法
CN112509141A (zh) * 2020-12-22 2021-03-16 华南理工大学 一种建筑室内三维点云数据中正交平面对的提取方法

Also Published As

Publication number Publication date
CN116109781A (zh) 2023-05-12

Similar Documents

Publication Publication Date Title
CN110363858B (zh) 一种三维人脸重建方法及系统
CN108335352B (zh) 一种面向多视图大规模三维重建场景的纹理映射方法
WO2018127007A1 (zh) 深度图获取方法及系统
KR101482578B1 (ko) 에지 검출 및 셰이더 재사용을 이용한 멀티­뷰 광선 추적
CN111243071A (zh) 实时三维人体重建的纹理渲染方法、系统、芯片、设备和介质
CN106408513B (zh) 深度图超分辨率重建方法
CN111462030A (zh) 多图像融合的立体布景视觉新角度构建绘制方法
CN110517348B (zh) 基于图像前景分割的目标物体三维点云重建方法
KR101345458B1 (ko) 객체의 3 차원 모델 생성 방법, 시스템 및 3차원 모델 생성기
CN108898658A (zh) 基于光影优化的三维几何与本征成份重建方法及装置
CN113822924B (zh) 空间中的元素定位
CN115035235A (zh) 三维重建方法及装置
CN112465984A (zh) 一种基于双层过滤的单目相机序列图像三维重构方法
Jantet et al. Joint projection filling method for occlusion handling in depth-image-based rendering
CN117501313A (zh) 基于深度神经网络的毛发渲染系统
CN116109781B (zh) 一种三维重建方法及系统
Waschbüsch et al. 3d video billboard clouds
CN115908731A (zh) 一种基于云边协同的双无人机三维重建方法
Wong et al. 3D object model reconstruction from image sequence based on photometric consistency in volume space
WO2017182448A1 (en) Method and device for determining a 3d model
Han et al. Learning residual color for novel view synthesis
Liu et al. A new fusion algorithm for depth images based on virtual views
KR101608804B1 (ko) 품질 향상을 위한 변이 지도의 경계 왜곡 보정 기반 가상시점 영상 생성 방법
US20230419586A1 (en) Apparatus and method for generating texture map for 3d wide area terrain
Tran et al. View synthesis with depth information based on graph cuts for FTV

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant