CN116612251A - 一种基于网格神经渲染和六边形约束的多视角重建方法 - Google Patents

一种基于网格神经渲染和六边形约束的多视角重建方法 Download PDF

Info

Publication number
CN116612251A
CN116612251A CN202310439753.1A CN202310439753A CN116612251A CN 116612251 A CN116612251 A CN 116612251A CN 202310439753 A CN202310439753 A CN 202310439753A CN 116612251 A CN116612251 A CN 116612251A
Authority
CN
China
Prior art keywords
grid
view
rendering
hexagonal
dimensional object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310439753.1A
Other languages
English (en)
Inventor
朱建科
张一粟
干淇钧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Huanxiang Technology Co ltd
Original Assignee
Hangzhou Huanxiang Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Huanxiang Technology Co ltd filed Critical Hangzhou Huanxiang Technology Co ltd
Priority to CN202310439753.1A priority Critical patent/CN116612251A/zh
Publication of CN116612251A publication Critical patent/CN116612251A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于网格神经渲染和六边形约束的多视角重建方法。首先,根据掩码图像通过视觉外壳算法获取粗糙物体表面;接着,根据光线和网格相交的位置对粗糙三维物体表面模型进行点云采样,获得网格表面点云;再根据网格表面点云,并且在等距六边形正则化方法的约束下,基于多视角下的掩码后图像对粗糙三维物体表面模型进行网格神经渲染,获得精细三维物体表面模型和多视角下的逼真图像。本发明与基于体积渲染方法不同,本发明只在光线与网格相交的位置进行采样,准确地分离几何形状和外观。通过引入两阶段从粗到细策略和等距六边形网格,提高了效率和精度。同时,本发明只需少量的位置编码即可进行神经渲染,加速了训练过程。

Description

一种基于网格神经渲染和六边形约束的多视角重建方法
技术领域
本发明涉及三维重建领域的一种多视角的高精度重建方法,具体涉及一种基于网格神经渲染和六边形约束的多视角重建方法。
背景技术
多视角重建是指利用多个视角的图像数据来重建三维物体的过程。它在计算机视觉、计算机图形学、机器人技术等领域都有着广泛的应用。多视角重建技术可以通过收集多个视角下的图像数据,利用三角测量、体素填充等算法重建出物体的三维模型,从而实现对物体形状、尺寸、纹理等特征的准确还原。在虚拟现实、增强现实、文化遗产保护、医学影像处理等领域中,多视角重建技术可以为人们提供更加真实、逼真的三维场景和信息。同时,多视角重建技术也是计算机视觉和机器人技术的重要研究领域,其研究成果能够帮助提高机器人导航、场景理解、目标识别等方面的性能,为实现智能化提供基础支持。
当前的多视角重建技术领域主要面临以下几个方面的挑战:
1、预测精度不高:目前的神经渲染算法在预测真实场景中的细节和纹理方面仍存在一定的局限性,往往难以捕捉到复杂场景的细节信息。
2、计算复杂度高:随着场景的复杂性增加,渲染算法的计算复杂度也随之增加,导致实时渲染的速度变慢,无法满足实际应用需求。
3、对数据要求高:神经渲染算法需要大量的训练数据来进行训练和优化,但是获取高质量的数据往往需要昂贵的成本,限制了算法在实际应用中的应用范围。
为了解决这些问题,已有的算法也在不断地发展和完善。例如,一些基于神经网络的图像处理算法(如GAN和CNN)在渲染精度和计算速度方面有了一定的突破,但是仍需要进一步改进。同时,传统的渲染算法(如Ray tracing和Rasterization)也在不断地被优化,以提高其渲染精度和计算效率。此外,一些新兴的渲染技术(如Point-based rendering和Voxel-based rendering)也被广泛应用于多视角重建领域,以实现更高效的渲染和重建。
发明内容
为了解决背景技术中存在的问题和需求,本发明提出了一种有效的基于网格神经渲染和六边形约束的多视角重建方法,用于快速的表面重建和新视角合成,以解决上述限制。本发明的优点在于,它仅在射线和网格的交点处进行采样,从而能够准确地从输入图像中分离几何形状和外观信息。此外,引入了一种高效的两阶段从粗到细的方法,使初始网格可以通过视觉外壳方法有效地提取。此外,采用了一种等距六边形网格,不仅通过限制网格顶点的二阶导数来保留结构规律,而且确保了快速的细分。通过利用所提出的基于网格的方案,仅需要少量位置编码来进行神经渲染,从而大大加速了训练过程。
本发明的技术方案如下:
S1:采集并获得静态物体在多视角下的原始图像及对应的掩码图像、相机参数,再根据不同视角下的原始图像和对应的掩码图像,获得对应视角下的掩码后图像;
S2:根据多视角下的掩码图像和对应相机参数,利用视觉外壳算法和轮廓损失优化法在空间内获取粗糙三维物体表面模型;
S3:根据光线和网格相交的位置对粗糙三维物体表面模型进行点云采样,获得网格表面点云;再根据网格表面点云,并且在等距六边形正则化方法的约束下,基于多视角下的掩码后图像对粗糙三维物体表面模型进行网格神经渲染,获得精细三维物体表面模型和多视角下的逼真图像。
所述方法还包括以下步骤:
S4:将新视角下的相机参数输入到精细三维物体表面模型中后进行网格神经渲染,输出新视角下的逼真图像。
所述S1中,掩码图像中的白色为物体,黑色为背景,掩码后图像与对应的原始图像对齐。
所述相机参数为相机内参矩阵K以及相机外参的旋转矩阵R和平移向量t。
所述S2具体为:
S21:根据多视角下的掩码图像,利用视觉外壳算法生成水密网格模型;
S22:根据每个视角下的相机参数,利用轮廓损失来优化水密网格模型中对应掩码内的网络边界;
S23:重复S22多次,获得当前视角下最优掩码内的网络边界;
S24:重复S22-S23,遍历优化水密网格模型中剩余视角下的掩码内的网络边界,从而获得粗糙三维物体表面模型。
所述S22中,轮廓损失的计算公式如下:
其中,Ls表示轮廓损失值,表示L2范数,i表示视角序号,i=1-N,N表示总视角数,Mi表示视角i下的掩码图像,/>表示视角i下渲染出来的掩码图像,/>表示渲染出来的掩码图像,/>是可微分渲染器,π为当前视角的相机参数,V,F分别表示根据当前水密网格模型的顶点和面。
所述S3具体为:
S31:采用基于插值的细分方法对粗糙三维物体表面模型进行物体表面细分,获得细分三维表面模型,细分三维表面模型为对边平行且等长的六边形拓扑结构;
S32:根据光线和网格相交的位置对细分三维物体表面模型进行点云采样,获得网格表面点云,网格表面点云中各点的属性包括点位置xi、特征向量hi、表面法线ni和视图方向d;
S33:根据网格表面点云,并且在等距六边形正则化方法的约束下,基于多视角下的掩码后图像对细分三维物体表面模型进行基于网格的神经渲染,获得渲染后的细分三维物体表面模型,基于网格的神经渲染公式为:
其中,表示神经渲染操作,xm表示位置,nm是法线,hm表示光线和物体表面之间的相交点的特征向量,d是光线的方向,cθ()表示神经渲染网络;
将最终获得的渲染后的细分三维物体表面模型作为精细三维物体表面模型,将多视角下的掩码后图像输入精细三维物体表面模型后,获得对应的多视角下的逼真图像。
所述S33中,等距六边形正则化方法的约束具体为等距六边形损失,使得在神经渲染过程中,细分三维物体表面模型中六边形单元l的中点vl的坐标等于六边形单元l的顶点vj和vj+3的坐标的平均值,公式如下:
k=Ni(j)
k′=Ni(j+3)
其中,表示等距六边形损失函数值,/>表示网格的顶点,Ni(j)表示顶点i的第j个近邻点,nv表示网格中顶点总数量,k,k′分别表示等距六边形中互为对点的顶点序号,xl、xk、xk′分别表示中点vl、顶点vk和vk′在x轴上的坐标。
本发明的有益效果是:
通过采取上述技术方案,本发明能够通过多视图图像快速的还原高细节的三维表面,通过仅在射线与网格相交处进行采样,从而实现几何和外观的精确分离。这使得本发明能够高效地进行表面重建和新视角合成。利用本发明提出的基于网格的方案,仅需要使用少量的位置编码来进行神经渲染,从而显著加速训练过程。
本发明使用六边形正则化技术,可以实现稳定的神经表面重建和快速的细分。
在本发明中,使用的方法与现有技术相比,本发明提出的方法在训练过程中具有10倍的加速,并实现了最佳的重建和新视角合成表现,在工业上有较强的应用价值。
附图说明
图1是本发明实施例的一种基于网格神经渲染和六边形约束的多视角重建方法的总体流程图。
图2是等距六边形优化的正则化机制。
具体实施方式
为使本发明的上述目的、特征和优点能够更加简单易懂,下面结合本发明实施例中的附图对本发明做详细说明,对本发明实施例中的技术方案进行清楚、完整的描述,但不构成对本发明的限制。
本实施例的硬件平台采用了型号为Intel i9-12900X CPU,NVIDIA GeForce GTX3090Ti显卡。系统程序采用python语言编写,使用pytorch,numpy,opencv,nvdiffrast库。
本发明的实施例及其实施过程具体如下:
如图1所示,本发明包括以下步骤:
S1:采集并获得静态物体在多视角下的原始图像及对应的掩码图像、相机参数,再根据不同视角下的原始图像和对应的掩码图像,获得对应视角下的掩码后图像;掩码图像中的白色为物体,黑色为背景,掩码后图像与对应的原始图像对齐。相机参数为相机内参矩阵K以及相机外参的旋转矩阵R和平移向量t。
S2:根据多视角下的掩码图像和对应相机参数,利用视觉外壳算法和轮廓损失优化法在空间内获取粗糙三维物体表面模型;
S2具体为:
S21:根据多视角下的掩码图像,利用视觉外壳算法生成水密网格模型;
S22:根据每个视角下的相机参数,利用轮廓损失来优化水密网格模型中对应掩码内的网络边界;
S22中,轮廓损失的计算公式如下:
其中,Ls表示轮廓损失值,表示L2范数,i表示视角序号,i=1-N,N表示总视角数,Mi表示视角i下的掩码图像,/>表示视角i下渲染出来的掩码图像,/>表示渲染出来的掩码图像,/>是可微分渲染器,π为当前视角的相机参数,V,F分别表示根据当前水密网格模型的顶点和面。
S23:重复S22多次,获得当前视角下最优掩码内的网络边界;
S24:重复S22-S23,遍历优化水密网格模型中剩余视角下的掩码内的网络边界,从而获得粗糙三维物体表面模型。
S3:根据光线和网格相交的位置对粗糙三维物体表面模型进行点云采样,获得网格表面点云;再根据网格表面点云,并且在等距六边形正则化方法的约束下,基于多视角下的掩码后图像对粗糙三维物体表面模型进行网格神经渲染,获得精细三维物体表面模型和多视角下的逼真图像。
S3具体为:
S31:采用快速方便的基于插值的细分方法对粗糙三维物体表面模型进行物体表面细分,获得细分三维表面模型,细分三维表面模型为对边平行且等长的六边形拓扑结构;基于插值的细分方法是通过在每条边的中点添加一个点,生成了四倍于原始网格的点和面数。
网格通常由三角形面片表示,因此光线和网格之间的相交点位于这些三角形面片中。描述网格的位置和特征向量信息都与网格顶点相关。因此,相交点的属性是通过插值计算它所属的三角形面片的三个顶点得到的,本发明中点的属性包括点位置xi、特征向量hi、表面法线ni和视图方向d。
S32:根据光线和网格相交的位置对细分三维物体表面模型进行点云采样,获得网格表面点云,网格表面点云中各点的属性包括点位置xi、特征向量hi、表面法线ni和视图方向d;
S33:根据网格表面点云,并且在等距六边形正则化方法的约束下,基于多视角下的掩码后图像对细分三维物体表面模型进行基于网格的神经渲染,获得渲染后的细分三维物体表面模型,基于网格的神经渲染公式为:
其中,表示神经渲染操作,xm表示位置,nm是法线,hm表示光线和物体表面之间的相交点的特征向量,d是光线的方向,xm、nm和hm是通过插值获得的。cθ()表示能从输入的信息中获取颜色的神经渲染网络;
将最终获得的渲染后的细分三维物体表面模型作为精细三维物体表面模型,将多视角下的掩码后图像输入精细三维物体表面模型后,获得对应的多视角下的逼真图像。通过该神经渲染网络和给定的位置、法线、光线与面交点、光线方向等输入,可以获得该方向下的渲染图片。精细的三维表面模型:具有大数量的顶点和面,能够表示一个三维物体,且其表面能够充分体现所示物体的纹理细节。
S33中,等距六边形正则化方法的约束具体为等距六边形损失,使得在神经渲染过程中,细分三维物体表面模型中六边形单元l的中点vl的坐标等于六边形单元l的顶点vj和vj+3的坐标的平均值,如图2所示,公式如下:
k=Ni(j)
k′=Ni(j+3)
其中,表示等距六边形损失函数值,/>表示网格的顶点,Ni(j)表示顶点i的第j个近邻点,nv表示网格中顶点总数量,k,k′分别表示等距六边形中互为对点的顶点序号,xl、xk、xk′分别表示中点vl、顶点vk和vk′在x轴上的坐标,对于y轴和z轴坐标,采用相同的方法。
上述公式可以重写为矩阵形式,如下所示:
其中,Y是由网格顶点的三维坐标连接而成的一维向量。矩阵E是稀疏带状矩阵,J由显式网格模型的基础结构决定,J表示顶点位置索引值。该约束强制六边形的边相等,可以数学上表示为一种条件。它保证每个六边形都具有中心对称性,即绕其中心点旋转180度后,几何形状保持不变。上述正则化项确保了在优化时具有大步骤的稳定性,同时通过变形实现精确的几何细节捕捉。
S4:将新视角下的相机参数输入到精细三维物体表面模型中后进行网格神经渲染,输出新视角下的逼真图像。
具体实施中,为了准确地恢复表面几何形状,通过曲率损失训练前100次迭代,如下所示:
其中,是总损失。/>是渲染图像和参考图像之间的光度损失。/>是S33中的等距六边形正则化项。/>和/>分别是掩码损失和法线损失,分别与物体掩码图像和法线贴图计算获得,λ1、λ2项为对应的损失权重值。一旦得到了近似准确的几何网格和颜色网络,训练目标转向通过基于图像的信息恢复细粒度纹理,以此继续训练500轮迭代:
其中,λ′1和λ3是不同正则化项的权重。和/>分别表示为
其中,表示神经渲染得到的图像,C(r)表示当前相机下得到的物体图像,||||1表示L1损失计算函数,IOU()表示交并比计算函数。
本发明实施例提出的一种基于网格神经渲染和六边形约束的多视角重建方法,用于快速的多视角重建和新视角合成。本发明仅在光线和网格的交点处进行采样,从而能够准确地从输入图像中分离几何和外观。引入了一种粗到细的方案,通过视觉外壳算法有效地提取了初始网格。采用六边形网格模型通过限制顶点的二阶导数来保持表面的规律性,在神经渲染中只需要几个位置编码的级别即可实现。有前景的实验结果表明,本方法在多视角重建和新视角合成方面非常有效。与基于隐式表示的方法相比,训练加速了10倍。
上述实施例用来解释说明本发明,而不是对本发明进行限制,在本发明的精神和权利要求的保护范围内,对本发明作出的任何修改和改变,都落入本发明的保护范围。

Claims (8)

1.一种基于网格神经渲染和六边形约束的多视角重建方法,其特征在于,包括以下步骤:
S1:采集并获得静态物体在多视角下的原始图像及对应的掩码图像、相机参数,再根据不同视角下的原始图像和对应的掩码图像,获得对应视角下的掩码后图像;
S2:根据多视角下的掩码图像和对应相机参数,利用视觉外壳算法和轮廓损失优化法在空间内获取粗糙三维物体表面模型;
S3:根据光线和网格相交的位置对粗糙三维物体表面模型进行点云采样,获得网格表面点云;再根据网格表面点云,并且在等距六边形正则化方法的约束下,基于多视角下的掩码后图像对粗糙三维物体表面模型进行网格神经渲染,获得精细三维物体表面模型和多视角下的逼真图像。
2.根据权利要求1所述的一种基于网格神经渲染和六边形约束的多视角重建方法,其特征在于,所述方法还包括以下步骤:
S4:将新视角下的相机参数输入到精细三维物体表面模型中后进行网格神经渲染,输出新视角下的逼真图像。
3.根据权利要求1所述的一种基于网格神经渲染和六边形约束的多视角重建方法,其特征在于,所述S1中,掩码图像中的白色为物体,黑色为背景,掩码后图像与对应的原始图像对齐。
4.根据权利要求1所述的一种基于网格神经渲染和六边形约束的多视角重建方法,其特征在于,所述相机参数为相机内参矩阵K以及相机外参的旋转矩阵R和平移向量t。
5.根据权利要求1所述的一种基于网格神经渲染和六边形约束的多视角重建方法,其特征在于,所述S2具体为:
S21:根据多视角下的掩码图像,利用视觉外壳算法生成水密网格模型;
S22:根据每个视角下的相机参数,利用轮廓损失来优化水密网格模型中对应掩码内的网络边界;
S23:重复S22多次,获得当前视角下最优掩码内的网络边界;
S24:重复S22-S23,遍历优化水密网格模型中剩余视角下的掩码内的网络边界,从而获得粗糙三维物体表面模型。
6.根据权利要求1所述的一种基于网格神经渲染和六边形约束的多视角重建方法,其特征在于,所述S22中,轮廓损失的计算公式如下:
其中,Ls表示轮廓损失值,表示L2范数,i表示视角序号,i=1-N,N表示总视角数,Mi表示视角i下的掩码图像,/>表示视角i下渲染出来的掩码图像,/>表示渲染出来的掩码图像,/>是可微分渲染器,π为当前视角的相机参数,V,F分别表示根据当前水密网格模型的顶点和面。
7.根据权利要求1所述的一种基于网格神经渲染和六边形约束的多视角重建方法,其特征在于,所述S3具体为:
S31:采用基于插值的细分方法对粗糙三维物体表面模型进行物体表面细分,获得细分三维表面模型,细分三维表面模型为对边平行且等长的六边形拓扑结构;
S32:根据光线和网格相交的位置对细分三维物体表面模型进行点云采样,获得网格表面点云,网格表面点云中各点的属性包括点位置xi、特征向量hi、表面法线ni和视图方向d;
S33:根据网格表面点云,并且在等距六边形正则化方法的约束下,基于多视角下的掩码后图像对细分三维物体表面模型进行基于网格的神经渲染,获得渲染后的细分三维物体表面模型,基于网格的神经渲染公式为:
其中,表示神经渲染操作,xm表示位置,nm是法线,hm表示光线和物体表面之间的相交点的特征向量,d是光线的方向,cθ()表示神经渲染网络;
将最终获得的渲染后的细分三维物体表面模型作为精细三维物体表面模型,将多视角下的掩码后图像输入精细三维物体表面模型后,获得对应的多视角下的逼真图像。
8.根据权利要求6所述的一种基于网格神经渲染和六边形约束的多视角重建方法,其特征在于,所述S33中,等距六边形正则化方法的约束具体为等距六边形损失,使得在神经渲染过程中,细分三维物体表面模型中六边形单元l的中点vl的坐标等于六边形单元l的顶点vj和vj+3的坐标的平均值,公式如下:
其中,表示等距六边形损失函数值,/>表示网格的顶点,Ni(j)表示顶点i的第j个近邻点,nv表示网格中顶点总数量,k,k′分别表示等距六边形中互为对点的顶点序号,xl、xk、xk′分别表示中点vl、顶点vk和vk′在x轴上的坐标。
CN202310439753.1A 2023-04-23 2023-04-23 一种基于网格神经渲染和六边形约束的多视角重建方法 Pending CN116612251A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310439753.1A CN116612251A (zh) 2023-04-23 2023-04-23 一种基于网格神经渲染和六边形约束的多视角重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310439753.1A CN116612251A (zh) 2023-04-23 2023-04-23 一种基于网格神经渲染和六边形约束的多视角重建方法

Publications (1)

Publication Number Publication Date
CN116612251A true CN116612251A (zh) 2023-08-18

Family

ID=87682622

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310439753.1A Pending CN116612251A (zh) 2023-04-23 2023-04-23 一种基于网格神经渲染和六边形约束的多视角重建方法

Country Status (1)

Country Link
CN (1) CN116612251A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117422847A (zh) * 2023-10-27 2024-01-19 神力视界(深圳)文化科技有限公司 模型修复方法、装置、电子设备和计算机存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117422847A (zh) * 2023-10-27 2024-01-19 神力视界(深圳)文化科技有限公司 模型修复方法、装置、电子设备和计算机存储介质

Similar Documents

Publication Publication Date Title
Kato et al. Neural 3d mesh renderer
Tancik et al. Block-nerf: Scalable large scene neural view synthesis
CN108921926B (zh) 一种基于单张图像的端到端三维人脸重建方法
CN115100339B (zh) 图像生成方法、装置、电子设备和存储介质
CN106780592A (zh) 基于相机运动和图像明暗的Kinect深度重建算法
Venkatesh et al. Deep implicit surface point prediction networks
CN105678683A (zh) 一种三维模型的二维存储方法
Chen et al. A survey on 3d gaussian splatting
CN108876814A (zh) 一种生成姿态流图像的方法
CN114782634A (zh) 基于表面隐函数的单目图像着装人体重建方法与系统
CN110889901B (zh) 基于分布式系统的大场景稀疏点云ba优化方法
CN113313828A (zh) 基于单图片本征图像分解的三维重建方法与系统
Cheng et al. Gaussianpro: 3d gaussian splatting with progressive propagation
CN116612251A (zh) 一种基于网格神经渲染和六边形约束的多视角重建方法
CN114723884A (zh) 三维人脸重建方法、装置、计算机设备及存储介质
CN113989441B (zh) 基于单张人脸图像的三维漫画模型自动生成方法及系统
CN115984441A (zh) 一种基于神经着色器的快速重建带纹理三维模型的方法
CN102637304B (zh) 基于gpu的几何表面上各向同性/异性纹理合成方法
Yuan et al. Interactive nerf geometry editing with shape priors
CN116363290A (zh) 一种用于大规模场景三维重建的纹理贴图生成方法
Wolf et al. Surface Reconstruction from Gaussian Splatting via Novel Stereo Views
CN116385667B (zh) 三维模型的重建方法、纹理重构模型的训练方法以及装置
CN112184912A (zh) 一种基于参数化模型和位置图的多度量三维人脸重建方法
Ge et al. 3D Reconstruction of Ancient Buildings Using UAV Images and Neural Radiation Field with Depth Supervision
CN113808006B (zh) 一种基于二维图像重建三维网格模型的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination