CN110443892B - 一种基于单张图像的三维网格模型生成方法及装置 - Google Patents

一种基于单张图像的三维网格模型生成方法及装置 Download PDF

Info

Publication number
CN110443892B
CN110443892B CN201910675788.9A CN201910675788A CN110443892B CN 110443892 B CN110443892 B CN 110443892B CN 201910675788 A CN201910675788 A CN 201910675788A CN 110443892 B CN110443892 B CN 110443892B
Authority
CN
China
Prior art keywords
dimensional
model
geometric
network
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910675788.9A
Other languages
English (en)
Other versions
CN110443892A (zh
Inventor
连宙辉
孙笑
肖建国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University
Original Assignee
Peking University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University filed Critical Peking University
Priority to CN201910675788.9A priority Critical patent/CN110443892B/zh
Publication of CN110443892A publication Critical patent/CN110443892A/zh
Application granted granted Critical
Publication of CN110443892B publication Critical patent/CN110443892B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T17/205Re-meshing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公布了一种基于单张图像的三维网格模型重建方法及装置,单张图像可为自然图像或物体的轮廓图,根据用户提供的单张图像,完全自动化地生成与之形状匹配一致的三维模型。包括:语义分割、前景提取、形状特征提取、视角预测、三维模型训练、点云封装表面网格,从而重建生成三维网格模型。本发明能够极大地加快三维模型设计的时间,使得设计三维模型时只需在生成的三维模型的基础上精修即可得到目标模型。

Description

一种基于单张图像的三维网格模型生成方法及装置
技术领域
本发明涉及一种基于单张图像的三维网格模型重建方法,采用人工神经网络自动提取图像信息并恢复出三维模型的面片信息,属于人工智能、计算机视觉与图像处理技术领域。
背景技术
随着计算机科学技术的发展,三维视觉在越来越多的场景中得到应用,例如3D电影等。然而,三维模型的设计需要设计人员使用3D软件绘制,不仅对设计人员的专业素质要求高,还会花费大量时间。因此,如何利用利用二维图像自动地构建三维模型成为一个亟待解决的课题。
现有传统的三维模型重建方法通常基于预定义好的模板,通过在数据库中检索图像中的相似部件或物体,通过拼装来生成三维模型。这类方法虽然能生成高质量的三维模型,但无法生成三维模型数据库中没有的模型。
基于深度学习的方法可以对新三维模型的不确定性建模,但受限于三维模型的表示格式以及神经网络的特点,大多数工作只能生成点云或体素,不能直接得到质量更高、更通用的三维网格模型。
发明内容
为了克服上述现有技术的不足,本发明提供一种基于单张图像的三维网格模型重建方法及装置,可以根据用户提供的单张图像(自然图像或物体的轮廓图),完全自动化地生成与之形状匹配一致的三维模型。本发明能够极大地加快三维模型设计的时间,使得三维模型设计人员只需在生成的三维模型的基础上精修即可得到目标模型。
本发明采用的技术方案如下:
一种基于单张图像的三维网格模型重建方法,包括如下步骤:
第一步,对用户给定的图像,利用语义分割网络Deeplab v3+,提取图像中物体的轮廓图。具体实施时,图像采用用户拍摄或从互联网上下载的一张飞机照片,利用语义分割网络将图像的前景(物体轮廓)与背景分开。
第二步,对轮廓图进行二值化,将物体部分设置为1,背景部分设置为0。
第三步,根据轮廓图自动生成表示三维网格模型的几何图。包括如下步骤:
31)利用形状特征提取网络提取轮廓图中物体的形状特征,利用视角估计网络估计轮廓图对应的视角特征;
具体实施时,形状特征提取网络包含三个残差模块和两个步长为2的卷积操作,将输入图像(二值化的轮廓图)压缩至设定维度(例如为16×16×128)的特征空间。视角估计网络采用了视觉几何组VGG网络,损失函数为用户给定图像的预测相机位置与真实相机位置之间的欧式距离Lvp。默认三维模型置于三维坐标系的原点位置,且相机的镜头对准原点,只预测相机的位置坐标x,y,z,作为轮廓图的视角特征。
32)将形状特征和视角特征沿着特征图通道这一维度进行拼接,送到包含多个残差模块的三维模型形变网络,指导一个初始的单位球进行形变;
具体采用几何图作为表示三维模型的格式,几何图的维度与图像RGB图一致,均为W×H×3,包含W×H个点的三维坐标信息;256个顶点的初始单位球由维度为16×16的几何图表示,将初始单位球送入三维模型形变网络;
33)采用由粗糙到精细的训练策略进行训练,将表示初始单位球的几何图通过三维模型形变网络中的形变、顶点增广两个步骤,逐步获得优化的(形状更准确、分辨率更高的)三维模型;
具体地,在形变步骤中,采用多个堆积的残差模块改变顶点的坐标,通过优化生成点云坐标的误差函数,自动调整坐标的值;在顶点增广步骤中,通过反卷积和双线性插值的方式,将顶点的个数扩大为原来的四倍。具体实施时,将分辨率为16×16的几何图通过双线性插值和反卷积操作,得到分辨率为32×32的几何图,表示包含1024个顶点的、较精细的飞机模型。重复上一步,得到包含4096个顶点的、更精细的飞机模型。优化的损失函数包括定义在三维网格模型上的损失Lmesh、对抗训练的损失函数LGAN和轮廓重构损失函数Lsil。本发明采用由粗糙到精细的训练策略:在优化时,先优化生成分辨率为16×16的几何图的网络,在此步优化完成后,依次优化生成分辨率为32×32和64×64的几何图的网络。
第四步,连接几何图中相邻的点,构成三角面片,折叠生成三维模型。
具体的,对于几何图中相邻的四个点组成的矩形,连接四条边和其中一条对角线,得到两个三角面片;对几何图中任意相邻的四个点如此连接,可恢复出三维模型的面片结构。
具体而言,在第一步中,利用现成的语义分割网络deeplab v3+(Chen L C,Zhu Y,Papandreou G,et al.Encoder-decoder with atrous separable convolution forsemantic image segmentation[C]//Proceedings of the European Conference onComputer Vision(ECCV).2018:801-818.),将图像分割成不同语义的部分,提取待构建物体的区域,获得只包含前景图像。
第二步中,将图像中包含物体的区域置为1,背景区域置为0,获得二值化的图像。
第三步中,对于输入的轮廓图,利用残差网络提取图像中物体的形状特征,利用VGG网络估计轮廓图对应的视角。将以上形状特征与视角特征沿着通道的维度进行拼接,送到解码器部分,指导一个初始的单位球形变。具体地,采用几何图作为表示三维模型的格式。几何图的维度与RGB图一致,为W×H×3,包含W×H个点的三维坐标信息。将表示初始单位球的几何图通过形变、顶点增广两个步骤,逐步获得形状更准确、分辨率更高的三维模型。在形变步骤中,我们采用采用多个堆积的残差模块改变顶点的坐标;在顶点增广步骤中,我们结合反卷积和双线性插值的方式,将顶点的个数扩大为原来的四倍。具体实施时,采用由粗糙到精细的训练策略,先将分辨率W×H×3为16×16×3、表示单位球的几何图变换到同样分辨率、表示粗糙三维模型的结合图,然后重复两次形变和顶点增广的过程,依次得到分辨率分别为32×32×3和64×64×3、细节更加丰富的几何图。
更进一步,在采用由粗糙到精细的训练策略训练网络时,为了促使生成的三维模型与真实的三维模型更接近,我们用生成的三维网格模型的点云重构物体的轮廓图,并采用了多个损失函数以及对抗训练的方式。
·将三维网格模型中的点云的质心置于原点,在单位球上随机选取18个位置和视角预测模块预测出的相机位置。分别以这19个位置为原点构建坐标系,将世界坐标系下的点云坐标转换为这19个坐标系下的坐标,然后投影即可得到19张不同视角下的物体轮廓图。将此19张物体轮廓图
Figure BDA0002143223720000041
与真实的轮廓图S的差异(轮廓重构损失函数)
Figure BDA0002143223720000042
以及视角预测模块预测的视角
Figure BDA0002143223720000043
与真实视角p的差异(视角损失函数)
Figure BDA0002143223720000044
作为优化目标,从而促使生成的三维模型更接近真实的三维模型。
·训练一个判别器,采用对抗训练的方式优化对抗训练的损失函数
Figure BDA0002143223720000045
其中,D和G为判别器和生成器的输出,s为输入的轮廓图,y是真实的三维模型,ps和py分别表示轮廓图和三维模型的数据分布,E表示对服从一定分布的数据求期望。生成器(即形状特征提取网络、视角估计网络和三维模型形变网络)试图生成逼真的三维模型,判别器试图分辨出生成模型与真实模型,达到生成以假乱真的三维模型的目的。判别器的结构如图2所示。
·施加在三维网格模型上的损失函数包括倒角损失LChamfer,法向损失LNormal和边缘损失LEdge。倒角损失施加在生成的几何图上,促使生成点云的位置尽可能接近真实点云的位置;法向损失定义为生成点云的切向量与真实点云对应位置的法向量的夹角余弦值,促使生成三维模型的表面尽量光滑;边缘损失定义为点云中相邻两点之间的距离,防止离群点的出现。施加在生成的三维网格模型上的最终损失函数为Lmesh=LChamfer+LNormal+LEdge
·训练包含形状特征提取网络、视角估计网络、三维模型形变网络、判别器在内的三维网格模型时,同时优化以下损失函数:施加在生成的三维网格模型上的损失Lmesh、对抗训练的损失函数LGAN、视角损失函数Lvp和轮廓重构损失函数Lsil。模型最终的损失函数L为L=Lmesh+0.1LGAN+Lvp+30Lsil。我们采用自适应动量估计优化算法来优化该损失函数L,学习率设为0.0001。
第四步中,对于几何图中相邻的四个点组成的矩形,连接四条边和其中一条对角线,得到两个三角面片。对几何图的所有点按照上述方法添加边,可将点云封装成三维网格模型。
上述步骤3)之后得到散布在飞机表面的点云,为了得到完整的三维网格模型,需要根据点云封装起表面。
几何图中相邻的像素表示点云中相邻的点,对于几何图中由相邻的四个像素构成的矩形,连接四条边和其中一条对角线,得到两个三角面片,几何图中的所有矩形区域都按此方法生成三角面片。
本发明还提供一种三维模型重建装置/系统,实现基于单张图像生成三维网格模型,系统包括:语义分割模块、形状特征提取模块、视角预测模块、三维模型形变模块、网格封装模块。语义分割模块用于提取自然图像中物体的轮廓,将二值化后的轮廓图送入形状特征提取模块和视角预测模块来提取轮廓图的形状特征和视角特征,三维模型形变模块根据这两个特征对初始的单位球变形得到与轮廓图对应的三维模型(用几何图表示),最后网格封装模块将几何图封装为三维网格模型。
与现有技术相比,本发明的有益效果是:
本发明提出了一种基于单张图像的三维网格模型重建方法,不需要成对的自然图像和三维模型构成的训练数据集,不受物体纹理的影响,仅根据二值化的物体轮廓图即可生成表示物体三维模型的几何图。在由几何图恢复出三维网格模型的过程中,无需预先定义复杂的点与边的连接关系,只需将几何图上相邻的点连接成三角面片即可。此外,根据三维模型分辨率的要求,可以直接对几何图进行插值改变其形状,以改变三维模型所包含的顶点的数量。
附图说明
图1是本发明实施例基于单张图像的三维网格模型重建方法的整体流程框图。
图2是本发明网络训练中判别器网络的结构框图。
图3是本发明具体实施中几何图连接成三角面片步骤的示意图;
其中,左图为几何图;有图为连接得到的三角面片。
图4是本发明具体实施中几何图边缘的折叠方法示意图;
其中,左图为几何图;右图为由几何图折叠成的三维模型。
图5是采用本发明的方法对图像重构出的三维网格模型示例。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,可以理解的是,所描述的实例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实例,都属于本发明保护的范围。
本发明提供一种基于单张图像的三维网格模型重建方法,方法流程如附图1所示。
首先,提取用户输入图像中的物体轮廓。
·以重构飞机的三维模型为例。让用户拍摄或者从互联网上下载一张飞机的照片,输入语义分割网络模型中。
·将输入的包含飞机的自然图像利用语义分割网络划分成前景的飞机和剩余的背景部分。图像的飞机部分置为1,图像的背景部分置为0,得到二值化的图像。将二值化图像的分辨率调整为64×64。
随后,将二值化的飞机轮廓图送入物体形状特征提取网络和轮廓视角估计网络提取形状特征以及视角特征。
·形状特征提取网络包含三个残差模块和两个步长为2的卷积操作,将分辨率为64×64的输入图像压缩至维度为16×16×128的特征空间。
·视角估计网络采用了VGG网络,损失函数为预测相机位置与真实相机位置之间的欧式距离Lvp。我们默认三维模型置于三维坐标系的原点位置,且相机的镜头对准原点,只预测相机的位置x,y,z。
然后,将物体形状特征和视角信息拼接到一起,送入三维模型形变网络,对初始的单位球操作,逐步形变成期望的形状。
·先将包含256个顶点的单位球(由维度为16×16×3的几何图表示)经过包含若干残差模块的形变网络,获得表示包含256个顶点的、粗糙三维飞机模型的几何图。
·将表示飞机模型的几何图通过双线性插值和反卷积操作,得到分辨率为32×32×3的几何图,表示包含1024个顶点的、较精细的飞机模型。
·重复上一步,得到包含4096个顶点的、更精细的飞机模型。
更进一步,在训练网络时,为了促使生成的三维模型与真实的三维模型更接近,我们用生成的三维点云重构物体的轮廓图,并采用了多个损失函数以及对抗训练的方式。
·将三维点云的质心置于原点,在单位球上随机选取18个位置和视角预测模块预测出的相机位置。分别以这19个位置为原点构建坐标系,将世界坐标系下的点云坐标转换为这19个坐标系下的坐标,然后投影即可得到19张不同视角下的物体轮廓图。将新渲染的物体轮廓图与真实的轮廓图的差异Lsil作为优化目标,从而促使生成的三维模型更接近真实的三维模型。
·训练一个判别器,采用对抗训练的方式优化损失函数LGAN,生成器试图生成逼真的三维模型,判别器试图分辨出生成模型与真实模型,达到生成以假乱真的三维模型的目的。判别器的结构如图2所示。
·施加在三维网格上的损失函数包括Chamfer Loss,Normal Loss和Edge Loss。Chamfer Loss施加在生成的几何图上,促使生成点云的位置尽可能接近真实点云的位置;Normal Loss定义为生成点云的切向量与真实点云对应位置的法向量的夹角余弦值,促使生成三维模型的表面尽量光滑;Edge Loss定义为点云中相邻两点之间的距离,防止离群点的出现。网格模型的最终损失函数为Lmesh=LChamfer+LNormal+LEdge
·训练时同时优化几个损失函数,模型最终的损失函数为L=Lmesh+0.1LGAN+Lvp+30Lsil
至此,我们已经得到散布在飞机表面的点云,为了得到完整的三维网格模型,需要根据点云封装起表面。
·几何图中相邻的像素表示点云中相邻的点,对于几何图中由相邻的四个像素构成的矩形,连接四条边和其中一条对角线,得到两个三角面片,如图3所示。几何图中的所有矩形区域都按此规则生成三角面片。
·几何图的边缘处理如图4所示。
需要注意的是,公布实施例的目的在于帮助进一步理解本发明,但是本领域的技术人员可以理解:在不脱离本发明及所附权利要求的精神和范围内,各种替换和修改都是可能的。因此,本发明不应局限于实施例所公开的内容,本发明要求保护的范围以权利要求书界定的范围为准。

Claims (10)

1.一种基于单张图像的三维网格模型生成方法,包括如下步骤:
第一步,对给定的图像,利用语义分割网络提取图像中物体的轮廓图,将图像前景的物体轮廓与背景分开;
第二步,对物体的轮廓图进行二值化,将物体部分设置为1,背景部分设置为0;
第三步,根据轮廓图自动生成表示三维网格模型的几何图;包括如下步骤:
31)利用形状特征提取网络提取轮廓图中物体的形状特征;
利用视角估计网络估计轮廓图对应的视角特征,损失函数为图像的预测相机位置与真实相机位置之间的欧式距离Lvp;设定三维模型置于三维坐标系的原点位置,且相机的镜头对准原点,只预测相机的位置坐标x,y,z,作为轮廓图的视角特征;
32)将步骤31)得到的形状特征和视角特征沿着特征图通道维度进行拼接,采用几何图作为表示三维模型的格式,几何图的维度为W×H×3,包含W×H个点的三维坐标信息;由几何图表示W×H个顶点的初始单位球,将初始单位球送到包含多个残差模块的三维模型形变网络,指导一个初始单位球进行形变;
33)采用由粗糙到精细的训练策略进行训练,将表示初始单位球的几何图通过三维模型形变网络进行形变和顶点增广,逐步获得优化的三维网格模型;形变通过优化生成点云坐标的误差函数,自动调整坐标的值;顶点增广将顶点的个数扩大,得到更高分辨率的几何图;优化的损失函数包括:定义在三维网格模型上的损失Lmesh、对抗训练的损失函数LGAN和轮廓重构损失Lsil,采用由粗糙到精细的训练策略进行模型训练,获得优化的三维网格模型;
第四步,连接几何图中相邻的点,构成三角面片,折叠生成三维模型;
对于几何图中相邻的四个点组成的矩形,连接四条边和其中一条对角线,得到两个三角面片;
对几何图中任意相邻的四个点均进行连接,即恢复出三维网格模型的面片结构;
通过上述步骤,即可实现基于单张图像生成三维网格模型。
2.如权利要求1所述基于单张图像的三维网格模型生成方法,其特征是,第一步中,所述语义分割网络采用Deeplab v3+。
3.如权利要求1所述基于单张图像的三维网格模型生成方法,其特征是,步骤31)中,所述形状特征提取网络包含三个残差模块和两个卷积操作,将二值化的轮廓图作为输入图像,将输入图像压缩至设定维度的特征空间;
所述视角估计网络采用VGG网络,损失函数为图像的预测相机位置与真实相机位置之间的欧式距离。
4.如权利要求1所述基于单张图像的三维网格模型生成方法,其特征是,步骤32)中,几何图的维度与图像RGB图一致,维度W×H为16×16;所述初始单位球包含256个顶点。
5.如权利要求1所述基于单张图像的三维网格模型生成方法,其特征是,步骤33)中,形变具体采用多个堆积的残差模块改变顶点的坐标,通过优化生成点云坐标的误差函数,自动调整坐标的值;顶点增广具体通过反卷积和双线性插值,将顶点的个数扩大,得到更高分辨率的几何图,表示包含更多倍的个数的顶点的精细三维网格模型。
6.如权利要求1所述基于单张图像的三维网格模型生成方法,其特征是,步骤33)在优化时,先优化生成分辨率为16×16的几何图的网络,再采用由粗糙到精细的训练策略进行顶点增广,分辨率为16×16的几何图通过反卷积和双线性插值,将顶点的个数扩大为原来的四倍,得到分辨率为32×32的几何图;再进行顶点增广得到64×64的几何图。
7.如权利要求1所述基于单张图像的三维网格模型生成方法,其特征是,步骤33)采用由粗糙到精细的训练策略训练网络时,利用生成的三维点云重构物体轮廓图,并采用多个损失函数及对抗训练方式;包括:
331)将三维点云的质心置于原点,在单位球上随机选取多个位置;以所述多个位置和预测出的相机位置为原点构建坐标系,将世界坐标系下的点云坐标转换为该坐标系下的坐标,再进行投影即得到多张不同视角下的物体轮廓图;
332)形状特征提取网络、视角估计网络和三维模型形变网络作为生成器,用于生成逼真的三维模型;训练一个判别器,采用对抗训练的方式优化损失函数LGAN;判别器用于识别出生成模型与真实模型,由此达到生成真实性高的三维模型的目的;损失函数LGAN表示为:
Figure FDA0002978309610000021
其中,D和G为判别器和生成器的输出,s为输入的轮廓图,y是真实的三维模型;ps和py分别表示轮廓图和三维模型的数据分布;
333)施加在三维网格模型上的损失函数包括:倒角损失LChamfer,法向损失LNormal和边缘损失LEdge;所述倒角损失施加在生成的几何图上,使得生成点云的位置尽可能接近真实点云的位置;所述法向损失为生成点云的切向量与真实点云对应位置的法向量的夹角余弦值;所述边缘损失为点云中相邻两点之间的距离;施加在生成的三维网格模型上的最终损失函数Lmesh为Lmesh=LChamfer+LNormal+LEdge
334)同时优化损失函数,三维网格模型最终的损失函数L表示为:
L=Lmesh+0.1LGAN+Lvp+30Lsil
其中,Lvp为视角损失函数,表示视角预测模块预测的视角与真实视角的差异;Lsil为轮廓重构损失函数,表示物体轮廓图与真实的轮廓图的差异。
8.如权利要求7所述基于单张图像的三维网格模型生成方法,其特征是,步骤331)具体在单位球上随机选取18个位置;轮廓重构损失函数为
Figure FDA0002978309610000031
9.如权利要求7所述基于单张图像的三维网格模型生成方法,其特征是,具体采用自适应动量估计优化算法优化三维网格模型的损失函数L。
10.一种实现权利要求1所述基于单张图像的三维网格模型生成方法的装置,其特征是,包括:语义分割模块、形状特征提取模块、视角预测模块、三维模型形变模块、网格封装模块;
语义分割模块用于提取自然图像中物体的轮廓,将二值化后的轮廓图送入形状特征提取模块和视角预测模块;
形状特征提取模块和视角预测模块分别用于提取轮廓图的形状特征和视角特征;
三维模型形变模块用于根据轮廓图的形状特征和视角特征对初始的单位球变形,得到与轮廓图对应的用几何图表示的三维模型;
网格封装模块用于将几何图封装为三维网格模型。
CN201910675788.9A 2019-07-25 2019-07-25 一种基于单张图像的三维网格模型生成方法及装置 Active CN110443892B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910675788.9A CN110443892B (zh) 2019-07-25 2019-07-25 一种基于单张图像的三维网格模型生成方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910675788.9A CN110443892B (zh) 2019-07-25 2019-07-25 一种基于单张图像的三维网格模型生成方法及装置

Publications (2)

Publication Number Publication Date
CN110443892A CN110443892A (zh) 2019-11-12
CN110443892B true CN110443892B (zh) 2021-06-04

Family

ID=68431460

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910675788.9A Active CN110443892B (zh) 2019-07-25 2019-07-25 一种基于单张图像的三维网格模型生成方法及装置

Country Status (1)

Country Link
CN (1) CN110443892B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113096234B (zh) * 2019-12-23 2022-09-06 复旦大学 利用多张彩色图片生成三维网格模型的方法及装置
CN111145338B (zh) * 2019-12-17 2023-09-26 桂林理工大学 一种基于单视角rgb图像的椅子模型重建方法及系统
CN111243096A (zh) * 2020-01-14 2020-06-05 天津大学 基于边约束谱卷积神经网络的三维人脸表示与重建方法
CN111932566B (zh) * 2020-05-27 2024-02-20 杭州群核信息技术有限公司 一种模型轮廓图生成方法、装置和系统
CN111915730B (zh) * 2020-07-20 2023-05-19 北京建筑大学 一种顾及语义从点云自动生成室内三维模型的方法及系统
CN112308955A (zh) * 2020-10-30 2021-02-02 北京字跳网络技术有限公司 基于图像的纹理填充方法、装置、设备及存储介质
CN113129447A (zh) * 2021-04-12 2021-07-16 清华大学 基于单张手绘草图的三维模型生成方法、装置和电子设备
CN113112607B (zh) * 2021-04-19 2022-09-06 复旦大学 一种生成任意帧率的三维网格模型序列的方法及装置
CN113808006B (zh) * 2021-09-01 2023-05-23 南京信息工程大学 一种基于二维图像重建三维网格模型的方法及装置
CN114307135A (zh) * 2021-12-27 2022-04-12 镇江多游网络科技有限公司 基于三维创意建模及运动控制可视化游戏引擎设计方法
CN115797591B (zh) * 2022-12-05 2023-06-09 浙江柒和环境艺术设计有限公司 一种虚拟建筑模型生成方法及系统
CN116109799B (zh) * 2023-04-13 2023-08-04 深圳思谋信息科技有限公司 调整模型训练方法、装置、计算机设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109147048A (zh) * 2018-07-23 2019-01-04 复旦大学 一种利用单张彩色图的三维网格重建方法
CN109978930A (zh) * 2019-03-27 2019-07-05 杭州相芯科技有限公司 一种基于单幅图像的风格化人脸三维模型自动生成方法
CN110021069A (zh) * 2019-04-15 2019-07-16 武汉大学 一种基于网格形变的三维模型重建方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10068385B2 (en) * 2015-12-15 2018-09-04 Intel Corporation Generation of synthetic 3-dimensional object images for recognition systems

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109147048A (zh) * 2018-07-23 2019-01-04 复旦大学 一种利用单张彩色图的三维网格重建方法
CN109978930A (zh) * 2019-03-27 2019-07-05 杭州相芯科技有限公司 一种基于单幅图像的风格化人脸三维模型自动生成方法
CN110021069A (zh) * 2019-04-15 2019-07-16 武汉大学 一种基于网格形变的三维模型重建方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images;Nanyang Wang等;《ECCV 2018》;20181003;第1-16页 *

Also Published As

Publication number Publication date
CN110443892A (zh) 2019-11-12

Similar Documents

Publication Publication Date Title
CN110443892B (zh) 一种基于单张图像的三维网格模型生成方法及装置
US10740897B2 (en) Method and device for three-dimensional feature-embedded image object component-level semantic segmentation
CN113096234B (zh) 利用多张彩色图片生成三维网格模型的方法及装置
CN115082639B (zh) 图像生成方法、装置、电子设备和存储介质
Rematas et al. Image-based synthesis and re-synthesis of viewpoints guided by 3d models
CN107369204B (zh) 一种从单幅照片恢复出场景基本三维结构的方法
CN110570522A (zh) 一种多视图三维重建方法
CN111951368B (zh) 一种点云、体素和多视图融合的深度学习方法
CN110827295A (zh) 基于体素模型与颜色信息耦合的三维语义分割方法
CN111950477A (zh) 一种基于视频监督的单图像三维人脸重建方法
CN112785526A (zh) 一种用于图形处理的三维点云修复方法
CN115063303B (zh) 一种基于图像修复的图像3d化方法
CN111626951A (zh) 一种基于内容感知信息的图像阴影消除方法
CN112734914A (zh) 一种增强现实视觉的图像立体重建方法及装置
CN104252715B (zh) 一种基于单幅线条图像的三维立体重建方法
CN114677479A (zh) 一种基于深度学习的自然景观多视图三维重建方法
CN115797555A (zh) 一种基于深度相机的人体实时三维重建方法
CN114820323A (zh) 一种基于立体注意力机制的多尺度残差双目图像超分辨率方法
CN110889868B (zh) 一种结合梯度和纹理特征的单目图像深度估计方法
CN115063542A (zh) 一种几何不变量的预测和模型构建方法与系统
Vobecky et al. Advanced pedestrian dataset augmentation for autonomous driving
CN116934972B (zh) 一种基于双流网络的三维人体重建方法
CN111191729B (zh) 一种基于多模态特征融合的三维对象融合特征表示方法
CN116681839A (zh) 一种基于改进NeRF的实景三维目标重建与单体化方法
CN113808006B (zh) 一种基于二维图像重建三维网格模型的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant