CN116563443A - 一种基于3d生成对抗网络的鞋子外观设计和用户定制系统 - Google Patents

一种基于3d生成对抗网络的鞋子外观设计和用户定制系统 Download PDF

Info

Publication number
CN116563443A
CN116563443A CN202310219564.3A CN202310219564A CN116563443A CN 116563443 A CN116563443 A CN 116563443A CN 202310219564 A CN202310219564 A CN 202310219564A CN 116563443 A CN116563443 A CN 116563443A
Authority
CN
China
Prior art keywords
attribute
hidden
countermeasure network
hidden vector
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310219564.3A
Other languages
English (en)
Inventor
王家奎
宁云翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Veilytech Co ltd
Original Assignee
Wuhan Veilytech Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Veilytech Co ltd filed Critical Wuhan Veilytech Co ltd
Priority to CN202310219564.3A priority Critical patent/CN116563443A/zh
Publication of CN116563443A publication Critical patent/CN116563443A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0621Item configuration or customization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Business, Economics & Management (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Finance (AREA)
  • Computing Systems (AREA)
  • Accounting & Taxation (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Image Generation (AREA)

Abstract

本发明公开了一种基于3D生成对抗网络的鞋子外观设计和用户定制系统,获取两个初始隐向量;建立和训练一个3D生成对抗网络;建立和训练一个可微分编码器;建立和训练若干个属性编辑器;输出初始参考图像在指定属性下的带纹理3D模型,本发明实现了采用3D生成对抗网络能从给定的初始参考图像直接生成带纹理的鞋子3D模型,同时使用生成对抗反转技术,求解由鞋子3D模型到可编辑隐向量的逆映射,将初始图像逆映射到隐向量空间,得到3D模型对应的可编辑的隐向量,通过用户自定义编辑隐向量的特征值,从而使用户可直接修改鞋子3D模型的颜色、款式、光泽等属性,实现用户对鞋子3D模型的自主设计与定制。

Description

一种基于3D生成对抗网络的鞋子外观设计和用户定制系统
技术领域
本发明涉及计算机图形学技术领域,具体为一种基于3D生成对抗网络的鞋子外观设计和用户定制系统。
背景技术
目前鞋子的外观设计主要由模型设计师等专业人员手工设计,而这需要耗费相关人员相当多的时间与精力,因而定制一双鞋子的成本不菲,多数用户在市面上购买的鞋子为统一设计,鞋子外观的设计与用户定制尚且稀有且价格高昂,2D生成式网络已在图像的生成与定向编辑领域大获成功,但3D模型生成方法的高计算复杂度和高内存占用,阻碍了高分辨率模型的生成;
现有的3D模型生成方法中,基于神经辐射场的方法侧重于几何生成而忽视了纹理提取,基于神经渲染器的方法难以在Blender等常规3D软件中使用,这极大地限制了3D模型生成方法在生产中的使用价值。
发明内容
本发明提供一种基于3D生成对抗网络的鞋子外观设计和用户定制系统,可以有效解决上述背景技术中提出现有的3D模型生成方法中,基于神经辐射场的方法侧重于几何生成而忽视了纹理提取,基于神经渲染器的方法难以在Blender等常规3D软件中使用,这极大地限制了3D模型生成方法在生产中的使用价值的问题。
为实现上述目的,本发明提供如下技术方案:一种基于3D生成对抗网络的鞋子外观设计和用户定制系统,由初始参考图像经系统直接生成鞋子3D模型,用户能自定义鞋子外观各属性,实现普通用户对鞋子设计与定制,该定制系统具体包含以下流程:
S1、获取两个初始隐向量;
S2、建立和训练一个3D生成对抗网络;
S3、建立和训练一个可微分编码器;
S4、建立和训练若干个属性编辑器;
S5、输出初始参考图像在指定属性下的带纹理3D模型。
根据上述技术方案,所述S1中,获取两个初始隐向量是指在高斯分布中随机采样两个512维向量z1、z2,经由非线性映射网络得到两个初始隐向量,两个初始隐向量分别为几何隐向量和纹理隐向量。
根据上述技术方案,所述非线性映射网络由8个全连接层组成,其目的是解耦z1和z2,减少特征之间的相关性,便于后续通过属性编辑器对隐向量特征方向的学习。
根据上述技术方案,所述S2中,建立和训练一个3D生成对抗网络,主要包含两个生成器和两个判别器,两个生成器分别为几何生成器和纹理生成器,两个判别器分别为RGB判别器和轮廓判别器;
两个生成器接收两个初始隐向量作为输入,输出鞋子的网格与纹理,利用可微分渲染器将其渲染成2D图像,进而得到RGB图和轮廓图,交由两个判别器鉴别,判别器采用卷积神经网络,并将梯度反向传播至两个生成器,以此进行对抗性训练,生成对抗的全过程均可微分。
根据上述技术方案,在S2中,对抗目标函数如下:
L=L(G,DRGB)+L(G,Dmask)
其中G为生成器,D为判别器,R为可微分渲染,f定义为f(x)=-log(1+e-x);
几何生成器利用可微分曲面表示,将几何表示为一个可变形三角形面片的四面体网格及网格表面各顶点的符号距离场,通过移动网格的顶点位置来优化曲面表示,这种表示方法能减少计算量,从而支持更高分辨率的图像和网格。
根据上述技术方案,在S2中,纹理生成器利用一个卷积神经网络建立隐向量空间到RGB空间的映射,采用三正交平面表征一个纹理场,以提高查询效率,公式如下:
纹理场对模型几何也有依赖,因此输入中同时包括几何隐向量和纹理隐向量,x为像素点坐标,通过查询几何到纹理场的映射g得到。
根据上述技术方案,所述S3中,建立和训练一个可微分编码器,学习生成网络渲染出的图像与初始随机隐向量间的映射关系,从而实现2D图像到隐向量的反转;
编码器采用卷积神经网络,输入为生成网络渲染出的RGB图,输出为512维隐向量,损失函数定义为预测的隐向量与生成网络实际接收的隐向量间的L1损失。
根据上述技术方案,所述S4中,建立和训练若干个属性编辑器,以鞋子的风格属性为例,通过在同一款式不同风格鞋子的隐向量间插值的方式,学习表达鞋子风格的隐向量方向;
属性编辑器输入某属性连续变化的2D图像,输出为512维向量,属性编辑器学习真实隐向量在该向量方向上的特征值的变化。
根据上述技术方案,所述S5中,输出初始参考图像在指定属性下的带纹理3D模型,具体的,先给定初始参考图像,用S3中训练好的编码器反转得到隐向量,然后用S4中训练好的属性编辑器将其投影至待编辑属性的方向上,用户通过调节投影的长度来修改对应属性,将修改后的隐向量传给S2中训练好的3D生成对抗网络中,3D生成对抗网络最终输出初始参考图像在指定属性下的带纹理3D模型。
根据上述技术方案,在S5中,用属性编辑器将隐向量投影至待编辑属性的方向上,目的是避免修改目标属性的同时影响到其他属性值,用户通过调节投影的长度来修改对应属性,公式如下:
其中α为用户的修改值,ni为目标属性的编辑方向,nj(j≠i)为其他属性的编辑方向。
与现有技术相比,本发明的有益效果:本发明结构科学合理,使用安全方便:
1、本发明结合3D生成对抗网络与神经渲染来生成带纹理的鞋子3D模型的方式,通过给定初始参考图像,用训练好的编码器反转得到隐向量,再用训练好的属性编辑器将其投影至待编辑属性的方向上,用户通过调节投影的长度来修改对应属性,将修改后的隐向量传给训练好的3D生成对抗网络,网络最终输出初始参考图像在指定属性下的带纹理3D模型;
实现了采用3D生成对抗网络能从给定的初始参考图像直接生成带纹理的鞋子3D模型,同时使用生成对抗反转技术,求解由鞋子3D模型到可编辑隐向量的逆映射,将初始图像逆映射到隐向量空间,得到3D模型对应的可编辑的隐向量,通过用户自定义编辑隐向量的特征值,从而使用户可直接修改鞋子3D模型的颜色、款式、光泽等属性,实现用户对鞋子3D模型的自主设计与定制。
2、非线性映射网络由8个全连接层组成,减少特征之间的相关性,便于属性编辑器对隐向量特征方向的学习,而几何生成器利用可微分曲面表示,方便将几何表示为一个可变形三角形面片的四面体网格及网格表面各顶点的符号距离场,通过移动网格的顶点位置来优化曲面表示,能减少计算量,从而支持更高分辨率的图像和网格;
3、纹理生成器利用一个卷积神经网络建立隐向量空间到RGB空间的映射,采用三正交平面表征一个纹理场,以此来提高查询效率,用属性编辑器将隐向量投影至待编辑属性的方向上,能够避免修改目标属性的同时影响到其他属性值,便于用户通过调节投影的长度来便捷的修改对应属性。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1是本发明用户使用的流程示意图;
图2是本发明3D生成对抗网络的结构示意图;
图3是本发明判别网络的结构示意图;
图4是本发明训练流程的示意图;
图5是本发明定制方法的步骤流程图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
实施例:如图1-5所示,本发明提供一种技术方案,一种基于3D生成对抗网络的鞋子外观设计和用户定制系统,由初始参考图像经系统直接生成鞋子3D模型,用户能自定义鞋子外观各属性,实现普通用户对鞋子设计与定制,该定制系统具体包含以下流程:
S1、获取两个初始隐向量;
S2、建立和训练一个3D生成对抗网络;
S3、建立和训练一个可微分编码器;
S4、建立和训练若干个属性编辑器;
S5、输出初始参考图像在指定属性下的带纹理3D模型。
基于上述技术方案,S1中,获取两个初始隐向量是指在高斯分布中随机采样两个512维向量z1、z2,经由非线性映射网络得到两个初始隐向量,两个初始隐向量分别为几何隐向量和纹理隐向量。
基于上述技术方案,非线性映射网络由8个全连接层组成,其目的是解耦z1和z2,减少特征之间的相关性,便于后续通过属性编辑器对隐向量特征方向的学习。
基于上述技术方案,S2中,建立和训练一个3D生成对抗网络,主要包含两个生成器和两个判别器,两个生成器分别为几何生成器和纹理生成器,两个判别器分别为RGB判别器和轮廓判别器;
两个生成器接收两个初始隐向量作为输入,输出鞋子的网格与纹理,利用可微分渲染器将其渲染成2D图像,进而得到RGB图和轮廓图,交由两个判别器鉴别,判别器采用卷积神经网络,其网络结构示意如图3所示,并将梯度反向传播至两个生成器,以此进行对抗性训练,生成对抗的全过程均可微分。
基于上述技术方案,在S2中,对抗目标函数如下:
L=L(G,DRGB)+L(G,Dmask)
其中G为生成器,D为判别器,R为可微分渲染,f定义为f(x)=-log(1+e-x);
几何生成器利用可微分曲面表示,将几何表示为一个可变形三角形面片的四面体网格及网格表面各顶点的符号距离场,通过移动网格的顶点位置来优化曲面表示,这种表示方法能减少计算量,从而支持更高分辨率的图像和网格。
基于上述技术方案,在S2中,纹理生成器利用一个卷积神经网络建立隐向量空间到RGB空间的映射,采用三正交平面表征一个纹理场,以提高查询效率,公式如下:
纹理场对模型几何也有依赖,因此输入中同时包括几何隐向量和纹理隐向量,x为像素点坐标,通过查询几何到纹理场的映射g得到。
基于上述技术方案,S3中,建立和训练一个可微分编码器,学习生成网络渲染出的图像与初始随机隐向量间的映射关系,从而实现2D图像到隐向量的反转;
编码器采用卷积神经网络,输入为生成网络渲染出的RGB图,输出为512维隐向量,损失函数定义为预测的隐向量与生成网络实际接收的隐向量间的L1损失。
基于上述技术方案,S4中,建立和训练若干个属性编辑器,以鞋子的风格属性为例,通过在同一款式不同风格鞋子的隐向量间插值的方式,学习表达鞋子风格的隐向量方向;
属性编辑器输入某属性连续变化的2D图像,输出为512维向量,属性编辑器学习真实隐向量在该向量方向上的特征值的变化。
基于上述技术方案,S5中,输出初始参考图像在指定属性下的带纹理3D模型,具体的,先给定初始参考图像,用S3中训练好的编码器反转得到隐向量,然后用S4中训练好的属性编辑器将其投影至待编辑属性的方向上,用户通过调节投影的长度来修改对应属性,将修改后的隐向量传给S2中训练好的3D生成对抗网络中,3D生成对抗网络最终输出初始参考图像在指定属性下的带纹理3D模型。
基于上述技术方案,在S5中,用属性编辑器将隐向量投影至待编辑属性的方向上,目的是避免修改目标属性的同时影响到其他属性值,用户通过调节投影的长度来修改对应属性,公式如下:
其中α为用户的修改值,ni为目标属性的编辑方向,nj(j≠i)为其他属性的编辑方向。
最后应说明的是:以上所述仅为本发明的优选实例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于3D生成对抗网络的鞋子外观设计和用户定制系统,其特征在于:由初始参考图像经系统直接生成鞋子3D模型,用户能自定义鞋子外观各属性,实现普通用户对鞋子设计与定制,该定制系统具体包含以下流程:
S1、获取两个初始隐向量;
S2、建立和训练一个3D生成对抗网络;
S3、建立和训练一个可微分编码器;
S4、建立和训练若干个属性编辑器;
S5、输出初始参考图像在指定属性下的带纹理3D模型。
2.根据权利要求1所述的一种基于3D生成对抗网络的鞋子外观设计和用户定制系统,其特征在于:所述S1中,获取两个初始隐向量是指在高斯分布中随机采样两个512维向量z1、z2,经由非线性映射网络得到两个初始隐向量,两个初始隐向量分别为几何隐向量和纹理隐向量。
3.根据权利要求2所述的一种基于3D生成对抗网络的鞋子外观设计和用户定制系统,其特征在于:所述非线性映射网络由8个全连接层组成,其目的是解耦z1和z2,减少特征之间的相关性,便于后续通过属性编辑器对隐向量特征方向的学习。
4.根据权利要求1所述的一种基于3D生成对抗网络的鞋子外观设计和用户定制系统,其特征在于:所述S2中,建立和训练一个3D生成对抗网络,主要包含两个生成器和两个判别器,两个生成器分别为几何生成器和纹理生成器,两个判别器分别为RGB判别器和轮廓判别器;
两个生成器接收两个初始隐向量作为输入,输出鞋子的网格与纹理,利用可微分渲染器将其渲染成2D图像,进而得到RGB图和轮廓图,交由两个判别器鉴别,判别器采用卷积神经网络,并将梯度反向传播至两个生成器,以此进行对抗性训练,生成对抗的全过程均可微分。
5.根据权利要求4所述的一种基于3D生成对抗网络的鞋子外观设计和用户定制系统,其特征在于:在S2中,对抗目标函数如下:
L=L(G,DRGB)+L(G,Dmask)
其中G为生成器,D为判别器,R为可微分渲染,f定义为f(x)=-log(1+e-x);
几何生成器利用可微分曲面表示,将几何表示为一个可变形三角形面片的四面体网格及网格表面各顶点的符号距离场,通过移动网格的顶点位置来优化曲面表示,这种表示方法能减少计算量,从而支持更高分辨率的图像和网格。
6.根据权利要求4所述的一种基于3D生成对抗网络的鞋子外观设计和用户定制系统,其特征在于:在S2中,纹理生成器利用一个卷积神经网络建立隐向量空间到RGB空间的映射,采用三正交平面表征一个纹理场,以提高查询效率,公式如下:
纹理场对模型几何也有依赖,因此输入中同时包括几何隐向量和纹理隐向量,x为像素点坐标,通过查询几何到纹理场的映射g得到。
7.根据权利要求1所述的一种基于3D生成对抗网络的鞋子外观设计和用户定制系统,其特征在于:所述S3中,建立和训练一个可微分编码器,学习生成网络渲染出的图像与初始随机隐向量间的映射关系,从而实现2D图像到隐向量的反转;
编码器采用卷积神经网络,输入为生成网络渲染出的RGB图,输出为512维隐向量,损失函数定义为预测的隐向量与生成网络实际接收的隐向量间的L1损失。
8.根据权利要求1所述的一种基于3D生成对抗网络的鞋子外观设计和用户定制系统,其特征在于:所述S4中,建立和训练若干个属性编辑器,以鞋子的风格属性为例,通过在同一款式不同风格鞋子的隐向量间插值的方式,学习表达鞋子风格的隐向量方向;
属性编辑器输入某属性连续变化的2D图像,输出为512维向量,属性编辑器学习真实隐向量在该向量方向上的特征值的变化。
9.根据权利要求4-8任意一项所述的一种基于3D生成对抗网络的鞋子外观设计和用户定制系统,其特征在于:所述S5中,输出初始参考图像在指定属性下的带纹理3D模型,具体的,先给定初始参考图像,用S3中训练好的编码器反转得到隐向量,然后用S4中训练好的属性编辑器将其投影至待编辑属性的方向上,用户通过调节投影的长度来修改对应属性,将修改后的隐向量传给S2中训练好的3D生成对抗网络中,3D生成对抗网络最终输出初始参考图像在指定属性下的带纹理3D模型。
10.根据权利要求9所述的一种基于3D生成对抗网络的鞋子外观设计和用户定制系统,其特征在于:在S5中,用属性编辑器将隐向量投影至待编辑属性的方向上,目的是避免修改目标属性的同时影响到其他属性值,用户通过调节投影的长度来修改对应属性,公式如下:
其中α为用户的修改值,ni为目标属性的编辑方向,nj(j≠i)为其他属性的编辑方向。
CN202310219564.3A 2023-03-02 2023-03-02 一种基于3d生成对抗网络的鞋子外观设计和用户定制系统 Pending CN116563443A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310219564.3A CN116563443A (zh) 2023-03-02 2023-03-02 一种基于3d生成对抗网络的鞋子外观设计和用户定制系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310219564.3A CN116563443A (zh) 2023-03-02 2023-03-02 一种基于3d生成对抗网络的鞋子外观设计和用户定制系统

Publications (1)

Publication Number Publication Date
CN116563443A true CN116563443A (zh) 2023-08-08

Family

ID=87485077

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310219564.3A Pending CN116563443A (zh) 2023-03-02 2023-03-02 一种基于3d生成对抗网络的鞋子外观设计和用户定制系统

Country Status (1)

Country Link
CN (1) CN116563443A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117649338A (zh) * 2024-01-29 2024-03-05 中山大学 一种用于人脸图像编辑的生成对抗网络逆映射方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117649338A (zh) * 2024-01-29 2024-03-05 中山大学 一种用于人脸图像编辑的生成对抗网络逆映射方法
CN117649338B (zh) * 2024-01-29 2024-05-24 中山大学 一种用于人脸图像编辑的生成对抗网络逆映射方法

Similar Documents

Publication Publication Date Title
Wang et al. Nerf-art: Text-driven neural radiance fields stylization
CN112396703B (zh) 一种单图像三维点云模型重建方法
Lazova et al. Control-nerf: Editable feature volumes for scene rendering and manipulation
CN108921926B (zh) 一种基于单张图像的端到端三维人脸重建方法
CN108875935B (zh) 基于生成对抗网络的自然图像目标材质视觉特征映射方法
CN108830913B (zh) 基于用户颜色引导的语义级别线稿上色方法
CN109584325B (zh) 一种基于u型周期一致对抗网络的动漫图像的双向色彩化方法
Siddiqui et al. Texturify: Generating textures on 3d shape surfaces
Chung et al. Luciddreamer: Domain-free generation of 3d gaussian splatting scenes
JPH1091809A (ja) 関数演算プロセッサ制御マシンの操作方法
CN111951156B (zh) 一种绘制图形光电特效的方法
Ren et al. Two-stage sketch colorization with color parsing
CN116977536A (zh) 一种基于混合神经辐射场的无边界场景新视角合成方法
CN116563443A (zh) 一种基于3d生成对抗网络的鞋子外观设计和用户定制系统
CN116416376A (zh) 一种三维头发的重建方法、系统、电子设备及存储介质
CN108924528A (zh) 一种基于深度学习的双目风格化实时渲染方法
Wang et al. Proteusnerf: Fast lightweight nerf editing using 3d-aware image context
Jiang et al. 3d points splatting for real-time dynamic hand reconstruction
Tereshin et al. Automatically controlled morphing of 2d shapes with textures
Liu et al. Neural impostor: Editing neural radiance fields with explicit shape manipulation
CN109840924B (zh) 一种基于串联对抗网络的产品图像快速生成方法
CN114882197B (zh) 一种基于图神经网络的高精度三维人脸重建方法
Pajouheshgar et al. Mesh neural cellular automata
CN113610711B (zh) 一种单图像引导的三维表面重建方法及装置
CN113808006B (zh) 一种基于二维图像重建三维网格模型的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination