CN112802075A - 纹理生成模型的训练方法、图像处理方法及装置 - Google Patents

纹理生成模型的训练方法、图像处理方法及装置 Download PDF

Info

Publication number
CN112802075A
CN112802075A CN202110146575.4A CN202110146575A CN112802075A CN 112802075 A CN112802075 A CN 112802075A CN 202110146575 A CN202110146575 A CN 202110146575A CN 112802075 A CN112802075 A CN 112802075A
Authority
CN
China
Prior art keywords
texture
image
training
patch
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110146575.4A
Other languages
English (en)
Inventor
姚光明
袁燚
范长杰
胡志鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Netease Hangzhou Network Co Ltd
Original Assignee
Netease Hangzhou Network Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Netease Hangzhou Network Co Ltd filed Critical Netease Hangzhou Network Co Ltd
Priority to CN202110146575.4A priority Critical patent/CN112802075A/zh
Publication of CN112802075A publication Critical patent/CN112802075A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/529Depth or shape recovery from texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Generation (AREA)

Abstract

本发明提供了一种纹理生成模型的训练方法、图像处理方法及装置,涉及图片生成技术领域,包括:获取预渲染得到的训练图像;将训练图像输入至纹理生成模型,通过纹理生成模型针对训练图像输出第一光照参数和第一纹理集;基于第一光照参数、第一纹理集和预设的联合损失函数计算联合损失值;利用联合损失值对纹理生成模型进行训练。本发明可以生成质量较高的纹理,同时显著降低光照对纹理的影响。

Description

纹理生成模型的训练方法、图像处理方法及装置
技术领域
本发明涉及图像生成技术领域,尤其是涉及一种纹理生成模型的训练方法、图像处理方法及装置。
背景技术
纹理生成是一种图片生成技术,该技术可以根据输入的图片生成相应的纹理贴图,例如可以根据输入的人体图像生成人体模型的纹理贴图,从而为重建的人体模型(Mesh)添加纹理贴图。目前,相关技术中提出可以利用卷积神经网络提取输入图像的图像特征,并从图像特征中对每个顶点进行采样得到每个顶点的颜色特征,然后将每个顶点的颜色特征送入MLP(Multi-Layer Perceptron,多层感知器)中得到最终预测的顶点颜色,从而基于顶点颜色所表征的纹理进行渲染,然而采用这种方式生成的纹理往往会导致渲染得到的表面过于平滑,纹理质量较差,且由于该方法生成的纹理受光照影响,所以将导致生成的纹理带有阴影。
发明内容
有鉴于此,本发明的目的在于提供一种纹理生成模型的训练方法、图像处理方法及装置,训练得到的纹理生成模型可以生成质量较高的纹理,同时显著降低光照对纹理的影响。
第一方面,本发明实施例提供了一种纹理生成模型的训练方法,包括:获取预渲染得到的训练图像;将所述训练图像输入至纹理生成模型,通过所述纹理生成模型针对所述训练图像输出第一光照参数和第一纹理集;基于所述第一光照参数、所述第一纹理集和预设的联合损失函数计算联合损失值;利用所述联合损失值对所述纹理生成模型进行训练。
在一种实施方式中,所述纹理生成模型包括光照估计网络和纹理预测网络;所述通过所述纹理生成模型针对所述训练图像输出第一光照参数和第一纹理集的步骤,包括:通过所述光照估计网络估计所述训练图像的第一光照参数,以及通过所述纹理预测网络生成所述训练图像的第一纹理集。
在一种实施方式中,所述光照估计网络包括下采样卷积层和多层感知层;所述通过所述光照估计网络估计所述训练图像的第一光照参数的步骤,包括:通过所述下采样卷积层提取所述训练图像的光照特征;通过所述多层感知层根据所述光照特征输出所述训练图像的第一光照参数;其中,所述第一光照参数包括环境参数、散射参数、光照强度中的一种或多种。
在一种实施方式中,所述纹理预测网络包括特征提取模块、特征补全模块和纹理解码模块;所述通过所述纹理预测网络生成所述训练图像的第一纹理集的步骤,包括:通过所述特征提取模块提取所述训练图像的可见面片特征和第一不可见面片特征;通过所述特征补全模块基于所述可见面片特征对所述第一不可见面片特征进行补全,得到第二不可见面片特征;通过所述纹理解码模块分别对所述可见面片特征和所述第二不可见面片特征进行解码,得到所述训练图像的第一纹理集。
在一种实施方式中,所述通过所述特征提取模块提取所述训练图像的可见面片特征和第一不可见面片特征的步骤,包括:通过所述特征提取模块内的特征编码器对所述训练图像进行特征提取,得到所述训练图像对应的特征图;基于所述训练图像中各个像素的深度值对所述特征图进行采样,得到可见顶点特征和不可见顶点特征;对属于同一面片的可见顶点特征和/或不可见顶点特征进行平均处理,得到所述训练图像的可见面片特征和第一不可见面片特征;其中,如果所述面片包含一个或多个不可见顶点,确定所述面片对应的特征为第一不可见面片特征;如果所述面片不包含所述不可见顶点,确定所述面片对应的特征为可见面片特征。
在一种实施方式中,所述基于所述训练图像中各个像素的深度值对所述特征图进行采样,得到可见顶点特征和不可见顶点特征的步骤,包括:判断所述训练图像中各个像素的深度值是否小于预设深度缓冲值;如果是,确定所述像素为可见顶点;如果否,确定所述像素为不可见顶点;利用双线性插值基于所述可见顶点和所述不可见顶点在所述特征图上进行采样,分别得到可见顶点特征和不可见顶点特征。
在一种实施方式中,所述特征补全模块包括图编码器和图解码器;所述通过所述特征补全模块基于所述可见面片特征对所述第一不可见面片特征进行补全,得到第二不可见面片特征的步骤,包括:通过所述图编码器基于所述可见面片特征和所述训练图像对应的几何模型的几何信息,对所述第一不可见面片特征进行卷积操作和下采样操作;其中,所述图编码器包括多个第一图卷积层和多个图下采样层;通过所述图解码器基于所述可见面片特征和所述几何信息,对所述图编码器输出的特征进行卷积操作和上采样操作,得到第二不可见面片特征;其中,所述图解码器包括多个第二图卷积层和多个图上采样层。
在一种实施方式中,所述获取预渲染得到的训练图像的步骤,包括:获取原始图像;利用随机光照参数和多个渲染角度对所述原始图像进行渲染,得到各个所述渲染角度分别对应的预渲染图像;从各个所述预渲染图像中随机选择一张预渲染图像作为训练图像。
在一种实施方式中,所述联合损失函数包括纹理损失函数、循环一致损失函数和对抗损失函数;所述基于所述第一光照参数、所述第一纹理集和预设的联合损失函数计算联合损失值的步骤,包括:基于所述第一纹理集、纹理真值和所述纹理损失函数计算纹理损失值;利用所述第一光照参数、所述第一纹理集和所述训练图像对应的渲染角度,对所述原始图像进行渲染得到可微渲染图像;基于所述训练图像、所述可微渲染图像和所述循环一致损失函数计算循环一致损失值;基于所述训练图像、所述可微渲染图像和所述对抗损失函数计算对抗损失值;对所述纹理损失值、所述循环一致损失值和所述对抗损失值进行加权求和,得到联合损失值。
在一种实施方式中,所述基于所述训练图像、所述可微渲染图像和所述对抗损失函数计算对抗损失值的步骤,包括:对所述训练图像和所述可微渲染图像进行线性均匀采样处理,并基于线性均匀采样处理得到的图像、所述训练图像、所述可微渲染图像和所述对抗损失函数计算对抗损失值。
第二方面,本发明实施例还提供一种图像处理方法,包括:获取待处理的目标图像;将所述目标图像输入至纹理生成模型;其中,所述纹理生成模型是采用如第一方面提供的任一项所述的纹理生成模型的训练方法训练得到的;通过所述纹理生成模型生成所述目标图像对应的第二光照参数和第二纹理集。
第三方面,本发明实施例还提供一种纹理生成模型的训练装置,包括:训练图像获取模块,用于获取预渲染得到的训练图像;训练图像输入模块,用于将所述训练图像输入至纹理生成模型,通过所述纹理生成模型针对所述训练图像输出第一光照参数和第一纹理集;损失计算模块,用于基于所述第一光照参数、所述第一纹理集和预设的联合损失函数计算联合损失值;训练模块,用于利用所述联合损失值对所述纹理生成模型进行训练。
第四方面,本发明实施例还提供一种图像处理装置,包括:目标图像获取模块,用于获取待处理的目标图像;目标图像输入模块,用于将所述目标图像输入至纹理生成模型;其中,所述纹理生成模型是采用如第一方面提供的任一项所述的纹理生成模型的训练方法训练得到的;生成模块,用于通过所述纹理生成模型生成所述目标图像对应的第二光照参数和第二纹理集。
第五方面,本发明实施例还提供一种服务器,包括处理器和存储器;所述存储器上存储有计算机程序,所述计算机程序在被所述处理器运行时执行如第一方面提供的任一项所述的方法,或执行如第二方面提供的所述的方法。
第六方面,本发明实施例还提供一种计算机存储介质,用于储存为第一方面提供的任一项所述方法所用的计算机软件指令,或储存为第二方面提供的所述方法所用的计算机软件指令。
本发明实施例提供的一种纹理生成模型的训练方法及装置,首先获取预渲染得到的训练图像,并将训练图像输入至纹理生成模型,通过纹理生成模型针对训练图像输出第一光照参数和第一纹理集,然后基于第一光照参数、第一纹理集和预设的联合损失函数计算联合损失值,以利用联合损失值对纹理生成模型进行训练。上述方法通过纹理生成模型输出训练图像对应的第一光照参数和第二纹理集,并结合联合损失函数对纹理生成模型进行训练,以此训练得到的纹理生成模型可以通过该纹理集可以表示更高质量、更富有细节的纹理,另外,还可以显示地预测光照参数,并通过联合损失函数对光照参数进行约束,从而显著降低光照对生成纹理的影响,进一步提高了纹理质量。
本发明实施例提供的一种图像处理方法及装置,首先获取待处理的目标图像,并将目标图像输入至纹理生成模型,以通过纹理生成模型生成目标图像对应的第二光照参数和第二纹理集。上述方法利用前述纹理生成模型的训练方法训练得到的纹理生成模型对目标图像进行处理,输出该目标图像对应的第二光照参数和第二纹理集,有效提高了纹理质量,还显著降低了光照对纹理的影响。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种人体纹理生成的流程示意图;
图2为本发明实施例提供的一种纹理生成模型的训练方法的流程示意图;
图3为本发明实施例提供的一种纹理生成模型的结构示意图;
图4a为本发明实施例提供的一种下采样卷积层的结构示意图;
图4b为本发明实施例提供的一种光照估计网络的结构示意图;
图5为本发明实施例提供的一种特征编码器的结构示意图;
图6为本发明实施例提供的一种特征补全模块的结构示意图;
图7a为本发明实施例提供的一种子解码器的结构示意图;
图7b为本发明实施例提供的一种上采样结构的示意图;
图8为本发明实施例提供的一种联合损失函数设计逻辑图;
图9为本发明实施例提供的另一种纹理生成模型的训练方法的流程示意图;
图10为本发明实施例提供的一种图像处理方法的流程示意图;
图11为本发明实施例提供的另一种图像处理方法的流程示意图;
图12为本发明实施例提供的一种纹理生成模型的训练装置的结构示意图;
图13为本发明实施例提供的一种图像处理装置的结构示意图;
图14为本发明实施例提供的一种服务器的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合实施例对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前,现有的纹理生成技术存在纹理质量较差、纹理带有阴影等问题。参见图1所示的一种人体纹理生成的流程示意图,将输入图像通过一系列卷积神经网络提取图像特征,并从图像特征中对每个人体顶点进行采样得到每个人体顶点的颜色特征,接着将颜色特征送入MLP中得到最终预测的顶点颜色。在训练过程中,模型的损失函数定义了预测的顶点颜色和颜色真值的接近程度,损失函数越小标识预测的顶点颜色和颜色真值越接近,通过迭代优化生成器的内部参数,可以得到所需的生成器,其中,优化目标函数如下所示:
Figure BDA0002930107660000071
其中,Tv为顶点颜色,
Figure BDA0002930107660000072
为颜色真值。但是,上述方法生成的纹理效果不佳,且易于受光照影响,从而致使纹理带有阴影。基于此,本发明实施提供了一种纹理生成模型的训练方法、图像处理方法及装置,训练得到的纹理生成模型可以生成质量较高的纹理,同时显著降低光照对纹理的影响。
为便于对本实施例进行理解,首先对本发明实施例所公开的一种纹理生成模型的训练方法进行详细介绍,参见图2所示的一种纹理生成模型的训练方法的流程示意图,该方法主要包括以下步骤S202至步骤S208:
步骤S202,获取预渲染得到的训练图像。在一种实施方式中,可以通过网络下载、人为上传等多种方式获取原始图像,并利用随机光照参数从多个渲染角度对原始图像进行渲染,从而得到各个渲染角度的预渲染图像,可选的,可将各个预渲染图像均作为训练图像,也可从各个预渲染图像中选择一个或多个预渲染图像作为训练图像。其中,随机光照参数可以包括环境参数、散射参数、光照方向、光照强度等。
步骤S204,将训练图像输入至纹理生成模型,通过纹理生成模型针对训练图像输出第一光照参数和第一纹理集。其中,第一光照参数可以包括环境参数、散射参数、光照方向、光照强度等,第一纹理集可以包括每个面片分别对应的纹理,为便于对面片进行理解,以人体模型为例进行解释说明,人体模型由顶点和面片组成,顶点是具有三维位置(x,y,z)的点的集合,面片决定了顶点的连接性,例如,面片{1,2,3}表示第1,2,3个顶点是相连的。在一种实施方式中,纹理生成模型可以预先加载人体模型的模型参数,并由纹理生成模型内的光照估计网络和纹理预测网络根据该模型参数和训练图像分别输出第一光照参数和第一纹理集。
步骤S206,基于第一光照参数、第一纹理集和预设的联合损失函数计算联合损失值。其中,联合损失函数包括纹理损失函数、循环一致损失函数和对抗损失函数。纹理损失函数用于对生成的纹理进行约束;循环一致损失函数用于使渲染得到的图像与预渲染图像尽可能接近,该循环一致损失函数可以使本发明实施例无需对预测的光照参数进行显示的约束,同时使纹理生成模型学习对光照参数的预测;对抗损失函数用于使渲染得到的图像更加真实。
步骤S208,利用联合损失值对纹理生成模型进行训练。在一种实施方式中,可以基于联合损失值迭代优化纹理生成模型的内部参数,并在达到预设条件时停止训练,其中,预设条件可以包括迭代次数或联合损失值收敛等。
本发明实施例提供的上述纹理生成模型的训练方法,通过纹理生成模型输出训练图像对应的第一光照参数和第二纹理集,并结合联合损失函数对纹理生成模型进行训练,以此训练得到的纹理生成模型可以通过该纹理集可以表示更高质量、更富有细节的纹理,另外,还可以显示地预测光照参数,并通过联合损失函数对光照参数进行约束,从而显著降低光照对生成纹理的影响,进一步提高了纹理质量。
在一种实施方式中,本发明实施例提供了一种获取预渲染得到的训练图像的实施方式,可以获取原始图像,并利用随机光照参数和多个渲染角度对原始图像进行渲染,得到各个渲染角度分别对应的预渲染图像,再从各个预渲染图像中随机选择一张预渲染图像作为训练图像。在实际应用中,在生成训练所需的训练图片时,可以利用随机光照参数得到平行光,利用该平行光从多个渲染角度对原始图像进行渲染,从而得到多角度的预渲染图片,并将其中随机一张预渲染图像作为训练图像输入至待训练的纹理生成模型中。
为便于对上述步骤S204进行理解,本发明实施例提供了一种纹理生成模型,该纹理生成模型包括光照估计网络和纹理预测网络。具体的,参见图3所示的一种纹理生成模型的结构示意图,图3示意出纹理预测网络还包括特征提取模块、特征补全模块和纹理解码模块。其中,光照估计网络的输入为训练图像,输出为第一光照参数;纹理预测网络的输入为训练图像,输出为第一纹理集。进一步的,纹理预测网络中的特征提取模块的输入为训练图像,输出为可见面片特征和第一不可见面片特征;特征补全模块的输入为可见面片特征和第一不可见面片特征,输出为可见面片特征和第二不可见面片特征;纹理解码模块的输入为可见面片特征和第二不可见面片特征,输出为第一纹理集。
在上述图3的基础上,本发明实施例提供了一种通过纹理生成模型针对训练图像输出第一光照参数和第一纹理集的实施方式,可以通过光照估计网络估计训练图像的第一光照参数,以及通过纹理预测网络生成训练图像的第一纹理集。本发明实施例可以显式地估计图像中的第一光照参数,并结合联合损失函数对纹理生成模型进行训练,使训练得到的纹理生成模型可以对光照参数进行约束,从而降低光照对生成纹理的影响。另外,本发明实施例利用纹理集可以表示更高质量、更富有细节的纹理,从而有效提高了生成的纹理效果。
在一种可选的实施方式中,光照估计网络包括下采样卷积层和多层感知层(MLP),为便于理解,参见图4a所示的一种下采样卷积层的结构示意图,本发明实施例采用一组下采样卷积层和一层MLP的网络结构估计光照参数L,下采样卷积层包括第一卷积层conv(k=3,s=1,p=1)、第一BN(Batch Normalization)层、第一ReLU(Rectified Linear Unit,线性整流函数)层、第二卷积层conv(k=3,s=1,p=1)、第二BN层、第二ReLU层和平均池化层(Average pool)。另外,图4b提供了一种光照估计网络的结构示意图,图4b示例性提供了每个下采样卷积层输出的特征图大小,例如,训练图像I的尺寸为(256,256,3),第一个下采样卷积层输出的特征图的尺寸为(128,128,64),第二个下采样卷积层输出的特征图的尺寸为(64,64,128)等。
基于此,在执行通过光照估计网络估计训练图像的第一光照参数的步骤时,可以通过下采样卷积层提取训练图像的光照特征,并通过多层感知层根据光照特征输出训练图像的第一光照参数。其中,第一光照参数L包括环境参数α、散射参数β、光照强度d中的一种或多种。在实际应用中,以图4b所示的光照估计网络为例,前4层下采样卷积层用于提取训练图像的光照特征,最后一层MLP用于将光照特征映射到光照参数空间内,可选的,假设仅考虑平行光照,则上述光照参数空间将包括光照的方向和强度。进一步的,在训练纹理生成模型时,可以生成随机光照的参数空间,从而进一步提高纹理生成模型对光照的约束。
为便于理解,本发明实施例还提供了一种通过纹理预测网络生成训练图像的第一纹理集的实施方式,可以参见如下步骤1至步骤3:
步骤1,通过特征提取模块提取训练图像的可见面片特征和第一不可见面片特征。其中,可见面片特征可以理解为可见面片的特征,第一不可见面片的特征可以理解为不可见面片的特征,其中,如果面片包含一个或多个不可见顶点,则确定该面片为不可见面片,且该面片对应的特征为第一不可见面片特征;如果面片不包含不可见顶点,则确定该面片为可见面片,且确定该面片对应的特征为可见面片特征。
在一种实施方式中,特征提取模块包括特征编码器,本发明实施例示例性提供了一种特征编码器的结构示意图,如图5所示,特征编码器的网络结构由四层down-samplingblock(下采样卷积层)组成。基于此,本发明实施例提供了一种通过特征提取模块提取训练图像的可见面片特征和第一不可见面片特征的实施方式,参见如下步骤1.1至步骤1.3:
步骤1.1,通过特征提取模块内的特征编码器对训练图像进行特征提取,得到训练图像对应的特征图。在实际应用中,通过将训练图像输入至特征编码器,可以由特征编码器对该训练图像进行编码,即可得到该训练图像对应的特征图。
步骤1.2,基于训练图像中各个像素的深度值对特征图进行采样,得到可见顶点特征和不可见顶点特征。其中,可见顶点特征也即可见顶点Vv的特征,不可见顶点特征也即不可见顶点Vinv的特征。在一种可选的实施方式中,可以按照如下步骤1.2.1至步骤1.2.2执行基于训练图像中各个像素的深度值对特征图进行采样,得到可见顶点特征和不可见顶点特征的步骤:
步骤1.2.1,判断训练图像中各个像素的深度值是否小于预设深度缓冲值。如果是,确定像素为可见顶点;如果否,确定像素为不可见顶点。在一种实施方式中,顶点被投影到图像平面,通过比对各个顶点的深度值和预设深度缓冲值,可以将深度值小于深度缓冲值的顶点归为可见顶点Vv,以及将深度值大于深度缓冲值的顶点归为不可见顶点Vinv
步骤1.2.2,利用双线性插值基于可见顶点和不可见顶点在特征图上进行采样,分别得到可见顶点特征和不可见顶点特征。在一种实施方式中,可以利用双线性插值基于可见顶点Vv对特征图进行采样,得到可见顶点特征;以及可以利用双线性插值基于不可见顶点Vinv对特征图进行采样,得到不可见顶点特征。
步骤1.3,对属于同一面片的可见顶点特征和/或不可见顶点特征进行平均处理,得到训练图像的可见面片特征和第一不可见面片特征。在实际应用中,若期待每个面片都预测得到一个纹理,可以将上述顶点特征(包括可见顶点特征和不可见顶点特征)转换为面片特征(包括可见面片特征和第一不可见面片特征),具体的,可以对每个面片对应的各个顶点的顶点特征进行平均处理即可得到相应的面片特征。应当注意的是,如果该面片的任意一个顶点是不可见顶点,则将该面片归为不可见面片,其特征记为不可见面片特征Finv,反之则将该面片归为可见面片,其特征记为可见面片特征Fv。此外,由于训练图像只有可见的正面区域,而将所有顶点投影到图像坐标系时,且可见顶点和不可见顶点是重合的,因此此处的不可见面片特征Finv实际上是对应的可见面片特征Fv,需要通过如下步骤2对不可见面片特征Finv进一步处理。
步骤2,通过特征补全模块基于可见面片特征对第一不可见面片特征进行补全,得到第二不可见面片特征。为生成符合人体模型(也可称之为,几何模型)的纹理贴图,可以采用Graph-Unet将人体模型的几何信息引入到纹理生成模型中,从而对不可见面片特征进一步处理。在一种实施方式中,可以将可见面片特征Fv和不可见面片特征Finv输入至特征补全模块,由于可见面片特征Fv能够较好地生成纹理,而不可见面片特征Finv需要通过可见面片特征Fv以及几何信息来进行补全,因此特征补全模块将基于可见面片特征Fv和几何信息对不可见面片特征Finv进行补全,得到第二不可见面片特征F'inv
为便于对上述步骤2进行理解,参见图6所示的一种特征补全模块的结构示意图,图6示意出特征补全模块包括图编码器和图解码器,图编码器包括多个第一图卷积层和多个图下采样层,第一图卷积层和图下采样层交替连接,图解码器包括多个第二图卷积层和多个图上采样层,第二图卷积层和图上采样层交替连接。另外,图6还标注出每个图卷积层的通道数。
在图6所示的特征补全模块的基础上,本发明实施例提供了一种通过特征补全模块基于可见面片特征对第一不可见面片特征进行补全,得到第二不可见面片特征的实施方式,可以通过图编码器基于可见面片特征和训练图像对应的几何模型的几何信息,对第一不可见面片特征进行卷积操作和下采样操作,再通过图解码器基于可见面片特征和几何信息,对图编码器输出的特征进行卷积操作和上采样操作,得到第二不可见面片特征。其中,图下采样操作的计算过程如下:
Figure BDA0002930107660000131
idx=rank(y,k);
Figure BDA0002930107660000132
Figure BDA0002930107660000133
Al+1=Al[idx,idx];
Figure BDA0002930107660000134
其中,第l层图下采样层的输入记为Fl∈RN*C,输出记为Fl+1,Al是第l层邻接矩阵,Al +1是第l+1层邻接矩阵,pl是可训练的投影权重,rank(y,k)是排序函数,该排序函数返回y的前k个最大值的索引,Fl[idx,:]返回对应索引idx的向量,⊙表示元素乘法,
Figure BDA0002930107660000145
是所有元素都是1的向量。另外,图上采样层是图下采用层的逆运算,图上采样层的主要作用是将下采样后的图结构恢复到之前的结构,记为:
Fl+1=distribute(0N*C,Fl,idx);
其中,distribute函数将Fl的行向量放到0N*C对应的索引idx中,0N*C∈RN*C是所有元素都是0的向量。另外,图卷积是图结构处理的常见操作,定义为:
Figure BDA0002930107660000141
其中,
Figure BDA0002930107660000142
是由自连接的邻接矩阵,Wl是可训练权重,
Figure BDA0002930107660000143
Figure BDA0002930107660000144
的顶点度的对角矩阵。
步骤3,通过纹理解码模块分别对可见面片特征和第二不可见面片特征进行解码,得到训练图像的第一纹理集。在一种实施方式中,纹理解码模块可以包括两个子解码器,其中一个子解码器用于对可见面片特征进行解码,另一个子解码器用于对第二不可见面片特征进行解码,从而使得不可见面片特征的解码不对可见面片特征的解码产生影响。为便于理解,参见图7a所示的一种子解码器的结构示意图,该子解码器包括多个Up-samplingblock(上采样结构),另外参见图7b所示的一种上采样结构的示意图,该上采样结构包括第一Upsample(2,2)层、第三卷积层conv(k=3,s=1,p=1),第三BN层、第三ReUL层和第二Upsample(2,2)层。
在一种实施方式中,根据循环一致的思想,本发明实施例提供了一种联合损失函数,该联合损失函数包括纹理损失函数、循环一致损失函数和对抗损失函数。参见图8所示的一种联合损失函数设计逻辑图,可以基于纹理真值和第一纹理集计算纹理损失值Ltex;利用渲染器根据纹理真值、随机光照参数、Mesh(V,F)渲染得到训练图像,并利用可微渲染器根据第一光照参数和第一纹理集渲染得到可微渲染图像,从而基于训练图像和可微渲染图像计算循环一致损失值Lr;基于训练图像计算对抗损失值Ladv。本发明实施例对生成的纹理和预测的光照参数进行约束,使得生成的纹理和真值纹理尽可能接近,预测的关照参数和前述随机光照参数尽可能接近。此外,本发明实施例还可以通过可微渲染器对生成的纹理、预测的光照参数按照训练图像对应的渲染角度进行渲染,并要求渲染得到的图像(也即,可微渲染图像)和前述训练图像尽可能接近。
在此基础上,本发明实施例提供了一种基于第一光照参数、第一纹理集和预设的联合损失函数计算联合损失值的实施方式,参见如下步骤a至步骤e:
步骤a,基于第一纹理集、纹理真值和纹理损失函数计算纹理损失值。其中,纹理损失函数如下所示:
Figure BDA0002930107660000151
其中,T为纹理真值,
Figure BDA0002930107660000152
为第一纹理集。
步骤b,利用第一光照参数、第一纹理集和训练图像对应的渲染角度,对原始图像进行渲染得到可微渲染图像。在一种实施方式中,可以采用pytorch3d的可微渲染技术对生成的第一纹理集、第一光照参数按照训练图像对应的渲染角度进行渲染,得到可微渲染图像。
步骤c,基于训练图像、可微渲染图像和循环一致损失函数计算循环一致损失值。本发明实施例利用循环一致损失函数可以使纹理生成模型更有效地进行学习,更够更好更快地收敛。同时,通过循环一致损失函数使本发明实施例无需对第一光照参数进行显式约束。在一种实施方式中,循环一致损失函数如下所示:
Figure BDA0002930107660000161
其中,Ia表示角度为a的预渲染图片,
Figure BDA0002930107660000162
表示经过可微渲染得到的角度为a的可微渲染图像,A表示所有的渲染角度。
步骤d,基于训练图像、可微渲染图像和对抗损失函数计算对抗损失值。在一种实施方式中,可以对训练图像和可微渲染图像进行线性均匀采样处理,并基于线性均匀采样处理得到的图像、训练图像、可微渲染图像和对抗损失函数计算对抗损失值。为了让纹理更加真实,本发明实施例采用WGAN-GP对抗损失函数。该损失函数的数学形式如下:
Figure BDA0002930107660000163
Figure BDA0002930107660000164
其中,D是判别器,
Figure BDA0002930107660000165
是对
Figure BDA0002930107660000166
对线性均匀采样后的图像,
Figure BDA0002930107660000167
是判别器的梯度,λ为权重。
步骤e,对纹理损失值、循环一致损失值和对抗损失值进行加权求和,得到联合损失值。在一种实施方式中,联合损失值表示如下:
Ltotal=λtexLtexrLradvLadv
其中,λtex为纹理损失值的权重、λr为循环一致损失值的权重、λadv为对抗损失值的权重。
为便于对前述实施例提供的纹理生成模型的训练方法进行理解,本发明实施例提供了一种纹理生成模型的训练方法的应用示例,参见图9所示的另一种纹理生成模型的训练方法的流程示意图,该方法主要包括以下步骤S902至步骤S912:
步骤S902,对原始图像进行预渲染得到训练图像。
步骤S904,通过纹理生成模型生成训练图像对应的第一光照参数和第一纹理集。
步骤S906,根据第一光照参数和第一纹理集计算联合损失值。
步骤S908,利用联合损失值对纹理生成模型的网络参数进行优化。
步骤S910,判断是否达到最大迭代次数。如果是,执行步骤S912;如果否,执行步骤S902。
步骤S912,保存纹理生成模型的网络参数。
在前述实施例提供的纹理生成模型的训练方法的基础上,本发明实施例提供了一种图像处理方法,参见图10所示的一种图像处理方法的流程示意图,该方法主要包括以下步骤S1002至步骤S1006:
步骤S1002,获取待处理的目标图像。
步骤S1004,将目标图像输入至纹理生成模型;其中,纹理生成模型是采用如前述实施例提供的纹理生成模型的训练方法训练得到的。在实际应用中,纹理生成模型应预先加载人体模型的模型参数,从而基于模型参数确定目标图像的第二光照参数和第二纹理集。
步骤S1006,通过纹理生成模型生成目标图像对应的第二光照参数和第二纹理集。
本发明实施例提供过的上述图像处理方法,利用前述纹理生成模型的训练方法训练得到的纹理生成模型对目标图像进行处理,输出该目标图像对应的第二光照参数和第二纹理集,有效提高了纹理质量,还显著降低了光照对纹理的影响。
为便于对上述实施例提供的图像处理方法进行理解,本发明实施例还提供了一种图像处理方法的应用示例,参见图11所示的另一种图像处理方法的流程示意图,该方法主要包括以下步骤S1102至步骤S1108:
步骤S1102,加载人体模型的模型参数。
步骤S1104,输入待处理的目标图像。
步骤S1106,通过纹理生成模型生成目标图像对应的第二光照参数和第二纹理集。
步骤S1108,判断是否结束。如果是,结束;如果否,执行步骤S1104。
综上所述,本发明实施例采用了基于纹理集的表示方法,生成每一个面片的纹理,从而能表示更高质量的、富有细节的纹理。另外,本发明实施例还可以显式地预测了光照参数,并通过可微渲染来构建损失函数构建循环一致的损失函数对预测的光照参数进行约束,从而有效排除光照对生成纹理的影响。
对于前述实施例提供的一种纹理生成模型的训练方法,本发明实施例提供了一种纹理生成模型的训练装置,参见图12所示的一种纹理生成模型的训练装置的结构示意图,该装置主要包括以下部分:
训练图像获取模块1202,用于获取预渲染得到的训练图像。
训练图像输入模块1204,用于将训练图像输入至纹理生成模型,通过纹理生成模型针对训练图像输出第一光照参数和第一纹理集。
损失计算模块1206,用于基于第一光照参数、第一纹理集和预设的联合损失函数计算联合损失值。
训练模块1208,用于利用联合损失值对纹理生成模型进行训练。
本发明实施例提供过的上述纹理生成模型的训练方法,通过纹理生成模型输出训练图像对应的第一光照参数和第二纹理集,并结合联合损失函数对纹理生成模型进行训练,以此训练得到的纹理生成模型可以通过该纹理集可以表示更高质量、更富有细节的纹理,另外,还可以显示地预测光照参数,并通过联合损失函数对光照参数进行约束,从而显著降低光照对生成纹理的影响,进一步提高了纹理质量。
在一种实施方式中,纹理生成模型包括光照估计网络和纹理预测网络;训练图像输入模块1204还用于:通过光照估计网络估计训练图像的第一光照参数,以及通过纹理预测网络生成训练图像的第一纹理集。
在一种实施方式中,光照估计网络包括下采样卷积层和多层感知层;训练图像输入模块1204还用于:通过下采样卷积层提取训练图像的光照特征;通过多层感知层根据光照特征输出训练图像的第一光照参数;其中,第一光照参数包括环境参数、散射参数、光照强度中的一种或多种。
在一种实施方式中,纹理预测网络包括特征提取模块、特征补全模块和纹理解码模块;训练图像输入模块1204还用于:通过特征提取模块提取训练图像的可见面片特征和第一不可见面片特征;通过特征补全模块基于可见面片特征对第一不可见面片特征进行补全,得到第二不可见面片特征;通过纹理解码模块分别对可见面片特征和第二不可见面片特征进行解码,得到训练图像的第一纹理集。
在一种实施方式中,训练图像输入模块1204还用于:通过特征提取模块内的特征编码器对训练图像进行特征提取,得到训练图像对应的特征图;基于训练图像中各个像素的深度值对特征图进行采样,得到可见顶点特征和不可见顶点特征;对属于同一面片的可见顶点特征和/或不可见顶点特征进行平均处理,得到训练图像的可见面片特征和第一不可见面片特征;其中,如果面片包含一个或多个不可见顶点,确定面片对应的特征为第一不可见面片特征;如果面片不包含不可见顶点,确定面片对应的特征为可见面片特征。
在一种实施方式中,训练图像输入模块1204还用于:判断训练图像中各个像素的深度值是否小于预设深度缓冲值;如果是,确定像素为可见顶点;如果否,确定像素为不可见顶点;利用双线性插值基于可见顶点和不可见顶点在特征图上进行采样,分别得到可见顶点特征和不可见顶点特征。
在一种实施方式中,特征补全模块包括图编码器和图解码器;训练图像输入模块1204还用于:通过图编码器基于可见面片特征和训练图像对应的几何模型的几何信息,对第一不可见面片特征进行卷积操作和下采样操作;其中,图编码器包括多个第一图卷积层和多个图下采样层;通过图解码器基于可见面片特征和几何信息,对图编码器输出的特征进行卷积操作和上采样操作,得到第二不可见面片特征;其中,图解码器包括多个第二图卷积层和多个图上采样层。
在一种实施方式中,训练图像获取模块1202还用于:获取原始图像;利用随机光照参数和多个渲染角度对原始图像进行渲染,得到各个渲染角度分别对应的预渲染图像;从各个预渲染图像中随机选择一张预渲染图像作为训练图像。
在一种实施方式中,联合损失函数包括纹理损失函数、循环一致损失函数和对抗损失函数;损失计算模块1206还用于:基于第一纹理集、纹理真值和纹理损失函数计算纹理损失值;利用第一光照参数、第一纹理集和训练图像对应的渲染角度,对原始图像进行渲染得到可微渲染图像;基于训练图像、可微渲染图像和循环一致损失函数计算循环一致损失值;基于训练图像、可微渲染图像和对抗损失函数计算对抗损失值;对纹理损失值、循环一致损失值和对抗损失值进行加权求和,得到联合损失值。
在一种实施方式中,损失计算模块1206还用于:对训练图像和可微渲染图像进行线性均匀采样处理,并基于线性均匀采样处理得到的图像、训练图像、可微渲染图像和对抗损失函数计算对抗损失值。
对于前述实施例提供的图像处理方法,本发明实施例还提供了一种图像处理装置,参见图13所示的一种图像处理装置的结构示意图,该装置主要包括以下部分:
目标图像获取模块1302,用于获取待处理的目标图像。
目标图像输入模块1304,用于将目标图像输入至纹理生成模型;其中,纹理生成模型是采用如前述实施例提供的纹理生成模型的训练方法训练得到的;
生成模块1306,用于通过纹理生成模型生成目标图像对应的第二光照参数和第二纹理集。
本发明实施例提供的上述图像处理装置,利用前述纹理生成模型的训练方法训练得到的纹理生成模型对目标图像进行处理,输出该目标图像对应的第二光照参数和第二纹理集,有效提高了纹理质量,还显著降低了光照对纹理的影响。
本发明实施例所提供的装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。
本发明实施例提供了一种服务器,具体的,该服务器包括处理器和存储装置;存储装置上存储有计算机程序,计算机程序在被所述处理器运行时执行如上所述实施方式的任一项所述的方法。
图14为本发明实施例提供的一种服务器的结构示意图,该服务器100包括:处理器140,存储器141,总线142和通信接口143,所述处理器140、通信接口143和存储器141通过总线142连接;处理器140用于执行存储器141中存储的可执行模块,例如计算机程序。
其中,存储器141可能包含高速随机存取存储器(RAM,Random Access Memory),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。通过至少一个通信接口143(可以是有线或者无线)实现该系统网元与至少一个其他网元之间的通信连接,可以使用互联网,广域网,本地网,城域网等。
总线142可以是ISA总线、PCI总线或EISA总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图14中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
其中,存储器141用于存储程序,所述处理器140在接收到执行指令后,执行所述程序,前述本发明实施例任一实施例揭示的流过程定义的装置所执行的方法可以应用于处理器140中,或者由处理器140实现。
处理器140可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器140中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器140可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DigitalSignal Processing,简称DSP)、专用集成电路(Application Specific IntegratedCircuit,简称ASIC)、现成可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器141,处理器140读取存储器141中的信息,结合其硬件完成上述方法的步骤。
本发明实施例所提供的可读存储介质的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行前面方法实施例中所述的方法,具体实现可参见前述方法实施例,在此不再赘述。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (15)

1.一种纹理生成模型的训练方法,其特征在于,包括:
获取预渲染得到的训练图像;
将所述训练图像输入至纹理生成模型,通过所述纹理生成模型针对所述训练图像输出第一光照参数和第一纹理集;
基于所述第一光照参数、所述第一纹理集和预设的联合损失函数计算联合损失值;
利用所述联合损失值对所述纹理生成模型进行训练。
2.根据权利要求1所述的方法,其特征在于,所述纹理生成模型包括光照估计网络和纹理预测网络;
所述通过所述纹理生成模型针对所述训练图像输出第一光照参数和第一纹理集的步骤,包括:
通过所述光照估计网络估计所述训练图像的第一光照参数,以及通过所述纹理预测网络生成所述训练图像的第一纹理集。
3.根据权利要求2所述的方法,其特征在于,所述光照估计网络包括下采样卷积层和多层感知层;
所述通过所述光照估计网络估计所述训练图像的第一光照参数的步骤,包括:
通过所述下采样卷积层提取所述训练图像的光照特征;
通过所述多层感知层根据所述光照特征输出所述训练图像的第一光照参数;其中,所述第一光照参数包括环境参数、散射参数、光照强度中的一种或多种。
4.根据权利要求2所述的方法,其特征在于,所述纹理预测网络包括特征提取模块、特征补全模块和纹理解码模块;
所述通过所述纹理预测网络生成所述训练图像的第一纹理集的步骤,包括:
通过所述特征提取模块提取所述训练图像的可见面片特征和第一不可见面片特征;
通过所述特征补全模块基于所述可见面片特征对所述第一不可见面片特征进行补全,得到第二不可见面片特征;
通过所述纹理解码模块分别对所述可见面片特征和所述第二不可见面片特征进行解码,得到所述训练图像的第一纹理集。
5.根据权利要求4所述的方法,其特征在于,所述通过所述特征提取模块提取所述训练图像的可见面片特征和第一不可见面片特征的步骤,包括:
通过所述特征提取模块内的特征编码器对所述训练图像进行特征提取,得到所述训练图像对应的特征图;
基于所述训练图像中各个像素的深度值对所述特征图进行采样,得到可见顶点特征和不可见顶点特征;
对属于同一面片的可见顶点特征和/或不可见顶点特征进行平均处理,得到所述训练图像的可见面片特征和第一不可见面片特征;其中,如果所述面片包含一个或多个不可见顶点,确定所述面片对应的特征为第一不可见面片特征;如果所述面片不包含所述不可见顶点,确定所述面片对应的特征为可见面片特征。
6.根据权利要求5所述的方法,其特征在于,所述基于所述训练图像中各个像素的深度值对所述特征图进行采样,得到可见顶点特征和不可见顶点特征的步骤,包括:
判断所述训练图像中各个像素的深度值是否小于预设深度缓冲值;
如果是,确定所述像素为可见顶点;如果否,确定所述像素为不可见顶点;
利用双线性插值基于所述可见顶点和所述不可见顶点在所述特征图上进行采样,分别得到可见顶点特征和不可见顶点特征。
7.根据权利要求4所述的方法,其特征在于,所述特征补全模块包括图编码器和图解码器;
所述通过所述特征补全模块基于所述可见面片特征对所述第一不可见面片特征进行补全,得到第二不可见面片特征的步骤,包括:
通过所述图编码器基于所述可见面片特征和所述训练图像对应的几何模型的几何信息,对所述第一不可见面片特征进行卷积操作和下采样操作;其中,所述图编码器包括多个第一图卷积层和多个图下采样层;
通过所述图解码器基于所述可见面片特征和所述几何信息,对所述图编码器输出的特征进行卷积操作和上采样操作,得到第二不可见面片特征;其中,所述图解码器包括多个第二图卷积层和多个图上采样层。
8.根据权利要求1所述的方法,其特征在于,所述获取预渲染得到的训练图像的步骤,包括:
获取原始图像;
利用随机光照参数和多个渲染角度对所述原始图像进行渲染,得到各个所述渲染角度分别对应的预渲染图像;
从各个所述预渲染图像中随机选择一张预渲染图像作为训练图像。
9.根据权利要求8所述的方法,其特征在于,所述联合损失函数包括纹理损失函数、循环一致损失函数和对抗损失函数;
所述基于所述第一光照参数、所述第一纹理集和预设的联合损失函数计算联合损失值的步骤,包括:
基于所述第一纹理集、纹理真值和所述纹理损失函数计算纹理损失值;
利用所述第一光照参数、所述第一纹理集和所述训练图像对应的渲染角度,对所述原始图像进行渲染得到可微渲染图像;
基于所述训练图像、所述可微渲染图像和所述循环一致损失函数计算循环一致损失值;
基于所述训练图像、所述可微渲染图像和所述对抗损失函数计算对抗损失值;
对所述纹理损失值、所述循环一致损失值和所述对抗损失值进行加权求和,得到联合损失值。
10.根据权利要求9所述的方法,其特征在于,所述基于所述训练图像、所述可微渲染图像和所述对抗损失函数计算对抗损失值的步骤,包括:
对所述训练图像和所述可微渲染图像进行线性均匀采样处理,并基于线性均匀采样处理得到的图像、所述训练图像、所述可微渲染图像和所述对抗损失函数计算对抗损失值。
11.一种图像处理方法,其特征在于,包括:
获取待处理的目标图像;
将所述目标图像输入至纹理生成模型;其中,所述纹理生成模型是采用如权利要求1-10任一项所述的纹理生成模型的训练方法训练得到的;
通过所述纹理生成模型生成所述目标图像对应的第二光照参数和第二纹理集。
12.一种纹理生成模型的训练装置,其特征在于,包括:
训练图像获取模块,用于获取预渲染得到的训练图像;
训练图像输入模块,用于将所述训练图像输入至纹理生成模型,通过所述纹理生成模型针对所述训练图像输出第一光照参数和第一纹理集;
损失计算模块,用于基于所述第一光照参数、所述第一纹理集和预设的联合损失函数计算联合损失值;
训练模块,用于利用所述联合损失值对所述纹理生成模型进行训练。
13.一种图像处理装置,其特征在于,包括:
目标图像获取模块,用于获取待处理的目标图像;
目标图像输入模块,用于将所述目标图像输入至纹理生成模型;其中,所述纹理生成模型是采用如权利要求1-10任一项所述的纹理生成模型的训练方法训练得到的;
生成模块,用于通过所述纹理生成模型生成所述目标图像对应的第二光照参数和第二纹理集。
14.一种服务器,其特征在于,包括处理器和存储器;
所述存储器上存储有计算机程序,所述计算机程序在被所述处理器运行时执行如权利要求1至10任一项所述的方法,或执行如权利要求11所述的方法。
15.一种计算机存储介质,其特征在于,用于储存为权利要求1至10任一项所述方法所用的计算机软件指令,或储存为权利要求11所述方法所用的计算机软件指令。
CN202110146575.4A 2021-02-02 2021-02-02 纹理生成模型的训练方法、图像处理方法及装置 Pending CN112802075A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110146575.4A CN112802075A (zh) 2021-02-02 2021-02-02 纹理生成模型的训练方法、图像处理方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110146575.4A CN112802075A (zh) 2021-02-02 2021-02-02 纹理生成模型的训练方法、图像处理方法及装置

Publications (1)

Publication Number Publication Date
CN112802075A true CN112802075A (zh) 2021-05-14

Family

ID=75813837

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110146575.4A Pending CN112802075A (zh) 2021-02-02 2021-02-02 纹理生成模型的训练方法、图像处理方法及装置

Country Status (1)

Country Link
CN (1) CN112802075A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114419121A (zh) * 2022-01-20 2022-04-29 盈嘉互联(北京)科技有限公司 一种基于图像的bim纹理生成方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180293711A1 (en) * 2017-04-06 2018-10-11 Disney Enterprises, Inc. Kernel-predicting convolutional neural networks for denoising
US20190304069A1 (en) * 2018-03-29 2019-10-03 Pixar Denoising monte carlo renderings using neural networks with asymmetric loss
US20200160593A1 (en) * 2018-11-16 2020-05-21 Nvidia Corporation Inverse rendering of a scene from a single image
CN111524187A (zh) * 2020-04-22 2020-08-11 北京三快在线科技有限公司 一种视觉定位模型的训练方法及装置
CN112184884A (zh) * 2020-09-23 2021-01-05 上海眼控科技股份有限公司 三维模型构建方法、装置、计算机设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180293711A1 (en) * 2017-04-06 2018-10-11 Disney Enterprises, Inc. Kernel-predicting convolutional neural networks for denoising
US20190304069A1 (en) * 2018-03-29 2019-10-03 Pixar Denoising monte carlo renderings using neural networks with asymmetric loss
US20200160593A1 (en) * 2018-11-16 2020-05-21 Nvidia Corporation Inverse rendering of a scene from a single image
CN111524187A (zh) * 2020-04-22 2020-08-11 北京三快在线科技有限公司 一种视觉定位模型的训练方法及装置
CN112184884A (zh) * 2020-09-23 2021-01-05 上海眼控科技股份有限公司 三维模型构建方法、装置、计算机设备及存储介质

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
冀俭俭,杨刚: "基于生成对抗网络的分级联合图像补全方法", 图学学报, no. 06, 15 December 2019 (2019-12-15), pages 29 - 37 *
李传朋;秦品乐;张晋京;: "基于深度卷积神经网络的图像去噪研究", 计算机工程, no. 03, 15 March 2017 (2017-03-15), pages 259 - 266 *
李策等: "生成对抗映射网络下的图像多层感知去雾算法", <计算机辅助设计与图形学学报>, 31 October 2017 (2017-10-31), pages 1835 - 1843 *
陈景波;靳小波;: "纹理特征和SIFT特征的茶叶品质分级", 常熟理工学院学报, no. 02, 20 March 2013 (2013-03-20), pages 105 - 108 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114419121A (zh) * 2022-01-20 2022-04-29 盈嘉互联(北京)科技有限公司 一种基于图像的bim纹理生成方法

Similar Documents

Publication Publication Date Title
CN110910486B (zh) 室内场景光照估计模型、方法、装置、存储介质以及渲染方法
CN112396645B (zh) 一种基于卷积残差学习的单目图像深度估计方法和系统
CN111047516A (zh) 图像处理方法、装置、计算机设备和存储介质
CN107133914B (zh) 用于生成三维彩色图像的装置和用于生成三维彩色图像的方法
CN113807361B (zh) 神经网络、目标检测方法、神经网络训练方法及相关产品
CA3137297C (en) Adaptive convolutions in neural networks
Martin et al. MaterIA: Single Image High‐Resolution Material Capture in the Wild
US20220309736A1 (en) Image rendering method and apparatus
CN111524232A (zh) 三维建模方法、装置和服务器
CN113284155A (zh) 视频目标分割方法、装置、存储介质及电子设备
CN115272437A (zh) 一种基于全局与局部特征的图像深度估计方法及装置
CN113888431A (zh) 图像修复模型的训练方法、装置、计算机设备及存储介质
CN116051719A (zh) 一种基于神经辐射场模型的图像渲染方法及装置
CN116503551A (zh) 一种三维重建方法及装置
CN116310046A (zh) 图像处理方法、装置、计算机及存储介质
WO2022208440A1 (en) Multiview neural human prediction using implicit differentiable renderer for facial expression, body pose shape and clothes performance capture
CN112802075A (zh) 纹理生成模型的训练方法、图像处理方法及装置
CN117095132B (zh) 基于隐式函数的三维重建方法和系统
CN117115786B (zh) 一种联合分割跟踪的深度估计模型训练方法及使用方法
CN116434303A (zh) 基于多尺度特征融合的人脸表情捕捉方法、装置及介质
CN116894911A (zh) 三维重建方法、装置、电子设备及可读存储介质
CN114862866B (zh) 标定板的检测方法、装置、计算机设备和存储介质
CN114119923B (zh) 三维人脸重建方法、装置以及电子设备
CN112785494B (zh) 一种三维模型构建方法、装置、电子设备和存储介质
CN115423697A (zh) 图像修复方法、终端及计算机存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination