CN111340725A - 图像降噪方法及其模型训练的方法、装置 - Google Patents
图像降噪方法及其模型训练的方法、装置 Download PDFInfo
- Publication number
- CN111340725A CN111340725A CN202010114253.7A CN202010114253A CN111340725A CN 111340725 A CN111340725 A CN 111340725A CN 202010114253 A CN202010114253 A CN 202010114253A CN 111340725 A CN111340725 A CN 111340725A
- Authority
- CN
- China
- Prior art keywords
- image
- training
- layer
- model
- noise reduction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 185
- 230000009467 reduction Effects 0.000 title claims abstract description 101
- 238000000034 method Methods 0.000 title claims abstract description 99
- 238000009877 rendering Methods 0.000 claims abstract description 84
- 238000013507 mapping Methods 0.000 claims abstract description 26
- 238000005286 illumination Methods 0.000 claims description 23
- 238000012360 testing method Methods 0.000 claims description 14
- 238000003860 storage Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 7
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 4
- 230000000694 effects Effects 0.000 abstract description 42
- 238000012545 processing Methods 0.000 abstract description 8
- 230000008569 process Effects 0.000 description 25
- 238000003062 neural network model Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 238000013461 design Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 239000002245 particle Substances 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种图像降噪方法及其模型训练的方法、装置,涉及图像处理技术领域,该模型训练方法包括:从图像渲染引擎中获取训练图层;将训练图层输入至预设的初始生成对抗网络模型中进行训练;建立并更新训练图层中所包含的噪声数据与真实数据的非线性映射关系;当预设的初始生成对抗网络模型的训练结果满足预设的期望阈值时停止训练,得到用于图像降噪的模型。通过待降噪的图像输入至预先完成训练的图像降噪模型中,得到降噪的图像。该方法可使用多个生成对抗网络分别对渲染效果图的中间层进行降噪,并利用降噪后的中间图层融合成一张渲染效果图,使经过降噪后的渲染效果图在细节纹理上更加接近效果图。
Description
技术领域
本发明涉及图像处理技术领域,尤其是涉及一种图像降噪方法及其模型训练的方法、装置。
背景技术
在如今家居领域的绘制过程,通常采用渲染引擎得以实现。渲染引擎产生的渲染效果由于采样不足,通常会导致渲染效果图存在大量无规则噪声,虽然渲染引擎自身具有降噪处理方法,但是经过渲染引擎降噪处理后的效果图中的细节会被平滑,尤其是在玻璃的倒影以及其它纹理花纹上尤为明显,使得最终的渲染效果图与真实图像仍然存在较大差异。
因此现有技术中,在家居设计渲染的过程中还缺少一种既能够有效的去除渲染效果图上的噪声又能最大限度保存效果图的细节的方式。
发明内容
有鉴于此,本发明的目的在于提供一种图像降噪方法及其模型训练的方法、装置,利用已完成训练的相关神经网络模型来对待渲染的户型图像进行降噪,该图像降噪方法可使用多个生成对抗网络分别对渲染效果图的中间层进行降噪,并利用降噪后的中间图层融合成一张渲染效果图,使经过降噪后的渲染效果图在细节纹理上更加接近效果图。
第一方面,本发明实施例提供了一种用于图像降噪的模型训练方法,该方法包括:
从图像渲染引擎中获取训练图层;
将训练图层输入至预设的初始生成对抗网络模型中进行训练;
建立并更新训练图层中所包含的噪声数据与真实数据的非线性映射关系;
当预设的初始生成对抗网络模型的训练结果满足预设的期望阈值时停止训练,得到用于图像降噪的模型。
在一些实施方式中,上述从图像渲染引擎中获取训练图层的步骤,包括:
从图像渲染引擎中获取多个不同的渲染场景;
分别从渲染场景中获取对应的中间图层以及特征图层;
将中间图层以及特征图层按照预设比例进行划分,得到训练图层;训练图层中包含模型在训练时所用的训练数据集和测试数据集。
在一些实施方式中,上述中间图层,包括:带有噪声的第一全局光照层、带有噪声的第一漫反射层、不带噪声的第二全局光照层以及不带噪声的第二漫反射层;
特征图层,包括:法向量图层、贴图图层、深度图层。
在一些实施方式中,上述训练数据集和测试数据集中,均包括真实数据以及噪声数据;
真实数据,包括:第一全局光照层的数据、第一漫反射层与特征图层的合并数据;
噪声数据,包括:第二全局光照层的数据、第二漫反射层与特征图层的合并数据。
在一些实施方式中,上述将训练图层输入至预设的初始生成对抗网络模型中进行训练的步骤,包括:
初始化第一生成对抗网络以及第二生成对抗网络;
将第一全局光照层的数据、第二全局光照层的数据以及对应的特征图层输入至第一生成对抗网络中进行训练;
将第一漫反射层、第二漫反射层以及对应的特征图层输入至第二生成对抗网络中进行训练。
在一些实施方式中,当预设的初始生成对抗网络模型的训练结果满足预设的期望阈值时,得到用于图像降噪的模型的步骤,包括:
获取预设的初始生成对抗网络模型中的生成器和判别器参数,生成器用于训练图层的噪声去除;判别器用于判断训练图层是否包含噪声;
利用Adam求解器交替更新生成器和判别器的参数,当生成对抗网络模型的损失函数的结果低于预设的阈值时,停止训练,得到用于图像降噪模型。
第二方面,本发明实施例提供了一种图像降噪方法,该方法包括:
获取待降噪的图像;
将待降噪的图像输入至预先完成训练的图像降噪模型中,输出降噪后的图像;图像降噪模型通过第一方面任一项提到的用于图像降噪的模型训练方法训练得到。
在一些实施方式中,上述将待降噪的图像输入至预先完成训练的图像降噪模型中,输出降噪后的图像的步骤,包括:
待降噪的图像输入图像降噪模型中的第一生成对抗网络,生成第一降噪图像;
待降噪的图像输入图像降噪模型中的第二生成对抗网络,生成第二降噪图像;
根据训练图层中所包含的噪声数据与真实数据的非线性映射关系,将第一降噪图像、第二降噪图像以及待降噪的图像中的贴图图层进行融合,得到并输出降噪后的图像。
第三方面,本发明实施例提供了一种用于图像降噪的模型训练装置,该装置包括:
样本获取模块,用于从图像渲染引擎中获取训练图层;
模型训练模块,用于将训练图层输入至预设的初始生成对抗网络模型中进行训练;
非线性映射建立模块,用于建立并更新训练图层中所包含的噪声数据与真实数据的非线性映射关系;
模型获取模块,用于当预设的初始生成对抗网络模型的训练结果满足预设的期望阈值时,得到用于图像降噪的模型。
第四方面,本发明实施例提供了一种图像降噪装置,该装置包括:
待降噪图像获取模块,用于获取待降噪图像;
图像降噪模块,用于将待降噪的图像输入至预先完成训练的图像降噪模型中,输出降噪后的图像;图像降噪模型通过第一方面任一项提到的用于图像降噪的模型训练方法训练得到。
第五方面,本发明实施例提供了一种电子设备,该电子设备包括:处理器和存储装置;存储装置上存储有计算机程序,计算机程序在被处理器运行时执行如第一方面和第二方面提供的方法。
第六方面,本发明实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行第一方面和第二方面提供的方法。
本发明实施例带来了以下有益效果:本发明实施例提供了一种图像降噪方法及其模型训练的方法、装置,在对用于图像降噪的模型训练方法中,首先从图像渲染引擎中获取训练图层;再将训练图层输入至预设的初始生成对抗网络模型中进行训练;建立并更新训练图层中所包含的噪声数据与真实数据的非线性映射关系用于图像降噪;当预设的初始生成对抗网络模型的训练结果满足预设的期望阈值时停止训练,得到用于图像降噪的模型。当训练完成的图像降噪模型进行图像降噪的过程中,首先获取待降噪的图像;然后将待降噪的图像输入至预先完成训练的图像降噪模型中,输出降噪后的图像。该图像降噪模型可使用多个生成对抗网络分别对渲染效果图的中间层进行降噪,并利用降噪后的中间图层融合成一张渲染效果图,使经过降噪后的渲染效果图在细节纹理上更加接近效果图。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的用于图像降噪的模型训练方法的流程图;
图2为本发明实施例提供的用于图像降噪的模型训练方法中步骤S101的流程图;
图3为本发明实施例提供的用于图像降噪的模型训练方法中步骤S103的流程图;
图4为本发明实施例提供的用于图像降噪的模型训练方法中步骤S104的流程图;
图5为本发明实施例提供的图像降噪方法的流程图;
图6为本发明实施例提供的用于图像降噪方法中步骤S502的流程图;
图7为本发明实施例提供的用于图像降噪的模型训练装置的结构示意图;
图8为本发明实施例提供的图像降噪装置的结构示意图;
图9为本发明实施例提供的一种电子设备的结构示意图。
图标:
701-样本获取模块;702-模型训练模块;703-非线性映射建立模块;704-模型获取模块;801-待降噪图像获取模块;802-图像降噪模块;101-处理器;102-存储器;103-总线;104-通信接口。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
渲染的是计算机图形学的一个经典应用,渲染是指将3D场景转换成2D的过程,是渲染引擎求解渲染方程的过程,在游戏、影视、家居设计、动画等领域都有重要的应用价值。
随着生成对抗网络的发展及其强大拟合能力,如何将生成对抗网络引入到图像降噪领域成为热点。基于生成对抗网络的图像降噪效果理论上已超越了以往基于零阶导和一阶导的降噪方法。在家居领域,由渲染引擎产生的渲染效果由于采样不足往往导致渲染效果图存在大量无规则噪声,虽然一般渲染引擎自带降噪处理方法,但是经过渲染引擎自带的降噪方法处理的渲染效果图的细节会被平滑,尤其是在玻璃上的倒影和纹理花纹上。最终的渲染效果图与真实图像仍然存在较大差异,所以有必要提出一种技术手段,既能够有效的去除渲染效果图上的噪声,又能最大限度保存效果图的细节,使其更加接近效果图。
可见在现有技术的家居设计渲染过程中还缺少一种既能够有效的去除渲染效果图上的噪声又能最大限度保存效果图的细节的方式。
考虑到现有家居设计渲染过程中存在的上述问题,本发明的目的在于提供一种图像降噪方法及其模型训练的方法、装置,该技术可以应用于家居设计渲染降噪的过程中,可以采用相关的软件或硬件实现,下面通过实施例进行描述。
为便于对本实施例进行理解,首先对本发明实施例所公开的一种用于图像降噪的模型训练方法进行详细介绍,该方法的流程图如图1所示,包括:
步骤S101,从图像渲染引擎中获取训练图层。
图像渲染引擎是相关家居设计、影视以及动画等所用到的渲染模块,可用于图像的渲染以及其它辅助处理。图像渲染引擎中包含各种渲染场景下的图像图层,这些图层作为训练图层的数据源,保存在图像渲染引擎中。
训练图层需要在尽可能多的渲染场景下进行获取,图层的选择也根据渲染的场景不同而不同。例如可获取多个不同场景下带有噪声的图层以及不带噪声的图层。图层选择的多样化有助于样本数据的完整,在模型训练的过程中有助于模型的性能提升。
步骤S102,将训练图层输入至预设的初始生成对抗网络模型中进行训练。
该初始神经网络模型在训练图层输入之前已完成初始化,此时的神经网络模型状态可以是刚刚完成初始化过程,并未开始训练;也可以是已经训练中的状态。
训练图层输入至该神经网络模型后,通过相关运算改变模型的相关参数,以此提升模型的识别精度。例如,训练图层训练过程中对神经网络模型的惩罚因子进行优化,惩罚因子是表征误差的宽容度的参数,惩罚因子的数值越大,表明越不能容忍误差的出现,相对而言更容易出现过拟合的现象;反之,惩罚因子的数值越小,相对而言更容易出现欠拟合的现象。
将训练图层输入至预设的神经网络模型中进行训练的过程中还包括模型其它参数的优化,在此不再赘述。
步骤S103,建立并更新训练图层中所包含的噪声数据与真实数据的非线性映射关系。
训练图层中包含噪声数据与真实数据的相关图层,在模型训练的过程中通过相关算法,计算得到训练图层中所包含的噪声数据与真实数据的非线性映射关系,用于在图像降噪的过程中提供参考依据。
如果该初始神经网络模型在训练图层输入之前未完成初始化,则该步骤中非线性映射关系需要经过初始化构建等步骤。完成构建后的非线性映射关系会随着模型训练的过程持续进行更新;如果该初始神经网络模型在训练图层输入之前已完成初始化,则不再执行构建步骤。
步骤S104,当预设的初始生成对抗网络模型的训练结果满足预设的期望阈值时停止训练,得到用于图像降噪的模型。
模型在训练中是对相关参数进行优化,在优化过程中可采用粒子群优化算法进一步对神经网络模型中的相关参数进行优化计算。粒子群优化算法也称为粒子群算法,可完成人工神经网络中的连接权值的训练、结构设计、学习规则调整、特征选择、连接权值的初始化和规则提取等。
模型在训练的过程中,训练图层输入至预设的神经网络模型中得到输出结果,对输出的结果进行判断从而确定该模型的性能是否达到要求。例如可根据损失函数的数值,来对模型的训练过程进行判定,当损失函数的数值达到预设的阈值时,则认为该模型的性能满足要求,即可停止模型的训练,得到用于图像降噪的模型。
在本发明实施例提到的用于图像降噪的模型训练方法中可见,该模型中建立了训练图层中噪声数据与真实数据的非线性映射关系,该非线性映射关系可直接用于图像的降噪过程。
在一些实施方式中,上述从图像渲染引擎中获取训练图层的步骤S101,如图2所示,包括:
步骤S201,从图像渲染引擎中获取多个不同的渲染场景。
步骤S202,分别从渲染场景中获取对应的中间图层以及特征图层。
该步骤中的中间图层,用来是在图像渲染过程的特定状态时的图层,例如光源直射时的图层、光源漫反射时的图层、没有光照下的图层等等。特征图层表征图像的某些特征,例如深度图层、法向量图层等。
步骤S203,将中间图层以及特征图层按照预设比例进行划分,得到训练图层;训练图层中包含模型在训练时所用的训练数据集和测试数据集。
预设的比例根据训练过程的实际情况而定,通常按照1:1的比例将中间图层以及特征图层分别进行划分,如果需要更大程度的训练则可将训练数据所包含的比例进行提高;如果需要更大程度的数据测试时则可将测试数据所包含的比例进行提高。
在具体实施的过程中,上述中间图层,包括:带有噪声的第一全局光照层、带有噪声的第一漫反射层、不带噪声的第二全局光照层以及不带噪声的第二漫反射层;特征图层,包括:法向量图层、贴图图层、深度图层。
上述训练数据集和测试数据集中,均包括真实数据以及噪声数据;真实数据,包括:第一全局光照层的数据、第一漫反射层与特征图层的合并数据;噪声数据,包括:第二全局光照层的数据、第二漫反射层与特征图层的合并数据。
在对中间图层、特征图层以及包含的真实数据以及噪声数据进行设定后,上述将训练图层输入至预设的初始生成对抗网络模型中进行训练的步骤S102,如图3所示,包括:
步骤S301,初始化第一生成对抗网络以及第二生成对抗网络。
上述生成对抗网络的初始化过程所用的参数可相同,后续训练的过程中会根据训练数据的不同使得第一生成对抗网络以及第二生成对抗网络对应不同的降噪倾向。
步骤S302,将第一全局光照层的数据、第二全局光照层的数据以及对应的特征图层输入至第一生成对抗网络中进行训练;
步骤S303,将第一漫反射层、第二漫反射层以及对应的特征图层输入至第二生成对抗网络中进行训练。
具体的,上述步骤中,可对同一个生成对抗网络分别训练两次,获得两份不同权重系数。第一份权重系数训练所用训练数据和测试数据的真实数据为不带噪声的全局光照层和特征图层,噪声数据为带噪声的全局光照层和特征图层;第二份权重系数训练所用训练数据和测试数据的真实数据为不带噪声的漫反射层和特征图层,噪声数据为带噪声的漫反射层和特征图层。
在一些实施方式中,当预设的初始生成对抗网络模型的训练结果满足预设的期望阈值时,得到用于图像降噪的模型的步骤S104,如图4所示,包括:
步骤S401,获取预设的初始生成对抗网络模型中的生成器和判别器参数。
上述步骤中,生成器用于训练图层的噪声去除;判别器用于判断训练图层是否包含噪声。
步骤S402,利用Adam求解器交替更新生成器和判别器的参数,当生成对抗网络模型的损失函数的结果低于预设的阈值时,停止训练,得到用于图像降噪模型。
上述生成式对抗网络模型为GAN深度学习模型(GAN,Generative AdversarialNetworks),该模型通过框架中(至少)两个模块:生成模型(Generative Model)和判别模型(Discriminative Model)的互相博弈学习产生相当好的输出。原始GAN理论中,并不要求生成模型和判别模型都是神经网络,只需要是能拟合相应生成和判别的函数即可。但实用中一般均使用深度神经网络作为生成模型和判别模型。一个优秀的GAN应用需要有良好的训练方法,否则可能由于神经网络模型的自由性而导致输出不理想。
利用Adam求解器交替更新生成器和判别器的参数,直到得到最小化损失函数时,训练停止,得到用于图像降噪的模型。
本发明实施例提供了一种图像降噪方法,如图5所示,该方法包括:
步骤S501,获取待降噪的图像。
待降噪的图像作为输入图像,与模型训练过程中的输入图像来源并不相同,待降噪的图像可通过将家居领域的渲染引擎进行初步渲染后获取,也可直接通过图像采集设备直接获取。
步骤S502,将待降噪的图像输入至预先完成训练的图像降噪模型中,输出降噪后的图像。
图像降噪模型通过上述实施例提到的用于图像降噪的模型训练方法训练得到,输出的降噪后的图像是图像降噪模型通过噪声数据与真实数据的非线性映射关系直接获取。
在一些实施方式中,上述将待降噪的图像输入至预先完成训练的图像降噪模型中,输出降噪后的图像的步骤S502,如图6所示,包括:
步骤S601,待降噪的图像输入图像降噪模型中的第一生成对抗网络,生成第一降噪图像;
步骤S602,待降噪的图像输入图像降噪模型中的第二生成对抗网络,生成第二降噪图像。
上述步骤中是将降噪的图像分别输入图像降噪模型中的两个生成对抗网络,由于用于相互对抗。
步骤S603,根据训练图层中所包含的噪声数据与真实数据的非线性映射关系,将第一降噪图像、第二降噪图像以及待降噪的图像中的贴图图层进行融合,得到并输出降噪后的图像。
为了更好的对图像进行降噪,对第一降噪图像、第二降噪图像以及待降噪的图像中的贴图图层进行融合处理,进一步的对图像进行降噪,实现更加真实且无噪声的图像降噪处理。
在图像降噪方法的实施方式中,上述图像降噪模型,其实现原理及产生的技术效果和前述用于图像降噪的模型训练方法的实施例相同,为简要描述,实施例部分未提及之处,可参考前述方法实施例中相应内容。
对上述用于图像降噪的模型训练以及图像降噪的过程,实施过程具体如下:
步骤1:从渲染引擎获取多个不同渲染场景下带噪声的渲染中间图层、不带噪声的渲染中间图层和特征图层,并将中间图层和特征图层按比例划分成训练数据集和测试数据集。
具体的,上述步骤中,分别获取每个场景的带噪声的第一中间图层、不带噪声的第一中间图层、特征图层、带噪声的第二中间图层、不带噪声的第二中间图层。其中,带噪声的第一中间图层为带噪声的全局光照层(Diffuse_no);不带噪声的第一中间图层代表不带噪声的全局光照层(Diffuse_gt);特征图层包括法向量图层(Noimals)、贴图图层(Albedo)、深度图层(Depth);带噪声的第二中间图层为带噪声的漫反射层(Specular_no);不带噪声的中间图层为不带噪声的漫反射层(Specular_gt)。
对获取的所有Diffuse_no、Diffuse_gt、Specular_no和Specular_gt分别取对数。对所有的Diffuse_no、Specular_no、Diffuse_gt、Specular_gt和特征图层按比例划分成训练数据集和测试数据集。其中,训练数据集由以下形式组成:真实数据——Diffuse_no、Specular_no+特征图层和噪声数据——Diffuse_gt、Specular_gt+特征图层组成;测试数据集也是由真实数据——Diffuse_no、Specular_no+特征图层和噪声数据——Diffuse_gt、Specular_gt+特征图层组成。
选择400个不同渲染场景,渲染参数和待降噪的渲染效果图一致,对每个渲染场景获取Diffuse_no、Diffuse_gt;特征图层:Noimals、Albedo、Depth;Specular_no、Specular_gt;对所有Diffuse_no、Diffuse_gt、Specular_no和Specular_gt取对数log(*),按照9:1的比例划分成训练数据集和测试数据集,训练数据由真实数据和噪声数据组成。
步骤2:构建生成对抗网络模型,使用划分好的数据集进行训练,建立噪声数据与真实数据的非线性映射关系。
生成对抗网络的生成器由若干卷积层和ReLU激活函数构成,判别器,由卷积层和激活函数LeakyReLU组成。本例中,使用不同训练数据对同一生成对抗网络,训练两份权重系数;使用400组真实数据为Diffuse_gt+特征图层、400组噪声数据为Diffuse_no+特征图层训练第一个权重系数G_D;使用400组真实数据为Specular_gt和特征图层,400组噪声数据为Specular_no+特征图层训练第二个权重系数G_S。
步骤3,从渲染引擎获取其他待降噪的中间图层和特征图层。
降噪的渲染效果图是未经训练过的带噪声的渲染效果图,从渲染引擎中获取其Diffuse_no、Specular_no和特征图层:Noimals、Albedo以及Depth。
步骤4,利用学习得到的生成网络对带噪声的中间图层进行非线性映射,获得降噪后的效果图。
使用步骤2中训练得到的权重系数G_D构建生成网络G1,使用权重系数G_S构建生成网络G2;把降噪的渲染效果图的Diffuse_no+特征图层输入到G1网络得到降噪后的中间图层——Diffuse_denoise;Specular_no+特征图层输入到G2网络得到降噪后的中间图层——Specular_denoise。
步骤5,将经过降噪处理的中间图层融合成最终的渲染效果图。
将步骤4中的Diffuse_denoise、Specular_denoise和从渲染器获取的Albedo进行融合得到的最终降噪后的渲染效果图。融合公式为(a*b)+c,其中a表示Diffuse_denoise、b表示Specular_denoise、c表示Albedo。
综上所述,本方法从渲染引擎获取渲染效果图的中间图层和特征图层,使用中间图层和特征图层制作训练数据,结合GAN的优点构建生成对抗网络,通过训练获取生成模型,通过对中间层进行降噪处理,取得接近真实无噪声的渲染效果图。
对应于上述用于图像降噪的模型训练方法的实施例,本实施例还提供一种用于图像降噪的模型训练装置,如图7所示,该装置包括:
样本获取模块701,用于从图像渲染引擎中获取训练图层;
模型训练模块702,用于将训练图层输入至预设的初始生成对抗网络模型中进行训练;
非线性映射建立模块703,用于建立并更新训练图层中所包含的噪声数据与真实数据的非线性映射关系;
模型获取模块704,用于当预设的初始生成对抗网络模型的训练结果满足预设的期望阈值时,得到用于图像降噪的模型。
本发明实施例所提供的用于图像降噪的模型训练装置,其实现原理及产生的技术效果和前述用于图像降噪的模型训练方法的实施例相同,为简要描述,实施例部分未提及之处,可参考前述方法实施例中相应内容。
对应于上述图像降噪方法的实施例,本实施例还提供一种图像降噪装置,如图8所示,该装置包括:
待降噪图像获取模块801,用于获取待降噪图像;
图像降噪模块802,用于将待降噪的图像输入至预先完成训练的图像降噪模型中,输出降噪后的图像;图像降噪模型通过前述实施例提到的用于图像降噪的模型训练方法训练得到。
本发明实施例所提供的一种图像降噪装置,其实现原理及产生的技术效果和前述图像降噪方法的实施例相同,为简要描述,实施例部分未提及之处,可参考前述方法实施例中相应内容。
本实施例还提供一种电子设备,为该电子设备的结构示意图如图9所示,该设备包括处理器101和存储器102;其中,存储器102用于存储一条或多条计算机指令,一条或多条计算机指令被处理器执行,以实现上述用于图像降噪的模型训练方法以及图像降噪方法。
图9所示的电子设备还包括总线103和通信接口104,处理器101、通信接口104和存储器102通过总线103连接。
其中,存储器102可能包含高速随机存取存储器(RAM,Random Access Memory),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。总线103可以是ISA总线、PCI总线或EISA总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图9中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
通信接口104用于通过网络接口与至少一个用户终端及其它网络单元连接,将封装好的IPv4报文或IPv4报文通过网络接口发送至用户终端。
处理器101可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器101中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器101可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DigitalSignal Processor,简称DSP)、专用集成电路(Application Specific IntegratedCircuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本公开实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本公开实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器102,处理器101读取存储器102中的信息,结合其硬件完成前述实施例的方法的步骤。
本发明实施例还提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行前述实施例的方法的步骤。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、设备和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,设备或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以用软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (12)
1.一种用于图像降噪的模型训练方法,其特征在于,所述方法包括:
从图像渲染引擎中获取训练图层;
将所述训练图层输入至预设的初始生成对抗网络模型中进行训练;
建立并更新所述训练图层中所包含的噪声数据与真实数据的非线性映射关系;
当所述预设的初始生成对抗网络模型的训练结果满足预设的期望阈值时停止训练,得到用于图像降噪的模型。
2.根据权利要求1所述的用于图像降噪的模型训练方法,其特征在于,从图像渲染引擎中获取训练图层的步骤,包括:
从所述图像渲染引擎中获取多个不同的渲染场景;
分别从所述渲染场景中获取对应的中间图层以及特征图层;
将所述中间图层以及特征图层按照预设比例进行划分,得到所述训练图层;所述训练图层中包含所述模型在训练时所用的训练数据集和测试数据集。
3.根据权利要求2所述的用于图像降噪的模型训练方法,其特征在于,所述中间图层,包括:带有噪声的第一全局光照层、带有噪声的第一漫反射层、不带噪声的第二全局光照层以及不带噪声的第二漫反射层;
所述特征图层,包括:法向量图层、贴图图层、深度图层。
4.根据权利要求3所述的用于图像降噪的模型训练方法,其特征在于,所述训练数据集和测试数据集中,均包括真实数据以及噪声数据;
所述真实数据,包括:所述第一全局光照层的数据、所述第一漫反射层与所述特征图层的合并数据;
所述噪声数据,包括:所述第二全局光照层的数据、所述第二漫反射层与所述特征图层的合并数据。
5.根据权利要求4所述的用于图像降噪的模型训练方法,其特征在于,将所述训练图层输入至预设的初始生成对抗网络模型中进行训练的步骤,包括:
初始化第一生成对抗网络以及第二生成对抗网络;
将所述第一全局光照层的数据、所述第二全局光照层的数据以及对应的特征图层输入至所述第一生成对抗网络中进行训练;
将所述第一漫反射层、所述第二漫反射层以及对应的特征图层输入至所述第二生成对抗网络中进行训练。
6.根据权利要求1所述的用于图像降噪的模型训练方法,其特征在于,当所述预设的初始生成对抗网络模型的训练结果满足预设的期望阈值时,得到用于图像降噪的模型的步骤,包括:
获取预设的所述初始生成对抗网络模型中的生成器和判别器参数,所述生成器用于所述训练图层的噪声去除;所述判别器用于判断所述训练图层是否包含噪声;
利用Adam求解器交替更新所述生成器和所述判别器的参数,当所述生成对抗网络模型的损失函数的结果低于预设的阈值时,停止训练,得到用于图像降噪模型。
7.一种图像降噪方法,其特征在于,所述方法包括:
获取待降噪的图像;
将所述待降噪的图像输入至预先完成训练的图像降噪模型中,输出降噪后的所述图像;所述图像降噪模型通过权利要求1-6任一项所述的用于图像降噪的模型训练方法训练得到。
8.根据权利要求7所述的图像降噪的方法,其特征在于,将所述待降噪的图像输入至预先完成训练的图像降噪模型中,输出降噪后的所述图像的步骤,包括:
所述待降噪的图像输入所述图像降噪模型中的第一生成对抗网络,生成第一降噪图像;
所述待降噪的图像输入所述图像降噪模型中的第二生成对抗网络,生成第二降噪图像;
根据所述训练图层中所包含的噪声数据与真实数据的非线性映射关系,将所述第一降噪图像、所述第二降噪图像以及所述待降噪的图像中的贴图图层进行融合,得到并输出所述降噪后的所述图像。
9.一种用于图像降噪的模型训练装置,其特征在于,所述装置包括:
样本获取模块,用于从图像渲染引擎中获取训练图层;
模型训练模块,用于将所述训练图层输入至预设的初始生成对抗网络模型中进行训练;
非线性映射建立模块,用于建立并更新所述训练图层中所包含的噪声数据与真实数据的非线性映射关系;
模型获取模块,用于当所述预设的初始生成对抗网络模型的训练结果满足预设的期望阈值时,得到用于图像降噪的模型。
10.一种图像降噪装置,其特征在于,所述装置包括:
待降噪图像获取模块,用于获取待降噪图像;
图像降噪模块,用于将所述待降噪的图像输入至预先完成训练的图像降噪模型中,输出降噪后的所述图像;所述图像降噪模型通过权利要求1-6任一项所述的用于图像降噪的模型训练方法训练得到。
11.一种电子设备,其特征在于,包括:处理器和存储装置;所述存储装置上存储有计算机程序,所述计算机程序在被所述处理器运行时执行如权利要求1至8任一项所述方法的步骤。
12.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器运行时执行上述权利要求1至8任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010114253.7A CN111340725B (zh) | 2020-02-24 | 2020-02-24 | 图像降噪方法及其模型训练的方法、装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010114253.7A CN111340725B (zh) | 2020-02-24 | 2020-02-24 | 图像降噪方法及其模型训练的方法、装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111340725A true CN111340725A (zh) | 2020-06-26 |
CN111340725B CN111340725B (zh) | 2024-02-27 |
Family
ID=71183726
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010114253.7A Active CN111340725B (zh) | 2020-02-24 | 2020-02-24 | 图像降噪方法及其模型训练的方法、装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111340725B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113591962A (zh) * | 2021-07-22 | 2021-11-02 | 国网山西省电力公司营销服务中心 | 一种网络攻击样本生成方法及装置 |
CN114549722A (zh) * | 2022-02-25 | 2022-05-27 | 北京字跳网络技术有限公司 | 3d素材的渲染方法、装置、设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190197358A1 (en) * | 2017-12-21 | 2019-06-27 | International Business Machines Corporation | Generative Adversarial Network Medical Image Generation for Training of a Classifier |
CN110288547A (zh) * | 2019-06-27 | 2019-09-27 | 北京字节跳动网络技术有限公司 | 用于生成图像去噪模型的方法和装置 |
-
2020
- 2020-02-24 CN CN202010114253.7A patent/CN111340725B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190197358A1 (en) * | 2017-12-21 | 2019-06-27 | International Business Machines Corporation | Generative Adversarial Network Medical Image Generation for Training of a Classifier |
CN110288547A (zh) * | 2019-06-27 | 2019-09-27 | 北京字节跳动网络技术有限公司 | 用于生成图像去噪模型的方法和装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113591962A (zh) * | 2021-07-22 | 2021-11-02 | 国网山西省电力公司营销服务中心 | 一种网络攻击样本生成方法及装置 |
CN113591962B (zh) * | 2021-07-22 | 2023-12-15 | 国网山西省电力公司营销服务中心 | 一种网络攻击样本生成方法及装置 |
CN114549722A (zh) * | 2022-02-25 | 2022-05-27 | 北京字跳网络技术有限公司 | 3d素材的渲染方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111340725B (zh) | 2024-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11847738B2 (en) | Voxelization of mesh representations | |
US9767598B2 (en) | Smoothing and robust normal estimation for 3D point clouds | |
CN113838176B (zh) | 模型的训练方法、三维人脸图像生成方法及设备 | |
KR101525054B1 (ko) | 3차원 메쉬 데이터 간략화 방법 및 장치 | |
CN111598986B (zh) | 虚拟流体表面的渲染方法、装置、设备及存储介质 | |
CN107578467B (zh) | 一种医疗器械三维建模方法及装置 | |
US10445926B2 (en) | Light path correlation in digital image rendering of a digital scene | |
CN111340725A (zh) | 图像降噪方法及其模型训练的方法、装置 | |
CN111598796A (zh) | 图像处理方法及装置、电子设备、存储介质 | |
CN114792355B (zh) | 虚拟形象生成方法、装置、电子设备和存储介质 | |
CN112862669A (zh) | 图像生成模型的训练方法、生成方法、装置及设备 | |
CN112652046A (zh) | 游戏画面的生成方法、装置、设备及存储介质 | |
CN115018968A (zh) | 图像渲染方法、装置、存储介质及电子设备 | |
CN112669432B (zh) | 容积云渲染方法、装置、电子设备及存储介质 | |
KR102005492B1 (ko) | 3차원 메쉬 데이터 간소화 방법 및 장치 | |
KR101919085B1 (ko) | 3차원 메쉬 데이터 간소화 방법 및 장치 | |
CN110378948B (zh) | 3d模型重建方法、装置及电子设备 | |
CN115690359B (zh) | 一种点云处理方法、装置、电子设备及存储介质 | |
CN116843807A (zh) | 虚拟形象生成、模型的训练方法、装置及电子设备 | |
JP2019106187A (ja) | 有限要素メッシュの修復のためのシステムおよび方法 | |
CN113240720B (zh) | 一种三维表面重建方法、装置、服务器以及可读存储介质 | |
CN110853087B (zh) | 一种视差估计方法、装置、存储介质及终端 | |
Suppan et al. | Neural Screen Space Rendering of Direct Illumination. | |
CN116206035B (zh) | 人脸重建方法、装置、电子设备以及存储介质 | |
CN116843808B (zh) | 基于点云的渲染、模型训练、虚拟形象生成方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |