CN113989100A - 一种基于样式生成对抗网络的红外纹理样本扩充方法 - Google Patents
一种基于样式生成对抗网络的红外纹理样本扩充方法 Download PDFInfo
- Publication number
- CN113989100A CN113989100A CN202111112050.5A CN202111112050A CN113989100A CN 113989100 A CN113989100 A CN 113989100A CN 202111112050 A CN202111112050 A CN 202111112050A CN 113989100 A CN113989100 A CN 113989100A
- Authority
- CN
- China
- Prior art keywords
- network
- infrared texture
- pattern
- discriminator
- generator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 239000013598 vector Substances 0.000 claims abstract description 82
- 238000012549 training Methods 0.000 claims abstract description 45
- 230000006870 function Effects 0.000 claims description 31
- 238000010606 normalization Methods 0.000 claims description 25
- 230000009466 transformation Effects 0.000 claims description 25
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 24
- 238000013507 mapping Methods 0.000 claims description 13
- 230000015572 biosynthetic process Effects 0.000 claims description 12
- 238000011156 evaluation Methods 0.000 claims description 12
- 238000003786 synthesis reaction Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 9
- 238000005096 rolling process Methods 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 8
- 230000002194 synthesizing effect Effects 0.000 claims description 7
- 238000011478 gradient descent method Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于样式生成对抗网络的红外纹理样本扩充方法,包括:利用多张实拍的红外纹理图像组成训练集;构造由生成器网络和判别器网络组成的样式生成对抗网络;利用训练集和随机生成的特征向量对所述生成器网络进行训练;利用训练集、生成器网络生成的图像以及随机生成的特征向量对所述判别器网络进行训练;对所述生成器网络和所述判别器网络交替进行训练,使得损失小于预设阈值,获得经训练的样式生成对抗网络模型;利用经训练的样式生成对抗网络模型获得红外纹理图像。本发明采用样式生成对抗网络,将实拍的红外纹理样本作为训练集,并采用交替训练方式,使生成的红外纹理样本更加接近实拍图像,提高了红外纹理样本的真实感。
Description
技术领域
本发明属于图像处理技术领域,具体涉及一种基于样式生成对抗网络的红外纹理样本扩充方法,可用于对红外纹理样本进行扩充,以便为自然场景特性建模仿真提供多样、真实的红外纹理图像,提高场景的复杂度和真实感。
背景技术
红外成像技术由于目标探测能力强、抗干扰能力强等特点,常用于目标的检测、识别和跟踪等方面。因此,复杂光学场景特性建模成为急需解决的问题。而复杂光学场景需要大量的、多样的红外背景纹理图像作为支撑,才能使得模型具有较好的复杂感和真实感。由于通过实验人工测量获得的数据目前十分有限,因此需要通过深度学习样本扩充方法获得大量的红外背景纹理。
当前大部分的红外图像样本扩充都是通过生成方法,尤其是生成对抗网络(GAN),获得的图像分辨率和质量正在迅速提高。目前,用于高分辨率图像合成的最新方法是StyleGAN,其已被证明可以在各种数据集上可靠地工作。
StyleGAN的显著特征是非常规的生成器体系结构。映射网络f不再将输入的潜在编码仅馈送至网络的开头,而是将其转换为中间的潜在编码。然后仿射变换生成控制图层的样式,并通过自适应实例归一化(AdaIN)参与合成网络g进行合成。另外,通过向合成网络提供额外的随机噪声图来促进随机变化,这种设计允许中间潜空间W的纠缠比输入潜空间Z的纠缠小得多。但是许多观察者已经注意到由StyleGAN生成的图像中的特征伪影,少量生成的图片有明显的液滴伪像,这个液滴伪像也存在于特征图上。
发明内容
为了解决现有技术中存在的上述问题,本发明提供了一种基于样式生成对抗网络的红外纹理样本扩充方法,旨在解决扩充红外图像样本时仿真过程复杂,扩充的红外图像样本真实感较差,可见光到红外的光电转换方法训练集获取难度大,扩充红外图像样本缺乏多样性,扩充数量有限等问题。
本发明要解决的技术问题通过以下技术方案实现:
本发明提供了一种基于样式生成对抗网络的红外纹理样本扩充方法,包括:
S1:利用多张实拍的红外纹理图像组成训练集;
S2:构造由生成器网络和判别器网络组成的样式生成对抗网络;
S3:利用训练集和随机生成的特征向量对所述生成器网络进行训练;
S4:利用训练集、生成器网络生成的图像以及随机生成的特征向量对所述判别器网络进行训练;
S5:对所述生成器网络和所述判别器网络交替进行训练,使得损失小于预设阈值,获得经训练的样式生成对抗网络模型;
S6:利用经训练的样式生成对抗网络模型获得红外纹理图像。
在本发明的一个实施例中,所述S2包括:
S2.1:构建生成器网络,所述生成器网络包括映射网络单元和合成网络单元;
S2.2:构建判别器网络;
S2.3:将所述生成器网络和判别器网络进行级联,获得所述样式生成对抗网络。
在本发明的一个实施例中,所述映射网络单元包括依次连接的归一化模块和多个全连接层,其中,所述归一化模块用于对输入的隐变量进行归一化处理,所述全连接层用于根据归一化后的隐变量映射到潜在空间,学习一种仿射变换,获得仿射变换向量。
在本发明的一个实施例中,所述合成网络单元包括多个合成模块,每个合成模块包括第一样式卷积块、第二样式卷积块和输出卷积层,其中,
所述第一样式卷积块用于利用所述仿射变换向量对添加高斯噪声数据后的随机向量进行仿射变换、随后进行上采样、卷积和归一化操作,获得所述随机向量的中间特征向量;
所述第二样式卷积块用于利用所述仿射变换向量对添加高斯噪声数据后的中间特征向量进行仿射变换、随后进行卷积和归一化操作,获得所述随机向量的高级特征向量;
所述输出卷积层用于输出所述高级特征向量对应的RGB图像。
在本发明的一个实施例中,所述生成器网络包括依次连接的输入层、卷积块组合和两个全连接层。
在本发明的一个实施例中,所述卷积块组合包括多个卷积块,每个卷积块用于对输入的特征向量进行卷积、上采样和下采样,以缩小所述特征向量的尺寸。
在本发明的一个实施例中,每个所述卷积块依次包括卷积层、下采样层、卷积层、上采样层、卷积层和下采样层。
在本发明的一个实施例中,所述S3包括:
S3.1:固定所述判别器网络当前的权重参数,将随机生成的特征向量输入到所述生成器网络中,输出生成的红外纹理图像;
S3.2:将生成的红外图像输入到所述判别器网络中,所述判别器网络对生成的红外图像进行评估,输出评估结果;
S3.3:利用所述判别器网络的评估结果和所述生成器网络的损失函数计算生成器网络的损失值,所述生成器网络损失函数的计算公式为:
LG=-E[D(G(z))]
其中,LG表示生成器网络的损失函数,E[·]表示求期望操作,D(·)表示样式生成对抗网络中的判别器网络的输出,G(·)表示样式生成对抗网络中的生成器网络的输出,z表示随机生成的特征向量;
S3.4:将所述生成器网络损失函数值与正则化项相加得到生成器的损失,根据所述损失利用梯度下降方法更新生成器网络参数。
在本发明的一个实施例中,所述S4包括:
S4.1:固定生成器网络当前的权重参数,将随机生成的特征向量输入到所述生成器网络中,输出生成的红外纹理图像;
S4.2:将生成的红外纹理图像和来自所述训练集中的红外纹理图像分别输入到所述判别器网络中;
S4.3:利用所述判别器网络对依次输入的红外纹理图像评估后分别输出对应的评估结果;
S4.4:利用所述判别器网络的评估结果和所述判别器网络的损失函数计算所述判别器网络的损失值,所述判别器网络的损失函数计算公式为:
其中,LD表示判别器网络的损失函数,E[·]表示求期望操作,D(·)表示样式生成对抗网络中判别器网络的输出,G(·)表示样式生成对抗网络中生成器网络的输出,z表示随机生成的特征向量,x表示来自训练集中的实拍红外纹理图像,γ表示平方项系数,λ表示约束项系数,表示由生成器输出的红外纹理图像和训练集中的实拍红外纹理图像根据随机比例对应融合得到的约束项红外纹理图像,||·||2表示2范数操作,表示求导操作;
S4.5:将损失函数值与正则化项相加得到判别器的损失,根据所述损失利用梯度下降方法更新判别器网络参数。
与现有技术相比,本发明的有益效果在于:
1、本发明的红外纹理样本扩充方法采用样式生成对抗网络,将实拍的红外纹理样本作为训练集,采用判别器和生成器交替训练的方式对网络进行训练,使得生成的红外纹理样本红外特性更加接近实拍图像,克服了现有技术仿真生成红外纹理时真实感较差的问题,使得在扩充红外纹理样本时,提高了红外纹理样本的真实感。
2、本发明生成器网络中的映射网络单元采用样式卷积块,将随机特征向量作为样式卷积块的输入,并对卷积层结果进行调制,生成红外纹理样本,克服了现有技术生成红外纹理多样性差的问题,使得在扩充红外纹理样本时,提高了红外纹理样本的多样性。
3、本发明的红外纹理样本扩充方法对传入特征图的预期统计量进行归一化处理,在保留可控制性的同时删除了伪像即水滴效果。
4、在本发明的红外纹理样本扩充方法中,采用的损失函数延迟正则化与路径长度正则化,从而大大降低了计算成本和整体内存使用量。
以下将结合附图及实施例对本发明做进一步详细说明。
附图说明
图1是本发明实施例提供的一种基于样式生成对抗网络的红外纹理样本扩充方法的流程图;
图2是本发明实施例提供的一种生成器网络的结构示意图;
图3是本发明实施例提供的一种判别器网络的结构示意图。
具体实施方式
为了进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及具体实施方式,对依据本发明提出的一种基于样式生成对抗网络的红外纹理样本扩充方法进行详细说明。
有关本发明的前述及其他技术内容、特点及功效,在以下配合附图的具体实施方式详细说明中即可清楚地呈现。通过具体实施方式的说明,可对本发明为达成预定目的所采取的技术手段及功效进行更加深入且具体地了解,然而所附附图仅是提供参考与说明之用,并非用来对本发明的技术方案加以限制。
应当说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的物品或者设备中还存在另外的相同要素。
本发明实施例实现上述目的的思路是:构建以随机特征向量作为输入的样式生成对抗网络,使用实拍红外纹理样本作为训练集,通过判别器网络和生成器网络交替训练的方式,更新网络的参数。在更新到生成器网络的损失值小于预设阈值,判别器网络的损失值均值小于预设阈值的情况下,保存训练好的生成器网络各层的权重参数。最后,将随机生成的特征向量输入到训练好的生成器网络中进行计算,得到生成的红外纹理图像,并将其添加到训练集中,完成对红外纹理样本的扩充。
请参见图1,图1是本发明实施例提供的一种基于样式生成对抗网络的红外纹理样本扩充方法的流程图。该红外纹理样本扩充方法包括:
S1:利用多张实拍的红外纹理图像组成训练集。
选取实拍至少2000张红外纹理图像,将每张图像的大小缩放裁剪为256×256,组成训练集;
S2:构造由生成器网络和判别器网络组成的样式生成对抗网络。
进一步地,所述S2包括:
S2.1:构建生成器网络。
请参见图2,图2是本发明实施例提供的一种生成器网络的结构示意图。本实施例的生成器网络包括映射网络(Mapping network)单元和Synthesis network(合成网络)单元。
所述映射网络单元包括归一化模块11和多个全连接层(FC)12,其中,归一化模块11用于对输入的隐变量(随机生成的向量)Z进行归一化处理,全连接层12用于对归一化的向量映射到潜在空间W,学习一种仿射变换,获得仿射变换向量A。在本实施例中,所述随机生成的原始向量Z为采样自高斯分布或均匀分布的随机变量。优选地,本实施例包括八个全连接层12。
具体地,输入的隐变量Z经过归一化处理后,输入所述八个全连接层12,通过所述八个全连接层12映射到中间的潜在空间W,获得中间潜在向量空间的潜在向量w,并学习到一个仿射变换向量A。这种设计使得中间特征向量w的纠缠比输入的原始向量Z的纠缠小得多。
所述合成网络单元的作用是生成图像,本实施例的合成网络单元包括多个合成模块(synthesis_block),每个合成模块包括第一样式卷积块21、第二样式卷积块22和输出卷积层23,其中,
第一样式卷积块21用于利用所述仿射变换向量A对添加高斯噪声数据B后的随机向量进行仿射变换、随后进行上采样、卷积和归一化操作,获得所述随机向量的中间特征向量;
第二样式卷积块22用于利用所述仿射变换向量A对添加高斯噪声数据B后的中间特征向量进行仿射变换、调制、随后进行卷积和归一化操作,获得所述随机向量的高级特征向量;
输出卷积层23用于输出所述高级特征向量对应的RGB图像。
具体地,第一样式卷积块21包括第一调制模块211、第一上采样层212、第一卷积层213和第一归一化层214。具体地,对随机变量x(例如,分辨率为4*4)添加高斯噪声数据B,并输入所述第一样式卷积块21。具体地,高斯噪声数据B均为随机的向量。
第一调制模块211用于利用仿射变换向量A对添加高斯噪声数据B后的随机变量进行仿射变换并调制,将输入向量的标准差调制为特定的数值。随后通过第一上采样层212的上采样操作提高分辨率(8*8),随后输入第一卷积层213中进行卷积操作后再输入第一归一化层214进行归一化操作,获得第一样式卷积块21的输出结果,即获得中间特征向量。优选地,第一卷积层213为3*3卷积层,其参数是可学习的。
需要说明的是,这里所述的调制可以通过缩放卷积权重来实现:
w′ijk=si·wijk (1)
其中,wijk为原始权重,w′ijk为调制权重,si为与第i个输入特征图相对应的比例,而j和k分别列举输出特征图和卷积的空间下标。假设输入的是独立同分布带有单位标准偏差的随机变量,经过调制和卷积后,输出的标准偏差为:
即,通过相应权重的L2范数来缩放输出。随后的归一化旨在将输出恢复为单位标准偏差。基于等式(2),如果将每个输出特征图j缩放(解调),则可以实现此目的。或者,可以再次将其嵌入到卷积权重中:
其中,w″ijk为归一化后的权重,∈为避免数值问题的小常数。
第二样式卷积块22包括第二调制模块221、第二卷积层222和第二归一化层223。具体地,将第一样式卷积块21的输出结果添加高斯噪声数据B后输入到第二样式卷积块22,第二调制模块221利用仿射变换向量A对输入的变量进行仿射变换并调制,随后输入所述第二卷积层222中进行卷积操作后再输入第二归一化层223进行归一化操作,获得第二样式卷积块的输出结果,即获得更高级的特征向量y。
随后该更高级的特征向量y经过所述输出卷积层输出该分辨率的RGB图像。同时,将该特征向量y和该RGB图像输入到下一个合成模块中进行相同的处理,图像的分辨率会不断提高,最终输出指定尺寸的图像(256*256)。
在本实施例中,所述合成网络单元包括7个依次连接的合成模块。
S2.2:构建判别器网络。
具体地,搭建一个判别器网络,请参见图3,图3是本发明实施例提供的一种判别器网络的结构示意图。本实施例的判别器网络依次包括输入层31、卷积块组合32和两个全连接层33,判别器输入的是图像数据,输出的是判别结果真或假,即判断这张图是真实的还是生成器网络生成的,真就是真实的,假就是生成器网络生成的。本实施例的输入层31为3*3卷积层。
本实施例的卷积块组合32包括6个卷积块,每个卷积块依次包括卷积层、下采样层、卷积层、上采样层、卷积层和下采样层。在判别器处理过程中,图像的分辨率逐渐减小,最终输出判别结果:真or假。本实施例的卷积块中的所有卷积层均为3*3卷积层。需要说明的是,判别器网络的处理过程为现有处理过程,这里不再赘述。
具体地,所述判别器网络输入的是生成器网络的输出结果:256*256的图像,中间由6个卷积块堆叠而成,每个卷积块由卷积、上采样和下采样组成,因此每经过一个卷积块,图像尺寸都会减小(256*256->128*128->64*64->32*32->16*16->8*8->4*4)。随后,该4*4的图经过两个全连接层33映射到一个值,然后利用该值判断这张图真或假。
S2.3:根据所述生成器网络和判别器网络构建样式生成对抗网络。
具体地,将生成器网络和判别器网络进行级联,组成样式生成对抗网络。
S3:利用训练集和随机生成的特征向量对所述生成器网络进行训练。
具体地,所述S3包括:
S3.1:固定所述判别器网络当前的权重参数,将随机生成的特征向量输入到所述生成器网络中,输出生成的红外纹理图像;
S3.2:将生成的红外图像输入到所述判别器网络中,所述判别器网络对生成的红外图像进行评估,输出评估结果;
S3.3:利用所述判别器网络的评估结果和所述生成器网络的损失函数计算生成器网络的损失值,所述生成器网络损失函数的计算公式为:
LG=-E[D(G(z))]
其中,LG表示生成器网络的损失函数,E[·]表示求期望操作,D(·)表示样式生成对抗网络中的判别器网络的输出,G(·)表示样式生成对抗网络中的生成器网络的输出,z表示随机生成的特征向量;
S3.4:将所述生成器网络损失函数值与正则化项相加得到生成器的损失,根据所述损失利用梯度下降方法更新生成器网络参数。
通常,损失由损失函数和正则化项组成,优化的时候也是同时优化这两项的。主要损失函数和正则化项被写为单个表达式,因此被同时优化。通过观察可知,正规化项的计算频率通常比主要损失函数低得多,从而大大降低了计算成本和整体内存使用量。每16个小批量仅执行一次正则化时,不会造成任何危害。
本实施例的正则化项包括延迟正则化和路径长度正则化,其中,损失函数延迟正则化就是增加了一个正则项的损失,这个正则项是16个minibatch才进行一次梯度计算,然后来更新网络。
路径长度正则化的目的是为了使从潜在空间W到图像空间Y的映射良好。在生成纹理图图像的同时,希望能够控制生成纹理的属性,不同的隐向量编码能得到不同的纹理,当确定隐向量变化的具体方向时,该方向上不同的大小应该对应了图像上某一个具体变化的不同幅度,为了找到一个比较合理的幅度值,设计了这个路径长度正则化。
具体地,图像的梯度用图像乘以图像变换的梯度来表示,路径长度正则化项为:
其中,y为图像,服从正态分布;w为输入的随机变量z经过映射网络单元得到的潜在空间向量,Jw为雅各比矩阵,表示图像变换的梯度,是生成器g对潜在向量空间的潜在向量w的一阶矩阵,a为动态的移动平均值,随着优化动态调整,自动找到一个全局最优值,Ew表示表示对潜在向量空间的潜在向量w求期望,Ey表示表示对图像y求期望。整个路径长度正则化项表示对每个空间潜在点w在图像y上的最小化的期望。
在本实施例中,所述正则化项的权重为:
其中,r为指定输出分辨率(例如r=1024)。研究发现,这些参数选择可以在所有配置和数据集中可靠地工作。
S4:利用训练集、生成器网络生成的图像以及随机生成的特征向量对所述判别器网络进行训练。
具体地,S4包括:
S4.1:固定生成器网络当前的权重参数,将随机生成的特征向量输入到所述生成器网络中,输出生成的红外纹理图像;
S4.2:将生成的红外纹理图像和来自所述训练集中的红外纹理图像分别输入到所述判别器网络中;
S4.3:利用所述判别器网络对依次输入的红外纹理图像评估后分别输出对应的评估结果;
S4.4:利用所述判别器网络的评估结果和所述判别器网络的损失函数计算所述判别器网络的损失值,所述判别器网络的损失函数计算公式为:
其中,LD表示判别器网络的损失函数,E[·]表示求期望操作,D(·)表示样式生成对抗网络中判别器网络的输出,G(·)表示样式生成对抗网络中生成器网络的输出,z表示随机生成的特征向量,x表示来自训练集中的实拍红外纹理图像,γ表示平方项系数,λ表示约束项系数,表示由生成器输出的红外纹理图像和训练集中的实拍红外纹理图像根据随机比例对应融合得到的约束项红外纹理图像,||·||2表示2范数操作,表示求导操作;
S3.5:将损失函数值与正则化项相加得到判别器的损失,根据所述损失利用梯度下降方法更新判别器网络参数。
S5:对所述生成器网络和所述判别器网络交替进行训练,使得损失小于预设阈值,获得经训练的样式生成对抗网络模型。
重复S3和S4,对所述生成器网络和所述判别器网络进行交替训练,直到当前迭代获得的生成器网络与判决器网络的损失值趋于稳定时,得到训练好的生成器网络权重,保存训练好的样式生成对抗网络中生成器网络的每个卷积层的每个卷积核的权重、全连接层的权重和调制层的权重。
S6:利用经训练的样式生成对抗网络模型对红外图像样本进行扩充。
具体地,将随机生成的特征向量输入到经训练的样式生成对抗网络模型中进行计算,输出红外纹理图像,并将其添加到训练集中,完成对红外纹理样本的扩充。
综上,本实施例的红外纹理样本扩充方法采用样式生成对抗网络,将实拍的红外纹理样本作为训练集,采用生成器和判别器交替训练的方式对网络进行训练,使得生成的红外纹理样本红外特性更加接近实拍图像,克服了现有技术仿真生成红外纹理时真实感较差的问题,使得在扩充红外纹理样本时,提高了红外纹理样本的真实感。生成器网络中的映射网络单元采用样式卷积块,将随机特征向量作为样式卷积块的输入,并对卷积层结果进行调制,生成红外纹理样本,克服了现有技术生成红外纹理多样性差的问题,使得在扩充红外纹理样本时,提高了红外纹理样本的多样性。本实施例的红外纹理样本扩充方法对传入特征图的预期统计量进行归一化处理,在保留可控制性的同时删除了伪像即水滴效果,采用的损失函数延迟正则化与路径长度正则化,从而大大降低了计算成本和整体内存使用量。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (9)
1.一种基于样式生成对抗网络的红外纹理样本扩充方法,其特征在于,包括:
S1:利用多张实拍的红外纹理图像组成训练集;
S2:构造由生成器网络和判别器网络组成的样式生成对抗网络;
S3:利用训练集和随机生成的特征向量对所述生成器网络进行训练;
S4:利用训练集、生成器网络生成的图像以及随机生成的特征向量对所述判别器网络进行训练;
S5:对所述生成器网络和所述判别器网络交替进行训练,使得损失小于预设阈值,获得经训练的样式生成对抗网络模型;
S6:利用经训练的样式生成对抗网络模型获得红外纹理图像,以对红外纹理样本进行扩充。
2.根据权利要求1所述的基于样式生成对抗网络的红外纹理样本扩充方法,其特征在于,所述S2包括:
S2.1:构建生成器网络,所述生成器网络包括映射网络单元和合成网络单元;
S2.2:构建判别器网络;
S2.3:将所述生成器网络和判别器网络进行级联,获得所述样式生成对抗网络。
3.根据权利要求2所述的基于样式生成对抗网络的红外纹理样本扩充方法,其特征在于,所述映射网络单元包括依次连接的归一化模块和多个全连接层,其中,所述归一化模块用于对输入的隐变量进行归一化处理,所述全连接层用于根据归一化后的隐变量映射到潜在空间,学习一种仿射变换,获得仿射变换向量。
4.根据权利要求3所述的基于样式生成对抗网络的红外纹理样本扩充方法,其特征在于,所述合成网络单元包括多个合成模块,每个合成模块包括第一样式卷积块、第二样式卷积块和输出卷积层,其中,
所述第一样式卷积块用于利用所述仿射变换向量对添加高斯噪声数据后的随机向量进行仿射变换、随后进行上采样、卷积和归一化操作,获得所述随机向量的中间特征向量;
所述第二样式卷积块用于利用所述仿射变换向量对添加高斯噪声数据后的中间特征向量进行仿射变换、随后进行卷积和归一化操作,获得所述随机向量的高级特征向量;
所述输出卷积层用于输出所述高级特征向量对应的RGB图像。
5.根据权利要求2所述的基于样式生成对抗网络的红外纹理样本扩充方法,其特征在于,所述生成器网络包括依次连接的输入层、卷积块组合和两个全连接层。
6.根据权利要求5所述的基于样式生成对抗网络的红外纹理样本扩充方法,其特征在于,所述卷积块组合包括多个卷积块,每个卷积块用于对输入的特征向量进行卷积、上采样和下采样,以缩小所述特征向量的尺寸。
7.根据权利要求6所述的基于样式生成对抗网络的红外纹理样本扩充方法,其特征在于,每个所述卷积块依次包括卷积层、下采样层、卷积层、上采样层、卷积层和下采样层。
8.根据权利要求2所述的基于样式生成对抗网络的红外纹理样本扩充方法,其特征在于,所述S3包括:
S3.1:固定所述判别器网络当前的权重参数,将随机生成的特征向量输入到所述生成器网络中,输出生成的红外纹理图像;
S3.2:将生成的红外图像输入到所述判别器网络中,所述判别器网络对生成的红外图像进行评估,输出评估结果;
S3.3:利用所述判别器网络的评估结果和所述生成器网络的损失函数计算生成器网络的损失值,所述生成器网络损失函数的计算公式为:
LG=-E[D(G(z))]
其中,LG表示生成器网络的损失函数,E[·]表示求期望操作,D(·)表示样式生成对抗网络中的判别器网络的输出,G(·)表示样式生成对抗网络中的生成器网络的输出,z表示随机生成的特征向量;
S3.4:将所述生成器网络损失函数值与正则化项相加得到生成器的损失,根据所述损失利用梯度下降方法更新生成器网络参数。
9.根据权利要求8所述的基于样式生成对抗网络的红外纹理样本扩充方法,其特征在于,所述S4包括:
S4.1:固定生成器网络当前的权重参数,将随机生成的特征向量输入到所述生成器网络中,输出生成的红外纹理图像;
S4.2:将生成的红外纹理图像和来自所述训练集中的红外纹理图像分别输入到所述判别器网络中;
S4.3:利用所述判别器网络对依次输入的红外纹理图像评估后分别输出对应的评估结果;
S4.4:利用所述判别器网络的评估结果和所述判别器网络的损失函数计算所述判别器网络的损失值,所述判别器网络的损失函数计算公式为:
其中,LD表示判别器网络的损失函数,E[·]表示求期望操作,D(·)表示样式生成对抗网络中判别器网络的输出,G(·)表示样式生成对抗网络中生成器网络的输出,z表示随机生成的特征向量,x表示来自训练集中的实拍红外纹理图像,γ表示平方项系数,λ表示约束项系数,表示由生成器输出的红外纹理图像和训练集中的实拍红外纹理图像根据随机比例对应融合得到的约束项红外纹理图像,||·||2表示2范数操作,表示求导操作;
S4.5:将损失函数值与正则化项相加得到判别器的损失,根据所述损失利用梯度下降方法更新判别器网络参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111112050.5A CN113989100A (zh) | 2021-09-18 | 2021-09-18 | 一种基于样式生成对抗网络的红外纹理样本扩充方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111112050.5A CN113989100A (zh) | 2021-09-18 | 2021-09-18 | 一种基于样式生成对抗网络的红外纹理样本扩充方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113989100A true CN113989100A (zh) | 2022-01-28 |
Family
ID=79736345
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111112050.5A Pending CN113989100A (zh) | 2021-09-18 | 2021-09-18 | 一种基于样式生成对抗网络的红外纹理样本扩充方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113989100A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114863225A (zh) * | 2022-07-06 | 2022-08-05 | 腾讯科技(深圳)有限公司 | 图像处理模型训练方法、生成方法、装置、设备及介质 |
CN116030158A (zh) * | 2023-03-27 | 2023-04-28 | 广州思德医疗科技有限公司 | 基于风格生成对抗网络模型的病灶图像生成方法及装置 |
CN116109539A (zh) * | 2023-03-21 | 2023-05-12 | 智洋创新科技股份有限公司 | 基于生成对抗网络的红外图像纹理信息增强方法和系统 |
CN117315405A (zh) * | 2023-11-28 | 2023-12-29 | 广州思德医疗科技有限公司 | 内窥镜图像生成网络训练方法、图像生成方法及系统 |
-
2021
- 2021-09-18 CN CN202111112050.5A patent/CN113989100A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114863225A (zh) * | 2022-07-06 | 2022-08-05 | 腾讯科技(深圳)有限公司 | 图像处理模型训练方法、生成方法、装置、设备及介质 |
CN114863225B (zh) * | 2022-07-06 | 2022-10-04 | 腾讯科技(深圳)有限公司 | 图像处理模型训练方法、生成方法、装置、设备及介质 |
CN116109539A (zh) * | 2023-03-21 | 2023-05-12 | 智洋创新科技股份有限公司 | 基于生成对抗网络的红外图像纹理信息增强方法和系统 |
CN116030158A (zh) * | 2023-03-27 | 2023-04-28 | 广州思德医疗科技有限公司 | 基于风格生成对抗网络模型的病灶图像生成方法及装置 |
CN117315405A (zh) * | 2023-11-28 | 2023-12-29 | 广州思德医疗科技有限公司 | 内窥镜图像生成网络训练方法、图像生成方法及系统 |
CN117315405B (zh) * | 2023-11-28 | 2024-03-29 | 广州思德医疗科技有限公司 | 内窥镜图像生成网络训练方法、图像生成方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113989100A (zh) | 一种基于样式生成对抗网络的红外纹理样本扩充方法 | |
CN111814875B (zh) | 基于样式生成对抗网络的红外图像中舰船样本扩充方法 | |
CN110717857A (zh) | 超分辨率图像重构方法和装置 | |
CN111259898A (zh) | 基于无人机航拍图像的农作物分割方法 | |
CN110570363A (zh) | 基于带有金字塔池化与多尺度鉴别器的Cycle-GAN的图像去雾方法 | |
CN112465718B (zh) | 一种基于生成对抗网络的两阶段图像修复方法 | |
CN110706303B (zh) | 基于GANs的人脸图像生成方法 | |
CN110660020B (zh) | 一种基于融合互信息的对抗生成网络的图像超分辨率方法 | |
CN115170915A (zh) | 一种基于端到端注意力网络的红外与可见光图像融合方法 | |
CN113744136A (zh) | 基于通道约束多特征融合的图像超分辨率重建方法和系统 | |
CN110188621B (zh) | 一种基于ssf-il-cnn的三维人脸表情识别方法 | |
CN109658508B (zh) | 一种多尺度细节融合的地形合成方法 | |
CN114463176A (zh) | 基于改进esrgan的图像超分辨重建方法 | |
CN114373104A (zh) | 一种基于动态聚合的三维点云语义分割方法及系统 | |
CN114092803A (zh) | 基于遥感图像的云检测方法、装置、电子设备及介质 | |
CN113628143A (zh) | 一种基于多尺度卷积的加权融合图像去雾方法及装置 | |
CN117422619A (zh) | 图像重建模型的训练方法、图像重建方法、装置及设备 | |
CN113627597A (zh) | 一种基于通用扰动的对抗样本生成方法及系统 | |
CN117036901A (zh) | 一种基于视觉自注意力模型的小样本微调方法 | |
CN114862699B (zh) | 基于生成对抗网络的人脸修复方法、装置及存储介质 | |
CN112884643A (zh) | 一种基于edsr网络的红外图像超分辨率重建方法 | |
CN116503251A (zh) | 一种结合混合专家的生成对抗网络遥感图像超分辨重建方法 | |
CN112541972A (zh) | 一种视点图像处理方法及相关设备 | |
CN116091893A (zh) | 一种基于U-net网络的地震图像反褶积方法及系统 | |
CN116188259A (zh) | 一种基于压缩感知和生成对抗的鱼类图像生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |