CN114581356B - 基于风格迁移数据增广的图像增强模型泛化方法 - Google Patents
基于风格迁移数据增广的图像增强模型泛化方法 Download PDFInfo
- Publication number
- CN114581356B CN114581356B CN202210496594.4A CN202210496594A CN114581356B CN 114581356 B CN114581356 B CN 114581356B CN 202210496594 A CN202210496594 A CN 202210496594A CN 114581356 B CN114581356 B CN 114581356B
- Authority
- CN
- China
- Prior art keywords
- style
- data
- style migration
- image
- vein
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于风格迁移数据增广的图像增强模型泛化方法,属于图像增强模型的泛化技术领域。具体为通过风格迁移算法对原始模拟类静脉数据进行风格迁移处理;将风格迁移处理后的数据集与原始模拟类静脉数据集进行合成,得到风格迁移增广数据集;将风格迁移增广数据集作为图像增强网络的训练集进行训练,得到图像增强网络的泛化模型;将泛化模型在测试集上进行测试,并分析模型泛化效果。本发明基于类静脉风格迁移和随机化风格迁移2种数据增广手段,对图像增强模型实现泛化,以提升模型在真实手背浅表静脉数据测试集上的增强效果,特别是对于“误增强”问题的改善。
Description
技术领域
本发明涉及一种基于风格迁移数据增广的图像增强模型泛化方法,属于图像增强模型的泛化技术领域。
背景技术
在手背浅表静脉图像增强的任务中,基于神经网络的算法取得了优异的成果。然而,现有的神经网络算法仅依赖于模拟类静脉数据训练集,其和真实手背浅表静脉数据相比,在结构分布、模糊程度、光照情况等方面仍有一定的差距。并且模拟类静脉数据仅通过亚克力板来模拟图像退化的方式会使图像风格样式单一。上述2个模拟类静脉数据集的缺陷使得通过其训练得到的增强网络模型的泛化能力较差,在和训练集不同分布的真实手背浅表静脉数据上往往会出现“误增强”等情况,即模型对类静脉结构的识别和增强不够准确。同时,由于数据集制作过程较为繁琐,因此其采集量总是有限的,容易产生训练集数量不足带来的模型效果不佳等问题。
发明内容
为了解决上述技术问题,本发明提供一种基于风格迁移数据增广的图像增强模型泛化方法,基于类静脉风格迁移和随机化风格迁移2种数据增广手段,对图像增强模型实现泛化,以提升模型在真实手背浅表静脉数据测试集上的增强效果,特别是对于“误增强”问题的改善,其具体技术方案如下:
一种基于风格迁移数据增广的图像增强模型泛化方法,包括以下步骤:
步骤一:通过风格迁移算法对原始模拟类静脉数据进行风格迁移处理;
步骤二:将风格迁移处理后的数据集与原始模拟类静脉数据集进行合成,得到风格迁移增广数据集;
步骤三:将风格迁移增广数据集作为图像增强网络的训练集进行训练,得到图像增强网络的泛化模型;
步骤四:将泛化模型在测试集上进行测试,并分析模型泛化效果。
进一步的,所述步骤一中的风格迁移处理采用基于类静脉风格迁移数据增广的模型泛化方案,采用2种风格迁移算法获得两种不同的类静脉风格迁移数据,而两种算法分别为基于逐像素计算的像素级的视觉属性迁移算法,和基于感知损失函数的快速方法Perceptual Losses for Real-Time Style Transfer and Super-Resolution。
进一步的,所述步骤一中的风格迁移处理采用基于随机化风格迁移数据增广的模型泛化方案,采用基于感知损失函数的快速方法获得10种不同的随机化风格迁移数据。
进一步的,设基于逐像素计算的像素级的视觉属性迁移算法获得的类静脉风格迁移数据为A1,基于感知损失函数的快速方法获得的类静脉风格迁移数据为A2,
所述步骤二中的将风格迁移处理后的数据集与原始模拟类静脉数据集进行合成具体为:类静脉风格迁移数据为A1与原始模拟类静脉数据合成,类静脉风格迁移数据为A2与原始模拟类静脉数据合成,或者类静脉风格迁移数据为A1和类静脉风格迁移数据为A2同时与原始模拟类静脉数据合成。
进一步的,选取所述10种不同的随机化风格迁移数据中的3、5、7、10种随机化风格数据与原始模拟类静脉数据合成。
进一步的,所述像素级的视觉属性迁移算法为:给定的一组图像对和。提供语义和内容信息,则提供外观(如颜色、光照、风格等)和细节(纹理等)信息,首先将和的特征图划分为固定大小的特征块patch,然后把特征块从映射到中与这个特征块最接近的位置进行替换,当每一个特征块patch足够小的时候,配合在替换操作后进行图像平滑操作,即相当于用的风格来表现,生成图像,完成风格迁移;实际在算法处理时,其过程为双向风格迁移,即将和作为输入,得到和,其中是以为内容图,为风格图的风格迁移结果,而是以为内容图,为风格图的风格迁移结果,具体处理过程为:
然后在通过反卷积来重建和的过程中,为了融入和的特征,即风格图特征,当前层特征图不直接通过更高层特征图反卷积求得,而是通过设置权重参数来控制和以及和的相似程度并逐步进行重建计算,其中的初始值是手动设定的,而且在每一次计算当前层特征图时都会根据层数对做出修正,使随着L的下降而下降,进而在高层抽象特征上更多地参考风格图,在像素细节上更多地参考内容图,以的重建为例,计算数学表达式为:
图片转换网络是一个深度残差网络,参数权重为,能够将输入的图片通过的映射转换成输出图片,每个损失函数计算一个标量值以衡量输出的和目标图像之间的差距,图片转换网络通过随机梯度下降的方式最小化加权损失函数,其数学表达式为:
图片转换网络使用步幅卷积或微步幅卷积进行上采样或者下采样操作,以替换常规的池化层结构,图片转换网络由5个残差块组成,其中除了最后的输出层,所有非残差卷积层都与批归一化层和RELU激活函数层相连,而输出层则通过Tanh激活函数层来确保输出图像的像素在之间,图片转换网络第1层和最后的输出层使用的卷积核,而其他的卷积层都使用的卷积核;
损失网络用于定义特征重建损失和风格重建损失,以衡量内容和风格上的差距,对于每一张输入的图片,都有内容目标和风格目标,对于风格迁移任务而言,理想的输出图像应该满足内容的一致性,即,同时将风格目标融合进来;
该算法定义了特征重建损失和风格重建损失2个感知损失函数,用于衡量两张图片之间高层特征的感知和语义的差别,其中,特征重建损失不采用逐像素计算的方式,而是使用VGG网络来计算来高层特征的表示,其数学表达式为:
式(6)中,表示以为输入的损失网络中第个激活层,
为输入图像的尺寸。通过高层特征感知来重建图像,其内容和全局结构会被较好保留,但
是颜色和纹理等风格特征将不复存在,即仅用特征重建损失监督风格迁移过程并不能做到
与目标图像的完全匹配,因此,该算法还定义了风格重建损失,以对图像的颜色、纹理等风
格进行约束,
全变差正则化损失目的是为了使输出图像更为平滑,其数学表达式为:
本发明的有益效果是:
本发明在真实手背浅表静脉测试集上的泛化能力有明显提升,能够避免对非静脉结构“误增强”的同时对细小静脉结构和较为复杂的静脉分布区域实现良好的增强效果。
附图说明
图1是本发明的成对模拟类静脉图像,
图2是本发明的单向风格迁移的输入/输出示意图,
图3是本发明的像素级的视觉属性迁移算法处理过程示意图,
图4是本发明的重建过程示意图,
图5是本发明的基于感知损失函数的快速算法流程图,
图6是本发明的基于逐像素计算的类静脉风格迁移结果图,
图7是本发明的基于逐像素计算的类静脉风格迁移细节区域对比图,
图8是本发明的基于感知损失函数的类静脉风格迁移结果图,
图9是本发明的基于感知损失函数的类静脉风格迁移细节区域对比图,
图10是本发明的随机化风格迁移结果图,
图11是本发明的各组模型的增强结果图,
图12是本发明的模型泛化能力提升效果示意图。
具体实施方式
现在结合附图对本发明作进一步详细的说明。
本发明的执行过程为:
步骤一:通过风格迁移算法对原始模拟类静脉数据进行风格迁移处理;
步骤二:将风格迁移后的数据集与原始模拟类静脉数据集进行合成,得到风格迁移增广数据集;
步骤三:将增广数据集作为图像增强网络的训练集进行训练,得到图像增强网络的泛化模型;
步骤四:将泛化模型在测试集上进行测试,并分析模型泛化效果。
本技术基于上述实现步骤,提出两种实现方案,即基于类静脉和随机化风格迁移数据增广的模型泛化方案。
在步骤一中,方案1(即基于类静脉风格迁移数据增广的模型泛化方案)采用2种风格迁移算法获得2种不同的类静脉风格迁移数据,而2种算法分别为基于逐像素计算的DeepImage Analogy方法,和基于感知损失函数的快速方法Perceptual Losses for Real-TimeStyle Transfer and Super-Resolution。而方案2(即基于随机化风格迁移数据增广的模型泛化方案)出于算法计算速度的考虑,采用基于感知损失函数的快速方法PerceptualLosses for Real-Time Style Transfer and Super-Resolution获得10种不同的随机化风格迁移数据。
在步骤二中,方案1和方案2的数据集合成方式不同,但都基于风格种类数量。其中,方案1主要考虑2种类静脉风格数据单独和混合进行数据增广对模型泛化的不同影响,而方案2则考虑3、5、7、10种随机化风格数据增广对模型泛化的不同影响。
技术手段及效果
本技术基于类静脉风格迁移和随机化风格迁移2种数据增广手段,对图像增强模型实现泛化,以提升模型在真实手背浅表静脉数据测试集上的增强效果(特别是对于“误增强”问题的改善)。
方案一:类静脉风格迁移数据增广的模型泛化。针对模拟类静脉数据与真实手背浅表静脉数据在分布上相似性有限,同时难以大批量制作获取的问题,本技术拟通过类静脉风格迁移的方式使图像的视觉效果更接近真实手背浅表静脉,并将不同风格的合成数据集用于图像增强网络模型训练。该方案类静脉风格迁移的实现基于2种风格迁移算法,以获得2种风格的类静脉风格数据集。
方案二:随机化风格迁移数据增广的模型泛化。针对类静脉风格迁移方法对风格图较为依赖,同时生成的图像细节纹理和光照分布等风格也都较为单一的问题,该方案提出以随机化风格迁移的方式进行数据集增广,并将不同风格的合成数据集用于图像增强网络模型训练。其采用基于感知损失函数的快速方法,以获得10种风格的随机化风格数据集。
通过两种方案得到的泛化后的图像增强模型在真实手背浅表静脉测试集上的泛化能力有明显提升,能够避免对非静脉结构“误增强”的同时对细小静脉结构和较为复杂的静脉分布区域实现良好的增强效果。
本技术以2种不同的风格迁移算法得到2种风格的类静脉风格迁移增广数据集,再以其中的基于感知损失函数的快速算法得到10种风格的随机化风格迁移增广数据集。然后将两种风格迁移增广数据集分别以不同的风格数量进行混合,同时保证混合后的各组数据集总数量一致。最后将各组数据集作为基于神经网络的增强模型的训练集进行训练,并通过真实手背浅表静脉数据测试集进行实验。
通过定性定量分析大量实验结果,成功验证该方法能够对模型泛化能力有效提升,并评估出其中泛化能力较好的数据增广方式。
原始数据集介绍
原始模拟类静脉数据集为成对的退化和非退化数据集,其通过将粗细不同的黑色导线随机排布于白色背景板上,以使之呈现不同层次、不同分布的类静脉结构形态;并通过在白色背景板前放置亚克力板以模拟不同的退化程度。原始模拟类静脉数据集如图1所示。
其中,第一行为退化的模拟类静脉数据,第二行为清晰参考模拟类静脉数据。其数据集共有900组退化程度不同(不同的散射程度、光照等)的图像和对应的清晰参考图像。将其中的700组图像用于增强网络的训练得到原模型,而剩余的200组图像则作为测试集。
本发明实施过程
模拟类静脉数据集使手背浅表静脉增强这类需要对应清晰参考图像的训练任务成为可能。然而,一方面,其与真实手背浅表静脉数据在图像的光照特性、散射特性等方面仍有一定的差距,并且模拟类静脉数据仅通过亚克力板来模拟图像退化的方式会使图像风格样式单一,这可能会使增强网络学习到的图像特征参数在处理真实手背浅表静脉时的有效性降低,使模型暴露出泛化能力缺陷的问题,限制其增强效果。另一方面,由于数据集制作过程的繁琐,对于模拟类静脉数据集的采集量总是有限的,并且耗费较多人力,给研究任务带来了很多额外的工作量。而常规的数据增广方式还是基于原始图像的信息,并未从根本上解决上述问题。
风格迁移是指通过某些手段,将图像从原风格转换到目标风格,同时保证图像内容没有变化的图像处理方式。受到风格迁移技术的启发,本技术以合成的目标风格数据集来弥补采集的模拟类静脉数据集覆盖场景和采集数量不足的问题,将成为一种创新性的模型泛化方案。
视觉属性迁移算法
视觉属性迁移算法利用高层抽象特征建立起图像对中内容和语义的对应关系,并且将拼图匹配(PatchMatch)和重建(reconstruction)的方法从图像领域扩展到了特征领域,即提出图像类比(Image Analogy)的方法,以有效指导语义级的视觉属性迁移,使之能够在结构上基本保留内容图的内容及结构特征的同时,融入风格图的视觉属性。
视觉属性迁移算法的核心为图像类比,即对于给定的一组图像对和。提供语义和内容信息,则提供外观(如颜色、光照、风格等)和细节(纹理等)信息。不同于图像领域的拼图匹配(PatchMatch)方法,图像类比将其迁移到特征领域。首先将和的特征图划分为固定大小的特征块patch,然后把特征块从映射到中与这个特征块最接近的位置进行替换。当每一个特征块patch足够小的时候,配合在替换操作后进行图像平滑smooth等操作,即相当于用的风格来表现,生成图像,完成风格迁移。
而上述图像类比过程基于单向风格迁移,即将和作为输入,得到。实际在算法处理时,其过程为双向风格迁移,即将和作为输入,得到和。其中是以为内容图,为风格图的风格迁移结果;而是以为内容图,为风格图的风格迁移结果。如图2所示。
视觉属性迁移算法处理过程如图3所示。首先对VGG19网络进行预训练,并将每个卷积块中第一个卷积层后面的ReLU激活层输出,也就是 (共5个,),以作为不同层级的特征。根据上述假设和、和的最高层特征相等,即:
然后在通过反卷积来重建和的过程中,为了融入和的特征,即风格图特征,当前层特征图不直接通过更高层特征图反卷积求得,而是通过设置权重参数来控制和以及和的相似程度并逐步进行重建计算。其中的初始值是手动设定的,而且在每一次计算当前层特征图时都会根据层数对做出修正,使随着的下降而下降。进而在高层抽象特征上更多地参考风格图,在像素细节上更多地参考内容图。以的重建为例,计算数学表达式为:
基于感知损失函数的快速算法
基于感知损失函数的快速算法采用感知损失函数训练前馈网络,以更好地提取高级特征,同时比逐像素差计算的损失函数更适合用来衡量图像之间的相似程度。最终,在风格迁移生成图像质量相当的情况下,显著提升了计算速度。这使得大批量进行风格迁移的数据处理任务得以高效实现。
图片转换网络是一个深度残差网络,参数权重为,能够将输入的图片通过的映射转换成输出图片。每个损失函数计算一个标量值以衡量输出的和目标图像之间的差距。图片转换网络通过随机梯度下降(StochasticGradient Descent,SGD)的方式最小化加权损失函数,其数学表达式为:
图片转换网络使用步幅卷积或微步幅卷积进行上采样或者下采样操作,以替换常规的池化层结构。该网络由5个残差块组成,其中除了最后的输出层,所有非残差卷积层都与批归一化层(Batch Normalization)和RELU激活函数层相连。而输出层则通过Tanh激活函数层来确保输出图像的像素在之间。该网络第1层和最后的输出层使用的卷积核,而其他的卷积层都使用的卷积核。
损失网络用于定义特征重建损失和风格重建损失,以衡量内容和风格上的差距。对于每一张输入的图片,都有内容目标和风格目标。对于风格迁移任务而言,理想的输出图像应该满足内容的一致性,即,同时将风格目标融合进来。
基于感知损失函数的快速算法定义了特征重建损失和风格重建损失2个感知损失函数,用于衡量两张图片之间高层特征的感知和语义的差别。其中,特征重建损失不采用逐像素计算的方式,而是使用VGG网络来计算来高层特征的表示,其数学表达式为:
式6中,表示以为输入的损失网络中第个激活层,为输入图像的尺寸。通过高层特征感知来重建图像,其内容和全局结构会被较好保留,但是颜色和纹理等风格特征将不复存在,即仅用特征重建损失监督风格迁移过程并不能做到与目标图像的完全匹配。因此,该算法还定义了风格重建损失,以对图像的颜色、纹理等风格进行约束。
全变差正则化损失目的是为了使输出图像更为平滑,其数学表达式为:
类静脉风格迁移实验
针对模拟类静脉数据与真实手背浅表静脉数据在分布上相似性有限,同时难以大批量制作获取的问题,拟通过类静脉风格迁移的方式使图像的视觉效果更接近真实手背浅表静脉。同时由于风格迁移对内容图中内容结构特征的不变性,使迁移后的数据同样具有对应的清晰参考图像,以能够被用于增强网络的训练。类静脉风格迁移即以真实手背浅表静脉图像为风格图,以模拟类静脉图像为内容图,通过风格迁移网络学习源域(模拟类静脉数据)和目标域(真手背浅表静脉数据)之间的特征映射关系的方法。
模拟类静脉数据集为退化和未退化的成对数据集,其中退化数据在采集时通过亚克力板以模拟一定程度的散射,而未退化数据为清晰的参考图像。在实验中应选择退化的模拟类静脉图像作为内容图,以实现在一定程度的散射等退化基础上进一步提高和真实手背浅表静脉数据的相似性。
本技术基于逐像素计算的Deep Image Analogy方法,和基于感知损失函数的快速方法Perceptual Losses for Real-Time Style Transfer and Super-Resolution,分别以退化的模拟类静脉数据为内容图,以纹理较为清晰、风格比较有代表性的真实手背浅表静脉数据为风格图进行实验。
基于逐像素计算的方法得到的风格迁移结果图在模拟类静脉图像的基础上,其边缘结构更加接近真实手背浅表静脉结构。真实手背浅表静脉由于凸起带来的静脉结构边缘的灰度渐变在风格迁移结果图上也有较为明显的表征。风格迁移整体的视觉效果比模拟类静脉图像更贴近目标图像,但生成图像的背景灰度值比较平均,没有真实手背浅表静脉图像的光照变化,显得略为生硬。
风格迁移结果图对于与风格图相似性的提升效果更为显著。真实手背浅表静脉图像的纹理细节和背景灰度变化都在风格迁移结果上得到很好的表征,同时真实手背浅表静脉由于凸起带来的静脉结构边缘的灰度渐变在该算法风格迁移结果图上也得到了更好的表现。
在计算速度上,逐像素计算的方法耗时较长,对一张结果图的生成平均耗时14分钟。而基于感知损失函数的快速方法对一批700张的内容图进行风格迁移仅需要12分钟,平均一张图的处理耗时在1s左右,速度大大提升。
随机化风格迁移实验
虽然类静脉风格迁移的方法可以较好地模拟真实手背浅表静脉,但是对风格图较为依赖,生成的图像细节纹理和光照分布等风格也都较为单一。受到Xiangyu Yue等人关于域随机化相关研究的启发,结合本文的增强网络模型泛化任务,提出重要猜想,即如果网络模型经过足够多样的风格迁移合成数据训练,将拥有和通过现实场景数据(真实手背浅表静脉数据)训练更为接近的泛化能力。这种随机化风格迁移的方式,能够充分利用风格迁移对不同场景的模拟潜力,通过混合多种随机化风格数据以摆脱网络模型对单一风格的模拟类静脉数据集以及类静脉风格迁移数据集的依赖。
域随机化(Domain Randomization,DR)是由托宾等人首次提出的,用于数据域适应的一类技术。该方法随机改变图像的纹理、背景的颜色、光照分布等情况,通过生成多种具有不同风格的合成数据来减小原始数据和多样化的真实场景之间的差异。
对于随机化风格迁移实验,以退化的模拟类静脉数据为内容图,以随机自然图像为风格图进行实验。由于基于感知损失函数的快速方法同时具有优秀的迁移效果和计算速度,因此对于需要多种风格和大批量数据处理的随机化风格迁移实验将继续选择该方法。
随机化风格迁移后的图像较好地引入了不同风格图的纹理、背景颜色等风格,同时保留了模拟类静脉图像的内容结构特征,有效生成了足够多样的合成数据。
将上述实验得到的类静脉风格迁移数据集和随机化风格迁移数据集作为增强网络模型的增广数据集用于网络训练。其数据总量由模拟类静脉数据训练集原有的700对提升至数万对,并且理论上没有数据量上限,这很好地解决了由于模拟类静脉数据采集的繁琐导致的模型训练集数据量缺少的问题。
模型泛化实验与分析
针对原图像增强网络模型在真实手背浅表静脉数据测试集上,容易对原本没有静脉结构的区域进行“误增强”的情况,本技术提出通过将类静脉风格迁移增广数据集和随机化风格迁移增广数据集作为训练集进行训练的方法,来实现增强网络模型的泛化能力提升,并通过实验和分析进行验证。
模型泛化实验方案
为了验证数据风格种类数量对模型泛化能力的影响,本技术采用类静脉风格迁移数据集和随机化风格迁移数据集,并在保持数据集数量一致的基础上,按照表1和表2所示,将两种风格迁移数据集以及原始模拟类静脉数据集进行分组合成。为了方便表达,本节将基于逐像素计算的风格迁移方法Deep Image Analogy简称为“迁移算法D”,将对应类静脉风格迁移数据简称为“D类静脉迁移数据”;将基于感知损失函数的快速风格迁移方法Perceptual Losses for Real-Time Style Transfer and Super-Resolution简称为“迁移算法P”,将对应类静脉风格迁移数据和随机化风格迁移数据分别简称为“P类静脉迁移数据”和“P随机化迁移数据”。
表1 类静脉风格迁移合成数据集
表2 随机化风格迁移合成数据集
实验结果与分析
为了验证通过风格迁移进行数据增广来提升模型泛化能力的方法有效性,实验中将通过不同组的风格迁移增广数据集训练的模型和原模型在测试集上进行测试,并对比分析。将各组模型在不同照度的测试集图像上得到的增强结果进行展示,并与测试原图、传统算法增强结果图和原模型增强结果图进行对比,如图11所示。
图11中,为测试原图,为第3章算法结果图,为以原模拟类静脉数据训练的模型增强结果图,为以数据集A训练的模型增强结果图,为以数据集B训练的模型增强结果图,为以数据集C训练的模型增强结果图,为以数据集D训练的模型增强结果图,为以数据集E训练的模型增强结果图,为以数据集F训练的模型增强结果图,为以数据集G训练的模型增强结果图。
定性评估:在类静脉风格迁移增广数据集对模型的泛化效果上,从上图中可以清晰地看出,通过2种类静脉风格迁移数据混合后增广的合成数据集进行训练的网络增强结果明显优于通过单一类静脉风格迁移增广数据集进行训练的网络增强结果和。相比于通过原模拟类静脉数据集进行训练的网络增强结果,其对于原模型“误增强”静脉结构的情况在一定程度上进行了改善,但对于部分细小静脉和不同静脉相交的区域并未实现良好的增强效果。
这说明通过类静脉风格迁移进行数据增广的方式能够在一定程度上缓解模型对于原少量训练数据的过拟合问题,以避免出现对非静脉结构的错误增强。同时,类静脉风格迁移增广数据集的风格数量增加会带来模型泛化能力的提升。但由于类静脉风格迁移生成的图像细节纹理和光照分布等风格都较为单一,导致模型在一些细节区域未能实现有效增强,因此该方法对于模型泛化能力提升的效果是有限的。
而在随机化风格迁移增广数据集对模型的泛化效果上,不难发现,以5种随机化风
格迁移数据混合后增广的合成数据集进行训练的网络增强结果对于模型的泛化效果相
当惊艳。其不仅避免了对非静脉结构的错误增强,同时还能对细小静脉结构和较为复杂的
静脉分布区域实现良好的增强效果。至于另外3种合成数据集,整体来看,通过7种随机化风
格迁移增广数据集训练的增强结果略优于通过10种随机化风格迁移增广数据集训练的
增强结果,而明显优于通过3种随机化风格迁移增广数据集训练的增强结果。同时,
横向对比来看,的增强效果介于和之间,的增强效果则和接近。
这说明在随机化风格迁移增广数据集中,风格数量的提升在前期对于模型泛化能力的提升是较为明显的。而在数据达到了一定风格多样性之后,在实验中为5种不同的随机风格,风格数量的提升反而会逐渐使模型出现一定程度的过拟合。并且随着风格数量的增加,其负向影响也随之逐渐增加。推测数据集在达到一定风格多样性之后,新引入的风格数据反倒会产生某种程度的语义相似性,而“相似数据”的增加会在一定程度上给网络带来对数据特征的过拟合问题。
定量评估:将上述各组模型得到的增强结果图基于信息熵、平均梯度和NIQE这3项无参考图像评价指标进行定量比较,结果如表3所示。
表3 各组模型增强结果图定量评估表
可以从表中看出,虽然各组增广数据集泛化模型的增强结果在信息熵和平均梯度两项指标上均低于原数据集,但NIQE指标有显著提升。结合图中的增强效果以及指标计算原理,推测一方面由于各组泛化模型均对“误增强”情况实现了改善,因此增强结果上这部分区域信息的减少会使信息熵和平均梯度值降低;另一方面,对于除了数据集E的其他增广数据集得到的模型增强结果,均出现未能对一些细节区域进行有效增强的情况,这也会使信息熵和平均梯度值降低。而数据集E对应的信息熵和平均梯度值在所有增广数据集中最高,结合图12中其泛化模型的优异增强效果,也可以在一定程度上论证上述推测。
总而言之,增强效果最优的增广数据集E得到的泛化模型,其增强结果对比原数据集,在信息熵和平均梯度上虽然略有下降,但反而在一定程度上说明了其对“误增强”情况的有效改善。同时其在NIQE指标上提升13%,说明该泛化模型得到的增强图像视觉效果更为自然。
最后,为了更好地展示风格迁移数据增广方式对模型泛化能力的提升,特别将上
述结果图中的原图(组结果图)、传统增强算法结果图(组结果图)、原模型增强结果图(组结果图)以及视觉效果最好的以数据集训练的增强结果图(组结果图)进行对比展
示,并对重点关注的能够体现模型泛化能力提升的细节区域进行标示。如图12所示。
以上述依据本发明的理想实施例为启示,通过上述的说明内容,相关工作人员完全可以在不偏离本项发明技术思想的范围内,进行多样的变更以及修改。本项发明的技术性范围并不局限于说明书上的内容,必须要根据权利要求范围来确定其技术性范围。
Claims (4)
1.一种基于风格迁移数据增广的图像增强模型泛化方法,其特征在于:包括以下步骤:
步骤一:通过风格迁移算法对原始模拟类静脉数据进行风格迁移处理;
风格迁移处理采用基于类静脉风格迁移数据增广的模型泛化方案,采用2种风格迁移算法获得两种不同的类静脉风格迁移数据,而两种算法分别为基于逐像素计算的像素级的视觉属性迁移算法,和基于感知损失函数的快速方法;
或者风格迁移处理采用基于随机化风格迁移数据增广的模型泛化方案,采用基于感知损失函数的快速方法获得10种不同的随机化风格迁移数据;
所述像素级的视觉属性迁移算法为:给定的一组图像对和,提供语义和内容信息,则提供外观和细节信息,首先将和的特征图划分为固定大小的特征块,然后把特征块从映射到中与这个特征块最接近的位置进行替换,当每一个特征块足够小的时候,配合在替换操作后进行图像平滑操作,即相当于用的风格来表现,生成图像,完成风格迁移;实际在算法处理时,其过程为双向风格迁移,即将和作为输入,得到和,其中是以为内容图,为风格图的风格迁移结果,而是以为内容图,为风格图的风格迁移结果,具体处理过程为:
然后在通过反卷积来重建和的过程中,为了融入和的特征,即风格图特征,当前层特征图不直接通过更高层特征图反卷积求得,而是通过设置权重参数来控制和以及和的相似程度并逐步进行重建计算,其中的初始值是手动设定的,而且在每一次计算当前层特征图时都会根据层数对做出修正,使随着的下降而下降,进而在高层抽象特征上更多地参考风格图,在像素细节上更多地参考内容图,以的重建为例,计算数学表达式为:
步骤二:将风格迁移处理后的数据集与原始模拟类静脉数据集进行合成,得到风格迁移增广数据集;
步骤三:将风格迁移增广数据集作为图像增强网络的训练集进行训练,得到图像增强网络的泛化模型;
步骤四:将泛化模型在测试集上进行测试,并分析模型泛化效果。
2.根据权利要求1所述的基于风格迁移数据增广的图像增强模型泛化方法,其特征在于:设基于逐像素计算的像素级的视觉属性迁移算法获得的类静脉风格迁移数据为A1,基于感知损失函数的快速方法获得的类静脉风格迁移数据为A2,
所述步骤二中的将风格迁移处理后的数据集与原始模拟类静脉数据集进行合成具体为:类静脉风格迁移数据为A1与原始模拟类静脉数据合成,类静脉风格迁移数据为A2与原始模拟类静脉数据合成,或者类静脉风格迁移数据为A1和类静脉风格迁移数据为A2同时与原始模拟类静脉数据合成。
3.根据权利要求1所述的基于风格迁移数据增广的图像增强模型泛化方法,其特征在于:选取所述10种不同的随机化风格迁移数据中的3、5、7、10种随机化风格数据与原始模拟类静脉数据合成。
图片转换网络是一个深度残差网络,参数权重为,能够将输入的图片通过的映射转换成输出图片,每个损失函数计算一个标量值以衡量输出的和目标图像之间的差距,图片转换网络通过随机梯度下降的方式最小化加权损失函数,其数学表达式为:
图片转换网络使用步幅卷积或微步幅卷积进行上采样或者下采样操作,以替换常规的池化层结构,图片转换网络由5个残差块组成,其中除了最后的输出层,所有非残差卷积层都与批归一化层和RELU激活函数层相连,而输出层则通过Tanh激活函数层来确保输出图像的像素在之间,图片转换网络第1层和最后的输出层使用的卷积核,而其他的卷积层都使用的卷积核;
损失网络用于定义特征重建损失和风格重建损失,以衡量内容和风格上的差距,对于每一张输入的图片,都有内容目标和风格目标,对于风格迁移任务而言,理想的输出图像应该满足内容的一致性,即,同时将风格目标融合进来;
该算法定义了特征重建损失和风格重建损失2个感知损失函数,用于衡量两张图片之间高层特征的感知和语义的差别,其中,特征重建损失不采用逐像素计算的方式,而是使用VGG网络来计算来高层特征的表示,其数学表达式为:
通过高层特征感知来重建图像,其内容和全局结构会被较好保留,但是颜色和纹理等风格特征将不复存在,即仅用特征重建损失监督风格迁移过程并不能做到与目标图像的完全匹配,因此,该算法还定义了风格重建损失,以对图像的颜色、纹理等风格进行约束,
全变差正则化损失目的是为了使输出图像更为平滑,其数学表达式为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210496594.4A CN114581356B (zh) | 2022-05-09 | 2022-05-09 | 基于风格迁移数据增广的图像增强模型泛化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210496594.4A CN114581356B (zh) | 2022-05-09 | 2022-05-09 | 基于风格迁移数据增广的图像增强模型泛化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114581356A CN114581356A (zh) | 2022-06-03 |
CN114581356B true CN114581356B (zh) | 2022-10-11 |
Family
ID=81769133
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210496594.4A Active CN114581356B (zh) | 2022-05-09 | 2022-05-09 | 基于风格迁移数据增广的图像增强模型泛化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114581356B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115187591B (zh) * | 2022-09-08 | 2023-04-18 | 深圳市资福医疗技术有限公司 | 一种病灶检测方法、系统、设备及存储介质 |
CN115511700B (zh) * | 2022-09-15 | 2024-03-05 | 南京栢拓视觉科技有限公司 | 一种精细化高质量效果的材质风格迁移系统 |
CN115641253B (zh) * | 2022-09-27 | 2024-02-20 | 南京栢拓视觉科技有限公司 | 一种面向内容美学质量提升的材料神经风格迁移方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108470187A (zh) * | 2018-02-26 | 2018-08-31 | 华南理工大学 | 一种基于扩充训练数据集的类别不平衡问题分类方法 |
CN110675335B (zh) * | 2019-08-31 | 2022-09-06 | 南京理工大学 | 基于多分辨率残差融合网络的浅表静脉增强方法 |
-
2022
- 2022-05-09 CN CN202210496594.4A patent/CN114581356B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN114581356A (zh) | 2022-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114581356B (zh) | 基于风格迁移数据增广的图像增强模型泛化方法 | |
Wang et al. | UIEC^ 2-Net: CNN-based underwater image enhancement using two color space | |
CN110378985B (zh) | 一种基于gan的动漫绘画辅助创作方法 | |
CN111242841B (zh) | 一种基于语义分割和深度学习的图片背景风格迁移方法 | |
CN108875935B (zh) | 基于生成对抗网络的自然图像目标材质视觉特征映射方法 | |
CN110097609B (zh) | 一种基于样本域的精细化绣花纹理迁移方法 | |
Žeger et al. | Grayscale image colorization methods: Overview and evaluation | |
Fu et al. | DSAGAN: A generative adversarial network based on dual-stream attention mechanism for anatomical and functional image fusion | |
CN112163401B (zh) | 基于压缩与激励的gan网络的汉字字体生成方法 | |
CN110852935A (zh) | 一种人脸图像随年龄变化的图像处理方法 | |
CN113724354B (zh) | 基于参考图颜色风格的灰度图像着色方法 | |
Jiang et al. | A novel super-resolution CT image reconstruction via semi-supervised generative adversarial network | |
Huang et al. | A fully-automatic image colorization scheme using improved CycleGAN with skip connections | |
CN115761791A (zh) | 基于2d图像的人体语义预测模块、虚拟换衣模型及方法 | |
Qu et al. | UMLE: unsupervised multi-discriminator network for low light enhancement | |
Xu et al. | Fully automatic image colorization based on semantic segmentation technology | |
Han et al. | Normalization of face illumination with photorealistic texture via deep image prior synthesis | |
Kania et al. | Blendfields: Few-shot example-driven facial modeling | |
CN115018729B (zh) | 一种面向内容的白盒图像增强方法 | |
Chiu et al. | Real-time monocular depth estimation with extremely light-weight neural network | |
CN113111906B (zh) | 一种基于单对图像训练的条件生成对抗网络模型的方法 | |
Liu et al. | Learning with Constraint Learning: New Perspective, Solution Strategy and Various Applications | |
Huang et al. | DeeptransMap: a considerably deep transmission estimation network for single image dehazing | |
Zhang et al. | Supplementary meta-learning: Towards a dynamic model for deep neural networks | |
KT et al. | A flexible neural renderer for material visualization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |