CN114331821B - 一种图像转换方法及系统 - Google Patents
一种图像转换方法及系统 Download PDFInfo
- Publication number
- CN114331821B CN114331821B CN202111641414.9A CN202111641414A CN114331821B CN 114331821 B CN114331821 B CN 114331821B CN 202111641414 A CN202111641414 A CN 202111641414A CN 114331821 B CN114331821 B CN 114331821B
- Authority
- CN
- China
- Prior art keywords
- image
- network
- converted
- inputting
- training set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 125
- 238000000034 method Methods 0.000 title claims abstract description 61
- 238000012549 training Methods 0.000 claims abstract description 169
- 230000006870 function Effects 0.000 claims description 23
- 238000000605 extraction Methods 0.000 claims description 20
- 238000010276 construction Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 238000005457 optimization Methods 0.000 description 6
- 241000283070 Equus zebra Species 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 241000283086 Equidae Species 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 241000364483 Lipeurus epsilon Species 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 1
- 230000008485 antagonism Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003472 neutralizing effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种图像转换方法及系统,方法包括:获取待转换图像;将转换图像输入到图像转换模型中,得到转换后的图像;图像转换模型是利用训练集对初始对抗网络进行训练得到的;训练集包括待转换图像训练集和目标图像训练集;初始对抗网络包括生成网络和鉴别网络;生成网络包括一个编码器和一个解码器。本发明通过对初始对抗网络进行训练得到图像转换模型用于图像转换,能够提高图像转换的转换精度。
Description
技术领域
本发明涉及图像生成技术领域,特别是涉及一种图像转换方法及系统。
背景技术
图像转换是一个经典的计算机视觉任务,许多计算机视觉问题可以被看作是一个图像到图像的转换问题。例如,图像去噪、去雾、超分辨率重建、老照片修复,黑白图像着色、素颜照上妆、真实图像风格转换(真实照片转油画或卡通画等)、白天到黑夜转换、季节转换,马到斑马转换等。基于生成对抗网络(Generative Adversarial Networks,GANs)的算法在图像转换任务上表现良好,Pix2pix、CycleGAN、CUT以及DCLGAN等模型陆续被提出。Pix2pix首次将条件对抗网络作为图像转换问题的一个通用的解决方案,为所有这些问题建立了一个共同的框架。然而,该方法要求训练数据是配对的,对于许多任务来说,没有成对的训练数据。这大大限制了图像转换的应用场景。2017年,Zhu等人提出了一种周期一致性生成对抗网络(Cycle-Consistency GenerativeAdversarialNetwork,CycleGAN),在没有配对示例的情况下,通过学习两个域χ和之间的逆映射函数来实现图像到图像的转换任务。这种方法不要求训练数据是配对的,因此大大扩展了图像转换的应用场景。虽然周期一致性不要求训练数据是配对的,但它假设两个域χ和之间是一个双射关系,这通常太有限制性。2020年,Park等人首次将对比学习应用到图像到图像的转换任务中,通过学习输入块和输出块之间的对应关系,取得了优于基于周期一致性的性能,该方法被称作CUT(Contrastive Unpaired Translation)。为了进一步利用对比学习,同时避免循环一致性的缺点,2021年Han等人对CUT进行了改进,提出了一种双重对比学习方法,通过将单向映射扩展到双向映射来推断未配对数据之间的有效映射,称为双重对比学习生成对抗网络(Dual Contrastive Learning Generative Adversarial Network,DCLGAN)。
但是,CUT和DCLGAN都只是在生成器中引入对比学习,这导致在训练过程中鉴别器容易发生过拟合,甚至遭受模式崩溃。而本发明所提出的MCL是一种新的对比学习方法,通过进一步利用鉴别器输出层的特征信息来构造对比损失,增强了鉴别器的泛化性能,有效减缓了训练过程中模型崩溃的问题。
发明内容
本发明的目的是提供一种图像转换方法,能够提高图像转换的转换精度。
为实现上述目的,本发明提供了如下方案:
一种图像转换方法,包括:
获取待转换图像;
将所述转换图像输入到图像转换模型中,得到转换后的图像;图像转换模型是利用训练集对初始对抗网络进行训练得到的;所述训练集包括待转换图像训练集和目标图像训练集;所述初始对抗网络包括生成网络和鉴别网络;所述生成网络包括一个编码器和一个解码器。
可选的,在所述获取待转换图像之前,还包括:
构建初始对抗网络;
获取训练集;
以所述待转换图像训练集为输入,以所述目标图像训练集为输出,对所述初始对抗网络进行训练,得到所述图像转换模型。
可选的,所述以所述待转换图像训练集为输入,以所述目标图像训练集为输出,对所述初始对抗网络进行训练,得到所述图像转换模型,具体包括:
将所述待转换图像训练集输入到所述编码器中进行特征提取,得到特征集;
将所述特征集输入到所述解码器中所述待转换图像训练集进行转换,得到输出转换图像集,并计算生成网络损失;
判断所述生成网络损失是否在第一预设范围内,得到第一判断结果;
若所述第一判断结果为否,则更新所述编码器和所述解码器的参数并返回步骤“将所述待转换图像训练集输入到所述编码器中进行特征提取,得到特征集”;
若所述第一判断结果为是,则将所述输出转换图像集和所述目标图像训练集均输入所述鉴别网络中,并计算鉴别网络损失;
判断所述鉴别网络损失是否在第二预设范围内,得到第二判断结果;
若所述第二判断结果为否,则更新所述鉴别网络的参数并返回步骤“将所述待转换图像训练集输入到所述编码器中进行特征提取,得到特征集”;
若所述第二判断结果为是,则将训练后的生成网络作为所述图像转换模型。
可选的,所述以所述待转换图像训练集为输入,以所述目标图像训练集为输出,对所述初始对抗网络进行训练,得到所述图像转换模型,具体包括:
将所述待转换图像训练集输入到所述编码器中进行特征提取,得到特征集;
将所述特征集输入到所述解码器中所述待转换图像训练集进行转换,得到输出转换图像集,并计算生成网络损失;
将所述输出转换图像集和所述目标图像训练集均输入所述鉴别网络中,并计算鉴别网络损失;
判断迭代次数是否达到预设迭代次数阈值,得到第三判断结果;
若所述第三判断结果为否,则根据所述生成网络损失和所述鉴别网络损失,更新所述初始对抗网络的参数并返回步骤“将所述待转换图像训练集输入到所述编码器中进行特征提取,得到特征集”;
若所述第三判断结果为是,则将训练后的生成网络作为所述图像转换模型。
可选的,
所述生成网络损失为:
LG=LG(G,D,X,Y)+λX·LPatchNCE(G,H,X)+λY·LPatchNCE(G,H,Y);
其中,LG(G,D,X,Y)=E[log(1-D(G(x)))];
式中,LG表示生成网络总损失;LG(G,D,X,Y)表示生成对抗损失;LPatchNCE(G,H,X)表示第一补丁块对比损失;LPatchNCE(G,H,Y)表示第二补丁块对比损失;λX和λY分别表示第一系数和第二系数;λX和λY均为1;G(x)表示将待转换图像训练集中的一张图像x输入至生成网络中后得到的转换后的图像;D(G(x))表示向鉴别网络中输入图像G(x)后得到的鉴别概率值;E(*)表示*的期望值;表示交叉熵损失函数;τ表示第一控制系数,τ为0.07;表示将待转换图像训练集中图像x依次输入至l层编码器和多层感知机H得到的特征集合l=1,...,L;L为编码器总层数;表示将G(x)依次输入至l层编码器和多层感知机H得到的特征集合;令s∈{1,…,Sl},Sl是第l层的空间位置数;表示中第l层第s个查询块的特征,表示{zl}L中第l层第s个正样例的特征;表示{zl}L中第l层除s外负样例的特征;;表示将训练集目标域中图像y依次输入至l层编码器和多层感知机H得到的特征集合;表示将图像G(y)依次输入至l层编码器和多层感知机H得到的特征集合;G(y)表示将目标图像集中的一张图像y输入至生成网络中后得到的转换后的图像;表示中第l层第s个查询块的特征,表示{wl}L中第l层第s个正样例的特征;表示{wl}L中第l层除s外负样例的特征;
所述鉴别网络损失为:LD=LD(G,D,X,Y)+λM·LMCL(G,D,X,Y);
其中,LD(G,D,X,Y)=-E[logD(y)]+E[logD(G(x))];
式中,LD表示鉴别网络损失;LD(G,D,X,Y)表示鉴别网络对抗损失;LMCL(G,D,X,Y)表示多特征对比学习损失;λM表示第三系数;D(y)表示向鉴别网络中输入图像y后得到的鉴别概率值;D(G(x))表示向鉴别网络中输入图像G(x)后得到的鉴别概率值;Lcon(r(i),f,r(-i))表示对比损失函数;r(i)表示第i个目标特征,即将目标图像输入到鉴别网络中得到的第i个特征;r={r(i)}表示目标特征的集合;r(-i)=r\{r(i)}表示除第i个目标特征之外的所有目标特征;f(i)表示第i个生成图像特征,即将生成图像输入到鉴别网络中得到的第i个特征;f={f(i)}表示所有生成图像特征的集合;ω表示第二控制系数,ω为0.07。
一种图像转换系统,包括:
待转换图像获取模块,用于获取待转换图像;
图像转换模块,用于将所述转换图像输入到图像转换模型中,得到转换后的图像;图像转换模型是利用训练集对初始对抗网络进行训练得到的;所述训练集包括待转换图像训练集和目标图像训练集;所述初始对抗网络包括生成网络和鉴别网络;所述生成网络包括一个编码器和一个解码器。
可选的,所述系统,还包括:
初始对抗网络构建模块,用于构建初始对抗网络;
训练集获取模块,用于获取训练集;
图像转换模型确定模块,用于以所述待转换图像训练集为输入,以所述目标图像训练集为输出,对所述初始对抗网络进行训练,得到所述图像转换模型。
可选的,所述图像转换模型确定模块,具体包括:
第一编码单元,用于将所述待转换图像训练集输入到所述编码器中进行特征提取,得到特征集;
第一解码单元,用于将所述特征集输入到所述解码器中所述待转换图像训练集进行转换,得到输出转换图像集,并计算生成网络损失;
第一判断单元,用于判断所述生成网络损失是否在第一预设范围内,得到第一判断结果;若所述第一判断结果为否,则调用第一参数更新单元;若所述第一判断结果为是,则调用第一鉴别单元;
所述第一参数更新单元,用于更新所述编码器和所述解码器的参数并调用所述第一编码单元;
第一鉴别单元,用于将所述输出转换图像集和所述目标图像训练集均输入所述鉴别网络中,并计算鉴别网络损失;
第二判断单元,用于判断所述鉴别网络损失是否在第二预设范围内,得到第二判断结果;若所述第二判断结果为否,则调用第二参数更新单元;若所述第二判断结果为是,则调用第一图像转换模型确定单元;
第二参数更新单元,用于更新所述鉴别网络的参数并调用所述第一编码单元;
第一图像转换模型确定单元,用于将训练后的生成网络作为所述图像转换模型。
可选的,所述图像转换模型确定模块,具体包括:
第二编码单元,用于将所述待转换图像训练集输入到所述编码器中进行特征提取,得到特征集;
第二解码单元,用于将所述特征集输入到所述解码器中所述待转换图像训练集进行转换,得到输出转换图像集,并计算生成网络损失;
第二鉴别单元,用于将所述输出转换图像集和所述目标图像训练集均输入所述鉴别网络中,并计算鉴别网络损失;
第三判断单元,用于判断迭代次数是否达到预设迭代次数阈值,得到第三判断结果;若所述第三判断结果为否,则调用第三参数更新单元;若所述第三判断结果为是,则调用第二图像转换模型确定单元
第三参数更新单元,用于根据所述生成网络损失和所述鉴别网络损失,更新所述初始对抗网络的参数并调用所述第二编码单元;
第二图像转换模型确定单元,用于将训练后的生成网络作为所述图像转换模型。
可选的,
所述生成网络损失为:
LG=LG(G,D,X,Y)+λX·LPatchNCE(G,H,X)+λY·LPatchNCE(G,H,Y);
其中,LG(G,D,X,Y)=E[log(1-D(G(x)))];
式中,LG表示生成网络总损失;LG(G,D,X,Y)表示生成对抗损失;LPatchNCE(G,H,X)表示第一补丁块对比损失;LPatchNCE(G,H,Y)表示第二补丁块对比损失;λX和λY分别表示第一系数和第二系数;λX和λY均为1;G(x)表示将待转换图像训练集中的一张图像x输入至生成网络中后得到的转换后的图像;D(G(x))表示向鉴别网络中输入图像G(x)后得到的鉴别概率值;E(*)表示*的期望值;表示交叉熵损失函数;τ表示第一控制系数,τ为0.07;表示将待转换图像训练集中图像x依次输入至l层编码器和多层感知机H得到的特征集合l=1,...,L;L为编码器总层数;表示将G(x)依次输入至l层编码器和多层感知机H得到的特征集合;令s∈{1,…,Sl},Sl是第l层的空间位置数;表示中第l层第s个查询块的特征,表示{zl}L中第l层第s个正样例的特征;表示{zl}L中第l层除s外负样例的特征;;表示将训练集目标域中图像y依次输入至l层编码器和多层感知机H得到的特征集合;表示将图像G(y)依次输入至l层编码器和多层感知机H得到的特征集合;G(y)表示将目标图像集中的一张图像y输入至生成网络中后得到的转换后的图像;表示中第l层第s个查询块的特征,表示{wl}L中第l层第s个正样例的特征;表示{wl}L中第l层除s外负样例的特征;
所述鉴别网络损失为:LD=LD(G,D,X,Y)+λM·LMCL(G,D,X,Y);
其中,LD(G,D,X,Y)=-E[logD(y)]+E[logD(G(x))];
式中,LD表示鉴别网络损失;LD(G,D,X,Y)表示鉴别网络对抗损失;LMCL(G,D,X,Y)表示多特征对比学习损失;λM表示第三系数;D(y)表示向鉴别网络中输入图像y后得到的鉴别概率值;D(G(x))表示向鉴别网络中输入图像G(x)后得到的鉴别概率值;Lcon(r(i),f,r(-i))表示对比损失函数;r(i)表示第i个目标特征,即将目标图像输入到鉴别网络中得到的第i个特征;r={r(i)}表示目标特征的集合;r(-i)=r\{r(i)}表示除第i个目标特征之外的所有目标特征;f(i)表示第i个生成图像特征,即将生成图像输入到鉴别网络中得到的第i个特征;f={f(i)}表示所有生成图像特征的集合;ω表示第二控制系数,ω为0.07。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明提供了一种图像转换方法及系统,方法包括:获取待转换图像;将转换图像输入到图像转换模型中,得到转换后的图像;图像转换模型是利用训练集对初始对抗网络进行训练得到的;训练集包括待转换图像训练集和目标图像训练集;初始对抗网络包括生成网络和鉴别网络;生成网络包括一个编码器和一个解码器。本发明通过对初始对抗网络进行训练得到图像转换模型用于图像转换,能够提高图像转换的转换精度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中图像转换方法流程图;
图2为本发明实施例中70×70PatchGAN鉴别器结构示意图;
图3为本发明实施例中图像转换方法总体架构示意图;
图4为本发明实施例中不同方法的视觉效果示意图;
图5为本发明实施例中不同方法在CityScapes数据集上的对比结果。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种图像转换方法,能够提高图像转换的转换精度。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1,本发明提供了一种图像转换方法,包括:
步骤101:获取待转换图像;
步骤102:将转换图像输入到图像转换模型中,得到转换后的图像;图像转换模型是利用训练集对初始对抗网络进行训练得到的;训练集包括待转换图像训练集和目标图像训练集;初始对抗网络包括生成网络和鉴别网络;生成网络包括一个编码器和一个解码器。
在步骤101之前,还包括:
构建初始对抗网络;
步骤101:获取训练集;
步骤102:以待转换图像训练集为输入,以目标图像训练集为输出,对初始对抗网络进行训练,得到图像转换模型。
其中,步骤102,具体包括:
将待转换图像训练集输入到编码器中进行特征提取,得到特征集;
将特征集输入到解码器中待转换图像训练集进行转换,得到输出转换图像集,并计算生成网络损失;
判断生成网络损失是否在第一预设范围内,得到第一判断结果;
若第一判断结果为否,则更新编码器和解码器的参数并返回步骤“将待转换图像训练集输入到编码器中进行特征提取,得到特征集”;
若第一判断结果为是,则将输出转换图像集和目标图像训练集均输入鉴别网络中,并计算鉴别网络损失;
判断鉴别网络损失是否在第二预设范围内,得到第二判断结果;
若第二判断结果为否,则更新鉴别网络的参数并返回步骤“将待转换图像训练集输入到编码器中进行特征提取,得到特征集”;
若第二判断结果为是,则将训练后的生成网络作为图像转换模型。
本发明还提供了步骤102的另一种实施方式,步骤102具体包括:
将待转换图像训练集输入到编码器中进行特征提取,得到特征集;
将特征集输入到解码器中待转换图像训练集进行转换,得到输出转换图像集,并计算生成网络损失;
将输出转换图像集和目标图像训练集均输入鉴别网络中,并计算鉴别网络损失;
判断迭代次数是否达到预设迭代次数阈值,得到第三判断结果;
若第三判断结果为否,则根据生成网络损失和鉴别网络损失,更新初始对抗网络的参数并返回步骤“将待转换图像训练集输入到编码器中进行特征提取,得到特征集”;
若第三判断结果为是,则将训练后的生成网络作为图像转换模型。
具体的,
所述生成网络损失为:
LG=LG(G,D,X,Y)+λX·LPatchNCE(G,H,X)+λY·LPatchNCE(G,H,Y);
其中,LG(G,D,X,Y)=E[log(1-D(G(x)))];
式中,LG表示生成网络总损失;LG(G,D,X,Y)表示生成对抗损失;LPatchNCE(G,H,X)表示第一补丁块对比损失;LPatchNCE(G,H,Y)表示第二补丁块对比损失;λX和λY分别表示第一系数和第二系数;λX和λY均为1;G(x)表示将待转换图像训练集中的一张图像x输入至生成网络中后得到的转换后的图像;D(G(x))表示向鉴别网络中输入图像G(x)后得到的鉴别概率值;E(*)表示*的期望值;表示交叉熵损失函数;τ表示第一控制系数,τ为0.07;表示将待转换图像训练集中图像x依次输入至l层编码器和多层感知机H得到的特征集合l=1,...,L;L为编码器总层数;表示将G(x)依次输入至l层编码器和多层感知机H得到的特征集合;令s∈{1,…,Sl},Sl是第l层的空间位置数;表示中第l层第s个查询块的特征,表示{zl}L中第l层第s个正样例的特征;表示{zl}L中第l层除s外负样例的特征;;表示将训练集目标域中图像y依次输入至l层编码器和多层感知机H得到的特征集合;表示将图像G(y)依次输入至l层编码器和多层感知机H得到的特征集合;G(y)表示将目标图像集中的一张图像y输入至生成网络中后得到的转换后的图像;表示中第l层第s个查询块的特征,表示{wl}L中第l层第s个正样例的特征;表示{wl}L中第l层除s外负样例的特征;
鉴别网络损失为:LD=LD(G,D,X,Y)+λM·LMCL(G,D,X,Y);
其中,LD(G,D,X,Y)=-E[logD(y)]+E[logD(G(x))];
式中,LD表示鉴别网络损失;LD(G,D,X,Y)表示鉴别网络对抗损失;LMCL(G,D,X,Y)表示多特征对比学习损失;λM表示第三系数;D(y)表示向鉴别网络中输入图像y后得到的鉴别概率值;D(G(x))表示向鉴别网络中输入图像G(x)后得到的鉴别概率值;Lcon(r(i),f,r(-i))表示对比损失函数;r(i)表示第i个目标特征,即将目标图像输入到鉴别网络中得到的第i个特征;r={r(i)}表示目标特征的集合;r(-i)=r\{r(i)}表示除第i个目标特征之外的所有目标特征;f(i)表示第i个生成图像特征,即将生成图像输入到鉴别网络中得到的第i个特征;f={f(i)}表示所有生成图像特征的集合;ω表示第二控制系数,ω为0.07。
如图3,本发明提供的基于多特征对比学习的图像到图像转换方法,具体包括:
步骤S1:构建训练数据集,该数据集包含两个域:源域和目标域(例如在马到斑马的转换中,源域为包含马的数据集。而目标域为包含斑马的数据集。)
步骤S2:将生成对抗网络中引入生成网络G和鉴别网络D,获得初始对抗网络(本发明中将生成网络G分解为一个编码器Ge和一个解码器Gd,按顺序应用以产生输出图像y′=G(x)=Gd(Ge(x))。);
步骤S3:利用训练数据集对初始对抗网络进行训练及优化,获得图像转换模型;
步骤S4:将待转换样本输入至图像转换模型中进行图像转换,获得转换后的图像。(例如将马的图像输入至图像转换模型,获得相应的斑马的图像。)
对于步骤S3:
步骤S31:将训练数据集输入初始对抗网络进行训练,利用生成网络损失函数公式计算生成网络损失值,利用鉴别网络损失函数计算鉴别网络损失值;
步骤S32:基于生成网络损失值判断是否满足第一收敛条件;如果满足第一收敛条件,则执行“步骤S33”;如果不满足第一收敛条件,则返回“步骤S31”;第一收敛条件为相邻两次生成网络损失值之间的差值小于第一设定阈值,或生成网络损失值在第一设定范围内。
步骤S33:基于鉴别网络损失值判断是否满足第二收敛条件;如果满足第二收敛条件,则将训练后的初始对抗网络作为图像转换模型;如果不满足第二收敛条件,则返回“步骤S31”;第二收敛条件为相邻两次鉴别网络损失值之间的差值小于第二设定阈值,或鉴别网络损失值在第二设定范围内。
本发明还提供了步骤S3的另一种实施方式:
步骤S31:设置最大训练次数;
步骤S32:将训练样本和训练集输入初始对抗网络进行训练;
步骤S33:判断迭代次数是否小于或等于最大训练次数;如果迭代次数小于或等于最大训练次数,则利用生成网络损失函数公式计算生成网络损失值,利用鉴别网络损失函数计算鉴别网络损失值,采用Adam优化算法更新网络参数;如果迭代次数大于最大训练次数,则将训练后的初始对抗网络作为图像转换模型。Adam优化算法是深度学习算法中最常用的一种优化算法,在本发明中,建议将学习率lr设置为0.0002,一阶动量β1设置为0.5、二阶动量β2设置为0.999。
LG表示生成网络损失;LD表示鉴别网络损失;表示LG的梯度,表示LD的梯度,该梯度是利用Adam优化算法计算得到的,表示梯度。
一、网络损失函数为:
LG=LG(G,D,X,Y)+λX·LPatchNCE(G,H,X)+λY·LPatchNCE(G,H,Y)
其中,LG表示生成网络损失值,它由LG(G,D,X,Y)、LPatchNCE(G,H,X)以及LPatchNCE(G,H,Y)三部分损失值计算得到。λX和λY分别为LPatchNCE(G,H,X)以及LPatchNCE(G,H,Y)的系数,在计算过程中建议将λX和λY的值设置为1。
1)对于LG(G,D,X,Y),其描述为:
LG(G,D,X,Y)=E[log(1-D(G(x)))]
其中,G(x)表示将训练集源域中的一张图像x输入至生成网络中后得到的转换后的图像。D(G(x))表示向鉴别网络中输入图像G(x)后得到的鉴别概率值。E表示期望值。
2)对于LPatchNCE(G,H,X),其描述为:
其中,H表示一个小型的两层多层感知机网络(MLP)。本发明从Ge(x)中选择L层,并将其发送到一个小型的两层MLP网络Hl,产生一堆特征其中表示第l层的输出。然后,对l∈{1,2,…,L}层进行索引,并定义s∈{1,…,Sl},(这里的s取值为1,2,…,Sl,并没有实际含义,只是一种计数写法),其中Sl是每一层的空间位置数。将对应的特征(正样例)称为其他特征(负样例)称为其中Cl为每一层的通道数量。类似地,将输出图像y′编码为l表示一个交叉熵损失函数。E表示期望值。
对于l值的计算:
v,v+,v-分别表示查询块,正样例和负样例。
在计算过程中建议将τ的值设置为0.07。
3)对于LPatchNCE(G,H,Y)的描述与2)类似。
二、鉴别网络损失函数,其描述为:
LD=LD(G,D,X,Y)+λM·LMCL(G,D,X,Y)
其中,LD表示鉴别网络损失值,它由LD(G,D,X,Y)以及LMCL(G,D,X,Y)两部分损失值计算得到。λM为LMCL(G,D,X,Y)的系数,在计算过程中建议将λM的值设置为1。
1)对于LD(G,D,X,Y),其描述为:
LD(G,D,X,Y)=-E[logD(y)]+E[logD(G(x))]
其中,y表示目标域中的一张图像。G(x)表示将训练集源域中的一张图像x输入至生成网络中后得到的转换后的图像。D(y)表示向鉴别网络中输入图像y后得到的鉴别概率值。D(G(x))表示向鉴别网络中输入图像G(x)后得到的鉴别概率值。E表示期望值。
2)对于LMCL(G,D,X,Y),其描述为:
其中,Lcon表示对比损失函数。
对于Lcon值的计算:
其中,本发明将鉴别器输出层的特征信息处理为一个n×n的矩阵A=(ai,j)n×n。然后,将矩阵的每一行元素视为一个特征向量,即A=(α(1),α(2),…,α(n))T,其中α(i)=(ai,1,ai,2,…ai,n)。并对每一个特征向量进行归一化处理,得到f(A)=(f(α(1)),f(α(2)),…,f(α(n)))T。对于一个输出图像y′=G(x)和一个来自目标域y的图像y,通过鉴别器可以得到f(A(y′))=(f(y′(1)),f(y′(2)),…,f(y′(n)))T和f(A(y))=(f(y(1)),f(y(2)),…,f(y(n)))T。分别记r={r(i)}={f(y(i))},f={f(i)}={f(y′(i))}以及r(-i)=r\{r(i)}。在计算过程中建议将ω的值设置为0.1。
对于给定的一个的数据集:和本发明的目的是学习一个映射函数,将源域中的图像x转换到目标域中去。通常,鉴别器会将输入样本映射到一个概率空间。如图2所示,对于70×70PatchGAN鉴别器,它的输出层为一个30×30的矩阵A=(ai,j)30×30,其中每个元素aij的目的是对70×70重叠图像块的真伪进行分类。鉴别器会根据所有元素的期望来判断一个输入图像的真伪。
不同于之前的方法,本发明还考虑了如何利用鉴别器输出层的特征信息来构造对比损失,增强鉴别器的泛化性能。图3展示了本方法的总体架构。本方法包括四个损失:对抗损失、2个PatchNCE损失(补丁块对比损失)和MCL损失(Multi-feature ContrastiveLearning多特征对比损失),具体如下。
对抗损失:
本发明使用一个对抗损失鼓励转换后的图像为在视觉上与目标域中的图像足够相似,如下:
LGAN(G,D,X,Y)=E[logD(y)]+E[log(1-D(G(x)))] (3)
PatchNCE损失:
本发明使用噪声对比估计框架来最大化输入块和输出块之间的相互信息。也就是说,生成的输出块应该尽可能接近其对应的输入块,而远离其他随机块。
将一个查询块、一个正样例和N个负样例分别映射到K维向量上,即v,v+∈RK和v-∈RN×K。其中,表示第n个负样例。在本发明中,查询块、正样例和负样例分别指输出块、对应的输入块和非对应的输入块。查询块的目标是联系正样例并且远离负样例,这在数学上可以表示为一个交叉熵损失:
本发明将向量归一化到一个单位球面上,以防止空间坍缩或膨胀。并且将τ=0.07设置为默认值。
本发明将生成器分解为两个分量:一个编码器和一个解码器,按顺序应用以产生输出图像y′=G(x)=Gd(Ge(x))。本发明从Ge(x)中选择L层,并将其发送到一个小型的两层MLP网络Hl,产生一堆特征其中表示第l层的输出。然后,对l∈{1,2,…,L}层进行索引,并定义s∈{1,…,Sl},其中Sl是每一层的空间位置数。将对应的特征(正样例)称为其他特征称(负样例)为其中Cl为每一层的通道数量。类似地,将输出图像y′编码为本发明的目标是在特定位置匹配相应的输入块和输出块。例如,在图3中,输出斑马的头部与输入马的头部的联系应该比其他块(如腿部和草地)更紧密。因此,PatchNCE损失可以表示为:
此外,本发明通过计算目标域图像的LPatchNCE(G,H,Y),以防止生成器进行不必要的更改。
MCL损失:
PatchNCE损失通过学习输入块和输出图像块之间的对应关系,从而增强生成器的性能。本发明进一步通过利用鉴别器输出层的特征信息来增强鉴别器的性能,称之为MCL损失。
通常,鉴别器通过使用单个标量来估计输入样本的真实性。然而,这种简单的映射无疑丢失了一些重要的鉴别信息。从而,由于鉴别器不够强大,很容易发生过拟合。为了充分利用鉴别器输出层的特征信息,本发明不再将其简单地映射到一个概率空间,而是利用这些特征信息来构造一个对比损失。为了充分利用鉴别器输出层的特征信息,本发明使用它来构造对比损失,而不是简单地将其映射到一个概率空间。本发明将鉴别器输出层的特征信息处理为一个n×n的矩阵A=(ai,j)n×n。然后,将矩阵的每一行元素视为一个特征向量,即A=(α(1),α(2),…,α(n))T,其中α(i)=(ai,1,ai,2,…ai,n)。并对每一个特征向量进行归一化处理,得到f(A)=(f(α(1)),f(α(2)),…,f(α(n)))T。接下来,本发明通过研究不同特征向量之间的关系来构造MCL损失。
如图3所示,对于一个输出图像y′=G(x)和一个来自目标域y的图像y,通过鉴别器可以得到f(A(y′))=(f(y′(1)),f(y′(2)),…,f(y′(n)))T和f(A(y))=(f(y(1)),f(y(2)),…,f(y(n)))T,(这里n=30)。自然地,希望y的任一特征向量f(y(i)),都尽可能接近它的其他特征向量,而远离y′的特征向量。分别记r={r(i)}={f(y(i))},f={f(i)}={f(y′(i))}以及r(-i)=r\{r(i)}。形式上,对比损失被定义为:
其中,ω=0.1。
根据式(6),关于鉴别器的MCL损失定义如下:
最终目标损失:
本发明的最终目标损失包括对抗损失、2个PatchNCE损失和MCL损失,如下所示
生成对抗网络是求极大极小值,这个总损失是生成网络损失和鉴别网络损失合在一起的写法。在实际计算中,通常会固定一个网络,去计算里一个网络的损失函数。
如果没有特殊说明,则设置λX=λY=1以及λM=0.01。
本发明提出了一种简单的方法,通过利用鉴别器输出层的特征信息来构造对比损失,即MCL。该方法提高了鉴别器的性能,有效解决了模式崩溃的问题。大量实验表明,在非配对的图像到图像转换中,该方法通过更好地利用对比学习而取得最好的实验结果。
本发明在几个数据集上对不同方法的性能进行了测试评估。依次介绍了实验的训练细节,数据集以及评价方法。实验结果表明,该方法优于现有的方法。
本发明所提出的MCL被要求训练400个批次。MCL包括一个基于resnet的带有9个残差块的生成器和一个PatchGAN鉴别器。选择以LSGAN损失作为对抗损失,在256×256分辨率的数据集上训练模型。在本发明中建议采用Adam优化算法进行网络参数优化,学习率lr被设置为0.0002,一阶动量β1被设置为0.5、二阶动量β2被设置为0.999,并且在训练总批次的一半之后开始线性衰减。
本发明在以下公开挑战数据集上进行了实验。
Horse→Zebra数据集包含2401张训练图像和260张测试图像,均采集自ImageNet,它在CycleGAN中被介绍。
CityScapes数据集包含2975个训练图像和500个测试图像,它是一个从标签到城市的数据集。
FID(Frechet Inception Distance,弗雷歇初始距离)是本发明主要使用的评价指标。FID由Heusel等人提出,被用于衡量两个数据分布之间的距离。也就是说,FID越低,表示结果越好。对于CityScapes数据集,本发明利用它的对应标签计算语义分割分数。使用预先训练的FCN-8s模型来计算三个指标,包括像素精度(pixAcc),平均类别精度(classAcc)和交并比(IoU)。此外,本发明还比较了不同方法的模型参数和训练时间。
与当前最新的非配对图像转换进行比较,这些方法包括CycleGAN,CUT和DCLGAN。所有的实验结果表明本方法所生成图像的质量要优于其他方法。并且该方法能以较轻的训练计算量获得更好的结果。
表1展示了本方法与所有基线在Horse→Zebra和CityScapes三个数据集上的评估结果,它们的视觉效果展示如图4所示。图5显示了本方法与两种最先进的未配对方法在CityScapes数据集上的定性比较结果。
表1本文方法与所有基线进行比较
表1中,sec/ite表示秒/每迭代一次;Model Parameters表示模型参数,1M表示一百万个参数。
此外,本发明还提供了一种图像转换系统,包括:
待转换图像获取模块,用于获取待转换图像;
图像转换模块,用于将转换图像输入到图像转换模型中,得到转换后的图像;图像转换模型是利用训练集对初始对抗网络进行训练得到的;训练集包括待转换图像训练集和目标图像训练集;初始对抗网络包括生成网络和鉴别网络;生成网络包括一个编码器和一个解码器。
本发明提供的图像转换系统,还包括:
初始对抗网络构建模块,用于构建初始对抗网络;
训练集获取模块,用于获取训练集;
图像转换模型确定模块,用于以待转换图像训练集为输入,以目标图像训练集为输出,对初始对抗网络进行训练,得到图像转换模型。
图像转换模型确定模块,具体包括:
第一编码单元,用于将待转换图像训练集输入到编码器中进行特征提取,得到特征集;
第一解码单元,用于将特征集输入到解码器中待转换图像训练集进行转换,得到输出转换图像集,并计算生成网络损失;
第一判断单元,用于判断生成网络损失是否在第一预设范围内,得到第一判断结果;若第一判断结果为否,则调用第一参数更新单元;若第一判断结果为是,则调用第一鉴别单元;
第一参数更新单元,用于更新编码器和解码器的参数并调用第一编码单元;
第一鉴别单元,用于将输出转换图像集和目标图像训练集均输入鉴别网络中,并计算鉴别网络损失;
第二判断单元,用于判断鉴别网络损失是否在第二预设范围内,得到第二判断结果;若第二判断结果为否,则调用第二参数更新单元;若第二判断结果为是,则调用第一图像转换模型确定单元;
第二参数更新单元,用于更新鉴别网络的参数并调用第一编码单元;
第一图像转换模型确定单元,用于将训练后的生成网络作为图像转换模型。
作为图像转换模型确定模块的另一种实施方式,图像转换模型确定模块具体包括:
第二编码单元,用于将待转换图像训练集输入到编码器中进行特征提取,得到特征集;
第二解码单元,用于将特征集输入到解码器中待转换图像训练集进行转换,得到输出转换图像集,并计算生成网络损失;
第二鉴别单元,用于将输出转换图像集和目标图像训练集均输入鉴别网络中,并计算鉴别网络损失;
第三判断单元,用于判断迭代次数是否达到预设迭代次数阈值,得到第三判断结果;若第三判断结果为否,则调用第三参数更新单元;若第三判断结果为是,则调用第二图像转换模型确定单元
第三参数更新单元,用于根据生成网络损失和鉴别网络损失,更新初始对抗网络的参数并调用第二编码单元;
第二图像转换模型确定单元,用于将训练后的生成网络作为图像转换模型。
优选地,
所述生成网络损失为:
LG=LG(G,D,X,Y)+λX·LPatchNCE(G,H,X)+λY·LPatchNCE(G,H,Y);
其中,LG(G,D,X,Y)=E[log(1-D(G(x)))];
式中,LG表示生成网络总损失;LG(G,D,X,Y)表示生成对抗损失;LPatchNCE(G,H,X)表示第一补丁块对比损失;LPatchNCE(G,H,Y)表示第二补丁块对比损失;λX和λY分别表示第一系数和第二系数;λX和λY均为1;G(x)表示将待转换图像训练集中的一张图像x输入至生成网络中后得到的转换后的图像;D(G(x))表示向鉴别网络中输入图像G(x)后得到的鉴别概率值;E(*)表示*的期望值;表示交叉熵损失函数;τ表示第一控制系数,τ为0.07;表示将待转换图像训练集中图像x依次输入至l层编码器和多层感知机H得到的特征集合l=1,...,L;L为编码器总层数;表示将G(x)依次输入至l层编码器和多层感知机H得到的特征集合;令s∈{1,…,Sl},Sl是第l层的空间位置数;表示中第l层第s个查询块的特征,表示{zl}L中第l层第s个正样例的特征;表示{zl}L中第l层除s外负样例的特征;;表示将训练集目标域中图像y依次输入至l层编码器和多层感知机H得到的特征集合;表示将图像G(y)依次输入至l层编码器和多层感知机H得到的特征集合;G(y)表示将目标图像集中的一张图像y输入至生成网络中后得到的转换后的图像;表示中第l层第s个查询块的特征,表示{wl}L中第l层第s个正样例的特征;表示{wl}L中第l层除s外负样例的特征;
鉴别网络损失为:LD=LD(G,D,X,Y)+λM·LMCL(G,D,X,Y);
其中,LD(G,D,X,Y)=-E[logD(y)]+E[logD(G(x))];
式中,LD表示鉴别网络损失;LD(G,D,X,Y)表示鉴别网络对抗损失;LMCL(G,D,X,Y)表示多特征对比学习损失;λM表示第三系数;D(y)表示向鉴别网络中输入图像y后得到的鉴别概率值;D(G(x))表示向鉴别网络中输入图像G(x)后得到的鉴别概率值;Lcon(r(i),f,r(-i))表示对比损失函数;r(i)表示第i个目标特征,即将目标图像输入到鉴别网络中得到的第i个特征;r={r(i)}表示目标特征的集合;r(-i)=r\{r(i)}表示除第i个目标特征之外的所有目标特征;f(i)表示第i个生成图像特征,即将生成图像输入到鉴别网络中得到的第i个特征;f={f(i)}表示所有生成图像特征的集合;ω表示第二控制系数,ω为0.07。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上,本说明书内容不应理解为对本发明的限制。
Claims (8)
1.一种图像转换方法,其特征在于,所述方法,包括:
获取待转换图像;
将所述待转换图像输入到图像转换模型中,得到转换后的图像;图像转换模型是利用训练集对初始对抗网络进行训练得到的;所述训练集包括待转换图像训练集和目标图像训练集;所述初始对抗网络包括生成网络和鉴别网络;所述生成网络包括一个编码器和一个解码器;生成网络损失为:
LG=LG(G,D,X,Y)+λX·LPatchNCE(G,H,X)+λY·LPatchNCE(G,H,Y);
其中,LG(G,D,X,Y)=E[log(1-D(G(x)))];
式中,LG表示生成网络总损失;LG(G,D,X,Y)表示生成对抗损失;LPatchNCE(G,H,X)表示第一补丁块对比损失;LPatchNCE(G,H,Y)表示第二补丁块对比损失;λX和λY分别表示第一系数和第二系数;λX和λY均为1;G(x)表示将待转换图像训练集中的一张图像x输入至生成网络中后得到的转换后的图像;D(G(x))表示向鉴别网络中输入图像G(x)后得到的鉴别概率值;E(*)表示*的期望值;表示交叉熵损失函数;τ表示第一控制系数,τ为0.07;表示将待转换图像训练集中图像x依次输入至l层编码器和多层感知机H得到的特征集合l=1,...,L;L为编码器总层数;表示将G(x)依次输入至l层编码器和多层感知机H得到的特征集合;令s∈{1,…,Sl},Sl是第l层的空间位置数;表示中第l层第s个查询块的特征,表示{zl}L中第l层第s个正样例的特征;表示{zl}L中第l层除s外负样例的特征;表示将训练集目标域中图像y依次输入至l层编码器和多层感知机H得到的特征集合;表示将图像G(y)依次输入至l层编码器和多层感知机H得到的特征集合;G(y)表示将目标图像集中的一张图像y输入至生成网络中后得到的转换后的图像;表示中第l层第s个查询块的特征,表示{wl}L中第l层第s个正样例的特征;表示{wl}L中第l层除s外负样例的特征;X表示源域;Y表示目标域;
鉴别网络损失为:LD=LD(G,D,X,Y)+λM·LMCL(G,D,X,Y);
其中,LD(G,D,X,Y)=-E[logD(y)]+E[logD(G(x))];
式中,LD表示鉴别网络损失;LD(G,D,X,Y)表示鉴别网络对抗损失;LMCL(G,D,X,Y)表示多特征对比学习损失;λM表示第三系数;D(y)表示向鉴别网络中输入图像y后得到的鉴别概率值;D(G(x))表示向鉴别网络中输入图像G(x)后得到的鉴别概率值;Lcon(r(i),f,r(-i))表示对比损失函数;r(i)表示第i个目标特征,即将目标图像输入到鉴别网络中得到的第i个特征;r={r(i)}表示目标特征的集合;r(-i)=r\{r(i)}表示除第i个目标特征之外的所有目标特征;f(i)表示第i个生成图像特征,即将生成图像输入到鉴别网络中得到的第i个特征;f={f(i)}表示所有生成图像特征的集合;ω表示第二控制系数,ω为0.07。
2.根据权利要求1所述的图像转换方法,其特征在于,在所述获取待转换图像之前,还包括:
构建初始对抗网络;
获取训练集;
以所述待转换图像训练集为输入,以所述目标图像训练集为输出,对所述初始对抗网络进行训练,得到所述图像转换模型。
3.根据权利要求2所述的图像转换方法,其特征在于,所述以所述待转换图像训练集为输入,以所述目标图像训练集为输出,对所述初始对抗网络进行训练,得到所述图像转换模型,具体包括:
将所述待转换图像训练集输入到所述编码器中进行特征提取,得到特征集;
将所述特征集输入到所述解码器中对所述待转换图像训练集进行转换,得到输出转换图像集,并计算生成网络损失;
判断所述生成网络损失是否在第一预设范围内,得到第一判断结果;
若所述第一判断结果为否,则更新所述编码器和所述解码器的参数并返回步骤“将所述待转换图像训练集输入到所述编码器中进行特征提取,得到特征集”;
若所述第一判断结果为是,则将所述输出转换图像集和所述目标图像训练集均输入所述鉴别网络中,并计算鉴别网络损失;
判断所述鉴别网络损失是否在第二预设范围内,得到第二判断结果;
若所述第二判断结果为否,则更新所述鉴别网络的参数并返回步骤“将所述待转换图像训练集输入到所述编码器中进行特征提取,得到特征集”;
若所述第二判断结果为是,则将训练后的生成网络作为所述图像转换模型。
4.根据权利要求2所述的图像转换方法,其特征在于,所述以所述待转换图像训练集为输入,以所述目标图像训练集为输出,对所述初始对抗网络进行训练,得到所述图像转换模型,具体包括:
将所述待转换图像训练集输入到所述编码器中进行特征提取,得到特征集;
将所述特征集输入到所述解码器中对所述待转换图像训练集进行转换,得到输出转换图像集,并计算生成网络损失;
将所述输出转换图像集和所述目标图像训练集均输入所述鉴别网络中,并计算鉴别网络损失;
判断迭代次数是否达到预设迭代次数阈值,得到第三判断结果;
若所述第三判断结果为否,则根据所述生成网络损失和所述鉴别网络损失,更新所述初始对抗网络的参数并返回步骤“将所述待转换图像训练集输入到所述编码器中进行特征提取,得到特征集”;
若所述第三判断结果为是,则将训练后的生成网络作为所述图像转换模型。
5.一种图像转换系统,其特征在于,所述系统,包括:
待转换图像获取模块,用于获取待转换图像;
图像转换模块,用于将所述待转换图像输入到图像转换模型中,得到转换后的图像;图像转换模型是利用训练集对初始对抗网络进行训练得到的;所述训练集包括待转换图像训练集和目标图像训练集;所述初始对抗网络包括生成网络和鉴别网络;所述生成网络包括一个编码器和一个解码器;生成网络损失为:
LG=LG(G,D,X,Y)+λX·LPatchNCE(G,H,X)+λY·LPatchNCE(G,H,Y);
其中,LG(G,D,X,Y)=E[log(1-D(G(x)))];
式中,LG表示生成网络总损失;LG(G,D,X,Y)表示生成对抗损失;LPatchNCE(G,H,X)表示第一补丁块对比损失;LPatchNCE(G,H,Y)表示第二补丁块对比损失;λX和λY分别表示第一系数和第二系数;λX和λY均为1;G(x)表示将待转换图像训练集中的一张图像x输入至生成网络中后得到的转换后的图像;D(G(x))表示向鉴别网络中输入图像G(x)后得到的鉴别概率值;E(*)表示*的期望值;表示交叉熵损失函数;τ表示第一控制系数,τ为0.07;表示将待转换图像训练集中图像x依次输入至l层编码器和多层感知机H得到的特征集合l=1,...,L;L为编码器总层数;表示将G(x)依次输入至l层编码器和多层感知机H得到的特征集合;令s∈{1,…,Sl},Sl是第l层的空间位置数;表示中第l层第s个查询块的特征,表示{zl}L中第l层第s个正样例的特征;表示{zl}L中第l层除s外负样例的特征;表示将训练集目标域中图像y依次输入至l层编码器和多层感知机H得到的特征集合;表示将图像G(y)依次输入至l层编码器和多层感知机H得到的特征集合;G(y)表示将目标图像集中的一张图像y输入至生成网络中后得到的转换后的图像;表示中第l层第s个查询块的特征,表示{wl}L中第l层第s个正样例的特征;表示{wl}L中第l层除s外负样例的特征;X表示源域;Y表示目标域;
LD=LD(G,D,X,Y)+λM·LMCL(G,D,X,Y);
其中,LD(G,D,X,Y)=-E[logD(y)]+E[logD(G(x))];
式中,LD表示鉴别网络损失;LD(G,D,X,Y)表示鉴别网络对抗损失;LMCL(G,D,X,Y)表示多特征对比学习损失;λM表示第三系数;D(y)表示向鉴别网络中输入图像y后得到的鉴别概率值;D(G(x))表示向鉴别网络中输入图像G(x)后得到的鉴别概率值;Lcon(r(i),f,r(-i))表示对比损失函数;r(i)表示第i个目标特征,即将目标图像输入到鉴别网络中得到的第i个特征;r={r(i)}表示目标特征的集合;r(-i)=r\{r(i)}表示除第i个目标特征之外的所有目标特征;f(i)表示第i个生成图像特征,即将生成图像输入到鉴别网络中得到的第i个特征;f={f(i)}表示所有生成图像特征的集合;ω表示第二控制系数,ω为0.07。
6.根据权利要求5所述的图像转换系统,其特征在于,所述系统,还包括:
初始对抗网络构建模块,用于构建初始对抗网络;
训练集获取模块,用于获取训练集;
图像转换模型确定模块,用于以所述待转换图像训练集为输入,以所述目标图像训练集为输出,对所述初始对抗网络进行训练,得到所述图像转换模型。
7.根据权利要求6所述的图像转换系统,其特征在于,所述图像转换模型确定模块,具体包括:
第一编码单元,用于将所述待转换图像训练集输入到所述编码器中进行特征提取,得到特征集;
第一解码单元,用于将所述特征集输入到所述解码器中对所述待转换图像训练集进行转换,得到输出转换图像集,并计算生成网络损失;
第一判断单元,用于判断所述生成网络损失是否在第一预设范围内,得到第一判断结果;若所述第一判断结果为否,则调用第一参数更新单元;若所述第一判断结果为是,则调用第一鉴别单元;
所述第一参数更新单元,用于更新所述编码器和所述解码器的参数并调用所述第一编码单元;
第一鉴别单元,用于将所述输出转换图像集和所述目标图像训练集均输入所述鉴别网络中,并计算鉴别网络损失;
第二判断单元,用于判断所述鉴别网络损失是否在第二预设范围内,得到第二判断结果;若所述第二判断结果为否,则调用第二参数更新单元;若所述第二判断结果为是,则调用第一图像转换模型确定单元;
第二参数更新单元,用于更新所述鉴别网络的参数并调用所述第一编码单元;
第一图像转换模型确定单元,用于将训练后的生成网络作为所述图像转换模型。
8.根据权利要求6所述的图像转换系统,其特征在于,所述图像转换模型确定模块,具体包括:
第二编码单元,用于将所述待转换图像训练集输入到所述编码器中进行特征提取,得到特征集;
第二解码单元,用于将所述特征集输入到所述解码器中对所述待转换图像训练集进行转换,得到输出转换图像集,并计算生成网络损失;
第二鉴别单元,用于将所述输出转换图像集和所述目标图像训练集均输入所述鉴别网络中,并计算鉴别网络损失;
第三判断单元,用于判断迭代次数是否达到预设迭代次数阈值,得到第三判断结果;若所述第三判断结果为否,则调用第三参数更新单元;若所述第三判断结果为是,则调用第二图像转换模型确定单元
第三参数更新单元,用于根据所述生成网络损失和所述鉴别网络损失,更新所述初始对抗网络的参数并调用所述第二编码单元;
第二图像转换模型确定单元,用于将训练后的生成网络作为所述图像转换模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111641414.9A CN114331821B (zh) | 2021-12-29 | 2021-12-29 | 一种图像转换方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111641414.9A CN114331821B (zh) | 2021-12-29 | 2021-12-29 | 一种图像转换方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114331821A CN114331821A (zh) | 2022-04-12 |
CN114331821B true CN114331821B (zh) | 2023-09-22 |
Family
ID=81017434
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111641414.9A Active CN114331821B (zh) | 2021-12-29 | 2021-12-29 | 一种图像转换方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114331821B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114758035B (zh) * | 2022-06-13 | 2022-09-27 | 之江实验室 | 一种针对未配对数据集的图像生成方法及装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109741410A (zh) * | 2018-12-07 | 2019-05-10 | 天津大学 | 基于深度学习的荧光编码微球图像生成及标注方法 |
CN111126361A (zh) * | 2019-11-19 | 2020-05-08 | 西安电子科技大学 | 基于半监督学习和特征约束的sar目标鉴别方法 |
CN111696136A (zh) * | 2020-06-09 | 2020-09-22 | 电子科技大学 | 一种基于编解码结构的目标跟踪方法 |
CN112070688A (zh) * | 2020-08-20 | 2020-12-11 | 西安理工大学 | 一种基于上下文引导生成对抗网络的单幅图像去雾方法 |
CN113706390A (zh) * | 2021-10-29 | 2021-11-26 | 苏州浪潮智能科技有限公司 | 图像转换模型训练方法和图像转换方法、设备及介质 |
CN113744175A (zh) * | 2021-09-16 | 2021-12-03 | 中国人民解放军火箭军工程大学 | 一种基于双向约束生成对抗网络的图像生成方法及系统 |
CN113850916A (zh) * | 2021-09-26 | 2021-12-28 | 浪潮电子信息产业股份有限公司 | 模型训练、点云缺失补全方法、装置、设备及介质 |
CN113850231A (zh) * | 2021-10-26 | 2021-12-28 | 烟台艾睿光电科技有限公司 | 一种红外图像的转换训练方法、装置、设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018053340A1 (en) * | 2016-09-15 | 2018-03-22 | Twitter, Inc. | Super resolution using a generative adversarial network |
-
2021
- 2021-12-29 CN CN202111641414.9A patent/CN114331821B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109741410A (zh) * | 2018-12-07 | 2019-05-10 | 天津大学 | 基于深度学习的荧光编码微球图像生成及标注方法 |
CN111126361A (zh) * | 2019-11-19 | 2020-05-08 | 西安电子科技大学 | 基于半监督学习和特征约束的sar目标鉴别方法 |
CN111696136A (zh) * | 2020-06-09 | 2020-09-22 | 电子科技大学 | 一种基于编解码结构的目标跟踪方法 |
CN112070688A (zh) * | 2020-08-20 | 2020-12-11 | 西安理工大学 | 一种基于上下文引导生成对抗网络的单幅图像去雾方法 |
CN113744175A (zh) * | 2021-09-16 | 2021-12-03 | 中国人民解放军火箭军工程大学 | 一种基于双向约束生成对抗网络的图像生成方法及系统 |
CN113850916A (zh) * | 2021-09-26 | 2021-12-28 | 浪潮电子信息产业股份有限公司 | 模型训练、点云缺失补全方法、装置、设备及介质 |
CN113850231A (zh) * | 2021-10-26 | 2021-12-28 | 烟台艾睿光电科技有限公司 | 一种红外图像的转换训练方法、装置、设备及存储介质 |
CN113706390A (zh) * | 2021-10-29 | 2021-11-26 | 苏州浪潮智能科技有限公司 | 图像转换模型训练方法和图像转换方法、设备及介质 |
Non-Patent Citations (2)
Title |
---|
基于生成对抗网络的雾霾场景图像转换算法;肖进胜;申梦瑶;雷俊锋;熊闻心;焦陈坤;;计算机学报(第01期);全文 * |
肖进胜 ; 申梦瑶 ; 雷俊锋 ; 熊闻心 ; 焦陈坤 ; .基于生成对抗网络的雾霾场景图像转换算法.计算机学报.2020,(第01期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN114331821A (zh) | 2022-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220028139A1 (en) | Attribute conditioned image generation | |
Liu et al. | Hard negative generation for identity-disentangled facial expression recognition | |
CN111932444A (zh) | 基于生成对抗网络的人脸属性编辑方法及信息处理终端 | |
CN110992252B (zh) | 一种基于潜变量特征生成的图像多风格转化方法 | |
Sun et al. | Facial age synthesis with label distribution-guided generative adversarial network | |
CN111210382B (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN112837234B (zh) | 一种基于多列门控卷积网络的人脸图像修复方法 | |
CN113538608B (zh) | 基于生成对抗网络的可控人物图像生成方法 | |
CN113822790B (zh) | 一种图像处理方法、装置、设备及计算机可读存储介质 | |
WO2022166840A1 (zh) | 人脸属性编辑模型的训练方法、人脸属性编辑方法及设备 | |
CN113822953A (zh) | 图像生成器的处理方法、图像生成方法及装置 | |
CN114331821B (zh) | 一种图像转换方法及系统 | |
Zhao et al. | Rethinking deep face restoration | |
CN117974693B (zh) | 图像分割方法、装置、计算机设备和存储介质 | |
CN114299185A (zh) | 磁共振图像生成方法、装置、计算机设备和存储介质 | |
CN115457359A (zh) | 基于自适应对抗生成网络的pet-mri图像融合方法 | |
CN117333750A (zh) | 空间配准与局部全局多尺度的多模态医学图像融合方法 | |
Luo et al. | EyesGAN: Synthesize human face from human eyes | |
Zhou et al. | Personalized and occupational-aware age progression by generative adversarial networks | |
CN118196231A (zh) | 一种基于概念分割的终身学习文生图方法 | |
CN114283301A (zh) | 一种基于Transformer的自适应医学影像分类方法及系统 | |
CN112541566B (zh) | 一种基于重构损失的图像翻译方法 | |
CN117314738A (zh) | 一种图像转换方法、系统、电子设备及计算机存储介质 | |
CN113538254A (zh) | 图像恢复方法、装置、电子设备及计算机可读存储介质 | |
CN117291850A (zh) | 一种基于可学习低秩表示的红外偏振图像融合增强方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |