CN115546198A - 一种基于循环生成对抗网络的近红外图像彩色化方法 - Google Patents

一种基于循环生成对抗网络的近红外图像彩色化方法 Download PDF

Info

Publication number
CN115546198A
CN115546198A CN202211394901.4A CN202211394901A CN115546198A CN 115546198 A CN115546198 A CN 115546198A CN 202211394901 A CN202211394901 A CN 202211394901A CN 115546198 A CN115546198 A CN 115546198A
Authority
CN
China
Prior art keywords
image
network
model
infrared image
discriminator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211394901.4A
Other languages
English (en)
Inventor
詹伟达
杜佳齐
李锐
郭人仲
姜靖恒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changchun University of Science and Technology
Original Assignee
Changchun University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changchun University of Science and Technology filed Critical Changchun University of Science and Technology
Priority to CN202211394901.4A priority Critical patent/CN115546198A/zh
Publication of CN115546198A publication Critical patent/CN115546198A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

一种基于循环生成对抗网络的近红外图像彩色化方法,属于图像彩色化技术领域,为解决现有的彩色化方法得到的图像缺乏精细细节,不符合人眼视觉效果,同时对数据集要求高且颜色不匹配的问题,该方法:准备数据集:对整个生成对抗网络采用公开的近红外数据集进行训练;构建网络模型;训练网络模型:将准备好的数据集输入到构建好的网络模型中训练;获得最小化损失函数值;微调模型;保存模型。在下采样模块中采用卷积块和密集残差块的组合取代池化操作,使彩色化得到的图像细节更精细。使用复合损失函数有助于学习图像更精细的颜色与纹理信息,更符合人眼视觉观察。使用循环生成对抗网络的网络架构,有效避免了彩色化网络模型对于配对图像的依赖。

Description

一种基于循环生成对抗网络的近红外图像彩色化方法
技术领域
本发明涉及一种基于循环生成对抗网络的近红外图像彩色化方法,属于图像彩色化技术领域。
背景技术
图像彩色化技术已被广泛应用于艺术美学、遥感卫星、医学及图像预处理等领域。图像彩色化是一个高度不确定的问题,需要将实值灰度图像映射到没有唯一解的三维彩色图像。近红外图像的成像效果不受强光云雾等天气因素影响,且对场景的亮度改变不敏感。但缺乏颜色信息,增加了使用者对信息的判断难度,因此需要对近红外图像进行着色。然而,现有的近红外图像彩色化方法存在两个关键问题,即缺乏精细细节和映射不正确。
中国专利公开号为“CN114581560A”,名称为“基于注意力机制的多尺度神经网络红外图像彩色化方法”,该方法首先利用由像素损失、边缘损失和感知损失组成的复合损失函数训练红外图像彩色化模型;接着,通过二维卷积神经网络在不同分辨率尺度下对输入的红外图像对进行特征提取;然后,通过注意力机制对提取出的高维特征信息进行提炼处理;最后,将多尺度信息进行融合处理得到预测的彩色化红外图像。该方法得到的彩色化结果细节模糊,不符合人眼视觉效果,同时对数据集要求高且颜色不匹配。
发明内容
本发明为了解决现有的彩色化方法得到的图像缺乏精细细节,不符合人眼视觉效果,同时对数据集要求高且颜色不匹配的问题,提供了一种基于循环生成对抗网络的近红外图像彩色化方法。使彩色化得到的图像具有精细的细节,更符合人眼视觉观察,同时本发明提出的方法对数据集要求低,不需要依赖大量的配对图像,图像颜色匹配度更高。
本发明解决技术问题的方案是:
一种基于循环生成对抗网络的近红外图像彩色化方法,其包含如下步骤:
步骤1,准备数据集:对整个生成对抗网络采用公开的近红外数据集进行训练,即RGB-NIR场景数据集;
步骤2,构建网络模型:整个网络由两个生成对抗网络组成,包括生成器一、生成器二、鉴别器一和鉴别器二;生成器一由下采样模块、残差模块、上采样模块和跳跃连接组成,实现红外图像到彩色图像的转换,生成器二在生成器一的基础上去掉残差模块,实现彩色图像到红外图像的转换,鉴别器一和鉴别器二均采用马尔可夫鉴别器,判断生成的假图像是否足够真实;
步骤3,训练网络模型:将步骤1中准备好的数据集输入到步骤2构建好的网络模型中进行训练;
步骤4,获得最小化损失函数值:通过最小化生成器和鉴别器的损失函数交替优化生成器和鉴别器,直到生成器和鉴别器的对抗达到平衡状态即可认为模型参数已训练完成,保存模型参数;
步骤5,微调模型:用近红外与可见光图像对模型进行训练和微调,得到稳定可靠的模型参数,进一步提高模型彩色化的能力;
步骤6,保存模型:将最终确定的模型参数进行固化,当需要对近红外图像进行彩色化时,直接将图像输入到网络中即可得到最终的彩色红外图像。
所述步骤2中下采样模块由卷积块一至卷积块五和密集残差块一至密集残差块五组成,用于从输入的近红外图像中提取特征,其中,每个卷积块将特征图减小到一半,密集残差块提取并保留每个卷积块后的信息;残差模块由残差块一至残差块九组成,用于增加网络深度;上采样模块由反卷积块一至反卷积块六和输出块组成,用于图像重建,其中,反卷积块对编码器的信息进行解码进而重构输出图像,输出块输出重建的彩色图像;跳跃连接用于将下采样模块的各尺度特征细节直接映射到上采样模块;鉴别器一和鉴别器二均由六个卷积块组成,输出真假概率信息判断输入图像是否真实。
所述步骤4中在训练过程中损失函数选择使用对抗损失、循环一致性损失、内容损失和感知损失的复合损失函数。得到的彩色图像在色度和亮度方面都接近真实的可见光图像,能够突出红外图像中的纹理和细节部分,提升人眼视觉效果。
本发明的有益效果如下:
1、在下采样模块中采用卷积块和密集残差块的组合取代池化操作,能够最大限度保留图像中的细节信息,进而提高网络的特征提取和表达能力,使彩色化得到的图像细节更精细。
2、使用复合损失函数有助于学习图像更精细的颜色与纹理信息,使得生成的图像颜色更自然,图像中的色彩信息和内容信息更匹配,更符合人眼视觉观察。
3、使用循环生成对抗网络的网络架构,使得网络训练对数据集要求低,有效避免了彩色化网络模型对于配对图像的依赖。
附图说明
图1为本发明一种基于循环生成对抗网络的近红外图像彩色化方法流程图。
图2为本发明一种基于循环生成对抗网络的近红外图像彩色化方法的整体网络架构图。
图3为本发明所述的生成器一网络结构图。
图4为本发明生成器网络中密集残差块的网络结构图。
图5为本发明所述的鉴别器一网络结构图。
具体实施方式
下面结合附图对本发明做进一步详细说明。
如图1所示,一种基于循环生成对抗网络的近红外图像彩色化方法,该方法具体包括如下步骤:
步骤1,准备数据集。对整个生成对抗网络采用公开的近红外数据集进行训练,即RGB-NIR场景数据集,此处只需要进行调整图像分辨率大小操作。
步骤2,构建网络模型。整个网络由两个生成对抗网络组成,包括生成器一、生成器二、鉴别器一和鉴别器二;生成器一由下采样模块、残差模块、上采样模块和跳跃连接组成,实现红外图像到彩色图像的转换,生成器二在生成器一的基础上去掉残差模块,实现彩色图像到红外图像的转换,鉴别器一和鉴别器二均采用马尔可夫鉴别器,判断生成的假图像是否足够真实。其中,下采样模块由卷积块一至卷积块五和密集残差块一至密集残差块五组成,用于从输入的近红外图像中提取特征,其中,每个卷积块将特征图减小到一半,密集残差块提取并保留每个卷积块后的信息;残差模块由残差块一至残差块九组成,用于增加网络深度;上采样模块由反卷积块一至反卷积块六和输出块组成,用于图像重建,其中,反卷积块对编码器的信息进行解码进而重构输出图像,输出块输出重建的彩色图像;跳跃连接用于将下采样模块的各尺度特征细节直接映射到上采样模块;鉴别器一和鉴别器二均采用马尔可夫鉴别器,,输出真假概率信息判断输入图像是否真实。
步骤3,训练网络模型。将步骤1中准备好的数据集输入到步骤2构建好的网络模型中进行训练。
步骤4,获得最小化损失函数值。通过最小化生成器和鉴别器的损失函数交替优化生成器和鉴别器,直到生成器和鉴别器的对抗达到平衡状态即可认为模型参数已训练完成,保存模型参数。在训练过程中损失函数选择使用对抗损失、循环一致性损失、内容损失和感知损失的复合损失函数。得到的彩色图像在色度和亮度方面都接近真实的可见光图像,能够突出红外图像中的纹理和细节部分,提升人眼视觉效果。
步骤5,微调模型。用近红外与可见光图像对模型进行训练和微调,得到稳定可靠的模型参数,进一步提高模型彩色化的能力。
步骤6,保存模型。将最终确定的模型参数进行固化,当需要对近红外图像进行彩色化时,直接将图像输入到网络中即可得到最终的彩色红外图像。
实施例:
如图1所示,一种基于循环生成对抗网络的近红外图像彩色化方法,该方法具体包括如下步骤:
步骤1,准备数据集。近红外图像彩色化数据集使用RGB-NIR场景数据集。数据集中包含477幅近红外图像和477幅可见光图像,将每一张图像大小裁剪为256×256。
步骤2,构建网络模型。如图2所示,网络模型结构由生成器一、生成器二、鉴别器一和鉴别器二组成。生成器一网络结构图如图3所示,由卷积块、密集残差块、残差块、反卷积块和输出块组成,卷积块中包含卷积层、实例归一化和激活函数,卷积核大小为3×3,步长为2,激活函数选择ReLU函数,ReLU函数在随机梯度下降算法中能够快速收敛,并且可以有效缓解梯度消失的问题;密集残差块网络结构图如图4所示,包括卷积层、激活函数、拼接操作和跳跃连接,卷积核大小为3×3,步长和填充均为1,激活函数选择ReLU函数,前四个拼接操作是使用concat,最后一个拼接操作使用add。残差块中包含卷积层、激活函数和拼接操作,第一层和第三层卷积层的卷积核大小为1×1,第二层卷积层的卷积核大小为3×3,步长和填充均为1,1×1卷积能够对通道数起到降维的作用,从而令3×3的卷积以相对较低维度的输入进行卷积运算,提高计算效率,激活函数使用ReLU函数,拼接操作采用add;反卷积块中包含反卷积层、激活函数和实例归一化层,卷积核大小为3×3,步长为2,激活函数选择Leaky ReLU函数,Leaky ReLU函数解决了ReLU的神经元死亡问题;输出块中卷积层的卷积核大小为3×3,步长和填充均为1,激活函数采用Tanh函数。鉴别器一网络结构图如图5所示,包括五个卷积块,第一个和第五个卷积块去掉了批归一化层,卷积核大小为4×4,步长为1,激活函数采用Leaky ReLU函数,批归一化层和Leaky ReLU函数的使用使模型更加稳定,同时有效地实现了梯度的反向传播。ReLU函数、Leaky ReLU函数和Tanh函数定义如下所示:
Figure BDA0003931678030000041
Figure BDA0003931678030000042
Figure BDA0003931678030000043
步骤3,训练网络模型。将数据集中的红外图像输入到生成器一中生成假彩色图像再输入到生成器二中得到假红外图像,通过循环一致性损失使得假红外图像尽可能恢复成输入的红外图像,另一条通路与之同理,与此同时,生成器和鉴别器进行对抗训练。
步骤4,获得最小化损失函数值。通过最小化生成器和鉴别器的损失函数交替优化生成器和鉴别器。通过使损失函数最小化更新网络参数,获得最优网络模型。损失函数选择使用对抗损失、循环一致性损失、内容损失和感知损失的组合。
次级生成器需要在一个周期内尽可能地恢复所需图像,以保持输入图像和重建输出图像之间的一致性,为此,使用循环一致性损失,其计算公式定义为:
Lcyc=||x-G2(G1(x))||1
其中,x表示输入的红外图像,G2(G1(x))表示先经过生成器一再经过生成器二生成的假红外图像。
内容损失促使生成的图像在色度和亮度方面都接近真实的可见光图像,有助于模型缩小网络输出和真实图像之间的距离,其实质就是L1损失,定义内容损失的计算公式为:
Lcontent=||yreal-G(x)||1
其中,yreal表示真实的可见光图像,G(x)表示生成器生成的图像。
虽然使用内容损失有利于得到高的峰值信噪比,但彩色化的结果会丢失细节内容。为了鼓励网络输出具有更真实细节的彩色化结果,采用了对抗损失。对抗损失用于使彩色化结果与真实可见光图像无法区分,定义对抗损失的计算公式为:
Ladv=Ex[-log(D(G(x),x))]
其中x不仅是生成器的输入,也是鉴别器的输入,作为条件项。
使用对抗损失容易产生失真纹理,为了缓解这个问题,使用基于VGG-16网络ReLU函数的感知损失,感知损失有利于在高层空间中保持纹理,定义感知损失的计算公式为:
Figure BDA0003931678030000051
其中,φk(·)表示VGG-16网络中第k个最大池化层的特征表示,CkHkWk表示这些特征表示的大小。
因此,模型总损失Ltotal为:
Ltotal=λcycLcyc+LcontentadvLadvperceptualLperceptual
其中,λcyc、λperceptual和λadv分别表示在整个总损失函数中控制不同损失份额的权重,权重的设置是基于训练数据集上的初步实验。
设定训练次数为100,每次输入到网络图片数量为16张,该数量可根据计算机图形处理器性能决定,在计算机允许的情况下每次输入的数量越大越好,能够使网络更加稳定。训练过程中的学习率设置为0.0002,既能保证网络快速拟合,又不会导致网络过拟合。网络参数优化器选择随机梯度下降算法,该算法通过随机的方式从整个参与训练的数据集中选取一部分来参与模型的训练,所以只要随机选取的数据集大小合适,就不用担心计算损失函数的时间成本和模型训练的复杂度。当输入生成器输出图和真实图后,鉴别器难辨真假,判断真假的概率均为二分之一,就可以认为网络已基本训练完成。
步骤5,微调模型。用近红外与可见光图像对模型进行训练和微调,得到稳定可靠的模型参数,进一步提高模型彩色化的能力。
步骤6,保存模型。将网络训练完成后,需要将网络中所有参数保存,当需要对近红外图像进行彩色化时,直接将图像输入到网络中即可得到最终的彩色红外图像。
其中,卷积、激活函数、跳跃连接、拼接操作和残差结构的实现是本领域技术人员公知的算法,具体流程和方法可在相应的教科书或者技术文献中查阅到。
本发明通过构建一种基于循环生成对抗网络的近红外图像彩色化网络模型,可以自动给红外图像着色,避免人工辅助着色的繁琐,且降低了对数据集的要求。通过计算与现有方法得到图像的相关指标,进一步验证了该方法的可行性和优越性。现有技术和本发明提出方法的相关指标对比如表1所示:
表1现有技术和本发明提出方法的相关指标对比
Figure BDA0003931678030000061
从表中可知,本发明提出的方法有更高的峰值信噪比和结构相似性两个指标,进一步说明本发明具有更好的彩色化图像结果。

Claims (3)

1.一种基于循环生成对抗网络的近红外图像彩色化方法,其特征是,该方法包含如下步骤:
步骤1,准备数据集:对整个生成对抗网络采用公开的近红外数据集进行训练,即RGB-NIR场景数据集;
步骤2,构建网络模型:整个网络由两个生成对抗网络组成,包括生成器一、生成器二、鉴别器一和鉴别器二;生成器一由下采样模块、残差模块、上采样模块和跳跃连接组成,实现红外图像到彩色图像的转换,生成器二在生成器一的基础上去掉残差模块,实现彩色图像到红外图像的转换,鉴别器一和鉴别器二均采用马尔可夫鉴别器,判断生成的假图像是否足够真实;
步骤3,训练网络模型:将步骤1中准备好的数据集输入到步骤2构建好的网络模型中进行训练;
步骤4,获得最小化损失函数值:通过最小化生成器和鉴别器的损失函数交替优化生成器和鉴别器,直到生成器和鉴别器的对抗达到平衡状态即可认为模型参数已训练完成,保存模型参数;
步骤5,微调模型:用近红外与可见光图像对模型进行训练和微调,得到稳定可靠的模型参数,进一步提高模型彩色化的能力;
步骤6,保存模型:将最终确定的模型参数进行固化,当需要对近红外图像进行彩色化时,直接将图像输入到网络中即可得到最终的彩色红外图像。
2.一种基于循环生成对抗网络的近红外图像彩色化方法,其特征在于,所述步骤2中下采样模块由卷积块一至卷积块五和密集残差块一至密集残差块五组成,用于从输入的近红外图像中提取特征,其中,每个卷积块将特征图减小到一半,密集残差块提取并保留每个卷积块后的信息;残差模块由残差块一至残差块九组成,用于增加网络深度;上采样模块由反卷积块一至反卷积块六和输出块组成,用于图像重建,其中,反卷积块对编码器的信息进行解码进而重构输出图像,输出块输出重建的彩色图像;跳跃连接用于将下采样模块的各尺度特征细节直接映射到上采样模块;鉴别器一和鉴别器二均由六个卷积块组成,输出真假概率信息判断输入图像是否真实。
3.一种基于循环生成对抗网络的近红外图像彩色化方法,其特征在于,所述步骤4中在训练过程中损失函数选择使用对抗损失、循环一致性损失、内容损失和感知损失的复合损失函数。得到的彩色图像在色度和亮度方面都接近真实的可见光图像,能够突出红外图像中的纹理和细节部分,提升人眼视觉效果。
CN202211394901.4A 2022-11-08 2022-11-08 一种基于循环生成对抗网络的近红外图像彩色化方法 Pending CN115546198A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211394901.4A CN115546198A (zh) 2022-11-08 2022-11-08 一种基于循环生成对抗网络的近红外图像彩色化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211394901.4A CN115546198A (zh) 2022-11-08 2022-11-08 一种基于循环生成对抗网络的近红外图像彩色化方法

Publications (1)

Publication Number Publication Date
CN115546198A true CN115546198A (zh) 2022-12-30

Family

ID=84721224

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211394901.4A Pending CN115546198A (zh) 2022-11-08 2022-11-08 一种基于循环生成对抗网络的近红外图像彩色化方法

Country Status (1)

Country Link
CN (1) CN115546198A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115908617A (zh) * 2023-01-09 2023-04-04 长春理工大学 一种红外图像彩色化方法及系统
CN116033279A (zh) * 2023-03-23 2023-04-28 长春理工大学 一种夜晚监控相机的近红外图像彩色化方法、系统及设备
CN116503502A (zh) * 2023-04-28 2023-07-28 长春理工大学重庆研究院 一种基于对比学习的未配对红外图像彩色化方法
CN117252936A (zh) * 2023-10-04 2023-12-19 长春理工大学 一种适配多种训练策略的红外图像彩色化方法及系统
CN117391938A (zh) * 2023-12-13 2024-01-12 长春理工大学 一种红外图像超分辨率重建方法、系统、设备及终端
CN117437514A (zh) * 2023-12-22 2024-01-23 南昌航空大学 一种基于CycleGan的阴道镜图像模态转换方法
CN117475481A (zh) * 2023-12-27 2024-01-30 四川师范大学 一种基于域迁移的夜间红外图像动物识别方法及系统
CN117611442A (zh) * 2024-01-19 2024-02-27 第六镜科技(成都)有限公司 一种近红外人脸图像生成方法
CN115908617B (zh) * 2023-01-09 2024-06-07 长春理工大学 一种红外图像彩色化方法及系统

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115908617A (zh) * 2023-01-09 2023-04-04 长春理工大学 一种红外图像彩色化方法及系统
CN115908617B (zh) * 2023-01-09 2024-06-07 长春理工大学 一种红外图像彩色化方法及系统
CN116033279A (zh) * 2023-03-23 2023-04-28 长春理工大学 一种夜晚监控相机的近红外图像彩色化方法、系统及设备
CN116503502A (zh) * 2023-04-28 2023-07-28 长春理工大学重庆研究院 一种基于对比学习的未配对红外图像彩色化方法
CN117252936A (zh) * 2023-10-04 2023-12-19 长春理工大学 一种适配多种训练策略的红外图像彩色化方法及系统
CN117391938A (zh) * 2023-12-13 2024-01-12 长春理工大学 一种红外图像超分辨率重建方法、系统、设备及终端
CN117391938B (zh) * 2023-12-13 2024-02-20 长春理工大学 一种红外图像超分辨率重建方法、系统、设备及终端
CN117437514A (zh) * 2023-12-22 2024-01-23 南昌航空大学 一种基于CycleGan的阴道镜图像模态转换方法
CN117437514B (zh) * 2023-12-22 2024-04-05 南昌航空大学 一种基于CycleGan的阴道镜图像模态转换方法
CN117475481A (zh) * 2023-12-27 2024-01-30 四川师范大学 一种基于域迁移的夜间红外图像动物识别方法及系统
CN117475481B (zh) * 2023-12-27 2024-03-01 四川师范大学 一种基于域迁移的夜间红外图像动物识别方法及系统
CN117611442A (zh) * 2024-01-19 2024-02-27 第六镜科技(成都)有限公司 一种近红外人脸图像生成方法

Similar Documents

Publication Publication Date Title
CN115546198A (zh) 一种基于循环生成对抗网络的近红外图像彩色化方法
CN109255831B (zh) 基于多任务学习的单视图人脸三维重建及纹理生成的方法
CN110992270A (zh) 基于注意力的多尺度残差注意网络图像超分辨率重建方法
CN111242238B (zh) 一种rgb-d图像显著性目标获取的方法
Wang et al. Laplacian pyramid adversarial network for face completion
CN110232653A (zh) 快速轻型超分辨率重建密集残差网络
CN116012344B (zh) 一种基于掩码自编码器CNN-Transformer的心脏磁共振图像配准方法
CN113283444B (zh) 一种基于生成对抗网络的异源图像迁移方法
CN112967178B (zh) 一种图像转换方法、装置、设备及存储介质
CN112614070B (zh) 一种基于DefogNet的单幅图像去雾方法
CN116664397B (zh) TransSR-Net结构化图像超分辨重建方法
CN116645569A (zh) 一种基于生成对抗网络的红外图像彩色化方法和系统
CN115641391A (zh) 一种基于密集残差和双流注意力的红外图像彩色化方法
CN113724354A (zh) 基于参考图颜色风格的灰度图像着色方法
CN117095128A (zh) 一种无先验多视角人体服饰编辑方法
Xu et al. Infrared and visible image fusion using a deep unsupervised framework with perceptual loss
CN113298744B (zh) 一种端到端的红外与可见光图像融合方法
CN114067018A (zh) 一种基于扩张残差生成对抗网络的红外图像彩色化方法
CN113723174A (zh) 基于生成对抗网络的人脸图像超分辨修复重建方法及系统
CN116523985B (zh) 一种结构和纹理特征引导的双编码器图像修复方法
CN116402949A (zh) 一种基于mdcm-gan的从素描到人脸重建方法
CN116188435B (zh) 一种基于模糊逻辑的医学图像深度分割方法
CN110675311A (zh) 一种素描序约束下的素描生成的方法、装置及存储介质
CN116137043A (zh) 一种基于卷积和Transformer的红外图像彩色化方法
Tu et al. Unpaired image-to-image translation with improved two-dimensional feature

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination