CN113436094B - 一种基于多视角注意力机制的灰度图像自动上色方法 - Google Patents

一种基于多视角注意力机制的灰度图像自动上色方法 Download PDF

Info

Publication number
CN113436094B
CN113436094B CN202110703101.5A CN202110703101A CN113436094B CN 113436094 B CN113436094 B CN 113436094B CN 202110703101 A CN202110703101 A CN 202110703101A CN 113436094 B CN113436094 B CN 113436094B
Authority
CN
China
Prior art keywords
image
feature map
convolution
size
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110703101.5A
Other languages
English (en)
Other versions
CN113436094A (zh
Inventor
蒋斌
戴家武
许方镪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan University
Original Assignee
Hunan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan University filed Critical Hunan University
Priority to CN202110703101.5A priority Critical patent/CN113436094B/zh
Publication of CN113436094A publication Critical patent/CN113436094A/zh
Application granted granted Critical
Publication of CN113436094B publication Critical patent/CN113436094B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种基于多视角注意力机制的灰度图像自动上色方法,属于灰度图像上色技术领域。通过步骤1,数据收集与处理,步骤2,模型构建,对特征图F进行全局平均池化,将特征图F进行通道池化,将输入特征图F不做任何变换成为Fout_3;有益效果在于,采用多视角注意力机制,多视角注意力模块能够让上色模型自适应地获取不同视角、不同尺度的注意力信息,更好地支持模型重建彩色图像。能够自适应地学习不同视角的特征信息,提高了编码‑解码结构的特征提取能力,强化了图像内语义信息和上下文信息的建模。通过将该模块嵌入编码‑解码结构,在保证上色结果图像质量的同时提高了颜色的饱和度和多样性。

Description

一种基于多视角注意力机制的灰度图像自动上色方法
技术领域
本发明涉及一种基于多视角注意力机制的灰度图像自动上色方法,属于灰度图像上色技术领域。
背景技术
灰度图像上色是当前图像处理领域的研究热点,该项技术广泛地应用于影视处理、广告制作以及艺术创作。通过图像上色技术能够修复老照片,给黑白电影赋予生动的色彩,同时可以为动漫、卡通人物进行辅助上色,降低艺术创作的复杂度。由此可见,灰度图像上色具有较大的使用价值和趣味性。传统的灰度图像上色方法往往需要人为参与,其中一种需要用户给定一张参考图像,上色模型从参考图像中迁移适合的颜色,而合适的参考图像往往难以获取,当参考图像和待上色的灰度图像目标、背景相差较大时难以得到生动的上色效果。第二种则需要用户人为地在灰度图像上进行颜色涂鸦,这要求用户需要一定的专业知识来选择合适的颜色,而且在上色过程中需要进行较大范围的颜色涂鸦来保证上色效果。近年来,由于深度学习技术兴起以及获取大规模图像数据集简易性,出现了一大批基于卷积神经网络(CNN)和生成对抗网络(GAN)的灰度图像自动上色方法。在目前的灰度图像自动上色模型中,以CNN为基础的编码器-解码器结构能够基于大规模数据集自动学习从灰度图像到彩色图像的映射,但往往得到的上色图像饱和度不够且多样性低,原因在于这种编码解码的方式只是逐像素学习映射关系,难以对图像中的语义和上下文信息有效建模。在以GAN为基础的生成式上色模型中,通过生成器和判别器的对抗训练来让生成器根据输入的灰度图像,近似地模拟真实彩色图像的分布,该种方法能够在一定程度上提高上色结果的多样性,但是生成的图像质量不佳,且GAN模型训练不稳定,难以收敛。
综上所述,当前的基于深度学习的灰度图像自动上色方法无法保证上色结果的多样性和图像质量,限制了该项技术的应用场景。为了保证灰度图像自动上色的结果生动,提高生成彩色图像的质量,需要针对现有的模型方法加以改进。
发明内容
本发明的目的在于提供一种基于多视角注意力机制的灰度图像自动上色方法,从而克服现有技术中的不足。
本发明的技术方案在于,包括以下步骤:
步骤1,数据收集与处理,采用开源的大规模图像数据集ImageNet,在获得数据集后对图像进行中心裁剪,得到分辨率为256*256的训练图像,随后对图像进行颜色空间变换,从RGB颜色空间变换到CIE Lab空间,对训练集中的每一张图像,以其L通道的数据作为灰度输入,ab通道作为颜色标签;
步骤2,模型构建,基于编码-解码架构设计全卷积的自动上色模型;采用多视角注意力机制,通过多视角注意力模块能够让上色模型自适应地获取不同视角、不同尺度的注意力信息,更好地支持模型重建彩色图像;
多视角注意力机制包括以下方法:多视角注意力模块接受一个尺寸为RH×W×C的特征图F作为输入,随后该特征图进入三个分支;
分支1:对特征图F进行全局平均池化,将其转换为F11,尺寸为R1×1×C;将特征图F11输入到两层连续的全连接层进行仿射变换,两层全连接层之间有一层ReLU激活函数,第二层全连接层后有一层Sigmoid,最终得到特征图Fout_1,其尺寸为R1×1×C,该过程用公式(1)、(2)进行规约;
F11=avgpool(F) (1)
Fout_1=σ(fl2(R(fl1(F11)))) (2)
其中avgpool代表全局平均池化,σ代表Sigmiod层,fl1和fl2分别代表两层全连接层,R代表激活函数ReLU层;
分支2:将特征图F进行通道池化,得到特征图F21,其尺寸为RH×W×2;采用最大池化,将F21按照2k倍下采样,k=1,2,3,..,n-1;得到不同尺度的特征图V1,V2,...,Vn-1,特征图Vk的尺寸为
Figure GDA0003596324390000021
随后对于每一个特征图Vk,经过一个3x3卷积和一层Sigmoid层之后进行k倍上采样,恢复特征图尺寸为RH×W×1,得到n-1个特征图输出A1,A2,...,An-1;最后将每张特征图分别乘上一个可学习参数λk得到第二个分支的特征图输出Fout_2,尺寸为RH×W×1
该分支数学规约如式(3)至(6)所示:
F21=localpool(F2) (3)
Vk=mp(F21) (4)
Ak=up(σ(conv(Vk))) (5)
Figure GDA0003596324390000022
其中localpool代表通道池化,mp代表空间上的最大池化,up代表上采样,conv代表3×3卷积,k表示特征图下采样的倍数,是一个1到n的整数,n表示最大的下采样倍数即任意符合图像分辨率下采样倍数的整数;
分支3:将输入特征图F不做任何变换成为Fout_3
最后将三个分支的输出通过“广播”机制进行维度复制,所述的“广播”机制是针对维度不匹配的运算张量对缺失的维度用已有的元素进行复制扩展,该操作的实现已被集成在深度学习框架中。
得到了三张尺寸均为RH×W×C的特征图,最后进行Hadmard乘积得到最终的输出Fout,尺寸为RH×W×C,并传入下一层。特征图聚合操作的数学规约如式(7)所示:
Figure GDA0003596324390000031
其中BroadCast表示张量的“广播”操作,即先对特征图进行维度拓展。
所述步骤2中,基于编码-解码架构设计全卷积的自动上色模型,采用了Huber-loss作为损失函数,其数学规约如式(8):
Figure GDA0003596324390000032
其中x和y分别表示训练数据对中的彩色原图以及模型重建后的彩色图像对应位置的像素值,δ是一个超参数,其值取1,即δ=1。
所述的步骤2中所述的编码-解码架构包括编码器、多视角注意力机制、解码器;
所述的编码器用于提取灰度图像特征,由多个卷积块组成,不同大小的卷积块之间进行了下采样操作,每次下采样率为2,特征图尺寸减半,但对特征通道加倍,该部分共有三个卷积块;
所述的多视角注意力机制总共包含四个卷积块,用于确保特征图尺寸不变的卷积,并且在每一个特征图尺寸不变的中间的卷积块后面加入多视角注意力模块;
所述的解码器用于彩色通道的重建,与编码器结构对称,不同尺寸的块之间做上采样操作,特征图尺寸加倍,特征通道减半,共三个解卷积块。
在所有的卷积块、解卷积块中,除了最后一个解卷积块,均由3×3卷积层、批量归一化层以及ReLU激活函数层构成;所述的最后一个解卷积块由一层3×3卷积层和一层Tanh激活函数层构成,输出通道数是2。
输入的L通道,L∈RH×W×1,输出生成的ab通道,ab∈RH×W×2;将生成的ab通道与原先的L通道结合后形成上色图像Lab∈RH×W×3
本发明对当前基于卷积神经网络的编码-解码架构的灰度图像自动上色模型加以改进,提出了一种多视角注意力机制模块,有益效果在于,该模块能够自适应地学习不同视角的特征信息,提高了编码-解码结构的特征提取能力,强化了图像内语义信息和上下文信息的建模。通过将该模块嵌入编码-解码结构,在保证上色结果图像质量的同时提高了颜色的饱和度和多样性。
附图说明
图1为本发明模型整体结构图。
图2为图1中的主干网络图。
图3为图1中的多视角注意力机制模块图。
具体实施方式
下面结合附图1至3对本发明的优选实施例作进一步说明,本发明包括以下步骤:
步骤1,数据收集与处理,采用开源的大规模图像数据集ImageNet,包括训练数据130万张、验证数据5万张、测试数据1万张。在获得数据集后对图像进行中心裁剪,得到分辨率为256*256的训练图像,随后对图像进行颜色空间变换,从RGB颜色空间变换到CIE Lab空间,对训练集中的每一张图像,以其L通道的数据作为灰度输入,ab通道作为颜色标签;
步骤2,模型构建,基于编码-解码架构设计全卷积的自动上色模型;采用多视角注意力机制,通过多视角注意力模块能够让上色模型自适应地获取不同视角、不同尺度的注意力信息,更好地支持模型重建彩色图像;
多视角注意力机制包括以下方法:多视角注意力模块接受一个尺寸为RH×W×C的特征图F作为输入,随后该特征图进入三个分支;
分支1:对特征图F进行全局平均池化,将其转换为F11,尺寸为R1×1×C;将特征图F11输入到两层连续的全连接层进行仿射变换,两层全连接层之间有一层ReLU激活函数,第二层全连接层后有一层Sigmoid,最终得到特征图Fout_1,其尺寸为R1×1×C,该过程用公式(1)、(2)进行规约;
F11=avgpool(F) (1)
Fout_1=σ(fl2(R(fl1(F11)))) (2)
其中avgpool代表全局平均池化,σ代表Sigmiod层,fl1和fl2分别代表两层全连接层,R代表激活函数ReLU层;
分支2:将特征图F进行通道池化,得到特征图F21,其尺寸为RH×W×2;采用最大池化,将F21按照2k倍下采样,k=1,2,3,..,n-1;得到不同尺度的特征图V1,V2,...,Vn-1,特征图Vk的尺寸为
Figure GDA0003596324390000051
随后对于每一个特征图Vk,经过一个3x3卷积和一层Sigmoid层之后进行k倍上采样,恢复特征图尺寸为RH×W×1,得到n-1个特征图输出A1,A2,...,An-1;最后将每张特征图分别乘上一个可学习参数λk得到第二个分支的特征图输出Fout_2,尺寸为RH×W×1
该分支数学规约如式(3)至(6)所示:
F21=localpool(F2) (3)
Vk=mp(F21) (4)
Ak=up(σ(conv(Vk))) (5)
Figure GDA0003596324390000052
其中localpool代表通道池化,mp代表空间上的最大池化,localpool和mp分别对应本发明中的“全局池化”和“局部池化”,up代表上采样,conv代表3×3卷积,k表示特征图下采样的倍数,是一个1到n的整数,n表示最大的下采样倍数,即任意符合图像分辨率下采样倍数的整数;在本实施例中n取4;
分支3:将输入特征图F不做任何变换成为Fout_3
最后将三个分支的输出通过“广播”机制进行维度复制,所述的“广播”机制是针对维度不匹配的运算张量对缺失的维度用已有的元素进行复制扩展,该操作的实现已被集成在深度学习框架中;
得到了三张尺寸均为RH×W×C的特征图,最后进行Hadmard乘积得到最终的输出Fout,尺寸为RH×W×C,并传入下一层。特征图聚合操作的数学规约如式(7)所示:
Figure GDA0003596324390000053
其中BroadCast表示张量的“广播”操作,即先对特征图进行维度拓展。
所述步骤2中,基于编码-解码架构设计全卷积的自动上色模型,采用了Huber-loss作为损失函数,其数学规约如式(8):
Figure GDA0003596324390000054
其中x和y分别表示训练数据对中的彩色原图以及模型重建后的彩色图像对应位置的像素值,δ是一个超参数,其值取1,即δ=1。
所述的步骤2中所述的编码-解码架构包括编码器、多视角注意力机制、解码器;
所述的编码器用于提取灰度图像特征,由多个卷积块组成,不同大小的卷积块之间进行了下采样操作,每次下采样率为2,特征图尺寸减半,但对特征通道加倍,该部分共有三个卷积块;
所述的多视角注意力机制总共包含四个卷积块,用于确保特征图尺寸不变的卷积,并且在每一个特征图尺寸不变的中间的卷积块后面加入多视角注意力模块;
所述的解码器用于彩色通道的重建,与编码器结构对称,不同尺寸的块之间做上采样操作,特征图尺寸加倍,特征通道减半,共三个解卷积块。
在所有的卷积块、解卷积块中,除了最后一个解卷积块,均由3×3卷积层、批量归一化层以及ReLU激活函数层构成;所述的最后一个解卷积块由一层3×3卷积层和一层Tanh激活函数层构成,输出通道数是2。
输入的L通道,L∈RH×W×1,输出生成的ab通道,ab∈RH×W×2;将生成的ab通道与原先的L通道结合后形成上色图像Lab∈RH×W×3

Claims (5)

1.一种基于多视角注意力机制的灰度图像自动上色方法,其特征在于包括以下步骤:
步骤1,数据收集与处理,采用开源的大规模图像数据集ImageNet,在获得数据集后对图像进行中心裁剪,得到分辨率为256*256的训练图像,随后对图像进行颜色空间变换,从RGB颜色空间变换到CIE Lab空间,对训练集中的每一张图像,以其L通道的数据作为灰度输入,ab通道作为颜色标签;
步骤2,模型构建,基于编码-解码架构设计全卷积的自动上色模型;采用多视角注意力机制,通过多视角注意力模块能够让上色模型自适应地获取不同视角、不同尺度的注意力信息,更好地支持模型重建彩色图像;
多视角注意力机制包括以下方法:多视角注意力模块接受一个尺寸为RH×W×C的特征图F作为输入,随后该特征图进入三个分支;
分支1:对特征图F进行全局平均池化,将其转换为F11,尺寸为R1×1×C;将特征图F11输入到两层连续的全连接层进行仿射变换,两层全连接层之间有一层ReLU激活函数,第二层全连接层后有一层Sigmoid,最终得到特征图Fout_1,其尺寸为R1×1×C,该过程用公式(1)、(2)进行规约;
F11=avgpool(F) (1)
Fout_1=σ(fl2(R(fl1(F11)))) (2)
其中avgpool代表全局平均池化,σ代表Sigmiod层,fl1和fl2分别代表两层全连接层,R代表激活函数ReLU层;
分支2:将特征图F进行通道池化,得到特征图F21,其尺寸为RH×W×2;采用最大池化,将F21按照2k倍下采样,k=1,2,3,..,n-1;得到不同尺度的特征图V1,V2,...,Vn-1,特征图Vk的尺寸为
Figure FDA0003596324380000011
随后对于每一个特征图Vk,经过一个3x3卷积和一层Sigmoid层之后进行k倍上采样,恢复特征图尺寸为RH×W×1,得到n-1个特征图输出A1,A2,...,An-1;最后将每张特征图分别乘上一个可学习参数λk得到第二个分支的特征图输出Fout_2,尺寸为RH×W×1
该分支数学规约如式(3)至(6)所示:
F21=localpool(F2) (3)
Vk=mp(F21) (4)
Ak=up(σ(conv(Vk))) (5)
Figure FDA0003596324380000012
其中localpool代表通道池化,mp代表空间上的最大池化,up代表上采样,conv代表3×3卷积,k表示特征图下采样的倍数,是一个1到n的整数,n表示最大的下采样倍数,即任意符合图像分辨率下采样倍数的整数;
分支3:将输入特征图F不做任何变换成为Fout_3
最后将三个分支的输出通过“广播”机制进行维度复制,得到了三张尺寸均为RH×W×C的特征图,最后进行Hadmard乘积得到最终的输出Fout,尺寸为RH×W×C,并传入下一层;特征图聚合操作的数学规约如式(7)所示:
Figure FDA0003596324380000021
其中BroadCast表示张量的“广播”操作,即先对特征图进行维度拓展。
2.根据权利要求1所述的一种基于多视角注意力机制的灰度图像自动上色方法,其特征在于,所述步骤2中,基于编码-解码架构设计全卷积的自动上色模型,采用了Huber-loss作为损失函数,其数学规约如式(8):
Figure FDA0003596324380000022
其中x和y分别表示训练数据对中的彩色原图以及模型重建后的彩色图像对应位置的像素值,δ是一个超参数,其值取1,即δ=1。
3.根据权利要求1所述的一种基于多视角注意力机制的灰度图像自动上色方法,其特征在于,步骤2中所述的编码-解码架构包括编码器、多视角注意力机制、解码器;
所述的编码器用于提取灰度图像特征,由多个卷积块组成,不同大小的卷积块之间进行了下采样操作,每次下采样率为2,特征图尺寸减半,但对特征通道加倍,该部分共有三个卷积块;
所述的多视角注意力机制总共包含四个卷积块,用于确保特征图尺寸不变的卷积,并且在每一个特征图尺寸不变的中间的卷积块后面加入多视角注意力模块;
所述的解码器用于彩色通道的重建,与编码器结构对称,不同尺寸的块之间做上采样操作,特征图尺寸加倍,特征通道减半,共三个解卷积块。
4.根据权利要求3所述的一种基于多视角注意力机制的灰度图像自动上色方法,其特征在于,在所有的卷积块、解卷积块中,除了最后一个解卷积块,均由3×3卷积层、批量归一化层以及ReLU激活函数层构成;所述的最后一个解卷积块由一层3×3卷积层和一层Tanh激活函数层构成,输出通道数是2。
5.根据权利要求1所述的一种基于多视角注意力机制的灰度图像自动上色方法,其特征在于,输入的L通道,L∈RH×W×1,输出生成的ab通道,ab∈RH×W×2;将生成的ab通道与原先的L通道结合后形成上色图像Lab∈RH×W×3
CN202110703101.5A 2021-06-24 2021-06-24 一种基于多视角注意力机制的灰度图像自动上色方法 Active CN113436094B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110703101.5A CN113436094B (zh) 2021-06-24 2021-06-24 一种基于多视角注意力机制的灰度图像自动上色方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110703101.5A CN113436094B (zh) 2021-06-24 2021-06-24 一种基于多视角注意力机制的灰度图像自动上色方法

Publications (2)

Publication Number Publication Date
CN113436094A CN113436094A (zh) 2021-09-24
CN113436094B true CN113436094B (zh) 2022-05-31

Family

ID=77753847

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110703101.5A Active CN113436094B (zh) 2021-06-24 2021-06-24 一种基于多视角注意力机制的灰度图像自动上色方法

Country Status (1)

Country Link
CN (1) CN113436094B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114972748B (zh) * 2022-04-28 2024-05-28 北京航空航天大学 一种可解释边缘注意力和灰度量化网络的红外语义分割方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108830912B (zh) * 2018-05-04 2021-04-16 北京航空航天大学 一种深度特征对抗式学习的交互式灰度图像着色方法
CN110717431B (zh) * 2019-09-27 2023-03-24 华侨大学 一种结合多视角注意力机制的细粒度视觉问答方法
CN111325751B (zh) * 2020-03-18 2022-05-27 重庆理工大学 基于注意力卷积神经网络的ct图像分割系统

Also Published As

Publication number Publication date
CN113436094A (zh) 2021-09-24

Similar Documents

Publication Publication Date Title
CN109903228B (zh) 一种基于卷积神经网络的图像超分辨率重建方法
CN106910161B (zh) 一种基于深度卷积神经网络的单幅图像超分辨率重建方法
CN109191382B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN108830912B (zh) 一种深度特征对抗式学习的交互式灰度图像着色方法
CN110163801B (zh) 一种图像超分辨和着色方法、系统及电子设备
CN109426858A (zh) 神经网络、训练方法、图像处理方法及图像处理装置
CN109584170B (zh) 基于卷积神经网络的水下图像复原方法
CN111784582B (zh) 一种基于dec_se的低照度图像超分辨率重建方法
CN112967178B (zh) 一种图像转换方法、装置、设备及存储介质
CN113837946B (zh) 一种基于递进蒸馏网络的轻量化图像超分辨率重建方法
CN107578455B (zh) 基于卷积神经网络的任意尺寸样本纹理合成方法
CN112435191A (zh) 一种基于多个神经网络结构融合的低照度图像增强方法
CN114998145B (zh) 一种基于多尺度和上下文学习网络的低照度图像增强方法
CN112991493B (zh) 基于vae-gan和混合密度网络的灰度图像着色方法
CN113034413B (zh) 一种基于多尺度融合残差编解码器的低照度图像增强方法
CN103413331B (zh) 一种支持编辑传播的高分辨率视频图像内容稀疏表达方法
CN111626968B (zh) 一种基于全局信息和局部信息的像素增强设计方法
CN116152120A (zh) 一种融合高低频特征信息的低光图像增强方法及装置
CN112767283A (zh) 一种基于多图像块划分的非均匀图像去雾方法
CN114742985A (zh) 一种高光谱特征提取方法、装置及存储介质
CN113992920A (zh) 一种基于深度展开网络的视频压缩感知重建方法
CN113436094B (zh) 一种基于多视角注意力机制的灰度图像自动上色方法
CN109102457B (zh) 一种基于卷积神经网络的智能化变色系统及方法
CN114881879A (zh) 一种基于亮度补偿残差网络的水下图像增强方法
CN114187174A (zh) 基于多尺度残差特征融合的图像超分辨率重建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant