CN113269701A - 一种基于注意力引导和核选择机制的低照度图像增强方法 - Google Patents

一种基于注意力引导和核选择机制的低照度图像增强方法 Download PDF

Info

Publication number
CN113269701A
CN113269701A CN202110501022.6A CN202110501022A CN113269701A CN 113269701 A CN113269701 A CN 113269701A CN 202110501022 A CN202110501022 A CN 202110501022A CN 113269701 A CN113269701 A CN 113269701A
Authority
CN
China
Prior art keywords
image
low
layer
attention
processing structure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110501022.6A
Other languages
English (en)
Other versions
CN113269701B (zh
Inventor
刘晓凯
马维昊
毕胜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian Maritime University
Original Assignee
Dalian Maritime University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian Maritime University filed Critical Dalian Maritime University
Priority to CN202110501022.6A priority Critical patent/CN113269701B/zh
Publication of CN113269701A publication Critical patent/CN113269701A/zh
Application granted granted Critical
Publication of CN113269701B publication Critical patent/CN113269701B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

本发明提供一种基于注意力引导和核选择机制的低照度图像增强方法,包括:获取非配对的正常光图像和低光图像;对低光图片进行灰度提取,并将获得的灰度图像以作为注意力引导图;将所述低光图像与注意力引导图融合后输入训练后的生成对抗网络,并基于所述生成对抗网络生成增强图像。本发明整体框架采用深度学习生成对抗网络的思想,解决了低照度图像且细节不明显、对比度较低、颜色失真严重并且容易受到噪声干扰的问题。

Description

一种基于注意力引导和核选择机制的低照度图像增强方法
技术领域
本发明涉及图像增强领域技术领域,具体而言,尤其涉及一种基于注意力引导和核选择机制的低照度图像增强方法。
背景技术
低照度图像有诸多缺点,比如细节不明显、对比度较低、颜色失真严重并且容易受到噪声的干扰。现有低照度图像增强方式主要采用非监督的训练方式来进行低照度增强深度学习。这种方式会导致增强后的图片亮度不均匀的问题,部分区域视觉效果较好、部分区域视觉效果较差。
发明内容
根据上述提出现有技术中存在的处理效果不稳定的技术问题,而提供一种基于注意力引导和核选择机制的低照度图像增强方法。本发明主要利用利用图像的先验知识以及相关变换来引导图像进行增强,有效的增强不同区域。
本发明采用的技术手段如下:
一种基于注意力引导和核选择机制的低照度图像增强方法,包括:
获取非配对的正常光图像和低光图像;
对低光图片进行灰度提取,并将获得的灰度图像以作为注意力引导图;
将所述低光图像与注意力引导图融合后输入训练后的生成对抗网络,并基于所述生成对抗网络生成增强图像;
利用所述增强图像与正常光图像对所述生成对抗网络进行优化训练。
进一步地,所述训练后的生成对抗网络包括生成器网络和判别器网络;
所述生成器网络包括串联的十层处理结构,其中第一层处理结构包括两个核选择层和一个池化层,第二层处理结构包括两个卷积层和一个池化层,第三层处理结构包括两个卷积层和一个池化层,第四层处理结构包括两个卷积层和一个池化层,第五层处理结构包括两个卷积层,第六层处理结构包括一个上采样层和三个卷积层,第七层处理结构包括一个上采样层和三个卷积层,第八层处理结构包括一个上采样层和三个卷积层,第九层处理结构包括一个上采样层和三个卷积层,第十层处理结构包括一个卷积层;
所述判别器网络包括全局判别器网络和局部判别器网络,分别对所述生成器网络生成的增强图像进行全局判别和局部判别。
进一步地,将所述低光图像与注意力引导图融合后输入训练后的生成对抗网络,包括:将所述低光图像的RGB三通道数据与所述注意力引导图的一通道数据融合为四通道数据,并将所述四通道数据输入生成器网络的第一层处理结构。
进一步地,基于所述生成对抗网络生成增强图像,包括:
将所述第十层处理结构输出的图像与所述注意力引导图相乘在后,与所述低光图像相加构成增强图像。
进一步地,将所述四通道数据输入生成器网络的第一层处理结构之前,还包括:
求取注意力引导图的图像熵;
对求取后的图像熵作灰度反转,得到反转图像熵;
利用所述图像熵和反转图像熵分别作为引导核选择图像,对所述四通道数据进行引导。
进一步地,所述第六层处理结构、第七层处理结构、第八层处理结构以及第九层处理结构中,均通过注意力模块实现维度叠加。
较现有技术相比,本发明具有以下优点:
本发明整体框架采用深度学习生成对抗网络的思想,运用注意力引导图作为引导,将编码特征与解码特征相结合,不同区域自动选择最优的卷积核,平衡地解决其低照度图像的缺点,使其在大多数方面达到一个令人可以接受的质量要求,最终使图像达到一个好的视觉效果。基于上述理由本发明可在低照度图像增强技术等领域广泛推广。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做以简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于注意力引导和核选择机制的低照度图像增强方法流程图。
图2为本发明实施例中生成对抗网络架构图。
图3为本发明实施例中核选择层架构图。
图4为本发明实施例中注意力模块架构图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
如图1所示,本发明提供了一种基于注意力引导和核选择机制的低照度图像增强方法,包括:
S1、获取非配对的正常光图像和低光图像.
S2、对低光图片进行灰度提取,并将获得的灰度图像以作为注意力引导图。
S3、将低光图像与注意力引导图融合后输入训练后的生成对抗网络,并基于生成对抗网络生成增强图像。其中,生成对抗网络包括生成器网络和判别器网络。生成器网络包括串联的十层处理结构,其中第一层处理结构包括两个核选择层和一个池化层,第二层处理结构包括两个卷积层和一个池化层,第三层处理结构包括两个卷积层和一个池化层,第四层处理结构包括两个卷积层和一个池化层,第五层处理结构包括两个卷积层,第六层处理结构包括一个上采样层和三个卷积层,第七层处理结构包括一个上采样层和三个卷积层,第八层处理结构包括一个上采样层和三个卷积层,第九层处理结构包括一个上采样层和三个卷积层,第十层处理结构包括一个卷积层。优选地,第六层处理结构、第七层处理结构、第八层处理结构以及第九层处理结构中,均通过注意力模块实现维度叠加。所述判别器网络包括全局判别器网络和局部判别器网络,分别对所述生成器网络生成的增强图像进行全局判别和局部判别。
具体来说,将所述低光图像的RGB三通道数据与所述注意力引导图的一通道数据融合为四通道数据,并将所述四通道数据输入生成器网络的第一层处理结构。将所述第十层处理结构输出的图像与所述注意力引导图相乘在后,与所述低光图像相加构成增强图像。且将所述四通道数据输入生成器网络的第一层处理结构之前,还包括:求取注意力引导图的图像熵;对求取后的图像熵作灰度反转,得到反转图像熵;利用所述图像熵和反转图像熵分别作为引导核选择图像,对所述四通道数据进行引导。
优选地,本发明所述图像增强方法还包括S4、利用所述增强图像与正常光图像对所述生成对抗网络进行优化训练。
下面通过优选的应用实例,对本发明的方案做进一步说明。本实施例中对图像进行增强的步骤,主要包括:
1、获取非配对的正常光/低光的训练集图像,选取其中一部分低光图片作为之后的测试集图像。
2、对低光图片进行灰度提取,获得其灰度图像以作为注意力引导图,用于后续引导深度网络根据不同的图像亮度进行自动学习。优选地,低光图片为RGB彩色图像,按照RGB图转灰度图的经典公式Gray=R*0.299+G*0.587+B*0.114提取低光图片灰度图。
3、整体框架采用深度学习生成对抗网络的思想,主要分为生成器和判别器,生成器采用编码-译码的结构,通过卷积、池化以及上采样对低光图片完成特征提取,具体参见图2,,生成器网络中共包含卷积层、池化层、核选择层、注意力模块和上采样层。首先输入为低光图片图像RGB三通道,上述提取的灰度图像为大小相同的一通道,将两者组合成四通道作为生成器网络的输入。
第一层处理结构为两个核选择层和一个池化层,目的是使输入选择合适尺度的卷积核进行特征提取,对提取的灰度图像进行求取图像熵,求取后的图像熵作灰度反转,具体操作就是用255减去当前灰度值所产生的灰度图像,两张图像作为引导核选择图像。第一个核选择层四通道输入经过卷积窗口大小为3*3和5*5的卷积核,激活函数为LReLu函数,由四通道变为32通道,两个结果分别和上述核选择图像相乘,再进行相加融合。第二个核选择层和第一个核选择层大体相同,不同的是通道数未发生变化,由32通道变为32通道。然后经过池化层,使用最大池化,窗口大小为2*2。
进一步地,求取图像熵的步骤为:对每一张灰度图像,选择一个合适的尺度,这里经过实验结果选择7*7大小的尺度,对于灰度图像每一个点的周围7*7的图像,统计每个灰度级出现的概率Pi(x),计算图像熵的公式为
Figure BDA0003056266740000051
(在Pi(x不为零的情况下),其中n为灰度等级,这里选择32个灰度等级,也就是将256个灰度级分为32个灰度等级,每8个灰度级为一个灰度等级
第二层处理结构为两个卷积层和一个池化层,第一个卷积层的卷积窗口的大小为3*3,激活函数为LReLu函数,通道数由32变为64,第二个卷积层的卷积窗口的大小为3*3,激活函数为LReLu函数,通道数由64变为64,然后经过池化层,使用最大池化,窗口大小为2*2。
第三层处理结构为两个卷积层和一个池化层,第一个卷积层的卷积窗口的大小为3*3,激活函数为LReLu函数,通道数由64变为128,第二个卷积层的卷积窗口的大小为3*3,激活函数为LReLu函数,通道数由128变为128,然后经过池化层,使用最大池化,窗口大小为2*2。
第四层处理结构为两个卷积层和一个池化层,第一个卷积层的卷积窗口的大小为3*3,激活函数为LReLu函数,通道数由128变为256,第二个卷积层的卷积窗口的大小为3*3,激活函数为LReLu函数,通道数由256变为256,然后经过池化层,使用最大池化,窗口大小为2*2。
第五层处理结构为两个卷积层,第一个卷积层的卷积窗口的大小为3*3,激活函数为LReLu函数,通道数由256变为512,第二个卷积层的卷积窗口的大小为3*3,激活函数为LReLu函数,通道数由512变为512。
第六层处理结构为一个上采样层和三个卷积层,上采样层以两倍大小扩大特征图,第一个卷积层的卷积窗口的大小为3*3,通道数由512变为256。第四层的卷积层输出经过注意力模块与其进行维度叠加,通道数由256变为512。第二个卷积层的卷积窗口大小为3*3,通道数由512变为256。第三个卷积层的卷积窗口大小为3*3,通道数由256变为256。在本层中,注意力模块的工作步骤包括:输入特征经过两个3*3大小的卷积核,通过数由256变为256;相同尺寸的注意力引导图即灰度图像,同样经过两个3*3大小的卷积核,通道数由1变为512,再由512变为256。两者提取的特征相乘结果在和原输入特征相加得到结果。
第七层为一个上采样层和三个卷积层,上采样层以两倍大小扩大特征图,第一个卷积层的卷积窗口的大小为3*3,通道数由256变为128。第三层的卷积层输出经过注意力模块与其进行维度叠加,通道数由128变为256。第二个卷积层的卷积窗口大小为3*3,通道数由256变为128。第三个卷积层的卷积窗口大小为3*3,通道数由128变为128。在本层中,注意力模块的工作步骤:输入特征经过两个3*3大小的卷积核,通过数由128变为128;相同尺寸的注意力引导图即灰度图像,同样经过两个3*3大小的卷积核,通道数由1变为256,再由256变为128。两者提取的特征相乘结果在和原输入特征相加得到结果。
第八层为一个上采样层和三个卷积层,上采样层以两倍大小扩大特征图,第一个卷积层的卷积窗口的大小为3*3,通道数由128变为64。第二层的卷积层输出经过注意力模块与其进行维度叠加,通道数由64变为128。第二个卷积层的卷积窗口大小为3*3,通道数由128变为64。第三个卷积层的卷积窗口大小为3*3,通道数由64变为64。本层中,注意力模块的工作步骤:输入特征经过两个3*3大小的卷积核,通过数由64变为64;相同尺寸的注意力引导图即灰度图像,同样经过两个3*3大小的卷积核,通道数由1变为128,再由128变为64。两者提取的特征相乘结果在和原输入特征相加得到结果。
第九层为一个上采样层和三个卷积层,上采样层以两倍大小扩大特征图,第一个卷积层的卷积窗口的大小为3*3,通道数由64变为32。第二层的卷积层输出经过注意力模块与其进行维度叠加,通道数由32变为64。第二个卷积层的卷积窗口大小为3*3,通道数由64变为32。第三个卷积层的卷积窗口大小为3*3,通道数由32变为32。在本层中,注意力模块的工作步骤:输入特征经过两个3*3大小的卷积核,通过数由32变为32;相同尺寸的注意力引导图即灰度图像,同样经过两个3*3大小的卷积核,通道数由1变为64,再由64变为32。两者提取的特征相乘结果在和原输入特征相加得到结果。
第十层为一个卷积层,卷积窗口大小为3*3,通道数由32变为3,构成RGB三通道图像。输出图像与注意力引导图相乘在和原图相加构成最后的生成器网络的结果,进而生成假的正常光图片,假的正常光图片和收集的正常光图片放入判别器中下采样提取特征,用于判别二者的相似性,在迭代的学习过程中生成器生成的图片会达到愈来愈好的效果。其中,判别器优选分为全局判别器和局部判别器,两者结构相同输入不同。全局判别器输入为整张图像,局部判别器输入为局部图像。经过七个卷积层,第一个卷积层卷积核大小为4*4,步长为2,边缘填充为2,通道数由3变为64;第二个卷积层卷积核大小为4*4,步长为2,边缘填充为2,通道数由64变为128;第三个卷积层卷积核大小为4*4,步长为2,边缘填充为2,通道数由128变为256;第四个卷积层卷积核大小为4*4,步长为2,边缘填充为2,通道数由256变为512;第五个卷积层卷积核大小为4*4,步长为2,边缘填充为2,通道数由512变为512;第六个卷积层卷积核大小为4*4,步长为1,边缘填充为2,通道数由512变为512;第七个卷积层卷积核大小为4*4,步长为1,边缘填充为2,通道数由512变为1。
本发明在生成器中加入用注意力引导图所构成的注意力模块,运用注意力引导图作为引导,将编码特征与解码特征相结合;由于网络卷积核的大小会对给增强后的图片带来不同的增强效果,使用图像熵在卷积过程中引导网络进行核选择,从而使不同区域自动选择最优的卷积核。
使用训练好的网络模型对低光图片进行增强测试,测试生成的图片使用无参考图像质量评价进行定量分析,与其它方法做对比分析。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (6)

1.一种基于注意力引导和核选择机制的低照度图像增强方法,其特征在于,包括:
获取非配对的正常光图像和低光图像;
对低光图片进行灰度提取,并将获得的灰度图像以作为注意力引导图;
将所述低光图像与注意力引导图融合后输入训练后的生成对抗网络,并基于所述生成对抗网络生成增强图像;
利用所述增强图像与正常光图像对所述生成对抗网络进行优化训练。
2.根据权利要求1所述的基于注意力引导和核选择机制的低照度图像增强方法,其特征在于,所述训练后的生成对抗网络包括生成器网络和判别器网络;
所述生成器网络包括串联的十层处理结构,其中第一层处理结构包括两个核选择层和一个池化层,第二层处理结构包括两个卷积层和一个池化层,第三层处理结构包括两个卷积层和一个池化层,第四层处理结构包括两个卷积层和一个池化层,第五层处理结构包括两个卷积层,第六层处理结构包括一个上采样层和三个卷积层,第七层处理结构包括一个上采样层和三个卷积层,第八层处理结构包括一个上采样层和三个卷积层,第九层处理结构包括一个上采样层和三个卷积层,第十层处理结构包括一个卷积层;
所述判别器网络包括全局判别器网络和局部判别器网络,分别对所述生成器网络生成的增强图像进行全局判别和局部判别。
3.根据权利要求2所述的于注意力引导和核选择机制的低照度图像增强方法,其特征在于,将所述低光图像与注意力引导图融合后输入训练后的生成对抗网络,包括:将所述低光图像的RGB三通道数据与所述注意力引导图的一通道数据融合为四通道数据,并将所述四通道数据输入生成器网络的第一层处理结构。
4.根据权利要求2所述的于注意力引导和核选择机制的低照度图像增强方法,其特征在于,基于所述生成对抗网络生成增强图像,包括:
将所述第十层处理结构输出的图像与所述注意力引导图相乘在后,与所述低光图像相加构成增强图像。
5.根据权利要求4所述的于注意力引导和核选择机制的低照度图像增强方法,其特征在于,将所述四通道数据输入生成器网络的第一层处理结构之前,还包括:
求取注意力引导图的图像熵;
对求取后的图像熵作灰度反转,得到反转图像熵;
利用所述图像熵和反转图像熵分别作为引导核选择图像,对所述四通道数据进行引导。
6.根据权利要求2所述的于注意力引导和核选择机制的低照度图像增强方法,其特征在于,所述第六层处理结构、第七层处理结构、第八层处理结构以及第九层处理结构中,均通过注意力模块实现维度叠加。
CN202110501022.6A 2021-05-08 2021-05-08 一种基于注意力引导和核选择机制的低照度图像增强方法 Active CN113269701B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110501022.6A CN113269701B (zh) 2021-05-08 2021-05-08 一种基于注意力引导和核选择机制的低照度图像增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110501022.6A CN113269701B (zh) 2021-05-08 2021-05-08 一种基于注意力引导和核选择机制的低照度图像增强方法

Publications (2)

Publication Number Publication Date
CN113269701A true CN113269701A (zh) 2021-08-17
CN113269701B CN113269701B (zh) 2024-04-26

Family

ID=77230169

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110501022.6A Active CN113269701B (zh) 2021-05-08 2021-05-08 一种基于注意力引导和核选择机制的低照度图像增强方法

Country Status (1)

Country Link
CN (1) CN113269701B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113869181A (zh) * 2021-09-24 2021-12-31 电子科技大学 一种选择池化核结构的无人机目标检测方法

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007054931A2 (en) * 2005-11-10 2007-05-18 D-Blur Technologies Ltd. Image enhancement in the mosaic domain
CN107146207A (zh) * 2017-04-20 2017-09-08 重庆信络威科技有限公司 一种参数优化的低照度图像增强方法
CN108537754A (zh) * 2018-04-12 2018-09-14 哈尔滨工业大学 基于形变引导图的人脸图像复原系统
CN109636754A (zh) * 2018-12-11 2019-04-16 山西大学 基于生成对抗网络的极低照度图像增强方法
CN110210608A (zh) * 2019-06-05 2019-09-06 国家广播电视总局广播电视科学研究院 基于注意力机制和多层次特征融合的低照度图像增强方法
KR20190113119A (ko) * 2018-03-27 2019-10-08 삼성전자주식회사 합성곱 신경망을 위한 주의집중 값 계산 방법
CN110378845A (zh) * 2019-06-17 2019-10-25 杭州电子科技大学 一种基于卷积神经网络的极端条件下的图像修复方法
CN110675328A (zh) * 2019-08-02 2020-01-10 北京巨数数字技术开发有限公司 基于条件生成对抗网络的低照度图像增强方法及装置
CN111062378A (zh) * 2019-12-23 2020-04-24 重庆紫光华山智安科技有限公司 图像处理方法、模型训练方法、目标检测方法及相关装置
CN111612711A (zh) * 2019-05-31 2020-09-01 北京理工大学 一种基于生成对抗网络改进的图片去模糊方法
CN111741211A (zh) * 2019-03-25 2020-10-02 华为技术有限公司 图像显示方法和设备
CN112651917A (zh) * 2020-12-28 2021-04-13 北京信息科技大学 一种基于生成对抗网络的空间卫星低照度图像增强方法
CN112669242A (zh) * 2021-03-16 2021-04-16 四川大学 基于改进图像增强算法与生成对抗网络的夜景复原方法

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007054931A2 (en) * 2005-11-10 2007-05-18 D-Blur Technologies Ltd. Image enhancement in the mosaic domain
CN107146207A (zh) * 2017-04-20 2017-09-08 重庆信络威科技有限公司 一种参数优化的低照度图像增强方法
KR20190113119A (ko) * 2018-03-27 2019-10-08 삼성전자주식회사 합성곱 신경망을 위한 주의집중 값 계산 방법
CN108537754A (zh) * 2018-04-12 2018-09-14 哈尔滨工业大学 基于形变引导图的人脸图像复原系统
CN109636754A (zh) * 2018-12-11 2019-04-16 山西大学 基于生成对抗网络的极低照度图像增强方法
CN111741211A (zh) * 2019-03-25 2020-10-02 华为技术有限公司 图像显示方法和设备
CN111612711A (zh) * 2019-05-31 2020-09-01 北京理工大学 一种基于生成对抗网络改进的图片去模糊方法
CN110210608A (zh) * 2019-06-05 2019-09-06 国家广播电视总局广播电视科学研究院 基于注意力机制和多层次特征融合的低照度图像增强方法
CN110378845A (zh) * 2019-06-17 2019-10-25 杭州电子科技大学 一种基于卷积神经网络的极端条件下的图像修复方法
CN110675328A (zh) * 2019-08-02 2020-01-10 北京巨数数字技术开发有限公司 基于条件生成对抗网络的低照度图像增强方法及装置
CN111062378A (zh) * 2019-12-23 2020-04-24 重庆紫光华山智安科技有限公司 图像处理方法、模型训练方法、目标检测方法及相关装置
CN112651917A (zh) * 2020-12-28 2021-04-13 北京信息科技大学 一种基于生成对抗网络的空间卫星低照度图像增强方法
CN112669242A (zh) * 2021-03-16 2021-04-16 四川大学 基于改进图像增强算法与生成对抗网络的夜景复原方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113869181A (zh) * 2021-09-24 2021-12-31 电子科技大学 一种选择池化核结构的无人机目标检测方法
CN113869181B (zh) * 2021-09-24 2023-05-02 电子科技大学 一种选择池化核结构的无人机目标检测方法

Also Published As

Publication number Publication date
CN113269701B (zh) 2024-04-26

Similar Documents

Publication Publication Date Title
CN106683048B (zh) 一种图像超分辨率方法及设备
AU2011254040B2 (en) Method, apparatus and system for determining a saliency map for an input image
Panetta et al. Tmo-net: A parameter-free tone mapping operator using generative adversarial network, and performance benchmarking on large scale hdr dataset
CN109087375B (zh) 基于深度学习的图像空洞填充方法
CN110189260B (zh) 一种基于多尺度并行门控神经网络的图像降噪方法
CN109816612A (zh) 图像增强方法和装置、计算机可读存储介质
CN108921942B (zh) 对图像进行2d转制3d的方法及装置
CN112784929B (zh) 一种基于双元组扩充的小样本图像分类方法及装置
CN110689599A (zh) 基于非局部增强的生成对抗网络的3d视觉显著性预测方法
CN115661144A (zh) 基于可变形U-Net的自适应医学图像分割方法
CN115620010A (zh) 一种rgb-t双模态特征融合的语义分割方法
CN111583285A (zh) 一种基于边缘关注策略的肝脏影像语义分割方法
CN112488923A (zh) 图像超分辨率重建方法、装置、存储介质及电子设备
CN109919992A (zh) 估测图像中的深度的方法
CN111062432B (zh) 一种语义上多模态图像生成的方法
CN112927137A (zh) 一种用于获取盲超分辨率图像的方法、设备及存储介质
CN115713462A (zh) 超分辨模型训练方法、图像识别方法、装置及设备
CN113269701A (zh) 一种基于注意力引导和核选择机制的低照度图像增强方法
Gao et al. Fusion-UDCGAN: Multifocus image fusion via a U-type densely connected generation adversarial network
CN112785540B (zh) 一种扩散加权图像的生成系统及方法
CN111539434B (zh) 基于相似度的红外弱小目标检测方法
Lin et al. Generative adversarial image super‐resolution network for multiple degradations
CN115688234A (zh) 一种基于条件卷积的建筑布局生成方法、装置及介质
CN113744158A (zh) 图像生成方法、装置、电子设备和存储介质
CN114782249A (zh) 一种图像的超分辨率重建方法、装置、设备以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant