CN114596205B - 融合可见光和热成像图像的低照度图像增强方法 - Google Patents

融合可见光和热成像图像的低照度图像增强方法 Download PDF

Info

Publication number
CN114596205B
CN114596205B CN202210223981.0A CN202210223981A CN114596205B CN 114596205 B CN114596205 B CN 114596205B CN 202210223981 A CN202210223981 A CN 202210223981A CN 114596205 B CN114596205 B CN 114596205B
Authority
CN
China
Prior art keywords
image
visible light
convolution
thermal imaging
fusing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210223981.0A
Other languages
English (en)
Other versions
CN114596205A (zh
Inventor
陈卫刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Gongshang University
Original Assignee
Zhejiang Gongshang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Gongshang University filed Critical Zhejiang Gongshang University
Priority to CN202210223981.0A priority Critical patent/CN114596205B/zh
Publication of CN114596205A publication Critical patent/CN114596205A/zh
Application granted granted Critical
Publication of CN114596205B publication Critical patent/CN114596205B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种融合可见光和热成像图像的低照度图像增强方法,属于计算机视觉领域。本发明采用限制对比度的自适应直方图均衡化算法增强可见光图像的对比度,采用伽马变换扩展低灰度区域的对比度,以深度神经网络模型融合热成像图像、可见光图像和上述两种经对比度增强的图像,从而实现了对低照度图像的增强。由实验结果可知,本发明提供的方法通过引入经伽马变换和自适应直方图均衡化的增强图像能有效提升低照度区域的对比度,通过融合热成像图像使得车灯等高光区域能呈现部分细节。

Description

融合可见光和热成像图像的低照度图像增强方法
技术领域
本发明涉及计算机视觉领域,特别涉及一种融合可见光成像和热成像图像的低照度图像增强方法。
背景技术
视频监控系统可能面对夜晚、阴雨天、逆光等恶劣成像条件,单一地采用可见光成像往往无法从场景中提取足够的信息,从而降低后续的目标检测、识别和跟踪等系统的性能。红外热成像将物体发出的红外能量转化成可见的热图像,融合可见光图像和热成像图像为低光照场景目标检测和跟踪提供了解决方案,同时,也对图像融合技术提出了现实的需求。
中国专利201811207545.4公开了一种基于小波融合的快速移动物体热成像图像与光学图像融合方法;中国专利202110125517.3公开了一种融合可见光图像梯度信息的热成像超分辨率重建方法;中国专利202010135485.0公开了一种基于彩色相机与红外热成像仪特征融合的目标检测方法。
考虑到低光照成像的图像对比度较小,目标检测和跟踪等应用的感兴趣区域往往湮没在背景区域中,因此如何对低照度图像进行增强,是目前亟待解决的技术问题。
发明内容
本发明的目的在于解决现有技术存在的问题,提供一种融合可见光和热成像图像的低照度图像增强方法,
本发明具体采用的技术方案如下:
一种融合可见光和热成像图像的低照度图像增强方法,其包括如下步骤:
S1、获取由样本对组成的训练数据集,所述样本对中包含一张可见光成像图像Iv以及一张与图像Iv大小相同且配准的热成像图像Ir;针对每一组样本对,首先采用伽马值γ<1的伽马变换扩展图像Iv的对比度,形成增强图像Ig,然后以限制对比度自适应直方图均衡化算法对可见光成像图像Iv进行对比度增强处理,形成增强图像Ie,最后将(Iv,Ir,Ig,Ie)构建为一组输入数据;
S2、构建用于融合可见光和热成像图像的深度卷积神经网络,其包括级联的特征提取模块、融合模块和重建模块;将深度卷积神经网络的输入数据Iv、Ir、Ig和Ie分别作为输入图像输入到特征提取模块,各自产生的特征图一并输入到融合模块中并采用对应元素相加的形式产生融合后的特征图,融合后的特征图再输入到重建模块,由重建模块输出结果图像
S3、利用所述训练数据集对所述用于融合可见光和热成像图像的深度卷积神经网络进行训练,以最小化总损失函数为目标,通过学习的方式优化各个网络层中的权值参数;其中对于训练数据集中每一组输入数据(Iv,Ir,Ig,Ie),获得对应输出的结果图像随机选取Ig或Ie作为参考图像I',则总损失函数计算公式为:
L=λLssim+Lp
其中:Lssim为结构相似性损失函数,Lp为像素均方误差损失函数,λ为调节Lssim重要程度的系数;Lssim和Lp的计算公式分别为:
其中:I'为参考图像,SSIM()代表结构相似性指数函数,||·||2代表2-范数;
S4、将待处理的可见光成像图像以及对应的热成像图像,按照与所述训练数据集中的样本对相同的方式构建为一组输入数据,将其输入经过训练后的用于融合可见光和热成像图像的深度卷积神经网络中,输出经过低照度图像增强后的结果图像。
作为优选,所述S1中,伽马变换的变换公式如下:
g=vγ
其中v∈[0,1]代表图像Iv中任意像素的灰度值,g代表经伽马变换后的增强图像Ig中与v对应像素的灰度值。
作为优选,所述特征提取模块中,按数据前向传播时的流向,特征提取模块的输入图像首先经过一个包含16个3×3卷积核且卷积步长为1的卷积层;接在该卷积层之后的为依次连接的N个残差块;每个残差块具有相同的三层结构,依次为包含64个3×3卷积核且卷积步长为1的卷积层、PReLU层和包含16个3×3卷积核且卷积步长为1的卷积层,残差块的输入为x,经过残差块中最后一层卷积层的输出为f(x),则以f(x)+x作为残差块的最终输出。
进一步的,所述N为大于4小于8的整数。
作为优选,所述重建模块包含4个卷积层,融合后的特征图依次经过卷积层Conv1、卷积层Conv2、卷积层Conv3,最后由卷积层Conv4输出最终的增强图像;其中卷积层Conv1、卷积层Conv2、卷积层Conv3和卷积层Conv4分别包含64、32、16和C个3×3卷积核,其中C为输出的结果图像的通道数;重建模块中所有4个卷积层的卷积步长都为1,且每个卷积层之后接一个ReLU层。
进一步的,对于灰度图像C=1,对于彩色图像C=3。
作为优选,所述以限制对比度自适应直方图均衡化算法对可见光成像图像Iv进行对比度增强处理的方法为:
将输入的可见光成像图像Iv划分成一系列B×B的子块,其中B为预设的子块大小,统计每个子块的灰度直方图H;遍历每一个子块,若灰度直方图H中对应灰度级i的幅值Hi超过一个预设的阈值h,则将灰度级i作为待处理灰度级,将灰度直方图H中所有待处理灰度级的Hi和h的差值进行累加,且将上述差值的累加和均匀地分配到灰度直方图H中所有灰度级的幅值上,得到修正后的直方图,最后以修正后的直方图为输入对子块实施直方图均衡化算法;将所有子块实施上述直方图均衡化算法后的新子块重新拼接,形成增强图像Ie
相对于现有技术而言,本发明的有益效果如下:
本发明采用限制对比度的自适应直方图均衡化算法增强可见光图像的对比度,采用伽马变换扩展低灰度区域的对比度,以深度神经网络模型融合热成像图像、可见光图像和上述两种经对比度增强的图像,从而实现了对低照度图像的增强。由实验结果可知,本发明提供的方法通过引入经伽马变换和自适应直方图均衡化的增强图像能有效提升低照度区域的对比度,通过融合热成像图像使得车灯等高光区域能呈现部分细节。
附图说明
图1为本发明融合可见光和热成像图像的低照度图像增强方法示意图(图中标注:k-卷积核大小,n-卷积核数目,s-卷积步长,如k3n16s1表示16个3×3卷积核、卷积步长为1的卷积层);
图2为残差块网络结构示意图;
图3为本发明实施例增强结果示意图,每行从左到右依次为可见光成像图像、热成像图像和增强结果。
具体实施方式
下面结合附图和具体实施例对本发明做进一步阐述,以便本领域技术人员更好地理解本发明的实质。
如图1所示,本发明的一个较佳实施例中,提供了一种融合可见光和热成像图像的低照度图像增强方法,其具体实现步骤如下:
S1、获取由一系列样本对组成的训练数据集,其中每一组样本对中包含一张可见光成像图像Iv以及一张与图像Iv大小相同且配准的热成像图像Ir。针对训练数据集中的每一组样本对Iv和Ir,按照下述方法获取另外两幅对比度增强图像,进而形成一组输入数据:
首先,采用伽马值γ<1的伽马变换扩展图像Iv较低灰度区域的对比度,形成增强图像Ig。其中,伽马变换的变换公式如下:
g=vγ
其中v∈[0,1],代表图像Iv中任意像素的灰度值,g代表经伽马变换后的增强图像Ig中与v对应像素的灰度值。上述伽马值γ可根据实际需要进行调整优化,在本发明的一个实施例中取γ=0.75。图像Iv中的每个像素均按照上述变换公式变换后,即可形成增强图像Ig
然后,以限制对比度自适应直方图均衡化算法对可见光成像图像Iv进行对比度增强处理,形成增强图像Ie。具体地,本步骤中以限制对比度自适应直方图均衡化算法对可见光成像图像Iv进行对比度增强处理的方法如下:将输入的可见光成像图像Iv划分成一系列B×B尺寸的子块,其中B为预设的子块大小,本发明的一个实施例可取预设的子块大小B=120;统计每个子块的灰度直方图H;遍历每一个子块,若灰度直方图H中对应灰度级i的幅值Hi超过一个预设的阈值h,则将灰度级i作为待处理灰度级,将一个子块的灰度直方图H中所有待处理灰度级的Hi和h的差值进行累加,且将上述差值的累加和均匀地分配到灰度直方图H中所有灰度级的幅值上,得到修正后的直方图,最后以修正后的直方图为输入对子块实施直方图均衡化算法;将所有子块实施上述直方图均衡化算法后的新子块重新拼接,形成增强图像Ie
最后,将(Iv,Ir,Ig,Ie)构建为样本对所对应的一组输入数据。
将训练数据集中的每一组样本对均完成相应的输入数据构建后,即可形成用于进行后续网络训练的训练数据集。
S2、构建用于融合可见光和热成像图像的深度卷积神经网络,其包括级联的特征提取模块、融合模块和重建模块。如图1所示,在该用于融合可见光和热成像图像的深度卷积神经网络中,具体的数据处理流程如下:将深度卷积神经网络的输入数据Iv、Ir、Ig和Ie分别作为输入图像输入到特征提取模块,各自产生的特征图一并输入到融合模块中并采用对应元素相加的形式产生融合后的特征图,融合后的特征图再输入到重建模块,由重建模块输出结果图像
下面对上述特征提取模块、融合模块和重建模块的具体结构和实现形式进行详细描述。
继续参见图1所示,在特征提取模块中,按数据前向传播时的流向,特征提取模块的输入图像首先经过一个包含16个3×3卷积核且卷积步长为1的卷积层(k3n16s1)。接在上述卷积层之后的为依次连接的N个残差块,其中N可取大于4小于8的整数。如图2所示,每个残差块具有相同的三层结构,三层结构中包括了两个卷积层和一个PReLU层,按照数据流向依次为包含64个3×3卷积核且卷积步长为1的卷积层(k3n64s1)、PReLU层和包含16个3×3卷积核且卷积步长为1的卷积层(k3n16s1),残差块最终通过一个残差连接进行输出,即假设残差块的输入为x,经过残差块中最后一层卷积层的输出为f(x),则以f(x)+x作为残差块的最终输出。
融合模块可对从Iv、Ir、Ig和Ie四张图像分别经过特征提取模块提取的特征图进行特征融合,其融合方式为将四张特征图中对应位置的元素直接相加,从而形成一张融合后的特征图。
重建模块包含4个卷积层,融合后的特征图依次经过卷积层Conv1(k3n64s1)、卷积层Conv2(k3n32s1)、卷积层Conv3(k3n16s1),最后由卷积层Conv4(k3nCs1)输出最终的增强图像;其中卷积层Conv1、卷积层Conv2、卷积层Conv3和卷积层Conv4分别包含64、32、16和C个3×3卷积核,其中C为输出的结果图像的通道数,C的取值根据结果图像的类型来决定,对于灰度图像C=1,对于彩色图像C=3。重建模块中所有4个卷积层的卷积步长都为1,且每个卷积层之后接一个ReLU层。最后一层卷积层Conv4的输出即为整个深度卷积神经网络的输出图像。
S3、利用S1中得到的训练数据集对所述用于融合可见光和热成像图像的深度卷积神经网络进行训练,以最小化总损失函数为目标,通过学习的方式优化各个网络层中的权值参数。
其中,对于训练数据集中每一组输入数据(Iv,Ir,Ig,Ie),获得对应输出的结果图像记为随机选取Ig或Ie作为参考图像I',则该组输入数据所对应的总损失函数可按照如下方式计算:
首先,按下式计算结构相似性损失函数Lssim
其中I'为参考图像,可为Ig或Ie;SSIM()代表结构相似性指数函数;
然后,按下式计算像素均方误差损失函数Lp
其中||·||2代表2-范数;
最后,以最小化下式的总损失函数为目标寻求最优的网络参数:
L=λLssim+Lp (4)
其中λ为调节Lssim重要程度的系数,可根据实际进行优化调整。在本发明的一个实施例中取λ=100.0。
基于上述总损失函数,通过不断迭代对网络进行参数学习优化,参数的优化方式可采用梯度下降等现有方式来实现。不断迭代训练至网络收敛后,即可视为完成训练,得到训练后的用于融合可见光和热成像图像的深度卷积神经网络。
S4、将待处理的可见光成像图像以及对应的热成像图像,按照与S1中训练数据集中的样本对相同的方式构建为一组输入数据,将其输入经过训练后的用于融合可见光和热成像图像的深度卷积神经网络中,输出经过低照度图像增强后的结果图像。
需要说明的是,假如将待处理的可见光成像图像记为Iv*,与图像Iv*大小相同且配准的热成像图像记为Ir*,则根据Iv*和Ir*构建一组输入数据的方式与S1中是相同的,具体如下:
首先采用伽马值γ<1的伽马变换扩展图像Iv*的对比度,形成增强图像Ig*。其中,伽马变换的变换公式与S1中相同。然后与S1中相同的以限制对比度自适应直方图均衡化算法对可见光成像图像Iv*进行对比度增强处理,形成增强图像Ie*;最后将(Iv*,Ir*,Ig*,Ie*)构建为样本对所对应的一组输入数据。
如图3所示为本发明实施例提供的方法融合可见光和热成像图像的低照度图像增强结果的部分示例示意图,图中的每一行从左到右依次为一个示例中的原始的可见光图像、原始的热成像图像和增强后的结果图像。由图中可见,本发明提供的方法通过引入经伽马变换和自适应直方图均衡化的增强图像能有效提升低照度区域的对比度,通过融合热成像图像使得车灯等高光区域能呈现部分细节。
以上所述仅为本发明的较佳实施例,但本发明的保护范围并不局限于此,凡在本发明的精神和原则之内,所做的任何修改或替换等,都应涵盖在本发明的保护范围内。

Claims (7)

1.一种融合可见光和热成像图像的低照度图像增强方法,其特征在于,包括如下步骤:
S1、获取由样本对组成的训练数据集,所述样本对中包含一张可见光成像图像Iv以及一张与图像Iv大小相同且配准的热成像图像Ir;针对每一组样本对,首先采用伽马值γ<1的伽马变换扩展图像Iv的对比度,形成增强图像Ig,然后以限制对比度自适应直方图均衡化算法对可见光成像图像Iv进行对比度增强处理,形成增强图像Ie,最后将(Iv,Ir,Ig,Ie)构建为一组输入数据;
S2、构建用于融合可见光和热成像图像的深度卷积神经网络,其包括级联的特征提取模块、融合模块和重建模块;将深度卷积神经网络的输入数据Iv、Ir、Ig和Ie分别作为输入图像输入到特征提取模块,各自产生的特征图一并输入到融合模块中并采用对应元素相加的形式产生融合后的特征图,融合后的特征图再输入到重建模块,由重建模块输出结果图像
S3、利用所述训练数据集对所述用于融合可见光和热成像图像的深度卷积神经网络进行训练,以最小化总损失函数为目标,通过学习的方式优化各个网络层中的权值参数;其中对于训练数据集中每一组输入数据(Iv,Ir,Ig,Ie),获得对应输出的结果图像I,随机选取Ig或Ie作为参考图像I',则总损失函数计算公式为:
L=λLssim+Lp
其中:Lssim为结构相似性损失函数,Lp为像素均方误差损失函数,λ为调节Lssim重要程度的系数;Lssim和Lp的计算公式分别为:
其中:I'为参考图像,SSIM()代表结构相似性指数函数,||·||2代表2-范数;
S4、将待处理的可见光成像图像以及对应的热成像图像,按照与所述训练数据集中的样本对相同的方式构建为一组输入数据,将其输入经过训练后的用于融合可见光和热成像图像的深度卷积神经网络中,输出经过低照度图像增强后的结果图像。
2.根据权利要求1所述的融合可见光和热成像图像的低照度图像增强方法,其特征在于,所述S1中,伽马变换的变换公式如下:
g=vγ
其中v∈[0,1]代表图像Iv中任意像素的灰度值,g代表经伽马变换后的增强图像Ig中与v对应像素的灰度值。
3.根据权利要求1所述的融合可见光和热成像图像的低照度图像增强方法,其特征在于,所述特征提取模块中,按数据前向传播时的流向,特征提取模块的输入图像首先经过一个包含16个3×3卷积核且卷积步长为1的卷积层;接在该卷积层之后的为依次连接的N个残差块;每个残差块具有相同的三层结构,依次为包含64个3×3卷积核且卷积步长为1的卷积层、PReLU层和包含16个3×3卷积核且卷积步长为1的卷积层,残差块的输入为x,经过残差块中最后一层卷积层的输出为f(x),则以f(x)+x作为残差块的最终输出。
4.根据权利要求3所述的融合可见光和热成像图像的低照度图像增强方法,其特征在于,所述N为大于4小于8的整数。
5.根据权利要求1所述的融合可见光和热成像图像的低照度图像增强方法,其特征在于,所述重建模块包含4个卷积层,融合后的特征图依次经过卷积层Conv1、卷积层Conv2、卷积层Conv3,最后由卷积层Conv4输出最终的增强图像;其中卷积层Conv1、卷积层Conv2、卷积层Conv3和卷积层Conv4分别包含64、32、16和C个3×3卷积核,其中C为输出的结果图像的通道数;重建模块中所有4个卷积层的卷积步长都为1,且每个卷积层之后接一个ReLU层。
6.根据权利要求5所述的融合可见光和热成像图像的低照度图像增强方法,其特征在于,对于灰度图像C=1,对于彩色图像C=3。
7.根据权利要求1所述的融合可见光和热成像图像的低照度图像增强方法,其特征在于,所述以限制对比度自适应直方图均衡化算法对可见光成像图像Iv进行对比度增强处理的方法为:
将输入的可见光成像图像Iv划分成一系列B×B的子块,其中B为预设的子大小,统计每个子块的灰度直方图H;遍历每一个子块,若其灰度直方图H中对应灰度级i的幅值Hi超过一个预设的阈值h,则将灰度级i作为待处理灰度级,将灰度直方图H中所有待处理灰度级的Hi和h的差值进行累加,且将上述差值的累加和均匀地分配到灰度直方图H中所有灰度级的幅值上,得到修正后的直方图,最后以修正后的直方图为输入对子块实施直方图均衡化算法;将所有子块实施上述直方图均衡化算法后的新子块重新拼接,形成增强图像Ie
CN202210223981.0A 2022-03-09 2022-03-09 融合可见光和热成像图像的低照度图像增强方法 Active CN114596205B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210223981.0A CN114596205B (zh) 2022-03-09 2022-03-09 融合可见光和热成像图像的低照度图像增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210223981.0A CN114596205B (zh) 2022-03-09 2022-03-09 融合可见光和热成像图像的低照度图像增强方法

Publications (2)

Publication Number Publication Date
CN114596205A CN114596205A (zh) 2022-06-07
CN114596205B true CN114596205B (zh) 2024-04-26

Family

ID=81816151

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210223981.0A Active CN114596205B (zh) 2022-03-09 2022-03-09 融合可见光和热成像图像的低照度图像增强方法

Country Status (1)

Country Link
CN (1) CN114596205B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106952246A (zh) * 2017-03-14 2017-07-14 北京理工大学 基于视觉注意特性的可见光红外图像增强彩色融合方法
CN109544487A (zh) * 2018-09-30 2019-03-29 西安电子科技大学 一种基于卷积神经网络的红外图像增强方法
CN113298810A (zh) * 2021-06-28 2021-08-24 浙江工商大学 结合图像增强和深度卷积神经网络的道线检测方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020102988A1 (zh) * 2018-11-20 2020-05-28 西安电子科技大学 基于特征融合和稠密连接的红外面目标检测方法
US11238574B2 (en) * 2019-08-09 2022-02-01 The Boeing Company Low-latency augmented contrast limited adaptive histogram equalization

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106952246A (zh) * 2017-03-14 2017-07-14 北京理工大学 基于视觉注意特性的可见光红外图像增强彩色融合方法
CN109544487A (zh) * 2018-09-30 2019-03-29 西安电子科技大学 一种基于卷积神经网络的红外图像增强方法
CN113298810A (zh) * 2021-06-28 2021-08-24 浙江工商大学 结合图像增强和深度卷积神经网络的道线检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于卷积神经网络的低光照图像增强算法研究;王坤;《硕士电子期刊》;20210131;第1-68页 *
面向水下机器人的图像增强与识别技术研究;周亚斌;《硕士电子期刊》;20210430;第1-89页 *

Also Published As

Publication number Publication date
CN114596205A (zh) 2022-06-07

Similar Documents

Publication Publication Date Title
CN113065558B (zh) 一种结合注意力机制的轻量级小目标检测方法
CN111402145B (zh) 一种基于深度学习的自监督低照度图像增强方法
CN110210608B (zh) 基于注意力机制和多层次特征融合的低照度图像增强方法
CN111784619B (zh) 一种红外和可见光图像的融合方法
Hu et al. Underwater image restoration based on convolutional neural network
CN112308803B (zh) 一种基于深度学习的自监督低照度图像增强及去噪方法
CN109785252B (zh) 基于多尺度残差密集网络夜间图像增强方法
CN112767466B (zh) 一种基于多模态信息的光场深度估计方法
CN113378775B (zh) 一种基于深度学习的视频阴影检测与消除方法
CN110880163B (zh) 一种基于深度学习的弱光彩色成像方法
CN113065645A (zh) 孪生注意力网络、图像处理方法和装置
CN113393457B (zh) 一种结合残差密集块与位置注意力的无锚框目标检测方法
CN111696049A (zh) 基于深度学习的水下扭曲图像重建方法
CN115601723A (zh) 基于改进ResNet的夜间热红外图像语义分割增强方法
CN116469007A (zh) 森林火灾识别方法
CN114596233A (zh) 基于注意引导和多尺度特征融合的低照度图像增强方法
CN114067225A (zh) 一种无人机小目标检测方法、系统及可存储介质
CN112487874B (zh) 一种基于事件相机消除背景噪声的方法及系统
CN114596205B (zh) 融合可见光和热成像图像的低照度图像增强方法
CN113298744A (zh) 一种端到端的红外与可见光图像融合方法
KR102614908B1 (ko) 이미지 복원 방법 및 장치
CN115527159B (zh) 一种基于跨模态间尺度注意聚合特征的计数系统及方法
CN110189262B (zh) 基于神经网络以及直方图匹配的图像去雾方法
CN111179171A (zh) 基于残差模块和注意力机制的图像超分辨率重建方法
CN110675320A (zh) 一种空间参数变化及复杂场景下目标图像清晰化方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant