CN115239607A - 一种红外和可见光图像自适应融合的方法及系统 - Google Patents

一种红外和可见光图像自适应融合的方法及系统 Download PDF

Info

Publication number
CN115239607A
CN115239607A CN202210717650.2A CN202210717650A CN115239607A CN 115239607 A CN115239607 A CN 115239607A CN 202210717650 A CN202210717650 A CN 202210717650A CN 115239607 A CN115239607 A CN 115239607A
Authority
CN
China
Prior art keywords
image
infrared
visible light
base layer
fusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210717650.2A
Other languages
English (en)
Inventor
张建明
雷纹馨
叶紫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changsha University of Science and Technology
Original Assignee
Changsha University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changsha University of Science and Technology filed Critical Changsha University of Science and Technology
Priority to CN202210717650.2A priority Critical patent/CN115239607A/zh
Publication of CN115239607A publication Critical patent/CN115239607A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)

Abstract

本发明公开一种红外和可见光图像自适应融合的方法及系统。包括:提出使用引导滤波将图像分解为一级基础层,二级基础层和细节层,得到原图像不同尺度的信息。对图像基础层融合进行改进,提出了使用自适应融合模块融合图像基础层,该模块根据红外和可见光图像的质量以及信息量大小来指导图像的融合,实现了有效的低频信息的保留。对图像细节层融合进行改进,提出了使用卷积神经网络融合细节层,在这个过程中,使用目标掩膜设定损失函数从而指导图像特征的提取和重建,实现图像高频信息的保留。采用红外和可见光图像融合数据集TNO训练网络,得到训练好的细节层融合模型;将测试集的图片输入到训练好的模型中,得到最终的融合图像。

Description

一种红外和可见光图像自适应融合的方法及系统
技术领域
本发明涉及计算机视觉技术领域,尤其是一种红外和可见光图像自适应融合的方法及系统。
背景技术
信息融合技术的发展使得多种传感器协同工作成为可能,红外与可见光传感器融合是其中的重要分支。随着红外图像在军事和医学等领域的快速发展,使得红外热图像与可见光图像融合技术受到了广泛的研究和重视。红外热图像与可见光图像的成像原理有所不同。红外热图像是利用红外传感器对目标向外辐射或反射的热能量进行探测成像,具有很强的穿透能力、可全天候工作、对隐蔽目标有良好的探测性等优点,使其在军事、工业和医学等方面有着广泛应用,但红外图像的对比度低、背景模糊、边缘细节表现能力差等缺点。而可见光图像利用的则是传感器探测目标对光的反射成像。因此,可见光图像的光谱信息丰富、空间辨别度高、场景细节纹理清晰、动态范围大,但其缺乏对隐蔽目标的探测性,尤其是在夜间或能见度较低的情况下,可见光图像的成像质量会受到严重影响。因此红外热图像与可见光图像融合技术在实际应用中受到了各领域研究机构的重视并得到快速地发展,在军事、航空航天、公安消防、水陆交通、医疗等部门具有广泛的应用前景。
一般而言,红外和可见光图像融合的方法主要是基于传统方法的图像融合以及基于深度学习的图像融合方法。基于传统的方法主要有基于多尺度分解方法,稀疏表征方法和基于显著图的图像融合方法。早期基于深度学习的融合方法是直接套用预训练的模型来融合红外和可见光图像,如H.Li提出使用VGGNet提取图像特征,随后又提出使用ResNet50提取图像特征的方法。这些模型不需要进行网络训练,因此网络提取到的特征没有针对红外与可见光图像的互补信息。随后,GAN模型也开始应用于图像融合的领域,如,FusionGAN,DDcGAN,GANMcC等,但是由于实际训练中的生成器和判别器的平衡不好把握,导致融合结果对比度不是很好,红外目标的显著性保留的不是很好。此外还有一些基于自动编码器的方法,如DenseFuse,NestFuse,这类方法在图像细节保留上表现不错,但是融合策略并不是最优的。
研究发现,多尺度变换这种特性可以使融合图像与人类的视觉特征一致。该方法融合的关键在于能否合理选择变换方法和融合规则,否则融合的图像容易存在块效应,对比度低,出现光晕等问题。典型的基于多尺度方法其中,主要包括基于金字塔变换,小波变换,非下采样轮廓波变换,曲线波变换和基于边缘保持滤波器的方法等,这些方法将源图像分解为具有不同分辨率的子带系数,然后再用特定的方法融合不同的层,这有利于提取图像多尺度特征。但是这些方法在融合红外和可见光图像时并没有考虑到图像本身的差异,往往采用求和规则,求平均规则等对红外和可见光图像作相同的处理,导致融合的图像丢失源图像细节信息,存在块效应和融合伪影等。
发明内容
针对上述现有技术的不足,本发明提供一种红外和可见光图像自适应融合的方法。其目的在于解决融合的图像出现信息丢失,存在块效应,出现融合伪影等问题,从而提升图像融合质量。
为了实现上述目的,本发明提供了一种红外和可见光图像自适应融合的方法,包括以下步骤:
S1、使用引导滤波分解红外和可见光图像,分别得到红外和可见光图像的一级基础层,二级基础层和细节层;
S2、使用自适应图像融合模块融合红外和可见光图像的一级基础层,得到融合的一级基础层;
S3、使用最大绝对值规则融合红外和可见光图像的二级基础层,得到融合的二级基础层;
S4、使用平均规则融合得到的一级基础层和二级基础层,得到融合的基础层;
S5、使用卷积神经网络提取红外和可见光图像细节层的特征并进行特征重建,得到融合的细节层;
S6、使用求和规则融合得到的基础层和细节层,得到最终的融合图像。
本发明提供了一种红外和可见光图像自适应融合的方法。与现有技术相比,具备以下有益效果:
本发明从两个角度提升图像融合方法的性能,第一,通过引导滤波对图像进行分解,引导滤波具有良好的保持边缘的特性,且不受梯度反转伪影的影响,通过滤波操作能够得到图像的不同尺度信息,使融合的图像与人类的视觉特征一致;第二,该方法根据不同类型图像本身的特征属性融合图像的基础层,图像自适应融合模块融合能够结合图像的质量差异和信息量差异生成不同的权重来指导图像融合。在融合过程中有利于保留源图像特征,减少不必要的冗余信息。第三,利用卷积神经网络融合图像细节层,在这个过程中,使用目标掩膜来设定损失函数指导图像特征的提取和重建。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是红外和可见光图像融合的整体结构图。
图2是用于基础层融合的自适应融合模块结构图。
图3是用于融合细节层的深度卷积神经网络结构图。
图4是细节层融合中用于指导损失函数设定的目标掩膜图。
图5是本发明提供的模型在“Kaptein”测试图像上融合效果与其它现有算法比较的主观评价图。
图6是本发明提供的模型在“FLIR_06916”测试图像上融合效果与其它现有算法比较的主观评价图。
图7是本发明提供的模型在TNO,RoadScence和VIFB测试集上与其它算法(LP,GTF,IFEVIP,MGFF,TIF,GANSDNet,STF,GANMcC)相比较的结果图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
下面结合说明书附图以及具体的实施方式对本发明作详细说明。如图1所示,一种红外和可见光图像自适应融合的方法包括步骤S1~S6:
S1、使用引导滤波分解红外和可见光图像,分别得到红外和可见光图像的一级基础层,二级基础层和细节层;
S2、使用自适应图像融合模块融合红外和可见光图像的一级基础层,得到融合的一级基础层;
S3、使用最大绝对值规则融合红外和可见光图像的二级基础层,得到融合的二级基础层;
S4、使用平均规则融合得到的一级基础层和二级基础层,得到融合的基础层;
S5、使用卷积神经网络方法融合红外和可见光图像的细节层,得到融合的细节层;
S6、使用求和规则融合得到的基础层和细节层,得到最终的融合图像。
下面对各个步骤进行详细描述。
在步骤S1中,如图1所示的一种红外和可见光图像自适应融合的方法整体结构图,首先对图像进行滤波分解。其步骤具体为:
S101、将输入的红外或可见光图像通过引导滤波操作得到图像一级基础层
Figure BDA0003709273720000051
t为图像类型,t为红外图像(IR)或者可见光图像(VI),GF是滤波操作,r为半径,r=32,s是正则化参数,s=0.01,公式如下:
Figure BDA0003709273720000052
S102、对得到的红外和可见光图像一级基础层进行再一次的滤波操作,得到二级基础层
Figure BDA0003709273720000053
公式如下:
Figure BDA0003709273720000054
S103、将输入图像和一级基础层进行做差而得到的细节层Dt,公式如下:
Figure BDA0003709273720000055
在步骤S2中,如图2中自适应融合模块图,使用该模块融合一级基础层。其步骤具体为:
S201、得到红外和可见光图像的一级基础层后,使用图像质量评估的深度神经网络(NR-IQA)来评估每幅图像的质量。使用客观度量熵测量每幅输入图像的平均信息量。其中K是与选择的度量单位相对应的一个正比常数,K=1。N是灰度级的数量,设置为255。pi是每一灰度级出现的概率。信息熵越大则图像包含的信息越多。熵的定义如下:
Figure BDA0003709273720000056
S202、使用λ作为控制输入图像NR-IQA和EN的权衡因子,得到红外和可见光图像各自的分数EIR和EVI,具体公式如下:
Et=IQAt+λENt t∈(IR,VI) (5)
S203、使用Y函数将EIR和EVI映射到(0,1)之间,并且保证WIR和WVI之和为1。为了增强权重的差异,使用c1,c2来缩放值,取c1=20,c2=50。具体公式定义如下:
Figure BDA0003709273720000061
Figure BDA0003709273720000062
S204、融合一级基础层。公式如下:
Figure BDA0003709273720000063
在步骤S3中,使用最大绝对值规则融合二级基础层,其中
Figure BDA0003709273720000064
为最终融合的二级基础层,(i,j)是位置坐标,最终融合的二级基础层取红外和可见光图像中灰度值更大的部分。其具体步骤为:
Figure BDA0003709273720000065
在步骤S4中,使用求和规则融合得到的一级基础层和二级基础层,得到融合的基础层BF。其公式为:
Figure BDA0003709273720000066
在步骤S5中,如图3所示的细节层融合网络结构图,将处理后得到的细节层图像输入到特征提取网络和特征融合网络中得到融合的细节层。在构造损失函数时,将图像分为显著部分和背景部分,引入目标掩膜M和背景掩膜1-M,掩膜图得到过程如图4所示。其步骤具体为:
S501、将细节层图像分为显著部分和背景部分,引入了目标掩膜M和背景掩膜1-M,使用LabelMe工具箱标注红外图像中的显著目标,然后将其转化为二进制目标掩膜,对其进行取反操作得到背景掩膜。如图4所示,红外图像的细节层和目标掩膜相乘得到红外显著目标部分,可见光图像的细节层和背景掩膜相乘得到可见光图像的背景细节部分。同理,将融合图像与目标掩膜和背景掩膜分别相乘可以得到融合图像的显著目标部分和背景部分。
S502、构造损失函数。使用像素损失Lint,梯度损失Lgra以及结构相似度损失Lssim来指导细节层的特征提取和重建,损失函数具体公式如下:
Figure BDA0003709273720000071
Figure BDA0003709273720000072
Figure BDA0003709273720000073
Figure BDA0003709273720000074
公式(11)中H,W是图像的高度和宽度,||·||1为一范数,第一项为红外目标区域像素损失,第二项为可见光背景区域像素损失,α为平衡因子,α=7。公式(12)中,▽是梯度计算符号,Sobel算子被用来计算梯度,第一项为目标区域梯度损失,第二项为背景区域梯度损失。β为平衡因子,β=7。公式(13)中SSIMA,B为图像A和B的结构相似度定义,
Figure BDA0003709273720000075
分别表示图像A和B的均值,
Figure BDA0003709273720000076
分别表示图像A和B的标准差,
Figure BDA0003709273720000077
表示图像A和B的协方差,C1,C2,C3为常数。
S503、将得到的像素损失Lint,梯度损失Lgra以及结构相似度损失Lssim求和得到总损失L,公式如下:
L=Lint+Lgra+Lssim (15)
S504、将细节层图像输入到特征提取网络中提取图像特征。
S505、提取得到的特征输入到特征融合网络中,得到融合的细节层
在步骤S6中,使用平均规则融合得到的基础层和细节层,得到最终的融合图像F。其步骤具体为:
S601、获得最终融合图像公式如下:
F=0.5×BF+0.5×DF (16)
本发明还提出了一种红外和可见光图像自适应融合的系统,包括:
使用引导滤波分解图像;
使用自适应融合规则融合得到的一级基础层;
使用深度卷积神经网络融合得到的二级基础层;
融合已经得到的融合的图像基础层和细节层,得到最终的融合图像。
本发明实施例在以往红外和可见光图像融合方法上将红外和可见光图像分解为一级基础层二级基础层和细节层。然后,使用不同的融合规则融合各层。针对低频信息丰富的基础层,使用图像自适应融合模块进行融合,纹理细节丰富的细节层则在损失函数的指导下利用深度卷积网络实现图像特征融合和重建。该方法提高了融合图像的质量,解决了图像融合中信息丢失,存在块效应,出现融合伪影等问题。为实际应用中的红外和可见光图像融合等工作提供更为高效的框架。
以上所述仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是在本发明的发明构思下,利用本发明说明书及附图内容所作的等效结构变换,或直接/间接运用在其他相关的技术领域均包括在本发明的专利保护范围内。

Claims (7)

1.一种红外和可见光图像自适应融合的方法及系统,其特征在于,所述方法由计算机执行,包括以下步骤:
S1、使用引导滤波分解红外和可见光图像,分别得到红外和可见光图像的一级基础层,二级基础层和细节层;
S2、使用自适应图像融合模块融合红外和可见光图像的一级基础层,得到融合的一级基础层;
S3、使用最大绝对值规则融合红外和可见光图像的二级基础层,得到融合的二级基础层;
S4、使用平均规则融合得到的一级基础层和二级基础层,得到融合的基础层;
S5、使用卷积神经网络提取红外和可见光图像细节层的特征并进行特征重建,得到融合的细节层;
S6、使用求和规则融合得到的基础层和细节层,得到最终的融合图像。
2.如权利要求1所述的一种红外和可见光图像自适应融合的方法及系统,其特征在于,S1的具体实现过程如下:
S101、将输入的红外或可见光图像通I过引导滤波操作得到图像一级基础层
Figure FDA0003709273710000011
t为图像类型,t为红外图像(IR)或者可见光图像(VI),GF是滤波操作,r为半径,r=32,ε是正则化参数,ε=0.01,公式如下:
Figure FDA0003709273710000012
S102、对得到的红外和可见光图像一级基础层进行再一次的滤波操作,得到二级基础层
Figure FDA0003709273710000021
公式如下:
Figure FDA0003709273710000022
S103、将输入图像和一级基础层进行做差而得到的细节层Dt,公式如下:
Figure FDA0003709273710000023
3.如权利要求1所述的一种红外和可见光图像自适应融合的方法及系统,其特征在于,S2的具体实现过程如下:
S201、得到红外和可见光图像的一级基础层后,使用图像质量评估的深度神经网络(NR-IQA)来评估每幅图像的质量。使用客观度量熵来测量每幅输入图像的平均信息量。其中N是灰度级的数量,设置为255。pi是每一灰度级出现的概率。信息熵越大则图像包含的信息越多。熵的定义如下:
Figure FDA0003709273710000024
S202、使用λ作为控制输入图像NR-IQA和EN的权衡因子,得到红外和可见光图像各自的分数EIR和EVI,具体公式如下:
Et=IQAt+λENt t∈(IR,VI) (5)
S203、使用Y函数将EIR和EVI映射到(0,1)之间,并且保证WIR和WVI之和为1。为了增强权重的差异,使用c1,c2对值进行缩放,取c1=20,c2=50。具体公式定义如下:
Figure FDA0003709273710000025
Figure FDA0003709273710000026
S204、融合一级基础层。公式如下:
Figure FDA0003709273710000031
4.如权利要求1所述的一种红外和可见光图像自适应融合的方法及系统,其特征在于,S3的具体实现过程如下:
S301、使用最大绝对值规则融合二级基础层,其中
Figure FDA0003709273710000032
为最终融合的二级基础层,(i,j)是位置坐标,||是取绝对值符号,最终融合的二级基础层取红外和可见光图像中灰度值更大的部分。公式如下:
Figure FDA0003709273710000033
5.如权利要求1所述的一种红外和可见光图像自适应融合的方法及系统,其特征在于,S4的具体实现如下:
S401、使用平均规则融合得到的一级基础层和二级基础层,得到融合的基础层BF。其公式为:
Figure FDA0003709273710000034
6.如权利要求1所述的一种红外和可见光图像自适应融合的方法及系统,其特征在于,S5的具体实现过程如下:
S501、将细节层图像分为显著部分和背景部分,引入了目标掩膜M和背景掩膜1-M,使用LabelMe工具箱标注红外图像中的显著目标,然后将其转化为二进制目标掩膜,对其进行取反操作得到背景掩膜。如图4所示,红外图像的细节层和目标掩膜相乘得到红外显著目标部分,可见光图像的细节层和背景掩膜相乘得到可见光图像的背景细节部分。同理,将融合图像与目标掩膜和背景掩膜分别相乘可以得到融合图像的显著目标部分和背景部分。
S502、构造损失函数。使用像素损失Lint,梯度损失Lgra以及结构相似度损失Lssim来指导细节层的特征提取和重建,损失函数具体公式如下:
Figure FDA0003709273710000041
Figure FDA0003709273710000042
Figure FDA0003709273710000043
Figure FDA0003709273710000044
公式(11)中H,W是图像的高度和宽度,||·||1为一范数,第一项为红外目标区域像素损失,第二项为可见光背景区域像素损失,α为平衡因子,α=7。公式(12)中,▽是梯度计算符号,Sobel算子被用来计算梯度,第一项为目标区域梯度损失,第二项为背景区域梯度损失。β为平衡因子,β=7。公式(13)中SSIMA,B为图像A和B的结构相似度定义,
Figure FDA0003709273710000045
分别表示图像A和B的均值,
Figure FDA0003709273710000046
分别表示图像A和B的标准差,
Figure FDA0003709273710000047
表示图像A和B的协方差,C1,C2,C3为常数。
S503、将得到的像素损失Lint,梯度损失Lgra以及结构相似度损失Lssim求和得到总损失L,公式如下:
L=Lint+Lgra+Lssim (15)
S504、将细节层图像输入到特征提取网络中提取图像特征。
S505、提取得到的特征输入到特征融合网络中,得到融合的细节层。
7.如权利要求1所述的一种红外和可见光图像自适应融合的方法及系统,其特征在于,S6的具体实现过程如下:
S601、使用平均规则融合得到的基础层BF和细节层DF,得到最终的融合图像F。公式如下:
F=BF+DF (16) 。
CN202210717650.2A 2022-06-23 2022-06-23 一种红外和可见光图像自适应融合的方法及系统 Pending CN115239607A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210717650.2A CN115239607A (zh) 2022-06-23 2022-06-23 一种红外和可见光图像自适应融合的方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210717650.2A CN115239607A (zh) 2022-06-23 2022-06-23 一种红外和可见光图像自适应融合的方法及系统

Publications (1)

Publication Number Publication Date
CN115239607A true CN115239607A (zh) 2022-10-25

Family

ID=83669769

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210717650.2A Pending CN115239607A (zh) 2022-06-23 2022-06-23 一种红外和可见光图像自适应融合的方法及系统

Country Status (1)

Country Link
CN (1) CN115239607A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116092018A (zh) * 2023-04-10 2023-05-09 同方德诚(山东)科技股份公司 一种基于智慧建筑的消防隐患监测方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116092018A (zh) * 2023-04-10 2023-05-09 同方德诚(山东)科技股份公司 一种基于智慧建筑的消防隐患监测方法及系统
CN116092018B (zh) * 2023-04-10 2023-08-25 同方德诚(山东)科技股份公司 一种基于智慧建筑的消防隐患监测方法及系统

Similar Documents

Publication Publication Date Title
Han et al. Underwater image processing and object detection based on deep CNN method
Li et al. Image dehazing using residual-based deep CNN
CN108648161B (zh) 非对称核卷积神经网络的双目视觉障碍物检测系统及方法
CN114202696A (zh) 基于上下文视觉的sar目标检测方法、装置和存储介质
CN103914813B (zh) 彩色雾霾图像去雾与光照补偿的复原方法
CN104899866B (zh) 一种智能化的红外小目标检测方法
CN107169475A (zh) 一种基于kinect相机的人脸三维点云优化处理方法
CN110163818A (zh) 一种用于海事无人机的低照度视频图像增强方法
CN106897986B (zh) 一种基于多尺度分析的可见光图像与远红外图像融合方法
KR20220050977A (ko) 의료 이미지 처리 방법, 이미지 처리 방법 및 장치
Zong et al. Local-CycleGAN: a general end-to-end network for visual enhancement in complex deep-water environment
CN114782298B (zh) 一种具有区域注意力的红外与可见光图像融合方法
CN113592018B (zh) 基于残差密集网络和梯度损失的红外光与可见光图像融合方法
CN117237740B (zh) 一种基于CNN和Transformer的SAR图像分类方法
CN114387195A (zh) 一种基于非全局预增强的红外图像与可见光图像融合方法
CN111815550A (zh) 一种基于灰度共生矩阵的红外与可见光图像融合方法
CN116883588A (zh) 一种大场景下的三维点云快速稠密重建方法及系统
Trongtirakul et al. Unsupervised and optimized thermal image quality enhancement and visual surveillance applications
CN110046595B (zh) 一种基于级联式多尺度的密集人脸检测方法
CN115239607A (zh) 一种红外和可见光图像自适应融合的方法及系统
Kim et al. Cross fusion-based low dynamic and saturated image enhancement for infrared search and tracking systems
Xing et al. Multi-level adaptive perception guidance based infrared and visible image fusion
CN113935917A (zh) 一种基于云图运算和多尺度生成对抗网络的光学遥感影像薄云去除方法
CN116883303A (zh) 基于特征差分补偿与融合的红外与可见光图像融合方法
CN110852335B (zh) 一种基于多颜色特征融合与深度网络的目标跟踪系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination