CN115239607A - 一种红外和可见光图像自适应融合的方法及系统 - Google Patents
一种红外和可见光图像自适应融合的方法及系统 Download PDFInfo
- Publication number
- CN115239607A CN115239607A CN202210717650.2A CN202210717650A CN115239607A CN 115239607 A CN115239607 A CN 115239607A CN 202210717650 A CN202210717650 A CN 202210717650A CN 115239607 A CN115239607 A CN 115239607A
- Authority
- CN
- China
- Prior art keywords
- image
- infrared
- visible light
- base layer
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 63
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000001914 filtration Methods 0.000 claims abstract description 14
- 230000008569 process Effects 0.000 claims abstract description 8
- 238000000605 extraction Methods 0.000 claims abstract description 7
- 238000013528 artificial neural network Methods 0.000 claims abstract description 3
- 230000003044 adaptive effect Effects 0.000 claims description 10
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000002372 labelling Methods 0.000 claims description 2
- 238000013441 quality evaluation Methods 0.000 claims description 2
- 238000012360 testing method Methods 0.000 abstract description 4
- 238000012549 training Methods 0.000 abstract description 3
- 230000014759 maintenance of location Effects 0.000 abstract 1
- 238000007500 overflow downdraw method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 241000282414 Homo sapiens Species 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 125000001475 halogen functional group Chemical group 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
Abstract
本发明公开一种红外和可见光图像自适应融合的方法及系统。包括:提出使用引导滤波将图像分解为一级基础层,二级基础层和细节层,得到原图像不同尺度的信息。对图像基础层融合进行改进,提出了使用自适应融合模块融合图像基础层,该模块根据红外和可见光图像的质量以及信息量大小来指导图像的融合,实现了有效的低频信息的保留。对图像细节层融合进行改进,提出了使用卷积神经网络融合细节层,在这个过程中,使用目标掩膜设定损失函数从而指导图像特征的提取和重建,实现图像高频信息的保留。采用红外和可见光图像融合数据集TNO训练网络,得到训练好的细节层融合模型;将测试集的图片输入到训练好的模型中,得到最终的融合图像。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其是一种红外和可见光图像自适应融合的方法及系统。
背景技术
信息融合技术的发展使得多种传感器协同工作成为可能,红外与可见光传感器融合是其中的重要分支。随着红外图像在军事和医学等领域的快速发展,使得红外热图像与可见光图像融合技术受到了广泛的研究和重视。红外热图像与可见光图像的成像原理有所不同。红外热图像是利用红外传感器对目标向外辐射或反射的热能量进行探测成像,具有很强的穿透能力、可全天候工作、对隐蔽目标有良好的探测性等优点,使其在军事、工业和医学等方面有着广泛应用,但红外图像的对比度低、背景模糊、边缘细节表现能力差等缺点。而可见光图像利用的则是传感器探测目标对光的反射成像。因此,可见光图像的光谱信息丰富、空间辨别度高、场景细节纹理清晰、动态范围大,但其缺乏对隐蔽目标的探测性,尤其是在夜间或能见度较低的情况下,可见光图像的成像质量会受到严重影响。因此红外热图像与可见光图像融合技术在实际应用中受到了各领域研究机构的重视并得到快速地发展,在军事、航空航天、公安消防、水陆交通、医疗等部门具有广泛的应用前景。
一般而言,红外和可见光图像融合的方法主要是基于传统方法的图像融合以及基于深度学习的图像融合方法。基于传统的方法主要有基于多尺度分解方法,稀疏表征方法和基于显著图的图像融合方法。早期基于深度学习的融合方法是直接套用预训练的模型来融合红外和可见光图像,如H.Li提出使用VGGNet提取图像特征,随后又提出使用ResNet50提取图像特征的方法。这些模型不需要进行网络训练,因此网络提取到的特征没有针对红外与可见光图像的互补信息。随后,GAN模型也开始应用于图像融合的领域,如,FusionGAN,DDcGAN,GANMcC等,但是由于实际训练中的生成器和判别器的平衡不好把握,导致融合结果对比度不是很好,红外目标的显著性保留的不是很好。此外还有一些基于自动编码器的方法,如DenseFuse,NestFuse,这类方法在图像细节保留上表现不错,但是融合策略并不是最优的。
研究发现,多尺度变换这种特性可以使融合图像与人类的视觉特征一致。该方法融合的关键在于能否合理选择变换方法和融合规则,否则融合的图像容易存在块效应,对比度低,出现光晕等问题。典型的基于多尺度方法其中,主要包括基于金字塔变换,小波变换,非下采样轮廓波变换,曲线波变换和基于边缘保持滤波器的方法等,这些方法将源图像分解为具有不同分辨率的子带系数,然后再用特定的方法融合不同的层,这有利于提取图像多尺度特征。但是这些方法在融合红外和可见光图像时并没有考虑到图像本身的差异,往往采用求和规则,求平均规则等对红外和可见光图像作相同的处理,导致融合的图像丢失源图像细节信息,存在块效应和融合伪影等。
发明内容
针对上述现有技术的不足,本发明提供一种红外和可见光图像自适应融合的方法。其目的在于解决融合的图像出现信息丢失,存在块效应,出现融合伪影等问题,从而提升图像融合质量。
为了实现上述目的,本发明提供了一种红外和可见光图像自适应融合的方法,包括以下步骤:
S1、使用引导滤波分解红外和可见光图像,分别得到红外和可见光图像的一级基础层,二级基础层和细节层;
S2、使用自适应图像融合模块融合红外和可见光图像的一级基础层,得到融合的一级基础层;
S3、使用最大绝对值规则融合红外和可见光图像的二级基础层,得到融合的二级基础层;
S4、使用平均规则融合得到的一级基础层和二级基础层,得到融合的基础层;
S5、使用卷积神经网络提取红外和可见光图像细节层的特征并进行特征重建,得到融合的细节层;
S6、使用求和规则融合得到的基础层和细节层,得到最终的融合图像。
本发明提供了一种红外和可见光图像自适应融合的方法。与现有技术相比,具备以下有益效果:
本发明从两个角度提升图像融合方法的性能,第一,通过引导滤波对图像进行分解,引导滤波具有良好的保持边缘的特性,且不受梯度反转伪影的影响,通过滤波操作能够得到图像的不同尺度信息,使融合的图像与人类的视觉特征一致;第二,该方法根据不同类型图像本身的特征属性融合图像的基础层,图像自适应融合模块融合能够结合图像的质量差异和信息量差异生成不同的权重来指导图像融合。在融合过程中有利于保留源图像特征,减少不必要的冗余信息。第三,利用卷积神经网络融合图像细节层,在这个过程中,使用目标掩膜来设定损失函数指导图像特征的提取和重建。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是红外和可见光图像融合的整体结构图。
图2是用于基础层融合的自适应融合模块结构图。
图3是用于融合细节层的深度卷积神经网络结构图。
图4是细节层融合中用于指导损失函数设定的目标掩膜图。
图5是本发明提供的模型在“Kaptein”测试图像上融合效果与其它现有算法比较的主观评价图。
图6是本发明提供的模型在“FLIR_06916”测试图像上融合效果与其它现有算法比较的主观评价图。
图7是本发明提供的模型在TNO,RoadScence和VIFB测试集上与其它算法(LP,GTF,IFEVIP,MGFF,TIF,GANSDNet,STF,GANMcC)相比较的结果图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
下面结合说明书附图以及具体的实施方式对本发明作详细说明。如图1所示,一种红外和可见光图像自适应融合的方法包括步骤S1~S6:
S1、使用引导滤波分解红外和可见光图像,分别得到红外和可见光图像的一级基础层,二级基础层和细节层;
S2、使用自适应图像融合模块融合红外和可见光图像的一级基础层,得到融合的一级基础层;
S3、使用最大绝对值规则融合红外和可见光图像的二级基础层,得到融合的二级基础层;
S4、使用平均规则融合得到的一级基础层和二级基础层,得到融合的基础层;
S5、使用卷积神经网络方法融合红外和可见光图像的细节层,得到融合的细节层;
S6、使用求和规则融合得到的基础层和细节层,得到最终的融合图像。
下面对各个步骤进行详细描述。
在步骤S1中,如图1所示的一种红外和可见光图像自适应融合的方法整体结构图,首先对图像进行滤波分解。其步骤具体为:
S101、将输入的红外或可见光图像通过引导滤波操作得到图像一级基础层t为图像类型,t为红外图像(IR)或者可见光图像(VI),GF是滤波操作,r为半径,r=32,s是正则化参数,s=0.01,公式如下:
S103、将输入图像和一级基础层进行做差而得到的细节层Dt,公式如下:
在步骤S2中,如图2中自适应融合模块图,使用该模块融合一级基础层。其步骤具体为:
S201、得到红外和可见光图像的一级基础层后,使用图像质量评估的深度神经网络(NR-IQA)来评估每幅图像的质量。使用客观度量熵测量每幅输入图像的平均信息量。其中K是与选择的度量单位相对应的一个正比常数,K=1。N是灰度级的数量,设置为255。pi是每一灰度级出现的概率。信息熵越大则图像包含的信息越多。熵的定义如下:
S202、使用λ作为控制输入图像NR-IQA和EN的权衡因子,得到红外和可见光图像各自的分数EIR和EVI,具体公式如下:
Et=IQAt+λENt t∈(IR,VI) (5)
S203、使用Y函数将EIR和EVI映射到(0,1)之间,并且保证WIR和WVI之和为1。为了增强权重的差异,使用c1,c2来缩放值,取c1=20,c2=50。具体公式定义如下:
S204、融合一级基础层。公式如下:
在步骤S4中,使用求和规则融合得到的一级基础层和二级基础层,得到融合的基础层BF。其公式为:
在步骤S5中,如图3所示的细节层融合网络结构图,将处理后得到的细节层图像输入到特征提取网络和特征融合网络中得到融合的细节层。在构造损失函数时,将图像分为显著部分和背景部分,引入目标掩膜M和背景掩膜1-M,掩膜图得到过程如图4所示。其步骤具体为:
S501、将细节层图像分为显著部分和背景部分,引入了目标掩膜M和背景掩膜1-M,使用LabelMe工具箱标注红外图像中的显著目标,然后将其转化为二进制目标掩膜,对其进行取反操作得到背景掩膜。如图4所示,红外图像的细节层和目标掩膜相乘得到红外显著目标部分,可见光图像的细节层和背景掩膜相乘得到可见光图像的背景细节部分。同理,将融合图像与目标掩膜和背景掩膜分别相乘可以得到融合图像的显著目标部分和背景部分。
S502、构造损失函数。使用像素损失Lint,梯度损失Lgra以及结构相似度损失Lssim来指导细节层的特征提取和重建,损失函数具体公式如下:
公式(11)中H,W是图像的高度和宽度,||·||1为一范数,第一项为红外目标区域像素损失,第二项为可见光背景区域像素损失,α为平衡因子,α=7。公式(12)中,▽是梯度计算符号,Sobel算子被用来计算梯度,第一项为目标区域梯度损失,第二项为背景区域梯度损失。β为平衡因子,β=7。公式(13)中SSIMA,B为图像A和B的结构相似度定义,分别表示图像A和B的均值,分别表示图像A和B的标准差,表示图像A和B的协方差,C1,C2,C3为常数。
S503、将得到的像素损失Lint,梯度损失Lgra以及结构相似度损失Lssim求和得到总损失L,公式如下:
L=Lint+Lgra+Lssim (15)
S504、将细节层图像输入到特征提取网络中提取图像特征。
S505、提取得到的特征输入到特征融合网络中,得到融合的细节层
在步骤S6中,使用平均规则融合得到的基础层和细节层,得到最终的融合图像F。其步骤具体为:
S601、获得最终融合图像公式如下:
F=0.5×BF+0.5×DF (16)
本发明还提出了一种红外和可见光图像自适应融合的系统,包括:
使用引导滤波分解图像;
使用自适应融合规则融合得到的一级基础层;
使用深度卷积神经网络融合得到的二级基础层;
融合已经得到的融合的图像基础层和细节层,得到最终的融合图像。
本发明实施例在以往红外和可见光图像融合方法上将红外和可见光图像分解为一级基础层二级基础层和细节层。然后,使用不同的融合规则融合各层。针对低频信息丰富的基础层,使用图像自适应融合模块进行融合,纹理细节丰富的细节层则在损失函数的指导下利用深度卷积网络实现图像特征融合和重建。该方法提高了融合图像的质量,解决了图像融合中信息丢失,存在块效应,出现融合伪影等问题。为实际应用中的红外和可见光图像融合等工作提供更为高效的框架。
以上所述仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是在本发明的发明构思下,利用本发明说明书及附图内容所作的等效结构变换,或直接/间接运用在其他相关的技术领域均包括在本发明的专利保护范围内。
Claims (7)
1.一种红外和可见光图像自适应融合的方法及系统,其特征在于,所述方法由计算机执行,包括以下步骤:
S1、使用引导滤波分解红外和可见光图像,分别得到红外和可见光图像的一级基础层,二级基础层和细节层;
S2、使用自适应图像融合模块融合红外和可见光图像的一级基础层,得到融合的一级基础层;
S3、使用最大绝对值规则融合红外和可见光图像的二级基础层,得到融合的二级基础层;
S4、使用平均规则融合得到的一级基础层和二级基础层,得到融合的基础层;
S5、使用卷积神经网络提取红外和可见光图像细节层的特征并进行特征重建,得到融合的细节层;
S6、使用求和规则融合得到的基础层和细节层,得到最终的融合图像。
3.如权利要求1所述的一种红外和可见光图像自适应融合的方法及系统,其特征在于,S2的具体实现过程如下:
S201、得到红外和可见光图像的一级基础层后,使用图像质量评估的深度神经网络(NR-IQA)来评估每幅图像的质量。使用客观度量熵来测量每幅输入图像的平均信息量。其中N是灰度级的数量,设置为255。pi是每一灰度级出现的概率。信息熵越大则图像包含的信息越多。熵的定义如下:
S202、使用λ作为控制输入图像NR-IQA和EN的权衡因子,得到红外和可见光图像各自的分数EIR和EVI,具体公式如下:
Et=IQAt+λENt t∈(IR,VI) (5)
S203、使用Y函数将EIR和EVI映射到(0,1)之间,并且保证WIR和WVI之和为1。为了增强权重的差异,使用c1,c2对值进行缩放,取c1=20,c2=50。具体公式定义如下:
S204、融合一级基础层。公式如下:
6.如权利要求1所述的一种红外和可见光图像自适应融合的方法及系统,其特征在于,S5的具体实现过程如下:
S501、将细节层图像分为显著部分和背景部分,引入了目标掩膜M和背景掩膜1-M,使用LabelMe工具箱标注红外图像中的显著目标,然后将其转化为二进制目标掩膜,对其进行取反操作得到背景掩膜。如图4所示,红外图像的细节层和目标掩膜相乘得到红外显著目标部分,可见光图像的细节层和背景掩膜相乘得到可见光图像的背景细节部分。同理,将融合图像与目标掩膜和背景掩膜分别相乘可以得到融合图像的显著目标部分和背景部分。
S502、构造损失函数。使用像素损失Lint,梯度损失Lgra以及结构相似度损失Lssim来指导细节层的特征提取和重建,损失函数具体公式如下:
公式(11)中H,W是图像的高度和宽度,||·||1为一范数,第一项为红外目标区域像素损失,第二项为可见光背景区域像素损失,α为平衡因子,α=7。公式(12)中,▽是梯度计算符号,Sobel算子被用来计算梯度,第一项为目标区域梯度损失,第二项为背景区域梯度损失。β为平衡因子,β=7。公式(13)中SSIMA,B为图像A和B的结构相似度定义,分别表示图像A和B的均值,分别表示图像A和B的标准差,表示图像A和B的协方差,C1,C2,C3为常数。
S503、将得到的像素损失Lint,梯度损失Lgra以及结构相似度损失Lssim求和得到总损失L,公式如下:
L=Lint+Lgra+Lssim (15)
S504、将细节层图像输入到特征提取网络中提取图像特征。
S505、提取得到的特征输入到特征融合网络中,得到融合的细节层。
7.如权利要求1所述的一种红外和可见光图像自适应融合的方法及系统,其特征在于,S6的具体实现过程如下:
S601、使用平均规则融合得到的基础层BF和细节层DF,得到最终的融合图像F。公式如下:
F=BF+DF (16) 。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210717650.2A CN115239607A (zh) | 2022-06-23 | 2022-06-23 | 一种红外和可见光图像自适应融合的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210717650.2A CN115239607A (zh) | 2022-06-23 | 2022-06-23 | 一种红外和可见光图像自适应融合的方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115239607A true CN115239607A (zh) | 2022-10-25 |
Family
ID=83669769
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210717650.2A Pending CN115239607A (zh) | 2022-06-23 | 2022-06-23 | 一种红外和可见光图像自适应融合的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115239607A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116092018A (zh) * | 2023-04-10 | 2023-05-09 | 同方德诚(山东)科技股份公司 | 一种基于智慧建筑的消防隐患监测方法及系统 |
-
2022
- 2022-06-23 CN CN202210717650.2A patent/CN115239607A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116092018A (zh) * | 2023-04-10 | 2023-05-09 | 同方德诚(山东)科技股份公司 | 一种基于智慧建筑的消防隐患监测方法及系统 |
CN116092018B (zh) * | 2023-04-10 | 2023-08-25 | 同方德诚(山东)科技股份公司 | 一种基于智慧建筑的消防隐患监测方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Han et al. | Underwater image processing and object detection based on deep CNN method | |
Li et al. | Image dehazing using residual-based deep CNN | |
CN108648161B (zh) | 非对称核卷积神经网络的双目视觉障碍物检测系统及方法 | |
CN114202696A (zh) | 基于上下文视觉的sar目标检测方法、装置和存储介质 | |
CN103914813B (zh) | 彩色雾霾图像去雾与光照补偿的复原方法 | |
CN104899866B (zh) | 一种智能化的红外小目标检测方法 | |
CN107169475A (zh) | 一种基于kinect相机的人脸三维点云优化处理方法 | |
CN110163818A (zh) | 一种用于海事无人机的低照度视频图像增强方法 | |
CN106897986B (zh) | 一种基于多尺度分析的可见光图像与远红外图像融合方法 | |
KR20220050977A (ko) | 의료 이미지 처리 방법, 이미지 처리 방법 및 장치 | |
Zong et al. | Local-CycleGAN: a general end-to-end network for visual enhancement in complex deep-water environment | |
CN114782298B (zh) | 一种具有区域注意力的红外与可见光图像融合方法 | |
CN113592018B (zh) | 基于残差密集网络和梯度损失的红外光与可见光图像融合方法 | |
CN117237740B (zh) | 一种基于CNN和Transformer的SAR图像分类方法 | |
CN114387195A (zh) | 一种基于非全局预增强的红外图像与可见光图像融合方法 | |
CN111815550A (zh) | 一种基于灰度共生矩阵的红外与可见光图像融合方法 | |
CN116883588A (zh) | 一种大场景下的三维点云快速稠密重建方法及系统 | |
Trongtirakul et al. | Unsupervised and optimized thermal image quality enhancement and visual surveillance applications | |
CN110046595B (zh) | 一种基于级联式多尺度的密集人脸检测方法 | |
CN115239607A (zh) | 一种红外和可见光图像自适应融合的方法及系统 | |
Kim et al. | Cross fusion-based low dynamic and saturated image enhancement for infrared search and tracking systems | |
Xing et al. | Multi-level adaptive perception guidance based infrared and visible image fusion | |
CN113935917A (zh) | 一种基于云图运算和多尺度生成对抗网络的光学遥感影像薄云去除方法 | |
CN116883303A (zh) | 基于特征差分补偿与融合的红外与可见光图像融合方法 | |
CN110852335B (zh) | 一种基于多颜色特征融合与深度网络的目标跟踪系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |