CN114529488A - 图像融合方法、装置及设备、存储介质 - Google Patents
图像融合方法、装置及设备、存储介质 Download PDFInfo
- Publication number
- CN114529488A CN114529488A CN202210158378.9A CN202210158378A CN114529488A CN 114529488 A CN114529488 A CN 114529488A CN 202210158378 A CN202210158378 A CN 202210158378A CN 114529488 A CN114529488 A CN 114529488A
- Authority
- CN
- China
- Prior art keywords
- image
- infrared
- visible light
- fusion
- saliency map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 39
- 238000001914 filtration Methods 0.000 claims abstract description 191
- 230000004927 fusion Effects 0.000 claims abstract description 166
- 238000012545 processing Methods 0.000 claims abstract description 50
- 238000000926 separation method Methods 0.000 claims abstract description 21
- 238000004422 calculation algorithm Methods 0.000 claims description 37
- 238000000034 method Methods 0.000 claims description 36
- 238000004364 calculation method Methods 0.000 claims description 32
- 238000007499 fusion processing Methods 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 16
- 238000010586 diagram Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 7
- 238000003672 processing method Methods 0.000 description 5
- 238000013136 deep learning model Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Abstract
本申请实施例提供一种图像融合方法、装置、图像处理设备及计算机可读存储介质,图像融合方法包括获取针对目标视场同步采集的可见光图像和红外图像;分别对所述可见光图像和所述红外图像进行通道分离,并对各自分离出的亮度通道分量分别进行高斯滤波,得到对应的可见光亮度通道滤波图像和红外亮度通道滤波图像;基于所述可见光亮度通道滤波图像和所述红外亮度通道滤波图像,确定可见光显著图和红外显著图;根据所述可见光显著图和所述红外显著图计算融合权重;根据所述可见光亮度通道滤波图像、所述红外亮度通道滤波图像和所述融合权重,得到融合图像。
Description
技术领域
本申请涉及图像处理技术领域,尤其是涉及一种图像融合方法、装置及图像处理设备、计算机可读存储介质。
背景技术
图像主要分为可见光图像和红外图像,可见光图像的成像机理与人眼视觉系统一致,可以提供具有高空间分辨率和清晰度的纹理细节,符合人眼观察习惯;红外图像可以根据红外辐射差异将目标与背景区分开来,红外图像在可见光强度差的情况下效果很好,但红外图像损失了绝大部分纹理细节。
为了能够兼顾可见光图像和红外图像的各自优点,在应用场景中将可见光图像和红外图像进行融合,以获得对拍摄场景全面准确的图像描述,达到对于信息的充分利用,同时也可以提高系统分析决策的准确性和可靠性。
将可见光图像和红外图像进行融合的图像融合方法主要分为传统方法和深度学习方法;其中,传统方法按照融合过程中信息处理的复杂程度,主要分为三类:像素级融合、特征级融合、决策级融合。(1)像素级融合,是直接对图像相应像素执行融合操作。其对图像误配准非常敏感,即算法要求图像在融合之前必须经过严格精确的图像配准,才能保证融合算法的顺利进行。通过像素级融合技术能够从源图像中保留更多的特有信息,使得融合结果更加可靠,获得的融合图像通常包含更多的细节信息,如边缘、纹理等,但是计算量大;(2)特征级融合,其思想是从输入的源图像中提取出特征信息,并对这些特征信息执行融合操作。特征级图像融合所需的计算资源较少,但是通常丢失了源图像的很多重要细节信息;(3)决策级融合,其原理是首先对每幅源图像做出一种决策,然后将所有决策进行综合,给出最终决策,决策级图像融合的计算量更小,但是其得到的融合图像更加模糊。深度学习方法需要大量的标注的样本图像进行模型训练,通过训练确定模型参数,一方面需要依赖大量样本图像来完成训练,另一方面对芯片处理能力要求高,融合处理效率低。
发明内容
为解决现有存在的技术问题,本申请提供一种可减少图像中无效信息、减小计算量和复杂度、且可提升处理效率的图像融合方法、装置、图像处理设备及计算机可读存储介质。
为达到上述目的,本申请实施例的技术方案是这样实现的:
第一方面,本申请实施例提供一种图像融合方法,应用于图像处理设备,包括:
获取针对目标视场同步采集的可见光图像和红外图像;
分别对所述可见光图像和所述红外图像进行通道分离,并对各自分离出的亮度通道分量分别进行高斯滤波,得到对应的可见光亮度通道滤波图像和红外亮度通道滤波图像;
基于所述可见光亮度通道滤波图像和所述红外亮度通道滤波图像,确定可见光显著图和红外显著图;
根据所述可见光显著图和所述红外显著图计算融合权重;
根据所述可见光亮度通道滤波图像、所述红外亮度通道滤波图像和所述融合权重,得到融合图像。
第二方面,本申请实施例提供一种图像融合装置,包括:
获取模块,获取针对目标视场同步采集的可见光图像和红外图像;
滤波模块,用于分别对所述可见光图像和所述红外图像进行通道分离,并对各自分离出的亮度通道分量分别进行高斯滤波,得到对应的可见光亮度通道滤波图像和红外亮度通道滤波图像;
显著图模块,用于基于所述可见光亮度通道滤波图像和所述红外亮度通道滤波图像,确定可见光显著图和红外显著图;
权重模块,用于根据所述可见光显著图和所述红外显著图计算融合权重;
融合模块,用于根据所述可见光亮度通道滤波图像、所述红外亮度通道滤波图像和所述融合权重,得到融合图像。
第三方面,本申请实施例提供一种图像处理设备,包括处理器、与所述处理器连接的存储器及存储在所述存储器上并可被所述处理器执行的计算机程序,所述计算机程序被所述处理器执行时实现本申请应用于终端设备侧的任一实施例所述的图像融合方法。
第四方面,本申请实施例提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被所述处理器执行时实现如本申请任一实施例所述的图像融合方法。
上述实施例中,通过分别对红外图像和可见光图像进行通道分离,对各自分离出的亮度通道分量进行高斯滤波,利用亮度通道分量通过高斯滤波后得到的可见光亮度通道滤波图像和红外亮度通道滤波图像,分别确定红外图像和可见光图像对应的显著图和融合权重,如此,通过只取亮度通道分量的数据获得显著性图像和融合权重,既能有效避免图像质量下降,能够很好的抑制图像中过亮部位导致图像细节损失的问题;且可简化算法、减少计算量,提高图像融合处理效率。
上述实施例中,图像融合装置、图像处理设备及计算机可读存储介质与对应的图像融合方法实施例属于同一构思,从而分别与对应的图像融合方法实施例具有相同的技术效果,在此不再赘述。
附图说明
图1为一实施例中图像融合方法的应用场景示意图;
图2为一实施例中图像融合方法的流程图;
图3为采用本申请实施例基于对Y通道分量作为基础通过图像融合方法获得的融合图像的示意图;
图4为已知的基于原图进行融合得到的融合图像的示意图;
图5为基于本申请实施例的图像融合算法流程构建的图像融合前向推理模型的示意图;
图6为一可选的具体示例中图像融合方法的流程图;
图7为图6所示实施例中采用的红外图像的示意图;
图8为图6所示实施例中采用的可见光图像的示意图;
图9为采用本申请所述的图像融合方法对红外图像和可见光图像进行融合后得到的融合图像的示意图;
图10为一实施例中图像融合装置的示意图;
图11为一实施例中图像处理设备的结构示意图。
具体实施方式
以下结合说明书附图及具体实施例对本申请技术方案做进一步的详细阐述。
为了使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请作进一步地详细描述,所描述的实施例不应视为对本申请的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
在以下的描述中,涉及到“一些实施例”的表述,其描述了所有可能实施例的子集,需要说明的是,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
在以下的描述中,所涉及的术语“第一、第二、第三”仅仅是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一、第二、第三”在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本申请实施例能够以除了在这里图示或描述的以外的顺序实施。
请参阅图1,为本申请实施例提供的图像处理方法的一可选应用场景的示意图,其中,图像处理设备11包括处理器12、与所述处理器12连接的存储器13、可见光拍摄模块14和红外拍摄模块15。所述图像处理设备11通过所述可见光拍摄模块14和所述红外拍摄模块14同步实时采集可见光图像和红外图像发送给处理器12,所述存储器13内存储有实施本申请实施例所提供的图像融合方法的计算机程序,处理器12通过执行所述计算机程序,对可见光图像和红外图像进行通道分离,对分离出的亮度通道分量进行高斯滤波,基于滤波后得到的可见光亮度通道滤波图像和红外亮度通道滤波图像,确定可见光显著图和红外显著图和计算融合权重,根据可见光亮度通道滤波图像、红外亮度通道滤波图像和融合权重,得到融合图像。其中,所述图像处理设备11可以是集成有可见光拍摄模块14和红外拍摄模块15、且具备存储和处理功能的各类智能终端,如安防监控设备、车载设备等;所述图像处理设备11也可以是与可见光拍摄模块14和红外拍摄模块15连接的计算机设备;所述图像处理设备11也可以是具有白光光路和红光光路的双光融合瞄准类设备。
请参阅图2,为本申请一实施例提供的图像融合方法,可以应用于图1所示的图像处理设备。其中,图像处理方法包括如下步骤:
S101,获取针对目标视场同步采集的可见光图像和红外图像。
可见光图像和红外图像是针对目标视场同步采集得到的,如此,可见光图像和红外图像中包含同一目标视场内的物体的成像。可选的,图像处理设备包括可见光拍摄模块和红外拍摄模块,所述获取针对目标视场同步采集的可见光图像和红外图像包括:图像处理设备通过可见光拍摄模块和红外拍摄模块同时采集可见光图像和红外图像,并将采集到的可见光图像和红外图像发送给处理器。在另一些可选的实施例中,图像处理设备不包括图像拍摄模块,所述获取针对目标视场同步采集的可见光图像和红外图像包括:图像处理设备获取具备可见光图像和红外图像拍摄功能的其它智能设备发送的针对目标视场同步采集的可见光图像和红外图像,这里,其它智能设备可以包括红外探测器、手机终端、云端等。
S103,分别对所述可见光图像和所述红外图像进行通道分离,并对各自分离出的亮度通道分量分别进行高斯滤波,得到对应的可见光亮度通道滤波图像和红外亮度通道滤波图像。
对于一幅数字图像,人眼观察到的是一幅图片,但是从计算机来看,一副数字图像是一堆亮度各异的点,如,一副尺寸为M×N的数字图像可以用一个M×N的矩阵来表示,矩阵中元素的值分别表示这个位置上对应像素点的亮度,像素值越大表示该像素点越亮。通常,灰度图可用二维矩阵表示,彩色图像可用三维矩阵(M×N×3)表示,也即多通道图像。
通过通道可以改变图像的色相和颜色,例如,如仅保存红色通道,则图像本身就仅保留红色的元素和信息。针对每个单一通道,可分别显示为一副灰度图像(需要说明的是,该灰度图像非黑白图像),单一通道的灰度图像中的明暗对应所述单一通道色的明暗,相应表示所述单一通道色/光在图像上的分布情况。
高斯滤波是一种线性平滑滤波,对整幅图像进行加权平均的过程,高斯滤波的实现原理是,针对每一个像素点的值,都由其本身和邻域内的其他像素值经过加权平均后得到。分别将红外图像和可见光图像进行通道分离,对各自分离出的亮度通道分量分别进行高斯滤波,得到对应的可见光亮度通道滤波图像和红外亮度通道滤波图像可以是指,对红外图像和可见光图像分别进行通道分离,将红外图像中分离出的亮度通道分量进行高斯滤波,得到红外亮度通道滤波图像,将可见光图像中分离出的亮度通道分量进行高斯滤波,得到可见光亮度通道滤波图像,为方便区分和描述,红外亮度通道滤波图像用GYinf表示,可见光亮度通道滤波图像GYvis表示。对亮度通道分量进行高斯滤波可以包括:用预设大小的卷积核扫描亮度通道分量图像中的每一个像素,用所述卷积核确定的邻域内像素的加权平均灰度值去替代卷积核中心像素点的值。其中,分别对红外图像和可见光图像各自分离出的亮度通道分量进行高斯滤波,仅取亮度通道分量数据作为后续计算显著图和融合权重的基础,可以减少融合所需的运算量,且可以保留可见光图像和红外图像的有效信息。
S105,基于所述可见光亮度通道滤波图像和所述红外亮度通道滤波图像,确定可见光显著图和红外显著图。
利用通过对亮度通道分量进行高斯滤波得到的亮度通道滤波图像获得对应的显著图,可以对显著图的计算进行简化。
S107,根据所述可见光显著图和所述红外显著图计算融合权重。
其中对可见光图像和红外图像同时进行相同操作,基于相同的简化计算方式得到可见光图像和红外图像分别对应的显著图,如此,简化计算方式对可见光图像和红外图像的影响是相同的,通过简化计算方式得到的可见光显著图和红外显著图计算得到的融合权重与未经简化计算得到的融合权重类似,基本不会有偏差,简化后的算法运行效率也能得到大幅度提升。
S109,根据所述可见光亮度通道滤波图像、所述红外亮度通道滤波图像和所述融合权重,得到融合图像。
图像融合(Image Fusion)是指将多源信道所采集到的关于同一目标的图像数据经过图像处理技术,最大限度的提取各自信道中的有利信息,最后综合成高质量的图像,以提高图像信息的利用率、改善计算机解译精度和可靠性、提升原始图像的空间分辨率和光谱分辨率,利于监测。
可见光亮度通道滤波图像包含可见光图像的亮度通道分量的有效信息,红外亮度通道滤波图像包含红外图像的亮度通道分量的有效信息,根据所述可见光亮度通道滤波图像、红外亮度通道滤波图像和融合权重进行融合,利用可见光图像和红外图像的显著性特征,实现了可见光图像和红外图像的快速像素级融合。
上述实施例中,通过分别对红外图像和可见光图像进行通道分离,对各自分离出的亮度通道分量进行高斯滤波,利用亮度通道分量通过高斯滤波后得到的可见光亮度通道滤波图像和红外亮度通道滤波图像,分别确定红外图像和可见光图像对应的显著图和融合权重,如此,通过只取亮度通道分量的数据获得显著性图像和融合权重,既能有效避免图像质量下降,能够很好的抑制图像中过亮部位导致图像细节损失的问题;且可简化算法、减少计算量,提高图像融合处理效率。
在一些实施例中,所述基于所述可见光亮度通道滤波图像和所述红外亮度通道滤波图像,确定可见光显著图和红外显著图,包括:
计算所述可见光亮度通道滤波图像的图像均值和所述红外亮度通道滤波图像的图像均值;
根据所述可见光亮度通道滤波图像和所述红外亮度通道滤波图像及其分别对应的所述图像均值,通过L2范式确定可见光显著图和红外显著图。
对于图像融合,基于图像显著性的图像融合效果最好。目前主要采用FT显著性检测算法(Frequency-tuned Salient Region Detection),该算法以LAB(Lab color space)颜色空间为基础,Lab颜色模式是以一个亮度分量L(Lightness),以及两个颜色分量a、b来表示颜色的。其中,L的取值范围为0~100,a分量代表由绿色到红色的光谱变化,而b分量代表由蓝色到黄色的光谱变化,且a、b分量的取值范围均为-120~120。融合算法如下公式一所示:
S(p)=||Iu-Iωhc(p)|| (公式一)
其中,Iu为图像的平均特征,使用Lab颜色特征,Iωhc(p)为像素p在高斯平滑后的Lab颜色特征,||·||为L2范式,即计算前一项和后一项在Lab颜色空间的欧氏距离。这其中需要将图像转换为LAB格式图像,涉及大量的矩阵运算而拖慢计算效率。
为了最大限度简化算法和减少效果损失,将红外图像和可见光图像进行通道分离,对分离出的亮度通道分量进行高斯滤波,获得对亮度分量进行高斯滤波后得到的可见光亮度通道滤波图像GYvis和红外亮度通道滤波图像GYinf,计算可见光亮度通道滤波图像GYvis的图像均值mvis、计算红外亮度通道滤波图像GYinf的图像均值minf,根据可见光亮度通道滤波图像GYvis及其图像均值mvis利用L2范式获得可见光图像的可见光显著图Svis,根据红外亮度通道滤波图像GYinf及其图像均值minf利用L2范式获得红外图像的红外显著图Sinf。
上述实施例中,通过根据对红外图像和可见光图像的亮度分量进行高斯滤波后得到的可见光亮度通道滤波图像和红外亮度通道滤波图像来分别计算其对应的显著图,可以大大减少计算量,提高运算效率。
在一些实施例中,所述根据所述可见光亮度通道滤波图像和所述红外亮度通道滤波图像及其分别对应的所述图像均值,通过L2范式确定可见光显著图和红外显著图,包括:
根据所述可见光图像和所述红外图像的图像位数,确定目标除数;
根据所述可见光亮度通道滤波图像及其对应的所述图像均值的L2范式距离与所述目标除数的比值,确定可见光显著图;
根据所述红外通道滤波图像及其对应的所述图像均值的L2范式距离与所述目标除数的比值,确定红外显著图。
可见光图像和红外图像的显著图主要是用于计算融合权重,且根据可见光图像和红外图像确定其各自对应的显著图和融合权重均是进行相同操作,从而可通过简化算法对二者的相同影响来提升算法运行效率,且相对于未经简化的算法计算得到的融合权重而言,可以有效避免偏差。根据待计算图像的图像位数确定目标除数n,采用如下公式二计算其对应的显著图:
S=||GY-m||/n (公式二)
其中,GY是指待计算图像的亮度通道分量进行高斯滤波后得到的亮度通道滤波图像,m是指亮度通道滤波图像的图像均值,n是指根据待计算图像的图像位数选定的固定除数。这里,待计算图像分别是指可见光图像和红外图像。
上述实施例中,根据待计算的图像的值域选定固定除数以简化显著图的计算,可以进一步减少计算量,大幅度提高运算效率,且通过简化计算得到的显著图偏暗,可很好地抑制由于进行融合的两张图像中其中一张图像局部过亮的问题而导致另一张图像的细节损失。
在另一些实施例中,所述根据所述可见光亮度通道滤波图像和所述红外亮度通道滤波图像及其分别对应的所述图像均值,通过L2范式确定可见光显著图和红外显著图,包括:
根据所述可见光亮度通道滤波图像和所述红外亮度通道滤波图像及其分别对应的所述图像均值的L2范式距离,确定L2范式最大距离和L2范式最小距离;
根据与所述可见光图像对应的所述L2范式距离、所述L2范式最小距离与所述L2范式最大距离,确定可见光显著图,根据所述红外图像对应的所述L2范式距离、所述L2范式最大距离与所述L2范式最小距离,确定红外显著图。
根据待计算图像的亮度通道滤波图像及其对应的图像均值,采用如下公式三计算图像中各像素点的L2范式距离,确定L2范式最大距离和L2范式最小距离,并采用如下公式四确定待计算的图像的显著图。
t=||GY-m|| (公式三)
S=(t-min(t))/(max(t)-min(t)) (公式四)
其中,GY是指待计算图像的亮度分量进行高斯滤波后得到的亮度通道滤波图像,m是指亮度通道滤波图像的均值,t是指待计算图像的亮度通道滤波图像中各像素点的L2范式距离,min(t)是指计算得到的L2范式距离中的L2范式最小距离,max(t)是指计算得到的L2范式距离中的L2范式最大距离。这里,待计算图像分别是指可见光图像和红外图像。
上述实施例中,通过根据对红外图像和可见光图像的亮度分量进行高斯滤波后得到的可见光亮度通道滤波图像和红外亮度通道滤波图像来计算范式距离,结合范式距离中的最大值、最小值计算图像对应的显著图,相对于根据图像原图转换到LAB颜色空间后基于FT检测算法计算显著图的方式而言,可以大大减少计算量,提高运算效率。
在一些实施例中,所述根据所述可见光显著图和所述红外显著图计算融合权重,包括:
根据所述可见光显著图和所述红外显著图的差值与设定的损失常数,计算所述可见光图像对应的第一融合权重;
根据所述红外显著图和所述可见光显著图的差值与所述损失常数,计算所述红外图像对应的第二融合权重。
利用对红外图像和可见光图像分离出的Y通道分量进行高斯滤波后得到的亮度通道滤波图像,分别计算其各自对应的显著图后,利用人眼对图像显著性的敏感程度,通过红外图像的红外显著图和可见光图像的可见光显著图,分别计算其各自对应的融合权重,为了便于区分和描述,本申请将可见光图像对应的融合权重称为第一融合权重wvis,将红外图像对应的融合权重称为第二融合权重winf,在一个可选的示例中,设定的损失常数为0.5,第一融合权重wvis和第二融合权重winf采用如下公式五计算得到:
上述实施例中,利用可见光显著图和红外显著图之间的差值计算可见光图像和红外图像的融合权重,从而可消除基于简化算法获得可见光显著图和红外显著图后计算融合权重的影响,确保融合权重的准确性,且有效提升可见光图像和红外图像的融合权重的计算效率。
在一些实施例中,所述根据所述可见光亮度通道滤波图像、所述红外亮度通道滤波图像和所述融合权重,得到融合图像,包括:
根据所述可见光亮度通道滤波图像与所述第一融合权重的乘积、所述红外亮度通道滤波图像与所述第二融合权重的乘积、所述可见光图像的损失细节及所述红外图像的损失细节,得到融合图像。
根据可见光图像和红外图像分离出的亮度通道分量,分别进行高斯滤波后得到的可见光亮度通道滤波图像和红外亮度通道滤波图像分别与其对应的融合权重相乘,再加上损失的细节,就能够得到融合后且细节增强的融合图像。在一个可选的示例中,融合图像可采用如下公式六计算得到:
Ifused=GYinf*winf+GYvis*wvis+Yinf+Yvis-GYinf-GYvis (公式六)
其中,所述根据所述可见光亮度通道滤波图像、所述红外亮度通道滤波图像和所述融合权重,得到融合图像,还包括:
根据所述可见光图像和所述可见光亮度通道滤波图像的差值,得到所述可见光图像的损失细节;
根据所述红外图像和所述红外亮度通道滤波图像的差值,得到所述红外图像的损失细节。
图像的损失细节通过图像原图的亮度通道分量与其对应的亮度通道滤波图像的差值计算得到,在公式六中,可见光图像的损失细节为可见光图像的亮度通道分量Yvis与可见光亮度通道滤波图像GYvis的差值,红外图像的损失细节为红外图像的亮度通道分量Yinf与红外亮度通道滤波图像GYinf的差值。将公式五中第一融合权重wvis和第二融合权重winf的计算方式代入公式六中,可得到如下公式七和公式八:
Ifused=GYinf*winf+GYvis*wvis+Yinf+Yvis (公式八)
如此,根据所述可见光亮度通道滤波图像与所述第一融合权重的乘积、所述红外亮度通道滤波图像与所述第二融合权重的乘积、所述可见光图像的损失细节及所述红外图像的损失细节,得到融合图像可以是,融合图像根据所述可见光亮度通道滤波图像与所述第一融合权重的乘积、所述红外亮度通道滤波图像与所述第二融合权重的乘积、所述可见光亮度通道滤波图像及所述红外亮度通道滤波图像之和计算得到。
上述实施例中,利用待融合图像的亮度通道分量计算显著图,再利用显著图计算融合权重,直接通过对分离出的亮度通道分量进行高斯滤波后得到的亮度通道滤波图像与计算得到的融合权重计算融合图像,从而可以简化图像融合算法,提高图像融合处理效率。
可选的,所述分别对所述可见光图像和所述红外图像进行通道分离,并对各自分离出的亮度通道分量分别进行高斯滤波,得到对应的可见光亮度通道滤波图像和红外亮度通道滤波图像,包括:
分别对YUV格式的所述可见光图像和所述YUV格式的红外图像进行通道分离,并对各自分离出的Y通道分量分别进行高斯滤波,得到对应的可见光Y通道滤波图像和红外Y通道滤波图像。
移动设备等图像拍摄模块的图像数据流通常为YUV格式,其中Y通道为亮度通道,本申请实施例中,利用YUV格式图像数据流中Y通道分量的明暗变化与LAB格式图像中L通道分量的相似性,直接对YUV格式的可见光图像和红外图像分别进行通道分离,对分离出的Y通道分量进行高斯滤波,得到对应的可见光Y通道滤波图像和红外Y通道滤波图像。如此,仅提取YUV格式图像数据的Y通道分量的数据作为计算显著图的基础,可以简化计算量,加快计算速率。
请参阅图3和图4,为采用本申请实施例中基于对Y通道分量作为基础通过图像融合方法获得的融合图像与已知的基于原图作为基础得到的融合图像的对比图。根据对比可知,二者融合效果基本相似,而采用本申请实施例中基于对Y通道分量作为基础通过图像融合方法获得的融合图像,在车顶阳光反射的地方相对更加能够凸出红外细节,由此实现抑制了图像过亮区域对融合图像的影响。
可选的,所述分别对所述可见光图像和所述红外图像进行通道分离,并对各自分离出的亮度通道分量分别进行高斯滤波,得到对应的可见光亮度通道滤波图像和红外亮度通道滤波图像之前,包括:
基于对所述可见光图像和所述红外图像进行融合处理算法的流程,根据所述融合处理算法及其计算参数构建对所述可见光图像和所述红外图像并行处理的图像融合前向推理模型,将所述可见光图像和所述红外图像输入所述图像融合前向推理模型;
其中,所述融合处理算法的流程包括:分别对所述可见光图像和所述红外图像进行处理,得到可见光亮度通道滤波图像和红外亮度通道滤波图像、确定可见光显著图和红外显著图、计算融合权重以及根据所述可见光亮度通道滤波图像、所述红外亮度通道滤波图像和所述融合权重获得融合图像。
本实施例中,融合处理算法是指对所述可见光图像和所述红外图像进行处理,以实现本申请实施例所提供的图像融合方法的算法。本申请实施例所提供的图像融合方法中,对可见光图像和红外图像分别采用相同的简化算法,分别对所述可见光图像和所述红外图像进行通道分离、对分离出的亮度通道分量进行高斯滤波得到对应的亮度通道滤波图像,计算各自对应的显著图后根据所述显著图计算融合权重、根据各自对应的亮度通道滤波图像和融合权重计算损失细节和融合图像,根据所述简化算法中实现各个步骤的算式和计算参数构建对可见光图像和红外图像并行处理的图像融合前向推理模型,图像融合前向推理模型依据所述融合处理算法的各步骤及其计算参数分别建立对应的各层,可类似于神经网络结构的深度学习模型,将待融合处理的红外图像和可见光图像作为图像融合前向推理模型的两路输入,输出基于所述简化算法对所述红外图像和可见光图像融合处理后的融合图像结果,从而实现端到端的处理,与已知的通过大量训练来确定模型的深度学习方法相比较,图像融合前向推理模型建立在算式和计算参数已知的融合处理算法的基础上,不需要大量的学习,也不需要大量的数据集,可以快速地实现一个能够立即使用的网络模型,进而进行部署工作,且可最大限度支持不同芯片的能力,来达到最佳的效果,能够实现实时的大分辨率图像的快速融合。
在一个可选的具体示例中,请参阅图5,基于对所述可见光图像和所述红外图像进行融合处理算法的流程,根据所述融合处理算法及其计算参数构建对所述可见光图像和所述红外图像并行处理的图像融合前向推理模型,通过图像融合前向推理模型实施本申请实施例的图像融合方法,实现对可见光图像和红外图像的快速融合。对所述可见光图像和所述红外图像进行融合处理算法的流程主要包括如下:(1)对分离出的亮度通道分量进行高斯滤波的处理采用卷积操作实现,卷积核采用预设的固定大小;(2)由于图像融合是红外图像和可见光图像都要计算显著图(如前述实施例中公式二、或如前述实施例中公式三与公式四),然后进行融合,所以构建图像融合前向推理模型中设计两条数据通路,0、1分别是两张输入的红外图像和可见光图像,首先经过高斯滤波(Conv)后计算均值(Reduce Mean),然后与均值作差(Sub)后,将图像矩阵中的每个元素都平方(Mul),平方后再进行除法操作(Div),除以常数n;(3)上述两步已经计算出显著图,接下来计算融合权重,首先将两个显著图分别做差(Sub),然后乘以0.5,再减去0.5(如前述实施例中公式七);(4)最后,将结果分别与两个输入相加(Add)得到的33节点(如前述实施例中公式八)的输出结果即为最终的结果图像,其中,节点也称为神经元或感知器,是具有一个或多个权重输入连接的计算单元,每一节点可以是直接或间接连接输入的转移函数,并直接或间接连接输出,图像融合前向推理模型中,基于步骤(1)、(2)、(3)分别对红外图像和可见光图像进行处理的节点数量分别为16个节点,第33节点为将对红外图像基于步骤(1)、(2)、(3)的处理结果和对可见光图像基于步骤(1)、(2)、(3)的处理结果进行相加的输出节点。
上述实施例中,图像融合前向推理模型是采用类似于传统算法处理流程构建的深度学习模型的技术思路下,基于本申请实施例所提供的图像融合算法流程构建的图像融合前向推理模型,通过综合传统算法处理流程和深度学习模型的各自优点,从而本方案能够适用于部署在各类硬件架构的处理芯片上,如CPU(Central Processing Unit)、GPU(Graphic Processing Unit)和NPU(Neural-network process units)等;图像融合前向推理模型输出的图像为以待融合图像分离出的Y通道分量作为基础实现数据融合的结果,利用图像融合前向推理模型输出的结果与可见光图像的颜色值通道分量进行拼接,得到最终的融合了两种图像信息的融合图像,最终的融合图像的图像效果既能很好地符合人眼观察,又能把红外图像中的目标进行突出,总体效果良好。
为了能够对本申请实施例提供的图像融合方法具有更加整体的理解,请结合参阅图6至图9,以一可选的示例为例,对所述图像融合方法进行说明。
S11,读取红外图像和可见光图像;如图7和图8所示,红外图像IR和可见光图像VIS;
S12,分别对红外图像的Y分量和可见光图像的Y分量进行高斯滤波,得到高斯滤波图像GYinf和GYvis;
S13,计算高斯滤波图像对应的均值minf和mvis;
S14,通过高斯滤波图像GYinf和GYvis及其对应的均值minf和mvis,计算显著图Sinf和Svis;其中,计算显著图Sinf和Svis可采用公式二、或采用公式三和公式四得到。
S15,利用显著图Sinf和Svis计算红外图像和可见光图像对应的融合权重winf和wvis;
S16,通过高斯滤波图像GYinf和GYvis及其对应的融合权重winf和wvis、及损失细节,得到融合后细节增强的初始融合图像;其中,初始融合图像的计算可如公式八所示。
S17,将初始融合图像与可见光图像的U、V通道分量进行合并,得到融合图像,如图9所示。
上述实施例所提供的图像融合方法,利用图像显著性特征,巧妙地利用图像Y通道和简化的算法,实现了红外和可见光图像的快速像素级融合;利用简化算法,利用图像融合算法模拟构建神经网络结构的深度学习模型的方式构建图像融合前向推理模型,可大大加快图像融合的处理速度;将本申请提供的图像融合方法部署于并行架构的芯片时,利用芯片强大的图像矩阵处理能力,可进一步加速大尺寸图像的图像融合的处理速度,经验证,融合处理速度可提升六倍甚至以上。
请参阅图10,本申请另一方面,提供一种图像融合装置,包括:获取模块131,获取针对目标视场同步采集的可见光图像和红外图像;滤波模块132,用于分别对所述可见光图像和所述红外图像进行通道分离,并对各自分离出的亮度通道分量分别进行高斯滤波,得到对应的可见光亮度通道滤波图像和红外亮度通道滤波图像;显著图模块133,用于基于所述可见光亮度通道滤波图像和所述红外亮度通道滤波图像,确定可见光显著图和红外显著图;权重模块134,用于根据所述可见光显著图和所述红外显著图计算融合权重;融合模块135,用于根据所述可见光亮度通道滤波图像、所述红外亮度通道滤波图像和所述融合权重,得到融合图像。
可选的,所述显著图模块133,具体用于计算所述可见光亮度通道滤波图像的图像均值和所述红外亮度通道滤波图像的图像均值;根据所述可见光亮度通道滤波图像和所述红外亮度通道滤波图像及其分别对应的所述图像均值,通过L2范式确定可见光显著图和红外显著图。
可选的,所述显著图模块133,还用于根据所述可见光图像和所述红外图像的图像位数,确定目标除数;根据所述可见光亮度通道滤波图像及其对应的所述图像均值的L2范式距离与所述目标除数的比值,确定可见光显著图;根据所述红外通道滤波图像及其对应的所述图像均值的L2范式距离与所述目标除数的比值,确定红外显著图。
可选的,所述显著图模块133,还用于根据所述可见光亮度通道滤波图像和所述红外亮度通道滤波图像及其分别对应的所述图像均值的L2范式距离,确定L2范式最大距离和L2范式最小距离;根据与所述可见光图像对应的所述L2范式距离、所述L2范式最大距离与所述L2范式最小距离,确定可见光显著图,根据所述红外图像对应的所述L2范式距离、所述L2范式最大距离与所述L2范式最小距离,确定红外显著图。
可选的,所述权重模块134,具体用于根据所述可见光显著图和所述红外显著图的差值与设定的损失常数,计算所述可见光图像对应的第一融合权重;根据所述红外显著图和所述可见光显著图的差值与所述损失常数,计算所述红外图像对应的第二融合权重。
可选的,所述权重模块134,还用于根据所述可见光亮度通道滤波图像与所述第一融合权重的乘积、所述红外亮度通道滤波图像与所述第二融合权重的乘积、所述可见光图像的损失细节及所述红外图像的损失细节,得到融合图像。
可选的,所述权重模块134,还用于根据所述可见光图像和所述可见光亮度通道滤波图像的差值,得到所述可见光图像的损失细节;根据所述红外图像和所述红外亮度通道滤波图像的差值,得到所述红外图像的损失细节。
可选的,所述滤波模块132,具体用于分别对YUV格式的所述可见光图像和YUV格式的所述红外图像进行通道分离,并对各自分离出的Y通道分量分别进行高斯滤波,得到对应的可见光Y通道滤波图像和红外Y通道滤波图像。
可选的,所述图像融合装置还包括模型构建模块,用于基于对所述可见光图像和所述红外图像进行融合处理算法的流程,根据所述融合处理算法及其计算参数构建对所述可见光图像和所述红外图像并行处理的图像融合前向推理模型,将所述可见光图像和所述红外图像输入所述图像融合前向推理模型;其中,所述融合处理算法的流程包括:分别对所述可见光图像和所述红外图像进行处理,得到可见光亮度通道滤波图像和红外亮度通道滤波图像、确定可见光显著图和红外显著图、计算融合权重以及根据所述可见光亮度通道滤波图像、所述红外亮度通道滤波图像和所述融合权重获得融合图像。
需要说明的是:上述实施例提供的图像融合装置在实现可见光图像和红外图像融合处理过程中,仅以上述各程序模块的划分进行举例说明,在实际应用中,可以根据需要而将上述处理分配由不同的程序模块完成,即可将装置的内部结构划分成不同的程序模块,以完成以上描述的全部或者部分方法步骤。另外,上述实施例提供的图像融合装置与图像融合方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本申请另一方面提供一种图像处理设备,请参阅图11,为本申请实施例提供的图像处理设备的一个可选的硬件结构示意图,所述图像处理设备包括处理器111、与所述处理器111连接的存储器112,存储器112内用于存储各种类别的数据以支持图像处理设备的操作,且存储有用于实现本申请任一实施例提供的图像处理方法的计算机程序,所述计算机程序被所述处理器执行时,实现本申请任一实施例提供的图像处理方法的步骤,且能达到相同的技术效果,为避免重复,这里不再赘述。
可选的,所述图像处理设备还包括与所述处理器111连接的红外拍摄模块和可见光拍摄模块,所述红外拍摄模块和可见光拍摄模块用于同步针对同一目标视场拍摄红外图像和可见光图像作为待融合的图像发送给所述处理器111。
本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述图像处理方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-OnlyMemory,简称ROM)、随机存取存储器(RandomAccessMemory,简称RAM)、磁碟或者光盘等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,或网络设备等)执行本发明各个实施例所述的方法。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围之内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (12)
1.一种图像融合方法,应用于图像处理设备,其特征在于,包括:
获取针对目标视场同步采集的可见光图像和红外图像;
分别对所述可见光图像和所述红外图像进行通道分离,并对各自分离出的亮度通道分量分别进行高斯滤波,得到对应的可见光亮度通道滤波图像和红外亮度通道滤波图像;
基于所述可见光亮度通道滤波图像和所述红外亮度通道滤波图像,确定可见光显著图和红外显著图;
根据所述可见光显著图和所述红外显著图计算融合权重;
根据所述可见光亮度通道滤波图像、所述红外亮度通道滤波图像和所述融合权重,得到融合图像。
2.如权利要求1所述的图像融合方法,其特征在于,所述基于所述可见光亮度通道滤波图像和所述红外亮度通道滤波图像,确定可见光显著图和红外显著图,包括:
计算所述可见光亮度通道滤波图像的图像均值和所述红外亮度通道滤波图像的图像均值;
根据所述可见光亮度通道滤波图像和所述红外亮度通道滤波图像及其分别对应的所述图像均值,通过L2范式确定可见光显著图和红外显著图。
3.如权利要求2所述的图像融合方法,其特征在于,所述根据所述可见光亮度通道滤波图像和所述红外亮度通道滤波图像及其分别对应的所述图像均值,通过L2范式确定可见光显著图和红外显著图,包括:
根据所述可见光图像和所述红外图像的图像位数,确定目标除数;
根据所述可见光亮度通道滤波图像及其对应的所述图像均值的L2范式距离与所述目标除数的比值,确定可见光显著图;
根据所述红外通道滤波图像及其对应的所述图像均值的L2范式距离与所述目标除数的比值,确定红外显著图。
4.如权利要求2所述的图像融合方法,其特征在于,所述根据所述可见光亮度通道滤波图像和所述红外亮度通道滤波图像及其分别对应的所述图像均值,通过L2范式确定可见光显著图和红外显著图,包括:
根据所述可见光亮度通道滤波图像和所述红外亮度通道滤波图像及其分别对应的所述图像均值的L2范式距离,确定L2范式最大距离和L2范式最小距离;
根据所述可见光图像对应的所述L2范式距离、所述L2范式最大距离与所述L2范式最小距离,确定可见光显著图,根据所述红外图像对应的所述L2范式距离、所述L2范式最大距离与所述L2范式最小距离,确定红外显著图。
5.如权利要求1所述的图像融合方法,其特征在于,所述根据所述可见光显著图和所述红外显著图计算融合权重,包括:
根据所述可见光显著图和所述红外显著图的差值与设定的损失常数,计算所述可见光图像对应的第一融合权重;
根据所述红外显著图和所述可见光显著图的差值与所述损失常数,计算所述红外图像对应的第二融合权重。
6.如权利要求5所述的图像融合方法,其特征在于,所述根据所述可见光亮度通道滤波图像、所述红外亮度通道滤波图像和所述融合权重,得到融合图像,包括:
根据所述可见光亮度通道滤波图像与所述第一融合权重的乘积、所述红外亮度通道滤波图像与所述第二融合权重的乘积、所述可见光图像的损失细节及所述红外图像的损失细节,得到融合图像。
7.如权利要求6所述的图像融合方法,其特征在于,所述根据所述可见光亮度通道滤波图像、所述红外亮度通道滤波图像和所述融合权重,得到融合图像,还包括:
根据所述可见光图像和所述可见光亮度通道滤波图像的差值,得到所述可见光图像的损失细节;
根据所述红外图像和所述红外亮度通道滤波图像的差值,得到所述红外图像的损失细节。
8.如权利要求1至7中任一项所述的图像融合方法,其特征在于,所述分别对所述可见光图像和所述红外图像进行通道分离,并对各自分离出的亮度通道分量分别进行高斯滤波,得到对应的可见光亮度通道滤波图像和红外亮度通道滤波图像,包括:
分别对YUV格式的所述可见光图像和YUV格式的所述红外图像进行通道分离,并对各自分离出的Y通道分量分别进行高斯滤波,得到对应的可见光Y通道滤波图像和红外Y通道滤波图像。
9.如权利要求1至7中任一项所述的图像融合方法,其特征在于,所述分别对所述可见光图像和所述红外图像进行通道分离,并对各自分离出的亮度通道分量分别进行高斯滤波,得到对应的可见光亮度通道滤波图像和红外亮度通道滤波图像之前,包括:
基于对所述可见光图像和所述红外图像进行融合处理算法的流程,根据所述融合处理算法及其计算参数构建对所述可见光图像和所述红外图像并行处理的图像融合前向推理模型,将所述可见光图像和所述红外图像输入所述图像融合前向推理模型;
其中,所述融合处理算法的流程包括:分别对所述可见光图像和所述红外图像进行处理,得到可见光亮度通道滤波图像和红外亮度通道滤波图像、确定可见光显著图和红外显著图、计算融合权重以及根据所述可见光亮度通道滤波图像、所述红外亮度通道滤波图像和所述融合权重获得融合图像。
10.一种图像融合装置,其特征在于,包括:
获取模块,获取针对目标视场同步采集的可见光图像和红外图像;
滤波模块,用于分别对所述可见光图像和所述红外图像进行通道分离,并对各自分离出的亮度通道分量分别进行高斯滤波,得到对应的可见光亮度通道滤波图像和红外亮度通道滤波图像;
显著图模块,用于基于所述可见光亮度通道滤波图像和所述红外亮度通道滤波图像,确定可见光显著图和红外显著图;
权重模块,用于根据所述可见光显著图和所述红外显著图计算融合权重;
融合模块,用于根据所述可见光亮度通道滤波图像、所述红外亮度通道滤波图像和所述融合权重,得到融合图像。
11.一种图像处理设备,其特征在于,包括处理器、与所述处理器连接的存储器及存储在所述存储器上并可被所述处理器执行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至9中任一项所述的图像融合方法。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至9中任一项所述的图像融合方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210158378.9A CN114529488A (zh) | 2022-02-21 | 2022-02-21 | 图像融合方法、装置及设备、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210158378.9A CN114529488A (zh) | 2022-02-21 | 2022-02-21 | 图像融合方法、装置及设备、存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114529488A true CN114529488A (zh) | 2022-05-24 |
Family
ID=81625633
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210158378.9A Pending CN114529488A (zh) | 2022-02-21 | 2022-02-21 | 图像融合方法、装置及设备、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114529488A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115578304A (zh) * | 2022-12-12 | 2023-01-06 | 四川大学 | 一种结合显著性区域检测的多波段图像融合方法和系统 |
-
2022
- 2022-02-21 CN CN202210158378.9A patent/CN114529488A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115578304A (zh) * | 2022-12-12 | 2023-01-06 | 四川大学 | 一种结合显著性区域检测的多波段图像融合方法和系统 |
CN115578304B (zh) * | 2022-12-12 | 2023-03-10 | 四川大学 | 一种结合显著性区域检测的多波段图像融合方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102574141B1 (ko) | 이미지 디스플레이 방법 및 디바이스 | |
CN111402146B (zh) | 图像处理方法以及图像处理装置 | |
CN110717851A (zh) | 图像处理方法及装置、神经网络的训练方法、存储介质 | |
WO2022042049A1 (zh) | 图像融合方法、图像融合模型的训练方法和装置 | |
US11776129B2 (en) | Semantic refinement of image regions | |
CN114730456A (zh) | 神经网络模型的训练方法、图像处理方法及其装置 | |
CN116681636B (zh) | 基于卷积神经网络的轻量化红外与可见光图像融合方法 | |
CN111914997A (zh) | 训练神经网络的方法、图像处理方法及装置 | |
CN113326735B (zh) | 一种基于YOLOv5的多模态小目标检测方法 | |
CN113505768A (zh) | 模型训练、人脸识别方法、电子设备及存储介质 | |
CN113902657A (zh) | 图像拼接方法、装置和电子设备 | |
CN109461186A (zh) | 图像处理方法、装置、计算机可读存储介质和电子设备 | |
CN110222718A (zh) | 图像处理的方法及装置 | |
CN113095470A (zh) | 神经网络的训练方法、图像处理方法及装置、存储介质 | |
CN114627034A (zh) | 一种图像增强方法、图像增强模型的训练方法及相关设备 | |
Domislović et al. | One-Net: Convolutional color constancy simplified | |
CN114529488A (zh) | 图像融合方法、装置及设备、存储介质 | |
CN114708172A (zh) | 图像融合方法、计算机程序产品、存储介质及电子设备 | |
CN109191398A (zh) | 图像处理方法、装置、计算机可读存储介质和电子设备 | |
WO2023029559A1 (zh) | 一种数据处理方法以及装置 | |
CN116309050A (zh) | 图像超分辨率方法、程序产品、存储介质及电子设备 | |
US20220405972A1 (en) | An imaging sensor, an image processing device and an image processing method | |
CN109242793A (zh) | 图像处理方法、装置、计算机可读存储介质和电子设备 | |
CN114372931A (zh) | 一种目标对象虚化方法、装置、存储介质及电子设备 | |
Nair et al. | Benchmarking single image dehazing methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |