CN114881899A - 一种用于可见光与红外图像对的快速保色融合方法及装置 - Google Patents
一种用于可见光与红外图像对的快速保色融合方法及装置 Download PDFInfo
- Publication number
- CN114881899A CN114881899A CN202210381932.XA CN202210381932A CN114881899A CN 114881899 A CN114881899 A CN 114881899A CN 202210381932 A CN202210381932 A CN 202210381932A CN 114881899 A CN114881899 A CN 114881899A
- Authority
- CN
- China
- Prior art keywords
- enhancement
- visible light
- image
- infrared
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims description 9
- 230000004927 fusion Effects 0.000 claims abstract description 46
- 238000000034 method Methods 0.000 claims abstract description 46
- 230000002708 enhancing effect Effects 0.000 claims abstract description 8
- 238000004364 calculation method Methods 0.000 claims description 41
- 238000007781 pre-processing Methods 0.000 claims description 14
- 230000009977 dual effect Effects 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 6
- 238000012935 Averaging Methods 0.000 claims description 5
- 230000003287 optical effect Effects 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 239000013598 vector Substances 0.000 claims description 3
- 230000001105 regulatory effect Effects 0.000 claims description 2
- 238000012544 monitoring process Methods 0.000 abstract description 6
- 230000004438 eyesight Effects 0.000 abstract description 4
- 230000010365 information processing Effects 0.000 abstract description 2
- 238000012545 processing Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000003623 enhancer Substances 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 239000003054 catalyst Substances 0.000 description 1
- 230000004456 color vision Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000123 paper Substances 0.000 description 1
- 239000011087 paperboard Substances 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Color Television Image Signal Generators (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种用于可见光与红外图像对的快速保色融合方法及装置,属于图像信息处理技术领域。首先获得相同大小且已对齐的可用于融合算法的可见光‑红外输入图像对。针对输入图像对中的每一像素对,首先根据RGB色彩空间下的可见光像素的亮度值计算增强上限值;然后,根据红外像素值计算增强比例;之后,根据增强上限值和增强比例计算最终增强乘数;最后,根据增强乘数将可见光像素进行增强,将最终结果限制在规定范围内,得到可见光‑红外融合图像。本发明为可见光与红外视频实时监控以及更高层次的计算机视觉任务提供了丰富的色彩信息和高目标辨识度,同时大幅缩小了计算量。
Description
技术领域
本发明涉及一种可见光图像与红外图像的融合方法及装置,具体涉及一种在RGB色彩空间直接处理的可见光与红外图像的快速保色融合方法及装置,属于图像信息处理技术领域。
背景技术
图像融合属于多图像处理的一个技术领域,它从相同或不同的摄像机或传感器获取同一场景的两个或多个输入图像,并融合输出图像,以最好地呈现每个输入图像的信息。
可见光与红外图像融合作为图像融合的一个分支,其目的是将同一场景中的可见光图像与红外图像进行融合。在黑暗或刺眼的极端环境中,可见光摄像机拍摄的图像会变得模糊,但红外摄像机通常会由于温差而获得清晰的物体轮廓。融合后的输出图像具有颜色和温度信息,这使得输出图像中的目标更清晰、更可分辨。因此,多年来,可见光与红外图像融合技术一直是一个活跃的研究领域,并在许多领域有着丰富的应用,如目标检测、跟踪、识别、监控、彩色视觉和遥感等。
目前,最简单和最快速的融合方法是RGB颜色空间中的加权平均融合。它简单地分别对两幅图像的红色、绿色和蓝色分量进行平均。由于红外图像是单色的,通过这种简单的平均方法混合的图像的颜色将变得不那么明显,导致不良的视觉效果。为解决这个问题,可以将VIF方法修改为另一个颜色空间中的相应操作,该颜色空间包含一个亮度轴和另外两个色调轴或饱和度轴。因此,只有两幅图像的亮度部分将被融合,并且原始彩色图像的色调和饱和度可以被很好地保留。可见光与红外图像融合领域常用的10种颜色空间变换中YIQ和HSV颜色空间在保存原始可见输入图像的颜色方面表现最佳。
此外,一系列更加复杂的融合方法也不断出现。有些方法将两幅输入图像变换到一个新的域中,从图像中提取主要(低频)和显著(低频)特征。在这些方法中,两个部分以不同的方式融合。输出像素的高频部分通常是两个输入像素的总和或最大值,低频部分通常取平均值。这种处理可以尽可能保留两幅输入图像的所有细节。域变换方法包括主成分分析(PCA)、拉普拉斯金字塔、小波变换、轮廓变换、多分辨率奇异值分解(MSVD)和潜在低秩表示(LatLRR)等。
为了达到更好的效果,目前出现了一些混合方法,将多种方法的结果进行混合,使输出图像在各方面都呈现最佳的效果。另外,随着神经网络和深度学习技术的快速发展,一些基于神经网络和深度学习的方法也不断出现。这些方法将一些评价融合图像质量的评价指标直接作为训练目标,使用各种人工神经网络模型进行参数训练,得到复杂的网络结构模型。这些方法可以将评价指标提升很多,但需要训练复杂的模型,计算量大。另一方面,由于没有直接考虑可见光输入图像的原始色彩的保留,融合过程中常常通过改变色调达到提升对比度的目的(即提升相应的图像质量评价指标的得分),因此输出图像的色彩出现显著偏移,视觉效果并不理想。由于以上这些原因,目前实时融合与监控系统中最常使用的仍然是包含YIQ或HSV色彩空间转换的简单加权平均融合方法。
为了达到更好的视觉效果以及支持算力较小、较为简单的硬件,或为了满足高速实时视频图像融合的场景需求,迫切需要一种计算量极小,并且能够保留可见光输入图像原始色彩的可见光与红外图像融合方法及装置。
发明内容
本发明的目的是针对现有技术存在的缺陷和不足,为了解决现有方法由于色彩空间转换而处理速度降低,以及由于未直接考虑色彩保留能力而造成的色彩饱和度降低、色调偏移等技术问题,创造性地提出一种在RGB色彩空间直接处理的可见光与红外图像的快速保色融合方法及装置。
本发明为可见光与红外视频实时监控以及更高层次的计算机视觉任务提供了丰富的色彩信息和高目标辨识度,同时大幅缩小计算量以支持算力较弱、设计简单的普通计算设备,或应对实时目标检测等对融合速度要求极高的特殊应用场景。
为达上述目的,本发明采用以下技术方案实现。
一种用于可见光与红外图像对的快速保色融合方法,在RGB色彩空间直接处理,包括以下步骤:
步骤1:采用可见光-红外双相机系统拍摄同一场景,获得原始可见光-红外输入图像对。
其中,可见光-红外双相机系统包括平行双相机系统和共轴双相机系统。
步骤2:根据标定得到的相机参数,对双相机拍摄到的原始图像进行去畸变、对齐,获得相同大小且已对齐的可用于融合算法的可见光-红外输入图像对。
其中,双相机参数的获取可以采用张正友标定法,具体包括方形棋盘格法和圆点状棋盘格法。
可以利用标定获得的径向畸变系数,对双相机图像分别进行去畸变。
可以利用单应性矩阵和投影变换,对两幅去畸变后的图像进行对齐。
步骤3:针对输入图像对中的每一像素对,首先根据RGB色彩空间下的可见光像素的亮度值计算增强上限值;然后,根据红外像素值计算增强比例;之后,根据增强上限值和增强比例计算最终增强乘数;最后,根据增强乘数将可见光像素进行增强,将最终结果限制在规定范围内即得到可见光-红外融合图像。
其中,可以采用三通道最大值法计算可见光像素的亮度值,采用理想白色法和归一化操作规定增强上限值。
可以采用归一化操作和伽马增强计算增强比例。
可以采用将增强上限值与增强比例相乘,再与1取平均数的方法,计算增强乘数。
可以采用三维向量的数乘方法,对可见光像素进行增强。
为实现本发明目的,依据上述方法,本发明提出了一种用于可见光与红外图像对的快速保色融合装置,包括图像获取模块、图像预处理模块、系数计算模块和图像融合模块。
其中,图像获取模块,用于采用可见光-红外双相机系统拍摄同一场景,获得原始可见光-红外输入图像对;
图像预处理模块,用于根据标定得到的相机参数对双相机拍摄到的原始图像进行去畸变、对齐,获得相同大小且已对齐的可用于融合算法的可见光-红外输入图像对;
系数计算模块,用于针对输入图像对中的每一像素对,根据RGB色彩空间下的可见光像素的亮度值计算增强上限值,再根据红外像素值计算增强比例,最后根据增强上限值和增强比例计算最终增强乘数;
图像融合模块,用于根据增强乘数将可见光像素进行增强并进行数值范围限定,最终将可见光-红外融合图像输出到显示器。
有益效果
本发明有效解决了现有方法由于色彩空间转换而处理速度降低,以及由于未直接考虑色彩保留能力而造成的色彩饱和度降低、色调偏移等技术问题,为可见光与红外视频实时监控以及更高层次的计算机视觉任务提供了丰富的色彩信息和高目标辨识度,同时大幅缩小计算量以支持算力较弱、设计简单的普通计算设备,或应对实时目标检测等对融合速度要求极高的特殊应用场景。
附图说明
图1为本发明方法的总体流程图;
图2为本发明方法中的两种双相机系统的示意图;
图3为本发明方法的融合算法流程图;
图4为本发明装置的结构示意图。
具体实施方式
下面结合附图和实施例对本发明做进一步详细说明。
如图1所示,一种用于可见光与红外图像对的快速保色融合方法,包括以下步骤:
步骤S10:采用可见光-红外双相机系统拍摄同一场景,获得原始可见光-红外输入图像对;
本发明实施例中,可见光-红外双相机系统包括平行双相机系统和共轴双相机系统。
如图2所示,具体地,平行双相机系统包括可见光相机、红外相机与计算设备,两相机平行放置且尽量相互贴近,分别与计算设备相连。共轴双相机系统包括可见光相机、红外相机、分光镜与计算设备。由于分光镜的半反半透性质,两相机光路是共轴的,且分别与计算设备相连。
平行双相机的优势是结构简单,不需要分光镜以及共轴光路配准,但只适合拍摄远处场景,由于两相机有微小的视角偏差而无法严格对齐近处物体图像。而共轴双相机的优势是可以拍摄近处物体,保证两图像严格对齐,但结构复杂,需要分光镜以及共轴光路配准。具体选用哪一种,根据具体应用情况而定。
步骤S20:根据标定得到的相机参数,对双相机拍摄到的原始图像进行去畸变、对齐,获得相同大小且已对齐的可用于融合算法的可见光-红外输入图像对;
在本发明实施例中,双相机参数的获取采用张正友标定法,具体包括方形棋盘格法和圆点状棋盘格法。
具体地,对于可见光相机,直接使用打印有黑白棋盘格的纸版等标准张正友标定设备进行标定。
对于红外相机,使用带有圆形镂空点阵的硬塑料板(例如定制的PVC塑料板),在其后放置纸版等遮挡物,并用湿毛巾擦拭塑料板表面以形成温差,从而用红外相机拍摄得到具有区分度的标定用图片进行红外相机标定。
进一步地,在本发明实施例中,利用标定获得的径向畸变系数对双相机图像分别进行去畸变。
进一步地,在本发明实施例中,利用单应性矩阵和投影变换对两幅去畸变后的图像进行对齐,具体方法为:
在两幅去畸变后的图像中选取4个位置的对应点对,计算相应的投影变换矩阵(即单应性矩阵),最后将整个可见光图像变换到与红外图像对齐的位置,或将整个红外图像变换到与可见光图像对齐的位置。也可使用SIFT等特征点匹配算法由软件自动找出多个特征点对,去掉误选的点对并计算变换矩阵。
步骤S30:针对可见光-红外输入图像对中的每一像素对,进行可见光-红外图像融合,并显示到屏幕。
如图3所示,步骤S30所指的图像融合过程包括5个子步骤:
步骤S31:根据RGB色彩空间下的可见光像素的亮度值计算增强上限值;
在本发明实施例中,采用三通道最大值法计算可见光像素的亮度值,并采用理想白色法和归一化操作规定增强上限值。
具体地,设可见光像素RGB三通道为Cv=(Rv,Gv,Bv),Rv表示可见光像素的红色通道数值,Gv表示可见光像素的绿色通道数值,Bv表示可见光像素的蓝色通道数值;对应的红外像素值(单通道)为Vi,则可见光像素亮度值为Vm=max(Rv,Gv,Bv,1),其中,取最大值时有常数1的参与,是为了保证Vm非零。认为Vm+255为理想白色值,因此增强上限为:
步骤S32:根据红外像素值计算增强比例;
进一步地,在本发明实施例中,采用归一化操作和伽马增强计算增强比例。具体地,增强比例α定义为:
其中,为简化计算,伽马增强(矫正)系数γ可以取为2。具体计算时,此平方计算可以转化为自乘运算α←α×α。
步骤S33:根据增强上限值和增强比例计算最终增强乘数;
进一步地,在本发明实施例中,采用将增强上限值与增强比例相乘再与1取平均数的方法计算增强乘数。具体地,增强乘数k定义为:
具体计算时,可使用整数的右移运算代替式3中的除以2操作来加速。与1取平均数是为了将伽马增强后的结果与原可见光图像取平均,以此减少过度的亮度偏差。
步骤S34:根据增强乘数将可见光像素进行增强;
进一步地,在本发明实施例中,采用三维向量的数乘方法对可见光像素进行增强。具体地,输出的RGB三通道融合像素Cf为:
Cf=(Rf,Gf,Bf)=min(kCv,255)
=(min(kRv,255),min(kGv,255),min(kBv,255)) (4)
其中,将结果与255取最小值是为了将像素的每一个分量限制在0~255范围内。
步骤S35:将最终结果限制在规定范围内即得到可见光-红外融合图像。
图4为本发明装置的结构示意图。
如图4所示,一种用于可见光与红外图像对的快速保色融合装置,包括图像获取模块M10、图像预处理模块M20、系数计算模块M30和图像融合模块M40,其中,
图像获取模块M10,用于采用可见光-红外双相机系统拍摄同一场景,获得原始可见光-红外输入图像对;
图像预处理模块M20,用于根据标定得到的相机参数对双相机拍摄到的原始图像进行去畸变、对齐,获得相同大小且已对齐的可用于融合算法的可见光-红外输入图像对。图像预处理模块M20包括图像去畸变子模块M21和图像对齐子模块M22。
系数计算模块M30,用于针对输入图像对中的每一像素对,根据RGB色彩空间下的可见光像素的亮度值计算增强上限值,再根据红外像素值计算增强比例,最后根据增强上限值和增强比例计算最终增强乘数。系数计算模块M30包括增强上限计算子模块M31、增强比例计算子模块M32和增强乘数计算子模块M33。
图像融合模块M40,用于根据增强乘数将可见光像素进行增强并进行数值范围限定,最终将可见光-红外融合图像输出到显示器。图像融合模块M40包括增强子模块M41和限制子模块M42。
上述模块之间的连接关系为:
图像获取模块M10的输出端与图像预处理模块M20的输入端相连。在图像预处理模块M20内部,图像去畸变子模块M21的输出端与图像对齐子模块M22的输入端相连。
图像预处理模块M20的输出端与系数计算模块M30的输入端相连。在系数计算模块M30内部,增强上限计算子模块M31的输出端与增强比例计算子模块M32的输入端相连,增强比例计算子模块M32的输出端与增强乘数计算子模块M33的输入端相连;系数计算模块M30的输出端与图像融合模块M40的输入端相连。
在图像融合模块M40内部,增强子模块M41的输出端与限制子模块M42的输入端相连。
由此,能够解决现有系统由于色彩空间转换而处理速度降低,以及由于未直接考虑色彩保留能力而造成的色彩饱和度降低、色调偏移等技术问题,为可见光与红外视频实时监控以及更高层次的计算机视觉任务提供了丰富的色彩信息和高目标辨识度,同时大幅缩小计算量以支持算力较弱、设计简单的普通计算设备,或应对实时目标检测等对融合速度要求极高的特殊应用场景。
Claims (8)
1.一种用于可见光与红外图像对的快速保色融合方法,在RGB色彩空间直接处理,其特征在于,包括以下步骤:
步骤1:采用可见光-红外双相机系统拍摄同一场景,获得原始可见光-红外输入图像对;
步骤2:根据标定得到的相机参数,对双相机拍摄到的原始图像进行去畸变、对齐,获得相同大小且已对齐的可用于融合算法的可见光-红外输入图像对;
步骤3:针对输入图像对中的每一像素对,首先根据RGB色彩空间下的可见光像素的亮度值计算增强上限值;然后,根据红外像素值计算增强比例;之后,根据增强上限值和增强比例计算最终增强乘数;最后,根据增强乘数将可见光像素进行增强,将最终结果限制在规定范围内即得到可见光-红外融合图像。
2.如权利要求1所述的一种用于可见光与红外图像对的快速保色融合方法,其特征在于,可见光-红外双相机系统包括平行双相机系统和共轴双相机系统,
其中,平行双相机系统包括可见光相机、红外相机与计算设备,两相机平行放置且尽量相互贴近,分别与计算设备相连;
共轴双相机系统包括可见光相机、红外相机、分光镜与计算设备;
由于分光镜的半反半透性质,两相机光路是共轴的,且分别与计算设备相连;
具体选用哪一种双相机系统,由操作人员根据具体应用情况决定。
3.如权利要求1所述的一种用于可见光与红外图像对的快速保色融合方法,其特征在于,步骤2中,双相机参数的获取采用张正友标定法,包括方形棋盘格法和圆点状棋盘格法。
4.如权利要求1所述的一种用于可见光与红外图像对的快速保色融合方法,其特征在于,步骤2中,利用标定获得的径向畸变系数对双相机图像分别进行去畸变;利用单应性矩阵和投影变换对两幅去畸变后的图像进行对齐。
5.如权利要求4所述的一种用于可见光与红外图像对的快速保色融合方法,其特征在于,利用单应性矩阵和投影变换对两幅去畸变后的图像进行对齐,具体方法为:
在两幅去畸变后的图像中选取4个位置的对应点对,计算相应的投影变换矩阵,最后将整个可见光图像变换到与红外图像对齐的位置。
6.如权利要求5所述的一种用于可见光与红外图像对的快速保色融合方法,其特征在于,特征点匹配算法,由软件自动找出特征点对,去掉误选的点对,并计算变换矩阵。
7.如权利要求1所述的一种用于可见光与红外图像对的快速保色融合方法,其特征在于,步骤3包括以下步骤:
步骤S31:根据RGB色彩空间下的可见光像素的亮度值计算增强上限值;
采用三通道最大值法计算可见光像素的亮度值,并采用理想白色法和归一化操作规定增强上限值;
设可见光像素RGB三通道为Cv=(Rv,Gv,Bv),Rv表示可见光像素的红色通道数值,Gv表示可见光像素的绿色通道数值,Bv表示可见光像素的蓝色通道数值;对应的红外像素值(单通道)为Vi,则可见光像素亮度值为Vm=max(Rv,Gv,Bv,1),其中,取最大值时有常数1的参与,是为了保证Vm非零;认为Vm+255为理想白色值,增强上限为:
步骤S32:根据红外像素值计算增强比例;
采用归一化操作和伽马增强计算增强比例,增强比例α定义为:
其中,γ为伽马增强系数γ;
步骤S33:根据增强上限值和增强比例计算最终增强乘数;
采用将增强上限值与增强比例相乘再与1取平均数的方法计算增强乘数,增强乘数k定义为:
步骤S34:根据增强乘数将可见光像素进行增强;
采用三维向量的数乘方法对可见光像素进行增强,输出的RGB三通道融合像素Cf为:
Cf=(Rf,Gf,Bf)=min(kCv,255)
=(min(kRv,255),min(kGv,255),min(kBv,255)) (4)
其中,将结果与255取最小值是为了将像素的每一个分量限制在0~255范围内;
步骤S35:将最终结果限制在规定范围内,得到可见光-红外融合图像。
8.一种用于可见光与红外图像对的快速保色融合装置,其特征在于,包括图像获取模块、图像预处理模块、系数计算模块和图像融合模块,其中,
图像获取模块用于采用可见光-红外双相机系统拍摄同一场景,获得原始可见光-红外输入图像对;
图像预处理模块用于根据标定得到的相机参数对双相机拍摄到的原始图像进行去畸变、对齐,获得相同大小且已对齐的可用于融合算法的可见光-红外输入图像对;图像预处理模块包括图像去畸变子模块和图像对齐子模块;
系数计算模块,用于针对输入图像对中的每一像素对,根据RGB色彩空间下的可见光像素的亮度值计算增强上限值,再根据红外像素值计算增强比例,最后根据增强上限值和增强比例计算最终增强乘数;系数计算模块包括增强上限计算子模块、增强比例计算子模块和增强乘数计算子模块;
图像融合模块,用于根据增强乘数将可见光像素进行增强并进行数值范围限定,最终将可见光-红外融合图像输出到显示器;图像融合模块包括增强子模块和限制子模块;
上述模块之间的连接关系为:
图像获取模块的输出端与图像预处理模块的输入端相连;在图像预处理模块内部,图像去畸变子模块的输出端与图像对齐子模块的输入端相连;
图像预处理模块的输出端与系数计算模块的输入端相连;在系数计算模块内部,增强上限计算子模块的输出端与增强比例计算子模块的输入端相连,增强比例计算子模块的输出端与增强乘数计算子模块的输入端相连;系数计算模块的输出端与图像融合模块的输入端相连;
在图像融合模块内部,增强子模块的输出端与限制子模块的输入端相连。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210381932.XA CN114881899A (zh) | 2022-04-12 | 2022-04-12 | 一种用于可见光与红外图像对的快速保色融合方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210381932.XA CN114881899A (zh) | 2022-04-12 | 2022-04-12 | 一种用于可见光与红外图像对的快速保色融合方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114881899A true CN114881899A (zh) | 2022-08-09 |
Family
ID=82668595
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210381932.XA Pending CN114881899A (zh) | 2022-04-12 | 2022-04-12 | 一种用于可见光与红外图像对的快速保色融合方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114881899A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115082371A (zh) * | 2022-08-19 | 2022-09-20 | 深圳市灵明光子科技有限公司 | 图像融合方法、装置、移动终端设备及可读存储介质 |
CN116193258A (zh) * | 2022-11-29 | 2023-05-30 | 北京理工大学 | 基于多深度特征点的交互式双相机图像对齐方法及系统 |
CN116193258B (zh) * | 2022-11-29 | 2024-05-31 | 北京理工大学 | 基于多深度特征点的交互式双相机图像对齐方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018076732A1 (zh) * | 2016-10-31 | 2018-05-03 | 广州飒特红外股份有限公司 | 红外图像和可见光图像融合的方法及装置 |
CN113362261A (zh) * | 2020-03-04 | 2021-09-07 | 杭州海康威视数字技术股份有限公司 | 图像融合方法 |
CN113902659A (zh) * | 2021-09-16 | 2022-01-07 | 大连理工大学 | 一种基于显著目标增强的红外和可见光融合方法 |
US20220044374A1 (en) * | 2019-12-17 | 2022-02-10 | Dalian University Of Technology | Infrared and visible light fusion method |
-
2022
- 2022-04-12 CN CN202210381932.XA patent/CN114881899A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018076732A1 (zh) * | 2016-10-31 | 2018-05-03 | 广州飒特红外股份有限公司 | 红外图像和可见光图像融合的方法及装置 |
US20220044374A1 (en) * | 2019-12-17 | 2022-02-10 | Dalian University Of Technology | Infrared and visible light fusion method |
CN113362261A (zh) * | 2020-03-04 | 2021-09-07 | 杭州海康威视数字技术股份有限公司 | 图像融合方法 |
CN113902659A (zh) * | 2021-09-16 | 2022-01-07 | 大连理工大学 | 一种基于显著目标增强的红外和可见光融合方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115082371A (zh) * | 2022-08-19 | 2022-09-20 | 深圳市灵明光子科技有限公司 | 图像融合方法、装置、移动终端设备及可读存储介质 |
CN116193258A (zh) * | 2022-11-29 | 2023-05-30 | 北京理工大学 | 基于多深度特征点的交互式双相机图像对齐方法及系统 |
CN116193258B (zh) * | 2022-11-29 | 2024-05-31 | 北京理工大学 | 基于多深度特征点的交互式双相机图像对齐方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106548467B (zh) | 红外图像和可见光图像融合的方法及装置 | |
CN108760767B (zh) | 基于机器视觉的大尺寸液晶屏缺陷检测方法 | |
US5206918A (en) | Color analysis based upon transformation to spherical coordinates | |
Niu et al. | Image quality assessment for color correction based on color contrast similarity and color value difference | |
Peng et al. | Image haze removal using airlight white correction, local light filter, and aerial perspective prior | |
CN111738970A (zh) | 图像融合方法、装置及计算机可读存储介质 | |
CN111489346B (zh) | 一种全参考图像质量评价方法及系统 | |
CN111491149B (zh) | 基于高清视频的实时抠像方法、装置、设备及存储介质 | |
CN105809643B (zh) | 一种基于自适应块通道拉伸的图像增强方法 | |
CN108230407B (zh) | 一种图像的处理方法和装置 | |
CN103065334A (zh) | 一种基于hsv颜色空间的偏色检测、校正方法及装置 | |
Jang et al. | Adaptive color enhancement based on multi-scaled Retinex using local contrast of the input image | |
CN103268596A (zh) | 一种降低图像噪声和使颜色接近标准的方法 | |
Lee et al. | Correction of the overexposed region in digital color image | |
CN107256539B (zh) | 一种基于局部对比度的图像锐化方法 | |
CN114881899A (zh) | 一种用于可见光与红外图像对的快速保色融合方法及装置 | |
CN111292279A (zh) | 一种基于彩色图像融合的偏振图像可视化方法 | |
CN110782400A (zh) | 一种自适应的光照均匀实现方法和装置 | |
CN114331835A (zh) | 一种基于最优映射矩阵的全景图像拼接方法及装置 | |
Zhang et al. | Color-to-gray conversion based on boundary points | |
CN111541886A (zh) | 一种应用于浑浊水下的视觉增强系统 | |
Rattanapitak et al. | Comparative efficiency of color models for multi-focus color image fusion | |
CN111383352A (zh) | 一种针对三阶魔方的自动填色及抽象化方法 | |
CN115100240A (zh) | 视频中的物体追踪方法及装置、电子设备、存储介质 | |
CN110298812A (zh) | 一种图像融合处理的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |