CN114581315B - 一种低能见度进近飞行多模态监视图像增强方法 - Google Patents
一种低能见度进近飞行多模态监视图像增强方法 Download PDFInfo
- Publication number
- CN114581315B CN114581315B CN202210005327.2A CN202210005327A CN114581315B CN 114581315 B CN114581315 B CN 114581315B CN 202210005327 A CN202210005327 A CN 202210005327A CN 114581315 B CN114581315 B CN 114581315B
- Authority
- CN
- China
- Prior art keywords
- image
- channel component
- visible light
- thermal imaging
- color space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000012544 monitoring process Methods 0.000 title claims abstract description 14
- 238000013459 approach Methods 0.000 title claims abstract description 12
- 238000001931 thermography Methods 0.000 claims abstract description 47
- 238000007500 overflow downdraw method Methods 0.000 claims abstract description 12
- 238000012545 processing Methods 0.000 claims abstract description 12
- 230000002708 enhancing effect Effects 0.000 claims abstract description 10
- 230000000007 visual effect Effects 0.000 claims abstract description 7
- 230000004927 fusion Effects 0.000 claims description 33
- 238000000354 decomposition reaction Methods 0.000 claims description 15
- 238000012937 correction Methods 0.000 claims description 10
- 238000005286 illumination Methods 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 8
- 238000000926 separation method Methods 0.000 claims description 6
- 238000011084 recovery Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 150000001875 compounds Chemical class 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 2
- 238000007499 fusion processing Methods 0.000 abstract description 4
- 239000000126 substance Substances 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G06T3/14—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Abstract
本发明公开了一种低能见度进近飞行多模态监视图像增强方法,多模态图像增强处理技术领域,该方法基于MSRCR对红外热成像图像进行增强、基于多曝光图像融合法对可见光图像进行增强;然后对增强后的图像采用基于轮廓特征主方向的多模态图像自动配准方法进行配准;最后基于图像金字塔的多模态图像融合方法进行融合处理,将红外信息与可见光信息配准融合到一幅图像中,实现特征信息互补、减少冗余信息,为飞行员在低能见度进近飞行情况下的监视视野进行增强。
Description
技术领域
本发明涉及多模态图像增强处理技术领域,具体涉及一种低能见度进近飞行多模态监视图像增强方法。
背景技术
飞机进近着陆阶段是安全飞行的重要环节,该阶段大部分情况下是依靠机长的目视情况进行着陆,因此存在很大安全隐患,此阶段也是飞行事故的易发点。如果能在飞机进近着陆阶段为机长提供真实有效的飞行态势和窗外视景,并增强飞行员视景,则可以帮助机长进行正确感知与操作,降低飞机进近着陆阶段飞行事故发生率。为解决此问题,利用先进的红外热成像与可见光等光电传感器,通过红外热成像获取场景温度辐射强度信息,通过可见光成像获取目标纹理、颜色和轮廓等信息,再将红外信息与可见光信息配准融合到一幅图像中,生成多模态融合图像,提升飞行员在低能见度进近飞行情况下的视野能见度。
在图像取景时,由于传感器的装配差异以及拍摄时间、距离和视角等客观因素,会导致光电传感器监视图像存在尺度差异、视角差异、仿射变形、难以提取相似几何特征等问题,从而产生多模态图像特征描述符相关度低、配准准确率低等问题。目前多模态融合算法主要分为像素层、特征层和决策层图像融合。像素级融合需要在待融合图像严格配准下进行,是在底层像素层面上对图像进行融合,可以最大限度保留原图像的像素信息,但运算量较大。特征级融合是从待融合图像中提取特征信息,比如对边缘信息、纹理信息和区域信息等进行综合分析与处理,将这些特征有选择性地保留到融合图像中。决策级图像融合属于最高层次的融合过程,通过对待融合图像的特征信息进行分类和识别,根据一定准则做出最优决策。多模态图像融合需要综合颜色、纹理、热辐射等信息,传统融合算法效果一般,难以满足低能见度进近飞行视野需求。
发明内容
本发明的目的在于克服现有技术的不足,提供一种低能见度进近飞行多模态监视图像增强方法,包括以下步骤:
步骤1:采集进近飞行过程中监视视野的红外热成像和可见光图像,分别通过MSRCR算法对红外热成像进行增强处理、基于多曝光图像融合法对可见光图像进行增强处理;
步骤2:分别对增强处理后的红外热成像、可见光图像进行图像轮廓特征提取,基于图像轮廓特征中的角点特征进行特征匹配,基于角点特征匹配结果利用最小二乘法计算分别得到红外热成像、可见光图像的多模态图像配准图像;
步骤3:分别对红外热成像、可见光图像的多模态图像配准图像进行塔形分解变换,得到多层塔形分解分量,将同一层数的红外热成像的塔多模态图像配准图像塔形分解分量与可见光图像的多模态图像配准图像塔形分解分量进行融合,得到多组融合分量;
步骤4:将多组融合分量进行逆向塔形变换,得到多模态融合图像,为低能见度进近飞行情况下的监视视野图像进行增强。
优选的,所述步骤1中,通过MSRCR算法对红外热成像进行增强时,还包括以下步骤:
步骤11:将红外热成像转换到HSV颜色空间,对HSV颜色空间进行颜色空间分离,得到H通道分量图像、S通道分量图像、V通道分量图像;
步骤12:H通道分量图像、S通道分量图像、V通道分量图像均依次进行入射光照估计、去除入射光照、加权平均处理后,合并为新的颜色空间;
步骤13:采用MSRCR算法通过色彩校正系数对新的颜色空间进行合并和颜色恢复。
优选的,所述步骤13中,MSRCR算法通过色彩校正系数对图像恢复颜色时的数学表达式如下:
式中,为第个色彩通道MSR算法结果,为MSRCR算法结果,计算表达式如下:
表示第个色彩通道的图像像素点,表示第个色彩通道的图像像素点;表示该红外热成像图像二维坐标系的横轴,表示该红外热成像图像二维坐标系的纵轴;表示第个新颜色空间中色彩通道的颜色恢复因子,即色彩校正系数;表示颜色空间的映射函数;为增益常数,为受控制的非线性强度。
优选的,所述步骤1中,基于多曝光图像融合法对可见光图像进行增强时,还包括以下步骤:
步骤14:将可见光图像的RGB颜色空间变换成HSV颜色空间,再对HSV颜色空间进行HSV颜色空间分离,得到H通道分量图像、S通道分量图像、V通道分量图像;
步骤15:生成V通道分量图像的弱曝光图像和强曝光图像,再将V通道分量图像与弱曝光图像和强曝光图像进行融合重构,得到融合重构后的V通道分量图像;
步骤16:将H通道分量图像、S通道分量图像、融合重构后的V通道分量图像重新进行合并,并转换回RGB颜色空间。
优选的,所述步骤2中,对增强后的红外热成像和增强后的可见光图像进行图像轮廓特征提取时,将增强后的红外热成像和增强后的可见光图像转换为灰度颜色空间。
优选的,所述步骤2中,基于图像轮廓特征中的角点特征进行特征匹配时还包括以下步骤:
步骤21:提取图像轮廓特征中的角点特征后,在图像曲率尺度空间下计算每个角点特征的轮廓中线特征主方向,建立SIFT描述符;
步骤22:利用FLANN方法进行特征粗匹配后,再利用随机抽样一致算法进行特征精匹配,得到角点特征匹配结果。
本发明的有益效果是:
该方法基于MSRCR对红外热成像图像进行增强、基于多曝光图像融合法对可见光图像进行增强;然后对增强后的图像采用基于轮廓特征主方向的多模态图像自动配准方法进行配准;最后基于图像金字塔的多模态图像融合方法进行融合处理,将红外信息与可见光信息配准融合到一幅图像中,实现特征信息互补、减少冗余信息,为飞行员在低能见度进近飞行情况下的监视视野进行增强。
附图说明
图1显示为本发明的流程图;
图2显示为本发明采集的红外热成像;
图3显示为本发明增强后的红外热成像;
图4显示为本发明采集的可见光图像;
图5显示为本发明增强后的可见光图像;
图6显示为本发明的特征粗匹配结果;
图7显示为本发明的征精匹配结果;
图8显示为本发明的多模态融合图像结果。
具体实施方式
下面结合本发明的附图1~8,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施。
在本发明的描述中,需要理解的是,术语“逆时针”、“顺时针”“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
如图1所示,一种低能见度进近飞行多模态监视图像增强方法,包括以下步骤:
步骤1:采集进近飞行过程中监视视野的红外热成像和可见光图像,分别通过MSRCR算法对红外热成像进行增强处理、基于多曝光图像融合法对可见光图像进行增强处理;
步骤2:分别对增强处理后的红外热成像、可见光图像进行图像轮廓特征提取,基于图像轮廓特征中的角点特征进行特征匹配,基于角点特征匹配结果利用最小二乘法计算分别得到红外热成像、可见光图像的多模态图像配准图像;
步骤3:分别对红外热成像、可见光图像的多模态图像配准图像进行塔形分解变换,得到多层塔形分解分量,将同一层数的红外热成像的塔多模态图像配准图像塔形分解分量与可见光图像的多模态图像配准图像塔形分解分量进行融合,得到多组融合分量;
步骤4:将多组融合分量进行逆向塔形变换,得到多模态融合图像,为低能见度进近飞行情况下的监视视野图像进行增强。
采集飞行进近飞行过程中视野的红外热成像如图2所示,采集的可见光图像如图4所示;通过MSRCR算法对红外热成像进行增强处理结果如图3所示,基于多曝光图像融合法对可见光图像进行增强处理结果如图5所示。
具体的,所述步骤1中,通过MSRCR算法对红外热成像进行增强时,还包括以下步骤:
步骤11:将红外热成像转换到HSV颜色空间,对HSV颜色空间进行颜色空间分离,得到H通道分量图像、S通道分量图像、V通道分量图像;
步骤12:H通道分量图像、S通道分量图像、V通道分量图像均依次进行入射光照估计、去除入射光照、加权平均处理后,合并为新的颜色空间;
步骤13:采用MSRCR算法通过色彩校正系数对新的颜色空间进行合并和颜色恢复。
色彩校正系数用于调节各颜色通道之间比例关系,降低图像色彩失真。
具体的,所述步骤13中,MSRCR算法通过色彩校正系数对图像恢复颜色时的数学表达式如下:
式中,为第个色彩通道MSR算法结果,为MSRCR算法结果,计算表达式如下:
表示第个色彩通道的图像像素点,表示第个色彩通道的图像像素点;表示该红外热成像图像二维坐标系的横轴,表示该红外热成像图像二维坐标系的纵轴;表示第个新颜色空间中色彩通道的颜色恢复因子,即色彩校正系数;表示颜色空间的映射函数;为增益常数,为受控制的非线性强度。
具体的,所述步骤1中,基于多曝光图像融合法对可见光图像进行增强时,还包括以下步骤:
步骤14:将可见光图像的RGB颜色空间变换成HSV颜色空间,再对HSV颜色空间进行HSV颜色空间分离,得到H通道分量图像、S通道分量图像、V通道分量图像;
步骤15:生成V通道分量图像的弱曝光图像和强曝光图像,再将V通道分量图像与弱曝光图像和强曝光图像进行融合重构,得到融合重构后的V通道分量图像;
步骤16:将H通道分量图像、S通道分量图像、融合重构后的V通道分量图像重新进行合并,并转换回RGB颜色空间。
生成强曝光图像时,提取曝光不足的像素区域:
表示曝光不足像素区域,表示满足条件的曝光不足像素点,表示通道光照分量图对应的像素点, 为区分曝光不足像素点的像素值阈值。
曝光不足像素区域的信息熵为:
其中, 为中每个灰度级出现的概率。
采用图像信息熵最大化原则计算最优曝光率值:
表示通过曝光率值对像素区域进行曝光处理后的曝光图像;
同理,生成弱曝光图像时,提取曝光过度的像素区域并计算最佳曝光率:
为强曝光最优曝光率,为弱曝光最优曝光率。
具体的,所述步骤2中,对增强后的红外热成像和增强后的可见光图像进行图像轮廓特征提取时,将增强后的红外热成像和增强后的可见光图像转换为灰度颜色空间。
具体的,所述步骤2中,基于图像轮廓特征中的角点特征进行特征匹配时还包括以下步骤:
步骤21:提取图像轮廓特征中的角点特征后,在图像曲率尺度空间下计算每个角点特征的轮廓中线特征主方向,建立SIFT描述符;
步骤22:利用FLANN方法进行特征粗匹配后,再利用随机抽样一致算法进行特征精匹配,得到角点特征匹配结果。
SIFT描述符,即尺度不变特征转换(Scale-invariant feature transform或SIFT),是一种常用的图像特征,称之为SIFT特征,FLANN (Fast Library for ApproximateNearest Neighbors)为快速近似最近邻搜索库,利用FLANN方法进行特征粗匹配的结果如图6所示,利用随机抽样一致算法进行特征精匹配的结果如图7所示。
图像曲率尺度空间下角点特征检测结果表示为:
其中,为图像曲率尺度空间下条轮廓中第条轮廓的特征角点集合,表示特征角点像素点。
的主方向定义为图像轮廓中线向量的方向,中线向量表示为:
其中,、分别为特征点指向轮廓始端和末端的特征向量,为中线向量的横坐标,为中线向量的纵坐标。
轮廓中线特征主方向用表示,取值范围为。
将多组融合分量进行逆向塔形变换时,设计基于Gauss-Laplace双金字塔模型的图像融合流程,将原图分解到不同空间频带上,利用不同融合算子对不同分解层进行融合处理,可以有效整合多光电传感器图像的纹理、色彩等信息:
设计基于Gauss-Laplace双金字塔模型的图像融合方法:
(1)建立Gauss金字塔方法:原图为,利用高斯核函数对层图像进行卷积,然后隔行隔列降采样得到第层高斯塔形分解图像。
其中,,指大小为的高斯核,指层数,、为图像的列数和行数。
(2)建立图像Laplace金字塔方法,得到Gauss-Laplace双金字塔模型,用于对多模态图像配准图像进行塔形分解变换:通过放大算子将Gauss塔形分解图像内插放大,得到与尺寸相同的图像;
其中,,的定义下式;
然后,得到拉普拉斯塔形分解图像:
(3)利用算子将逐步内插放大到与原图分辨率相同的图像,再通过加权融合重建原图,即逆塔形变换。
即为在低能见度进近飞行情况下对多模态监视图像进行增强融合后的结果,如图8所示,为图像金字塔层数。
Claims (2)
1.一种低能见度进近飞行多模态监视图像增强方法,其特征在于,包括以下步骤:
步骤1:采集进近飞行过程中监视视野的红外热成像和可见光图像,分别通过MSRCR算法对红外热成像进行增强处理、基于多曝光图像融合法对可见光图像进行增强处理;
步骤2:分别对增强处理后的红外热成像、可见光图像进行图像轮廓特征提取,基于图像轮廓特征中的角点特征进行特征匹配,基于角点特征匹配结果利用最小二乘法计算分别得到红外热成像、可见光图像的多模态图像配准图像;
步骤3:分别对红外热成像、可见光图像的多模态图像配准图像进行塔形分解变换,得到多层塔形分解分量,将同一层的红外热成像塔形分解分量与可见光图像塔形分解分量进行融合,得到多组融合分量;
步骤4:将多组融合分量进行逆向塔形变换,得到多模态融合图像,为低能见度进近飞行情况下的监视视野图像进行增强;
所述步骤1中,通过MSRCR算法对红外热成像进行增强时,还包括以下步骤:
步骤11:将红外热成像转换到HSV颜色空间,对HSV颜色空间进行颜色空间分离,得到H通道分量图像、S通道分量图像、V通道分量图像;
步骤12:H通道分量图像、S通道分量图像、V通道分量图像均依次进行入射光照估计、去除入射光照、加权平均处理后,合并为新的颜色空间;
步骤13:采用MSRCR算法通过色彩校正系数对新的颜色空间进行合并和颜色恢复;
所述步骤13中,MSRCR算法通过色彩校正系数对图像恢复颜色时的数学表达式如下:
式中,为第个色彩通道MSR算法结果,为MSRCR算法结果,计算表达式如下:
表示第个色彩通道的图像像素点,表示第个色彩通道的图像像素点;表示该红外热成像图像二维坐标系的横轴,表示该红外热成像图像二维坐标系的纵轴;表示第个新颜色空间中色彩通道的颜色恢复因子,即色彩校正系数;表示颜色空间的映射函数;为增益常数,为受控制的非线性强度;
所述步骤1中,基于多曝光图像融合法对可见光图像进行增强时,还包括以下步骤:
步骤14:将可见光图像的RGB颜色空间变换成HSV颜色空间,再对HSV颜色空间进行HSV颜色空间分离,得到H通道分量图像、S通道分量图像、V通道分量图像;
步骤15:生成V通道分量图像的弱曝光图像和强曝光图像,再将V通道分量图像与弱曝光图像和强曝光图像进行融合重构,得到融合重构后的V通道分量图像;
步骤16:将H通道分量图像、S通道分量图像、融合重构后的V通道分量图像重新进行合并,并转换回RGB颜色空间;
所述步骤2中,基于图像轮廓特征中的角点特征进行特征匹配时还包括以下步骤:
步骤21:提取图像轮廓特征中的角点特征后,在图像曲率尺度空间下计算每个角点特征的轮廓中线特征主方向,建立SIFT描述符;
步骤22:利用FLANN方法进行特征粗匹配后,再利用随机抽样一致算法进行特征精匹配,得到角点特征匹配结果
2.根据权利要求1所述的一种低能见度进近飞行多模态监视图像增强方法,其特征在于,所述步骤2中,对增强后的红外热成像和增强后的可见光图像进行图像轮廓特征提取时,将增强后的红外热成像和增强后的可见光图像转换为灰度颜色空间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210005327.2A CN114581315B (zh) | 2022-01-05 | 2022-01-05 | 一种低能见度进近飞行多模态监视图像增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210005327.2A CN114581315B (zh) | 2022-01-05 | 2022-01-05 | 一种低能见度进近飞行多模态监视图像增强方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114581315A CN114581315A (zh) | 2022-06-03 |
CN114581315B true CN114581315B (zh) | 2023-04-18 |
Family
ID=81768868
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210005327.2A Active CN114581315B (zh) | 2022-01-05 | 2022-01-05 | 一种低能见度进近飞行多模态监视图像增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114581315B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116309569B (zh) * | 2023-05-18 | 2023-08-22 | 中国民用航空飞行学院 | 基于红外与可见光图像配准的机场环境异常识别系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110458877A (zh) * | 2019-08-14 | 2019-11-15 | 湖南科华军融民科技研究院有限公司 | 基于仿生视觉的红外与可见光信息融合的导航方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106023129A (zh) * | 2016-05-26 | 2016-10-12 | 西安工业大学 | 红外与可见光图像融合的汽车抗晕光视频图像处理方法 |
CN106600572A (zh) * | 2016-12-12 | 2017-04-26 | 长春理工大学 | 一种自适应的低照度可见光图像和红外图像融合方法 |
CN110807384A (zh) * | 2019-10-24 | 2020-02-18 | 华东计算技术研究所(中国电子科技集团公司第三十二研究所) | 低能见度下的小目标检测方法和系统 |
-
2022
- 2022-01-05 CN CN202210005327.2A patent/CN114581315B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110458877A (zh) * | 2019-08-14 | 2019-11-15 | 湖南科华军融民科技研究院有限公司 | 基于仿生视觉的红外与可见光信息融合的导航方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114581315A (zh) | 2022-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Rokni et al. | A new approach for surface water change detection: Integration of pixel level image fusion and image classification techniques | |
Li et al. | Multi-feature combined cloud and cloud shadow detection in GaoFen-1 wide field of view imagery | |
Nasiri et al. | Infrared small target enhancement based on variance difference | |
US9047672B2 (en) | Image generation apparatus, image generation method and image generation program | |
EP3016383B1 (en) | Method, device, and system for pre-processing a video stream for subsequent motion detection processing | |
Krishnan et al. | A survey on different edge detection techniques for image segmentation | |
CN110660065B (zh) | 一种红外故障检测识别算法 | |
Kang et al. | Fog model-based hyperspectral image defogging | |
CN112184604A (zh) | 一种基于图像融合的彩色图像增强方法 | |
CN114581315B (zh) | 一种低能见度进近飞行多模态监视图像增强方法 | |
CN114612359A (zh) | 基于特征提取的可见光与红外图像融合方法 | |
CN113744191A (zh) | 一种卫星遥感影像自动云检测方法 | |
Li et al. | DIM moving target detection using spatio-temporal anomaly detection for hyperspectral image sequences | |
Thenmozhi et al. | An Efficient Object Detection and Classification from Restored Thermal Images based on Mask RCNN | |
Anoopa et al. | Shadow detection and removal using tri-class based thresholding and shadow matting technique | |
Wang et al. | A new cloud removal algorithm for multi-spectral images | |
CN105608674A (zh) | 一种基于图像配准、插值和去噪的图像增强方法 | |
CN110765853B (zh) | 一种多谱段相机的图像处理方法 | |
CN112734636A (zh) | 一种多源异构遥感影像的融合方法 | |
CN111079516B (zh) | 基于深度神经网络的行人步态分割方法 | |
Chen et al. | Infrared dim target detection method based on local feature contrast and energy concentration degree | |
Wang et al. | A rapid detection method for dim moving target in hyperspectral image sequences | |
CN111583315A (zh) | 一种新的可见光图像和红外图像配准方法及装置 | |
CN115035350B (zh) | 一种基于边缘检测增强的对空地、地面背景小目标检测方法 | |
CN115578304A (zh) | 一种结合显著性区域检测的多波段图像融合方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |