WO2017020595A1 - 一种可见光图像与红外图像融合处理系统及融合方法 - Google Patents

一种可见光图像与红外图像融合处理系统及融合方法 Download PDF

Info

Publication number
WO2017020595A1
WO2017020595A1 PCT/CN2016/077134 CN2016077134W WO2017020595A1 WO 2017020595 A1 WO2017020595 A1 WO 2017020595A1 CN 2016077134 W CN2016077134 W CN 2016077134W WO 2017020595 A1 WO2017020595 A1 WO 2017020595A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
visible light
infrared
frequency component
fusion
Prior art date
Application number
PCT/CN2016/077134
Other languages
English (en)
French (fr)
Inventor
黄立
林道庆
王鹏
周汉林
刘飞
孙小敏
Original Assignee
武汉高德红外股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 武汉高德红外股份有限公司 filed Critical 武汉高德红外股份有限公司
Priority to ES16832084T priority Critical patent/ES2743759T3/es
Priority to PL16832084T priority patent/PL3319040T3/pl
Priority to EP16832084.4A priority patent/EP3319040B1/en
Priority to US15/750,359 priority patent/US10341586B2/en
Publication of WO2017020595A1 publication Critical patent/WO2017020595A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • G06T5/75Unsharp masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Definitions

  • the invention belongs to the field of digital image processing, and in particular relates to a visible light image and infrared image fusion processing system and a fusion method.
  • the imaging principles of various image sensors are different.
  • the core devices that implement the photoelectric conversion function have different response wavelength ranges, and a single image sensor cannot meet various imaging requirements.
  • the present invention provides a fusion image processing system and a fusion method for a visible image and an infrared image, which satisfies the difference in imaging requirements of different sensors in different situations, denoises and filters the detailed image, and filters the maximum value.
  • the re-enhancement process solves the problem of insufficient detail and noise of the traditional fusion system.
  • the invention can adjust the fusion ratio of the visible light image and the infrared image according to the requirements, and enhance the image details to improve the detailed information of the fused image.
  • a visible light image and infrared image fusion processing system comprising an image acquisition module, an image fusion module, and an image display module; the image fusion module is respectively connected to the image acquisition module and the image display module;
  • the image acquisition module includes an infrared image acquisition device and a visible light image acquisition device, and the image fusion module performs fusion processing on the infrared image and the visible light image to obtain a fusion result; the image display module transmits the fusion image to the display device for display.
  • the lens of the infrared image capturing device and the visible light image capturing device are installed at the same position, and the optical axis of the lens is in the same direction and parallel; the video images output by the infrared image capturing device and the visible light image capturing device need to be frame synchronously output, and are viewed according to the resolution.
  • the field angle range is registered to make the image scene area the same; the area of the registration image is selected in advance to avoid the use of complex operations to achieve image registration.
  • Step 1 Formatting the selected visible light image target area, converting the color image into a gray image or only selecting a brightness component image of the color image;
  • Step 2 Low-pass filtering the grayscale image or the luminance component of visible light to obtain a low visible light image Frequency component map; then differentially calculating the visible light gray image and the visible light low frequency component to obtain a visible light high frequency component map;
  • Step 3 low-pass filtering the infrared image to obtain a low-frequency component map of the infrared image; then performing a difference operation between the pre-filtered infrared gray image and the low-frequency component image of the infrared image to obtain a high-frequency component image of the infrared image;
  • Step 4 implementing a pseudo color augmented reality of a low frequency component of the infrared image by using a look-up table method, and extracting a luminance component in the pseudo color image;
  • Step 5 merging the low-frequency component map, that is, weighting the low-frequency component of the infrared image and the low-frequency component of the visible grayscale image, and the weight sum of each pixel is 1;
  • the weight value of each pixel is adaptively calculated according to the scene information during fusion, which conforms to the following principle.
  • Principle 1 The range of the luminance component of the low-frequency image of the infrared image is [0, 255]; visible light The value range of the low-frequency component of the image is also [0, 255];
  • principle 2 when the scene of interest is dominated by the infrared image, if the gray value of the luminance component map of the infrared low-frequency image is larger than the gray value of the low-frequency component map of the visible image, the infrared image
  • the weight value of the pixel is 1; otherwise, the value is based on the external input parameter;
  • principle 3 when the scene of interest is dominated by the visible image, if the gray value of the luminance component map of the infrared low frequency image is larger than the gray of the low frequency component of the visible image The value of the infrared image is based on the external input parameter. Otherwise, the infrared
  • Step 6 Enhance the high-frequency component map, that is, adjust the enhancement degree of the infrared image high-frequency component map and the visible light high-frequency component map with the control parameters;
  • Step 7 superimposing the enhanced infrared image high-frequency component image and the visible high-frequency component image together to obtain the fused low-frequency component image in step 5, to obtain a fused luminance component image;
  • Step 8 Replace the luminance component in the infrared pseudo color image with the fused luminance component image to obtain a final fused result image.
  • the step 6 is specifically performed as follows:
  • Step 6.1 In order to reduce the noise of the detail image, before the enhancement of the detail image, the high frequency image needs to be bilaterally filtered to remove the noise;
  • Step 6.2 Comparing the details of the infrared image detail with the visible image detail.
  • the maximum value of the two is taken as the detail value;
  • the pixel value of the detail image is negative, Take the minimum of the two as the detail value to get a new detail image;
  • Step 6.3 Enhance the detail image with external enhancement parameters to obtain an enhanced high frequency component map.
  • the invention has the beneficial effects that the invention can adjust the fusion ratio of the visible light image and the infrared image according to the demand, and filter and compare the image details, and then enhance, improve the detailed information of the fused image, and avoid noise interference.
  • the invention also flexibly controls the fusion weight of the visible light and the infrared image through the adjustment of the external parameters, and the detail enhancement degree satisfies the multi-class display requirement.
  • Figure 1 is a schematic illustration of the system of the present invention.
  • FIG. 2 is a flow chart of an image fusion method of the present invention.
  • the present invention includes an image acquisition module, an image fusion module, and an image display module; the image fusion module is respectively connected to the image acquisition module and the image display module; the image acquisition module includes an infrared image acquisition device and a visible light image acquisition device.
  • the image fusion module performs fusion processing on the infrared image and the visible light image to obtain a fusion result; the image display module transmits the fused image to the display device for display.
  • the image acquisition module is divided into two parts: the infrared image acquisition device and the visible light image acquisition device.
  • the lenses of the two must be installed at the same position, and the optical axes of the lens are in the same direction and parallel; the video images output by different image acquisition devices need frame synchronization output, and according to The resolution registers the range of the field of view to make the image scene area the same; the area of the registration image can select the method of pre-setting the selected area to avoid image registration by using complex operations.
  • the image acquisition module transmits the acquired infrared image data and the visible light image data to the image fusion processing module.
  • the image fusion module performs image fusion on the regions of interest of the selected infrared and visible images through software operations.
  • the specific implementation process is shown in Figure 2. The detailed steps are as follows:
  • Step 1 Formatting the selected visible light image target area, converting the color image into a gray image or only selecting a brightness component image of the color image;
  • Step 2 low-pass filtering the grayscale image or the luminance component of the visible light to obtain a low-frequency component map of the visible light image; and then performing differential operation between the visible light grayscale image and the visible light low-frequency component to obtain a visible light high-frequency component map;
  • Step 3 low-pass filtering the infrared image to obtain a low-frequency component map of the infrared image; then performing a difference operation between the pre-filtered infrared gray image and the low-frequency component image of the infrared image to obtain a high-frequency component image of the infrared image;
  • Step 4 Realize the pseudo-color augmented reality of the low-frequency component of the infrared image by using the look-up table method, and extract the luminance component in the pseudo-color image
  • Step 5 merging the low-frequency component map, that is, weighting the low-frequency component of the infrared image and the low-frequency component of the visible grayscale image, and the weight sum of each pixel is 1;
  • the weight value of each pixel is adaptively calculated according to the scene information during fusion, which conforms to the following principle.
  • Principle 1 The range of the luminance component of the low-frequency image of the infrared image is [0, 255]; visible light The value range of the low-frequency component of the image is also [0, 255];
  • principle 2 when the scene of interest is dominated by the infrared image, if the gray value of the luminance component map of the infrared low-frequency image is larger than the gray value of the low-frequency component map of the visible image, the infrared image
  • the weight value of the pixel is 1; otherwise, the value is based on the external input parameter;
  • principle 3 when the scene of interest is dominated by the visible image, if the gray value of the luminance component map of the infrared low frequency image is larger than the gray of the low frequency component of the visible image The value of the infrared image is based on the external input parameter. Otherwise, the infrared
  • Step 6 Enhance the high-frequency component map, that is, adjust the enhancement degree of the infrared image high-frequency component map and the visible light high-frequency component map with the control parameters; the specific steps are as follows:
  • Step 6.1 In order to reduce the noise of the detail image, before the enhancement of the detail image, the high frequency image needs to be bilaterally filtered to remove the noise;
  • Step 6.2 Compare the details of the infrared image detail with the visible image detail. When the pixel value of the detail image is positive, take the maximum value of the two as the detail value; when the pixel value of the detail image is negative, take two The minimum value is used as the detail value to obtain a new detailed image;
  • Step 6.3 Enhance the detail image with external enhancement parameters to obtain an enhanced high frequency component map.
  • Step 7 superimposing the enhanced infrared image high-frequency component image and the visible high-frequency component image together to obtain the fused low-frequency component image in step 5, to obtain a fused luminance component image;
  • Step 8 Replace the luminance component in the infrared pseudo color image with the fused luminance component image to obtain a final fused result image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Color Image Communication Systems (AREA)

Abstract

提供一种可见光图像与红外图像融合处理系统及融合方法。融合处理系统包含图像采集模块、图像融合模块、图像显示模块;图像融合模块分别与图像采集模块及图像显示模块相连。融合方法可根据需求调整可见光图像与红外图像的融合比例,并对图像细节进行滤波和比较,再进行增强,提高融合图像的细节信息,避免了噪声的干扰。通过外部参数调整可灵活控制可见光和红外图像的融合权重,以及细节增强程度,满足多类显示需求。

Description

一种可见光图像与红外图像融合处理系统及融合方法 技术领域
本发明属于数字图像处理领域,具体涉及一种可见光图像与红外图像融合处理系统及融合方法。
背景技术
在数字图像处理领域中,各种图像传感器的成像原理存在差异,实现光电转换功能的核心器件响应波长范围不同,单一的图像传感器不能满足各种成像需求。
发明内容
针对单一图像传感器成像的不足,本发明提供一种可见光图像与红外图像融合处理系统及融合方法,满足不同情况下对不同传感器成像的需求差别,对细节图像进行去噪滤波,并筛选最值,再增强处理,进而解决了传统融合系统的细节不足和噪声较大的问题。本发明可根据需求调整可见光图像与红外图像的融合比例,并对图像细节进行增强,提高融合图像的细节信息。
本发明的技术方案为:
1、一种可见光图像与红外图像融合处理系统,包含图像采集模块、图像融合模块、图像显示模块;图像融合模块分别与图像采集模块及图像显示模块相连;
所述图像采集模块包括红外图像采集装置和可见光图像采集装置,所述图像融合模块对红外图像和可见光图像进行融合处理,获得融合结果;所述图像显示模块将融合图像传送至显示设备显示。
所述红外图像采集装置和可见光图像采集装置的镜头安装在相同位置,镜头光轴同方向且平行;红外图像采集装置和可见光图像采集装置输出的视频图像需要帧同步输出,并根据分辨率对视场角范围进行配准,使图像场景区域相同;配准图像的区域选择预先设定选取区域,避免使用复杂运算实现图像配准。
利用一种可见光图像与红外图像融合处理系统的融合方法,按以下步骤进行:
步骤1:将选取的可见光图像目标区域进行格式变换,将彩色图像转变为灰度图像或只选择彩色图像的亮度分量图像;
步骤2:将可见光的灰度图像或亮度分量进行低通滤波,得到可见光图像低 频分量图;然后用滤波前可见光灰度图像与可见光低频分量进行差分运算,获得可见光高频分量图;
步骤3:对红外图像进行低通滤波,得到红外图像低频分量图;然后用滤波前红外灰度图像与红外图像低频分量图进行差分运算,得到红外图像高频分量图;
步骤4:用查表法实现红外图像低频分量的伪彩色增强现实,并提取伪彩色图像中的亮度分量;
步骤5:融合低频分量图,即对红外图像低频的亮度分量与可见光灰度图像的低频分量进行加权求和,每个像素的权重和均为1;
为了保持人眼关注目标不受影响,融合时根据场景信息自适应计算每个像素的权重值,符合以下原则,原则一:红外图像低频图像的亮度分量图的取值范围是[0,255];可见光图像低频分量的取值范围也是[0,255];原则二:当关注场景以红外图像为主时,如果红外低频图像的亮度分量图的灰度值大于可见光图像低频分量图的灰度值,红外图像像素点的权重值取值为1;否则根据外部输入参数取值;原则三:当关注场景以可见光图像为主时,如果红外低频图像的亮度分量图的灰度值大于可见光图像低频分量的灰度值,红外图像的权重根据外部输入参数取值,否则红外图像权重取值为0;原则四:无论关注场景是红外还是可见光,二者权重和始终是1。
步骤6:增强高频分量图,即用控制参数调节红外图像高频分量图和可见光高频分量图的增强程度;
步骤7:将增强后的红外图像高频分量图和可见光高频分量图像一起叠加到步骤5中得到融合低频分量图像上,得到融合亮度分量图像;
步骤8:用融合亮度分量图像替代红外伪彩色图像中的亮度分量,得到最终的融合结果图像。
所述步骤6具体按以下步骤进行:
步骤6.1:为了减弱细节图像的噪声,对细节图像进行增强之前,需要先对高频图像进行双边滤波,去除噪声;
步骤6.2:比较红外图像细节与可见光图像细节的取值,当细节图像像素值均为正数时,取两者中的最大值作为细节值;当细节图像的像素值均为负数时, 取两者中最小值作为细节值,得到一幅新的细节图像;
步骤6.3:用外部增强参数对细节图像进行增强得到增强后的高频分量图。
本发明的有益效果在于:本发明可根据关注需求调整可见光图像与红外图像的融合比例,并对图像细节进行滤波和比较,再进行增强,提高融合图像的细节信息,避免了噪声的干扰。本发明还通过外部参数调整可以灵活控制可见光和红外图像的融合权重,细节增强程度,满足多类显示需求。
附图说明
图1为本发明系统的示意图。
图2为本发明的图像融合方法流程图。
具体实施方式
结合附图对本发明作进一步的描述。
如图1所示,本发明包含图像采集模块、图像融合模块、图像显示模块;图像融合模块分别与图像采集模块及图像显示模块相连;所述图像采集模块包括红外图像采集装置和可见光图像采集装置,所述图像融合模块对红外图像和可见光图像进行融合处理,获得融合结果;所述图像显示模块将融合图像传送至显示设备显示。
图像采集模块分为红外图像采集装置与可见光图像采集装置两部分,两者的镜头必须安装在相同位置,镜头光轴同方向且平行;不同图像采集装置输出的视频图像需要帧同步输出,并根据分辨率对视场角范围进行配准,使图像场景区域相同;配准图像的区域选取可以选择预先设定选取区域的方法,避免使用复杂运算实现图像配准。图像采集模块将采集红外图像数据和可见光图像数据传送给图像融合处理模块。
图像融合模块是通过软件运算将选取的红外和可见光图像的感兴趣区域进行图像融合,具体实现流程如图2所示,详细步骤如下:
步骤1:将选取的可见光图像目标区域进行格式变换,将彩色图像转变为灰度图像或只选择彩色图像的亮度分量图像;
步骤2:将可见光的灰度图像或亮度分量进行低通滤波,得到可见光图像低频分量图;然后用滤波前可见光灰度图像与可见光低频分量进行差分运算,获得可见光高频分量图;
步骤3:对红外图像进行低通滤波,得到红外图像低频分量图;然后用滤波前红外灰度图像与红外图像低频分量图进行差分运算,得到红外图像高频分量图;
步骤4:用查表法实现红外图像低频分量的伪彩色增强现实,并提取伪彩色图像中的亮度分量
步骤5:融合低频分量图,即对红外图像低频的亮度分量与可见光灰度图像的低频分量进行加权求和,每个像素的权重和均为1;
为了保持人眼关注目标不受影响,融合时根据场景信息自适应计算每个像素的权重值,符合以下原则,原则一:红外图像低频图像的亮度分量图的取值范围是[0,255];可见光图像低频分量的取值范围也是[0,255];原则二:当关注场景以红外图像为主时,如果红外低频图像的亮度分量图的灰度值大于可见光图像低频分量图的灰度值,红外图像像素点的权重值取值为1;否则根据外部输入参数取值;原则三:当关注场景以可见光图像为主时,如果红外低频图像的亮度分量图的灰度值大于可见光图像低频分量的灰度值,红外图像的权重根据外部输入参数取值,否则红外图像权重取值为0;原则四:无论关注场景是红外还是可见光,二者权重和始终是1。
步骤6:增强高频分量图,即用控制参数调节红外图像高频分量图和可见光高频分量图的增强程度;具体步骤按以下方法进行:
步骤6.1:为了减弱细节图像的噪声,对细节图像进行增强之前,需要先对高频图像进行双边滤波,去除噪声;
步骤6.2:比较红外图像细节与可见光图像细节的取值,当细节图像像素值均为正数时,取两者中的最大值作为细节值;当细节图像的像素值均为负数时,取两者中最小值作为细节值,得到一幅新的细节图像;
步骤6.3:用外部增强参数对细节图像进行增强得到增强后的高频分量图。
步骤7:将增强后的红外图像高频分量图和可见光高频分量图像一起叠加到步骤5中得到融合低频分量图像上,得到融合亮度分量图像;
步骤8:用融合亮度分量图像替代红外伪彩色图像中的亮度分量,得到最终的融合结果图像。

Claims (4)

  1. 一种可见光图像与红外图像融合处理系统,包含图像采集模块、图像融合模块、图像显示模块;其特征在于:所述图像融合模块分别与图像采集模块及图像显示模块相连;
    所述图像采集模块包括红外图像采集装置和可见光图像采集装置,所述图像融合模块对红外图像和可见光图像进行融合处理,获得融合结果;所述图像显示模块将融合图像传送至显示设备显示。
  2. 根据权利要求1所述的可见光图像与红外图像融合处理系统,其特征在于:所述红外图像采集装置和可见光图像采集装置的镜头安装在相同位置,镜头光轴同方向且平行设置;所述红外图像采集装置和可见光图像采集装置输出的视频图像需要帧同步输出,并根据分辨率对视场角范围进行配准,使图像场景区域相同;配准图像的区域选择预先设定选取区域,避免使用复杂运算实现图像配准。
  3. 利用权利要求1所述的可见光图像与红外图像融合处理系统的融合方法,其特征在于:所述融合方法按以下步骤进行:
    步骤1:将选取的可见光图像目标区域进行格式变换,将彩色图像转变为灰度图像或只选择彩色图像的亮度分量图像;
    步骤2:将可见光的灰度图像或亮度分量进行低通滤波,得到可见光图像低频分量图;然后用滤波前可见光灰度图像与可见光低频分量进行差分运算,获得可见光高频分量图;
    步骤3:对红外图像进行低通滤波,得到红外图像低频分量图;然后用滤波前红外灰度图像与红外图像低频分量图进行差分运算,得到红外图像高频分量图;
    步骤4:用查表法实现红外图像低频分量的伪彩色增强现实,并提取伪彩色图像中的亮度分量;
    步骤5:融合低频分量图,对红外图像低频的亮度分量与可见光灰度图像的低频分量进行加权求和,每个像素的权重和均为1;
    步骤6:增强高频分量图,用控制参数调节红外图像高频分量图和可见光高频分量图的增强程度;
    步骤7:将增强后的红外图像高频分量图和可见光高频分量图像一起叠加到 步骤5中得到融合低频分量图像上,得到融合亮度分量图像;
    步骤8:用融合亮度分量图像替代红外伪彩色图像中的亮度分量,得到最终的融合结果图像。
  4. 根据权利要求3所述的可见光图像与红外图像融合处理系统的融合方法,其特征在于:所述步骤6具体按以下步骤进行:
    步骤6.1:为了减弱细节图像的噪声,对细节图像进行增强之前,需要先对高频图像进行双边滤波,去除噪声;
    步骤6.2:比较红外图像细节与可见光图像细节的取值,当细节图像像素值均为正数时,取两者中的最大值作为细节值;当细节图像的像素值均为负数时,取两者中最小值作为细节值,得到一幅新的细节图像;
    步骤6.3:用外部增强参数对细节图像进行增强得到增强后的高频分量图。
PCT/CN2016/077134 2015-08-05 2016-03-23 一种可见光图像与红外图像融合处理系统及融合方法 WO2017020595A1 (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
ES16832084T ES2743759T3 (es) 2015-08-05 2016-03-23 Sistema de procesado de fusión de imágenes de luz visible e imágenes de infrarrojos y método de fusión
PL16832084T PL3319040T3 (pl) 2015-08-05 2016-03-23 System obróbki fuzji obrazów w świetle widzialnym i obrazów w podczerwieni oraz sposób fuzji
EP16832084.4A EP3319040B1 (en) 2015-08-05 2016-03-23 Visible light image and infrared image fusion processing system and fusion method
US15/750,359 US10341586B2 (en) 2015-08-05 2016-03-23 Visible light image and infrared image fusion processing system and fusion method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201510473667.8A CN105069768B (zh) 2015-08-05 2015-08-05 一种可见光图像与红外图像融合处理系统及融合方法
CN201510473667.8 2015-08-05

Publications (1)

Publication Number Publication Date
WO2017020595A1 true WO2017020595A1 (zh) 2017-02-09

Family

ID=54499126

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2016/077134 WO2017020595A1 (zh) 2015-08-05 2016-03-23 一种可见光图像与红外图像融合处理系统及融合方法

Country Status (6)

Country Link
US (1) US10341586B2 (zh)
EP (1) EP3319040B1 (zh)
CN (1) CN105069768B (zh)
ES (1) ES2743759T3 (zh)
PL (1) PL3319040T3 (zh)
WO (1) WO2017020595A1 (zh)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110111292A (zh) * 2019-04-30 2019-08-09 淮阴师范学院 一种红外与可见光图像融合方法
CN110189286A (zh) * 2019-05-30 2019-08-30 兰州交通大学 一种基于ResNet的红外与可见光图像融合方法
CN110246108A (zh) * 2018-11-21 2019-09-17 浙江大华技术股份有限公司 一种图像处理方法、装置及计算机可读存储介质
CN110264402A (zh) * 2019-06-12 2019-09-20 浙江大华技术股份有限公司 图像融合方法、装置、存储介质及电子装置
CN110766706A (zh) * 2019-09-26 2020-02-07 深圳市景阳信息技术有限公司 图像融合方法、装置、终端设备及存储介质
CN110838091A (zh) * 2019-10-25 2020-02-25 北京中电慧视科技有限公司 完全自适应的红外图像对比度增强方法及系统
CN111105361A (zh) * 2019-11-12 2020-05-05 中国科学院西安光学精密机械研究所 基于场景先验的遥感图像增强方法
CN111612725A (zh) * 2020-04-29 2020-09-01 中国科学院西安光学精密机械研究所 一种基于可见光图像对比度增强的图像融合方法
CN111861958A (zh) * 2020-07-10 2020-10-30 逢亿科技(上海)有限公司 一种基于自适应性对抗系统的图像融合算法
CN112053392A (zh) * 2020-09-17 2020-12-08 南昌航空大学 一种红外与可见光图像的快速配准与融合方法
CN112132753A (zh) * 2020-11-06 2020-12-25 湖南大学 多尺度结构引导图像的红外图像超分辨率方法及系统
CN112487947A (zh) * 2020-11-26 2021-03-12 西北工业大学 基于图像融合与目标检测网络的低照度图像目标检测方法
EP3734552A4 (en) * 2018-02-09 2021-03-24 Huawei Technologies Co., Ltd. IMAGE PROCESSING PROCESS AND ASSOCIATED DEVICE
CN112712485A (zh) * 2019-10-24 2021-04-27 杭州海康威视数字技术股份有限公司 一种图像融合方法及装置
CN112734683A (zh) * 2021-01-07 2021-04-30 西安电子科技大学 基于目标增强的多尺度sar与红外图像融合方法
CN112884690A (zh) * 2021-02-26 2021-06-01 中国科学院西安光学精密机械研究所 一种基于三种尺度分解的红外与可见光图像融合方法
CN112991250A (zh) * 2021-04-19 2021-06-18 吉林大学 基于响尾蛇视觉成像的红外与可见光图像融合方法
CN113066011A (zh) * 2021-04-07 2021-07-02 合肥英睿系统技术有限公司 一种图像处理方法、装置、系统、介质和电子设备
CN113077482A (zh) * 2018-09-29 2021-07-06 西安工业大学 一种融合图像的质量评价方法
CN113538303A (zh) * 2020-04-20 2021-10-22 杭州海康威视数字技术股份有限公司 图像融合方法
CN113674192A (zh) * 2021-08-24 2021-11-19 燕山大学 红外视频图像与可见光视频图像融合方法、系统及装置
CN114399449A (zh) * 2021-11-22 2022-04-26 中国科学院西安光学精密机械研究所 一种基于均值滤波分解的形态选通偏振图像融合方法
CN114418905A (zh) * 2021-11-29 2022-04-29 昆明物理研究所 像元采样中心错位重叠排列双波段探测器图像融合算法
CN114693581A (zh) * 2022-06-02 2022-07-01 深圳市海清视讯科技有限公司 图像融合处理方法、装置、设备及存储介质
CN115661068A (zh) * 2022-10-21 2023-01-31 广州科易光电技术有限公司 气体泄漏检测方法及装置、设备、存储介质
CN112712485B (zh) * 2019-10-24 2024-06-04 杭州海康威视数字技术股份有限公司 一种图像融合方法及装置

Families Citing this family (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105069768B (zh) * 2015-08-05 2017-12-29 武汉高德红外股份有限公司 一种可见光图像与红外图像融合处理系统及融合方法
CN106960428A (zh) * 2016-01-12 2017-07-18 浙江大立科技股份有限公司 可见光和红外双波段图像融合增强方法
CN105719263B (zh) * 2016-01-22 2018-05-25 昆明理工大学 基于nsct域底层视觉特征的可见光和红外图像融合方法
FR3048800B1 (fr) * 2016-03-11 2018-04-06 Bertin Technologies Procede de traitement d'images
CN106023129A (zh) * 2016-05-26 2016-10-12 西安工业大学 红外与可见光图像融合的汽车抗晕光视频图像处理方法
CN106204541A (zh) * 2016-06-29 2016-12-07 南京雅信科技集团有限公司 基于可见光与红外光结合的轨道异物侵限探测方法
US10701244B2 (en) * 2016-09-30 2020-06-30 Microsoft Technology Licensing, Llc Recolorization of infrared image streams
CN107918929B (zh) * 2016-10-08 2019-06-21 杭州海康威视数字技术股份有限公司 一种图像融合方法、装置及系统
CN106548467B (zh) * 2016-10-31 2019-05-14 广州飒特红外股份有限公司 红外图像和可见光图像融合的方法及装置
CN106600572A (zh) * 2016-12-12 2017-04-26 长春理工大学 一种自适应的低照度可见光图像和红外图像融合方法
CN106780392B (zh) * 2016-12-27 2020-10-02 浙江大华技术股份有限公司 一种图像融合方法及装置
CN108510447B (zh) * 2017-02-28 2021-09-24 深圳市朗驰欣创科技股份有限公司 一种图像融合方法及装置
CN107024772B (zh) * 2017-04-26 2023-06-02 长春理工大学 一种消防ar头盔装置
CN109247910B (zh) * 2017-07-12 2020-12-15 京东方科技集团股份有限公司 血管显示设备以及血管显示方法
CN107464212B (zh) * 2017-07-28 2021-01-01 Oppo广东移动通信有限公司 美颜方法、电子装置和计算机可读存储介质
CN107580163A (zh) * 2017-08-12 2018-01-12 四川精视科技有限公司 一种双镜头黑光摄像机
CN109474770B (zh) * 2017-09-07 2021-09-14 华为技术有限公司 一种成像装置及成像方法
CN108665487B (zh) * 2017-10-17 2022-12-13 国网河南省电力公司郑州供电公司 基于红外和可见光融合的变电站作业对象和目标定位方法
CN107798854A (zh) * 2017-11-12 2018-03-13 佛山鑫进科技有限公司 一种基于图像识别的电表远程监控方法
CN108008259A (zh) * 2017-11-14 2018-05-08 国网江西省电力有限公司电力科学研究院 基于红外、紫外和可见光图像融合一体化的检测方法和装置
KR102533860B1 (ko) * 2017-12-04 2023-05-19 소니그룹주식회사 화상 처리 장치 및 화상 처리 방법
CN108335280A (zh) * 2018-01-02 2018-07-27 沈阳东软医疗系统有限公司 一种图像优化显示方法和装置
CN108226949A (zh) * 2018-04-08 2018-06-29 广州市盛光微电子有限公司 一种可见光和中远红外光多镜头多传感器的信息融合装置及方法
CN110363731B (zh) * 2018-04-10 2021-09-03 杭州海康微影传感科技有限公司 一种图像融合方法、装置及电子设备
CN110363732A (zh) * 2018-04-11 2019-10-22 杭州海康威视数字技术股份有限公司 一种图像融合方法及其装置
CN108549874B (zh) * 2018-04-19 2021-11-23 广州广电运通金融电子股份有限公司 一种目标检测方法、设备及计算机可读存储介质
KR102590900B1 (ko) * 2018-08-27 2023-10-19 엘지이노텍 주식회사 영상 처리 장치 및 영상 처리 방법
CN110930311B (zh) * 2018-09-19 2023-04-25 杭州萤石软件有限公司 一种提高红外图像与可见光图像融合的信噪比方法与装置
CN109255774B (zh) * 2018-09-28 2022-03-25 中国科学院长春光学精密机械与物理研究所 一种图像融合方法、装置及其设备
CN109164165B (zh) * 2018-10-09 2022-10-11 河南科技大学 基于图像融合的钢丝绳无损检测方法及其装置
CN109345499A (zh) * 2018-10-23 2019-02-15 太原理工大学 一种红外图像融合技术
CN111144169A (zh) * 2018-11-02 2020-05-12 深圳比亚迪微电子有限公司 人脸识别方法、装置和电子设备
CN109472755A (zh) * 2018-11-06 2019-03-15 武汉高德智感科技有限公司 一种红外图像对数log域增强方法
CN109120869A (zh) * 2018-11-07 2019-01-01 深圳市道通智能航空技术有限公司 双光图像整合方法、整合设备及无人机
WO2020113404A1 (zh) 2018-12-04 2020-06-11 深圳市大疆创新科技有限公司 目标图像的获取方法、拍摄装置和无人机
US11212498B2 (en) * 2018-12-11 2021-12-28 Intel Corporation Infrared crosstalk correction for hybrid RGB-IR sensors
CN111325701B (zh) * 2018-12-14 2023-05-09 杭州海康微影传感科技有限公司 图像处理方法、装置及存储介质
EP3704668A4 (en) * 2018-12-17 2021-04-07 SZ DJI Technology Co., Ltd. IMAGE PROCESSING METHOD AND APPARATUS
CN109788170A (zh) * 2018-12-25 2019-05-21 合肥芯福传感器技术有限公司 一种基于红外与可见光的视频图像处理系统及方法
CN109618099B (zh) * 2019-01-10 2021-01-08 深圳英飞拓科技股份有限公司 双光谱摄像机图像融合方法及装置
JP7204499B2 (ja) * 2019-01-21 2023-01-16 キヤノン株式会社 画像処理装置、画像処理方法、および、プログラム
CN109919884A (zh) * 2019-01-30 2019-06-21 西北工业大学 基于高斯滤波加权的红外和可见光图像融合方法
CN111665245A (zh) * 2019-03-05 2020-09-15 中国航发商用航空发动机有限责任公司 航空润滑油监测装置及监测方法
CN110047059B (zh) * 2019-04-10 2021-07-09 北京旷视科技有限公司 图像处理方法、装置、电子设备及可读存储介质
CN110210541B (zh) * 2019-05-23 2021-09-03 浙江大华技术股份有限公司 图像融合方法及设备、存储装置
CN110378861B (zh) * 2019-05-24 2022-04-19 浙江大华技术股份有限公司 一种图像融合方法及装置
CN110349117B (zh) * 2019-06-28 2023-02-28 重庆工商大学 一种红外图像与可见光图像融合方法、装置及存储介质
CN112241668A (zh) * 2019-07-18 2021-01-19 杭州海康威视数字技术股份有限公司 图像处理方法、装置及设备
CN110634115B (zh) * 2019-08-30 2022-04-01 国网河南省电力公司平顶山供电公司 一种基于双光融合的配电设备监控方法及系统
CN112488970A (zh) * 2019-09-12 2021-03-12 四川大学 基于耦合生成对抗网络的红外和可见光图像融合方法
CN110633682B (zh) * 2019-09-19 2022-07-12 合肥英睿系统技术有限公司 基于双光融合的红外图像的异常监测方法、装置、设备
CN110633759A (zh) * 2019-09-24 2019-12-31 北京华力兴科技发展有限责任公司 图像融合方法、装置及电子设备
CN110751705B (zh) * 2019-10-08 2023-07-21 深圳市承恩热视科技有限公司 一种热成像与可见光的图像融合方法
CN112767289B (zh) * 2019-10-21 2024-05-07 浙江宇视科技有限公司 图像融合方法、装置、介质及电子设备
CN111038388B (zh) * 2019-11-28 2023-05-26 天津津航技术物理研究所 双模车载辅助驾驶系统
CN110956581B (zh) * 2019-11-29 2022-08-02 南通大学 一种基于双通道生成-融合网络的图像模态变换方法
CN111080724B (zh) * 2019-12-17 2023-04-28 大连理工大学 一种红外和可见光的融合方法
CN111192212B (zh) * 2019-12-25 2022-05-17 北京东宇宏达科技有限公司 一种自适应红外数字图像细节增强方法
CN111429391B (zh) * 2020-03-23 2023-04-07 西安科技大学 一种红外和可见光图像融合方法、融合系统及应用
CN111369486B (zh) * 2020-04-01 2023-06-13 浙江大华技术股份有限公司 一种图像融合处理方法及装置
CN111317439A (zh) * 2020-04-14 2020-06-23 上海美沃精密仪器股份有限公司 现实增强显微镜及其现实增强方法
CN111539902B (zh) * 2020-04-16 2023-03-28 烟台艾睿光电科技有限公司 一种图像处理方法、系统、设备及计算机可读存储介质
CN112215787B (zh) * 2020-04-30 2022-06-17 温州大学智能锁具研究院 基于显著度分析及自适应滤波器的红外和可见光图像融合方法
CN111667520B (zh) * 2020-06-09 2023-05-16 中国人民解放军63811部队 红外图像和可见光图像的配准方法、装置及可读存储介质
CN111913190B (zh) * 2020-07-24 2022-07-29 北京控制工程研究所 一种基于彩色红外光谱共孔径成像的临近空间暗弱目标定向装置
CN112001910A (zh) * 2020-08-26 2020-11-27 中国科学院遗传与发育生物学研究所 一种自动识别植株穗数的方法、装置、电子设备和存储介质
CN114119378A (zh) * 2020-08-31 2022-03-01 华为技术有限公司 图像融合方法、图像融合模型的训练方法和装置
CN112053313B (zh) * 2020-08-31 2022-12-06 西安工业大学 异源图像融合的夜视抗晕光视频处理方法
CN114143443B (zh) * 2020-09-04 2024-04-05 聚晶半导体股份有限公司 双传感器摄像系统及其摄像方法
CN112268621B (zh) * 2020-09-15 2024-04-02 武汉华中天纬测控有限公司 一种隔离开关刀闸状态及触头温度监测装置
CN112233053B (zh) * 2020-09-23 2024-05-07 浙江大华技术股份有限公司 图像的融合方法、装置、设备及计算机可读存储介质
CN112396572B (zh) * 2020-11-18 2022-11-01 国网浙江省电力有限公司电力科学研究院 基于特征增强和高斯金字塔的复合绝缘子双光融合方法
KR20220084500A (ko) * 2020-12-14 2022-06-21 주식회사 씨자인 Tof 센서를 이용한 거리 측정 시스템 및 그 측정 방법
CN112767291B (zh) * 2021-01-04 2024-05-28 浙江华感科技有限公司 可见光图像和红外图像融合方法、设备及可读存储介质
CN113112440A (zh) * 2021-04-23 2021-07-13 华北电力大学 一种基于fpga的紫外与可见光图像融合系统及方法
CN113222877B (zh) * 2021-06-03 2023-04-11 北京理工大学 红外和可见光图像融合方法及其在机载光电视频中的应用
CN113421195B (zh) * 2021-06-08 2023-03-21 杭州海康威视数字技术股份有限公司 一种图像处理方法、装置及设备
CN113596341B (zh) * 2021-06-11 2024-04-05 北京迈格威科技有限公司 一种图像拍摄方法、图像处理方法、装置、电子设备
CN113592758B (zh) * 2021-08-02 2023-08-29 中国科学技术大学 一种基于局部对比度预处理的图像融合方法
CN113724164B (zh) * 2021-08-31 2024-05-14 南京邮电大学 一种基于融合重构制导滤波的可见光图像噪声去除方法
CN114494063B (zh) * 2022-01-25 2023-04-07 电子科技大学 一种基于生物视觉机制的夜间交通图像增强方法
CN115131980A (zh) * 2022-04-20 2022-09-30 汉得利(常州)电子股份有限公司 一种用于智能汽车道路行驶的目标识别系统及方法
CN114693579A (zh) * 2022-05-23 2022-07-01 北京物资学院 一种物流货仓内监控图像处理系统
CN115100235B (zh) * 2022-08-18 2022-12-20 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种目标跟踪方法、系统及存储介质
CN115170810B (zh) * 2022-09-08 2022-12-13 南京理工大学 一种可见光红外图像融合目标检测实例分割方法
CN115527293B (zh) * 2022-11-25 2023-04-07 广州万协通信息技术有限公司 安全芯片基于人体特征开门的方法及安全芯片装置
CN116403057B (zh) * 2023-06-09 2023-08-18 山东瑞盈智能科技有限公司 一种基于多源图像融合的输电线路巡检方法及系统
CN116758121A (zh) * 2023-06-25 2023-09-15 哈尔滨工业大学 基于可穿戴头盔的红外图像和可见光图像配准融合方法
CN116761050B (zh) * 2023-08-14 2023-11-03 合肥航谱时代科技有限公司 一种基于可见光和红外融合的图像采集系统
CN116823694B (zh) * 2023-08-31 2023-11-24 佛山科学技术学院 基于多聚焦信息整合的红外与可见光图像融合方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101510007A (zh) * 2009-03-20 2009-08-19 北京科技大学 一种红外光图像与可见光图像实时摄取与自适应融合装置
US7652251B1 (en) * 2008-11-17 2010-01-26 Fluke Corporation Registration methods for fusing corresponding infrared and visible light images
CN102982518A (zh) * 2012-11-06 2013-03-20 扬州万方电子技术有限责任公司 红外与可见光动态图像的融合方法及装置
CN104364800A (zh) * 2012-03-30 2015-02-18 前视红外系统股份公司 促进关联的可视光和红外线(ir)图像信息的分析和解释
CN105069768A (zh) * 2015-08-05 2015-11-18 武汉高德红外股份有限公司 一种可见光图像与红外图像融合处理系统及融合方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0227887D0 (en) * 2002-11-29 2003-01-08 Mirada Solutions Ltd Improvements in or relating to image registration
CN1822046A (zh) * 2006-03-30 2006-08-23 上海电力学院 基于区域特征模糊的红外与可见光图像融合方法
CN1897035A (zh) * 2006-05-26 2007-01-17 上海大学 基于Contourlet变换的可见光与红外线图像融合方法
CN101546428B (zh) * 2009-05-07 2011-08-17 西北工业大学 基于区域分割的序列红外与可见光图像融合
CN102789640B (zh) * 2012-07-16 2015-12-16 中国科学院自动化研究所 一种将可见光全色图像与红外遥感图像进行融合的方法
US20140321739A1 (en) * 2013-04-26 2014-10-30 Sony Corporation Image processing method and apparatus and electronic device
CN104504673A (zh) * 2014-12-30 2015-04-08 武汉大学 基于nsst的可见光与红外图像融合方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7652251B1 (en) * 2008-11-17 2010-01-26 Fluke Corporation Registration methods for fusing corresponding infrared and visible light images
CN101510007A (zh) * 2009-03-20 2009-08-19 北京科技大学 一种红外光图像与可见光图像实时摄取与自适应融合装置
CN104364800A (zh) * 2012-03-30 2015-02-18 前视红外系统股份公司 促进关联的可视光和红外线(ir)图像信息的分析和解释
CN102982518A (zh) * 2012-11-06 2013-03-20 扬州万方电子技术有限责任公司 红外与可见光动态图像的融合方法及装置
CN105069768A (zh) * 2015-08-05 2015-11-18 武汉高德红外股份有限公司 一种可见光图像与红外图像融合处理系统及融合方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3319040A4 *

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3734552A4 (en) * 2018-02-09 2021-03-24 Huawei Technologies Co., Ltd. IMAGE PROCESSING PROCESS AND ASSOCIATED DEVICE
US11250550B2 (en) 2018-02-09 2022-02-15 Huawei Technologies Co., Ltd. Image processing method and related device
CN113077482A (zh) * 2018-09-29 2021-07-06 西安工业大学 一种融合图像的质量评价方法
CN113077482B (zh) * 2018-09-29 2024-01-19 西安工业大学 一种融合图像的质量评价方法
CN110246108A (zh) * 2018-11-21 2019-09-17 浙江大华技术股份有限公司 一种图像处理方法、装置及计算机可读存储介质
CN110246108B (zh) * 2018-11-21 2023-06-20 浙江大华技术股份有限公司 一种图像处理方法、装置及计算机可读存储介质
CN110111292B (zh) * 2019-04-30 2023-07-21 淮阴师范学院 一种红外与可见光图像融合方法
CN110111292A (zh) * 2019-04-30 2019-08-09 淮阴师范学院 一种红外与可见光图像融合方法
CN110189286A (zh) * 2019-05-30 2019-08-30 兰州交通大学 一种基于ResNet的红外与可见光图像融合方法
CN110264402B (zh) * 2019-06-12 2022-12-16 浙江大华技术股份有限公司 图像融合方法、装置、存储介质及电子装置
CN110264402A (zh) * 2019-06-12 2019-09-20 浙江大华技术股份有限公司 图像融合方法、装置、存储介质及电子装置
CN110766706A (zh) * 2019-09-26 2020-02-07 深圳市景阳信息技术有限公司 图像融合方法、装置、终端设备及存储介质
CN112712485B (zh) * 2019-10-24 2024-06-04 杭州海康威视数字技术股份有限公司 一种图像融合方法及装置
CN112712485A (zh) * 2019-10-24 2021-04-27 杭州海康威视数字技术股份有限公司 一种图像融合方法及装置
CN110838091A (zh) * 2019-10-25 2020-02-25 北京中电慧视科技有限公司 完全自适应的红外图像对比度增强方法及系统
CN111105361A (zh) * 2019-11-12 2020-05-05 中国科学院西安光学精密机械研究所 基于场景先验的遥感图像增强方法
CN111105361B (zh) * 2019-11-12 2023-04-18 中国科学院西安光学精密机械研究所 基于场景先验的遥感图像增强方法
CN113538303B (zh) * 2020-04-20 2023-05-26 杭州海康威视数字技术股份有限公司 图像融合方法
CN113538303A (zh) * 2020-04-20 2021-10-22 杭州海康威视数字技术股份有限公司 图像融合方法
CN111612725A (zh) * 2020-04-29 2020-09-01 中国科学院西安光学精密机械研究所 一种基于可见光图像对比度增强的图像融合方法
CN111612725B (zh) * 2020-04-29 2023-04-11 中国科学院西安光学精密机械研究所 一种基于可见光图像对比度增强的图像融合方法
CN111861958A (zh) * 2020-07-10 2020-10-30 逢亿科技(上海)有限公司 一种基于自适应性对抗系统的图像融合算法
CN112053392A (zh) * 2020-09-17 2020-12-08 南昌航空大学 一种红外与可见光图像的快速配准与融合方法
CN112132753A (zh) * 2020-11-06 2020-12-25 湖南大学 多尺度结构引导图像的红外图像超分辨率方法及系统
CN112132753B (zh) * 2020-11-06 2022-04-05 湖南大学 多尺度结构引导图像的红外图像超分辨率方法及系统
CN112487947A (zh) * 2020-11-26 2021-03-12 西北工业大学 基于图像融合与目标检测网络的低照度图像目标检测方法
CN112734683B (zh) * 2021-01-07 2024-02-20 西安电子科技大学 基于目标增强的多尺度sar与红外图像融合方法
CN112734683A (zh) * 2021-01-07 2021-04-30 西安电子科技大学 基于目标增强的多尺度sar与红外图像融合方法
CN112884690B (zh) * 2021-02-26 2023-01-06 中国科学院西安光学精密机械研究所 一种基于三种尺度分解的红外与可见光图像融合方法
CN112884690A (zh) * 2021-02-26 2021-06-01 中国科学院西安光学精密机械研究所 一种基于三种尺度分解的红外与可见光图像融合方法
CN113066011A (zh) * 2021-04-07 2021-07-02 合肥英睿系统技术有限公司 一种图像处理方法、装置、系统、介质和电子设备
CN112991250A (zh) * 2021-04-19 2021-06-18 吉林大学 基于响尾蛇视觉成像的红外与可见光图像融合方法
CN113674192A (zh) * 2021-08-24 2021-11-19 燕山大学 红外视频图像与可见光视频图像融合方法、系统及装置
CN113674192B (zh) * 2021-08-24 2024-02-02 燕山大学 红外视频图像与可见光视频图像融合方法、系统及装置
CN114399449B (zh) * 2021-11-22 2023-04-11 中国科学院西安光学精密机械研究所 一种基于均值滤波分解的形态选通偏振图像融合方法
CN114399449A (zh) * 2021-11-22 2022-04-26 中国科学院西安光学精密机械研究所 一种基于均值滤波分解的形态选通偏振图像融合方法
CN114418905A (zh) * 2021-11-29 2022-04-29 昆明物理研究所 像元采样中心错位重叠排列双波段探测器图像融合算法
CN114418905B (zh) * 2021-11-29 2024-04-16 昆明物理研究所 像元采样中心错位重叠排列双波段探测器图像融合方法
CN114693581B (zh) * 2022-06-02 2022-09-06 深圳市海清视讯科技有限公司 图像融合处理方法、装置、设备及存储介质
CN114693581A (zh) * 2022-06-02 2022-07-01 深圳市海清视讯科技有限公司 图像融合处理方法、装置、设备及存储介质
CN115661068A (zh) * 2022-10-21 2023-01-31 广州科易光电技术有限公司 气体泄漏检测方法及装置、设备、存储介质

Also Published As

Publication number Publication date
EP3319040A1 (en) 2018-05-09
US20180227509A1 (en) 2018-08-09
CN105069768B (zh) 2017-12-29
US10341586B2 (en) 2019-07-02
PL3319040T3 (pl) 2019-11-29
ES2743759T3 (es) 2020-02-20
CN105069768A (zh) 2015-11-18
EP3319040A4 (en) 2018-05-09
EP3319040B1 (en) 2019-06-05

Similar Documents

Publication Publication Date Title
WO2017020595A1 (zh) 一种可见光图像与红外图像融合处理系统及融合方法
WO2021120406A1 (zh) 一种基于显著图增强的红外和可见光融合方法
CN107292860B (zh) 一种图像处理的方法及装置
US20220044442A1 (en) Bi-level optimization-based infrared and visible light fusion method
CN104240194B (zh) 一种基于抛物线函数的低照度图像增强算法
CN104079908A (zh) 红外与可见光图像信号处理方法及其实现装置
JP2014241584A (ja) 画像処理方法、及び画像処理システム
CN102982518A (zh) 红外与可见光动态图像的融合方法及装置
CN106897981A (zh) 一种基于引导滤波的低照度图像增强方法
US20120163701A1 (en) Image processing device, image processing method, and program
CN104899836B (zh) 一种基于近红外多光谱成像的雾天图像增强装置及方法
CN106780330A (zh) 一种基于彩色与黑白双摄像头的超分辨率重建方法
CN103546730A (zh) 基于多摄像头的图像感光度增强方法
CN113556526B (zh) 一种基于rgbw滤光阵列的彩色夜视设备色彩增强方法
CN107220955A (zh) 一种基于重叠区域特征点对的图像亮度均衡方法
WO2015057425A1 (en) Converting an image from a dual-band sensor to a visible color image
CN106550227A (zh) 一种图像饱和度调整方法及装置
CN111028187B (zh) 一种光线自适应的机载双光图像侦察装置及方法
CN111667446B (zh) 图像处理方法
CN109712093A (zh) 一种基于海天背景的图像颜色还原方法及装置
CN108510447B (zh) 一种图像融合方法及装置
US9736392B2 (en) Method and apparatus for determining distance between image sensor and object
TWI504936B (zh) 影像處理裝置
CN110012197A (zh) 一种基于调焦位置补偿的空域图像配准融合方法
CN104469135A (zh) 图像处理系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16832084

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15750359

Country of ref document: US

Ref document number: 2016832084

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE