KR102083926B1 - Image fusion system and image fusion method - Google Patents

Image fusion system and image fusion method Download PDF

Info

Publication number
KR102083926B1
KR102083926B1 KR1020130101288A KR20130101288A KR102083926B1 KR 102083926 B1 KR102083926 B1 KR 102083926B1 KR 1020130101288 A KR1020130101288 A KR 1020130101288A KR 20130101288 A KR20130101288 A KR 20130101288A KR 102083926 B1 KR102083926 B1 KR 102083926B1
Authority
KR
South Korea
Prior art keywords
image
fusion
thermal
weight
visible
Prior art date
Application number
KR1020130101288A
Other languages
Korean (ko)
Other versions
KR20150024169A (en
Inventor
이준성
오재윤
김곤수
Original Assignee
한화테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사 filed Critical 한화테크윈 주식회사
Priority to KR1020130101288A priority Critical patent/KR102083926B1/en
Publication of KR20150024169A publication Critical patent/KR20150024169A/en
Application granted granted Critical
Publication of KR102083926B1 publication Critical patent/KR102083926B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 영상 융합 시스템 및 영상 융합 방법에 관한 것이다.
본 발명의 영상 융합 시스템은, 가시영상 및 열영상 각각을 복수의 국소 영역으로 분할하고, 각 국소 영역의 픽셀 값 평균 및 표준편차를 이용하여 국소 영역별 가중치를 계산하고, 상기 국소 영역별 가중치를 기초로 상기 가시영상 및 열영상의 픽셀에 대한 가중치를 결정하는 가중치 결정부; 및 상기 가중치를 적용하여 상기 가시영상 및 열영상을 융합한 융합 영상을 생성하는 후처리부;를 포함할 수 있다.
The present invention relates to an image fusion system and an image fusion method.
The image fusion system of the present invention divides each of the visible image and the thermal image into a plurality of local regions, calculates weights for each local region by using pixel values average and standard deviation of each local region, and calculates the weights for each local region. A weight determination unit determining weights of pixels of the visible image and the thermal image based on the weight; And a post-processing unit generating a fusion image in which the visible image and the thermal image are fused by applying the weights.

Description

영상 융합 시스템 및 그 방법{IMAGE FUSION SYSTEM AND IMAGE FUSION METHOD}Image fusion system and its method {IMAGE FUSION SYSTEM AND IMAGE FUSION METHOD}

본 발명은 영상 융합 시스템 및 영상 융합 방법에 관한 것이다. The present invention relates to an image fusion system and an image fusion method.

일반적인 감시 시스템용 가시광 카메라, 예를 들어 CCD 카메라는 다른 카메라에 비해 기술적으로 높은 수준에 도달해 있으며 광범위한 범위에 응용이 되고 있다. 그러나, CCD 카메라는 빛이 있는 곳에서만 감시 기능을 구현할 수 있으며 빛이 없는 곳에서는 감시 기능을 구현하는 것이 불가능하기 때문에 별도의 조명을 사용하지 않는 감시 시스템에 이용하기가 어렵다. 빛이 전혀 없는 환경에서의 감시를 위해 적외선 열상카메라를 이용할 수 있다. 적외선 열상카메라는 조명이 없는 곳에서의 감시 기능을 구현함은 물론이고 피사체의 열 손실 탐지, 회로 기판의 분석과 같은 열 방출과 관련된 다양한 범위에 응용되고 있다. Visible light cameras for general surveillance systems, such as CCD cameras, have reached a technically high level compared to other cameras and have a wide range of applications. However, since the CCD camera can implement the monitoring function only in the presence of light and it is impossible to implement the monitoring function in the absence of light, it is difficult to use the CCD camera in a surveillance system that does not use a separate light. Infrared thermal cameras can be used for surveillance in low light environments. Infrared thermal imaging cameras are used in various areas related to heat dissipation such as detection of heat loss of a subject and analysis of a circuit board as well as realizing a surveillance function in the absence of lighting.

그러나, 열상 카메라는 피사체가 방출하는 열, 즉 적외선의 검출에 목적이 있는 장비이기 때문에 화질이나 해상도의 측면에서는 기존의 CCD를 이용한 감시용 카메라에 비해 성능이 낮다. 즉, 적외선 열상 카메라 단독으로는 피사체의 열 방출 특성을 감지하는데 적합할 수 있으나 피사체의 디테일한 형태를 구분하기에는 부적합하다. However, since thermal imaging cameras are equipment for the purpose of detecting heat emitted from a subject, that is, infrared rays, performance of the thermal imaging camera is lower than that of a conventional surveillance camera using a CCD in terms of image quality and resolution. That is, the infrared thermal camera alone may be suitable for detecting heat emission characteristics of the subject, but not suitable for distinguishing the detailed form of the subject.

이에 따라 가시광 카메라로부터 획득한 가시 영상과 열상 카메라로부터 획득한 열 영상을 융합함으로써 두 영상이 가지는 각각의 장점을 모아 하나의 영상으로 표현하는 알고리즘의 개발이 활발하고 이루어지고 있다.Accordingly, by combining the visible image obtained from the visible light camera and the thermal image obtained from the thermal camera, the development of an algorithm that combines the advantages of the two images and expresses them as one image is being actively made.

본 발명은 가시 영상과 열 영상의 정보를 적절하게 반영한 융합 영상을 생성할 수 있는 영상 융합 시스템을 제공한다. The present invention provides an image fusion system capable of generating a fusion image that properly reflects information of a visible image and a thermal image.

본 발명의 일 실시예에 따른 영상 융합 시스템은, 가시영상 및 열영상 각각을 복수의 국소 영역으로 분할하고, 각 국소 영역의 픽셀 값 평균 및 표준편차를 이용하여 국소 영역별 가중치를 계산하고, 상기 국소 영역별 가중치를 기초로 상기 가시영상 및 열영상의 픽셀 가중치를 결정하는 가중치 결정부; 및 상기 가중치를 적용하여 상기 가시영상 및 열영상을 융합한 융합 영상을 생성하는 후처리부;를 포함할 수 있다. In an image fusion system according to an embodiment of the present invention, a visible image and a thermal image are each divided into a plurality of local regions, the weight of each local region is calculated by using a mean and standard deviation of pixel values of each local region, and A weight determination unit configured to determine pixel weights of the visible image and the thermal image based on weights of local regions; And a post-processing unit generating the fusion image by fusing the visible image and the thermal image by applying the weight.

상기 가중치 결정부는, 상기 영역별 가중치들 간의 편차를 보정할 수 있다. The weight determiner may correct a deviation between the weights of the regions.

상기 시스템은, 상기 가시영상 및 열영상으로부터 융합 영역을 검출하는 융합영역 검출부;를 더 포함할 수 있다. The system may further include a fusion region detector for detecting a fusion region from the visible image and the thermal image.

상기 시스템은, 사용자로부터 사용자 지정 영역 및 상기 사용자 지정 영역에 대한 상기 가시영상 및 열영상의 픽셀 가중치를 입력받는 사용자 입력부;를 더 포함할 수 있다. The system may further include a user input unit configured to receive pixel weights of the visible image and the thermal image of the user designated area and the user specified area from a user.

본 발명의 일 실시예에 따른 영상 융합 방법은, 가시영상 및 열영상 각각을 복수의 국소 영역으로 분할하고, 각 국소 영역의 픽셀 값 평균 및 표준편차를 이용하여 국소 영역별 가중치를 계산하고, 상기 국소 영역별 가중치를 기초로 상기 가시영상 및 열영상의 픽셀 가중치를 결정하는 단계; 및 상기 가중치를 적용하여 상기 가시영상 및 열영상을 융합한 융합 영상을 생성하는 단계;를 포함할 수 있다. In an image fusion method according to an embodiment of the present invention, each of a visible image and a thermal image is divided into a plurality of local regions, a weight for each local region is calculated by using a mean and standard deviation of pixel values of each local region, Determining pixel weights of the visible image and the thermal image based on weights of local regions; And generating a fusion image in which the visible image and the thermal image are fused by applying the weights.

상기 방법은, 사용자로부터 사용자 지정 영역 및 상기 사용자 지정 영역에 대한 픽셀 가중치를 입력받고, 상기 융합 영상에서 상기 사용자 지정 영역의 융합 정보를 변경하는 단계;를 더 포함할 수 있다. The method may further include receiving a user-designated region and pixel weights of the user-designated region from a user, and changing fusion information of the user-designated region in the fusion image.

본 발명의 실시예에 따라 가시 정보와 열 정보를 보다 효과적으로 반영한 융합 영상을 생성할 수 있다. According to an embodiment of the present invention, it is possible to generate a converged image that more effectively reflects visible and thermal information.

도 1은 본 발명의 일 실시예에 따른 영상 융합 시스템을 개략적으로 도시한 블록도이다.
도 2는 도 1에 도시된 영상 융합부를 개략적으로 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 가중치를 결정하기 위한 영역 분할을 설명하는 도면이다.
도 4는 본 발명의 일 실시예에 따른 사용자 지정 방법을 설명하는 도면이다.
도 5는 본 발명의 일 실시예에 따른 영상 융합 방법을 개략적으로 설명한 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 영상 융합에 따른 융합 영상과 비교예에 따른 융합 영상을 도시한 예시도이다.
1 is a block diagram schematically illustrating an image fusion system according to an embodiment of the present invention.
FIG. 2 is a block diagram schematically illustrating the image fusion unit shown in FIG. 1.
3 is a diagram illustrating region division for determining a weight according to an embodiment of the present invention.
4 is a diagram illustrating a user designation method according to an embodiment of the present invention.
5 is a flowchart schematically illustrating an image fusion method according to an embodiment of the present invention.
6 is an exemplary view illustrating a fusion image according to an image fusion according to an embodiment of the present invention and a fusion image according to a comparative example.

이하, 첨부된 도면을 참조하여 본 발명을 상세히 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail the present invention.

도 1은 본 발명의 일 실시예에 따른 영상 융합 시스템을 개략적으로 도시한 블록도이다. 도 2는 도 1에 도시된 영상 융합부를 개략적으로 도시한 블록도이다. 도 3은 본 발명의 일 실시예에 따른 가중치를 결정하기 위한 영역 분할을 설명하는 도면이다. 1 is a block diagram schematically illustrating an image fusion system according to an embodiment of the present invention. FIG. 2 is a block diagram schematically illustrating the image fusion unit shown in FIG. 1. 3 is a diagram illustrating region division for determining a weight according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 영상 융합 시스템(1)은 제1영상센서(10), 제2영상센서(20), 영상 정합부(30), 영상 융합부(40), 디스플레이부(50) 및 사용자 입력부(60)를 포함한다. Referring to FIG. 1, the image fusion system 1 of the present invention includes a first image sensor 10, a second image sensor 20, an image matching unit 30, an image fusion unit 40, and a display unit 50. ) And a user input unit 60.

제1영상센서(10) 및 제2영상센서(20)는 동일 장면을 촬영하여 영상 정보를 제공하는 서로 다른 특성의 카메라일 수 있다. 제1영상센서(10) 및 제2영상센서(20)는 팬틸트줌(PTZ) 기능을 구비하고, 함께 패닝 및 틸팅되면서 각각의 줌 배율로 동일 지점의 영상을 획득할 수 있다. 제1영상센서(10) 및 제2영상센서(20)는 사무실, 주택, 병원은 물론 은행이나 보안이 요구되는 공공건물 등의 내외에 일체로 설치되어 출입관리나 방범용으로 사용되며, 그 설치 장소 및 사용목적에 따라 일자형, 돔형 등 다양한 형태를 가질 수 있다.The first image sensor 10 and the second image sensor 20 may be cameras having different characteristics that provide image information by photographing the same scene. The first image sensor 10 and the second image sensor 20 may have a pan tilt zoom (PTZ) function, and may be panned and tilted together to acquire images of the same point at each zoom magnification. The first image sensor 10 and the second image sensor 20 are installed in and out of an office, a house, a hospital, as well as a bank or a public building requiring security, and are used for access control or crime prevention. Depending on the location and purpose of use, it can have various shapes such as straight and dome shaped.

본 실시예에서 제1영상센서(10)는 가시광 카메라로서, 빛(light)을 검출하는 방식으로 영상 정보를 획득하여 물체의 휘도 분포에 따른 가시 영상인 제1영상을 생성한다. 예를 들어, 가시 카메라는 CCD 또는 CMOS를 촬상소자로 사용하는 카메라일 수 있다. 가시 카메라는 가시 광선 파장 영역의 정보를 얻기 때문에 가장 직관적으로 이해하기 쉬운 장점이 있다. 그러나 저조도 환경의 경우 영상의 정보 훼손이 심하고, 사람의 눈으로 볼 수 없는 풀숲, 그림자 등에 의해 감추어진 사람과 같은 은닉된 객체에 대해서는 인지가 불가능한 단점 때문에 야간 환경 감시나 은닉된 객체 검출에 어려움이 있다. In the present embodiment, the first image sensor 10 is a visible light camera, and acquires image information by detecting light to generate a first image, which is a visible image according to a luminance distribution of an object. For example, the visible camera may be a camera using a CCD or a CMOS as an image pickup device. Visible cameras have the advantage of being most intuitive to understand because they obtain information in the visible wavelength range. However, it is difficult to monitor the night environment or detect hidden objects due to the weakness of the information in the low light environment and the inability to recognize hidden objects such as humans hidden by grasses and shadows that are invisible to the human eye. have.

본 실시예에서 제2영상센서(20)는 적외광 카메라(또는 열상 카메라)로서, 물체가 발산하는 복사 에너지(열에너지)를 감지하여 전자파의 일종인 적외선 파장 형태로 검출하고, 열에너지의 강도를 측정하여 강도에 따라 각각 다른 색상을 나타내는 열 영상인 제2영상을 생성할 수 있다. 열 영상은 물체 표면을 온도의 높낮이에 따라 서로 다른 색으로 매핑하여 표현할 수 있다. 열상 카메라로부터 얻는 열 영상은 물체의 발열 정보를 이용하여 장면을 표현하기 때문에 조명 환경에 영향을 받지 않으며 은닉된 객체 또한 인지 가능한 장점이 있다.In the present embodiment, the second image sensor 20 is an infrared camera (or a thermal camera), which detects radiant energy (thermal energy) emitted by an object, detects it in the form of infrared wavelength, which is a kind of electromagnetic waves, and measures the intensity of thermal energy. The second image may be a thermal image having different colors according to the intensity. The thermal image may be expressed by mapping an object surface to different colors according to the temperature of the object. Since the thermal image obtained from the thermal camera represents the scene using the heat information of the object, the thermal image is not affected by the lighting environment, and the hidden object may also be recognized.

영상 정합부(30)는 동일한 장면을 다른 센서로부터 얻은 두 개 이상의 영상들의 위치 관계를 대응시켜 하나의 좌표계로 정렬시키는 영상 정합을 수행한다. 감시시스템과 의료 영상 등의 분야에서 두 개 이상의 센서를 이용한 영상을 획득하여 하나의 융합 영상을 생성하는 시스템에서는 영상 정합을 수행하여야 한다. The image matching unit 30 performs image registration for matching the positional relationship of two or more images obtained from different sensors with the same scene in one coordinate system. In the field of surveillance system and medical imaging, image matching using two or more sensors to generate a single image is required.

영상 정합부(30)는 제1영상센서(10)로 촬영한 제1영상 및 제2영상센서(20)로 촬영한 제2영상을 정합한다. 이를 위해, 영상 정합부(30)는 제1영상 및 제2영상으로부터 추출된 특징점 정보를 기초로 변환함수를 추정할 수 있다. 변환함수는 제1영상 및 제2영상 각각의 특징점 정보 간의 대응 관계를 나타내는 행렬이다. 영상 정합부(30)는 특징점 정보가 추출되지 않는 경우 제1영상 및 제2영상으로부터 움직임 정보를 추출하고, 추출된 움직임 정보를 기초로 변환함수를 추정할 수 있다. 영상 정합부(30)는 제1영상센서(10) 및 제2영상센서(20) 중 적어도 하나의 줌 변경이 검출되면 변환함수를 다시 추정할 수 있다. The image matching unit 30 registers the first image photographed by the first image sensor 10 and the second image photographed by the second image sensor 20. To this end, the image matching unit 30 may estimate the conversion function based on the feature point information extracted from the first image and the second image. The transform function is a matrix representing a correspondence relationship between feature point information of each of the first and second images. When the feature point information is not extracted, the image matching unit 30 may extract motion information from the first image and the second image, and estimate a conversion function based on the extracted motion information. When the zoom change of at least one of the first image sensor 10 and the second image sensor 20 is detected, the image matching unit 30 may estimate the conversion function again.

영상 정합부(30)는 추정된 변환함수를 적용하여 제1영상 및 제2영상을 정합한다. 영상 정합부(30)는 줌 변경에 의해 변환함수를 다시 추정하는 동안, 제1영상센서(10) 및 제2영상센서(20)의 줌 정보를 기 추정된 변환함수에 반영한 임시 변환함수를 적용하여 제1영상 및 제2영상을 정합할 수 있다. The image matching unit 30 matches the first image and the second image by applying the estimated transform function. The image matching unit 30 applies a temporary conversion function reflecting the zoom information of the first image sensor 10 and the second image sensor 20 to the estimated conversion function while estimating the conversion function again by the zoom change. By matching the first image and the second image.

영상 융합부(40)는 정합된 제1영상과 제2영상을 융합한다. 예를 들어, 적외광 카메라는 물체의 열적 분포는 잘 나타낼 수 있으나 측정된 물체의 형상이 명확하지 않으며 가시광 카메라는 물체의 형상은 명확하게 나타낼 수 있으나 물체의 열적 분포는 나타낼 수 없다. 영상 융합부(40)는 가시광 카메라와 적외광 카메라의 상호 장단점을 적절히 이용하여 물체의 영상을 표시함과 동시에 그 물체의 열적 분포 상태를 명확하게 나타냄으로써 최적의 정보를 표현하는 융합 영상을 생성할 수 있다. 영상 융합부(40)는 수신된 영상 신호를 디스플레이 규격에 맞는 신호로 출력하는 신호 처리를 수행한다. The image fusion unit 40 fuses the matched first image and the second image. For example, an infrared camera may well indicate the thermal distribution of an object, but the shape of the measured object is not clear, and a visible light camera may clearly indicate the shape of the object but not the thermal distribution of the object. The image fusion unit 40 generates a fusion image expressing optimal information by displaying an image of an object and clearly displaying a thermal distribution state of the object by appropriately using mutual strengths and weaknesses of a visible light camera and an infrared light camera. Can be. The image fusion unit 40 performs signal processing to output the received image signal as a signal conforming to the display standard.

도 2를 참조하면, 영상 융합부(40)는 전처리부(401), 융합영역 검출부(403), 가중치 결정부(405) 및 후처리부(407)를 포함할 수 있다.2, the image fusion unit 40 may include a preprocessor 401, a fusion region detector 403, a weight determiner 405, and a post processor 407.

전처리부(401)는 제1영상 및 제2영상에 대해 정규화 등 이미지 프로세싱을 위한 전처리(pre-processing)를 수행한다. 전처리부(401)는 제1영상 및 제2영상에 대해 노이즈를 저감할 수 있다. 전처리부(401)는 가시 영상인 제1영상에 대해 감마 보정(Gamma Correction), 색필터 배열보간(color filter array interpolation), 색 매트릭스(color matrix), 색보정(color correction), 색 향상(color enhancement) 등의 화질 개선을 위한 영상 신호 처리를 수행할 수 있다. 전처리부(401)는 열 영상인 제2영상에 대해 열에너지의 강도가 상대적으로 높은 영역은 강조하고, 열에너지의 강도가 상대적으로 낮은 영역은 덜 강조하는 신호 처리를 수행할 수 있다. The preprocessor 401 performs pre-processing for image processing such as normalization on the first image and the second image. The preprocessor 401 may reduce noise with respect to the first image and the second image. The preprocessor 401 performs gamma correction, color filter array interpolation, color matrix, color correction, and color enhancement on the first image, which is a visible image. image signal processing for image quality improvement such as enhancement). The preprocessor 401 may perform signal processing to emphasize a region where the intensity of the thermal energy is relatively high and to emphasize the region where the intensity of the thermal energy is relatively low with respect to the second image which is the thermal image.

융합영역 검출부(403)는 전처리된 제1영상 및 제2영상에 대해 융합 영역을 검출할 수 있다. 융합영역 검출부(403)는 영상 전체 또는 영상 내 일부, 예를 들어, 움직임 검출 영역, 미리 설정된 관심 영역 등을 중심으로 하는 소정 영역을 융합 영역으로 검출할 수 있다. 또한 융합영역 검출부(403)는 사용자가 지정한 사용자 지정 영역을 융합 영역으로 검출할 수 있다. The fusion region detector 403 may detect a fusion region with respect to the preprocessed first and second images. The fusion region detector 403 may detect a predetermined region centered on the entire image or a portion of the image, for example, a motion detection region, a preset ROI, or the like as the fusion region. Also, the fusion region detector 403 may detect a user-designated region designated by the user as the fusion region.

가중치 결정부(405)는 제1영상 및 제2영상의 융합 영역 내 각 픽셀에 대한 가중치를 결정할 수 있다. 이를 위해 가중치 결정부(405)는 제1영상 및 제2영상을 하나 이상의 국소 영역(local area)으로 분할할 수 있다. 가중치 결정부(405)는 촬영 환경에 따라 국소 영역의 사이즈를 결정할 수 있으며, 국소 영역 사이즈에 따라 세밀한 표현력과 연산량이 결정될 수 있다.The weight determiner 405 may determine a weight for each pixel in the fusion region of the first image and the second image. To this end, the weight determiner 405 may divide the first image and the second image into one or more local areas. The weight determiner 405 may determine the size of the local area according to the photographing environment, and the detailed expression power and the amount of calculation may be determined according to the local area size.

도 3은 MxN 사이즈의 제1영상(a)과 제2영상(b) 각각을 ixj 개의 픽셀을 포함하는 복수의 국소 영역으로 분할한 예를 도시하고 있다. 제1영상(a)의 각 국소 영역(c11, c12, ..., c21, c22,..., cmn) 내 픽셀의 가중치(w_CCD_xy)는 수학식 1과 같이 각 국소 영역(c11, c12, ..., c21, c22,..., cmn)의 평균(m_CCD_mn) 및 표준편차(std_CCD_mn)를 이용하여 계산할 수 있다. 제2영상(b)의 각 국소 영역(i11, i12, ..., i21, i22,..., imn) 내 픽셀의 가중치(w_IR_xy)는 수학식 2와 같이 각 국소 영역(i11, i12, ..., i21, i22,..., imn)의 평균(m_IR_mn) 및 표준편차(std_IR_mn)를 이용하여 계산할 수 있다. 여기서, a, b, c, d는 제1영상 및 제2영상의 각 국소 영역의 평균과 표준편차의 반영 정도를 조절하는 계수이다. 예를 들어, a, b, c, d를 조절하여 제1영상은 평균을 임계치(a=1, b=0)로 하고, 제2영상은 표준편차를 임계치(c=0, d=1)로 계산할 수 있다. a, b, c, d는 시스템이나 환경에 따라 실험적으로 최적화한 값으로 결정할 수 있다. FIG. 3 illustrates an example of dividing each of the first image (a) and the second image (b) having an M × N size into a plurality of local regions including ixj pixels. The weight (w_CCD_xy) of the pixels in each of the local regions c11, c12, ..., c21, c22, ..., cmn of the first image (a) is equal to the local regions c11, c12, It can be calculated using the mean (m_CCD_mn) and standard deviation (std_CCD_mn) of ..., c21, c22, ..., cmn. The weights w_IR_xy of the pixels in the local regions i11, i12,..., I21, i22,..., And imn of the second image b are equal to each local region i11, i12, It can be calculated using the mean (m_IR_mn) and standard deviation (std_IR_mn) of ..., i21, i22, ..., imn). Here, a, b, c, and d are coefficients for adjusting the degree of reflection of the mean and standard deviation of each local area of the first image and the second image. For example, by adjusting a, b, c, and d, the first image is the threshold (a = 1, b = 0) and the second image is the threshold (c = 0, d = 1). Can be calculated as a, b, c and d can be determined by experimentally optimized values according to the system or environment.

Figure 112013077642048-pat00001
...(1)
Figure 112013077642048-pat00001
...(One)

Figure 112013077642048-pat00002
...(2)
Figure 112013077642048-pat00002
...(2)

국소 영역별 가중치의 편차가 크면 국소 영역의 경계가 융합 영상에 반영될 수 있다. 따라서, 가중치 결정부(405)는 WLPF(Weight Low Pass Filter)를 픽셀 가중치에 적용하여 국소 영역별 가중치 편차에 대한 보정을 수행할 수 있다. 여기서 마스크(MASK)의 사이즈는 국소 영역의 사이즈보다 더 크게 설정하며, 실험에 의해 최적화된 값이 설정될 수 있다. 보정된 픽셀 가중치(w'_CCD_xy, w'_IR_xy)는 하기 수학식 3과 같다.If the weight variation of each local region is large, the boundary of the local region may be reflected in the fusion image. Accordingly, the weight determiner 405 may apply a weight low pass filter (WLPF) to the pixel weights to correct the weight deviation of each local area. Here, the size of the mask MASK is set larger than that of the local area, and an optimized value may be set by an experiment. The corrected pixel weights w'_CCD_xy and w'_IR_xy are shown in Equation 3 below.

Figure 112013077642048-pat00003
...(3)
Figure 112013077642048-pat00003
... (3)

가중치 결정부(405)는 사용자로부터 사용자 지정 영역에 대한 사용자 지정 가중치 입력이 있는 경우, 제1영상과 제2영상의 사용자 지정 영역에 대해서는 사용자 지정 가중치를 우선 적용할 수 있다. The weight determination unit 405 may first apply the user-specified weight to the user-designated areas of the first and second images when there is a user-specified weight input from the user.

후처리부(407)는 제1영상과 제2영상의 융합 영역에서 각 픽셀 가중치를 적용하여 제1영상과 제2영상을 융합하여 융합 영상(F)을 생성할 수 있다. 융합 영상의 각 픽셀의 픽셀 값(x_F)은 수학식 4와 같이 제1영상의 픽셀값(x_CCD)과 제2영상의 픽셀값(x_IR)에 각각 보정된 가중치(w'_CCD, w'_IR)를 적용하여 계산할 수 있다. The post-processing unit 407 may generate a fusion image F by fusion of the first image and the second image by applying respective pixel weights in the fusion region of the first image and the second image. The pixel value x_F of each pixel of the fused image is a weight (w'_CCD, w'_IR) corrected to the pixel value x_CCD of the first image and the pixel value x_IR of the second image, respectively, as shown in Equation 4. It can be calculated by applying.

Figure 112013077642048-pat00004
...(4)
Figure 112013077642048-pat00004
...(4)

또한, 후처리부(407)는 화질 개선을 위한 영상 신호 처리를 하여 융합 영상의 데이터를 압축 처리하여 영상 파일을 생성할 수 있으며, 또는 영상 파일로부터 영상 데이터를 복원할 수 있다. 영상의 압축형식은 가역 형식 또는 비가역 형식을 포함할 수 있다. 또한, 후처리부(407)는 기능적으로 색채 처리, 블러 처리, 에지 강조 처리, 영상 해석 처리, 영상 인식 처리, 영상 이펙트 처리 등도 행할 수 있다. 영상 인식 처리로 얼굴 인식, 장면 인식 처리 등을 행할 수 있다. In addition, the post processor 407 may generate an image file by compressing the data of the fusion image by processing an image signal for improving image quality, or may restore the image data from the image file. The compressed format of the image may include a reversible format or an irreversible format. In addition, the post processing unit 407 can also perform color processing, blur processing, edge enhancement processing, image analysis processing, image recognition processing, image effect processing, and the like. Face recognition, scene recognition processing, and the like can be performed by the image recognition processing.

디스플레이부(50)는 영상 융합부(40)로부터 출력되는 융합 영상을 사용자에게 제공함으로써, 사용자가 디스플레이되는 영상을 모니터링할 수 있도록 한다. 디스플레이 장치(50)는 제1영상과 제2영상이 중첩된 융합 영상을 디스플레이할 수 있다. 디스플레이 장치(50)는 액정 디스플레이 패널(LCD), 유기 발광 디스플레이 패널(OLED), 전기 영동 디스플레이 패널(EPD) 등으로 이루어질 수 있다. 디스플레이 장치(50)는 사용자의 터치를 통하여 입력을 받을 수 있도록 터치스크린 형태로 구비되어, 사용자 입력부(60)로서 동작할 수 있다. 디스플레이부(50)는 OSD(On Screen Display) 기능을 통해 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시할 수 있다. The display unit 50 provides the user with the fusion image output from the image fusion unit 40 so that the user can monitor the displayed image. The display apparatus 50 may display a fusion image in which the first image and the second image are overlapped. The display device 50 may be formed of a liquid crystal display panel (LCD), an organic light emitting display panel (OLED), an electrophoretic display panel (EPD), or the like. The display device 50 may be provided in the form of a touch screen to receive an input through a user's touch and operate as the user input unit 60. The display unit 50 may display a user interface (UI) or a graphic user interface (GUI) through an on screen display (OSD) function.

사용자 입력부(60)는 영상 융합 시스템(1)과 유선 또는 무선으로 연결되어 사용자가 영상 융합 시스템(1)의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(60)는 키 패드(key pad), 돔 스위치(dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 마우스, 리모컨, 조그 휠, 조그 스위치 등으로 구성될 수 있다. The user input unit 60 is connected to the image fusion system 1 by wire or wirelessly to generate a user input data for controlling the operation of the image fusion system 1. The user input unit 60 may include a key pad, a dome switch, a touch pad (contact capacitive type, pressure resistive layer type, infrared sensing type, surface ultrasonic conduction type, integral tension measuring type, Piezo effect method), a mouse, a remote controller, a jog wheel, a jog switch, and the like.

도 4는 본 발명의 일 실시예에 따른 사용자 지정 방법을 설명하는 도면이다. 본 발명의 일 실시 예에 따르면, 도 4에 도시된 바와 같이, 사용자는 사용자 입력부(60)를 통하여 디스플레이부(50)에 표시된 융합 영상(F)에서 OSD 메뉴를 통해 사용자 지정 영역을 하나 이상 설정하고, 각 사용자 지정 영역마다 사용자 지정 가중치를 입력할 수 있다. 도 4에서는 사용자 지정 영역이 박스 형태인 예를 도시하고 있으나, 본 발명의 실시예는 이에 한정되지 않고, 원 형태, 세모 형태 등 다양한 형상으로 설정될 수 있다. 도 4에서는 좌측의 사용자 지정 영역에 제1영상의 픽셀 가중치를 0.8, 제2영상의 픽셀 가중치를 0.2로 지정하고, 우측의 사용자 지정 영역에 제1영상의 픽셀 가중치를 0.9, 제2영상의 픽셀 가중치를 0.1로 지정한 예를 도시하고 있다. 4 is a diagram illustrating a user designation method according to an embodiment of the present invention. According to an embodiment of the present disclosure, as shown in FIG. 4, the user sets one or more user-specified areas through the OSD menu in the fused image F displayed on the display unit 50 through the user input unit 60. In addition, a user-specified weight may be input for each user-specified area. Although FIG. 4 illustrates an example in which the user designated area is in the form of a box, the embodiment of the present invention is not limited thereto and may be set in various shapes such as a circle shape and a triangular shape. In FIG. 4, the pixel weight of the first image is 0.8 and the pixel weight of the second image is 0.8, and the pixel weight of the first image is 0.9 and the pixel of the second image is designated as the pixel weight of the second image. The example which specified the weight as 0.1 is shown.

도 5는 본 발명의 일 실시예에 따른 영상 융합 방법을 개략적으로 설명한 흐름도이다. 5 is a flowchart schematically illustrating an image fusion method according to an embodiment of the present invention.

도 5를 참조하면, 영상 융합 시스템의 영상 융합부는 제1영상과 제2영상으로부터 융합 영역을 검출한다(S51). 제1영상과 제2영상은 변환함수 추정에 의해 정합되고, 전처리된 영상일 수 있다. 융합 영역은 전체 영상 또는 영상 내 일부일 수 있다. 융합 영역이 영상 내 일부인 경우, 영상 융합부는 배경은 가시 영상인 상태에서 융합 영역만 열 영상 정보가 중첩된 융합 영상을 생성할 수 있다. 이하에서는 제1영상을 가시 영상으로, 제2영상을 열 영상으로 하여 영상 융합 방법을 설명하겠다. Referring to FIG. 5, the image fusion unit of the image fusion system detects a fusion region from the first image and the second image (S51). The first image and the second image may be matched and preprocessed by the transform function estimation. The fusion region may be an entire image or a part of the image. When the fusion region is a part of the image, the image fusion unit may generate a fusion image in which only the fusion region overlaps the thermal image information while the background is a visible image. Hereinafter, an image fusion method will be described with a first image as a visible image and a second image as a thermal image.

영상 융합부는 가시 영상과 열 영상의 융합 영역 내의 각 픽셀에 대한 가중치를 결정한다(S53). 영상 융합부는 가시 영상과 열 영상을 각각 복수의 국소 영역으로 분할하고, 각 국소 영역마다 픽셀 값의 평균 및 표준편차를 이용하여 국소 영역별 가중치를 결정함으로써 각 픽셀의 가중치를 결정할 수 있다. 또한 영상 융합부는 저역통과필터를 이용하여 국소 영역별 가중치 편차를 보정할 수 있다. The image fusion unit determines a weight for each pixel in the fusion region of the visible image and the thermal image (S53). The image fusion unit may divide the visible image and the thermal image into a plurality of local regions, respectively, and determine the weight of each pixel by determining the weight for each local region by using the average and standard deviation of pixel values for each local region. Also, the image fusion unit may correct a weight deviation of each local region by using a low pass filter.

영상 융합부는 각 픽셀의 가중치 또는 각 픽셀의 보정된 가중치를 이용하여 가시 영상과 열 영상을 융합한 융합 영상을 생성할 수 있다(S55). 영상 융합부는 융합 영상을 디스플레이부에 출력할 수 있다(S59). 영상 융합부는 가시 영상을 배경으로 하고, 융합 영역만 열 영상의 열상 정보를 표시하는 융합 영상을 출력할 수 있다. The image fusion unit may generate a fusion image in which the visible image and the thermal image are fused using the weight of each pixel or the corrected weight of each pixel (S55). The image fusion unit may output the fusion image to the display unit (S59). The image fusion unit may output a fusion image having the visible image as a background and displaying only thermal image information of the thermal image only in the fusion region.

영상 융합부는 사용자로부터 사용자 지정 영역 및 사용자 지정 영역의 가중치가 입력되면, 사용자 지정 영역을 융합 영역으로 검출하고, 가시 영상 및 열 영상의 융합 영역 내 각 픽셀에 사용자 지정 가중치를 적용하여, 융합 영상의 융합 정보를 변경할 수 있다(S57). 융합 정보는 융합 영상의 픽셀 값에 대응한다. 사용자가 가시 영상의 융합 영역 가중치와 열 영상의 융합 영역 가중치를 조절함으로써 융합 영상의 픽셀 값이 변경된다. 사용자에 의해 가시 영상 및 열 영상의 가중치를 조절할 수 있기 때문에 가시 영상 정보 및 열 영상 정보를 자유롭게 가감 및 수정할 수 있다. The image fusion unit detects the user-specified area as a fusion area when a weight of the user-defined area and the user-defined area is input from the user, and applies a user-specified weight to each pixel in the fusion area of the visible image and the thermal image, thereby performing The convergence information may be changed (S57). The fusion information corresponds to pixel values of the fusion image. The pixel value of the fusion image is changed by the user adjusting the fusion region weight of the visible image and the fusion region weight of the thermal image. Since the weight of the visible image and the thermal image can be adjusted by the user, the visible image information and the thermal image information can be freely added or decreased.

영상 융합부는 융합 영상 또는 사용자 입력에 의해 융합 정보가 변경된 융합 영상을 디스플레이부에 출력할 수 있다(S59). The image fusion unit may output the fusion image or the fusion image whose fusion information is changed by the user input (S59).

도 6은 본 발명의 일 실시예에 따른 영상 융합에 따른 융합 영상과 비교예에 따른 융합 영상을 도시한 예시도이다. 6 is an exemplary view illustrating a fusion image according to an image fusion according to an embodiment of the present invention and a fusion image according to a comparative example.

도 6을 참조하면, 융합 영상(d)은 본 발명의 실시예에 따라 국소 영역별 가중치를 이용하여 가시 영상(a)과 열 영상(b)을 융합한 융합 영상이다. Referring to FIG. 6, the fusion image d is a fusion image in which the visible image a and the thermal image b are fused using weights for each local area according to an exemplary embodiment of the present invention.

융합 영상(c)은 기존의 영상 융합 방법에 의해 생성된 비교예로서의 융합 영상이다. 기존에는 가시 영상과 열 영상 각각의 전체 영역에 대한 픽셀 값 평균과 표준편차를 이용하여 가시 영상의 전역 가중치(Global weight)와 열 영상의 전역 가중치를 계산하고, 전역 가중치를 이용하여 가시 영상과 열 영상을 융합하였다. The fusion image (c) is a fusion image as a comparative example generated by the existing image fusion method. Conventionally, the global weight of the visible image and the global weight of the thermal image are calculated by using the mean and standard deviation of pixel values for the entire area of each of the visible and thermal images, and the global and thermal images are calculated using the global weights. Images were fused.

이에 따른 융합 영상(c)은 복수의 융합 영역들(A, B, C) 중 영역들(A, B)은 열 열상의 객체 정보를 효과적으로 표시하고 있으나, 영역(C)의 경우 가시 영상의 객체 정보가 융합 영상(c)의 객체 정보보다 명확함에도 불구하고, 영역(C)의 휘도 값을 증가시켜 백화되고 있다. Accordingly, in the fusion image c, the regions A and B of the plurality of fusion regions A, B and C effectively display object information of the thermal column, but in the case of the region C, the object of the visible image. Although the information is clearer than the object information of the fused image (c), it is whitened by increasing the luminance value of the area (C).

반면, 본 발명의 실시예에 따라 생성된 융합 영상(d)은 영역(C)에서 가시 영상의 객체 정보를 잘 반영하여 백화 없이 효과적으로 표시하고 있다. 융합 영상(e)은 융합 영상(d)에서 열 영상의 정보가 반영된 부분을 붉은색으로 표시한 도면이다. On the other hand, the converged image (d) generated according to the embodiment of the present invention effectively reflects the object information of the visible image in the region (C) and is effectively displayed without whitening. The fusion image e is a diagram in which a portion of the fusion image d in which information of the thermal image is reflected is displayed in red.

한편 본원발명은 다양한 상황 및 환경에 맞춰 사용자가 원하는 융합 영역을 설정하고, 융합 영역의 가중치를 매뉴얼(MANUAL)로 추가 가능하다. Meanwhile, the present invention may set a desired fusion region according to various situations and environments, and add a weight of the fusion region to a manual.

영상 융합 시스템은 자동 모드, 매뉴얼 모드, 자동-매뉴얼 모드를 제공할 수 있다. 자동 모드에서 영상 융합 시스템은 기 정해진 알고리즘에 따라 융합 영역을 검출하고 가중치를 결정하여 융합 영상을 생성할 수 있다. 매뉴얼 모드에서 영상 융합 시스템은 사용자가 융합 영역 및 가중치를 지정할 수 있다. 자동-매뉴얼 모드에서 영상 융합 시스템은 자동 모드를 기본으로 하되, 매뉴얼로 사용자가 특정 영역을 지정하고 가중치를 결정하도록 할 수 있다. The image fusion system may provide an auto mode, a manual mode, and an auto-manual mode. In the automatic mode, the image fusion system may generate a fusion image by detecting a fusion region and determining a weight according to a predetermined algorithm. In the manual mode, the image fusion system allows a user to specify a fusion area and weights. In the auto-manual mode, the image fusion system is based on the automatic mode, but the user can manually specify a specific area and determine the weight.

영상 융합 시스템은 유선 또는 무선으로 사용자 입력 명령을 수신하고, 입력된 융합 영역 및 가중치를 적용하여 융합 영상을 출력할 수 있다. The image fusion system may receive a user input command by wire or wirelessly, and output a fusion image by applying an input fusion region and a weight.

전술된 실시예에서는 제1영상을 가시 영상, 제2영상을 열 영상으로 예를 들어 설명하였지만, 본 발명의 실시예는 이에 한정되지 않고, 제1영상과 제2영상은 서로 다른 시점, 서로 다른 시간 또는 가시광 카메라와 적외광 카메라 외의 서로 다른 특성의 센서로부터 획득한 영상인 경우에도 본 발명의 실시예가 동일하게 적용될 수 있다. In the above-described embodiment, the first image is described as a visible image and the second image as an example of a thermal image. However, embodiments of the present invention are not limited thereto, and the first image and the second image are different from each other. The same may be applied to the case of an image obtained from a sensor having different characteristics other than a time or visible light camera and an infrared light camera.

전술된 실시예는 GOP와 같은 경계 지역 감시, 산불 감시와 같이 24시간 실시간 감시가 필요한 감시, 무광원 혹은 저조도 환경에서 빌딩 및 주거지 침입 감지, 산과 같은 곳에서 실종자 및 범죄자 추적, 의료 영상분야 등에 적용될 수 있다. The above-described embodiments are applicable to boundary area monitoring such as GOP, surveillance requiring 24-hour real-time monitoring such as forest fire monitoring, detection of building and residential invasion in a no-light or low light environment, tracking missing persons and criminals in places such as mountains, medical imaging, etc. Can be.

이제까지 본 발명에 대하여 그 바람직한 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far I looked at the center of the preferred embodiment for the present invention. Those skilled in the art will appreciate that the present invention can be implemented in a modified form without departing from the essential features of the present invention. Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope will be construed as being included in the present invention.

Claims (6)

가시영상 및 열영상 각각을 복수의 국소 영역으로 분할하고, 각 국소 영역의 픽셀 값과 표준편차의 선형결합을 이용하여 국소 영역별 가중치를 계산하고, 상기 국소 영역별 가중치를 기초로 상기 가시영상 및 상기 열영상 각각의 픽셀 가중치를 결정하는 가중치 결정부; 및
상기 가시영상의 픽셀 가중치 및 상기 열영상의 픽셀 가중치를 적용하여 상기 가시영상 및 열영상을 융합한 융합 영상을 생성하는 후처리부;를 포함하는 영상 융합 시스템.
Each of the visible image and the thermal image is divided into a plurality of local regions, and the weights of the local regions are calculated using a linear combination of pixel values and standard deviations of each local region, and the visible and A weight determiner configured to determine pixel weights of the thermal images; And
And a post-processing unit which generates a fusion image in which the visible image and the thermal image are fused by applying the pixel weight of the visible image and the pixel weight of the thermal image.
제1항에 있어서, 상기 가중치 결정부는,
상기 영역별 가중치들 간의 편차를 보정하는 영상 융합 시스템.
The method of claim 1, wherein the weight determination unit,
The image fusion system for correcting the deviation between the weight for each area.
제1항에 있어서,
상기 가시영상 및 열영상으로부터 융합 영역을 검출하는 융합영역 검출부;를 더 포함하고,
상기 후처리부는 상기 가시영상을 배경으로 하고, 상기 융합 영역의 융합 영상을 생성하는, 영상 융합 시스템.
The method of claim 1,
And a fusion region detector for detecting a fusion region from the visible image and the thermal image.
And the post processor is configured to generate a fusion image of the fusion region with the visible image as a background.
삭제delete 삭제delete 삭제delete
KR1020130101288A 2013-08-26 2013-08-26 Image fusion system and image fusion method KR102083926B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130101288A KR102083926B1 (en) 2013-08-26 2013-08-26 Image fusion system and image fusion method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130101288A KR102083926B1 (en) 2013-08-26 2013-08-26 Image fusion system and image fusion method

Publications (2)

Publication Number Publication Date
KR20150024169A KR20150024169A (en) 2015-03-06
KR102083926B1 true KR102083926B1 (en) 2020-03-03

Family

ID=53020939

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130101288A KR102083926B1 (en) 2013-08-26 2013-08-26 Image fusion system and image fusion method

Country Status (1)

Country Link
KR (1) KR102083926B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101723750B1 (en) * 2015-11-27 2017-04-07 중앙대학교 산학협력단 Infra-red stealth apparatus and method
CN108510455B (en) * 2018-03-27 2020-07-17 长春理工大学 Laser irradiator image fusion method and system
CN113538255B (en) * 2021-05-31 2024-06-21 浙江大华技术股份有限公司 Motion fusion noise reduction method, device and computer readable storage medium
WO2023085464A1 (en) * 2021-11-12 2023-05-19 한국전자기술연구원 Lightweight deep learning apparatus comprising multichannel information extractor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090002475A1 (en) * 2007-06-27 2009-01-01 General Instrument Corporation Apparatus and System for Improving Image Quality
US20100177973A1 (en) * 2007-06-12 2010-07-15 Thomas Wedi Statistical image enhancing method, image coding method, and image decoding method
KR101194405B1 (en) 2012-02-06 2012-10-31 삼성탈레스 주식회사 Method for detecting target using different kind sensors

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100552233B1 (en) * 2003-01-14 2006-02-16 한국원자력연구소 Emissivity Correction Method of Thermal Image using Mapping Technology Thermal Infrared Image into CCD Image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100177973A1 (en) * 2007-06-12 2010-07-15 Thomas Wedi Statistical image enhancing method, image coding method, and image decoding method
US20090002475A1 (en) * 2007-06-27 2009-01-01 General Instrument Corporation Apparatus and System for Improving Image Quality
KR101194405B1 (en) 2012-02-06 2012-10-31 삼성탈레스 주식회사 Method for detecting target using different kind sensors

Also Published As

Publication number Publication date
KR20150024169A (en) 2015-03-06

Similar Documents

Publication Publication Date Title
KR102010228B1 (en) Image processing apparatus, image processing method, and program
US9369612B2 (en) Image fusion system and method
KR101314259B1 (en) Image synthesis system and image synthesis method
TWI580273B (en) Surveillance system
US9648285B2 (en) Monitoring method and camera
KR102144394B1 (en) Apparatus and method for alignment of images
US10834337B2 (en) Dynamic frame rate controlled thermal imaging systems and methods
US10255683B1 (en) Discontinuity detection in video data
US11037013B2 (en) Camera and image processing method of camera
KR102083926B1 (en) Image fusion system and image fusion method
US9967478B2 (en) Imaging device and infrared image generation method
KR101834882B1 (en) Camara device to detect the object having a integral body with a optical video camera and a thermal camera
JP2010146094A (en) Image processing apparatus, image processing method, and image processing program
KR20110114096A (en) Monitoring system employing thermal imaging camera and nighttime monitoring method using the same
KR20180138529A (en) Information processing apparatus, information processing method, and recording medium
KR102050418B1 (en) Apparatus and method for alignment of images
KR101738514B1 (en) Monitoring system employing fish-eye thermal imaging camera and monitoring method using the same
KR101619953B1 (en) Method for image processing of surveilance camera by using auto multi-tracing
KR20180062060A (en) System for monitoring image
EP4383211A1 (en) Method and system for identifying reflections in thermal images
JP2008123057A (en) Suspicious person detection device
KR102450629B1 (en) Thermal image camera apparatus and control method thereof
KR20150087708A (en) Apparatus and method for processing image
JP2013090063A (en) Monitoring device, monitoring method, and monitoring program
JP2016220148A (en) Control apparatus, control method, and system

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant