KR20130054281A - Infrared resolution and contrast enhancement with fusion - Google Patents

Infrared resolution and contrast enhancement with fusion Download PDF

Info

Publication number
KR20130054281A
KR20130054281A KR1020127030587A KR20127030587A KR20130054281A KR 20130054281 A KR20130054281 A KR 20130054281A KR 1020127030587 A KR1020127030587 A KR 1020127030587A KR 20127030587 A KR20127030587 A KR 20127030587A KR 20130054281 A KR20130054281 A KR 20130054281A
Authority
KR
South Korea
Prior art keywords
image
visual
resolution
images
visual image
Prior art date
Application number
KR1020127030587A
Other languages
Korean (ko)
Other versions
KR101773887B1 (en
Inventor
카트린 스타란데마르
Original Assignee
플리르 시스템스 에이비
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US12/766,739 external-priority patent/US8520970B2/en
Application filed by 플리르 시스템스 에이비 filed Critical 플리르 시스템스 에이비
Publication of KR20130054281A publication Critical patent/KR20130054281A/en
Application granted granted Critical
Publication of KR101773887B1 publication Critical patent/KR101773887B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 이미지의 조합에 관한 것이다. 실시예에 따른 방법은 장면의 시각 이미지 및 적외선(IR) 이미지를 수신하는 단계와, 상기 시각 이미지로부터 고공간 주파수 컨텐츠를 추출하는 단계와, 상기 시각 이미지로부터 상기 추출된 고공간 주파수 컨텐츠와 상기 IR 이미지를 조합하는 단계를 포함하고, 시각 이미지와 IR 이미지에 대한 해상도는 조합 이미지를 생성하기 위해 실질적으로 같다.The present invention relates to the combination of images. A method according to an embodiment comprises the steps of receiving a visual image and an infrared (IR) image of a scene, extracting high spatial frequency content from the visual image, and extracting the extracted high spatial frequency content and the IR from the visual image. Combining the images, wherein the resolutions for the visual and IR images are substantially the same to produce the combined image.

Description

적외선 해상도 및 융합에 따른 대비 강화{INFRARED RESOLUTION AND CONTRAST ENHANCEMENT WITH FUSION}INFRARED RESOLUTION AND CONTRAST ENHANCEMENT WITH FUSION}

본 발명은 적외선("IR") 이미지를 향상시키기 위한 방법, 이미징 디바이스, 소프트웨어, 및 시스템에 관한 것이다.The present invention relates to methods, imaging devices, software, and systems for enhancing infrared ("IR") images.

이미지 처리영역 내에서, 하나 이상의 물체를 포함한 장면의 IR 이미지는 시각 이미지로부터의 이미지 정보와 조합시킴으로써 강화될 수 있으며, 상기 조합은 융합으로 알려져 있다. 이런 조합 및 강화를 수행하기 위한 시도시 많은 기술적 문제들이 발생한다. Within the image processing area, IR images of scenes containing one or more objects can be enhanced by combining with image information from the visual image, which combination is known as fusion. Many technical problems arise in attempting to perform such combinations and enhancements.

일반적으로, 카메라 형태의 이미징 디바이스는 시각 이미지 및 IR 이미지를 캡쳐하고 이들이 함께 디스플레이될 수 있도록 이들 이미지를 처리하기 위해 제공된다. 상기 조합은 동시에 이미징 디바이스를 이용해 사용자를 위한 최종 발생한 이미지에서 물체의 배향 및 인식을 간략히 하기 위해 시각 이미지로부터 충분한 데이터를 디스플레이하면서 IR 이미지로부터의 IR 데이터를 이용해 물체에서 온도 변화를 식별하는데 이점적이다. In general, an imaging device in the form of a camera is provided for capturing visual and IR images and processing these images so that they can be displayed together. The combination is advantageous for identifying temperature changes in an object using IR data from the IR image while simultaneously displaying enough data from the visual image to simplify the orientation and recognition of the object in the final generated image for the user using the imaging device. .

IR 이미지와 시각 이미지를 캡쳐하는 것은 이미징 디바이스의 다른 구성부품들에 의해 수행될 수 있기 때문에, 이미징 구성부품들 간에 광축들은 서로 떨어져 있을 수 있고 시차(視差)로 알려진 광학 현상이 발생하게 된다. 광축들 간의 각(角)으로 인해 발생한 이런 및 오차를 제거하기 위해, 이미지들은 정렬되어야 한다.Since capturing IR and visual images can be performed by other components of the imaging device, the optical axes between the imaging components can be separated from each other and an optical phenomenon known as parallax occurs. In order to eliminate this and errors caused by the angle between the optical axes, the images must be aligned.

IR 이미지를 시각 이미지와 조합할 때, 다른 많은 방법들이 알려져 있다. 가장 통상적으로 사용되는 방법은 임계 융합과 PIP(picture-in-picture) 융합으로 알려져 있다. When combining an IR image with a visual image, many other methods are known. The most commonly used methods are known as critical fusion and picture-in-picture fusion.

이미지의 임계 융합을 수행하기 위한 방법에서, 동일 장면의 시각 이미지와 IR 이미지가 캡쳐된다. IR 이미지에서, 온도 간격이 선택되고 선택된 간격내 온도에 해당하는 이미지의 이들 픽셀들만 선택되고 다른 모든 픽셀로부터 정보 데이터와 함께 디스플레이된다. 최종 발생한 조합 이미지는 선택된 간격내 온도가 검출될 수 있는 이들 영역들을 제외하고 시각 이미지를 나타내며 대신 이들 픽셀들에 IR 이미지로부터 데이터를 디스플레이한다. 예컨대, 벽에 축축한 얼룩이 검출되면, 얼룩을 만든 액체의 온도 주위의 간격으로 온도 임계를 설정함으로써 습도 범위를 결정하는데 임계 융합이 사용될 수 있다. 벽의 다른 부분들은 실온과 더 유사할 것이며 스크린에 시각 데이터로 나타날 것이므로 얼룩의 정확한 위치가 결정될 수 있다. 벽의 조직, 가령 벽지의 패턴을 봄으로써, 얼룩의 위치가 매우 정확하게 더 결정될 수 있다. In a method for performing critical fusion of images, visual and IR images of the same scene are captured. In an IR image, a temperature interval is selected and only those pixels of the image corresponding to the temperature within the selected interval are selected and displayed with information data from all other pixels. The final resulting combined image represents a visual image except those areas where a temperature within a selected interval can be detected and instead displays data from the IR image in these pixels. For example, if a moist spot on the wall is detected, critical fusion can be used to determine the humidity range by setting the temperature threshold at intervals around the temperature of the liquid that made the spot. The other parts of the wall will be more similar to room temperature and appear as visual data on the screen, so the exact location of the spot can be determined. By looking at the texture of the wall, such as the pattern of the wallpaper, the location of the stain can be further determined very accurately.

PIP 융합을 수행할 경우, 하나 이상의 물체들을 포함한 동일 장면을 나타내는 시각 이미지와 IR 이미지가 캡쳐되고, 종종 정사각형 형태로 기설정된 영역내 픽셀들이 조합 이미지의 나머지가 시각 데이터로 나타내어지는 동안 IR 이미지로부터 디스플레이된다. 예컨대, 대략 온도가 동일한 것으로 가정되는 일렬의 물체들에서 편차를 검출할 때, 많은 물체들 주위로 정사각형이 만들어지고 올바르게 기능하는 물체를 제외하고 고장난 물체가 캡쳐될 때까지 이동될 수 있으며, 그 차는 쉽게 발견될 것이다. 가령 텍스트 또는 패턴과 같은 이 정사각형 외부의 시각 이미지로부터 요소들을 디스플레이함으로써, 특정 온도에 따른 물체들의 정확한 위치가 더 쉽고 신뢰할 수 있게 결정될 수 있다. When performing PIP fusion, a visual image and an IR image representing the same scene including one or more objects are captured, and pixels in a predetermined area, often in a square shape, are displayed from the IR image while the rest of the combination image is represented by visual data. do. For example, when detecting deviations in a series of objects that are assumed to be approximately equal in temperature, a square is formed around many objects and can be moved until a failed object is captured except for a functioning object, the difference being It will be easy to find. By displaying elements from a visual image outside of this square, for example text or a pattern, the exact location of the objects according to a particular temperature can be determined more easily and reliably.

임계 융합 및 PIP 융합 방법은 모두 IR 데이터로서 조합된 이미지의 선택된 부분을 디스플레이하는 반면, 나머지는 시각 데이터로서 나타내어 진다. 이는 동일 영역에 대해 IR 데이터를 나타낼 경우 시각 이미지에서 볼 수 있는 상세 내용들이 누락되는 단점이 있다. 마찬가지로, IR 이미지로부터 온도 데이터가 동일 영역의 시각 이미지에 의해 주어진 형태 및 조직과 함께 나타내어질 수 없다. The critical fusion and PIP fusion methods both display selected portions of the image combined as IR data, while the rest are represented as visual data. This is a drawback of missing details that can be seen in the visual image when representing IR data for the same area. Similarly, temperature data from IR images cannot be represented with the shapes and tissues given by visual images of the same area.

동일 이미지에서 IR 데이터 및 시각 데이터를 블랜딩하기 위한 몇가지 방법들이 있다. 그러나, 그 결과는 일반적으로 해석하기가 어렵고 팔레트의 다른 컬러들로 또는 다른 그레이 스케일 레벨로 디스플레이된 IR 이미지로부터 온도 데이터가 시각 이미지의 컬러 데이터와 블랜딩되기 때문에 사용자에게 혼동스러울 수 있다. 그 결과, 가령, 적색 물체와 고온 물체 간, 또는 청색 물체와 저온 물체 간의 차를 식별하지 못할 수 있다. 일반적으로, 복사계 또는 이미지의 다른 IR 관련 측면들, 즉, 팔레트 또는 그레이 스케일 레벨로부터의 컬러의 중요성은 IR 이미지를 시각 이미지와 블랜딩할 때 상실된다.There are several ways to blend IR data and visual data in the same image. However, the results are generally difficult to interpret and can be confusing to the user because the temperature data is blended with the color data of the visual image from IR images displayed in different colors of the palette or at different gray scale levels. As a result, for example, a difference between a red object and a hot object or between a blue object and a low temperature object may not be identified. In general, the importance of color from the radiometer or other IR related aspects of the image, i. E. Palette or gray scale level, is lost when blending the IR image with the visual image.

그러므로, IR 이미지로부터의 데이터와 시각 이미지로부터의 데이터를 함께 비교하는 조합 방법을 제공하는 향상된 방법에 대한 필요성이 있게 된다.Therefore, there is a need for an improved method of providing a combinatorial method of comparing data from an IR image and data from a visual image together.

하기의 공보들은 관련 기술의 예를 나타낸 것이다:The following publications show examples of related technologies:

IR 이미지와 시각 광이미지를 정렬하는 방법이 WO2009/008812 Al (Flir Systems AB)에 개시되어 있으며, 상기 문헌에서 이미지들은 이미지 부분들에 의해 캡쳐된 물체까지의 거리를 결정하기 위한 포커스 모터의 위치를 기초로 정렬된다. A method of aligning an IR image with a visual optical image is disclosed in WO2009 / 008812 Al (Flir Systems AB), in which the images specify the position of the focus motor for determining the distance to the object captured by the image parts. Sorted on the basis.

참조문헌은 US20020113210 Al은 근적외선 복사 현미경을 이용한 화학적 이미징 시스템 및 방법을 개시하고 있다.Reference is made to US20020113210 Al discloses chemical imaging systems and methods using near infrared radiation microscopy.

쑤에 지(Xue Z.) 등의 참조문헌 "Fusion of Visual and IR Images for Concealed Weapon Detection"은 시각 광이미지와 IR 이미지의 이미지 융합 방법을 나타낸다.Xue Z. et al., "Fusion of Visual and IR Images for Concealed Weapon Detection," describes a method of image fusion of visual and IR images.

상술한 관련 기술 중 어느 것도 본 발명의 특징 및 신규한 기술들을 교시하지 못한다.None of the above related techniques teaches features of the present invention and novel techniques.

본 발명의 하나 이상의 실시예들은 상술한 문제들을 해결하거나 적어도 최소화할 수 있다. 이는 특허청구범위에 따른 방법, 이미징 디바이스 및/또는 영속적 컴퓨터 프로그램 제품에 의해 달성되며, IR 이미지가 시각 이미지의 고공간 주파수 컨텐츠와 조합된다. 상기 조합은 시각 이미지와 IR 이미지의 고공간 주파수 컨텐츠의 중첩을 통해 수행되거나, 대안으로, 시각 이미지의 고공간 주파수 컨텐츠에 IR 이미지의 중첩을 통해 수행된다. 그 결과, 시각 이미지로부터의 대비가 온도 변화를 나타내는 IR 이미지에 삽입될 수 있어, 최종 발생한 조합 이미지의 명확성과 영상해석능력을 잃지 않으면서 2개 이미지 타입들의 이점을 조합한다. One or more embodiments of the present invention may solve or at least minimize the problems described above. This is achieved by the method according to the claims, the imaging device and / or the permanent computer program product, wherein the IR image is combined with the high spatial frequency content of the visual image. The combination is performed through the superposition of the high spatial frequency content of the visual image and the IR image, or alternatively through the superposition of the IR image on the high spatial frequency content of the visual image. As a result, a contrast from the visual image can be inserted into the IR image representing the temperature change, combining the advantages of the two image types without losing the clarity and image interpretation capability of the final combination image.

본 발명의 실시예들의 더 구체적인 측면들을 하기에 설명한다. More specific aspects of embodiments of the invention are described below.

본 발명의 실시예에 따른 방법은 피조합 이미지의 해상도, 즉, 시각 이미지와 IR 이미지의 해상도가 실질적으로 같은 것을 보장하는 단계를 포함한다. 제 1 예시적인 실시예에서, 이는 IR 센서와 시각 이미지 센서를 갖는 이미징 디바이스를 구성함으로써 수행될 수 있어, IR 센서와 시각 이미지 센서가 실질적으로 동일한 해상도를 갖는다. 또 다른 실시예에서, 이미징 센서의 해상도는 실질적으로 같지 않은 것으로 가령 기설정된 차 임계값과는 다르게 미리 알려져 있다. 또 다른 실시예에서, 이미징 센서의 해상도가 앞서 알려져 있지 않을 경우, 본원의 방법은 수신된 이미지의 해상도가 실질적으로 같은지 여부를 검사하는 단계를 포함할 수 있다. 검사하는 단계는 수신된 이미지의 해상도 비교를 통해 수행될 수 있으며, 이미지의 해상도에 대한 정보는 별개의 이미징 센서들로부터 이용되거나 수신된 이미지로부터 검색되거나 수신된 이미지를 기초로 계산될 수 있다. 해상도가 실질적으로 같지 않을 경우, 센서 해상도에 대한 이전의 지식 또는 해상도 검사를 통해, 해상도가 실질적으로 동일한 것을 보장하는 단계는 수신된 이미지들 중 적어도 하나의 리샘플링(resampling) 단계를 더 포함한다. The method according to an embodiment of the present invention includes the step of ensuring that the resolution of the combined image, that is, the resolution of the visual and IR images, is substantially the same. In a first exemplary embodiment, this can be done by configuring an imaging device having an IR sensor and a visual image sensor, such that the IR sensor and the visual image sensor have substantially the same resolution. In another embodiment, the resolution of the imaging sensor is not known to be substantially the same, for example different from the preset difference threshold. In another embodiment, if the resolution of the imaging sensor is not previously known, the method may include checking whether the resolution of the received image is substantially the same. The inspecting step can be performed through a resolution comparison of the received image, and information about the resolution of the image can be calculated based on the image received or retrieved from the received image or used from separate imaging sensors. If the resolutions are not substantially the same, ensuring that the resolutions are substantially the same, either through previous knowledge of the sensor resolution or resolution checks, further comprises resampling of at least one of the received images.

IR 이미지의 해상도는 시각 이미징 디바이스에 비해 IR 이미징 디바이스의 속성으로 인해 일반적으로 시각 이미지의 해상보다 훨씬 더 낮기 때문에, IR 이미지의 해상도는 시각 이미지의 해상도와 실질적으로 같아지도록 업샘플화될 수 있다. 그 결과, 세부내용의 높아진 수준이 달성될 수 있고 더 쉽게 분석되는 조합 이미지가 사용자에 나타내질 수 있다. 또 다른 예로, 시각 이미지는 IR 이미지의 해상도와 실질적으로 같도록 다운샘플화될 수 있다.Since the resolution of the IR image is generally much lower than the resolution of the visual image due to the properties of the IR imaging device compared to the visual imaging device, the resolution of the IR image can be upsampled to be substantially equal to the resolution of the visual image. As a result, higher levels of detail can be achieved and combined images that are easier to analyze can be presented to the user. As another example, the visual image may be downsampled to be substantially the same as the resolution of the IR image.

다른 예로, 양 이미지는 적절하다면 제 3 해상도에 맞추도록 샘플화될 수 있다. 양 이미지는 본래 실질적으로 동일한 해상도를 가질 수 있거나, 이미지의 해상도는 다를 수 있다. 그러나, 제 3 해상도에 맞게 리샘플화한 후, 양 이미지는 실질적으로 동일 해상도를 갖게 된다. 이는 이미지들이 어떻게 디스플레이되는지에 무관하게 편하고 적절한 방식으로 이미지들이 조합되게 할 수 있다. 일예로, 제 3 해상도는 조합 이미지가 디스플레이되는 디스플레이 스크린의 해상도일 수 있다. As another example, both images can be sampled to fit the third resolution, if appropriate. Both images may originally have substantially the same resolution, or the resolution of the images may be different. However, after resampling for the third resolution, both images will have substantially the same resolution. This may allow the images to be combined in a convenient and appropriate manner regardless of how the images are displayed. In one example, the third resolution may be the resolution of the display screen on which the combined image is displayed.

추가로, 시각 이미지에서 고공간 주파수 컨텐츠의 추출과 IR 이미지의 노이즈 및/또는 흐릿함의 제거가 바람직하게 수행될 수 있다. 일반적으로, 이는 픽셀 단위로 이미지를 가로질러 이동되는 공간 필터의 사용에 의해 시각 이미지를 고역필터링하고 IR 이미지를 저역필터링함으로써 달성된다. 이는 다른 잘 알려진 이미지 처리방법들이 동일 결과를 내도록 사용될 수 있음이 당업자에 명백하다. IR 이미지에 수행된 필터링의 결과로, IR 이미지는 본래 IR 이미지에 비해 평평해지고/지거나 줄어든 노이즈량을 포함할 수 있다. 추가로, 시각 이미지로부터 추출된 고공간 주파수 컨텐츠는 시각 이미지에서 큰 대비에 대한 정보, 즉, 물체 외곽과 같은 선명한 가장자리가 시각 이미지에 위치되는 정보를 포함한다. IR 이미지의 필터링을 수행하는 단계는 선택적이다. 본 발명의 실시예에 대한 방법은 심지어 IR 이미지의 필터링 없이도 사용자에 나타난 최종 발생 이미지에 유리한 효과를 제공하며, 사용자는 장면에 있는 하나 이상의 물체들과 이미지 장면과 연계된 온도 정보를 명확히 알 수 있게 된다. 그러나, 선명한 가장자리와 본래 IR 이미지에 보이는 노이즈가 필터링 공정으로 제거되나 적어도 줄어들기 때문에, 최종 발생 이미지에서의 시계(視界)가 IR 이미지의 필터링을 통해 향상될 수 있고, IR 이미지와 시각 이미지가 정렬되지 않는 조합 이미지에 나타난 이중 가장자리(double edges)의 위험이 줄어든다.In addition, extraction of high spatial frequency content from the visual image and removal of noise and / or blurring of the IR image may be preferably performed. In general, this is accomplished by high pass filtering of the visual image and low pass filtering of the IR image by use of a spatial filter that is moved across the image on a pixel-by-pixel basis. It is apparent to one skilled in the art that other well known image processing methods can be used to produce the same result. As a result of the filtering performed on the IR image, the IR image may contain an amount of noise that is flattened and / or reduced relative to the original IR image. In addition, the high-space frequency content extracted from the visual image includes information about a large contrast in the visual image, that is, information in which a sharp edge such as an object outline is located in the visual image. Performing filtering of the IR image is optional. The method for an embodiment of the present invention provides an advantageous effect on the final generated image presented to the user even without filtering of the IR image, so that the user can clearly know one or more objects in the scene and temperature information associated with the image scene. do. However, since the sharp edges and the noise seen in the original IR image are removed but at least reduced by the filtering process, the field of view in the final generated image can be improved by filtering the IR image, and the IR and visual images are aligned. The risk of double edges appearing in non-combination images is reduced.

고역필터링외에, 이미지에서 고공간 주파수 컨텐츠를 추출하기 위한 방법예들로 동일 장면을 나타내는 2개 이미지들 간에 차(통상적으로 차 이미지(difference image)라 함)를 추출하는 것을 포함할 수 있고, 제 1 이미지는 제 1 타임 인스턴스(time instance)에서 캡쳐되고 제 2 이미지는 바람직하게는 제 1 타임 인스턴스에 가까운 시간의 제 2 타임 인스턴스에서 캡쳐된다. 2개 이미지들은 일반적으로 이미지 프레임 시퀀스에서 2개의 연속 이미지 프레임들일 수 있다. 장면에서 물체의 가장자리와 외곽을 나타내는 고공간 주파수 컨텐츠는 이미지 장면이 제 1 타임 인스턴스에서 제 2 타임 인스턴스까지 완벽하게 불변이고 이미징 센서가 완벽하게 정지된 상태로 있지 않으면 차 이미지로 나타나게 된다. 장면은 가령 이미지 장면에서 광의 변화 또는 나타난 물체의 이동으로 인해 한 프레임에서 다음 프레임으로 변할 수 있다. 또한, 거의 모든 경우에, 이미징 센서는 완벽하게 정지되지 않는다. 이미징 디바이스가 휴대될 경우, 이미징 디바이스의 사용자에 의해 움직임이 야기될 것임이 명백하다. 카메라가 가령 스탠드에 고정된 경우, 이미징 디바이스 또는 주변의 진동으로 이미징 센서가 움직일 수 있다. 이미징 디바이스의 진동은 가령 이미지 안정화 시스템에 의해 발생될 수 있고, 상기 시스템은 이미징 디바이스의 움직임을 보상하기 위해 시각 이미징 디바이스에 통상적으로 사용된다. 이미지 안정화를 수행하는 다른 방법들이 해당기술분야에 잘 알려져 있다. 이미지 안정화 시스템을 갖는 이미징 디바이스에서, 이미징 센서는 이미징 디바이스의 측정된 움직임에 응답해 상기 이미징 센서를 움직이게 할 수 있는 소자에 배치될 수 있다. 이 구성은 이미징 센서의 이동이 연속 이미지 프레임들 간에 소정의 기정의된 차에 따라 제어되는 경우 차 이미지에서 가장자리/외곽을 캡쳐하는데 사용될 수 있다. 이 경우, 차는 차 이미지의 가장자리/외곽의 소정 폭에 더 해당할 수 있으며, 상기 폭은 상황에 따라 선택된다. 차 이미지가 도출될 수 있는 이미지를 얻기 위한 또 다른 방법은 이미징 디바이스의 포커스 모터를 사용해 이미징 디바이스의 하나 이상의 렌즈를 움직이는 것이다. 이미징 디바이스에서 렌즈를 움직이기 위한 포커스 모터의 사용은 해당기술분야에 잘 알려져 있다. 이 경우, 포커스를 살짝 벗어날 경우 이미징 디바이스에 의해 캡쳐된 이미지는 저역필터 이미지와 직접 일치할 수 있는 평평해지고 노이즈 제거된 이미지가 된다. 이미징 디바이스의 포커스가 리셋된 후, 포커스 이미지가 캡쳐될 수 있고 포커스 이미지로부터 탈포커스 이미지를 뺌으로써 포커스 이미지의 고공간 주파수 컨텐츠가 얻어질 수 있다. 이미징 디바이스에서 하나 이상의 렌즈들의 리포커싱 이미징 센서의 진동을 이용한 접근은 또한 어떠한 디지털 이미지 처리에도 필요하지 않고 따라서 아날로그 이미징 디바이스와 연계해 사용될 수 있다. 당업자에 명백한 바와 같이, 이미지로부터 상술한 방법들 중 어느 하나에 의해 얻은 고공간 주파수 컨텐츠를 뺌으로서, 이미지의 해당하는 저역필터 형태가 얻어지는데, 이는 뺀 후에 단지 저공간 주파수 컨텐츠만이 남아 있기 때문이다. 이미지 조합시, 시각 이미지의 고역필터 또는 추출된 고공간 주파수 컨텐츠를 IR 이미지에 추가하는 것은 IR 이미지에 외곽 및 대비를 추가하나 그렇지 않으면 IR 이미지를 변경하지 않는다. 그 결과, 고도의 방사측정 또는 다른 관련된 IR 정보를 동시에 유지하면서 이미지에 의해 캡쳐된 물체의 경계 또는 가장자리들이 명확히 조합 이미지에 보일 수 있다.In addition to high-pass filtering, methods for extracting high-spatial frequency content from an image may include extracting a difference (usually called a difference image) between two images representing the same scene. The first image is captured at a first time instance and the second image is preferably captured at a second time instance at a time close to the first time instance. The two images may generally be two consecutive image frames in the image frame sequence. High-space frequency content representing the edges and outlines of objects in the scene will appear as a difference image unless the image scene is completely immutable from the first time instance to the second time instance and the imaging sensor is not completely stationary. The scene may change from one frame to the next, for example, due to a change in light or a movement of the indicated object in the image scene. Also, in almost all cases, the imaging sensor does not stop completely. It is apparent that if the imaging device is to be carried, movement will be caused by the user of the imaging device. If the camera is fixed to a stand, for example, the imaging sensor or the vibration of the surroundings may move the imaging sensor. Vibration of the imaging device may be generated, for example, by an image stabilization system, which is commonly used in visual imaging devices to compensate for movement of the imaging device. Other methods of performing image stabilization are well known in the art. In an imaging device having an image stabilization system, the imaging sensor may be placed in a device capable of moving the imaging sensor in response to the measured movement of the imaging device. This configuration can be used to capture the edge / outer in the difference image when the movement of the imaging sensor is controlled according to some predefined difference between successive image frames. In this case, the difference may further correspond to a predetermined width of the edge / outer of the difference image, which width is selected according to the situation. Another way to obtain an image from which the difference image can be derived is to use the focus motor of the imaging device to move one or more lenses of the imaging device. The use of focus motors to move lenses in imaging devices is well known in the art. In this case, when slightly out of focus, the image captured by the imaging device becomes a flattened and noise-free image that can directly match the low pass image. After the focus of the imaging device is reset, the focus image can be captured and the high spatial frequency content of the focus image can be obtained by subtracting the defocus image from the focus image. Refocusing of one or more lenses in an imaging device An approach using vibration of an imaging sensor is also not necessary for any digital image processing and thus can be used in conjunction with an analog imaging device. As will be apparent to those skilled in the art, by subtracting the high spatial frequency content obtained by any of the methods described above from the image, the corresponding low pass filter form of the image is obtained since only the low spatial frequency content remains after subtraction. to be. When combining images, adding the high pass filter of the visual image or the extracted high spatial frequency content to the IR image adds an edge and contrast to the IR image but does not alter the IR image. As a result, the boundaries or edges of the object captured by the image can be clearly seen in the combined image while maintaining high radiometric or other related IR information simultaneously.

일예로, IR 이미지의 컬러 또는 그레이 스케일 팔레트를 보존하기 위해, 필터된 시각 이미지의 휘되 성분만이 IR 이미지에 추가될 수 있다. 그 결과, 컬러들은 변경되지 않고 동시에 소정의 대비를 추가하면서 본래 IR 팔레트의 속성이 유지된다. 처리 및 디스플레이의 모든 단계들을 통해 IR 팔레트를 유지하는 것이 유리한데, 이는 방사측정 또는 다른 관련된 IR 정보가 처리 내내 유지될 수 있고 조합 이미지의 해석이 이로써 사용자에 용이해질 수 있기 때문이다.In one example, only the component of the filtered visual image may be added to the IR image to preserve the color or gray scale palette of the IR image. As a result, the colors remain unchanged and at the same time add some contrast while maintaining the original IR palette's properties. It is advantageous to maintain the IR palette through all steps of processing and display, because radiometric or other related IR information can be maintained throughout the process and interpretation of the combination image can thereby facilitate the user.

시각 이미지의 휘도를 IR 이미지와 조합시, 2개 이미지들 간에 밸런스를 결정하기 위해 알파 인수가 사용될 수 있다. 이 인수는 양호한 이미지를 생성하기 위해 시각 이미지로부터 필요한 외곽 레벨을 결정하기 위한 적절한 파라미터를 이용해 이미징 디바이스 또는 이미징 시스템 자체에 의해 결정될 수 있으나, 또한 디바이스 또는 이미징 시스템에 입력을 제공함으로써 사용자에 의해 결정될 수 있다. 인수는 또한 이미지들이 시스템 또는 PC 등에 저장될 때와 같이 나중 단계에서 변경될 수 있고 사용자로부터 임의의 요구에 맞게 조정될 수 있다. When combining the brightness of the visual image with the IR image, an alpha factor can be used to determine the balance between the two images. This factor may be determined by the imaging device or the imaging system itself using appropriate parameters to determine the required level of outline from the visual image to produce a good image, but may also be determined by the user by providing input to the device or imaging system. have. The argument may also be changed at a later stage, such as when the images are stored in a system or PC, etc., and may be adjusted to suit any needs from the user.

최종 발생한 조합 이미지를 사용자에 디스플레이하기 전에, 고해상도 효과와 증가된 세부사항을 만들고 이미지가 사용자에 의해 더 쉽게 해석될 수 있도록 고해상도 노이즈가 이미지에 추가될 수 있다. Before displaying the resulting combination image to the user, high resolution noise may be added to the image to create high resolution effects and increased details and to make the image easier to interpret by the user.

본 발명의 내용에 포함됨.Included in the context of the present invention.

도 1은 예시적인 실시예에 따른 방법의 흐름도를 도시한 것이다.
도 2는 예시적인 실시예에 따른 방법의 다른 단계들의 이미지들에 따른 방법의 개략도를 도시한 것이다.
도 3a는 IR 이미지를 하프톤으로 도시한 것이다.
도 3b는 저역필터링 후 도 3a의 이미지를 하프톤으로 도시한 것이다.
도 3c는 고역필터링에 의해 얻은 이 이미지에서 시각 이미지의 추출된 고공간 주파수 컨텐츠를 하프톤으로 도시한 것이다.
도 3d는 도 3b의 저역필터링된 IR 이미지와 도 3c의 고역필터링된 시각 이미지의 조합을 하프톤으로 도시한 것이다.
도 4는 예시적인 실시예에 따른 방법을 수행하기 위한 이미지 처리 시스템의 예시적인 실시예를 도시한 것이다.
도 5a는 다른 패턴으로 표시된 다른 온도영역을 갖는 도 3a의 IR 이미지를 도시한 것이다.
도 5b는 다른 패턴으로 표시된 다른 온도영역을 갖는 도 3b의 IR 이미지를 도시한 것이다.
도 5c는 도 3c의 이미지를 도시한 것이다.
도 5d는 다른 패턴으로 표시된 다른 온도영역을 갖는 도 3d의 이미지를 도시한 것이다.
도 6a는 장면의 저해상도 IR 이미지를 도시한 것으로 나타낸 이미지는 32×32 픽셀의 해상도를 갖는다.
도 6b는 IR 이미지가 리샘플화되고, 처리되어 동일 장면을 나타낸 시각 이미지의 추출된 고공간 주파수 컨텐츠와 조합된 후 도 6a의 IR 이미지를 도시한 것이다.
1 shows a flowchart of a method according to an exemplary embodiment.
2 shows a schematic diagram of a method according to images of other steps of the method according to an exemplary embodiment.
3A shows the IR image in halftones.
3B shows the image of FIG. 3A in halftone after low pass filtering.
FIG. 3C shows the extracted high spatial frequency content of the visual image in halftone in this image obtained by high pass filtering.
FIG. 3D illustrates the combination of the lowpass filtered IR image of FIG. 3B and the highpass filtered visual image of FIG. 3C in halftones.
4 illustrates an example embodiment of an image processing system for performing a method according to an example embodiment.
FIG. 5A shows the IR image of FIG. 3A with different temperature zones indicated in different patterns.
FIG. 5B shows the IR image of FIG. 3B with different temperature zones indicated in different patterns.
5C shows the image of FIG. 3C.
FIG. 5d shows the image of FIG. 3d with different temperature zones indicated in different patterns.
6A depicts a low resolution IR image of a scene, with the image having a resolution of 32 × 32 pixels.
FIG. 6B illustrates the IR image of FIG. 6A after the IR image has been resampled, processed, and combined with the extracted high spatial frequency content of the visual image representing the same scene.

도 1에서, 본 발명의 실시예에 따른 예시적인 방법을 볼 수 있다. 블록(101)에서, 시각 이미지가 캡쳐되고 블록(102)에서 IR 이미지가 캡쳐된다. 시각 이미지와 IR 이미지는 광센서 및 IR 센서에 의해 각각 캡쳐될 수 있다. 캡쳐 후, 시각 이미지와 IR 이미지는 블록(103)에서 정렬되어 일반적으로 상기 이미지를 캡쳐하기 위한 센서들의 배치에서 차로 인해 발생한 광축들 간에 시차와 일반적으로 정확하게 나란히 장착되는 것을 방해하는 기계적 허용오차로 인한 이들 축들 간에 발생된 각을 보상한다. In FIG. 1, an exemplary method according to an embodiment of the present invention can be seen. In block 101, a visual image is captured and in block 102 an IR image is captured. The visual image and the IR image can be captured by the light sensor and the IR sensor respectively. After capture, the visual image and the IR image are aligned at block 103 due to mechanical tolerances that generally prevent them from being mounted exactly parallel with the parallax between the optical axes caused by the difference in the arrangement of the sensors for capturing the image. Compensate the angle generated between these axes.

블록(101,102)은 동시에 또는 차례로 수행될 수 있다. 일예로, 이미지들은 동시에 또는 가능한 한 작은 시간 차로 캡쳐될 수 있는데, 이는 시각 및 IR 이미지들을 캡쳐하는 이미징 디바이스 유닛의 움직임으로 인한 정렬 차이들에 대한 위험을 줄이게 하기 때문이다. Blocks 101 and 102 may be performed simultaneously or sequentially. In one example, the images can be captured simultaneously or with as little time difference as possible, because this reduces the risk for alignment differences due to the movement of the imaging device unit capturing visual and IR images.

블록(103)에서 정렬 후, 시각 이미지 해상도와 IR 이미지 해상도가 실질적으로 같다는 보장이 블록(110)에서 수행된다. 첫번째 예시적인 실시예에서, 이는 IR 센서와 시각 이미지 센서를 갖는 이미징 디바이스를 구성함으로써 수행될 수 있으므로, IR 센서와 시각 이미지 센서는 거의 같은 해상도를 갖는다. 또 다른 예시적인 실시예에서, 이미징 센서들의 해상도는 실질적으로 같지 않게, 가령 기설정된 차 임계치와 더 다르게 앞서 알려져 있다. 또 다른 예시적인 실시예에서, 이미징 센서의 해상도가 앞서 알려져 있지 않은 경우, 본 발명의 방법은 수신된 이미지의 해상도가 실질적으로 블록(109)에서 같은지 여부를 검사하는 단계를 포함할 수 있다. 검사하는 단계는 수신된 이미지의 해상도의 비교를 통해 수행될 수 있고, 이미지의 해상도에 대한 정보는 별도의 이미징 센서로부터 이용가능하거나 수신된 이미지로부터 검색되거나 수신된 이미지를 기초로 계산될 수 있다. 해상도가 실질적으로 같지 않는 것으로 발견되면, 이전 센서 해상도에 대한 정보 또는 해상도의 검사를 통해, 해상도가 실질적으로 같다는 보장은 블록(104)에서 수신된 이미지들 중 적어도 하나의 리샘플화를 포함한다. After alignment at block 103, a guarantee is made at block 110 that the visual image resolution and the IR image resolution are substantially the same. In a first exemplary embodiment, this can be done by constructing an imaging device having an IR sensor and a visual image sensor, so that the IR sensor and the visual image sensor have approximately the same resolution. In another exemplary embodiment, the resolution of the imaging sensors is not known to be substantially the same, for example, differently than the preset difference threshold. In another exemplary embodiment, if the resolution of the imaging sensor is not previously known, the method may include checking whether the resolution of the received image is substantially the same at block 109. The inspecting step may be performed through comparison of the resolution of the received image, and information about the resolution of the image may be available based on the image received or retrieved from the received image or available from a separate imaging sensor. If it is found that the resolutions are not substantially the same, then inspection of the information or resolution for the previous sensor resolution, ensuring that the resolutions are substantially the same includes resampling of at least one of the images received at block 104.

일예시적인 실시예에서, IR 이미지는 해상도를 증감하기 위해 리샘플화될 수 있다. 일반적으로, 캡쳐된 IR 이미지의 해상도는 캡쳐된 시각 이미지의 해상도와 다른 해상도를 갖는다; 대개 IR 이미지는 시각 이미지의 해상도보다 더 낮은 해상도를 갖는다. IR 이미지의 통상 해상도는 가령 320×240 픽셀일 수 있는 반면, 시각 이미지의 통상 해상도는 약 5M 픽셀일 수 있다. 재조합 이미지의 해상도가 실질적으로 같지 않는다면, 이들 중 적어도 하나는 차를 보상하고 이미지를 더 성공적으로 조합하기 위해 다른 하나와 일치하도록 변경된 해상도를 가질 수 있다. 일예로, 이는 내삽을 통해 시각 이미지의 해상도에 IR 이미지를 업샘플링함으로써 행해질 수 있다. 이는 또한 IR 센서와 시각 이미지 센서가 실질적으로 동일 해상도를 갖는 이미징 디바이스를 구성할 수 있다.In one exemplary embodiment, the IR image may be resampled to increase or decrease the resolution. In general, the resolution of the captured IR image has a resolution different from that of the captured visual image; Usually the IR image has a lower resolution than the resolution of the visual image. The typical resolution of the IR image may be, for example, 320 × 240 pixels, while the typical resolution of the visual image may be about 5M pixels. If the resolution of the recombinant image is not substantially the same, at least one of these may have a resolution changed to match the other to compensate for the difference and more successfully combine the images. In one example, this can be done by upsampling the IR image to the resolution of the visual image via interpolation. It may also constitute an imaging device in which the IR sensor and the visual image sensor have substantially the same resolution.

IR 이미지를 업샘플링하기 위한 대안으로, 시각 이미지가 IR 이미지의 해상도와 맞추게 샘플화될 수 있거나 양 이미지들이 제 3 해상도에 맞추게 샘플화될 수 있다. 양 이미지들은 본래 실질적으로 동일 해상도를 가질 수 있거나 이미지 해상도는 다를 수 있다. 그러나, 제 3 해상도에 맞추도록 리샘플화한 후, 양 이미지들은 실질적으로 동일 해상도를 갖게 된다. 이는 이미지들이 어떻게 디스플레이되는지에 무관하게 편하고 적절한 방식으로 조합되게 한다.As an alternative to upsampling the IR image, the visual image may be sampled to match the resolution of the IR image or both images may be sampled to match the third resolution. Both images may originally have substantially the same resolution or the image resolution may be different. However, after resampling to match the third resolution, both images will have substantially the same resolution. This allows the images to be combined in a comfortable and appropriate manner regardless of how the images are displayed.

가령 이미지 데이터 구조 및/또는 이미지 디스플레이 수단에서 고해상도를 갖는 IR 카메라, PC 또는 다른 디바이스에 의해 조합된 이미지가 저장되고 디스플레이될 경우, IR 이미지를 일반적으로 더 높은 해상도의 시각 이미지에 맞추도록 업샘플화하는 것이 편리할 수 있다. 그러나, 조합된 이미지가 훨씬 더 낮은 해상도의 시스템에 의해 디스플레이되는 경우, 시각 이미지를 이 요건에 맞체 다운샘플화하는 것이 더 적합할 수 있다. 예시적인 실시예에 따르면, 조합된 이미지가 나타나게 되는 디스플레이 스크린의 해상도에 제 3 해상도가 선택될 수 있다. 양 이미지들은 실질적으로 동일 해상도를 가질 수 있거나 이미지의 해상도가 다를 수 있다. 그러나, 시각 이미지와 IR 이미지의 해상도가 각각 이미지가 조합되기 전에 실질적으로 같으면 이점적이므로, 이미지들의 각 픽셀에 대한 데이터의 적절한 매칭이 수행될 수 있다.If, for example, a combined image is stored and displayed by an IR camera, PC or other device having a high resolution in the image data structure and / or image display means, upsample the IR image to fit a higher resolution visual image generally. It can be convenient to do. However, if the combined image is displayed by a much lower resolution system, it may be more appropriate to downsample the visual image to this requirement. According to an exemplary embodiment, the third resolution may be selected as the resolution of the display screen on which the combined image appears. Both images may have substantially the same resolution or the resolution of the image may be different. However, it is advantageous if the resolutions of the visual and IR images are substantially the same before each image is combined, so that appropriate matching of data for each pixel of the images can be performed.

블록(105)에서, 가령 공간 필터를 이용해 시각 이미지를 고대역 필터링함으로써 시각 이미지의 고공간 주파수 컨텐츠가 추출될 수 있다. 고대역 필터링 이외에, 이미지에서 고공간 주파수 컨텐츠를 추출하기 위한 방법들의 예는 동일 장면을 나타내는 2개 이미지들 간에 차(통상 차 이미지(difference image)라 함)를 추출하는 것을 포함하며, 제 1 타임 인스턴스(time instance)에서 제 1 이미지가 캡쳐되고 바람직하게는 제 1 타임 인스턴스에 가까운 시간의 제 2 타임 인스턴스에서 제 2 이미지가 캡쳐된다. 2개 이미지들은 일반적으로 이미지 프레임 시퀀스로 2개의 연속 프레임들일 수 있다. 장면에서 물체의 가장자리와 외곽을 나타내는 고공간 주파수 컨텐츠는 이미지된 장면이 완벽하게 제 1 타임 인스턴스에서 제 2 타임 인스턴스로 변하지 않고 이미지 센서가 완벽하게 정지되지 않는다면 차 이미지로 나타날 것이다. 장면은 가령 이미지된 장면에서 광의 변화 및 나타낸 물체들의 이동으로 인해 한 프레임에서 다음 프레임으로 변경될 수 있다. 또한, 거의 모든 경우, 이미징 센서는 완전히 정지되지 않는다. 이미징 디바이스가 휴대될 경우, 이미징 디바이스의 사용자에 의해 움직임이 야기될 것임이 분명하다. 카메라가 가령 스탠드에 고정된 경우, 이미징 디바이스 또는 주변의 진동으로 이미징 센서의 움직임이 발생될 수 있다. 이미징 디바이스의 진동은 가령 이미지 안정화 시스템에 의해 야기될 수 있고, 상기 시스템은 통상적으로 이미징 디바이스의 움직임을 보상하기 위해 시각 이미징 디바이스에 사용된다. 이미지 안정화를 달성하는 다른 방법들이 해당 기술분야에 잘 알려져 있다. 이미징 안정화 시스템을 갖는 이미징 디바이스에서, 이미징 센서는 이미징 디바이스의 측정 움직임에 응답해 이미징 센서를 이동시킬 수 있는 소자에 배치될 수 있다. 이 구성은 이미지 센서의 움직임이 연속 이미지 프레임들 간에 소정의 기정의된 차에 따르도록 제어되는 경우 차 이미지에서 가장자리/외곽을 캡쳐하도록 사용될 수 있다. 이 경우, 차는 차 이미지의 가장자리/외곽의 소정 폭에 더 일치할 수 있고, 상기 폭은 상황에 따라 선택된다. 차 이미지가 도출될 수 있는 이미지를 획득하는 다른 방법은 이미징 디바이스의 포커스 모터를 사용해 이미징 디바이스의 하나 이상의 렌즈들을 이동시키는 것이다. 이미징 디바이스에서 렌즈를 이동시키기 위한 포커스 모터의 이용이 해당 기술분야에 잘 알려져 있다. 이 경우, 포커스에서 약간 벗어날 경우 이미징 디바이스에 의해 캡쳐된 이미지는 저역필터된 이미지와 직접 일치할 수 있는 평탄화 및 노이즈 제거 이미지가 된다. 이미징 디바이스의 초점이 리셋된 후, 포커스 이미지가 캡쳐될 수 있고 포커스 이미지로부터 탈포커스 이미지를 뺌으로써 포커스 이미지의 고공간 주파수 컨텐츠가 얻어질 수 있다. 이미징 디바이스에서 하나 이상의 렌즈들의 리포커싱의 이미징 센서의 진동을 이용한 접근들은 전혀 디지털 이미지 처리를 더 필요로 하지 않고 따라서 아날로그 이미징 디바이스와 연계해 사용될 수 있다. 당업자에게 명백한 바와 같이, 이미지로부터 상술한 방법들 중 어느 하나에 의해 얻은 추출된 고공간 주파수 컨텐츠를 뺌으로써, 상기 뺌으로부터 저공간 주파수 컨텐츠만 남아 있기 때문에 이미지의 해당 저역필터 형태가 얻어진다. At block 105, high spatial frequency content of the visual image may be extracted, such as by high band filtering the visual image using a spatial filter. In addition to highband filtering, examples of methods for extracting high spatial frequency content from an image include extracting a difference (usually called a difference image) between two images representing the same scene, wherein the first time The first image is captured at an instance of time and preferably the second image is captured at a second time instance of a time close to the first time instance. The two images may generally be two consecutive frames in an image frame sequence. High-space frequency content representing the edges and outlines of objects in the scene will appear as a difference image unless the imaged scene changes completely from the first time instance to the second time instance and the image sensor is not completely stationary. The scene may change from one frame to the next, for example, due to changes in light and movement of the indicated objects in the imaged scene. Also, in almost all cases, the imaging sensor does not stop completely. It is clear that when the imaging device is carried, movement will be caused by the user of the imaging device. When the camera is fixed to a stand, for example, movement of the imaging sensor may occur due to vibration of the imaging device or surroundings. Vibration of the imaging device may be caused, for example, by an image stabilization system, which is typically used in the visual imaging device to compensate for the movement of the imaging device. Other ways of achieving image stabilization are well known in the art. In an imaging device having an imaging stabilization system, the imaging sensor may be placed in a device capable of moving the imaging sensor in response to the measurement movement of the imaging device. This configuration can be used to capture the edge / outer in the difference image if the movement of the image sensor is controlled to conform to a predetermined predefined difference between successive image frames. In this case, the difference may further correspond to a predetermined width of the edge / outer of the difference image, the width being selected according to the situation. Another method of obtaining an image from which the difference image can be derived is to use the focus motor of the imaging device to move one or more lenses of the imaging device. The use of focus motors for moving lenses in imaging devices is well known in the art. In this case, when slightly out of focus, the image captured by the imaging device becomes a flattened and noise canceled image that can directly match the lowpass filtered image. After the focus of the imaging device is reset, the focus image can be captured and the high spatial frequency content of the focus image can be obtained by subtracting the defocus image from the focus image. Approaches using vibration of the imaging sensor of refocusing one or more lenses in the imaging device require no digital image processing at all and can therefore be used in conjunction with an analog imaging device. As will be apparent to those skilled in the art, by subtracting the extracted high spatial frequency content obtained by any of the methods described above from the image, the corresponding low pass filter form of the image is obtained since only the low spatial frequency content remains from the image.

블록(106)에서, IR 이미지는 이미지에서 노이즈를 줄이고/줄이거나 이미지를 흐리게 처리될 수 있다. 이미지의 각 픽셀 위로 공간 코어(spatial core)를 배치하고 인접 픽셀들에서의 값과 상기 공간 코어의 계수들을 이용함으로써 상기 픽셀에 대한 새로운 값을 계산함으로써 저역필터링이 수행될 수 있다. 또 다른 예에서, 이미지들은 단지 소프트웨어만을 이용해 필터될 수 있다. At block 106, the IR image may reduce and / or reduce noise in the image and blur the image. Low-pass filtering can be performed by placing a spatial core over each pixel of the image and calculating a new value for the pixel by using the values in adjacent pixels and the coefficients of the spatial core. In another example, images can be filtered using only software.

공간 저역필터 코어는 매 위치에서 계수 1을 갖는 3×3 필터 코어일 수 있고, 본래 픽셀 값과 8개의 인접한 픽셀을 각각 그 필터 계수씩 곱하고 이들을 함께 더하여 9로 나눔으로써 픽셀의 필터 값이 계산될 수 있다.The spatial low pass filter core may be a 3x3 filter core with a coefficient of 1 at every position, and the filter value of the pixel is calculated by multiplying the original pixel value and the eight adjacent pixels by their filter coefficients and adding them together to divide by 9 Can be.

IR 이미지에서 각 픽셀에 대한 이 연산을 수행한 후, 더 완만한 모습의 저역필터 이미지가 만들어질 수 있다. IR 이미지를 고역필터링하기 위해, 동일 필터 계수들이 사용될 수 있어, 본래 이미지에서 저역필터 이미지를 뺌으로써 한번에 한 픽셀씩 해당 기술분야에 잘 알려진 방식으로 고역필터 이미지가 형성된다. 그러나, 필터 코어의 계수들은 다른 값으로 설정될 수 있고 필터 코어의 크기는 상술한 3×3 필터 코어와 다를 수 있음에 주목해야 한다.After performing this operation on each pixel in the IR image, a smoother low pass filter image can be created. In order to high pass filter an IR image, the same filter coefficients can be used to form the high pass filter image in a manner well known in the art by subtracting the low pass filter image from the original image one pixel at a time. However, it should be noted that the coefficients of the filter core may be set to other values and the size of the filter core may be different from the 3 × 3 filter core described above.

결과적으로 발생된 처리된 시각 값과 가능한 처리된 IR 이미지가 블록(107)에서 조합될 수 있다. 최종 발생한 조합 이미지를 디스플레이하기 전에 고해상도 노이즈, 가령 고해상도의 일시적 노이즈가 블록(108)에 추가될 수 있다.The resulting processed visual value and possible processed IR image may be combined at block 107. High resolution noise, such as high resolution temporal noise, may be added to block 108 before displaying the resulting combination image.

블록(106)에서 IR 이미지의 필터링을 수행하는 단계는 선택적이다. 본 발명의 실시예를 위한 방법은 IR 이미지의 필터링 없이도 사용자에 나타난 최종 이미지에 유리한 효과를 제공하며, 사용자는 이미지 장면에서 물체뿐만 아니라 이미지 장면의 온도 정보를 명확히 식별할 수 있게 된다. 블록(106)에서 수행된 저역필터링의 목적은 블록(102)에서 캡쳐된 원래 IR 이미지에 나타난 노이즈로부터 IR 이미지에서의 불균일을 완화하는 것이다. 원래 IR 이미지에서 볼 수 있는 선명한 가장자리와 노이즈가 필터링 처리로 제거되거나 적어도 줄어들기 때문에, 최종 발생한 이미지의 시계(視界)가 IR 이미지의 필터링을 통해 더 향상되고 IR 이미지 및 시각 이미지가 정렬되지 않을 경우 조합된 이미지에 나타난 이중 가장자리 위험이 줄어든다.Performing filtering of the IR image at block 106 is optional. The method for an embodiment of the present invention provides an advantageous effect on the final image presented to the user without filtering the IR image, and the user can clearly identify temperature information of the image scene as well as objects in the image scene. The purpose of the low pass filtering performed at block 106 is to mitigate non-uniformities in the IR image from the noise appearing in the original IR image captured at block 102. Because the sharp edges and noise seen in the original IR image are removed or at least reduced by filtering, the field of view of the final image is further enhanced by filtering the IR image and the IR and visual images are not aligned. The risk of double edges in the combined image is reduced.

이미지에서 고공간 주파수 컨텐츠를 추출하기 위해, 다시 말하면, 대비 영역, 즉, 선명한 가장자리와 같이 인접한 픽셀 값들이 큰 차를 나타내는 영역을 위치지정하기 위해 고역필터링이 수행된다. 최종 발생한 고역필터 이미지는 픽셀 단위로 계산된 원래 이미지로부터 저역필터 이미지를 뺌으로써 달성될 수 있으며, 이는 또한 하기에 상세히 설명할 것이다.In order to extract the high spatial frequency content from the image, in other words, high pass filtering is performed to locate the contrast area, i.e., the area where adjacent pixel values show a large difference, such as a sharp edge. The resulting high pass filter image can be achieved by subtracting the low pass filter image from the original image computed pixel by pixel, which will also be described in detail below.

도 2는 도 1에 도시된 방법의 다른 블록들에 발생된 이미지들의 예시적인 실시예들을 도시한 것이다. 블록(101)에서 캡쳐된 시각 이미지(301)와 블록(102)에서 캡쳐된 IR 이미지(302)는 블록(103, 104, 105, 106)에 해당하는 처리(303) 동안 업샘플링 및 필터링을 위한 입력으로 사용된다.FIG. 2 illustrates exemplary embodiments of images generated in other blocks of the method shown in FIG. 1. The visual image 301 captured at block 101 and the IR image 302 captured at block 102 are used for upsampling and filtering during processing 303 corresponding to blocks 103, 104, 105, 106. Used as input

처리(303) 후에, 시각 이미지의 추출된 고공간 주파수 컨텐츠(304)가 나타나며, 원래 시각 이미지(301)에 나타난 물체들의 외곽들이 보여질 수 있다. 본 발명의 예시적인 실시예에 따르면, IR 이미지(302)는 저역필터 및 업샘플 이미지(305)로 처리된다. 업샘플링이 이미지의 해상도를 증가시켰고 이제 이미지된 장면에서 각 물체가 저역필터 이미지(305)에서 흐릿함 또는 입상성(graininess) 형태로 많은 노이즈를 나타내지 않으면서 더 명확히 보일 수 있다. 처리된 이미지(304,305)로서 현재 설명될 수 있는 시각 이미지(304) 및 저역필터 IR 이미지(305)의 추출된 고공간 주파수 컨텐츠로부터의 화살들은 이미지된 장면에서 완만한 온도 분포를 나타내는 처리된 IR 이미지(305)가 원래 시각 이미지(301)의 물체들로부터 외곽 또는 가장자리가 또한 나타나는 처리된 시각 이미지(304)와 조합되는 조합 이미지(307)를 이루도록 이들 이미지(304,305)의 조합을 나타낸다. 따라서, 조합 이미지(307)는 각 물체의 형태를 더 명확히 나타내기 위해 처리된 시각 이미지(304)로부터의 외곽들과 함께 물체들을 가로지르는 어떠한 온도 차들도 또한 나타내지는 IR 이미지(302)의 이점을 디스플레이한다. 조합은 바람직하게는 IR 이미지에 시각 이미지의 고공간 주파수 컨텐츠를 중첩하거나 대안으로 시각 이미지의 고공간 주파수 컨텐츠에 IR 이미지를 중첩함으로써 수행된다. After processing 303, the extracted high spatial frequency content 304 of the visual image appears, and the outlines of the objects that were originally shown in the visual image 301 can be seen. According to an exemplary embodiment of the present invention, the IR image 302 is processed with a low pass filter and an upsample image 305. Upsampling has increased the resolution of the image and now each object in the imaged scene can be seen more clearly without showing much noise in the form of blur or graininess in the low pass filter image 305. Arrows from the extracted high-spatial frequency content of the visual image 304 and low pass filter IR image 305, which can now be described as processed images 304, 305, indicate a processed IR image that exhibits a gentle temperature distribution in the imaged scene. 305 represents a combination of these images 304, 305 to form a combined image 307 that is combined with the processed visual image 304 where an outline or edge also appears from the objects of the original visual image 301. Thus, the combined image 307 takes advantage of the IR image 302, which also shows any temperature differences across the objects along with the outlines from the visual image 304 processed to more clearly represent the shape of each object. Display. The combination is preferably performed by superimposing the high spatial frequency content of the visual image on the IR image or alternatively by superimposing the IR image on the high spatial frequency content of the visual image.

본 발명의 예시적인 실시예에 따르면, IR 이미지는 매우 낮은 해상도의 IR 이미징 디바이스로 캡쳐될 수 있으며, 해상도는 가령 64×64 또는 32×32 픽셀만큼 낮으나, 당업자에게 쉽게 이해되듯이 다른 많은 해상들도 동일하게 적용될 수 있다. 그 자체에서 32×32 픽셀 IR 이미지는 매우 적은 정보를 포함하며 관찰자가 이미지에서 정보를 해석하기가 어렵다. 32×32 픽셀 해상도를 갖는 IR 이미지의 예가 도 6a에 도시되어 있다. 본 발명자는 가장자리와 외곽(고공간 주파수) 정보가 시각 이미지로부터 조합된 이미지에 추가되면 매우 낮은 해상도의 IR 이미지의 사용으로도 사용자가 도시된 물체들과 이들과 관련된 온도 또는 다른 IR 정보를 명확히 구별할 수 있는 조합된 이미지를 여전히 제공할 것임을 알았다. 도 6b는 IR 이미지가 리샘플화되고 동일 장면을 나타내는 시각 이미지의 추출된 고공간 주파수 컨텐츠와 조합된 후의 도 6a의 IR 이미지를 나타낸다. 이는 일실시예에 대한 본원 방법이 여전히 매우 이점적인 결과를 제공하며 매우 작고 저렴한 이미지 검출기들과 조합해 사용되게 한다. According to an exemplary embodiment of the present invention, an IR image can be captured with a very low resolution IR imaging device, the resolution being as low as 64 × 64 or 32 × 32 pixels, but many other resolutions are readily understood by those skilled in the art. The same can be applied. In itself, a 32x32 pixel IR image contains very little information and it is difficult for an observer to interpret the information in the image. An example of an IR image with 32x32 pixel resolution is shown in FIG. 6A. When the edge and outer (high spatial frequency) information is added to the combined image from the visual image, the inventors clearly distinguish between the objects shown and the temperature or other IR information associated with them even with the use of very low resolution IR images. It was found that it would still provide a combined image to do. FIG. 6B shows the IR image of FIG. 6A after the IR image has been resampled and combined with the extracted high spatial frequency content of the visual image representing the same scene. This allows the present method for one embodiment to still provide very advantageous results and to be used in combination with very small and inexpensive image detectors.

또 다른 예시적인 실시예에 따르면, IR 이미지는 고해상도 IR 이미징 디바이스로 캡쳐될 수 있다. 기술 진보에 따라, IR 이미징 디바이스는 계속 더 높은 해상도를 갖는다. 현재 고해상도 IR 이미징 디바이스는 가령 640×640 픽셀의 해상도를 갖는다. 이런 고해상도 이미징 디바이스로 캡쳐된 IR 이미지는 가능하게는 그 자체로 관찰자에 가장자리 및 외곽 정보를 보여주기에 충분할 수 있다. 이런 고해상도 IR 이미지와 해당 시각 이미지의 고공간 주파수 컨텐츠를 조합시킴으로써, 관찰자가 IR 이미지에 나타나지 않은 시각 이미지의 더 세부내용들을 보게 할 수 있다. 예컨대, 물 피해가 식별된 영역은 펜을 이용해 벽에 그리거나 윤곽을 표시할 수 있다. 이 정보는 측정된 온도 정보와 결부해 이점적일 수 있다. 또 다른 예로, 장면에서 도시된 장면 또는 물체들을 식별하는데 도움을 줄 수 있는 이미지내 일련번호 또는 기타 식별 문자 또는 숫자일 수 있다. 고해상도 IR 이미지는 더 잇점적으로 다운샘플되고/되거나 고도로 노이즈제거/저역필터될 수 있어, 결과적으로 발생한 처리된 IR 이미지가 매우 낮은 노이즈 레벨을 포함하나, 나타낸 장면의 온도 정보에 관해서는 여전히 매우 높은 감도를 갖게 된다. According to another example embodiment, the IR image may be captured with a high resolution IR imaging device. As technology advances, IR imaging devices continue to have higher resolution. Current high resolution IR imaging devices have a resolution of, for example, 640 × 640 pixels. The IR image captured with this high resolution imaging device may possibly be sufficient to show the edge and outline information to the viewer by itself. By combining this high resolution IR image with the high spatial frequency content of that visual image, the viewer can see more details of the visual image that do not appear in the IR image. For example, areas where water damage has been identified may be drawn or outlined on the wall using a pen. This information can be advantageous in conjunction with the measured temperature information. As another example, it may be a serial number or other identifying letter or number in the image that may help identify the scene or objects shown in the scene. High resolution IR images can be more advantageously downsampled and / or highly noise-reduced / low-pass filtered such that the resulting processed IR image contains a very low noise level, but still very high in terms of temperature information of the scene shown. Sensitivity is obtained.

관찰자에 더 명확하게 최종 발생한 이미지를 제공하고 상기 IR 이미지(302)의 저역필터링 동안 보존된 본래 IR 이미지(302)에서 노이즈로 인해 나타날 수 있는 얼룩 등의 표현을 줄이기 위해 고해상도 노이즈(306)가 블록(108)에 해당하는 조합 이미지(307)에 추가될 수 있다. The high resolution noise 306 blocks to provide a more clearly final generated image to the observer and to reduce the appearance of speckles or the like that may appear due to noise in the original IR image 302 preserved during low pass filtering of the IR image 302. It may be added to the combination image 307 corresponding to 108.

도 3a는 블록(102)에서 캡쳐 직후의 IR 이미지(302)를 도시한 것이다. 이미지된 장면은 행으로 배열된 바인더들 및 소정 높이로 맞추어진 선반들이 있는 책장을 나타낸다. 볼 수 있는 바와 같이, 장면에서 물체들은 다른 섹션들로 나타낸 다른 온도들에 있고, 이미지의 가장 높은 부분과 중간 선반에 있는 바인더들은 아래 선반 또는 상기 바인더들 옆 및 위 영역들보다 더 따뜻하다. 나타낸 물체들의 실제 형태는 식별하기 어려운데, 이는 다른 온도들 간에 선들과는 다른 물체의 외곽들이 전혀 디스플레이되지 않기 때문이다. 그러므로, 이 이미지로만 대면한 사용자가 소정 온도의 특정 물체를 식별하기가 매우 어려울 수 있다. IR 이미지는 필터링 후 신호에 컬러를 추가함으로써 (하기에 더 설명되는) 선택된 컬러 공간에 따라 컬러를 띌 수 있다. 3A shows the IR image 302 immediately after capture in block 102. The imaged scene represents a bookcase with binders arranged in rows and shelves fitted to a predetermined height. As can be seen, the objects in the scene are at different temperatures represented by different sections, and the binders in the highest part and the middle shelf of the image are warmer than the bottom shelf or the areas next to and above the binders. The actual shape of the objects shown is difficult to discern because no outlines of the object other than the lines between different temperatures are displayed at all. Therefore, it may be very difficult for a user facing only with this image to identify a particular object at a certain temperature. The IR image can be colored according to the selected color space (described further below) by adding color to the signal after filtering.

본 발명의 예시적인 실시예에서, 캡쳐된 IR 이미지는 저역필터링을 통해 처리된다. 도 3b는 저역필터된 IR 이미지(305)를 나타낸다. 공간 필터링은 캡쳐된 IR 이미지(302)에서 불균일을 제거하였고 이로써 장면에서 다른 물체들을 구별하기가 더 쉬어졌다. 또한, 필터링으로 이미지(302)로부터 노이즈가 제거되었다. 또한, 이들 물체들 간의 가장자리가 반반해 졌다. 이는 외곽들이 필터된 시각 이미지(304)로부터 추가되기 때문에 행해질 수 있고, 그렇지 않으면 이미지들 간에 어떤 정렬 오차로 이중 외곽이 되어 관찰자들의 주의를 흩어지게 할 수 있다. In an exemplary embodiment of the invention, the captured IR image is processed via low pass filtering. 3B shows a low pass filtered IR image 305. Spatial filtering removed the non-uniformity in the captured IR image 302, making it easier to distinguish different objects in the scene. Filtering also removed noise from the image 302. Also, the edges between these objects were smoothed. This can be done because the outlines are added from the filtered visual image 304, or they can be double outlined with some alignment error between the images, distracting the observer's attention.

본 발명의 예시적인 실시예에서, 캡쳐된 시각 이미지의 고공간 주파수 컨텐츠가 시각 이미지의 고역필터링에 의해 추출된다. 캡쳐된 시각 이미지(301)의 고역필터링 결과인 이런 고역필터된 시각 이미지(304)가 도 3c에 도시되어 있다. 고역필터된 시각 이미지(304)에서, 본래 시각 이미지(301)에서 이미지된 장면의 물체들의 외곽 및 가장자리들이 주로 보일 수 있다. 물체뿐만 아니라 바인더 또는 책으로 인한 패턴에 대한 텍스트와 같은 라인 간에 가장자리들의 외곽들이 보일 수 있다. In an exemplary embodiment of the invention, the high spatial frequency content of the captured visual image is extracted by high pass filtering of the visual image. This high pass filtered visual image 304, which is the result of high pass filtering of the captured visual image 301, is shown in FIG. 3C. In the high pass filtered visual image 304, the outlines and edges of the objects of the scene originally imaged in the visual image 301 can be seen. The edges of the edges can be seen between the object as well as lines such as text for the pattern due to the binder or book.

도 3d는 본래 IR 이미지(302)가 업샘플화되고 저역필터되며, 동일 장면의 고역필터 시각 이미지와 조합된 후의 조합 이미지(307)를 도시한 것이다. 다른 온도 영역들도 여전히 볼 수 있으나, 이들 간의 경계가 더 명확해졌고 바인더와 선반의 외곽선들이 추가되어 고역필터 시각 이미지로부터 발생하며 텍스트 또는 다른 시각 패터들과 같이 IR 이미지에 볼 수 없는 세부사항들을 나타낸다. 명확도가 높아진 것은 또한 IR 이미지의 저역필터링으로 인한 것으로, 더 큰 다른 온도 필드내에 노이즈 픽셀들이 더 유사한 더 큰 영역을 형성하기 위해 제거된다. 그 결과, 본래 이미지가 캡쳐된 조건으로부터 발생할 수 있는 노이즈의 적어도 일부가 제거될 수 있다. 3D shows the combined image 307 after the original IR image 302 is upsampled and lowpass filtered, and combined with a highpass visual image of the same scene. Other temperature zones are still visible, but the boundaries between them have become clearer and the outlines of the binder and shelf have been added, resulting from high-pass visual images and revealing details that cannot be seen in IR images such as text or other visual patterns. . The increased clarity is also due to the low pass filtering of the IR image, where the noise pixels within the larger other temperature field are removed to form a larger area that is more similar. As a result, at least some of the noise that may arise from the condition in which the original image was captured can be removed.

도 5a 내지 도 5d는 다른 온도 영역들이 하프톤 대신 다른 패턴으로 표시되는 식으로 상술한 도 3a 내지 도 3d의 이미지를 나타낸 것이다, 상기 도 3a 내지 도 3d을 참조로 모든 것이 도 5a 내지 도 5d에 각각 직접 작용될 수 있다. 5A-5D show the image of FIGS. 3A-3D described above in such a way that different temperature regions are displayed in a different pattern instead of halftones, all of which are shown in FIGS. 5A-5D with reference to FIGS. 3A-3D. Each can be acted directly.

IR 이미지(302)에 수행된 저역필터링은 이전 값에 따라 각 픽셀에 대한 새 값과 주변 픽셀들의 값을 계산하기 위해 적절한 필터 코어와 함께 공간 필터를 이용해 수행될 수 있다. 고역필터링은 일반적으로 저역필터를 적용하고 원래 이미지로부터 결과적으로 발생한 저역필터된 이미지를 빼어 고역필터된 이미지에 선 및 가장자리들만 보이게 남김으로써 수행된다. 상술한 바와 같이, 공간 필터를 적용하는 방법들이 해당기술분야에 잘 알려져 있고 이런 임의의 방법이 사용될 수 있다.The low pass filtering performed on the IR image 302 may be performed using a spatial filter with an appropriate filter core to calculate the new value for each pixel and the value of the surrounding pixels according to the previous value. High pass filtering is generally performed by applying a low pass filter and subtracting the resulting low pass filtered image from the original image, leaving only lines and edges visible in the high pass filtered image. As mentioned above, methods of applying spatial filters are well known in the art and any such method may be used.

예컨대 컬러 공간의 YCbCr 패밀리에 따른 팔레트를 선택할 경우, Y 성분(즉, 휘도)은 전체 팔레트에 걸쳐 상수로 선택될 수 있다. 일예로, Y 성분은 최대 휘도의 0.5배가 되게 선택될 수 있다. 그 결과, 선택된 팔레트에 따른 IR 이미지를 시각 이미지와 조합시, 처리된 시각 이미지(304)의 Y 성분이 처리된 IR 이미지(305)에 추가될 수 있고 처리된 IR 이미지(305)의 컬러가 바뀌지 않으면서 소정의 대비를 야기한다. 이로써 본래 IR 이미지(302)의 처리 동안 컬러의 특별한 뉘앙스의 중요성이 유지된다.For example, when selecting a palette according to the YCbCr family of color spaces, the Y component (i.e. luminance) may be selected as a constant over the entire palette. In one example, the Y component may be selected to be 0.5 times the maximum luminance. As a result, upon combining the IR image according to the selected palette with the visual image, the Y component of the processed visual image 304 may be added to the processed IR image 305 and the color of the processed IR image 305 may not change. Without causing a certain contrast. This maintains the importance of the particular nuances of color during the processing of the original IR image 302.

컬러 성분들을 계산할 때, 하기의 수학식들이 사용되어 고역필터된 시각 이미지(304)로부터 Y 성분 및 IR 이미지(305)의 신호로부터 Cr, 및 Cb와 함께 조합된 이미지(307)에 대한 성분(Y, Cr, 및 Cb)을 결정할 수 있다. When calculating the color components, the following equations are used to produce the component Y for the image 307 combined with the Y component from the high-pass filtered visual image 304 and Cr from the signal of the IR image 305 and Cb: , Cr, and Cb) can be determined.

hp_y_vis = highpass(y_vis)hp_y_vis = highpass (y_vis)

(y_ir, cr_ir, cb_ir) = colored(lowpass(ir_signal_linear))(y_ir, cr_ir, cb_ir) = colored (lowpass (ir_signal_linear))

또 다른 표기로 다음과 같이 표기될 수 있다:Another notation can be written as:

hpyvis = highpass(yvis)hp yvis = highpass (y vis )

(yir, crir, cbir) = colored(lowpass(irsignal linear)) (y ir , cr ir , cb ir ) = colored (lowpass (ir signal linear ))

물론 YCbCr과 다른 컬러 공간들도 또한 본 발명의 실시예와 함께 사용될 수 있다. 가령 RGB, YCbCr, HSV, CIE 1931 XYZ 또는 CIELab과 같은 다른 컬러 공간의 사용뿐만 아니라 컬러 공간들 간의 변환도 당업자에 잘 알려져 있다. 예컨대, RGB 컬러 모델을 이용할 경우, 휘도는 모든 컬러 성분들의 평균으로서 계산될 수 있고, 한 컬러 공간을 또 다른 컬러 공간으로 휘도를 계산하는 수학식을 변환함으로써, 휘도를 결정하기 위한 새로운 표현이 각 컬러 공간에 대해 결정된다. Of course YCbCr and other color spaces can also be used with embodiments of the present invention. The conversion between color spaces as well as the use of other color spaces such as, for example, RGB, YCbCr, HSV, CIE 1931 XYZ or CIELab are well known to those skilled in the art. For example, using the RGB color model, the luminance can be calculated as the average of all color components, and by converting a formula that calculates the luminance from one color space to another, a new representation for determining the luminance is obtained. Determined for color space.

일실시예로, 처리된 시각 이미지(304)를 처리된 IR 이미지(305)와 조합하는 블록(107)은 처리된 시각 이미지(304)로부터 휘도 성분(Y)만 이용해 수행될 수 있다. In one embodiment, block 107 combining the processed visual image 304 with the processed IR image 305 may be performed using only the luminance component Y from the processed visual image 304.

상술한 방법의 블록들은 하나 이상의 실시예들에 따라 적절하다면 다른 순서로 수행될 수 있음에 유의해야 한다. It should be noted that the blocks of the method described above may be performed in a different order as appropriate in accordance with one or more embodiments.

도 4는 본 발명에 따른 방법을 수행하기 위한 이미지 처리 시스템의 실시예의 개략도를 도시한 것이다. 이미징 디바이스 유닛(1)은 시각 센서를 갖는 시각 이미징 디바이스(11)와 IR 센서를 갖는 IR 이미징 디바이스(12)를 구비할 수 있으며, 이들은 시각 이미징 디바이스(11)의 시각 센서의 광축이 IR 이미징 디바이스(12)의 IR 센서로부터 거리(d)에 있게 장착된다. 시각 이미징 디바이스는 임의의 공지된 타입의 시각 이미징 디바이스, 가령 CCD 이미징 디바이스, EMCCD 이미징 디바이스, CMOS 이미징 디바이스 또는 sCMOS 이미징 디바이스일 수 있다. IR 이미징 디바이스는 적어도 가령 0.7 내지 20㎛ 간격으로 전자기 복사를 검출할 수 있는 임의의 종류의 이미징 디바이스일 수 있다. 시각 이미징 디바이스는 대략 53°의 시야(α) 시계(視界)를 갖는 한편, IR 이미징 디바이스는 대략 24°의 시야(β) 시계를 갖는다. 이는 예컨대, 교체가능한 광학소자 또는 광학소자를 포함한 렌즈의 사용을 통해 다른 시야각이 사용될 수 있음을 당업자는 알아야 한다. IR 이미징 디바이스에 대해, 교체가능한 광학소자 또는 광학소자를 포함한 렌즈는 가령 시계를 15-45°로 제공할 수 있다. 이미징 디바이스 유닛(1)에 의해 블록(101,102), 즉, 시각 이미지(301)와 IR 이미지(302)의 캡쳐가 수행될 수 있고, 캡쳐된 이미지들은 또한 프로세서라고 하는 처리유닛(2)으로 전송되며, 여기서 나머지 블록들도 수행된다. 다른 실시예에 따르면, 도 1의 블록(106)에서 선택 단계, 즉, 노이즈를 줄이고 캡쳐된 IR 이미지를 흐릿하게 하는 단계가 이미징 디바이스에 포함된 이미지 처리수단 또는 이미지 프로세서에 의해 수행될 수 있으며, 시각 이미지와 처리된 IR 이미지가 처리유닛(2)으로 전송된 후, 도 1의 나머지 블록들의 방법 단계들이 수행된다. 상기 처리유닛(2)은 소정 과제를 수행하도록 맞추어진 컴퓨터 판독가능한 저장매체에 저장된 코드 부분들이나 사용 동안 변경될 수 있는 컴퓨터 판독가능한 저장매체에 저장된 다른 코드 부들을 포함한 가령 마이크로프로세서, 마이크로컨트롤러 또는 다른 컨트롤 로직 또는 FPGA(Field-programmable gate array) 유닛과 같은 범용 또는 특수 처리엔진과 같은 프로세서일 수 있다. 이런 변경가능부들은 IR 이미징 디바이스(12)의 조정, 시각 이미징 디바이스(11) 및 IR 이미징 디바이스(12)에 대한 정렬, 특히 이미지들의 공간 필터링을 위해 필터 또는 샘플 레이트와 같이 다양한 과제들에 대한 입력으로서 사용될 수 잇는 파라미터들을 포함할 수 있다. 4 shows a schematic diagram of an embodiment of an image processing system for performing a method according to the invention. The imaging device unit 1 may comprise a vision imaging device 11 with a vision sensor and an IR imaging device 12 with an IR sensor, such that the optical axis of the vision sensor of the vision imaging device 11 is an IR imaging device. And mounted at a distance d from the IR sensor of (12). The visual imaging device can be any known type of visual imaging device, such as a CCD imaging device, an EMCCD imaging device, a CMOS imaging device or an sCMOS imaging device. The IR imaging device may be any kind of imaging device capable of detecting electromagnetic radiation at least, eg, at intervals of 0.7 to 20 μm. The visual imaging device has a field of view α of approximately 53 ° while the IR imaging device has a field of view β of approximately 24 °. It should be appreciated by those skilled in the art that other viewing angles may be used, for example, through the use of interchangeable optics or lenses including optics. For IR imaging devices, interchangeable optics or lenses including optics may provide a field of view of 15-45 °, for example. The capturing of the blocks 101, 102, ie the visual image 301 and the IR image 302, can be performed by the imaging device unit 1, the captured images being sent to a processing unit 2 also called a processor. , Where the remaining blocks are also performed. According to another embodiment, the selection step in block 106 of FIG. 1, ie, reducing noise and blurring the captured IR image may be performed by image processing means or image processor included in the imaging device, After the visual image and the processed IR image are transmitted to the processing unit 2, the method steps of the remaining blocks of FIG. 1 are performed. The processing unit 2 includes, for example, a microprocessor, microcontroller or other portion of code stored on a computer readable storage medium adapted to perform a predetermined task or other code portions stored on a computer readable storage medium that can be changed during use. It can be a processor such as a general purpose or special processing engine such as control logic or a field-programmable gate array (FPGA) unit. These modifiable parts provide inputs for various tasks such as adjustment of the IR imaging device 12, alignment to the visual imaging device 11 and the IR imaging device 12, in particular filters or sample rates for spatial filtering of images. It may include parameters that can be used as.

이 문헌에서, "컴퓨터 프로그램 제품" 및 "컴퓨터 판독가능 저장매체"라는 용어는 일반적으로 메모리(41), 처리유닛(2)의 저장 매체, 또는 제어유닛(42)의 저장매체와 같은 영구 매체를 말하는데 사용될 수 있다. 컴퓨터 판독가능 저장매체의 이들 및 다른 형태들은 실행을 위해 처리유닛(2)에 명령어를 제공하도록 사용될 수 있다. 일반적으로 "컴퓨터 프로그램 코드" 또는 (컴퓨터 프로그램들 또는 다른 그룹핑의 형태로 그룹화될 수 있는) 컴퓨터 프로그램 코드부라고 하는 이런 명령어들은 본 발명의 방법의 단계 및 기능들을 수행하기 위해 데이터 처리 시스템을 제어하도록 형성된다. 따라서 실행시, 컴퓨터 프로그램 코드부는 이미징 디바이스(1) 또는 컴퓨터가 현재 기술의 실시예들의 특징 또는 기능들을 수행하게 할 수 있다.또한, 본 명세서에 사용된 바와 같이, 처리 로직 또는 로직은 하드웨어, 소프트웨어, 펌웨어 또는 이들의 조합을 포함할 수 있다.  In this document, the terms "computer program product" and "computer-readable storage medium" generally refer to a permanent medium, such as a memory 41, a storage medium of the processing unit 2, or a storage medium of the control unit 42. Can be used to speak. These and other forms of computer readable storage media can be used to provide instructions to the processing unit 2 for execution. Such instructions, commonly referred to as "computer program code" or computer program code portion (which may be grouped in the form of computer programs or other groupings), are used to control the data processing system to perform the steps and functions of the method of the present invention. Is formed. Thus, in execution, the computer program code portion may cause the imaging device 1 or the computer to perform the features or functions of the embodiments of the present technology. Further, as used herein, processing logic or logic may be hardware, software, or the like. , Firmware or a combination thereof.

처리유닛(2)은 메모리(41)와 소통하며, 상기 메모리에서 이런 파라미터들은 처리유닛(2)에 의한 사용 준비를 유지하고, 사용자가 원한다면 처리유닛(2)에 의해 처리된 이미지가 저장될 수 있다. 메모리(41)는 램(RAM), 레지스터 메모리, 프로세서 캐시, 하드디스크 드라이브, 플로피 디스크 드라이브, 자기테잎 드라이브, 광디스크 드라이브, CD 또는 DVD 드라이브(R 또는 RW), 또는 다른 착탈식 또는 고정 매체 드라이브일 수 있다. 메모리(41)는 차례로 제어유닛(42)과 소통하고, 제어유닛에서 상기 파라미터들은 가령 제조업체로부터 공급될 수 있는 조정 파일(43)로부터 입력을 통해 이미징 디바이스 유닛(1)으로부터 이미지가 캡쳐되는 물체까지 거리에 대해 센서 등으로부터의 데이터와 같은 이미징 처리시스템 자체에 의해 제공되는 파라미터들에 의해 또는 사용자에 의해 제공된 파라미터들에 의해 발생된다. 제어유닛(42)은 프로그램가능한 유닛일 수 있고 예시적인 방법들을 수행하는데 필요한 파라미터를 결정하고, 어떻게 이런 파라미터들이 처리유닛(2)과 상호작용하고 처리유닛(2)에 의해 쉽게 검색하기 위해 메모리(41)에 이들 파라미터를 저장해야 할지를 결정할 수 있다.The processing unit 2 is in communication with the memory 41, in which these parameters are maintained ready for use by the processing unit 2, and if the user wishes the image processed by the processing unit 2 can be stored. have. The memory 41 may be RAM, register memory, processor cache, hard disk drive, floppy disk drive, magnetic tape drive, optical disk drive, CD or DVD drive (R or RW), or other removable or fixed media drive. have. The memory 41 in turn communicates with the control unit 42, in which the parameters are passed from the imaging device unit 1 to the object from which the image is captured via input from an adjustment file 43, which can be supplied, for example, from the manufacturer. It is generated by parameters provided by the imaging processing system itself, such as data from a sensor or the like for distance, or by parameters provided by a user. The control unit 42 may be a programmable unit and determines the parameters needed to perform the exemplary methods, and how these parameters interact with the processing unit 2 and are easily retrieved by the processing unit 2 in order to retrieve them. Can determine whether these parameters should be stored.

처리유닛(2)이 이미지를 정렬하는 단계(블록 103), 업샘플된 IR 이미지를 발생하기 위해 원래 IR 이미지(302)를 업샘플링하는 단계(블록 104), 처리된 시각 이미지(304)를 발생하기 위해 원래 시각 이미지(301)의 고역필터링 단계(블록 105), 처리된 IR 이미지(305)를 발생하기 위해 업샘플된 IR 이미지의 저역필터링 단계(블록 106), 조합 이미지(307)를 생성하기 위해 처리된 시각 이미지(304)를 처리된 IR 이미지(305)와 조합하는 단계(블록 107), 고주파 노이즈를 이 조합된 이미지(307)에 추가하는 단계(블록 108)의 동작을 수행한 후, 최종 발생한 이미지가 이미지 처리 시스템의 사용자에 보이도록 디스플레이 유닛(3)에 나타내어 진다. 필요한 경우, 사용자는 나중에 보거나 다른 분석 및 저장을 위해 컴퓨터와 같은 또 다른 유닛으로 전달하기 위해 조합 이미지(307) 또는 메모리(41)에 다른 방법 단계들에 해당하는 다른 이미지들 중 어느 하나를 저장할 수 있다. The processing unit 2 aligning the image (block 103), upsampling the original IR image 302 to generate an upsampled IR image (block 104), generating a processed visual image 304 High pass filtering of the original visual image 301 (block 105), low pass filtering of the upsampled IR image (block 106) to generate the processed IR image 305, to generate a combined image 307 Combining the processed visual image 304 with the processed IR image 305 (block 107), and adding high frequency noise to the combined image 307 (block 108). The last generated image is shown on the display unit 3 to be visible to the user of the image processing system. If necessary, the user can store either the combination image 307 or other images corresponding to different method steps in the memory 41 for later viewing or transfer to another unit such as a computer for further analysis and storage. have.

다른 실시예에서, 개시된 방법들은 특히 본 발명의 하나 이상의 실시예들에 대한 방법 단계들을 수행하도록 형성된 FPGA 유닛의 기능을 포함하거나 도 4와 연계한 설명에 따른 범용 처리유닛(2)을 포함할 수 있는 PC와 같은 컴퓨팅 디바이스에 의해 실행될 수 있다. 컴퓨팅 디바이스는 메모리(41)와 컨트롤 유닛(42) 및 또한 디스플레이 유닛(3)을 더 구비할 수 있다. 이는 개시된 방법들을 즉, 동영상으로 기록 및 리플레이될 수 있는 가령 30Hz로 실시간으로, 필터되고 조합된 이미지의 스트림 세트에 대해 생생하게 사용할 수 있으나, 또한 스틸 사진을 이용할 수도 있다. In another embodiment, the disclosed methods may in particular comprise the functionality of an FPGA unit configured to perform the method steps for one or more embodiments of the invention or may comprise a general purpose processing unit 2 according to the description in connection with FIG. 4. May be executed by a computing device such as a PC. The computing device may further comprise a memory 41 and a control unit 42 and also a display unit 3. It can be used vividly for the set of streams of filtered and combined images in real time, for example at 30 Hz, which can be recorded and replayed as moving pictures, but can also use still photos.

일예로, 사용자는 가령 하기의 수학식을 이용함으로써 IR 이미지(302,305)와 조합하는데 사용될 수 있는 시각 이미지(301,304)로부터 휘도의 얼마만큼을 결정하기 위해 양의 인수 알파(alpha)를 변경하도록 허용될 수 있다. 조합 이미지(307)의 휘도(Y)는 처리된 IR 이미지(305)의 휘도를 인수 알파를 곱한 고역필터 시각 이미지의 휘도에 더함으로써 달성된다. 조합된 성분들(Cr 및 Cb)은 IR 이미지(302,305)로부터 직접 취해지며 따라서 이 처리에 영향을 받지 않는다. 또 다른 컬러 공간이 사용되면, 수학식은 물론 사용 전에 변형된다.In one example, the user may be allowed to change the positive factor alpha to determine how much of the luminance from the visual image 301, 304, which may be used to combine with the IR image 302, 305, for example, by using the equation below. Can be. The luminance Y of the combined image 307 is achieved by adding the luminance of the processed IR image 305 to the luminance of the high pass filter visual image multiplied by the factor alpha. The combined components Cr and Cb are taken directly from the IR images 302 and 305 and are therefore not affected by this process. If another color space is used, the equation is of course transformed before use.

comb_y = y_ir + alpha x hp_y_viscomb_y = y_ir + alpha x hp_y_vis

comb_cr = cr_ircomb_cr = cr_ir

comb_cb = cb_ircomb_cb = cb_ir

또 다른 표기로 다음과 같이 작성될 수 있다:Another notation can be written as:

comby = yir + alpha * hpyvis comb y = y ir + alpha * hp yvis

combcr = crir comb cr = cr ir

combcb = cbir comb cb = cb ir

따라서, 알파의 변화는 사용자에게 얼마나 많은 대조가 조합 이미지에 필요한지를 결정하기 위한 기회를 제공한다. 알파가 0에 가까우면, IR 이미지만이 나타날 것이나 알파가 매우 크면, 매우 선명한 외곽들이 조합 이미지에서 볼 수 있다. 이론적으로, 알파는 무한히 큰 수일 수 있으나, 실제로 현재 출원에서 편리한 것으로 선택될 수 있는 알파의 크기를 제한하기 위해 제한이 아마도 필요할 것이다. Thus, the change in alpha gives the user the opportunity to determine how much contrast is needed for the combination image. If the alpha is close to zero, only the IR image will appear, but if the alpha is very large, very sharp outlines can be seen in the combination image. Theoretically, alpha can be an infinitely large number, but in practice a restriction will probably be needed to limit the size of alpha that can be chosen as convenient in the current application.

블록(104)에서 IR 이미지(302)의 해상도의 업샘플링이 IR 이미지(302)의 해상도와 일치하거나, 실제로 그 결과 IR 이미지(302)와 시각 이미지(301)가 샘플링 단계 후 동일 해상도를 갖는 한 이미지들(301,302) 중 어느 것도 본래 갖지 않는 해상도로 IR 이미지(302)의 업샘플링과 시각 이미지(301)의 다운샘플링의 조합을 일치시키도록 시각 이미지(301)의 다운샘플링으로서 번갈아 수행될 수 있다. 조합 이미지(307)가 디스플레이 유닛(3)에 가장 적합한 해상도로 일치시키도록 디스플레이되고 이미지 또는 이미지들(301,302)을 샘플화시키는 디스플레이 유닛(3)과 같이 디스플레이 영역에 따라 해상도를 결정하는 것이 편할 수 있다. As long as the upsampling of the resolution of the IR image 302 in block 104 matches the resolution of the IR image 302, or indeed the result is that the IR image 302 and the visual image 301 have the same resolution after the sampling step. Alternately may be performed as downsampling of visual image 301 to match a combination of upsampling of IR image 302 and downsampling of visual image 301 to a resolution that none of the images 301, 302 have inherently. . It may be convenient to determine the resolution according to the display area, such as the display unit 3 where the combined image 307 is displayed to match the resolution that is most suitable for the display unit 3 and sample the image or images 301, 302. .

명확히 하기 위해, 상기 설명은 다른 기능 유닛들 및 프로세서들에 대한 기술의 실시예들을 설명한 것임을 알 것이다. 그러나, 기술로부터 벗어남이 없이 다른 기능 유닛들, 프로세서들, 또는 도메인들 간에 임의의 적절한 기능 분포가 사용될 수 있음이 명백하다. 예컨대, 별개의 프로세서들 또는 컨트롤러들에 의해 수행되도록 예시된 기능은 동일한 프로세서 또는 컨트롤러에 의해 수행될 수 있다. 따라서, 특별한 기능 유닛들에 대한 참조는 엄격한 논리적 또는 물리적 구조 또는 구성을 나타내기보다는 단지 상술한 기능을 제공하기 위한 적절한 수단들에 대한 참조로 보아야 한다.For clarity, it will be appreciated that the above description has described embodiments of the technology for other functional units and processors. However, it is apparent that any suitable functional distribution may be used between other functional units, processors, or domains without departing from the technology. For example, functionality illustrated to be performed by separate processors or controllers may be performed by the same processor or controller. Thus, references to particular functional units should not be considered strict logical or physical structures or configurations, but merely reference to appropriate means for providing the aforementioned functionality.

본 발명은 상술한 실시예에 제한되는 것으로 볼 게 아니라 당업자가 쉽게 알게 되는 바와 같이 특허청구범위내에서 변경될 수 있다. The present invention is not limited to the above-described embodiments but may be modified within the scope of the claims as those skilled in the art will readily appreciate.

Claims (25)

장면의 시각 이미지 및 적외선(IR) 이미지를 수신하는 단계와,
상기 시각 이미지로부터 고공간 주파수 컨텐츠를 추출하는 단계와,
상기 시각 이미지로부터 상기 추출된 고공간 주파수 컨텐츠와 상기 IR 이미지를 조합하는 단계를 포함하고,
시각 이미지와 IR 이미지에 대한 해상도는 조합 이미지를 생성하기 위해 실질적으로 같은 방법.
Receiving a visual image and an infrared (IR) image of the scene,
Extracting high spatial frequency content from the visual image;
Combining the extracted high spatial frequency content with the IR image from the visual image,
The resolution for visual and IR images is substantially the same way to generate a combination image.
제 1 항에 있어서,
시각 이미지와 IR 이미지에 대한 해상도가 실질적으로 같은 것을 보장하는 단계를 더 포함하는 방법.
The method of claim 1,
Ensuring that the resolution for the visual image and the IR image are substantially the same.
제 1 항 또는 제 2 항에 있어서,
시각 이미지와 IR 이미지에 대한 해상도가 실질적으로 같은 지 여부를 검사하는 단계를 더 포함하고,
시각 이미지와 IR 이미지에 대한 해상도가 실질적으로 같지 않다면, 시각 이미지와 IR 이미지에 대한 해상도가 실질적으로 같도록 시각 이미지의 해상도 및/또는 IR 이미지의 해상도를 변경하는 단계를 포함하는 방법.
3. The method according to claim 1 or 2,
Checking whether the resolutions for the visual and IR images are substantially the same;
If the resolution for the visual image and the IR image are not substantially the same, changing the resolution of the visual image and / or the resolution of the IR image such that the resolution for the visual image and the IR image is substantially the same.
제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
시각 이미지와 IR 이미지가 실질적으로 같은 해상도를 갖도록 상기 시각 이미지의 해상도 및/또는 상기 IR 이미지의 해상도 중 적어도 하나를 변경하는 단계를 더 포함하는 방법.
The method according to any one of claims 1 to 3,
Changing at least one of the resolution of the visual image and / or the resolution of the IR image such that the visual image and the IR image have substantially the same resolution.
제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
상기 IR 이미지의 해상도를 실질적으로 상기 시각 이미지의 해상도로 업샘플링 및/또는 상기 시각 이미지의 해상도를 실질적으로 상기 IR 이미지의 해상도로 다운샘플링하는 단계를 더 포함하는 방법.
The method according to any one of claims 1 to 4,
Upsampling the resolution of the IR image to substantially the resolution of the visual image and / or downsampling the resolution of the visual image to substantially the resolution of the IR image.
제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
상기 시각 이미지의 해상도와 상기 IR 이미지의 해상도를 실질적으로 제 3 해상도로 같게 변경하는 단계를 더 포함하는 방법.
6. The method according to any one of claims 1 to 5,
Changing the resolution of the visual image and the resolution of the IR image to be substantially equal to a third resolution.
제 1 항 내지 제 6 항 중 어느 한 항에 있어서,
수신된 IR 이미지의 해상도는 64×64 픽셀 이하인 방법.
7. The method according to any one of claims 1 to 6,
The resolution of the received IR image is 64 × 64 pixels or less.
제 1 항 내지 제 7 항 중 어느 한 항에 있어서,
수신된 IR 이미지의 해상도는 32×32 픽셀 이하인 방법.
The method according to any one of claims 1 to 7,
The resolution of the received IR image is 32x32 pixels or less.
제 1 항 내지 제 8 항 중 어느 한 항에 있어서,
상기 시각 이미지로부터 고공간 주파수 컨텐츠를 추출하는 단계는 적어도 하나의 공간 필터를 이용한 고역필터링에 의해 수행되는 방법.
The method according to any one of claims 1 to 8,
Extracting high spatial frequency content from the visual image is performed by high pass filtering using at least one spatial filter.
제 1 항 내지 제 9 항 중 어느 한 항에 있어서,
IR 이미지에서 노이즈를 제거 및/또는 IR 이미지를 평탄화하도록 상기 IR 이미지를 처리하는 단계를 더 포함하는 방법.
10. The method according to any one of claims 1 to 9,
Processing the IR image to remove noise from the IR image and / or to flatten the IR image.
제 1 항 내지 제 10 항 중 어느 한 항에 있어서,
조합 전에 상기 IR 이미지를 저역필터링하는 단계를 더 포함하는 방법.
11. The method according to any one of claims 1 to 10,
Lowpass filtering the IR image prior to combining.
제 1 항 내지 제 11 항 중 어느 한 항에 있어서,
조합 전에 공간 필터를 이용해 상기 IR 이미지를 저역필터링하는 단계를 더 포함하는 방법.
12. The method according to any one of claims 1 to 11,
Low pass filtering the IR image using a spatial filter prior to combining.
제 1 항 내지 제 12 항 중 어느 한 항에 있어서,
조합은 상기 IR 이미지에 상기 시각 이미지로부터 상기 추출된 고공간 주파수 컨텐츠를 중첩시키는 단계를 포함하는 방법.
13. The method according to any one of claims 1 to 12,
Combining includes superimposing the extracted high spatial frequency content from the visual image on the IR image.
제 1 항 내지 제 13 항 중 어느 한 항에 있어서,
조합은 상기 시각 이미지로부터 상기 추출된 고공간 주파수 컨텐츠에 상기 IR 이미지를 중첩시키는 단계를 포함하는 방법.
14. The method according to any one of claims 1 to 13,
Combining includes superimposing the IR image on the extracted high spatial frequency content from the visual image.
제 1 항 내지 제 14 항 중 어느 한 항에 있어서,
상기 시각 이미지의 휘도 성분을 상기 IR 이미지에 추가하는 단계를 더 포함하는 방법.
15. The method according to any one of claims 1 to 14,
Adding the luminance component of the visual image to the IR image.
제 1 항 내지 제 15 항 중 어느 한 항에 있어서,
인수만큼 곱해진 상기 시각 이미지의 휘도 성분을 상기 IR 이미지에 추가하는 단계를 더 포함하는 방법.
The method according to any one of claims 1 to 15,
Adding a luminance component of the visual image multiplied by a factor to the IR image.
제 1 항 내지 제 16 항 중 어느 한 항에 있어서,
상기 인수는 사용자의 입력으로부터 수신된 컨트롤 파라미터를 기초로 한 변수인 방법.
17. The method according to any one of claims 1 to 16,
The argument is a variable based on a control parameter received from a user input.
제 1 항 내지 제 17 항 중 어느 한 항에 있어서,
고해상도 노이즈를 상기 조합 이미지에 추가하는 단계를 더 포함하는 방법.
18. The method according to any one of claims 1 to 17,
Adding high resolution noise to the combined image.
제 1 항 내지 제 18 항 중 어느 한 항에 있어서,
상기 IR 이미지 및/또는 상기 조합 이미지에 대한 IR 팔레트를 유지하는 단계를 더 포함하는 방법.
19. The method according to any one of claims 1 to 18,
Maintaining an IR palette for the IR image and / or the combination image.
제 1 항 내지 제 19 항 중 어느 한 항에 있어서,
장면의 시각 이미지와 IR 이미지를 캡쳐하는 단계를 더 포함하고,
IR 이미지 캡쳐링 디바이스 및 시각 이미지 캡쳐링 디바이스를 구비한 이미지 디바이스에 의해 제 1 항의 방법이 수행되는 방법.
20. The method according to any one of claims 1 to 19,
Capturing visual and IR images of the scene;
The method of claim 1 wherein the method of claim 1 is performed by an image device having an IR image capturing device and a visual image capturing device.
장면의 시각 이미지와 IR 이미지를 수신하도록 형성된 컴퓨터에서 실행되는 제 1 항 내지 제 20 항 중 어느 한 항에 따른 방법.21. The method according to any one of claims 1 to 20, executed on a computer configured to receive a visual image and an IR image of a scene. IR 이미지와 시각 이미지를 조합하기 위한 영구 컴퓨터 프로그램 제품으로서,
장면의 시각 이미지와 IR 이미지를 수신하는 단계와,
상기 시각 이미지로부터 고공간 주파수 컨텐츠를 추출하는 단계와,
상기 시각 이미지로부터 상기 추출된 고공간 주파수 컨텐츠와 상기 IR 이미지를 조합하는 단계를 포함하는 동작을 수행하게 데이터 처리 시스템을 제어하도록 고안된 컴퓨터 프로그램 코드부를 구비하고,
시각 이미지와 IR 이미지에 대한 해상도는 조합 이미지를 생성하기 위해 실질적으로 같은 영구 컴퓨터 프로그램 제품.
A permanent computer program product for combining IR and visual images,
Receiving visual and IR images of the scene,
Extracting high spatial frequency content from the visual image;
Computer program code portion designed to control a data processing system to perform an operation comprising combining the extracted high spatial frequency content with the IR image from the visual image,
Permanent computer program products that are substantially the same for generating visual images and resolution for combination images.
제 22 항에 있어서,
제 2 항 내지 제 21 항 중 어느 한 항의 단계 또는 기능을 수행하게 데이터 처리 시스템을 제어하도록 고안된 컴퓨터 프로그램 코드부를 더 구비하는 영구 컴퓨터 프로그램 제품.
23. The method of claim 22,
22. A permanent computer program product further comprising a computer program code portion designed to control the data processing system to perform the step or function of any one of claims 2 to 21.
시각 이미지를 캡쳐하기 위한 시각 이미지 센서와,
IR 이미지를 캡쳐하기 위한 IR 이미지 센서와,
상기 시각 이미지로부터 고공간 주파수 컨텐츠를 추출하고
상기 시각 이미지로부터 상기 추출된 고공간 주파수 컨텐츠와 상기 IR 이미지를 조합하도록 형성된 처리유닛을 구비하고,
시각 이미지와 IR 이미지에 대한 해상도는 조합 이미지를 생성하기 위해 실질적으로 같은 이미징 디바이스.
A visual image sensor for capturing visual images,
An IR image sensor for capturing IR images,
Extracts high spatial frequency content from the visual image
A processing unit configured to combine the extracted high spatial frequency content with the IR image from the visual image,
Imaging devices that are substantially the same for generating visual images and resolutions for IR images.
제 24 항에 있어서,
제 2 항 내지 제 21 항 중 어느 한 항의 단계 또는 기능을 수행하게 형성된 프로세서를 더 구비하는 이미징 디바이스.
25. The method of claim 24,
22. An imaging device, further comprising a processor configured to perform the steps or functions of any of claims 2 to 21.
KR1020127030587A 2010-04-23 2011-04-21 Infrared resolution and contrast enhancement with fusion KR101773887B1 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US12/766,739 US8520970B2 (en) 2010-04-23 2010-04-23 Infrared resolution and contrast enhancement with fusion
US12/766,739 2010-04-23
US201161473207P 2011-04-08 2011-04-08
US61/473,207 2011-04-08
PCT/EP2011/056432 WO2011131758A1 (en) 2010-04-23 2011-04-21 Infrared resolution and contrast enhancement with fusion

Publications (2)

Publication Number Publication Date
KR20130054281A true KR20130054281A (en) 2013-05-24
KR101773887B1 KR101773887B1 (en) 2017-09-12

Family

ID=44278715

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020127030587A KR101773887B1 (en) 2010-04-23 2011-04-21 Infrared resolution and contrast enhancement with fusion

Country Status (3)

Country Link
KR (1) KR101773887B1 (en)
CN (1) CN102334141B (en)
CA (1) CA2797054C (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016205419A1 (en) * 2015-06-15 2016-12-22 Flir Systems Ab Contrast-enhanced combined image generation systems and methods
KR102257752B1 (en) * 2020-05-14 2021-05-31 인천대학교 산학협력단 Artificial Intelligence Based Image Fusion Apparatus and Method for Fusing Infrared and Visible Image
KR20210063569A (en) * 2019-11-25 2021-06-02 김종원 Method and aooaratus for object regobnition using thermal imaging sensor and imaging sensor

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200457457Y1 (en) 2009-07-03 2011-12-20 주식회사 일광산업 LCD Monitor Installing Equipment with Automatic Opening Cover
EP2831812A1 (en) * 2012-03-30 2015-02-04 Flir Systems AB Facilitating analysis and interpretation of associated visible light and infrared (ir) image information
WO2014100783A1 (en) * 2012-12-21 2014-06-26 Flir Systems, Inc. Time spaced infrared image enhancement
WO2018017904A1 (en) * 2016-07-21 2018-01-25 Flir Systems Ab Fused image optimization systems and methods
KR102590900B1 (en) * 2018-08-27 2023-10-19 엘지이노텍 주식회사 Image processing apparatus and image processing method
EP3704668A4 (en) 2018-12-17 2021-04-07 SZ DJI Technology Co., Ltd. Image processing method and apparatus
KR20210043933A (en) * 2019-10-14 2021-04-22 엘지이노텍 주식회사 Image Processing Apparatus and Image Processing Method
CN111080554B (en) * 2019-12-20 2023-08-04 成都极米科技股份有限公司 Method and device for enhancing subtitle region in projection content and readable storage medium
CN112449095A (en) * 2020-11-12 2021-03-05 Oppo广东移动通信有限公司 Image processing method and device, electronic equipment and readable storage medium

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0973137B1 (en) * 1998-07-06 2003-01-08 Siemens Building Technologies AG Motion detector
JP2005031800A (en) * 2003-07-08 2005-02-03 Mitsubishi Electric Corp Thermal image display device
JP2005173879A (en) 2003-12-10 2005-06-30 Mitsubishi Electric Corp Fused image display device
US7620265B1 (en) * 2004-04-12 2009-11-17 Equinox Corporation Color invariant image fusion of visible and thermal infrared video
JP2005338359A (en) 2004-05-26 2005-12-08 Constec Engi Co Imaging unit
CN100557633C (en) * 2007-12-18 2009-11-04 西安电子科技大学 Multisource image anastomosing method based on pectination ripple and Laplace tower decomposition
CN101404084A (en) * 2008-11-14 2009-04-08 哈尔滨工业大学 Infrared image background suppression method based on Wavelet and Curvelet conversion

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016205419A1 (en) * 2015-06-15 2016-12-22 Flir Systems Ab Contrast-enhanced combined image generation systems and methods
US10694101B2 (en) 2015-06-15 2020-06-23 Flir Systems Ab Contrast-enhanced combined image generation systems and methods
KR20210063569A (en) * 2019-11-25 2021-06-02 김종원 Method and aooaratus for object regobnition using thermal imaging sensor and imaging sensor
KR102257752B1 (en) * 2020-05-14 2021-05-31 인천대학교 산학협력단 Artificial Intelligence Based Image Fusion Apparatus and Method for Fusing Infrared and Visible Image

Also Published As

Publication number Publication date
CN102334141A (en) 2012-01-25
CN102334141B (en) 2015-05-20
KR101773887B1 (en) 2017-09-12
CA2797054C (en) 2018-07-17
CA2797054A1 (en) 2011-10-27

Similar Documents

Publication Publication Date Title
US20230162340A1 (en) Infrared resolution and contrast enhancement with fusion
US8565547B2 (en) Infrared resolution and contrast enhancement with fusion
KR101773887B1 (en) Infrared resolution and contrast enhancement with fusion
US10360711B2 (en) Image enhancement with fusion
US10044946B2 (en) Facilitating analysis and interpretation of associated visible light and infrared (IR) image information
US9214013B2 (en) Systems and methods for correcting user identified artifacts in light field images
CN107256542B (en) Gas visualization layout, apparatus and method
JP5099529B2 (en) Focus support system and focus support method
US10148895B2 (en) Generating a combined infrared/visible light image having an enhanced transition between different types of image information
JP6545670B2 (en) System and method for single frame based super resolution interpolation for digital cameras
WO2016205419A1 (en) Contrast-enhanced combined image generation systems and methods
EP2831812A1 (en) Facilitating analysis and interpretation of associated visible light and infrared (ir) image information
WO2014012946A1 (en) Correction of image distortion in ir imaging
JP2011041094A (en) Image processing apparatus, imaging apparatus, and method of processing image
WO2012157459A1 (en) Stereoscopic view image generating system
Jovanov et al. Joint denoising, demosaicing, and chromatic aberration correction for UHD video

Legal Events

Date Code Title Description
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant