KR102354704B1 - Automatic color map expression method by removing outlier temperature for thermal image - Google Patents

Automatic color map expression method by removing outlier temperature for thermal image Download PDF

Info

Publication number
KR102354704B1
KR102354704B1 KR1020200071212A KR20200071212A KR102354704B1 KR 102354704 B1 KR102354704 B1 KR 102354704B1 KR 1020200071212 A KR1020200071212 A KR 1020200071212A KR 20200071212 A KR20200071212 A KR 20200071212A KR 102354704 B1 KR102354704 B1 KR 102354704B1
Authority
KR
South Korea
Prior art keywords
image information
thermal image
information
thermal
color map
Prior art date
Application number
KR1020200071212A
Other languages
Korean (ko)
Other versions
KR20210154323A (en
Inventor
권장우
이선우
Original Assignee
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인하대학교 산학협력단 filed Critical 인하대학교 산학협력단
Priority to KR1020200071212A priority Critical patent/KR102354704B1/en
Publication of KR20210154323A publication Critical patent/KR20210154323A/en
Application granted granted Critical
Publication of KR102354704B1 publication Critical patent/KR102354704B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

이상치 온도 제거를 통한 자동 컬러맵 표현 방법이 개시된다. 일 실시예에 따른 컬러맵 표현 방법은, 3차원 열화상 영상 정보를 획득하는 단계; 상기 획득된 3차원 열화상 영상 정보로부터 객체를 인식하기 위하여 학습된 딥러닝 기반의 학습 모델을 이용하여 객체들을 인식하는 단계; 상기 인식된 객체들 간의 온도 정보의 비교를 통해 이상치를 제거하는 단계; 상기 이상치가 제거된 온도 정보에 기초하여 3차원 열화상 영상 정보에 대한 컬러맵을 조정하는 단계; 및 상기 조정된 컬러맵에 기초하여 3차원 열화상 영상 정보를 보정하는 단계를 포함할 수 있다. Disclosed is an automatic color map expression method through outlier temperature removal. A method for expressing a color map according to an embodiment includes: obtaining 3D thermal image information; recognizing objects using a deep learning-based learning model learned to recognize objects from the obtained three-dimensional thermal image information; removing outliers through comparison of temperature information between the recognized objects; adjusting a color map for 3D thermal image information based on the temperature information from which the outlier is removed; and correcting 3D thermal image information based on the adjusted color map.

Description

열화상 영상의 이상치 온도 제거를 통한 자동 컬러맵 표현 방법{AUTOMATIC COLOR MAP EXPRESSION METHOD BY REMOVING OUTLIER TEMPERATURE FOR THERMAL IMAGE}Automatic color map expression method by removing outlier temperature from thermal image {AUTOMATIC COLOR MAP EXPRESSION METHOD BY REMOVING OUTLIER TEMPERATURE FOR THERMAL IMAGE}

아래의 설명은 이상치 온도 제거를 통한 열화상 영상의 컬러맵 조정 방법 및 시스템에 관한 것이다. The following description relates to a method and system for adjusting the color map of a thermal image through outlier temperature removal.

적외선 카메라를 통하여 영상을 촬영하면, 종종 국소부위(Small Area)의 극단온도(극저온, 극고온) 때문에 일반적인 가시광선 카메라에서는 보이나 적외선 카메라에서는 주변 물체 등이 식별이 어렵다. 도 1은 극단온도로 인한 적외선 이미지의 예이다. 도 1에 도시된 바와 같이, 발열 물체만 보이고 주변 물체가 보이지 않는 가시성 문제(Visbility-Problem)이 발생하게 되는데, 국소부위만 발열이 되어 전체적인 이미지가 어두워져 분석이 어려운 현상이 발생한다.When an image is taken through an infrared camera, it is often seen with a general visible light camera because of the extreme temperature (cryogenic temperature, extremely high temperature) of a small area, but it is difficult to identify surrounding objects with an infrared camera. 1 is an example of an infrared image due to an extreme temperature. As shown in FIG. 1 , a visibility problem occurs, in which only the heating object is visible and the surrounding objects are not visible.

도 2는 이미지에 대한 컬러맵을 조정하는 방법을 설명하기 위한 예이다. 가시성 문제가 발생할 경우, 사용자는 카메라의 설정을 통하여 컬러맵의 표현 범위를 임의로 조절하거나 시각화되는 온도 범위를 수동으로 조작하여 문제를 해결한다. 사용자가 수동 조작을 할 경우, 카메라가 특정 상황에서만 동작할 수 있게 되며, 컬러맵의 범위가 표현되는 온도값이 사용자로부터 설정된 범위 내로 제한된다. 또한, 온도가 연속적으로 변하는 환경에서는 다시 온도 범위를 수동 조작해야 하고, 카메라의 사용자가 아닌 다른 사용자가 카메라를 모니터링할 경우 잘못된 컬러맵으로 표현된 이미지가 촬영될 우려가 있다.2 is an example for explaining a method of adjusting a color map for an image. When a visibility problem occurs, the user arbitrarily adjusts the expression range of the color map through the camera settings or manually manipulates the visualized temperature range to solve the problem. When the user manually operates the camera, the camera can be operated only in a specific situation, and the temperature value at which the range of the color map is expressed is limited within the range set by the user. In addition, in an environment in which the temperature continuously changes, the temperature range must be manually operated again, and when a user other than the user of the camera monitors the camera, there is a risk that an image expressed with an incorrect color map may be captured.

3차원 열화상 영상 정보로부터 추출된 객체들의 온도 비교를 통하여 이상치를 자동으로 제거하는 방법 및 시스템을 제공할 수 있다. It is possible to provide a method and system for automatically removing outliers through temperature comparison of objects extracted from 3D thermal image information.

이상치 온도 제거를 통한 3차원 열화상 영상 정보의 컬러맵을 자동으로 조정하는 방법 및 시스템을 제공할 수 있다. It is possible to provide a method and system for automatically adjusting a color map of 3D thermal image information through outlier temperature removal.

컬러맵 표현 방법은, 3차원 열화상 영상 정보를 획득하는 단계; 상기 획득된 3차원 열화상 영상 정보로부터 객체를 인식하기 위하여 학습된 딥러닝 기반의 학습 모델을 이용하여 객체들을 인식하는 단계; 상기 인식된 객체들 간의 온도 정보의 비교를 통해 이상치를 제거하는 단계; 상기 이상치가 제거된 온도 정보에 기초하여 3차원 열화상 영상 정보에 대한 컬러맵을 조정하는 단계; 및 상기 조정된 컬러맵에 기초하여 3차원 열화상 영상 정보를 보정하는 단계를 포함할 수 있다. The color map expression method includes: obtaining three-dimensional thermal image information; recognizing objects using a deep learning-based learning model learned to recognize objects from the obtained three-dimensional thermal image information; removing outliers through comparison of temperature information between the recognized objects; adjusting a color map for 3D thermal image information based on the temperature information from which the outlier is removed; and correcting 3D thermal image information based on the adjusted color map.

상기 객체를 인식하는 단계는, 상기 획득된 3차원 열화상 영상 정보에 포함된 RGB 데이터, 3차원 열화상 영상 정보가 지닌 적외선 센서값 및 측정 정보 메터데이터에 기초하여 상기 획득된 3차원 열화상 영상 정보를 온도 정보로 변환하고, 상기 온도 정보로 변환된 3차원 열화상 영상 정보에 기초하여 객체의 온도 정보를 추출하는 단계를 포함할 수 있다. The step of recognizing the object may include: the obtained 3D thermal image based on RGB data included in the obtained 3D thermal image information, infrared sensor values of the 3D thermal image information, and measurement information metadata The method may include converting information into temperature information, and extracting temperature information of an object based on the 3D thermal image information converted into the temperature information.

상기 객체를 인식하는 단계는, 상기 온도 정보로 변환된 3차원 열화상 영상 정보에 대한 온도 분포를 히스토그램으로 나타내고, 상기 히스토그램을 통하여 나타낸 3차원 열화상 영상 정보의 온도 분포에 박스 플롯(Box plot)을 생성하는 단계를 포함할 수 있다. The step of recognizing the object may include displaying a temperature distribution of the 3D thermal image information converted into the temperature information as a histogram, and a box plot on the temperature distribution of the 3D thermal image information shown through the histogram. may include the step of creating

상기 이상치를 제거하는 단계는, 상기 3차원 열화상 영상 정보의 온도 분포에 대하여 생성된 박스 플롯을 통해 사분위 범위 밖에 존재하는 이상치를 제거하고, 상기 제거된 이상치를 사분위 범위 안의 최대값과 최소값으로 치환하는 단계를 포함할 수 있다. The step of removing the outlier may include removing an outlier existing outside the interquartile range through a box plot generated with respect to the temperature distribution of the 3D thermal image information, and using the removed outlier as a maximum value and a minimum value within the interquartile range. It may include the step of substituting with

상기 이상치를 제거하는 단계는, 상기 사분위 범위 밖의 마진값을 설정하여 제1사분위와 제3사분위의 차이의 값에 상기 설정된 마진값을 곱하여 사분위 안의 최대값과 최소값을 계산하는 단계를 포함할 수 있다. The step of removing the outlier includes calculating a maximum value and a minimum value within the quartile by setting a margin value outside the quartile range and multiplying the difference value between the first quartile and the third quartile by the set margin value. can do.

상기 컬러맵 표현 방법은, 3차원 열화상 카메라 장치를 이용하여 3차원 열화상 영상 정보를 획득하는 것을 포함하고, 상기 3차원 열화상 영상 정보를 획득하는 단계는, 열화상 카메라를 포함하는 적어도 하나 이상의 카메라를 이용하여 촬영되는 스테레오 영상 정보를 획득하는 단계; 상기 획득된 스테레오 영상 정보에 기초하여 객체의 거리 정보를 산출하는 단계; 및 상기 산출된 객체의 거리 정보 또는 상기 획득된 스테레오 영상 정보를 열화상 이미지 정보와 매핑하여 3차원 열화상 카메라 영상을 생성하는 단계를 포함할 수 있다. The color map expression method includes obtaining three-dimensional thermal image information by using a three-dimensional thermal imaging camera device, and the obtaining of the three-dimensional thermal image information includes at least one including a thermal imaging camera obtaining stereo image information photographed using the above cameras; calculating distance information of an object based on the obtained stereo image information; and mapping the calculated distance information of the object or the obtained stereo image information with thermal image information to generate a 3D thermal imaging camera image.

상기 3차원 열화상 카메라 장치는, 제1 카메라 및 제2 카메라를 포함하는 복수 개의 CCD 카메라와 적어도 하나 이상의 열화상 카메라를 결합한 형태로 구성되는 것을 포함하고, 상기 생성하는 단계는, 상기 복수 개의 CCD 카메라를 이용하여 촬영된 스테레오 영상 정보에 열화상 카메라를 이용하여 촬영된 열화상 이미지 정보와 매핑하고, 상기 촬영된 열화상 이미지 정보를 딥러닝 기반의 학습 모델에서 컨볼루션(convolution) 후 풀링(pooling)된 영상으로 간주하고, 상기 컨볼루션 후 풀링된 영상으로 간주된 열화상 이미지 정보를 상기 딥러닝 기반의 학습 모델을 통해 디컨볼루션(de-convolution) 하여 3차원 열화상 영상을 생성하는 단계를 포함할 수 있다. The three-dimensional thermal imaging camera device includes a combination of a plurality of CCD cameras including a first camera and a second camera and at least one thermal imaging camera, wherein the generating includes the plurality of CCDs The stereo image information photographed using the camera is mapped with the thermal image image information photographed using the thermal imaging camera, and the photographed thermal image information is convolved in a deep learning-based learning model and then pooled. ) and de-convolve the thermal image information considered as the pooled image after the convolution through the deep learning-based learning model to generate a three-dimensional thermal image. may include

상기 생성하는 단계는, 상기 열화상 이미지 정보에 포함된 컬러 정보를 이용하여 상기 딥러닝 기반의 학습 모델을 학습시키고, CCD 카메라를 통해 획득된 스테레오 영상 정보를 상기 학습된 딥러닝 기반의 학습 모델에 입력함에 따라 디컨볼루션을 통해 상기 스테레오 영상 정보를 열화상 이미지 정보에 포함된 컬러 정보와 매핑시키는 단계를 포함할 수 있다. In the generating step, the deep learning-based learning model is trained using the color information included in the thermal image information, and the stereo image information obtained through the CCD camera is applied to the learned deep learning-based learning model. The method may include mapping the stereo image information with color information included in the thermal image information through deconvolution according to input.

상기 3차원 열화상 카메라 장치는, 제1 카메라 및 제2 카메라를 포함하는 복수 개의 CCD 카메라와 적어도 하나 이상의 열화상 카메라를 결합한 형태로 구성되는 것을 포함하고, 상기 생성하는 단계는, 상기 복수 개의 CCD 카메라를 이용하여 촬영된 스테레오 영상 정보로부터 산출된 객체의 거리 정보를 상기 열화상 이미지 정보에 매핑하여 3차원 열화상 영상 정보를 생성하는 단계를 포함할 수 있다. The three-dimensional thermal imaging camera device includes a combination of a plurality of CCD cameras including a first camera and a second camera and at least one thermal imaging camera, wherein the generating includes the plurality of CCDs The method may include generating 3D thermal image information by mapping object distance information calculated from stereo image information captured using a camera to the thermal image information.

상기 3차원 열화상 카메라 장치는, 제1 카메라 및 제2 카메라를 포함하는 복수 개의 CCD 카메라와 적어도 하나 이상의 열화상 카메라를 결합한 형태로 구성되는 것을 포함하고, 상기 생성하는 단계는, 상기 복수 개의 CCD 카메라와 상기 적어도 하나 이상의 열화상 카메라의 해상도가 동일할 경우, CCD 카메라 또는 열화상 카메라 중 두 개 이상의 카메라를 이용하여 획득된 스테레오 영상 정보로부터 산출된 객체의 거리 정보를 열화상 이미지 정보에 매핑하여 3차원 열화상 영상 정보를 생성하는 단계를 포함할 수 있다. The three-dimensional thermal imaging camera device includes a combination of a plurality of CCD cameras including a first camera and a second camera and at least one thermal imaging camera, wherein the generating includes the plurality of CCDs When the resolution of the camera and the at least one thermal imaging camera is the same, the distance information of the object calculated from the stereo image information obtained using two or more of a CCD camera or a thermal imaging camera is mapped to the thermal image information It may include generating 3D thermal image information.

컬러맵 표현 시스템은, 3차원 열화상 영상 정보를 획득하는 영상 획득부; 상기 획득된 3차원 열화상 영상 정보로부터 객체를 인식하기 위하여 학습된 딥러닝 기반의 학습 모델을 이용하여 객체들을 인식하는 객체 인식부; 상기 인식된 객체들 간의 온도 정보의 비교를 통해 이상치를 제거하는 이상치 제거부; 상기 이상치가 제거된 온도 정보에 기초하여 3차원 열화상 영상 정보에 대한 컬러맵을 조정하는 컬러맵 조정부; 및 상기 조정된 컬러맵에 기초하여 3차원 열화상 영상 정보를 보정하는 영상 보정부를 포함할 수 있다. The color map representation system includes: an image acquisition unit configured to acquire three-dimensional thermal image information; an object recognition unit for recognizing objects using a deep learning-based learning model learned to recognize objects from the obtained three-dimensional thermal image information; an outlier removal unit for removing an outlier through comparison of temperature information between the recognized objects; a color map adjusting unit that adjusts a color map for 3D thermal image information based on the temperature information from which the outlier is removed; and an image correction unit for correcting 3D thermal image information based on the adjusted color map.

상기 객체 인식부는, 상기 획득된 3차원 열화상 영상 정보에 포함된 RGB 데이터, 3차원 열화상 영상 정보가 지닌 적외선 센서값 및 측정 정보 메터데이터에 기초하여 상기 획득된 3차원 열화상 영상 정보를 온도 정보로 변환하고, 상기 온도 정보로 변환된 3차원 열화상 영상 정보에 기초하여 객체의 온도 정보를 추출할 수 있다. The object recognition unit is configured to convert the obtained 3D thermal image information based on RGB data included in the obtained 3D thermal image information, infrared sensor values of the 3D thermal image information, and measurement information metadata. information, and the temperature information of the object may be extracted based on the 3D thermal image information converted into the temperature information.

상기 객체 인식부는, 상기 온도 정보로 변환된 3차원 열화상 영상 정보에 대한 온도 분포를 히스토그램으로 나타내고, 상기 히스토그램을 통하여 나타낸 3차원 열화상 영상 정보의 온도 분포에 박스 플롯(Box plot)을 생성할 수 있다.The object recognition unit represents a temperature distribution for the three-dimensional thermal image information converted into the temperature information as a histogram, and generates a box plot on the temperature distribution of the three-dimensional thermal image information displayed through the histogram. can

상기 이상치 제거부는, 상기 3차원 열화상 영상 정보의 온도 분포에 대하여 생성된 박스 플롯을 통해 사분위 범위 밖에 존재하는 이상치를 제거하고, 상기 제거된 이상치를 사분위 범위 안의 최대값과 최소값으로 치환할 수 있다. The outlier removal unit removes an outlier existing outside the interquartile range through a box plot generated with respect to the temperature distribution of the three-dimensional thermal image information, and replaces the removed outlier with the maximum and minimum values within the interquartile range. can

상기 이상치 제거부는, 상기 사분위 범위 밖의 마진값을 설정하여 제1사분위와 제3사분위의 차이의 값에 상기 설정된 마진값을 곱하여 사분위 안의 최대값과 최소값을 계산할 수 있다. The outlier removing unit may set a margin value outside the quartile range and calculate a maximum value and a minimum value within the quartile by multiplying the difference value between the first quartile and the third quartile by the set margin value.

3차원 열화상 영상 정보로부터 인식된 객체들 간의 온도 정보가 특정 객체들의 온도 정보에 비해 너무 낮아서 컬러로 구분되기 힘들 때 자동적으로 이상치를 제거할 수 있다. When the temperature information between objects recognized from the 3D thermal image information is too low compared to the temperature information of specific objects, so that it is difficult to distinguish them by color, the outlier can be automatically removed.

또한, 이상치 온도 제거를 통한 3차원 열화상 영상 정보의 컬러맵을 조정함으로써 가시성 문제를 해결할 수 있다. In addition, the visibility problem can be solved by adjusting the color map of the 3D thermal image information through the removal of the outlier temperature.

또한, 극소부위 극단발열 상황에서 영상이 어두워져 분석이 어려웠던 문제점을 컬러맵 조정을 통해 3차원 열화상 영상 정보를 보정함으로써 영상의 품질을 향상시킬 수 있다. In addition, the image quality can be improved by correcting the 3D thermal image information through color map adjustment to solve the problem that the image was darkened and difficult to analyze in the case of extreme fever in a very small area.

도 1은 극단온도로 인한 적외선 이미지의 예이다.
도 2는 이미지에 대한 컬러맵을 조정하는 방법을 설명하기 위한 예이다.
도 3은 일 실시예에 따른 컬러맵 표현 시스템의 개괄적인 동작을 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 컬러맵 표현 시스템의 구성을 설명하기 위한 블록도이다.
도 5는 일 실시예에 따른 컬러맵 표현 시스템에서 수행되는 컬러맵 표현 방법을 설명하기 위한 흐름도이다.
도 6은 일 실시예에 따른 컬러맵 표현 시스템에서 3차원 열화상 영상 정보에 대한 온도 분포를 히스토그램으로 나타낸 예이다.
도 7은 일 실시예에 따른 컬러맵 표현 시스템에서 사분위 범위를 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 컬러맵 표현 시스템에서 박스 플롯을 나타낸 예이다.
도 9는 일 실시예에 따른 컬러맵 표현 시스템에서 3차원 열화상 영상 정보의 컬러맵을 조정한 예이다.
도 10은 일 실시예에 따른 컬러맵 표현 시스템에서 3차원 열화상 영상 정보를 생성하는 방법을 설명하기 위한 흐름도이다.
도 11 은 일 실시예에 따른 컬러맵 표현 시스템에서 3차원 열화상 영상 정보를 생성하는 것을 설명하기 위한 예이다.
도 12는 일 실시예에 따른 컬러맵 표현 시스템에서 3차원 열화상 영상 정보를 생성하는 것을 설명하기 위한 또 다른 예이다.
도 13은 일 실시예에 따른 컬러맵 표현 시스템의 딥러닝 기반의 학습 모델을 설명하기 위한 예이다.
1 is an example of an infrared image due to an extreme temperature.
2 is an example for explaining a method of adjusting a color map for an image.
3 is a diagram for explaining the general operation of a color map representation system according to an embodiment.
4 is a block diagram illustrating a configuration of a color map representation system according to an embodiment.
5 is a flowchart illustrating a color map expression method performed in a color map expression system according to an embodiment.
6 is an example illustrating a temperature distribution for 3D thermal image information as a histogram in the color map representation system according to an embodiment.
7 is a diagram for describing a quartile range in a color map representation system according to an embodiment.
8 is an example illustrating a box plot in a color map representation system according to an embodiment.
9 is an example of adjusting a color map of 3D thermal image information in the color map expression system according to an embodiment.
10 is a flowchart illustrating a method of generating 3D thermal image information in a color map representation system according to an exemplary embodiment.
11 is an example for explaining generation of 3D thermal image information in the color map representation system according to an embodiment.
12 is another example for explaining generation of 3D thermal image information in the color map representation system according to an embodiment.
13 is an example for explaining a deep learning-based learning model of a color map representation system according to an embodiment.

이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

도 3은 일 실시예에 따른 컬러맵 표현 시스템의 개괄적인 동작을 설명하기 위한 도면이다. 3 is a diagram for explaining the general operation of a color map representation system according to an embodiment.

컬러맵 표현 시스템은 3차원 열화상 영상 정보를 획득할 수 있다. 컬러맵 표현 시스템은 3차원 열화상 카메라를 이용하여 촬영된 3차원 열화상 카메라 영상 정보를 획득할 수 있다. 이때, 3차원 열화상 카메라는 3차원 열화상 카메라 영상 정보를 자체적으로 제공할 수 있고, 또는 적어도 하나 이상의 카메라를 이용하여 촬영된 영상 정보에 영상 처리 기술이 수행됨으로써 3차원 열화상 카메라 영상 정보를 제공할 수 있다. 도 10을 참고하면, 3차원 열화상 카메라 영상 정보를 생성하는 방법을 설명하기 위한 흐름도이다. 3차원 열화상 카메라는 열화상 카메라를 포함하는 적어도 하나 이상의 카메라를 이용하여 촬영되는 스테레오 영상 정보를 획득할 수 있고(1010), 획득된 스테레오 영상 정보에 기초하여 객체의 거리 정보를 산출하고(1020), 산출된 객체의 거리 정보 또는 획득된 스테레오 영상 정보를 열화상 이미지 정보와 매핑하여 3차원 열화상 카메라 영상을 생성할 수 있다(1030).The color map representation system may acquire 3D thermal image information. The color map expression system may acquire image information of a 3D thermal imaging camera photographed using a 3D thermal imaging camera. At this time, the 3D thermal imaging camera may provide the 3D thermal imaging camera image information by itself, or by performing image processing technology on the image information photographed using at least one camera, the 3D thermal imaging camera image information can provide Referring to FIG. 10 , it is a flowchart illustrating a method of generating image information of a 3D thermal imaging camera. The three-dimensional thermal imaging camera may acquire stereo image information photographed using at least one or more cameras including a thermal imaging camera (1010), and calculate distance information of an object based on the obtained stereo image information (1020) ), the calculated distance information of the object or the obtained stereo image information may be mapped with thermal image information to generate a 3D thermal camera image ( 1030 ).

도 11은 3차원 열화상 영상 정보를 생성하는 것을 설명하기 위한 예이다. 3차원 열화상 카메라 장치는 복수 개의 카메라(1110, 1111)를 사용하여 촬영함에 따라 스테레오 영상 정보를 획득할 수 있다. 이때, 서로 다른 종류 또는 동일한 종류의 복수 개의 카메라가 사용될 수 있다. 예를 들면, 3차원 열화상 카메라 장치는 복수 개의 CCD 카메라와 적어도 하나 이상의 열화상 카메라를 결합된 형태로 구성될 수 있다. 3차원 열화상 카메라 장치는 복수 개의 CCD 카메라 (모듈) 및 적어도 하나 이상의 열화상 카메라를 포함할 수 있다. 11 is an example for explaining generation of 3D thermal image information. The 3D thermal imaging camera apparatus may acquire stereo image information by photographing using the plurality of cameras 1110 and 1111 . In this case, different types or a plurality of cameras of the same type may be used. For example, the 3D thermal imaging camera device may be configured in a form in which a plurality of CCD cameras and at least one thermal imaging camera are combined. The 3D thermal imaging camera device may include a plurality of CCD cameras (modules) and at least one thermal imaging camera.

CCD 카메라란, 디지털 카메라의 하나로, 전하 결합 소자(CCD)를 사용하여 영상을 전기 신호로 변환함으로써 디지털 데이터로 플래시 메모리 등의 기억 매체에 저장하는 장치이다. CCD 카메라는 화질이 좋고 노이즈나 잔상처리 효과가 뛰어나다는 장점이 있다. 3차원 열화상 카메라 장치는 CCD 카메라로부터 획득된 스테레오 영상 정보의 데이터 형식을 YUV 또는 RGB 모드로 변환할 수 있다. 예를 들면, 3차원 열화상 카메라 장치에서 획득된 스테레오 영상 정보는 YCbCr 8비트에서 Y(휘도신호), C(색차신호) 각각 8비트로 출력하는 버퍼링(buffering)과 열화상 이미지 정보와 영상 데이터의 위치를 조정하기 위한 틸팅(tilting)을 거친 후 열화상 이미지 정보와 융합(fusion)될 수 있다. A CCD camera is a digital camera, and is a device that converts an image into an electric signal using a charge-coupled device (CCD), and stores digital data in a storage medium such as a flash memory. CCD cameras have the advantage of good image quality and excellent noise and afterimage processing effects. The 3D thermal imaging camera device may convert the data format of stereo image information obtained from the CCD camera into YUV or RGB mode. For example, the stereo image information obtained from the 3D thermal imaging camera device is buffered by outputting 8 bits of Y (luminance signal) and C (color difference signal) in YCbCr 8 bits, and thermal image information and image data. After tilting to adjust the position, it may be fused with the thermal image information.

열화상 카메라란, 객체(사물, 사람 등)의 온도를 측정하는 카메라 장치이다. 열화상 카메라는 카메라를 객체에 접촉시키지 않아도 카메라 렌즈를 통해 비친 객체의 온도를 색상 이미지로 나타낼 수 있다. 이때, 열화상 카메라에 적외선 센서가 존재할 수 있다. 열화상 카메라는 객체가 절대 영도 이상의 적외선을 방사하는데, 이때, 적외선 파장 대역이 공기 중에 전달됨으로써 열손실이 최소화된 복사 에너지가 열화상 카메라의 디텍터로 전달되고, 디텍터에서 전기적 신호로 바뀌어 객체의 온도를 색상 이미지로 변환시킬 수 있다. 열화상 카메라는 적외선 센서 안의 열분해능 기능을 통해 객체의 온도 높낮이를 표시할 수 있다. 예를 들면, 열화상 카메라는 객체의 온도가 기 설정된 기준 이상일 경우 흰색 또는 노란색으로 표시하고, 온도가 낮아질수록 주황색, 붉은색을 거쳐 매우 낮은 부위는 보라색이나 검은색으로 표시할 수 있다. 예를 들면, 열화상 카메라에서 촬영된 열화상 이미지 정보는 샘플링 및 데이터 변환을 거쳐 온도 값에 해당하는 화상으로 변환하여 열화상 이미지 정보를 생성하게 되는데, 상세하게는 적외선 카메라로부터 출력되어 8bit로 두 번 입력되는 raw 데이터를 14bit 데이터로 변환하는 샘플링(sampling), 열화상의 각 픽셀(pixel)의 불균일한 값을 보정하는 NUC(non-uniformity correction), 데드 픽셀 주변의 정상 픽셀을 이용하여 보정하는 DPC(dead pixel correction), NR(noise reduction), 14bit 데이터를 8bit 데이터로 변환하는 BIT 변환, 디지털 줌으로 2배 확대하는 Upscale 및 흑백의 열화상 이미지에 온도 값에 해당하는 색을 입혀주는 Color Palette를 거친 후, 마찬가지로 Y(휘도신호), C(색차신호) 각각 8비트로 변환되어 변환된 스테레오 영상 정보와 융합하게 된다. A thermal imaging camera is a camera device that measures the temperature of an object (object, person, etc.). The thermal imaging camera can represent the temperature of the object reflected through the camera lens as a color image without bringing the camera into contact with the object. In this case, an infrared sensor may be present in the thermal imaging camera. In a thermal imaging camera, an object emits infrared rays above absolute zero. At this time, the infrared wavelength band is transmitted in the air, so radiant energy with minimized heat loss is transmitted to the thermal imaging camera detector, and the detector is converted into an electrical signal to change the temperature of the object. can be converted to a color image. A thermal imaging camera can display the temperature elevation of an object through the thermal resolution function in the infrared sensor. For example, the thermal imaging camera may display white or yellow when the temperature of an object is higher than or equal to a preset standard, and as the temperature decreases, go through orange and red, and display a very low area in purple or black. For example, thermal image information captured by a thermal imaging camera is converted into an image corresponding to a temperature value through sampling and data conversion to generate thermal image information. Sampling that converts the raw data input once into 14-bit data, NUC (non-uniformity correction) that corrects the non-uniform value of each pixel of the thermal image, and DPC that corrects using normal pixels around the dead pixel (dead pixel correction), NR (noise reduction), BIT conversion that converts 14-bit data to 8-bit data, Upscale that magnifies 2 times with digital zoom, and Color Palette that applies color corresponding to temperature to black and white thermal image After roughing, Y (luminance signal) and C (color difference signal) are converted into 8 bits each and fused with the converted stereo image information.

3차원 열화상 카메라 장치는 산출된 객체의 거리 정보 또는 획득된 스테레오 영상 정보를 열화상 이미지 정보와 매핑하여 3차원 열화상 카메라 영상을 생성할 수 있다. 이때, 깊이 정보가 획득 가능한 스테레오 영상 정보를 획득할 수 있다.The 3D thermal imaging camera apparatus may generate a 3D thermal imaging camera image by mapping the calculated distance information of the object or the acquired stereo image information with thermal image information. In this case, stereo image information from which depth information can be acquired may be acquired.

구체적으로, 도 11을 참고하면, 3차원 열화상 카메라 장치는 열화상 카메라를 포함하는 적어도 하나 이상의 카메라를 이용하여 촬영되는 스테레오 영상 정보를 획득할 수 있다. 일례로, 3차원 열화상 카메라 장치는 제1 카메라 및 제2 카메라를 포함하는 복수 개의 CCD 카메라와 열화상 카메라가 결합된 형태로 구성될 수 있다. 이때, CCD 카메라에서 제1 카메라는 왼쪽, 제2 카메라는 오른쪽을 촬영할 수 있다. 왼쪽을 촬영한 스테레오 영상 정보 및 오른쪽을 촬영한 스테레오 영상 정보를 획득할 수 있다. 또는, 제1 카메라 및 제2 카메라는 왼쪽 및 오른쪽뿐만 아니라, 위쪽 및 아래쪽을 촬영할 수도 있다. Specifically, referring to FIG. 11 , the 3D thermal imaging camera apparatus may acquire stereo image information captured by using at least one camera including a thermal imaging camera. For example, the 3D thermal imaging camera device may be configured in a form in which a plurality of CCD cameras including a first camera and a second camera and a thermal imaging camera are combined. In this case, in the CCD camera, the first camera may photograph the left side and the second camera may photograph the right side. Stereo image information photographed on the left and stereo image information photographed on the right may be acquired. Alternatively, the first camera and the second camera may photograph the upper and lower sides as well as the left and right.

3차원 열화상 카메라 장치는 복수 개의 CCD 카메라와 적어도 하나 이상의 열화상 카메라가 해상도가 동일한지 여부를 판단할 수 있다. 3차원 열화상 카메라 장치는 복수 개의 CCD 카메라와 열화상 카메라의 해상도가 동일할 경우, CCD 카메라 또는 열화상 카메라 중 두 개 이상의 카메라를 이용하여 획득된 스테레오 영상 정보로부터 산출된 객체의 거리 정보를 열화상 이미지 정보에 매핑하여 3차원 열화상 영상 정보를 생성할 수 있다. 예를 들면, 3차원 열화상 카메라 장치는 복수 개의 열화상 카메라를 이용하여 촬영된 스테레오 영상 정보를 획득할 수 있다. 또는, 3차원 열화상 카메라 장치는 열화상 카메라와 CCD 카메라를 이용하여 촬영된 스테레오 영상 정보를 획득할 수 있다. 또는, 3차원 열화상 카메라 장치는 복수 개의 CCD 카메라를 이용하여 촬영된 스테레오 영상 정보를 획득할 수 있다. 3차원 열화상 카메라 장치는 획득된 스테레오 영상 정보에 기초하여 객체의 거리 정보를 산출하고, 산출된 객체의 거리 정보 또는 획득된 스테레오 영상 정보를 열화상 이미지 정보와 매핑하여 3차원 열화상 카메라 영상을 생성할 수 있다. The 3D thermal imaging camera apparatus may determine whether resolutions of a plurality of CCD cameras and at least one thermal imaging camera are the same. When the resolution of the plurality of CCD cameras and the thermal imaging camera is the same, the 3D thermal imaging camera device may display object distance information calculated from stereo image information obtained using two or more of the CCD camera or the thermal imaging camera. It is possible to generate 3D thermal image information by mapping the image information. For example, the 3D thermal imaging camera apparatus may acquire stereo image information photographed using a plurality of thermal imaging cameras. Alternatively, the 3D thermal imaging camera apparatus may acquire stereo image information photographed using a thermal imaging camera and a CCD camera. Alternatively, the 3D thermal imaging camera apparatus may acquire stereo image information photographed using a plurality of CCD cameras. The three-dimensional thermal imaging camera device calculates distance information of an object based on the obtained stereo image information, and maps the calculated distance information of the object or the obtained stereo image information with thermal image information to obtain a three-dimensional thermal imaging camera image can create

다음과 같이, 3차원 열화상 카메라 장치는 스테레오 영상 정보로부터 객체의 거리 정보를 산출할 수 있다. 3차원 열화상 카메라 장치는 각각의 CCD 카메라/열화상 카메라의 렌즈의 방사왜곡과 접선왜곡을 제거할 수 있다. 3차원 열화상 카메라 장치는 두 대의 카메라 사이의 각도와 거리를 조절할 수 있다. 3차원 열화상 카메라 장치는 왼쪽 스테레오 영상 정보와 오른쪽 스테레오 영상 정보에서 동일한 특징을 가지는 대응점을 검출하고, 검출된 대응점을 통해 시차 지도를 도출할 수 있다. 3차원 열화상 카메라 장치는 카메라가 놓여있는 상태를 기반으로 삼각법을 이용하여 시차 지도를 거리 정보로 환산할 수 있다. 이러한 과정을 재투영이라고 하며, 이를 통해 깊이 지도를 획득할 수 있다. 3차원 열화상 카메라 장치는 복수 개의 카메라를 통하여 획득된 스테레오 영상 정보에 대한 스테레오 조정을 실시할 수 있다. 예를 들면, 두 대의 카메라에서 영상 평면을 재투영하여 동일한 평면에 위치하도록 생성하고, 영상의 행들이 정확한 정면 평행한 구성으로 정렬되도록 생성할 수 있다. As follows, the 3D thermal imaging camera apparatus may calculate distance information of an object from stereo image information. The three-dimensional thermal imaging camera apparatus can remove radial distortion and tangential distortion of lenses of each CCD camera/thermal imaging camera. The 3D thermal imaging camera device can adjust the angle and distance between two cameras. The 3D thermal imaging camera device may detect a corresponding point having the same characteristics in the left stereo image information and the right stereo image information, and derive a disparity map through the detected corresponding point. The 3D thermal imaging camera device may convert a parallax map into distance information using trigonometry based on a state in which the camera is placed. This process is called re-projection, and through this, a depth map can be obtained. The 3D thermal imaging camera apparatus may perform stereo adjustment on stereo image information obtained through a plurality of cameras. For example, two cameras can re-project the image plane and create it to be positioned on the same plane, and the rows of images to be created to be aligned in a precise front-parallel configuration.

3차원 열화상 카메라 장치는 3차원 공간에서 어느 한 지점의 깊이는 그 지점에 대한 좌우 카메라 간의 격차에 반비례한다는 스테레오 기하 방정을 이용할 수 있다. 3차원 열화상 카메라 장치는 두 대의 카메라를 캘리브레이션하면, 객체까지의 거리를 알아내는 객체를 다시 공식화하여 그 지점에 대해 좌우 카메라가 캡쳐한 동시 이미지 간의 격차를 알아낼 수 있다. The 3D thermal imaging camera apparatus may use a stereo geometric equation that the depth of a point in 3D space is inversely proportional to the gap between the left and right cameras for the point. When the 3D thermal imaging camera device calibrates two cameras, it is possible to find the difference between the simultaneous images captured by the left and right cameras for that point by re-formulating the object that finds the distance to the object.

3차원 열화상 카메라 장치는 열화상 카메라를 이용하여 촬영된 열화상 이미지 정보에 스테레오 영상 정보로부터 산출된 객체의 거리 정보를 매핑시킬 수 있다. 사전에, 3차원 열화상 카메라 장치는 CCD 카메라와 열화상 카메라의 기본 설정 정보를 동일하게 동기화 해놓음으로써 별도의 데이터 동기화 과정 없이 매핑시킬 수 있다. 또는, 3차원 열화상 카메라 장치는 CCD 카메라와 열화상 카메라 각각으로부터 획득된 영상 정보의 데이터 형식을 동기화한 후, 매핑시킬 수 있다. 3차원 열화상 카메라 장치는 열화상 이미지 정보에 객체의 거리 정보를 매핑함으로써 3차원 열화상 카메라 영상을 생성할 수 있다. The 3D thermal imaging camera apparatus may map object distance information calculated from stereo image information to thermal image information captured by using the thermal imaging camera. In advance, the 3D thermal imaging camera apparatus may be mapped without a separate data synchronization process by synchronizing the basic setting information of the CCD camera and the thermal imaging camera in the same way. Alternatively, the 3D thermal imaging camera apparatus may synchronize data formats of the image information obtained from each of the CCD camera and the thermal imaging camera and then map them. The 3D thermal imaging camera apparatus may generate a 3D thermal imaging camera image by mapping object distance information to thermal image information.

도 11에 도시된 바와 같이, 3차원 열화상 카메라 장치는 각각의 객체로부터 카메라까지의 거리를 수치로 표시할 수 있다. 3차원 열화상 카메라 장치는 획득된 스테레오 영상 정보에서 선택된 객체로부터 카메라까지의 거리 정보를 산출할 수 있고, 산출된 거리 정보를 3차원 열화상 영상에 표시할 수 있다. 예를 들면, 사용자는 3차원 열화상 영상으로부터 거리 정보를 획득하고자 하는 객체를 선택할 수 있다. 3차원 열화상 카메라 장치는 사용자로부터 선택된 객체와 카메라까지의 거리 정보를 산출하여 3차원 열화상 영상에 표시할 수 있다. 또한, 3차원 열화상 카메라 장치는 각각의 객체에 대한 온도 정보를 표시할 수도 있다. 11 , the 3D thermal imaging camera apparatus may numerically display the distance from each object to the camera. The 3D thermal imaging camera apparatus may calculate distance information from the selected object to the camera from the obtained stereo image information, and may display the calculated distance information on the 3D thermal image. For example, the user may select an object for which distance information is to be obtained from the 3D thermal image. The 3D thermal imaging camera apparatus may calculate distance information between the object selected by the user and the camera and display the calculated distance information on the 3D thermal imaging image. In addition, the 3D thermal imaging camera device may display temperature information for each object.

도 12를 참고하면, 3차원 열화상 영상 정보를 생성하는 것을 설명하기 위한 또 다른 예이다. 3차원 열화상 카메라 장치는 열화상 카메라를 포함하는 적어도 하나 이상의 카메라를 이용하여 촬영되는 스테레오 영상 정보를 획득할 수 있다. 3차원 열화상 카메라 장치는 제1 카메라 및 제2 카메라를 포함하는 복수 개의 CCD 카메라와 열화상 카메라가 결합된 형태로 구성될 수 있다. 이때, CCD 카메라에서 제1 카메라는 왼쪽, 제2 카메라는 오른쪽을 촬영할 수 있다. 왼쪽을 촬영한 스테레오 영상 정보 및 오른쪽을 촬영한 스테레오 영상 정보를 획득할 수 있다. 또는, 제1 카메라 및 제2 카메라는 왼쪽 및 오른쪽뿐만 아니라, 위쪽 및 아래쪽을 촬영할 수도 있다. Referring to FIG. 12 , it is another example for explaining generation of 3D thermal image information. The 3D thermal imaging camera apparatus may acquire stereo image information photographed using at least one camera including a thermal imaging camera. The 3D thermal imaging camera device may be configured in a form in which a plurality of CCD cameras including a first camera and a second camera and a thermal imaging camera are combined. In this case, in the CCD camera, the first camera may photograph the left side and the second camera may photograph the right side. Stereo image information photographed on the left and stereo image information photographed on the right may be acquired. Alternatively, the first camera and the second camera may photograph the upper and lower sides as well as the left and right.

3차원 열화상 카메라 장치는 복수 개의 CCD 카메라를 이용하여 촬영된 스테레오 영상 정보를 열화상 카메라를 이용하여 촬영된 열화상 이미지 정보와 매핑하여 3차원 열화상 카메라 영상을 생성할 수 있다. 이에, 3차원 열화상 카메라 장치는 열화상 카메라의 해상도가 낮은 단점을 극복할 수 있다. 도 12에 도시된 바와 같이, 예를 들면, 사용자의 머리 부분을 열화상 카메라로 촬영함에 따라 열화상 이미지 정보가 획득될 수 있다.The 3D thermal imaging camera apparatus may generate a 3D thermal imaging camera image by mapping stereo image information photographed using a plurality of CCD cameras with thermal image information photographed using the thermal imaging camera. Accordingly, the 3D thermal imaging camera apparatus can overcome the disadvantage of the low resolution of the thermal imaging camera. As shown in FIG. 12 , for example, thermal image information may be acquired by photographing a user's head with a thermal imaging camera.

구체적으로, 도 13을 참고하면, 3차원 열화상 카메라 장치는 3차원 열화상 카메라 장치는 딥러닝 기반의 학습 모델(500)에서 컨볼루션을 디컨볼루션하는 방식으로 고해상도의 스테레오 영상 정보에 열화상 이미지 정보를 매핑할 수 있다. 3차원 열화상 카메라 장치는 열화상 이미지 정보를 딥러닝 기반의 학습 모델에서 컨볼루션(convolution) 후 풀링(pooling)된 영상으로 간주하기로 한다. 3차원 열화상 카메라 장치는 딥러닝 기반의 학습 모델(500)에서 컨볼루션 후 풀링된 영상(즉, 열화상 이미지 정보)을 딥러닝 기반의 학습 모델(500)을 통해 디컨볼루션할 수 있다. 예를 들면, 3차원 열화상 카메라 장치는 열화상 이미지 정보에 포함된 컬러 정보(온도 분포)를 이용하여 학습 모델(500)을 학습시킬 수 있다. 3차원 열화상 카메라 장치는 CCD 카메라를 통해 획득된 스테레오 영상 정보를 학습 모델(500)에 입력함에 따라 디컨볼루션을 통해 열화상 이미지 정보에 포함된 컬러 정보가 매핑될 수 있다. 3차원 열화상 카메라 장치는 스테레오 영상 정보를 열화상 이미지 정보의 컬러 정보와 매핑하여 3차원 열화상 영상으로 생성할 수 있다. 이때, 딥러닝 기반의 학습 모델(500)은, CNN 또는 GAN(생성적 대립 신경망) 기반으로 구성될 수 있다. 일반적으로 딥러닝 기반의 학습 모델(500)에 입력 데이터를 입력하고, 입력 데이터에 대한 컨볼루션, 풀링을 반복하여 수행함으로써 특징 데이터를 획득할 수 있다. 이때, 실시예에서 제안하는 딥러닝 기반의 학습 모델에 컨볼루션, 풀링 레이어뿐만 디컨볼루션하기 위한 디컨볼루션 레이어를 포함하는 형태로 구성될 수 있다. Specifically, referring to FIG. 13 , the three-dimensional thermal imaging camera device deconvolves the convolution in the deep learning-based learning model 500 to convert the thermal image to high-resolution stereo image information. Image information can be mapped. The 3D thermal imaging camera device considers thermal image information as a pooled image after convolution in a deep learning-based learning model. The 3D thermal imaging camera device may deconvolve the pooled image (ie, thermal image information) after convolution in the deep learning-based learning model 500 through the deep learning-based learning model 500 . For example, the 3D thermal imaging camera apparatus may train the learning model 500 using color information (temperature distribution) included in thermal image information. As the 3D thermal imaging camera apparatus inputs stereo image information obtained through the CCD camera into the learning model 500, color information included in the thermal image information may be mapped through deconvolution. The 3D thermal imaging camera apparatus may generate a 3D thermal image by mapping the stereo image information with color information of the thermal image information. In this case, the deep learning-based learning model 500 may be configured based on CNN or GAN (Generative Alternative Neural Network). In general, the feature data can be obtained by inputting input data to the deep learning-based learning model 500 and repeatedly performing convolution and pooling on the input data. In this case, the deep learning-based learning model proposed in the embodiment may be configured in a form including a deconvolution layer for deconvolution as well as a convolution and pooling layer.

CNN(콘볼루션 뉴럴 네트워크)이란 모델이 직접 이미지, 비디오, 텍스트 또는 사운드를 분류하는 머신 러닝의 한 유형으로 딥러닝에 가장 많이 사용되고 있다. 예를 들면, CNN은 적어도 하나 이상의 컨볼루션 레이어, 풀링 레이어, FC 레이어 및 소프트맥스로 구성될 수 있다. GAN이란, 생성 모델과 판별 모델이 경쟁하면서 실제와 가까운 이미지, 동영상, 음성 등을 자동으로 생성해내는 기계학습 방식 중 하나이다. 특정 분야의 실제 예제들을 제시하면 제시한 예제들에서 잘 드러나지 않는 공통점을 컴퓨터 프로그램이 학습하여 매우 정교한 위조품을 쉽고 빠르게 만들어 낼 수 있다. GAN은 확률 분포를 학습하는 생성모델과 서로 다른 집합을 구분하는 판별모델로 구성한다. 생성모델(또는 생성자)은 가짜 예제를 만들어 판별모델을 최대한 속일 수 있도록 훈련하고, 판별모델(또는 판별자)은 생성모델이 제시하는 가짜 예제와 실제 예제를 최대한 정확하게 구분할 수 있도록 훈련한다. 이와 같이 판별모델을 속일 수 있도록 생성모델을 훈련하는 방식을 대립적 프로세스라고 한다. GAN은 생성모델과 판별모델을 대립적 프로세스를 통해 발전시키는 과정으로 실제 예제와 매우 비슷한 유사품(실제 같은 가짜)을 생성한다. 동일한 분야에서 수집한 실제 예제들은 공통된 특징을 갖는다. 그러나 일반적으로 사람이 직접 분석하여 찾아내기는 어려워 통계적인 기법을 이용하여 컴퓨터가 자동으로 공통된 특징을 찾도록 한다. 특히 사람이 찾기 어려운 공통된 특징을 잘 찾는 기계학습 방법 중 하나가 심층 신경망이기 때문에 심층 신경망을 이용하여 GAN을 구현한다.A convolutional neural network (CNN) is a type of machine learning in which a model directly classifies an image, video, text, or sound, and is most often used in deep learning. For example, a CNN may be composed of at least one or more convolutional layers, pooling layers, FC layers, and softmax. GAN is one of the machine learning methods that automatically generate images, videos, and voices that are close to reality while a generative model and a discriminant model compete. If real examples in a specific field are presented, the computer program learns the commonalities that are not well revealed in the presented examples, so that very sophisticated counterfeits can be easily and quickly created. GAN consists of a generative model that learns probability distribution and a discriminant model that distinguishes different sets. The generative model (or generator) is trained to deceive the discriminant model as much as possible by making fake examples, and the discriminant model (or discriminant) is trained to distinguish the fake examples presented by the generative model from the real examples as accurately as possible. This method of training a generative model to deceive the discriminant model is called an adversarial process. GAN is the process of developing a generative model and a discriminant model through an antagonistic process, and it creates a similar product (a fake that looks like the real thing) that is very similar to the real example. Practical examples collected from the same field have common characteristics. However, in general, it is difficult for a person to directly analyze and find, so a computer automatically finds common features using statistical techniques. In particular, since one of the machine learning methods to find common features that are difficult for humans to find is a deep neural network, a deep neural network is used to implement a GAN.

컬러맵 표현 시스템은 3차원 열화상 영상 정보로부터 객체를 인식하기 위하여 학습된 딥러닝 기반의 학습 모델을 이용하여 객체들을 인식할 수 있다. 컬러맵 표현 시스템은 획득된 3차원 열화상 영상 정보에 포함된 RGB 데이터, 3차원 열화상 영상 정보가 지닌 적외선 센서값 및 측정 정보 메터데이터에 기초하여 획득된 3차원 열화상 영상 정보를 온도 정보로 변환할 수 있다. 컬러맵 표현 시스템은 온도 정보로 변환된 3차원 열화상 영상 정보에 기초하여 객체의 온도 정보를 추출할 수 있다. 이때, 컬러맵 표현 시스템은 객체를 인식하기 위하여 학습된 딥러닝 기반의 학습 모델을 이용하여 획득된 3차원 열화상 영상 정보로부터 객체들을 인식할 수 있다. 컬러맵 표현 시스템은 객체를 인식하기 위한 데이터 셋을 이용하여 딥러닝 기반의 학습 모델을 학습시킬 수 있다. 이때, 데이터 셋은 객체를 인식하기 위한 영상 정보(예를 들면, 이미지, 영상, 열화상 이미지, 열화상 영상 등)일 수 있다. 딥러닝 기반의 학습 모델은 CNN, RNN 등 다양한 형태로 구성될 수 있다. 예를 들면, 컬러맵 표현 시스템은 객체의 온도 정보를 추출할 수 있고, 또는, 픽셀마다의 온도 정보를 추출할 수도 있다. The color map expression system may recognize objects using a deep learning-based learning model learned to recognize objects from 3D thermal image information. The color map expression system converts the 3D thermal image information obtained based on the RGB data included in the acquired 3D thermal image information, the infrared sensor value of the 3D thermal image information, and the measurement information metadata into temperature information. can be converted The color map expression system may extract temperature information of an object based on 3D thermal image information converted into temperature information. In this case, the color map expression system may recognize objects from 3D thermal image information obtained using a deep learning-based learning model learned to recognize objects. The color map representation system can train a deep learning-based learning model using a data set for recognizing an object. In this case, the data set may be image information (eg, an image, an image, a thermal image, a thermal image, etc.) for recognizing an object. Deep learning-based learning models can be configured in various forms such as CNN and RNN. For example, the color map representation system may extract temperature information of an object, or may extract temperature information for each pixel.

컬러맵 표현 시스템은 추출된 온도 정보를 이용하여 이상치를 제거할 수 있다. 예를 들면, 컬러맵 표현 시스템은 인식된 객체들 간의 온도 정보의 비교를 통해 이상치를 제거할 수 있다. 컬러맵 표현 시스템은 인식들 객체들 간의 온도 정보를 비교함에 따라 인식된 객체들의 온도 정보가 특정 객체들에 비해 너무 낮아서 컬러로 구분되기 힘들 때, 이상치를 제거할 수 있다. 도 6을 참고하면, 컬러맵 표현 시스템은 3차원 열화상 영상 정보에 대한 온도 분포를 히스토그램으로 나타낼 수 있다. 예를 들면, 컬러맵 표현 시스템은 추출된 픽셀마다의 온도 정보를 히스토그램으로 나타낼 수 있고, 또는, 추출된 객체의 온도 정보를 히스토그램으로 나타낼 수 있다. 도 6에 도시된 바와 같이, 온도 분포는 주로 0~30도 이내에 데이터가 몰려있는 것을 확인할 수 있다. 도 8을 참고하면, 컬러맵 표현 시스템은 히스토그램을 통하여 나타낸 3차원 열화상 영상 정보의 온도 분포에 박스 플롯(Box plot)을 생성할 수 있다. 박스 플롯은 그룹 간의 비교나 이상치 검출 등에 사용될 수 있다. 예를 들면, 박스 플롯은 제1 사분위수, 제2 사분위수, 제3 사분위 수를 찾아 상자 모양을 그리고, 제1 사분위수와 제3 사분위수 간 거리의 1.5배 길이의 선을 양쪽으로 그리고, 최소점과 최고점을 찾아 막대를 그린다. 박스와 각 최고점과 최소점을 점선으로 연결시키고, 나머지 자료들을 동그라미 점으로 표시할 수 있다. 도 8에 도시된 바와 같이, 이상치들은 30도 밖에 위치한 것을 확인할 수 있다. 이에, 컬러맵 표현 시스템은 3차원 영상 정보에서 모든 기기에서 보일 수 있는 사분위 범위(IQR, Interquartile range) 밖의 값들을 사분위 안의 최대값과 최소값으로 치환할 수 있다. 도 7을 참고하면, 사분위 범위를 설명하기 위한 도면이다. 사분위수(quartile)란 자료를 동일한 비율로 4등분 할 때의 세 위치(25%, 50%, 75%)를 의미한다. 제1사분위수(Q1)은 25%지점, 제2사분위수(Q2)는 50%지점, 제3사분위수(Q3)는 75%지점을 의미하며, 사분위 범위는 제3사분위수에서 제1사분위수를 감산한 범위를 의미한다. 컬러맵 표현 시스템은 3차원 열화상 영상 정보의 온도 분포에 대하여 생성된 박스 플롯을 통해 사분위 범위 밖에 존재하는 이상치를 제거하고, 제거된 이상치를 사분위 범위 안의 최대값과 최소값으로 치환할 수 있다. 이때, 컬러맵 표현 시스템은 사분위 범위 밖의 마진값

Figure 112020060391757-pat00001
을 설정하여 제1사분위와 제3사분위의 차이의 값에 설정된 마진값을 곱하여 사분위 안의 최대값과 최소값을 계산할 수 있다. 예를 들면, 처음의 마진값은 1.5라는 이상치를 제거하는 기본의 사분위 범위 방식이 기본 수치로 설정되어 있을 수 있다. The color map representation system may remove outliers by using the extracted temperature information. For example, the color map representation system may remove outliers through comparison of temperature information between recognized objects. As the color map representation system compares the temperature information between the recognition objects, when the temperature information of the recognized objects is too low compared to specific objects to be difficult to distinguish by color, the outlier may be removed. Referring to FIG. 6 , the color map representation system may represent a temperature distribution for 3D thermal image information as a histogram. For example, the color map representation system may represent the extracted temperature information for each pixel as a histogram, or may represent the extracted temperature information of the object as a histogram. As shown in FIG. 6 , it can be confirmed that the data is mainly concentrated within 0 to 30 degrees of the temperature distribution. Referring to FIG. 8 , the color map expression system may generate a box plot on the temperature distribution of 3D thermal image information displayed through a histogram. Box plots can be used for comparison between groups or for detecting outliers. For example, a boxplot finds the first, second, and third quartiles, draws a box shape, draws a line 1.5 times the distance between the first and third quartiles on both sides, and , find the minimum and maximum points and draw a bar. You can connect the box and each peak and minimum with a dotted line, and mark the rest of the data with a circled dot. As shown in FIG. 8 , it can be confirmed that the outliers are located outside of 30 degrees. Accordingly, the color map representation system can replace the values outside the interquartile range (IQR) that can be seen in all devices in the 3D image information with the maximum value and the minimum value within the quartile. Referring to FIG. 7 , it is a diagram for explaining a quartile range. A quartile means three positions (25%, 50%, 75%) when data is divided into equal parts. The first quartile (Q1) means 25% points, the second quartile (Q2) means 50% points, and the third quartile (Q3) means 75% points, and the quartile range is from the 3rd quartile to the 1st quartile. It means the range minus the quartile. The color map representation system removes outliers outside the interquartile range through the box plot generated for the temperature distribution of 3D thermal image information, and replaces the removed outliers with the maximum and minimum values within the interquartile range. . At this time, the color map representation system is a margin value outside the interquartile range.
Figure 112020060391757-pat00001
By setting , the maximum value and minimum value within the quartile can be calculated by multiplying the value of the difference between the first quartile and the third quartile by the set margin value. For example, an initial margin value of 1.5 may be set as a default value using a basic interquartile range method that removes an outlier.

도 9를 참고하면, 3차원 열화상 영상 정보의 컬러맵을 조정한 예이다. 컬러맵 표현 시스템은 이상치가 제거된 온도 정보에 기초하여 3차원 열화상 영상 정보에 대한 컬러맵을 조정할 수 있다. 예를 들면, 컬러맵 표현 시스템은 이상치가 제거된 온도 정보에 기초하여 온도값들을 0부터 255의 픽셀값으로 표준화(Normalization) 작업을 할 수 있다. 이때, Min-Max알고리즘을 통하여 표준화 작업이 수행될 수 있다. 또한, 컬러맵 표현 시스템은 표준화, 정규화(standardization) 작업을 수행할 수 있다. 컬러맵 표현 시스템은 조정된 컬러맵에 기초하여 3차원 열화상 영상 정보를 보정할 수 있다. Referring to FIG. 9 , it is an example of adjusting the color map of 3D thermal image information. The color map expression system may adjust the color map for the 3D thermal image information based on the temperature information from which the outlier is removed. For example, the color map representation system may normalize temperature values into pixel values of 0 to 255 based on temperature information from which outliers are removed. In this case, standardization may be performed through the Min-Max algorithm. Also, the color map expression system may perform standardization and normalization operations. The color map representation system may correct 3D thermal image information based on the adjusted color map.

도 4는 일 실시예에 따른 컬러맵 표현 시스템의 구성을 설명하기 위한 블록도이고, 도 5는 일 실시예에 따른 컬러맵 표현 시스템에서 수행되는 컬러맵 표현 방법을 설명하기 위한 흐름도이다.4 is a block diagram for explaining the configuration of a color map representation system according to an embodiment, and FIG. 5 is a flowchart for explaining a color map representation method performed in the color map representation system according to an embodiment.

컬러맵 표현 시스템(100)은 영상 획득부(410), 객체 인식부(420), 이상치 제거부(430), 컬러맵 조정부(440) 및 영상 보정부(450)를 포함할 수 있다. 이러한 컬러맵 표현 시스템(100)의 구성요소들은 컬러맵 표현 시스템(100)에 저장된 프로그램 코드가 제공하는 명령에 따라 프로세서에 의해 수행되는 서로 다른 기능들(different functions)의 표현들일 수 있다. 컬러맵 표현 시스템(100) 및 컬러맵 표현 시스템(100)의 구성요소들은 도 5의 컬러맵 표현 방법이 포함하는 단계들(510 내지 550)을 수행하도록 컬러맵 표현 시스템(100)을 제어할 수 있다. 이때, 컬러맵 표현 시스템(100) 및 컬러맵 표현 시스템(100)의 구성요소들은 메모리가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다. The color map expression system 100 may include an image acquisition unit 410 , an object recognition unit 420 , an outlier removal unit 430 , a color map adjustment unit 440 , and an image correction unit 450 . The components of the color map representation system 100 may be representations of different functions performed by the processor according to instructions provided by the program code stored in the color map representation system 100 . The color map representation system 100 and components of the color map representation system 100 may control the color map representation system 100 to perform steps 510 to 550 included in the color map representation method of FIG. 5 . have. In this case, the color map representation system 100 and the components of the color map representation system 100 may be implemented to execute instructions according to the code of the operating system included in the memory and the code of at least one program.

프로세서는 컬러맵 표현 방법을 위한 프로그램의 파일에 저장된 프로그램 코드를 메모리에 로딩할 수 있다. 예를 들면, 컬러맵 표현 시스템(100)에서 프로그램이 실행되면, 프로세서는 운영체제의 제어에 따라 프로그램의 파일로부터 프로그램 코드를 메모리에 로딩하도록 컬러맵 표현 시스템을 제어할 수 있다. 이때, 컬러맵 표현 시스템(100) 및 컬러맵 표현 시스템(100)이 포함하는 영상 획득부(410), 객체 인식부(420), 이상치 제거부(430), 컬러맵 조정부(440) 및 영상 보정부(450) 각각은 메모리에 로딩된 프로그램 코드 중 대응하는 부분의 명령을 실행하여 이후 단계들(510 내지 550)을 실행하기 위한 컬러맵 표현 시스템(100)의 서로 다른 기능적 표현들일 수 있다. The processor may load the program code stored in the file of the program for the color map representation method into the memory. For example, when a program is executed in the color map representation system 100, the processor may control the color map representation system to load a program code from a file of the program into the memory according to the control of the operating system. In this case, the color map expression system 100 and the image acquisition unit 410, the object recognition unit 420, the outlier removal unit 430, the color map adjustment unit 440 and the image information included in the color map expression system 100 are included. Each of the governments 450 may be different functional representations of the color map representation system 100 for executing subsequent steps 510 to 550 by executing instructions of a corresponding portion of the program code loaded into the memory.

단계(510)에서 영상 획득부(410)는 3차원 열화상 영상 정보를 획득할 수 있다. 영상 획득부(410)는 열화상 카메라를 포함하는 적어도 하나 이상의 카메라를 이용하여 촬영되는 스테레오 영상 정보를 획득하고, 획득된 스테레오 영상 정보에 기초하여 객체의 거리 정보를 산출하고, 산출된 객체의 거리 정보 또는 상기 획득된 스테레오 영상 정보를 열화상 이미지 정보와 매핑하여 3차원 열화상 카메라 영상을 생성할 수 있다. 일례로, 3차원 열화상 카메라 장치는 제1 카메라 및 제2 카메라를 포함하는 복수 개의 CCD 카메라와 적어도 하나 이상의 열화상 카메라를 결합한 형태로 구성될 수 있다. 영상 획득부(410)는 복수 개의 CCD 카메라를 이용하여 촬영된 스테레오 영상 정보에 열화상 카메라를 이용하여 촬영된 열화상 이미지 정보와 매핑하고, 촬영된 열화상 이미지 정보를 딥러닝 기반의 학습 모델에서 컨볼루션(convolution) 후 풀링(pooling)된 영상으로 간주하고, 컨볼루션 후 풀링된 영상으로 간주된 열화상 이미지 정보를 딥러닝 기반의 학습 모델을 통해 디컨볼루션(de-convolution) 하여 3차원 열화상 영상을 생성할 수 있다. 영상 획득부(410)는 영상 열화상 이미지 정보에 포함된 컬러 정보를 이용하여 딥러닝 기반의 학습 모델을 학습시키고, CCD 카메라를 통해 획득된 스테레오 영상 정보를 학습된 딥러닝 기반의 학습 모델에 입력함에 따라 디컨볼루션을 통해 스테레오 영상 정보를 열화상 이미지 정보에 포함된 컬러 정보와 매핑시킬 수 있다. 다른 예로서, 3차원 열화상 카메라 장치는, 제1 카메라 및 제2 카메라를 포함하는 복수 개의 CCD 카메라와 적어도 하나 이상의 열화상 카메라를 결합한 형태로 구성될 수 있다. 영상 획득부(410)는 복수 개의 CCD 카메라를 이용하여 촬영된 스테레오 영상 정보로부터 산출된 객체의 거리 정보를 열화상 이미지 정보에 매핑하여 3차원 열화상 영상 정보를 생성할 수 있다. 또 다른 예로서, 3차원 열화상 카메라 장치는, 제1 카메라 및 제2 카메라를 포함하는 복수 개의 CCD 카메라와 적어도 하나 이상의 열화상 카메라를 결합한 형태로 구성될 수 있다. 영상 획득부(410)는 복수 개의 CCD 카메라와 적어도 하나 이상의 열화상 카메라의 해상도가 동일할 경우, CCD 카메라 또는 열화상 카메라 중 두 개 이상의 카메라를 이용하여 획득된 스테레오 영상 정보로부터 산출된 객체의 거리 정보를 열화상 이미지 정보에 매핑하여 3차원 열화상 영상 정보를 생성할 수 있다. In operation 510 , the image acquisition unit 410 may acquire 3D thermal image information. The image acquisition unit 410 acquires stereo image information photographed using at least one or more cameras including a thermal imaging camera, calculates distance information of an object based on the acquired stereo image information, and calculates the distance of the object Information or the obtained stereo image information may be mapped with thermal image information to generate a 3D thermal imaging camera image. For example, the 3D thermal imaging camera device may be configured in a form in which a plurality of CCD cameras including a first camera and a second camera and at least one thermal imaging camera are combined. The image acquisition unit 410 maps the stereo image information photographed using a plurality of CCD cameras with the thermal image image information photographed using the thermal imaging camera, and the photographed thermal image image information in a deep learning-based learning model. After convolution, the image is regarded as a pooled image, and the thermal image information that is considered as the pooled image after convolution is de-convolved through a deep learning-based learning model to form a three-dimensional column. Images can be created. The image acquisition unit 410 learns a deep learning-based learning model using color information included in the image thermal image information, and inputs the stereo image information acquired through the CCD camera to the learned deep learning-based learning model. Accordingly, stereo image information may be mapped with color information included in thermal image information through deconvolution. As another example, the 3D thermal imaging camera device may be configured in a form in which a plurality of CCD cameras including a first camera and a second camera and at least one thermal imaging camera are combined. The image acquisition unit 410 may generate 3D thermal image information by mapping object distance information calculated from stereo image information photographed using a plurality of CCD cameras to thermal image information. As another example, the 3D thermal imaging camera device may be configured in a form in which a plurality of CCD cameras including a first camera and a second camera and at least one thermal imaging camera are combined. When the resolution of the plurality of CCD cameras and the at least one thermal imaging camera are the same, the image acquisition unit 410 is a distance of an object calculated from stereo image information acquired using two or more of the CCD camera or the thermal imaging camera. The information may be mapped to the thermal image information to generate 3D thermal image information.

단계(520)에서 객체 인식부(420)는 획득된 3차원 열화상 영상 정보로부터 객체를 인식하기 위하여 학습된 딥러닝 기반의 학습 모델을 이용하여 객체들을 인식할 수 있다. 객체 인식부(420)는 획득된 3차원 열화상 영상 정보에 포함된 RGB 데이터, 3차원 열화상 영상 정보가 지닌 적외선 센서값 및 측정 정보 메터데이터에 기초하여 획득된 3차원 열화상 영상 정보를 온도 정보로 변환하고, 온도 정보로 변환된 3차원 열화상 영상 정보에 기초하여 객체의 온도 정보를 추출할 수 있다. 객체 인식부(420)는 온도 정보로 변환된 3차원 열화상 영상 정보에 대한 온도 분포를 히스토그램으로 나타내고, 히스토그램을 통하여 나타낸 3차원 열화상 영상 정보의 온도 분포에 박스 플롯(Box plot)을 생성할 수 있다.In operation 520 , the object recognition unit 420 may recognize objects using a deep learning-based learning model learned to recognize objects from the obtained 3D thermal image information. The object recognition unit 420 converts the 3D thermal image information obtained based on the RGB data included in the acquired 3D thermal image information, infrared sensor values of the 3D thermal image information, and measurement information metadata to the temperature. It is converted into information, and temperature information of an object may be extracted based on the 3D thermal image information converted into temperature information. The object recognition unit 420 represents the temperature distribution for the three-dimensional thermal image information converted into the temperature information as a histogram, and generates a box plot on the temperature distribution of the three-dimensional thermal image information displayed through the histogram. can

단계(530)에서 이상치 제거부(430)는 인식된 객체들 간의 온도 정보의 비교를 통해 이상치를 제거할 수 있다. 이상치 제거부(430)는 3차원 열화상 영상 정보의 온도 분포에 대하여 생성된 박스 플롯을 통해 사분위 범위 밖에 존재하는 이상치를 제거하고, 제거된 이상치를 사분위 범위 안의 최대값과 최소값으로 치환할 수 있다. 이상치 제거부(430)는 사분위 범위 밖의 마진값을 설정하여 제1사분위와 제3사분위의 차이의 값에 설정된 마진값을 곱하여 사분위 안의 최대값과 최소값을 계산할 수 있다. In operation 530, the outlier removal unit 430 may remove the outlier by comparing temperature information between the recognized objects. The outlier removal unit 430 removes outliers that exist outside the interquartile range through a box plot generated with respect to the temperature distribution of the 3D thermal image information, and replaces the removed outliers with the maximum and minimum values within the interquartile range. can The outlier removal unit 430 may set a margin value outside the quartile range, multiply the value of the difference between the first quartile and the third quartile by the set margin value, and calculate the maximum value and the minimum value within the quartile.

단계(540)에서 컬러맵 조정부(440)는 이상치가 제거된 온도 정보에 기초하여 3차원 열화상 영상 정보에 대한 컬러맵을 조정할 수 있다. In operation 540 , the color map adjuster 440 may adjust the color map for the 3D thermal image information based on the temperature information from which the outlier is removed.

단계(550)에서 영상 보정부(450)는 조정된 컬러맵에 기초하여 3차원 열화상 영상 정보를 보정할 수 있다.In operation 550 , the image correction unit 450 may correct 3D thermal image information based on the adjusted color map.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA). , a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. may be embodied in The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible from the above description by those skilled in the art. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (15)

컬러맵 표현 방법에 있어서,
3차원 열화상 영상 정보를 획득하는 단계;
상기 획득된 3차원 열화상 영상 정보로부터 객체를 인식하기 위하여 학습된 딥러닝 기반의 학습 모델을 이용하여 객체들을 인식하는 단계;
상기 인식된 객체들 간의 온도 정보의 비교를 통해 이상치를 제거하는 단계;
상기 이상치가 제거된 온도 정보에 기초하여 3차원 열화상 영상 정보에 대한 컬러맵을 조정하는 단계; 및
상기 조정된 컬러맵에 기초하여 3차원 열화상 영상 정보를 보정하는 단계
를 포함하고,
상기 이상치를 제거하는 단계는,
상기 3차원 열화상 영상 정보의 온도 분포에 대하여 생성된 박스 플롯을 통해 사분위 범위 밖에 존재하는 이상치를 제거하고, 상기 제거된 이상치를 사분위 범위 안의 최대값과 최소값으로 치환하는 단계
를 포함하는 컬러맵 표현 방법.
In the color map expression method,
obtaining 3D thermal image information;
recognizing objects using a deep learning-based learning model learned to recognize objects from the obtained three-dimensional thermal image information;
removing outliers through comparison of temperature information between the recognized objects;
adjusting a color map for 3D thermal image information based on the temperature information from which the outlier is removed; and
Compensating 3D thermal image information based on the adjusted color map
including,
The step of removing the outlier is,
removing outliers outside the interquartile range through a box plot generated with respect to the temperature distribution of the 3D thermal image information, and replacing the removed outliers with maximum and minimum values within the interquartile range
A colormap representation method that includes.
제1항에 있어서,
상기 객체를 인식하는 단계는,
상기 획득된 3차원 열화상 영상 정보에 포함된 RGB 데이터, 3차원 열화상 영상 정보가 지닌 적외선 센서값 및 측정 정보 메터데이터에 기초하여 상기 획득된 3차원 열화상 영상 정보를 온도 정보로 변환하고, 상기 온도 정보로 변환된 3차원 열화상 영상 정보에 기초하여 객체의 온도 정보를 추출하는 단계
를 포함하는 컬러맵 표현 방법.
According to claim 1,
Recognizing the object comprises:
Converting the obtained 3D thermal image information into temperature information based on the RGB data included in the obtained 3D thermal image information, infrared sensor values of the 3D thermal image information, and measurement information metadata, extracting temperature information of an object based on the three-dimensional thermal image information converted into the temperature information
A colormap representation method that includes.
제2항에 있어서,
상기 객체를 인식하는 단계는,
상기 온도 정보로 변환된 3차원 열화상 영상 정보에 대한 온도 분포를 히스토그램으로 나타내고, 상기 히스토그램을 통하여 나타낸 3차원 열화상 영상 정보의 온도 분포에 박스 플롯(Box plot)을 생성하는 단계
를 포함하는 컬러맵 표현 방법.
3. The method of claim 2,
Recognizing the object comprises:
A step of representing a temperature distribution for the three-dimensional thermal image information converted into the temperature information as a histogram, and generating a box plot on the temperature distribution of the three-dimensional thermal image information displayed through the histogram
A colormap representation method that includes.
삭제delete 제1항에 있어서,
상기 이상치를 제거하는 단계는,
상기 사분위 범위 밖의 마진값을 설정하여 제1사분위와 제3사분위의 차이의 값에 상기 설정된 마진값을 곱하여 사분위 안의 최대값과 최소값을 계산하는 단계
를 포함하는 컬러맵 표현 방법.
According to claim 1,
The step of removing the outlier is,
calculating a maximum value and a minimum value within the quartile by setting a margin value outside the quartile range and multiplying the difference value between the first quartile and the third quartile by the set margin value
A colormap representation method that includes.
제1항에 있어서,
상기 컬러맵 표현 방법은,
3차원 열화상 카메라 장치를 이용하여 3차원 열화상 영상 정보를 획득하는 것을 포함하고,
상기 3차원 열화상 영상 정보를 획득하는 단계는,
열화상 카메라를 포함하는 적어도 하나 이상의 카메라를 이용하여 촬영되는 스테레오 영상 정보를 획득하는 단계;
상기 획득된 스테레오 영상 정보에 기초하여 객체의 거리 정보를 산출하는 단계; 및
상기 산출된 객체의 거리 정보 또는 상기 획득된 스테레오 영상 정보를 열화상 이미지 정보와 매핑하여 3차원 열화상 카메라 영상을 생성하는 단계
를 포함하는 컬러맵 표현 방법.
According to claim 1,
The color map expression method is,
Comprising obtaining three-dimensional thermal image information using a three-dimensional thermal imaging camera device,
The step of obtaining the 3D thermal image information includes:
acquiring stereo image information photographed using at least one camera including a thermal imaging camera;
calculating distance information of an object based on the obtained stereo image information; and
generating a three-dimensional thermal imaging camera image by mapping the calculated distance information of the object or the obtained stereo image information with thermal image information
A colormap representation method that includes.
제6항에 있어서,
상기 3차원 열화상 카메라 장치는,
제1 카메라 및 제2 카메라를 포함하는 복수 개의 CCD 카메라와 적어도 하나 이상의 열화상 카메라를 결합한 형태로 구성되는 것을 포함하고,
상기 3차원 열화상 영상 정보를 획득하는 단계는,
상기 복수 개의 CCD 카메라를 이용하여 촬영된 스테레오 영상 정보에 열화상 카메라를 이용하여 촬영된 열화상 이미지 정보와 매핑하고, 상기 촬영된 열화상 이미지 정보를 딥러닝 기반의 학습 모델에서 컨볼루션(convolution) 후 풀링(pooling)된 영상으로 간주하고, 상기 컨볼루션 후 풀링된 영상으로 간주된 열화상 이미지 정보를 상기 딥러닝 기반의 학습 모델을 통해 디컨볼루션(de-convolution) 하여 3차원 열화상 영상을 생성하는 단계
를 포함하는 컬러맵 표현 방법.
7. The method of claim 6,
The three-dimensional thermal imaging camera device,
Including a combination of a plurality of CCD cameras including a first camera and a second camera and at least one thermal imaging camera,
The step of obtaining the 3D thermal image information includes:
The stereo image information photographed using the plurality of CCD cameras is mapped with thermal image information photographed using a thermal imaging camera, and the photographed thermal image information is convolved in a deep learning-based learning model. A three-dimensional thermal image is obtained by de-convolution through the deep learning-based learning model, which is regarded as a post-pooled image, and the thermal image information considered as a pooled image after the convolution. steps to create
A colormap representation method that includes.
제7항에 있어서,
상기 3차원 열화상 영상 정보를 획득하는 단계는,
상기 열화상 이미지 정보에 포함된 컬러 정보를 이용하여 상기 딥러닝 기반의 학습 모델을 학습시키고, CCD 카메라를 통해 획득된 스테레오 영상 정보를 상기 학습된 딥러닝 기반의 학습 모델에 입력함에 따라 디컨볼루션을 통해 상기 스테레오 영상 정보를 열화상 이미지 정보에 포함된 컬러 정보와 매핑시키는 단계
를 포함하는 컬러맵 표현 방법.
8. The method of claim 7,
The step of obtaining the 3D thermal image information includes:
The deep learning-based learning model is trained using the color information included in the thermal image information, and the stereo image information obtained through the CCD camera is input to the learned deep learning-based learning model, thereby deconvolution mapping the stereo image information with color information included in the thermal image information through
A colormap representation method that includes.
제6항에 있어서,
상기 3차원 열화상 카메라 장치는,
제1 카메라 및 제2 카메라를 포함하는 복수 개의 CCD 카메라와 적어도 하나 이상의 열화상 카메라를 결합한 형태로 구성되는 것을 포함하고,
상기 3차원 열화상 영상 정보를 획득하는 단계는,
상기 복수 개의 CCD 카메라를 이용하여 촬영된 스테레오 영상 정보로부터 산출된 객체의 거리 정보를 상기 열화상 이미지 정보에 매핑하여 3차원 열화상 영상 정보를 생성하는 단계
를 포함하는 컬러맵 표현 방법.
7. The method of claim 6,
The three-dimensional thermal imaging camera device,
Including a combination of a plurality of CCD cameras including a first camera and a second camera and at least one thermal imaging camera,
The step of obtaining the 3D thermal image information includes:
generating 3D thermal image information by mapping object distance information calculated from stereo image information photographed using the plurality of CCD cameras to the thermal image information
A colormap representation method that includes.
제6항에 있어서,
상기 3차원 열화상 카메라 장치는,
제1 카메라 및 제2 카메라를 포함하는 복수 개의 CCD 카메라와 적어도 하나 이상의 열화상 카메라를 결합한 형태로 구성되는 것을 포함하고,
상기 3차원 열화상 영상 정보를 획득하는 단계는,
상기 복수 개의 CCD 카메라와 상기 적어도 하나 이상의 열화상 카메라의 해상도가 동일할 경우, CCD 카메라 또는 열화상 카메라 중 두 개 이상의 카메라를 이용하여 획득된 스테레오 영상 정보로부터 산출된 객체의 거리 정보를 열화상 이미지 정보에 매핑하여 3차원 열화상 영상 정보를 생성하는 단계
를 포함하는 컬러맵 표현 방법.
7. The method of claim 6,
The three-dimensional thermal imaging camera device,
Including a combination of a plurality of CCD cameras including a first camera and a second camera and at least one thermal imaging camera,
The step of obtaining the 3D thermal image information includes:
When the resolutions of the plurality of CCD cameras and the at least one thermal imaging camera are the same, distance information of an object calculated from stereo image information obtained using two or more of a CCD camera or a thermal imaging camera is used as a thermal image. Generating 3D thermal image information by mapping the information
A colormap representation method that includes.
컬러맵 표현 시스템에 있어서,
3차원 열화상 영상 정보를 획득하는 영상 획득부;
상기 획득된 3차원 열화상 영상 정보로부터 객체를 인식하기 위하여 학습된 딥러닝 기반의 학습 모델을 이용하여 객체들을 인식하는 객체 인식부;
상기 인식된 객체들 간의 온도 정보의 비교를 통해 이상치를 제거하는 이상치 제거부;
상기 이상치가 제거된 온도 정보에 기초하여 3차원 열화상 영상 정보에 대한 컬러맵을 조정하는 컬러맵 조정부; 및
상기 조정된 컬러맵에 기초하여 3차원 열화상 영상 정보를 보정하는 영상 보정부
를 포함하고,
상기 이상치 제거부는,
상기 3차원 열화상 영상 정보의 온도 분포에 대하여 생성된 박스 플롯을 통해 사분위 범위 밖에 존재하는 이상치를 제거하고, 상기 제거된 이상치를 사분위 범위 안의 최대값과 최소값으로 치환하는
컬러맵 표현 시스템.
In the color map representation system,
an image acquisition unit acquiring three-dimensional thermal image information;
an object recognition unit for recognizing objects using a deep learning-based learning model learned to recognize objects from the obtained three-dimensional thermal image information;
an outlier removal unit for removing an outlier through comparison of temperature information between the recognized objects;
a color map adjusting unit that adjusts a color map for 3D thermal image information based on the temperature information from which the outlier is removed; and
An image correction unit for correcting 3D thermal image information based on the adjusted color map
including,
The outlier removal unit,
Removes outliers outside the interquartile range through a box plot generated for the temperature distribution of the 3D thermal image information, and replaces the removed outliers with the maximum and minimum values within the interquartile range
Colormap representation system.
제11항에 있어서,
상기 객체 인식부는,
상기 획득된 3차원 열화상 영상 정보에 포함된 RGB 데이터, 3차원 열화상 영상 정보가 지닌 적외선 센서값 및 측정 정보 메터데이터에 기초하여 상기 획득된 3차원 열화상 영상 정보를 온도 정보로 변환하고, 상기 온도 정보로 변환된 3차원 열화상 영상 정보에 기초하여 객체의 온도 정보를 추출하는
것을 특징으로 하는 컬러맵 표현 시스템.
12. The method of claim 11,
The object recognition unit,
Converting the obtained 3D thermal image information into temperature information based on the RGB data included in the obtained 3D thermal image information, infrared sensor values of the 3D thermal image information, and measurement information metadata, Extracting temperature information of an object based on the 3D thermal image information converted into the temperature information
A color map representation system, characterized in that.
제12항에 있어서,
상기 객체 인식부는,
상기 온도 정보로 변환된 3차원 열화상 영상 정보에 대한 온도 분포를 히스토그램으로 나타내고, 상기 히스토그램을 통하여 나타낸 3차원 열화상 영상 정보의 온도 분포에 박스 플롯(Box plot)을 생성하는
것을 특징으로 하는 컬러맵 표현 시스템.
13. The method of claim 12,
The object recognition unit,
The temperature distribution of the three-dimensional thermal image information converted into the temperature information is expressed as a histogram, and a box plot is generated on the temperature distribution of the three-dimensional thermal image information displayed through the histogram.
A color map representation system, characterized in that.
삭제delete 제11항에 있어서,
상기 이상치 제거부는,
상기 사분위 범위 밖의 마진값을 설정하여 제1사분위와 제3사분위의 차이의 값에 상기 설정된 마진값을 곱하여 사분위 안의 최대값과 최소값을 계산하는
것을 특징으로 하는 컬러맵 표현 시스템.
12. The method of claim 11,
The outlier removal unit,
Setting a margin value outside the quartile range to calculate the maximum value and the minimum value within the quartile by multiplying the value of the difference between the first quartile and the third quartile by the set margin value
A color map representation system, characterized in that.
KR1020200071212A 2020-06-12 2020-06-12 Automatic color map expression method by removing outlier temperature for thermal image KR102354704B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200071212A KR102354704B1 (en) 2020-06-12 2020-06-12 Automatic color map expression method by removing outlier temperature for thermal image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200071212A KR102354704B1 (en) 2020-06-12 2020-06-12 Automatic color map expression method by removing outlier temperature for thermal image

Publications (2)

Publication Number Publication Date
KR20210154323A KR20210154323A (en) 2021-12-21
KR102354704B1 true KR102354704B1 (en) 2022-01-24

Family

ID=79165340

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200071212A KR102354704B1 (en) 2020-06-12 2020-06-12 Automatic color map expression method by removing outlier temperature for thermal image

Country Status (1)

Country Link
KR (1) KR102354704B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102553692B1 (en) 2023-01-16 2023-07-10 정미영 Deep learning system for disaster detection in the underground power facility

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101339026B1 (en) * 2013-10-14 2013-12-09 (주)유디피 Method and apparatus for thermal camera visibility enhancing
KR102003475B1 (en) * 2019-01-09 2019-07-24 주식회사 이오씨 Method and Apparatus for Composing Image by using Image and Thermal Image
KR102051074B1 (en) * 2018-07-26 2019-12-02 샐터스 주식회사 Apparatus and method for processing image

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101947782B1 (en) * 2017-02-22 2019-02-13 한국과학기술원 Apparatus and method for depth estimation based on thermal image, and neural network learning method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101339026B1 (en) * 2013-10-14 2013-12-09 (주)유디피 Method and apparatus for thermal camera visibility enhancing
KR102051074B1 (en) * 2018-07-26 2019-12-02 샐터스 주식회사 Apparatus and method for processing image
KR102003475B1 (en) * 2019-01-09 2019-07-24 주식회사 이오씨 Method and Apparatus for Composing Image by using Image and Thermal Image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102553692B1 (en) 2023-01-16 2023-07-10 정미영 Deep learning system for disaster detection in the underground power facility

Also Published As

Publication number Publication date
KR20210154323A (en) 2021-12-21

Similar Documents

Publication Publication Date Title
EP3477931B1 (en) Image processing method and device, readable storage medium and electronic device
KR102281184B1 (en) Method and apparatus for calibrating image
US7764319B2 (en) Image processing apparatus, image-taking system, image processing method and image processing program
US20150249790A1 (en) Image processing apparatus, image display apparatus and imaging apparatus having the same, image processing method, and computer-readable medium storing image processing program
US10803559B2 (en) Fused image optimization systems and methods
US20180115705A1 (en) Contrast-enhanced combined image generation systems and methods
KR20210089166A (en) Bright Spot Removal Using Neural Networks
JP2015035658A (en) Image processing apparatus, image processing method, and imaging apparatus
KR101932547B1 (en) Camera system and Method of image registration thereof
TW201225658A (en) Imaging device, image-processing device, image-processing method, and image-processing program
KR102354704B1 (en) Automatic color map expression method by removing outlier temperature for thermal image
KR20120013767A (en) Image processing apparatus
US9756220B2 (en) Image data generating apparatus, printer, image data generating method, and non-transitory computer readable medium for extracting one or more pixels corresponding to a metallic-color region
CN117058183A (en) Image processing method and device based on double cameras, electronic equipment and storage medium
KR102311435B1 (en) 3d thermal imaging camera
JP6038489B2 (en) Image processing device
US20180276458A1 (en) Information processing device, method and storage medium
JP2010213105A (en) Imaging apparatus
JP2013210778A (en) Imaging apparatus
KR101722969B1 (en) Apparatus for detecting moving object and method for controlling the same
KR101792250B1 (en) Method for Providing Adaptive Augmented Reality to Real World
CN110059681B (en) Information processing apparatus, information processing method, and storage medium
KR102267442B1 (en) Correction method of camera distortion caused by multi-view capturing and generating method for block 3d model using thereof
CN111080689B (en) Method and device for determining face depth map
JP6558978B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant