KR101634904B1 - Method and Apparatus for Color correction in low light environment - Google Patents

Method and Apparatus for Color correction in low light environment Download PDF

Info

Publication number
KR101634904B1
KR101634904B1 KR1020150076631A KR20150076631A KR101634904B1 KR 101634904 B1 KR101634904 B1 KR 101634904B1 KR 1020150076631 A KR1020150076631 A KR 1020150076631A KR 20150076631 A KR20150076631 A KR 20150076631A KR 101634904 B1 KR101634904 B1 KR 101634904B1
Authority
KR
South Korea
Prior art keywords
image
color
mapping table
sensor
illuminance
Prior art date
Application number
KR1020150076631A
Other languages
Korean (ko)
Inventor
송병철
Original Assignee
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인하대학교 산학협력단 filed Critical 인하대학교 산학협력단
Priority to KR1020150076631A priority Critical patent/KR101634904B1/en
Application granted granted Critical
Publication of KR101634904B1 publication Critical patent/KR101634904B1/en

Links

Images

Classifications

    • H04N9/07
    • H04N5/217
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Abstract

Presented are a method and apparatus for correcting a color in a low illuminance environment. The method for correcting a color in a low illuminance environment, which is proposed by the present invention, may comprise the steps of: simultaneously sensing an image by using an IR sensor and a visible light sensor; performing a preprocessing process adapted to eliminate noise from the sensed image; mapping the image to a new color by using a previously stored mapping table; and correcting a color of the image by using the mapped new color; and may further comprise the step of performing learning to generate the previously stored mapping table.

Description

저조도에서의 색상 보정 방법 및 장치{Method and Apparatus for Color correction in low light environment}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a color correction method and apparatus for low-

본 발명은 저조도에서의 영상 색상을 보정하기 위한 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for correcting image color in low light.

CCTV같은 감시용 카메라에는 일반적으로 CMOS나 CCD같은 가시광선 이미지 센서와 IR 센서를 함께 가지고 있다. 빛이 충분한 낮에는 가시광선 센서가 동작하고 빛이 부족한 밤에는 IR 센서가 동작하여 물체를 인식한다. 그러나 밤에 주로 동작하는 IR 센서로는 물체의 색상을 인식할 수가 없다. 이를 위한 IR 영상과 RGB영상을 퓨젼(fusion)하는 경우도 있지만, 이 경우에도 색상을 복원하는 것은 아니다. 따라서, 저조도에서의 색상 보정 방안을 필요로 한다.Surveillance cameras such as CCTV typically have a visible light image sensor such as CMOS or CCD and an IR sensor. In the daytime when the light is sufficient, the visible light sensor operates, and at night when the light is insufficient, the IR sensor operates and recognizes the object. However, IR sensor, which operates mainly at night, can not recognize the color of the object. In some cases, the IR image and the RGB image are fused, but in this case, the color is not restored. Therefore, a color correction scheme at low illumination is required.

한국등록특허 10-0731812호Korean Patent No. 10-0731812

본 발명이 이루고자 하는 기술적 과제는 CMOS나 CCD같은 가시광선 이미지 센서와 IR 센서를 함께 가지고 있는 CCTV같은 감시용 카메라에서 밤에 주로 동작하는 IR 센서로 물체의 색상을 인식할 수 없는 단점을 개선하기 위한 방법 및 장치를 제공하는데 있다. 본 발명은 학습을 통해 만들어진 맵핑 테이블을 사용하여 저조도에서도 영상의 색상을 보정할 수 있는 방법 및 장치를 제공하고자 한다.The object of the present invention is to provide a surveillance camera such as a CCTV having a visible light image sensor such as a CMOS or a CCD and an IR sensor, Method and apparatus. The present invention aims at providing a method and apparatus for correcting color of an image even in a low light level by using a mapping table created through learning.

일 측면에 있어서, 본 발명에서 제안하는 저조도에서의 색상 보정 방법은 IR 센서 및 가시광선 센서를 이용하여 동시에 영상을 센싱하는 단계, 상기 센싱된 영상의 잡음을 제거하기 위한 전처리 과정을 수행하는 단계, 상기 영상을 미리 저장된 맵핑 테이블을 이용하여 새로운 색상으로 맵핑하는 단계, 상기 맵핑된 새로운 색상으로 상기 영상의 색상을 보정하는 단계를 포함할 수 있다. According to an aspect of the present invention, there is provided a method of correcting color in a low light level, comprising the steps of sensing an image using an IR sensor and a visible light sensor at the same time, performing a preprocessing process to remove noise of the sensed image, Mapping the image to a new color using a previously stored mapping table, and correcting the color of the image with the mapped new color.

저조도에서의 색상 보정 방법은 상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계를 더 포함할 수 있다. The color correction method in the low illumination level may further include a learning step for generating the previously stored mapping table.

상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계는 R, G, B 각각의 색상에 대하여 미리 정해진 조도 이상에서 영상을 촬영하는 단계, R, G, B 각각의 색상에 대하여 미리 정해진 조도 이하에서 영상을 촬영하는 단계, 상기 미리 정해진 조도 이하에서 촬영한 영상과 동일한 조도 환경에서 IR 영상을 촬영하는 단계를 포함할 수 있다. 그리고, 미리 정해진 모든 색상에 대하여 상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계를 반복 수행할 수 있다. The learning step for generating the previously stored mapping table may include the steps of photographing an image at a predetermined illuminance or more with respect to the colors of R, G, and B, and displaying the image at a predetermined illuminance or less with respect to the colors of R, And photographing the IR image in the same illuminance environment as the image photographed at the predetermined illuminance or less. The learning step for generating the previously stored mapping table for all the predetermined colors may be repeated.

상기 촬영된 영상들을 이용하여 조도 별로 다르게 학습된 맵핑 테이블을 생성할 수 있다. A mapping table learned differently according to illuminance can be generated using the photographed images.

상기 미리 저장된 맵핑 테이블은 채널 별 맵핑 테이블 생성이 가능하다. The previously stored mapping table can generate a mapping table for each channel.

상기 맵핑된 새로운 색상으로 상기 영상의 색상을 보정하는 단계는 현재 조도가 입력되면, 상기 입력된 조도에 해당하는 맵핑 테이블을 선택하여 상기 영상의 색상을 보정할 수 있다. The step of correcting the color of the image with the mapped new color may include correcting the color of the image by selecting a mapping table corresponding to the inputted roughness when the current roughness is inputted.

또 다른 일 측면에 있어서, 본 발명에서 제안하는 저조도에서의 색상 보정 시스템은 IR 센서 및 가시광선 센서를 포함하고, 상기 IR 센서 및 가시광선 센서를 이용하여 동시에 영상을 센싱하는 센서부, 상기 센싱된 영상의 잡음을 제거하기 위한 전처리 과정을 수행하는 전처리부, 상기 영상을 미리 저장된 맵핑 테이블을 이용하여 새로운 색상으로 맵핑하는 맵핑부, 상기 맵핑된 새로운 색상으로 상기 영상의 색상을 보정하는 색상 보정부를 포함할 수 있다.According to another aspect of the present invention, there is provided a color correction system in a low illumination level, which includes a sensor unit including an IR sensor and a visible light sensor and simultaneously sensing an image using the IR sensor and the visible light sensor, A preprocessing unit for performing preprocessing to remove noise of an image, a mapping unit for mapping the image into a new color using a previously stored mapping table, and a color correction unit for correcting the color of the image with the new color mapped can do.

상기 맵핑부는 상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 과정을 수행할 수 있다. The mapping unit may perform a learning process for generating the previously stored mapping table.

상기 맵핑부는 가시광선 센서를 이용하여 R, G, B 각각의 색상에 대하여 미리 정해진 조도 이상 및 미리 정해진 조도 이하에서 영상을 촬영하도록 하고, IR 센서를 이용하여 상기 미리 정해진 조도 이하에서 촬영한 영상과 동일한 조도 환경에서 영상을 촬영하도록 하고, 미리 정해진 모든 색상에 대하여 상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계를 반복 수행하도록 할 수 있다. The mapping unit may photograph an image at a predetermined illuminance or more and a predetermined illuminance or less with respect to colors of R, G, and B using a visible light sensor, It is possible to photograph the image in the same illuminance environment and repeat the learning step for generating the previously stored mapping table for all the predetermined colors.

상기 맵핑부는 상기 촬영된 영상들을 이용하여 조도 별로 다르게 학습된 맵핑 테이블을 생성할 수 있다. The mapping unit may generate a mapping table learned differently according to illuminance using the photographed images.

상기 맵핑부는 상기 미리 저장된 맵핑 테이블을 채널 별로 생성할 수 있다. The mapping unit may generate the previously stored mapping table for each channel.

상기 색상 보정부는 현재 조도가 입력되면, 상기 입력된 조도에 해당하는 맵핑 테이블을 선택하여 상기 영상의 색상을 보정할 수 있다.The color correction unit may correct the color of the image by selecting a mapping table corresponding to the inputted roughness when the current roughness is inputted.

본 발명의 실시예들에 따르면 학습을 통해 만들어진 맵핑 테이블을 사용하여 저조도에서도 영상의 색상을 보정할 수 있다. 따라서 빛이 부족한 밤에도 물체의 색상을 볼 수 있다. 또한, 조도 별로 다르게 학습된 맵핑 테이블을 생성하고, 주어진 조도에 맞는 테이블을 선택하여 영상의 색상을 보정할 수도 있다.According to the embodiments of the present invention, the color of an image can be corrected even in a low light level using a mapping table created through learning. Therefore, you can see the color of objects even at night when there is not enough light. Also, it is possible to generate a mapping table learned differently for each illumination level, and to select a table corresponding to a given illuminance to correct the color of the image.

도 1은 본 발명의 일 실시예에 따른 저조도에서의 색상 보정 방법을 설명하기 위한 흐름도이다.
도 2는 본 발명의 일 실시예에 따른 저조도에서의 색상 보정 과정을 설명하기 위한 전체 블록도이다.
도 3은 본 발명의 일 실시예에 따른 맵핑 테이블을 생성하기 위한 학습 과정을 설명하기 위한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 맵핑 테이블의 예시도이다.
도 5는 본 발명의 일 실시예에 따른 색상 성분 별 맵핑 테이블의 예시도이다.
도 6은 본 발명의 일 실시예에 따른 조도 별 색상 보정 과정을 설명하기 위한 전체 블록도이다.
도 7은 본 발명의 일 실시예에 따른 저조도에서의 색상 보정 시스템의 구성을 나타내는 도면이다.
1 is a flowchart for explaining a color correction method in a low light level according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a color correction process in a low light level according to an exemplary embodiment of the present invention. Referring to FIG.
3 is a flowchart illustrating a learning process for generating a mapping table according to an embodiment of the present invention.
4 is an exemplary diagram of a mapping table according to an embodiment of the present invention.
5 is an exemplary diagram illustrating a mapping table for each color component according to an embodiment of the present invention.
FIG. 6 is an overall block diagram for explaining a color correction process for each illumination according to an embodiment of the present invention.
7 is a diagram illustrating a configuration of a color correction system in a low light level according to an embodiment of the present invention.

이하, 본 발명의 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 저조도에서의 색상 보정 방법을 설명하기 위한 흐름도이다. 1 is a flowchart for explaining a color correction method in a low light level according to an embodiment of the present invention.

저조도에서의 색상 보정 방법은 IR 센서 및 가시광선 센서를 이용하여 동시에 영상을 센싱하는 단계(110), 상기 센싱된 영상의 잡음을 제거하기 위한 전처리 과정을 수행하는 단계(120), 상기 영상을 미리 저장된 맵핑 테이블을 이용하여 새로운 색상으로 맵핑하는 단계(130), 상기 맵핑된 새로운 색상으로 상기 영상의 색상을 보정하는 단계(140)를 포함할 수 있다. The method of correcting color in low light level includes the steps of sensing image 110 simultaneously using an IR sensor and a visible light sensor, performing a preprocessing process 120 for removing noise of the sensed image, A step 130 of mapping a new color using the stored mapping table, and a step 140 of correcting the color of the image using the mapped new color.

단계(110)에서, IR 센서 및 가시광선 센서를 이용하여 동시에 영상을 센싱할 수 있다. 이때, IR 센서 및 RGB 센서가 동시에 영상을 센싱한다. 두 센서는 동기화되어 있다고 가정한다. 특정 시점에 생성된 IR 영상을 IR이라고 하고, RGB 센서에서 얻어진 세 채널 영상을 R, G, B라고 하자. RGB 센서는 CMOS나 CCD 등이 가능하다.In step 110, images can be simultaneously sensed using an IR sensor and a visible light sensor. At this time, the IR sensor and the RGB sensor sense the image at the same time. It is assumed that the two sensors are synchronized. Let the IR image generated at a specific point in time be IR, and the three channel images obtained from RGB sensor be R, G, B. RGB sensors can be CMOS or CCD.

단계(120)에서, 상기 센싱된 영상의 잡음을 제거하기 위한 전처리 과정을 수행할 수 있다. 센서에서 바로 얻어진 영상들은 일반적으로 잡음이 심하다. 이들을 처리해줄 전처리 과정이 필요하다. 전처리 과정에는 잡음 제거를 포함한 다양한 영상처리가 포함될 수 있다. 예를 들어, IR 센서와 RGB 색상을 획득하는 가시광선 센서를 통해 획득된 로 데이터(raw data)들을 처리하는 전처리 과정들을 포함할 수 있다.In step 120, a preprocessing process for removing the noise of the sensed image may be performed. The images obtained directly from the sensor are generally noisy. We need a preprocessing process to handle them. The preprocessing process can include various image processing including noise cancellation. For example, it can include preprocessing processes to process raw data obtained through IR sensors and visible light sensors that acquire RGB colors.

단계(130)에서, 상기 영상을 미리 저장된 맵핑 테이블을 이용하여 새로운 색상으로 맵핑할 수 있다. 이렇게 얻어진 IR 영상과 RGB 영상은 일반적으로 정렬(align)이 되어 있지는 않다. 이를 정렬(align)할 일반적인 레지스트레이션(registration) 방법을 적용한다In step 130, the image may be mapped to a new color using a previously stored mapping table. The IR and RGB images thus obtained are not generally aligned. A general registration method of aligning them is applied

단계(140)에서, 상기 맵핑된 새로운 색상으로 상기 영상의 색상을 보정할 수 있다. 영상의 색상 보정(color correction) 과정의 첫 단계는 영상 정합이다. 그런 다음 화소 단위로 미리 저장된 맵핑 테이블에 따라 새로운 색상으로 맵핑한다. 상기 영상의 색상은 현재 조도가 입력되면, 상기 입력된 조도에 해당하는 맵핑 테이블을 선택하여 상기 영상의 색상을 보정할 수 있다. In step 140, the color of the image may be corrected using the mapped new color. The first step in the process of color correction of an image is image matching. Then, a new color is mapped according to the mapping table previously stored in pixel units. The color of the image can be corrected by selecting a mapping table corresponding to the input illuminance when the current illuminance is inputted.

그리고, 저조도에서의 색상 보정 방법은 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계를 더 포함할 수 있다. The color correction method in the low illumination level may further include a learning step for generating a previously stored mapping table.

상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계는 R, G, B 각각의 색상에 대하여 미리 정해진 조도 이상에서 영상을 촬영하는 단계, R, G, B 각각의 색상에 대하여 미리 정해진 조도 이하에서 영상을 촬영하는 단계, 상기 미리 정해진 조도 이하에서 촬영한 영상과 동일한 조도 환경에서 IR 영상을 촬영하는 단계를 포함할 수 있다. 그리고, 미리 정해진 모든 색상에 대하여 상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계를 반복 수행할 수 있다. The learning step for generating the previously stored mapping table may include the steps of photographing an image at a predetermined illuminance or more with respect to the colors of R, G, and B, and displaying the image at a predetermined illuminance or less with respect to the colors of R, And photographing the IR image in the same illuminance environment as the image photographed at the predetermined illuminance or less. The learning step for generating the previously stored mapping table for all the predetermined colors may be repeated.

그리고, 상기 촬영된 영상들을 이용하여 조도 별로 다르게 학습된 맵핑 테이블을 생성할 수 있다. 또한, 상기 미리 저장된 맵핑 테이블은 채널 별 맵핑 테이블 생성이 가능하다. 도 2 내지 도 6을 참조하여 더욱 상세히 설명한다.
A mapping table learned differently according to illuminance can be generated using the photographed images. In addition, the pre-stored mapping table can generate a mapping table for each channel. Will be described in more detail with reference to Figs. 2 to 6. Fig.

도 2는 본 발명의 일 실시예에 따른 저조도에서의 색상 보정 과정을 설명하기 위한 전체 블록도이다.FIG. 2 is a block diagram illustrating a color correction process in a low light level according to an exemplary embodiment of the present invention. Referring to FIG.

도 2와 같이 IR 센서(211)와 RGB 색상을 획득하는 가시광선 센서, 다시 말해 RGB센서(212), 획득된 로 데이터(raw data)들을 처리하는 전처리 과정들, 미리 학습된 맵핑 테이블, 마지막으로 색상을 보정(correction)해주는 단계로 구성된다.As shown in FIG. 2, an IR sensor 211 and a visible light sensor for acquiring RGB color, that is, an RGB sensor 212, preprocessing processes for processing acquired raw data, a previously learned mapping table, And a step of correcting the color.

IR 센서(211) 및 RGB센서(212)가 동시에 영상을 센싱한다. 두 센서는 동기화되어 있다고 가정한다. 특정 시점에 생성된 IR 영상을 IR이라고 하고, 가시광선 센서에서 얻어진 세 개의 채널 영상을 R, G, B라고 하자. 예를 들어, RGB 센서로는 CMOS나 CCD 등이 가능하다. 이러한 센서에서 바로 얻어진 영상들은 일반적으로 잡음이 심하다. 따라서, 이들을 처리해줄 전처리 과정이 필요하다. The IR sensor 211 and the RGB sensor 212 simultaneously sense images. It is assumed that the two sensors are synchronized. Let the IR image generated at a specific point in time be IR, and the three channel images obtained from the visible ray sensor be R, G, B. For example, the RGB sensor can be a CMOS or a CCD. Images obtained directly from these sensors are generally noisy. Therefore, a preprocessing process is required to process them.

IR 센서(211)용 전처리 과정을 전처리 과정1(221)이라고 할 때, 여기에는 잡음 제거를 포함한 다양한 영상처리가 포함될 수 있다. 그 출력을 IR'하자. When the preprocessing process for the IR sensor 211 is referred to as preprocessing process 1 (221), various image processes including noise cancellation may be included. Let the output IR '.

RGB 센서(212)용 전처리 과정을 전처리 과정2(222)라고 하자. 여기에도 잡음 제거, 디-모자이킹(de-mosaicing) 등이 포함된다. 즉, RGB 센서 출력이 베이어 패턴(Bayer Pattern)인 경우 이를 화소 당 RGB값들을 갖도록 변환할 필요가 있다. 이런 전처리 과정을 통해 얻어진 영상을 R', G', B'하자. 한편, IR 센서(211)의 영상과 RGB센서(212)의 RGB 영상이 해상도가 다를 경우 전처리 과정1(221)에는 스케일러(scaler)가 포함될 수 있다.Let the preprocessing process for RGB sensor 212 be preprocessing process 2 (222). This also includes noise cancellation and de-mosaicing. That is, when the RGB sensor output is a Bayer pattern, it is necessary to convert it to have RGB values per pixel. Let R ', G', B 'be the images obtained through this preprocessing process. Meanwhile, if the resolution of the RGB image of the RGB sensor 212 is different from that of the IR sensor 211, a preprocessing process 221 may include a scaler.

이렇게 얻어진 IR 영상과 RGB 영상은 일반적으로 정렬(align)되어 있지는 않다. 이를 정렬할 일반적인 레지스트레이션(registration) 방법을 적용한다. 다시 말해, 색상 보정부(color correction)(240)의 첫 단계는 영상 정합이다. 그런 다음 화소 단위로 맵핑 테이블(230)에 따라 새로운 색상으로 맵핑한다. 도 3을 참조하여 본 발명의 일 실시예에 따른 맵핑 테이블을 생성하기 위한 학습 과정을 더욱 상세히 설명한다.
The obtained IR image and RGB image are not generally aligned. Apply a general registration method to align them. In other words, the first step in the color correction 240 is image registration. Then, mapping is performed in a new color according to the mapping table 230 on a pixel basis. The learning process for generating the mapping table according to an embodiment of the present invention will be described in more detail with reference to FIG.

도 3은 본 발명의 일 실시예에 따른 맵핑 테이블을 생성하기 위한 학습 과정을 설명하기 위한 흐름도이다. 3 is a flowchart illustrating a learning process for generating a mapping table according to an embodiment of the present invention.

그리고, 저조도에서의 색상 보정 방법은 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계를 더 포함할 수 있다. The color correction method in the low illumination level may further include a learning step for generating a previously stored mapping table.

상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계는 R, G, B 각각의 색상에 대하여 미리 정해진 조도 이상에서 영상을 촬영하는 단계(310), R, G, B 각각의 색상에 대하여 미리 정해진 조도 이하에서 영상을 촬영하는 단계(320), 상기 미리 정해진 조도 이하에서 촬영한 영상과 동일한 조도 환경에서 IR 영상을 촬영하는 단계(330)를 포함할 수 있다. 그리고, 미리 정해진 모든 색상에 대하여 상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계를 반복 수행(340)할 수 있다. The learning step for generating the previously stored mapping table may include a step (310) of photographing an image at a predetermined illuminance or higher with respect to each color of R, G and B, a step (310) A step 320 of photographing an image at the predetermined illuminance, and a step 330 of photographing an IR image in the same illuminance environment as the image taken at the predetermined illuminance or less. Then, the learning step for generating the previously stored mapping table for all the predetermined colors may be repeatedly performed (340).

그리고, 상기 촬영된 영상들을 이용하여 조도 별로 다르게 학습된 맵핑 테이블을 생성할 수 있다. 또한, 상기 미리 저장된 맵핑 테이블은 채널 별 맵핑 테이블 생성이 가능하다. A mapping table learned differently according to illuminance can be generated using the photographed images. In addition, the pre-stored mapping table can generate a mapping table for each channel.

다시 말해, 맵핑 테이블은 학습을 통해 얻어진다. 예를 들어, 학습은 각 색상 영상을 밝을 때 촬영하고 저조도일 때 촬영한다. 그리고, 동일한 저조도 환경에서 IR 영상도 얻는다. 주어진 모든 색상에 대해 촬영이 되면, 맵핑 테이블을 얻을 수 있다. 따라서, 밝을 때 RGB 값들이 참값이 된다.
In other words, the mapping table is learned through learning. For example, the learning is taken when each color image is bright and when it is low. Also, IR images are obtained in the same low light environment. Once you have taken a shot for any given color, you can get a mapping table. Therefore, the RGB values are true when they are bright.

도 4는 본 발명의 일 실시예에 따른 맵핑 테이블의 예시도이다. 4 is an exemplary diagram of a mapping table according to an embodiment of the present invention.

도 4는 총 N가지 경우의 수가 있다고 가정할 때 맵핑 테이블을 나타내는 예시도이다. 해당되는 IR', R', G', B' 값이 들어가면 대응하는 R", G", B"이 출력된다. 이러한 경우 테이블의 크기가 색상의 비트-심도(bit-depth)에 따라 크게 증가할 수 있다.
4 is an exemplary diagram showing a mapping table on the assumption that there are a total of N cases. When the corresponding values of IR ', R', G ', and B' are input, the corresponding R ", G", and B "are output. In this case, the size of the table increases greatly according to the bit- can do.

도 5는 본 발명의 일 실시예에 따른 색상 성분 별 맵핑 테이블의 예시도이다. 5 is an exemplary diagram illustrating a mapping table for each color component according to an embodiment of the present invention.

도 4에서 설명한 바와 같이, 테이블의 크기가 색상의 비트-심도(bit-depth)에 따라 크게 증가할 수 있다. 그러면, 도 5와 같이 이러한 문제점을 해결하기 위한 방안으로 세 가지 색상의 채널 별로 테이블을 둘 수도 있다. 도 5는 R성분에 대한 맵핑 테이블이며, 동일한 형태로 G, B 성분에 대한 테이블도 만들 수 있다.As described in FIG. 4, the size of the table can greatly increase according to the bit-depth of the color. In order to solve such a problem as shown in FIG. 5, a table may be provided for each channel of three colors. 5 is a mapping table for the R component, and tables for the G and B components can be created in the same form.

도 4의 통합 테이블 방식이나, 도 5의 색상 성분 별 테이블 방식을 사용하여 도 2와 같이 화소 별로 보정(correction)된 R", G", B" 영상을 얻을 수 있다.
G "and B" images corrected for each pixel as shown in FIG. 2 can be obtained by using the integrated table method of FIG. 4 or the color component-based table method of FIG.

도 6은 본 발명의 일 실시예에 따른 조도 별 색상 보정 과정을 설명하기 위한 전체 블록도이다. FIG. 6 is an overall block diagram for explaining a color correction process for each illumination according to an embodiment of the present invention.

위에서 설명한 바와 같이 IR 센서(611)와 RGB 색상을 획득하는 가시광선 센서, 다시 말해 RGB센서(612), 획득된 로 데이터(raw data)들을 처리하는 전처리 과정들, 미리 학습된 맵핑 테이블, 마지막으로 색상을 보정(correction)해주는 단계로 구성된다.As described above, the IR sensor 611 and the visible light sensor for acquiring the RGB color, that is, the RGB sensor 612, the preprocessing processes for processing the acquired raw data, the previously learned mapping table, And a step of correcting the color.

IR 센서(611) 및 RGB센서(612)가 동시에 영상을 센싱한다. 두 센서는 동기화되어 있다고 가정한다. 특정 시점에 생성된 IR 영상을 IR이라고 하고, 가시광선 센서에서 얻어진 세 개의 채널 영상을 R, G, B라고 하자. 예를 들어, RGB 센서로는 CMOS나 CCD 등이 가능하다. 이러한 센서에서 바로 얻어진 영상들은 일반적으로 잡음이 심하다. 따라서, 이들을 처리해줄 전처리 과정이 필요하다. The IR sensor 611 and the RGB sensor 612 simultaneously sense images. It is assumed that the two sensors are synchronized. Let the IR image generated at a specific point in time be IR, and the three channel images obtained from the visible ray sensor be R, G, B. For example, the RGB sensor can be a CMOS or a CCD. Images obtained directly from these sensors are generally noisy. Therefore, a preprocessing process is required to process them.

IR 센서(611)용 전처리 과정을 전처리 과정1(621)이라고 할 때, 여기에는 잡음 제거를 포함한 다양한 영상처리가 포함될 수 있다. 그 출력을 IR'이라고 하자. When the preprocessing process for the IR sensor 611 is referred to as preprocessing process 1 (621), various image processes including noise cancellation may be included. Let the output be IR '.

RGB 센서(612)용 전처리 과정을 전처리 과정2(622)라고 하자. 여기에도 잡음 제거, 디-모자이킹(de-mosaicing) 등이 포함된다. 즉, RGB 센서 출력이 베이어 패턴(Bayer Pattern)인 경우 이를 화소 당 RGB값들을 갖도록 변환할 필요가 있다. 이런 전처리 과정을 통해 얻어진 영상을 R', G', B' 이라고 하자. 한편, IR 센서(611)의 영상과 RGB센서(612)의 RGB 영상이 해상도가 다를 경우 전처리 과정1(621)에는 스케일러(scaler)가 포함될 수 있다.Let the preprocessing process for RGB sensor 612 be preprocessing process 2 (622). This also includes noise cancellation and de-mosaicing. That is, when the RGB sensor output is a Bayer pattern, it is necessary to convert it to have RGB values per pixel. Let R ', G', and B 'be the images obtained through this preprocessing process. Meanwhile, if the image of the IR sensor 611 and the RGB image of the RGB sensor 612 have different resolutions, a preprocessing process 1 621 may include a scaler.

이렇게 얻어진 IR 영상과 RGB 영상은 일반적으로 정렬(align)되어 있지는 않다. 이를 정렬할 일반적인 레지스트레이션(registration) 방법을 적용한다. 다시 말해, 색상 보정부(color correction)(640)의 첫 단계는 영상 정합이다. 그런 다음 화소 단위로 맵핑 테이블(630)에 따라 새로운 색상으로 맵핑한다.The obtained IR image and RGB image are not generally aligned. Apply a general registration method to align them. In other words, the first step in color correction 640 is image registration. Then, mapping is performed in a new color according to the mapping table 630 on a pixel basis.

맵핑 테이블(630)은 학습을 통해 얻어진다. 예를 들어, 학습은 각 색상 영상을 밝을 때 촬영하고 저조도일 때 촬영한다. 그리고, 동일한 저조도 환경에서 IR 영상도 얻는다. 주어진 모든 색상에 대해 촬영이 되면, 맵핑 테이블을 얻을 수 있다. 따라서, 밝을 때 RGB 값들이 참값이 된다.The mapping table 630 is obtained through learning. For example, the learning is taken when each color image is bright and when it is low. Also, IR images are obtained in the same low light environment. Once you have taken a shot for any given color, you can get a mapping table. Therefore, the RGB values are true when they are bright.

하지만, 조도에 따라 동일한 IR 값인데도 색상 값이 달라질 수 있다. 따라서, 도 6과 같이 조도 별로 다르게 학습된 맵핑 테이블(630)을 미리 생성하고, 현재 조도가 입력으로 주어지면, 주어진 조도에 맞는 맵핑 테이블을 선택하여 색상 보정을 할 수도 있다.
However, depending on the illuminance, the color value may vary even though the IR value is the same. Accordingly, as shown in FIG. 6, when the mapping table 630 learned differently according to the roughness is generated in advance, and the current roughness is given as an input, the mapping table matching the given roughness may be selected to perform color correction.

도 7은 본 발명의 일 실시예에 따른 저조도에서의 색상 보정 시스템(700)의 구성을 나타내는 도면이다. 7 is a diagram illustrating a configuration of a color correction system 700 in a low light level according to an embodiment of the present invention.

본 실시예에 따른 저조도에서의 색상 보정 시스템(700)은 프로세서(710), 버스(720), 네트워크 인터페이스(730), 메모리(740) 및 데이터베이스(750)를 포함할 수 있다. 메모리(740)는 운영체제(741) 및 색상 보정 루틴(742)을 포함할 수 있다. 프로세서(710)는 네트워크 센서부(711), 전처리부(712), 맵핑부(713), 색상 보정부(714)를 포함할 수 있다. 다른 실시예들에서 색상 보정 시스템(700)은 도 7의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 색상 보정 시스템(700)은 디스플레이나 트랜시버(transceiver)와 같은 다른 구성요소들을 포함할 수도 있다.The color correction system 700 in the low light level according to the present embodiment may include a processor 710, a bus 720, a network interface 730, a memory 740 and a database 750. The memory 740 may include an operating system 741 and a color correction routine 742. The processor 710 may include a network sensor unit 711, a preprocessor 712, a mapping unit 713, and a color correction unit 714. In other embodiments, the color correction system 700 may include more components than the components of FIG. However, there is no need to clearly illustrate most prior art components. For example, the color correction system 700 may include other components such as a display or a transceiver.

메모리(740)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리(740)에는 운영체제(741)와 색상 보정 루틴(742)을 위한 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 드라이브 메커니즘(drive mechanism, 미도시)을 이용하여 메모리(740)와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체(미도시)를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 네트워크 인터페이스(730)를 통해 메모리(740)에 로딩될 수도 있다. The memory 740 may be a computer-readable recording medium and may include a permanent mass storage device such as a random access memory (RAM), a read only memory (ROM), and a disk drive. Also, the memory 740 may store program codes for the operating system 741 and the color correction routine 742. [ These software components may be loaded from a computer readable recording medium separate from the memory 740 using a drive mechanism (not shown). Such a computer-readable recording medium may include a computer-readable recording medium (not shown) such as a floppy drive, a disk, a tape, a DVD / CD-ROM drive, or a memory card. In other embodiments, the software components may be loaded into the memory 740 via the network interface 730 rather than from a computer readable recording medium.

버스(720)는 색상 보정 시스템(700)의 구성요소들간의 통신 및 데이터 전송을 가능하게 할 수 있다. 버스(720)는 고속 시리얼 버스(high-speed serial bus), 병렬 버스(parallel bus), SAN(Storage Area Network) 및/또는 다른 적절한 통신 기술을 이용하여 구성될 수 있다.The bus 720 may enable communication and data transfer between components of the color correction system 700. The bus 720 may be configured using a high-speed serial bus, a parallel bus, a Storage Area Network (SAN), and / or other suitable communication technology.

네트워크 인터페이스(730)는 색상 보정 시스템(700)을 컴퓨터 네트워크에 연결하기 위한 컴퓨터 하드웨어 구성요소일 수 있다. 네트워크 인터페이스(730)는 색상 보정 시스템(700)을 무선 또는 유선 커넥션을 통해 컴퓨터 네트워크에 연결시킬 수 있다.The network interface 730 may be a computer hardware component for connecting the color correction system 700 to a computer network. The network interface 730 may connect the color correction system 700 to a computer network via a wireless or wired connection.

데이터베이스(750)는 저조도에서의 색상 보정을 위해 필요한 모든 정보를 저장 및 유지하는 역할을 할 수 있다. 도 7에서는 색상 보정 시스템(700)의 내부에 데이터베이스(750)를 구축하여 포함하는 것으로 도시하고 있으나, 이에 한정되는 것은 아니며 시스템 구현 방식이나 환경 등에 따라 생략될 수 있고 혹은 전체 또는 일부의 데이터베이스가 별개의 다른 시스템 상에 구축된 외부 데이터베이스로서 존재하는 것 또한 가능하다.The database 750 may store and hold all information required for color correction in low light. Although FIG. 7 shows that the database 750 is built in the color correction system 700, the present invention is not limited thereto. The database 750 may be omitted depending on the system implementation method or environment. Alternatively, It is also possible to exist as an external database built on another system of the system.

프로세서(710)는 기본적인 산술, 로직 및 색상 보정 시스템(700)의 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(740) 또는 네트워크 인터페이스(730)에 의해, 그리고 버스(720)를 통해 프로세서(710)로 제공될 수 있다. 프로세서(710)는 센서부(711), 전처리부(712), 맵핑부(713), 색상 보정부(714)를 위한 프로그램 코드를 실행하도록 구성될 수 있다. 이러한 프로그램 코드는 메모리(740)와 같은 기록 장치에 저장될 수 있다.The processor 710 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and color correction system input / output operations. The instructions may be provided to the processor 710 by the memory 740 or the network interface 730 and via the bus 720. The processor 710 may be configured to execute program codes for the sensor unit 711, the preprocessor 712, the mapping unit 713, and the color corrector 714. [ Such program code may be stored in a recording device such as memory 740. [

센서부(711), 전처리부(712), 맵핑부(713), 색상 보정부(714)는 도 1의 단계들(110~140)을 수행하기 위해 구성될 수 있다.The sensor unit 711, the preprocessor 712, the mapping unit 713, and the color correction unit 714 may be configured to perform the steps 110 to 140 of FIG.

색상 보정 시스템(700)은 센서부(711), 전처리부(712), 맵핑부(713), 색상 보정부(714)를 포함할 수 있다.The color correction system 700 may include a sensor unit 711, a preprocessing unit 712, a mapping unit 713, and a color correction unit 714.

센서부(711)는 IR 센서 및 가시광선 센서를 포함하고, 상기 IR 센서 및 가시광선 센서를 이용하여 동시에 영상을 센싱할 수 있다. 이때, IR 센서 및 RGB 센서가 동시에 영상을 센싱한다. 두 센서는 동기화되어 있다고 가정한다. 특정 시점에 생성된 IR 영상을 IR이라고 하고, RGB 센서에서 얻어진 세 채널 영상을 R, G, B라고 하자. RGB 센서는 CMOS나 CCD 등이 가능하다.The sensor unit 711 includes an IR sensor and a visible light sensor, and can simultaneously sense an image using the IR sensor and the visible light sensor. At this time, the IR sensor and the RGB sensor sense the image at the same time. It is assumed that the two sensors are synchronized. Let the IR image generated at a specific point in time be IR, and the three channel images obtained from RGB sensor be R, G, B. RGB sensors can be CMOS or CCD.

전처리부(712)는 상기 센싱된 영상의 잡음을 제거하기 위한 전처리 과정을 수행할 수 있다. 센서에서 바로 얻어진 영상들은 일반적으로 잡음이 심하다. 이들을 처리해줄 전처리 과정이 필요하다. 전처리 과정에는 잡음 제거를 포함한 다양한 영상처리가 포함될 수 있다. 예를 들어, IR 센서와 RGB 색상을 획득하는 가시광선 센서를 통해 획득된 로 데이터(raw data)들을 처리하는 전처리 과정들을 포함할 수 있다.The preprocessing unit 712 may perform a preprocessing process to remove the noise of the sensed image. The images obtained directly from the sensor are generally noisy. We need a preprocessing process to handle them. The preprocessing process can include various image processing including noise cancellation. For example, it can include preprocessing processes to process raw data obtained through IR sensors and visible light sensors that acquire RGB colors.

맵핑부(713)는 상기 영상을 미리 저장된 맵핑 테이블을 이용하여 새로운 색상으로 맵핑할 수 있다. 이렇게 얻어진 IR 영상과 RGB 영상은 일반적으로 정렬(align)이 되어 있지는 않다. 맵핑부(713)는 이를 정렬(align)할 일반적인 레지스트레이션(registration) 방법을 적용한다. 상기 맵핑부(713)는 상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 과정을 수행할 수 있다. The mapping unit 713 can map the image to a new color using a previously stored mapping table. The IR and RGB images thus obtained are not generally aligned. The mapping unit 713 applies a general registration method to align the same. The mapping unit 713 may perform a learning process for generating the previously stored mapping table.

맵핑부(713)는 가시광선 센서를 이용하여 R, G, B 각각의 색상에 대하여 미리 정해진 조도 이상 및 미리 정해진 조도 이하에서 영상을 촬영하도록 할 수 있다. 그리고, IR 센서를 이용하여 상기 미리 정해진 조도 이하에서 촬영한 영상과 동일한 조도 환경에서 영상을 촬영하도록 하고, 미리 정해진 모든 색상에 대하여 상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계를 반복 수행하도록 할 수 있다. The mapping unit 713 can use the visible light sensor to photograph an image at a predetermined illuminance or more and a predetermined illuminance or less with respect to the colors of R, G, and B, respectively. The IR sensor may be used to photograph an image in the same illuminance environment as the image taken at the predetermined illuminance or less and to repeat the learning step for generating the previously stored mapping table for all the predetermined colors have.

맵핑부(713)는 상기 촬영된 영상들을 이용하여 조도 별로 다르게 학습된 맵핑 테이블을 생성할 수 있다. 또한, 맵핑 테이블을 세 가지 색상의 채널 별로 생성할 수 있다.The mapping unit 713 may generate a mapping table differently learned for each illumination using the photographed images. In addition, a mapping table can be generated for each channel of three colors.

색상 보정부(714)는 상기 맵핑된 새로운 색상으로 상기 영상의 색상을 보정할 수 있다. 영상의 색상 보정(color correction) 과정의 첫 단계는 영상 정합이다. 그런 다음 화소 단위로 미리 저장된 맵핑 테이블에 따라 새로운 색상으로 맵핑한다. 상기 영상의 색상은 현재 조도가 입력되면, 상기 입력된 조도에 해당하는 맵핑 테이블을 선택하여 상기 영상의 색상을 보정할 수 있다. 상기 색상 보정부(714)는 현재 조도가 입력되면, 상기 입력된 조도에 해당하는 맵핑 테이블을 선택하여 상기 영상의 색상을 보정할 수 있다.
The color correction unit 714 may correct the color of the image with the new mapped color. The first step in the process of color correction of an image is image matching. Then, a new color is mapped according to the mapping table previously stored in pixel units. The color of the image can be corrected by selecting a mapping table corresponding to the input illuminance when the current illuminance is inputted. The color corrector 714 may correct the color of the image by selecting a mapping table corresponding to the input illuminance when the current illuminance is input.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (12)

저조도에서의 색상 보정 방법에 있어서,
IR 센서 및 가시광선 센서를 이용하여 동시에 영상을 센싱하는 단계;
상기 센싱된 영상의 잡음을 제거하기 위한 전처리 과정을 수행하는 단계;
상기 영상을 미리 저장된 맵핑 테이블을 이용하여 새로운 색상으로 맵핑하는 단계;
상기 맵핑된 새로운 색상으로 상기 영상의 색상을 보정하는 단계; 및
상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계
를 포함하고,
상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계는,
R, G, B 각각의 색상에 대하여 미리 정해진 조도 이상에서 영상을 촬영하는 단계;
R, G, B 각각의 색상에 대하여 미리 정해진 조도 이하에서 영상을 촬영하는 단계; 및
상기 미리 정해진 조도 이하에서 촬영한 영상과 동일한 조도 환경에서 IR 영상을 촬영하는 단계;
를 포함하고,
미리 정해진 모든 색상에 대하여 상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계를 반복 수행하는 것을 특징으로 하는 저조도에서의 색상 보정 방법.
In the method for correcting color in low light,
Sensing images simultaneously using an IR sensor and a visible light sensor;
Performing a preprocessing process to remove noise of the sensed image;
Mapping the image into a new color using a previously stored mapping table;
Correcting the color of the image with the mapped new color; And
A learning step for generating the previously stored mapping table
Lt; / RTI >
Wherein the learning step for generating the previously stored mapping table comprises:
Capturing an image at a predetermined illuminance or more for each color of R, G, and B;
Capturing an image at a predetermined illuminance or less with respect to each color of R, G, and B; And
Capturing an IR image in the same illumination environment as the image photographed at a predetermined illuminance or less;
Lt; / RTI >
And a learning step for generating the previously stored mapping table for all the predetermined colors is repeatedly performed.
삭제delete 삭제delete 제1항에 있어서,
상기 촬영된 영상들을 이용하여 조도 별로 다르게 학습된 맵핑 테이블을 생성하는 것을 특징으로 하는 저조도에서의 색상 보정 방법.
The method according to claim 1,
And generating a mapping table learned differently according to illumination intensity using the photographed images.
제1항에 있어서,
상기 미리 저장된 맵핑 테이블은 채널 별 맵핑 테이블 생성이 가능한 것을 특징으로 하는 저조도에서의 색상 보정 방법.
The method according to claim 1,
Wherein the pre-stored mapping table is capable of generating a mapping table for each channel.
제1항에 있어서,
상기 맵핑된 새로운 색상으로 상기 영상의 색상을 보정하는 단계는,
현재 조도가 입력되면, 상기 입력된 조도에 해당하는 맵핑 테이블을 선택하여 상기 영상의 색상을 보정하는 것을 특징으로 하는 저조도에서의 색상 보정 방법.
The method according to claim 1,
Wherein the step of correcting the color of the image with the mapped new color comprises:
And selecting a mapping table corresponding to the inputted roughness to correct the color of the image when the current roughness is inputted.
저조도에서의 색상 보정 시스템에 있어서,
IR 센서 및 가시광선 센서를 포함하고, 상기 IR 센서 및 가시광선 센서를 이용하여 동시에 영상을 센싱하는 센서부;
상기 센싱된 영상의 잡음을 제거하기 위한 전처리 과정을 수행하는 전처리부;
상기 영상을 미리 저장된 맵핑 테이블을 이용하여 새로운 색상으로 맵핑하는 맵핑부; 및
상기 맵핑된 새로운 색상으로 상기 영상의 색상을 보정하는 색상 보정부
를 포함하고,
상기 맵핑부는,
가시광선 센서를 이용하여 R, G, B 각각의 색상에 대하여 미리 정해진 조도 이상 및 미리 정해진 조도 이하에서 영상을 촬영하도록 하고,
IR 센서를 이용하여 상기 미리 정해진 조도 이하에서 촬영한 영상과 동일한 조도 환경에서 영상을 촬영하도록 하고,
미리 정해진 모든 색상에 대하여 상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계를 반복 수행하도록 하는 것을 특징으로 하는 저조도에서의 색상 보정 시스템.
In a low-illuminance color correction system,
A sensor unit including an IR sensor and a visible light sensor and simultaneously sensing an image using the IR sensor and the visible light sensor;
A preprocessing unit for performing a preprocessing process to remove noise of the sensed image;
A mapping unit for mapping the image into a new color using a previously stored mapping table; And
And a color correction unit for correcting the color of the image with the mapped new color,
Lt; / RTI >
Wherein the mapping unit comprises:
The image is photographed at a predetermined illuminance or more and a predetermined illuminance or less with respect to the colors of R, G, and B using a visible light sensor,
An image is captured in the same illuminance environment as that of the image photographed under the predetermined illuminance using the IR sensor,
And a learning step for generating the previously stored mapping table for all of the predetermined colors is repeatedly performed.
삭제delete 삭제delete 제7항에 있어서,
상기 맵핑부는,
상기 촬영된 영상들을 이용하여 조도 별로 다르게 학습된 맵핑 테이블을 생성하는 것을 특징으로 하는 저조도에서의 색상 보정 시스템.
8. The method of claim 7,
Wherein the mapping unit comprises:
And generating a mapping table learned differently according to illuminance using the photographed images.
제7항에 있어서,
상기 맵핑부는,
상기 미리 저장된 맵핑 테이블을 채널 별로 생성 가능한 것을 특징으로 하는 저조도에서의 색상 보정 시스템.
8. The method of claim 7,
Wherein the mapping unit comprises:
Wherein the pre-stored mapping table is generated on a channel-by-channel basis.
제7항에 있어서,
상기 색상 보정부는,
현재 조도가 입력되면, 상기 입력된 조도에 해당하는 맵핑 테이블을 선택하여 상기 영상의 색상을 보정하는 것을 특징으로 하는 저조도에서의 색상 보정 시스템.
8. The method of claim 7,
Wherein the color correction unit comprises:
Wherein the color correction unit corrects the color of the image by selecting a mapping table corresponding to the inputted roughness when the current roughness is inputted.
KR1020150076631A 2015-05-29 2015-05-29 Method and Apparatus for Color correction in low light environment KR101634904B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150076631A KR101634904B1 (en) 2015-05-29 2015-05-29 Method and Apparatus for Color correction in low light environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150076631A KR101634904B1 (en) 2015-05-29 2015-05-29 Method and Apparatus for Color correction in low light environment

Publications (1)

Publication Number Publication Date
KR101634904B1 true KR101634904B1 (en) 2016-06-29

Family

ID=56366013

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150076631A KR101634904B1 (en) 2015-05-29 2015-05-29 Method and Apparatus for Color correction in low light environment

Country Status (1)

Country Link
KR (1) KR101634904B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000020833A (en) * 1998-09-24 2000-04-15 전주범 Apparatus and method for compensating digital image in real time
KR100731812B1 (en) 2006-08-11 2007-06-22 엠텍비젼 주식회사 Color deviation compensating apparatus and method, image processor using it, recorded medium
KR20110023694A (en) * 2009-08-28 2011-03-08 한국전자통신연구원 System for converting color of images cinematograph and controlling method thereof
KR101141844B1 (en) * 2010-11-15 2012-05-07 한양대학교 산학협력단 Method and system for enhancing image under low illumination

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000020833A (en) * 1998-09-24 2000-04-15 전주범 Apparatus and method for compensating digital image in real time
KR100731812B1 (en) 2006-08-11 2007-06-22 엠텍비젼 주식회사 Color deviation compensating apparatus and method, image processor using it, recorded medium
KR20110023694A (en) * 2009-08-28 2011-03-08 한국전자통신연구원 System for converting color of images cinematograph and controlling method thereof
KR101141844B1 (en) * 2010-11-15 2012-05-07 한양대학교 산학협력단 Method and system for enhancing image under low illumination

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
최원희 외 3명. 가시광-근적외광 수광 구조를 이용한 저조도 컬러 영상 생성. 대한전자공학회 학술대회, 2011년 6월, pp. 1664-1667.* *

Similar Documents

Publication Publication Date Title
US11704775B2 (en) Bright spot removal using a neural network
JP7077395B2 (en) Multiplexed high dynamic range image
EP3425590B1 (en) Image processing apparatus, image processing method, and storage medium
CN101742123A (en) Image processing apparatus and method
US8860840B2 (en) Light source estimation device, light source estimation method, light source estimation program, and imaging apparatus
CN110956679B (en) Image processing method and device, electronic equipment and computer readable storage medium
US11416707B2 (en) Information processing method, information processing system, and information processing apparatus
JP2016042629A (en) Imaging apparatus, imaging method and program
JP6374849B2 (en) User terminal, color correction system, and color correction method
US8953899B2 (en) Method and system for rendering an image from a light-field camera
KR101634904B1 (en) Method and Apparatus for Color correction in low light environment
CN109429044B (en) Method for detecting portion of image and image processing apparatus
KR101610512B1 (en) Stereoscopic camera and method for operating the same
US20120120285A1 (en) Method and apparatus for reconfiguring time of flight shot mode
JP7539795B2 (en) Information processing method, information processing system, and information processing device
CN112598716B (en) Multi-mode image registration method, device and system
WO2021025375A1 (en) Apparatus and method for efficient regularized image alignment for multi-frame fusion
JP2009009206A (en) Extraction method of outline inside image and image processor therefor
JP6301202B2 (en) Shooting condition setting device and shooting condition setting method
KR101774913B1 (en) Method and apparatus for displaying images using pre-processing
CN115280757A (en) Information processing apparatus, information processing method, and information processing program
JP2005295302A (en) Camera image processing device
JP7193359B2 (en) Image processing system and camera system
WO2021261141A1 (en) Object detection device and object detection method
KR101691806B1 (en) Method and apparatus for displaying images using pre-processing

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190408

Year of fee payment: 4