KR101634904B1 - Method and Apparatus for Color correction in low light environment - Google Patents
Method and Apparatus for Color correction in low light environment Download PDFInfo
- Publication number
- KR101634904B1 KR101634904B1 KR1020150076631A KR20150076631A KR101634904B1 KR 101634904 B1 KR101634904 B1 KR 101634904B1 KR 1020150076631 A KR1020150076631 A KR 1020150076631A KR 20150076631 A KR20150076631 A KR 20150076631A KR 101634904 B1 KR101634904 B1 KR 101634904B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- color
- mapping table
- sensor
- illuminance
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 238000012937 correction Methods 0.000 title claims description 41
- 238000013507 mapping Methods 0.000 claims abstract description 101
- 238000007781 pre-processing Methods 0.000 claims abstract description 34
- 239000003086 colorant Substances 0.000 claims description 18
- 238000005286 illumination Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 230000001360 synchronised effect Effects 0.000 description 4
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H04N9/07—
-
- H04N5/217—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 저조도에서의 영상 색상을 보정하기 위한 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for correcting image color in low light.
CCTV같은 감시용 카메라에는 일반적으로 CMOS나 CCD같은 가시광선 이미지 센서와 IR 센서를 함께 가지고 있다. 빛이 충분한 낮에는 가시광선 센서가 동작하고 빛이 부족한 밤에는 IR 센서가 동작하여 물체를 인식한다. 그러나 밤에 주로 동작하는 IR 센서로는 물체의 색상을 인식할 수가 없다. 이를 위한 IR 영상과 RGB영상을 퓨젼(fusion)하는 경우도 있지만, 이 경우에도 색상을 복원하는 것은 아니다. 따라서, 저조도에서의 색상 보정 방안을 필요로 한다.Surveillance cameras such as CCTV typically have a visible light image sensor such as CMOS or CCD and an IR sensor. In the daytime when the light is sufficient, the visible light sensor operates, and at night when the light is insufficient, the IR sensor operates and recognizes the object. However, IR sensor, which operates mainly at night, can not recognize the color of the object. In some cases, the IR image and the RGB image are fused, but in this case, the color is not restored. Therefore, a color correction scheme at low illumination is required.
본 발명이 이루고자 하는 기술적 과제는 CMOS나 CCD같은 가시광선 이미지 센서와 IR 센서를 함께 가지고 있는 CCTV같은 감시용 카메라에서 밤에 주로 동작하는 IR 센서로 물체의 색상을 인식할 수 없는 단점을 개선하기 위한 방법 및 장치를 제공하는데 있다. 본 발명은 학습을 통해 만들어진 맵핑 테이블을 사용하여 저조도에서도 영상의 색상을 보정할 수 있는 방법 및 장치를 제공하고자 한다.The object of the present invention is to provide a surveillance camera such as a CCTV having a visible light image sensor such as a CMOS or a CCD and an IR sensor, Method and apparatus. The present invention aims at providing a method and apparatus for correcting color of an image even in a low light level by using a mapping table created through learning.
일 측면에 있어서, 본 발명에서 제안하는 저조도에서의 색상 보정 방법은 IR 센서 및 가시광선 센서를 이용하여 동시에 영상을 센싱하는 단계, 상기 센싱된 영상의 잡음을 제거하기 위한 전처리 과정을 수행하는 단계, 상기 영상을 미리 저장된 맵핑 테이블을 이용하여 새로운 색상으로 맵핑하는 단계, 상기 맵핑된 새로운 색상으로 상기 영상의 색상을 보정하는 단계를 포함할 수 있다. According to an aspect of the present invention, there is provided a method of correcting color in a low light level, comprising the steps of sensing an image using an IR sensor and a visible light sensor at the same time, performing a preprocessing process to remove noise of the sensed image, Mapping the image to a new color using a previously stored mapping table, and correcting the color of the image with the mapped new color.
저조도에서의 색상 보정 방법은 상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계를 더 포함할 수 있다. The color correction method in the low illumination level may further include a learning step for generating the previously stored mapping table.
상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계는 R, G, B 각각의 색상에 대하여 미리 정해진 조도 이상에서 영상을 촬영하는 단계, R, G, B 각각의 색상에 대하여 미리 정해진 조도 이하에서 영상을 촬영하는 단계, 상기 미리 정해진 조도 이하에서 촬영한 영상과 동일한 조도 환경에서 IR 영상을 촬영하는 단계를 포함할 수 있다. 그리고, 미리 정해진 모든 색상에 대하여 상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계를 반복 수행할 수 있다. The learning step for generating the previously stored mapping table may include the steps of photographing an image at a predetermined illuminance or more with respect to the colors of R, G, and B, and displaying the image at a predetermined illuminance or less with respect to the colors of R, And photographing the IR image in the same illuminance environment as the image photographed at the predetermined illuminance or less. The learning step for generating the previously stored mapping table for all the predetermined colors may be repeated.
상기 촬영된 영상들을 이용하여 조도 별로 다르게 학습된 맵핑 테이블을 생성할 수 있다. A mapping table learned differently according to illuminance can be generated using the photographed images.
상기 미리 저장된 맵핑 테이블은 채널 별 맵핑 테이블 생성이 가능하다. The previously stored mapping table can generate a mapping table for each channel.
상기 맵핑된 새로운 색상으로 상기 영상의 색상을 보정하는 단계는 현재 조도가 입력되면, 상기 입력된 조도에 해당하는 맵핑 테이블을 선택하여 상기 영상의 색상을 보정할 수 있다. The step of correcting the color of the image with the mapped new color may include correcting the color of the image by selecting a mapping table corresponding to the inputted roughness when the current roughness is inputted.
또 다른 일 측면에 있어서, 본 발명에서 제안하는 저조도에서의 색상 보정 시스템은 IR 센서 및 가시광선 센서를 포함하고, 상기 IR 센서 및 가시광선 센서를 이용하여 동시에 영상을 센싱하는 센서부, 상기 센싱된 영상의 잡음을 제거하기 위한 전처리 과정을 수행하는 전처리부, 상기 영상을 미리 저장된 맵핑 테이블을 이용하여 새로운 색상으로 맵핑하는 맵핑부, 상기 맵핑된 새로운 색상으로 상기 영상의 색상을 보정하는 색상 보정부를 포함할 수 있다.According to another aspect of the present invention, there is provided a color correction system in a low illumination level, which includes a sensor unit including an IR sensor and a visible light sensor and simultaneously sensing an image using the IR sensor and the visible light sensor, A preprocessing unit for performing preprocessing to remove noise of an image, a mapping unit for mapping the image into a new color using a previously stored mapping table, and a color correction unit for correcting the color of the image with the new color mapped can do.
상기 맵핑부는 상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 과정을 수행할 수 있다. The mapping unit may perform a learning process for generating the previously stored mapping table.
상기 맵핑부는 가시광선 센서를 이용하여 R, G, B 각각의 색상에 대하여 미리 정해진 조도 이상 및 미리 정해진 조도 이하에서 영상을 촬영하도록 하고, IR 센서를 이용하여 상기 미리 정해진 조도 이하에서 촬영한 영상과 동일한 조도 환경에서 영상을 촬영하도록 하고, 미리 정해진 모든 색상에 대하여 상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계를 반복 수행하도록 할 수 있다. The mapping unit may photograph an image at a predetermined illuminance or more and a predetermined illuminance or less with respect to colors of R, G, and B using a visible light sensor, It is possible to photograph the image in the same illuminance environment and repeat the learning step for generating the previously stored mapping table for all the predetermined colors.
상기 맵핑부는 상기 촬영된 영상들을 이용하여 조도 별로 다르게 학습된 맵핑 테이블을 생성할 수 있다. The mapping unit may generate a mapping table learned differently according to illuminance using the photographed images.
상기 맵핑부는 상기 미리 저장된 맵핑 테이블을 채널 별로 생성할 수 있다. The mapping unit may generate the previously stored mapping table for each channel.
상기 색상 보정부는 현재 조도가 입력되면, 상기 입력된 조도에 해당하는 맵핑 테이블을 선택하여 상기 영상의 색상을 보정할 수 있다.The color correction unit may correct the color of the image by selecting a mapping table corresponding to the inputted roughness when the current roughness is inputted.
본 발명의 실시예들에 따르면 학습을 통해 만들어진 맵핑 테이블을 사용하여 저조도에서도 영상의 색상을 보정할 수 있다. 따라서 빛이 부족한 밤에도 물체의 색상을 볼 수 있다. 또한, 조도 별로 다르게 학습된 맵핑 테이블을 생성하고, 주어진 조도에 맞는 테이블을 선택하여 영상의 색상을 보정할 수도 있다.According to the embodiments of the present invention, the color of an image can be corrected even in a low light level using a mapping table created through learning. Therefore, you can see the color of objects even at night when there is not enough light. Also, it is possible to generate a mapping table learned differently for each illumination level, and to select a table corresponding to a given illuminance to correct the color of the image.
도 1은 본 발명의 일 실시예에 따른 저조도에서의 색상 보정 방법을 설명하기 위한 흐름도이다.
도 2는 본 발명의 일 실시예에 따른 저조도에서의 색상 보정 과정을 설명하기 위한 전체 블록도이다.
도 3은 본 발명의 일 실시예에 따른 맵핑 테이블을 생성하기 위한 학습 과정을 설명하기 위한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 맵핑 테이블의 예시도이다.
도 5는 본 발명의 일 실시예에 따른 색상 성분 별 맵핑 테이블의 예시도이다.
도 6은 본 발명의 일 실시예에 따른 조도 별 색상 보정 과정을 설명하기 위한 전체 블록도이다.
도 7은 본 발명의 일 실시예에 따른 저조도에서의 색상 보정 시스템의 구성을 나타내는 도면이다.1 is a flowchart for explaining a color correction method in a low light level according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a color correction process in a low light level according to an exemplary embodiment of the present invention. Referring to FIG.
3 is a flowchart illustrating a learning process for generating a mapping table according to an embodiment of the present invention.
4 is an exemplary diagram of a mapping table according to an embodiment of the present invention.
5 is an exemplary diagram illustrating a mapping table for each color component according to an embodiment of the present invention.
FIG. 6 is an overall block diagram for explaining a color correction process for each illumination according to an embodiment of the present invention.
7 is a diagram illustrating a configuration of a color correction system in a low light level according to an embodiment of the present invention.
이하, 본 발명의 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 저조도에서의 색상 보정 방법을 설명하기 위한 흐름도이다. 1 is a flowchart for explaining a color correction method in a low light level according to an embodiment of the present invention.
저조도에서의 색상 보정 방법은 IR 센서 및 가시광선 센서를 이용하여 동시에 영상을 센싱하는 단계(110), 상기 센싱된 영상의 잡음을 제거하기 위한 전처리 과정을 수행하는 단계(120), 상기 영상을 미리 저장된 맵핑 테이블을 이용하여 새로운 색상으로 맵핑하는 단계(130), 상기 맵핑된 새로운 색상으로 상기 영상의 색상을 보정하는 단계(140)를 포함할 수 있다. The method of correcting color in low light level includes the steps of sensing
단계(110)에서, IR 센서 및 가시광선 센서를 이용하여 동시에 영상을 센싱할 수 있다. 이때, IR 센서 및 RGB 센서가 동시에 영상을 센싱한다. 두 센서는 동기화되어 있다고 가정한다. 특정 시점에 생성된 IR 영상을 IR이라고 하고, RGB 센서에서 얻어진 세 채널 영상을 R, G, B라고 하자. RGB 센서는 CMOS나 CCD 등이 가능하다.In
단계(120)에서, 상기 센싱된 영상의 잡음을 제거하기 위한 전처리 과정을 수행할 수 있다. 센서에서 바로 얻어진 영상들은 일반적으로 잡음이 심하다. 이들을 처리해줄 전처리 과정이 필요하다. 전처리 과정에는 잡음 제거를 포함한 다양한 영상처리가 포함될 수 있다. 예를 들어, IR 센서와 RGB 색상을 획득하는 가시광선 센서를 통해 획득된 로 데이터(raw data)들을 처리하는 전처리 과정들을 포함할 수 있다.In
단계(130)에서, 상기 영상을 미리 저장된 맵핑 테이블을 이용하여 새로운 색상으로 맵핑할 수 있다. 이렇게 얻어진 IR 영상과 RGB 영상은 일반적으로 정렬(align)이 되어 있지는 않다. 이를 정렬(align)할 일반적인 레지스트레이션(registration) 방법을 적용한다In
단계(140)에서, 상기 맵핑된 새로운 색상으로 상기 영상의 색상을 보정할 수 있다. 영상의 색상 보정(color correction) 과정의 첫 단계는 영상 정합이다. 그런 다음 화소 단위로 미리 저장된 맵핑 테이블에 따라 새로운 색상으로 맵핑한다. 상기 영상의 색상은 현재 조도가 입력되면, 상기 입력된 조도에 해당하는 맵핑 테이블을 선택하여 상기 영상의 색상을 보정할 수 있다. In
그리고, 저조도에서의 색상 보정 방법은 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계를 더 포함할 수 있다. The color correction method in the low illumination level may further include a learning step for generating a previously stored mapping table.
상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계는 R, G, B 각각의 색상에 대하여 미리 정해진 조도 이상에서 영상을 촬영하는 단계, R, G, B 각각의 색상에 대하여 미리 정해진 조도 이하에서 영상을 촬영하는 단계, 상기 미리 정해진 조도 이하에서 촬영한 영상과 동일한 조도 환경에서 IR 영상을 촬영하는 단계를 포함할 수 있다. 그리고, 미리 정해진 모든 색상에 대하여 상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계를 반복 수행할 수 있다. The learning step for generating the previously stored mapping table may include the steps of photographing an image at a predetermined illuminance or more with respect to the colors of R, G, and B, and displaying the image at a predetermined illuminance or less with respect to the colors of R, And photographing the IR image in the same illuminance environment as the image photographed at the predetermined illuminance or less. The learning step for generating the previously stored mapping table for all the predetermined colors may be repeated.
그리고, 상기 촬영된 영상들을 이용하여 조도 별로 다르게 학습된 맵핑 테이블을 생성할 수 있다. 또한, 상기 미리 저장된 맵핑 테이블은 채널 별 맵핑 테이블 생성이 가능하다. 도 2 내지 도 6을 참조하여 더욱 상세히 설명한다.
A mapping table learned differently according to illuminance can be generated using the photographed images. In addition, the pre-stored mapping table can generate a mapping table for each channel. Will be described in more detail with reference to Figs. 2 to 6. Fig.
도 2는 본 발명의 일 실시예에 따른 저조도에서의 색상 보정 과정을 설명하기 위한 전체 블록도이다.FIG. 2 is a block diagram illustrating a color correction process in a low light level according to an exemplary embodiment of the present invention. Referring to FIG.
도 2와 같이 IR 센서(211)와 RGB 색상을 획득하는 가시광선 센서, 다시 말해 RGB센서(212), 획득된 로 데이터(raw data)들을 처리하는 전처리 과정들, 미리 학습된 맵핑 테이블, 마지막으로 색상을 보정(correction)해주는 단계로 구성된다.As shown in FIG. 2, an
IR 센서(211) 및 RGB센서(212)가 동시에 영상을 센싱한다. 두 센서는 동기화되어 있다고 가정한다. 특정 시점에 생성된 IR 영상을 IR이라고 하고, 가시광선 센서에서 얻어진 세 개의 채널 영상을 R, G, B라고 하자. 예를 들어, RGB 센서로는 CMOS나 CCD 등이 가능하다. 이러한 센서에서 바로 얻어진 영상들은 일반적으로 잡음이 심하다. 따라서, 이들을 처리해줄 전처리 과정이 필요하다. The
IR 센서(211)용 전처리 과정을 전처리 과정1(221)이라고 할 때, 여기에는 잡음 제거를 포함한 다양한 영상처리가 포함될 수 있다. 그 출력을 IR'하자. When the preprocessing process for the
RGB 센서(212)용 전처리 과정을 전처리 과정2(222)라고 하자. 여기에도 잡음 제거, 디-모자이킹(de-mosaicing) 등이 포함된다. 즉, RGB 센서 출력이 베이어 패턴(Bayer Pattern)인 경우 이를 화소 당 RGB값들을 갖도록 변환할 필요가 있다. 이런 전처리 과정을 통해 얻어진 영상을 R', G', B'하자. 한편, IR 센서(211)의 영상과 RGB센서(212)의 RGB 영상이 해상도가 다를 경우 전처리 과정1(221)에는 스케일러(scaler)가 포함될 수 있다.Let the preprocessing process for
이렇게 얻어진 IR 영상과 RGB 영상은 일반적으로 정렬(align)되어 있지는 않다. 이를 정렬할 일반적인 레지스트레이션(registration) 방법을 적용한다. 다시 말해, 색상 보정부(color correction)(240)의 첫 단계는 영상 정합이다. 그런 다음 화소 단위로 맵핑 테이블(230)에 따라 새로운 색상으로 맵핑한다. 도 3을 참조하여 본 발명의 일 실시예에 따른 맵핑 테이블을 생성하기 위한 학습 과정을 더욱 상세히 설명한다.
The obtained IR image and RGB image are not generally aligned. Apply a general registration method to align them. In other words, the first step in the
도 3은 본 발명의 일 실시예에 따른 맵핑 테이블을 생성하기 위한 학습 과정을 설명하기 위한 흐름도이다. 3 is a flowchart illustrating a learning process for generating a mapping table according to an embodiment of the present invention.
그리고, 저조도에서의 색상 보정 방법은 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계를 더 포함할 수 있다. The color correction method in the low illumination level may further include a learning step for generating a previously stored mapping table.
상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계는 R, G, B 각각의 색상에 대하여 미리 정해진 조도 이상에서 영상을 촬영하는 단계(310), R, G, B 각각의 색상에 대하여 미리 정해진 조도 이하에서 영상을 촬영하는 단계(320), 상기 미리 정해진 조도 이하에서 촬영한 영상과 동일한 조도 환경에서 IR 영상을 촬영하는 단계(330)를 포함할 수 있다. 그리고, 미리 정해진 모든 색상에 대하여 상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계를 반복 수행(340)할 수 있다. The learning step for generating the previously stored mapping table may include a step (310) of photographing an image at a predetermined illuminance or higher with respect to each color of R, G and B, a step (310) A
그리고, 상기 촬영된 영상들을 이용하여 조도 별로 다르게 학습된 맵핑 테이블을 생성할 수 있다. 또한, 상기 미리 저장된 맵핑 테이블은 채널 별 맵핑 테이블 생성이 가능하다. A mapping table learned differently according to illuminance can be generated using the photographed images. In addition, the pre-stored mapping table can generate a mapping table for each channel.
다시 말해, 맵핑 테이블은 학습을 통해 얻어진다. 예를 들어, 학습은 각 색상 영상을 밝을 때 촬영하고 저조도일 때 촬영한다. 그리고, 동일한 저조도 환경에서 IR 영상도 얻는다. 주어진 모든 색상에 대해 촬영이 되면, 맵핑 테이블을 얻을 수 있다. 따라서, 밝을 때 RGB 값들이 참값이 된다.
In other words, the mapping table is learned through learning. For example, the learning is taken when each color image is bright and when it is low. Also, IR images are obtained in the same low light environment. Once you have taken a shot for any given color, you can get a mapping table. Therefore, the RGB values are true when they are bright.
도 4는 본 발명의 일 실시예에 따른 맵핑 테이블의 예시도이다. 4 is an exemplary diagram of a mapping table according to an embodiment of the present invention.
도 4는 총 N가지 경우의 수가 있다고 가정할 때 맵핑 테이블을 나타내는 예시도이다. 해당되는 IR', R', G', B' 값이 들어가면 대응하는 R", G", B"이 출력된다. 이러한 경우 테이블의 크기가 색상의 비트-심도(bit-depth)에 따라 크게 증가할 수 있다.
4 is an exemplary diagram showing a mapping table on the assumption that there are a total of N cases. When the corresponding values of IR ', R', G ', and B' are input, the corresponding R ", G", and B "are output. In this case, the size of the table increases greatly according to the bit- can do.
도 5는 본 발명의 일 실시예에 따른 색상 성분 별 맵핑 테이블의 예시도이다. 5 is an exemplary diagram illustrating a mapping table for each color component according to an embodiment of the present invention.
도 4에서 설명한 바와 같이, 테이블의 크기가 색상의 비트-심도(bit-depth)에 따라 크게 증가할 수 있다. 그러면, 도 5와 같이 이러한 문제점을 해결하기 위한 방안으로 세 가지 색상의 채널 별로 테이블을 둘 수도 있다. 도 5는 R성분에 대한 맵핑 테이블이며, 동일한 형태로 G, B 성분에 대한 테이블도 만들 수 있다.As described in FIG. 4, the size of the table can greatly increase according to the bit-depth of the color. In order to solve such a problem as shown in FIG. 5, a table may be provided for each channel of three colors. 5 is a mapping table for the R component, and tables for the G and B components can be created in the same form.
도 4의 통합 테이블 방식이나, 도 5의 색상 성분 별 테이블 방식을 사용하여 도 2와 같이 화소 별로 보정(correction)된 R", G", B" 영상을 얻을 수 있다.
G "and B" images corrected for each pixel as shown in FIG. 2 can be obtained by using the integrated table method of FIG. 4 or the color component-based table method of FIG.
도 6은 본 발명의 일 실시예에 따른 조도 별 색상 보정 과정을 설명하기 위한 전체 블록도이다. FIG. 6 is an overall block diagram for explaining a color correction process for each illumination according to an embodiment of the present invention.
위에서 설명한 바와 같이 IR 센서(611)와 RGB 색상을 획득하는 가시광선 센서, 다시 말해 RGB센서(612), 획득된 로 데이터(raw data)들을 처리하는 전처리 과정들, 미리 학습된 맵핑 테이블, 마지막으로 색상을 보정(correction)해주는 단계로 구성된다.As described above, the
IR 센서(611) 및 RGB센서(612)가 동시에 영상을 센싱한다. 두 센서는 동기화되어 있다고 가정한다. 특정 시점에 생성된 IR 영상을 IR이라고 하고, 가시광선 센서에서 얻어진 세 개의 채널 영상을 R, G, B라고 하자. 예를 들어, RGB 센서로는 CMOS나 CCD 등이 가능하다. 이러한 센서에서 바로 얻어진 영상들은 일반적으로 잡음이 심하다. 따라서, 이들을 처리해줄 전처리 과정이 필요하다. The
IR 센서(611)용 전처리 과정을 전처리 과정1(621)이라고 할 때, 여기에는 잡음 제거를 포함한 다양한 영상처리가 포함될 수 있다. 그 출력을 IR'이라고 하자. When the preprocessing process for the
RGB 센서(612)용 전처리 과정을 전처리 과정2(622)라고 하자. 여기에도 잡음 제거, 디-모자이킹(de-mosaicing) 등이 포함된다. 즉, RGB 센서 출력이 베이어 패턴(Bayer Pattern)인 경우 이를 화소 당 RGB값들을 갖도록 변환할 필요가 있다. 이런 전처리 과정을 통해 얻어진 영상을 R', G', B' 이라고 하자. 한편, IR 센서(611)의 영상과 RGB센서(612)의 RGB 영상이 해상도가 다를 경우 전처리 과정1(621)에는 스케일러(scaler)가 포함될 수 있다.Let the preprocessing process for
이렇게 얻어진 IR 영상과 RGB 영상은 일반적으로 정렬(align)되어 있지는 않다. 이를 정렬할 일반적인 레지스트레이션(registration) 방법을 적용한다. 다시 말해, 색상 보정부(color correction)(640)의 첫 단계는 영상 정합이다. 그런 다음 화소 단위로 맵핑 테이블(630)에 따라 새로운 색상으로 맵핑한다.The obtained IR image and RGB image are not generally aligned. Apply a general registration method to align them. In other words, the first step in
맵핑 테이블(630)은 학습을 통해 얻어진다. 예를 들어, 학습은 각 색상 영상을 밝을 때 촬영하고 저조도일 때 촬영한다. 그리고, 동일한 저조도 환경에서 IR 영상도 얻는다. 주어진 모든 색상에 대해 촬영이 되면, 맵핑 테이블을 얻을 수 있다. 따라서, 밝을 때 RGB 값들이 참값이 된다.The mapping table 630 is obtained through learning. For example, the learning is taken when each color image is bright and when it is low. Also, IR images are obtained in the same low light environment. Once you have taken a shot for any given color, you can get a mapping table. Therefore, the RGB values are true when they are bright.
하지만, 조도에 따라 동일한 IR 값인데도 색상 값이 달라질 수 있다. 따라서, 도 6과 같이 조도 별로 다르게 학습된 맵핑 테이블(630)을 미리 생성하고, 현재 조도가 입력으로 주어지면, 주어진 조도에 맞는 맵핑 테이블을 선택하여 색상 보정을 할 수도 있다.
However, depending on the illuminance, the color value may vary even though the IR value is the same. Accordingly, as shown in FIG. 6, when the mapping table 630 learned differently according to the roughness is generated in advance, and the current roughness is given as an input, the mapping table matching the given roughness may be selected to perform color correction.
도 7은 본 발명의 일 실시예에 따른 저조도에서의 색상 보정 시스템(700)의 구성을 나타내는 도면이다. 7 is a diagram illustrating a configuration of a
본 실시예에 따른 저조도에서의 색상 보정 시스템(700)은 프로세서(710), 버스(720), 네트워크 인터페이스(730), 메모리(740) 및 데이터베이스(750)를 포함할 수 있다. 메모리(740)는 운영체제(741) 및 색상 보정 루틴(742)을 포함할 수 있다. 프로세서(710)는 네트워크 센서부(711), 전처리부(712), 맵핑부(713), 색상 보정부(714)를 포함할 수 있다. 다른 실시예들에서 색상 보정 시스템(700)은 도 7의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 색상 보정 시스템(700)은 디스플레이나 트랜시버(transceiver)와 같은 다른 구성요소들을 포함할 수도 있다.The
메모리(740)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리(740)에는 운영체제(741)와 색상 보정 루틴(742)을 위한 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 드라이브 메커니즘(drive mechanism, 미도시)을 이용하여 메모리(740)와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체(미도시)를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 네트워크 인터페이스(730)를 통해 메모리(740)에 로딩될 수도 있다. The
버스(720)는 색상 보정 시스템(700)의 구성요소들간의 통신 및 데이터 전송을 가능하게 할 수 있다. 버스(720)는 고속 시리얼 버스(high-speed serial bus), 병렬 버스(parallel bus), SAN(Storage Area Network) 및/또는 다른 적절한 통신 기술을 이용하여 구성될 수 있다.The
네트워크 인터페이스(730)는 색상 보정 시스템(700)을 컴퓨터 네트워크에 연결하기 위한 컴퓨터 하드웨어 구성요소일 수 있다. 네트워크 인터페이스(730)는 색상 보정 시스템(700)을 무선 또는 유선 커넥션을 통해 컴퓨터 네트워크에 연결시킬 수 있다.The
데이터베이스(750)는 저조도에서의 색상 보정을 위해 필요한 모든 정보를 저장 및 유지하는 역할을 할 수 있다. 도 7에서는 색상 보정 시스템(700)의 내부에 데이터베이스(750)를 구축하여 포함하는 것으로 도시하고 있으나, 이에 한정되는 것은 아니며 시스템 구현 방식이나 환경 등에 따라 생략될 수 있고 혹은 전체 또는 일부의 데이터베이스가 별개의 다른 시스템 상에 구축된 외부 데이터베이스로서 존재하는 것 또한 가능하다.The
프로세서(710)는 기본적인 산술, 로직 및 색상 보정 시스템(700)의 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(740) 또는 네트워크 인터페이스(730)에 의해, 그리고 버스(720)를 통해 프로세서(710)로 제공될 수 있다. 프로세서(710)는 센서부(711), 전처리부(712), 맵핑부(713), 색상 보정부(714)를 위한 프로그램 코드를 실행하도록 구성될 수 있다. 이러한 프로그램 코드는 메모리(740)와 같은 기록 장치에 저장될 수 있다.The
센서부(711), 전처리부(712), 맵핑부(713), 색상 보정부(714)는 도 1의 단계들(110~140)을 수행하기 위해 구성될 수 있다.The
색상 보정 시스템(700)은 센서부(711), 전처리부(712), 맵핑부(713), 색상 보정부(714)를 포함할 수 있다.The
센서부(711)는 IR 센서 및 가시광선 센서를 포함하고, 상기 IR 센서 및 가시광선 센서를 이용하여 동시에 영상을 센싱할 수 있다. 이때, IR 센서 및 RGB 센서가 동시에 영상을 센싱한다. 두 센서는 동기화되어 있다고 가정한다. 특정 시점에 생성된 IR 영상을 IR이라고 하고, RGB 센서에서 얻어진 세 채널 영상을 R, G, B라고 하자. RGB 센서는 CMOS나 CCD 등이 가능하다.The
전처리부(712)는 상기 센싱된 영상의 잡음을 제거하기 위한 전처리 과정을 수행할 수 있다. 센서에서 바로 얻어진 영상들은 일반적으로 잡음이 심하다. 이들을 처리해줄 전처리 과정이 필요하다. 전처리 과정에는 잡음 제거를 포함한 다양한 영상처리가 포함될 수 있다. 예를 들어, IR 센서와 RGB 색상을 획득하는 가시광선 센서를 통해 획득된 로 데이터(raw data)들을 처리하는 전처리 과정들을 포함할 수 있다.The
맵핑부(713)는 상기 영상을 미리 저장된 맵핑 테이블을 이용하여 새로운 색상으로 맵핑할 수 있다. 이렇게 얻어진 IR 영상과 RGB 영상은 일반적으로 정렬(align)이 되어 있지는 않다. 맵핑부(713)는 이를 정렬(align)할 일반적인 레지스트레이션(registration) 방법을 적용한다. 상기 맵핑부(713)는 상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 과정을 수행할 수 있다. The
맵핑부(713)는 가시광선 센서를 이용하여 R, G, B 각각의 색상에 대하여 미리 정해진 조도 이상 및 미리 정해진 조도 이하에서 영상을 촬영하도록 할 수 있다. 그리고, IR 센서를 이용하여 상기 미리 정해진 조도 이하에서 촬영한 영상과 동일한 조도 환경에서 영상을 촬영하도록 하고, 미리 정해진 모든 색상에 대하여 상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계를 반복 수행하도록 할 수 있다. The
맵핑부(713)는 상기 촬영된 영상들을 이용하여 조도 별로 다르게 학습된 맵핑 테이블을 생성할 수 있다. 또한, 맵핑 테이블을 세 가지 색상의 채널 별로 생성할 수 있다.The
색상 보정부(714)는 상기 맵핑된 새로운 색상으로 상기 영상의 색상을 보정할 수 있다. 영상의 색상 보정(color correction) 과정의 첫 단계는 영상 정합이다. 그런 다음 화소 단위로 미리 저장된 맵핑 테이블에 따라 새로운 색상으로 맵핑한다. 상기 영상의 색상은 현재 조도가 입력되면, 상기 입력된 조도에 해당하는 맵핑 테이블을 선택하여 상기 영상의 색상을 보정할 수 있다. 상기 색상 보정부(714)는 현재 조도가 입력되면, 상기 입력된 조도에 해당하는 맵핑 테이블을 선택하여 상기 영상의 색상을 보정할 수 있다.
The
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (12)
IR 센서 및 가시광선 센서를 이용하여 동시에 영상을 센싱하는 단계;
상기 센싱된 영상의 잡음을 제거하기 위한 전처리 과정을 수행하는 단계;
상기 영상을 미리 저장된 맵핑 테이블을 이용하여 새로운 색상으로 맵핑하는 단계;
상기 맵핑된 새로운 색상으로 상기 영상의 색상을 보정하는 단계; 및
상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계
를 포함하고,
상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계는,
R, G, B 각각의 색상에 대하여 미리 정해진 조도 이상에서 영상을 촬영하는 단계;
R, G, B 각각의 색상에 대하여 미리 정해진 조도 이하에서 영상을 촬영하는 단계; 및
상기 미리 정해진 조도 이하에서 촬영한 영상과 동일한 조도 환경에서 IR 영상을 촬영하는 단계;
를 포함하고,
미리 정해진 모든 색상에 대하여 상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계를 반복 수행하는 것을 특징으로 하는 저조도에서의 색상 보정 방법.In the method for correcting color in low light,
Sensing images simultaneously using an IR sensor and a visible light sensor;
Performing a preprocessing process to remove noise of the sensed image;
Mapping the image into a new color using a previously stored mapping table;
Correcting the color of the image with the mapped new color; And
A learning step for generating the previously stored mapping table
Lt; / RTI >
Wherein the learning step for generating the previously stored mapping table comprises:
Capturing an image at a predetermined illuminance or more for each color of R, G, and B;
Capturing an image at a predetermined illuminance or less with respect to each color of R, G, and B; And
Capturing an IR image in the same illumination environment as the image photographed at a predetermined illuminance or less;
Lt; / RTI >
And a learning step for generating the previously stored mapping table for all the predetermined colors is repeatedly performed.
상기 촬영된 영상들을 이용하여 조도 별로 다르게 학습된 맵핑 테이블을 생성하는 것을 특징으로 하는 저조도에서의 색상 보정 방법.The method according to claim 1,
And generating a mapping table learned differently according to illumination intensity using the photographed images.
상기 미리 저장된 맵핑 테이블은 채널 별 맵핑 테이블 생성이 가능한 것을 특징으로 하는 저조도에서의 색상 보정 방법.The method according to claim 1,
Wherein the pre-stored mapping table is capable of generating a mapping table for each channel.
상기 맵핑된 새로운 색상으로 상기 영상의 색상을 보정하는 단계는,
현재 조도가 입력되면, 상기 입력된 조도에 해당하는 맵핑 테이블을 선택하여 상기 영상의 색상을 보정하는 것을 특징으로 하는 저조도에서의 색상 보정 방법.The method according to claim 1,
Wherein the step of correcting the color of the image with the mapped new color comprises:
And selecting a mapping table corresponding to the inputted roughness to correct the color of the image when the current roughness is inputted.
IR 센서 및 가시광선 센서를 포함하고, 상기 IR 센서 및 가시광선 센서를 이용하여 동시에 영상을 센싱하는 센서부;
상기 센싱된 영상의 잡음을 제거하기 위한 전처리 과정을 수행하는 전처리부;
상기 영상을 미리 저장된 맵핑 테이블을 이용하여 새로운 색상으로 맵핑하는 맵핑부; 및
상기 맵핑된 새로운 색상으로 상기 영상의 색상을 보정하는 색상 보정부
를 포함하고,
상기 맵핑부는,
가시광선 센서를 이용하여 R, G, B 각각의 색상에 대하여 미리 정해진 조도 이상 및 미리 정해진 조도 이하에서 영상을 촬영하도록 하고,
IR 센서를 이용하여 상기 미리 정해진 조도 이하에서 촬영한 영상과 동일한 조도 환경에서 영상을 촬영하도록 하고,
미리 정해진 모든 색상에 대하여 상기 미리 저장된 맵핑 테이블을 생성하기 위한 학습 단계를 반복 수행하도록 하는 것을 특징으로 하는 저조도에서의 색상 보정 시스템.In a low-illuminance color correction system,
A sensor unit including an IR sensor and a visible light sensor and simultaneously sensing an image using the IR sensor and the visible light sensor;
A preprocessing unit for performing a preprocessing process to remove noise of the sensed image;
A mapping unit for mapping the image into a new color using a previously stored mapping table; And
And a color correction unit for correcting the color of the image with the mapped new color,
Lt; / RTI >
Wherein the mapping unit comprises:
The image is photographed at a predetermined illuminance or more and a predetermined illuminance or less with respect to the colors of R, G, and B using a visible light sensor,
An image is captured in the same illuminance environment as that of the image photographed under the predetermined illuminance using the IR sensor,
And a learning step for generating the previously stored mapping table for all of the predetermined colors is repeatedly performed.
상기 맵핑부는,
상기 촬영된 영상들을 이용하여 조도 별로 다르게 학습된 맵핑 테이블을 생성하는 것을 특징으로 하는 저조도에서의 색상 보정 시스템.8. The method of claim 7,
Wherein the mapping unit comprises:
And generating a mapping table learned differently according to illuminance using the photographed images.
상기 맵핑부는,
상기 미리 저장된 맵핑 테이블을 채널 별로 생성 가능한 것을 특징으로 하는 저조도에서의 색상 보정 시스템.8. The method of claim 7,
Wherein the mapping unit comprises:
Wherein the pre-stored mapping table is generated on a channel-by-channel basis.
상기 색상 보정부는,
현재 조도가 입력되면, 상기 입력된 조도에 해당하는 맵핑 테이블을 선택하여 상기 영상의 색상을 보정하는 것을 특징으로 하는 저조도에서의 색상 보정 시스템.8. The method of claim 7,
Wherein the color correction unit comprises:
Wherein the color correction unit corrects the color of the image by selecting a mapping table corresponding to the inputted roughness when the current roughness is inputted.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150076631A KR101634904B1 (en) | 2015-05-29 | 2015-05-29 | Method and Apparatus for Color correction in low light environment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150076631A KR101634904B1 (en) | 2015-05-29 | 2015-05-29 | Method and Apparatus for Color correction in low light environment |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101634904B1 true KR101634904B1 (en) | 2016-06-29 |
Family
ID=56366013
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150076631A KR101634904B1 (en) | 2015-05-29 | 2015-05-29 | Method and Apparatus for Color correction in low light environment |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101634904B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000020833A (en) * | 1998-09-24 | 2000-04-15 | 전주범 | Apparatus and method for compensating digital image in real time |
KR100731812B1 (en) | 2006-08-11 | 2007-06-22 | 엠텍비젼 주식회사 | Color deviation compensating apparatus and method, image processor using it, recorded medium |
KR20110023694A (en) * | 2009-08-28 | 2011-03-08 | 한국전자통신연구원 | System for converting color of images cinematograph and controlling method thereof |
KR101141844B1 (en) * | 2010-11-15 | 2012-05-07 | 한양대학교 산학협력단 | Method and system for enhancing image under low illumination |
-
2015
- 2015-05-29 KR KR1020150076631A patent/KR101634904B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000020833A (en) * | 1998-09-24 | 2000-04-15 | 전주범 | Apparatus and method for compensating digital image in real time |
KR100731812B1 (en) | 2006-08-11 | 2007-06-22 | 엠텍비젼 주식회사 | Color deviation compensating apparatus and method, image processor using it, recorded medium |
KR20110023694A (en) * | 2009-08-28 | 2011-03-08 | 한국전자통신연구원 | System for converting color of images cinematograph and controlling method thereof |
KR101141844B1 (en) * | 2010-11-15 | 2012-05-07 | 한양대학교 산학협력단 | Method and system for enhancing image under low illumination |
Non-Patent Citations (1)
Title |
---|
최원희 외 3명. 가시광-근적외광 수광 구조를 이용한 저조도 컬러 영상 생성. 대한전자공학회 학술대회, 2011년 6월, pp. 1664-1667.* * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11704775B2 (en) | Bright spot removal using a neural network | |
JP7077395B2 (en) | Multiplexed high dynamic range image | |
EP3425590B1 (en) | Image processing apparatus, image processing method, and storage medium | |
CN101742123A (en) | Image processing apparatus and method | |
US8860840B2 (en) | Light source estimation device, light source estimation method, light source estimation program, and imaging apparatus | |
CN110956679B (en) | Image processing method and device, electronic equipment and computer readable storage medium | |
US11416707B2 (en) | Information processing method, information processing system, and information processing apparatus | |
JP2016042629A (en) | Imaging apparatus, imaging method and program | |
JP6374849B2 (en) | User terminal, color correction system, and color correction method | |
US8953899B2 (en) | Method and system for rendering an image from a light-field camera | |
KR101634904B1 (en) | Method and Apparatus for Color correction in low light environment | |
CN109429044B (en) | Method for detecting portion of image and image processing apparatus | |
KR101610512B1 (en) | Stereoscopic camera and method for operating the same | |
US20120120285A1 (en) | Method and apparatus for reconfiguring time of flight shot mode | |
JP7539795B2 (en) | Information processing method, information processing system, and information processing device | |
CN112598716B (en) | Multi-mode image registration method, device and system | |
WO2021025375A1 (en) | Apparatus and method for efficient regularized image alignment for multi-frame fusion | |
JP2009009206A (en) | Extraction method of outline inside image and image processor therefor | |
JP6301202B2 (en) | Shooting condition setting device and shooting condition setting method | |
KR101774913B1 (en) | Method and apparatus for displaying images using pre-processing | |
CN115280757A (en) | Information processing apparatus, information processing method, and information processing program | |
JP2005295302A (en) | Camera image processing device | |
JP7193359B2 (en) | Image processing system and camera system | |
WO2021261141A1 (en) | Object detection device and object detection method | |
KR101691806B1 (en) | Method and apparatus for displaying images using pre-processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20190408 Year of fee payment: 4 |