KR100649384B1 - Method for extracting image characteristic in low intensity of illumination environment - Google Patents

Method for extracting image characteristic in low intensity of illumination environment Download PDF

Info

Publication number
KR100649384B1
KR100649384B1 KR1020050088615A KR20050088615A KR100649384B1 KR 100649384 B1 KR100649384 B1 KR 100649384B1 KR 1020050088615 A KR1020050088615 A KR 1020050088615A KR 20050088615 A KR20050088615 A KR 20050088615A KR 100649384 B1 KR100649384 B1 KR 100649384B1
Authority
KR
South Korea
Prior art keywords
image
brightness
sample
low light
feature
Prior art date
Application number
KR1020050088615A
Other languages
Korean (ko)
Inventor
김영욱
박창우
정중기
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020050088615A priority Critical patent/KR100649384B1/en
Application granted granted Critical
Publication of KR100649384B1 publication Critical patent/KR100649384B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

A method for extracting the characteristic of an image in the low intensity of illumination environment is provided to separately remove the noise mixed at the relatively darker area than the entire dark area. A CCD(Charge Coupled Device) camera(101) as an image sensor photographs an external image and outputs a boosted analog video signal. The CCD camera is surrounded by an IR(Infrared) module(100) arranged with a circular shape. A frame graver(102) is activated by a control signal inputted by a microcomputer(104), digitizes the analog video signal photographed by the CCD camera and IR module and outputs the digital video signal to a memory(103) by frames. The memory is connected to the frame graver and stores the video information outputted from the frame graver.

Description

저조도 환경에서의 영상특징 추출방법{Method for extracting image characteristic in low intensity of illumination environment}Method for extracting image characteristic in low intensity of illumination environment

도 1은 본 발명이 적용된 영상특징 추출장치를 도시한 도면1 is a diagram showing an image feature extraction apparatus to which the present invention is applied.

도 2는 본 발명에 따른 차영상을 구하는 양태를 설명하기 위한 도면,2 is a view for explaining an aspect for obtaining a difference image according to the present invention;

도 3은 본 발명에 따른 특징점을 구하는 양태를 설명하기 위한 도면,3 is a view for explaining an aspect for obtaining a feature point according to the present invention;

도 4는 본 발명에 따른 각 특징점의 변화량과 변화방향을 구하는 양태를 설명하기 위한 도면4 is a view for explaining an aspect for obtaining a change amount and a change direction of each feature point according to the present invention;

도 5는 본 발명에 따른 특징벡터를 구하는 양태를 설명하기 위한 도면5 is a view for explaining an aspect for obtaining a feature vector according to the present invention.

도 6은 본 발명에 따른 저조도 환경에서의 영상특징 추출방법을 도시한 도면6 is a diagram illustrating a method for extracting image features in a low light environment according to the present invention.

* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

100 : IR LED 모듈 101 : CCD 카메라100: IR LED module 101: CCD camera

102 : 프레임 그레버 103 : 메모리102: frame grabber 103: memory

104 : 마이크로 컴퓨터104: microcomputer

본 발명은 저조도 환경에서 촬영하여 전체적으로 어둡게 보여지는 영상에서 상대적으로 더 어두운 영역에 혼입되어 있는 노이즈를 제거하므로, 저조도 환경에서 특징벡터를 용이하게 추출할 수 있도록 하는 저조도 환경에서의 영상특징 추출방법에 관한 것이다.The present invention removes noise mixed in a relatively darker area in an image that is dark in an image taken in a low light environment, and thus an image feature extraction method in a low light environment to easily extract a feature vector in a low light environment. It is about.

통상적으로, 밤과 같이 1(lux) 이하의 저조도 환경에서 IR LED(Infrared Luminescent Diode)와 컬러 씨씨디 카메라(Color CCD Camera)를 통해 부스팅(boosting)된 저조도 영상에는 PCN(Poisson Counting Noise)이나 FCN(False Color Noise)등이 혼입되어 있는데, 특히 저조도 영상 가운데서 상대적으로 더 어둡게 보여지는 영역에는 더욱더 많은 량의 PCN(Poisson Counting Noise)이나 FCN(False Color Noise)이 혼입되어 있다.Typically, a low-light image boosted by an IR LED (Infrared Luminescent Diode) and a color CCD camera in a low-light environment of less than 1 (lux), such as night, is used for Poisson Counting Noise (PCN) or FCN. (False Color Noise), etc. are mixed. In particular, a relatively darker portion of the low-light image contains a greater amount of Poisson Counting Noise (PCN) or False Color Noise (FCN).

한편, 일반적인 영상특징 추출방식은 컬러 씨씨디 카메라(Color CCD Camera)와 IR LED 등을 통해 외부로부터 영상을 입력받고, 필터링시킨 후, 가우시안 마스크를 사용해 양자화하여 블러링(Blurring)시킨 표본 영상들 가운데서, 인접한 표본 영상들의 대응되는 각 픽셀간의 거리와 아핀(affine)변화량을 사용해 영상의 특징 벡터를 추출한다.On the other hand, the general image feature extraction method is a sample of images received from the outside through a color CCD camera and IR LED, filtered, and then quantized and blurred using a Gaussian mask. The feature vector of the image is extracted using the distance between each corresponding pixel of adjacent sample images and the amount of affine variation.

하지만, 이러한 통상의 영상특징 추출 방식은 계산량이 상당히 많고, 알고리즘의 실시간 구현이 용이하지 않을 뿐만 아니라, 특히 전술한 바와 같이, 저조도 영상에서 특히 상대적으로 어둡게 보여지는 영역에 혼입되어 있는 상당량의 PCN(Poisson Counting Noise)이나 FCN(False Color Noise)은 가우시안 마스크를 사용한 양자화 작업시 상당한 아웃리어(outlier)로 작용하므로 영상의 특징벡터를 추출하는 것이 용이하지 않다. However, such a conventional image feature extraction method has a large amount of computation and is not easy to implement an algorithm in real time, and, as described above, a considerable amount of PCN (which is incorporated in a region that is particularly dark in low light image, as described above). Poisson Counting Noise (FSI) or False Color Noise (FCN) acts as a significant outlier in quantization using Gaussian masks, making it difficult to extract feature vectors from images.

본 발명은 상기한 문제점을 해소시키기 위하여 개발된 것으로, 저조도 환경에서 촬영하여 전체적으로 어둡게 보여지는 영상에서 상대적으로 더 어두운 영역에 혼입되어 있는 노이즈를 별도로 제거하고, 더불어 특징벡터도 용이하게 추출할 수 있도록 하는 저조도 환경에서의 영상특징 추출방법을 제공하는데 그 목적이 있다.The present invention was developed to solve the above-described problems, so as to separately remove the noise mixed in a relatively darker area in the image that is dark overall by shooting in a low light environment, and also to easily extract the feature vector Its purpose is to provide a method for extracting image features in low light environments.

이러한 목적에 따른 본 발명의 저조도 환경에서의 영상특징 추출방법은Image feature extraction method in a low light environment of the present invention according to this object is

저조도에서 촬영하여 전체적으로 어두운 영상 중에서, 특히 노이즈가 상당히 혼입되어 있는 상대적으로 더 어두운 영역을 분할하여 그 영역내에 있는 노이즈들을 각 속성에 맞게 나누어 필터링시키고, 영상의 각 특징점에 대한 밝기의 변화량과 밝기의 변화방향을 설정범위를 가진 다수의 기준되는 방향 벡터로 양자화시키는 방식으로 특징 벡터를 추출하는 것을 특징으로 한다.Shooting in low light and dividing the relatively darker areas of the overall dark image, especially the noises, and dividing the noises in the area according to their properties, filtering the amount of change in brightness and brightness for each feature point of the image. A feature vector is extracted by quantizing the change direction into a plurality of reference direction vectors having a setting range.

바람직한 구조는, 촬영한 저조도 영상에서 상대적으로 밝은 영역과 어두운 영역을 분할하는 단계, 그 분할한 영역 중에서, 어두운 영역내의 노이즈들을 각 속성에 맞게 나누어 필터링시켜 표본 영상을 얻는 단계, 인접한 표본 영상들의 차영상을 구하는 단계, 차영상내의 각 특징점에 대한 밝기의 변화량과 밝기의 변화방향을 설정범위를 가진 다수의 기준되는 방향 벡터로 양자화시켜 영상의 특징 벡터를 산출하는 단계를 구비한 것을 특징으로 한다.The preferred structure comprises the steps of: dividing the relatively bright and dark areas in the photographed low-light image, obtaining a sample image by dividing and filtering noises in the dark area according to each property among the divided areas, and the difference between adjacent sample images. Obtaining an image, and quantizing the amount of change in brightness and the direction of change in brightness of each feature point in the difference image into a plurality of reference direction vectors having a set range, and calculating a feature vector of the image.

상기 차영상내의 각 특징점에 대한 밝기의 변화량과 밝기의 변화방향은 하기의 수학식1에 따라 산출되는 것을 특징으로 한다.A change amount of brightness and a change direction of brightness of each feature point in the difference image are calculated according to Equation 1 below.

Figure 112005053195024-pat00001
Figure 112005053195024-pat00001

Figure 112005053195024-pat00002
Figure 112005053195024-pat00002

여기서,

Figure 112005053195024-pat00003
는 밝기의 변화량(Gradient)이고,
Figure 112005053195024-pat00004
는 밝기의 변화방향(orientationn)이며,
Figure 112005053195024-pat00005
는 픽셀들의 위치좌표를 나타낸다.here,
Figure 112005053195024-pat00003
Is the gradient of brightness,
Figure 112005053195024-pat00004
Is the orientation of brightness,
Figure 112005053195024-pat00005
Represents the position coordinate of the pixels.

상기 저조도에서 촬영한 영상에서 밝은 영역과 어두운 영역을 분할하는 단계는 상기 촬영한 저조도 영상내의 각 픽셀들의 계조값과 미리 설정된 계조값을 비교하는 단계, 그 비교한 결과에 따라 상대적으로 밝은 영역과 어두운 영역을 분할하는 단계를 구비한 것을 특징으로 한다.The dividing of the light and dark areas of the image taken at the low light level comprises comparing the gray level value of each pixel and the preset gray level value in the photographed low light image, and relatively light and dark areas according to the comparison result. And dividing the region.

상기 노이즈들을 각 속성에 맞게 나누어 필터링시키는 것은 예를 들면, 상기 어두운 영역내의 영상의 움직임 유무를 판별하는 단계, 상기 움직임 유무에 대한 판별 결과에 따라 노이즈들을 각 속성에 맞게 나누어 필터링시켜 표본 영상을 생성하는 단계로 구성된 것을 특징으로 한다. The dividing and filtering of the noises according to respective attributes may include, for example, determining whether or not the image moves in the dark region, and dividing and filtering the noises according to the attributes according to the determination result of the movement to generate a sample image. Characterized in that consisting of steps.

상기 움직임 유무는 인접한 어두운 영역내의 영상들의 계조변화정도에 따라 판별하는 것을 특징으로 한다.The presence or absence of the movement may be determined according to the degree of gray level change of the images in the adjacent dark area.

상기 표본 영상을 생성하는 단계는 상기 움직임 유무에 대한 판별 결과에 따라 서로 다른 노이즈를 검출하는 단계, 상기 검출한 노이즈에 맞는 필터로 해당되는 노이즈를 필터링시켜 표본 영상을 생성하는 단계를 구비한 것을 특징으로 한다.The generating of the sample image may include detecting different noises according to a determination result of the presence or absence of the motion, and generating a sample image by filtering noise corresponding to a filter suitable for the detected noise. It is done.

그리고, 상기 노이즈가 영상의 센터에 위치하는 가를 판별하는 단계를 추가로 포함하고, 상기 표본 영상을 생성하는 단계는 상기 판별 결과에 따라 상이한 필터로 해당되는 노이즈를 필터링시켜 표본영상을 생성하는 것을 특징으로 한다.The method may further include determining whether the noise is located at the center of the image, and generating the sample image may generate a sample image by filtering noise corresponding to a different filter according to the determination result. It is done.

상기 서로 다른 노이즈는 FCN노이즈와 PCN노이즈인 것을 특징으로 한다. The different noise may be FCN noise and PCN noise.

상기 서로 다른 노이즈를 필터링시키는 필터는 템포랄 필터(Temporal Filter), 메디안 필터(Median Filter), 로우패스 필터(Lowpass Filter)중에서 선택된 어느 하나 이상을 사용할 수 있다. The filter for filtering the different noises may use any one or more selected from a temporal filter, a median filter, and a lowpass filter.

상기 차영상을 생성하는 단계는 표본 영상에 대해 동일한 가우시안 마스크(Gaussian Mask)를 적용하는 것을 특징으로 하는데, 특히, 상기 가우시안 마스크(Gaussian Mask)는 공분산이

Figure 112005053195024-pat00006
인 것을 사용할 수 있다.The generating of the difference image is characterized by applying the same Gaussian mask to a sample image. In particular, the Gaussian mask has a covariance.
Figure 112005053195024-pat00006
Can be used.

이하, 첨부된 도면을 참조하여 본 발명을 살펴보면 다음과 같다.Hereinafter, the present invention will be described with reference to the accompanying drawings.

도 1에 도시된 영상특징 추출장치는 본 발명이 적용된 영상특징 추출장치의 일예로, 크게, IR LED(Infrared Luminescent Diode)모듈(100), CCD카메라(101), 프레임 그레버(102), 메모리(103), 마이크로 컴퓨터(104)로 이루어진다.The image feature extracting apparatus shown in FIG. 1 is an example of an image feature extracting apparatus to which the present invention is applied. The image feature extracting apparatus may be, for example, an IR LED (Infrared Luminescent Diode) module 100, a CCD camera 101, a frame grabber 102, and a memory. 103, the microcomputer 104.

본 발명은 저조도 환경에 맞게 영상을 촬영하기 위해, 외부의 이미지를 촬영하여 부스팅(boosdting)된 아날로그 영상신호를 출력하는 이미지 센서인 CCD카메라(101)와 더불어 IR LED모듈(100)을 구비하는데, 상기의 IR LED모듈(100)은 CCD카메 라(101)를 둘러싸게 원형으로 배치되어 방사상으로 넓게 확장된 패턴을 가진다.The present invention includes an IR LED module 100 together with a CCD camera 101 which is an image sensor for outputting a boosted analog video signal by taking an external image in order to capture an image according to a low light environment, The IR LED module 100 is disposed in a circular shape surrounding the CCD camera 101 to have a radially wide pattern.

프레임 그레버(102)는 상기의 CDD카메라(101), IR LED모듈(100), 메모리(103) 및 마이크로 컴퓨터(104)와 각기 연결된 것으로서, 마이크로 컴퓨터(104)에서 입력하는 제어신호에 따라 활성화되어 상기 CCD카메라(101)와 IR LED모듈(100)에서 촬상한 아날로그 영상신호를 디지타이징(digitizing)하고 프레임별로 나누어 메모리에 출력하는 것이다. 프레임의 구분은 시작과 마지막에 해당하는 영상정보에 프라임(prime) 정보를 부여하여 이루어질 수 있는데, 이외에도 통상적인 방식이 적용될 수 있다.The frame grabber 102 is connected to the CDD camera 101, the IR LED module 100, the memory 103, and the microcomputer 104, respectively, and is activated according to a control signal input from the microcomputer 104. The digital camera digitizes the analog image signal captured by the CCD camera 101 and the IR LED module 100 and outputs the image to the memory by dividing it by frame. The division of the frame may be performed by applying prime information to image information corresponding to the beginning and the end, and other conventional methods may be applied.

메모리(103)는 상기 프레임 그레버(102)에 연결되어 상기 프레임 그레버(102)에서 출력하는 영상정보를 지정된 저장공간에 저장한다. 저장공간은 마이크로 컴퓨터(104)에서 지정되며, 이러한 정보는 프레임 그레버(102)가 입력받아 그를 사용해 해당되는 저장공간에 프레임별로 저장한다. 상기 메모리(103)는 프레임 메모리로 사용하는 것도 가능하다.The memory 103 is connected to the frame grabber 102 to store image information output from the frame grabber 102 in a designated storage space. The storage space is designated by the microcomputer 104, and this information is received by the frame grabber 102 and stored in the corresponding storage space frame by frame. The memory 103 can also be used as a frame memory.

마이크로 컴퓨터(104)는 외부로부터 입력되는 사용자 명령에 따라 프레임그레버(102)를 제어하고, 메모리(103)에 저장된 영상정보를 처리하여 본 발명에 따른 영상의 특징을 추출한 후 영상프로세서로 출력하는 것이다. 내부에는 저조도 필터모듈, PSIFT(Pseudo Scale Invariant Feature Transform)모듈이 구비되며, 상기의 저조도 필터모듈은 메디안 필터, 로우패스 필터, 템포랄 필터를 포함할 수 있다.The microcomputer 104 controls the frame grabber 102 according to a user command input from the outside, and processes the image information stored in the memory 103 to extract a feature of the image according to the present invention and output it to an image processor. will be. A low light filter module and a pseudo scale invariant feature transform (PSIFT) module are provided therein, and the low light filter module may include a median filter, a low pass filter, and a temporal filter.

상기의 마이크로 컴퓨터(104)는 프레임 그레버(102)를 활성화시켜 상기 프레임 그레버(102)에서 프레임별로 구분하여 메모리(103)에 저장한 영상을 미리 설정 된 기준 계조값에 따라 밝은 영역과 어두운 영역으로 분할한다.The microcomputer 104 activates the frame grabber 102 to classify the image stored in the memory 103 by dividing the frame grabber 102 into frames according to a preset reference gray value. Split into areas.

즉, 상기 메모리에 저장된 영상내의 각 픽셀들의 계조값과 미리 설정된 계조값을 비교하고, 그 비교한 결과 메모리에 저장된 영상내의 각 픽셀들의 계조값이 미리 설정된 계조값보다 작은 영역을 어두운 영역으로서 분할한다.That is, a gray level value of each pixel in the image stored in the memory is compared with a preset gray level value, and as a result of the comparison, an area in which the gray level value of each pixel in the image stored in the memory is smaller than the preset gray level value is divided into dark areas. .

상기 저조도 필터모듈은 상기의 분할한 어두운 영역에 혼입된 노이즈들을 각 속성에 맞게 나누어 필터링시켜 표본 영상을 생성한다.The low light filter module generates a sample image by dividing and filtering the noises mixed in the divided dark areas according to each property.

예를 들면, 어두운 영역에 속하는 영상의 움직임 유무를 판별하고, 그 움직임 유무에 대한 판별 결과에 따라 노이즈들을 각 속성에 맞게 나누어 필터링시켜 표본 영상을 생성한다. 상기 움직임 유무는 인접한 영상들의 계조변화정도에 따라 판별하는데, 이는 일반적인 기술로서, 여기서는 그에 대한 상세한 설명을 생략한다.For example, the presence or absence of motion of an image belonging to a dark region is determined, and a sample image is generated by dividing and filtering noises according to each property according to the determination result of the movement. The presence or absence of the motion is determined according to the degree of gradation change of adjacent images, which is a general technique, and a detailed description thereof will be omitted.

상기 저조도 필터모듈 중에서, 메디안 필터는 상기 움직임 유무에 대해 판별 한 결과, 움직임이 있을 경우에 검출되는 PCN노이즈를, 특히 해당되는 영상프레임내에서 센터에 위치한 PCN노이즈를 필터링시키는 것이다. Among the low light filter modules, the median filter filters PCN noise detected when there is motion, and in particular, PCN noise located at the center in a corresponding video frame.

상기 로우패스 필터는 상기 움직임 유무에 대해 판별한 결과, 움직임이 없을 경우에 검출되는 PCN노이즈를, 특히 해당되는 영상프레임내에서 센터에 위치한 PCN노이즈를 필터링시키는 것이다.The low pass filter filters the PCN noise detected when there is no motion, in particular, the PCN noise located at the center in the corresponding video frame.

상기 템포랄 필터는 상기 움직임 유무에 대해 판별한 결과, 움직임이 있을 경우에 검출되는 FCN노이즈를 필터링시키는 것으로서, 각 필터의 필터링 동작은 공지된 기술로서, 여기서는 그에 대한 설명을 생략한다.The temporal filter filters the FCN noise detected when there is motion as a result of the determination of the presence or absence of the motion, and the filtering operation of each filter is a known technique, and a description thereof will be omitted herein.

상기 PSIFT모듈은 상기 생성한 표본 영상을 연속적으로 입력받아 인접한 두 영상간의 차영상을 생성하고, 상기 생성한 차영상내에서 각 특징점을 설정하여, 그 각 특징점에 대한 밝기의 변화량 벡터와 밝기의 변화방향 벡터를 미리 정해진 다수의 기준 벡터로 근사화시켜 특징 벡터를 산출하는 것이다. 이는, 서로 다른 가우시안 마스크를 사용해 블러링(Blurring)시킨 표본 영상들 가운데서, 인접한 표본 영상들의 대응되는 각 픽셀간의 거리와 아핀(affine)변화량을 사용해 특징 벡터를 산출하는 종래와는 분명히 상이한데, 구체적인 산출 작업은 바로 후술한다.The PSIFT module continuously receives the generated sample image, generates a difference image between two adjacent images, sets each feature point in the generated difference image, and changes the brightness variation vector and the brightness of each feature point. The feature vector is calculated by approximating the direction vector to a plurality of predetermined reference vectors. This is clearly different from the conventional method of calculating a feature vector using the distance between each corresponding pixel of adjacent sample images and the amount of affine among the sample images blurred using different Gaussian masks. The calculation operation will be described later immediately.

도 2 내지 도 5는 상기의 PSIFT모듈이 특징 벡터를 산출하는 작업을 좀 더 상세히 설명하기 위해 마련된 것이다.2 to 5 are provided to explain in more detail the operation of calculating the feature vector by the PSIFT module.

도 2는 상기 필터링시켜 생성한 표본 영상을 연속적으로 입력받아 인접한 두 영상간의 차영상을 생성하는 작업을 나타낸 것이다. 2 illustrates an operation of continuously receiving the sample image generated by the filtering and generating a difference image between two adjacent images.

상기 작업은 입력영상에 대해 동일한 크기의 가우시안 마스크(Gaussian Mask)를 적용하여 블러링(Blurring)된 표본 영상 들을 좌측에 도시된 바와 같이 연속적으로 얻은 다음, 이렇게 생성된 좌측의 표본 영상 중에서 인접한 표본 영상들의 계조값을 감산시켜, 그 결과, 즉 인접한 표본 영상들의 계조값의 차이값으로 이루어진 차영상을 생성하는 것으로, 상기 가우시안 마스크(Gaussian Mask)는 공분산이

Figure 112005053195024-pat00007
인 것이 바람직하다.The operation is performed by continuously obtaining blurred sample images by applying a Gaussian mask of the same size to the input image as shown on the left side, and then adjacent sample images from the left sample images generated as described above. By subtracting the gray scale value of the two gray scale values, that is, generating a difference image composed of the difference values of the gray scale values of adjacent sample images. The Gaussian mask has a covariance
Figure 112005053195024-pat00007
Is preferably.

도 3은 상기의 작업에 의해 생성한 차영상내에서 특징이 되는 특징점을 설정하는 작업을 나타낸 것이다. 3 shows a task of setting a feature point that is a feature in the difference image generated by the above task.

상기 작업은 예를 들면, 차영상(302)의 픽셀(i, j)에 대하여 인접된 8개의 픽셀값들과 다른 차영상(301, 303)내에서 상기 픽셀들과 동일한 위치에 속한 픽셀들, 즉 (i-1, j), (i+1, j), (i-1, j+1), (i, j+1), (i+1, j+1), (i-1, j-1), (i, j-1), (i+1, j-1)위치의 픽셀들에 대한 계조값을 각기 비교하여 크거나 작으면 특징점으로 설정한다.The operation is, for example, pixels belonging to the same position as the pixels in the difference image 301 and 303 that are different from the eight pixel values adjacent to the pixels i and j of the difference image 302, (I-1, j), (i + 1, j), (i-1, j + 1), (i, j + 1), (i + 1, j + 1), (i-1, The gray level values for the pixels at positions j-1), (i, j-1), and (i + 1, j-1) are compared with each other, and set as feature points if they are larger or smaller.

도 4는 도 3에 도시된 작업에 의해 설정한 특징점에 대한 밝기의 변화량 벡터와 밝기의 변화방향 벡터를 구하는 작업이다. FIG. 4 is a task of obtaining a change amount vector of brightness and a change direction vector of brightness with respect to a feature point set by the work shown in FIG. 3.

상기 작업은 설정된 특징점에 대응되는 픽셀에 값을 부여하기 위해 상기 특징점의 위치를 중심으로 8×8윈도우를 설정하고, 하기의 수학식2에 의해 윈도우 내의 64개의 픽셀들의 그레디언트(Gradient)즉, 특징점에 대한 밝기의 변화량 벡터와, 오리엔테이션(Orientation), 즉 밝기의 변화방향 벡터를 구한다.The operation sets an 8 × 8 window around the position of the feature point to give a value to a pixel corresponding to the set feature point, and the gradient of 64 pixels in the window, that is, the feature point, is expressed by Equation 2 below. The change amount vector of the brightness and the orientation, i.e., the change direction vector of the brightness are obtained.

Figure 112005053195024-pat00008
Figure 112005053195024-pat00008

Figure 112005053195024-pat00009
Figure 112005053195024-pat00009

여기서,

Figure 112005053195024-pat00010
는 그래디언트(Gradient)이고,
Figure 112005053195024-pat00011
는 오리엔테이션(Orientation)이며,
Figure 112005053195024-pat00012
는 픽셀들의 위치좌표를 나타낸다. here,
Figure 112005053195024-pat00010
Is a gradient,
Figure 112005053195024-pat00011
Is an orientation,
Figure 112005053195024-pat00012
Represents the position coordinate of the pixels.

도 5는 도 4에 도시된 작업에 의해 구한 각 특징점에 대한 밝기의 변화량과 밝기의 변화방향을 설정범위(예: A, B)를 가진 다수의 기준되는 방향 벡터(예 : 10, 3, 12, ... )로 양자화시켜 특징 벡터를 추출하는 작업이다.FIG. 5 illustrates a plurality of reference direction vectors (eg, 10, 3, and 12) having a setting range (eg, A and B) for changing the amount of change in brightness and the direction of changing the brightness for each feature point obtained by the work illustrated in FIG. 4. , ...) to extract feature vectors.

예를 들면, 도시된 바와 같이, 다수의 기준되는 방향 벡터(10, 3, 12, ... )가 서로 다른 방향을 지시하는 8개의 기준 벡터로 설정된 경우, 우선 각 특징점에 대한 밝기의 변화량과 밝기의 변화방향을 각기 합하고 소팅(sorting)시켜 최대값을 결정한다. 이 오리엔테이션 값을 캐노니컬 오리엔테이션으로 설정한다. For example, as shown in the drawing, when a plurality of reference direction vectors 10, 3, 12, ... are set to eight reference vectors indicating different directions, first, the amount of change in brightness for each feature point and Each change direction of brightness is sorted and sorted to determine the maximum value. Set this orientation value to canonical orientation.

그런 후, 특징점으로 설정된 픽셀 주위의 64개의 픽셀들에 대해 얻어진 오리엔테이션

Figure 112005053195024-pat00013
에서 캐노니컬(canonical)오리엔테이션 값을 감산시켜 64개의 픽셀들에 대해 새로운 오리엔테이션
Figure 112005053195024-pat00014
Figure 112005053195024-pat00015
를 구한다. Then, the orientation obtained for the 64 pixels around the pixel set as the feature point
Figure 112005053195024-pat00013
New orientation for 64 pixels by subtracting the canonical orientation value in
Figure 112005053195024-pat00014
Figure 112005053195024-pat00015
Obtain

다음, 각 픽셀들에 대한 오리엔테이션 값을 상기 8개의 기준되는 방향 벡터를 사용해 8개의 오리엔테이션값으로 양자화(Quantization)한다. 그런 후, 64개의 픽셀들에 대해 양자화(Quantization)된

Figure 112005053195024-pat00016
Figure 112005053195024-pat00017
와 각 픽셀들에 대한 그래디언트값을 이용하여 벡터(Scaled and Quantized orientation vector)를 얻고, 64개의 픽셀들에 대해 8개 방향의 오리엔테이션에 대한 스케일링 값의 합을 구한 후, 각 8개 방향에 대한 스케일링 값의 합을 특징 벡터로 설정한다. Next, the orientation value for each pixel is quantized into eight orientation values using the eight reference direction vectors. Then, quantized for 64 pixels
Figure 112005053195024-pat00016
Figure 112005053195024-pat00017
Using the gradient values for each pixel, we obtain a scaled and quantized orientation vector, sum the scaling values for eight orientations for 64 pixels, and then scale for each of the eight orientations. Set the sum of the values to a feature vector.

이러한 과정은 각 특징점에 대해 반복적으로 수행되며, 최종적으로 얻어진 특징 벡터의 차원(Dimension)은 특징점 하나당 8-차원(Dimension)을 가지게 된다. 그 결과로 입력 영상에서 특징점 개수만큼의 특징 벡터의 집합을 비교하므로 동일 영상을 찾아낼 수 있는데, 그에 대한 설명은 통상적인 것으로 여기서는 생략하기로 한다.This process is repeatedly performed for each feature point, and the dimension of the finally obtained feature vector has 8-dimensions per feature point. As a result, the same image can be found by comparing a set of feature vectors corresponding to the number of feature points in the input image, and a description thereof is conventional and will be omitted herein.

도 6은 본 발명에 따른 저조도 환경에서의 영상특징 추출방법을 도시한 도면이다. 6 is a diagram illustrating a method for extracting image features in a low light environment according to the present invention.

우선, 본 발명에 따른 저조도 환경에서의 영상특징 추출방법은 단계(601)에 따라 로봇의 CCD카메라와 IR LED모듈을 통해 외부로부터 저조도 영상을 입력받는 다. 상기의 IR LED모듈은 외부 조명 등의 영향으로 인하여 정확한 좌표추출이 어렵기 때문에 이를 해결하기 위해 사용된 것으로, CCD카메라를 둘러싸게 원형으로 배치되어 방사상으로 넓게 확장된 패턴을 가진다.First, the method for extracting image features in a low light environment according to the present invention receives a low light image from the outside through the CCD camera and the IR LED module of the robot according to step 601. The IR LED module is used to solve this problem because accurate coordinate extraction is difficult due to the influence of external lighting, etc., and is arranged in a circular shape surrounding the CCD camera to have a radially wide pattern.

단계(S601)에서 입력된 아날로그의 저조도 영상은 프레임 그레버 등을 통해 디지타이징(digitizing)되고 프레임별로 구분되어 메모리에 저장된다. 각 프레임의 구분은 시작과 마지막에 해당하는 디지털 영상정보에 프라임(prime) 정보를 부여하여 이루어지며, 그 외에도 통상적인 방식이 적용될 수 있다The low light image of the analog input in step S601 is digitized through a frame grabber or the like and is divided into frames and stored in a memory. The classification of each frame is performed by assigning prime information to digital image information corresponding to the beginning and the end, and other conventional methods may be applied.

단계(S602)는 단계(S601)에 따라 입력되어 메모리에 저장된 저조도 영상을 어두운 영역과 밝은 영역으로 분할하는 것으로, 예를 들면, 미리 설정된 기준 계조값과 저조도 영상을 구성하는 각 픽셀들의 계조값을 비교하여, 미리 설정된 계조값 이상의 계조값을 가진 픽셀로 구성된 영역을 밝은 영역으로 하고, 반대로, 미리 설정된 계조값 이상의 계조값을 가진 픽셀로 구성된 영역을 어두운 영역으로 하여, 상기 메모리에 저장된 저조도 영상을 어두운 영역과 밝은 영역으로 분할한다.In operation S602, the low illumination image inputted according to the operation S601 is divided into a dark area and a bright area. For example, the preset reference gray value and the gray value of each pixel constituting the low light image are divided. In comparison, a low-light image stored in the memory is obtained by making an area composed of pixels having a gradation value equal to or greater than a preset gradation value a bright area, and conversely, a region consisting of pixels having a gradation value equal to or greater than a preset gradation value as a dark area. Split into dark and light areas.

다음, 단계(S602)에 따라 입력된 저조도 영상 중에서 어두운 영역이 분할되면, 분할된 어두운 영역에 혼입된 노이즈들을 각 속성에 맞게 검출한다. Next, when a dark region is divided among the low light images input in operation S602, noises mixed in the divided dark region are detected according to each property.

예를 들면, 어두운 영역의 영상의 움직임 유무를 판별하고(S603), 그 판별한 결과에 따라 노이즈들을 각 속성에 맞게 나누어 필터링시켜 표본 영상을 생성하는데, 움직임 유무에 대한 판별은 인접한 영상들의 계조변화정도에 따라 판별할 수 있으며, 이에 대한 것은 일반적인 것으로 여기서는 그에 대한 상세한 설명을 생략한다. For example, the presence or absence of motion of the image in the dark region is determined (S603), and the sample is generated by dividing and filtering noises according to each property according to the result of the determination. It can be determined according to the degree, which is general and the detailed description thereof is omitted here.

단계(S604)는 단계(S603)에 따라 움직임 유무를 판별한 결과, 움직임이 있다고 판별된 경우, 어두운 영역의 영상에 혼입된 PCN노이즈를 검출하는 것으로, 이러한 PCN노이즈는 저조도 영상의 센터에 위치하는지 혹은 가장자리에 위치하는 지에 따라 상이하게 검출되는데, 센터에 위치한 PCN노이즈는 메디안 필터를 가장자리에 위치한 PCN노이즈는 로우패스 필터를 사용해 검출된다. In step S604, when it is determined that there is motion according to step S603, if it is determined that there is motion, the detection of PCN noise mixed in the image of the dark area is carried out, and whether such PCN noise is located at the center of the low light image. Or differently detected depending on whether the edge is located, the center PCN noise is detected by the median filter and the PCN noise located at the edge using a low pass filter.

단계(S605)는 단계(S603)에 따라 움직임 유무를 판별한 결과, 움직임이 없다고 판별된 경우, FCN노이즈를 검출하는 것으로, 상기의 PCN이나 FCN 검출방식은 통상적인 것으로 여기서는 그에 대한 상세한 설명을 생략한다. In step S605, if it is determined that there is no motion according to step S603, if it is determined that there is no motion, the FCN noise is detected. The above-described PCN or FCN detection method is conventional and a detailed description thereof is omitted here. do.

다음, 단계(S604)와 단계(S605)에 따라 어두운 영역에 속하는 노이즈들이 각 속성에 맞게 나누어 필터링되면, 본 발명에 따라 원하는 표본 영상이 생성된다.Next, when noises belonging to the dark region are filtered according to each property according to steps S604 and S605, a desired sample image is generated according to the present invention.

후속 작업은 이러한 표본 영상을 사용하여 특징 벡터를 산출하는 것이다. 즉 상기 생성한 표본 영상을 연속적으로 입력받아 인접한 두 영상간의 차영상을 생성하고, 상기 생성한 차영상내의 각 특징점에 대한 밝기의 변화량 벡터와 밝기의 변화방향 벡터를 미리 정해진 다수의 기준 벡터로 근사화시켜 특징 벡터를 산출하는 것Subsequent work is to use these sample images to produce feature vectors. That is, the difference image between two adjacent images is generated by successively receiving the generated sample image, and the brightness change vector and the change direction vector of brightness for each feature point in the generated difference image are approximated to a plurality of predetermined reference vectors. To produce feature vectors

이를 위해, 우선 단계(S606)에 따라 표본 영상을 가우시안 필터링 시킨다. 예를 들면, 단계(S604), 단계(S605)에 의해 필터링되어 생성되는 표본 영상에 대해 동일한 크기의 가우시안 마스크(Gaussian Mask)를 특히, 동일한 크기의 공분산이

Figure 112005053195024-pat00018
인 가우시안 마스크(Gaussian Mask)를 사용하여 블러링(Blurring)된 표본 영상들을 연속적으로 얻는다. To this end, first, Gaussian filtering the sample image according to step S606. For example, a Gaussian mask of the same size may be applied to a sample image generated by the filtering at step S604 and step S605.
Figure 112005053195024-pat00018
Blured sample images are successively obtained by using an Gaussian mask.

단계(S607)는 단계(S606)에서 연속적으로 얻게 되는 가우시안 필터링된 표본 영상을 사용해 차영상을 생성하는 것으로, 단계(S607)에서 연속적으로 얻게 되는 가우시안 필터링된 표본 영상 중에서, 인접한 표본 영상들의 계조값을 감산시켜, 그에 따라 인접한 표본 영상들의 계조값의 차이값으로 이루어진 차영상을 생성한다.In operation S607, a difference image is generated by using a Gaussian filtered sample image continuously obtained in step S606. Among the Gaussian filtered sample images obtained continuously in step S607, the grayscale values of adjacent sample images. By subtracting the result, a difference image consisting of difference values of gray levels of adjacent sample images is generated accordingly.

단계(S608)는 단계(S607)에서 생성한 차영상프레임 내에서 특징점을 설정하는 것으로, 예를 들면, 차영상의 픽셀(i, j)에 대하여 동일한 차영상내의 인접된 8개의 픽셀값들과 인접한 다른 차영상내에서 상기 픽셀들과 동일한 위치에 속한 픽셀들, 즉 (i-1, j), (i+1, j), (i-1, j+1), (i, j+1), (i+1, j+1), (i-1, j-1), (i, j-1), (i+1, j-1)위치의 픽셀들에 대한 계조값을 각기 비교하여 크거나 작으면 특징점으로 설정한다.In step S608, a feature point is set in the difference image frame generated in step S607. For example, with respect to pixels (i, j) of the difference image, eight adjacent pixel values in the same difference image are set. Pixels belonging to the same position as the pixels in another adjacent difference image, that is, (i-1, j), (i + 1, j), (i-1, j + 1), (i, j + 1 ), (i + 1, j + 1), (i-1, j-1), (i, j-1), and (i + 1, j-1) to compare gradation values for pixels If it is big or small, set it as a feature point.

단계(S609)는 단계(S608)에서 설정한 각 특징점의 밝기의 변화량 벡터와 밝기의 변화방향 벡터를 산출하는 것으로, 단계(S608)에서 설정된 각 특징점에 대응되는 픽셀에 소정의 특징값을 부여하기 위해 해당되는 특징점의 위치를 중심으로 8 ×8윈도우를 설정한 후, 하기의 수학식3에 따라 소정의 윈도우 내의 64개의 픽셀들의 그레디언트(Gradient)즉, 특징점에 대한 밝기의 변화량과, 오리엔테이션(Orientation), 즉 밝기의 변화방향을 구한다.In operation S609, a change amount vector of brightness and a change direction vector of brightness of each feature point set in step S608 are calculated, and a predetermined feature value is assigned to a pixel corresponding to each feature point set in step S608. After setting the 8 × 8 window centering on the position of the corresponding feature point, the gradient of 64 pixels in the predetermined window, that is, the amount of change in brightness and the orientation of the feature point according to Equation 3 below. ), That is, the direction of change in brightness.

Figure 112005053195024-pat00019
Figure 112005053195024-pat00019

Figure 112005053195024-pat00020
Figure 112005053195024-pat00020

여기서,

Figure 112005053195024-pat00021
는 밝기의 변화량인 그래디언트(Gradient)이고, 는 밝기의 변화방향인 오리엔테이션(Orientation)이며,
Figure 112005053195024-pat00023
는 픽셀들의 위치좌표를 나타낸다.here,
Figure 112005053195024-pat00021
Is the gradient, the change in brightness, Is orientation, the direction of change of brightness,
Figure 112005053195024-pat00023
Represents the position coordinate of the pixels.

단계(S610)는 단계에서 산출한 각 특징점의 밝기의 변화량 벡터와 밝기의 변화방향 벡터와 다수의 기준 벡터를 사용하여 특징벡터를 산출하는 것으로, 예를 들면, 다수의 기준 벡터가 서로 다른 방향을 지시하는 8개의 기준 벡터로 설정된 경우, 우선 각 특징점에 대한 밝기의 변화량과 밝기의 변화방향을 각기 합하고 소팅(sorting)시켜 최대값을 결정한다. 그리고, 이 오리엔테이션 값을 캐노니컬(canonical) 오리엔테이션으로 설정한다. In operation S610, a feature vector is calculated using a change vector of brightness of each feature point, a change direction vector of brightness, and a plurality of reference vectors. For example, a plurality of reference vectors may use different directions. In the case of eight reference vectors to indicate, the maximum value is determined by first sorting and sorting the amount of change in brightness and the direction of change in brightness for each feature point. Then, this orientation value is set to canonical orientation.

그런 후, 특징점으로 설정된 픽셀 주위의 64개의 픽셀들에 대해 얻어진 오리엔테이션

Figure 112005053195024-pat00024
에서 캐노니컬(canonical)오리엔테이션 값을 감산시켜 64개의 픽셀 들에 대해 새로운 오리엔테이션
Figure 112005053195024-pat00025
Figure 112005053195024-pat00026
를 구한다. Then, the orientation obtained for the 64 pixels around the pixel set as the feature point
Figure 112005053195024-pat00024
New orientation for 64 pixels by subtracting the canonical orientation value from
Figure 112005053195024-pat00025
Figure 112005053195024-pat00026
Obtain

이어, 각 픽셀들에 대한 오리엔테이션 값을 상기 8개의 기준되는 방향 벡터를 사용해 8개의 오리엔테이션값으로 양자화(Quantization)한다. 그런 후, 64개의 픽셀들에 대해 양자화(Quantization)된

Figure 112005053195024-pat00027
Figure 112005053195024-pat00028
와 각 픽셀들에 대한 그래디언트값을 이용하여 벡터(Scaled and Quantized orientation vector)를 얻고, 64개의 픽셀들에 대해 8개 방향의 오리엔테이션에 대해 스케일링된 값의 합을 구한 후, 각 8개 방향에 대한 스케일링 값의 합을 특징 벡터로 설정한다. Subsequently, the orientation value for each pixel is quantized to eight orientation values using the eight reference direction vectors. Then, quantized for 64 pixels
Figure 112005053195024-pat00027
Figure 112005053195024-pat00028
And a scaled and quantized orientation vector are obtained using the gradient values for each pixel and the sum of the scaled values for the eight directions of orientation for 64 pixels, and then for each of the eight directions. Set the sum of scaling values as a feature vector.

이러한 과정은 각 특징점에 대해 반복적으로 수행되며, 최종적으로 얻어진 특징 벡터의 차원(Dimension)은 특징점 하나당 8-차원(Dimension)을 가지게 된다. 그 결과로 입력 영상에서 특징점 개수만큼의 특징 벡터의 집합을 비교하므로 동일 영상을 찾아낼 수 있는데, 그에 대한 설명은 통상적인 것으로 여기서는 생략하기로 한다.This process is repeatedly performed for each feature point, and the dimension of the finally obtained feature vector has 8-dimensions per feature point. As a result, the same image can be found by comparing a set of feature vectors corresponding to the number of feature points in the input image, and a description thereof is conventional and will be omitted herein.

이상에서 상세히 설명한 바와 같이, 본 발명에 따른 저조도 환경에서의 영상특징 추출방법은 저조도에서 촬영한 영상 중에서 상대적으로 더 어두운 영역에 혼입되어 영상 특징벡터 추출시 심각한 영향을 미치는 노이즈를 제거하고, 동일한 크기의 가우시안 마스크를 사용해 차영상을 구하며, 그 차영상내의 특징벡터는 밝기의 변화량과 밝기의 변화방향을 이용해 산출하므로, 저조도 환경에서 촬영한 영상에서 특징벡터를 용이하게 추출할 수 있는 효과가 있다.As described in detail above, the method for extracting image features in a low light environment according to the present invention removes noise that is mixed in a relatively darker area among images taken at low light and has a serious effect on image feature vector extraction, and has the same size. The difference image is obtained by using a Gaussian mask, and the feature vector in the difference image is calculated using the amount of change in brightness and the direction of change in brightness, so that the feature vector can be easily extracted from an image captured in a low light environment.

본 발명은 기재된 구체적인 예에 대해서만 상세히 설명되었지만 본 발명의 기술사상의 범위 내에서 다양한 변형 및 수정이 가능함은 당업자에게 있어서 명백한 것이며, 이러한 변형 및 수정이 첨부된 특허청구범위에 속함은 당연한 것이다.Although the invention has been described in detail only with respect to the specific examples described, it will be apparent to those skilled in the art that various modifications and variations are possible within the spirit of the invention, and such modifications and variations belong to the appended claims.

Claims (5)

촬영한 저조도 영상에서 상대적으로 밝은 영역과 어두운 영역을 분할하는 분할단계;A dividing step of dividing a relatively bright area and a dark area in the captured low light image; 상기 분할한 영역 중에서, 어두운 영역내의 노이즈들을 각 속성에 맞게 나누어 필터링시켜 표본 영상을 생성하는 표본영상 생성단계; A sample image generation step of generating a sample image by dividing and filtering noises in a dark region according to each attribute among the divided regions; 상기 생성한 표본 영상을 연속적으로 입력받아 인접한 두 영상간의 차영상을 생성하는 차영상 생성단계;A difference image generation step of sequentially receiving the generated sample image and generating a difference image between two adjacent images; 상기 생성한 차영상내의 각 특징점에 대한 밝기의 변화량과 밝기의 변화방향 을 설정범위를 가진 다수의 기준되는 방향 벡터로 양자화시켜 특징 벡터를 추출하는 특징벡터 추출단계를 구비한 저조도 환경에서의 영상특징 추출방법. Image characteristics in a low light environment having a feature vector extraction step of extracting a feature vector by quantizing the amount of change of brightness and the direction of change of brightness of each feature point in the generated difference image into a plurality of reference direction vectors having a setting range. Extraction method. 제 1 항에 있어서, The method of claim 1, 상기 분할단계는The dividing step 상기 촬영한 저조도 영상내의 각 픽셀들의 계조값과 미리 설정된 계조값을 비교하는 단계;Comparing a gray level value of each pixel in the photographed low light image with a preset gray level value; 상기 비교한 결과에 따라 상대적으로 밝은 영역과 어두운 영역을 분할하는 단계로 이루어진 것을 특징으로 하는 저조도 환경에서의 영상특징 추출방법.And dividing the relatively bright and dark areas according to the comparison result. 제 1 항에 있어서, The method of claim 1, 상기 표본영상 생성단계는The sample image generation step 상기 어두운 영역 내의 움직임 유무를 판별하는 단계;Determining the presence or absence of movement in the dark area; 상기 판별한 결과, 움직임이 있을 경우엔 PCN(Poisson Counting Noise)을 필터링시켜 표본 영상을 생성하고, 움직임이 없을 경우엔 FCN(False Color Noise)을 필터링시켜 표본 영상을 생성하는 단계로 이루어지는 것을 특징으로 하는 저조도 환경에서의 영상특징 추출방법.As a result of the determination, if there is motion, a sample image is generated by filtering PCN (Poisson Counting Noise), and if there is no motion, a sample image is generated by filtering FCN (False Color Noise). Image Feature Extraction Method in Low Light Environment. 제 1 항에 있어서, The method of claim 1, 상기 차영상 생성단계는The difference image generating step 상기 필터링시킨 표본 영상에 대해 동일한 가우시안 마스크(Gaussian Mask)를 적용하여 블러링(Blurring)된 표본 영상들을 연속적으로 생성하는 단계;Continuously generating the blurred sample images by applying the same Gaussian mask to the filtered sample image; 상기 블러링(Blurring)된 표본 영상들을 사용해 차영상을 생성하는 단계로 이루어지는 것을 특징으로 하는 구비한 저조도 환경에서의 영상특징 추출방법. And generating a difference image by using the blurred sample images. 제 1 항에 있어서, The method of claim 1, 상기 각 특징점에 대한 밝기의 변화량과 밝기의 변화방향은 하기의 수학식4에 따라 산출되는 것을 특징으로 하는 저조도 환경에서의 영상특징 추출방법.The change amount of brightness and the change direction of the brightness for each feature point are calculated according to Equation 4 below.
Figure 112005053195024-pat00029
Figure 112005053195024-pat00029
Figure 112005053195024-pat00030
Figure 112005053195024-pat00030
(여기서,
Figure 112005053195024-pat00031
는 밝기의 변화량(Gradient)이고,
Figure 112005053195024-pat00032
는 밝기의 변화방향(orientation)이며,
Figure 112005053195024-pat00033
는 픽셀들의 위치좌표이다.)
(here,
Figure 112005053195024-pat00031
Is the gradient of brightness,
Figure 112005053195024-pat00032
Is the orientation of brightness,
Figure 112005053195024-pat00033
Is the positional coordinate of the pixels.)
KR1020050088615A 2005-09-23 2005-09-23 Method for extracting image characteristic in low intensity of illumination environment KR100649384B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050088615A KR100649384B1 (en) 2005-09-23 2005-09-23 Method for extracting image characteristic in low intensity of illumination environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050088615A KR100649384B1 (en) 2005-09-23 2005-09-23 Method for extracting image characteristic in low intensity of illumination environment

Publications (1)

Publication Number Publication Date
KR100649384B1 true KR100649384B1 (en) 2006-11-27

Family

ID=37713425

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050088615A KR100649384B1 (en) 2005-09-23 2005-09-23 Method for extracting image characteristic in low intensity of illumination environment

Country Status (1)

Country Link
KR (1) KR100649384B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100944903B1 (en) 2008-03-18 2010-03-03 한국전자통신연구원 Feature extraction apparatus of video signal and its extraction method, video recognition system and its identification method
KR101014104B1 (en) 2009-03-17 2011-02-14 엘지이노텍 주식회사 Apparatus for image processing and method for operating the same
US10051195B2 (en) 2012-11-29 2018-08-14 Hyundai Motor Company Apparatus and method for acquiring differential image
KR102368677B1 (en) * 2020-12-14 2022-02-28 중앙대학교 산학협력단 DALE: Dark Region-Aware Low-light Image Enhancement

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11215377A (en) 1998-01-23 1999-08-06 Sony Corp Image-processing method and unit thereof
KR20030002608A (en) * 2001-06-29 2003-01-09 주식회사 성진씨앤씨 Method of adaptive noise smoothing/restoration in spatio-temporal domain and high-definition image capturing device thereof
KR20030068738A (en) * 2002-02-16 2003-08-25 주식회사 성진씨앤씨 Digital video processing device eliminating the noise generated under insufficient illulmination
KR20040089885A (en) * 2003-04-15 2004-10-22 브이케이 주식회사 Apparatus for compensating a low intensity of illumination image and method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11215377A (en) 1998-01-23 1999-08-06 Sony Corp Image-processing method and unit thereof
KR20030002608A (en) * 2001-06-29 2003-01-09 주식회사 성진씨앤씨 Method of adaptive noise smoothing/restoration in spatio-temporal domain and high-definition image capturing device thereof
KR20030068738A (en) * 2002-02-16 2003-08-25 주식회사 성진씨앤씨 Digital video processing device eliminating the noise generated under insufficient illulmination
KR20040089885A (en) * 2003-04-15 2004-10-22 브이케이 주식회사 Apparatus for compensating a low intensity of illumination image and method thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100944903B1 (en) 2008-03-18 2010-03-03 한국전자통신연구원 Feature extraction apparatus of video signal and its extraction method, video recognition system and its identification method
US8620107B2 (en) 2008-03-18 2013-12-31 Electronics And Telecommunications Research Institute Apparatus and method for extracting features of video, and system and method for identifying videos using same
KR101014104B1 (en) 2009-03-17 2011-02-14 엘지이노텍 주식회사 Apparatus for image processing and method for operating the same
US10051195B2 (en) 2012-11-29 2018-08-14 Hyundai Motor Company Apparatus and method for acquiring differential image
KR102368677B1 (en) * 2020-12-14 2022-02-28 중앙대학교 산학협력단 DALE: Dark Region-Aware Low-light Image Enhancement

Similar Documents

Publication Publication Date Title
KR101612165B1 (en) Method for producing super-resolution images and nonlinear digital filter for implementing same
KR20210139450A (en) Image display method and device
JP2022509034A (en) Bright spot removal using a neural network
WO2009153836A1 (en) Method and apparatus for motion blur and ghosting prevention in imaging system
EP0932114A2 (en) A method of and apparatus for detecting a face-like region and observer tracking display
US8922674B2 (en) Method and system for facilitating color balance synchronization between a plurality of video cameras and for obtaining object tracking between two or more video cameras
US10354413B2 (en) Detection system and picture filtering method thereof
CN110349163B (en) Image processing method and device, electronic equipment and computer readable storage medium
US10489928B2 (en) Image processing system for inspecting object distance and dimensions using a hand-held camera with a collimated laser
WO2014128688A1 (en) Method, system and software module for foreground extraction
IL256202A (en) Ir or thermal image enhancement method based on background information for video analysis
KR20120090491A (en) Image segmentation device and method based on sequential frame imagery of a static scene
CN110880184B (en) Method and device for automatically inspecting camera based on optical flow field
KR20200047389A (en) Method and apparatus for capturing an image based motion information in the image
KR100649384B1 (en) Method for extracting image characteristic in low intensity of illumination environment
US10803625B2 (en) Detection system and picturing filtering method thereof
US20110085026A1 (en) Detection method and detection system of moving object
KR100640761B1 (en) Method of extracting 3 dimension coordinate of landmark image by single camera
CN117690175A (en) Infant face image capturing and enhancing method, device, equipment and storage medium
CN113067980A (en) Image acquisition method and device, electronic equipment and storage medium
JP2019176424A (en) Image processing apparatus, imaging apparatus, control method of image processing apparatus, and control method of imaging apparatus
CN111582076A (en) Picture freezing detection method based on pixel motion intelligent perception
Pavithra et al. Real-time color classification of objects from video streams
US11758297B2 (en) Systems, methods, and media for high dynamic range imaging using single-photon and conventional image sensor data
Damaryam et al. A Pre-processing Scheme for Line Detection with the Hough Transform for Mobile Robot Self-Navigation

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee