KR100649384B1 - Method for extracting image characteristic in low intensity of illumination environment - Google Patents
Method for extracting image characteristic in low intensity of illumination environment Download PDFInfo
- Publication number
- KR100649384B1 KR100649384B1 KR1020050088615A KR20050088615A KR100649384B1 KR 100649384 B1 KR100649384 B1 KR 100649384B1 KR 1020050088615 A KR1020050088615 A KR 1020050088615A KR 20050088615 A KR20050088615 A KR 20050088615A KR 100649384 B1 KR100649384 B1 KR 100649384B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- brightness
- sample
- low light
- feature
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 17
- 238000005286 illumination Methods 0.000 title abstract description 3
- 239000013598 vector Substances 0.000 claims description 52
- 238000001914 filtration Methods 0.000 claims description 17
- 238000000605 extraction Methods 0.000 claims description 10
- 238000007796 conventional method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/10—Image enhancement or restoration using non-spatial domain filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
- G06T7/41—Analysis of texture based on statistical description of texture
- G06T7/44—Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20182—Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
Description
도 1은 본 발명이 적용된 영상특징 추출장치를 도시한 도면1 is a diagram showing an image feature extraction apparatus to which the present invention is applied.
도 2는 본 발명에 따른 차영상을 구하는 양태를 설명하기 위한 도면,2 is a view for explaining an aspect for obtaining a difference image according to the present invention;
도 3은 본 발명에 따른 특징점을 구하는 양태를 설명하기 위한 도면,3 is a view for explaining an aspect for obtaining a feature point according to the present invention;
도 4는 본 발명에 따른 각 특징점의 변화량과 변화방향을 구하는 양태를 설명하기 위한 도면4 is a view for explaining an aspect for obtaining a change amount and a change direction of each feature point according to the present invention;
도 5는 본 발명에 따른 특징벡터를 구하는 양태를 설명하기 위한 도면5 is a view for explaining an aspect for obtaining a feature vector according to the present invention.
도 6은 본 발명에 따른 저조도 환경에서의 영상특징 추출방법을 도시한 도면6 is a diagram illustrating a method for extracting image features in a low light environment according to the present invention.
* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings
100 : IR LED 모듈 101 : CCD 카메라100: IR LED module 101: CCD camera
102 : 프레임 그레버 103 : 메모리102: frame grabber 103: memory
104 : 마이크로 컴퓨터104: microcomputer
본 발명은 저조도 환경에서 촬영하여 전체적으로 어둡게 보여지는 영상에서 상대적으로 더 어두운 영역에 혼입되어 있는 노이즈를 제거하므로, 저조도 환경에서 특징벡터를 용이하게 추출할 수 있도록 하는 저조도 환경에서의 영상특징 추출방법에 관한 것이다.The present invention removes noise mixed in a relatively darker area in an image that is dark in an image taken in a low light environment, and thus an image feature extraction method in a low light environment to easily extract a feature vector in a low light environment. It is about.
통상적으로, 밤과 같이 1(lux) 이하의 저조도 환경에서 IR LED(Infrared Luminescent Diode)와 컬러 씨씨디 카메라(Color CCD Camera)를 통해 부스팅(boosting)된 저조도 영상에는 PCN(Poisson Counting Noise)이나 FCN(False Color Noise)등이 혼입되어 있는데, 특히 저조도 영상 가운데서 상대적으로 더 어둡게 보여지는 영역에는 더욱더 많은 량의 PCN(Poisson Counting Noise)이나 FCN(False Color Noise)이 혼입되어 있다.Typically, a low-light image boosted by an IR LED (Infrared Luminescent Diode) and a color CCD camera in a low-light environment of less than 1 (lux), such as night, is used for Poisson Counting Noise (PCN) or FCN. (False Color Noise), etc. are mixed. In particular, a relatively darker portion of the low-light image contains a greater amount of Poisson Counting Noise (PCN) or False Color Noise (FCN).
한편, 일반적인 영상특징 추출방식은 컬러 씨씨디 카메라(Color CCD Camera)와 IR LED 등을 통해 외부로부터 영상을 입력받고, 필터링시킨 후, 가우시안 마스크를 사용해 양자화하여 블러링(Blurring)시킨 표본 영상들 가운데서, 인접한 표본 영상들의 대응되는 각 픽셀간의 거리와 아핀(affine)변화량을 사용해 영상의 특징 벡터를 추출한다.On the other hand, the general image feature extraction method is a sample of images received from the outside through a color CCD camera and IR LED, filtered, and then quantized and blurred using a Gaussian mask. The feature vector of the image is extracted using the distance between each corresponding pixel of adjacent sample images and the amount of affine variation.
하지만, 이러한 통상의 영상특징 추출 방식은 계산량이 상당히 많고, 알고리즘의 실시간 구현이 용이하지 않을 뿐만 아니라, 특히 전술한 바와 같이, 저조도 영상에서 특히 상대적으로 어둡게 보여지는 영역에 혼입되어 있는 상당량의 PCN(Poisson Counting Noise)이나 FCN(False Color Noise)은 가우시안 마스크를 사용한 양자화 작업시 상당한 아웃리어(outlier)로 작용하므로 영상의 특징벡터를 추출하는 것이 용이하지 않다. However, such a conventional image feature extraction method has a large amount of computation and is not easy to implement an algorithm in real time, and, as described above, a considerable amount of PCN (which is incorporated in a region that is particularly dark in low light image, as described above). Poisson Counting Noise (FSI) or False Color Noise (FCN) acts as a significant outlier in quantization using Gaussian masks, making it difficult to extract feature vectors from images.
본 발명은 상기한 문제점을 해소시키기 위하여 개발된 것으로, 저조도 환경에서 촬영하여 전체적으로 어둡게 보여지는 영상에서 상대적으로 더 어두운 영역에 혼입되어 있는 노이즈를 별도로 제거하고, 더불어 특징벡터도 용이하게 추출할 수 있도록 하는 저조도 환경에서의 영상특징 추출방법을 제공하는데 그 목적이 있다.The present invention was developed to solve the above-described problems, so as to separately remove the noise mixed in a relatively darker area in the image that is dark overall by shooting in a low light environment, and also to easily extract the feature vector Its purpose is to provide a method for extracting image features in low light environments.
이러한 목적에 따른 본 발명의 저조도 환경에서의 영상특징 추출방법은Image feature extraction method in a low light environment of the present invention according to this object is
저조도에서 촬영하여 전체적으로 어두운 영상 중에서, 특히 노이즈가 상당히 혼입되어 있는 상대적으로 더 어두운 영역을 분할하여 그 영역내에 있는 노이즈들을 각 속성에 맞게 나누어 필터링시키고, 영상의 각 특징점에 대한 밝기의 변화량과 밝기의 변화방향을 설정범위를 가진 다수의 기준되는 방향 벡터로 양자화시키는 방식으로 특징 벡터를 추출하는 것을 특징으로 한다.Shooting in low light and dividing the relatively darker areas of the overall dark image, especially the noises, and dividing the noises in the area according to their properties, filtering the amount of change in brightness and brightness for each feature point of the image. A feature vector is extracted by quantizing the change direction into a plurality of reference direction vectors having a setting range.
바람직한 구조는, 촬영한 저조도 영상에서 상대적으로 밝은 영역과 어두운 영역을 분할하는 단계, 그 분할한 영역 중에서, 어두운 영역내의 노이즈들을 각 속성에 맞게 나누어 필터링시켜 표본 영상을 얻는 단계, 인접한 표본 영상들의 차영상을 구하는 단계, 차영상내의 각 특징점에 대한 밝기의 변화량과 밝기의 변화방향을 설정범위를 가진 다수의 기준되는 방향 벡터로 양자화시켜 영상의 특징 벡터를 산출하는 단계를 구비한 것을 특징으로 한다.The preferred structure comprises the steps of: dividing the relatively bright and dark areas in the photographed low-light image, obtaining a sample image by dividing and filtering noises in the dark area according to each property among the divided areas, and the difference between adjacent sample images. Obtaining an image, and quantizing the amount of change in brightness and the direction of change in brightness of each feature point in the difference image into a plurality of reference direction vectors having a set range, and calculating a feature vector of the image.
상기 차영상내의 각 특징점에 대한 밝기의 변화량과 밝기의 변화방향은 하기의 수학식1에 따라 산출되는 것을 특징으로 한다.A change amount of brightness and a change direction of brightness of each feature point in the difference image are calculated according to
여기서, 는 밝기의 변화량(Gradient)이고, 는 밝기의 변화방향(orientationn)이며, 는 픽셀들의 위치좌표를 나타낸다.here, Is the gradient of brightness, Is the orientation of brightness, Represents the position coordinate of the pixels.
상기 저조도에서 촬영한 영상에서 밝은 영역과 어두운 영역을 분할하는 단계는 상기 촬영한 저조도 영상내의 각 픽셀들의 계조값과 미리 설정된 계조값을 비교하는 단계, 그 비교한 결과에 따라 상대적으로 밝은 영역과 어두운 영역을 분할하는 단계를 구비한 것을 특징으로 한다.The dividing of the light and dark areas of the image taken at the low light level comprises comparing the gray level value of each pixel and the preset gray level value in the photographed low light image, and relatively light and dark areas according to the comparison result. And dividing the region.
상기 노이즈들을 각 속성에 맞게 나누어 필터링시키는 것은 예를 들면, 상기 어두운 영역내의 영상의 움직임 유무를 판별하는 단계, 상기 움직임 유무에 대한 판별 결과에 따라 노이즈들을 각 속성에 맞게 나누어 필터링시켜 표본 영상을 생성하는 단계로 구성된 것을 특징으로 한다. The dividing and filtering of the noises according to respective attributes may include, for example, determining whether or not the image moves in the dark region, and dividing and filtering the noises according to the attributes according to the determination result of the movement to generate a sample image. Characterized in that consisting of steps.
상기 움직임 유무는 인접한 어두운 영역내의 영상들의 계조변화정도에 따라 판별하는 것을 특징으로 한다.The presence or absence of the movement may be determined according to the degree of gray level change of the images in the adjacent dark area.
상기 표본 영상을 생성하는 단계는 상기 움직임 유무에 대한 판별 결과에 따라 서로 다른 노이즈를 검출하는 단계, 상기 검출한 노이즈에 맞는 필터로 해당되는 노이즈를 필터링시켜 표본 영상을 생성하는 단계를 구비한 것을 특징으로 한다.The generating of the sample image may include detecting different noises according to a determination result of the presence or absence of the motion, and generating a sample image by filtering noise corresponding to a filter suitable for the detected noise. It is done.
그리고, 상기 노이즈가 영상의 센터에 위치하는 가를 판별하는 단계를 추가로 포함하고, 상기 표본 영상을 생성하는 단계는 상기 판별 결과에 따라 상이한 필터로 해당되는 노이즈를 필터링시켜 표본영상을 생성하는 것을 특징으로 한다.The method may further include determining whether the noise is located at the center of the image, and generating the sample image may generate a sample image by filtering noise corresponding to a different filter according to the determination result. It is done.
상기 서로 다른 노이즈는 FCN노이즈와 PCN노이즈인 것을 특징으로 한다. The different noise may be FCN noise and PCN noise.
상기 서로 다른 노이즈를 필터링시키는 필터는 템포랄 필터(Temporal Filter), 메디안 필터(Median Filter), 로우패스 필터(Lowpass Filter)중에서 선택된 어느 하나 이상을 사용할 수 있다. The filter for filtering the different noises may use any one or more selected from a temporal filter, a median filter, and a lowpass filter.
상기 차영상을 생성하는 단계는 표본 영상에 대해 동일한 가우시안 마스크(Gaussian Mask)를 적용하는 것을 특징으로 하는데, 특히, 상기 가우시안 마스크(Gaussian Mask)는 공분산이 인 것을 사용할 수 있다.The generating of the difference image is characterized by applying the same Gaussian mask to a sample image. In particular, the Gaussian mask has a covariance. Can be used.
이하, 첨부된 도면을 참조하여 본 발명을 살펴보면 다음과 같다.Hereinafter, the present invention will be described with reference to the accompanying drawings.
도 1에 도시된 영상특징 추출장치는 본 발명이 적용된 영상특징 추출장치의 일예로, 크게, IR LED(Infrared Luminescent Diode)모듈(100), CCD카메라(101), 프레임 그레버(102), 메모리(103), 마이크로 컴퓨터(104)로 이루어진다.The image feature extracting apparatus shown in FIG. 1 is an example of an image feature extracting apparatus to which the present invention is applied. The image feature extracting apparatus may be, for example, an IR LED (Infrared Luminescent Diode)
본 발명은 저조도 환경에 맞게 영상을 촬영하기 위해, 외부의 이미지를 촬영하여 부스팅(boosdting)된 아날로그 영상신호를 출력하는 이미지 센서인 CCD카메라(101)와 더불어 IR LED모듈(100)을 구비하는데, 상기의 IR LED모듈(100)은 CCD카메 라(101)를 둘러싸게 원형으로 배치되어 방사상으로 넓게 확장된 패턴을 가진다.The present invention includes an
프레임 그레버(102)는 상기의 CDD카메라(101), IR LED모듈(100), 메모리(103) 및 마이크로 컴퓨터(104)와 각기 연결된 것으로서, 마이크로 컴퓨터(104)에서 입력하는 제어신호에 따라 활성화되어 상기 CCD카메라(101)와 IR LED모듈(100)에서 촬상한 아날로그 영상신호를 디지타이징(digitizing)하고 프레임별로 나누어 메모리에 출력하는 것이다. 프레임의 구분은 시작과 마지막에 해당하는 영상정보에 프라임(prime) 정보를 부여하여 이루어질 수 있는데, 이외에도 통상적인 방식이 적용될 수 있다.The
메모리(103)는 상기 프레임 그레버(102)에 연결되어 상기 프레임 그레버(102)에서 출력하는 영상정보를 지정된 저장공간에 저장한다. 저장공간은 마이크로 컴퓨터(104)에서 지정되며, 이러한 정보는 프레임 그레버(102)가 입력받아 그를 사용해 해당되는 저장공간에 프레임별로 저장한다. 상기 메모리(103)는 프레임 메모리로 사용하는 것도 가능하다.The memory 103 is connected to the
마이크로 컴퓨터(104)는 외부로부터 입력되는 사용자 명령에 따라 프레임그레버(102)를 제어하고, 메모리(103)에 저장된 영상정보를 처리하여 본 발명에 따른 영상의 특징을 추출한 후 영상프로세서로 출력하는 것이다. 내부에는 저조도 필터모듈, PSIFT(Pseudo Scale Invariant Feature Transform)모듈이 구비되며, 상기의 저조도 필터모듈은 메디안 필터, 로우패스 필터, 템포랄 필터를 포함할 수 있다.The
상기의 마이크로 컴퓨터(104)는 프레임 그레버(102)를 활성화시켜 상기 프레임 그레버(102)에서 프레임별로 구분하여 메모리(103)에 저장한 영상을 미리 설정 된 기준 계조값에 따라 밝은 영역과 어두운 영역으로 분할한다.The
즉, 상기 메모리에 저장된 영상내의 각 픽셀들의 계조값과 미리 설정된 계조값을 비교하고, 그 비교한 결과 메모리에 저장된 영상내의 각 픽셀들의 계조값이 미리 설정된 계조값보다 작은 영역을 어두운 영역으로서 분할한다.That is, a gray level value of each pixel in the image stored in the memory is compared with a preset gray level value, and as a result of the comparison, an area in which the gray level value of each pixel in the image stored in the memory is smaller than the preset gray level value is divided into dark areas. .
상기 저조도 필터모듈은 상기의 분할한 어두운 영역에 혼입된 노이즈들을 각 속성에 맞게 나누어 필터링시켜 표본 영상을 생성한다.The low light filter module generates a sample image by dividing and filtering the noises mixed in the divided dark areas according to each property.
예를 들면, 어두운 영역에 속하는 영상의 움직임 유무를 판별하고, 그 움직임 유무에 대한 판별 결과에 따라 노이즈들을 각 속성에 맞게 나누어 필터링시켜 표본 영상을 생성한다. 상기 움직임 유무는 인접한 영상들의 계조변화정도에 따라 판별하는데, 이는 일반적인 기술로서, 여기서는 그에 대한 상세한 설명을 생략한다.For example, the presence or absence of motion of an image belonging to a dark region is determined, and a sample image is generated by dividing and filtering noises according to each property according to the determination result of the movement. The presence or absence of the motion is determined according to the degree of gradation change of adjacent images, which is a general technique, and a detailed description thereof will be omitted.
상기 저조도 필터모듈 중에서, 메디안 필터는 상기 움직임 유무에 대해 판별 한 결과, 움직임이 있을 경우에 검출되는 PCN노이즈를, 특히 해당되는 영상프레임내에서 센터에 위치한 PCN노이즈를 필터링시키는 것이다. Among the low light filter modules, the median filter filters PCN noise detected when there is motion, and in particular, PCN noise located at the center in a corresponding video frame.
상기 로우패스 필터는 상기 움직임 유무에 대해 판별한 결과, 움직임이 없을 경우에 검출되는 PCN노이즈를, 특히 해당되는 영상프레임내에서 센터에 위치한 PCN노이즈를 필터링시키는 것이다.The low pass filter filters the PCN noise detected when there is no motion, in particular, the PCN noise located at the center in the corresponding video frame.
상기 템포랄 필터는 상기 움직임 유무에 대해 판별한 결과, 움직임이 있을 경우에 검출되는 FCN노이즈를 필터링시키는 것으로서, 각 필터의 필터링 동작은 공지된 기술로서, 여기서는 그에 대한 설명을 생략한다.The temporal filter filters the FCN noise detected when there is motion as a result of the determination of the presence or absence of the motion, and the filtering operation of each filter is a known technique, and a description thereof will be omitted herein.
상기 PSIFT모듈은 상기 생성한 표본 영상을 연속적으로 입력받아 인접한 두 영상간의 차영상을 생성하고, 상기 생성한 차영상내에서 각 특징점을 설정하여, 그 각 특징점에 대한 밝기의 변화량 벡터와 밝기의 변화방향 벡터를 미리 정해진 다수의 기준 벡터로 근사화시켜 특징 벡터를 산출하는 것이다. 이는, 서로 다른 가우시안 마스크를 사용해 블러링(Blurring)시킨 표본 영상들 가운데서, 인접한 표본 영상들의 대응되는 각 픽셀간의 거리와 아핀(affine)변화량을 사용해 특징 벡터를 산출하는 종래와는 분명히 상이한데, 구체적인 산출 작업은 바로 후술한다.The PSIFT module continuously receives the generated sample image, generates a difference image between two adjacent images, sets each feature point in the generated difference image, and changes the brightness variation vector and the brightness of each feature point. The feature vector is calculated by approximating the direction vector to a plurality of predetermined reference vectors. This is clearly different from the conventional method of calculating a feature vector using the distance between each corresponding pixel of adjacent sample images and the amount of affine among the sample images blurred using different Gaussian masks. The calculation operation will be described later immediately.
도 2 내지 도 5는 상기의 PSIFT모듈이 특징 벡터를 산출하는 작업을 좀 더 상세히 설명하기 위해 마련된 것이다.2 to 5 are provided to explain in more detail the operation of calculating the feature vector by the PSIFT module.
도 2는 상기 필터링시켜 생성한 표본 영상을 연속적으로 입력받아 인접한 두 영상간의 차영상을 생성하는 작업을 나타낸 것이다. 2 illustrates an operation of continuously receiving the sample image generated by the filtering and generating a difference image between two adjacent images.
상기 작업은 입력영상에 대해 동일한 크기의 가우시안 마스크(Gaussian Mask)를 적용하여 블러링(Blurring)된 표본 영상 들을 좌측에 도시된 바와 같이 연속적으로 얻은 다음, 이렇게 생성된 좌측의 표본 영상 중에서 인접한 표본 영상들의 계조값을 감산시켜, 그 결과, 즉 인접한 표본 영상들의 계조값의 차이값으로 이루어진 차영상을 생성하는 것으로, 상기 가우시안 마스크(Gaussian Mask)는 공분산이 인 것이 바람직하다.The operation is performed by continuously obtaining blurred sample images by applying a Gaussian mask of the same size to the input image as shown on the left side, and then adjacent sample images from the left sample images generated as described above. By subtracting the gray scale value of the two gray scale values, that is, generating a difference image composed of the difference values of the gray scale values of adjacent sample images. The Gaussian mask has a covariance Is preferably.
도 3은 상기의 작업에 의해 생성한 차영상내에서 특징이 되는 특징점을 설정하는 작업을 나타낸 것이다. 3 shows a task of setting a feature point that is a feature in the difference image generated by the above task.
상기 작업은 예를 들면, 차영상(302)의 픽셀(i, j)에 대하여 인접된 8개의 픽셀값들과 다른 차영상(301, 303)내에서 상기 픽셀들과 동일한 위치에 속한 픽셀들, 즉 (i-1, j), (i+1, j), (i-1, j+1), (i, j+1), (i+1, j+1), (i-1, j-1), (i, j-1), (i+1, j-1)위치의 픽셀들에 대한 계조값을 각기 비교하여 크거나 작으면 특징점으로 설정한다.The operation is, for example, pixels belonging to the same position as the pixels in the
도 4는 도 3에 도시된 작업에 의해 설정한 특징점에 대한 밝기의 변화량 벡터와 밝기의 변화방향 벡터를 구하는 작업이다. FIG. 4 is a task of obtaining a change amount vector of brightness and a change direction vector of brightness with respect to a feature point set by the work shown in FIG. 3.
상기 작업은 설정된 특징점에 대응되는 픽셀에 값을 부여하기 위해 상기 특징점의 위치를 중심으로 8×8윈도우를 설정하고, 하기의 수학식2에 의해 윈도우 내의 64개의 픽셀들의 그레디언트(Gradient)즉, 특징점에 대한 밝기의 변화량 벡터와, 오리엔테이션(Orientation), 즉 밝기의 변화방향 벡터를 구한다.The operation sets an 8 × 8 window around the position of the feature point to give a value to a pixel corresponding to the set feature point, and the gradient of 64 pixels in the window, that is, the feature point, is expressed by Equation 2 below. The change amount vector of the brightness and the orientation, i.e., the change direction vector of the brightness are obtained.
여기서, 는 그래디언트(Gradient)이고, 는 오리엔테이션(Orientation)이며, 는 픽셀들의 위치좌표를 나타낸다. here, Is a gradient, Is an orientation, Represents the position coordinate of the pixels.
도 5는 도 4에 도시된 작업에 의해 구한 각 특징점에 대한 밝기의 변화량과 밝기의 변화방향을 설정범위(예: A, B)를 가진 다수의 기준되는 방향 벡터(예 : 10, 3, 12, ... )로 양자화시켜 특징 벡터를 추출하는 작업이다.FIG. 5 illustrates a plurality of reference direction vectors (eg, 10, 3, and 12) having a setting range (eg, A and B) for changing the amount of change in brightness and the direction of changing the brightness for each feature point obtained by the work illustrated in FIG. 4. , ...) to extract feature vectors.
예를 들면, 도시된 바와 같이, 다수의 기준되는 방향 벡터(10, 3, 12, ... )가 서로 다른 방향을 지시하는 8개의 기준 벡터로 설정된 경우, 우선 각 특징점에 대한 밝기의 변화량과 밝기의 변화방향을 각기 합하고 소팅(sorting)시켜 최대값을 결정한다. 이 오리엔테이션 값을 캐노니컬 오리엔테이션으로 설정한다. For example, as shown in the drawing, when a plurality of
그런 후, 특징점으로 설정된 픽셀 주위의 64개의 픽셀들에 대해 얻어진 오리엔테이션 에서 캐노니컬(canonical)오리엔테이션 값을 감산시켜 64개의 픽셀들에 대해 새로운 오리엔테이션 를 구한다. Then, the orientation obtained for the 64 pixels around the pixel set as the feature point New orientation for 64 pixels by subtracting the canonical orientation value in Obtain
다음, 각 픽셀들에 대한 오리엔테이션 값을 상기 8개의 기준되는 방향 벡터를 사용해 8개의 오리엔테이션값으로 양자화(Quantization)한다. 그런 후, 64개의 픽셀들에 대해 양자화(Quantization)된 와 각 픽셀들에 대한 그래디언트값을 이용하여 벡터(Scaled and Quantized orientation vector)를 얻고, 64개의 픽셀들에 대해 8개 방향의 오리엔테이션에 대한 스케일링 값의 합을 구한 후, 각 8개 방향에 대한 스케일링 값의 합을 특징 벡터로 설정한다. Next, the orientation value for each pixel is quantized into eight orientation values using the eight reference direction vectors. Then, quantized for 64 pixels Using the gradient values for each pixel, we obtain a scaled and quantized orientation vector, sum the scaling values for eight orientations for 64 pixels, and then scale for each of the eight orientations. Set the sum of the values to a feature vector.
이러한 과정은 각 특징점에 대해 반복적으로 수행되며, 최종적으로 얻어진 특징 벡터의 차원(Dimension)은 특징점 하나당 8-차원(Dimension)을 가지게 된다. 그 결과로 입력 영상에서 특징점 개수만큼의 특징 벡터의 집합을 비교하므로 동일 영상을 찾아낼 수 있는데, 그에 대한 설명은 통상적인 것으로 여기서는 생략하기로 한다.This process is repeatedly performed for each feature point, and the dimension of the finally obtained feature vector has 8-dimensions per feature point. As a result, the same image can be found by comparing a set of feature vectors corresponding to the number of feature points in the input image, and a description thereof is conventional and will be omitted herein.
도 6은 본 발명에 따른 저조도 환경에서의 영상특징 추출방법을 도시한 도면이다. 6 is a diagram illustrating a method for extracting image features in a low light environment according to the present invention.
우선, 본 발명에 따른 저조도 환경에서의 영상특징 추출방법은 단계(601)에 따라 로봇의 CCD카메라와 IR LED모듈을 통해 외부로부터 저조도 영상을 입력받는 다. 상기의 IR LED모듈은 외부 조명 등의 영향으로 인하여 정확한 좌표추출이 어렵기 때문에 이를 해결하기 위해 사용된 것으로, CCD카메라를 둘러싸게 원형으로 배치되어 방사상으로 넓게 확장된 패턴을 가진다.First, the method for extracting image features in a low light environment according to the present invention receives a low light image from the outside through the CCD camera and the IR LED module of the robot according to step 601. The IR LED module is used to solve this problem because accurate coordinate extraction is difficult due to the influence of external lighting, etc., and is arranged in a circular shape surrounding the CCD camera to have a radially wide pattern.
단계(S601)에서 입력된 아날로그의 저조도 영상은 프레임 그레버 등을 통해 디지타이징(digitizing)되고 프레임별로 구분되어 메모리에 저장된다. 각 프레임의 구분은 시작과 마지막에 해당하는 디지털 영상정보에 프라임(prime) 정보를 부여하여 이루어지며, 그 외에도 통상적인 방식이 적용될 수 있다The low light image of the analog input in step S601 is digitized through a frame grabber or the like and is divided into frames and stored in a memory. The classification of each frame is performed by assigning prime information to digital image information corresponding to the beginning and the end, and other conventional methods may be applied.
단계(S602)는 단계(S601)에 따라 입력되어 메모리에 저장된 저조도 영상을 어두운 영역과 밝은 영역으로 분할하는 것으로, 예를 들면, 미리 설정된 기준 계조값과 저조도 영상을 구성하는 각 픽셀들의 계조값을 비교하여, 미리 설정된 계조값 이상의 계조값을 가진 픽셀로 구성된 영역을 밝은 영역으로 하고, 반대로, 미리 설정된 계조값 이상의 계조값을 가진 픽셀로 구성된 영역을 어두운 영역으로 하여, 상기 메모리에 저장된 저조도 영상을 어두운 영역과 밝은 영역으로 분할한다.In operation S602, the low illumination image inputted according to the operation S601 is divided into a dark area and a bright area. For example, the preset reference gray value and the gray value of each pixel constituting the low light image are divided. In comparison, a low-light image stored in the memory is obtained by making an area composed of pixels having a gradation value equal to or greater than a preset gradation value a bright area, and conversely, a region consisting of pixels having a gradation value equal to or greater than a preset gradation value as a dark area. Split into dark and light areas.
다음, 단계(S602)에 따라 입력된 저조도 영상 중에서 어두운 영역이 분할되면, 분할된 어두운 영역에 혼입된 노이즈들을 각 속성에 맞게 검출한다. Next, when a dark region is divided among the low light images input in operation S602, noises mixed in the divided dark region are detected according to each property.
예를 들면, 어두운 영역의 영상의 움직임 유무를 판별하고(S603), 그 판별한 결과에 따라 노이즈들을 각 속성에 맞게 나누어 필터링시켜 표본 영상을 생성하는데, 움직임 유무에 대한 판별은 인접한 영상들의 계조변화정도에 따라 판별할 수 있으며, 이에 대한 것은 일반적인 것으로 여기서는 그에 대한 상세한 설명을 생략한다. For example, the presence or absence of motion of the image in the dark region is determined (S603), and the sample is generated by dividing and filtering noises according to each property according to the result of the determination. It can be determined according to the degree, which is general and the detailed description thereof is omitted here.
단계(S604)는 단계(S603)에 따라 움직임 유무를 판별한 결과, 움직임이 있다고 판별된 경우, 어두운 영역의 영상에 혼입된 PCN노이즈를 검출하는 것으로, 이러한 PCN노이즈는 저조도 영상의 센터에 위치하는지 혹은 가장자리에 위치하는 지에 따라 상이하게 검출되는데, 센터에 위치한 PCN노이즈는 메디안 필터를 가장자리에 위치한 PCN노이즈는 로우패스 필터를 사용해 검출된다. In step S604, when it is determined that there is motion according to step S603, if it is determined that there is motion, the detection of PCN noise mixed in the image of the dark area is carried out, and whether such PCN noise is located at the center of the low light image. Or differently detected depending on whether the edge is located, the center PCN noise is detected by the median filter and the PCN noise located at the edge using a low pass filter.
단계(S605)는 단계(S603)에 따라 움직임 유무를 판별한 결과, 움직임이 없다고 판별된 경우, FCN노이즈를 검출하는 것으로, 상기의 PCN이나 FCN 검출방식은 통상적인 것으로 여기서는 그에 대한 상세한 설명을 생략한다. In step S605, if it is determined that there is no motion according to step S603, if it is determined that there is no motion, the FCN noise is detected. The above-described PCN or FCN detection method is conventional and a detailed description thereof is omitted here. do.
다음, 단계(S604)와 단계(S605)에 따라 어두운 영역에 속하는 노이즈들이 각 속성에 맞게 나누어 필터링되면, 본 발명에 따라 원하는 표본 영상이 생성된다.Next, when noises belonging to the dark region are filtered according to each property according to steps S604 and S605, a desired sample image is generated according to the present invention.
후속 작업은 이러한 표본 영상을 사용하여 특징 벡터를 산출하는 것이다. 즉 상기 생성한 표본 영상을 연속적으로 입력받아 인접한 두 영상간의 차영상을 생성하고, 상기 생성한 차영상내의 각 특징점에 대한 밝기의 변화량 벡터와 밝기의 변화방향 벡터를 미리 정해진 다수의 기준 벡터로 근사화시켜 특징 벡터를 산출하는 것Subsequent work is to use these sample images to produce feature vectors. That is, the difference image between two adjacent images is generated by successively receiving the generated sample image, and the brightness change vector and the change direction vector of brightness for each feature point in the generated difference image are approximated to a plurality of predetermined reference vectors. To produce feature vectors
이를 위해, 우선 단계(S606)에 따라 표본 영상을 가우시안 필터링 시킨다. 예를 들면, 단계(S604), 단계(S605)에 의해 필터링되어 생성되는 표본 영상에 대해 동일한 크기의 가우시안 마스크(Gaussian Mask)를 특히, 동일한 크기의 공분산이 인 가우시안 마스크(Gaussian Mask)를 사용하여 블러링(Blurring)된 표본 영상들을 연속적으로 얻는다. To this end, first, Gaussian filtering the sample image according to step S606. For example, a Gaussian mask of the same size may be applied to a sample image generated by the filtering at step S604 and step S605. Blured sample images are successively obtained by using an Gaussian mask.
단계(S607)는 단계(S606)에서 연속적으로 얻게 되는 가우시안 필터링된 표본 영상을 사용해 차영상을 생성하는 것으로, 단계(S607)에서 연속적으로 얻게 되는 가우시안 필터링된 표본 영상 중에서, 인접한 표본 영상들의 계조값을 감산시켜, 그에 따라 인접한 표본 영상들의 계조값의 차이값으로 이루어진 차영상을 생성한다.In operation S607, a difference image is generated by using a Gaussian filtered sample image continuously obtained in step S606. Among the Gaussian filtered sample images obtained continuously in step S607, the grayscale values of adjacent sample images. By subtracting the result, a difference image consisting of difference values of gray levels of adjacent sample images is generated accordingly.
단계(S608)는 단계(S607)에서 생성한 차영상프레임 내에서 특징점을 설정하는 것으로, 예를 들면, 차영상의 픽셀(i, j)에 대하여 동일한 차영상내의 인접된 8개의 픽셀값들과 인접한 다른 차영상내에서 상기 픽셀들과 동일한 위치에 속한 픽셀들, 즉 (i-1, j), (i+1, j), (i-1, j+1), (i, j+1), (i+1, j+1), (i-1, j-1), (i, j-1), (i+1, j-1)위치의 픽셀들에 대한 계조값을 각기 비교하여 크거나 작으면 특징점으로 설정한다.In step S608, a feature point is set in the difference image frame generated in step S607. For example, with respect to pixels (i, j) of the difference image, eight adjacent pixel values in the same difference image are set. Pixels belonging to the same position as the pixels in another adjacent difference image, that is, (i-1, j), (i + 1, j), (i-1, j + 1), (i, j + 1 ), (i + 1, j + 1), (i-1, j-1), (i, j-1), and (i + 1, j-1) to compare gradation values for pixels If it is big or small, set it as a feature point.
단계(S609)는 단계(S608)에서 설정한 각 특징점의 밝기의 변화량 벡터와 밝기의 변화방향 벡터를 산출하는 것으로, 단계(S608)에서 설정된 각 특징점에 대응되는 픽셀에 소정의 특징값을 부여하기 위해 해당되는 특징점의 위치를 중심으로 8 ×8윈도우를 설정한 후, 하기의 수학식3에 따라 소정의 윈도우 내의 64개의 픽셀들의 그레디언트(Gradient)즉, 특징점에 대한 밝기의 변화량과, 오리엔테이션(Orientation), 즉 밝기의 변화방향을 구한다.In operation S609, a change amount vector of brightness and a change direction vector of brightness of each feature point set in step S608 are calculated, and a predetermined feature value is assigned to a pixel corresponding to each feature point set in step S608. After setting the 8 × 8 window centering on the position of the corresponding feature point, the gradient of 64 pixels in the predetermined window, that is, the amount of change in brightness and the orientation of the feature point according to
여기서, 는 밝기의 변화량인 그래디언트(Gradient)이고, 는 밝기의 변화방향인 오리엔테이션(Orientation)이며, 는 픽셀들의 위치좌표를 나타낸다.here, Is the gradient, the change in brightness, Is orientation, the direction of change of brightness, Represents the position coordinate of the pixels.
단계(S610)는 단계에서 산출한 각 특징점의 밝기의 변화량 벡터와 밝기의 변화방향 벡터와 다수의 기준 벡터를 사용하여 특징벡터를 산출하는 것으로, 예를 들면, 다수의 기준 벡터가 서로 다른 방향을 지시하는 8개의 기준 벡터로 설정된 경우, 우선 각 특징점에 대한 밝기의 변화량과 밝기의 변화방향을 각기 합하고 소팅(sorting)시켜 최대값을 결정한다. 그리고, 이 오리엔테이션 값을 캐노니컬(canonical) 오리엔테이션으로 설정한다. In operation S610, a feature vector is calculated using a change vector of brightness of each feature point, a change direction vector of brightness, and a plurality of reference vectors. For example, a plurality of reference vectors may use different directions. In the case of eight reference vectors to indicate, the maximum value is determined by first sorting and sorting the amount of change in brightness and the direction of change in brightness for each feature point. Then, this orientation value is set to canonical orientation.
그런 후, 특징점으로 설정된 픽셀 주위의 64개의 픽셀들에 대해 얻어진 오리엔테이션 에서 캐노니컬(canonical)오리엔테이션 값을 감산시켜 64개의 픽셀 들에 대해 새로운 오리엔테이션 를 구한다. Then, the orientation obtained for the 64 pixels around the pixel set as the feature point New orientation for 64 pixels by subtracting the canonical orientation value from Obtain
이어, 각 픽셀들에 대한 오리엔테이션 값을 상기 8개의 기준되는 방향 벡터를 사용해 8개의 오리엔테이션값으로 양자화(Quantization)한다. 그런 후, 64개의 픽셀들에 대해 양자화(Quantization)된 와 각 픽셀들에 대한 그래디언트값을 이용하여 벡터(Scaled and Quantized orientation vector)를 얻고, 64개의 픽셀들에 대해 8개 방향의 오리엔테이션에 대해 스케일링된 값의 합을 구한 후, 각 8개 방향에 대한 스케일링 값의 합을 특징 벡터로 설정한다. Subsequently, the orientation value for each pixel is quantized to eight orientation values using the eight reference direction vectors. Then, quantized for 64 pixels And a scaled and quantized orientation vector are obtained using the gradient values for each pixel and the sum of the scaled values for the eight directions of orientation for 64 pixels, and then for each of the eight directions. Set the sum of scaling values as a feature vector.
이러한 과정은 각 특징점에 대해 반복적으로 수행되며, 최종적으로 얻어진 특징 벡터의 차원(Dimension)은 특징점 하나당 8-차원(Dimension)을 가지게 된다. 그 결과로 입력 영상에서 특징점 개수만큼의 특징 벡터의 집합을 비교하므로 동일 영상을 찾아낼 수 있는데, 그에 대한 설명은 통상적인 것으로 여기서는 생략하기로 한다.This process is repeatedly performed for each feature point, and the dimension of the finally obtained feature vector has 8-dimensions per feature point. As a result, the same image can be found by comparing a set of feature vectors corresponding to the number of feature points in the input image, and a description thereof is conventional and will be omitted herein.
이상에서 상세히 설명한 바와 같이, 본 발명에 따른 저조도 환경에서의 영상특징 추출방법은 저조도에서 촬영한 영상 중에서 상대적으로 더 어두운 영역에 혼입되어 영상 특징벡터 추출시 심각한 영향을 미치는 노이즈를 제거하고, 동일한 크기의 가우시안 마스크를 사용해 차영상을 구하며, 그 차영상내의 특징벡터는 밝기의 변화량과 밝기의 변화방향을 이용해 산출하므로, 저조도 환경에서 촬영한 영상에서 특징벡터를 용이하게 추출할 수 있는 효과가 있다.As described in detail above, the method for extracting image features in a low light environment according to the present invention removes noise that is mixed in a relatively darker area among images taken at low light and has a serious effect on image feature vector extraction, and has the same size. The difference image is obtained by using a Gaussian mask, and the feature vector in the difference image is calculated using the amount of change in brightness and the direction of change in brightness, so that the feature vector can be easily extracted from an image captured in a low light environment.
본 발명은 기재된 구체적인 예에 대해서만 상세히 설명되었지만 본 발명의 기술사상의 범위 내에서 다양한 변형 및 수정이 가능함은 당업자에게 있어서 명백한 것이며, 이러한 변형 및 수정이 첨부된 특허청구범위에 속함은 당연한 것이다.Although the invention has been described in detail only with respect to the specific examples described, it will be apparent to those skilled in the art that various modifications and variations are possible within the spirit of the invention, and such modifications and variations belong to the appended claims.
Claims (5)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020050088615A KR100649384B1 (en) | 2005-09-23 | 2005-09-23 | Method for extracting image characteristic in low intensity of illumination environment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020050088615A KR100649384B1 (en) | 2005-09-23 | 2005-09-23 | Method for extracting image characteristic in low intensity of illumination environment |
Publications (1)
Publication Number | Publication Date |
---|---|
KR100649384B1 true KR100649384B1 (en) | 2006-11-27 |
Family
ID=37713425
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020050088615A KR100649384B1 (en) | 2005-09-23 | 2005-09-23 | Method for extracting image characteristic in low intensity of illumination environment |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100649384B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100944903B1 (en) | 2008-03-18 | 2010-03-03 | 한국전자통신연구원 | Feature extraction apparatus of video signal and its extraction method, video recognition system and its identification method |
KR101014104B1 (en) | 2009-03-17 | 2011-02-14 | 엘지이노텍 주식회사 | Apparatus for image processing and method for operating the same |
US10051195B2 (en) | 2012-11-29 | 2018-08-14 | Hyundai Motor Company | Apparatus and method for acquiring differential image |
KR102368677B1 (en) * | 2020-12-14 | 2022-02-28 | 중앙대학교 산학협력단 | DALE: Dark Region-Aware Low-light Image Enhancement |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11215377A (en) | 1998-01-23 | 1999-08-06 | Sony Corp | Image-processing method and unit thereof |
KR20030002608A (en) * | 2001-06-29 | 2003-01-09 | 주식회사 성진씨앤씨 | Method of adaptive noise smoothing/restoration in spatio-temporal domain and high-definition image capturing device thereof |
KR20030068738A (en) * | 2002-02-16 | 2003-08-25 | 주식회사 성진씨앤씨 | Digital video processing device eliminating the noise generated under insufficient illulmination |
KR20040089885A (en) * | 2003-04-15 | 2004-10-22 | 브이케이 주식회사 | Apparatus for compensating a low intensity of illumination image and method thereof |
-
2005
- 2005-09-23 KR KR1020050088615A patent/KR100649384B1/en not_active IP Right Cessation
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11215377A (en) | 1998-01-23 | 1999-08-06 | Sony Corp | Image-processing method and unit thereof |
KR20030002608A (en) * | 2001-06-29 | 2003-01-09 | 주식회사 성진씨앤씨 | Method of adaptive noise smoothing/restoration in spatio-temporal domain and high-definition image capturing device thereof |
KR20030068738A (en) * | 2002-02-16 | 2003-08-25 | 주식회사 성진씨앤씨 | Digital video processing device eliminating the noise generated under insufficient illulmination |
KR20040089885A (en) * | 2003-04-15 | 2004-10-22 | 브이케이 주식회사 | Apparatus for compensating a low intensity of illumination image and method thereof |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100944903B1 (en) | 2008-03-18 | 2010-03-03 | 한국전자통신연구원 | Feature extraction apparatus of video signal and its extraction method, video recognition system and its identification method |
US8620107B2 (en) | 2008-03-18 | 2013-12-31 | Electronics And Telecommunications Research Institute | Apparatus and method for extracting features of video, and system and method for identifying videos using same |
KR101014104B1 (en) | 2009-03-17 | 2011-02-14 | 엘지이노텍 주식회사 | Apparatus for image processing and method for operating the same |
US10051195B2 (en) | 2012-11-29 | 2018-08-14 | Hyundai Motor Company | Apparatus and method for acquiring differential image |
KR102368677B1 (en) * | 2020-12-14 | 2022-02-28 | 중앙대학교 산학협력단 | DALE: Dark Region-Aware Low-light Image Enhancement |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101612165B1 (en) | Method for producing super-resolution images and nonlinear digital filter for implementing same | |
KR20210139450A (en) | Image display method and device | |
JP2022509034A (en) | Bright spot removal using a neural network | |
WO2009153836A1 (en) | Method and apparatus for motion blur and ghosting prevention in imaging system | |
EP0932114A2 (en) | A method of and apparatus for detecting a face-like region and observer tracking display | |
US8922674B2 (en) | Method and system for facilitating color balance synchronization between a plurality of video cameras and for obtaining object tracking between two or more video cameras | |
US10354413B2 (en) | Detection system and picture filtering method thereof | |
CN110349163B (en) | Image processing method and device, electronic equipment and computer readable storage medium | |
US10489928B2 (en) | Image processing system for inspecting object distance and dimensions using a hand-held camera with a collimated laser | |
WO2014128688A1 (en) | Method, system and software module for foreground extraction | |
IL256202A (en) | Ir or thermal image enhancement method based on background information for video analysis | |
KR20120090491A (en) | Image segmentation device and method based on sequential frame imagery of a static scene | |
CN110880184B (en) | Method and device for automatically inspecting camera based on optical flow field | |
KR20200047389A (en) | Method and apparatus for capturing an image based motion information in the image | |
KR100649384B1 (en) | Method for extracting image characteristic in low intensity of illumination environment | |
US10803625B2 (en) | Detection system and picturing filtering method thereof | |
US20110085026A1 (en) | Detection method and detection system of moving object | |
KR100640761B1 (en) | Method of extracting 3 dimension coordinate of landmark image by single camera | |
CN117690175A (en) | Infant face image capturing and enhancing method, device, equipment and storage medium | |
CN113067980A (en) | Image acquisition method and device, electronic equipment and storage medium | |
JP2019176424A (en) | Image processing apparatus, imaging apparatus, control method of image processing apparatus, and control method of imaging apparatus | |
CN111582076A (en) | Picture freezing detection method based on pixel motion intelligent perception | |
Pavithra et al. | Real-time color classification of objects from video streams | |
US11758297B2 (en) | Systems, methods, and media for high dynamic range imaging using single-photon and conventional image sensor data | |
Damaryam et al. | A Pre-processing Scheme for Line Detection with the Hough Transform for Mobile Robot Self-Navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
LAPS | Lapse due to unpaid annual fee |