KR100691855B1 - Apparatus for extracting features from image information - Google Patents

Apparatus for extracting features from image information Download PDF

Info

Publication number
KR100691855B1
KR100691855B1 KR1020060014211A KR20060014211A KR100691855B1 KR 100691855 B1 KR100691855 B1 KR 100691855B1 KR 1020060014211 A KR1020060014211 A KR 1020060014211A KR 20060014211 A KR20060014211 A KR 20060014211A KR 100691855 B1 KR100691855 B1 KR 100691855B1
Authority
KR
South Korea
Prior art keywords
feature
image information
vectors
detecting
local
Prior art date
Application number
KR1020060014211A
Other languages
Korean (ko)
Inventor
고한석
이지효
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Application granted granted Critical
Publication of KR100691855B1 publication Critical patent/KR100691855B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection

Abstract

An apparatus and a method for extracting features of image information are provided to set a plurality of local regions from which features of an image are extracted and thereby improve performance in recognition of the image. A feature point detection unit(100) calculates a curvature value of image information and detects feature points for feature extraction by using the curvature value. A feature extraction unit(110) detects vectors with respect to affine transformation in a plurality of regions centering around the detected feature points and determines a set of the detected vectors as a feature vector. The feature point detection unit includes a filter unit for carrying out Gausian filtering regarding to the image information, a differential operation unit for calculating differential values of the image information and a curvature calculation unit for calculating the curvature value of the image information by using the differential values.

Description

영상정보의 특징 추출장치 및 그 방법{Apparatus for extracting features from image information}Apparatus for extracting features from image information}

도 1은 본 발명의 블럭도이다.1 is a block diagram of the present invention.

도 2는 도 1의 상세 블럭도이다.FIG. 2 is a detailed block diagram of FIG. 1.

도 3은 본 발명의 흐름도이다.3 is a flowchart of the present invention.

도 4는 도 3의 상세 흐름도이다.4 is a detailed flowchart of FIG. 3.

도 5은 도 4의 국부영역 설정 과정에서 국부 윈도우들을 생성하는 과정을 도시한 것이다.FIG. 5 illustrates a process of generating local windows in the local region setting process of FIG. 4.

도 6는 도 4의 특징벡터 설정 과정을 도시한 것이다.FIG. 6 illustrates a process of setting a feature vector of FIG. 4.

도 7는 종래의 특징추출 방법(SIFT) 및 본 발명에 의한 특징추출 방법(AIFE)에 대해 입력영상 정보의 크기(Scale)변환 및 좌우 이동(Translation)변환에 따른 인식률 성능평가 결과를 나타낸 그래프이다.FIG. 7 is a graph illustrating a recognition rate performance evaluation result according to scale transformation and translation transformation of input image information with respect to the conventional feature extraction method (SIFT) and the feature extraction method according to the present invention (AIFE). .

도 8은 종래의 특징추출 방법(SIFT) 및 본 발명의 AIFE에 대해 입력영상 정보의 깊이방향 변환에 따른 인식률 성능평가 결과를 나타낸 그래프이다.8 is a graph illustrating a recognition rate performance evaluation result according to a depth direction transformation of input image information for a conventional feature extraction method (SIFT) and AIFE of the present invention.

본 발명은 영상신호 처리에 관한 것으로, 특히 특징 추출장치 및 그 방법에 관한 것이다.The present invention relates to image signal processing, and more particularly, to a feature extraction apparatus and method thereof.

일반적으로 영상으로부터 추출된 특징에 대한 결과가 인식단을 거치고 그에 따라 로봇의 위치를 추정하게 되므로 인식단의 기법 선택이 중요하다. 인식단의 경우 훈련 방식과 비 훈련 방식 두가지 기법으로 나뉠 수 있는데, 주행 로봇의 경우 환경 변화에 따라 새로운 데이터들의 생성 및 갱신이 필요하므로 일반적으로 비 훈련 방식의 인식 알고리즘이 적용된다.In general, it is important to select the recognition technique because the result of the feature extracted from the image passes through the recognition stage and estimates the position of the robot accordingly. Recognition stage can be divided into two types of training method and non-training method. In the case of driving robot, non-training recognition algorithm is generally applied because new data need to be created and updated according to environment change.

종래의 주행 로봇의 위치 추정을 위한 비전 기반의 특징추출방법 중 대표적이라 할 수 있는 SIFT(Scale Invariant Feature Transform)방법은 2003년 경에 개발된 방법으로서, 영상정보의 크기(Scale) 변환에 따른 강인함을 유지하기 위해 가우시안 피라미드(Gaussian piramid) 기법을 적용하고, 영상 정보의 2차원 회전(2D-Rotation)에 강인함을 유지하기 위해 영상정보 미분값의 각도 성분에 대한 히스토그램(histogram)을 이용한 방법이다.The scale invariant feature transform (SIFT) method, which is one of the typical vision-based feature extraction methods for the estimation of the position of a traveling robot, was developed around 2003, and is robust due to the transformation of the scale of image information. The Gaussian Pyramid technique is applied to maintain the stiffness, and a histogram of the angular components of the image information derivatives is used to maintain the robustness in 2D rotation of the image information.

그러나, SIFT(Scale Invariant Feature Transform)방법은 실제 로봇이 주행하는 실내 환경에서는 좌우 방향의 2차원 회전 변환보다는 3차원 회전(3D-Rotation), 즉 깊이 방향으로 변형되는 경우가 더 일반적임에도 불구하고 3차원 깊이 방향의 회전 변환을 고려하지 않는다.However, the Scale Invariant Feature Transform (SIFT) method is more commonly used in 3D-rotation, that is, deformation in the depth direction than in two-dimensional rotation transformation in left and right in an indoor environment in which a robot travels. It does not consider rotational transformation in the dimensional depth direction.

최근 비전인식 분야에서 어파인 변형에 강인한 특징추출에 관한 연구가 주요 이슈로 되어 활발한 연구가 진행되고 있다. 프랑스의 Krystian Mikobajczyk는 코너 디텍터(Corner Detector)를 변형시킨 해리스-어파인 인배리언트 디텍터(Harris- Affine Invariant Detector)를 제안하였다. 그러나, 디텍터(Detector)의 실시간 문제를 해결하기에 불가능한 연산량과 추출된 포인트에서 어떤 특징을 추출할 것인지에 관해 연구가 이뤄지지 않고 있다.Recently, research on feature extraction that is robust to affine transformation in the field of vision recognition has been a major issue, and active research is being conducted. Krystian Mikobajczyk of France has proposed a Harris-Affine Invariant Detector that transforms the Corner Detector. However, no research has been conducted on what features to extract from the extracted points and the amount of computation that is impossible to solve the real-time problem of the detector.

그러나, 종래 영상정보의 특징추출 방법은 영상의 촬영위치에 따라 영상 정보의 가감 및 합성(Occlusion) 상황이 발생하기 때문에, 주어진 전체 영상으로부터 어파인 모멘트들을 추출하는 방식으로는 실제 환경에 적용하기 어렵고, 주위 환경이 약간만 변화하여도 인식 성능이 떨어지며, 검증된 소수의 모멘트 벡터를 사용하는 경우에는 특징 수가 부족하여 인식단의 성능이 저하되는 문제점이 있다.However, since the feature extraction method of the conventional image information occurs depending on the location where the image is captured, it is difficult to apply it to the real environment by extracting the affine moments from a given whole image. For example, the recognition performance is reduced even when the environment is slightly changed, and when the verified small moment vector is used, the number of features is insufficient and the performance of the recognition stage is degraded.

본 발명이 이루고자 하는 기술적 과제는 영상정보로부터 영상의 특징을 포함하는 특징 포인트들을 검출하고 검출된 특징 포인트들을 중심으로 특징벡터를 구성하는 영상정보의 특징추출 장치를 제공하는데 있다.An object of the present invention is to provide a feature extraction apparatus for image information that detects feature points including a feature of an image from the image information and forms a feature vector around the detected feature points.

본 발명이 이루고자 하는 다른 기술적 과제는 상기의 영상정보의 특징추출 장치에 적용되는 영상정보의 특징추출 방법을 제공하는데 있다.Another object of the present invention is to provide a feature extraction method of image information applied to the feature extraction apparatus of the image information.

상기 기술적 과제를 해결하기 위하여, 본 발명은 영상정보의 곡률값을 연산하고 상기 곡률값을 이용하여 특징 추출을 위한 특징 포인트들을 검출하는 특징포인트 검출부 및 상기 특징 포인트들을 중심으로 하는 복수의 영역들에서 어파인 변형에 대한 벡터들을 검출하고 상기 벡터들의 집합을 특징벡터로 설정하는 특징 추출부를 포함한다.In order to solve the above technical problem, the present invention calculates a curvature value of the image information and uses a feature point detection unit for detecting feature points for feature extraction using the curvature value and in a plurality of areas around the feature points And a feature extractor for detecting vectors for affine transformation and setting the set of vectors as a feature vector.

상기의 다른 기술적 과제를 해결하기 위하여, 본 발명은 영상정보의 곡률값을 연산하고 상기 곡률값을 이용하여 특징 추출을 위한 특징 포인트들을 검출하는 단계 및 상기 특징 포인트들을 중심으로 하는 복수의 영역들에서 어파인 변형에 대한 벡터들을 검출하고 상기 벡터들의 집합을 특징벡터로 설정하는 단계를 포함한다.In order to solve the above other technical problem, the present invention calculates a curvature value of the image information, detecting the feature points for feature extraction using the curvature value and in a plurality of areas centered on the feature points Detecting vectors for affine transformation and setting the set of vectors as a feature vector.

이하에서는 도면을 참조하여 본 발명의 바람직한 실시예를 설명하기로 한다.Hereinafter, with reference to the drawings will be described a preferred embodiment of the present invention.

도 1은 본 발명의 블럭도이다.1 is a block diagram of the present invention.

특징포인트 검출부(100)는 영상정보의 곡률값을 연산하고, 연산된 곡률값을 이용하여 특징 추출을 위한 특징 포인트들을 검출한다. 바람직하게는, 특징 포인트들은 영상을 구성하는 복수의 픽셀들 중 영상의 특징 추출을 위해 선택된 픽셀들일 수 있다. 여기서, 영상정보는 영상입력장치(카메라, 캠코더, 컴퓨터 화상 캠등)로부터 들어오는 디지털신호 또는 디지털로 변환된 영상픽셀 값들이 저장되어 있는 벡터나 행렬을 의미한다.The feature point detector 100 calculates a curvature value of the image information and detects feature points for feature extraction by using the calculated curvature value. Preferably, the feature points may be pixels selected for feature extraction of the image among a plurality of pixels constituting the image. Here, the image information refers to a vector or matrix in which digital signal or digitally converted image pixel values from an image input device (camera, camcorder, computer image cam, etc.) are stored.

특징 추출부(110)는 검출된 특징 포인트들을 중심으로 하는 복수의 영역들에서 어파인 변형에 대한 벡터들을 검출하고, 검출된 벡터들의 집합을 특징벡터로 설정한다. 바람직하게는, 특징 추출부(110)는 설정된 특징벡터들을 출력한다. 이때, 어파인 변형에 대한 벡터 즉, 어파인 모멘트(Affine moment)는 Tomas-suk이 제안한 총 M개의 요소로 구성되어 있는 벡터이다.The feature extractor 110 detects vectors for affine transformation in a plurality of regions centered on the detected feature points, and sets the detected vector as a feature vector. Preferably, the feature extractor 110 outputs the set feature vectors. In this case, the vector for the affine deformation, that is, the affine moment, is a vector composed of a total of M elements proposed by Tomas-suk.

도 2는 도 1의 상세 블럭도이다.FIG. 2 is a detailed block diagram of FIG. 1.

특징포인트 검출부(100)는 영상정보의 곡률값(을 연산하고, 연산된 곡률값을 이용하여 특징 추출을 위한 특징 포인트들을 검출한다.The feature point detection unit 100 calculates a curvature value of the image information and detects feature points for feature extraction using the calculated curvature value.

도 2에서 특징포인트 검출부(200)는 필터부(201), 미분 연산부(202), 곡률 연산부(203), 코너 검출부(204), 포인트 선택부(205) 및 포인트 제거부(206)를 포함한다.In FIG. 2, the feature point detector 200 includes a filter 201, a derivative calculator 202, a curvature calculator 203, a corner detector 204, a point selector 205, and a point remover 206. .

필터부(201)는 영상정보에 대해 가우시안 필터링을 수행한다. 이때, 가우시안 필터링을 수행하는 이유는 입력영상정보의 민감성에 따른 성능 저하를 막기 위함이다.The filter unit 201 performs Gaussian filtering on the image information. In this case, the reason for performing Gaussian filtering is to prevent performance degradation due to the sensitivity of the input image information.

미분연산부(202)는 필터부(201)에 의해 필터링된 영상정보의 미분값들을 연산한다.The derivative operation unit 202 calculates differential values of the image information filtered by the filter unit 201.

곡률연산부(203)는 미분연산부(202)에 의해 연산된 미분값들을 이용하여 영상정보의 곡률값(Curvature)을 연산한다.The curvature calculator 203 calculates a curvature of the image information by using the derivatives calculated by the differential calculator 202.

코너검출부(204)는 곡률연산부(203)에 의해 연산된 곡률값의 국부최대값을 이용하여 영상정보의 코너들을 검출한다. 영상에서 이미지의 경계를 이루는 부분들은 곡률값이 최대가 되는 픽셀들이다. 따라서, 영상에서 곡률값이 국부적으로 최대가 되는 픽셀들을 이미지의 경계인 코너들로 판단한다. 바람직하게는, 코너검출부(204)는 곡률값을 해리스 코너 검출기(Harris Corner Derector)에 적용하여 영상정보의 코너들을 검출한다.The corner detector 204 detects corners of the image information by using a local maximum value of the curvature calculated by the curvature calculator 203. The parts of the image that form the boundary of the image are the pixels having the maximum curvature. Therefore, pixels whose curvature is locally maximum in the image are determined as corners that are boundaries of the image. Preferably, the corner detector 204 detects corners of the image information by applying a curvature value to the Harris Corner Detector.

포인트 선택부(205)는 코너검출부(204)에 의해 검출된 코너들을 구성하는 포인트들 중에서 특징 포인트들을 선택한다. 바람직하게는, 코너들의 꼭지점(vertex)를 특징 포인트들로 선택한다. The point selector 205 selects feature points from the points constituting the corners detected by the corner detector 204. Preferably, vertices of the corners are selected as feature points.

포인트 제거부(206)는 특징포인트들 중에서, 설정될 국부 영역이 영상 정보 영역을 벗어나는 포인트들을 제거한다. 이는 특징포인트와 영상 정보의 경계 선상의 가로 방향, 세로 방향 거리가 미리 설정된 기준크기 이하인 포인트들을 제거하는 과정이다. 이와 같은 포인트들을 제거하는 이유는 각 특징 포인트 당 추출되는 특징 벡터의 크기를 동일하게 하고 인식단의 성능을 유지하기 위함이다. 이때, 미리 설정된 기준크기는 당업자가 국부영역의 모서리 길이를 고려하여 임의로 정할 수 있는 크기이다. 바람직하게는, 이때의 미리 설정된 기준크기는 국부영역의 모서리 길이의 1/2에 해당하는 크기로 정할 수 있다.The point removing unit 206 removes, from among the feature points, local points to be set out of the image information area. This is a process of removing points whose horizontal and vertical distances on the boundary line between the feature points and the image information are less than or equal to a preset reference size. The reason for removing such points is to make the size of the feature vector extracted for each feature point the same and maintain the performance of the recognition stage. At this time, the preset reference size is a size that a person skilled in the art can arbitrarily determine in consideration of the edge length of the local area. Preferably, the preset reference size at this time may be set to a size corresponding to 1/2 of the edge length of the local area.

특징 추출부(110)는 검출된 특징 포인트들을 중심으로 하는 복수의 영역들에서 어파인 변형에 대한 벡터들을 검출하고, 검출된 벡터들의 집합을 특징벡터로 설정한다.The feature extractor 110 detects vectors for affine transformation in a plurality of regions centered on the detected feature points, and sets the detected vector as a feature vector.

특징 추출부(110)는 국부영역 설정부(211), 어파인 모멘트 검출부(212), 특징벡터 설정부(213), 휘발성 메모리(215) 및 비휘발성 메모리(216)를 포함한다.The feature extractor 110 may include a local region setter 211, an affine moment detector 212, a feature vector setter 213, a volatile memory 215, and a nonvolatile memory 216.

국부영역 설정부(211)는 특징 포인트들을 각 영역의 중심으로 하고 미리설정된 기준크기를 갖는 국부영역들을 설정한다. 바람직하게는, 국부영역 설정부(211)는 국부영역을 기준크기 미만의 크기로 분할하여 국부윈도우들을 생성할 수 있다. 이때, 국부영역을 분할하여 국부위도우를 생성하는 이유는 고차원의 특징벡터를 구성하기 위함이다.The local area setting unit 211 sets local points having feature points as the center of each area and having a predetermined reference size. Preferably, the local area setting unit 211 may generate local windows by dividing the local area into a size smaller than the reference size. In this case, the reason for generating the local window by dividing the local area is to construct a high-dimensional feature vector.

어파인모멘트 검출부(212)는 국부영역마다 어파인 변형에 대한 벡터들을 검출한다. 바람직하게는, 어파인모멘트 검출부(212)는 국부영역 설정부(211)가 국부 윈도우들을 생성하는 경우, 국부윈도우마다 어파인 변형에 대한 벡터들을 검출하고, 검출된 벡터들의 집합을 국부영역의 어파인 변형에 대해 검출된 벡터로 설정한다. The affine moment detector 212 detects vectors for affine deformation for each local region. Preferably, the affine moment detecting unit 212 detects vectors for affine transformation for each local window when the local region setting unit 211 generates local windows, and detects the set of detected vectors in the local region. Set to the detected vector for the phosphorus deformation.

국부영역의 어파인 변형에 대한 벡터들 즉, 어파인 모멘트는 어파인 변형에 무관하게 동일한 값을 갖는 영상정보에 대한 함수 F를 함수 F의 0차 모멘트로 정규화시킨 함수 Z로 표현될 수 있다. 이를 수학식으로 표현하면, 다음의 수학식 1, 2, 3과 같다.The vectors for the affine deformation of the local region, that is, the affine moment, may be expressed as a function Z normalizing the function F for image information having the same value regardless of the affine deformation to the zero-order moment of the function F. When this is expressed as an equation, Equations 1, 2, and 3 are as follows.

F'=G·FF '= G

여기서 F는 어파인 변형된 영상에서의 함수 F의 출력값이고, G는 둘 사이의 관계를 나타내는 어파인 변형에 관계된 파라미터들로 구성된 상수 값이다.Where F is the output value of the function F in the affine transformed image, and G is a constant value composed of parameters related to the affine transformation representing the relationship between the two.

위의 수식을 만족하는 함수 F는 벡터적(Cross product)과영상 픽셀 값으로 구성된 함수로 표현이 가능하다. 따라서, G 값만 제거하게 되면 어파인 변형에 무관한 함수 F를 구할 수 있게 된다. G 값을 제거하기 위해 0차 모멘트 μ00 의 하기 수학식 2와 같은 특성을 이용한다.The function F that satisfies the above expression can be expressed as a function consisting of cross product and image pixel values. Therefore, if we remove only the G value, we can find the function F irrelevant to the affine transformation. In order to remove the G value, a characteristic such as the following Equation 2 of the zero-order moment μ 00 is used.

Figure 112006010823486-pat00001
Figure 112006010823486-pat00001

Figure 112006010823486-pat00002
Figure 112006010823486-pat00002

따라서, 함수 F를 μ00 로 정규화시키면 어파인 변형 이후에도 같은 값을 가지는 함수 Z를 하기 수학식 3와 같이 최종적으로 얻을 수 있다.Therefore, if the function F is normalized to μ 00 , the function Z having the same value even after the affine transformation can be finally obtained as shown in Equation 3 below.

Figure 112006010823486-pat00003
Figure 112006010823486-pat00003

이때, 함수 Z가 모멘트 형태로 변형된 것이 어파인 모멘트(Affine Moment)이다.At this time, the function Z is transformed into a moment shape is an affine moment (Affine Moment).

특징벡터 설정부(213)는 국부영역마다 검출된 벡터들의 집합을 영상정보에 대한 특징벡터로 설정한다.The feature vector setting unit 213 sets a set of detected vectors for each local area as a feature vector for image information.

도 3은 본 발명의 흐름도이다.3 is a flowchart of the present invention.

먼저, 영상정보의 곡률값을 연산하고, 연산된 곡률값을 이용하여 특징 추출을 위한 특징 포인트들을 검출한다(300 과정). 바람직하게는, 특징 포인트들은 영상을 구성하는 복수의 픽셀들 중 영상의 특징 추출을 위해 선택된 픽셀들일 수 있다. 여기서, 영상정보는 영상입력장치로부터 들어오는 디지털신호 또는 디지털로 변환된 영상픽셀 값들이 저장되어 있는 벡터나 행렬을 의미한다.First, the curvature value of the image information is calculated, and feature points for feature extraction are detected using the calculated curvature value (step 300). Preferably, the feature points may be pixels selected for feature extraction of the image among a plurality of pixels constituting the image. Here, the image information refers to a vector or matrix in which digital pixel signals or digitally converted image pixel values from the image input apparatus are stored.

다음, 특징 포인트들을 중심으로 하는 복수의 영역들에서 어파인 변형에 대한 벡터들을 검출하고, 검출된 벡터들의 집합을 특징벡터로 설정한다(310 과정). 바람직하게는, 특징벡터로 설정하는 과정(310 과정)은 설정된 특징벡터들을 출력하 는 과정을 포함한다.Next, vectors for affine transformation are detected in the plurality of regions centered on the feature points, and the set of detected vectors is set as the feature vector (step 310). Preferably, the step 310 of setting the feature vectors includes outputting the set feature vectors.

도 4는 도 3의 상세 흐름도이다.4 is a detailed flowchart of FIG. 3.

먼저, 영상정보를 가우시안 필터링한다(400 과정). 이때, 가우시안 필터링을 수행하는 이유는 입력 영상정보의 민감성에 따른 성능 저하를 막기 위함이다.First, Gaussian filtering the image information (400). In this case, the reason for performing Gaussian filtering is to prevent performance degradation due to sensitivity of the input image information.

다음, 가우시안 필터링된 영상에서 미분값들을 연산한다(401 과정). 바람직하게는, 미분값은 제1차 미분값, 제2차 미분값을 포함할 수 있다.Next, differential values are calculated from the Gaussian filtered image (step 401). Preferably, the derivative value may include a first derivative value and a second derivative value.

미분값들이 연산되면, 연산된 미분값들을 이용하여 곡률값을 연산한다(402 과정). 곡률값이 크면 영상에서 이미지가 급격하게 변화하고, 곡률값이 작으면 영상에서 이미지가 완만하게 변화한다. 이때, 영상에서 이미지가 급격하게 변화하는 부분은 주로 이미지의 외곽선 즉, 경계를 의미한다.When the derivative values are calculated, a curvature value is calculated using the calculated derivatives (step 402). If the curvature value is large, the image changes abruptly in the image. If the curvature value is small, the image changes slowly in the image. In this case, a portion in which the image changes rapidly in the image mainly means an outline of the image, that is, a boundary.

다음, 연산된 곡률값의 국부 최대값을 이용하여 코너들을 검출한다(403 과정). 이때, 코너들은 영상에서 이미지의 경계를 이루는 모서리들이다.Next, corners are detected using the local maximum of the calculated curvature value (step 403). In this case, the corners are corners that form a boundary of the image in the image.

코너들이 검출되면, 어파인 모멘트를 검출하기 위한 특징 포인트들을 선택하고, 불필요한 포인트들을 제거한다(404 과정). 바람직하게는, 코너들의 꼭지점(vertex)를 특징 포인트들로 선택한다. 불필요한 포인트들을 제거하는 과정(404 과정)은 특징포인트들 중에서, 설정될 국부 영역이 영상 정보 영역을 벗어나는 포인트들을 제거한다. 이는 특징포인트와 영상 정보의 경계 선상의 가로 방향, 세로 방향 거리가 미리 설정된 기준크기 이하인 포인트들을 제거하는 과정이다. 이와 같이 포인트들을 제거하는 이유는 각 특징 포인트 당 추출되는 특징 벡터의 크기를 동일하게 하고 인식단의 성능을 유지하기 위함이다. 이때, 미리 설정된 기준크기는 당 업자가 국부영역의 모서리 길이를 고려하여 임의로 정할 수 있는 크기이다. If corners are detected, feature points for detecting the affine moment are selected and unnecessary points are removed (step 404). Preferably, vertices of the corners are selected as feature points. In the process of removing unnecessary points (step 404), points from which the local area to be set out of the image information area are removed from the feature points. This is a process of removing points whose horizontal and vertical distances on the boundary line between the feature points and the image information are less than or equal to a preset reference size. The reason for removing the points as described above is to equalize the size of the feature vector extracted for each feature point and maintain the performance of the recognition stage. At this time, the preset reference size is a size that can be arbitrarily determined by the person in consideration of the edge length of the local area.

특징 포인트들이 선택되면, 각각의 특징 포인트들을 중심으로 국부 영역을 설정한다(410 과정). 바람직하게는, 국부 영역을 여러개로 분할하는 국부윈도우를 생성할 수 있다.When the feature points are selected, a local area is set around each feature point (step 410). Preferably, a local window may be generated that divides the local region into several.

다음, 국부 영역에서 어파인 모멘트를 검출한다(411 과정). 이때, 어파인 모멘트는 어파인 변형에 대한 벡터들이다. 바람직하게는, 국부 영역을 설정하는 과정(410 과정)에서 국부윈도우를 생성한 경우, 각각의 국부 윈도우에서 어파인 모멘트를 검출한다. 이 경우, 국부 영역에 대한 어파인 모멘트는 국부 윈도우에서 검출된 어파인 모멘트들의 집합이다.Next, the affine moment is detected in the local area (step 411). In this case, the affine moments are vectors for affine deformation. Preferably, when a local window is generated in a process of setting a local area (step 410), the affine moment is detected in each local window. In this case, the affine moment for the local area is the set of affine moments detected in the local window.

어파인 모멘트가 검출되면, 모든 국부 영역에 대한 어파인 모멘트들의 집합을 특징벡터로 설정한다(412 과정). 바람직하게는, 특징벡터로 설정하는 과정(412 과정)은 설정된 특징벡터를 출력하는 과정을 포함한다. 따라서, 과정(412 과정)은 어파인 모멘트를 이용하여 특징 벡터를 구성하는 과정이다.When the affine moment is detected, a set of affine moments for all local regions is set as a feature vector (step 412). Preferably, the step of setting to a feature vector (step 412) includes the step of outputting the set feature vector. Accordingly, the process 412 is a process of constructing the feature vector using the affine moment.

이렇게 구성된 특징 벡터는 입력되는 영상을 통해 사물을 식별하거나, 현재 영상을 촬영하는 위치의 공간정보를 판독하기 위한 기준 정보로 상용될 수 있다.The feature vector configured as described above may be commonly used as reference information for identifying an object through an input image or for reading spatial information of a location at which a current image is captured.

도 5은 도 4의 국부영역 설정 과정(410 과정)에서 국부 윈도우들을 생성하는 과정을 도시한 것이다.FIG. 5 illustrates a process of generating local windows in the local region setting process (410) of FIG.

먼저, 선별된 포인트들을 중심으로 특징벡터를 추출하기 위한 T×T 크기의 국부영역을 설정한다. 다음, 설정된 국부영역별로 X×X 크기의 국부 윈도우들을 생성한다. 하나의 국부영역은 도 5에서 알 수 있는 바와 같이 P개의 국부 윈도우로 구성된다. 국부영역의 크기가 T×T 이고 국부윈도우 크기가 X×X 일 경우 하나의 국부영역에서 도출되는 국부 윈도우의 개수 P는 다음의 수학식 4와 같다.First, a local region of size T × T for extracting a feature vector based on the selected points is set. Next, local windows of size X × X are generated for each set local area. One local region is composed of P local windows as shown in FIG. If the size of the local area is T × T and the local window size is X × X, the number P of local windows derived from one local area is expressed by Equation 4 below.

P=(T/X)2 P = (T / X) 2

국부윈도우들이 생성되면, 국부 윈도우 별로 M개의 어파인 모멘트를 추출한다. 이때, M은 당업자의 필요에 따라 임의로 정할 수 있는 상수이다.When local windows are generated, M affine moments are extracted for each local window. At this time, M is a constant that can be arbitrarily determined according to the needs of those skilled in the art.

도 6는 도 4의 특징벡터 설정 과정(412 과정)을 도시한 것이다.FIG. 6 illustrates a process of setting a feature vector of FIG. 4 (operation 412).

도 6에서 알 수 있는 바와 같이 특징벡터 설정 과정은 여러 개의 국부 윈도우 각각에 대해 검출된 M차원 벡터들을 통합하여 K차원 특징벡터를 구성하는 과정이다. As can be seen in FIG. 6, the feature vector setting process is a process of constructing a K-dimensional feature vector by integrating M-dimensional vectors detected for each of a plurality of local windows.

국부윈도우 별로 추출된 M개의 어파인 모멘트들을 사용하여 P×M 차원의 특징벡터를 구성한다. 이때, 하나의 국부영역은 P개의 국부윈도우들로 구성되고 각 국부윈도우들로부터 M개의 어파인 모멘트를 구하게 된다. 따라서, 하나의 국부영역에 대해 K=M×P 크기의 특징벡터가 나오게 된다. 만약 영상데이터로부터 N 개의 포인트값들이 추출되면 결국 하나의 영상데이터로부터 나오는 특징벡터의 수는 N개가 되며 출력값의 구조는 N by K의 크기를 갖는 행렬 또는 N×K 차원 벡터이다.A feature vector of P × M dimension is constructed by using M affine moments extracted for each local window. At this time, one local region is composed of P local windows, and M affine moments are obtained from each local window. Therefore, a feature vector of size K = M × P is generated for one local area. If N point values are extracted from the image data, the number of feature vectors resulting from one image data becomes N and the structure of the output value is a matrix having a size of N by K or an N × K dimensional vector.

결론적으로, 출력은 특징 포인트 하나당 K차원 특징벡터가 검출되므로 검출된 포인트 개수를 N이라 할 때 N by K의 크기를 갖는 행렬 또는 차원벡터가 된다.In conclusion, since the K-dimensional feature vector is detected per feature point, the output becomes a matrix or dimension vector having a size of N by K when the number of detected points is N.

본 발명에 대한 성능평가는 유클리디안 거리(Euclidian Distance) 값에 의한 NNR(Nearest Neighbor Rule)에 바탕을 둔 인식률을 지표로 했다. Performance evaluation for the present invention was based on the recognition rate based on the Nearest Neighbor Rule (NNR) by the Euclidian Distance value.

표 1, 표 2, 도 7 및 도 8을 참조하여 평가결과를 설명하면 다음과 같다.Referring to Table 1, Table 2, Figure 7 and Figure 8 describes the evaluation results.

표 1은 종래의 특징추출 방법(SIFT) 및 본 발명에 의한 특징추출 방법(AIFE)에 대해 입력영상 정보의 크기(Scale)변환 및 좌우 이동(Translation)변환에 따른 인식률 성능평가 결과를 나타낸 것이다. Table 1 shows the results of the recognition rate performance evaluation according to the scale transformation and translation transformation of the input image information with respect to the conventional feature extraction method (SIFT) and the feature extraction method (AIFE) according to the present invention.

클래스(C#)Class (C #) C1C1 C2C2 C3C3 C4C4 C5C5 C6C6 C7C7 C8C8 C9C9 C10C10 C11C11 C12C12 총계sum SIFTSIFT 35.335.3 81.281.2 81.281.2 37.537.5 50.050.0 62.562.5 66.766.7 66.766.7 33.333.3 81.381.3 68.668.6 61.561.5 63.563.5 AIFEAIFE 82.382.3 87.587.5 87.587.5 62.562.5 75.075.0 56.356.3 77.877.8 88.988.9 77.877.8 75.075.0 81.381.3 92.392.3 77.677.6

표 1의 성능평가를 위해서, 총 12개의 자연표식(클래스)에 180장의 테스트 영상이 사용되었다. 크기 변환 영상들은 기준 영상으로부터 앞뒤로 일정 거리 간격만큼 움직이며 최대 1.5m의 거리차가 나도록 임의로 생성되었다. 좌우 이동 변환 영상들은 기준 영상으로부터 좌우로 일정한 간격만큼 움직이며 기준 영상 대비 최대 50%의 변환이 발생되도록 임의로 생성되었다.For the performance evaluation of Table 1, 180 test images were used for a total of 12 natural marks (classes). The size conversion images were randomly generated such that they moved up and down by a predetermined distance from the reference image and had a maximum distance of 1.5 m. The left and right shift transformed images are randomly generated to move up to 50% from the reference image at regular intervals, and generate a maximum of 50% conversion from the reference image.

표 1을 참조하면, 본 발명에 의한 특징추출 방법(AIFE)가 종래의 특징추출 방법(SIFT)보다 평균적으로 14%가량(약 1.3배) 향상된 성능을 보임을 알 수 있다. Referring to Table 1, it can be seen that the feature extraction method (AIFE) according to the present invention shows an average performance improvement of about 14% (about 1.3 times) than the conventional feature extraction method (SIFT).

도 7는 종래의 특징추출 방법(SIFT) 및 본 발명에 의한 특징추출 방법(AIFE)에 대해 입력영상 정보의 크기(Scale)변환 및 좌우 이동(Translation) 변환에 따른 인식률 성능평가 결과를 나타낸 그래프이다.FIG. 7 is a graph illustrating a recognition rate performance evaluation result according to scale transformation and translation transformation of input image information with respect to a conventional feature extraction method (SIFT) and a feature extraction method according to the present invention (AIFE). .

도 7은 표 1의 결과를 그래프로 나타낸 것이다. 표 1과 마찬가지로, 본 발명에 의하면, 크기 변환 및 좌우 이동 변환에 대해서는 종래의 특징추출 방법(SIFT)와 유사하거나 향상된 인식 성능을 보여준다.7 graphically illustrates the results of Table 1. As in Table 1, according to the present invention, the size transformation and the left-right shift transformation show similar or improved recognition performance as the conventional feature extraction method (SIFT).

표 2는 종래의 대표적인 알고리즘인 SIFT에 의한 방법과 본 발명에 의한 특징추출 방법(AIFE)에 관해 입력영상 정보의 3차원 회전(3D-Rotation), 즉 깊이 방향의 변환에 따른 인식률 성능평가 결과를 나타낸 표이다.Table 2 shows the results of the recognition rate performance evaluation according to the 3D rotation, that is, the conversion of the depth direction, of the input image information with respect to the SIFT method and the AIFE method according to the present invention. Table shown.

클래스(C#)Class (C #) C1C1 C2C2 C3C3 C4C4 C5C5 C6C6 C7C7 C8C8 C9C9 C10C10 총계sum SIFTSIFT 22.222.2 11.111.1 55.655.6 44.444.4 55.655.6 11.111.1 11.111.1 22.222.2 22.222.2 55.655.6 31.131.1 AIFEAIFE 66.766.7 55.555.5 77.877.8 88.988.9 66.766.7 33.333.3 44.444.4 88.988.9 66.766.7 55.655.6 64.464.4

표 2의 성능평가에는 총 10개의 클래스(자연표식-C#)에 대해 90장(각 클래스당 9장)의 테스트 영상을 사용되었다. 3차원 회전변환 테스트는 기준영상으로부터 일정 각도만큼 움직여 최대 80°의 각도차가 나도록 생성된 영상들을 사용했다. In the performance evaluation of Table 2, 90 test images of 10 classes (natural marks-C #) were used (9 of each class). The three-dimensional rotation conversion test used images generated to move up to an angle from the reference image with an angle difference of up to 80 °.

표 2를 보면 알 수 있듯이 본 발명에 의한 특징추출 방법(AIFE)이 평균적으로 33%가량(약 2배) 향상된 성능을 보임을 알 수 있다. As can be seen from Table 2, it can be seen that the feature extraction method (AIFE) according to the present invention has improved performance by about 33% (about 2 times) on average.

도 8은 종래의 특징추출 방법(SIFT) 및 본 발명에 의한 특징추출 방법(AIFE)에 대해 입력영상 정보의 깊이방향 변환에 따른 인식률 성능평가 결과를 나타낸 그래프이다.FIG. 8 is a graph illustrating a recognition rate performance evaluation result according to a depth direction transformation of input image information with respect to the conventional feature extraction method (SIFT) and the feature extraction method according to the present invention (AIFE).

도 8은 표 2의 결과를 그래프로 나타낸 것이다. 도 8을 참조하면, 종래의 특징추출 방법(SIFT)은 깊이방향 변환에 대해 평균 50% 미만의 인식률을 보여주고 있다. 따라서, 종래의 특징추출 방법(SIFT)은 깊이방향의 변환에 대해 대처할 수 없다. 반면에, 본 발명에 의한 특징추출 방법(AIFE)은 깊이방향 변환에 대해 평균 64.4%의 인식률을 보여주고 있다. 따라서, 본 발명에 의하면, 종래에 인식이 불가능했던 깊이방향 변환을 인식할 수 있다.8 graphically illustrates the results of Table 2. Referring to FIG. 8, the conventional feature extraction method (SIFT) shows an average recognition rate of less than 50% for the depth transformation. Therefore, the conventional feature extraction method (SIFT) cannot cope with the conversion in the depth direction. On the other hand, the feature extraction method (AIFE) according to the present invention shows an average recognition rate of 64.4% for the depth transformation. Therefore, according to the present invention, it is possible to recognize the depth direction transformation that has not been recognized in the past.

결론적으로 말하면, 상기에서와 같이 본 발명에 의한 특징추출 방법(AIFE)과 SIFT 방법에 의하여 비교실험한 결과, 크기(Scale)과 좌우이동(Translation)의 경우 약 1.3배, 3차원 깊이방향의 회전(3D-Rotation)의 경우 약 2배 이상의 향상된 인식 성능을 보임을 알 수 있다.In conclusion, as a result of the comparison experiment by the feature extraction method (AIFE) and the SIFT method according to the present invention, about 1.3 times in the case of the scale (Scale) and translation (Translation), rotation in the three-dimensional depth direction In the case of (3D-Rotation), the recognition performance is improved by about 2 times or more.

바람직하게는, 본 발명의 영상정보의 특징 추출방법을 컴퓨터에서 실행시키기 위한 프로그램을 컴퓨터로 읽을 수 있는 기록매체에 기록할 수 있다.Preferably, a program for executing the feature extraction method of the image information of the present invention on a computer can be recorded on a computer-readable recording medium.

본 발명은 소프트웨어를 통해 실행될 수 있다. 소프트웨어로 실행될 때, 본 발명의 구성 수단들은 필요한 작업을 실행하는 코드 세그먼트들이다. 프로그램 또는 코드 세그먼트들은 프로세서 판독 가능 매체에 저장되거나 전송 매체 또는 통신망에서 반송파와 결합된 컴퓨터 데이터 신호에 의하여 전송될 수 있다. The invention can be implemented via software. When implemented in software, the constituent means of the present invention are code segments that perform the necessary work. The program or code segments may be stored on a processor readable medium or transmitted by a computer data signal coupled with a carrier on a transmission medium or network.

본 발명은 도면에 도시된 일 실시예를 참고로 하여 설명하였으나 이는 예시적인 것에 불과하며 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 실시예의 변형이 가능하다는 점을 이해할 것이다. 그러나, 이와 같은 변형은 본 발명의 기술적 보호범위내에 있다고 보아야 한다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해서 정해져야 할 것이다.Although the present invention has been described with reference to one embodiment shown in the drawings, this is merely exemplary and will be understood by those of ordinary skill in the art that various modifications and variations can be made therefrom. However, such modifications should be considered to be within the technical protection scope of the present invention. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

상술한 바와 같이, 본 발명에 의하면, 영상정보로부터 영상의 특징을 포함하는 특징 포인트들을 검출하고 검출된 특징 포인트들을 중심으로 특징벡터를 구성함 으로써, 실제 환경에 적용하기 용이하고, 영상의 특징을 추출하는 과정이 주위환경 변화에 민감하지 않고 어파인 변형에 강인하며, 영상의 특징 추출을 위한 복수의 국부 영역들을 설정하여 영상에 대한 인식 성능을 향상시킬 수 있는 효과가 있다.As described above, according to the present invention, by detecting the feature points including the feature of the image from the image information and constructing a feature vector around the detected feature points, it is easy to apply to the real environment, the feature of the image The extraction process is not sensitive to changes in the surrounding environment and is robust to affine deformation, and it is effective to improve the recognition performance of the image by setting a plurality of local regions for feature extraction of an image.

Claims (21)

영상정보의 곡률값을 연산하고, 상기 곡률값을 이용하여 특징 추출을 위한 특징 포인트들을 검출하는 특징포인트 검출부; 및A feature point detector for calculating a curvature value of the image information and detecting feature points for feature extraction using the curvature value; And 상기 특징 포인트들을 중심으로 하는 복수의 영역들에서 어파인 변형에 대한 벡터들을 검출하고, 상기 벡터들의 집합을 특징벡터로 설정하는 특징 추출부를 포함함을 특징으로 하는 영상정보의 특징 추출장치.And a feature extractor for detecting vectors for affine transformation in a plurality of regions centered on the feature points and setting the set of vectors as a feature vector. 제 1 항에 있어서,The method of claim 1, 상기 특징포인트 검출부는The feature point detection unit 상기 영상정보에 대해 가우시안 필터링을 수행하는 필터부를 포함함을 특징으로 하는 영상정보의 특징 추출장치.And a filter unit for performing Gaussian filtering on the image information. 제 1 항에 있어서,The method of claim 1, 상기 특징포인트 검출부는The feature point detection unit 상기 영상정보의 미분값들을 연산하는 미분연산부; 및A derivative operator for calculating differential values of the image information; And 상기 미분값들을 이용하여 상기 영상정보의 곡률값을 연산하는 곡률연산부을 포함함을 특징으로 하는 영상정보의 특징 추출장치.And a curvature calculating unit configured to calculate a curvature value of the image information by using the derivative values. 제 1 항에 있어서,The method of claim 1, 상기 특징포인트 검출부는The feature point detection unit 상기 곡률값의 국부최대값을 이용하여 상기 영상정보의 코너들을 검출하는 코너검출부; 및A corner detector for detecting corners of the image information by using a local maximum of the curvature value; And 상기 검출된 코너들을 구성하는 포인트들 중에서 상기 특징 포인트들을 선택하는 포인트 선택부를 포함함을 특징으로 하는 영상정보의 특징 추출장치.And a point selector which selects the feature points from the points constituting the detected corners. 제 4 항에 있어서,The method of claim 4, wherein 상기 코너검출부는The corner detection unit 상기 곡률값을 해리스 코너 검출기(Harris Corner Derector)에 적용하여 상기 영상정보의 코너들을 검출하는 것을 특징으로 하는 영상정보의 특징 추출장치.And extracting the corners of the image information by applying the curvature value to a Harris corner detector. 제 1 항에 있어서,The method of claim 1, 상기 특징포인트 검출부는The feature point detection unit 상기 특징포인트들 중 임의의 특징포인트와 상기 영상정보의 경계와의 거리가 미리 설정된 기준크기 이하이면, 상기 임의의 특징포인트를 제거하는 포인트 제거부를 포함함을 특징으로 하는 특징 추출장치.And a point removing unit for removing the arbitrary feature points when a distance between any one of the feature points and a boundary of the image information is equal to or less than a preset reference size. 제 1 항에 있어서,The method of claim 1, 상기 특징 추출부는The feature extraction unit 상기 특징 포인트들을 각 영역의 중심으로 하고 미리설정된 기준크기를 갖는 국부영역들을 설정하는 국부영역 설정부;A local area setting unit which sets the feature points as the center of each area and sets local areas having a predetermined reference size; 상기 국부영역마다 어파인 변형에 대한 벡터들을 검출하는 어파인모멘트 검출부; 및An affine moment detector for detecting vectors for affine transformation for each local region; And 상기 국부영역마다 검출된 벡터들의 집합을 상기 영상정보에 대한 특징벡터로 설정하는 특징벡터 설정부를 포함함을 특징으로 하는 영상정보의 특징 추출장치.And a feature vector setting unit for setting a set of detected vectors for each local region as a feature vector for the image information. 제 7 항에 있어서,The method of claim 7, wherein 상기 국부영역 설정부는The local area setting unit 상기 국부영역을 상기 기준크기 미만의 크기로 분할하여 국부윈도우들을 생성하는 것을 특징으로 하고,Local parts are generated by dividing the local area into a size smaller than the reference size. 상기 어파인모멘트 검출부는The affine moment detector 상기 국부윈도우마다 어파인 변형에 대한 벡터들을 검출하고, 상기 검출된 벡터들의 집합을 상기 국부영역의 어파인 변형에 대해 검출된 벡터로 설정하는 것을 특징으로 하는 영상정보의 특징 추출장치.And detecting the vectors for the affine transformation for each local window, and setting the set of the detected vectors as the detected vectors for the affine transformation of the local region. 제 7 항에 있어서,The method of claim 7, wherein 상기 어파인모멘트 검출부는The affine moment detector 상기 국부영역의 어파인 변형에 대한 벡터들이 어파인 변형에 무관하게 동일한 값을 갖는 상기 영상정보에 대한 함수 F를 상기 함수 F의 0차 모멘트로 정규화 시킨 함수 Z로 표현되는 것을 특징으로 하는 영상정보의 특징 추출장치.Image information, characterized in that the vectors for the affine deformation of the local region are represented by a function Z for normalizing the function F of the image information having the same value regardless of the affine deformation with the zeroth moment of the function F. Features of the extraction device. 제 1 항에 있어서,The method of claim 1, 상기 특징 추출부는The feature extraction unit 상기 특징벡터를 저장하기 위한 휘발성 메모리 소자를 포함함을 특징으로 하는 영상정보의 특징 추출장치.And a volatile memory device for storing the feature vector. 제 1 항에 있어서,The method of claim 1, 상기 특징 추출부는The feature extraction unit 상기 특징벡터를 저장하기 위한 비휘발성 메모리 소자를 포함함을 특징으로 하는 영상정보의 특징 추출장치.And a nonvolatile memory device for storing the feature vector. 영상정보의 곡률값을 연산하고, 상기 곡률값을 이용하여 특징 추출을 위한 특징 포인트들을 검출하는 단계; 및Calculating curvature values of the image information and detecting feature points for feature extraction using the curvature values; And 상기 특징 포인트들을 중심으로 하는 복수의 영역들에서 어파인 변형에 대한 벡터들을 검출하고, 상기 벡터들의 집합을 특징벡터로 설정하는 단계를 포함함을 특징으로 하는 영상정보의 특징 추출방법.Detecting vectors for affine transformation in a plurality of regions centered on the feature points, and setting the set of vectors as a feature vector. 제 12 항에 있어서,The method of claim 12, 상기 특징 포인트를 검출하는 단계는Detecting the feature point 상기 영상정보에 대해 가우시안 필터링을 수행하는 단계를 포함함을 특징으로 하는 영상정보의 특징 추출방법.And performing Gaussian filtering on the image information. 제 12 항에 있어서,The method of claim 12, 상기 특징 포인트를 검출하는 단계는Detecting the feature point 상기 영상정보의 미분값들을 연산하는 단계; 및Calculating differential values of the image information; And 상기 미분값들을 이용하여 상기 영상정보의 곡률값을 연산하는 단계를 포함함을 특징으로 하는 영상정보의 특징 추출방법.And calculating a curvature value of the image information by using the differential values. 제 12 항에 있어서,The method of claim 12, 상기 특징 포인트를 검출하는 단계는Detecting the feature point 상기 곡률값의 국부최대값을 이용하여 상기 영상정보의 코너들을 검출하는 단계; 및Detecting corners of the image information by using a local maximum of the curvature value; And 상기 검출된 코너들을 구성하는 포인트들 중에서 상기 특징 포인트들을 선택하는 단계를 포함함을 특징으로 하는 영상정보의 특징 추출방법.And selecting the feature points from among the points constituting the detected corners. 제 15 항에 있어서,The method of claim 15, 상기 코너들을 검출하는 단계는Detecting the corners 상기 곡률값을 해리스 코너 검출기(Harris Corner Derector)에 적용하여 상기 영상정보의 코너들을 검출하는 단계인 것을 특징으로 하는 영상정보의 특징 추 출방법.And detecting corners of the image information by applying the curvature value to a Harris corner detector. 제 12 항에 있어서,The method of claim 12, 상기 특징 포인트를 검출하는 단계는Detecting the feature point 상기 특징포인트들 중 임의의 특징포인트와 상기 영상정보의 경계와의 거리가 미리 설정된 기준크기 이하이면, 상기 임의의 특징포인트를 제거하는 단계를 포함함을 특징으로 하는 특징 추출방법.And removing any of the feature points if the distance between any one of the feature points and a boundary of the image information is equal to or less than a preset reference size. 제 12 항에 있어서,The method of claim 12, 상기 특징벡터로 설정하는 단계는Setting the feature vector 상기 특징 포인트들을 각 영역의 중심으로 하고 미리설정된 기준크기를 갖는 국부영역들을 설정하는 단계;Setting local areas having the feature points as the center of each area and having a predetermined reference size; 상기 국부영역마다 어파인 변형에 대한 벡터들을 검출하는 단계; 및Detecting vectors for affine transformation for each local region; And 상기 국부영역마다 검출된 벡터들의 집합을 상기 영상정보에 대한 특징벡터로 설정하는 단계를 포함함을 특징으로 하는 영상정보의 특징 추출방법.And setting a set of detected vectors for each local region as a feature vector for the image information. 제 18 항에 있어서,The method of claim 18, 상기 국부영역들을 설정하는 단계는Setting the local areas is 상기 국부영역을 상기 기준크기 미만의 크기로 분할하여 국부윈도우들을 생성하는 단계를 포함하고,Generating local windows by dividing the local area into a size smaller than the reference size; 상기 어파인 변형에 대한 벡터들을 검출하는 단계는Detecting vectors for the affine transformation 상기 국부윈도우마다 어파인 변형에 대한 벡터들을 검출하고, 상기 검출된 벡터들의 집합을 상기 국부영역의 어파인 변형에 대해 검출된 벡터로 설정하는 단계를 포함함을 특징으로 하는 영상정보의 특징 추출방법.Detecting vectors for affine transformation for each local window, and setting the set of detected vectors as a detected vector for affine transformation of the local region. . 제 18 항에 있어서,The method of claim 18, 상기 어파인 변형에 대한 벡터들을 검출하는 단계는Detecting vectors for the affine transformation 상기 국부영역의 어파인 변형에 대한 벡터들이 어파인 변형에 무관하게 동일한 값을 갖는 상기 영상정보에 대한 함수 F를 상기 함수 F의 0차 모멘트로 정규화시킨 함수 Z로 표현되는 것을 특징으로 하는 영상정보의 특징 추출방법.Image information characterized in that the vectors for the affine deformation of the local region are represented by a function Z for normalizing the function F for the image information having the same value irrespective of the affine deformation with the zero-order moment of the function F. Feature extraction method. 제 12 항 내지 제 20 항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for executing the method of any one of claims 12 to 20.
KR1020060014211A 2005-12-29 2006-02-14 Apparatus for extracting features from image information KR100691855B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020050132812 2005-12-29
KR20050132812 2005-12-29

Publications (1)

Publication Number Publication Date
KR100691855B1 true KR100691855B1 (en) 2007-03-12

Family

ID=38102884

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060014211A KR100691855B1 (en) 2005-12-29 2006-02-14 Apparatus for extracting features from image information

Country Status (1)

Country Link
KR (1) KR100691855B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102693533A (en) * 2012-03-12 2012-09-26 清华大学 Medical digital image mosaicing method
KR101265667B1 (en) 2011-06-21 2013-05-22 ㈜베이다스 Device for 3d image composition for visualizing image of vehicle around and method therefor
KR101284252B1 (en) 2011-11-04 2013-07-09 한국과학기술원 Curvature Field-based Corner Detection
KR101404553B1 (en) * 2007-07-19 2014-06-09 삼성디스플레이 주식회사 Mark recognizing apparatus of liquid crystal display panel and the mark recognizing method
KR101453713B1 (en) 2014-02-03 2014-10-22 연세대학교 산학협력단 Object recognition method and apparatus
CN104680550A (en) * 2015-03-24 2015-06-03 江南大学 Method for detecting defect on surface of bearing by image feature points

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273501A (en) 2000-02-08 2001-10-05 Univ Of Washington Method for tracking object in plural picture frames
KR100332752B1 (en) 1995-01-25 2002-11-29 엘지전자주식회사 Method for recognizing character
KR20040055936A (en) * 2002-12-23 2004-06-30 한국전자통신연구원 Apparatus and method for recognizing character based on contour feature
KR20060099351A (en) * 2005-03-12 2006-09-19 전재춘 Method for removing blurred image by motion of image equipment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100332752B1 (en) 1995-01-25 2002-11-29 엘지전자주식회사 Method for recognizing character
JP2001273501A (en) 2000-02-08 2001-10-05 Univ Of Washington Method for tracking object in plural picture frames
KR20040055936A (en) * 2002-12-23 2004-06-30 한국전자통신연구원 Apparatus and method for recognizing character based on contour feature
KR20060099351A (en) * 2005-03-12 2006-09-19 전재춘 Method for removing blurred image by motion of image equipment

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101404553B1 (en) * 2007-07-19 2014-06-09 삼성디스플레이 주식회사 Mark recognizing apparatus of liquid crystal display panel and the mark recognizing method
KR101265667B1 (en) 2011-06-21 2013-05-22 ㈜베이다스 Device for 3d image composition for visualizing image of vehicle around and method therefor
KR101284252B1 (en) 2011-11-04 2013-07-09 한국과학기술원 Curvature Field-based Corner Detection
CN102693533A (en) * 2012-03-12 2012-09-26 清华大学 Medical digital image mosaicing method
KR101453713B1 (en) 2014-02-03 2014-10-22 연세대학교 산학협력단 Object recognition method and apparatus
CN104680550A (en) * 2015-03-24 2015-06-03 江南大学 Method for detecting defect on surface of bearing by image feature points

Similar Documents

Publication Publication Date Title
US20190179420A1 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
EP1693783B1 (en) Fast method of object detection by statistical template matching
US8755630B2 (en) Object pose recognition apparatus and object pose recognition method using the same
KR101988384B1 (en) Image matching apparatus, image matching system and image matching mehod
CN107025660B (en) Method and device for determining image parallax of binocular dynamic vision sensor
JP2006252162A (en) Pattern recognition device and method therefor
KR100691855B1 (en) Apparatus for extracting features from image information
WO2012100225A1 (en) Systems and methods for generating a three-dimensional shape from stereo color images
JP6798860B2 (en) Boundary line estimation device
KR101478709B1 (en) Method and apparatus for extracting and generating feature point and feature descriptor rgb-d image
US11189053B2 (en) Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium
CN112991159B (en) Face illumination quality evaluation method, system, server and computer readable medium
KR101799143B1 (en) System and method for estimating target size
JP6799325B2 (en) Image correction device, image correction method, attention point recognition device, attention point recognition method and abnormality detection system
KR100792172B1 (en) Apparatus and method for estimating fundamental matrix using robust correspondence point
Lefevre et al. A local approach for fast line detection
JP2005339535A (en) Calculation of dissimilarity measure
Yang et al. Design flow of motion based single camera 3D mapping
KR101566448B1 (en) Method for detecting and removing floor area using depth information and apparutus for detecting and removing floor area using depth information and program recording medium for detecting and removing floor area using depth information
WO2017042852A1 (en) Object recognition appratus, object recognition method and storage medium
CN116194956A (en) Generation of 3D point clouds for scenes
WO2016142965A1 (en) Video processing device, video processing method, and storage medium storing video processing program
JP3275252B2 (en) Three-dimensional information input method and three-dimensional information input device using the same
CN111951254A (en) Source camera identification method and system based on edge-guided weighted average
WO2020075237A1 (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20111209

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20130111

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee