KR101511087B1 - Method for rotation invariant feature matching for the real-time processing from extracted features from images - Google Patents

Method for rotation invariant feature matching for the real-time processing from extracted features from images Download PDF

Info

Publication number
KR101511087B1
KR101511087B1 KR20130137415A KR20130137415A KR101511087B1 KR 101511087 B1 KR101511087 B1 KR 101511087B1 KR 20130137415 A KR20130137415 A KR 20130137415A KR 20130137415 A KR20130137415 A KR 20130137415A KR 101511087 B1 KR101511087 B1 KR 101511087B1
Authority
KR
South Korea
Prior art keywords
feature point
descriptor
region
pixel
bit
Prior art date
Application number
KR20130137415A
Other languages
Korean (ko)
Inventor
김택규
김영기
박재윤
Original Assignee
한국원자력연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국원자력연구원 filed Critical 한국원자력연구원
Priority to KR20130137415A priority Critical patent/KR101511087B1/en
Application granted granted Critical
Publication of KR101511087B1 publication Critical patent/KR101511087B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a method for matching minutiae points in real-time whereby minutiae points in an image are not changed by rotation. More specifically, identical minutiae points are searched in different images based on minutiae points extracted from input images. The method includes a minutiae point extraction step, a descriptor generation step, and a descriptor comparison step.

Description

영상내 특징점들에 대한 회전 불변을 갖는 실시간 특징점 정합 처리 방법{Method for rotation invariant feature matching for the real-time processing from extracted features from images}[0001] The present invention relates to a real-time feature point registration processing method and a real-time feature point registration processing method,

본 발명은 영상내 특징점들에 대한 회전 불변을 갖는 실시간 특징점 정합 처리 방법에 관한 것으로서, 보다 상세하게는 입력되는 영상들로부터 추출된 특징점들을 근거로 하여 다른 영상들 간에 동일한 특징점들을 찾는 실시간 특징점 정합 기법에 관한 것이다.
The present invention relates to a real-time feature point matching method having rotation invariance for feature points in an image, and more particularly to a real-time feature point matching method for finding identical feature points among different images based on feature points extracted from input images. .

일반적으로 입력되는 영상들로부터 추출된 특징점들을 근거로하여, 다른 영상들간에 동일한 특징점들을 찾는 실시간 특징점 정합 기법은 영상에서 특징점들을 추출하여 기술자를 생성하고, 다른 영상에서 특징점들을 추출하여 기술자를 생성한 후, 기술자들 간의 비교를 통해 동일한 기술자가 있는 특징점들을 찾아 동일한 객체를 확인할 수 있다.A real-time feature point matching technique that finds identical feature points between different images based on feature points extracted from input images is generally performed by extracting feature points from an image to generate descriptors, extracting feature points from other images, and generating descriptors Later, a comparison between the technicians can identify the same object by looking for minutiae with the same descriptor.

여기서, 특징점이란 영상 내의 객체들을 표현할 수 있는 대표적인 픽셀들을 의미하며, 특징점 추출이란 영상 내에서 특정 조건을 만족시키는 픽셀들을 찾아 추출하는 것이고, 기술자는 특징점에 대한 다양한 정보를 표현한 것이며, 특징점 정합이란 서로 다른 영상에서 추출된 특징점에 대한 기술자를 서로 비교하여 동일한 기술자(특성)를 가지는 특징점들을 찾는 것이다. Here, the minutiae are representative pixels capable of expressing the objects in the image, and the minutiae point extraction is to extract and extract pixels satisfying a specific condition in the image, the descriptor expresses various information about the minutiae, And comparing feature descriptors of feature points extracted from other images with each other to find feature points having the same descriptor (feature).

이렇게 찾아진 정합 가능한 특징점들의 이동량을 확인한다면 특징점들에 대한 추적이 가능하다. 만약 카메라 영상에 특징점 추출 및 정합을 사용하면, 순차적으로 입력되는 영상에서 특징점들을 찾고, 영상들 사이에서 동일한 특징점들을 찾아 추적할 수 있다.The feature points can be tracked if the movement amounts of the matching feature points are found. If the feature point extraction and matching are used in the camera image, the feature points can be sequentially found in the input image and the same feature points can be traced between the images.

특징점 정합 단계에서는 서로 다른 영상에서 추출된 특징들 중에서 동일한 특성을 가지는 특징을 찾기 위해서 기술자를 사용한다. 동일한 특성을 가지는 특징점을 정확하게 찾기 위해, 기술자에는 다양한 정보가 포함된다. 특히 특징점들에 대해서는 회전이 자주 일어나기 때문에, 회전하는 특성을 고려한 비교를 위해서 기술자에 회전에 대한 정보가 기술된다. 하지만 회전 특성을 고려한 기술자들은 비교 과정에 복잡한 연산이 들어가기 때문에 기존에 잘 알려진 정합 기법들을 실시간으로 처리하려면 많은 노력이 요구된다.
In the feature point matching step, a descriptor is used to search for features having the same characteristics among features extracted from different images. In order to accurately locate feature points having the same characteristics, the descriptor includes various information. Since rotations occur frequently, especially for minutiae, the information about the rotation is described in the descriptor for comparison considering the rotating characteristics. However, engineers considering the rotation characteristics require a lot of effort to process well-known matching techniques in real time because complex operations are involved in the comparison process.

한국공개특허 [10-2010-0125016]에서는 영상 정합 장치및 그것의 영상정합 방법이 개시되어 있다.
Korean Patent Laid-Open No. 10-2010-0125016 discloses a video matching apparatus and a video matching method thereof.

한국공개특허 [10-2010-0125016]Korean Patent No. [10-2010-0125016]

본 발명은 상술한 바와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은 회전 불변 특성을 갖는 단순한 기술자를 작성하고, 기술자들을 단순화시키고 간단한 비교 논리를 통해 정합함으로써 실시간 정합 처리가 용이하게 한 영상내 특징점들에 대한 회전 불변을 갖는 실시간 특징점 정합 처리 방법을 제공하는 것이다.
SUMMARY OF THE INVENTION The present invention has been made in order to solve the above-mentioned problems, and it is an object of the present invention to provide a method and apparatus for generating a simple descriptor having a rotation invariant characteristic, simplifying descriptors, And to provide a real-time feature point registration processing method having a rotation invariance with respect to feature points in an image.

본 발명의 영상내 특징점들에 대한 회전 불변을 갖는 실시간 특징점 정합 처리 방법은 영상정보를 입력받아 특징점(100)을 추출하는 특징점 추출 단계(S10); 상기 특징점 추출 단계(S10)에서 추출된 특징점(100)에 대하여 엘비피(LBP: Local Binary Pattern)를 개선한 빠른 순환 이동 엘비피 (FCS-LBP: Fast Circular Shift - Local Binary Pattern)기반 회전불변 특성의 기술자(200)를 생성하는 기술자 생성 단계(S20); 및 다른 영상을 입력받아, 동일한 기술자(200)를 갖는 특징점(100)을 찾는 기술자 비교 단계(S30);를 포함하여 이루어지는 것을 특징으로 한다.
A real-time feature point matching processing method having rotation invariance for feature points in an image according to the present invention includes a feature point extracting step (S10) for extracting a feature point (100) by receiving image information; (FCS-LBP: Fast Circular Shift-Local Binary Pattern) -based rotation invariant characteristic improved LBP (Local Binary Pattern) for the feature point 100 extracted in the feature point extracting step S10 A descriptor generating step (S20) of generating a descriptor (200) And a descriptor comparison step (S30) of receiving a different image and finding a minutiae point 100 having the same descriptor (200).

본 발명의 일 실시예에 따른 영상내 특징점들에 대한 회전 불변을 갖는 실시간 특징점 정합 처리 방법에 의하면, 특징점에 대한 회전 불변의 특성을 가지는 간단한 기술자를 사용함으로써, 영상내 특징점들에 대한 실시간 정합 처리를 보다 빠르게 수행할 수 있는 효과가 있다.According to the real-time feature point matching method having the rotation invariance for the feature points in the image according to the embodiment of the present invention, by using a simple descriptor having the rotation invariant characteristic for the feature points, Can be performed more quickly.

또한, 정수형 형태의 덧셈, 뺄셈 및 비교연산 만으로 보다 간단하고 빠르게 기술자를 생성할 수 있는 효과가 있다.Further, it is possible to generate descriptors more simply and quickly by addition, subtraction, and comparison operations of an integer type.

또, 특징점을 중심으로 주변 픽셀들을 거리에 따라 서로 다른 영역으로 지정함으로써 특징점 주변의 픽셀들의 특징을 포함하는 기술자를 생성할 수 있는 효과가 있다.In addition, it is possible to generate descriptors including the features of the pixels around the feature points by designating the neighboring pixels around the feature points as different regions according to the distance.

또한, 그레이 컬러를 사용할 때뿐만 아니라 일반 컬러 영상을 사용할 때에도 적은 구현 비용만으로도 특징점과 주변 픽셀들을 실시간으로 비교할 수 있는 효과가 있다.In addition, when using a general color image as well as using a gray color, it is possible to compare feature points and surrounding pixels in real time even with a small implementation cost.

또, 순환 레지스터의 비트를 이동시킬 값을 해당 테이블을 이용하여 구함으로 써, 삼각함수 등의 복잡한 계산보다 빠르게 회전불변 특성을 포함한 기술자를 생성할 수 있는 효과가 있다.In addition, by obtaining the value to move the bits of the cyclic register using the corresponding table, a descriptor including the rotation invariant characteristic can be generated faster than a complicated calculation such as a trigonometric function.

아울러, 정수형 형태의 덧셈, 뺄셈, 비교 및 배타적 논리합(XOR: exclusive or) 연산만으로 특징점 정합이 가능하며, 제1 임계값에 의해 회전한 정도의 분해능이 낮은 단점을 보완하고, 제2 임계값에 의해 회전한 정도의 분해능 보완에서 발생하는 다른 오차의 보정이 가능한 효과가 있다.In addition, feature points can be matched only by adding, subtracting, comparing, and exclusive OR (XOR) operations of an integer type, complementing the disadvantage that resolution is reduced by a degree of rotation by the first threshold, There is an effect that correction of another error occurring in the resolution supplemental to the degree of rotation by the rotation can be effected.

결론적으로, 연산 구조가 간단하여, 디지털 회로로 설계가 용이하고, 회로로 구현 시에 적발이 용이함으로써, 실시간 처리 분야에 적용이 가능한 효과가 있다.
As a result, the calculation structure is simple, it is easy to design with a digital circuit, and it is easy to detect when the circuit is implemented, so that it is applicable to a real-time processing field.

도 1 내지 도 3은 본 발명의 일 실시예에 따른 영상내 특징점들에 대한 회전 불변을 갖는 실시간 특징점 정합 처리 방법의 순서도.
도 4는 특징점과 주변 픽셀과의 관계를 보여주는 도면.
도 5는 쉬프트 레지스터 생성 관계를 보여주는 도면.
도 6은 기술자 생성 및 구조를 보여주는 도면.
도 7은 기술자 비교 논리를 보여주는 도면.
도 8은 방향 특성을 가지는 특징점의 방향 특성이 변화된 예를 보여주는 도면.
1 to 3 are flowcharts of a real-time feature point matching processing method having rotation invariance for feature points in an image according to an embodiment of the present invention.
4 is a view showing a relationship between a feature point and surrounding pixels;
5 is a diagram showing a shift register generation relationship;
6 is a diagram showing engineer generation and structure;
Figure 7 is a diagram showing descriptor comparison logic;
8 is a diagram showing an example in which a direction characteristic of a feature point having a direction characteristic is changed;

이하, 도면을 참조하여 본 발명을 보다 상세하게 설명한다. 다음에 소개되는 도면들은 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 예로서 제공되는 것이다. 따라서, 본 발명은 이하 제시되는 도면들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 또한, 명세서 전반에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다. 도면들 중 동일한 구성요소들은 가능한 한 어느 곳에서든지 동일한 부호들로 나타내고 있음에 유의해야 한다. 또한, 사용되는 기술 용어 및 과학 용어에 있어서 다른 정의가 없다면, 이 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 통상적으로 이해하고 있는 의미를 가지며, 하기의 설명 및 첨부 도면에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 설명은 생략한다.
Hereinafter, the present invention will be described in more detail with reference to the drawings. The following drawings are provided by way of example so that those skilled in the art can fully understand the spirit of the present invention. Therefore, the present invention is not limited to the following drawings, but may be embodied in other forms. In addition, like reference numerals designate like elements throughout the specification. It is to be noted that the same elements among the drawings are denoted by the same reference numerals whenever possible. Further, it is to be understood that, unless otherwise defined, technical terms and scientific terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Descriptions of known functions and configurations that may be unnecessarily blurred are omitted.

도 1 내지 도 3은 본 발명의 일 실시예에 따른 영상내 특징점들에 대한 회전 불변을 갖는 실시간 특징점 정합 처리 방법의순서도이며, 도 4는 특징점과 주변 픽셀과의 관계를 보여주는 도면이고, 도 5는 쉬프트 레지스터 생성 관계를 보여주는 도면이며, 도 6은 기술자 생성 및 구조를 보여주는 도면이고, 도 7은 기술자 비교 논리를 보여주는 도면이며, 도 8은 방향 특성을 가지는 특징점의 방향 특성이 변화된 예를 보여주는 도면이다.
FIGS. 1 to 3 are flowcharts of a real-time feature point matching processing method having rotation invariance for feature points in an image according to an embodiment of the present invention, FIG. 4 is a diagram showing a relationship between a feature point and surrounding pixels, FIG. 6 is a diagram showing a descriptor creation and structure, FIG. 7 is a diagram showing descriptor comparison logic, and FIG. 8 is a diagram showing an example in which a direction characteristic of a minutia having a direction characteristic is changed to be.

특징점을 추적하는 응용 분야는 특징점들을 추출하는 특징점 추출 기법과 추출된 특징점들 간에 특성이 일치하는 특징점을 찾는 특징점 정합 기법으로 분류된다. 세부적으로 특징점 정합 기법에는 추출된 특징 간에 특성을 비교하기 위한 기술자를 생성하는 부분과 생성된 기술자를 비교하는 부분으로 구성된다.
The application field for tracking feature points is classified into feature point extraction technique for extracting feature points and feature point matching technique for finding feature points that match characteristics between extracted feature points. In detail, the feature point matching technique consists of a part to generate a descriptor to compare characteristics between extracted features and a part to compare the generated descriptor.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 영상내 특징점들에 대한 회전 불변을 갖는 실시간 특징점 정합 처리 방법은 특징점 추출 단계(S10), 기술자 생성 단계(S20) 및 기술자 비교 단계(S30)를 포함하여 이루어진다.As shown in FIG. 1, a real-time feature point matching processing method having rotation invariance for feature points in an image according to an embodiment of the present invention includes a feature point extracting step (S10), a descriptor generating step (S20) S30).

특징점 추출 단계(S10)는 영상정보를 입력받아 특징점(100)을 추출한다.The feature point extraction step (S10) receives the image information and extracts the feature point (100).

일반적으로 카메라 등을 통해 실시간으로 영상을 입력 받아 특징점(100)을 추출한다.
Generally, a feature point 100 is extracted by receiving an image through a camera or the like in real time.

기술자 생성 단계(S20)는 상기 특징점 추출 단계(S10)에서 추출된 특징점(100)에 대하여 특정 영역을 대표하는 기술자를 생성하는 엘비피(LBP: Local Binary Pattern)를 개선한 빠른 순환 이동 엘비피(FCS-LBP: Fast Circular Shift - Local Binary Pattern)를 사용해 특징점을 대표하는 회전불변 특성의 기술자(220)를 생성한다. The descriptor generating step S20 is a step of generating a descriptor representing a specific region with respect to the feature point 100 extracted in the feature point extracting step S10 by using a fast circular motion hand- FCS-LBP: Fast Circular Shift - Local Binary Pattern) to generate a descriptor 220 of a rotation invariant characteristic that represents a feature point.

추출된 특징점들에 대한 기술자를 생성한다. 기술자는 각각의 특징점에 대한 고유 특성 정보를 가지고 있으며, 이때 회전 불변한 특성의 특징점을 위해서 회전한 정도를 포함한다.And generates a descriptor for the extracted minutiae. The descriptor has intrinsic property information for each feature point and includes the degree of rotation for the feature points of the rotation invariant feature.

추출된 특징점들의 정합 가능 여부를 확인하는 정합 기법에서 주로 고려하고 지니어야 하는 요소 중에 하나가, 바로 특징점들에 대한 회전 불변 특성이다. 회전 불변이란 추출된 특징점이 다른 입력 영상에서 회전을 하더라도 동일한 특징점으로 인식하도록 만드는 특성이다. 회전 불변한 정합을 고려하기 위해서는 각각의 특징점에 대한 회전한 정도를 고려해야 한다. 하지만 회전한 정도를 고려할 경우 연산 과정에 덧셈, 곱셈과 같은 단순 연산이 아닌 sin, cos, 그리고 tan와 같은 회전을 고려하기 위한 복잡한 연산이 추가되기 때문에 실시간 특징점 정합을 위해서는 많은 시간을 필요로 하며, 실시간 정합이 가능하게 하기 위해서는 고가의 장비를 사용하여야 한다. 이처럼 복잡한 정합 기법을 단순화하기 위해 빠른 순환 이동 엘비피(FCS-LBP: Fast Circular Shift - Local Binary Pattern)에 기반해 회전불변 특성의 기술자(200)를 생성한다. One of the factors that should be considered and considered mainly in the matching technique for checking whether the extracted minutiae can be matched is the rotation invariant characteristic for the minutiae. The rotation invariant is a characteristic that makes the extracted feature points recognized as the same feature points even if they rotate in other input images. In order to consider rotation-invariant matching, the degree of rotation for each feature point must be considered. However, considering the degree of rotation, complex operations are added to consider the rotation such as sin, cos, and tan rather than simple operations such as addition and multiplication in the calculation process. Therefore, In order to enable real-time matching, expensive equipment should be used. In order to simplify such a complicated matching technique, a descriptor 200 of a rotation invariant characteristic is generated based on a fast circular shift-local binary pattern (FCS-LBP).

도 2에 도시된 바와 같이, 상기 기술자 생성 단계(S20)는 영역 추출 단계(S21), 픽셀정의 단계(S22), 순환레지스터 생성 단계(S23), 비트이동 단계(S24) 및 기술자 결정 단계(S25)를 포함하여 이루어지는 것을 특징으로 할 수 있다.2, the descriptor generating step S20 includes a region extracting step S21, a pixel defining step S22, a cyclic register generating step S23, a bit shifting step S24, and a descriptor determining step S25 ).

영역 추출 단계(S21)는 특징점(100)을 중심으로 일정 픽셀 거리(R)만큼 떨어진 픽셀들(P)을 가지는 동심블럭(210)을 추출한다. 동심블럭(210)은 특징점 중심으로부터 일정 픽셀 거리(R)를 가지는 원을 그리고, 그려진 원에 만나는 픽셀들 중에서 사용자의 임의에 따라 선택된 픽셀들(P)로 구성된다. 예를 들어, 도 4에서와 같이 특징점 중심으로부터 1 픽셀 거리(R)만큼 떨어진 원을 그리면 총 8개의 픽셀들이 선택되게 되고, 사용자 임의의 정의에 따라 A, B, C, D, E, F, G의 픽셀들이 선택될 수도 A, C, E, G의 픽셀들이 선택될 수도 있다. 여기서, 동심블럭(210)은 도 4에 도시된 바와 같이, 특징점 중심으로부터 1픽셀 거리만큼 떨어진 8개의 픽셀을 제1 영역(211), 상기 특징점 중심으로부터 2픽셀 거리만큼 떨어진 12개의 픽셀을 제2 영역(212), 상기 특징점 중심으로부터 3픽셀 거리만큼 떨어진 16개의 픽셀을 제3 영역(213)을 추출하는 것을 특징으로 할 수 있다.The region extracting step S21 extracts the concentric block 210 having the pixels P spaced apart by a predetermined pixel distance R about the feature point 100. [ The concentric block 210 consists of a circle having a certain pixel distance R from the center of the feature point and pixels P selected according to the user's choice among the pixels that meet the drawn circle. For example, as shown in FIG. 4, when a circle spaced by one pixel (R) from the center of the feature point is drawn, a total of eight pixels are selected, and A, B, C, D, E, F, The pixels of A, C, E, and G may be selected as well as the pixels of G may be selected. As shown in FIG. 4, the concentric block 210 includes eight pixels, which are spaced one pixel away from the center of the feature point, into a first area 211, twelve pixels that are two pixels apart from the center of the feature point, Area 212 and 16 pixels separated by 3 pixels from the center of the feature point.

다시 말해, 제1 영역(211)은 도 3의 A, B, C, D, E, F, G 및 H를 포함하며 시작점인 A 및 회전방향은 임의로 결정하여 사용할 수 있고, 제2 영역(212)은 도 3의 a, b, c, d, e, f, g, h, i, j, k 및 l 를 포함하며 시작점인 a 및 회전방향은 임의로 결정하여 사용할 수 있으며, 제 3영역(213)은 도 3의 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14 및 15 를 포함하며 시작점인 0 및 회전방향은 임의로 결정하여 사용할 수 있다. In other words, the first area 211 includes A, B, C, D, E, F, G, and H in FIG. 3 and the starting point A and the direction of rotation can be arbitrarily determined and used. A, b, c, d, e, f, g, h, i, j, k and l in FIG. 3 and a and the rotation direction can be arbitrarily determined and used. ) Includes 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14 and 15 in FIG. 3 and the starting point 0 and the direction of rotation are arbitrarily determined and used .

또한, 빠른 순환 이동 엘비피의 동심블럭(210)을 3 개로 구분한 예를 들었으나, 특징점 정합의 정확도를 높이기 위해 영역(R)의 값을 변경한 제4 영역, 제5 영역 등 그 이상의 영역을 더 확장하여 적용이 가능하다.In addition, although the example of dividing the concentric blocks 210 of the fast recirculation matrixes into three is described, in order to improve the accuracy of the feature point matching, further regions such as the fourth region and the fifth region in which the value of the region (R) It is possible to further expand the application.

아울러, 특징점을 중심으로 주변 픽셀들을 거리에 따라 서로 다른 영역으로 지정함으로써 특징점 주변의 픽셀들의 특징을 포함하는 기술자를 생성할 수 있다.
In addition, a descriptor including characteristics of pixels around the feature point can be generated by designating surrounding pixels around the feature point as different regions according to the distance.

픽셀정의 단계(S22)는 특징점(100)을 중심으로 주변 픽셀과의 컬러를 비교하여The pixel defining step S22 compares the color with the surrounding pixels around the feature point 100

다음 식The following equation

Figure 112013103255622-pat00001
Figure 112013103255622-pat00001

(여기서, s(gp - gc)는 해당 픽셀에 해당하는 값, gp는 주변픽셀의 컬러 값, gc는 중심픽셀의 컬러 값)(Where g (g p - g c ) is a value corresponding to the pixel, g p is the color value of the surrounding pixels, and g c is the color value of the center pixel)

에 의해 해당 픽셀에 해당하는 값(1 또는 0)을 결정한다.A value (1 or 0) corresponding to the pixel is determined.

여기서, 상기 픽셀정의 단계(S22)의 컬러 값은 그레이 컬러인 것을 특징으로 할 수 있다.Here, the color value of the pixel defining step S22 may be a gray color.

일반적으로 그레이 컬러는 256개의 값을 갖으며 그 값을 중심점(특징점)과 비교하여 해당 픽셀에 해당하는 값을 0 또는 1로 지정할 수 있다. 또한, 그레이 컬러를 사용함으로써 일발 컬러 영상보다 빠르게 특징점과 주변 픽셀들을 비교할 수 있다.Generally, a gray color has 256 values, and a value corresponding to a corresponding pixel can be designated as 0 or 1 by comparing the value with a center point (feature point). Also, by using gray color, feature points and surrounding pixels can be compared faster than single color images.

위에서 그레이 컬러에 대한 예를 들었으나, 그레이 컬러를 사용할 때뿐만 아니라 일반적인 다중 컬러 영상(RGB 컬러 등)을 사용할 때에도 실시간 연산이 가능하여 적은구현 비용만으로도 특징점과 주변 픽셀들을 실시간으로 비교할 수 있다.
Although gray color examples are given above, real-time operation is possible not only when using gray color but also when using general multi-color image (RGB color, etc.), and can compare real-time feature points and surrounding pixels with only a small implementation cost.

순환레지스터 생성 단계(S23)는 상기 영역 추출 단계(S21)에서 분할된 동심블럭(210)에 대해서, 상기 픽셀정의 단계(S22)에서 결정된 값을 근거로 The cyclic register generating step S23 is a step for generating a cyclic register based on the value determined in the pixel defining step S22 for the concentric block 210 divided in the region extracting step S21

다음식Da food

Figure 112013103255622-pat00002
Figure 112013103255622-pat00002

(여기서, FCS-LBPS,P,R은 P비트 수를 갖는 순환 레지스터, FCS-LBPS,P,R의 S는 순환 레지스터 내부에 저장되어있는 비트 값을 몇 비트 순환 이동시켜야 하는지에 대한 양, R은 영역, P는 R 영역의픽셀 수, s(gp - gc)는 해당 픽셀에 해당하는 값, gp는 p번째 특징점 주변픽셀의 컬러 값, gc는 특징점 픽셀의 컬러 값, Shift는 P비트 수를 가지는 순환 레지스터에 저장될 비트 주소)(Where FCS-LBP S, P, and R are the cyclic registers having the number of P bits, and S of FCS-LBP S, P, and R is the amount by which the bit value stored in the cyclic register is to be circulated (G p - g c ) is a value corresponding to the pixel, g p is the color value of the pixel around the p-th feature point, g c is the color value of the feature point pixel, Shift is the bit address to be stored in the cyclic register with the number of P bits)

에 S가 0을 가지는 P비트 수를 갖는 순환 레지스터(220)를 생성한다.A cyclic register 220 having a number of P bits with S being zero is generated.

다시 말해, 상기 영역 추출 단계(S21)에서 분할된 동심블럭(210)에 대해서, 상기 픽셀정의 단계(S22)에서 지정된 0 또는 1의 값을 각각 1비트씩 할당하여 저장함으로써P비트 수를 갖는 순환 레지스터를 생성할 수 있다. In other words, with respect to the concentric block 210 divided in the region extracting step S21, 0 or 1 values specified in the pixel defining step S22 are allocated and stored by 1 bit, respectively, Registers can be created.

예를 들어, 3 개의 동심블럭(제1 영역(211), 제2 영역(212) 및 제3 영역(213))을 사용할 경우, For example, when three concentric blocks (the first area 211, the second area 212 and the third area 213) are used,

도4에 도시된 바와 같이, P0=16이고 R0=3인 {0, 1 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15} 주변 픽셀에 대해 FCS-LBP0,16,3를 생성하고, P1=12이고 R1=2인 {a, b, c, d, e, f, g, h, i, j, k, l} 주변 픽셀에 대해 FCS-LBP0,12,2를 생성하며, P2=8이고 R2=1인 {A, B, C, D, E, F, G, H} 주변 픽셀에 대해 FCS-LBP0,8,1를 생성할 수 있다.4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15} where P0 = 16 and R0 = generating a FCS-LBP 0,16,3 for and, P1 = 12 and the surrounding pixels in R1 = 2 {a, b, c, d , e, f, g, h, i, j, k, l} for FCS-LBP generates 0,12,2, P2 = 8 and R2 = 1 of {a, B, C, D , E, F, G, H} FCS-LBP 0,8,1 of the neighboring pixel Lt; / RTI >

비트이동 단계(S24)는 각각의 순환 레지스터(220)의 비트를, The bit shifting step S24 shifts the bits of each cyclic register 220,

다음식,In addition,

Figure 112013103255622-pat00003
Figure 112013103255622-pat00003

(여기서, Shift는 P비트 수를 가지는 순환 레지스터에 저장될 비트 주소, P는 R 영역의픽셀 수, p는 P픽셀의 p번째 비트, S는 순환 레지스터 내부에 저장되어있는 비트 값을 몇 비트 순환 이동시켜야 하는지에 대한 양) (Where Shift is a bit address to be stored in a cyclic register having a P number of bits, P is the number of pixels in the R region, p is the pth bit of the P pixel, S is the number of bits stored in the cyclic register, The amount to be moved)

에 의해 상기 순환레지스터 생성단계(S23)에서 생성된 각각의 순환 레지스터(220)를 비트 이동 시킨다.Bit shifts each cyclic register 220 generated in the cyclic register generation step S23.

여기서, 상기 비트이동 단계(S24)의 각각의 순환 레지스터(220)의 비트를 이동시킬 각각의 동심블럭에 대한 S 값은,Here, the S value for each concentric block to which to move the bit of each cyclic register 220 in the bit shifting step S24,

다음 표Next table

IDXIDX S0S0 S1S1 S2S2 00 00 00 00 1One 1One 1One 00 22 22 22 1One 33 33 22 1One 44 44 33 22 55 55 44 22 66 66 55 33 77 77 55 33 88 88 66 44 99 99 77 44 1010 1010 88 55 1111 1111 88 55 1212 1212 99 66 1313 1313 1010 66 1414 1414 1111 77 1515 1515 1111 77

에서와 같이 S0의 값을 이용하여 대조 테이블에서 S1과 S2를 인출할 수 있다. 이때 기준으로 사용되는 동심블럭의 S0 값은 특징점 추출 단계에서 다양한 방법을 통해 얻어 진다.S1 and S2 can be fetched from the reference table by using the value of S0 as in FIG. The S0 value of the concentric block used as a reference is obtained through various methods in the feature point extraction step.

테이블의 값은 다양한 특징점 추출 기법과 다른 기술자 생성 기법들에 따라 결정된다. 생성된 테이블은 회전불변의 특징점 정합을 위해 추출된 특징점들의 기준 방향을 동일한 방향으로 일치시키기 위한 값을 가지고 있다. 즉, 테이블 값만큼 기술자들을 회전시켜 회전특성을 제거하는데 사용된다. The values of the table are determined according to various feature point extraction techniques and other descriptor generation techniques. The generated table has a value for matching the reference directions of extracted minutiae in the same direction for the rotation invariant minutia matching. That is, it is used to rotate the descriptors as much as the table value to remove the rotation characteristic.

예를 들어, 도 9는 t-1번째 영상에서 기준선으로부터 θ1도만큼 방향 특성을 가지는 특징점이 t번째 영상에서 θ2도만큼 방향 특성이 변화하면서 이동한 것을 나타낸다. For example, FIG. 9 shows that a feature point having a directional characteristic of? 1 degrees from the reference line in the (t-1) -th image is shifted in the t-th image while changing the directional characteristic by? 2 degrees.

이때, 특징점이 회전불변하도록 만들기 위해서는 t-1번째 영상의 특징점은 θ1도만큼 동심블럭을 회전시켜야 하고, t번째 영상의 특징점은 θ2도만큼 동심블럭을 회전시켜야 한다. In this case, to make the feature points rotate, the feature points of the (t-1) th image should be rotated by the degree of θ 1 , and the feature points of the t th image should be rotated by θ 2 degrees.

여기서, 제3 영역(213) 동심블럭의 경우에는 선택된 픽셀들(P)이 16개의 픽셀로 구성되었기 때문에 한 픽셀을 이동할 때마다 360도가 16등분이 되어 약 22.5도를 이동하게 된다. Here, in the case of the third area 213 concentric block, since the selected pixels P are composed of 16 pixels, each time the one pixel is moved, 360 degrees is divided into 16 equal parts, which is about 22.5 degrees.

만약, θ1이 30도이고 θ2이 120도라면 θ1의 경우에는 제3 영역(213) 동심블럭을 1비트씩을 이동시키고 θ2의 경우에는 제3 영역(213) 동심블럭을 5비트씩을 이동시키면 된다. If, θ 1 is 30 ° and θ 2 is 120 Dora surface for θ 1, the third area 213 moves ssikeul concentric block 1 bit and the case of θ 2, the third area 213 ssikeul concentric blocks 5 bits Move it.

이렇게 이동시켜야하는 비트수를 각각의 360도 대비 동심블럭(210)들이 가지고 있는 비트수 P로 나누어서 테이블을 정의한다. A table is defined by dividing the number of bits to be shifted by the number of bits P held by each of the 360-degree concentric blocks 210.

정의되는 값은 사용자가 정의하는 특징점의 기준점이나 특징점 추출 기법, 그리고 다른 기술자 생성 기법에 따라 다르게 정의된다.The defined values are defined differently according to user-defined reference points of feature points, feature extraction techniques, and other descriptor generation techniques.

특징점 추출 기법으로 "Features from Accelerated Segment Test"을 사용하면 특징점들에 대한 기준 방향을 360도를 기준으로 16등분으로 분할해 알려준다. 즉, 3 개의 동심블럭(제1 영역(211), 제2 영역(212) 및 제3 영역(213))를 사용해 특징점 정합할 경우, 테이블에 들어갈 S0 값은 특징점 추출에서 획득한 기준 방향 정보를 활용하고, S1, S2 값들은 제2 영역, 제3 영역의 동심블럭들이 제1 영역의 동심블럭과 유사하게 회전하도록 값을 설정한다.Using "Features from Accelerated Segment Test" as a feature point extraction method, the reference direction for feature points is divided into 16 equal parts based on 360 degrees. That is, when the feature points are matched using three concentric blocks (the first area 211, the second area 212, and the third area 213), the S0 value to be entered into the table corresponds to the reference direction information obtained from the feature point extraction And the values of S1 and S2 set values such that the concentric blocks of the second area and the third area rotate similarly to the concentric blocks of the first area.

예를 들어, 3 개의 동심블럭(제1 영역(211), 제2 영역(212) 및 제3 영역(213))을 사용할 경우, 도 5에 도시된 바와 같이, FCS-LBPS0,16,3, FCS-LBPS1,12,2 및 FCS-LBPS2,8,1를 생성할 수 있다.For example, when three concentric blocks (the first area 211, the second area 212 and the third area 213) are used, as shown in FIG. 5, the FCS-LBP S0,16,3 , FCS-LBP S1,12,2, and FCS-LBP S2,8,1 .

3 개의 동심블럭(210)을 사용할 경우 S의 값이 3 개(S0, S1 및 S2)의 예를 들었어나, 동심블럭(210)의 수가 늘어나면 S의 수도 늘어남은 당연하다.When three concentric blocks 210 are used, the number of S values is three (S0, S1 and S2). However, if the number of concentric blocks 210 is increased, it is natural that the number of S increases.

정합의 정확도 향상을 위해 여러 개의 동심블럭을 사용하게 될 경우 사용된 동심블럭들의 비트크기 P의 총 합만큼 늘어나지만, 이는 한 개의 숫자를 표기하기 위해 부동 또는 고정 소수점을 사용하는 여러 숫자의 조합으로 구성된 기술자를 사용하는 다른 정합 기법에 비해 구현 비용이 저렴하다.If the number of concentric blocks is increased to improve the accuracy of matching, it is increased by the sum of the bit sizes P of the concentric blocks used, but this is a combination of multiple numbers using floating or fixed decimal points to represent a single number The implementation cost is lower than other matching schemes using structured descriptors.

본 발명에서는 잘 알려진 특징 추출 기법에 의해 S0가 결정될 수 있다고 가정하고, 본 발명제안의 입력 변수로 정의하였다. 그렇기 때문에 본 발명제안에서는 S0를 생성 방법에 대해서는 기술하지 않는다.In the present invention, it is assumed that S0 can be determined by a well-known feature extraction technique, and is defined as an input variable of the present invention suggestion. Therefore, the method of generating S0 is not described in the present invention proposal.

다시 말해, 순환 레지스터의 비트를 이동시킬 값을 해당 테이블을 이용하여 구함으로 써, 삼각함수 등의 복잡한 계산보다 빠르게, 그리고 적은 비트 수 만으로 회전불변 특성을 포함한 기술자를 생성할 수 있다.In other words, a descriptor including a rotation invariant property can be generated faster than a complicated calculation such as a trigonometric function or the like by using only a small number of bits, by obtaining a value for moving the bits of the circular register using the corresponding table.

기술자 결정 단계(S25)는 상기 비트이동 단계(S24)에서 비트 이동된 각각의 순환레지스터(220)를 묶어 기술자를 결정한다.The descriptor determining step S25 determines the descriptor by grouping the respective cyclic registers 220 bit shifted in the bit shifting step S24.

예를 들어, 3 개의 동심블럭(제1 영역(211), 제2 영역(212) 및 제3 영역(213))을 사용할 경우, 도 6에 도시된 바와 같이, 3 개의 레지스터를 묶어 총 36비트를 갖는 기술자를 생성할 수 있다. 이렇게 생성된 기술자는 정수형 형태의 덧셈, 뺄셈 및 비교연산 만으로 보다 간단하고 빠르게 기술자를 생성할 수 있다.
For example, when three concentric blocks (the first area 211, the second area 212, and the third area 213) are used, as shown in Fig. 6, three registers are combined to form a total of 36 bits Can be generated. The generated descriptor can generate descriptors more simply and easily by adding, subtracting, and comparing operations of integer type.

상기와 같이, 특징 추출 기법에 의해 생성된 모든 특징점들에 대해 기술자들을 생성한다.
As described above, the descriptors are generated for all the minutiae points generated by the feature extraction technique.

기술자 비교 단계(S30)는 다른 영상을 입력받아, 동일한 기술자(200)를 갖는 특징점(100)을 찾는다.In the descriptor comparison step S30, another image is input and the feature point 100 having the same descriptor 200 is searched.

각각의 다른 영상에 대해서 기술자들을 비교하여 동일한 기술자를 가지는 특징점을 찾는다.The descriptors are compared with each other to find feature points having the same descriptor.

도 3에 도시된 바와 같이, 상기 기술자 비교 단계(S30)는 제1 연산단계(S31), 제2 연산단계(S32) 및 동일특징점 판단 단계(S33)를 포함하여 이루어질 수 있다. As shown in FIG. 3, the descriptor comparison step S30 may include a first calculation step S31, a second calculation step S32, and a same feature point determination step S33.

제1 연산단계(S31)는 한 개의 입력 영상에서 생성된 특징점(100)들에 대한 기술자(200)들을 다른 영상에서 생성된 특징점(100)들에 대한 기술자들(200)과 각각의 비트에 대해서 배타적 논리합(XOR: exclusive or) 연산을 한다.In the first calculation step S31, the descriptors 200 for the minutiae points 100 generated in one input image are compared with the descriptors 200 for the minutiae points 100 generated in the other image, Perform an exclusive or (XOR) operation.

제2 연산단계(S32)는 상기 제1 연산단계(S31)의 연산한 결과에 대해서 '1'이 발생한 비트들을The second calculation step S32 is a step of calculating the bits generated by '1' for the calculation result of the first calculation step S31

다음식Da food

Figure 112013103255622-pat00004
Figure 112013103255622-pat00004

(여기서, e는 에러, R은 영역, P는 R 영역의픽셀 수, gp는 주변픽셀의 컬러 값, gc는 중심픽셀의 컬러 값,

Figure 112013103255622-pat00005
는 배타적 논리합(XOR), st는 현재연상, st -1은 이전영상)(Where, e is the error, the R region, P is the number of pixels of the region R, g p is the color value of the peripheral pixels, and g c is the color value of the center pixel,
Figure 112013103255622-pat00005
(XOR), s t is the current association, and s t -1 is the previous image)

과 같이 더한다.And so on.

동일특징점 판단 단계(S33)는 상기 제2 연산단계(S32)의 결과를 동심블럭 별로 구분하였을 때의 에러 결과가 모두 제1 임계값보다 같거나 작고, 상기 제2 연산단계(S32)의 결과 즉, 모든 동심블럭의 에러 값을 합한 값이 제2 임계값 보다 작으면 선택된 두 개의 특징점(100)이 같은 특징점(100)인 것으로 판단한다.In the same feature point determination step S33, all of the error results when the results of the second calculation step S32 are divided by the concentric blocks are equal to or smaller than the first threshold value, and the result of the second calculation step S32 If the sum of the error values of all the concentric blocks is less than the second threshold value, it is determined that the selected two feature points 100 are the same feature point 100.

예를 들어, 3 개의 동심블럭(제1 영역(211), 제2 영역(212) 및 제3 영역(213))을 사용할 경우, e16,3이 제1 임계값보다 같거나 작고, e9,2이 제1 임계값보다 같거나 작고, e8,1이 제1 임계값보다 같거나 작고, e16,3, e9,2, 그리고 e8,1의 합이 제2 임계값보다 작으면 선택된 두 개의 특징점이, 같은 특징점인 것으로 판단한다.For example, when three concentric blocks (the first area 211, the second area 212 and the third area 213) are used, e 16,3 is equal to or smaller than the first threshold value, and e 9 , 2 is equal to or smaller than the first threshold value, e 8,1 is equal to or smaller than the first threshold value, and the sum of e 16,3 , e 9,2 , and e 8,1 is less than the second threshold value , It is determined that the two selected minutiae are the same minutiae.

예를 들어, 제1 임계값은 2를 사용할 수 있고, 제2 임계값은 4를 사용할 수 있다. For example, the first threshold value may use 2, and the second threshold value may use 4.

다시 말해, 정수형 형태의 덧셈, 뺄셈, 비교 및 배타적 논리합(XOR: exclusive or) 연산만으로 특징점 정합이 가능하며, 제1 임계값에 의해 회전한 정도의 분해능이 낮은 단점을 보완하고, 제2 임계값에 의해 회전한 정도의 분해능 보완에서 발생하는 다른 오차의 보정이 가능하다.
In other words, feature point matching can be performed only by addition, subtraction, comparison, and exclusive OR (XOR) operations of an integer type, and the low resolution of the degree of rotation by the first threshold value is compensated. It is possible to correct other errors caused by the resolution compensation to the extent that the rotation is rotated by the rotation angle?

본 발명의 일 실시예에 따른 영상내 특징점들에 대한 회전 불변을 갖는 실시간 특징점 정합 처리 방법을 "빠른 순환 이동 엘비피(FCS-LBP: Fast Circular Shift - Local Binary Pattern)"이라고 칭하며, 빠른 순환 이동 기법은 회전 불변하는 특징점 정합을 위해 기존의 회전한 정도를 고려한 sin, cos, tan 연산을 제거하고, 대조 테이블에 기반한 순환 레지스터의 비트 이동만으로 기술자를 생성하여, 회전 불변 특성을 가질 수 있으며, 생성된 기술자는 기술자 비교 단계에서 단순 배타적 논리합(XOR:

Figure 112013103255622-pat00006
) 연산을 통해 기술자를 비교하고 에러 값이 임계값을 벗어나지는 않는 경우 특징점으로 간주하도록 하였다.
A real-time feature point matching method having rotation invariance for minutiae points in an image according to an embodiment of the present invention is called "Fast Circular Shift-Local Binary Pattern (FCS-LBP)" In this method, the sin, cos, and tan operations considering the degree of rotation are removed, and the descriptor is generated only by the bit shift of the circular register based on the lookup table to obtain the rotation invariant feature point matching. In the engineer comparison stage, the engineer performs simple XOR (XOR:
Figure 112013103255622-pat00006
) Operation to compare the descriptors and to treat them as feature points if the error value does not exceed the threshold value.

결론적으로 본 발명의 일 실시예에 따른 영상내 특징점들에 대한 회전 불변을 갖는 실시간 특징점 정합 처리 방법은 특징점에 대한 회전 불변의 특성을 가지는 간단한 기술자를 사용함으로써, 영상내 특징점들에 대한 실시간 정합 처리를 보다 빠르게 수행할 수 있고, 연산 구조가 간단하여, 디지털 회로로 설계가 용이하며, 회로로 구현 시에 적발이 용이함으로써, 실시간 처리 분야에 적은 비용으로 적용이 가능하다.
As a result, according to an embodiment of the present invention, a real-time feature point matching method having rotation invariance for feature points in an image uses a simple descriptor having a rotation invariant characteristic for a feature point, Can be performed more quickly, the calculation structure is simple, it is easy to design with a digital circuit, and it is easy to detect when it is implemented with a circuit, so that it can be applied at a low cost in real time processing field.

본 발명은 상기한 실시예에 한정되지 아니하며, 적용범위가 다양함은 물론이고, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 다양한 변형 실시가 가능한 것은 물론이다.
It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.

100: 특징점 200: 기술자
210: 동심블럭 211: 제1 영역
212: 제2 영역 213: 제3 영역
220: 순환 레지스터 230: 대조 테이블
S10: 특징점 추출 단계 S20: 기술자 생성 단계
S21: 영역 추출 단계 S22: 픽셀정의 단계
S23: 순환레지스터 생성 단계 S24: 비트이동 단계
S25: 기술자 결정 단계 S30: 기술자 비교 단계
S31: 제1 연산단계 S32: 제2 연산단계
S33: 동일특징점 판단 단계
100: Feature point 200: Technician
210: concentric block 211: first region
212: second area 213: third area
220: Cyclic register 230: Control table
S10: minutia extraction step S20: descriptor creation step
S21: Extracting region step S22: Pixel definition step
S23: Cycle register generation step S24: Bit shift step
S25: Technician determination step S30: Technician comparison step
S31: First calculation step S32: Second calculation step
S33: Identification of the same minutiae

Claims (6)

영상정보를 입력받아 특징점(100)을 추출하는 특징점 추출 단계(S10)
상기 특징점 추출 단계(S10)에서 추출된 특징점(100)에 대하여 특정 영역을 대표하는 기술자를 생성하는 엘비피(LBP: Local Binary Pattern)를 개선한 빠른 순환 이동 엘비피(FCS-LBP: Fast Circular Shift - Local Binary Pattern)를 사용해 특징점을 대표하는 회전불변 특성의 기술자(220)를 생성하는 기술자 생성 단계(S20) 및
다른 영상을 입력받아, 동일한 기술자(200)를 갖는 특징점(100)을 찾는 기술자 비교 단계(S30)
를 포함하여 이루어지며,
상기 기술자 비교 단계(S30)는
한 개의 입력 영상에서 생성된 특징점(100)들에 대한 기술자(200)들을 다른 영상에서 생성된 특징점(100)들에 대한 기술자(200)들과 각각의 비트에 대해서 배타적 논리합 (XOR: exclusive or) 연산을 하는 제1 연산단계(S31);
상기 제1 연산단계(S31)의 연산한 결과에 대해서 '1'이 발생한 비트들을
다음식
Figure 112014126779517-pat00020

(여기서, e는 에러, R은 영역, P는 R 영역의픽셀 수, gp는 주변픽셀의 컬러 값, gc는 중심픽셀의 컬러 값,
Figure 112014126779517-pat00021
는 배타적 논리합, st는 현재연상, st-1은 이전영상)
과같이 연산하는 제2 연산단계(S32);및
상기 제2 연산단계(S32)의 결과를 동심블럭 별로 구분하였을 때의 에러 결과가 모두 제1 임계값보다 같거나 작고, 상기 제2 연산단계(S32)의 결과 즉, 모든 동심블럭의 에러 값을 합한 값이 제2 임계값 보다 작으면 선택된 두 개의 특징점(100)이 같은 특징점(100)인 것으로 판단하는 동일특징점 판단 단계(S33);
를 포함하여 이루어지는 것을 특징으로 하는 영상내 특징점들에 대한 회전 불변을 갖는 실시간 특징점 정합 처리 방법.
A feature point extracting step (S10) of extracting the feature point 100 by receiving the image information,
(FCS-LBP: Fast Circular Shift (FFT)) which improves an LBP (Local Binary Pattern) for generating a descriptor representing a specific region with respect to the feature point 100 extracted in the feature point extracting step (S10) A descriptor generating step S20 of generating a descriptor 220 of a rotation invariant characteristic representing a minutia point using a local binary pattern
A descriptor comparison step (S30) of receiving another image and finding a feature point (100) having the same descriptor (200)
And,
In the descriptor comparison step S30,
The descriptors 200 for the feature points 100 generated in one input image are subjected to XOR operation for descriptors 200 and descriptors 200 for feature points 100 generated in another image, A first calculation step (S31) of performing an operation;
The bits in which '1' is generated for the result of the operation in the first calculation step (S31)
Da food
Figure 112014126779517-pat00020

(Where, e is the error, the R region, P is the number of pixels of the region R, g p is the color value of the peripheral pixels, and g c is the color value of the center pixel,
Figure 112014126779517-pat00021
Is the exclusive OR, st is the current association, and st-1 is the previous video)
A second computation step (S32) of computing as
The error results obtained when the results of the second calculation step S32 are divided by the concentric blocks are all equal to or smaller than the first threshold value and the result of the second calculation step S32, If the sum is smaller than the second threshold value, determining that the two selected feature points 100 are the same feature point 100;
Wherein the real-time feature point matching process has rotation invariance for the feature points in the image.
제 1항에 있어서,
상기 기술자 생성 단계(S20)는
빠른 순환 이동 엘비피의 영역(R)에 의존하여 특징점(100)을 중심으로 일정 거리 떨어진 두 개 이상의 동심블럭(210)으로 영역을 분할하는 영역 추출 단계(S21);
특징점(100)을 중심으로 주변 픽셀과의 컬러를 비교하여
다음 식
Figure 112013103255622-pat00007

(여기서, s(gp - gc)는 해당 픽셀에 해당하는 값, gp는 주변픽셀의 컬러 값, gc는 중심픽셀의 컬러 값)
에 의해 해당 픽셀에 해당하는 값(1 또는 0)을 결정하는 픽셀정의 단계(S22);
상기 영역 추출 단계(S21)에서 분할된 동심블럭(210)들에 대해서, 상기 픽셀정의 단계(S22)에서 결정된 값을 근거로
다음식
Figure 112013103255622-pat00008

(여기서, FCS-LBPS,P,R은 P비트 수를 갖는 순환 레지스터, FCS-LBPS,P,R의 S는 순환 레지스터 내부에 저장되어있는 비트 값을 몇 비트 이동시켜야 하는지에 대한 양, R은 영역, P는 R 영역의 픽셀 수, s(gp - gc)는 해당 픽셀에 해당하는 값, gp는 주변픽셀의 컬러 값, gc는 중심픽셀의 컬러 값, Shift는 P비트 수를 가지는 순환 레지스터에 저장될 비트 주소)
에 의해 S가 0을 가지는 P비트 수를 갖는 순환 레지스터(220)를 생성하는 순환레지스터 생성 단계(S23);
각각의 순환 레지스터(220)의 비트를,
다음식,
Figure 112013103255622-pat00009

(여기서, Shift는 P비트 수를 가지는 순환 레지스터에 저장될 비트 주소, P는 R 영역의픽셀 수, p는 P픽셀의 p번째 비트, S는 순환 레지스터 내부에 저장되어있는 비트 값을 몇 비트 순환 이동시켜야 하는지에 대한 양)
에 의해 상기 순환레지스터 생성단계(S23)에서 생성된 각각의 순환 레지스터(220)를 비트 이동 시키는 비트이동 단계(S24); 및
상기 비트이동 단계(S24)에서 비트 이동된 각각의 순환레지스터(220)를 묶어 기술자를 결정하는 기술자 결정 단계(S25)
를 포함하여 이루어지는 것을 특징으로 하는 영상내 특징점들에 대한 회전 불변을 갖는 실시간 특징점 정합 처리 방법.
The method according to claim 1,
The descriptor creation step (S20)
A region extracting step (S21) of dividing the region into two or more concentric blocks (210) spaced a certain distance around the feature point (100) depending on the region (R) of the fast cyclic shift ambience;
By comparing the color with surrounding pixels around the minutiae 100
The following equation
Figure 112013103255622-pat00007

(Where g (g p - g c ) is a value corresponding to the pixel, g p is the color value of the surrounding pixels, and g c is the color value of the center pixel)
A pixel defining step (S22) of determining a value (1 or 0) corresponding to the pixel by the pixel defining step
For the concentric blocks 210 divided in the region extracting step S21, based on the values determined in the pixel defining step S22
Da food
Figure 112013103255622-pat00008

(Where FCS-LBP S, P, and R are the cyclic registers having the number of P bits, S of FCS-LBP S, P, R is the amount by which the bit value stored in the cyclic register should be shifted, R is a region, P is the number of pixels of the R domain, s (g p - g c ) is corresponding to the pixel value, g p is the color value of the peripheral pixel, g c is the color value of the center pixel, Shift the P bit Bit address to be stored in the cyclic register having the number)
A cyclic register generating step (S23) for generating a cyclic register (220) having a number of P bits with S being 0 by the cyclic register generating step (S23);
The bits of each cyclic register 220,
In addition,
Figure 112013103255622-pat00009

(Where Shift is a bit address to be stored in a cyclic register having a P number of bits, P is the number of pixels in the R region, p is the pth bit of the P pixel, S is the number of bits stored in the cyclic register, The amount to be moved)
A bit shifting step (S24) of bit shifting each cyclic register (220) generated in the cyclic register generating step (S23) by a bit shifting step (S24); And
A descriptor determining step S25 of determining a descriptor by grouping each cyclic register 220 bit shifted in the bit shifting step S24;
Wherein the real-time feature point matching process has rotation invariance for the feature points in the image.
제 2항에 있어서,
상기 영역 추출 단계(S21)의 동심블럭(210)은
중심점 둘레에 인접한 8개의 픽셀을 제1 영역(211), 상기 제1 영역(211) 둘레에 인접한 12개의 픽셀을 제2 영역(212), 상기 제2 영역(212) 둘레에 인접한 16개의 픽셀을 제3 영역(213)으로 구분하는 것을 특징으로 하는 영상내 특징점들에 대한 회전 불변을 갖는 실시간 특징점 정합 처리 방법.
3. The method of claim 2,
The concentric block 210 of the region extracting step S21
8 pixels adjacent to the center point are referred to as a first region 211, 12 pixels adjacent to the first region 211 as a second region 212, and 16 pixels adjacent to the second region 212 And a third area (213). The real-time feature point matching processing method according to claim 21,
제 2항에 있어서,
상기 픽셀정의 단계(S22)의 컬러 값은
그레이 컬러인 것을 특징으로 하는 영상내 특징점들에 대한 회전 불변을 갖는 실시간 특징점 정합 처리 방법.
3. The method of claim 2,
The color value of the pixel defining step (S22)
Wherein the gray-scale image is a gray-colored gray-scale image.
제 2항에 있어서,
상기 비트이동 단계(S24)의 각각의 순환 레지스터(220)의 비트를 이동시킬 각각의 동심블럭에 대한 S 값은 미리 결정된 대조 테이블(230)에서 S1과 S2를 인출하는 것을 특징으로 하는 영상내 특징점들에 대한 회전 불변을 갖는 실시간 특징점 정합 처리 방법.
3. The method of claim 2,
Characterized in that the S value for each concentric block to which to move the bit of each cyclic register (220) in the bit shifting step (S24) fetches S1 and S2 from the predetermined reference table (230) Time feature point matching processing method.
삭제delete
KR20130137415A 2013-11-13 2013-11-13 Method for rotation invariant feature matching for the real-time processing from extracted features from images KR101511087B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130137415A KR101511087B1 (en) 2013-11-13 2013-11-13 Method for rotation invariant feature matching for the real-time processing from extracted features from images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130137415A KR101511087B1 (en) 2013-11-13 2013-11-13 Method for rotation invariant feature matching for the real-time processing from extracted features from images

Publications (1)

Publication Number Publication Date
KR101511087B1 true KR101511087B1 (en) 2015-04-10

Family

ID=53034195

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130137415A KR101511087B1 (en) 2013-11-13 2013-11-13 Method for rotation invariant feature matching for the real-time processing from extracted features from images

Country Status (1)

Country Link
KR (1) KR101511087B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101778552B1 (en) * 2016-01-25 2017-09-14 조선대학교산학협력단 Method for representing graph-based block-minutiae for fingerprint recognition and the fingerprint recognition system by using the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020088890A (en) * 2001-05-22 2002-11-29 전명근 Rotation Invariant Feature extraction for Iris Pattern recognition
KR20100137268A (en) * 2009-06-22 2010-12-30 (주)로봇에버 Method and system for recognizing self-position

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020088890A (en) * 2001-05-22 2002-11-29 전명근 Rotation Invariant Feature extraction for Iris Pattern recognition
KR20100137268A (en) * 2009-06-22 2010-12-30 (주)로봇에버 Method and system for recognizing self-position

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101778552B1 (en) * 2016-01-25 2017-09-14 조선대학교산학협력단 Method for representing graph-based block-minutiae for fingerprint recognition and the fingerprint recognition system by using the same

Similar Documents

Publication Publication Date Title
Sun et al. What makes for end-to-end object detection?
Park et al. Look wider to match image patches with convolutional neural networks
Shapira et al. Multiple histogram matching
US9619733B2 (en) Method for generating a hierarchical structured pattern based descriptor and method and device for recognizing object using the same
Barroso-Laguna et al. Key. net: Keypoint detection by handcrafted and learned cnn filters revisited
US20140226906A1 (en) Image matching method and apparatus
CN110097586B (en) Face detection tracking method and device
US9430711B2 (en) Feature point matching device, feature point matching method, and non-transitory computer readable medium storing feature matching program
Tang et al. Salient object detection using cascaded convolutional neural networks and adversarial learning
CN109784250B (en) Positioning method and device of automatic guide trolley
CN111696130A (en) Target tracking method, target tracking apparatus, and computer-readable storage medium
CN104240231A (en) Multi-source image registration based on local structure binary pattern
CN108537832B (en) Image registration method and image processing system based on local invariant gray feature
Povolotskiy et al. Russian License Plate Segmentation Based On Dynamic Time Warping.
CN108960012B (en) Feature point detection method and device and electronic equipment
CN113052162B (en) Text recognition method and device, readable storage medium and computing equipment
KR101511087B1 (en) Method for rotation invariant feature matching for the real-time processing from extracted features from images
Cai et al. Feature detection and matching with linear adjustment and adaptive thresholding
Fanqing et al. A tracking algorithm based on ORB
Nguyen et al. A method for fingertips detection using RGB-D image and convolution neural network
CN111222558A (en) Image processing method and storage medium
Zhu et al. A 135-frames/s 1080p 87.5-mw binary-descriptor-based image feature extraction accelerator
Tseng et al. Direct 3D pose estimation of a planar target
KR102101481B1 (en) Apparatus for lenrning portable security image based on artificial intelligence and method for the same
Hu et al. Digital video stabilization based on multilayer gray projection

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20180406

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190328

Year of fee payment: 5