KR101491906B1 - Method for enhancing the fastness of feature matching with pre-determined classification - Google Patents

Method for enhancing the fastness of feature matching with pre-determined classification Download PDF

Info

Publication number
KR101491906B1
KR101491906B1 KR20130060916A KR20130060916A KR101491906B1 KR 101491906 B1 KR101491906 B1 KR 101491906B1 KR 20130060916 A KR20130060916 A KR 20130060916A KR 20130060916 A KR20130060916 A KR 20130060916A KR 101491906 B1 KR101491906 B1 KR 101491906B1
Authority
KR
South Korea
Prior art keywords
pixel
feature
corner feature
corner
virtual round
Prior art date
Application number
KR20130060916A
Other languages
Korean (ko)
Other versions
KR20140140285A (en
Inventor
송재복
황서연
박찬수
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR20130060916A priority Critical patent/KR101491906B1/en
Publication of KR20140140285A publication Critical patent/KR20140140285A/en
Application granted granted Critical
Publication of KR101491906B1 publication Critical patent/KR101491906B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은, 영상 입력부를 통하여 입력되는 신호를 영상 정보로 처리하는 영상 입력 처리 단계와, 상기 영상 정보로부터 코너 특징을 포함하는 특징을 추출 확인하는 특징 추출 단계와, 상기 특징 추출 단계에서 추출된 코너 특징을 사전 설정된 코너 특징 분류 기준에 따라 분류하는 특징 분류 단계와, 상기 특징 분류 단계에서 분류된 코너 특징을 이용하여 정합하는 특징 정합 단계를 포함하는 정합속도 증강 영상 인식 방법을 제공한다.The present invention relates to an image processing method, comprising: an image input processing step of processing a signal input through an image input unit into image information; a feature extraction step of extracting and confirming a feature including a corner feature from the image information; A characteristic classification step of classifying the features according to a predetermined corner feature classification criterion and a feature matching step of matching using the corner features classified in the feature classification step.

Description

정합속도 증강 인식 방법{METHOD FOR ENHANCING THE FASTNESS OF FEATURE MATCHING WITH PRE-DETERMINED CLASSIFICATION}METHOD FOR ENHANCING THE FASTENESS OF FEATURE MATCHING WITH PRE-DETERMINED CLASSIFICATION [0002]

본 발명은 영상 인식 방법에 관한 것으로, 특징 간의 불필요한 정합 과정을 배제하여 정합 속도를 증강시킬 수 있는 정합속도 증강 영상 인식 방법에 관한 것이다. The present invention relates to an image recognition method, and more particularly, to a matching speed enhancement image recognition method capable of enhancing a matching speed by eliminating an unnecessary matching process between features.

영상 인식에 있어 필수적으로 영상 정보 내 특징을 추출하여 이를 이용하는데, 이들 특징, 특히 코너 특징은 직선의 교차점 또는 영역의 꼭지점에서 추출되고, 카메라를 이용한 이동로봇의 위치추정, 물체인식 등의 다양한 분야에서 널리 활용되고 있다. These features, especially the corner features, are extracted from the intersections of the straight lines or the vertices of the regions, and are used in various fields such as position estimation of the mobile robot using a camera, object recognition Is widely used.

위치추정 분야에서는 주로 현재 영상과 이전 영상에서 추출된 코너 특징들을 정합하고 추적하여 카메라의 움직임을 감지한다. 특히, 이러한 위치 추정 등은 로봇에서 실제 적용되고 활발하게 연구되고 있다. In the field of position estimation, mainly the corner features extracted from the current image and the previous image are matched and tracked to detect the movement of the camera. In particular, such position estimation and the like are actually being applied and actively studied in a robot.

이동 가능한 이동 로봇은 주변 환경을 사용하여 자신의 위치를 정확하게 인식하는 기술 및 이를 위하여 기준이 되는 표식을 기점으로 자신의 위치 파악을 가능하게 하는 지도 작성에 대한 기술의 연구가 진행되고 있다. Movable mobile robots have been studying techniques for accurately recognizing their own positions using the surrounding environment and for creating a map for enabling them to grasp their own position based on a landmark as a reference.

특히, 주변 환경으로부터 취득되는 정보 중 꼭지점 또는 직선과 같이 특정한 모양을 구비하는 정보를 특징(feature)라고 명명되며, 이들은 이용하여 작성된 지도를 특징 지도(feature map)라고 한다. 특징은 환경 내에서 로봇의 위치를 인식하기 위한 표식으로 사용되기 때문에 어떠한 특징을 추출하여 이를 사용할 것인지 그리고 추출된 특징이 주변 환경의 변화에 따라 강인한 특성을 갖는지 등과 같은 사항이 정확한 특징 지도를 작성하는데 중요한 인자가 된다. In particular, information having a specific shape such as a vertex or a straight line among information acquired from the surrounding environment is called a feature, and a map created by using these features is called a feature map. Since the feature is used as a marker for recognizing the position of the robot in the environment, it is possible to create an accurate feature map such as which feature to extract and use, and whether the extracted feature has robust characteristics according to the change of surrounding environment It becomes an important factor.

하지만, 이러한 특징 지도 등을 작성하고 이동 로봇 자신의 위치를 확인하거나, 또는 물체 추적의 경우 대상 물체의 이동 위치를 파악하기 위하여 영상 정보로부터 특징을 추출하고 이를 데이터와 비교하여 특징 간의 정합 과정을 거치게 된다. However, in order to confirm the position of the mobile robot itself or to locate the moving object of the object in the case of tracking the object, the feature is extracted from the image information and compared with the data, do.

그러나, 종래 기술의 경우 영상 정보로부터 추출된 특징과, 데이터 저장된 기 추출되어 특징화된 특징 정보 간의 정합시 불필요한 연산이 발생하여 신속한 위치 인식 내지 물체 인식 등을 어렵게 하는 한계가 노출되었다. However, in the related art, unnecessary arithmetic operations have occurred when matching the feature extracted from the image information with the feature information extracted and stored in the data storage, thereby exposing limitations that make it difficult to perform rapid position recognition or object recognition.

이에 본 발명은 특징 중 대표적인 특징으로서의 코너 특징에 대한 분류 등의 과정을 통하여 신속하고 정확한 정합 과정을 수행하게 하게 함으로써 궁극적으로 위치 인식 내지 물체 인식 등의 정확 신속성을 향상시킬 수 있는 정합속도 증강 영상 인식 방법을 제공하는 것을 목적으로 한다. Accordingly, the present invention allows a fast and accurate matching process to be performed through processes such as classification of a corner feature as a typical characteristic of features, thereby achieving matching speed enhancement image recognition And a method thereof.

전술한 목적을 달성하기 위한 본 발명은, 영상 입력부를 통하여 입력되는 신호를 영상 정보로 처리하는 영상 입력 처리 단계와, 상기 영상 정보로부터 코너 특징을 포함하는 특징을 추출 확인하는 특징 추출 단계와, 상기 특징 추출 단계에서 추출된 코너 특징을 사전 설정된 코너 특징 분류 기준에 따라 분류하는 특징 분류 단계와, 상기 특징 분류 단계에서 분류된 코너 특징을 이용하여 정합하는 특징 정합 단계를 포함하는 정합속도 증강 영상 인식 방법을 제공한다.According to an aspect of the present invention, there is provided an image processing method including: an image input processing step of processing a signal input through an image input unit into image information; a feature extraction step of extracting and confirming a feature including a corner feature from the image information; A feature classification step of classifying the corner feature extracted in the feature extraction step according to a predetermined corner feature classification criterion and a feature matching step of matching using the corner feature classified in the feature classification step .

상기 정합속도 증강 영상 인식 방법에 있어서, 상기 특징 추출 단계는: 상기 영상 정보 내 단위 픽셀에 대하여 사전 설정된 반경의 버추얼 라운드를 설정하는 버추얼 라운드 설정 단계와, 상기 영상 정보 내 임의의 픽셀과 상기 임의의 픽셀을 중심으로 상기 버추얼 라운드를 형성하여 상기 임의의 픽셀과 상기 버추얼 라운드 상의 픽셀을 비교하여 코너 특징 여부를 확인하는 코너 특징 확인 단계;를 포함할 수도 있다. Wherein the feature extraction step comprises: a virtual round setting step of setting a virtual round of a predetermined radius with respect to a unit pixel in the image information; a virtual round setting step of setting a virtual round in the arbitrary pixel in the image information, And a corner feature identification step of forming the virtual round around the pixel to compare the arbitrary pixel with the pixel in the virtual round to check whether or not the corner feature exists.

상기 정합속도 증강 영상 인식 방법에 있어서, 상기 코너 특징 확인 단계는: 상기 영상 정보 내 임의의 픽셀을 중심 단위 픽셀로 설정하는 중심 단위 픽셀 설정 단계와, 상기 중심 단위 픽셀의 외곽에 상기 버추얼 라운드를 배치하고, 상기 중심 단위 픽셀의 밝기와 상기 중심 단위 픽셀을 중심으로 배치되는 상기 버추얼 라운드 상 픽셀의 밝기를 비교하는 픽셀 밝기 확인 단계와, 상기 픽셀 밝기 확인 단계에서 상기 중심 단위 픽셀과 상기 버추얼 라운드 상 픽셀의 밝기 차이가 존재하는 경우, 상기 중심 단위 픽셀과 저장부에 저장되는 사전 설정 밝기차 이상의 밝기 차이를 갖되 상기 버추얼 라운드 상의 픽셀의 밝기가 연속되는 버추얼 라운드 연속 픽셀 개수(Ncp)를 산출하는 연속 픽셀 개수 산출 단계와, 상기 버추얼 라운드 연속 픽셀 개수(Ncp)를 저장부에 저장되는 코너 특징 판단 픽셀 개수(Nc)와 비교하여 코너 특징을 추출하는 코너 특징 추출 판단 단계와, 상기 코너 특징 추출 판단 단계에서 추출된 코너 특징의 중심 단위 픽셀에 대한 버추얼 라운드 상 버추얼 라운드 연속 픽셀 개수(Ncp)를 저장부에 저장되는 방향성 확인 픽셀 개수(Ndp)와 비교하여 상기 버추얼 라운드 연속 픽셀 개수를 이루는 버추얼 라운드 상 픽셀의 호상(弧狀) 여부를 통한 추출된 코너 특징의 방향성 여부를 확인하는 방향성 확인 단계를 포함할 수도 있다. In the matching speed enhancement image recognizing method, the corner characteristic checking step may include: a center unit pixel setting step of setting any pixel in the image information as a center unit pixel; and a step of setting the virtual round And comparing the brightness of the center unit pixel with the brightness of the virtual round pixel disposed around the center unit pixel; and controlling the brightness of the center unit pixel and the virtual round- (Ncp), which has a brightness difference equal to or greater than a preset brightness difference stored in the storage unit, wherein the brightness of the pixel on the virtual round is continuous, (Ncp) of the virtual round consecutive pixels, A corner characteristic extraction extraction step of extracting a corner feature by comparing the number of corners with the number of corner feature judgment pixels Nc stored in the corner feature extraction judgment step; (Ndp) stored in the storage unit to determine whether or not the extracted corner feature is directed through the arc shape of the virtual round pixels constituting the number of consecutive virtual round pixels May be included.

상기 정합속도 증강 영상 인식 방법에 있어서, 상기 방향성 확인 단계는: 상기 코너 특징 추출 판단 단계에서 추출된 코너 특징의 중심 단위 픽셀에 대한 버추얼 라운드 상 버추얼 라운드 연속 픽셀 개수(Ncp)를 상기 방향성 확인 픽셀 개수(Ndp)와 비교하는 방향성 확인 픽셀 개수 비교 단계와, 상기 방향성 확인 픽셀 개수 비교 단계에서 상기 버추얼 라운드 연속 픽셀 개수(Ncp)가 상기 방향성 확인 픽셀 개수(Ndp)이상이고, 상기 버추얼 라운드를 이루는 픽셀 개수미만인 경우 상기 추출된 코너 특징은 방향성이 존재하는 것으로 판단하는 방향성 여부 판단 단계와, 상기 방향성 여부 판단 단계에서 상기 추출된 코너 특징이 방향성이 존재하는 것으로 판단된 경우, 상기 버추얼 라운드 상의 상기 버추얼 라운드 연속 픽셀 개수를 이루는 픽셀의 중심을 방향성 중앙 픽셀로 설정하고 상기 방향성 중앙 픽셀과 상기 추출된 코너 특징의 중심 단위 픽셀을 연결하는 중앙 선분을 형성하여 상기 선분을 방위를 나타내는 방위선으로 설정하는 방위 설정 단계를 포함할 수도 있다. Wherein the directionality confirmation step comprises: a step of determining a virtual round-shaped virtual round continuous pixel number (Ncp) for a center unit pixel of the corner feature extracted at the corner feature extraction determination step to the directional confirmation pixel number (Ndp), comparing the number of directional verifying pixels in the directional verifying pixel number comparing step with the number of directional verifying pixels (Ndp) in the virtual verifying step, Determining whether the extracted corner feature exists as a directionality; determining whether the extracted corner feature exists as a directionality; determining whether the extracted corner feature exists as a directionality; The center of the pixel which constitutes the number of pixels is the directional Set to the central pixel, and may comprise an orientation setting step of setting the line segment to form a center line connecting the center of the unit pixels of the center pixel and the directional characteristics of the extracted corner by bangwiseon representing the orientation.

상기 정합속도 증강 영상 인식 방법에 있어서, 상기 방위 설정 단계에서 설정된 방위선을 사전 설정 기준선에 일치시키도록 정렬하는 방위 정렬 단계가 더 구비될 수도 있다. The matching speed enhancement image recognizing method may further comprise a direction alignment step of aligning the diagonal line set in the orientation setting step so as to match the preset reference line.

상기 정합속도 증강 영상 인식 방법에 있어서, 상기 코너 특징 분류 단계는: 추출된 코너 특징의 중심 단위 픽셀의 밝기가 버추얼 라운드 연속 픽셀 개수를 이루는 버추얼 라운드 상 픽셀의 밝기를 비교 판단하여 명(明) 코너 특징과 암(暗) 코너 특징으로 분류하는 코너 명암 판단 분류 단계와, 추출된 코너 특징의 방위 설정 여부를 판단하여 방위(方位) 코너 특징과 비방위(非方位) 코너 특징으로 분류하는 방위 판단 분류 단계를 포함할 수도 있다. In the matching speed enhancement image recognition method, the corner feature classification step may include: comparing and determining the brightness of the virtual round pixels in which the brightness of the central unit pixel of the extracted corner feature is the number of consecutive virtual round pixels, A corner discrimination judgment step of discriminating the corners of the corners according to the characteristics of the corners of the corners and the dark corners of the corners of the corners, Step < / RTI >

상기한 바와 같은 구성을 갖는 본 발명에 따른 정합속도 증강 영상 인식 방법은 다음과 같은 효과를 갖는다. The matching speed enhancement image recognizing method according to the present invention having the above-described configuration has the following effects.

첫째, 본 발명에 따른 정합속도 증강 영상 인식 방법은, 특징 중 코너 특징에 대하여 사전 설정된 분류 기준에 따른 특징 분류 단계를 거침으로써 특징의 분류 과정을 실행함으로써 불필요한 정합 과정이 배제되어 신속하고 정확한 정합 과정을 이룰 수 있다.First, in the matching speed enhancement image recognition method according to the present invention, the feature classification step according to a predetermined classification criterion is performed with respect to the corner feature among the features, so that unnecessary registration process is excluded, .

둘째, 본 발명에 따른 정합속도 증강 영상 인식 방법은, FAST, AGAST 등의 코너 특징에 대한 다양한 정합 방법들에 적용 가능하여 활용성을 확장시킬 수 있다.  Second, the matching speed enhancement image recognition method according to the present invention can be applied to various matching methods for corner features such as FAST and AGAST, thereby extending the usability.

셋째, 본 발명에 따른 정합속도 증강 영상 인식 방법은, 사전 설정 특징 분류 기준에 추출되는 코너 특징에 대한 방위 정보를 포함시킴으로써 세분화된 분류 기준을 통한 정합속도 증강을 이룰 수도 있다. Thirdly, the matching speed enhancement image recognizing method according to the present invention may include the orientation information on the corner feature extracted in the preset feature classification reference to achieve the matching speed enhancement through the segmented classification reference.

넷째, 본 발명에 따른 정합속도 증강 영상 인식 방법은, 방위 정보를 구비하는 코너 특징에 대하여 방위를 통한 정렬 단계를 구비함으로써 영상 정보로부터 추출되는 코너 특징의 회전 상태에 대하여도 강인하고 신속한 정합 과정을 이룰 수도 있다.
Fourth, the matching speed enhancement image recognizing method according to the present invention includes a step of aligning a corner feature having azimuth information with respect to the azimuth direction, so that a strong and fast matching process is also performed on the rotation state of the corner feature extracted from the image information It can be done.

본 발명은 도면에 도시된 일실시예들을 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허 청구 범위의 기술적 사상에 의해 정해져야 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the scope of the present invention. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

도 1은 본 발명의 일실시예에 따른 정합속도 증강 인식 방법의 개략적인 블록선도이다.
도 2는 본 발명의 일실시예에 따른 정합속도 증강 인식 방법에 대한 개략적인 제어 흐름도이다.
도 3은 본 발명의 일실시예에 따른 정합속도 증강 인식 방법의 영상 입력 처리 단계에 대한 흐름도이다.
도 4 및 도 5는 본 발명의 일실시예에 따른 정합속도 증강 인식 방법의 영상 입력부에서 얻어진 영상 및 이의 왜곡 보정을 이룬 영상에 대한 개략적인 선도이다.
도 6은 본 발명의 일실시예에 따른 정합속도 증강 인식 방법의 개략적인 특징 추출 단계에 대한 흐름도이다.
도 7은 본 발명의 일실시예에 따른 정합속도 증강 인식 방법의 특징 추출 단계에서 사용되는 버추얼 라운드를 영상 정보 상에 표시하는 개략적인 선도이다.
도 8은 본 발명의 일실시예에 따른 정합속도 증강 인식 방법의 연속 픽셀 개수 산출 단계의 구체적인 과정을 설명하는 흐름도이다.
도 9는 본 발명의 일실시예에 따른 정합속도 증강 인식 방법의 코너 특징 추출 판단 단계의 흐름도이다.
도 10은 본 발명의 일실시예에 따른 정합속도 증강 인식 방법의 방향성 확인 단계의 흐름도이다.
도 11은 본 발명의 일실시예에 따른 정합속도 증강 인식 방법의 방위 정렬 단계의 흐름도이다.
도 12는 본 발명의 일실시예에 따른 정합속도 증강 인식 방법의 특징 분류 단계의 흐름도이다.
도 13은 본 발명의 일실시예에 따른 정합속도 증강 인식 방법의 방향성을 갖는 코너 특징에 대한 방위 정렬 과정을 나타내는 개략적인 선도이다.
도 14는 본 발명의 일실시예에 따른 정합속도 증강 인식 방법의 명암 및 방위 여부와 같은 사전 설정 코너 특징 분류 기준에 따른 분류 기준 유형의 개략적인 선도이다.
도 15는 본 발명의 일실시예에 따른 정합속도 증강 인식 방법의 실제 영상 정보에서 추출된 코너 특징을 명암 및 방위 여부와 같은 사전 설정 코너 특징 분류 기준에 따른 분류 기준 유형의 도시하는 선도이다.
도 16은 본 발명의 일실시예에 따른 정합속도 증강 인식 방법의 천장에 대한 영상 정보로부터 추출되는 코너 특징을 유형별로 나타내는 선도이다.
1 is a schematic block diagram of a matching speed increasing recognition method according to an embodiment of the present invention.
2 is a schematic control flowchart of a matching speed increasing recognition method according to an embodiment of the present invention.
3 is a flowchart of an image input processing step of the matching speed increasing recognition method according to an embodiment of the present invention.
FIG. 4 and FIG. 5 are schematic diagrams of an image obtained by the image input unit of the matching speed enhancement recognition method according to an embodiment of the present invention and an image obtained by performing the distortion correction.
6 is a flowchart of a schematic feature extraction step of the matching speed enhancement recognition method according to an embodiment of the present invention.
7 is a schematic diagram illustrating a virtual round used in the feature extraction step of the matching speed enhancement recognition method according to an exemplary embodiment of the present invention on the image information.
FIG. 8 is a flowchart illustrating a detailed process of calculating the number of consecutive pixels of the matching speed increasing recognition method according to an exemplary embodiment of the present invention.
9 is a flowchart of a corner feature extraction determination step of the matching speed enhancement recognition method according to an embodiment of the present invention.
10 is a flowchart of a direction confirming step of the matching speed increasing recognition method according to an embodiment of the present invention.
11 is a flowchart of alignment alignment steps of a matching speed enhancement recognition method according to an embodiment of the present invention.
12 is a flowchart of a feature classification step of the matching speed enhancement recognition method according to an embodiment of the present invention.
13 is a schematic diagram showing a direction alignment process for a corner feature having directionality of the matching speed enhancement recognition method according to an embodiment of the present invention.
FIG. 14 is a schematic diagram of a classification criterion type according to a preset corner feature classification criterion such as the contrast and azimuth of the matching speed enhancement recognition method according to an embodiment of the present invention.
FIG. 15 is a diagram showing a classification criterion type according to a preset corner feature classification criterion such as contrast and orientation, and a corner feature extracted from actual image information in the matching speed enhancement recognition method according to an embodiment of the present invention.
16 is a diagram showing types of corner features extracted from image information of a ceiling of a matching speed increasing recognition method according to an embodiment of the present invention.

이하에서는 본 발명의 정합속도 증강 인식 방법에 대하여 도면을 참조하여 설명하기로 한다. Hereinafter, the matching speed increasing recognition method of the present invention will be described with reference to the drawings.

본 발명의 일실시예에 따른 정합속도 증강 인식 방법을 실행하기 위한 위치 인식 이동 로봇 장치(10, 이하 이동 로봇 장치)가 도 1에 도시되는데 이는 본 발명의 정합속도 증강 인식 방법을 구현하는 일예로서 본 발명이 이동 로봇 장치의 위치 인식에 한정되는 것은 아니다. 이동 로봇 장치(10)는 영상 입력부(100)와, 엔코더 감지부(200)와, 제어부(300)와, 저장부(400)와, 연산부(500)와, 구동부(600)를 포함한다. 제어부(300)는 다른 구성요소들과 전기적 소통을 이루어 입력 신호를 전달받고 각각의 구성요소로 제어 신호를 인가할 수 있다. 영상 입력부(100)는 다양한 구성이 가능한데, 본 실시예에서 영상 입력부(100)는 단안 카메라로 구성되나 이는 본 발명의 일실시예로서 스테레오 카메라로 구현될 수도 있다. 영상 입력부(100)가 단안 카메라로 구현되는 경우, 이를 통하여 얻어진 영상, 예를 들어 천장 영상(ceiling image)은, 단안 카메라의 구성인 영상 입력부(100)로 인하여 대상과의 정확한 거리 인지가 용이하지 않다. 연산부(500)는 제어부(300)의 제어 신호에 따라 소정의 연산 과정을 수행하며, 저장부(400)는 사전 설정된 다양한 값들을 기저장하고 제어부(300)의 제어 신호에 따라 필요한 영상 정보 내지 위치 정보들을 저장한다. 구동부(600)는 전기 모터 등으로 구현되고, 제어부(300)의 제어 신호에 따라 구동되어 정합속도 증강 인식 방법(10)를 원하는 위치로 이동시킬 수 있는 구동력을 제공한다. 엔코더 감지부(200)는 구동부(300)에 의하여 구동되는 구동륜(미도시)의 회전수 및 회전 각도 등을 감지하는데, 회전 각도는 각각의 구동륜의 회전수의 차이에 따라 연산되어 도출되는 과정을 통하여 이루어질 수도 있다. FIG. 1 shows a position-aware mobile robot apparatus 10 (hereinafter referred to as a mobile robot apparatus) for executing a matching speed increasing recognition method according to an embodiment of the present invention, which is an example of implementing the matching speed increasing recognition method of the present invention The present invention is not limited to the position recognition of the mobile robot apparatus. The mobile robot apparatus 10 includes an image input unit 100, an encoder sensing unit 200, a control unit 300, a storage unit 400, an operation unit 500, and a driver 600. The controller 300 electrically communicates with other components to receive an input signal and apply a control signal to each component. The image input unit 100 may have a variety of configurations. In the present exemplary embodiment, the image input unit 100 may include a monocular camera, but may be implemented as a stereo camera as an embodiment of the present invention. When the image input unit 100 is implemented as a monocular camera, an image obtained through the image input unit 100, for example, a ceiling image, is easily distinguished from an object by the image input unit 100, not. The operation unit 500 performs a predetermined operation process in accordance with a control signal of the control unit 300. The storage unit 400 stores various predetermined values in advance and stores necessary image information or location information in accordance with a control signal of the control unit 300. [ Stores information. The driving unit 600 is implemented by an electric motor or the like and is driven according to a control signal of the control unit 300 to provide a driving force capable of moving the matching speed increasing recognition method 10 to a desired position. The encoder sensing unit 200 senses the rotation speed and the rotation angle of a driving wheel (not shown) driven by the driving unit 300, and the rotation angle is calculated and derived according to the difference of the rotation speeds of the respective driving wheels Lt; / RTI >

이와 같은 이동 로봇 장치(10)는 통상적인 위치 인식 과정을 이룸과 동시에 위치 인식을 위한 특징의 정합 과정 수행시 본 발명의 정합속도 증강 인식 방법을 이용함으로써 보다 정확하고 신속한 위치 인식 과정을 수행할 수 있다.
The mobile robot apparatus 10 can perform a more accurate and rapid position recognition process by using the matching speed enhancement recognition method of the present invention in performing the conventional position recognition process and simultaneously performing the feature matching process for position recognition have.

도 2에는 본 발명의 일실시예에 따른 정합속도 증강 인식 방법의 개략적인 제어 과정을 나타내는 흐름도가 도시되는데, 영상 입력부(100)가 단안 카메라로 사용되는 경우 등과 같이 영상 보정이 필요한 경우 소정의 영상 입력 처리 단계(S10)가 더 실행될 수 있다. 제어부(300)는 영상 입력부(100)로부터 천장 영상(또는 영상 정보)를 입력받아 영상 정보를 처리한다(S10). 영상 입력 처리 단계(S10)가 실행되기 전에 상기한 바와 같이 정합속도 증강 인식 방법(10)가 제공되는데, 도 2의 흐름도에서는 표기가 생략되었다. FIG. 2 is a flowchart showing a schematic control process of the matching speed increasing recognition method according to an embodiment of the present invention. When the image input unit 100 is used as a monocular camera, The input processing step S10 may be further executed. The control unit 300 receives the ceiling image (or image information) from the image input unit 100 and processes the image information (S10). As described above, before the image input processing step S10 is executed, the matching speed increasing recognition method 10 is provided, and the notation is omitted in the flow chart of FIG.

도 3에는 영상 입력 처리 단계(S10)에 대한 보다 구체적인 흐름의 일예가 도시되는데, 제어부(300)는 영상 입력부(100)에 제어 신호를 인가하여 단안 카메라로 구현되는 영상 입력부(100)가 현재 정합속도 증강 인식 방법(10)의 위치에서의 물체, 또는 외부 환경, 예를 들어 천장(ceiling)에 대한 영상 정보를 취득할 수 있도록 하고 이를 제어부(300)로 입력하도록 한다(S11). 제어부(300)는 입력된 영상 또는 영상 정보의 왜곡 여부를 판단하여(S12), 영상 또는 영상 정보에 화상 왜곡이 존재하는 경우, 이를 연산부(500)로 전달하여 영상에 대한 보정을 수행하는 영상 보정 단계를 수행할 수 있다(S13). 3 shows an example of a more specific flow of the image input processing step S10. The control unit 300 applies a control signal to the image input unit 100, and the image input unit 100 implemented by the single- The control unit 300 can acquire image information about an object or an external environment such as a ceiling at the position of the speed enhancement recognition method 10 and input the information to the control unit 300 at step S11. The control unit 300 determines whether the input image or image information is distorted (S12). If there is image distortion in the image or the image information, the control unit 300 transmits the image or image information to the operation unit 500 to perform image correction Step S13 may be performed.

도 4 및 도 5에는 영상 보정 전후의 영상에 대한 개략적인 일예들이 도시되는데, 단안 카메라로 구현되는 영상 입력부(100)는 입력되는 영상, 예를 들어 천장 영상에서의 특징을 추출하고 이를 지속적으로 추적할 수 있도록 하는 영상 또는 영상 정보를 얻을 수 있는데, 이때 넓은 시야를 확보하기 위하여 취득되는 영상 정보에 왜곡이 발생한다. 연산부(500)는 제어부(400)의 제어 신호에 따라 영상 입력부(100)로부터 입력되는 영상 또는 영상 정보를 가공하여 왜곡 현상을 보정한다. 영상 보정이 완료되거나 또는 영상 보정이 불필요하다고 판단한 경우, 제어부(300)는 보정된 영상 또는 영상 정보를 제어부(300)로 출력한다(S14). 상기 영상 입력 처리 단계(S10)에서의 보정은 일예로서 본 발명은 이에 한정되지는 않는다. 즉, 경우에 따라 단순하게 영상 입력부(100)를 통하여 주변 영상을 단순 취득하여 영상 정보로 전환하는 기능을 수행할 수도 있는 등 설계 사양에 따라 다양한 변형이 가능하다.4 and 5 show schematic examples of images before and after image correction. An image input unit 100 implemented by a monocular camera extracts characteristics of an input image, for example, a ceiling image, and continuously The image information obtained to obtain a wide field of view is distorted. The operation unit 500 processes the image or image information inputted from the image input unit 100 according to the control signal of the control unit 400 to correct the distortion phenomenon. If it is determined that the image correction is completed or the image correction is unnecessary, the controller 300 outputs the corrected image or image information to the controller 300 (S14). The correction in the image input processing step (S10) is an example, and the present invention is not limited to this. In other words, it is possible to simply acquire the peripheral image through the image input unit 100, and to convert the peripheral image into the image information.

그런 후, 특징 추출 단계(S20)가 실행되는데, 제어부(300)의 특징 추출 단계를 실행하기 위한 제어 신호에 따라 소정의 추출 단계가 실행된다. 보다 구체적으로 제어부(300)는 화상 왜곡 등이 보정된 영상에 기초하여 현재 영상 내에 존재하는 특징을 추출하는데, 경우에 따라 특징은 도어 특징, 조명 특징 등일 수도 있으나 본 발명에 따라 따른 특징 추출 단계(S20)는 코너 특징을 추출하는 단계를 필수적으로 구비하나, 본 발명의 일예인 이동 로봇의 위치 인식을 위하여 천장 영상을 이용하는 경우 정합속도 증강 인식 방법에 수행되는 특징 추출 단계에서 얻어지는 특징 중에는 임의 형상 특징이 포함될 수도 있는 등 다양한 변형이 가능하다. Then, the feature extraction step S20 is executed, and a predetermined extraction step is executed in accordance with a control signal for executing the feature extraction step of the control unit 300. [ More specifically, the control unit 300 extracts features existing in the current image based on the corrected image, such as image distortion. In some cases, the feature may be a door feature, an illumination feature, and the like. However, S20 may include a step of extracting a corner feature. However, when a ceiling image is used to recognize the position of a mobile robot as an example of the present invention, among the features obtained in the feature extraction step performed in the matching speed enhancement recognition method, And the like.

특징 추출 단계(S20)는 도 6에 도시된 바와 같이 도어 특징 추출 단계(S25), 조명 특징 추출 단계(S27) 및 임의 형상 특징 추출 단계(S29)를 포함할 수 있는데, 본 실시예에서 특징 추출 단계(S20)는 사전 설정된 코너 트징 분류 기준에 따라 코너 특징을 추출하는 코너 특징 추출 단계(S21)를 중심으로 설명한다. The feature extraction step S20 may include a door feature extraction step S25, an illumination feature extraction step S27 and an arbitrary shape feature extraction step S29 as shown in FIG. 6, Step S20 is centered on the corner feature extraction step S21 for extracting the corner feature according to a predetermined corner classification classification criterion.

코너 특징 추출 단계(S21)는 버추얼 라운드 설정 단계(S22)와 코너 특징 확인 단계(S23)를 포함하는데, 버추얼 라운드 설정 단계(S22)에서 제어부(300)의 제어 신호에 따라 영상 정보을 이루는 단위 픽셀에 대하여 사전 설정된 반경의 버추얼 라운드(VR)를 설정한다. 도 7에는 코너 특징 추출 단계(S21)의 버추얼 라운드 설정 단계(S22)에서 영상 정보 내의 임의의 단위 픽셀에 대하여 형성되는 버추얼 라운드(VR)가 도시되는데, 버추얼 라운드(VR)의 사전 설정 반경은 저장부(400)에 사전 설정 데이터로 저장될 수 있다. 본 실시예에서 사전 설정 반경은 3픽셀로 형성되는데, 도 7에는 사전 설정 반경으로 3픽셀이 설정된 경우의 버추얼 라운드(VR)의 일예가 도시된다. 도 7의 부분 확대된 (a)에 도시된 바와 같이 중심 단위 픽셀(C)로 지시되는 임의의 단위 픽셀을 중심으로 반경 3픽셀의 가상의 원이 형성될 수 있다. 이때, 버추얼 라운드(VR)를 이루는 좌우상하의 변은 직선의 3픽셀로 형성되고, 각각의 변 사이에는 대각 배치되는 픽셀로 이루어짐으로써 본 실시예에 따른 사전 설정 반경 3픽셀의 버추얼 라운드(VR)는 총 16개의 픽셀로 버추얼 라운드(VR)의 원주를 형성한다. 따라서, 버추얼 라운드의 사전 설정 반경이 조정되는 경우 버추얼 라운드(VR)를 구성하는 원주 상의 픽셀의 개수도 변화될 수 있다.The corner feature extraction step S21 includes a virtual round setting step S22 and a corner feature identification step S23. In the virtual round setting step S22, a unit pixel constituting image information according to a control signal of the controller 300 (VR) of a preset radius. FIG. 7 shows a virtual round (VR) formed for any unit pixel in the image information in the virtual round setting step S22 of the corner feature extraction step S21, wherein the preset radius of the virtual round (VR) Unit 400 as preset data. In the present embodiment, the preset radius is formed by 3 pixels, and FIG. 7 shows an example of a virtual round (VR) when 3 pixels are set as the preset radius. A virtual circle having a radius of 3 pixels can be formed around any unit pixel indicated by the center unit pixel C as shown in partly enlarged view (a) of FIG. In this case, since the left and right upper and lower sides forming the virtual round VR are formed by three pixels of a straight line and are arranged diagonally between the respective sides, the virtual round VR of the pre-set radius of 3 pixels according to the present embodiment A total of 16 pixels form the circumference of the virtual round (VR). Therefore, when the preset radius of the virtual round is adjusted, the number of pixels on the circumference constituting the virtual round (VR) can also be changed.

그런 후, 제어부(300)는 코너 특징 확인 단계(S23)를 실행하는데, 코너 특징 확인 단계(S23)에서 영상 정보 내 임의의 픽셀과, 이와 같이 선택된 임의의 픽셀을 중심으로 버추얼 라운드(VR)를 형성하여 임의의 픽셀과 버추얼 라운드(VR) 상의 픽셀을 비교하여 코너 특징 여부를 확인한다. Then, the controller 300 executes the corner feature identification step S23. In the corner feature identification step S23, any pixel in the image information and a virtual round (VR) centering on the thus selected pixel And compares the arbitrary pixel with the pixel on the virtual round (VR) to confirm whether or not the corner feature exists.

보다 구체적으로, 코터 특징 확인 단계(S23)는 중심 단위 픽셀 설정 단계(S231)와 픽셀 밝기 확인 단계(S233)와 연속 픽셀 개수 산출 단계(S235)와 코너 특징 추출 판단 단계(S237)와 방향성 확인 단계(S239)를 포함한다. More specifically, the cotter characteristic confirmation step S23 includes a center unit pixel setting step S231, a pixel brightness confirmation step S233, a continuous pixel number calculation step S235, a corner feature extraction determination step S237, (S239).

중심 단위 픽셀 설정 단계(S231)에서 영상 정보 내 임의의 픽셀을 중심 단위 픽셀(C)로 설정한다. 그런후, 픽셀 밝기 확인 단계(S233)에서 제어부(300)의 제어 신호에 따라 중심 단위 픽셀(C)의 외곽에 사전 설정된 반경 크기의 버추얼 라운드(VR)를 배치하고, 중심 단위 픽셀(C)의 밝기와 중심 단위 픽셀(C)을 중심으로 배치되는 버추얼 라운드(VR) 상 픽셀의 밝기가 비교된다. 즉, 도 7에 도시된 바와 같이 영상 정보 내 임의의 픽셀을 중심 단위 픽셀(C)로 설정하고 이를 중심으로 사전 설정 반경을 갖는 버추얼 라운드(VR)를 배치하는데, 버추얼 라운드(VR)가 점유하는 픽셀, 즉 버추얼 라운드(VR) 상의 픽셀의 밝기와 중심 단위 픽셀(C)의 밝기를 비교한다. 여기서, 예를 들어 중심 단위 픽셀로 형성되는 임의의 픽셀은 단일 프레임의 영상 정보 내의 전 픽셀에 대하여 적용될 수 있어 프레임 내 픽셀에 대하여 모두 스캔되는 구조를 이룰 수 있다.
In the center unit pixel setting step S231, any pixel in the image information is set as the center unit pixel (C). Then, in the pixel brightness check step S233, a virtual round VR having a radius of a predetermined radius is arranged in the outer periphery of the center unit pixel C according to the control signal of the controller 300, The brightness and the brightness of the virtual round (VR) pixels arranged around the center unit pixel C are compared. That is, as shown in FIG. 7, a certain pixel in the image information is set as a center unit pixel C, and a virtual round (VR) having a preset radius around the center is set. The virtual round (VR) occupies The brightness of the pixel, that is, the brightness of the pixel on the virtual round (VR) and the brightness of the center unit pixel (C). Here, for example, any pixel formed with the center unit pixel can be applied to all the pixels in the image information of a single frame, and can be structured so that all of the pixels in the frame are scanned.

그런후, 제어부(300)의 제어 신호에 따라 연속 픽셀 개수 산출 단계(S235)를 실행하는데, 연속 픽셀 개수 산출 단계(S235)에서는 픽셀 밝기 확인 단계(S233)에서 중심 단위 픽셀(C)의 밝기와 버추얼 라운드 상 픽셀의 밝기 차이가 존재하는 경우, 연속되는 버추얼 라운드 연속 픽셀 개수(Ncp)를 산출한다(S235). The consecutive pixel number calculation step S235 is executed in accordance with the control signal of the control unit 300. In the consecutive pixel number calculation step S235, the brightness of the center unit pixel C is calculated in the pixel brightness confirmation step S233 If there is a brightness difference of the virtual round phase pixel, the number of consecutive virtual round continuous pixels Ncp is calculated (S235).

보다 구체적으로, 연속 픽셀 개수 산출 단계(S235)는 경우에 따라 밝기 차이 유무 판단 단계(S2351)와 밝기차 필터링 단계(S2353)와 연속 픽셀 개수 확인 단계(S2355)를 포함할 수도 있다. More specifically, the consecutive pixel number calculation step S235 may include a brightness difference existence determination step S2351, a brightness difference filtering step S2353, and a consecutive pixel number confirmation step S2355, as the case may be.

도 8에 도시되는 바와 같이 밝기 차이 유무 판단 단계(S2351)에서 제어부(300)는 중심 단위 픽셀(C)과 버추얼 라운드 상 픽셀 간의 밝기 차이가 존재하는지 여부를 판단하는데, 단계 S2351에서 밝기 차이가 존재한다면, 제어부(300)는 제어 흐름을 단계 S2353으로 진행시키는데, 단계 S2353에서 제어부(300)는 밝기차 필터링 단계를 실행한다. 밝기차 필터링 단계(S2353)에서 중심 단위 픽셀(C)와 버추얼 라운드 상 픽셀 간의 밝기 차이를 Ld라 하고, 사전 설정되어 저장부(400)에 저장되는 사전 설정 데이터에 포함되는 사전 설정 밝기차(Lds)를 비교 판단하여 밝기 차이(Ld)가 사전 설정 밝기차(Lds) 이상인지 여부를 확인하는데, 밝기차 필터링 단계(S2353)를 통하여 불필요한 노이즈 등을 제거할 수 있다. 그리고, 이러한 밝기 차이 유무 판단 및 밝기차 필터링 단계는 중심 단위 픽셀과 버추얼 라운드 상의 모든 픽셀에 대하여 각각 실행된다. 8, in step S2351, the controller 300 determines whether there is a brightness difference between the center unit pixel C and the virtual round pixels. In step S2351, The control unit 300 proceeds to step S2353. In step S2353, the control unit 300 executes the brightness difference filtering step. The brightness difference between the center unit pixel C and the virtual round pixels in the brightness difference filtering step S2353 is referred to as Ld and the preset brightness difference Lds ) To determine whether the brightness difference Ld is equal to or greater than the predetermined brightness difference Lds. The unnecessary noise or the like can be removed through the brightness difference filtering step S2353. The determination of brightness difference and the brightness difference filtering are performed for each pixel on the central unit pixel and the virtual round, respectively.

그런 후, 연속 픽셀 개수 확인 단계(S2355)에서 제어부(300)는 버추얼 라운드(VR) 상 픽셀로 중심 단위 픽셀과의 밝기차(Ld)가 사전 설정 밝기차(Lds)보다 크면서도 연속하는 연속 픽셀 개수(Ncp)를 확인한다(S2355).Then, in the consecutive pixel number checking step S2355, the controller 300 determines whether the brightness difference Ld from the center unit pixel is greater than the preset brightness difference Lds, And confirms the number Ncp (S2355).

한편, 단계 S2351에서 각각 밝기 차이가 존재하지 않거나, 단계 S2353에서 중심 단위 픽셀과 버추얼 라운드 상 픽셀과의 밝기차(Ld)가 사전 설정 밝기차(Lds)이하인 경우 제어 흐름은 단계 S2357로 전달되어 프레임으로 구성되는 영상 정보 내 임의의 모든 픽셀에 대하여 코너 특징 확인 단계가 실행되었는지 여부를 확인하는 잔여 픽셀 존재 확인 단계(S2357)가 실행될 수 있는데, 잔여 픽셀 존재 확인 단계(S2357)에서 잔여 픽셀이 존재하는 경우 제어 흐름은 단계 S231로 진행하여 소정의 코너 특징 확인 단계를 반복하고, 반대로 잔여 픽셀 존재 확인 단계(S2357)에서 잔여 픽셀이 존재하지 않고 영상 정보 내 모든 픽셀, 또는 사전 설정된 범위 내의 픽셀에 대하여 코너 특징 확인 과정이 완료되었다면 제어 흐름은 단계 S30으로 진행될 수도 있다. On the other hand, if the brightness difference does not exist in step S2351, or if the brightness difference Ld between the central unit pixel and the virtual round-shaped pixel is equal to or smaller than the preset brightness difference Lds in step S2353, (Step S2357) may be executed to confirm whether or not the corner feature checking step has been executed for any of the pixels in the image information composed of the remaining pixels The control flow proceeds to step S231 to repeat the predetermined corner feature identification step. On the contrary, in step S2357, the remaining pixels are not present and all the pixels in the image information, or the pixels within the preset range, If the feature checking process is completed, the control flow may proceed to step S30.

그런 후, 제어부(300)는 코너 특징 추출 판단 단계(S237)를 실행하는데, 코너 특징 추출 판단 단계(S237)에서 제어부(300)는 버추얼 라운드 연속 픽셀 개수(Ncp)를 저장부(400)에 저장되는 사전 설정 데이터 중의 하나인 코너 특징 판단 픽셀 개수(Nc)와 비교하여 코너 특징 여부 확인함으로써 코너 특징을 추출한다(S237). 즉, 코너 특징 판단 픽셀 개수(Nc)는 버추얼 라운드 상 픽셀로서, 중심 단위 픽셀(C)과 버추얼 라운드 상 픽셀 간의 밝기 차(Ld)가 사전 설정 밝기차(Lds) 이상인 픽셀들이 연속 배열되되 해당 중심 단위 픽셀을 기준으로 하는 버추얼 라운드 내의 영역이 코너 특징에 해당하는지 여부를 판단하기 위한 연속 픽셀 개수의 최소값을 의미한다. 따라서, 단계 S2371에서 연속 픽셀 개수(Ncp)가 코너 특징 판단 픽셀 개수(Nc)보다 큰 경우, 해당 중심 단위 픽셀을 중심으로 버추얼 라운드를 이루는 영역은 코너 특징으로 확인 설정할 수 있고, 반대로 연속 픽셀 개수(Ncp)가 코너 특징 판단 픽셀 개수(Nc) 이하인 경우, 해당 중심 단위 픽셀을 중심으로 버추얼 라운드를 이루는 영역은 비 코너 특징으로 확인할 수도 있다. Then, the controller 300 executes a corner feature extraction determination step S237. In the corner feature extraction determination step S237, the controller 300 stores the virtual round continuous pixel number Ncp in the storage unit 400 The corner feature is extracted by comparing the number of corner feature determining pixels Nc, which is one of the preset data, to be the corner feature (S237). That is, the number of corner feature determining pixels Nc is a virtual round-shaped pixel, and the pixels having the brightness difference Ld between the center unit pixel C and the virtual round pixels are equal to or greater than the preset brightness difference Lds, Means a minimum value of the number of consecutive pixels for judging whether or not an area in a virtual round based on a unit pixel corresponds to a corner feature. Therefore, if the number of consecutive pixels Ncp is greater than the number Nc of corner feature determination pixels in step S2371, a region forming a virtual round around the corresponding central unit pixel can be confirmed and set as a corner feature, Ncp) is equal to or less than the number Nc of corner feature determination pixels, an area forming a virtual round around the corresponding central unit pixel may be identified as a non-corner feature.

한편, 코너 특징 확인 단계(S23)는 단계 S237에서 추출된 코너 특징에 대하여 방향성 존재 여부를 확인하는 방향성 확인 단계(S239)를 더 구비할 수 있다.Meanwhile, the corner feature checking step S23 may further include a direction confirming step S239 for confirming whether the corner feature extracted in the step S237 is present or not.

방향성 확인 단계(S239)에서 제어부(300)는 코너 특징 추출 판단 단계(S237)에서 추출된 코너 특징의 중심 단위 픽셀(C)에 대한 버추얼 라운드(VR) 상 버추얼 라운드 연속 픽셀 개수(Ncp)와 방향성 확인 픽셀 개수(Ndp)를 비교하여 해당 추출된 코너 특징이 방향성을 구비하는지 여부를 확인 판별한다. 방향성 확인 픽셀 개수(Ndp)는 저장부(400)에 저장되는 사전 설정 데이터 중의 하나로 추출된 코너 특징에 대한 해당 버추얼 라운드 상 버추얼 라운드 연속 픽셀 개수(Ncp)가 충분한 호상(弧狀)을 이루어 해당 코너 특징이 방향성을 갖는지 여부를 판단하기 위한 연속 픽셀에 대한 최소 개수 기준을 의미한다. In the directionality confirmation step S239, the controller 300 determines whether or not the number of virtual round consecutive pixels Ncp and directionality VR in the virtual round (VR) for the center unit pixel C of the corner feature extracted in the corner feature extraction determination step S237 And compares the number Ndp of confirmation pixels to determine whether or not the extracted corner feature has directionality. The directionality check pixel number Ndp is a value obtained by dividing the number of virtual round consecutive pixels Ncp of the corner feature extracted into one of the preset data stored in the storage unit 400 into a sufficient arc shape, Means a minimum number criterion for successive pixels to determine whether the feature has directionality.

방향성 확인 단계(S239)는 보다 구체적으로, 방향성 확인 픽셀 개수 비교 단계(S2391)와, 방향성 여부 판단 단계(S2393)와 방위 설정 단계(S2395)를 구비할 수 있는데, 방향성 확인 픽셀 개수 확인 단계(S2391)에서 제어부(300)는 코너 특징 추출 판단 단계(S237)에서 추출된 코너 특징의 중심 단위 픽셀(C)에 대한 버추얼 라운드(VR) 상 버추얼 라운드 연속 픽셀 개수(Ncp)와 방향성 확인 픽셀 개수(Ndp)를 확인한다. 여기서, 저장부(400)에 저장되는 사전 설정 데이터 중의 하나인, 방향성 확인 픽셀 개수(Ndp)는 버추얼 라운드(VR) 상의 연속된 버추얼 라운드 연속 픽셀 개수(Ncp)가 일정한 호상(弧狀)을 이루는지 여부를 판단하기 위한 기준으로 사용되는데, 설계 사양에 따라 다양한 개수가 설정될 수 있다. More specifically, the directionality confirmation step S239 may include a directionality confirmation pixel number comparison step S2391, a directionality determination step S2393, and a direction setting step S2395. In the directionality confirmation pixel number confirmation step S2391 The control unit 300 determines the number of virtual round consecutive pixels Ncp and the number of directional confirmation pixels Ndp in the virtual round (VR) for the center unit pixel C of the corner feature extracted in the corner feature extraction determination step S237 ). Here, the directional confirmation pixel number Ndp, which is one of the preset data stored in the storage unit 400, is a value obtained by dividing the number of consecutive virtual round consecutive pixels Ncp in the virtual round VR into a constant arcuate shape It is used as a criterion for judging whether or not it is possible to set various numbers according to design specifications.

방향성 확인 픽셀 개수 확인 단계(S2393)가 실행된 후, 제어부(300)는 방향성 여부 판단 단계(S2393)를 실행하는데, 방향성 여부 판단 단계(S2393)는 연속 판단 단계(S2393a)와 호상 판단 단계(S2393b)를 구비할 수도 있다. 연속 판단 단계(S2393a)에서 제어부(300)는 추출된 코너 특징의 중심 단위 픽셀(C)에 대한 버추얼 라운드(VR) 상 버추얼 라운드 연속 픽셀 개수(Ncp)를 방향성 확인 픽셀 개수(Ndp)와 비교하고, 연속 판단 단계(S2393a)에서 버추얼 라운드 연속 픽셀 개수(Ncp)가 방향성 확인 픽셀 개수(Ndp) 미만인 경우 제어부(300)는 현재 추출된 코너 특징은 방향성이 존재하지 않는 것으로 판단하고 제어 흐름을 하기되는 단계 S2392b로 전환하여 방향성이 없음을 확인한다. 반면, 연속 판단 단계(S2393a)에서 버추얼 라운드 연속 픽셀 개수(Ncp)가 방향성 확인 픽셀 개수(Ndp) 이상인 경우 제어부(300)는 현재 추출된 코너 특징은 방향성 존재 가능성이 있다고 판단하고 제어 흐름을 단계 S2393b로 전달한다. 제어부(300)는 방향성 확인 단계(S2393b)에서 호상인지 원인지 여부를 확인하는데, 여기서 Nvr은 사전 설정된 반경에 대하여 형성되는 버추얼 라운드를 구성하는 픽셀의 개수를 나타낸다. 즉, 단계 S2393b에서 제어부(300)는 버추얼 라운드 연속 픽셀 개수(Ncp)가 버추얼 라운드 픽셀 총개수(Nvr) 미만인지 여부를 확인하여, 버추얼 라운드 연속 픽셀 개수(Ncp)가 버추얼 라운드 픽셀 총개수(Nvr) 미만이라면 제어부(300)는 현재 추출된 코너 특징은 방향성을 갖는다고 판단하고(S2394a), 버추얼 라운드 연속 픽셀 개수(Ncp)가 버추얼 라운드 픽셀 총개수(Nvr)와 동일하다면 제어부(300)는 현재 추출된 코너 특징은 점의 특성을 구비하여 방향성이 존재하지 않는 점의 특성(도 14 (d) 참조)을 방향성을 갖지 않는다고 판단한다(S2394b).After the directionality confirmation pixel count confirmation step S2393 is executed, the controller 300 executes the directionality determination step S2393. The directionality determination step S2393 includes a succession determination step S2393a and a hunting determination step S2393b ). In the continuous determination step S2393a, the control unit 300 compares the number of virtual round continuous pixels (Ncp) on the virtual round (VR) with respect to the center unit pixel C of the extracted corner feature to the directional confirmation pixel number Ndp , If the number of consecutive virtual consecutive pixels Ncp is less than the number Ndp of directional confirmation pixels in the consecutive determination step S2393a, the controller 300 determines that the extracted extracted corner feature does not exist, The process goes to step S2392b to confirm that there is no directionality. On the other hand, if the number of consecutive virtual consecutive pixels Ncp is equal to or greater than the number Ndp of directional confirmation pixels in the consecutive determination step S2393a, the controller 300 determines that the extracted extracted corner feature exists as a directional presence possibility, . The controller 300 confirms whether it is an arc or a circle in the direction confirmation step S2393b, where Nvr represents the number of pixels constituting the virtual round formed for the predetermined radius. That is, in step S2393b, the control unit 300 checks whether the number of virtual round consecutive pixels Ncp is less than the total number of virtual rounds Nvr so that the number of virtual round consecutive pixels Ncp is greater than the total number of virtual round pixels Nvr The control unit 300 determines that the extracted corner feature has directionality (S2394a). If the virtual round continuous pixel number Ncp is equal to the virtual round pixel total number Nvr, The extracted corner feature has a characteristic of a point and it is determined that the characteristic (see Fig. 14 (d)) that no directionality exists has no directionality (S2394b).

그런 후, 제어부(300)는 방향성 여부 판단 단계(S2393)에서 추출된 코너 특징에 대한 방향성이 존재하는 것으로 판단하는 경우, 제어부(300)는 방위 설정 단계(S2395)를 실행할 수 있다. 방위 설정 단계(S2395)에서 추출된 코너 특징의 버추얼 라운드 상 버추얼 라운드 연속 픽셀 개수(Ncp)를 이루는 픽셀의 중심을 방향성 중앙 픽셀(OC)로 설정하고(S2395a), 추출된 코너 특징에 대한 중심 단위 픽셀(C)과 방향성 중앙 픽셀(OC)을 연결하는 중앙 선분(C-OC)을 형성하고(S2395b), 중앙 선분을 방위를 나타내는 방위선으로 설정한다(S2395c). If the controller 300 determines that the directionality of the corner feature extracted in the directionality determination step S2393 exists, the control unit 300 may execute the orientation setting step S2395. The center of the pixel constituting the virtual round continuous virtual pixel number Ncp of the corner feature extracted in the orientation setting step S2395 is set to the directional central pixel OC in S2395a, A central line segment C-OC connecting the pixel C and the directional central pixel OC is formed (S2395b), and the center line segment is set as a diagonal line indicating the azimuth (S2395c).

이와 같은 방향성 확인 단계(S239)가 실행된 후, 별도의 방위 정렬 과정을 실행하는 방위 정렬 단계(S240)을 더 구비할 수도 있다. 즉, 단계 S239가 완료되어 제어부(300)는 단계 S240을 실행하여 방향성을 갖는 추출된 코너 특징에 대하여 산출된 방위선을 이용하여 정렬을 이룰 수 있는데, 먼저 단계 S239로부터 도출된 방향성 정보를 이용하여 방향성 유무를 판단하는 방향성 확인 단계(S241)를 실행하고, 방향성 확인 단계(S241)에서 방향성이 존재하는 것으로 확인된 경우 추출된 코너 특징에 대하여 얻어진 방위선을 도면에 도시되는 바와 같이 방위선이 사전 설정 기준선, 예를 들어 본 실시예에서 12시 배향선을 지니도록 정렬하는 방위선 정렬 단계(S243)를 실행한다. 이와 같은 정렬 과정을 거쳐 신속하면서도 회전에 강인한 정합 과정을 이룰 수도 있다. 도 13에는 방향성을 갖는 코너 특징에 대한 방위 정렬 과정을 나타내는 개략적인 선도 도시되는데, (a)의 경우 별도의 방위 정렬 과정을 거치지 않는 반면, (b)의 경우 방위선을 12시 배향선과 일정한 각도를 갖는바, 이를 회전 변환을 이루어 (c)와 같이 정렬시킴으로써 정합 과정을 보다 신속하게 함과 아울러 회전에 대하여 강인한 특성을 갖도록 할 수도 있다. After the direction confirmation step S239 has been executed, the apparatus may further include a direction alignment step S240 for executing a separate orientation alignment process. That is, the step S239 is completed and the controller 300 executes the step S240 to perform the alignment using the calculated orientation line with respect to the extracted corner feature. The directional information derived from the step S239, (S241). When it is confirmed in the directionality confirmation step S241 that directionality exists, the diagonal line obtained for the extracted corner feature is set as a preset reference line, as shown in the figure, For example, in this embodiment, a diagonal line alignment step (S243) is performed to align the 12 o'clock orientation line. Through such an alignment process, a fast and robust registration process can be achieved. Fig. 13 shows a schematic line showing a direction alignment process for a directional corner feature. In (a), the orientation alignment process is not performed. In (b), however, the orientation line is aligned with the 12 o'clock orientation line By aligning it with the rotation transformation as in (c), it is possible to make the matching process faster and also to have a strong characteristic against rotation.

이와 같은 코너 특징 확인 단계(S23)를 포함하는 특징 추출 단계(S20)가 완료된 후, 제어부(300)는 특징 분류 단계(S30)를 실행하는데, 본 발명의 특징 분류 단계(S30)는 코너 특징을 사전 설정된 코너 특징 분류 기준에 따라 분류하는 코너 특징 분류 단계(S31)를 포함한다. 코너 특징 분류 단계(S31)는 코너 명암 판단 분류 단계(S311)와 방위 판단 분류 단계(S313)를 포함하는데, 코너 명암 판단 분류 단계(S311)에서 제어부(300)는 추출된 코너 특징의 중심 단위 픽셀(C)의 밝기가 버추얼 라운드 상 버추얼 라운드 연속 픽셀 개수(Ncp)를 이루는 픽셀의 밝기를 비교 판단하여 명(明)코너(도 14 (b) 참조)와 암(暗)코너(도 14 (a) 참조)하는데, 버추얼 라운드 연속 픽셀 개수(Ncp)를 이루는 픽셀의 밝기가 중심 단위 픽셀(C)의 밝기이하로 어둡다면 추출된 해당 코너 특징을 명(明)코너 특징으로 분류하고, 반대로 버추얼 라운드 연속 픽셀 개수(Ncp)를 이루는 픽셀의 밝기가 중심 단위 픽셀(C)의 밝기 보다 밝다면 추출된 해당 코너 특징을 암(暗)코너 특징으로 분류할 수 있다(S311).After the feature extraction step S20 including the corner feature identification step S23 is completed, the control unit 300 executes the feature classification step S30. In the feature classification step S30 of the present invention, And a corner feature classifying step S31 for classifying according to a predetermined corner feature classifying criterion. The corner feature classifying step S31 includes a corner lightness classifying step S311 and a direction classifying step S313. In the corner lightness classifying classifying step S311, the controller 300 classifies the center unit pixels (See Fig. 14 (b)) and the dark corner (Fig. 14 (b)) by comparing the brightness of the pixels constituting the virtual round continuous consecutive pixel number Ncp in the virtual round, ). If the brightness of a pixel forming the virtual round continuous pixel number Ncp is darker than the brightness of the central unit pixel C, the extracted corner feature is classified as a bright corner feature, and conversely, If the brightness of the pixel forming the continuous pixel number Ncp is brighter than the brightness of the center unit pixel C, the extracted corner feature can be classified as a dark corner feature at step S311.

단계 S311이 실행된 후, 제어부(300)는 단계 S313(S313a,S313b)을 실행하는데, 제어부(300)는 추출된 코너 특징의 방위 설정 여부를 판단하여 방위(方位) 코너 특징과 비방위(非方位) 코너 특징으로 분류한다. 즉, 단계 S239에서 추출된 코너 특징에 대하여 방향성이 존재하고 방위가 설정된 것으로 확인되는 경우 제어부(300)는 추출된 해당 코너 특징을 방위 코너 특징으로 분류하고, 반대로 추출된 코너 특징에 방향성이 존재하지 않는 것으로 확인되는 경우 제어부(300)는 해당 코너 특징을 비방위 코너 특징으로 분류한다. After step S311 is executed, the controller 300 executes step S313 (S313a, S313b). The controller 300 determines whether or not the orientation of the extracted corner feature is set and determines whether or not the orientation feature corner feature and the non- Direction) corner feature. That is, when it is determined that directionality exists in the corner feature extracted in step S239 and that the orientation is set, the control unit 300 classifies the extracted corner feature into the orientation corner feature, and if the extracted corner feature does not have directionality The controller 300 classifies the corner feature as a non-edge corner feature.

이와 같은 과정을 거쳐 총 4가지 유형의 코너 특징, 즉 명-방위 코너 특징, 명-비방위 코너 특징, 암-방위 코너 특징, 암-비방위 코너 특징으로 해당 코너 특징을 분류할 수 있다(S315,S316,S317,S318). 도 14 및 도 15에는 이와 같은 명암 및 방위 여부와 같은 사전 설정 코너 특징 분류 기준에 따른 분류 기준 유형의 개략적인 선도가 도시된다. 중심 단위 픽셀을 중심으로 배향을 버추얼 라운드 상의 중심 단위 픽셀과 밝기 차를 갖되 사전 설정 개수 이상의 연속된 픽셀이 호상을 이루는 경우 방위성을 구비하고, 중심 단위 픽셀과 버추얼 라운드 상의 픽셀 간의 밝기를 통하여 명/암 여부로 분류한다. 이와 같은 코너 특징 분류에 따라 도 16의 (a)에는 영상 정보 내 코너 특징의 경우 방위가 있는 밝은 코너 특징, 즉 명/방위 코너 특징과, 방위가 있는 어두운 코너 특징, 즉 암/방위 코너 특징의 일예가 도시되고, (b)에는 방위가 없는 어두운 코너 특징, 즉 암/비방위 코너 특징의 일예가 도시된다. Through this process, the corresponding corner features can be classified into four types of corner features, namely, the name-bearing corner feature, the name-non-defective corner feature, the cancer-orientation corner feature, and the cancer- , S316, S317, S318). Figs. 14 and 15 show a schematic diagram of the classification criterion type according to the preset corner feature classification criterion such as the contrast and the azimuth. The orientation of the center unit pixel is oriented with respect to the center unit pixel in the virtual round, and when the consecutive pixels having a brightness difference but a predetermined number or more of the consecutive pixels form an arc, It is classified as cancer. According to such a corner feature classification, FIG. 16 (a) shows a bright corner feature having a bearing in the case of the corner feature in the image information, that is, a bright / dark corner feature and a dark corner feature having a bearing, (B) shows an example of a dark corner feature without orientation, i.e., a cancer / non-corner corner feature.

이와 같은 특징 추출 및 분류, 특히 코너 특징 추출 및 분류 단계가 실행된 후, 제어부(300)는 영상 정보 내에서 추출된 코너 특징과 기존의 특징 들, 특히 코너 특징을 이용하여 정합 과정을 거침으로써 소정의 위치 인식 등의 과정을 실행할 수 있다. 본 실시예에서는 단지 일실시예로서 이동 로봇 장치 등의 위치 인식 과정시 실행되는 과정을 중심으로 설명되었으나, 이는 일실시예일뿐 본 발명이 이에 국한되는 것은 아니다. 즉, 코너 특징의 추출, 분류 및 정합을 이루는 구조를 취하는 범위에서 다양한 적용, 실시 및 변형이 가능한데, 예를 들어 위치 인식이외에 사물의 식별을 통한 이동 추적, 경우에 따라 사람의 얼굴 인증 등 코너 특징을 이용할 수 있는 범위에서 다양한 적용이 가능하다. After the feature extraction and classification, in particular, the corner feature extraction and classification step, is performed, the controller 300 performs the matching process using the corner features extracted in the image information and the existing features, And the like. Although the present embodiment has been described with reference to the process executed in the position recognition process of the mobile robot apparatus as an example only, the present invention is not limited thereto. That is, various applications, implementations, and modifications can be made within the scope of taking the structure of extracting, classifying, and matching the corner features. For example, it is possible to track the movement through identification of objects other than the location recognition, A variety of applications are possible.

이와 같은 본 발명의 특징 추출 및 특징 분류 과정, 특히 코너 특징에 대한 추출 및 분류 과정을 거쳐 취득되는 영상 내에서 얻어지는 코너 특징을 이미 추출되어 저장부(400)에 저장된 기 코너 특징과 정합시키는 과정에 있어, 불필요한 정합 연산 과정을 배제함으로써 신속한 정확한 정합을 이룰 수 있다. 또한, 코너 특징의 방위를 이용하여 정렬 과정을 거침으로써 회전 상태에 대하여도 강인한 정합 과정을 실행할 수 있다. 또한, 이와 같은 본 발명의 코너 특징 추출 및 분류는 정합 과정 이전에 전처리 방식으로 수행되는바, 종래의 FAST, AGAST 등의 코너 특징을 이용하는 정합 방법들에 모두 적용 가능하고, 동시에 성능 향상의 효과를 얻을 수 있으며, 특징 추출 및 특징 분류 과정에서 얻어진 정보, 특히 코너 특징의 방위 정보는 이동 로봇 장치의 위치 추정, 영상 처리를 이용한 물체 추적 분야 등에서 이동 로봇 장치 및 추적 대상의 방위 및 위치를 계산하는데 유용한 정보로 활용될 수도 있다.The feature extracting and feature classification process of the present invention, particularly, the process of extracting the corner feature extracted in the image obtained through the extraction and classification process of the corner feature and matching the extracted feature to the feature stored in the storage unit 400 And precise matching can be achieved quickly by excluding an unnecessary matching calculation process. Further, by performing the alignment process using the orientation of the corner feature, it is possible to execute a matching process that is robust against the rotation state. In addition, the corner feature extraction and classification according to the present invention is performed in a preprocessing manner before the matching process, and can be applied to matching methods using corner features such as FAST and AGAST in the related art. At the same time, The orientation information of the corner feature can be used to calculate the orientation and the position of the mobile robot apparatus and the tracking object in the field of the mobile robot apparatus and the object tracking apparatus using the image processing, It can also be used as information.

상기 실시예들은 본 발명을 설명하기 위한 일예들로, 본 발명이 이에 국한되지 않고, 코너 특징의 추출 및 분류를 포함하는 범위에서 다양한 변형이 가능하다. The embodiments are illustrative of the present invention, and the present invention is not limited thereto, and various modifications are possible within a range including extraction and classification of corner features.

10...위치 인식 이동 로봇 장치 100...영상 입력부
200...엔코더 감지부 300...제어부
400...저장부 500...연산부
600...구동부
10 ... position recognition mobile robot apparatus 100 ... image inputting section
200 ... Encoder detection unit 300 ... Control unit
400 ... storage unit 500 ... operation unit
600:

Claims (6)

영상 입력부를 통하여 입력되는 신호를 영상 정보로 처리하는 영상 입력 처리 단계와, 상기 영상 정보로부터 코너 특징을 포함하는 특징을 추출 확인하는 특징 추출 단계와, 상기 특징 추출 단계에서 추출된 코너 특징을 사전 설정된 코너 특징 분류 기준에 따라 분류하는 특징 분류 단계와, 상기 특징 분류 단계에서 분류된 코너 특징을 이용하여 정합하는 특징 정합 단계를 포함하고,
상기 특징 추출 단계는: 상기 영상 정보 내 단위 픽셀에 대하여 사전 설정된 반경의 버추얼 라운드를 설정하는 버추얼 라운드 설정 단계와, 상기 영상 정보 내 임의의 픽셀과 상기 임의의 픽셀을 중심으로 상기 버추얼 라운드를 형성하여 상기 임의의 픽셀과 상기 버추얼 라운드 상의 픽셀을 비교하여 코너 특징 여부를 확인하는 코너 특징 확인 단계;를 포함하고,
상기 코너 특징 확인 단계는:
상기 영상 정보 내 임의의 픽셀을 중심 단위 픽셀로 설정하는 중심 단위 픽셀 설정 단계와,
상기 중심 단위 픽셀의 외곽에 상기 버추얼 라운드를 배치하고, 상기 중심 단위 픽셀의 밝기와 상기 중심 단위 픽셀을 중심으로 배치되는 상기 버추얼 라운드 상 픽셀의 밝기를 비교하는 픽셀 밝기 확인 단계와,
상기 픽셀 밝기 확인 단계에서 상기 중심 단위 픽셀과 상기 버추얼 라운드 상 픽셀의 밝기 차이가 존재하는 경우, 상기 중심 단위 픽셀과 저장부에 저장되는 사전 설정 밝기차 이상의 밝기 차이를 갖되 상기 버추얼 라운드 상의 픽셀의 밝기가 연속되는 버추얼 라운드 연속 픽셀 개수(Ncp)를 산출하는 연속 픽셀 개수 산출 단계와,
상기 버추얼 라운드 연속 픽셀 개수(Ncp)를 저장부에 저장되는 코너 특징 판단 픽셀 개수(Nc)와 비교하여 코너 특징을 추출하는 코너 특징 추출 판단 단계와,
상기 코너 특징 추출 판단 단계에서 추출된 코너 특징의 중심 단위 픽셀에 대한 버추얼 라운드 상 버추얼 라운드 연속 픽셀 개수(Ncp)를 저장부에 저장되는 방향성 확인 픽셀 개수(Ndp)와 비교하여 상기 버추얼 라운드 연속 픽셀 개수를 이루는 버추얼 라운드 상 픽셀의 호상(弧狀) 여부를 통한 추출된 코너 특징의 방향성 여부를 확인하는 방향성 확인 단계를 포함하는 것을 특징으로 하는 정합속도 증강 인식 방법.
A feature extracting step of extracting and confirming a feature including a corner feature from the image information, a feature extracting step of extracting a feature including the corner feature from the image information, A feature classification step of classifying the feature points according to a corner feature classification criterion; and a feature matching step of matching using corner features classified in the feature classification step,
Wherein the feature extracting step comprises: a virtual round setting step of setting a virtual round of a predetermined radius with respect to a unit pixel in the image information; a virtual round setting step of forming the virtual round around any pixel in the image information and the arbitrary pixel And a corner feature checking step of comparing the arbitrary pixel with the pixel in the virtual round to check whether or not the corner feature is present,
The corner feature checking step comprises:
A center unit pixel setting step of setting any pixel in the image information as a center unit pixel;
A pixel brightness checking step of arranging the virtual round on the outer periphery of the center unit pixel and comparing the brightness of the center unit pixel and the brightness of the virtual round pixel disposed around the center unit pixel;
Wherein when the brightness difference between the center unit pixel and the virtual round pixel exists in the pixel brightness check step, the brightness of the pixel in the virtual round is set to be greater than the preset brightness difference stored in the storage unit, A consecutive pixel number calculation step of calculating a consecutive virtual round continuous pixel number (Ncp)
A corner feature extraction determining step of comparing the virtual round continuous pixel number (Ncp) with a corner feature determining pixel number (Nc) stored in a storage unit to extract a corner feature;
The virtual round continuous pixel count Ncp for the center unit pixel of the corner feature extracted in the corner feature extraction determination step is compared with the direction verifying pixel count Ndp stored in the storage unit to calculate the number of virtual round continuous pixels And determining a direction of the extracted corner feature based on whether or not the virtual round-shaped pixel has an arcuate shape.
삭제delete 삭제delete 제 1항에 있어서,
상기 방향성 확인 단계는:
상기 코너 특징 추출 판단 단계에서 추출된 코너 특징의 중심 단위 픽셀에 대한 버추얼 라운드 상 버추얼 라운드 연속 픽셀 개수(Ncp)를 상기 방향성 확인 픽셀 개수(Ndp)와 비교하는 방향성 확인 픽셀 개수 비교 단계와,
상기 방향성 확인 픽셀 개수 비교 단계에서 상기 버추얼 라운드 연속 픽셀 개수(Ncp)가 상기 방향성 확인 픽셀 개수(Ndp)이상이고, 상기 버추얼 라운드를 이루는 픽셀 개수미만인 경우 상기 추출된 코너 특징은 방향성이 존재하는 것으로 판단하는 방향성 여부 판단 단계와,
상기 방향성 여부 판단 단계에서 상기 추출된 코너 특징이 방향성이 존재하는 것으로 판단된 경우, 상기 버추얼 라운드 상의 상기 버추얼 라운드 연속 픽셀 개수를 이루는 픽셀의 중심을 방향성 중앙 픽셀로 설정하고 상기 방향성 중앙 픽셀과 상기 추출된 코너 특징의 중심 단위 픽셀을 연결하는 중앙 선분을 형성하여 상기 선분을 방위를 나타내는 방위선으로 설정하는 방위 설정 단계를 포함하는 것을 특징으로 하는 정합속도 증강 인식 방법.
The method according to claim 1,
Wherein the directional confirmation step comprises:
Comparing the directional confirmation pixel number (Ndp) with the number of consecutive virtual round pixels (Ncp) in the virtual round for the center unit pixel of the corner feature extracted in the corner feature extraction determination step;
If it is determined that the number of directional consecutive pixels Ncp is greater than or equal to the number Ndp of directional confirmation pixels and the number of pixels forming the virtual round is equal to or less than the number of pixels forming the virtual round, A directionality determination step of determining,
Wherein when the extracted corner feature is determined to be directional, the center of the pixel forming the virtual round continuous pixel number in the virtual round is set as a directional center pixel, and the directional center pixel and the extraction And forming a center line connecting central unit pixels of the corner feature, and setting the line segment as a diagonal line indicating an azimuth.
제 4항에 있어서,
상기 방위 설정 단계에서 설정된 방위선을 사전 설정 기준선에 일치시키도록 정렬하는 방위 정렬 단계가 더 구비되는 것을 특징으로 하는 정합속도 증강 인식 방법.
5. The method of claim 4,
And aligning the orientation line set in the orientation setting step so as to match the preset reference line.
제 4항에 있어서,
상기 특징 분류 단계는 추출된 코너 특징을 사전 설정된 코너 특징 분류 기준에 따라 분류하는 코너 특징 분류 단계를 포함하고,
상기 코너 특징 분류 단계는:
추출된 코너 특징의 중심 단위 픽셀의 밝기가 버추얼 라운드 연속 픽셀 개수를 이루는 버추얼 라운드 상 픽셀의 밝기를 비교 판단하여 명(明) 코너 특징과 암(暗) 코너 특징으로 분류하는 코너 명암 판단 분류 단계와,
추출된 코너 특징의 방위 설정 여부를 판단하여 방위(方位) 코너 특징과 비방위(非方位) 코너 특징으로 분류하는 방위 판단 분류 단계를 포함하는 것을 특징으로 하는 정합속도 증강 인식 방법.







5. The method of claim 4,
Wherein the feature classification step includes a corner feature classification step of classifying the extracted corner feature according to a predetermined corner feature classification criterion,
Wherein the corner feature classifying step comprises:
A corner contrast determination step of classifying the brightness of the virtual round pixels in which the brightness of the center unit pixel of the extracted corner feature is the number of consecutive virtual round pixels as the bright corner feature and the dark corner feature, ,
Determining whether or not the orientation of the extracted corner feature is set, and classifying it into a bearing feature corner feature and a non-directional corner feature feature.







KR20130060916A 2013-05-29 2013-05-29 Method for enhancing the fastness of feature matching with pre-determined classification KR101491906B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130060916A KR101491906B1 (en) 2013-05-29 2013-05-29 Method for enhancing the fastness of feature matching with pre-determined classification

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130060916A KR101491906B1 (en) 2013-05-29 2013-05-29 Method for enhancing the fastness of feature matching with pre-determined classification

Publications (2)

Publication Number Publication Date
KR20140140285A KR20140140285A (en) 2014-12-09
KR101491906B1 true KR101491906B1 (en) 2015-02-11

Family

ID=52458190

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130060916A KR101491906B1 (en) 2013-05-29 2013-05-29 Method for enhancing the fastness of feature matching with pre-determined classification

Country Status (1)

Country Link
KR (1) KR101491906B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113297439A (en) * 2021-05-31 2021-08-24 中电福富信息科技有限公司 Time series data feature extraction and classification method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008077626A (en) 2006-03-31 2008-04-03 Sony Corp Object recognition device, object recognition method, object recognition program, feature registration device, feature registration method, and feature registration program
KR20120010875A (en) * 2010-07-27 2012-02-06 주식회사 팬택 Apparatus and Method for Providing Recognition Guide for Augmented Reality Object
KR20130011793A (en) * 2011-07-22 2013-01-30 삼성전자주식회사 Apparatus and method for analyzing ultrasound images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008077626A (en) 2006-03-31 2008-04-03 Sony Corp Object recognition device, object recognition method, object recognition program, feature registration device, feature registration method, and feature registration program
KR20120010875A (en) * 2010-07-27 2012-02-06 주식회사 팬택 Apparatus and Method for Providing Recognition Guide for Augmented Reality Object
KR20130011793A (en) * 2011-07-22 2013-01-30 삼성전자주식회사 Apparatus and method for analyzing ultrasound images

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문1:전자공학회논문지(2012.07) *

Also Published As

Publication number Publication date
KR20140140285A (en) 2014-12-09

Similar Documents

Publication Publication Date Title
US10528828B2 (en) Tracking vehicles in a warehouse environment
Steder et al. Point feature extraction on 3D range scans taking into account object boundaries
Li et al. Springrobot: A prototype autonomous vehicle and its algorithms for lane detection
US20090304285A1 (en) Image processing device and image processing method
US20120166033A1 (en) Method and apparatus for detecting driving information of autonomous driving system
CN108089695B (en) Method and device for controlling movable equipment
Aziz et al. Implementation of lane detection algorithm for self-driving car on toll road cipularang using Python language
Labrosse Short and long-range visual navigation using warped panoramic images
CN112927303B (en) Lane line-based automatic driving vehicle-mounted camera pose estimation method and system
CN104933398A (en) vehicle identification system and method
Huang et al. Mobile robot localization using ceiling landmarks and images captured from an rgb-d camera
Farag A comprehensive real-time road-lanes tracking technique for autonomous driving
Kortli et al. Efficient implementation of a real-time lane departure warning system
Zhang et al. Extension and evaluation of the AGAST feature detector
KR102133020B1 (en) Around view monitoring system and method for detecting parking line with deep learning
KR101491906B1 (en) Method for enhancing the fastness of feature matching with pre-determined classification
Belaroussi et al. A real-time road sign detection using bilateral chinese transform
Fang et al. A fast and high-precision ellipse detection method based on the Candy’s theorem
Horng et al. Object localization and depth estimation for eye-in-hand manipulator using mono camera
US10358091B2 (en) Automated vehicle mirror adjustment
CN108717553B (en) Method and system for robot to follow human body
KR102132823B1 (en) Around view monitoring system and method for detecting empty parking lot
Nguyen et al. Optical flow-based moving-static separation in driving assistance systems
KR20140053712A (en) The localization method for indoor mobile robots by sensor fusion
Gornea et al. Mono-camera robotic system for tracking moving objects

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180108

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190201

Year of fee payment: 5