KR20110004719A - Fast rotation-invariant feature matching method, mobile robot unit based on the ceiling image/feature map with using the mehod, and method for recognizing the self position of the same unit - Google Patents

Fast rotation-invariant feature matching method, mobile robot unit based on the ceiling image/feature map with using the mehod, and method for recognizing the self position of the same unit Download PDF

Info

Publication number
KR20110004719A
KR20110004719A KR1020090062292A KR20090062292A KR20110004719A KR 20110004719 A KR20110004719 A KR 20110004719A KR 1020090062292 A KR1020090062292 A KR 1020090062292A KR 20090062292 A KR20090062292 A KR 20090062292A KR 20110004719 A KR20110004719 A KR 20110004719A
Authority
KR
South Korea
Prior art keywords
feature
image
partition
current
amount
Prior art date
Application number
KR1020090062292A
Other languages
Korean (ko)
Other versions
KR101036028B1 (en
Inventor
송재복
권태범
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020090062292A priority Critical patent/KR101036028B1/en
Publication of KR20110004719A publication Critical patent/KR20110004719A/en
Application granted granted Critical
Publication of KR101036028B1 publication Critical patent/KR101036028B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: A fast rotation-invariant feature matching method, a mobile robot based on a ceiling image, and a position recognizing method thereof are provided to reduce operation load by accurately performing calculations. CONSTITUTION: A fast rotation-invariant feature matching method is as follows. Video information inputted through a video input part(100) is processed. A feature is extracted based on current video information. Feature matching is determined in advance based on the extracted feature and the information about a reference feature set in a storing unit. The matching state is determined by extracting a feature image from the feature in a feature matching determining step and splitting the feature image.

Description

고속 회전 불변 특징 정합 방법, 이를 구비하는 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법{FAST ROTATION-INVARIANT FEATURE MATCHING METHOD, MOBILE ROBOT UNIT BASED ON THE CEILING IMAGE/FEATURE MAP WITH USING THE MEHOD, AND METHOD FOR RECOGNIZING THE SELF POSITION OF THE SAME UNIT}Fast ROTATION-INVARIANT FEATURE MATCHING METHOD, MOBILE ROBOT UNIT BASED ON THE CEILING IMAGE / FEATURE MAP WITH USING THE MEHOD, AND METHOD FOR RECOGNIZING THE SELF POSITION OF THE SAME UNIT}

본 발명은 영상 처리 중 특징 정합 판단 방법, 로봇 장치 및 이의 제어 방법에 관한 것으로, 보다 정확한 특징의 정합 여부를 신속하고 정확하게 판단하는 정합 방법과, 이에 기초하여 위치 인식을 가능하게 하는 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법에 관한 것이다. The present invention relates to a feature matching determination method, a robot apparatus, and a control method thereof during image processing. The present invention relates to a robot device and a method for recognizing a location thereof.

로봇에 대한 수요는 산업용으로서 뿐만 아니라 가정용에 대한 수요도 증대되고 있고, 이에 따라 로봇 연구가 활발하게 진행되고 있다. 특히, 종래의 위치 고정된 로봇과는 달리 이동 가능한 이동 로봇에 대한 연구가 활발하게 진행되고 있는데, 이동 가능한 이동 로봇은 주변 환경을 사용하여 자신의 위치를 정확하게 인식하는 기술 및 이를 위하여 기준이 되는 표식을 기점으로 자신의 위치 파악을 가능하게 하는 지도 작성에 대한 기술의 연구가 진행되고 있다. The demand for robots is not only for industrial use, but also for home use, and accordingly, research on robots is actively progressing. In particular, unlike conventional position-fixed robots, researches on mobile robots that can be moved are being actively conducted, and the mobile robots can recognize their position accurately using the surrounding environment and marks for reference. Starting from now, researches on techniques for making maps that enable one's own location are underway.

특히, 주변 환경으로부터 취득되는 정보 중 꼭지점 또는 직선과 같이 특정한 모양을 구비하는 정보를 특징(feature)으로 명명하며, 이들은 이용하여 작성된 지도를 특징 지도(feature map)라고 한다. 특징은 환경 내에서 로봇의 위치를 인식하기 위한 표식으로 사용되기 때문에 어떠한 특징을 추출하여 이를 사용할 것인지 그리고 추출된 특징이 주변 환경의 변화에 따라 강인한 특성을 갖는지 등과 같은 사항이 정확한 특징 지도를 작성하는데 중요한 인자가 된다. In particular, information having a specific shape, such as a vertex or a straight line, among information obtained from the surrounding environment is named as a feature, and these maps created using the feature map are called feature maps. Since the feature is used as a marker for recognizing the robot's position in the environment, it is important to create an accurate feature map such as what features to use and how to extract them, and whether the extracted features have robust characteristics according to changes in the surrounding environment. This is an important factor.

이와 같은 로봇의 위치 인지는 취해진 영상 내 특징과 기저장된 특징 정보를 비교하고, 이들이 정합되는 경우 이를 활용하여 현재 로봇의 위치를 인지하는 방식을 취한다. 이러한 특징의 정합은 다양한 방법을 통하여 이루어진다. 예를 들어, SSD(sum of squared difference)는 대표적인 템플릿 정합 기법의 한 종류로 픽셀 단위의 비교를 통해 정확한 정합 결과를 얻을 수 있으나, 영상에 회전 위치 등의 변화가 발생하는 경우 정합 정확도가 급격히 감소하고 픽셀 대 픽셀의 비교이므로 비교 영상이 많을 경우 계산 부하가 급격하게 증대된다는 단점이 수반되었다. Such a location recognition of the robot compares the features in the image taken with the pre-stored feature information, and if they match, takes a method of recognizing the current location of the robot. Matching of these features is accomplished in a variety of ways. For example, SSD (sum of squared difference) is one of the typical template matching techniques, and the exact matching result can be obtained through pixel-by-pixel comparison, but the accuracy of matching is drastically reduced when a change in the rotation position occurs in the image. In addition, the pixel-to-pixel comparison has a disadvantage that the computational load increases sharply when there are many comparison images.

이 밖에도 SURF(speeded up robust features) 및 SIFT(scale-invariant feature transform)과 같은 특징 정합 방법이 존재하는데, 이들은 정확한 특징 정합을 이루나 계산 부하가 급격하게 증대되는 문제점이 수반되었다. In addition, there are feature matching methods such as speeded up robust features (SURF) and scale-invariant feature transform (SIFT), which achieve accurate feature matching but have a sharp increase in computational load.

본 발명은 상기한 바와 같은 문제점을 해결하여, 신속하고 정확한 연산을 이루되 연산 부하를 현저하게 저감시킬 수 있는 고속 회전 불변 특징 정합 방법 및 이를 구비하는 천장 영상 기반 이동 로봇 위치 인식 방법 및 천장 영상 기반 이동 로봇을 제공하는 것을 목적으로 한다. The present invention solves the problems as described above, high speed rotation invariant feature matching method that can achieve a fast and accurate calculation, significantly reducing the computation load, and ceiling image-based mobile robot position recognition method and ceiling image-based method having the same An object is to provide a mobile robot.

전술한 목적을 달성하기 위한 본 발명은, 영상 입력부를 통하여 입력된 현재 영상 정보를 처리하는 영상 입력 처리 단계와, 상기 현재 영상 정보에 기초하여 특징을 추출하는 특징 추출 단계와, 추출된 상기 특징과 저장부에 사전 설정되어 저장된 기준 특징 정보를 사용하여 정합 여부를 판단하는 특징 정합 판단 단계를 포함하고, 상기 특징 정합 판단 단계에서 상기 특징을 중심으로 특징 영상을 추출하고 구획 분할하여 정합 여부를 판단하는 고속 회전 불변 특징 정합 방법을 제공한다. According to an aspect of the present invention, there is provided an image input processing step of processing current image information input through an image input unit, a feature extraction step of extracting a feature based on the current image information, And a feature matching determination step of determining whether to match using the reference feature information preset and stored in the storage unit, wherein in the feature matching determination step, extracting a feature image based on the feature and dividing and partitioning the feature image Provides a method for fast rotating invariant feature matching.

상기 고속 회전 불변 특징 정합 방법에 있어서, 상기 특징 정합 판단 단계는: 상기 현재 영상 정보로부터 상기 특징을 중심으로 상기 특징에 대한 현재 특징 영상을 추출하는 현재 특징 영상 추출 단계와, 상기 현재 특징 영상을 상기 특징을 중심으로 사전 설정 구획 각도로 분할하여 현재 구획 특징 영상을 형성하는 현재 특징 영상 구획 단계와, 상기 현재 구획 특징 영상에 대한 구획 특징량을 산출하는 구획 특징량 산출 단계와, 상기 구획 특징량을 비교하여 상기 현재 구획 특징 영상을 재정렬하는 재정렬 단계와, 상기 재정렬된 현재 구획 특징 영상 및 상기 기준 특징 정보에 기초하여 정합 여부를 판단하는 구획 정합 판단 단계를 포함할 수도 있다. In the fast rotation invariant feature matching method, the feature matching determination step may include: extracting a current feature image of the feature based on the feature from the current image information; A current feature image partitioning step of forming a current partition feature image by dividing the feature at a predetermined partition angle around the feature; a partition feature variable calculating step of calculating a partition feature amount for the current partition feature image; The method may further include a reordering step of comparing and rearranging the current partition feature image, and a partition matching determination step of determining whether to match based on the rearranged current partition feature image and the reference feature information.

상기 고속 회전 불변 특징 정합 방법에 있어서, 상기 현재 특징 영상 구획 단계에서, 상기 사전 설정 구획 각도는 22.5도 내지 45도일 수도 있다. In the fast rotation constant feature matching method, in the current feature image segmentation step, the preset partition angle may be 22.5 degrees to 45 degrees.

상기 고속 회전 불변 특징 정합 방법에 있어서, 상기 구획 특징량 산출 단계는: 상기 현재 구획 특징 영상 내 픽셀에 대하여 수치화하여 픽셀 특징량을 산출하는 영상 수치화 단계와, 상기 현재 구획 특징 영상 내 픽셀에 대한 픽셀 특징량을 산출 처리하여 각각의 현재 구획 특징 영상에 대한 구획 특징량을 연산하는 구획 특징량 연산 단계를 구비할 수도 있다. In the fast rotation invariant feature matching method, the partition feature amount calculating step includes: an image digitizing step of calculating a pixel feature amount by digitizing a pixel in the current partition feature image, and a pixel for a pixel in the current partition feature image A partition feature variable calculation step of calculating and processing the feature variable to calculate the partition feature amount for each current partition feature image may be provided.

상기 고속 회전 불변 특징 정합 방법에 있어서, In the high speed rotation invariant feature matching method,

상기 영상 수치화 단계는 상기 현재 구획 특징 영상을 그레이스케일화하여 수치화하고, 상기 구획 특징량은 각각의 현재 구획 특징 영상에 대한 픽셀 특징량의 평균값일 수도 있다. In the image digitizing step, the current partition feature image is digitized and digitized, and the partition feature amount may be an average value of pixel feature amounts for each current partition feature image.

상기 고속 회전 불변 특징 정합 방법에 있어서, 상기 재정렬 단계는: 상기 현재 구획 특징 영상에 대한 구획 특징량을 비교하여 사전 재정렬 기준에 따라 구획 서술자를 부여하는 구획 서술자 부여 단계와, 상기 부여된 구획 서술자를 기준으로 상기 현재 구획 특징 영상을 재정렬하는 구획 특징 영상 재정렬 단계를 구비할 수도 있다. In the fast rotation invariant feature matching method, the reordering step includes: a partition descriptor assigning step of comparing a partition feature with respect to the current partition feature image and assigning a partition descriptor according to a pre-arrangement criterion; A partition feature image rearrangement step of rearranging the current partition feature image may be provided as a reference.

상기 고속 회전 불변 특징 정합 방법에 있어서, 상기 사전 재정렬 기준은 상기 구획 특징량 중 최대 구획 특징량을 기준으로 설정하고, 상기 최대 구획 특징량을 갖는 현재 구획 특징 영상을 기준으로 반시계 방향으로 구획 서술자를 부여할 수도 있다. In the fast rotation constant feature matching method, the pre-arrangement criterion is set based on the maximum partition feature amount among the partition feature amounts, and the partition descriptor in the counterclockwise direction based on the current partition feature image having the maximum partition feature amount. May be given.

상기 고속 회전 불변 특징 정합 방법에 있어서, 상기 기준 특징 정보는 각각의 특징에 대한 기준 구획 특징량 및 기준 정합 판단량을 포함하고, 상기 구획 정 합 판단 단계는: 상기 재정렬된 현재 구획 특징 영상의 구획 특징량과 상기 기준 구획 특징량을 비교하여 정합 판단량을 산출하는 정합 판단량 산출 단계와, 상기 정합 판단량과 상기 기준 정합 판단량을 비교하여 정합 여부를 판단하는 정합 판단 확정 단계를 구비할 수도 있다. In the fast rotating constant feature matching method, the reference feature information includes a reference partition feature amount and a reference matching decision amount for each feature, and the partition matching determination step includes: a partition of the rearranged current partition feature image; And a matching judgment amount calculating step of calculating a matching judgment amount by comparing a feature amount and the reference partition feature amount, and a matching judgment determining step of comparing the matching judgment amount and the reference matching judgment amount and determining whether to match. have.

상기 고속 회전 불변 특징 정합 방법에 있어서, 상기 정합 판단량은 상기 재정렬된 현재 구획 특징 영상의 구획 특징량과 상기 기준 구획 특징량의 차이 절대값의 평균값일 수도 있다. In the fast rotation invariant feature matching method, the matching determination amount may be an average value of an absolute value of the difference between the partition feature of the rearranged current partition feature image and the reference partition feature.

본 발명의 다른 일면에 따르면, 천장 영상 기반 이동 로봇 장치의 영상 입력부를 통하여 입력된 현재 영상 정보를 처리하는 영상 입력 처리 단계와, 상기 현재 영상 정보에 기초하여 특징을 추출하는 특징 추출 단계와, 추출된 상기 특징과 저장부에 사전 설정되어 저장된 기준 특징 정보를 사용하여 정합 여부를 판단하는 특징 정합 판단 단계와, 상기 특징 정합 판단 단계에서 결정된 정합 여부에 기초하여 상기 천장 영상 기반 이동 로봇 장치의 위치를 인식하는 위치 인식 단계를 포함하고, 상기 특징 정합 판단 단계에서 상기 특징을 중심으로 특징 영상을 추출하고 구획 분할하여 정합 여부를 판단하는 천장 영상 기반 이동 로봇 장치 위치 인식 방법을 제공할 수도 있다. According to another aspect of the present invention, an image input processing step of processing current image information input through an image input unit of a ceiling image-based mobile robot device, a feature extraction step of extracting a feature based on the current image information, and extraction A feature matching determination step of determining whether to match using the stored feature and reference feature information preset and stored in the storage unit, and the position of the ceiling image-based mobile robot apparatus based on the matching determined in the feature matching determination step. A ceiling image-based mobile robot device location recognition method may include a location recognition step of recognizing, and in the feature matching determination step, extracting and partitioning a feature image based on the feature and determining whether to match.

상기 천장 영상 기반 이동 로봇 장치 위치 인식 방법에 있어서, 상기 특징 정합 판단 단계는: 상기 현재 영상 정보로부터 상기 특징을 중심으로 상기 특징에 대한 현재 특징 영상을 추출하는 현재 특징 영상 추출 단계와, 상기 현재 특징 영상을 상기 특징을 중심으로 사전 설정 구획 각도로 분할하여 현재 구획 특징 영상 을 형성하는 현재 특징 영상 구획 단계와, 상기 현재 구획 특징 영상에 대한 구획 특징량을 산출하는 구획 특징량 산출 단계와, 상기 구획 특징량을 비교하여 상기 현재 구획 특징 영상을 재정렬하는 재정렬 단계와, 상기 재정렬된 현재 구획 특징 영상 및 상기 기준 특징 정보에 기초하여 정합 여부를 판단하는 구획 정합 판단 단계를 포함할 수도 있다. In the ceiling image-based mobile robot device position recognition method, the feature matching determination step includes: extracting a current feature image of the feature based on the feature from the current image information; A current feature image partitioning step of forming a current partition feature image by dividing an image by a preset partition angle around the feature, a partition feature variable calculating step of calculating a partition feature amount for the current partition feature image, and the partition And realigning the current partition feature image by comparing feature amounts, and determining whether to match based on the rearranged current partition feature image and the reference feature information.

본 발명의 또 다른 일면에 따르면, 구동부에 의하여 위치 이동을 이루는 천장 영상 기반 이동 로봇 장치에 있어서, 천장의 현재 영상 정보를 취득하는 영상 입력부와, 천장의 영상에 대한 기준 특징 정보를 사전 설정 저장하는 저장부와, 상기 천장의 현재 영상 정보로부터 특징을 추출하고 상기 특징과 상기 기준 특징 정보를 비교하여 정합 여부를 판단하되, 상기 특징을 중심으로 특징 영상을 추출하고 구획 분할하여 정합 여부를 판단하는 제어부를 구비하는 것을 특징으로 하는 천장 영상 기반 이동 로봇 장치를 제공할 수도 있다. According to yet another aspect of the present invention, a ceiling image-based mobile robot device that moves in position by a driver, comprising: an image input unit for acquiring current image information of a ceiling, and preset reference information for the ceiling image; A storage unit and a control unit extracting a feature from the current image information of the ceiling and comparing the feature and the reference feature information to determine whether to match, and extracting a feature image based on the feature and partitioning the partition to determine matching. A ceiling image-based mobile robot device may be provided.

상기한 바와 같은 구성을 갖는 본 발명에 따른 고속 회전 불변 특징 정합 방법 및 이를 구비하는 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법은 다음과 같은 효과를 갖는다. The fast rotation invariant feature matching method, the ceiling image-based mobile robot apparatus having the same, and the position recognition method thereof according to the present invention having the configuration as described above have the following effects.

첫째, 본 발명에 따른 고속 회전 불변 특징 정합 방법 및 이를 활용한 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법은, 영상 입력부(100)를 통하여 얻어지는 현재 영상 정보가 크기 변화없이 회전 변화만이 존재할 경우 정확하면서도 신속한 특징 정합 여부 판단을 가능하게 할 수 있다. First, the fast rotation invariant feature matching method according to the present invention, the ceiling image-based mobile robot device using the same, and the position recognition method thereof, when the current image information obtained through the image input unit 100 has only a rotation change without a change in size Accurate and rapid feature matching can be made.

둘째, 본 발명에 따른 고속 회전 불변 특징 정합 방법 및 이를 활용한 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법은, 연산 부하의 저감에 따라 임베디드 시스템에서도 원활한 가동을 가능하게 할 수 있는 등 범용성을 향상시킬 수도 있다. Secondly, the fast rotation invariant feature matching method according to the present invention, the ceiling image-based mobile robot device using the same, and the location recognition method thereof can be used in an embedded system according to the reduction of the computational load. You can also

셋째, 본 발명에 따른 고속 회전 불변 특징 정합 방법 및 이를 활용한 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법은, 신속하게 이루어지는 특징 정합 판단에 따라 천장 영상 기반 이동 로봇의 보다 정확한 위치 인식을 가능하게 할 수도 있다. Third, the fast rotation invariant feature matching method according to the present invention, the ceiling image-based mobile robot device using the same, and the position recognition method thereof can enable more accurate position recognition of the ceiling image-based mobile robot according to a feature matching decision made quickly. You may.

본 발명은 도면에 도시된 일실시예들을 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허 청구 범위의 기술적 사상에 의해 정해져야 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the scope of the present invention. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

이하에서는 고속 회전 불변 특징 정합 방법과 이에 의한 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법에 대하여 도면을 참조하여 설명하기로 한다. 여기서, 본 발명의 고속 회전 불변 특징 정합 방법은 다양한 영상 처리 분야에 사용될 수 있는데, 본 실시예에서는 천장 영상 기반 이동 로봇 장치(10)의 위치 인식 방법에 사용되는 경우를 기준으로 설명하나 이는 본 발명의 고속 회전 불변 특징 정합 방법을 설명하기 위한 일예로서 본 발명의 고속 회전 불변 특징 정합 방법이 이에 국한되는 것은 아니다.Hereinafter, a fast rotation invariant feature matching method, a ceiling image-based mobile robot device, and a position recognition method thereof will be described with reference to the accompanying drawings. Here, the fast rotation invariant feature matching method of the present invention can be used in various image processing fields. In the present embodiment, the present invention will be described based on the case used for the position recognition method of the ceiling image-based mobile robot apparatus 10. As an example for describing the high speed rotation invariant feature matching method of the present invention, the high speed rotation invariant feature matching method of the present invention is not limited thereto.

도 1에는 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치(10)에 대한 개략적인 블록 선도가 도시되고, 도 2에는 본 발명의 일실시예에 따른 고속 회전 불변 특징 정합 방법 및 이에 의한 천장 영상 기반 이동 로봇 장치 위치 인식 방법에 대한 개략적인 제어 과정을 나타내는 흐름도가 도시되는데, 이들 고속 회전 불변 특징 정합 방법 및 이에 의한 천장 영상 기반 이동 로봇 장치 위치 인식 방법에 의하여 본 발명의 다른 일예로서의 천장 영상 기반 이동 로봇 장치(10)가 제공된다. FIG. 1 is a schematic block diagram of a ceiling image-based mobile robot apparatus 10 according to an embodiment of the present invention, and FIG. 2 illustrates a fast rotation invariant feature matching method according to an embodiment of the present invention, and A flowchart showing a schematic control process for a ceiling image-based mobile robot device location recognition method is shown. According to the high-speed rotation invariant feature matching method and the ceiling image-based mobile robot device location recognition method, a ceiling as another example of the present invention is shown. An image based mobile robot apparatus 10 is provided.

먼저, 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치(10)는 영상 입력부(100)와, 저장부(400)와, 제어부(300)를 포함하고 소정의 제어 과정을 수행하고, 엔코더 감지부(200) 및 연산부(500) 및 구동부(600)를 포함하여, 고속 회전 불변 특징 정합 방법 및 이에 기초한 천장 영상 기반 이동 로봇 장치 위치 인식 방법을 통하여 소정의 이동 위치 인식을 이루며 자율 주행을 이룰 수 있다. First, the ceiling image-based mobile robot device 10 according to an embodiment of the present invention includes an image input unit 100, a storage unit 400, and a control unit 300 to perform a predetermined control process, and to encode an encoder. Including the sensing unit 200, the calculating unit 500, and the driving unit 600, autonomous driving may be achieved by recognizing a predetermined moving position through a fast rotational invariant feature matching method and a ceiling image based mobile robot device position recognition method based thereon. Can be.

제어부(300)는 다른 구성요소들과 전기적 소통을 이루어 입력 신호를 전달받고 각각의 구성요소로 제어 신호를 인가할 수 있다. 영상 입력부(100)는 다양한 구성이 가능한데, 본 실시예에서 영상 입력부(100)는 단안 카메라로 구성된다. 영상 입력부(100)는 단안 카메라로 구현되어 천장 영상(ceiling image)를 취득하는데, 영상 입력부(100)는 단안 카메라의 구성으로 인하여 대상과의 정확한 거리 인지는 용이하지 않다. 연산부(500)는 제어부(300)의 제어 신호에 따라 소정의 연산 과정을 수행하며, 저장부(400)는 사전 설정된 다양한 값들을 기저장하고 제어 부(300)의 제어 신호에 따라 필요한 영상 정보 내지 위치 정보들을 저장한다. 구동부(600)는 전기 모터 등으로 구현되고, 제어부(300)의 제어 신호에 따라 구동되어 천장 영상 기반 이동 로봇 장치(10)를 원하는 위치로 이동시킬 수 있는 구동력을 제공한다. 엔코더 감지부(200)는 구동부(300)에 의하여 구동되는 구동륜(미도시)의 회전수 및 회전 각도 등을 감지하는데, 회전 각도는 각각의 구동륜의 회전수의 차이에 따라 연산되어 도출되는 과정을 통하여 이루어질 수도 있다. The controller 300 may be in electrical communication with other components to receive an input signal and apply a control signal to each component. The image input unit 100 may be configured in various ways. In the present embodiment, the image input unit 100 may be configured as a monocular camera. The image input unit 100 is implemented as a monocular camera and acquires a ceiling image. The image input unit 100 may not easily recognize an accurate distance from an object due to the configuration of the monocular camera. The calculation unit 500 performs a predetermined calculation process according to the control signal of the control unit 300, and the storage unit 400 pre-stores various preset values and stores necessary image information according to the control signal of the control unit 300. Store location information. The driver 600 is implemented by an electric motor or the like and is driven according to a control signal of the controller 300 to provide a driving force for moving the ceiling image-based mobile robot device 10 to a desired position. The encoder detecting unit 200 detects a rotation speed and a rotation angle of a driving wheel (not shown) driven by the driving unit 300, and the rotation angle is calculated and derived according to the difference in the rotation speed of each driving wheel. It may be through.

도 2에는 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치(10)의 개략적인 제어 과정을 나타내는 흐름도가 도시되는데, 본 발명의 고속 회전 불변 특징 정합 방법은 이에 내포되는바, 천장 영상 기반 이동 로봇 장치(10)의 천장 영상 기반 이동 로봇 장치 위치 인식 방법을 기준으로 설명한다. 여기서, 고속 회전 불변 정합 방법은 영상 입력 처리 단계(S10), 특징 추출 단계(S20), 특징 정합 단계(S30)를 구비하고, 천장 영상 기반 이동 로봇 장치 위치 인식 방법은 고속 회전 불변 정합 방법에 위치 인식 단계(S40)가 더 부가된 경우를 나타낸다. 2 is a flowchart illustrating a schematic control process of the ceiling image-based mobile robot apparatus 10 according to an embodiment of the present invention. The fast rotation invariant feature matching method of the present invention is included in the bar image-based ceiling image. Based on the ceiling image-based mobile robot device position recognition method of the mobile robot device 10 will be described. Here, the fast rotation invariant matching method includes an image input processing step (S10), a feature extraction step (S20), and a feature matching step (S30), and the ceiling image-based mobile robot device position recognition method is located in the fast rotation invariant matching method. The case where the recognition step S40 is further added.

먼저, 영상 입력 처리 단계(S10)에서 영상 입력부(100)를 통하여 입력된 현재 영상 정보가 처리된다. 즉, 제어부(300)는 영상 입력부(100)로부터 천장 영상(또는 영상 정보)를 입력받아 영상 정보를 처리하여 현재 영상 정보를 취한다. 영상 입력 처리 단계(S10)가 실행되기 전에 천장 영상 기반 이동 로봇 장치(10)가 제공되는데, 도 2의 흐름도에서는 표기가 생략되었다. 도 3에는 영상 입력 처리 단계(S10)에 대한 보다 구체적인 흐름의 일예가 도시되는데, 제어부(300)는 영상 입력부(100)에 제어 신호를 인가하여 단안 카메라로 구현되는 영상 입력부(100)가 현 재 천장 영상 기반 이동 로봇 장치(10)의 위치에서의 천장(ceiling)에 대한 영상 정보를 취득하도록 하고 이를 제어부(300)로 입력하도록 한다(S11). 제어부(300)는 입력된 영상 또는 영상 정보의 왜곡 여부를 판단하여(S12), 영상 또는 영상 정보에 화상 왜곡이 존재하는 경우, 이를 연산부(500)로 전달하여 영상에 대한 보정을 수행하는 영상 보정 단계를 수행한다(S13). 도 4 및 도 5에는 영상 보정 전후의 영상에 대한 개략적인 일예들이 도시되는데, 단안 카메라로 구현되는 영상 입력부(100)는 천장 영상에서의 특징을 추출하고 이를 지속적으로 추적할 수 있도록 하는 영상 또는 영상 정보를 얻을 수 있도록 넓은 시야를 확보하기 위하여 취득되는 영상 정보에 왜곡이 발생한다. 연산부(500)는 제어부(400)의 제어 신호에 따라 영상 입력부(100)로부터 입력되는 영상 또는 영상 정보를 가공하여 왜곡 현상을 보정한다. 영상 보정이 완료되거나 또는 영상 보정이 불필요하다고 판단한 경우, 제어부(300)는 보정된 영상 또는 영상 정보를 제어부(300)로 출력한다(S14). First, current image information input through the image input unit 100 is processed in the image input processing step (S10). That is, the controller 300 receives the ceiling image (or image information) from the image input unit 100, processes the image information, and takes current image information. Before the image input processing step S10 is executed, the ceiling image-based mobile robot apparatus 10 is provided. In the flowchart of FIG. 2, notation is omitted. 3 shows an example of a more specific flow of the image input processing step (S10), wherein the controller 300 applies a control signal to the image input unit 100 so that the image input unit 100 implemented as a monocular camera is presently present. The image information on the ceiling (ceiling) at the position of the ceiling image-based mobile robot device 10 is acquired and input to the controller 300 (S11). The controller 300 determines whether the input image or the image information is distorted (S12), and if image distortion exists in the image or the image information, the controller 300 transmits the image distortion to the operation unit 500 to correct the image. Perform the step (S13). 4 and 5 illustrate schematic examples of an image before and after image correction. The image input unit 100 implemented as a monocular camera extracts a feature from a ceiling image and continuously tracks the image or image. Distortion occurs in the image information acquired to secure a wide field of view so that information can be obtained. The calculation unit 500 corrects the distortion by processing the image or the image information input from the image input unit 100 according to the control signal of the control unit 400. When it is determined that the image correction is completed or the image correction is unnecessary, the controller 300 outputs the corrected image or image information to the controller 300 (S14).

영상 입력 처리 단계(S10)가 완료된 후, 단계 S10에서 얻어진 현재 영상 정보에 기초하여 현재 영상 정보 내에 포함된 특징을 추출하는 특징 추출 단계(S20)가 실행된다. 특징 추출 단계(S20)에서 제어부(300)는 화상 왜곡 등이 보정된 영상에 기초하여 현재 영상 정보 내에 존재하는 특징(feature)을 추출한다. 현재 영상 정보 내에 존재하는 특징으로는 코너 특징, 윤곽선, 직선 특징, 조명 특징 등을 포함한다. 도 6에는 본 발명의 일실시예에 따른 특징 추출 단계에 대한 일예가 도시되는데, 먼저, 영상 정보로부터 코너 특징이 추출되고(S21), 영상 정보에서의 윤곽선이 추출되고(S22), 얻어진 윤곽선들로부터 직선 특징이 추출된다(S23). 직선 특징이 추출된 후, 본 실시예에서는 도어 특징 추출 후, 조명 특징이 추출되는 단계(S24)를 구비하는데 이들의 특징 추출은 설계 사양에 따라 다양한 추출이 가능하다. After the image input processing step S10 is completed, a feature extraction step S20 is performed to extract a feature included in the current image information based on the current image information obtained in step S10. In the feature extraction step S20, the controller 300 extracts a feature existing in the current image information based on the image in which image distortion and the like are corrected. Features present in the current image information include corner features, outlines, straight features, lighting features, and the like. 6 shows an example of a feature extraction step according to an embodiment of the present invention. First, a corner feature is extracted from image information (S21), an outline is extracted from image information (S22), and the obtained contours are obtained. The straight line feature is extracted from (S23). After the linear feature is extracted, the present embodiment includes a step S24 of extracting the lighting feature after the door feature extraction, and the feature extraction can be variously extracted according to the design specification.

단계 S20에서 현재 영상 정보로부터 코너 특징, 윤곽선 추출 및 직선 추출이 이루어지는 단계들이 수행되는데, 코너 특징은 현재 영상 정보에서의 물체 끝에 각진 부분이나 두 선이 교차하는 부분으로 형성된다. 현재 영상 정보로부터 윤곽선 추출이 이루어진 후, 다양한 직선이 얻어지는데, 이들 직선 중 사전 설정된 길이 이상의 직선을 특징으로서의 직선 특징으로 설정한다. 직선 특징은 인접 직선들과 혼동 우려등이 있는 반면, 코너 특징은 주변 부분과 확연하게 구별 가능한 바 코너 특징은 위치 인식을 위한 표식으로 즉시 사용될 수 있다. 예를 들어, 코너 특징의 추출은 해리스 코너 추출(Harris corner detection) 또는 FAST(Features from Accelerated Segment Test)과 같은 코너 추출 방법을 사용하는 등, 현재 영상 정보로부터 코너 특징, 윤곽선 추출 및 직선 추출 단계 및 조명 추출 단계는 통상적인 영상 정보 처리 과정과 동일하므로 이에 대한 구체적 설명은 생략한다. In step S20, corner features, outline extraction, and straight line extraction are performed from the current image information. The corner features are formed as an angled portion or a portion where two lines cross each other in the current image information. After contour extraction is performed from the current video information, various straight lines are obtained. Among these straight lines, a straight line having a predetermined length or more is set as a straight line feature as a feature. While the straight line feature may be confused with adjacent straight lines, the corner feature is clearly distinguishable from the surrounding part, and the corner feature can be immediately used as a marker for position recognition. For example, the extraction of corner features may be performed by using corner extraction methods such as Harris corner detection or Features from Accelerated Segment Test (FAST). Since the lighting extraction step is the same as a general image information processing process, a detailed description thereof will be omitted.

상기 본 발명의 실시예에서, 특징 추출 단계(S20)는 다양한 특징을 추출하기 위한 코너 특징 추출 단계(S21), 윤곽선 추출 단계(S22), 직선 특징 추출 단계(S23) 및 조명 특징 추출 단계(S24)를 포함하는 것으로 도시되는데, 이는 천장 영상 기반 이동 로봇 장치의 위치 인식 방법에서 다양한 특징을 활용하는 과정을 설명하기 위한 일예일뿐, 본 발명의 고속 회전 불변 특징 정합 방법 및 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법이 이에 국한되는 것은 아니다. 즉, 본 발명의 고속 회전 불변 특징 정합 방법의 경우 특징 추출 단계에서 점 단위의 특징인 코너 특징만을 추출하는 구성을 취할 수도 있는 등 설계 사양에 따라 다양한 변형이 가능하다. In the embodiment of the present invention, the feature extraction step (S20) is a corner feature extraction step (S21), contour extraction step (S22), linear feature extraction step (S23) and illumination feature extraction step (S24) for extracting various features This is just an example for explaining the process of utilizing various features in the position recognition method of the ceiling image-based mobile robot device, the fast rotation constant feature matching method and the ceiling image-based mobile robot device of the present invention And the location recognition method thereof are not limited thereto. That is, in the case of the fast rotation invariant feature matching method of the present invention, various modifications are possible depending on the design specification, such as a configuration of extracting only a corner feature that is a feature of a point unit in the feature extraction step.

그런 후 제어부(300)는 단계 S20에서 추출된 특징 들과 저장부(400)에 사전 설정되어 저장된 기준 특징 정보를 사용하여 정합 여부를 판단하는 특징 정합 단계(S30)를 실행한다. 도 7a에 도시된 바와 같이, 본 실시예에 따른 특징 정합 판단 단계(S30)는 현재 특징 영상 추출 단계(S31)와 현재 특징 영상 구획 단계(S33)와 구획 특징량 산출 단계(S35)와 재정렬 단계(S37) 및 구획 정합 판단 단계(S39)를 포함한다. Thereafter, the controller 300 executes the feature matching step S30 of determining whether to match using the features extracted in the step S20 and the reference feature information preset and stored in the storage 400. As shown in FIG. 7A, the feature matching determination step (S30) according to the present embodiment includes a current feature image extraction step (S31), a current feature image partition step (S33), a partition feature variable calculation step (S35), and a rearrangement step. (S37) and the partition matching determination step (S39).

현재 특징 영상 추출 단계(S31)는 취득된 현재 영상 정보로부터 추출된 특징을 중심으로 특징에 대한 현재 특징 영상을 추출한다. 단계 S20에서 추출된 특징, 예를 들어 코너 특징을 중심으로 소정의 사전 설정된 크기의 특징을 중심으로 하는 주변 영상인 현재 특징 영상을 추출한다. The current feature image extraction step S31 extracts a current feature image for a feature based on the feature extracted from the acquired current image information. The current feature image, which is a peripheral image centered on a feature of a predetermined size, is extracted based on the feature extracted at step S20, for example, a corner feature.

본 발명의 고속 회전 불변 정합 방법은 영상의 크기 변화가 없는 경우에 적용된다. 즉 천장 영상 기반 이동 로봇 장치가 이동하더라도 천장과 천장 영상 기반 이동 로봇 장치(10) 간의 거리가 일정하므로 천장 영상 기반 이동 로봇 장치(10)의 영상 입력부(100)를 통하여 입력되는 영상은 천장 영상 기반 이동 로봇 장치(10)의 이동시에도 영상의 크기는 변화하지 않고 영상에 대한 회전 변화만이 이루어진다. 도 8에는 이를 설명하기 위한 일예로서 천장 영상 기반 이동 로봇 장치(10)의 영상 입력부(100)를 통하여 입력되는 현재 영상 정보 및 이에 포함되는 현재 영상 특징이 비교 도시된다. 도 8의 (a),(b),(c)는 천장 영상 기반 이동 로봇 장치(10)의 영상 입력부를 통하여 천장 영상 기반 이동 로봇 장치(10)의 이동시 취득된 영상 정보를 나타내고, (d),(e),(f)는 도 8의 (a),(b),(c)의 각각의 현재 영상 정보로부터 취득된 현재 특징 영상을 나타낸다. 도 8의 (d),(e),(f)는 현재 영상 정보 중 코너 특징을 중심으로 취득되었는데, 동일 현재 영상 정보 내에 복수 개의 특징이 존재하는 경우 복수 개의 현재 특징 영상이 취득될 수 있음은 명백하다. 도 8에서 (a),(b),(c)는 각각 천장 영상 기반 이동 로봇 장치(10)가 시계 방향으로 대략 90도씩 회전 이동하는 경우 취득된 영상으로, 도 8의 (d),(e),(f)에 도시된 점은 도 8의 (a),(b),(c)에 도시된 특징에서 얻어진 현재 특징 영상에서의 코너 특징의 중심을 나타내는데, 도 8의 (d),(e),(f)는 이들 중심점을 중심으로 21픽셀×21픽셀의 크기로 얻어진다. 이와 같이 천장 영상 기반 이동 로봇 장치(10)와 천장 간의 간격은 거의 일정하므로 천장 영상 기반 이동 로봇 장치(10)에서 취득된 영상은 회전 변화만이 이루어진 것을 확인할 수 있는데, 이는 본 발명의 취득되는 영상 정보가 고속 회전 상태를 형성하더라도 정확하고 신속하게 특징과의 정합 여부를 판단하고, 더 나아가 천장 영상 기반 이동 로봇 장치의 현재 위치 인식을 보다 신속하게 이루는 것을 가능하게 한다. The fast rotation invariant matching method of the present invention is applied when there is no change in the size of the image. That is, even though the ceiling image-based mobile robot device moves, the distance between the ceiling and the ceiling image-based mobile robot device 10 is constant, so that an image input through the image input unit 100 of the ceiling image-based mobile robot device 10 is based on the ceiling image. Even when the mobile robot apparatus 10 moves, the size of the image does not change but only a rotation change with respect to the image is performed. FIG. 8 illustrates a comparison of current image information input through the image input unit 100 of the ceiling image-based mobile robot device 10 and current image features included therein. (A), (b) and (c) of FIG. 8 show image information acquired when the ceiling image-based mobile robot apparatus 10 moves through the image input unit of the ceiling image-based mobile robot apparatus 10, and (d) , (e), (f) represent current feature images acquired from the current image information of each of Figs. 8A, 8B, and 8C. (D), (e), and (f) of FIG. 8 are acquired based on corner features among current image information. When a plurality of features exist in the same current image information, a plurality of current feature images may be acquired. It is obvious. (A), (b), and (c) of FIG. 8 are images obtained when the ceiling image-based mobile robot apparatus 10 rotates by approximately 90 degrees clockwise, respectively. FIGS. ), (f) represents the center of the corner feature in the current feature image obtained from the features shown in FIGS. 8 (a), (b) and (c). e) and (f) are obtained in the size of 21 pixels x 21 pixels around these center points. As such, since the distance between the ceiling image-based mobile robot device 10 and the ceiling is almost constant, it can be seen that the image acquired by the ceiling image-based mobile robot device 10 has only a rotation change, which is an image of the present invention. Even if the information forms a high-speed rotation state, it is possible to accurately and quickly determine whether the feature is matched, and moreover, to quickly recognize the current position of the ceiling image-based mobile robot device.

상기한 바와 같이, 단계 S31에서 도 8의 (a),(b),(c)와 같은 현재 영상 정보로부터 얻어진 코너 특징과 같은 특징을 중심으로 소정의 크기만큼의 현재 특징 영상(도 8의 (d),(e),(f))이 추출된다. 본 실시예에서 현재 특징 영상의 크기는 21픽셀×21픽셀의 영상 크기로 설정하였으나 이는 본 발명을 설명하기 위한 일예로서 본 발명이 이에 국한되지 않고 보다 정확한 특징 정합 결과를 도출하기 위하여 고해상도의 영상 입력부를 통하여 특징 주변의 현재 특징 영상을 추출하는 구성을 취할 수도 있고 현재 특징 영상의 크기를 조정할 수도 있는 등 다양한 변형이 가능하다. 다만, 영상의 크기가 커질 경우 하기되는 정합 여부 판단의 정확도를 높일 수 있다는 장점이 있으나 크기의 증대에 따라 계산량이 증가하여 연산 부하가 과도해질 수 있고 영상의 크기가 작을 경우 연산 부하는 저감되나 정확도가 낮아지므로 특징 주변의 영상을 적절한 크기로 취하는 것이 바람직하다. As described above, in step S31 the current feature image (as shown in Fig. 8 (Fig. 8) is centered on a feature such as a corner feature obtained from the current image information as shown in Figs. 8A, 8B, and 8C. d), (e), (f)) are extracted. In the present embodiment, the size of the current feature image is set to an image size of 21 pixels × 21 pixels. However, this is an example for explaining the present invention, and the present invention is not limited thereto. In order to derive a more accurate feature matching result, a high resolution image input is performed. Various modifications are possible, such as taking the configuration of extracting the current feature image around the feature or adjusting the size of the current feature image. However, if the size of the image is large, the accuracy of matching determination can be improved.However, as the size increases, the computational load increases, so that the computational load may be excessive. Since is lowered, it is preferable to take an image of the feature surroundings at an appropriate size.

단계 S31에서 현재 영상 정보에서 추출된 특징을 중심으로 현재 특징 영상이 추출된 경우, 현재 특징 영상에 대하여 상기 특징을 중심으로 사전 설정 구획 각도로 분할하여 현재 구획 특징 영상을 형성하는 현재 특징 영상 구획 단계(S33)가 실행된다. 현재 특징 영상에서 특징의 중심점을 도면 부호 O라고 지시할 경우, 중심점 O를 중심으로 21×21 픽셀 크기를 갖는 현재 특징 영상은 사전 설정 구획 각도(α)만큼 등간격 분할되어 구획된다. 도 9에는 이와 같은 현재 특징 영상 구획 단계(S33)에 대한 개략적인 상태도가 도시되는데, 도 9의 21×21픽셀 크기의 현재 특징 영상을 중심점 O를 중심으로 선 a-a 내지 h-h로 사전 설정 구획 각도(α)로 분할 구획함으로써 복수 개의 구획 특징 영상을 획득할 수 있다. 이들 복수 개의 구획 특징 영상은 현재 특징 영상의 중심점 O를 기준으로 등간격 분할 구획되는바, 각각의 구획 특징 영상에는 동수(同數) 개 내지 실질적인 동수 개의 픽셀이 할당된다. 본 실시예에서 사전 설정 구획 각도(α)는 22.5도로 설정되어 한 개의 현재 특징 영상에는 총 16개의 구획 특징 영상이 포함된다. 여기서 사전 설정 구획 각 도(α)는 설계 사양에 따라 다양한 값을 가질 수 있으나, 사전 설정 구획 각도(α)는 22.5도 내지 45도의 범위의 값을 갖도록 하여 하나의 현재 특징 영상에 대하여 대략 8개 내지 16개의 구획 특징 영상을 갖도록 구성하는 것이 바람직하다. 예를 들어 사전 설정 구획 각도(α)가 22.5도보다 작은 값을 취하는 경우 한 개의 현재 특징 영상에 대하여 많은 수의 구획 특징 영상을 얻을 수 있는 바, 하기되는 정합 여부 판단 과정에서의 정확도를 더욱 증진시킬 수 있으나 사전 설정 구획 각도(α)에 의하여 구획된 구획 특징 영상 내 포함된 영상에 대한 픽셀의 개수도 작아져 잡음에 대한 강인성이 약화되고, 사전 설정 구획 각도(α)가 너무 클 경우, 즉 사전 설정 구획 각도(α)가 45도 보다 큰 값을 갖는 경우 구획된 특징 영상 내 픽셀 개수가 증대되어 잡음에 대한 강인성은 높아지나 정확도가 낮아지므로, 사전 설정 구획 각도(α)는 적절한 범위의 값을 갖도록 설계되는 것이 바람직하다.If the current feature image is extracted based on the feature extracted from the current image information in step S31, the current feature image segmentation step of forming a current partition feature image by dividing the current feature image by a preset partition angle around the feature. (S33) is executed. When the center point of the feature is indicated by reference numeral O in the current feature image, the current feature image having a size of 21 × 21 pixels around the center point O is divided into equal intervals by a preset partition angle α. FIG. 9 is a schematic state diagram for such a current feature image segmentation step S33. The current feature image of 21 × 21 pixels in FIG. 9 is a preset segment angle (aa to hh around the center point O). By dividing into α), a plurality of partition feature images can be obtained. The plurality of partition feature images are divided at equal intervals based on the center point O of the current feature image, and each partition feature image is allocated the same number or substantially the same number of pixels. In the present exemplary embodiment, the preset partition angle α is set to 22.5 degrees so that one current feature image includes 16 partition feature images in total. Here, the preset partition angle α may have various values according to the design specification, but the preset partition angle α has a value ranging from 22.5 degrees to 45 degrees so that approximately 8 pieces of the current feature image are present. It is preferable to configure to have from 16 to 16 partition feature images. For example, if the preset parcel angle α is smaller than 22.5 degrees, a large number of parcel feature images can be obtained for one current feature image, further improving accuracy in the following matching process. Although the number of pixels for the image included in the partition feature image partitioned by the preset partition angle α is also small, the robustness to noise is weakened, and the preset partition angle α is too large, that is, If the preset partition angle α has a value larger than 45 degrees, the number of pixels in the partitioned feature image is increased, so the robustness against noise is increased but the accuracy is lowered. Therefore, the preset partition angle α is an appropriate range of values. It is desirable to be designed to have.

도 9에서 현재 특징 영상에 대하여 선 a-a 내지 h-h로 구획된 각각의 구획 특징 영상에는 도면 부호가 숫자 "0" 내지 "15"로 지시되는데, 이들 숫자로 구성된 도면 부호는 서술자(descriptor)로서 여기서는 임의로 나열된다. 다만, 구획된 복수 개의 구획 특징 영상에 대한 서술자의 부여는 숫자의 순서대로 순차 배열되는데 본 실시예에서 시계 반대 방향으로 배열된다. In Fig. 9, each partition feature image partitioned by lines aa to hh with respect to the current feature image is denoted by numerals "0" to "15", and the numerals composed of these numerals are descriptors and are arbitrarily herein. Listed. However, the descriptors for the partitioned plurality of partition feature images are sequentially arranged in the order of the numbers. In this embodiment, the descriptors are arranged in the counterclockwise direction.

현재 특징 영상 구획 단계(S33)에서 현재 특징 영상에 대한 복수 개의 구획 특징 영상으로의 구획 후, 제어부(300)는 구획 특징량 산출 단계(S35)를 수행하는데, 구획 특징량 산출 단계(S35)에서 복수 개로 구획된 현재 구획 특징 영상에 각각의 구획 특징량을 산출한다. 여기서, 구획 특징량은 각각의 분할 구획된 복수 개의 현재 구획 특징 영상의 특성을 나타내는데, 이들은 하기되는 재정렬 단계에서 복수 개의 현재 구획 특징 영상을 재정렬하기 위한 기준으로 사용된다. 본 발명에 따른 일실시예에서 구획 특징량은 현재 구획 특징 영상에 대한 그레이스케일의 평균값을 사용하였다. 하지만, 이는 본 발명을 설명하기 위한 일예로서 구획 특징량은 설계 사양에 따라 다양한 기준이 적용될 수 있는데, 정확하면서도 연산 시간 저감에 따른 빠른 특징 정합 여부 판단 내지 이로 인한 천장 영상 기반 이동 로봇의 자기 위치 인식을 원활하게 하기 위한 범위에서 평균, 표준편차, 분산 등 다양한 통계 처리 방식이 사용될 수도 있고 그레이스케일 모드이외에 다른 RGB 모드가 사용될 수도 있는 등 복수 개의 현재 구획 특징 영상을 재정렬하기 위하여 각각의 현재 구획 특징 영상을 수치화할 수 있는 기준을 정립하는 범위에서 다양한 선택이 가능하다. After partitioning from the current feature image partitioning step S33 to a plurality of partition feature images for the current feature image, the controller 300 performs a partition feature variable calculating step S35, and in the partition feature variable calculating step S35. Each partition feature amount is calculated from a plurality of partitioned current partition feature images. Here, the partition feature amount represents the characteristics of each of the partitioned plurality of current partition feature images, which are used as a reference for rearranging the plurality of current partition feature images in the reordering step described below. In one embodiment according to the present invention, the partition feature amount is an average value of grayscales for the current partition feature image. However, this is an example for explaining the present invention, and the partition feature can be applied to various criteria according to the design specification. Various current processing features such as average, standard deviation, and variance may be used in the range for smoothing, and each current partition feature video may be rearranged in order to rearrange a plurality of current partition feature images such as other RGB modes besides grayscale mode. There are a variety of choices within the scope of establishing the criteria for quantifying.

본 발명의 일실시예에 따른 구획 특징량 산출 단계(S35)는 영상 수치화 단계(S351)와 구획 특징량 연산 단계(S353)을 포함하는데, 영상 수치화 단계(S351)에서 현재 구획 특징 영상 내 픽셀을 수치화하고 픽셀 특징량을 산출하고, 구획 특징량 연산 단계(S353)에서 현재 구획 특징 영상 내 픽셀에 대한 픽셀 특징량을 산출 처리하여 각각의 현재 구획 특징 영상에 대한 구획 특징량을 연산한다. 여기서, 픽셀 특징량은 현재 구획 특징 영상 내 포함된 복수 개의 픽셀에 대한 수치화된 값을 나타내고, 구획 특징량은 각각의 현재 구획 특징 영상 내에 포함된 복수 개의 픽셀에 대한 픽셀 특징량을 현재 구획 특징 영상 별로 연산하여 도출된 값을 나타낸다. 도 10에 도시된 바와 같이 영상 수치화 단계(S351)에서 현재 특징 영상 내 지 복수 개의 현재 구획 특징 영상에 대한 그레이 스케일 모드로의 전환이 이루어진다. 이와 같은 그레이 스케일 모드로의 영상 전환을 통하여 각각의 픽셀에 대한 0 내지 255 값의 범위의 수치화가 이루어지고, 복수 개의 현재 구획 특징 영상 내에 포함된 복수 개의 픽셀에 대한 픽셀 특징량이 산출된다. The partition feature variable calculating step S35 according to an embodiment of the present invention includes an image digitizing step S351 and a partition feature variable calculating step S353. In the image digitizing step S351, the pixel in the current partition feature image is selected. The numerical feature is calculated, the pixel feature amount is calculated, and in the partition feature variable calculation step S353, the pixel feature amount for the pixel in the current partition feature image is calculated and processed to calculate the partition feature amount for each current partition feature image. Here, the pixel feature amount represents a numerical value for a plurality of pixels included in the current partition feature image, and the partition feature amount represents a pixel feature amount for a plurality of pixels included in each current partition feature image. It represents the value derived by calculating. As illustrated in FIG. 10, a switch to the gray scale mode for the current feature image or the plurality of current partition feature images is performed in the image digitization step S351. The image conversion to the gray scale mode is performed to quantify a range of 0 to 255 values for each pixel, and calculate the pixel feature amounts for the plurality of pixels included in the plurality of current partition feature images.

그런 후, 구획 특징량 연산 단계(S353)에서 복수 개의 현재 구획 특징 영상에 대한 구획 특징량이 연산된다. 구획 특징량은 개개의 현재 구획 특징 영상 내 포함된 픽셀에 대한 픽셀 특징량으로부터 얻어지는데, 본 실시예에서는 구획 특징량은 각각의 픽셀에 대한 픽셀 특징량의 평균값을 사용한다. 즉, 각각의 현재 구획 특징 영상 내 포함되는 픽셀에 대하여 산출된 픽셀 특징량을 현재 구획 특징 영상 별로 합산한 후 이를 현재 구획 특징 영상 내 픽셀의 개수로 나눔으로써 현재 구획 특징 영상 별 구획 특징량을 산출할 수 있다. 이와 같은 구획 특징량은 상기 임의로 시작 위치가 정해지고 반시계 방향으로 증가되는 서술자가 부여된 각각의 현재 구획 특징 영상에 대하여 개별적으로 연산 산출된다. Then, in the partition feature variable calculating step S353, partition feature quantities for the plurality of current partition feature images are calculated. The partition feature amount is obtained from the pixel feature amounts for the pixels included in the individual current partition feature images. In this embodiment, the partition feature amounts use the average value of the pixel feature amounts for each pixel. That is, the partition feature amount for each current partition feature image is calculated by summing the pixel feature quantities calculated for the pixels included in each current partition feature image by the number of pixels in the current partition feature image, and dividing them by the number of pixels in the current partition feature image. can do. Such partition feature amounts are computed separately for each current partition feature image to which the start position is arbitrarily determined and given a descriptor that increases in the counterclockwise direction.

이와 같이 구획 특징량 산출 단계(S35)가 완료된 후, 제어부(300)는 재정렬 단계(S37)를 실행한다. 재정렬 단계(S37)에서 제어부(300)는 복수 개의 현재 구획 특징 영상에 대하여 각각 산출된 구획 특징량을 비교하여 복수 개의 현재 구획 특징 영상을 재정렬한다. 본 발명의 일실시예에 따른 재정렬 단계(S37)는 구획 서술자 부여 단계(S371)와 구획 특징 영상 재정렬 단계(S373)를 포함하는데, 구획 서술자 부여 단계(S371)는 복수 개의 현재 구획 특징 영상에 대한 구획 특징량을 비교하여 사전 재정렬 기준에 따라 구획 서술자를 부여하고, 구획 특징 영상 재정렬 단 계(S373)는 부여된 구획 서술자를 기준으로 복수 개의 현재 구획 특징 영상을 재정렬한다. 구획 서술자 부여 단계(S371)에서 제어부(300)는 각각의 현재 구획 특징 영상에 대한 구획 특징량을 비교한다. 도 11에 도시된 바와 같이 현재 특징 영상이 포함하는 복수 개의 현재 구획 특징영상(도 11 (a) 참조)에 대한 각각의 구획 특징량, 즉 각각의 현재 구획 특징 영상에 대한 그레이 스케일 모드에서의 픽셀별 값인 픽셀 특징량을 각각의 현재 구획 특징 영상에 대한 평균값인 구획 특징량을 현재 구획 특징 영상 별로 도시한 선도가 나타난다. 도 11 (b)에 도시된 바와 같이 각각의 서술자로 표현되는 각각의 현재 구획 특징 영상에 대한 구획 특징량이 나열되는 선도가 도시되는데, 제어부(300)는 이와 같은 선도로도 표현 가능한 각각의 현재 구획 특징 영상을 비교한다. 도 7b에는 재정렬 단계(S37)에 대한 보다 구체적인 흐름도가 도시되는데, 재정렬 단계(S37)는 상기한 바와 같이 구획 서술자 부여 단계(S371)와 구획 특징 영상 재정렬 단계(S373)를 포함하고, 구획 서술자 부여 단계(S371)는 현재 구획 특징 영상 구획 특징량 비교 단계(S3711)와 최우선 구획 서술자 부여 단계(S3713)와 순차적 구획 서술자 부여 단계(S3715)를 포함한다. 현재 구획 특징 영상 구획 특징량 비교 단계(S3711)에서 복수 개의 현재 구획 특징 영상에 대하여 산출된 구획 특징량을 비교하여 어떠한 현재 구획 특징 영상이 최대 값의 구획 특징량을 갖고 있는지 또는 어떠한 현재 구획 특징 영상이 최소값의 구획 특징량을 갖고 있는지를 파악할 수 있다. 그런 후, 현재 구획 특징 영상 구획 특징량 비교 단계(S3711)에서 이루어진 비교 결과에 따라 소정의 구획 서술자 부여 기준에 따라 최우선 구획 서술자를 특정 현재 구획 특징 영상에 부여하는 최우선 구획 서술자 부여 단계(S3713)가 수행된다. 특정 현재 구획 특징 영상에 대하여 최우선 구획 서술자가 부여된 후, 소정의 기준에 따라, 예를 들어 본 실시예에서는 반시계 방향으로 인접한 순서대로 순차적으로 구획 서술자를 부여하는 순차적 구획 서술자 부여 단계(S3715)를 실행한다. 이와 같은 구획 서술자 부여 단계(S371)가 완료된 후 새로이 부여된 서술자를 기준으로 복수 개의 현재 구획 특징 영상을 재정렬하는 구획 특징 영상 재정렬 단계(S373)를 실행하여 최우선 구획 서술자부터 순차적으로 부여된 구획 서술자에 따라 각각의 현재 구획 특징 영상에 대한 값을 재정렬할 수 있다. In this way, after the partition feature variable calculating step S35 is completed, the control unit 300 executes the reordering step S37. In the rearranging operation S37, the controller 300 rearranges the plurality of current partition feature images by comparing the calculated partition feature amounts with respect to the plurality of current partition feature images. A reordering step S37 according to an embodiment of the present invention includes a partition descriptor providing step S371 and a partition feature image rearranging step S373, and the partition descriptor providing step S371 includes a plurality of current partition feature images. Comparing the partition feature quantities and assigning partition descriptors according to a pre-arrangement criterion, the partition feature image reordering step S373 rearranges the plurality of current partition feature images based on the assigned partition descriptors. In the partition descriptor assignment step S371, the controller 300 compares the partition feature amounts for each current partition feature image. As shown in FIG. 11, each partition feature amount for a plurality of current partition feature images (see FIG. 11A) included in the current feature image, that is, pixels in gray scale mode for each current partition feature image. A diagram showing a segment feature amount, which is an average value for each current segment feature image, of the pixel feature amount, which is a star value, for each current segment feature image, is shown. As shown in FIG. 11 (b), a diagram in which segment feature amounts for each current segment feature image represented by each descriptor are listed is shown, and the controller 300 may display each current segment that can be represented by such a diagram. Compare feature images. FIG. 7B shows a more detailed flowchart of the reordering step S37. The reordering step S37 includes a partition descriptor assigning step S371 and a partition feature image rearranging step S373 as described above, and the partition descriptor is provided. Step S371 includes a current partition feature video partition feature variable comparison step S3711, a first partition descriptor assignment step S3713, and a sequential partition descriptor assignment step S3715. Comparing the current partition feature image in the partition feature amount comparison step (S3711), the partition feature values calculated for the plurality of current partition feature images are compared to determine which current partition feature image has the maximum feature value of partition feature or which current partition feature image. It is possible to determine whether it has the partition feature amount of this minimum value. Then, according to the comparison result made in the current partition feature video section feature quantity comparison step (S3711), the first partition descriptor assigning step (S3713) of assigning a first partition descriptor to a specific current partition feature image according to a predetermined partition descriptor assignment criterion is performed. Is performed. Sequential partition descriptor assignment step (S3715) of assigning the partition descriptors sequentially in the order adjacent to each other in the counterclockwise direction according to a predetermined criterion, for example, after the highest priority partition descriptor is given to the specific current partition feature image. Run After the partition descriptor assignment step S371 is completed, the partition feature image rearranging step S373 is performed to rearrange the plurality of current partition feature images based on the newly assigned descriptor to the partition descriptors sequentially assigned from the highest partition descriptor. Accordingly, values for each current partition feature image may be rearranged.

그런 후, 제어부(300)는 구획 특징 영상 재정렬 단계(S373)를 실행한다. 여기서, 제어부(300)는 구획 특징량을 통하여 비교된 현재 구획 특징 영상을 사전 재정렬 기준에 따라 재정렬하는데, 도 11 (b)에 도시된 바와 같이 본 실시예에서의 현재 특징 영상에 대한 총 16개의 현재 구획 특징 영상 중 서술자 11로 지시되는 현재 구획 특징 영상의 구획 특징량이 가장 큰 값을 갖는 것을 확인할 수 있다. 가장 큰 구획 특징량을 갖는 현재 구획 특징 영상에 새로운 구획 서술자의 최우선 값을 부여한다. 즉, 도 12에 도시된 바와 같이, 새로운 구획 서술자의 최우선 값인 "0"은 종전 서술자의 11로 지시되는 현재 구획 특징 영상에 부여되고, 새로운 구획 서술자 "0"을 기준으로 반시계 방향으로 순차적으로 각각의 현재 구획 특징 영상에 대하여 증분되는 구획 서술자를 부여한다. 여기서, 증분되는 구획 서술자는 반시계 방향으로 부여되는데, 이는 상기 현재 특징 영상 구획 단계에서의 서술자 부여 순서와 일치시키기 위한 것으로 이와 동일한 부여 순서를 유지하는 범위에 서 시계 방향 순서로 서술자 또는 구획 서술자 부여를 이룰 수도 있는 등 설계 사양에 따라 변형이 가능하다. 도 13에는 본 발명의 일실시예에 따라 새로이 부여된 구획 서술자를 기준으로 재정렬된 현재 구획 특징 영상의 구획 특징량을 구획 서술자 순으로 재배열한 것이 도시된다. 따라서, 사전 재정렬 기준에 따라 최고점의 구획 특징량을 갖는 현재 구획 특징 영상이 선두에 배열된다. Thereafter, the controller 300 executes the partition feature image rearrangement step S373. Here, the controller 300 rearranges the current partition feature images compared through the partition feature amounts according to a pre-arrangement criterion. As shown in FIG. 11B, a total of 16 images of the current feature images in the present embodiment are shown. It is confirmed that the partition feature amount of the current partition feature image indicated by the descriptor 11 among the current partition feature images has the largest value. The highest partition value of the new partition descriptor is assigned to the current partition feature image having the largest partition feature amount. That is, as shown in FIG. 12, "0", which is the highest value of the new partition descriptor, is assigned to the current partition feature image indicated by 11 of the previous descriptor, and sequentially in the counterclockwise direction based on the new partition descriptor "0". Gives an incremental partition descriptor for each current partition feature image. Here, the incremental partition descriptor is given in a counterclockwise direction, which is intended to match the descriptor assignment order in the current feature image segmentation step, and the descriptor or partition descriptor is assigned in clockwise order in a range that maintains the same assignment order. It can be modified according to design specifications, such as can be achieved. FIG. 13 illustrates rearrangement of the partition feature amounts of the current partition feature image rearranged in the order of partition descriptors based on a newly assigned partition descriptor according to an embodiment of the present invention. Therefore, the current partition feature image having the highest partition feature amount is arranged at the head according to the pre-arrangement criterion.

본 실시예에 따른 사전 재정렬 기준은 가장 큰 구획 특징량 값, 즉 복수 개의 현재 구획 특징 영상의 각각의 구획 특징량 중 최대 구획 특징량을 기준으로 이에 최우선 구획 서술자를 부여하는 것인데, 이는 본 발명의 일예일뿐 사전 재정렬 기준은 최소 구획 특징량 값을 갖는 현재 구획 특징 영상에 새로운 최우선 구획 서술자를 부여할 수도 있는 등 일관된 적용 기준이 존재하는 범위에서 구획 서술자 부여 기준을 나타내는 사전 재정렬 기준은 설계 사양에 따라 다양한 변형이 이루어질 수 있다.  The pre-arrangement criterion according to the present embodiment is to assign the highest priority partition descriptor based on the largest partition feature value, that is, the maximum partition feature of each partition feature of the plurality of current partition feature images. For example, a pre-arrangement criterion that represents a parcel descriptor granting criterion in the design specification is consistent with the design specification, where a consistent application criterion exists, such as assigning a new highest parcel descriptor to the current parcel feature image with the minimum parcel feature values. Accordingly, various modifications may be made.

도 14 및 도 15에는 본 발명의 일실시예에 따른 특징 정합 단계(S30)의 구획 특징량 산출(S35) 및 재정렬 단계(S37)를 통하여 이루어진 각각의 현재 특징 영상 A,B에 대한 각각의 구획 특징량을 각각의 구획 서술자 순으로 나열된 각각의 선도가 도시된다. 여기서, 도 15의 현재 특징 영상 B는 도 14의 현재 특징 영상 A에 대하여 90도 반시계 방향으로의 회전된 영상이다. 현재 특징 영상 A에 대한 구획 특징량-구획 서술자 선도는 실선으로 표시되고 현재 특징 영상 B에 대한 구획 특징량-구획 서술자 선도는 점선으로 표시된다. 도 16에는 도 14 및 도 15의 현재 특징 영상 A 및 현재 특징 영상 B에 대한 구획 특징량-구획 서술자 선도가 중첩되어 도시되는데, 실선으로 표시되는 현재 특징 영상 A에 대한 구획 특징량과 점선으로 표시되는 현재 특징 영상 B에 대한 구획 특징량의 각각의 구획 서술자로 지시된 현재 구획 특징 영상에 구획 특징량의 오차가 작음을 확인할 수 있다. 여기서 이와 같은 현재 특징 영상의 회전시 발생하는 구획 특징량의 오차는 각각의 현재 특징 영상을 구획한 영역이 다소 상이함이 존재하기 때문이다. 하기되는 정합 판단량과 기준 정합 판단량의 비교를 통하여 정합 여부가 결정되는데, 이와 같이 동일한 특징에 대하여는 동일 내지 거의 동일한 현재 구획 특징 영상이 형성되고 이에 대하여 각각의 재정렬된 현재 구획 특징 영상에 대하여 부여된 구획 서술자는 동일 내지 거의 동일한 재배열된 현재 구획 특징에 동일 배열을 취함을 알 수 있다. 14 and 15 show the respective partitions for each current feature image A and B made through the partition feature calculation (S35) and the reordering step (S37) of the feature matching step (S30) according to an embodiment of the present invention. Each diagram listing the feature quantities in order of their respective compartment descriptors is shown. Here, the current feature image B of FIG. 15 is a rotated image 90 degrees counterclockwise with respect to the current feature image A of FIG. 14. The segment feature quantity-compartment descriptor diagram for the current feature image A is indicated by a solid line and the segment feature quantity-compartment descriptor diagram for the current feature image B is indicated by a dotted line. In FIG. 16, the partition feature variables-compartment descriptor diagrams of the current feature image A and the current feature image B of FIGS. 14 and 15 are superimposed, and the partition feature amounts and the dotted lines of the current feature image A indicated by a solid line are displayed. It is possible to confirm that the error of the partition feature variable is small in the current partition feature image indicated by each partition descriptor of the partition feature variable for the current feature image B. In this case, the error of the partition feature amount generated when the current feature image is rotated is because the region partitioning each current feature image is slightly different. The matching is determined by comparing the matching judgment amount and the reference matching decision amount, which are the same to almost the same current partition feature image, and are assigned to each rearranged current partition feature image. It can be seen that the partition descriptors take the same arrangement for the same to nearly identical rearranged current partition features.

이와 같이 재정렬 단계(S37) 후에 구획 정합 판단 단계(S39)가 실행되는데, 구획 정합 판단 단계(S39)에서 재정렬된 현재 구획 특징 영상 및 저장부(400)에 사전 설정되어 저장된 기준 특징 정보에 기초하여 현재 영상 정보로부터 추출되고 주변 환경을 포함하는 현재 특징 영상으로 표현되는 특징이 기저장되어 있는 기준 특징과 정합되는지 여부를 판단한다. 여기서, 기준 특징 정보는 저장부(400)에 사전 설정되어 저장된 값으로서, 저장부(400)에 기저장된 특징 맵 내 각각의 특징에 대한 기준 구획 특징량(Sref) 및 기준 정합 판단량(Dref)을 포함하는데, 기준 구획 특징량은 특징 맵 내 기저장된 특징에 대하여 얻어진 구획 특징량을 의미하고, 기준 정합 판단량은 현재 영상 정보로부터 얻어진 특징이 특징 맵 내 기저장된 기준 특징과 정합 여부를 판단하기 위한 사전 설정된 기준값을 의미한다. The partition matching determination step S39 is performed after the rearranging step S37 as described above. The partition matching determination step S39 is performed based on the current partition feature image rearranged in the partition matching step S39 and reference feature information preset and stored in the storage unit 400. It is determined whether a feature extracted from the current image information and represented by the current feature image including the surrounding environment matches a previously stored reference feature. Here, the reference feature information is a value preset and stored in the storage unit 400, and the reference partition feature amount Sref and the reference matching determination amount Dref for each feature in the feature map pre-stored in the storage unit 400. The reference partition feature amount means a partition feature amount obtained for a feature previously stored in the feature map, and the reference matching determination amount determines whether a feature obtained from current image information matches the reference feature previously stored in the feature map. Means a preset reference value.

도 17에 도시된 바와 같이, 본 실시예에서 구획 정합 판단 단계(S39)는 정합 판단량 산출 단계(S391)와 정합 판단 확정 단계(S393)를 구비하는데, 정합 판단량 산출 단계(S391)는 재정렬된 현재 구획 특징 영상의 구획 특징량과 기준 구획 특징량을 비교하여 정합 판단량을 산출하고, 정합 판단 확정 단계(S393)는 산출된 정합 판단량과 기준 정합 판단량을 비교하여 정합 여부를 판단한다. 정합 판단량은 현재 영상 정보로부터 얻어진 특징과 기준 특징의 정합 여부를 판단하기 위한 기준으로 사용되는데, 본 실시예에서 정합 판단량(D)은 재정렬된 현재 구획 특징 영상의 구획 특징량(S)과 기준 구획 특징량(Sref)의 차이 절대값의 평균값이 사용된다. 즉, 본 발명의 일실시예에 따른 정합 판단량(D)은 다음과 같은 식으로 표현될 수 있다. As shown in FIG. 17, in this embodiment, the partition matching determination step S39 includes a matching determination amount calculation step S391 and a matching determination determination step S393, and the matching determination amount calculation step S391 is rearranged. The matching determination amount is calculated by comparing the partition feature amount of the current partition feature image with the reference partition feature amount, and in the matching determination determination step (S393), the calculated matching determination amount and the reference matching determination amount are compared to determine whether to match. . The matching judgment amount is used as a criterion for determining whether or not the feature obtained from the current image information is matched with the reference feature. In this embodiment, the matching judgment amount D is equal to the partition feature amount S of the rearranged current partition feature image. The average value of the absolute values of the differences of the reference partition feature quantities Sref is used. That is, the match determination amount D according to an embodiment of the present invention may be expressed as follows.

Figure 112009041691419-PAT00001
Figure 112009041691419-PAT00001

여기서, N은 현재 특징 영상이 사전 설정 구획 각도에 의하여 분할 구획된 현재 구획 특징 영상의 개수를 나타내고, Δvi는 각각의 구획 서술자로 지시되는 현재 구획 특징 영상에 대한 구획 특징량(S)과, 상기 현재 특징 영상에 대응하는 기준 특징에 대한 기준 구획 특징량(Sref)의 차이값을 나타낸다. 이와 같이 재정렬된 현재 구획 특징 영상의 구획 특징량(S)과 대응되는 기준 구획 특징량(Sref)의 차이값의 절대값을 합하고 이를 구획 특징 영상의 개수로 나눈 값을 정합 판단량으로 사용함으로써 소정의 정확도는 담보하되 연산 부하를 현저하게 저감시킬 수 있다. 하지만, 이는 현재 영상 정보로부터 얻어진 특징과 기저장된 기준 특징의 정합 여부를 판단하기 위하여 사용되는 정합 판단량의 일예일뿐, 본 발명의 정합 판 단량은 단순한 차이값, 차이값의 절대값, 차이값의 제곱값, 차이값의 RMS일 수도 있는 등 설계 사양에 따라 다양한 선택이 가능하다. Where N denotes the number of current partition feature images in which the current feature image is partitioned by a preset partition angle, and Δvi is the partition feature amount S for the current partition feature image indicated by each partition descriptor, and The difference value of the reference partition feature amount Sref with respect to the reference feature corresponding to the current feature image is shown. The predetermined value is determined by adding the absolute values of the difference values of the partitioned feature amounts S of the rearranged current partition feature images and the corresponding reference partition feature quantities Sref, and dividing them by the number of partition feature images as the matching judgment amount. While guaranteeing the accuracy of, can significantly reduce the computational load. However, this is only one example of a matching judgment amount used to determine whether a feature obtained from current image information matches a previously stored reference feature, and the matching judgment amount of the present invention is a simple difference value, an absolute value of the difference value, and a difference value. There are many choices depending on the design specification, such as the square of, and the RMS of the difference.

상기한 정합 판단량 산출 단계(S391)에서 정합 판단량(D)이 산출된 경우, 제어부(300)는 정합 판단량(D)과 기준 정합 판단량(Dref)을 비교하여 특징의 정합 여부를 판단하는 정합 판단 확정 단계(S393)를 실행한다. 본 실시예에서 기준 정합 판단량(Dref)은 30 내지 50의 값으로 설정되는데, 이는 설계 사양에 따라 변형 가능하다. 따라서, 단계 S393에서 제어부(300)가 정합 판단량(D)이 기준 정합 판단량(Dref) 이하의 값이라고 판단한 경우, 제어부(300)는 제어 흐름을 단계 S395로 전달하여 양자는 정합된 것으로 판단하는데, 현재 영상 정보로부터 얻어진 특징과 특징 맵으로 기저장된 특징과의 오차로부터 얻어지는 정합 판단량이 기준 값으로서의 기준 정합 판단량보다 작으므로 양자는 정합된 것으로 판단할 수 있다. 반면, 단계 S393에서 제어부(300)가 정합 판단량(D)이 기준 정합 판단량(Dref)보다 크다고 판단한 경우, 제어부(300)는 제어 흐름을 단계 S397로 전달하여 양자는 정합되지 않은 것으로 판단한다. 이 경우, 제어부(300)는 제어 흐름을 단계 S397로 전달하여 양자는 비정합인 것으로 판단 결정한다. When the matching determination amount D is calculated in the matching determination amount calculating step S391, the controller 300 compares the matching determination amount D and the reference matching determination amount Dref to determine whether the feature is matched. The matching determination decision step S393 is executed. In this embodiment, the reference matching judgment amount Dref is set to a value of 30 to 50, which can be modified according to the design specification. Therefore, when the controller 300 determines that the matching determination amount D is less than or equal to the reference matching determination amount Dref in step S393, the control unit 300 transmits the control flow to step S395 to determine that both are matched. However, since the matching determination amount obtained from the error between the feature obtained from the current image information and the feature previously stored in the feature map is smaller than the reference matching determination amount as the reference value, both may be determined to be matched. On the other hand, when the controller 300 determines that the matching determination amount D is greater than the reference matching determination amount Dref in step S393, the control unit 300 transmits the control flow to step S397 to determine that both are not matched. . In this case, the controller 300 transmits the control flow to step S397 to determine that both are inconsistent.

도 18 및 도 19에는 본 발명의 일실시예에 따른 구획 정합 판단 단계(S39)에 대한 구현예가 도시된다. 먼저, 도 18의 (a)에는 현재 영상 정보로부터 얻어진 특징에 대한 현재 특징 영상과 기저장된 기준 특징에 대한 기준 특징 영상에 대한 구획 특징량-구획 서술자 선도를 표시하기 위한 범례가 도시되는데, 여기서 현재 특징 영상에 대한 구획 특징량-구획 서술자 선도는 실선으로, 그리고 기준 특징 영상 에 대한 구획 특징량-구획 서술자 선도는 점선으로 표시한다. 도 18의 (b)에는 상기한 바와 같은 특징 영상에 대한 구획, 구획 특징량 산출 및 재정렬 단계를 거쳐 얻어진 현재 특징 영상 및 기준 특징 영상에 대한 구획 특징량-구획 서술자 선도가 도시된다. 여기서, 각각의 구획 서술자로 표현되는 현재 구획 특징 영상의 구획 특징량과 기준 구획 특징 영상에 대한 기준 구획 특징량 간의 차이(Δvi=S-Sref)는 각각의 구획 서술자에 대하여 상당한 값을 가짐을 알 수 있다. 이와 같은 본 실시예의 경우 산출되는 정합 판단량(D)은 105.9의 값이 얻어지는데, 이는 사전 설정되어 저장된 대략 30 내지 50 범위의 기준 정합 판단량(Dref)보다 상당히 큰 값, 대략 2 내지 3배의 값을 가짐을 알 수 있고, 제어부(300)는 이에 기초하여 현재 영상 정보로부터 얻어진 특징이 기준 특징과 정합되지 않는다고 판단하고 단계 S39를 종료한다. 18 and 19 illustrate an embodiment of the partition matching determination step S39 according to an embodiment of the present invention. First, FIG. 18A illustrates a legend for displaying a partition feature variable-compartment descriptor diagram for a current feature image for a feature obtained from current image information and a reference feature image for a pre-stored reference feature, where the current The segment feature quantity-compartment descriptor plot for the feature image is indicated by a solid line, and the segment feature quantity-compartment descriptor diagram for the reference feature image is indicated by a dashed line. FIG. 18B shows a partition feature-partition descriptor diagram for the current feature image and the reference feature image obtained through the partition, the partition feature amount calculation and the reordering step for the feature image as described above. Here, it is understood that the difference (Δvi = S-Sref) between the partition feature amount of the current partition feature image represented by each partition descriptor image and the reference partition feature amount for the reference partition feature image has a significant value for each partition descriptor. Can be. In the case of this embodiment, the matching judgment amount D calculated is obtained with a value of 105.9, which is considerably larger than the reference matching judgment amount Dref in the range of about 30 to 50 which is preset and stored, about 2 to 3 times. The controller 300 determines that the feature obtained from the current image information does not match the reference feature, and terminates step S39.

도 19 (a)에는 도 18(a)와 동일하게 현재 특징 및 기준 특징의 영상과 각각의 구획 특징량에 대한 표시 범례가 도시되고, 도 19(b)에는 현재/기준 특징 영상에 대한 구획, 구획 특징량 산출 및 재정렬 단계를 거쳐 얻어진 현재 특징 영상 및 기준 특징 영상에 대한 구획 특징량-구획 서술자 선도가 도시된다. 여기서, 각각의 구획 서술자로 표현되는 현재 구획 특징 영상의 구획 특징량과 기준 구획 특징 영상에 대한 기준 구획 특징량 간의 차이(Δvi=S-Sref)는 각각의 구획 서술자에 대하여 거의 작은 오차를 구비하고 구획 특징량의 선도는 기준 구획 특징량 선도를 거의 부합됨을 알 수 있다. 이와 같은 본 실시예의 경우 산출되는 정합 판단량(D)은 18.6의 값이 얻어지는데, 이는 사전 설정되어 저장된 대략 30 내지 50 범위의 기준 정합 판단량(Dref)보다 상당히 작은 값, 대략 0.35 내지 0.6 배의 값을 가짐을 알 수 있고, 제어부(300)는 이에 기초하여 현재 영상 정보로부터 얻어진 특징이 기준 특징과 정합된다고 판단하고 단계 S39를 종료한다. In FIG. 19 (a), a display legend of the image of the current feature and the reference feature and each segment feature amount is shown in FIG. 19 (a), and FIG. A segment feature quantity-compartment descriptor diagram is shown for the current feature image and the reference feature image obtained through the segment feature quantity calculation and rearrangement steps. Here, the difference (Δvi = S-Sref) between the partition feature amount of the current partition feature image represented by each partition descriptor image and the reference partition feature amount for the reference partition feature image has almost a small error for each partition descriptor. It can be seen that the plot of the partition feature quantities closely matches the reference plot feature plot. In the case of this embodiment, the matching judgment amount D calculated is obtained with a value of 18.6, which is considerably smaller than the reference matching judgment amount Dref in the range of about 30 to 50 which is preset and stored, about 0.35 to 0.6 times. The controller 300 determines that the feature obtained from the current image information matches the reference feature, and terminates step S39.

도 20에는 상기한 바와 같은 고속 회전 불변 정합 방법에 기초하여 실행된 정합 여부를 나타내는 개략적인 선도가 도시되는데, L1,L2,L3로 지시되는 각각의 기준 특징 영상과 상기와 같은 고속 회전 불변 정합 방법에 의하여 정합으로 판단된 특징을 포함하는 현재 특징 영상이 도면 부호 a,b,c,d,e로 지시된다. 여기서, 각각의 특징을 포함하는 현재 특징 영상은 각각의 기준 특징에 대비하여 보았을 때, 회전 변형이 발생한 영상임을 확인할 수 있다. FIG. 20 is a schematic diagram showing whether matching is performed based on the fast rotational invariant matching method as described above, each reference feature image indicated by L1, L2, and L3 and the fast rotational invariant matching method as described above. The current feature image including the feature determined to be matched by A is indicated by a, b, c, d, and e. Here, the current feature image including each feature may be identified as an image in which rotation deformation occurs when viewed in comparison with each reference feature.

상기와 같은 간략화된 구조의 판단 방법을 통하여 많은 수의 특징에 대하여도 강인하면서도 신속하게 특징 정합 판단을 이룰 수 있다. Through the simplified structure determination method as described above, robustness and fastness of feature matching can be achieved even with a large number of features.

또한, 상기한 바와 같이, 상기와 같은 고속 회전 불변 정합 방법의 단계 S30에서 얻어진 정합 결과는 천장 영상 기반 이동 로봇 장치의 위치 인식을 위한 판단 자료로 사용된다. 즉, 천장 영상 기반 이동 로봇 장치 위치 인식 방법은 고속 회전 불변 정합 방법의 단계 S30 후 단계 S40을 실행한다. 단계 S40은 위치 인식 단계로서, 제어부(300)는 고속 회전 불변 정합 방법의 단계 S30 중 구획 정합 판단 단계(S39)의 정합 판단 확정 단계(S393)에서 현재 영상 정보 내 특징과 기준 특징이 일치하여 정합된 것으로 판단하는 경우(단계 S395), 제어부(300)는 저장부(400)에 사전 설정되어 저장된 기준 특징에 대한 위치 정보를 사용하여 현재 천장 영상 기반 이동 로봇 장치(10)의 위치 정보를 파악 내지 갱신할 수 있다. 반면, 제어 부(300)는 고속 회전 불변 정합 방법의 단계 S30 중 구획 정합 판단 단계(S39)의 정합 판단 확정 단계(S393)에서 현재 영상 정보 내 특징과 기준 특징이 불일치하여 정합되지 않은 것으로 판단하는 경우(단계 S397), 제어부(300)는 전회 위치 인식 과정 상에서 얻어진 위치 정보와 엔코터 감지부(200)를 통하여 연산된 이동량에 기초하여 현재 천장 영상 기반 이동 로봇 장치(10)의 위치 정보를 파악 내지 갱신할 수도 있다. In addition, as described above, the matching result obtained in step S30 of the fast rotational invariant matching method as described above is used as determination data for position recognition of the ceiling image-based mobile robot device. That is, the ceiling image-based mobile robot device position recognition method executes step S40 after step S30 of the fast rotational invariant matching method. Step S40 is a position recognition step, and the control unit 300 matches the feature in the current image information with the reference feature in the matching determination decision step S393 of the partition matching determination step S39 of step S30 of the fast rotational invariant matching method. If it is determined (step S395), the control unit 300 to grasp the position information of the current ceiling image-based mobile robot device 10 by using the position information on the reference feature that is preset and stored in the storage unit 400 Can be updated. On the other hand, the control unit 300 determines that the characteristics in the current image information and the reference feature are not matched in the matching determination determination step (S393) of the section matching determination step (S39) of the step S30 of the high speed rotation invariant matching method to determine that they are not matched. In the case (step S397), the control unit 300 grasps the position information of the current ceiling image-based mobile robot device 10 based on the position information obtained during the previous position recognition process and the movement amount calculated by the encoder detection unit 200. To update.

상기 실시예들은 본 발명을 설명하기 위한 일예들로, 본 발명이 이에 국한되는 것은 아니다. 영상 입력부를 통하여 얻어지는 영상이 크기 변화없이 회전 변화만이 발생하는 경우, 특징에 대한 정합 여부를 판단하거나 또는 이에 기초하여 위치 인식을 이루도록 고속 회전 불변 특징 정합 방법 및 이를 포함하고 활용하는 천장 영상 이동 로봇 장치 위치 인식 방법 및 이에 따른 천장 영상 기반 이동 로봇 장치를 제공하는 범위에서 다양한 변형이 가능하다. The above embodiments are examples for describing the present invention, but the present invention is not limited thereto. When the image obtained through the image input unit has only a rotation change without a change in size, a fast rotation invariant feature matching method and a ceiling image mobile robot including and utilizing the fast rotation invariant feature matching method to determine whether to match the feature or to perform position recognition based on the feature. Various modifications are possible in the range of providing a device location recognition method and a ceiling image-based mobile robot device.

도 1은 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치(10)에 대한 개략적인 블록 선도이다. 1 is a schematic block diagram of a ceiling image-based mobile robot device 10 according to an embodiment of the present invention.

도 2는 본 발명의 일실시예에 따른 고속 회전 불변 특징 정합 방법 및 이에 의한 천장 영상 기반 이동 로봇 장치 위치 인식 방법에 대한 개략적인 제어 과정을 나타내는 흐름도가 도시된다. FIG. 2 is a flowchart illustrating a schematic control process for a fast rotation invariant feature matching method and a ceiling image based mobile robot device position recognition method according to an embodiment of the present invention.

도 3은 본 발명의 일실시예에 따른 고속 회전 불변 특징 정합 방법 및 이를 포함하는 천장 영상 기반 이동 로봇 장치 위치 인식 방법의 영상 입력 처리 단계(S10)에 대한 흐름도이다. 3 is a flowchart illustrating an image input processing step (S10) of a fast rotation invariant feature matching method and a ceiling image-based mobile robot device position recognition method including the same according to an embodiment of the present invention.

도 4 및 도 5는 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 영상 입력부에서 얻어진 영상 및 이의 왜곡 보정을 이룬 영상에 대한 개략적인 선도이다. 4 and 5 are schematic diagrams of an image obtained by the image input unit of the ceiling image-based mobile robot device according to an embodiment of the present invention and an image of which distortion is corrected.

도 6은 본 발명의 일실시예에 따른 고속 회전 불변 특징 정합 방법 및 이를 구비하는 천장 영상 기반 이동 로봇 장치의 위치 인식 방법의 특징 추출 단계에 대한 흐름도이다. 6 is a flowchart illustrating a feature extraction step of a fast rotational invariant feature matching method and a position recognition method of a ceiling image-based mobile robot apparatus having the same according to an embodiment of the present invention.

도 7a는 본 실시예에 따른 특징 정합 판단 단계(S30)의 개략적인 흐름도이다. 7A is a schematic flowchart of a feature matching determination step S30 according to the present embodiment.

도 7b는 본 실시예에 따른 재정렬 단계(S37)에 대한 보다 구체적인 흐름도이다.7B is a more detailed flowchart of the reordering step S37 according to the present embodiment.

도 8은 본 발명의 일실시예에 따른 고속 회전 불변 특징 정합 방법 및 이를 구비하는 천장 영상 기반 이동 로봇 장치 위치 인식 방법에서 얻어진 현재 영상 정보 및 현재 특징 영상을 나타내는 개략도이다. FIG. 8 is a schematic diagram illustrating current image information and current feature images obtained by a fast rotation invariant feature matching method and a ceiling image-based mobile robot device position recognition method including the same according to an embodiment of the present invention.

도 9는 본 발명의 특징 영상 구획 단계(S33)에 대한 개략적인 상태도이다.9 is a schematic state diagram of the feature image segmentation step S33 of the present invention.

도 10은 본 발명의 영상 수치화 단계(S351)에서 현재 특징 영상 내지 복수 개의 현재 구획 특징 영상에 대한 그레이 스케일 모드로 전환된 영상을 나타내는 개략도이다. FIG. 10 is a schematic diagram illustrating an image converted to a gray scale mode for a current feature image or a plurality of current partition feature images in an image digitization step S351 of the present invention.

도 11은 현재 특징 영상이 포함되는 복수 개의 현재 구획 특징 영상 및 구획 특징량-구획 서술자 선도이다. 11 is a diagram of a plurality of current partition feature images and a partition feature variable-compartment descriptor diagram containing a current feature image.

도 12는 새로운 구획 서술자가 부여된 현재 특징 영상을 나타낸다. 12 shows a current feature image to which a new partition descriptor is assigned.

도 13은 새로운 구획 서술자 순으로 재배열된 구획 특징량-구획 서술자 선도가 도시된다. 13 shows the partition feature-block descriptor diagrams rearranged in order of new partition descriptors.

도 14 및 도 15는 본 발명의 일실시예에 따른 특징 정합 단계의 구획 특징량 산출 및 재정렬 단계를 통하여 이루어진 각각의 현재 특징 영상 A,B에 대한 각각의 구획 특징량을 각각의 구획 서술자 순으로 나열된 각각의 선도이다. 14 and 15 illustrate, in order of each partition descriptor, the respective partition feature values for each current feature image A and B, which are generated through the partition feature variable calculation and reordering step of the feature matching step, according to an embodiment of the present invention. Each line listed is.

도 16에는 도 14 및 도 15의 현재 특징 영상 A 및 현재 특징 영상 B에 대한 중첩 표시되는 구획 특징량-구획 서술자 선도이다. FIG. 16 is a partition feature variable-compartment descriptor diagram displayed superimposed on the current feature image A and the current feature image B of FIGS. 14 and 15.

도 17은 구획 정합 판단 단계의 보다 자세한 선도이다. 17 is a more detailed diagram of the partition matching determination step.

도 18 및 도 19는 본 발명의 일실시예에 따른 구획 정합 판단 단계(S39)에 대한 구현예를 나타내는 선도이다. 18 and 19 are diagrams showing an embodiment of the partition matching determination step S39 according to an embodiment of the present invention.

도 20은 본 발명의 고속 회전 불변 정합 방법에 기초하여 실행된 정합 여부 를 나타내는 개략적인 선도이다. 20 is a schematic diagram showing whether registration is performed based on the fast rotational invariant matching method of the present invention.

*도면의 주요부분에 대한 부호의 설명* * Description of the symbols for the main parts of the drawings *

10...천장 영상 기반 이동 로봇 장치 100...영상 입력부10 ... Ceiling-based mobile robot device 100 ... Image input unit

200...엔코더 감지부 300...제어부200 encoder encoder 300 controller

400...저장부 500...연산부400 storage 500 operation

Claims (12)

영상 입력부를 통하여 입력된 현재 영상 정보를 처리하는 영상 입력 처리 단계와, An image input processing step of processing current image information input through the image input unit; 상기 현재 영상 정보에 기초하여 특징을 추출하는 특징 추출 단계와,A feature extraction step of extracting a feature based on the current image information; 추출된 상기 특징과 저장부에 사전 설정되어 저장된 기준 특징 정보를 사용하여 정합 여부를 판단하는 특징 정합 판단 단계를 포함하고, And a feature matching determination step of determining whether to match using the extracted feature and reference feature information preset and stored in the storage unit. 상기 특징 정합 판단 단계에서 상기 특징을 중심으로 특징 영상을 추출하고 구획 분할하여 정합 여부를 판단하는 고속 회전 불변 특징 정합 방법.And in the feature matching determination step, extracting and partitioning a feature image based on the feature to determine whether to match. 제 1항에 있어서, The method of claim 1, 상기 특징 정합 판단 단계는:The feature matching determination step is: 상기 현재 영상 정보로부터 상기 특징을 중심으로 상기 특징에 대한 현재 특징 영상을 추출하는 현재 특징 영상 추출 단계와, Extracting a current feature image of the feature based on the feature from the current image information; 상기 현재 특징 영상을 상기 특징을 중심으로 사전 설정 구획 각도로 분할하여 현재 구획 특징 영상을 형성하는 현재 특징 영상 구획 단계와,A current feature image partitioning step of dividing the current feature image into a preset partition angle around the feature to form a current partition feature image; 상기 현재 구획 특징 영상에 대한 구획 특징량을 산출하는 구획 특징량 산출 단계와, A partition feature variable calculating step of calculating a partition feature variable for the current partition feature image; 상기 구획 특징량을 비교하여 상기 현재 구획 특징 영상을 재정렬하는 재정렬 단계와, Reordering the current partition feature video by comparing the partition feature amounts; 상기 재정렬된 현재 구획 특징 영상 및 상기 기준 특징 정보에 기초하여 정합 여부를 판단하는 구획 정합 판단 단계를 포함하는 것을 특징으로 하는 고속 회전 불변 특징 정합 방법.And a partition matching determination step of determining whether to match based on the rearranged current partition feature image and the reference feature information. 제 2항에 있어서, 3. The method of claim 2, 상기 현재 특징 영상 구획 단계에서, 상기 사전 설정 구획 각도는 22.5도 내지 45도인 것을 특징으로 하는 고속 회전 불변 특징 정합 방법.And in the present feature image segmentation step, the preset segment angle is between 22.5 degrees and 45 degrees. 제 2항에 있어서, 3. The method of claim 2, 상기 구획 특징량 산출 단계는:The partition feature quantity calculating step is: 상기 현재 구획 특징 영상 내 픽셀에 대하여 수치화하여 픽셀 특징량을 산출하는 영상 수치화 단계와,An image digitizing step of calculating pixel feature amounts by digitizing pixels in the current partition feature image; 상기 현재 구획 특징 영상 내 픽셀에 대한 픽셀 특징량을 산출 처리하여 각각의 현재 구획 특징 영상에 대한 구획 특징량을 연산하는 구획 특징량 연산 단계를 구비하는 것을 특징으로 하는 고속 회전 불변 특징 정합 방법.And a partition feature variable calculation step of calculating and processing a pixel feature amount for a pixel in the current partition feature image to calculate a partition feature amount for each current partition feature image. 제 4항에 있어서, The method of claim 4, wherein 상기 영상 수치화 단계는 상기 현재 구획 특징 영상을 그레이스케일화하여 수치화하고, In the image digitizing step, the current partition feature image is digitized by digitizing, 상기 구획 특징량은 각각의 현재 구획 특징 영상에 대한 픽셀 특징량의 평균 값인 것을 특징으로 하는 고속 회전 불변 특징 정합 방법.And said partition feature amount is an average value of pixel feature amounts for each current partition feature image. 제 2항에 있어서, 3. The method of claim 2, 상기 재정렬 단계는:The reordering step is: 상기 현재 구획 특징 영상에 대한 구획 특징량을 비교하여 사전 재정렬 기준에 따라 구획 서술자를 부여하는 구획 서술자 부여 단계와, A partition descriptor assigning step of comparing a partition feature with respect to the current partition feature image and granting a partition descriptor according to a pre-arrangement criterion; 상기 부여된 구획 서술자를 기준으로 상기 현재 구획 특징 영상을 재정렬하는 구획 특징 영상 재정렬 단계를 구비하는 것을 특징으로 하는 고속 회전 불변 특징 정합 방법.And a partition feature image rearranging step of rearranging the current partition feature image based on the assigned partition descriptor. 제 6항에 있어서, The method of claim 6, 상기 사전 재정렬 기준은 상기 구획 특징량 중 최대 구획 특징량을 기준으로 설정하고, The pre-arrangement criterion is set based on the maximum partition feature amount among the partition feature amounts, 상기 최대 구획 특징량을 갖는 현재 구획 특징 영상을 기준으로 반시계 방향으로 구획 서술자를 부여하는 것을 특징으로 하는 고속 회전 불변 특징 정합 방법.And a partition descriptor in a counterclockwise direction based on the current partition feature image having the maximum partition feature amount. 제 2항에 있어서, 3. The method of claim 2, 상기 기준 특징 정보는 각각의 특징에 대한 기준 구획 특징량 및 기준 정합 판단량을 포함하고, The reference feature information includes a reference partition feature amount and a reference matching judgment amount for each feature, 상기 구획 정합 판단 단계는:The partition matching determination step is: 상기 재정렬된 현재 구획 특징 영상의 구획 특징량과 상기 기준 구획 특징량을 비교하여 정합 판단량을 산출하는 정합 판단량 산출 단계와, A matching judgment amount calculating step of calculating a matching judgment amount by comparing the partition feature amount of the rearranged current partition feature image with the reference partition feature amount; 상기 정합 판단량과 상기 기준 정합 판단량을 비교하여 정합 여부를 판단하는 정합 판단 확정 단계를 구비하는 것을 특징으로 하는 고속 회전 불변 특징 정합 방법.And a matching determination determination step of comparing the matching determination amount with the reference matching determination amount to determine whether to match. 제 8항에 있어서,The method of claim 8, 상기 정합 판단량은 상기 재정렬된 현재 구획 특징 영상의 구획 특징량과 상기 기준 구획 특징량의 차이 절대값의 평균값인 것을 특징으로 하는 고속 회전 불변 특징 정합 방법.And the matching determination amount is an average value of an absolute value of the difference between the partition feature amount of the rearranged current partition feature image and the reference partition feature amount. 천장 영상 기반 이동 로봇 장치의 영상 입력부를 통하여 입력된 현재 영상 정보를 처리하는 영상 입력 처리 단계와, An image input processing step of processing current image information input through an image input unit of a ceiling image-based mobile robot device; 상기 현재 영상 정보에 기초하여 특징을 추출하는 특징 추출 단계와,A feature extraction step of extracting a feature based on the current image information; 추출된 상기 특징과 저장부에 사전 설정되어 저장된 기준 특징 정보를 사용하여 정합 여부를 판단하는 특징 정합 판단 단계와, A feature matching determination step of determining whether to match using the extracted feature and reference feature information preset and stored in the storage unit; 상기 특징 정합 판단 단계에서 결정된 정합 여부에 기초하여 상기 천장 영상 기반 이동 로봇 장치의 위치를 인식하는 위치 인식 단계를 포함하고, And a location recognizing step of recognizing the location of the ceiling image-based mobile robot device based on the matching determined in the feature matching determination step. 상기 특징 정합 판단 단계에서 상기 특징을 중심으로 특징 영상을 추출하고 구획 분할하여 정합 여부를 판단하는 천장 영상 기반 이동 로봇 장치 위치 인식 방 법.In the feature matching determination step, a ceiling image-based mobile robot device position recognition method for extracting a feature image based on the feature and partitioning to determine a match. 제 10항에 있어서, The method of claim 10, 상기 특징 정합 판단 단계는:The feature matching determination step is: 상기 현재 영상 정보로부터 상기 특징을 중심으로 상기 특징에 대한 현재 특징 영상을 추출하는 현재 특징 영상 추출 단계와, Extracting a current feature image of the feature based on the feature from the current image information; 상기 현재 특징 영상을 상기 특징을 중심으로 사전 설정 구획 각도로 분할하여 현재 구획 특징 영상을 형성하는 현재 특징 영상 구획 단계와,A current feature image partitioning step of dividing the current feature image into a preset partition angle around the feature to form a current partition feature image; 상기 현재 구획 특징 영상에 대한 구획 특징량을 산출하는 구획 특징량 산출 단계와, A partition feature variable calculating step of calculating a partition feature variable for the current partition feature image; 상기 구획 특징량을 비교하여 상기 현재 구획 특징 영상을 재정렬하는 재정렬 단계와, Reordering the current partition feature video by comparing the partition feature amounts; 상기 재정렬된 현재 구획 특징 영상 및 상기 기준 특징 정보에 기초하여 정합 여부를 판단하는 구획 정합 판단 단계를 포함하는 것을 특징으로 하는 천장 영상 기반 이동 로봇 장치 위치 인식 방법.And a partition matching determination step of determining whether to match based on the rearranged current partition feature image and the reference feature information. 구동부에 의하여 위치 이동을 이루는 천장 영상 기반 이동 로봇 장치에 있어서, In the ceiling image-based mobile robot device for moving the position by the drive unit, 천장의 현재 영상 정보를 취득하는 영상 입력부와,A video input unit for acquiring current image information of the ceiling; 천장의 영상에 대한 기준 특징 정보를 사전 설정 저장하는 저장부와,A storage unit for preset storing reference characteristic information on the image of the ceiling; 상기 천장의 현재 영상 정보로부터 특징을 추출하고 상기 특징과 상기 기준 특징 정보를 비교하여 정합 여부를 판단하되, 상기 특징을 중심으로 특징 영상을 추출하고 구획 분할하여 정합 여부를 판단하는 제어부를 구비하는 것을 특징으로 하는 천장 영상 기반 이동 로봇 장치.And extracting a feature from the current image information of the ceiling and comparing the feature with the reference feature information to determine whether to match. Ceiling image-based mobile robot device characterized by.
KR1020090062292A 2009-07-08 2009-07-08 Fast rotation-invariant feature matching method, mobile robot unit based on the ceiling image/feature map with using the mehod, and method for recognizing the self position of the same unit KR101036028B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090062292A KR101036028B1 (en) 2009-07-08 2009-07-08 Fast rotation-invariant feature matching method, mobile robot unit based on the ceiling image/feature map with using the mehod, and method for recognizing the self position of the same unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090062292A KR101036028B1 (en) 2009-07-08 2009-07-08 Fast rotation-invariant feature matching method, mobile robot unit based on the ceiling image/feature map with using the mehod, and method for recognizing the self position of the same unit

Publications (2)

Publication Number Publication Date
KR20110004719A true KR20110004719A (en) 2011-01-14
KR101036028B1 KR101036028B1 (en) 2011-05-19

Family

ID=43612144

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090062292A KR101036028B1 (en) 2009-07-08 2009-07-08 Fast rotation-invariant feature matching method, mobile robot unit based on the ceiling image/feature map with using the mehod, and method for recognizing the self position of the same unit

Country Status (1)

Country Link
KR (1) KR101036028B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101248308B1 (en) * 2011-01-31 2013-03-27 고려대학교 산학협력단 Method for recognizing the self position of a mobile robot unit using the lamp directionality on the ceiling image/feature map and mobile robot unit using the method
KR101433927B1 (en) * 2013-04-24 2014-08-29 전자부품연구원 Method and hardware for generating descriptor
US9170581B2 (en) 2013-09-30 2015-10-27 Crown Equipment Limited Industrial vehicles with overhead light based localization
US9174830B1 (en) 2014-09-29 2015-11-03 Crown Equipment Limited Industrial vehicles with point fix based localization
KR101615992B1 (en) * 2015-02-24 2016-04-29 한국항공대학교산학협력단 The method and apparatus for the extraction of feature point and tracking of the vehicle under driving environment by utilizing vision sensor

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101311100B1 (en) * 2011-08-27 2013-09-25 고려대학교 산학협력단 Method for recognizing the self position of a mobile robot unit using arbitrary ceiling features on the ceiling image/feature map

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100835906B1 (en) 2007-05-03 2008-06-09 고려대학교 산학협력단 Method for estimating global position of robot and device for estimating global position of robot
KR100926601B1 (en) * 2007-12-31 2009-11-11 고려대학교 산학협력단 Mobile robot unit based on the ceiling image/feature map of the image and the method for recognizing the self position of the same

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101248308B1 (en) * 2011-01-31 2013-03-27 고려대학교 산학협력단 Method for recognizing the self position of a mobile robot unit using the lamp directionality on the ceiling image/feature map and mobile robot unit using the method
KR101433927B1 (en) * 2013-04-24 2014-08-29 전자부품연구원 Method and hardware for generating descriptor
US9170581B2 (en) 2013-09-30 2015-10-27 Crown Equipment Limited Industrial vehicles with overhead light based localization
US9606540B2 (en) 2013-09-30 2017-03-28 Crown Equipment Corporation Industrial vehicles with overhead light based localization
US9174830B1 (en) 2014-09-29 2015-11-03 Crown Equipment Limited Industrial vehicles with point fix based localization
US9340399B2 (en) 2014-09-29 2016-05-17 Crown Equipment Corporation Industrial vehicles with point fix based localization
KR101615992B1 (en) * 2015-02-24 2016-04-29 한국항공대학교산학협력단 The method and apparatus for the extraction of feature point and tracking of the vehicle under driving environment by utilizing vision sensor

Also Published As

Publication number Publication date
KR101036028B1 (en) 2011-05-19

Similar Documents

Publication Publication Date Title
KR101036028B1 (en) Fast rotation-invariant feature matching method, mobile robot unit based on the ceiling image/feature map with using the mehod, and method for recognizing the self position of the same unit
US10366307B2 (en) Coarse-to-fine search method, image processing device and recording medium
US20200016757A1 (en) Robot control apparatus and calibration method
US20180300885A1 (en) Learning image automatic sorting device, learning image automatic sorting method, and learning image automatic sorting program
CN103226823B (en) Based on the Rapid Image Registration method of logarithm difference point set template
CN106296587B (en) Splicing method of tire mold images
CN101957918B (en) Method for recognizing pattern, pattern recognizer and computer program
US20120106784A1 (en) Apparatus and method for tracking object in image processing system
CN111823237B (en) Multi-robot positioning method and system based on RGB LED dynamic beacon
CN111160362A (en) FAST feature homogenization extraction and IMU-based inter-frame feature mismatching removal method
US10740590B2 (en) Skin information processing method, skin information processing device, and non-transitory computer-readable medium
JP5772675B2 (en) Gray image edge extraction method, edge extraction device, and gray image edge extraction program
US20030091238A1 (en) Detection of a pattern in a digital image
CN112334945B (en) Method for determining image points corresponding to one another, soC for carrying out the method, camera system having SoC, control device and vehicle
KR101562153B1 (en) Drawing device and computer readable recording medium
US20170178351A1 (en) Method for determining missing values in a depth map, corresponding device, computer program product and non-transitory computer-readable carrier medium
CN110880003A (en) Image matching method and device, storage medium and automobile
CN113837998B (en) Method and device for automatically adjusting and aligning pictures based on deep learning
CN112571409B (en) Robot control method based on visual SLAM, robot and medium
CN112150398B (en) Image synthesis method, device and equipment
CN111091565B (en) Self-adaptive motion characteristic matching and recognition bow net contact point detection method
JP6173715B2 (en) Character recognition device, character recognition method and program
CN108345893B (en) Straight line detection method and device, computer storage medium and terminal
EP3644226A1 (en) Article recognition apparatus
CN111723751A (en) Guideboard detection method and device based on perspective distortion correction

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140304

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170328

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190411

Year of fee payment: 9