KR101146128B1 - Navigatioin method and apparatus using sector based image matching - Google Patents

Navigatioin method and apparatus using sector based image matching Download PDF

Info

Publication number
KR101146128B1
KR101146128B1 KR1020090129344A KR20090129344A KR101146128B1 KR 101146128 B1 KR101146128 B1 KR 101146128B1 KR 1020090129344 A KR1020090129344 A KR 1020090129344A KR 20090129344 A KR20090129344 A KR 20090129344A KR 101146128 B1 KR101146128 B1 KR 101146128B1
Authority
KR
South Korea
Prior art keywords
zones
position value
landmark
image
point
Prior art date
Application number
KR1020090129344A
Other languages
Korean (ko)
Other versions
KR20110072430A (en
Inventor
김대은
이지원
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020090129344A priority Critical patent/KR101146128B1/en
Publication of KR20110072430A publication Critical patent/KR20110072430A/en
Application granted granted Critical
Publication of KR101146128B1 publication Critical patent/KR101146128B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion

Abstract

기준 지점에서 랜드마크를 촬영하여 촬영된 이미지를 제1 복수의 구역으로 분할하고, 각각의 제1 복수의 구역에 대하여 랜드마크의 기준 위치값을 계산하는 단계와, 현재 지점에서 랜드마크를 촬영하여 촬영된 이미지를 제2 복수의 구역으로 분할하는 단계와, 현재 지점에서 복수의 임의 지점으로 이동하는 경우에 제2 복수의 구역에서의 변화될 이미지를 복수의 임의 지점별로 예측하는 단계와, 복수의 임의 지점 각각에 대하여 예측된 이미지에 따라, 랜드마크의 예상 위치값을 복수의 임의 지점과 제2 복수의 구역의 각각에 대하여 계산하는 단계와, 예상 위치값을 기준 위치값과 비교하여 복수의 임의 지점 중 기준 위치값과의 매칭율이 가장 높은 예상 위치값을 갖는 임의 지점을 이동 지점으로 결정하는 단계를 포함하는 내비게이션 방법 및 장치를 제공한다.Photographing a landmark at a reference point, dividing the photographed image into a first plurality of zones, calculating a reference position value of the landmark for each of the first plurality of zones, and photographing the landmark at the current point Dividing the captured image into a second plurality of zones, predicting an image to be changed in the second plurality of zones by a plurality of arbitrary points when moving from a current point to a plurality of random points, and Calculating an estimated position value of the landmark for each of the plurality of arbitrary points and the second plurality of zones, and comparing the estimated position value with the reference position value according to the image predicted for each arbitrary point. A navigation method and apparatus comprising the step of determining an arbitrary point having an expected position value having the highest matching rate with a reference position value as a moving point, The ball.

내비게이션, 이미지 분할, 이미지 매칭, 로봇 Navigation, Image Segmentation, Image Matching, Robots

Description

분할 기반 이미지 매칭을 이용한 내비게이션 방법 및 장치{NAVIGATIOIN METHOD AND APPARATUS USING SECTOR BASED IMAGE MATCHING}Navigation method and apparatus using segmentation based image matching {NAVIGATIOIN METHOD AND APPARATUS USING SECTOR BASED IMAGE MATCHING}

본 발명은 이미지 분할 기반의 이미지 매칭에 의한 내비게이션 장치 및 방법에 관한 것이다.The present invention relates to a navigation apparatus and method by image matching based on image segmentation.

최근 로봇 청소기 등과 같이 많은 로봇 관련 기술이 활발히 연구되고 있다. 이러한 로봇 중에서 이동가능한 로봇의 경우, 목표로 하는 지점에 귀환하기 위하여 여러 가지 내비게이션 방법이 사용되고 있다.Recently, many robot-related technologies such as robot cleaners have been actively studied. In the case of a robot which is movable among these robots, various navigation methods are used to return to a target point.

자연에서 꿀벌과 같은 곤충과 기타 다른 동물들은 자신의 집으로 귀환하기 위하여 고유의 홈 내비게이션이 있는 것으로 알려져 있다. 그 중에서 집 주변의 자연물 혹은 지형지물을 시각 정보로 인지하여 사용하는 랜드마크(landmark) 내비게이션 방법은 꿀벌, 사막 개미 등 많은 다양한 곤충들이 사용하는 것으로 알려져 있으며, 비교적 적은 양의 정보만으로도 효과적인 성능을 보인다는 것이 많은 연구들을 통해 입증되었다.In nature, insects such as bees and other animals are known to have their own home navigation to return to their homes. Among them, the landmark navigation method, which recognizes and uses natural objects or features around the house as visual information, is known to be used by many insects such as bees and desert ants, and it shows effective performance with a relatively small amount of information. Many studies have demonstrated this.

이러한 곤충의 랜드마크 내비게이션 시스템이 어떠한 알고리즘으로 이루어지는가에 대하여 다양한 모델들이 제안되어 왔는데, Cartwright가 제안한 스냅 샷(snapshot) 모델이 대표적이다. 이 모델은 출발 시에 집에서 찍은 이미지를 기억한 다음 귀환 시에 현재 위치에서의 이미지와 비교하여 매칭율이 가장 높은 방향을 택한다는 것이다. Franz는 이 모델을 기반으로 이미지 매칭 알고리즘을 제안하고, 이를 로봇에 응용하여 시작점으로 귀환이 가능함을 보였다. 또한, Anderson의 분할 구획(sector) 개념을 도입한 이미지 매칭 방법을 사용하여 낮은 해상도의 환경에서도 효과적인 홈 내비게이션이 가능하다.Various models have been proposed regarding the algorithm of the insect landmark navigation system, and the snapshot model proposed by Cartwright is representative. The model remembers the image taken at home at departure and then compares with the image at the current location at the time of return and takes the highest matching rate. Franz proposed an image matching algorithm based on this model, and showed that it can be returned to the starting point by applying it to a robot. In addition, the image matching method using Anderson's concept of segmentation enables effective home navigation even in low resolution environments.

그러나, 이러한 방법들을 이동 로봇 등에 적용하는 경우 로봇의 현재 위치 파악을 위한 복잡한 계산과정을 거쳐야 하기 때문에 실용적이지 않으며 정확성이 떨어지는 문제점이 있다.However, when these methods are applied to a mobile robot, it is not practical and has a problem of inaccuracy because it requires a complicated calculation process for determining the current position of the robot.

본 발명의 실시예는 상술한 문제점을 해결하기 위하여 안출된 것으로, 이동 로봇 등에 적용할 수 있는 간단한 계산 과정을 통해 신속하고 정확하게 내비게이션을 할 수 있는 분할 기반 이미지 매칭을 이용한 내비게이션 방법 및 장치를 제공하는 것을 목적으로 한다.Embodiments of the present invention have been made to solve the above-described problems, and provides a navigation method and apparatus using segmentation-based image matching that can be quickly and accurately navigated through a simple calculation process that can be applied to a mobile robot, etc. For the purpose of

본 발명의 일 양태에 따르면, 기준 지점에서 랜드마크를 촬영하여 촬영된 이미지를 제1 복수의 구역으로 분할하고, 각각의 제1 복수의 구역에 대하여 랜드마크의 기준 위치값을 계산하는 단계와, 현재 지점에서 랜드마크를 촬영하여 촬영된 이미지를 제2 복수의 구역으로 분할하는 단계와, 현재 지점에서 복수의 임의 지점으로 이동하는 경우에 제2 복수의 구역에서의 변화될 이미지를 복수의 임의 지점별로 예측하는 단계와, 복수의 임의 지점 각각에 대하여 예측된 이미지에 따라, 랜드마크의 예상 위치값을 복수의 임의 지점에 대하여 그리고 제2 복수의 구역의 각각에 대하여 계산하는 단계와, 예상 위치값을 기준 위치값과 비교하여 복수의 임의 지점 중 기준 위치값과의 매칭율이 가장 높은 예상 위치값을 갖는 임의 지점을 이동 지점으로 결정하는 단계를 포함하는 내비게이션 방법을 제공한다.According to an aspect of the present invention, the method includes: dividing an image photographed by photographing a landmark at a reference point into a first plurality of zones, and calculating reference position values of the landmarks for each of the first plurality of zones; Dividing the photographed image by taking a landmark at the current point into a second plurality of zones, and a plurality of random points of an image to be changed in the second plurality of zones when moving from the current point to a plurality of random points Predicting each position, calculating an estimated position value of the landmark for each of the plurality of arbitrary points and for each of the second plurality of zones according to the image predicted for each of the plurality of arbitrary points, and the estimated position value. Is compared with the reference position value to determine an arbitrary point having an expected position value having the highest matching rate with the reference position value among the plurality of arbitrary points as the movement point. It provides a navigation method comprising the system.

일 실시예에서, 기준 위치값 및 예상 위치값은, 각각 제1 및 제2 복수의 구 역 중 해당 구역에서 랜드마크가 존재하는지 여부 및 랜드마크까지의 평균 거리로부터 계산될 수 있다.In one embodiment, the reference position value and the expected position value may be calculated from whether a landmark exists in the corresponding area among the first and second plurality of zones and the average distance to the landmark, respectively.

한편, 일 실시예에서, 각각의 제1 복수의 구역은 각각의 제2 복수의 구역에 대응할 수 있다.Meanwhile, in one embodiment, each first plurality of zones may correspond to each second plurality of zones.

또한, 예상 위치값을 복수의 임의 지점에 대하여 계산하는 단계는, 복수의 임의 지점에 각각에 대하여, 제2 복수의 구역에서 랜드마크의 예상 위치값을 계산할 수 있다.The calculating of the predicted position value for the plurality of arbitrary points may include calculating the predicted position value of the landmark in the second plurality of zones for each of the plurality of arbitrary points.

그리고, 기준 위치값을 계산하는 단계 및 제2 복수의 구역으로 분할하는 단계에서 촬영된 이미지는 전방향 카메라로 촬영될 수 있다.The image photographed in the calculating of the reference position value and the dividing into the second plurality of zones may be photographed by the omnidirectional camera.

본 발명의 다른 양태에 따르면, 주변의 영상을 일시에 촬영가능한 전방향 카메라와 전방향 카메라에서 촬영된 이미지를 처리하여 이동 방향을 결정하는 제어부를 포함하며, 제어부는, 기준 지점에서 전방향 카메라로 랜드마크를 촬영하여 촬영된 이미지를 제1 복수의 구역으로 분할하고, 랜드마크의 기준 위치값을 계산하고, 현재 지점에서 전방향 카메라로 랜드마크를 촬영하여 촬영된 이미지를 제2 복수의 구역으로 분할하고, 현재 지점에서 복수의 임의 지점으로 이동하는 경우의 제2 복수의 구역에서의 변화될 이미지를 복수의 임의 지점별로 예측하고, 복수의 임의 지 점 각각에 대하여 예측된 이미지에 따라, 랜드마크의 예상 위치값을 복수의 임의 지점과 제2 복수의 구역 각각에 대하여 계산하고, 복수의 임의 지점 각각에 대하여 예측된 이미지에 따라, 랜드마크의 예상 위치값을 복수의 임의 지점에 대하여 계산하고, 복수의 예상 위치값을 기준 위치값과 비교하여 복수의 임의 지점 중 기준 위치값과의 매칭율이 가장 높은 예상 위치값을 갖는 임의 지점을 이동 지점으로 결정하는 내비게이션 장치를 제공한다.According to another aspect of the present invention, there is provided a omnidirectional camera capable of capturing a surrounding image at a time and a controller for processing an image captured by the omnidirectional camera to determine a moving direction, wherein the controller is configured as a omnidirectional camera at a reference point. Taking a landmark and dividing the captured image into a first plurality of zones, calculating a reference position value of the landmark, taking a landmark with the omnidirectional camera at the current point, and taking the captured image into the second plurality of zones. Segmenting, predicting an image to be changed in the second plurality of zones when moving from a current point to a plurality of arbitrary points by a plurality of arbitrary points, and landmarks according to the predicted image for each of the plurality of arbitrary points Calculate the predicted position of for each of the plurality of random points and the second plurality of zones, and apply the predicted image to each of the plurality of random points. Accordingly, the predicted position value of the landmark is calculated for a plurality of arbitrary points, and the plurality of predicted position values are compared with the reference position value to have an expected position value having the highest matching rate with the reference position value among the plurality of arbitrary points. Provided is a navigation device for determining an arbitrary point as a moving point.

본 발명의 일 실시예에 따르면, 분할 기반 이미지 매칭을 통해 현재 지점으로부터 기준 지점으로 신속하고 정확하게 이동할 수 있는 효과가 있다.According to one embodiment of the present invention, the segmentation-based image matching has the effect of moving quickly and accurately from the current point to the reference point.

본 발명의 일 실시예에 따른 분할 기반 이미지 매칭을 이용한 내비게이션 방법을 첨부된 도면을 참조하여 상세히 설명한다.A navigation method using segmentation-based image matching according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 분할 기반 이미지 매칭을 이용한 내비게이션 방법에 대한 플로우 차트를 도시한다. 도 1에 도시된 바와 같이, 분할기반 이미지 매칭을 이용한 내비게이션 방법은, 기준 지점에서 랜드마크를 촬영하여 촬영된 이미지를 제1 복수의 구역으로 분할하고, 각각의 제1 복수의 구역에 대하여 랜드마크의 기준 위치값을 계산하는 단계(S110)와, 현재 지점에서 랜드마크를 촬영 하여 촬영된 이미지를 제2 복수의 구역으로 분할하는 단계(S120)와, 현재 지점에서 복수의 임의 지점으로 이동하는 경우의 제2 복수의 구역에서의 변화될 이미지를 복수의 임의 지점별로 예측하는 단계(S130)와, 복수의 임의 지점 각각에 대하여 예측된 이미지에 따라, 랜드마크의 예상 위치값을 복수의 임의 지점의 각각과 제2 복수의 지점의 각각에 대하여 계산하는 단계(S140)와, 복수의 예상 위치값을 기준 위치값과 비교하는 단계(S150)와, 비교하는 단계에서의 비교 결과에 따라 이동 지점을 결정하는 단계(S160)를 포함한다. 이러한 과정을 통하여, 기준 지점에서 벗어나 있는 이동 로봇 등과 같은 장치가 기준 지점으로 귀환할 수 있다.1 is a flowchart illustrating a navigation method using segmentation-based image matching according to an embodiment of the present invention. As illustrated in FIG. 1, the navigation method using segmentation-based image matching divides a photographed image by photographing a landmark at a reference point into a first plurality of zones, and landmarks for each of the first plurality of zones. Computing a reference position value of the step (S110), the step of taking a landmark from the current point and dividing the captured image into a second plurality of zones (S120), and when moving to a plurality of random points from the current point Predicting an image to be changed in the second plurality of zones of each of the plurality of arbitrary points (S130), and predicting a position value of the landmark according to the predicted image for each of the plurality of arbitrary points of the plurality of arbitrary points. According to the comparison result in the step (S140) for calculating each of the plurality of points and each of the second plurality of points, the step of comparing the plurality of expected position values with the reference position value (S150), and the comparing step And a step (S160) for determining a moving point. Through this process, a device such as a mobile robot, which is out of the reference point, may return to the reference point.

이러한 과정들을 상세히 설명하면 다음과 같다. 한편, 본 발명의 실시예들은 이동 로봇 이외에도 이동 가능한 장치에는 모두 적용될 수 있다는 것은 자명하지만, 설명의 편의를 위하여 이동 로봇에 적용된 것을 예를 들어 설명한다.These processes are described in detail as follows. On the other hand, it is apparent that the embodiments of the present invention can be applied to all of the movable devices in addition to the mobile robot, but for the convenience of description, it will be described with an example applied to the mobile robot.

먼저, 단계 S110에서, 이동 로봇은 탑재된 카메라를 이용하여 기준 지점에서 랜드마크를 촬영한다. 카메라는 바람직하게는 전방향 카메라이다. 전방향 카메라는 이동 로봇 주위의 환경을 모두 한번에 촬영할 수 있는 기기이다. 랜드마크는 이동 로봇이 있는 환경에 설치되어 있는 마크이며, 본 발명의 기술 분야에서 통상적으로 사용되는 랜드마크가 사용될 수 있다. 또한 이 대신에, 이동 로봇의 주변 환경에 존재하는 여러 물체 중에서 랜드마크로 지정된 물체일 수 있다. 랜드마크를 촬영하여 이미지가 획득되면, 획득된 이미지를 제1 복수의 구역으로 분할하고, 제1 복수의 구역으로 분할된 각각의 이미지를 이용하여, 각각의 제1 복수의 구역에 대하여 랜드마크에 대한 기준 위치값을 계산한다. 그러므로, 단계 S110에서는 제1 복수의 구역의 개수에 해당하는 개수의 기준 위치값을 갖는 1세트의 기준 위치값이 계산된다.First, in step S110, the mobile robot photographs a landmark at a reference point using a mounted camera. The camera is preferably an omnidirectional camera. The omnidirectional camera is a device that can capture the environment around the mobile robot all at once. The landmark is a mark installed in an environment in which a mobile robot is located, and a landmark commonly used in the technical field of the present invention may be used. Also instead of this, it may be an object designated as a landmark among various objects existing in the surrounding environment of the mobile robot. When the image is acquired by photographing the landmark, the acquired image is divided into a first plurality of zones, and each image divided into the first plurality of zones is used to map the landmark to each of the first plurality of zones. Calculate the reference position value for. Therefore, in step S110, one set of reference position values having a number of reference position values corresponding to the number of the first plurality of zones is calculated.

랜드마크의 기준 위치값은 해당 구역에서 랜드마크가 존재하는지 여부(occupancy) 및 이동 로봇과 랜드마크 사이의 평균 거리(average distance distance)를 수치화하여 계산될 수 있다. 그러나, 이는 하나의 예로써 본 발명은 이에 한정되지 않으며, 각 구역에서의 랜드마크의 위치를 나타낼 수 있는 수치라면 어느 것이라도 이용될 수 있다.The reference position value of the landmark may be calculated by digitizing whether or not the landmark exists in the region and the average distance distance between the mobile robot and the landmark. However, this is only one example, and the present invention is not limited thereto, and any value may be used as long as it can indicate the position of the landmark in each zone.

이와 같이, 단계 S110을 통하여 기준 지점에서의 기준 위치값(기준 위치값 세트)이 계산되어 저장될 수 있다.In this way, the reference position value (reference position value set) at the reference point may be calculated and stored in step S110.

다음으로, 단계 S120에서, 이동 로봇이 위치하고 있는 현재 지점에서 랜드마크를 촬영한다. 현재 지점에서의 랜드마크도 단계 S110에서와 마찬가지로 전방향 카메라에 의해 촬영되며, 상기 단계 S110에서 사용된 카메라와 동일한 카메라로 촬영되는 것이 바람직하다. 랜드마크를 촬영하여 이미지가 획득되면, 단계 S110에서와 마찬가지로 획득된 이미지를 제2 복수의 구역으로 분할한다. 제2 복수의 구역은 각각은 단계 S110에서의 분할된 제1 복수의 구역에 각각 대응되며, 촬영된 이미 지에서 동일한 영역에 대응될 수 있다. 단계 S110 및 S120에서 분할된 제1 복수의 구역 및 제2 복수의 구역의 개수는 임의의 수가 될 수 있으나, 처리 속도를 높이기 위하여 분할된 구역의 개수는 적은 것이 바람직하다.Next, in step S120, the landmark is photographed at the current point where the mobile robot is located. The landmark at the current point is also taken by the omnidirectional camera as in step S110, and preferably by the same camera as the camera used in step S110. When the image is acquired by photographing the landmark, the acquired image is divided into a second plurality of zones as in step S110. The second plurality of zones may respectively correspond to the divided first plurality of zones in step S110, and may correspond to the same area in the captured image. The number of the first plurality of zones and the second plurality of zones divided in steps S110 and S120 may be any number, but the number of the divided zones is preferably small to increase the processing speed.

현재 지점에서 촬영된 이미지가 복수의 구역으로 분할된 후에는, 단계 S130에서 현재 지점에서 복수의 임의 지점으로 이동하는 경우의 제2 복수의 구역에서의 변화되는 이미지가 예측된다. 이동 로봇이 있는 현재 위치에서 여러 위치(복수의 임의 지점)로 이동하는 경우를 가정하여 각 임의 지점에 대한 제2 복수의 구역에서의 이미지 변화를 예측한다. 예를 들어, 현재 지점에서 임의 지점으로 이동한다고 가정하면, 이동 방향 및 거리에 따라 이미지에서 각 화소의 시야각 및 거리의 변동을 제2 복수의 구역별로 예측할 수 있다. 이러한 과정을 각 임의 지점에 대하여 반복하며, 이에 의해 단계 S130에서 임의 지점 각각에 대한 변화되는 이미지가 예측될 수 있다.After the image photographed at the current point is divided into a plurality of zones, a changing image in the second plurality of zones when moving from the current point to a plurality of arbitrary points is predicted in step S130. Assuming a case where the mobile robot moves from the current position to several positions (multiple arbitrary points), the image change in the second plurality of zones for each arbitrary point is predicted. For example, if it is assumed that the current point moves from an arbitrary point, a change in the viewing angle and the distance of each pixel in the image may be predicted for each of the second plurality of zones according to the moving direction and distance. This process is repeated for each arbitrary point, whereby a changing image for each random point can be predicted in step S130.

임의 지점 각각에 대한 이미지 변화가 예측되면, 단계 S140에서, 복수의 임의 지점 각각에 대하여 예측된 이미지에 따라, 랜드마크의 예상 위치값을 복수의 임의 지점의 각각과 제2 복수의 지점의 각각에 대하여 계산한다. 이러한 과정을 통하여 각 임의 지점에 대하여 제2 복수의 구역에 대응하는 예상 위치값이 구해진다. 즉, 각각의 임의 지점은 1세트의 예상 위치값(제2 복수의 구역의 개수만큼의 개수를 갖는)을 가지게 되어, 결과적으로 임의 지점의 개수에 해당하는 세트 수의 예상 위치값이 구해진다. 예상 위치값도 단계 S110에서 계산된 기준 위치값과 동일한 방법으로 계산된다. 즉, 랜드마크의 예상 위치값은 예측된 이미지의 해당 구역에서 랜드마크가 존재할 것인지 여부 및 이동 로봇과 랜드마크 사이의 평균 거리를 수치화하여 계산될 수 있다. 이와 같이, 단계 S140에서 복수의 임의 지점에 각각 대응하는 복수의 예상 위치값을 계산할 수 있다.If the image change for each of the arbitrary points is predicted, in step S140, according to the image predicted for each of the plurality of arbitrary points, the estimated position values of the landmarks are respectively applied to each of the plurality of arbitrary points and to each of the second plurality of points. Calculate Through this process, an estimated position value corresponding to the second plurality of zones is obtained for each arbitrary point. That is, each arbitrary point has one set of estimated position values (having as many as the number of the second plurality of zones), and as a result, an estimated position value of the set number corresponding to the number of arbitrary points is obtained. The expected position value is also calculated in the same manner as the reference position value calculated in step S110. That is, the estimated position value of the landmark may be calculated by digitizing whether or not the landmark exists in the corresponding region of the predicted image and the average distance between the mobile robot and the landmark. In this way, a plurality of estimated position values corresponding to a plurality of arbitrary points may be calculated in step S140.

예상 위치값이 구해지면, 단계 S150에서, 복수의 예상 위치값을 기준 위치값과 비교한다. 단계 S160에서 비교 결과에 따라 복수의 임의 지점 중에서 최적의 예상 위치값을 갖는 임의 지점을 정할 수 있다. 즉, 단계 S150 및 S160에서 기준 위치값 세트를 각각의 임의 지점에 대한 예상 위치값 세트와 비교하고 매칭이 가장 잘 되는 예상 위치값 세트를 갖는 임의 지점을 선택한다. 이 임의 지점이 현재 지점에서 기준 지점을 향하는 최적의 경로가 되어, 정해진 임의 지점으로 이동하고 다시 단계 S120 내지 S160을 수행함으로써 기준 지점으로의 내비게이션을 효율적으로 할 수 있다.When the estimated position value is obtained, in step S150, the plurality of estimated position values are compared with the reference position values. In operation S160, an arbitrary point having an optimal estimated position value may be determined among the plurality of arbitrary points according to the comparison result. That is, in steps S150 and S160, the reference position value set is compared with the expected position value set for each arbitrary point, and an arbitrary point having the best predicted position value set is selected. This arbitrary point becomes the optimal path from the current point toward the reference point, and navigation to the reference point can be efficiently performed by moving to the predetermined random point and performing steps S120 to S160 again.

이와 같은 과정을 통하여, 분할 기반 이미지 매칭을 통해 주변 환경을 몇 개의 분할된 구획들의 조합으로 인지하고, 이동 로봇은 현재 위치의 이미지에 대하여 각 구획 별로 랜드마크의 존재 여부를 파악하고, 이동 로봇과 랜드마크간 평균 거리를 결정하여, 이 두 가지 요소로써 기준 지점의 이미지와의 매칭율을 판단하며, 매칭율이 가장 높은 위치로 이동하게 된다.Through this process, the surrounding environment is recognized as a combination of several partitions through segmentation-based image matching, and the mobile robot determines whether a landmark exists for each partition with respect to the image of the current location. By determining the average distance between landmarks, the two factors determine the matching rate with the image of the reference point, and moves to the position with the highest matching rate.

다음으로, 도 2를 참조하여, 본 발명의 다른 실시예를 설명한다. 도 2는 본 발명의 일 실시예에 따른 분할 기반 이미지 매칭을 이용한 내비게이션 장치(200)를 도시한다. 내비게이션 장치는, 주변의 영상을 일시에 촬영가능한 전방향 카메라(210)와 및 전방향 카메라에서 촬영된 이미지를 처리하여 이동 방향을 결정하는 제어부(220)를 포함한다. 제어부(220)는, 기준 지점에서 전방향 카메라(210)로 랜드마크(300)를 촬영하여 촬영된 이미지를 제1 복수의 구역으로 분할하고, 각각의 제1 복수의 구역에 대하여 랜드마크(300)에 대한 기준 위치값을 계산하고, 현재 지점에서 전방향 카메라(210)로 랜드마크(300)를 촬영하여 촬영된 이미지를 제2 복수의 구역으로 분할하고, 현재 지점에서 복수의 임의 지점으로 이동하는 경우의 제2 복수의 구역에서의 변화되는 이미지를 제2 복수의 구역별로 예측하고, 복수의 임의 지점과 제2 복수의 구역에 대하여 예측된 이미지에 따라, 랜드마크(300)에 대한 예상 위치값을 복수의 임의 지점에 대하여 계산하고, 복수의 상기 예상 위치값을 기준 위치값과 비교하여 복수의 임의 지점 중 기준 위치값과의 매칭율이 가장 높은 예상 위치값을 갖는 임의 지점을 이동 지점으로 결정한다.Next, another embodiment of the present invention will be described with reference to FIG. 2 illustrates a navigation apparatus 200 using segmentation based image matching according to an embodiment of the present invention. The navigation device includes an omnidirectional camera 210 capable of capturing a surrounding image at a time, and a controller 220 for processing an image photographed by the omnidirectional camera to determine a moving direction. The controller 220 divides the photographed image by photographing the landmark 300 with the omni-directional camera 210 at a reference point into a first plurality of zones, and landmarks 300 for each of the first plurality of zones. Calculate a reference position value for), split the captured image into a second plurality of zones by shooting the landmark 300 with the omnidirectional camera 210 at the current point, and move to a plurality of random points at the current point. Predict the changed image in the second plurality of zones for each second plurality of zones, and predict the position of the landmark 300 according to the predicted image for the plurality of arbitrary points and the second plurality of zones. A value is calculated for a plurality of arbitrary points, and a plurality of the predicted position values are compared with a reference position value, and any point having an expected position value having the highest matching rate with the reference position value among the plurality of arbitrary points is used as the movement point. texture The.

제어부(220)는 도 1을 참조하여 전술한 내비게이션 방법을 수행하는 구성으로 그 동작에 대한 상세한 설명은 전술한 내비게이션 방법과 동일하므로 이에 대한 상세한 설명은 생략한다. 제어부(220)는 여러 기능들을 각각 수행하는 여러 구성을 포함하여 이루어질 수 있다.The controller 220 is configured to perform the above-described navigation method with reference to FIG. 1, and a detailed description thereof is the same as the above-described navigation method, and thus a detailed description thereof will be omitted. The controller 220 may include various components that perform various functions, respectively.

다음으로, 도 3a 및 3b를 참조하여 본 발명의 일 실시예에 따른 알고리즘이 적용되었을 때의 선택된 방향 벡터 및 종래 기술에 따른 알고리즘이 적용되었을 때의 선택된 방향 벡터를 설명한다.Next, the selected direction vector when the algorithm according to an embodiment of the present invention is applied and the selected direction vector when the algorithm according to the prior art are applied will be described with reference to FIGS. 3A and 3B.

도 3a는 종래 기술에 따른 이미지 매칭 알고리즘을 이용한 내비게이션 방법에서 기준 위치로 귀환하기 위하여 선택된 방향 벡터를 나타내며, 도 3b는 본 발명의 일 실시예에 따른 내비게이션 방법, 즉 분할 기반 이미지 매칭을 이용한 내비게이션 방법에서 기준 위치로 귀환하기 위하여 선택된 방향 벡터를 나타낸다. 도 3a 및 3b은 이동 로봇이 존재하는 환경에 대한 평면을 나타내며, 중앙의 네모 형상은 기준 지점을 나타내고, 원 형상은 랜드마크의 위치를 나타낸다. 도 3a와 같이 종래 기술에 따른 이미지 매칭 알고리즘을 선택한 경우, 내적값을 최대로 하기 위한 방향을 선택하기 때문에 특정 랜드마크에 접근하였을 때 기준 지점 방향이 아닌 랜드마크 쪽으로 더 가까이 가고자 하는 경향이 나타나 내비게이션 성능이 떨어지며, 이에 따라 특이 이동 로봇이 랜드마크로 둘러싸인 영역의 외부에 있는 경우에 랜드마크로 둘러싸인 영역의 경계 부근에서는 외부 영역으로부터 내부 영역으로의 진입이 어렵다.3A illustrates a direction vector selected to return to a reference position in a navigation method using an image matching algorithm according to the prior art, and FIG. 3B illustrates a navigation method according to an embodiment of the present invention, that is, a navigation method using segmentation based image matching. Represents the direction vector selected to return to the reference position in. 3A and 3B show a plane for the environment in which the mobile robot is present, the square in the center represents the reference point, and the circle represents the location of the landmark. When the image matching algorithm according to the prior art is selected as shown in FIG. 3A, since a direction for maximizing the inner product is selected, a tendency to move closer toward the landmark rather than the reference point direction appears when a particular landmark is approached. The performance is poor, and therefore, when the singular mobile robot is outside the area surrounded by the landmark, it is difficult to enter the outside area from the outside area near the boundary of the area surrounded by the landmark.

이에 비하여, 본 발명의 일 실시예에 따른 이미지 분할 기반 매칭을 이용한 경우에는 방향 벡터들이 모든 영역에서 더욱 정확하게 기준 지점을 가리키고 있는 것을 볼 수 있다. 한편, 도 3b은 각 이미지가 4개의 구획으로 분할된 경우에 선택된 방향벡터를 나타내는 예를 도시한다. 따라서, 본 발명의 일 실시예에 따른 이미지 분할 기반 매칭을 이용한 내비게이션 방법에 따르면, 종래 기술에 따른 이미지 매칭 알고리즘을 사용하는 경우보다 더욱 빠른 처리를 통하여 더욱 정확한 내비게이션이 제공되는 효과가 있다.In contrast, in the case of using image segmentation-based matching according to an embodiment of the present invention, it can be seen that the direction vectors more accurately point to the reference point in all regions. 3B shows an example of the selected direction vector when each image is divided into four sections. Therefore, according to the navigation method using the image segmentation-based matching according to an embodiment of the present invention, there is an effect that more accurate navigation is provided through faster processing than when using the image matching algorithm according to the prior art.

다음으로, 도 4 및 5를 이용하여 구획의 개수에 따른 성능을 비교한다. 도 4는 본 발명의 일 실시예에 따른 내비게이션 장치의 기준 방향이 0도일 때 구획의 개수(N)에 따른 주변 환경의 분할을 예시한다. 도 4에서 랜드마크는 5개의 원통형 랜드마크가 둘러싸고 있는 예를 도시한다.Next, the performance according to the number of compartments is compared using FIGS. 4 and 5. 4 illustrates the division of the surrounding environment according to the number N of compartments when the reference direction of the navigation device according to one embodiment of the present invention is 0 degrees. In FIG. 4, the landmark shows an example in which five cylindrical landmarks are surrounded.

도 5는 구획 개수에 따른 각도 오차(기준 지점과의 각도 차이)를 기준 지점으로부터의 거리에 따라 도시한 그래프이다. 도 5에서 알 수 있는 바와 같이, N이 3에서 4까지 늘어날수록 기준 지점을 가리키는 방향이 좀 더 정확해지는 경향이 있다. 그러나, 전체적으로는 N이 증가하더라도 성능의 변화에서 큰 차이를 보이지 않는다. N이 3일 경우에도 전 영역에 걸쳐 대부분의 오차율이 90도 이하를 보이기 때문에 구획을 3개로 사용하더라도 연결된 벡터들의 경로를 따라 기준 지점으로 귀환을 할 수 있다.5 is a graph showing an angle error (angle difference from a reference point) according to the number of partitions according to the distance from the reference point. As can be seen in Figure 5, as N increases from 3 to 4, the direction of the reference point tends to be more accurate. However, overall, even if N increases, there is no big difference in the change in performance. Even if N is 3, most of the error rate is 90 degrees or less over the entire region, so even if three partitions are used, it is possible to return to the reference point along the path of the connected vectors.

그러나, N이 일정한 수 이상으로 증가하게 되면, 즉, 해상도가 높아지게 되 면, 픽셀 기반의 종래 기술에 따른 이미지 매칭과 유사하게 되어 그에 따라 전술한 바와 같은 문제점을 가지게 되므로, 구획의 수 N은 이에 따라 적절히 선택될 수 있다.However, if N is increased by more than a certain number, that is, the resolution is increased, it becomes similar to the pixel-based image matching according to the prior art, and thus has the problems described above. Can be selected accordingly.

이상, 본 발명이 전술한 실시예에 대하여 설명되었지만, 본 발명의 기술적 범위를 벗어나지 않으면서 다양하게 수정, 변경 또는 변형될 수 있다는 것이 본 발명의 기술분야에 통상의 지식을 가진 자에게 자명할 것이다. 그러나, 그와 같은 수정, 변경 또는 변형된 것도 본 발명의 범위에 포함된다는 것이 자명하다.Although the present invention has been described above with respect to the embodiments described above, it will be apparent to those skilled in the art that various modifications, changes or variations can be made without departing from the technical scope of the present invention. . However, it is apparent that such modifications, changes or variations are included in the scope of the present invention.

도 1은 본 발명의 일 실시예에 따른 분할 기반 이미지 매칭을 이용한 내비게이션 방법에 대한 플로우 차트를 도시한다.1 is a flowchart illustrating a navigation method using segmentation-based image matching according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 분할 기반 이미지 매칭을 이용한 내비게이션 장치를 도시한다.2 illustrates a navigation apparatus using segmentation based image matching according to an embodiment of the present invention.

도 3a는 종래 기술에 따른 이미지 매칭 알고리즘을 이용한 내비게이션 방법에서 기준 위치로 귀환하기 위하여 선택된 방향 벡터를 나타내며, 도 3b는 본 발명의 일 실시예에 따른 분할 기반 이미지 매칭을 이용한 내비게이션 방법에서 기준 위치로 귀환하기 위하여 선택된 방향 벡터를 나타낸다.3A illustrates a direction vector selected to return to a reference position in a navigation method using an image matching algorithm according to the prior art, and FIG. 3B illustrates a reference vector in a navigation method using segmentation-based image matching according to an embodiment of the present invention. Represents the direction vector selected for feedback.

도 4는 본 발명의 일 실시예에 따른 내비게이션 장치의 기준 방향이 0도일 때 구획의 개수(N)에 따른 주변 환경의 분할을 예시한다.4 illustrates the division of the surrounding environment according to the number N of compartments when the reference direction of the navigation device according to one embodiment of the present invention is 0 degrees.

도 5는 구획 개수에 따른 각도 오차를 기준 지점으로부터의 각도 차이에 따라 도시한 그래프이다.5 is a graph illustrating an angle error according to the number of partitions according to an angle difference from a reference point.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

200: 내비게이션 장치200: navigation device

210: 전방향 카메라210: omnidirectional camera

220: 제어부220: control unit

300: 랜드마크300: landmark

Claims (9)

기준 지점에서 랜드마크를 촬영하여 촬영된 이미지를 제1 복수의 구역으로 분할하고, 각각의 상기 제1 복수의 구역에 대하여 상기 랜드마크의 기준 위치값을 계산하는 단계;Photographing a landmark at a reference point, dividing the photographed image into a first plurality of zones, and calculating reference position values of the landmarks for each of the first plurality of zones; 현재 지점에서 상기 랜드마크를 촬영하여 촬영된 이미지를 제2 복수의 구역으로 분할하는 단계;Dividing the photographed image into a second plurality of zones by photographing the landmark at a current point; 상기 현재 지점에서 복수의 임의 지점으로 이동하는 경우의 상기 제2 복수의 구역에서의 변화될 이미지를 상기 복수의 임의 지점별로 예측하는 단계;Predicting an image to be changed in the second plurality of zones when moving from the current point to a plurality of arbitrary points by the plurality of arbitrary points; 상기 복수의 임의 지점 각각에 대하여 예측된 이미지에 따라, 상기 랜드마크의 예상 위치값을 상기 복수의 임의 지점과 상기 제2 복수의 구역의 각각에 대하여 계산하는 단계; 및Calculating an estimated position value of the landmark for each of the plurality of arbitrary points and the second plurality of zones, according to the image predicted for each of the plurality of arbitrary points; And 상기 예상 위치값을 상기 기준 위치값과 비교하여 상기 복수의 임의 지점 중 상기 기준 위치값과의 매칭율이 가장 높은 예상 위치값을 갖는 임의 지점을 이동 지점으로 결정하는 단계를 포함하고,Comparing the expected position value with the reference position value to determine an arbitrary point having an expected position value having the highest matching rate with the reference position value among the plurality of arbitrary points as a movement point, 각각의 상기 제1 복수의 구역은 각각의 상기 제2 복수의 구역에 대응하는 내비게이션 방법.Each of the first plurality of zones corresponds to a respective one of the second plurality of zones. 제1항에 있어서,The method of claim 1, 상기 기준 위치값 및 상기 예상 위치값은, 각각 상기 제1 및 제2 복수의 구역 중 해당 구역에서 상기 랜드마크가 존재하는지 여부 및 상기 랜드마크까지의 평균 거리로부터 계산되는,The reference position value and the expected position value are respectively calculated from the presence or absence of the landmark in the corresponding zone among the first and second plurality of zones and the average distance to the landmark. 내비게이션 방법.Navigation method. 삭제delete 제1항에 있어서,The method of claim 1, 상기 예상 위치값을 상기 복수의 임의 지점에 대하여 계산하는 단계는, 상기 복수의 임의 지점에 각각에 대하여, 상기 제2 복수의 구역에서 상기 랜드마크의 예상 위치값을 계산하는,The calculating of the predicted position value for the plurality of arbitrary points includes: calculating an estimated position value of the landmark in the second plurality of zones for each of the plurality of arbitrary points, 내비게이션 방법.Navigation method. 제1항에 있어서,The method of claim 1, 상기 기준 위치값을 계산하는 단계 및 상기 제2 복수의 구역으로 분할하는 단계에서 촬영된 이미지는 전방향 카메라로 촬영된 이미지인,The image photographed in the calculating of the reference position value and dividing into the second plurality of zones is an image photographed by an omnidirectional camera. 내비게이션 방법.Navigation method. 주변의 영상을 일시에 촬영가능한 전방향 카메라; 및An omnidirectional camera capable of capturing a surrounding image at a time; And 상기 전방향 카메라에서 촬영된 이미지를 처리하여 이동 방향을 결정하는 제어부;A controller configured to process an image photographed by the omnidirectional camera to determine a moving direction; 를 포함하며,Including; 상기 제어부는,The control unit, 기준 지점에서 상기 전방향 카메라로 랜드마크를 촬영하여 촬영된 이미지를 제1 복수의 구역으로 분할하고, 상기 랜드마크의 기준 위치값을 계산하고,Taking a landmark by the omnidirectional camera at a reference point, dividing the photographed image into a first plurality of zones, calculating a reference position value of the landmark, 현재 지점에서 상기 전방향 카메라로 상기 랜드마크를 촬영하여 촬영된 이미지를 제2 복수의 구역으로 분할하고,Dividing the image taken by photographing the landmark with the omnidirectional camera at a current point into a second plurality of zones, 상기 현재 지점에서 복수의 임의 지점으로 이동하는 경우의 상기 제2 복수의 구역에서의 변화될 이미지를 상기 복수의 임의 지점별로 예측하고,Predicting the image to be changed in the second plurality of zones when moving from the current point to a plurality of random points by the plurality of random points, 상기 복수의 임의 지점 각각에 대하여 예측된 이미지에 따라, 상기 랜드마크의 예상 위치값을 상기 복수의 임의 지점과 상기 제2 복수의 구역 각각에 대하여 계산하고,Calculate an estimated position value of the landmark for each of the plurality of arbitrary points and the second plurality of zones, according to the image predicted for each of the plurality of arbitrary points, 복수의 예상 위치값을 기준 위치값과 비교하여 상기 복수의 임의 지점 중 상기 기준 위치값과의 매칭율이 가장 높은 예상 위치값을 갖는 임의 지점을 이동 지점으로 결정하고,A plurality of expected position values are compared with a reference position value to determine an arbitrary point having an expected position value having the highest matching rate with the reference position value among the plurality of arbitrary points as the movement point, 각각의 상기 제1 복수의 구역은 각각의 상기 제2 복수의 구역에 대응하는 내비게이션 장치.Each first plurality of zones corresponds to each of the second plurality of zones. 제6항에 있어서,The method of claim 6, 상기 기준 위치값 및 상기 예상 위치값은, 각각 상기 제1 및 제2 복수의 구역 중 해당 구역에서 상기 랜드마크가 존재하는지 여부 및 상기 랜드마크까지의 평균 거리로부터 계산되는,The reference position value and the expected position value are respectively calculated from the presence or absence of the landmark in the corresponding zone among the first and second plurality of zones and the average distance to the landmark. 내비게이션 장치.Navigation device. 삭제delete 제6항에 있어서,The method of claim 6, 상기 제어부는 상기 복수의 임의 지점에 각각에 대하여, 상기 제2 복수의 구역에서 상기 랜드마크의 예상 위치값을 계산하는,The control unit calculates, for each of the plurality of arbitrary points, an estimated position value of the landmark in the second plurality of zones. 내비게이션 장치.Navigation device.
KR1020090129344A 2009-12-22 2009-12-22 Navigatioin method and apparatus using sector based image matching KR101146128B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090129344A KR101146128B1 (en) 2009-12-22 2009-12-22 Navigatioin method and apparatus using sector based image matching

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090129344A KR101146128B1 (en) 2009-12-22 2009-12-22 Navigatioin method and apparatus using sector based image matching

Publications (2)

Publication Number Publication Date
KR20110072430A KR20110072430A (en) 2011-06-29
KR101146128B1 true KR101146128B1 (en) 2012-05-16

Family

ID=44403345

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090129344A KR101146128B1 (en) 2009-12-22 2009-12-22 Navigatioin method and apparatus using sector based image matching

Country Status (1)

Country Link
KR (1) KR101146128B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100406636B1 (en) * 2001-04-18 2003-11-21 삼성광주전자 주식회사 Robot cleaner and system and method of controling thereof
KR100437157B1 (en) * 2001-04-18 2004-06-25 삼성광주전자 주식회사 Robot cleaner and system and method of rejoining the same with external charging apparatus
JP2007316966A (en) * 2006-05-26 2007-12-06 Fujitsu Ltd Mobile robot, control method thereof and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100406636B1 (en) * 2001-04-18 2003-11-21 삼성광주전자 주식회사 Robot cleaner and system and method of controling thereof
KR100437157B1 (en) * 2001-04-18 2004-06-25 삼성광주전자 주식회사 Robot cleaner and system and method of rejoining the same with external charging apparatus
JP2007316966A (en) * 2006-05-26 2007-12-06 Fujitsu Ltd Mobile robot, control method thereof and program

Also Published As

Publication number Publication date
KR20110072430A (en) 2011-06-29

Similar Documents

Publication Publication Date Title
US11270148B2 (en) Visual SLAM method and apparatus based on point and line features
US20220036574A1 (en) System and method for obstacle avoidance
US8744665B2 (en) Control method for localization and navigation of mobile robot and mobile robot using the same
KR102016551B1 (en) Apparatus and method for estimating position
US8903160B2 (en) Apparatus and method with traveling path planning
EP3680809A1 (en) Visual slam method and apparatus based on point and line characteristic
US8787614B2 (en) System and method building a map
KR101708659B1 (en) Apparatus for recognizing location mobile robot using search based correlative matching and method thereof
US20200047340A1 (en) System and method for autonomous navigation using visual sparse map
KR101776620B1 (en) Apparatus for recognizing location mobile robot using search based correlative matching and method thereof
US20170153646A1 (en) Apparatus of controlling movement of mobile robot mounted with wide angle camera and method thereof
US9778029B2 (en) Self-position calculating apparatus and self-position calculating method
JP4702569B2 (en) Image processing apparatus for vehicle
KR20110011424A (en) Method for recognizing position and controlling movement of a mobile robot, and the mobile robot using the same
KR20150144727A (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
JP2011022157A (en) Position detection apparatus, position detection method and position detection program
JP7133927B2 (en) Information processing device and its control method and program
JP2020017173A (en) Moving entity
KR20200016627A (en) Device and method to estimate ego motion
JP2020042407A5 (en)
US8903159B2 (en) Method and apparatus for tracking image patch considering scale
KR101146128B1 (en) Navigatioin method and apparatus using sector based image matching
US20160282876A1 (en) Moving object controller, moving object control method, and integrated circuit
JP6668740B2 (en) Road surface estimation device
KR101639264B1 (en) Apparatus and method for controling automatic termial

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150429

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160519

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170508

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee