KR101092002B1 - Artificial landmark, appratus and method for navigation using artificial landmark and natural landmark - Google Patents
Artificial landmark, appratus and method for navigation using artificial landmark and natural landmark Download PDFInfo
- Publication number
- KR101092002B1 KR101092002B1 KR1020090106636A KR20090106636A KR101092002B1 KR 101092002 B1 KR101092002 B1 KR 101092002B1 KR 1020090106636 A KR1020090106636 A KR 1020090106636A KR 20090106636 A KR20090106636 A KR 20090106636A KR 101092002 B1 KR101092002 B1 KR 101092002B1
- Authority
- KR
- South Korea
- Prior art keywords
- artificial
- natural
- marker
- image
- artificial marker
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C15/00—Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
- G01C15/02—Means for marking measuring points
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3623—Destination input or retrieval using a camera or code reader, e.g. for optical or magnetic codes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0968—Systems involving transmission of navigation instructions to the vehicle
- G08G1/096855—Systems involving transmission of navigation instructions to the vehicle where the output is provided in a suitable form to the driver
Abstract
본 발명에 따른 인공표식과 자연표식을 혼용한 네비게이션 장치는 광원을 조사한 조명 영상 및 광원을 조사하지 않은 자연 영상을 촬영하는 카메라; 상기 조명 영상과 상기 자연 영상의 차영상을 계산하는 차영상 추출부; 및 상기 자연 영상으로부터 추출된 자연표식으로부터 위치정보를 추정하고, 상기 차영상으로부터 추출된 인공표식으로부터 상기 위치정보를 보정하는 위치 검출부를 포함한다. 자연표식만을 사용하는 방식보다 위치 및 방향에 대한 오차를 줄일 수 있고, 로봇의 이동 시 자연표식을 검출하기 어려운 환경에서도 로봇의 위치를 파악하고 보정할 수 있다. 또한 자연표식을 혼용하여 사용하기 때문에 인공표식만을 사용하는 방식보다 훨씬 적은 수의 인공표식을 사용하여 넓은 실내 공간에서 로봇의 정확한 이동 및 주행이 가능하다는 장점이 있다.According to an embodiment of the present invention, a navigation apparatus using a artificial marker and a natural marker may include a camera for photographing an illumination image irradiated with a light source and a natural image without irradiating the light source; A difference image extracting unit calculating a difference image between the illumination image and the natural image; And a position detector for estimating the position information from the natural marker extracted from the natural image and correcting the position information from the artificial marker extracted from the difference image. Compared to the method using only natural markers, errors in position and direction can be reduced, and the position of the robot can be detected and corrected even in an environment where it is difficult to detect natural markers when the robot moves. In addition, since the use of natural markers is mixed, there is an advantage that the robot can be accurately moved and traveled in a large indoor space using a much smaller number of artificial markers than the method using only artificial markers.
Description
본 발명은 이동로봇의 위치 인식을 위한 인공표식과 인공표식 및 자연표식을 이용한 이동로봇의 네비게이션 장치 및 방법에 관한 것으로, 보다 상세하게는 이동로봇의 정확한 위치를 보정할 수 있는 인공표식과 카메라로부터 인공표식 및 자연표식을 획득하여 이동로봇을 목적지까지 보다 정확하게 이동할 수 있게 하는 네비게이션 장치 및 방법에 관한 것이다.The present invention relates to a navigation device and a method of a mobile robot using artificial markers, artificial markers, and natural markers for location recognition of a mobile robot, and more particularly, from an artificial marker and a camera capable of correcting an accurate position of a mobile robot. The present invention relates to a navigation device and a method for acquiring artificial marks and natural marks to move a mobile robot to a destination more accurately.
기업의 사무실이나 병원의 입원 병동 등 비교적 넓은 면적의 실내 공간을 이동하도록 로봇을 제어하는 네비게이션 장치에는 로봇이 실내 공간상에서 어느 위치에 있는가를 인식하는 기능이 필요하다. 로봇이 실내 공간에서 위치를 인식하는 기술은 크게 인공표식을 이용하는 방법과 자연표식을 이용하는 방법으로 나눌 수 있다.The navigation device that controls the robot to move a relatively large indoor space such as an inpatient ward of an office or a hospital requires a function of recognizing where the robot is located in the indoor space. The technology that the robot recognizes the position in the indoor space can be largely divided into the method of using artificial markers and the method of using natural markers.
인공표식은 단순 패턴으로 형성하는 방식과 발광원을 이용하는 방식 등 다양한 방식으로 구성될 수 있다. 단순 패턴으로 형성하는 방식은 쉽고 간단히 구현이 가능하지만, 주변의 조명조건에 민감하여 성능 보장이 어려운 문제점이 있다. 발광원을 이용하는 방식은 단순 패턴으로 형성하는 방식에 비해 조명조건에 강인하지만, 발광원을 이용하여야 하므로 별도의 전원과 배선이 필요하다는 문제점이 있다. Artificial markers can be configured in a variety of ways, such as the form of a simple pattern and the method using a light emitting source. Forming a simple pattern can be easily and simply implemented, but there is a problem that it is difficult to guarantee the performance because it is sensitive to the ambient lighting conditions. The method using a light emitting source is more robust to lighting conditions than the method of forming a simple pattern, but there is a problem in that a separate power source and wiring are required because the light emitting source must be used.
자연표식은 별도로 인공적으로 만든 표식이 아닌, 카메라 영상에 비쳐지는 자연적인 이미지 패턴 중에 로봇이 구분하기 좋은 정보를 뽑아내어 이 정보를 표식으로 삼는 것이다. 자연표식으로 사용되는 대표적인 예는 코너점(corner point)이라는 정보로 흑백 이미지에서 밝기 정도의 변화가 심한 영역, 주로 경계 영역이 되는 부분을 자연표식으로 이용한다. The natural marker is not an artificially created marker, but extracts information that the robot can distinguish from the natural image patterns reflected on the camera image, and uses this information as a marker. A representative example used as a natural marker is a corner point, which uses a region in which the brightness level varies greatly, mainly a boundary region, in the black and white image as a natural marker.
인공표식을 이용하는 방법은 로봇에 달린 카메라로 읽은 인공표식을 미리 메모리에 저장해 둔 표식과 비교하고, 미리 저장되어 있는 해당 표식의 위치정보를 이용하여 로봇이 현재 위치를 파악하는 방식이다. The method of using an artificial mark is a method of comparing the artificial mark read by the camera attached to the robot with the mark previously stored in the memory, and using the position information of the previously stored mark to determine the current position of the robot.
자연표식을 이용하는 방법은 인공표식을 붙이기 어려운 환경, 즉 표식을 붙일 수 있는 장소가 마땅치 않거나 로봇 입장에서 잘 보이지 않는 등의 이유로 인공표식을 사용할 수 없을 때 별도의 표식을 붙이지 않고 자연 상태 그대로의 영상 정보 상의 특징점을 추출하여 추출된 특징점을 마치 인공표식처럼 분석하여 로봇이 자기 위치를 파악하는 방식이다. 자연표식을 인식하는 데는 미국 등록특허US6711293에 개시되어 있는 SIFT(Scale-invariant Feature Transform)라는 알고리즘이 많이 이용되고 있다.The method of using the natural marker is an image that is in its natural state without attaching a separate marker when the artificial marker cannot be used due to an environment in which it is difficult to apply the artificial marker, that is, the place where the marker can be attached or cannot be easily seen from the robot's point of view. It extracts feature points on information and analyzes the extracted feature points as if they were artificial markers. In order to recognize natural marks, an algorithm called Scale-invariant Feature Transform (SIFT) disclosed in US Patent US6711293 is used.
인공표식을 이용하는 방법은 로봇이 이동해야 하는 공간에 인공표식을 적절한 간격으로 부착하여야 하는데, 특히 넓은 실내 공간에 이러한 방법을 이용하기 위해서는 너무 많은 인공표식이 필요하다는 문제가 있다. 또한, 실내 공간에서 인공표식을 부착하기 어려운 곳도 존재할 수 있다. The method of using artificial markers has to attach artificial markers to the spaces to which the robot must move at appropriate intervals. In particular, there is a problem that too many artificial markers are required to use such methods in a large indoor space. In addition, there may be a place where it is difficult to attach the artificial marker in the indoor space.
자연표식을 이용하는 방법은 인공표식이 필요없는 장점은 있지만, 로봇의 이동주행 환경에 대한 특징정보가 비슷하게 나오는 곳에서는 위치오차가 너무 커지는 문제점이 있다. 즉, 실내에서 로봇에 장착된 카메라로 보았을 때 비슷 비슷한 영상이 들어오는 환경에서는 서로 다른 위치라 하더라도 비슷한 특징들이 추출되어 잘못된 위치를 검출할 확률이 높다. 또한, 조명조건이 변하거나 전에는 없던 물건이 놓여 있는 등의 이유로 다른 특징점이 검출되어 위치에 대한 오차가 크게 발생할 수 있다. 이처럼 자연표식을 이용하여 위치 검출 시 누적되는 오차로 인해 넓은 실내 공간의 경우 위치오차가 커질 확률이 큰 것이다. The method of using natural markers has the advantage of not requiring artificial markers, but there is a problem in that the positional error is too large in a place where feature information on the robot's moving environment is similar. In other words, when viewed from a camera mounted on a robot in a room, similar features are extracted even in different environments, and similar features are extracted to detect a wrong position. In addition, other feature points may be detected due to a change in lighting conditions or an object that has not been placed before, and a large error in position may occur. In this way, the position error is large in a large indoor space due to the accumulated error when detecting the position using natural markers.
따라서, 넓은 실내 공간에서 인공표식을 최소한으로 이용하면서 위치에 대한 오차율을 줄일 수 있는 방법과 이를 구현하기 위한 장치가 필요하다. Therefore, there is a need for a method for reducing an error rate for a location while minimizing artificial markers in a large indoor space and an apparatus for implementing the same.
네비게이션 장치에게 현재 위치를 신속 정확하게 검출할 수 있게 하는 인공표식을 제공하는데 그 목적이 있다. An object of the present invention is to provide an artificial marker that enables the navigation device to quickly and accurately detect the current location.
또한, 인공표식과 자연표식을 혼용하여 현재 위치를 신뢰성 높게 확인할 수 있고 목적지까지의 경로를 정확하게 안내할 수 있는 네비게이션 장치 및 방법을 제공하는데 그 목적이 있다.In addition, it is an object of the present invention to provide a navigation apparatus and method capable of reliably confirming the current position by using artificial markers and natural markers and guiding the route to the destination accurately.
본 발명의 일 측면에 따른 인공표식은 인공표식의 중심점을 나타내는 중심체; 상기 중심점을 원점으로 하는 기준축을 지시하는 방향 지시자; 및 상기 중심점을 중심으로 하는 원주 상에 소정 간격으로 배치되는 도형들로 구성된 코드부를 포함하되, 상기 코드부를 구성하는 도형들은 상기 인공표식의 ID를 나타내는 것을 특징으로 한다. Artificial marker according to an aspect of the present invention is a central body representing the center of the artificial marker; A direction indicator indicating a reference axis using the center point as the origin; And a code part including figures arranged at predetermined intervals on the circumference of the center point, wherein the figures constituting the code part represent an ID of the artificial mark.
본 발명의 다른 측면에 따른 네비게이션 장치는 광원을 조사한 조명 영상 및 광원을 조사하지 않은 자연 영상을 촬영하는 카메라; 상기 조명 영상과 상기 자연 영상의 차영상을 계산하는 차영상 추출부; 및 상기 자연 영상으로부터 추출된 자연표식으로부터 위치정보를 추정하고, 상기 차영상으로부터 추출된 인공표식으로부터 상기 위치정보를 보정하는 위치 검출부를 포함한다. According to another aspect of the present invention, a navigation device includes: a camera for photographing an illumination image irradiated with a light source and a natural image not irradiated with a light source; A difference image extracting unit calculating a difference image between the illumination image and the natural image; And a position detector for estimating the position information from the natural marker extracted from the natural image and correcting the position information from the artificial marker extracted from the difference image.
본 발명의 또 다른 측면에 따른 네비게이션 방법은 카메라로부터 입력되는 영상으로부터 인공표식을 검출하여 시작 위치를 산출하는 단계; 상기 산출된 시작 위치로부터 최단 거리로 이격되고 목적지까지의 경로에 위치한 다음 인공표식을 검색하는 단계; 상기 시작 위치로부터 상기 다음 인공표식으로 이동하는 동안 자연표식을 검출하여 위치를 추정하는 단계; 및 상기 다음 인공표식이 검출되면 위치를 보정하는 단계를 포함한다.According to still another aspect of the present invention, there is provided a navigation method, comprising: calculating a starting position by detecting an artificial mark from an image input from a camera; Retrieving a next artificial marker located at a path to a destination and spaced the shortest distance from the calculated starting position; Estimating a position by detecting a natural marker while moving from the start position to the next artificial marker; And correcting the position when the next artificial marker is detected.
자연표식만을 사용하는 방식보다 위치 및 방향에 대한 오차를 줄일 수 있고, 로봇의 이동 시 자연표식을 검출하기 어려운 환경에서도 로봇의 위치를 파악하고 보정할 수 있다. 또한 자연표식을 혼용하여 사용하기 때문에 인공표식만을 사용하는 방식보다 훨씬 적은 수의 인공표식을 사용하여 넓은 실내 공간에서 로봇의 정확한 이동 및 주행이 가능하다는 장점이 있다.Compared to the method using only natural markers, errors in position and direction can be reduced, and the position of the robot can be detected and corrected even in an environment where it is difficult to detect natural markers when the robot moves. In addition, since the use of natural markers is mixed, there is an advantage that the robot can be accurately moved and traveled in a large indoor space using a much smaller number of artificial markers than the method using only artificial markers.
도 1은 본 발명의 일 실시예에 따른 네비게이션 장치를 나타낸 블록도이다. 1 is a block diagram illustrating a navigation device according to an embodiment of the present invention.
도 1을 참조하면, 네비게이션 장치(500)는 중앙 제어부(200), 주행 인코더(300), 위치산출 모듈(100)을 포함한다. Referring to FIG. 1, the
중앙 제어부(200)는 위치산출 모듈(100) 및 주행 인코더(300)로부터 위치 정보를 제공받고, 네비게이션 장치가 장착된 물체 예컨대 로봇이 출발지에서 목적지까지 이동할 수 있도록 모터와 같은 동력부(미도시)를 제어하는 장치이다. The
주행 인코더(300)는 모터와 같은 동력부에 연결되어 동력부의 회전에 따라 회전각도와 회전수에 대한 정보를 제공한다. 주행 인코더(300)는 회전각도와 회전수에 대한 정보를 중앙 제어부(200)에 제공한다. The
위치산출 모듈(100)은 로봇의 현재 위치를 산출하는 모듈이다. 위치산출 모듈(100)은 인공표식 및/또는 자연표식을 이용하여 로봇의 현재 위치를 산출하고, 현재 위치에 대한 정보를 중앙 제어부(200)에 제공한다.
도 2는 위치산출 모듈을 나타낸 블록도이다. 2 is a block diagram showing a position calculation module.
위치산출 모듈(100)은 카메라(10), 조명부(20), 동기신호 제어부(30), 차영상 추출부(40), 메모리(50), 위치 검출부(60)를 포함할 수 있다. The
카메라(10)는 동기신호 제어부(30)에서 특정 신호가 주어지면 영상을 촬영할 수 있으며 영상을 캡쳐하는 시간을 조절할 수 있다. 카메라(10)는 조명부(20)와 일체형으로 구성될 수도 있고, 서로 이격되어 구성될 수도 있다. 카메라(10)는 가시광선 사진 또는 적외선 사진을 촬영할 수 있다. When a specific signal is given from the
조명부(20)는 인공표식에 빛을 비추는 광원으로 예를 들어, 적외선 LED(Light Emitting Diode)를 사용할 수 있다. 조명부(20)는 외부에서 주어지는 특정 신호에 의해 켜지거나 꺼질 수 있으며 발광 시간이 조절 가능하다. The
동기신호 제어부(30)는 조명부(20)와 카메라(10)에 연결되어 조명부(20)와 카메라(10)의 동작을 조절하는 기능을 수행한다. 동기신호 제어부(30)에 의해 로봇이 이동하는 동안 원하는 속도로 영상을 취득할 수 있다. 동기신호 제어부(30)에 의해 조명부(20)의 광원을 끄고 카메라(10)가 촬영한 영상을 자연 영상이라 칭하고, 조명부(20)의 광원을 켜고 카메라(10)가 촬영한 영상을 조명 영상이라 칭한다. The
차영상 추출부(40)는 자연 영상과 조명 영상의 차이를 추출하는 기능을 수행한다. 예를 들어 자연 영상과 조명 영상의 픽셀(pixel) 별로 배타적 논리 합(exclusive OR) 연산을 수행하는 방법으로 차영상을 추출할 수 있다. 차영상 추출부(40)에 의해 검출된 차영상은 인공표식이 식별하기 쉽게 나타난다. 이러한 차영상 추출부(40)는 예컨대, FPGA(Field Programmable Gate Array)로 구성할 수 있다. The
메모리(50)는 인공표식 및 자연표식의 위치정보를 저장하고, 현재 위치를 갱신하여 저장한다. 메모리(50)는 위치 검출부(60)와 연결되어 인공표식 및 자연표식의 위치정보를 제공한다. 메모리(50)는 위치산출 모듈(100)내에 일체로 구성될 수도 있고 별도로 구성될 수도 있다.The
위치 검출부(60)는 카메라(10)로부터 입력되는 자연 영상으로부터 자연표식을 식별하고, 차영상 추출부(40)로부터 입력되는 차영상으로부터 인공표식을 식별하여 메모리(50)에 저장된 위치정보와 일치여부를 판단하여 위치산출 모듈(100)의 현재 위치를 파악한다. The
도 3은 동기신호 제어부와 조명부 및 카메라의 동작 과정을 시간적으로 나타낸 예시도이다. 도 4는 차영상을 획득하는 예를 나타낸다. 3 is an exemplary view illustrating an operation process of a synchronization signal controller, an illumination unit, and a camera in time. 4 shows an example of obtaining a difference image.
동기신호 제어부(30)는 카메라(10)와 조명부(20)가 동시에 동작하는 제1 동기신호(31)와 카메라(10)만 동작하도록 하는 제2 동기신호(32)를 제공할 수 있다. 제1 동기신호(31)와 제2 동기신호(32)는 서로 구분되는 신호일 수도 있고, 동일한 신호이나 순서에 따라 구분되는 신호일 수도 있다. 조명 영상은 제1 동기신호(31)에 의해 촬영될 수 있고, 자연 영상은 제2 동기신호(32)에 의해 촬영될 수 있다. The
도 5는 인공표식을 나타낸 예시도이다. 5 is an exemplary view showing an artificial mark.
인공표식(Artificial Landmark, AL)은 배경과 구분되는 인위적인 표식으로, 로봇이 인식할 수 있는 코드화된 정보를 담을 수 있다. Artificial landmarks (ALs) are artificial markers that are distinct from the background and can contain coded information that the robot can recognize.
도 5를 참조하면, 인공표식은 중심체와 방향 지시자 및 코드부로 구성될 수 있다. Referring to FIG. 5, the artificial marker may be composed of a central body, a direction indicator, and a code part.
중심체는 인공표식의 가운데에 위치하며 원 형태로 구성될 수 있다. 중심체는 인공표식의 중심점 즉, 기준 위치를 구할 수 있도록 하며, 로봇의 카메라가 식별하기 쉽도록 인공표식의 다른 부분 즉, 방향 지시자나 코드부에 비해 큰 면적을 가질 수 있다. The centrosome is located in the center of the artificial marker and can be configured in a circle. The central body may obtain a center point of the artificial mark, that is, a reference position, and may have a larger area than other parts of the artificial mark, that is, the direction indicator or the code part, so that the camera of the robot can be easily identified.
방향 지시자는 중심점을 원점으로 하는 인공표식의 기준축을 지시한다. 방향 지시자는 코드부 및 중심체와 식별이 가능하도록 서로 다른 기하학적 모양으로 구성되는 것이 바람직하다. 예를 들어, 방향 지시자는 타원 형태로 구성될 수 있다. The direction indicator indicates the reference axis of the artificial marker with the center point as the origin. The direction indicator is preferably composed of different geometric shapes so as to be distinguishable from the code part and the center body. For example, the direction indicator may be configured in the form of an ellipse.
코드부는 인공표식의 고유한 ID를 식별할 수 있는 정보를 포함하는 부분이다. 코드부는 인공표식의 중심점을 기준으로 동일한 원주 상에 소정 간격을 두고 배치될 수 있다. 코드부는 다수개의 동일한 면적을 가지는 원으로 구성될 수 있다. 이러한 원들이 배치될 수 있는 위치에 원이 배치되면 비트값 ‘1’을 나타내고, 원이 배치되지 않으면 비트값 ‘0’을 나타내는 식으로 비트열을 나타낼 수 있다. 예를 들어, 원들이 배치될 수 있는 위치가 7개이면, 27=128개의 코드를 만들 수 있다. The code part is a part containing information for identifying the unique ID of the artificial mark. The code part may be arranged at predetermined intervals on the same circumference with respect to the center point of the artificial mark. The code part may be composed of a plurality of circles having the same area. When a circle is disposed at a position where such circles may be arranged, the bit string may be represented by a bit value '1' and a bit string '0' when the circle is not disposed. For example, if there are seven locations where circles can be placed, we can make 2 7 = 128 codes.
코드부를 구성하는 다수개의 원들은 중심체와 방향 지시자에 의해 결정되는 기준축(51)에서 시계방향(또는 반시계방향)으로 MSB(Most Significant Bit)에서 LSB(Least Significant Bit) 순으로 각각 하나의 비트를 나타낼 수 있다(도 5에서 MSB는 p0, LSB는 p6의 순으로 나타내고 있다). 이러한 비트열로 구성된 코드는 각 인공표식마다 다른 고유번호를 제공하여 각 인공표식을 식별할 수 있도록 한다. 각 인공표식은 알려진 위치에 존재할 수 있으므로 이동로봇은 인공표식을 식별함으로써 현재 위치를 정확하게 알 수 있다. The plurality of circles constituting the code part are each one bit in order from Most Significant Bit (MSB) to Least Significant Bit (LSB) in the clockwise (or counterclockwise) direction on the
수학식 1은 코드부에서 식별되는 코드를 수학식으로 나타낸 것이다.
수학식 1에서 ρi는 차영상에 있는 i번째 비트에 해당하는 영역의 픽셀 값을 의미하며, T는 코드부에 포함된 원의 존재 여부를 판단하는 경계값(Threshold value)으로 상수값이다. T는 실험적으로 미리 정해져서 주어질 수 있다. In
인공표식은 전반사(retro-reflective) 재질의 테이프로 반사면을 구성할 수 있다. 그러면 일반 조명이 없는 야간에도 조명부에서 적외선을 조사하는 경우, 카메라가 인공표식을 촬영하는데 문제가 없다. Artificial markers can be made of reflective surfaces made of a retro-reflective material. Then, even when there is no general lighting at night when the illumination unit is irradiated with infrared, the camera has no problem shooting artificial marks.
도 6은 차영상에서 취득된 인공표식의 실제 이미지를 나타낸다. 6 shows an actual image of the artificial marker acquired from the difference image.
도 6에서 중심체의 한가운데를 중심점으로 하고, 방향 지시자와의 방향을 기준축으로 하여 시계방향으로 코드부에 포함된 원이 존재하는지 여부를 판단한다. 즉, 코드부에 포함된 원이 위치할 영역의 픽셀값을 경계값 T와 비교하여 판단한다. 도 6에서는 p0, p2, p3, p6이 경계값보다 작아 해당 비트가 ‘0’이 되고, p1, p4, p5는 경계값 이상이 되어 해당 비트가 ‘1’이 된다. 따라서, 코드는 이진수로 표현하면 ‘0100110’이 된다. In FIG. 6, it is determined whether there is a circle included in the code part in the clockwise direction with the center point as the center point and the direction with the direction indicator as the reference axis. That is, the pixel value of the area where the circle included in the code part is to be located is compared with the boundary value T to determine. In FIG. 6, p 0 , p 2 , p 3 , and p 6 are smaller than the boundary value so that the corresponding bit becomes '0', and p 1 , p 4 and p 5 become equal to or greater than the boundary value and the corresponding bit becomes '1'. . Therefore, the code is '0100110' in binary.
자연표식(Natural Landmark, NL)은 인공표식을 제외한 위치 식별을 위한 표식을 의미한다. 즉, 인공적으로 정보를 포함하게 만든 표식이 아니라 영상에 비쳐지는 그대로의 이미지 패턴 중에서 식별하기 좋은 정보를 포함하는 부분을 마치 인공표식처럼 사용하는 표식을 의미한다. 자연표식으로 사용되는 대표적인 예는 코너점(corner point)으로 흑백 영상에서 밝기 정도의 변화가 심한 영역, 주로 경계 영역이 되는 부분을 자연표식으로 사용한다. Natural Landmark (NL) means a marker for location identification except artificial marker. That is, it is not a marker that artificially includes information, but a marker that uses information that is easy to identify among the image patterns reflected on the image as if it is an artificial marker. A representative example used as a natural marker is a corner point, which uses a region where a change in brightness degree is severe, mainly a boundary region, in a black and white image as a natural marker.
도 7은 본 발명의 실시예에 따른 자연표식의 식별 방법을 나타낸다. 7 illustrates a method for identifying natural marks according to an embodiment of the present invention.
위치 검출부는 카메라로부터 자연 영상을 획득한다(S10). 위치 검출부는 자연 영상에 가우시안(Gaussian) 필터를 적용하여 노이즈를 제거한다(S20). 위치 검출부는 노이즈가 제거된 영상에서 고유값을 분석하여 코너점을 검출한다(S30). 코너점은 다음 수학식 2에 의해 검출할 수 있다. The position detector acquires a natural image from the camera (S10). The position detector removes noise by applying a Gaussian filter to the natural image (S20). The position detector detects a corner point by analyzing the eigenvalue in the image from which the noise is removed (S30). The corner point can be detected by the following equation.
수학식 2에서 Ix, Iy 는 특정 사이즈의 영상 영역에 포함된 각 픽셀에 대하 여픽셀값의 x, y 방향으로의 일계 편미분 값이고, Z는 상기 특정 사이즈의 영상 영역에서 Ix, Iy의 공분산(covariance)을 구한 행렬이다. 이러한 공분산 행렬로부터 고유값(eigenvalue) λ1, λ2을 구한다. λ1, λ2 중 어느 하나만 경계값인 λt 보다 큰 값을 갖는 경우, 상기 특정 사이즈의 영상 영역 내부에 선(line)이 하나만 존재하는 것으로 판단한다. λ1, λ2 둘 다 경계값인 λt 보다 큰 값을 갖는 경우 상기 특정 사이즈의 영상 영역 내부에 2개의 선이 존재하는 것으로 판단한다. 여기서, 상기 선(line)은 예를 들어 흑백 영상에서 각 픽셀이 밝기 값만을 가지는 경우, 밝기 값의 변화가 심한 경계 영역을 나타낸다. 경계값인 λt는 실험적으로 결정되는 값으로 미리 정하여 주어질 수 있다. 상술한 바와 같이 자연표식을 식별하는 방법은 단순하면서도 계산량이 적은 방법이다. In Equation 2, I x , I y are the daily partial differential values of the pixel values in the x and y directions for each pixel included in the image region of a specific size, and Z is I x , I in the image region of the specific size. This is the matrix for the covariance of y . From these covariance matrices, the eigenvalues λ 1 and λ 2 are obtained. When only one of λ 1 and λ 2 has a value larger than λ t , which is a boundary value, it is determined that only one line exists in the image area of the specific size. When both λ 1 and λ 2 have a value larger than the boundary value λ t , it is determined that two lines exist within the image area of the specific size. Here, the line represents a boundary area in which a change in brightness value is severe when each pixel has only a brightness value in a black and white image, for example. Λ t, which is a boundary value, may be predetermined as a value determined experimentally. As described above, the method of identifying natural marks is a simple method and a small amount of calculation.
상술한 코너점과 같은 특징점은 메모리에 저장된다. 특징점은 메모리에 저장될 때 이동하여야 할 실내 공간의 특정 기준점을 기준으로 (x, y, z)의 3개의 파라미터를 사용하는 일반적인 3차원 좌표를 저장할 수도 있지만, 맵핑 시 필터의 수렴 속도를 높이기 위해 5개의 파라미터를 사용하여 저장할 수도 있다. Feature points such as the corner points described above are stored in the memory. Feature points can store general three-dimensional coordinates using three parameters (x, y, z) relative to a particular reference point in the room to be moved when stored in memory, but to speed up the convergence of the filter when mapping It can also be stored using five parameters.
도 8은 특징점을 메모리에 저장하는 경우 사용하는 파라미터를 나타낸다. 8 shows parameters used when storing feature points in a memory.
(xi, yi)는 실내 공간의 특정 기준점 W을 기준으로 로봇이 특징점을 최초로 관측한 2차원 평면의 좌표값으로 관측점이라 칭한다. 관측점의 좌표값 (xi, yi)을 기준으로 새로운 극좌표계(1/ρi, αi, βi)로 특징점의 위치를 나타낸다. 여기서, ρi 는 관측점과 특징점 간의 거리의 역수이고, αi 는 방위각(azimuth), βi 는 고도각(elevation)을 나타낸다. (x i , y i ) is a coordinate value of a two-dimensional plane in which the robot first observes a feature point based on a specific reference point W in an indoor space, and is called an observation point. The position of the feature point is represented by a new polar coordinate system (1 / ρ i , α i , β i ) based on the coordinate values (x i , y i ) of the observation point. Where ρ i is the inverse of the distance between the observation point and the feature point, α i represents the azimuth, and β i represents the elevation.
관측점을 기준으로 극좌표계로 나타낸 특징점의 위치는 기준점 W의 직교 좌표계로 수학식 3과 같이 변환할 수 있다. The position of the feature point represented by the polar coordinate system with respect to the observation point may be converted into the Cartesian coordinate system of the reference point W as shown in Equation 3 below.
수학식 3에서 XW F 는 기준점 W를 기준으로 특징점을 나타내는 벡터이다. 로봇이 이동하면서 카메라 영상에서 움직이는 특징점은 확장 칼만 필터(Extended Kalman Filter, EKF)를 이용하여 계속하여 갱신된다. 관측된 특징점의 위치와 메모리에 저장되어 있는 특징점의 위치의 차이를 계산하여 오차가 있는 경우 보정을 수행한다. 그리고, 관측된 특징점의 위치가 메모리에 저장되어 있는 특징점의 위치와 소정 범위를 벗어나는 경우, 새로운 특징점으로 판단하여 메모리에 저장한다. 이 경우, 특징점을 잘못 인식하는 문제를 방지하기 위해 일정 시간 이상 연속적으로 관측되는 특징점에 대해서만 유효한 특징점으로 보고 메모리에 저장할 수 있다. In Equation 3, X W F is a vector representing a feature point based on the reference point W. As the robot moves, feature points moving in the camera image are continuously updated using the Extended Kalman Filter (EKF). The difference between the position of the observed feature point and the position of the feature point stored in the memory is calculated and the correction is performed when there is an error. When the position of the observed feature point is out of a predetermined range and the position of the feature point stored in the memory, it is determined as a new feature point and stored in the memory. In this case, in order to prevent the problem of misrecognizing the feature point, it may be stored in the report memory as a valid feature point only for the feature points continuously observed for a predetermined time or more.
도 9는 본 발명의 일 실시예에 따른 네비게이션 방법을 나타낸 흐름도이다. 9 is a flowchart illustrating a navigation method according to an embodiment of the present invention.
상술한 네비게이션 장치를 포함하는 로봇(이하 이동 로봇)은 외부로부터 목적지가 입력되면(S80), 현재 위치를 파악한다(S90). 현재 위치 파악을 위해 먼저, 인공표식의 검출을 시도한다. 인공표식이 검출되지 않으면, 자연표식만으로 현재 위치를 파악한다. 현재 위치가 파악되면, 목적지까지의 경로를 생성한다(S100). When a destination is input from the outside (S80), the robot including the above-described navigation device (S80) grasps the current position (S90). In order to determine the current position, first, an artificial marker is detected. If no artificial marker is detected, only the natural marker identifies the current position. If the current location is identified, a path to the destination is generated (S100).
이동 로봇은 파악된 시작 위치로부터 최단 거리로 이격되고 목적지까지의 경로상에 위치한 다음 인공표식을 검색한 후 다음 인공표식으로 이동한다(S200). 시작 위치에서 다음 인공표식으로 이동하는 동안 이동 로봇은 계속하여 천장을 촬영하여 자연 영상을 취득하고, 자연 영상에서 자연표식을 식별하여 현재 위치를 추정하며 이동한다. 이동 로봇이 다음 인공표식을 검출하면(S300) 현재 위치를 정확하게 보정한다(S400). 이동 로봇이 다음 인공표식을 검출하지 못하는 경우에는 자연표식의 검출을 시도한다. 자연표식이 검출되면(S600) 이러한 자연표식을 바탕으로 현재 위치를 추정한다. 만약, 인공표식 및 자연표식이 모두 검출되지 않으면 주행 인코더에서 제공하는 인코딩 정보를 바탕으로 현재 위치를 추정한다(S800). The mobile robot searches for the next artificial marker located on the path to the destination and is spaced apart from the determined starting position and moves to the next artificial marker (S200). While moving from the starting position to the next artificial marker, the mobile robot continuously photographs the ceiling to acquire the natural image, identifies the natural marker in the natural image, and estimates the current position. When the mobile robot detects the next artificial marker (S300), the mobile robot accurately corrects the current position (S400). If the mobile robot does not detect the next artificial marker, it attempts to detect the natural marker. If a natural marker is detected (S600), the current position is estimated based on the natural marker. If neither the artificial mark nor the natural mark is detected, the current position is estimated based on the encoding information provided by the driving encoder (S800).
이동 로봇은 목적지에 도착하였는지 여부를 판단(S500)하여 목적지에 도착하지 않았으면 다시 경로 상에서 최단 거리 이격된 인공표식으로 이동한다(S200). The mobile robot determines whether it has arrived at the destination (S500), and if it does not arrive at the destination, moves to the artificial marker spaced apart from the shortest distance on the path (S200).
이하에서는 본 발명의 구체적인 구현 예 및 효과를 사진 및 도면을 통해 예시한다. Hereinafter, specific embodiments and effects of the present invention will be illustrated through a photograph and a drawing.
도 10은 본 발명의 일 실시예에 따른 위치산출 모듈을 구현한 사진이다. 10 is a picture of implementing the position calculation module according to an embodiment of the present invention.
카메라의 주위에 적외선 조명부를 설치하고, 동기신호 제어부를 포함하여 하나의 모듈로 구성하였다. An infrared illuminating unit was installed around the camera, and was composed of one module including a synchronization signal controller.
도 11은 위치산출 모듈에 포함된 카메라로 촬영한 자연 영상 및 조명 영상을 나타낸다. 도 11에서 왼쪽 사진은 자연 영상으로 인공표식이 잘 나타나지 않는 반 면, 오른쪽 사진은 조명 영상으로 인공표식이 분명하게 나타나는 것을 나타낸다. 11 illustrates a natural image and an illumination image photographed by a camera included in a location calculation module. In FIG. 11, the left picture shows a natural image, but the artificial mark does not appear well, while the right picture shows the artificial image clearly visible in the illumination image.
도 12는 실내 공간에 자연표식 및 인공표식을 배치하는 예를 나타낸다. 12 shows an example of arranging natural marks and artificial marks in an indoor space.
도 12에 나타난 바와 같이 실내 공간에 자연표식은 다수 존재하는데 반해 본 발명의 실시예에 따른 인공표식은 소수개로만 존재한다. 즉, 필요한 최소한의 인공표식을 이용할 수 있다. As shown in FIG. 12, there are a large number of natural markers in an indoor space, whereas only a few artificial markers exist according to an embodiment of the present invention. In other words, it is possible to use the minimum artificial marking required.
도 13은 종래의 네비게이션 방법과 본 발명에 따른 네비게이션 방법의 결과를 그래프로 나타낸 예시도이다. 13 is a diagram illustrating a result of a conventional navigation method and a navigation method according to the present invention in a graph.
도 13에서 빨간색 선은 이동로봇의 주행 인코더의 인코딩 정보만을 이용하여 네비게이션을 수행하는 경우 이동로봇의 이동경로를 나타내고, 파란색 선은 자연표식만을 이용하여 네비게이션을 수행하는 경우 이동로봇의 이동경로를 나타낸다. 즉, 종래의 네비게이션 방법에 따른 결과이다. 반면, 녹색선은 본 발명의 실시예에 따라 자연표식 및 인공표식을 모두 이용하여 네비게이션을 수행한 경우 이동로봇의 이동경로를 나타낸다. 도 13에 나타난 바와 같이 본 발명에 따른 경우에는 복도를 따라 이동로봇이 목적지로 이동하지만 다른 방법들은 위치 측정 오차가 커 제대로 네비게이션이 수행되지 않는 것을 알 수 있다. In FIG. 13, the red line represents the movement path of the mobile robot when the navigation is performed using only the encoding information of the driving encoder of the mobile robot, and the blue line represents the movement route of the mobile robot when the navigation is performed using only the natural marker. . That is, the result according to the conventional navigation method. On the other hand, the green line represents the movement path of the mobile robot when the navigation is performed using both the natural mark and the artificial mark according to the embodiment of the present invention. As shown in FIG. 13, in the case of the present invention, the mobile robot moves to the destination along the corridor, but the other methods show that the location measurement error is large and navigation is not performed properly.
본 발명에 따른 네비게이션 방법은 자연표식을 이용하여 로봇의 현재 위치를 추정하고, 신뢰성이 높은 인공표식을 이용하여 현재 위치를 보정할 수 있다. 인공표식과 자연표식을 모두 이용할 수 있으므로 인공표식을 설치하기 곤란한 지역에도 적용이 가능하다는 장점이 있다. The navigation method according to the present invention can estimate the current position of the robot by using a natural marker, and correct the current position by using a reliable artificial marker. Since both artificial and natural markers can be used, it can be applied to areas where artificial markers are difficult to install.
이상에서 살펴본 바와 같이 본 발명의 실시예에 대해 상세히 기술하였지만, 본 발명이 속하는 기술분야에 있어서 통상의 지식을 가진 사람이라면, 첨부된 청구 범위에 정의된 본 발명의 범위를 벗어나지 않으면서 본 발명을 여러 가지로 변형하여 실시할 수 있을 것이다. 따라서 본 발명의 앞으로의 실시예들의 변경은 본 발명의 기술을 벗어날 수 없을 것이다.Although the embodiments of the present invention have been described in detail as described above, those skilled in the art will appreciate that the present invention may be made without departing from the scope of the present invention as defined in the appended claims. It may be modified in various ways. Therefore, modifications of the embodiments of the present invention will not depart from the scope of the present invention.
도 1은 본 발명의 일 실시예에 따른 네비게이션 장치를 나타낸 블록도이다. 1 is a block diagram illustrating a navigation device according to an embodiment of the present invention.
도 2는 위치산출 모듈을 나타낸 블록도이다. 2 is a block diagram showing a position calculation module.
도 3은 동기신호 제어부와 조명부 및 카메라의 동작 과정을 시간적으로 나타낸 예시도이다. 3 is an exemplary view illustrating an operation process of a synchronization signal controller, an illumination unit, and a camera in time.
도 4는 차영상을 획득하는 예를 나타낸다. 4 shows an example of obtaining a difference image.
도 5는 인공표식을 나타낸 예시도이다. 5 is an exemplary view showing an artificial mark.
도 6은 차영상에서 취득된 인공표식의 실제 이미지를 나타낸다. 6 shows an actual image of the artificial marker acquired from the difference image.
도 7은 본 발명의 실시예에 따른 자연표식의 식별 방법을 나타낸다. 7 illustrates a method for identifying natural marks according to an embodiment of the present invention.
도 8은 특징점을 메모리에 저장하는 경우 사용하는 파라미터를 나타낸다. 8 shows parameters used when storing feature points in a memory.
도 9는 본 발명의 일 실시예에 따른 네비게이션 방법을 나타낸 흐름도이다. 9 is a flowchart illustrating a navigation method according to an embodiment of the present invention.
도 10은 본 발명의 일 실시예에 따른 위치산출 모듈을 구현한 사진이다. 10 is a picture of implementing the position calculation module according to an embodiment of the present invention.
도 11은 위치산출 모듈에 포함된 카메라로 촬영한 자연 영상 및 조명 영상을 나타낸다.11 illustrates a natural image and an illumination image photographed by a camera included in a location calculation module.
도 12는 실내 공간에 자연표식 및 인공표식을 배치하는 예를 나타낸다. 12 shows an example of arranging natural marks and artificial marks in an indoor space.
도 13은 다양한 네비게이션 방법의 결과를 그래프로 나타낸 예시도이다. 13 is a graph illustrating results of various navigation methods.
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090106636A KR101092002B1 (en) | 2009-11-05 | 2009-11-05 | Artificial landmark, appratus and method for navigation using artificial landmark and natural landmark |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090106636A KR101092002B1 (en) | 2009-11-05 | 2009-11-05 | Artificial landmark, appratus and method for navigation using artificial landmark and natural landmark |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110049567A KR20110049567A (en) | 2011-05-12 |
KR101092002B1 true KR101092002B1 (en) | 2011-12-08 |
Family
ID=44360682
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090106636A KR101092002B1 (en) | 2009-11-05 | 2009-11-05 | Artificial landmark, appratus and method for navigation using artificial landmark and natural landmark |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101092002B1 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104797386A (en) * | 2012-11-30 | 2015-07-22 | 株式会社安川电机 | Robotic system |
US9170581B2 (en) | 2013-09-30 | 2015-10-27 | Crown Equipment Limited | Industrial vehicles with overhead light based localization |
US9174830B1 (en) | 2014-09-29 | 2015-11-03 | Crown Equipment Limited | Industrial vehicles with point fix based localization |
US11798293B2 (en) | 2018-12-28 | 2023-10-24 | Sony Group Corporation | Optical vehicle positioning |
KR102179238B1 (en) * | 2020-05-25 | 2020-11-16 | 센서기술 주식회사 | Human following cruise and autonomous method for a vehicle |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100748245B1 (en) | 2005-12-09 | 2007-08-10 | 한국전자통신연구원 | Method for mapping and navigating mobile robot by artificial landmark and local coordinate |
KR100806596B1 (en) | 2006-09-30 | 2008-02-27 | 류형수 | Reflector plate jonting structure of illumination lamp |
-
2009
- 2009-11-05 KR KR1020090106636A patent/KR101092002B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100748245B1 (en) | 2005-12-09 | 2007-08-10 | 한국전자통신연구원 | Method for mapping and navigating mobile robot by artificial landmark and local coordinate |
KR100806596B1 (en) | 2006-09-30 | 2008-02-27 | 류형수 | Reflector plate jonting structure of illumination lamp |
Also Published As
Publication number | Publication date |
---|---|
KR20110049567A (en) | 2011-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111989544B (en) | System and method for indoor vehicle navigation based on optical target | |
JP5079703B2 (en) | System and method for calculating position in real time | |
KR100698534B1 (en) | Landmark for location recognition of mobile robot and location recognition device and method using same | |
US7812871B2 (en) | Index identification method and apparatus | |
KR101092002B1 (en) | Artificial landmark, appratus and method for navigation using artificial landmark and natural landmark | |
KR101105737B1 (en) | Apparatus and method for recognizing position of mobile robot | |
US8807428B2 (en) | Navigation of mobile devices | |
EP2017573B1 (en) | Estimation device, estimation method and estimation program for estimating a position of mobile unit | |
JP2009544966A (en) | Position calculation system and method using linkage between artificial sign and odometry | |
CN108022265B (en) | Method, equipment and system for determining pose of infrared camera | |
CN110174092B (en) | Dense cluster relative positioning method based on infrared coding target | |
KR20070066192A (en) | Method and apparatus for determining positions of robot | |
JPH0953939A (en) | Method and system for measuring position of mobile vehicle | |
WO2019193859A1 (en) | Camera calibration method, camera calibration device, camera calibration system and camera calibration program | |
KR20070061079A (en) | Localization system of mobile robot based on camera and landmarks and method there of | |
KR100564236B1 (en) | Self-localization apparatus and method of mobile robot | |
KR20080085278A (en) | Map creation system and map creation method of mobile robot | |
KR101233938B1 (en) | Robot and method of tracing object | |
US11801604B2 (en) | Robot of estimating direction based on vanishing point of low luminance image and method estimating thereof | |
KR100698535B1 (en) | Position recognition device and method of mobile robot with tilt correction function | |
KR20120108277A (en) | Method for localizing intelligent mobile robot by using both natural landmark and artificial landmark | |
US11441901B2 (en) | Optical surveying instrument | |
KR100913165B1 (en) | Apparatus and method for detecting a localization of mobility | |
KR20140053712A (en) | The localization method for indoor mobile robots by sensor fusion | |
KR20140032116A (en) | Method for localizing intelligent mobile robot by using natural landmark, artificial landmark and inertial sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20141127 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20160128 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20161202 Year of fee payment: 6 |