KR101092002B1 - Artificial landmark, appratus and method for navigation using artificial landmark and natural landmark - Google Patents

Artificial landmark, appratus and method for navigation using artificial landmark and natural landmark Download PDF

Info

Publication number
KR101092002B1
KR101092002B1 KR1020090106636A KR20090106636A KR101092002B1 KR 101092002 B1 KR101092002 B1 KR 101092002B1 KR 1020090106636 A KR1020090106636 A KR 1020090106636A KR 20090106636 A KR20090106636 A KR 20090106636A KR 101092002 B1 KR101092002 B1 KR 101092002B1
Authority
KR
South Korea
Prior art keywords
artificial
natural
marker
image
artificial marker
Prior art date
Application number
KR1020090106636A
Other languages
Korean (ko)
Other versions
KR20110049567A (en
Inventor
홍영진
이정우
서진호
최영호
방석원
강정원
Original Assignee
재단법인 포항지능로봇연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 포항지능로봇연구소 filed Critical 재단법인 포항지능로봇연구소
Priority to KR1020090106636A priority Critical patent/KR101092002B1/en
Publication of KR20110049567A publication Critical patent/KR20110049567A/en
Application granted granted Critical
Publication of KR101092002B1 publication Critical patent/KR101092002B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/02Means for marking measuring points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3623Destination input or retrieval using a camera or code reader, e.g. for optical or magnetic codes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096855Systems involving transmission of navigation instructions to the vehicle where the output is provided in a suitable form to the driver

Abstract

본 발명에 따른 인공표식과 자연표식을 혼용한 네비게이션 장치는 광원을 조사한 조명 영상 및 광원을 조사하지 않은 자연 영상을 촬영하는 카메라; 상기 조명 영상과 상기 자연 영상의 차영상을 계산하는 차영상 추출부; 및 상기 자연 영상으로부터 추출된 자연표식으로부터 위치정보를 추정하고, 상기 차영상으로부터 추출된 인공표식으로부터 상기 위치정보를 보정하는 위치 검출부를 포함한다. 자연표식만을 사용하는 방식보다 위치 및 방향에 대한 오차를 줄일 수 있고, 로봇의 이동 시 자연표식을 검출하기 어려운 환경에서도 로봇의 위치를 파악하고 보정할 수 있다. 또한 자연표식을 혼용하여 사용하기 때문에 인공표식만을 사용하는 방식보다 훨씬 적은 수의 인공표식을 사용하여 넓은 실내 공간에서 로봇의 정확한 이동 및 주행이 가능하다는 장점이 있다.According to an embodiment of the present invention, a navigation apparatus using a artificial marker and a natural marker may include a camera for photographing an illumination image irradiated with a light source and a natural image without irradiating the light source; A difference image extracting unit calculating a difference image between the illumination image and the natural image; And a position detector for estimating the position information from the natural marker extracted from the natural image and correcting the position information from the artificial marker extracted from the difference image. Compared to the method using only natural markers, errors in position and direction can be reduced, and the position of the robot can be detected and corrected even in an environment where it is difficult to detect natural markers when the robot moves. In addition, since the use of natural markers is mixed, there is an advantage that the robot can be accurately moved and traveled in a large indoor space using a much smaller number of artificial markers than the method using only artificial markers.

Description

인공표식, 인공표식과 자연표식을 혼용한 네비게이션 장치 및 방법{ARTIFICIAL LANDMARK, APPRATUS AND METHOD FOR NAVIGATION USING ARTIFICIAL LANDMARK AND NATURAL LANDMARK}ARTIFICIAL LANDMARK, APPRATUS AND METHOD FOR NAVIGATION USING ARTIFICIAL LANDMARK AND NATURAL LANDMARK}

본 발명은 이동로봇의 위치 인식을 위한 인공표식과 인공표식 및 자연표식을 이용한 이동로봇의 네비게이션 장치 및 방법에 관한 것으로, 보다 상세하게는 이동로봇의 정확한 위치를 보정할 수 있는 인공표식과 카메라로부터 인공표식 및 자연표식을 획득하여 이동로봇을 목적지까지 보다 정확하게 이동할 수 있게 하는 네비게이션 장치 및 방법에 관한 것이다.The present invention relates to a navigation device and a method of a mobile robot using artificial markers, artificial markers, and natural markers for location recognition of a mobile robot, and more particularly, from an artificial marker and a camera capable of correcting an accurate position of a mobile robot. The present invention relates to a navigation device and a method for acquiring artificial marks and natural marks to move a mobile robot to a destination more accurately.

기업의 사무실이나 병원의 입원 병동 등 비교적 넓은 면적의 실내 공간을 이동하도록 로봇을 제어하는 네비게이션 장치에는 로봇이 실내 공간상에서 어느 위치에 있는가를 인식하는 기능이 필요하다. 로봇이 실내 공간에서 위치를 인식하는 기술은 크게 인공표식을 이용하는 방법과 자연표식을 이용하는 방법으로 나눌 수 있다.The navigation device that controls the robot to move a relatively large indoor space such as an inpatient ward of an office or a hospital requires a function of recognizing where the robot is located in the indoor space. The technology that the robot recognizes the position in the indoor space can be largely divided into the method of using artificial markers and the method of using natural markers.

인공표식은 단순 패턴으로 형성하는 방식과 발광원을 이용하는 방식 등 다양한 방식으로 구성될 수 있다. 단순 패턴으로 형성하는 방식은 쉽고 간단히 구현이 가능하지만, 주변의 조명조건에 민감하여 성능 보장이 어려운 문제점이 있다. 발광원을 이용하는 방식은 단순 패턴으로 형성하는 방식에 비해 조명조건에 강인하지만, 발광원을 이용하여야 하므로 별도의 전원과 배선이 필요하다는 문제점이 있다. Artificial markers can be configured in a variety of ways, such as the form of a simple pattern and the method using a light emitting source. Forming a simple pattern can be easily and simply implemented, but there is a problem that it is difficult to guarantee the performance because it is sensitive to the ambient lighting conditions. The method using a light emitting source is more robust to lighting conditions than the method of forming a simple pattern, but there is a problem in that a separate power source and wiring are required because the light emitting source must be used.

자연표식은 별도로 인공적으로 만든 표식이 아닌, 카메라 영상에 비쳐지는 자연적인 이미지 패턴 중에 로봇이 구분하기 좋은 정보를 뽑아내어 이 정보를 표식으로 삼는 것이다. 자연표식으로 사용되는 대표적인 예는 코너점(corner point)이라는 정보로 흑백 이미지에서 밝기 정도의 변화가 심한 영역, 주로 경계 영역이 되는 부분을 자연표식으로 이용한다. The natural marker is not an artificially created marker, but extracts information that the robot can distinguish from the natural image patterns reflected on the camera image, and uses this information as a marker. A representative example used as a natural marker is a corner point, which uses a region in which the brightness level varies greatly, mainly a boundary region, in the black and white image as a natural marker.

인공표식을 이용하는 방법은 로봇에 달린 카메라로 읽은 인공표식을 미리 메모리에 저장해 둔 표식과 비교하고, 미리 저장되어 있는 해당 표식의 위치정보를 이용하여 로봇이 현재 위치를 파악하는 방식이다. The method of using an artificial mark is a method of comparing the artificial mark read by the camera attached to the robot with the mark previously stored in the memory, and using the position information of the previously stored mark to determine the current position of the robot.

자연표식을 이용하는 방법은 인공표식을 붙이기 어려운 환경, 즉 표식을 붙일 수 있는 장소가 마땅치 않거나 로봇 입장에서 잘 보이지 않는 등의 이유로 인공표식을 사용할 수 없을 때 별도의 표식을 붙이지 않고 자연 상태 그대로의 영상 정보 상의 특징점을 추출하여 추출된 특징점을 마치 인공표식처럼 분석하여 로봇이 자기 위치를 파악하는 방식이다. 자연표식을 인식하는 데는 미국 등록특허US6711293에 개시되어 있는 SIFT(Scale-invariant Feature Transform)라는 알고리즘이 많이 이용되고 있다.The method of using the natural marker is an image that is in its natural state without attaching a separate marker when the artificial marker cannot be used due to an environment in which it is difficult to apply the artificial marker, that is, the place where the marker can be attached or cannot be easily seen from the robot's point of view. It extracts feature points on information and analyzes the extracted feature points as if they were artificial markers. In order to recognize natural marks, an algorithm called Scale-invariant Feature Transform (SIFT) disclosed in US Patent US6711293 is used.

인공표식을 이용하는 방법은 로봇이 이동해야 하는 공간에 인공표식을 적절한 간격으로 부착하여야 하는데, 특히 넓은 실내 공간에 이러한 방법을 이용하기 위해서는 너무 많은 인공표식이 필요하다는 문제가 있다. 또한, 실내 공간에서 인공표식을 부착하기 어려운 곳도 존재할 수 있다. The method of using artificial markers has to attach artificial markers to the spaces to which the robot must move at appropriate intervals. In particular, there is a problem that too many artificial markers are required to use such methods in a large indoor space. In addition, there may be a place where it is difficult to attach the artificial marker in the indoor space.

자연표식을 이용하는 방법은 인공표식이 필요없는 장점은 있지만, 로봇의 이동주행 환경에 대한 특징정보가 비슷하게 나오는 곳에서는 위치오차가 너무 커지는 문제점이 있다. 즉, 실내에서 로봇에 장착된 카메라로 보았을 때 비슷 비슷한 영상이 들어오는 환경에서는 서로 다른 위치라 하더라도 비슷한 특징들이 추출되어 잘못된 위치를 검출할 확률이 높다. 또한, 조명조건이 변하거나 전에는 없던 물건이 놓여 있는 등의 이유로 다른 특징점이 검출되어 위치에 대한 오차가 크게 발생할 수 있다. 이처럼 자연표식을 이용하여 위치 검출 시 누적되는 오차로 인해 넓은 실내 공간의 경우 위치오차가 커질 확률이 큰 것이다. The method of using natural markers has the advantage of not requiring artificial markers, but there is a problem in that the positional error is too large in a place where feature information on the robot's moving environment is similar. In other words, when viewed from a camera mounted on a robot in a room, similar features are extracted even in different environments, and similar features are extracted to detect a wrong position. In addition, other feature points may be detected due to a change in lighting conditions or an object that has not been placed before, and a large error in position may occur. In this way, the position error is large in a large indoor space due to the accumulated error when detecting the position using natural markers.

따라서, 넓은 실내 공간에서 인공표식을 최소한으로 이용하면서 위치에 대한 오차율을 줄일 수 있는 방법과 이를 구현하기 위한 장치가 필요하다. Therefore, there is a need for a method for reducing an error rate for a location while minimizing artificial markers in a large indoor space and an apparatus for implementing the same.

네비게이션 장치에게 현재 위치를 신속 정확하게 검출할 수 있게 하는 인공표식을 제공하는데 그 목적이 있다. An object of the present invention is to provide an artificial marker that enables the navigation device to quickly and accurately detect the current location.

또한, 인공표식과 자연표식을 혼용하여 현재 위치를 신뢰성 높게 확인할 수 있고 목적지까지의 경로를 정확하게 안내할 수 있는 네비게이션 장치 및 방법을 제공하는데 그 목적이 있다.In addition, it is an object of the present invention to provide a navigation apparatus and method capable of reliably confirming the current position by using artificial markers and natural markers and guiding the route to the destination accurately.

본 발명의 일 측면에 따른 인공표식은 인공표식의 중심점을 나타내는 중심체; 상기 중심점을 원점으로 하는 기준축을 지시하는 방향 지시자; 및 상기 중심점을 중심으로 하는 원주 상에 소정 간격으로 배치되는 도형들로 구성된 코드부를 포함하되, 상기 코드부를 구성하는 도형들은 상기 인공표식의 ID를 나타내는 것을 특징으로 한다. Artificial marker according to an aspect of the present invention is a central body representing the center of the artificial marker; A direction indicator indicating a reference axis using the center point as the origin; And a code part including figures arranged at predetermined intervals on the circumference of the center point, wherein the figures constituting the code part represent an ID of the artificial mark.

본 발명의 다른 측면에 따른 네비게이션 장치는 광원을 조사한 조명 영상 및 광원을 조사하지 않은 자연 영상을 촬영하는 카메라; 상기 조명 영상과 상기 자연 영상의 차영상을 계산하는 차영상 추출부; 및 상기 자연 영상으로부터 추출된 자연표식으로부터 위치정보를 추정하고, 상기 차영상으로부터 추출된 인공표식으로부터 상기 위치정보를 보정하는 위치 검출부를 포함한다. According to another aspect of the present invention, a navigation device includes: a camera for photographing an illumination image irradiated with a light source and a natural image not irradiated with a light source; A difference image extracting unit calculating a difference image between the illumination image and the natural image; And a position detector for estimating the position information from the natural marker extracted from the natural image and correcting the position information from the artificial marker extracted from the difference image.

본 발명의 또 다른 측면에 따른 네비게이션 방법은 카메라로부터 입력되는 영상으로부터 인공표식을 검출하여 시작 위치를 산출하는 단계; 상기 산출된 시작 위치로부터 최단 거리로 이격되고 목적지까지의 경로에 위치한 다음 인공표식을 검색하는 단계; 상기 시작 위치로부터 상기 다음 인공표식으로 이동하는 동안 자연표식을 검출하여 위치를 추정하는 단계; 및 상기 다음 인공표식이 검출되면 위치를 보정하는 단계를 포함한다.According to still another aspect of the present invention, there is provided a navigation method, comprising: calculating a starting position by detecting an artificial mark from an image input from a camera; Retrieving a next artificial marker located at a path to a destination and spaced the shortest distance from the calculated starting position; Estimating a position by detecting a natural marker while moving from the start position to the next artificial marker; And correcting the position when the next artificial marker is detected.

자연표식만을 사용하는 방식보다 위치 및 방향에 대한 오차를 줄일 수 있고, 로봇의 이동 시 자연표식을 검출하기 어려운 환경에서도 로봇의 위치를 파악하고 보정할 수 있다. 또한 자연표식을 혼용하여 사용하기 때문에 인공표식만을 사용하는 방식보다 훨씬 적은 수의 인공표식을 사용하여 넓은 실내 공간에서 로봇의 정확한 이동 및 주행이 가능하다는 장점이 있다.Compared to the method using only natural markers, errors in position and direction can be reduced, and the position of the robot can be detected and corrected even in an environment where it is difficult to detect natural markers when the robot moves. In addition, since the use of natural markers is mixed, there is an advantage that the robot can be accurately moved and traveled in a large indoor space using a much smaller number of artificial markers than the method using only artificial markers.

도 1은 본 발명의 일 실시예에 따른 네비게이션 장치를 나타낸 블록도이다. 1 is a block diagram illustrating a navigation device according to an embodiment of the present invention.

도 1을 참조하면, 네비게이션 장치(500)는 중앙 제어부(200), 주행 인코더(300), 위치산출 모듈(100)을 포함한다. Referring to FIG. 1, the navigation device 500 includes a central controller 200, a travel encoder 300, and a location calculation module 100.

중앙 제어부(200)는 위치산출 모듈(100) 및 주행 인코더(300)로부터 위치 정보를 제공받고, 네비게이션 장치가 장착된 물체 예컨대 로봇이 출발지에서 목적지까지 이동할 수 있도록 모터와 같은 동력부(미도시)를 제어하는 장치이다. The central control unit 200 receives position information from the position calculating module 100 and the driving encoder 300, and a power unit (not shown) such as a motor to move an object equipped with a navigation device, for example, a robot from a starting point to a destination. It is a device to control.

주행 인코더(300)는 모터와 같은 동력부에 연결되어 동력부의 회전에 따라 회전각도와 회전수에 대한 정보를 제공한다. 주행 인코더(300)는 회전각도와 회전수에 대한 정보를 중앙 제어부(200)에 제공한다. The driving encoder 300 is connected to a power unit such as a motor to provide information about the rotation angle and the rotation speed according to the rotation of the power unit. The driving encoder 300 provides the central controller 200 with information about the rotation angle and the rotation speed.

위치산출 모듈(100)은 로봇의 현재 위치를 산출하는 모듈이다. 위치산출 모듈(100)은 인공표식 및/또는 자연표식을 이용하여 로봇의 현재 위치를 산출하고, 현재 위치에 대한 정보를 중앙 제어부(200)에 제공한다. Position calculation module 100 is a module for calculating the current position of the robot. The position calculation module 100 calculates the current position of the robot using artificial marks and / or natural marks, and provides information on the current position to the central controller 200.

도 2는 위치산출 모듈을 나타낸 블록도이다. 2 is a block diagram showing a position calculation module.

위치산출 모듈(100)은 카메라(10), 조명부(20), 동기신호 제어부(30), 차영상 추출부(40), 메모리(50), 위치 검출부(60)를 포함할 수 있다. The position calculation module 100 may include a camera 10, an illumination unit 20, a synchronization signal controller 30, a difference image extractor 40, a memory 50, and a position detector 60.

카메라(10)는 동기신호 제어부(30)에서 특정 신호가 주어지면 영상을 촬영할 수 있으며 영상을 캡쳐하는 시간을 조절할 수 있다. 카메라(10)는 조명부(20)와 일체형으로 구성될 수도 있고, 서로 이격되어 구성될 수도 있다. 카메라(10)는 가시광선 사진 또는 적외선 사진을 촬영할 수 있다. When a specific signal is given from the synchronization signal controller 30, the camera 10 may capture an image and adjust a time for capturing the image. The camera 10 may be integrated with the lighting unit 20 or may be spaced apart from each other. The camera 10 may take a visible light picture or an infrared picture.

조명부(20)는 인공표식에 빛을 비추는 광원으로 예를 들어, 적외선 LED(Light Emitting Diode)를 사용할 수 있다. 조명부(20)는 외부에서 주어지는 특정 신호에 의해 켜지거나 꺼질 수 있으며 발광 시간이 조절 가능하다. The lighting unit 20 may use, for example, an infrared light emitting diode (LED) as a light source that shines light on an artificial mark. The lighting unit 20 may be turned on or off by a specific signal given from the outside and the light emission time is adjustable.

동기신호 제어부(30)는 조명부(20)와 카메라(10)에 연결되어 조명부(20)와 카메라(10)의 동작을 조절하는 기능을 수행한다. 동기신호 제어부(30)에 의해 로봇이 이동하는 동안 원하는 속도로 영상을 취득할 수 있다. 동기신호 제어부(30)에 의해 조명부(20)의 광원을 끄고 카메라(10)가 촬영한 영상을 자연 영상이라 칭하고, 조명부(20)의 광원을 켜고 카메라(10)가 촬영한 영상을 조명 영상이라 칭한다. The synchronization signal controller 30 is connected to the lighting unit 20 and the camera 10 to control the operation of the lighting unit 20 and the camera 10. The synchronization signal controller 30 may acquire an image at a desired speed while the robot moves. The image taken by the camera 10 by turning off the light source of the lighting unit 20 by the synchronization signal controller 30 is called a natural image, and the image taken by the camera 10 by turning on the light source of the lighting unit 20 is called an illumination image. It is called.

차영상 추출부(40)는 자연 영상과 조명 영상의 차이를 추출하는 기능을 수행한다. 예를 들어 자연 영상과 조명 영상의 픽셀(pixel) 별로 배타적 논리 합(exclusive OR) 연산을 수행하는 방법으로 차영상을 추출할 수 있다. 차영상 추출부(40)에 의해 검출된 차영상은 인공표식이 식별하기 쉽게 나타난다. 이러한 차영상 추출부(40)는 예컨대, FPGA(Field Programmable Gate Array)로 구성할 수 있다. The difference image extractor 40 performs a function of extracting a difference between the natural image and the illumination image. For example, the difference image may be extracted by performing an exclusive OR operation for each pixel of the natural image and the illumination image. The difference image detected by the difference image extraction unit 40 is easily represented by an artificial mark. The difference image extractor 40 may be configured of, for example, a field programmable gate array (FPGA).

메모리(50)는 인공표식 및 자연표식의 위치정보를 저장하고, 현재 위치를 갱신하여 저장한다. 메모리(50)는 위치 검출부(60)와 연결되어 인공표식 및 자연표식의 위치정보를 제공한다. 메모리(50)는 위치산출 모듈(100)내에 일체로 구성될 수도 있고 별도로 구성될 수도 있다.The memory 50 stores location information of artificial marks and natural marks, and updates and stores the current position. The memory 50 is connected to the position detector 60 to provide position information of artificial marks and natural marks. The memory 50 may be integrated into the location calculation module 100 or may be separately configured.

위치 검출부(60)는 카메라(10)로부터 입력되는 자연 영상으로부터 자연표식을 식별하고, 차영상 추출부(40)로부터 입력되는 차영상으로부터 인공표식을 식별하여 메모리(50)에 저장된 위치정보와 일치여부를 판단하여 위치산출 모듈(100)의 현재 위치를 파악한다. The position detector 60 identifies the natural marker from the natural image input from the camera 10, identifies the artificial marker from the difference image input from the difference image extractor 40, and matches the position information stored in the memory 50. Determine the current position of the position calculation module 100 by determining whether or not.

도 3은 동기신호 제어부와 조명부 및 카메라의 동작 과정을 시간적으로 나타낸 예시도이다. 도 4는 차영상을 획득하는 예를 나타낸다. 3 is an exemplary view illustrating an operation process of a synchronization signal controller, an illumination unit, and a camera in time. 4 shows an example of obtaining a difference image.

동기신호 제어부(30)는 카메라(10)와 조명부(20)가 동시에 동작하는 제1 동기신호(31)와 카메라(10)만 동작하도록 하는 제2 동기신호(32)를 제공할 수 있다. 제1 동기신호(31)와 제2 동기신호(32)는 서로 구분되는 신호일 수도 있고, 동일한 신호이나 순서에 따라 구분되는 신호일 수도 있다. 조명 영상은 제1 동기신호(31)에 의해 촬영될 수 있고, 자연 영상은 제2 동기신호(32)에 의해 촬영될 수 있다. The synchronization signal controller 30 may provide the first synchronization signal 31 for operating the camera 10 and the illumination unit 20 simultaneously, and the second synchronization signal 32 for operating only the camera 10. The first synchronization signal 31 and the second synchronization signal 32 may be signals that are separated from each other, or may be signals that are distinguished according to the same signal or sequence. The illumination image may be photographed by the first sync signal 31, and the natural image may be photographed by the second sync signal 32.

도 5는 인공표식을 나타낸 예시도이다. 5 is an exemplary view showing an artificial mark.

인공표식(Artificial Landmark, AL)은 배경과 구분되는 인위적인 표식으로, 로봇이 인식할 수 있는 코드화된 정보를 담을 수 있다. Artificial landmarks (ALs) are artificial markers that are distinct from the background and can contain coded information that the robot can recognize.

도 5를 참조하면, 인공표식은 중심체와 방향 지시자 및 코드부로 구성될 수 있다. Referring to FIG. 5, the artificial marker may be composed of a central body, a direction indicator, and a code part.

중심체는 인공표식의 가운데에 위치하며 원 형태로 구성될 수 있다. 중심체는 인공표식의 중심점 즉, 기준 위치를 구할 수 있도록 하며, 로봇의 카메라가 식별하기 쉽도록 인공표식의 다른 부분 즉, 방향 지시자나 코드부에 비해 큰 면적을 가질 수 있다. The centrosome is located in the center of the artificial marker and can be configured in a circle. The central body may obtain a center point of the artificial mark, that is, a reference position, and may have a larger area than other parts of the artificial mark, that is, the direction indicator or the code part, so that the camera of the robot can be easily identified.

방향 지시자는 중심점을 원점으로 하는 인공표식의 기준축을 지시한다. 방향 지시자는 코드부 및 중심체와 식별이 가능하도록 서로 다른 기하학적 모양으로 구성되는 것이 바람직하다. 예를 들어, 방향 지시자는 타원 형태로 구성될 수 있다. The direction indicator indicates the reference axis of the artificial marker with the center point as the origin. The direction indicator is preferably composed of different geometric shapes so as to be distinguishable from the code part and the center body. For example, the direction indicator may be configured in the form of an ellipse.

코드부는 인공표식의 고유한 ID를 식별할 수 있는 정보를 포함하는 부분이다. 코드부는 인공표식의 중심점을 기준으로 동일한 원주 상에 소정 간격을 두고 배치될 수 있다. 코드부는 다수개의 동일한 면적을 가지는 원으로 구성될 수 있다. 이러한 원들이 배치될 수 있는 위치에 원이 배치되면 비트값 ‘1’을 나타내고, 원이 배치되지 않으면 비트값 ‘0’을 나타내는 식으로 비트열을 나타낼 수 있다. 예를 들어, 원들이 배치될 수 있는 위치가 7개이면, 27=128개의 코드를 만들 수 있다. The code part is a part containing information for identifying the unique ID of the artificial mark. The code part may be arranged at predetermined intervals on the same circumference with respect to the center point of the artificial mark. The code part may be composed of a plurality of circles having the same area. When a circle is disposed at a position where such circles may be arranged, the bit string may be represented by a bit value '1' and a bit string '0' when the circle is not disposed. For example, if there are seven locations where circles can be placed, we can make 2 7 = 128 codes.

코드부를 구성하는 다수개의 원들은 중심체와 방향 지시자에 의해 결정되는 기준축(51)에서 시계방향(또는 반시계방향)으로 MSB(Most Significant Bit)에서 LSB(Least Significant Bit) 순으로 각각 하나의 비트를 나타낼 수 있다(도 5에서 MSB는 p0, LSB는 p6의 순으로 나타내고 있다). 이러한 비트열로 구성된 코드는 각 인공표식마다 다른 고유번호를 제공하여 각 인공표식을 식별할 수 있도록 한다. 각 인공표식은 알려진 위치에 존재할 수 있으므로 이동로봇은 인공표식을 식별함으로써 현재 위치를 정확하게 알 수 있다. The plurality of circles constituting the code part are each one bit in order from Most Significant Bit (MSB) to Least Significant Bit (LSB) in the clockwise (or counterclockwise) direction on the reference axis 51 determined by the center body and the direction indicator. In FIG. 5, MSB is p 0 , and LSB is shown in the order p 6 . This bit string code provides a unique number for each artificial marker so that each artificial marker can be identified. Each artificial marker can exist at a known location, so the mobile robot can know the current location by identifying the artificial marker.

수학식 1은 코드부에서 식별되는 코드를 수학식으로 나타낸 것이다.Equation 1 shows a code identified in the code part as an equation.

Figure 112009068178182-pat00001
Figure 112009068178182-pat00001

수학식 1에서 ρi는 차영상에 있는 i번째 비트에 해당하는 영역의 픽셀 값을 의미하며, T는 코드부에 포함된 원의 존재 여부를 판단하는 경계값(Threshold value)으로 상수값이다. T는 실험적으로 미리 정해져서 주어질 수 있다. In Equation 1, ρ i denotes a pixel value of a region corresponding to the i-th bit in the difference image, and T is a threshold value that determines whether a circle included in the code part exists. T can be given experimentally predetermined.

인공표식은 전반사(retro-reflective) 재질의 테이프로 반사면을 구성할 수 있다. 그러면 일반 조명이 없는 야간에도 조명부에서 적외선을 조사하는 경우, 카메라가 인공표식을 촬영하는데 문제가 없다. Artificial markers can be made of reflective surfaces made of a retro-reflective material. Then, even when there is no general lighting at night when the illumination unit is irradiated with infrared, the camera has no problem shooting artificial marks.

도 6은 차영상에서 취득된 인공표식의 실제 이미지를 나타낸다. 6 shows an actual image of the artificial marker acquired from the difference image.

도 6에서 중심체의 한가운데를 중심점으로 하고, 방향 지시자와의 방향을 기준축으로 하여 시계방향으로 코드부에 포함된 원이 존재하는지 여부를 판단한다. 즉, 코드부에 포함된 원이 위치할 영역의 픽셀값을 경계값 T와 비교하여 판단한다. 도 6에서는 p0, p2, p3, p6이 경계값보다 작아 해당 비트가 ‘0’이 되고, p1, p4, p5는 경계값 이상이 되어 해당 비트가 ‘1’이 된다. 따라서, 코드는 이진수로 표현하면 ‘0100110’이 된다. In FIG. 6, it is determined whether there is a circle included in the code part in the clockwise direction with the center point as the center point and the direction with the direction indicator as the reference axis. That is, the pixel value of the area where the circle included in the code part is to be located is compared with the boundary value T to determine. In FIG. 6, p 0 , p 2 , p 3 , and p 6 are smaller than the boundary value so that the corresponding bit becomes '0', and p 1 , p 4 and p 5 become equal to or greater than the boundary value and the corresponding bit becomes '1'. . Therefore, the code is '0100110' in binary.

자연표식(Natural Landmark, NL)은 인공표식을 제외한 위치 식별을 위한 표식을 의미한다. 즉, 인공적으로 정보를 포함하게 만든 표식이 아니라 영상에 비쳐지는 그대로의 이미지 패턴 중에서 식별하기 좋은 정보를 포함하는 부분을 마치 인공표식처럼 사용하는 표식을 의미한다. 자연표식으로 사용되는 대표적인 예는 코너점(corner point)으로 흑백 영상에서 밝기 정도의 변화가 심한 영역, 주로 경계 영역이 되는 부분을 자연표식으로 사용한다. Natural Landmark (NL) means a marker for location identification except artificial marker. That is, it is not a marker that artificially includes information, but a marker that uses information that is easy to identify among the image patterns reflected on the image as if it is an artificial marker. A representative example used as a natural marker is a corner point, which uses a region where a change in brightness degree is severe, mainly a boundary region, in a black and white image as a natural marker.

도 7은 본 발명의 실시예에 따른 자연표식의 식별 방법을 나타낸다. 7 illustrates a method for identifying natural marks according to an embodiment of the present invention.

위치 검출부는 카메라로부터 자연 영상을 획득한다(S10). 위치 검출부는 자연 영상에 가우시안(Gaussian) 필터를 적용하여 노이즈를 제거한다(S20). 위치 검출부는 노이즈가 제거된 영상에서 고유값을 분석하여 코너점을 검출한다(S30). 코너점은 다음 수학식 2에 의해 검출할 수 있다. The position detector acquires a natural image from the camera (S10). The position detector removes noise by applying a Gaussian filter to the natural image (S20). The position detector detects a corner point by analyzing the eigenvalue in the image from which the noise is removed (S30). The corner point can be detected by the following equation.

Figure 112009068178182-pat00002
Figure 112009068178182-pat00002

수학식 2에서 Ix, Iy 는 특정 사이즈의 영상 영역에 포함된 각 픽셀에 대하 여픽셀값의 x, y 방향으로의 일계 편미분 값이고, Z는 상기 특정 사이즈의 영상 영역에서 Ix, Iy의 공분산(covariance)을 구한 행렬이다. 이러한 공분산 행렬로부터 고유값(eigenvalue) λ1, λ2을 구한다. λ1, λ2 중 어느 하나만 경계값인 λt 보다 큰 값을 갖는 경우, 상기 특정 사이즈의 영상 영역 내부에 선(line)이 하나만 존재하는 것으로 판단한다. λ1, λ2 둘 다 경계값인 λt 보다 큰 값을 갖는 경우 상기 특정 사이즈의 영상 영역 내부에 2개의 선이 존재하는 것으로 판단한다. 여기서, 상기 선(line)은 예를 들어 흑백 영상에서 각 픽셀이 밝기 값만을 가지는 경우, 밝기 값의 변화가 심한 경계 영역을 나타낸다. 경계값인 λt는 실험적으로 결정되는 값으로 미리 정하여 주어질 수 있다. 상술한 바와 같이 자연표식을 식별하는 방법은 단순하면서도 계산량이 적은 방법이다. In Equation 2, I x , I y are the daily partial differential values of the pixel values in the x and y directions for each pixel included in the image region of a specific size, and Z is I x , I in the image region of the specific size. This is the matrix for the covariance of y . From these covariance matrices, the eigenvalues λ 1 and λ 2 are obtained. When only one of λ 1 and λ 2 has a value larger than λ t , which is a boundary value, it is determined that only one line exists in the image area of the specific size. When both λ 1 and λ 2 have a value larger than the boundary value λ t , it is determined that two lines exist within the image area of the specific size. Here, the line represents a boundary area in which a change in brightness value is severe when each pixel has only a brightness value in a black and white image, for example. Λ t, which is a boundary value, may be predetermined as a value determined experimentally. As described above, the method of identifying natural marks is a simple method and a small amount of calculation.

상술한 코너점과 같은 특징점은 메모리에 저장된다. 특징점은 메모리에 저장될 때 이동하여야 할 실내 공간의 특정 기준점을 기준으로 (x, y, z)의 3개의 파라미터를 사용하는 일반적인 3차원 좌표를 저장할 수도 있지만, 맵핑 시 필터의 수렴 속도를 높이기 위해 5개의 파라미터를 사용하여 저장할 수도 있다. Feature points such as the corner points described above are stored in the memory. Feature points can store general three-dimensional coordinates using three parameters (x, y, z) relative to a particular reference point in the room to be moved when stored in memory, but to speed up the convergence of the filter when mapping It can also be stored using five parameters.

도 8은 특징점을 메모리에 저장하는 경우 사용하는 파라미터를 나타낸다. 8 shows parameters used when storing feature points in a memory.

(xi, yi)는 실내 공간의 특정 기준점 W을 기준으로 로봇이 특징점을 최초로 관측한 2차원 평면의 좌표값으로 관측점이라 칭한다. 관측점의 좌표값 (xi, yi)을 기준으로 새로운 극좌표계(1/ρi, αi, βi)로 특징점의 위치를 나타낸다. 여기서, ρi 는 관측점과 특징점 간의 거리의 역수이고, αi 는 방위각(azimuth), βi 는 고도각(elevation)을 나타낸다. (x i , y i ) is a coordinate value of a two-dimensional plane in which the robot first observes a feature point based on a specific reference point W in an indoor space, and is called an observation point. The position of the feature point is represented by a new polar coordinate system (1 / ρ i , α i , β i ) based on the coordinate values (x i , y i ) of the observation point. Where ρ i is the inverse of the distance between the observation point and the feature point, α i represents the azimuth, and β i represents the elevation.

관측점을 기준으로 극좌표계로 나타낸 특징점의 위치는 기준점 W의 직교 좌표계로 수학식 3과 같이 변환할 수 있다. The position of the feature point represented by the polar coordinate system with respect to the observation point may be converted into the Cartesian coordinate system of the reference point W as shown in Equation 3 below.

Figure 112009068178182-pat00003
Figure 112009068178182-pat00003

수학식 3에서 XW F 는 기준점 W를 기준으로 특징점을 나타내는 벡터이다. 로봇이 이동하면서 카메라 영상에서 움직이는 특징점은 확장 칼만 필터(Extended Kalman Filter, EKF)를 이용하여 계속하여 갱신된다. 관측된 특징점의 위치와 메모리에 저장되어 있는 특징점의 위치의 차이를 계산하여 오차가 있는 경우 보정을 수행한다. 그리고, 관측된 특징점의 위치가 메모리에 저장되어 있는 특징점의 위치와 소정 범위를 벗어나는 경우, 새로운 특징점으로 판단하여 메모리에 저장한다. 이 경우, 특징점을 잘못 인식하는 문제를 방지하기 위해 일정 시간 이상 연속적으로 관측되는 특징점에 대해서만 유효한 특징점으로 보고 메모리에 저장할 수 있다. In Equation 3, X W F is a vector representing a feature point based on the reference point W. As the robot moves, feature points moving in the camera image are continuously updated using the Extended Kalman Filter (EKF). The difference between the position of the observed feature point and the position of the feature point stored in the memory is calculated and the correction is performed when there is an error. When the position of the observed feature point is out of a predetermined range and the position of the feature point stored in the memory, it is determined as a new feature point and stored in the memory. In this case, in order to prevent the problem of misrecognizing the feature point, it may be stored in the report memory as a valid feature point only for the feature points continuously observed for a predetermined time or more.

도 9는 본 발명의 일 실시예에 따른 네비게이션 방법을 나타낸 흐름도이다. 9 is a flowchart illustrating a navigation method according to an embodiment of the present invention.

상술한 네비게이션 장치를 포함하는 로봇(이하 이동 로봇)은 외부로부터 목적지가 입력되면(S80), 현재 위치를 파악한다(S90). 현재 위치 파악을 위해 먼저, 인공표식의 검출을 시도한다. 인공표식이 검출되지 않으면, 자연표식만으로 현재 위치를 파악한다. 현재 위치가 파악되면, 목적지까지의 경로를 생성한다(S100). When a destination is input from the outside (S80), the robot including the above-described navigation device (S80) grasps the current position (S90). In order to determine the current position, first, an artificial marker is detected. If no artificial marker is detected, only the natural marker identifies the current position. If the current location is identified, a path to the destination is generated (S100).

이동 로봇은 파악된 시작 위치로부터 최단 거리로 이격되고 목적지까지의 경로상에 위치한 다음 인공표식을 검색한 후 다음 인공표식으로 이동한다(S200). 시작 위치에서 다음 인공표식으로 이동하는 동안 이동 로봇은 계속하여 천장을 촬영하여 자연 영상을 취득하고, 자연 영상에서 자연표식을 식별하여 현재 위치를 추정하며 이동한다. 이동 로봇이 다음 인공표식을 검출하면(S300) 현재 위치를 정확하게 보정한다(S400). 이동 로봇이 다음 인공표식을 검출하지 못하는 경우에는 자연표식의 검출을 시도한다. 자연표식이 검출되면(S600) 이러한 자연표식을 바탕으로 현재 위치를 추정한다. 만약, 인공표식 및 자연표식이 모두 검출되지 않으면 주행 인코더에서 제공하는 인코딩 정보를 바탕으로 현재 위치를 추정한다(S800). The mobile robot searches for the next artificial marker located on the path to the destination and is spaced apart from the determined starting position and moves to the next artificial marker (S200). While moving from the starting position to the next artificial marker, the mobile robot continuously photographs the ceiling to acquire the natural image, identifies the natural marker in the natural image, and estimates the current position. When the mobile robot detects the next artificial marker (S300), the mobile robot accurately corrects the current position (S400). If the mobile robot does not detect the next artificial marker, it attempts to detect the natural marker. If a natural marker is detected (S600), the current position is estimated based on the natural marker. If neither the artificial mark nor the natural mark is detected, the current position is estimated based on the encoding information provided by the driving encoder (S800).

이동 로봇은 목적지에 도착하였는지 여부를 판단(S500)하여 목적지에 도착하지 않았으면 다시 경로 상에서 최단 거리 이격된 인공표식으로 이동한다(S200). The mobile robot determines whether it has arrived at the destination (S500), and if it does not arrive at the destination, moves to the artificial marker spaced apart from the shortest distance on the path (S200).

이하에서는 본 발명의 구체적인 구현 예 및 효과를 사진 및 도면을 통해 예시한다. Hereinafter, specific embodiments and effects of the present invention will be illustrated through a photograph and a drawing.

도 10은 본 발명의 일 실시예에 따른 위치산출 모듈을 구현한 사진이다. 10 is a picture of implementing the position calculation module according to an embodiment of the present invention.

카메라의 주위에 적외선 조명부를 설치하고, 동기신호 제어부를 포함하여 하나의 모듈로 구성하였다. An infrared illuminating unit was installed around the camera, and was composed of one module including a synchronization signal controller.

도 11은 위치산출 모듈에 포함된 카메라로 촬영한 자연 영상 및 조명 영상을 나타낸다. 도 11에서 왼쪽 사진은 자연 영상으로 인공표식이 잘 나타나지 않는 반 면, 오른쪽 사진은 조명 영상으로 인공표식이 분명하게 나타나는 것을 나타낸다. 11 illustrates a natural image and an illumination image photographed by a camera included in a location calculation module. In FIG. 11, the left picture shows a natural image, but the artificial mark does not appear well, while the right picture shows the artificial image clearly visible in the illumination image.

도 12는 실내 공간에 자연표식 및 인공표식을 배치하는 예를 나타낸다. 12 shows an example of arranging natural marks and artificial marks in an indoor space.

도 12에 나타난 바와 같이 실내 공간에 자연표식은 다수 존재하는데 반해 본 발명의 실시예에 따른 인공표식은 소수개로만 존재한다. 즉, 필요한 최소한의 인공표식을 이용할 수 있다. As shown in FIG. 12, there are a large number of natural markers in an indoor space, whereas only a few artificial markers exist according to an embodiment of the present invention. In other words, it is possible to use the minimum artificial marking required.

도 13은 종래의 네비게이션 방법과 본 발명에 따른 네비게이션 방법의 결과를 그래프로 나타낸 예시도이다. 13 is a diagram illustrating a result of a conventional navigation method and a navigation method according to the present invention in a graph.

도 13에서 빨간색 선은 이동로봇의 주행 인코더의 인코딩 정보만을 이용하여 네비게이션을 수행하는 경우 이동로봇의 이동경로를 나타내고, 파란색 선은 자연표식만을 이용하여 네비게이션을 수행하는 경우 이동로봇의 이동경로를 나타낸다. 즉, 종래의 네비게이션 방법에 따른 결과이다. 반면, 녹색선은 본 발명의 실시예에 따라 자연표식 및 인공표식을 모두 이용하여 네비게이션을 수행한 경우 이동로봇의 이동경로를 나타낸다. 도 13에 나타난 바와 같이 본 발명에 따른 경우에는 복도를 따라 이동로봇이 목적지로 이동하지만 다른 방법들은 위치 측정 오차가 커 제대로 네비게이션이 수행되지 않는 것을 알 수 있다. In FIG. 13, the red line represents the movement path of the mobile robot when the navigation is performed using only the encoding information of the driving encoder of the mobile robot, and the blue line represents the movement route of the mobile robot when the navigation is performed using only the natural marker. . That is, the result according to the conventional navigation method. On the other hand, the green line represents the movement path of the mobile robot when the navigation is performed using both the natural mark and the artificial mark according to the embodiment of the present invention. As shown in FIG. 13, in the case of the present invention, the mobile robot moves to the destination along the corridor, but the other methods show that the location measurement error is large and navigation is not performed properly.

본 발명에 따른 네비게이션 방법은 자연표식을 이용하여 로봇의 현재 위치를 추정하고, 신뢰성이 높은 인공표식을 이용하여 현재 위치를 보정할 수 있다. 인공표식과 자연표식을 모두 이용할 수 있으므로 인공표식을 설치하기 곤란한 지역에도 적용이 가능하다는 장점이 있다. The navigation method according to the present invention can estimate the current position of the robot by using a natural marker, and correct the current position by using a reliable artificial marker. Since both artificial and natural markers can be used, it can be applied to areas where artificial markers are difficult to install.

이상에서 살펴본 바와 같이 본 발명의 실시예에 대해 상세히 기술하였지만, 본 발명이 속하는 기술분야에 있어서 통상의 지식을 가진 사람이라면, 첨부된 청구 범위에 정의된 본 발명의 범위를 벗어나지 않으면서 본 발명을 여러 가지로 변형하여 실시할 수 있을 것이다. 따라서 본 발명의 앞으로의 실시예들의 변경은 본 발명의 기술을 벗어날 수 없을 것이다.Although the embodiments of the present invention have been described in detail as described above, those skilled in the art will appreciate that the present invention may be made without departing from the scope of the present invention as defined in the appended claims. It may be modified in various ways. Therefore, modifications of the embodiments of the present invention will not depart from the scope of the present invention.

도 1은 본 발명의 일 실시예에 따른 네비게이션 장치를 나타낸 블록도이다. 1 is a block diagram illustrating a navigation device according to an embodiment of the present invention.

도 2는 위치산출 모듈을 나타낸 블록도이다. 2 is a block diagram showing a position calculation module.

도 3은 동기신호 제어부와 조명부 및 카메라의 동작 과정을 시간적으로 나타낸 예시도이다. 3 is an exemplary view illustrating an operation process of a synchronization signal controller, an illumination unit, and a camera in time.

도 4는 차영상을 획득하는 예를 나타낸다. 4 shows an example of obtaining a difference image.

도 5는 인공표식을 나타낸 예시도이다. 5 is an exemplary view showing an artificial mark.

도 6은 차영상에서 취득된 인공표식의 실제 이미지를 나타낸다. 6 shows an actual image of the artificial marker acquired from the difference image.

도 7은 본 발명의 실시예에 따른 자연표식의 식별 방법을 나타낸다. 7 illustrates a method for identifying natural marks according to an embodiment of the present invention.

도 8은 특징점을 메모리에 저장하는 경우 사용하는 파라미터를 나타낸다. 8 shows parameters used when storing feature points in a memory.

도 9는 본 발명의 일 실시예에 따른 네비게이션 방법을 나타낸 흐름도이다. 9 is a flowchart illustrating a navigation method according to an embodiment of the present invention.

도 10은 본 발명의 일 실시예에 따른 위치산출 모듈을 구현한 사진이다. 10 is a picture of implementing the position calculation module according to an embodiment of the present invention.

도 11은 위치산출 모듈에 포함된 카메라로 촬영한 자연 영상 및 조명 영상을 나타낸다.11 illustrates a natural image and an illumination image photographed by a camera included in a location calculation module.

도 12는 실내 공간에 자연표식 및 인공표식을 배치하는 예를 나타낸다. 12 shows an example of arranging natural marks and artificial marks in an indoor space.

도 13은 다양한 네비게이션 방법의 결과를 그래프로 나타낸 예시도이다. 13 is a graph illustrating results of various navigation methods.

Claims (12)

네비게이션 장치에게 위치 정보를 알려주는 인공표식에 있어서, In the artificial marker to inform the navigation device of the location information, 인공표식의 중심점을 나타내는 중심체;A centroid representing a centroid of the artificial marker; 상기 중심점을 원점으로 하는 기준축을 지시하는 방향 지시자; 및 A direction indicator indicating a reference axis using the center point as the origin; And 상기 중심점을 중심으로 하는 원주 상에 소정 간격으로 배치되는 도형들로 구성된 코드부를 포함하되, 상기 코드부를 구성하는 도형들은 상기 인공표식의 ID를 나타내는 것을 특징으로 하는 인공표식. And a code part including figures arranged at predetermined intervals on a circumference of the center point, wherein the figures constituting the code part represent an ID of the artificial mark. 제 1 항에 있어서, 상기 코드부의 도형들 각각은 상기 기준축에서 시계 방향 또는 반시계 방향으로 배치된 순서에 따라 MSB(most significant bit)에서 LSB (least significant bit)순으로 하나의 비트를 나타내는 것을 특징으로 하는 인공표식. The method of claim 1, wherein each of the figures of the code part represents one bit in order of most significant bit (MSB) to least significant bit (LSB) according to the order arranged clockwise or counterclockwise on the reference axis. Artificial marker characterized by. 제 1 항에 있어서, 상기 코드부는 상기 중심점을 중심으로 하는 원주 상에 동일한 간격으로 배치되는 원(circle)들로 구성되는 것을 특징으로 하는 인공표식. The artificial marker according to claim 1, wherein the cord part comprises circles arranged at equal intervals on a circumference of the center point. 제 1 항에 있어서, The method of claim 1, 상기 인공표식은 반사면이 광을 전반사하는 재질로 구성되는 것을 특징으로 하는 인공표식. The artificial marker is an artificial marker, characterized in that the reflective surface is composed of a material that totally reflects light. 광원을 조사한 조명 영상 및 광원을 조사하지 않은 자연 영상을 촬영하는 카메라; A camera for photographing an illumination image irradiated with a light source and a natural image not irradiated with the light source; 상기 조명 영상과 상기 자연 영상의 차영상을 계산하는 차영상 추출부; 및A difference image extracting unit calculating a difference image between the illumination image and the natural image; And 상기 자연 영상으로부터 추출된 자연표식으로부터 위치정보를 추정하고, 상기 차영상으로부터 추출된 인공표식으로부터 상기 위치정보를 보정하는 위치 검출부를 포함하되, A position detector for estimating the position information from the natural marker extracted from the natural image and correcting the position information from the artificial marker extracted from the difference image, 상기 인공표식은 The artificial marker is 인공표식의 중심점을 나타내는 중심체;A centroid representing a centroid of the artificial marker; 상기 중심점을 원점으로 하는 기준축을 지시하는 방향 지시자; 및 A direction indicator indicating a reference axis using the center point as the origin; And 상기 중심점을 중심으로 하는 원주 상에 소정 간격으로 배치되는 도형들로 구성된 코드부를 포함하되, 상기 코드부를 구성하는 도형들은 상기 인공표식의 ID를 나타내는 것을 특징으로 하는 인공표식과 자연표식을 혼용한 네비게이션 장치. A navigation unit comprising an artificial marker and a natural marker including a code part including figures arranged at predetermined intervals on a circumference of the center point, wherein the figures constituting the code part represent an ID of the artificial mark. Device. 제 5 항에 있어서, 상기 자연표식은 상기 자연 영상에 포함된 각 픽셀에 대한 공분산으로부터 고유값을 구하여 식별하는 것을 특징으로 하는 인공표식과 자연표식을 혼용한 네비게이션 장치. The navigation apparatus as claimed in claim 5, wherein the natural marker is identified by obtaining an eigenvalue from the covariance of each pixel included in the natural image. 제 6 항에 있어서, The method of claim 6, 상기 공분산은 다음 수학식에 의해 결정되는 것을 특징으로 하는 인공표식과 자연표식을 혼용한 네비게이션 장치.The covariance is a navigation apparatus using a combination of artificial and natural markers, characterized in that determined by the following equation. [수학식][Equation]
Figure 112011039822707-pat00004
Figure 112011039822707-pat00004
상기 수학식에서 Ix, Iy 는 상기 자연 영상에 포함된 소정 영역의 각 픽셀값의 x, y 방향으로의 일계 편미분 값이고, Z는 상기 소정 영역에서 Ix, Iy의 공분산(covariance) 행렬이다.In the above equation, Ix and Iy are daily partial differential values in the x and y directions of respective pixel values of the predetermined region included in the natural image, and Z is a covariance matrix of Ix and Iy in the predetermined region.
카메라로부터 입력되는 영상으로부터 인공표식을 검출하여 시작 위치를 산출하는 단계; Calculating a starting position by detecting an artificial mark from an image input from a camera; 상기 산출된 시작 위치로부터 최단 거리로 이격되고 목적지까지의 경로에 위치한 다음 인공표식을 검색하는 단계; Retrieving a next artificial marker located at a path to a destination and spaced the shortest distance from the calculated starting position; 상기 시작 위치로부터 상기 다음 인공표식으로 이동하는 동안 자연표식을 검출하여 위치를 추정하는 단계; 및 Estimating a position by detecting a natural marker while moving from the start position to the next artificial marker; And 상기 다음 인공표식이 검출되면 위치를 보정하는 단계를 포함하되, Compensating the position when the next artificial marker is detected, 상기 인공표식은 The artificial marker is 인공표식의 중심점을 나타내는 중심체;A centroid representing a centroid of the artificial marker; 상기 중심점을 원점으로 하는 기준축을 지시하는 방향 지시자; 및 A direction indicator indicating a reference axis using the center point as the origin; And 상기 중심점을 중심으로 하는 원주 상에 소정 간격으로 배치되는 도형들로 구성된 코드부를 포함하되, 상기 코드부를 구성하는 도형들은 상기 인공표식의 ID를 나타내는 것을 특징으로 하는 인공표식과 자연표식을 혼용한 네비게이션 방법. A navigation unit comprising an artificial marker and a natural marker including a code part including figures arranged at predetermined intervals on a circumference of the center point, wherein the figures constituting the code part represent an ID of the artificial mark. Way. 삭제delete 삭제delete 삭제delete 삭제delete
KR1020090106636A 2009-11-05 2009-11-05 Artificial landmark, appratus and method for navigation using artificial landmark and natural landmark KR101092002B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090106636A KR101092002B1 (en) 2009-11-05 2009-11-05 Artificial landmark, appratus and method for navigation using artificial landmark and natural landmark

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090106636A KR101092002B1 (en) 2009-11-05 2009-11-05 Artificial landmark, appratus and method for navigation using artificial landmark and natural landmark

Publications (2)

Publication Number Publication Date
KR20110049567A KR20110049567A (en) 2011-05-12
KR101092002B1 true KR101092002B1 (en) 2011-12-08

Family

ID=44360682

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090106636A KR101092002B1 (en) 2009-11-05 2009-11-05 Artificial landmark, appratus and method for navigation using artificial landmark and natural landmark

Country Status (1)

Country Link
KR (1) KR101092002B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104797386A (en) * 2012-11-30 2015-07-22 株式会社安川电机 Robotic system
US9170581B2 (en) 2013-09-30 2015-10-27 Crown Equipment Limited Industrial vehicles with overhead light based localization
US9174830B1 (en) 2014-09-29 2015-11-03 Crown Equipment Limited Industrial vehicles with point fix based localization
US11798293B2 (en) 2018-12-28 2023-10-24 Sony Group Corporation Optical vehicle positioning
KR102179238B1 (en) * 2020-05-25 2020-11-16 센서기술 주식회사 Human following cruise and autonomous method for a vehicle

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100748245B1 (en) 2005-12-09 2007-08-10 한국전자통신연구원 Method for mapping and navigating mobile robot by artificial landmark and local coordinate
KR100806596B1 (en) 2006-09-30 2008-02-27 류형수 Reflector plate jonting structure of illumination lamp

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100748245B1 (en) 2005-12-09 2007-08-10 한국전자통신연구원 Method for mapping and navigating mobile robot by artificial landmark and local coordinate
KR100806596B1 (en) 2006-09-30 2008-02-27 류형수 Reflector plate jonting structure of illumination lamp

Also Published As

Publication number Publication date
KR20110049567A (en) 2011-05-12

Similar Documents

Publication Publication Date Title
CN111989544B (en) System and method for indoor vehicle navigation based on optical target
JP5079703B2 (en) System and method for calculating position in real time
KR100698534B1 (en) Landmark for location recognition of mobile robot and location recognition device and method using same
US7812871B2 (en) Index identification method and apparatus
KR101092002B1 (en) Artificial landmark, appratus and method for navigation using artificial landmark and natural landmark
KR101105737B1 (en) Apparatus and method for recognizing position of mobile robot
US8807428B2 (en) Navigation of mobile devices
EP2017573B1 (en) Estimation device, estimation method and estimation program for estimating a position of mobile unit
JP2009544966A (en) Position calculation system and method using linkage between artificial sign and odometry
CN108022265B (en) Method, equipment and system for determining pose of infrared camera
CN110174092B (en) Dense cluster relative positioning method based on infrared coding target
KR20070066192A (en) Method and apparatus for determining positions of robot
JPH0953939A (en) Method and system for measuring position of mobile vehicle
WO2019193859A1 (en) Camera calibration method, camera calibration device, camera calibration system and camera calibration program
KR20070061079A (en) Localization system of mobile robot based on camera and landmarks and method there of
KR100564236B1 (en) Self-localization apparatus and method of mobile robot
KR20080085278A (en) Map creation system and map creation method of mobile robot
KR101233938B1 (en) Robot and method of tracing object
US11801604B2 (en) Robot of estimating direction based on vanishing point of low luminance image and method estimating thereof
KR100698535B1 (en) Position recognition device and method of mobile robot with tilt correction function
KR20120108277A (en) Method for localizing intelligent mobile robot by using both natural landmark and artificial landmark
US11441901B2 (en) Optical surveying instrument
KR100913165B1 (en) Apparatus and method for detecting a localization of mobility
KR20140053712A (en) The localization method for indoor mobile robots by sensor fusion
KR20140032116A (en) Method for localizing intelligent mobile robot by using natural landmark, artificial landmark and inertial sensor

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20141127

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160128

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20161202

Year of fee payment: 6