KR101141601B1 - Quick map building apparatus based on vision natural landmark - Google Patents

Quick map building apparatus based on vision natural landmark Download PDF

Info

Publication number
KR101141601B1
KR101141601B1 KR1020090031365A KR20090031365A KR101141601B1 KR 101141601 B1 KR101141601 B1 KR 101141601B1 KR 1020090031365 A KR1020090031365 A KR 1020090031365A KR 20090031365 A KR20090031365 A KR 20090031365A KR 101141601 B1 KR101141601 B1 KR 101141601B1
Authority
KR
South Korea
Prior art keywords
image
map
unit
natural
wheel
Prior art date
Application number
KR1020090031365A
Other languages
Korean (ko)
Other versions
KR20100062858A (en
Inventor
이유철
박승환
유원필
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20100062858A publication Critical patent/KR20100062858A/en
Application granted granted Critical
Publication of KR101141601B1 publication Critical patent/KR101141601B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Marketing (AREA)
  • Remote Sensing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 영상기반 자연표식물 지도 작성 장치 및 그 방법에 관한 것으로, 바퀴의 회전수로 위치를 산출하고, 레이저 센서를 통해 거리정보를 측정하며, 비전 센서를 통해 자연표식물을 추출하여 이동로봇의 위치추정 기술에 활용하기 위한 지도를 작성함으로써, 공공시설, 병원, 공장 등에서 이동로봇을 포함한 이동체가 주위 환경을 인식하기 위한 영상 기반 자연표식물을 신속하고 정확하게 작성할 수 있다. 또한, 본 발명은 영상기반 자연표식물 지도 작성 장치 및 그 방법을 제공함으로써, 사용자가 카트 형태의 이동체를 끌고 다니면서 물리적 치수에 기반한 지도와 영상에 기반한 자연표식물 지도를 작성하여 이동체에 제공할 수 있어 영상 기반 자연표식물 지도를 구축하는데 소요되는 시간을 절약할 수 있으며, 이동 로봇과 같은 이동체의 정확한 위치를 추정하는데 활용될 수 있는 이점이 있다.

Figure R1020090031365

지도 작성, 자연표식물, 비전 센서, 이동로봇

The present invention relates to an image-based natural marker mapping apparatus and method thereof, and more particularly, it relates to an image-based natural marker mapping apparatus and method thereof that calculates a position using a rotation number of a wheel, measures distance information through a laser sensor, extracts a natural marker through a vision sensor, By creating a map to be used for the estimation technique, a moving object including a mobile robot can quickly and accurately create an image-based natural marker for recognizing the surrounding environment in a public facility, a hospital, a factory or the like. In addition, the present invention provides an image-based natural marker mapping apparatus and a method thereof, allowing a user to draw a cart-shaped moving object, create a map based on physical dimensions and a natural marker map based on the image, Based natural marker map can be saved, and there is an advantage that it can be utilized for estimating the exact position of a moving object such as a mobile robot.

Figure R1020090031365

Mapping, natural markers, vision sensors, mobile robots

Description

영상기반 자연표식물 지도 작성 장치{QUICK MAP BUILDING APPARATUS BASED ON VISION NATURAL LANDMARK}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to an image-based natural marker mapping apparatus,

본 발명은 영상기반 자연표식물 지도 작성 장치 및 그 방법에 관한 것으로서, 더욱 상세하게는 바퀴의 회전수로 위치를 산출하고, 레이저 센서를 통해 거리정보를 측정하며, 비전 센서를 통해 자연표식물을 추출하여 이동로봇의 위치추정 기술에 활용하기 위한 지도를 작성할 수 있는 장치에 관한 것이다. The present invention relates to an image-based natural marking apparatus and method thereof, and more particularly, to an image-based natural marking apparatus and method thereof, And a device capable of creating a map for utilization in a position estimation technique of a mobile robot.

본 발명은 지식경제부 및 정보통신진흥연구원의 IT성장동력기술개발 사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호 : 2005-S-092-03, 과제명 : USN 기반 Ubiquitous Robotic Space 기술 개발].The present invention was derived from research carried out by the Ministry of Knowledge Economy and the Institute of Information and Communication Technology as a part of the IT Growth Driving Technology Development Project [Task Number: 2005-S-092-03, Project Name: USN-based Ubiquitous Robotic Space Technology Development ].

주지된 바와 같이, 로봇 기술에 대해 관심이 높아지면서 그 활용도가 점차적으로 다양화되고 있는 실정이다. 즉 로봇 기술 중 특히 자율이동로봇의 경우 여러 분야에 걸쳐 많이 사용되고 있는데, 가령 장애자를 도와주는 일, 공장에서 물류를 이송하는 일, 우주탐사작업, 핵폐기물 처리장 또는 심해와 같이 위험한 환경에서의 작업등을 인간을 대신하여 수행하고 있다. As is well known, as the interest in robot technology increases, the utilization rate thereof is gradually diversified. In particular, autonomous mobile robots are widely used in various fields such as helping handicapped persons, transferring logistics from factories, space exploration work, nuclear waste disposal plant, or work in a dangerous environment such as deep sea. We are performing on behalf of human beings.

이러한, 자율이동로봇은 위험한 환경에서의 작업을 대신할 뿐만 아니라 무인청소기, 무인 잔디 깎기 등과 같이 위험하지 않은 작업을 대신하는 용도로도 사용이 가능함에 따라 이 자율이동로봇을 운용하는 운용자에게는 생활의 윤택함을 줄 것이며, 기업에게는 이의 다량 산업화로 고부가가치의 시장을 제공해 줄 것이다.Such an autonomous mobile robot replaces dangerous environment work, and can be used as a substitute for non-dangerous work such as an unmanned vacuum cleaner or an unmanned lawn mower. Therefore, It will give the company a high value-added market due to its mass industrialization.

현재까지 자율이동로봇의 경우 인지능력과 추론능력이 인간과 비교하여 매우 열등하여 그 기능이 매우 제한적임에 따라 보다 많은 분야에서 로봇의 지능을 향상시키기 위한 연구가 이루어지고 있다.Until now, autonomous mobile robots have been inferior to humans in their cognitive abilities and reasoning abilities, and their functions are very limited. Therefore, researches have been conducted to improve the intelligence of robots in many fields.

여기서, 자율이동로봇은 그 무엇보다 원하는 목적지까지 충돌 없이 이동할 수 있어야 하는 것으로, 생활공간 속에서 자유롭게 이동하기 위해서는 스스로 자신의 위치가 어디에 있는지를 판단할 수 있는 능력이 필요하다. 이러한 기능들은 위치측정 기술 및 지도작성 기술에 의해 수행된다. 이 두 기능은 '달걀과 닭'의 관계처럼 서로 연관관계가 매우 깊은 것으로, 만일 지도를 잘못 작성할 경우 그것을 바탕으로 한 위치추정 성능 역시 현저하게 떨어질 것이며, 그 위치를 바탕으로 지도를 작성하였을 경우 그 오차는 더욱 커지게 될 것이다. 이는 정확한 지도작성 기술 또는 위치측정 기술 중 한가지만이라도 만족하는 성능을 로봇에게 제공 가능하다면, 다른 나머지 한 개의 기술 또한 만족하는 결과를 낼 수 있다.Here, the autonomous mobile robot must be capable of moving to a desired destination without collision, and in order to move freely in the living space, it is necessary to have an ability to determine where his / her own position is. These functions are performed by position measurement techniques and mapping techniques. These two functions are very related to each other like the relationship between 'eggs and chickens'. If the map is erroneously written, the positioning performance based on it will be significantly decreased. If the map is created based on the position, The error will become even bigger. This can result in satisfying the other one technique if it is possible to provide the robots with satisfactory performance even if one of the accurate mapping technique or the position measurement technique is satisfied.

최근에 연구자 및 개발자들은 정확한 지도를 로봇에게 제공함으로서 로봇의 위치를 정확하게 산출하는 방식으로 주로 연구하는데, 이때 제공되는 지도의 형식에 따라 크게 인공표식물을 사용하는 방법과 자연표식물을 사용하는 방법 등으로 구분된다. Recently, researchers and developers are mainly studying the accurate location of robots by providing accurate maps to robots. Depending on the type of map provided at this time, methods of using artificial markers and using natural markers Respectively.

우선, 지도의 형식중 인공표식물을 사용하는 방법은 주위 환경에 로봇이 인식할 수 있는 장착물을 설치하고, 이에 대한 초기 위치 정보를 로봇에게 제공하여 추후 로봇이 인공표식물을 인식하였을 때 로봇 자신의 위치를 역으로 추정해 내는 것으로, 이 방법은 인공표식물의 위치를 사전에 정확히 알고 있다는 점에서 로봇이 인공표식물을 탐지하였을 경우에 정확하게 로봇의 위치를 추정하는 방법이다.First, the method of using the artificial markers in the form of a map is as follows. First, a mounting material recognizable by the robot is installed in the surrounding environment, and the initial position information is provided to the robot. When the robot subsequently recognizes the artificial marker, In this method, the position of the robot is precisely estimated when the robot detects the artificial marker because the position of the artificial marker is precisely known in advance.

다음으로, 지도의 형식중 자연표식물을 사용하는 방법은 로봇이 주행하는 환경에 추가적인 인공표식물 없이 평상시 환경에서 특징적인 것들을 표식물로 사용하는 것으로, 이에 대표적인 기술로 지도작성 및 위치추정을 동시에 한다는 말에서 기원한 SLAM(simultaneous localization and mapping) 기술을 들 수 있다. 로봇이 스스로 미지의 환경을 주행하면서 환경으로부터 특징적인 자연표식물을 지도형태로 저장하고 동시에 자신의 위치를 추정하여 정확한 지도 및 위치를 추정하는 것이 SLAM 기술의 목적이다. Next, the method of using the natural markers in the form of the map is to use the markers characteristic of the normal environment without additional artificial markers in the environment that the robot travels, Simultaneous localization and mapping (SLAM) technology. The purpose of SLAM technology is to store the natural markers in a map form while estimating the accurate map and position by estimating their position at the same time as the robot travels the unknown environment by itself.

그러나, 상술한 바와 같은 종래 기술에 따른 지도의 형식중 인공표식물을 사용하는 방법은 인공표식물을 장착하는데 많은 인력이 필요하고, 초기 인공표식물의 위치를 사전에 계산해야 한다는 점에서 시간과 비용이 많이 소요하게 되는 문제점이 있다. 또한, 지도의 형식중 자연표식물을 사용하는 방법은 제한된 지능을 가진 로봇이기 때문에 어떠한 것이 환경의 특징인지를 판단하기 어려워 강인한 자연표식 물을 추출할 수 없는 문제점이 있다. However, the method of using the artificial marker in the form of the map according to the prior art as described above requires a lot of manpower to attach the artificial marker and requires a lot of time and cost since the position of the initial artificial marker must be calculated in advance There is a problem that it consumes. In addition, since the method using the natural markers in the form of the map is a robot having limited intelligence, it is difficult to judge what is the characteristic of the environment, and thus there is a problem that the strong natural markers can not be extracted.

이에, 본 발명의 기술적 과제는 상술한 바와 같은 문제점들을 해결하기 위해 안출한 것으로, 바퀴의 회전수로 이동체가 움직인 위치를 산출하고 레이저 센서를 통해 주위 환경의 물체들까지 거리정보를 측정하여 물리치수에 기반한 지도를 작성하고, 비전 센서를 통해 환경의 정보를 대표할만한 강인한 특징이 도출된 자연표식물을 추출하여 영상기반 지도를 작성한 다음에, 이 작성된 물리치수에 기반한 지도와 영상기반 지도의 좌표를 동기화시켜 이동로봇의 위치추정 기술에 활용하기 위한 실내 지도를 작성할 수 있는 영상기반 자연표식물 지도 작성 장치를 제공한다.SUMMARY OF THE INVENTION Accordingly, the present invention has been made keeping in mind the above problems occurring in the prior art, and it is an object of the present invention to provide a method and apparatus for calculating a position where a moving object is moved by the number of revolutions of a wheel, Dimensional map based on the created physical dimensions, coordinates of the image-based map are created, and the coordinates of the image-based map are created by extracting the natural markers derived from the robust features that represent the information of the environment through the vision sensor, Based map marking device capable of generating an indoor map for use in a position estimation technology of a mobile robot by synchronizing the position of the mobile robot with the position of the mobile robot.

본 발명의 일 관점에 따른 영상기반 자연표식물 지도 작성 장치는, 다수의 바퀴가 회전하는 회전수 각각을 측정하는 바퀴 인코더와, 거리 정보를 감지하는 레이저 센서와, 영상 정보를 감지하는 비전 센서를 구비하는 이동체 감지부와, 상기 바퀴 인코더에 의해 측정된 각각의 바퀴 회전수를 기반으로 이동체의 이동 위치를 산출하고, 상기 감지된 영상 정보에서 영상 기반의 자연표식물을 추출하는 이동체 감지정보 처리부와, 상기 산출된 이동 위치와 상기 감지된 거리 정보를 이용하여 물리치수기반 지도를 작성하고, 상기 작성된 물리치수기반 지도와 상기 자연표식물에 의해 작성된 영상기반 지도를 좌표 동기화시켜 실내지도를 작성하는 지도 작성부를 포함하며, 상기 이동체 감지 정보 처리부는, 상기 측정된 회전수 각각을 기반으로 이동체가 움직인 위치를 산출하는 위치 산출부와, 상기 감지된 거리 정보를 획득하는 거리 정보 획득부와, 상기 감지된 영상 정보를 획득하는 영상 정보 획득부와, 상기 감지된 영상 정보에서 영상 기반의 자연표식물을 추출하는 자연표식물 추출부를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided an apparatus for mapping an image-based natural markers, comprising: a wheel encoder for measuring the number of revolutions of a plurality of wheels, a laser sensor for detecting distance information, and a vision sensor for detecting image information A moving object detection information processing unit for calculating a moving position of the moving object based on the number of wheel rotations measured by the wheel encoder and extracting an image based natural marker from the detected image information; Based map by using the calculated movement position and the sensed distance information, and creating an indoor map by coordinate-synchronizing the created physical-dimension-based map and the image-based map created by the natural markers Wherein the moving object detection information processing unit detects the moving object based on the measured rotation numbers, A distance information acquisition unit for acquiring the sensed distance information, an image information acquisition unit for acquiring the sensed image information, and a display unit for acquiring image-based natural markers from the sensed image information, And a natural marker extracting unit for extracting the natural markers.

삭제delete

본 발명에서는 바퀴의 회전수로 위치를 산출하고, 레이저 센서를 통해 거리정보를 측정하며, 비전 센서를 통해 자연표식물을 추출하여 이동로봇의 위치추정 기술에 활용하기 위한 지도를 작성함으로써, 실내공간(예컨대 공공시설, 병원, 공장 등)에서 이동로봇을 포함한 이동체가 주위 환경을 인식하기 위한 영상 기반 자연표식물을 신속하고 정확하게 작성할 수 있다.In the present invention, the position is calculated by the number of revolutions of the wheel, the distance information is measured through the laser sensor, the natural marker is extracted through the vision sensor, and the map is utilized for the position estimation technology of the mobile robot. A moving object including a mobile robot can quickly and accurately create an image-based natural marker for recognizing the surrounding environment in a public facility, a hospital, a factory, and the like.

또한, 본 발명은 영상기반 자연표식물 지도 작성 장치 및 그 방법을 제공함으로써, 사용자가 이동체(예컨대, 카트 형태의 이동체)를 끌고 다니면서 물리적 치수에 기반한 지도와 영상에 기반한 자연표식물 지도를 작성하여 이동체에 제공할 수 있어 영상 기반 자연표식물 지도를 구축하는데 소요되는 시간을 절약할 수 있으며, 이동 로봇과 같은 이동체의 정확한 위치를 추정하는데 활용될 수 있다. 특히 공공시설과 같은 여러 기타 실내 공간에서 다양한 서비스에 활용되는 이동로봇에 사용된다면, 이동로봇이 자신의 위치를 정확하게 추정할 수 있는 이점이 있다.In addition, the present invention provides an image-based natural marker mapping apparatus and method, wherein a user draws a moving object (e.g., a cart-shaped moving object) and creates a map based on physical dimensions and a natural marker map based on the image, It is possible to save the time required for constructing the image-based natural marker map and can be used for estimating the exact position of the moving object such as the mobile robot. In particular, if the mobile robot is used in a mobile robot used for various services in various other indoor spaces such as public facilities, the mobile robot can accurately estimate its own position.

이하, 첨부된 도면을 참조하여 본 발명의 동작 원리를 상세히 설명한다. 하기에서 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. Hereinafter, the operation principle of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions of the present invention, and these may be changed according to the intention of the user, the operator, or the like. Therefore, the definition should be based on the contents throughout this specification.

도 1은 본 발명의 일 실시예에 따른 영상기반 자연표식물 지도 작성을 위한 카트 형태의 이동체 장치를 도시한 도면으로서, 이 카트 형태의 이동체 장치에는 방향에 상관없이 자유롭게 이동 가능하도록 전륜측에 위치한 제1바퀴(S1) 및 제2바퀴(S2), 후륜측에 위치한 제3바퀴(S3)와 이중 카트 형태의 이동체 장치가 이동한 거리 및 방향을 측정하기 위해 제1,2바퀴(S1,S2)에 장착되어 바퀴의 회전수를 측정하는 바퀴 인코더(11)와 주위 환경의 물체들까지 거리를 감지하기 위해 장착되어 있는 레이저 센서(13)와 환경의 정보를 대표할만한 강인한 특징이 있는 영상을 감지하기 위해 장착되어 있는 비전 센서(15) 등을 포함할 수 있다. 여기서, 바퀴 인코더(11)는 전륜측에 위치한 제1,2바퀴(S1,S2)에 대응되도록 바퀴와 동일한 개수로 장착되어 있는 것이 바람직하다. FIG. 1 is a view showing a cart-shaped mobile device for mapping an image-based natural marking according to an embodiment of the present invention. In this cart-shaped mobile device, The first and second wheels S1 and S2 are used to measure the distance and direction in which the first wheel S1 and the second wheel S2, the third wheel S3 located on the rear wheel side, A wheel encoder 11 for measuring the number of revolutions of the wheel, a laser sensor 13 for detecting the distance to objects in the surrounding environment, and an image sensor And a vision sensor 15 mounted for this purpose. It is preferable that the wheel encoders 11 are mounted in the same number as the wheels so as to correspond to the first and second wheels S1 and S2 positioned on the front wheel side.

도 2는 본 발명의 일 실시예에 따른 영상기반 자연표식물 지도 작성 장치를 위한 블록 구성도로서, 이동체 하드웨어부(10)와 이동체 감지정보 처리부(30)와 지도 작성부(50) 등을 포함할 수 있다. FIG. 2 is a block diagram of an image-based natural marker mapping apparatus according to an exemplary embodiment of the present invention, which includes a moving object hardware unit 10, a moving object detection information processing unit 30, a map creating unit 50, .

이동체 하드웨어부(10)는 도 3에 도시된 바와 같이 이동체 감지부로서, 바퀴 인코더(11)와 레이저 센서(13) 및 비전 센서(15) 등을 포함할 수 있다.The moving body hardware unit 10 may include a wheel encoder 11, a laser sensor 13, a vision sensor 15, and the like as a moving object sensing unit as shown in FIG.

바퀴 인코더(11)는 제1바퀴(S1) 및 제2바퀴(S2)에서 회전하는 회전수를 각각 측정한 다음에, 측정된 제1바퀴(S1)의 회전수를 이동체 감지정보 처리부(30)내 제1바퀴의 회전수 획득부(31)에 제공하고, 측정된 제2바퀴(S2)의 회전수를 이동체 감지정보 처리부(30)내 제2바퀴의 회전수 획득부(33)에 제공한다. The wheel encoder 11 measures the number of rotations of the first wheel S1 and the second wheel S2 and then outputs the measured number of rotations of the first wheel S1 to the moving object detection information processing unit 30, And supplies the measured rotation number of the second wheel S2 to the rotation number acquisition unit 33 of the second wheel in the moving object detection information processing unit 30 .

레이저 센서(13)는 레이저를 이용하여 주위 환경의 물체들까지 거리를 감지하고, 감지된 거리 정보를 이동체 감지정보 처리부(30)내 거리 정보 획득부(37)에 제공한다. The laser sensor 13 detects the distance to objects in the surrounding environment by using a laser and provides the detected distance information to the distance information obtaining unit 37 in the moving object detection information processing unit 30. [

비전 센서(15)는 사용자에 의해 이동되면서 영상을 감지하고, 감지된 영상 정보를 이동체 감지정보 처리부(30)내 영상 정보 획득부(39)에 제공한다.The vision sensor 15 senses an image while being moved by the user and provides the sensed image information to the image information acquisition unit 39 in the moving object detection information processing unit 30. [

이동체 감지정보 처리부(30)는 도 4에 도시된 바와 같이 제1바퀴의 회전수 획득부(31)와 제2바퀴 회전수 획득부(33)와 위치 산출부(35)와 거리 정보 획득부(37)와 영상 정보 획득부(39)와 자연표식물 추출부(41) 등을 포함할 수 있다.4, the moving object detection information processing unit 30 includes a first wheel speed obtaining unit 31, a second wheel speed obtaining unit 33, a position calculating unit 35, a distance information obtaining unit 37, an image information obtaining unit 39, a natural marker extracting unit 41, and the like.

제1바퀴의 회전수 획득부(31)는 이동체 하드웨어부(10)내 바퀴 인코더(11)로부터 입력되는 제1바퀴(S1)의 회전수를 획득하여 위치 산출부(35)에 제공한다.The first wheel rotational speed obtaining unit 31 obtains the rotational speed of the first wheel S1 input from the wheel encoder 11 in the moving body hardware unit 10 and provides the rotational speed of the first wheel S1 to the position calculating unit 35.

제2바퀴의 회전수 획득부(33)는 이동체 하드웨어부(10)내 바퀴 인코더(11)로부터 입력되는 제2바퀴(S2)의 회전수를 획득하여 위치 산출부(35)에 제공한다.The second wheel rotational speed acquiring unit 33 acquires the rotational speed of the second wheel S2 input from the wheel encoder 11 in the moving body hardware unit 10 and provides the rotational speed of the second wheel S2 to the position calculating unit 35. [

위치 산출부(35)는 제1바퀴의 회전수 획득부(31) 및 제2바퀴의 회전수 획득부(33)로부터 입력되는 제1,제2바퀴(S1,S2)의 회전수 각각을 이용하여 이동체가 움직인 위치를 산출하여 지도 작성부(50)내 물리치수기반 지도부(51)에 제공한다. The position calculating unit 35 calculates the position of the first and second wheels S1 and S2 based on the rotational speeds of the first and second wheels S1 and S2 input from the first wheel rotational speed obtaining unit 31 and the second wheel rotational speed obtaining unit 33, And provides the calculated position to the physical dimension-based map unit 51 in the map creating unit 50. [

거리 정보 획득부(37)는 이동체 하드웨어부(10)내 레이저 센서(13)로부터 입력되는 거리 정보를 획득하여 지도 작성부(50)내 물리치수기반 지도부(51)에 제공한다. The distance information obtaining unit 37 obtains the distance information inputted from the laser sensor 13 in the moving body hardware unit 10 and provides the obtained distance information to the physical dimension based map unit 51 in the map creating unit 50.

영상 정보 획득부(39)는 이동체 하드웨어부(10)내 비전 센서(15)로부터 입력되는 영상 정보를 획득하여 자연표식물 추출부(41)에 제공한다.The image information obtaining unit 39 obtains image information input from the vision sensor 15 in the moving body hardware unit 10 and provides the image information to the natural marker extracting unit 41.

자연표식물 추출부(41)는 영상 정보 획득부(39)로부터 입력되는 영상 정보에서 환경의 정보를 대표할만한 강인한 특징의 영상 정보, 예컨대, 사용하는 알고리즘에 따라 기설정되어 있는 영상을 대표할 만한 지점의 영상 정보를 자연표식물로 추출하여 지도 작성부(50)내 영상기반 지도부(53)에 제공한다. The natural marker extracting unit 41 extracts the natural marker image from the image information input from the image information acquiring unit 39 by using image information of a strong characteristic that represents the information of the environment, And supplies the extracted image information to the image-based guidance unit 53 in the map-making unit 50. The image-

지도 작성부(50)는 도 5에 도시된 바와 같이 물리치수기반 지도부(51)와 영상기반 지도부(53)와 좌표 동기화부(55)와 실내지도 작성부(57) 등을 포함할 수 있다.The map creating unit 50 may include a physical dimension based map unit 51, an image based map unit 53, a coordinate synchronizing unit 55 and an indoor map creating unit 57 as shown in FIG.

물리치수기반 지도부(51)는 이동체 감지정보 처리부(30)내 위치 산출부(35)로부터 입력되는 이동체가 움직인 위치와 거리 정보 획득부(37)로부터 입력되는 거리 정보를 이용하여 물리치수기반 지도, 즉 래스터 지도, 벡터 지도, 토폴로지 지도 등의 다양한 형태를 작성하여 좌표 동기화부(55)에 제공한다.The physical dimension-based guidance unit 51 uses the position of the moving object inputted from the position calculation unit 35 in the moving object detection information processing unit 30 and the distance information inputted from the distance information obtaining unit 37, I.e., a raster map, a vector map, a topology map, and the like, and supplies the generated coordinates to the coordinate synchronization unit 55. [

영상기반 지도부(53)는 이동체 감지정보 처리부(30)내 자연표식물 추출 부(41)로부터 입력되는 영상 기반의 자연표식물을 데이터베이스화하여 영상기반 지도를 작성하여 좌표 동기화부(55)에 제공한다.The image-based guidance unit 53 creates a database based on the image-based natural markers input from the natural marker extracting unit 41 in the moving object detection information processing unit 30, and provides the image-based map to the coordinate synchronization unit 55.

좌표 동기화부(55)는 물리치수기반 지도부(51)로부터 입력되는 물리치수기반 지도와 영상기반 지도부(53)로부터 입력되는 임의의 자연표식물이 포함된 영상기반 지도의 믹싱 과정을 통해 임의의 자연표식물이 포함된 영상의 물리적 위치 정보가 존재하도록 좌표를 동기화시켜 실내지도 작성부(57)에 제공한다.The coordinate synchronization unit 55 synchronizes the physical dimension based map input from the physical dimension based map unit 51 with the image based map including any natural markers inputted from the image based map unit 53, And supplies the synchronized coordinates to the indoor map creator 57 so that the physical location information of the image including the virtual space exists.

실내지도 작성부(57)는 좌표 동기화부(55)로부터 입력되는 좌표 동기화된 임의의 자연표식물이 포함된 영상의 물리적 위치 정보를 이용하여 실내지도를 작성한다. The indoor map creating unit 57 creates an indoor map using the physical location information of the image including the arbitrary natural markers synchronized with the coordinates inputted from the coordinate synchronizing unit 55. [

따라서, 본 발명은 바퀴의 회전수로 위치를 산출하고, 레이저 센서를 통해 거리정보를 측정하며, 비전 센서를 통해 자연표식물을 추출하여 이동로봇의 위치추정 기술에 활용하기 위한 지도를 작성함으로써, 실내공간(예컨대 공공시설, 병원, 공장 등)에서 이동로봇을 포함한 이동체가 주위 환경을 인식하기 위한 영상 기반 자연표식물을 신속하고 정확하게 작성할 수 있다.Accordingly, in the present invention, the position is calculated by the number of revolutions of the wheel, the distance information is measured through the laser sensor, the natural marker is extracted through the vision sensor, and the map is utilized for the position estimation technique of the mobile robot, A moving object including a mobile robot can quickly and accurately create an image-based natural marker for recognizing the surrounding environment in a space (for example, a public facility, a hospital, a factory, etc.).

다음에, 상술한 바와 같은 구성을 갖는 본 발명의 일 실시예에서 영상기반 자연표식물 지도 작성 과정에 대하여 설명한다. Next, an image-based natural marker mapping process will be described in an embodiment of the present invention having the above-described configuration.

도 6은 본 발명의 일 실시예에 따른 영상기반 자연표식물 지도 작성 방법에 대하여 순차적으로 도시한 흐름도이다. FIG. 6 is a flowchart sequentially illustrating an image-based natural marker mapping method according to an embodiment of the present invention.

먼저, 도 1에 도시된 바와 같은 레이저 센서(13)와 비전 센서(15) 등이 장착된 카트 형태의 이동체 장치를 사용자가 끌고 다니면서 환경 정보를 획득하여야만 한다.First, the user must draw environment information on a cart-shaped mobile device equipped with a laser sensor 13 and a vision sensor 15 as shown in FIG.

즉, 카트 형태의 이동체 장치에 장착된 바퀴 인코더(11)에서는 이동체 장치에 장착된 전륜측 제1바퀴(S1) 및 제2바퀴(S2)에서 회전하는 회전수를 각각 측정(S601)한 다음에, 측정된 제1바퀴(S1)의 회전수가 이동체 감지정보 처리부(30)내 제1바퀴의 회전수 획득부(31)에 제공되도록 하고, 측정된 제2바퀴(S2)의 회전수가 이동체 감지정보 처리부(30)내 제2바퀴의 회전수 획득부(33)에 제공되도록 한다. That is, in the wheel encoder 11 mounted on the cart-shaped mobile device, the number of rotations of the first wheel S1 and the second wheel S2 mounted on the mobile device is measured (S601) The measured rotation number of the first wheel S1 is provided to the rotation number acquisition unit 31 of the first wheel in the moving object detection information processing unit 30 and the rotation number of the measured second wheel S2 And is provided to the rotation speed acquiring unit 33 of the second wheel in the processing unit 30. [

그러면, 제1바퀴의 회전수 획득부(31)에서는 바퀴 인코더(11)로부터 입력되는 제1바퀴(S1)의 회전수를 획득(S603)하여 위치 산출부(35)에 제공(S604)하고, 제2바퀴의 회전수 획득부(33)에서는 바퀴 인코더(11)로부터 입력되는 제2바퀴(S2)의 회전수를 획득(S605)하여 위치 산출부(35)에 제공(S607)한다. The first wheel rotation speed acquiring unit 31 acquires the rotation speed of the first wheel S1 input from the wheel encoder 11 in step S603 and provides the rotation speed to the position calculating unit 35 in step S604, The second wheel rotation speed acquisition unit 33 acquires the rotation speed of the second wheel S2 input from the wheel encoder 11 in step S605 and provides the rotation speed to the position calculation unit 35 in step S607.

위치 산출부(35)에서는 제1바퀴의 회전수 획득부(31) 및 제2바퀴의 회전수 획득부(33)로부터 입력되는 제1,제2바퀴(S1,S2)의 회전수 각각을 이용하여 이동체가 움직인 위치를 산출(S609)하고, 이 산출된 이동체가 움직인 위치가 물리치수기반 지도부(51)에 제공(S611)되도록 한다. The position calculating unit 35 calculates the rotational speeds of the first and second wheels S1 and S2 input from the rotational speed acquiring unit 31 of the first wheel and the rotational speed acquiring unit 33 of the second wheel, (S609), and the calculated position of the mobile body is provided to the physical dimension-based guidance unit 51 (S611).

레이저 센서(13)에서는 레이저를 이용하여 주위 환경의 물체들까지 거리를 감지(S613)하고, 감지된 거리 정보가 거리 정보 획득부(37)에 제공되도록 한다. 그러면, 거리 정보 획득부(37)에서는 레이저 센서(13)로부터 입력되는 거리 정보를 획득(S615)하여 물리치수기반 지도부(51)에 제공(S617)한다. The laser sensor 13 detects the distance to objects in the surrounding environment using a laser (S613), and provides the detected distance information to the distance information obtaining unit 37. [ Then, the distance information obtaining unit 37 obtains the distance information inputted from the laser sensor 13 (S615) and provides the distance information to the physical dimension-based guidance unit 51 (S617).

물리치수기반 지도부(51)에서는 위치 산출부(35)로부터 입력되는 이동체가 움직인 위치와 거리 정보 획득부(37)로부터 입력되는 거리 정보를 이용하여 물리치 수기반 지도, 즉 래스터 지도, 벡터 지도, 토폴로지 지도 등의 다양한 형태를 작성(S619)하여 좌표 동기화부(55)에 제공(S621)한다.Based on the position at which the moving object is input from the position calculation unit 35 and the distance information input from the distance information acquisition unit 37, the physical dimension-based map unit 51 generates a map based on a water rich number, (S619), and provides them to the coordinate synchronizing unit 55 (S621).

또한 비전 센서(15)에서는 사용자에 의해 이동되면서 영상을 감지(S623)하고, 감지된 영상 정보가 영상 정보 획득부(39)에 제공되도록 한다. 그러면, 영상 정보 획득부(39)에서는 비전 센서(15)로부터 입력되는 영상 정보를 획득(S625)하여 자연표식물 추출부(41)에 제공(S627)한다. In the vision sensor 15, an image is sensed while being moved by a user (S623), and the sensed image information is provided to the image information acquiring unit 39. [ Then, the image information obtaining unit 39 obtains the image information input from the vision sensor 15 (S625) and provides the image information to the natural marker extracting unit 41 (S627).

자연표식물 추출부(41)에서는 영상 정보 획득부(39)로부터 입력되는 영상 정보에서 환경의 정보를 대표할만한 강인한 특징의 영상 정보를 자연표식물로 추출(S629)하고, 이 추출된 영상 기반의 자연표식물이 영상기반 지도부(53)에 제공(S631)되도록 한다. 여기서, 자연표식물을 추출하는 방법은 SHIFT, SIFT, PCA-SIFT(principal components analysis SIFT), SURF(speed up robust feature), GLOH(gradient location and orientation histogram), LESH(local energy based shape histogram), edge detection(canny, canny-deriche, differential, sobel), corner detection(harris, shi and tomasi), ridge detection, blob detection(laplacian of gaussian(LoG), difference of gaussians(DoG), determinant of hessian(DoH)) 중 적어도 어느 하나에 의해 추출되며, 일 실시예로서 SHIFT 등의 영상 특징점 추출 알고리즘을 이용하여 영상 정보로부터 추출된 특징점의 개수 및 특징점의 형태 등으로 영상이 주위환경의 특징을 잘 나타내고 있는지를 판단하여 자연표식물을 추출할 수 있는 것이다. The natural marker extracting unit 41 extracts image information of a strong characteristic that is representative of environment information from the image information input from the image information obtaining unit 39 as a natural marker (S629), extracts the natural marker To the image-based guidance unit 53 (S631). Here, the natural markers can be extracted by SHIFT, SIFT, principal components analysis SIFT, speed up robust feature (SURF), gradient location and orientation histogram (GLOH), local energy based shape histogram (LESH) Detection of canine, canny-deriche, differential, sobel, corner detection, ridge detection, blob detection (laglacian of gaussian (LoG), difference of gaussians (DoG), determinant of hessian (DoH) In one embodiment, an image feature point extraction algorithm such as SHIFT is used to judge whether the image is well characterized by the number of feature points extracted from the image information and the shape of the feature point, etc. The natural markers can be extracted.

영상기반 지도부(53)에서는 자연표식물 추출부(41)로부터 입력되는 영상 기 반의 자연표식물을 데이터베이스화하여 영상기반 지도를 작성(S633)하고, 이 작성된 임의의 자연표식물이 포함된 영상기반 지도가 좌표 동기화부(55)에 제공(S635)되도록 한다.The image-based map unit 53 creates an image-based map by converting the natural markers inputted from the natural marker extracting unit 41 into a database and creates an image-based map (S633). The image-based map including the created arbitrary natural markers And supplies it to the synchronization unit 55 (S635).

좌표 동기화부(55)에서는 물리치수기반 지도부(51)로부터 입력되는 물리치수기반 지도와 영상기반 지도부(53)로부터 입력되는 임의의 자연표식물이 포함된 영상기반 지도의 믹싱 과정을 통해 임의의 자연표식물을 그 영상과 그 위치와 함께 영상지도에 추가시켜 영상의 물리적 위치 정보가 존재하도록 좌표를 동기화(S637)시키고, 이 동기화된 임의의 자연표식물이 포함된 영상의 물리적 위치 정보가 실내지도 작성부(57)에 제공(S639)되도록 한다.The coordinate synchronization unit 55 synchronizes the physical dimension based map input from the physical dimension based map unit 51 with the image based map including any natural mark input from the image based map unit 53, (S637) so that the physical location information of the image exists, and the physical location information of the image including the synchronized arbitrary natural mark is stored in the indoor map creating unit 57 (S639).

실내지도 작성부(57)에서는 좌표 동기화부(55)로부터 입력되는 좌표 동기화된 임의의 자연표식물이 포함된 영상의 물리적 위치 정보를 통해 카트 형태의 이동체를 이용하여 주위환경을 대표할 만한 영상 기반 자연표식물을 충분히 영상기반 지도로 작성이 되었다고 판단되었을 경우 실내 지도를 작성(S641)한다. 여기서, 실내지도 작성부(57)에 의해 작성된 실내지도는 추후 로봇이나 이동체의 위치 추정기술에 응용될 수 있다. 예컨대, 이동로봇이 kidnapping 당하였을 경우 영상기반 지도에 등록된 자연표식물이 비전 센서의 현재 영상과 매칭이 되는 곳이 발견되었을 경우 자신의 위치를 추정할 수 있다.The indoor map creator 57 uses the physical location information of the image including the arbitrary natural markers synchronized with the coordinates inputted from the coordinate synchronizer 55 to display the image based nature When it is judged that the mark is formed by the image-based map sufficiently, the indoor map is created (S641). Here, the indoor map created by the indoor map creating unit 57 can be applied to the position estimation technology of the robot or the moving body in the future. For example, when a mobile robot is kidnapped, its position can be estimated when a natural marker registered in an image-based map matches a current image of the vision sensor.

본 발명에 의한 영상기반 자연표식물 지도 작성 방법은 컴퓨터 프로그램으로 작성 가능하다. 이 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 해당 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 정보저장매체(computer readable media)에 저장되고, 컴퓨터에 의하여 읽혀지고 실행됨으로써 영상기반 자연표식물 지도 작성 방법을 구현한다. 정보저장매체는 자기 기록매체, 광 기록매체 및 캐리어 웨이브 매체를 포함한다.The image-based natural marker mapping method according to the present invention can be realized by a computer program. The code and code segments that make up this computer program can be easily deduced by a computer programmer in the field. In addition, the computer program is stored in a computer-readable medium and readable and executed by a computer to implement an image-based natural marker mapping method. The information storage medium includes a magnetic recording medium, an optical recording medium, and a carrier wave medium.

이상에서와 같이, 본 발명은 영상기반 자연표식물 지도 작성 장치 및 그 방법을 제공함으로써, 사용자가 카트 형태의 이동체를 끌고 다니면서 물리적 치수에 기반한 지도와 영상에 기반한 자연표식물 지도를 작성하여 이동체에 제공할 수 있어 영상 기반 자연표식물 지도를 구축하는데 소요되는 시간을 절약할 수 있으며, 이동 로봇과 같은 이동체의 정확한 위치를 추정하는데 활용될 수 있다. 특히 공공시설과 같은 여러 기타 실내 공간에서 다양한 서비스에 활용되는 이동로봇에 사용된다면, 이동로봇이 자신의 위치를 정확하게 추정할 수 있다.As described above, the present invention provides an image-based natural marker mapping apparatus and method, wherein a user draws a cart-shaped moving object, creates a map based on physical dimensions and a natural marker map based on the image, It is possible to save the time required for constructing the image-based natural marker map, and can be used for estimating the exact position of the moving object such as a mobile robot. In particular, if the mobile robot is used in a mobile robot used for various services in various other indoor spaces such as public facilities, the mobile robot can accurately estimate its position.

지금까지 본 발명에 대하여 그 일부 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The present invention has been described with reference to some embodiments thereof. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

도 1은 본 발명의 일 실시예에 따른 영상기반 자연표식물 지도 작성을 위한 카트 형태의 이동체 장치를 도시한 도면,BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram of a cart-type mobile device for mapping an image-based natural markers according to an embodiment of the present invention;

도 2는 본 발명의 일 실시예에 따른 영상기반 자연표식물 지도 작성 장치를 위한 블록 구성도,FIG. 2 is a block diagram of an image-based natural marker mapping apparatus according to an embodiment of the present invention;

도 3은 도 2에 도시된 이동체 하드웨어부를 보다 상세하게 도시한 블록 구성도,FIG. 3 is a block diagram showing the moving body hardware unit shown in FIG. 2 in more detail;

도 4는 도 2에 도시된 이동체 감지정보 처리부를 상세하게 도시한 블록 구성도,FIG. 4 is a block diagram showing the moving object detection information processing unit shown in FIG. 2 in detail;

도 5는 도 2에 도시된 지도 작성부를 상세하게 도시한 블록 구성도,FIG. 5 is a block diagram showing in detail the map creating unit shown in FIG. 2,

도 6은 본 발명의 일 실시예에 따른 영상기반 자연표식물 지도 작성 방법에 대하여 순차적으로 도시한 흐름도.FIG. 6 is a flowchart sequentially illustrating an image-based natural marker mapping method according to an embodiment of the present invention; FIG.

<도면의 주요부분에 대한 부호의 설명>Description of the Related Art

10 : 이동체 하드웨어부 11 : 바퀴 인코더10: Moving body hardware part 11: Wheel encoder

13 : 레이저 센서 15 : 비전 센서13: Laser sensor 15: Vision sensor

30 : 이동체 감지정보 처리부 31 : 제1바퀴의 회전수 획득부30: moving object detection information processing unit 31: rotational speed acquiring unit of first wheel

33 : 제2바퀴 회전수 획득부 35 : 위치 산출부33: second wheel speed acquiring unit 35: position calculating unit

37 : 거리 정보 획득부 39 : 영상 정보 획득부37: Distance information acquisition unit 39: Image information acquisition unit

41 : 자연표식물 추출부 50 : 지도 작성부41: Natural marker extracting unit 50: Mapping unit

51 : 물리치수기반 지도부 53 : 영상기반 지도부51: Physical Dimension Based Leadership Unit 53:

55 : 좌표 동기화부 57 : 실내지도 작성부55: coordinate synchronizer 57: indoor map maker

Claims (10)

다수의 바퀴가 회전하는 회전수 각각을 측정하는 바퀴 인코더와, 거리 정보를 감지하는 레이저 센서와, 영상 정보를 감지하는 비전 센서를 구비하는 이동체 감지부와,A moving object detection unit including a wheel encoder for measuring a rotation number of each of a plurality of wheels, a laser sensor for detecting distance information, and a vision sensor for detecting image information, 상기 바퀴 인코더에 의해 측정된 각각의 바퀴 회전수를 기반으로 이동체의 이동 위치를 산출하고, 상기 감지된 영상 정보에서 영상 기반의 자연표식물을 추출하는 이동체 감지정보 처리부와,A moving object detection information processing unit for calculating a moving position of the moving object based on the number of wheel rotations measured by the wheel encoder and extracting an image based natural marker from the detected image information, 상기 산출된 이동 위치와 상기 감지된 거리 정보를 이용하여 물리치수기반 지도를 작성하고, 상기 작성된 물리치수기반 지도와 상기 자연표식물에 의해 작성된 영상기반 지도를 좌표 동기화시켜 실내지도를 작성하는 지도 작성부를 포함하며,A map creating unit for creating a physical map based on the calculated moving position and the detected distance information and creating an indoor map by coordinate-synchronizing the created physical map based on the created physical map with the image- &Lt; / RTI & 상기 이동체 감지 정보 처리부는,Wherein the moving object detection information processing unit comprises: 상기 측정된 회전수 각각을 기반으로 이동체가 움직인 위치를 산출하는 위치 산출부와, A position calculating unit for calculating a position at which the moving body moves based on the measured rotation speed, 상기 감지된 거리 정보를 획득하는 거리 정보 획득부와,A distance information obtaining unit for obtaining the detected distance information, 상기 감지된 영상 정보를 획득하는 영상 정보 획득부와,An image information acquisition unit for acquiring the sensed image information; 상기 감지된 영상 정보에서 영상 기반의 자연표식물을 추출하는 자연표식물 추출부를 포함하는 것을 특징으로 하는And a natural marker extracting unit for extracting an image-based natural marker from the sensed image information 영상기반 자연표식물 지도 작성 장치.Image based natural marking device. 삭제delete 제 1 항에 있어서,The method according to claim 1, 상기 바퀴 인코더는, 상기 이동체의 전륜측에 위치한 바퀴에 대응되도록 바퀴와 동일한 개수로 장착되어 있는 영상기반 자연표식물 지도 작성 장치.Wherein the wheel encoders are mounted in the same number as the wheels so as to correspond to wheels located on the front wheel side of the moving body. 삭제delete 제 1 항에 있어서,The method according to claim 1, 상기 지도 작성부는, Wherein, 상기 산출된 이동체가 움직인 위치와 상기 감지된 된 거리 정보를 이용하여 물리치수기반 지도를 작성하는 물리치수기반 지도부와,A physical dimension-based map unit for creating a physical dimension-based map using the calculated position and the sensed distance information; 상기 추출된 영상 기반의 자연표식물을 데이터베이스화하여 영상기반 지도를 작성하는 영상기반 지도부와,An image-based map unit for creating an image-based map by converting the extracted image-based natural markers into a database, 상기 작성된 물리치수기반 지도와 영상기반 지도를 좌표 동기화시켜 실내 지도를 작성하는 실내지도 작성부를 포함하는 것을 특징으로 하는 And an indoor map creating unit for creating an indoor map by coordinate-synchronizing the created physical-dimension-based map and the image-based map 영상기반 자연표식물 지도 작성 장치.Image based natural marking device. 제 5 항에 있어서, 6. The method of claim 5, 상기 자연표식물은, The natural markers, SHIFT, SIFT, PCA-SIFT(principal components analysis SIFT), SURF(speed up robust feature), GLOH(gradient location and orientation histogram), LESH(local energy based shape histogram), edge detection(canny, canny-deriche, differential, sobel), corner detection(harris, shi and tomasi), ridge detection, blob detection(laplacian of gaussian(LoG), difference of gaussians(DoG), determinant of hessian(DoH)) 중 적어도 어느 하나에 의해 추출되는 영상기반 자연표식물 지도 작성 장치.SHIFT, SIFT, PCA-SIFT, SIFF, gradient location and orientation histogram (GLOH), local energy based shape histogram (LESH), edge detection (canny, canny-deriche, differential) , the image extracted by at least one of corbel detection, corner detection, ridge detection, blob detection (laplacian of gaussian (LoG), difference of gaussians (DoG), determinant of hessian (DoH) Based natural marker mapping device. 제 5 항에 있어서, 6. The method of claim 5, 상기 실내지도 작성부는, Wherein the indoor- 상기 영상 기반의 자연표식물이 상기 영상기반 지도로 작성되는 경우에 상기 실내 지도를 작성하는 영상기반 자연표식물 지도 작성 장치.Wherein the indoor map is created when the image-based natural markers are created in the image-based map. 삭제delete 삭제delete 삭제delete
KR1020090031365A 2008-12-01 2009-04-10 Quick map building apparatus based on vision natural landmark KR101141601B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020080120801 2008-12-01
KR20080120801 2008-12-01

Publications (2)

Publication Number Publication Date
KR20100062858A KR20100062858A (en) 2010-06-10
KR101141601B1 true KR101141601B1 (en) 2012-05-17

Family

ID=42363062

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090031365A KR101141601B1 (en) 2008-12-01 2009-04-10 Quick map building apparatus based on vision natural landmark

Country Status (1)

Country Link
KR (1) KR101141601B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210157747A (en) * 2020-06-22 2021-12-29 중앙대학교 산학협력단 Displacement Measurement System of structure using image processing unit and laser
KR20240064449A (en) 2022-11-04 2024-05-13 주식회사 벰소프트 A Pattern Matching Method for Measuring The Position of A Driving Robot Using Lidar and A Computer-Readable Recording Medium On Which A Program Performing The Same Is Recorded

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200488998Y1 (en) * 2014-09-02 2019-04-15 네이버비즈니스플랫폼 주식회사 Apparatus for constructing indoor map
KR102269362B1 (en) * 2019-12-16 2021-06-25 네이버랩스 주식회사 Method and system for controlling robot for providing management service for plant in building

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100776215B1 (en) * 2005-01-25 2007-11-16 삼성전자주식회사 Apparatus and method for estimating location and generating map of mobile body, using upper image, computer-readable recording media storing computer program controlling the apparatus
KR100822064B1 (en) * 2006-06-05 2008-04-15 현웅근 Robot and method of drawing indoor map

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100776215B1 (en) * 2005-01-25 2007-11-16 삼성전자주식회사 Apparatus and method for estimating location and generating map of mobile body, using upper image, computer-readable recording media storing computer program controlling the apparatus
KR100822064B1 (en) * 2006-06-05 2008-04-15 현웅근 Robot and method of drawing indoor map

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210157747A (en) * 2020-06-22 2021-12-29 중앙대학교 산학협력단 Displacement Measurement System of structure using image processing unit and laser
KR102444976B1 (en) * 2020-06-22 2022-09-21 중앙대학교 산학협력단 Displacement Measurement System of structure using image processing unit and laser
KR20240064449A (en) 2022-11-04 2024-05-13 주식회사 벰소프트 A Pattern Matching Method for Measuring The Position of A Driving Robot Using Lidar and A Computer-Readable Recording Medium On Which A Program Performing The Same Is Recorded

Also Published As

Publication number Publication date
KR20100062858A (en) 2010-06-10

Similar Documents

Publication Publication Date Title
KR101314588B1 (en) Method and apparatus for producing map of artificial mark, method and apparatus for measuring position of mobile object by using same
KR101493075B1 (en) apparatus and method for recognizing a situation of mobile robot
KR101553653B1 (en) apparatus and method for detecting slip of robot
US20110205338A1 (en) Apparatus for estimating position of mobile robot and method thereof
KR101739996B1 (en) Moving robot and simultaneous localization and map-buliding method thereof
KR100877072B1 (en) Method and apparatus of building map for a mobile robot and cleaning simultaneously
JP5803367B2 (en) Self-position estimation apparatus, self-position estimation method and program
KR20090010367A (en) Method and apparatus for providing indoor eco-map
KR20110020961A (en) Method of detecting and tracking moving object for mobile platform
CN108038139B (en) Map construction method and device, robot positioning method and device, computer equipment and storage medium
JP2010511957A (en) Apparatus and method for creating an environment map for a moving body capable of quickly adapting to surrounding environmental changes and creating an environment map
CA2786407A1 (en) Method and system for sensing the position of a vehicle
KR101141601B1 (en) Quick map building apparatus based on vision natural landmark
CN111982099A (en) Robot hybrid positioning method, device, equipment and computer readable medium
Skrzypczyński Mobile robot localization: Where we are and what are the challenges?
CN113188557A (en) Visual inertial integrated navigation method fusing semantic features
CN112129282B (en) Method and device for converting positioning results among different navigation modes
KR20100040234A (en) Apparatus and method for simultaneous localization and mapping of robot
Feng et al. Marker-assisted structure from motion for 3D environment modeling and object pose estimation
WO2020194079A1 (en) Method and system for performing localization of an object in a 3d
JP2006172016A (en) Mobile robot, mobile robot control method and mobile robot control program
Kurazume et al. Introduction to the robot town project and 3-d co-operative geometrical modeling using multiple robots
KR101553656B1 (en) Apparatus and method for relocation of robot
CN115471530A (en) Robot self-positioning precision evaluation method based on laser radar
Rybski et al. Appearance-based minimalistic metric SLAM

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160330

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170407

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180322

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190424

Year of fee payment: 8