KR101141601B1 - Quick map building apparatus based on vision natural landmark - Google Patents
Quick map building apparatus based on vision natural landmark Download PDFInfo
- Publication number
- KR101141601B1 KR101141601B1 KR1020090031365A KR20090031365A KR101141601B1 KR 101141601 B1 KR101141601 B1 KR 101141601B1 KR 1020090031365 A KR1020090031365 A KR 1020090031365A KR 20090031365 A KR20090031365 A KR 20090031365A KR 101141601 B1 KR101141601 B1 KR 101141601B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- map
- unit
- natural
- wheel
- Prior art date
Links
- 239000003550 marker Substances 0.000 claims abstract description 48
- 238000000034 method Methods 0.000 claims abstract description 29
- 238000013507 mapping Methods 0.000 claims abstract description 21
- 238000001514 detection method Methods 0.000 claims description 24
- 230000010365 information processing Effects 0.000 claims description 15
- 238000003708 edge detection Methods 0.000 claims 1
- 239000000284 extract Substances 0.000 abstract description 4
- 238000005516 engineering process Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 241000282465 Canis Species 0.000 description 1
- 241000287828 Gallus gallus Species 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 241000282414 Homo sapiens Species 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 235000013330 chicken meat Nutrition 0.000 description 1
- 230000003930 cognitive ability Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 235000013601 eggs Nutrition 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C15/00—Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Human Resources & Organizations (AREA)
- Primary Health Care (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Radar, Positioning & Navigation (AREA)
- Marketing (AREA)
- Remote Sensing (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
본 발명은 영상기반 자연표식물 지도 작성 장치 및 그 방법에 관한 것으로, 바퀴의 회전수로 위치를 산출하고, 레이저 센서를 통해 거리정보를 측정하며, 비전 센서를 통해 자연표식물을 추출하여 이동로봇의 위치추정 기술에 활용하기 위한 지도를 작성함으로써, 공공시설, 병원, 공장 등에서 이동로봇을 포함한 이동체가 주위 환경을 인식하기 위한 영상 기반 자연표식물을 신속하고 정확하게 작성할 수 있다. 또한, 본 발명은 영상기반 자연표식물 지도 작성 장치 및 그 방법을 제공함으로써, 사용자가 카트 형태의 이동체를 끌고 다니면서 물리적 치수에 기반한 지도와 영상에 기반한 자연표식물 지도를 작성하여 이동체에 제공할 수 있어 영상 기반 자연표식물 지도를 구축하는데 소요되는 시간을 절약할 수 있으며, 이동 로봇과 같은 이동체의 정확한 위치를 추정하는데 활용될 수 있는 이점이 있다.
지도 작성, 자연표식물, 비전 센서, 이동로봇
The present invention relates to an image-based natural marker mapping apparatus and method thereof, and more particularly, it relates to an image-based natural marker mapping apparatus and method thereof that calculates a position using a rotation number of a wheel, measures distance information through a laser sensor, extracts a natural marker through a vision sensor, By creating a map to be used for the estimation technique, a moving object including a mobile robot can quickly and accurately create an image-based natural marker for recognizing the surrounding environment in a public facility, a hospital, a factory or the like. In addition, the present invention provides an image-based natural marker mapping apparatus and a method thereof, allowing a user to draw a cart-shaped moving object, create a map based on physical dimensions and a natural marker map based on the image, Based natural marker map can be saved, and there is an advantage that it can be utilized for estimating the exact position of a moving object such as a mobile robot.
Mapping, natural markers, vision sensors, mobile robots
Description
본 발명은 영상기반 자연표식물 지도 작성 장치 및 그 방법에 관한 것으로서, 더욱 상세하게는 바퀴의 회전수로 위치를 산출하고, 레이저 센서를 통해 거리정보를 측정하며, 비전 센서를 통해 자연표식물을 추출하여 이동로봇의 위치추정 기술에 활용하기 위한 지도를 작성할 수 있는 장치에 관한 것이다. The present invention relates to an image-based natural marking apparatus and method thereof, and more particularly, to an image-based natural marking apparatus and method thereof, And a device capable of creating a map for utilization in a position estimation technique of a mobile robot.
본 발명은 지식경제부 및 정보통신진흥연구원의 IT성장동력기술개발 사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호 : 2005-S-092-03, 과제명 : USN 기반 Ubiquitous Robotic Space 기술 개발].The present invention was derived from research carried out by the Ministry of Knowledge Economy and the Institute of Information and Communication Technology as a part of the IT Growth Driving Technology Development Project [Task Number: 2005-S-092-03, Project Name: USN-based Ubiquitous Robotic Space Technology Development ].
주지된 바와 같이, 로봇 기술에 대해 관심이 높아지면서 그 활용도가 점차적으로 다양화되고 있는 실정이다. 즉 로봇 기술 중 특히 자율이동로봇의 경우 여러 분야에 걸쳐 많이 사용되고 있는데, 가령 장애자를 도와주는 일, 공장에서 물류를 이송하는 일, 우주탐사작업, 핵폐기물 처리장 또는 심해와 같이 위험한 환경에서의 작업등을 인간을 대신하여 수행하고 있다. As is well known, as the interest in robot technology increases, the utilization rate thereof is gradually diversified. In particular, autonomous mobile robots are widely used in various fields such as helping handicapped persons, transferring logistics from factories, space exploration work, nuclear waste disposal plant, or work in a dangerous environment such as deep sea. We are performing on behalf of human beings.
이러한, 자율이동로봇은 위험한 환경에서의 작업을 대신할 뿐만 아니라 무인청소기, 무인 잔디 깎기 등과 같이 위험하지 않은 작업을 대신하는 용도로도 사용이 가능함에 따라 이 자율이동로봇을 운용하는 운용자에게는 생활의 윤택함을 줄 것이며, 기업에게는 이의 다량 산업화로 고부가가치의 시장을 제공해 줄 것이다.Such an autonomous mobile robot replaces dangerous environment work, and can be used as a substitute for non-dangerous work such as an unmanned vacuum cleaner or an unmanned lawn mower. Therefore, It will give the company a high value-added market due to its mass industrialization.
현재까지 자율이동로봇의 경우 인지능력과 추론능력이 인간과 비교하여 매우 열등하여 그 기능이 매우 제한적임에 따라 보다 많은 분야에서 로봇의 지능을 향상시키기 위한 연구가 이루어지고 있다.Until now, autonomous mobile robots have been inferior to humans in their cognitive abilities and reasoning abilities, and their functions are very limited. Therefore, researches have been conducted to improve the intelligence of robots in many fields.
여기서, 자율이동로봇은 그 무엇보다 원하는 목적지까지 충돌 없이 이동할 수 있어야 하는 것으로, 생활공간 속에서 자유롭게 이동하기 위해서는 스스로 자신의 위치가 어디에 있는지를 판단할 수 있는 능력이 필요하다. 이러한 기능들은 위치측정 기술 및 지도작성 기술에 의해 수행된다. 이 두 기능은 '달걀과 닭'의 관계처럼 서로 연관관계가 매우 깊은 것으로, 만일 지도를 잘못 작성할 경우 그것을 바탕으로 한 위치추정 성능 역시 현저하게 떨어질 것이며, 그 위치를 바탕으로 지도를 작성하였을 경우 그 오차는 더욱 커지게 될 것이다. 이는 정확한 지도작성 기술 또는 위치측정 기술 중 한가지만이라도 만족하는 성능을 로봇에게 제공 가능하다면, 다른 나머지 한 개의 기술 또한 만족하는 결과를 낼 수 있다.Here, the autonomous mobile robot must be capable of moving to a desired destination without collision, and in order to move freely in the living space, it is necessary to have an ability to determine where his / her own position is. These functions are performed by position measurement techniques and mapping techniques. These two functions are very related to each other like the relationship between 'eggs and chickens'. If the map is erroneously written, the positioning performance based on it will be significantly decreased. If the map is created based on the position, The error will become even bigger. This can result in satisfying the other one technique if it is possible to provide the robots with satisfactory performance even if one of the accurate mapping technique or the position measurement technique is satisfied.
최근에 연구자 및 개발자들은 정확한 지도를 로봇에게 제공함으로서 로봇의 위치를 정확하게 산출하는 방식으로 주로 연구하는데, 이때 제공되는 지도의 형식에 따라 크게 인공표식물을 사용하는 방법과 자연표식물을 사용하는 방법 등으로 구분된다. Recently, researchers and developers are mainly studying the accurate location of robots by providing accurate maps to robots. Depending on the type of map provided at this time, methods of using artificial markers and using natural markers Respectively.
우선, 지도의 형식중 인공표식물을 사용하는 방법은 주위 환경에 로봇이 인식할 수 있는 장착물을 설치하고, 이에 대한 초기 위치 정보를 로봇에게 제공하여 추후 로봇이 인공표식물을 인식하였을 때 로봇 자신의 위치를 역으로 추정해 내는 것으로, 이 방법은 인공표식물의 위치를 사전에 정확히 알고 있다는 점에서 로봇이 인공표식물을 탐지하였을 경우에 정확하게 로봇의 위치를 추정하는 방법이다.First, the method of using the artificial markers in the form of a map is as follows. First, a mounting material recognizable by the robot is installed in the surrounding environment, and the initial position information is provided to the robot. When the robot subsequently recognizes the artificial marker, In this method, the position of the robot is precisely estimated when the robot detects the artificial marker because the position of the artificial marker is precisely known in advance.
다음으로, 지도의 형식중 자연표식물을 사용하는 방법은 로봇이 주행하는 환경에 추가적인 인공표식물 없이 평상시 환경에서 특징적인 것들을 표식물로 사용하는 것으로, 이에 대표적인 기술로 지도작성 및 위치추정을 동시에 한다는 말에서 기원한 SLAM(simultaneous localization and mapping) 기술을 들 수 있다. 로봇이 스스로 미지의 환경을 주행하면서 환경으로부터 특징적인 자연표식물을 지도형태로 저장하고 동시에 자신의 위치를 추정하여 정확한 지도 및 위치를 추정하는 것이 SLAM 기술의 목적이다. Next, the method of using the natural markers in the form of the map is to use the markers characteristic of the normal environment without additional artificial markers in the environment that the robot travels, Simultaneous localization and mapping (SLAM) technology. The purpose of SLAM technology is to store the natural markers in a map form while estimating the accurate map and position by estimating their position at the same time as the robot travels the unknown environment by itself.
그러나, 상술한 바와 같은 종래 기술에 따른 지도의 형식중 인공표식물을 사용하는 방법은 인공표식물을 장착하는데 많은 인력이 필요하고, 초기 인공표식물의 위치를 사전에 계산해야 한다는 점에서 시간과 비용이 많이 소요하게 되는 문제점이 있다. 또한, 지도의 형식중 자연표식물을 사용하는 방법은 제한된 지능을 가진 로봇이기 때문에 어떠한 것이 환경의 특징인지를 판단하기 어려워 강인한 자연표식 물을 추출할 수 없는 문제점이 있다. However, the method of using the artificial marker in the form of the map according to the prior art as described above requires a lot of manpower to attach the artificial marker and requires a lot of time and cost since the position of the initial artificial marker must be calculated in advance There is a problem that it consumes. In addition, since the method using the natural markers in the form of the map is a robot having limited intelligence, it is difficult to judge what is the characteristic of the environment, and thus there is a problem that the strong natural markers can not be extracted.
이에, 본 발명의 기술적 과제는 상술한 바와 같은 문제점들을 해결하기 위해 안출한 것으로, 바퀴의 회전수로 이동체가 움직인 위치를 산출하고 레이저 센서를 통해 주위 환경의 물체들까지 거리정보를 측정하여 물리치수에 기반한 지도를 작성하고, 비전 센서를 통해 환경의 정보를 대표할만한 강인한 특징이 도출된 자연표식물을 추출하여 영상기반 지도를 작성한 다음에, 이 작성된 물리치수에 기반한 지도와 영상기반 지도의 좌표를 동기화시켜 이동로봇의 위치추정 기술에 활용하기 위한 실내 지도를 작성할 수 있는 영상기반 자연표식물 지도 작성 장치를 제공한다.SUMMARY OF THE INVENTION Accordingly, the present invention has been made keeping in mind the above problems occurring in the prior art, and it is an object of the present invention to provide a method and apparatus for calculating a position where a moving object is moved by the number of revolutions of a wheel, Dimensional map based on the created physical dimensions, coordinates of the image-based map are created, and the coordinates of the image-based map are created by extracting the natural markers derived from the robust features that represent the information of the environment through the vision sensor, Based map marking device capable of generating an indoor map for use in a position estimation technology of a mobile robot by synchronizing the position of the mobile robot with the position of the mobile robot.
본 발명의 일 관점에 따른 영상기반 자연표식물 지도 작성 장치는, 다수의 바퀴가 회전하는 회전수 각각을 측정하는 바퀴 인코더와, 거리 정보를 감지하는 레이저 센서와, 영상 정보를 감지하는 비전 센서를 구비하는 이동체 감지부와, 상기 바퀴 인코더에 의해 측정된 각각의 바퀴 회전수를 기반으로 이동체의 이동 위치를 산출하고, 상기 감지된 영상 정보에서 영상 기반의 자연표식물을 추출하는 이동체 감지정보 처리부와, 상기 산출된 이동 위치와 상기 감지된 거리 정보를 이용하여 물리치수기반 지도를 작성하고, 상기 작성된 물리치수기반 지도와 상기 자연표식물에 의해 작성된 영상기반 지도를 좌표 동기화시켜 실내지도를 작성하는 지도 작성부를 포함하며, 상기 이동체 감지 정보 처리부는, 상기 측정된 회전수 각각을 기반으로 이동체가 움직인 위치를 산출하는 위치 산출부와, 상기 감지된 거리 정보를 획득하는 거리 정보 획득부와, 상기 감지된 영상 정보를 획득하는 영상 정보 획득부와, 상기 감지된 영상 정보에서 영상 기반의 자연표식물을 추출하는 자연표식물 추출부를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided an apparatus for mapping an image-based natural markers, comprising: a wheel encoder for measuring the number of revolutions of a plurality of wheels, a laser sensor for detecting distance information, and a vision sensor for detecting image information A moving object detection information processing unit for calculating a moving position of the moving object based on the number of wheel rotations measured by the wheel encoder and extracting an image based natural marker from the detected image information; Based map by using the calculated movement position and the sensed distance information, and creating an indoor map by coordinate-synchronizing the created physical-dimension-based map and the image-based map created by the natural markers Wherein the moving object detection information processing unit detects the moving object based on the measured rotation numbers, A distance information acquisition unit for acquiring the sensed distance information, an image information acquisition unit for acquiring the sensed image information, and a display unit for acquiring image-based natural markers from the sensed image information, And a natural marker extracting unit for extracting the natural markers.
삭제delete
본 발명에서는 바퀴의 회전수로 위치를 산출하고, 레이저 센서를 통해 거리정보를 측정하며, 비전 센서를 통해 자연표식물을 추출하여 이동로봇의 위치추정 기술에 활용하기 위한 지도를 작성함으로써, 실내공간(예컨대 공공시설, 병원, 공장 등)에서 이동로봇을 포함한 이동체가 주위 환경을 인식하기 위한 영상 기반 자연표식물을 신속하고 정확하게 작성할 수 있다.In the present invention, the position is calculated by the number of revolutions of the wheel, the distance information is measured through the laser sensor, the natural marker is extracted through the vision sensor, and the map is utilized for the position estimation technology of the mobile robot. A moving object including a mobile robot can quickly and accurately create an image-based natural marker for recognizing the surrounding environment in a public facility, a hospital, a factory, and the like.
또한, 본 발명은 영상기반 자연표식물 지도 작성 장치 및 그 방법을 제공함으로써, 사용자가 이동체(예컨대, 카트 형태의 이동체)를 끌고 다니면서 물리적 치수에 기반한 지도와 영상에 기반한 자연표식물 지도를 작성하여 이동체에 제공할 수 있어 영상 기반 자연표식물 지도를 구축하는데 소요되는 시간을 절약할 수 있으며, 이동 로봇과 같은 이동체의 정확한 위치를 추정하는데 활용될 수 있다. 특히 공공시설과 같은 여러 기타 실내 공간에서 다양한 서비스에 활용되는 이동로봇에 사용된다면, 이동로봇이 자신의 위치를 정확하게 추정할 수 있는 이점이 있다.In addition, the present invention provides an image-based natural marker mapping apparatus and method, wherein a user draws a moving object (e.g., a cart-shaped moving object) and creates a map based on physical dimensions and a natural marker map based on the image, It is possible to save the time required for constructing the image-based natural marker map and can be used for estimating the exact position of the moving object such as the mobile robot. In particular, if the mobile robot is used in a mobile robot used for various services in various other indoor spaces such as public facilities, the mobile robot can accurately estimate its own position.
이하, 첨부된 도면을 참조하여 본 발명의 동작 원리를 상세히 설명한다. 하기에서 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. Hereinafter, the operation principle of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions of the present invention, and these may be changed according to the intention of the user, the operator, or the like. Therefore, the definition should be based on the contents throughout this specification.
도 1은 본 발명의 일 실시예에 따른 영상기반 자연표식물 지도 작성을 위한 카트 형태의 이동체 장치를 도시한 도면으로서, 이 카트 형태의 이동체 장치에는 방향에 상관없이 자유롭게 이동 가능하도록 전륜측에 위치한 제1바퀴(S1) 및 제2바퀴(S2), 후륜측에 위치한 제3바퀴(S3)와 이중 카트 형태의 이동체 장치가 이동한 거리 및 방향을 측정하기 위해 제1,2바퀴(S1,S2)에 장착되어 바퀴의 회전수를 측정하는 바퀴 인코더(11)와 주위 환경의 물체들까지 거리를 감지하기 위해 장착되어 있는 레이저 센서(13)와 환경의 정보를 대표할만한 강인한 특징이 있는 영상을 감지하기 위해 장착되어 있는 비전 센서(15) 등을 포함할 수 있다. 여기서, 바퀴 인코더(11)는 전륜측에 위치한 제1,2바퀴(S1,S2)에 대응되도록 바퀴와 동일한 개수로 장착되어 있는 것이 바람직하다. FIG. 1 is a view showing a cart-shaped mobile device for mapping an image-based natural marking according to an embodiment of the present invention. In this cart-shaped mobile device, The first and second wheels S1 and S2 are used to measure the distance and direction in which the first wheel S1 and the second wheel S2, the third wheel S3 located on the rear wheel side, A
도 2는 본 발명의 일 실시예에 따른 영상기반 자연표식물 지도 작성 장치를 위한 블록 구성도로서, 이동체 하드웨어부(10)와 이동체 감지정보 처리부(30)와 지도 작성부(50) 등을 포함할 수 있다. FIG. 2 is a block diagram of an image-based natural marker mapping apparatus according to an exemplary embodiment of the present invention, which includes a moving
이동체 하드웨어부(10)는 도 3에 도시된 바와 같이 이동체 감지부로서, 바퀴 인코더(11)와 레이저 센서(13) 및 비전 센서(15) 등을 포함할 수 있다.The moving
바퀴 인코더(11)는 제1바퀴(S1) 및 제2바퀴(S2)에서 회전하는 회전수를 각각 측정한 다음에, 측정된 제1바퀴(S1)의 회전수를 이동체 감지정보 처리부(30)내 제1바퀴의 회전수 획득부(31)에 제공하고, 측정된 제2바퀴(S2)의 회전수를 이동체 감지정보 처리부(30)내 제2바퀴의 회전수 획득부(33)에 제공한다. The
레이저 센서(13)는 레이저를 이용하여 주위 환경의 물체들까지 거리를 감지하고, 감지된 거리 정보를 이동체 감지정보 처리부(30)내 거리 정보 획득부(37)에 제공한다. The
비전 센서(15)는 사용자에 의해 이동되면서 영상을 감지하고, 감지된 영상 정보를 이동체 감지정보 처리부(30)내 영상 정보 획득부(39)에 제공한다.The
이동체 감지정보 처리부(30)는 도 4에 도시된 바와 같이 제1바퀴의 회전수 획득부(31)와 제2바퀴 회전수 획득부(33)와 위치 산출부(35)와 거리 정보 획득부(37)와 영상 정보 획득부(39)와 자연표식물 추출부(41) 등을 포함할 수 있다.4, the moving object detection
제1바퀴의 회전수 획득부(31)는 이동체 하드웨어부(10)내 바퀴 인코더(11)로부터 입력되는 제1바퀴(S1)의 회전수를 획득하여 위치 산출부(35)에 제공한다.The first wheel rotational
제2바퀴의 회전수 획득부(33)는 이동체 하드웨어부(10)내 바퀴 인코더(11)로부터 입력되는 제2바퀴(S2)의 회전수를 획득하여 위치 산출부(35)에 제공한다.The second wheel rotational
위치 산출부(35)는 제1바퀴의 회전수 획득부(31) 및 제2바퀴의 회전수 획득부(33)로부터 입력되는 제1,제2바퀴(S1,S2)의 회전수 각각을 이용하여 이동체가 움직인 위치를 산출하여 지도 작성부(50)내 물리치수기반 지도부(51)에 제공한다. The
거리 정보 획득부(37)는 이동체 하드웨어부(10)내 레이저 센서(13)로부터 입력되는 거리 정보를 획득하여 지도 작성부(50)내 물리치수기반 지도부(51)에 제공한다. The distance
영상 정보 획득부(39)는 이동체 하드웨어부(10)내 비전 센서(15)로부터 입력되는 영상 정보를 획득하여 자연표식물 추출부(41)에 제공한다.The image
자연표식물 추출부(41)는 영상 정보 획득부(39)로부터 입력되는 영상 정보에서 환경의 정보를 대표할만한 강인한 특징의 영상 정보, 예컨대, 사용하는 알고리즘에 따라 기설정되어 있는 영상을 대표할 만한 지점의 영상 정보를 자연표식물로 추출하여 지도 작성부(50)내 영상기반 지도부(53)에 제공한다. The natural
지도 작성부(50)는 도 5에 도시된 바와 같이 물리치수기반 지도부(51)와 영상기반 지도부(53)와 좌표 동기화부(55)와 실내지도 작성부(57) 등을 포함할 수 있다.The
물리치수기반 지도부(51)는 이동체 감지정보 처리부(30)내 위치 산출부(35)로부터 입력되는 이동체가 움직인 위치와 거리 정보 획득부(37)로부터 입력되는 거리 정보를 이용하여 물리치수기반 지도, 즉 래스터 지도, 벡터 지도, 토폴로지 지도 등의 다양한 형태를 작성하여 좌표 동기화부(55)에 제공한다.The physical dimension-based
영상기반 지도부(53)는 이동체 감지정보 처리부(30)내 자연표식물 추출 부(41)로부터 입력되는 영상 기반의 자연표식물을 데이터베이스화하여 영상기반 지도를 작성하여 좌표 동기화부(55)에 제공한다.The image-based
좌표 동기화부(55)는 물리치수기반 지도부(51)로부터 입력되는 물리치수기반 지도와 영상기반 지도부(53)로부터 입력되는 임의의 자연표식물이 포함된 영상기반 지도의 믹싱 과정을 통해 임의의 자연표식물이 포함된 영상의 물리적 위치 정보가 존재하도록 좌표를 동기화시켜 실내지도 작성부(57)에 제공한다.The
실내지도 작성부(57)는 좌표 동기화부(55)로부터 입력되는 좌표 동기화된 임의의 자연표식물이 포함된 영상의 물리적 위치 정보를 이용하여 실내지도를 작성한다. The indoor
따라서, 본 발명은 바퀴의 회전수로 위치를 산출하고, 레이저 센서를 통해 거리정보를 측정하며, 비전 센서를 통해 자연표식물을 추출하여 이동로봇의 위치추정 기술에 활용하기 위한 지도를 작성함으로써, 실내공간(예컨대 공공시설, 병원, 공장 등)에서 이동로봇을 포함한 이동체가 주위 환경을 인식하기 위한 영상 기반 자연표식물을 신속하고 정확하게 작성할 수 있다.Accordingly, in the present invention, the position is calculated by the number of revolutions of the wheel, the distance information is measured through the laser sensor, the natural marker is extracted through the vision sensor, and the map is utilized for the position estimation technique of the mobile robot, A moving object including a mobile robot can quickly and accurately create an image-based natural marker for recognizing the surrounding environment in a space (for example, a public facility, a hospital, a factory, etc.).
다음에, 상술한 바와 같은 구성을 갖는 본 발명의 일 실시예에서 영상기반 자연표식물 지도 작성 과정에 대하여 설명한다. Next, an image-based natural marker mapping process will be described in an embodiment of the present invention having the above-described configuration.
도 6은 본 발명의 일 실시예에 따른 영상기반 자연표식물 지도 작성 방법에 대하여 순차적으로 도시한 흐름도이다. FIG. 6 is a flowchart sequentially illustrating an image-based natural marker mapping method according to an embodiment of the present invention.
먼저, 도 1에 도시된 바와 같은 레이저 센서(13)와 비전 센서(15) 등이 장착된 카트 형태의 이동체 장치를 사용자가 끌고 다니면서 환경 정보를 획득하여야만 한다.First, the user must draw environment information on a cart-shaped mobile device equipped with a
즉, 카트 형태의 이동체 장치에 장착된 바퀴 인코더(11)에서는 이동체 장치에 장착된 전륜측 제1바퀴(S1) 및 제2바퀴(S2)에서 회전하는 회전수를 각각 측정(S601)한 다음에, 측정된 제1바퀴(S1)의 회전수가 이동체 감지정보 처리부(30)내 제1바퀴의 회전수 획득부(31)에 제공되도록 하고, 측정된 제2바퀴(S2)의 회전수가 이동체 감지정보 처리부(30)내 제2바퀴의 회전수 획득부(33)에 제공되도록 한다. That is, in the
그러면, 제1바퀴의 회전수 획득부(31)에서는 바퀴 인코더(11)로부터 입력되는 제1바퀴(S1)의 회전수를 획득(S603)하여 위치 산출부(35)에 제공(S604)하고, 제2바퀴의 회전수 획득부(33)에서는 바퀴 인코더(11)로부터 입력되는 제2바퀴(S2)의 회전수를 획득(S605)하여 위치 산출부(35)에 제공(S607)한다. The first wheel rotation
위치 산출부(35)에서는 제1바퀴의 회전수 획득부(31) 및 제2바퀴의 회전수 획득부(33)로부터 입력되는 제1,제2바퀴(S1,S2)의 회전수 각각을 이용하여 이동체가 움직인 위치를 산출(S609)하고, 이 산출된 이동체가 움직인 위치가 물리치수기반 지도부(51)에 제공(S611)되도록 한다. The
레이저 센서(13)에서는 레이저를 이용하여 주위 환경의 물체들까지 거리를 감지(S613)하고, 감지된 거리 정보가 거리 정보 획득부(37)에 제공되도록 한다. 그러면, 거리 정보 획득부(37)에서는 레이저 센서(13)로부터 입력되는 거리 정보를 획득(S615)하여 물리치수기반 지도부(51)에 제공(S617)한다. The
물리치수기반 지도부(51)에서는 위치 산출부(35)로부터 입력되는 이동체가 움직인 위치와 거리 정보 획득부(37)로부터 입력되는 거리 정보를 이용하여 물리치 수기반 지도, 즉 래스터 지도, 벡터 지도, 토폴로지 지도 등의 다양한 형태를 작성(S619)하여 좌표 동기화부(55)에 제공(S621)한다.Based on the position at which the moving object is input from the
또한 비전 센서(15)에서는 사용자에 의해 이동되면서 영상을 감지(S623)하고, 감지된 영상 정보가 영상 정보 획득부(39)에 제공되도록 한다. 그러면, 영상 정보 획득부(39)에서는 비전 센서(15)로부터 입력되는 영상 정보를 획득(S625)하여 자연표식물 추출부(41)에 제공(S627)한다. In the
자연표식물 추출부(41)에서는 영상 정보 획득부(39)로부터 입력되는 영상 정보에서 환경의 정보를 대표할만한 강인한 특징의 영상 정보를 자연표식물로 추출(S629)하고, 이 추출된 영상 기반의 자연표식물이 영상기반 지도부(53)에 제공(S631)되도록 한다. 여기서, 자연표식물을 추출하는 방법은 SHIFT, SIFT, PCA-SIFT(principal components analysis SIFT), SURF(speed up robust feature), GLOH(gradient location and orientation histogram), LESH(local energy based shape histogram), edge detection(canny, canny-deriche, differential, sobel), corner detection(harris, shi and tomasi), ridge detection, blob detection(laplacian of gaussian(LoG), difference of gaussians(DoG), determinant of hessian(DoH)) 중 적어도 어느 하나에 의해 추출되며, 일 실시예로서 SHIFT 등의 영상 특징점 추출 알고리즘을 이용하여 영상 정보로부터 추출된 특징점의 개수 및 특징점의 형태 등으로 영상이 주위환경의 특징을 잘 나타내고 있는지를 판단하여 자연표식물을 추출할 수 있는 것이다. The natural
영상기반 지도부(53)에서는 자연표식물 추출부(41)로부터 입력되는 영상 기 반의 자연표식물을 데이터베이스화하여 영상기반 지도를 작성(S633)하고, 이 작성된 임의의 자연표식물이 포함된 영상기반 지도가 좌표 동기화부(55)에 제공(S635)되도록 한다.The image-based
좌표 동기화부(55)에서는 물리치수기반 지도부(51)로부터 입력되는 물리치수기반 지도와 영상기반 지도부(53)로부터 입력되는 임의의 자연표식물이 포함된 영상기반 지도의 믹싱 과정을 통해 임의의 자연표식물을 그 영상과 그 위치와 함께 영상지도에 추가시켜 영상의 물리적 위치 정보가 존재하도록 좌표를 동기화(S637)시키고, 이 동기화된 임의의 자연표식물이 포함된 영상의 물리적 위치 정보가 실내지도 작성부(57)에 제공(S639)되도록 한다.The coordinate
실내지도 작성부(57)에서는 좌표 동기화부(55)로부터 입력되는 좌표 동기화된 임의의 자연표식물이 포함된 영상의 물리적 위치 정보를 통해 카트 형태의 이동체를 이용하여 주위환경을 대표할 만한 영상 기반 자연표식물을 충분히 영상기반 지도로 작성이 되었다고 판단되었을 경우 실내 지도를 작성(S641)한다. 여기서, 실내지도 작성부(57)에 의해 작성된 실내지도는 추후 로봇이나 이동체의 위치 추정기술에 응용될 수 있다. 예컨대, 이동로봇이 kidnapping 당하였을 경우 영상기반 지도에 등록된 자연표식물이 비전 센서의 현재 영상과 매칭이 되는 곳이 발견되었을 경우 자신의 위치를 추정할 수 있다.The
본 발명에 의한 영상기반 자연표식물 지도 작성 방법은 컴퓨터 프로그램으로 작성 가능하다. 이 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 해당 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 정보저장매체(computer readable media)에 저장되고, 컴퓨터에 의하여 읽혀지고 실행됨으로써 영상기반 자연표식물 지도 작성 방법을 구현한다. 정보저장매체는 자기 기록매체, 광 기록매체 및 캐리어 웨이브 매체를 포함한다.The image-based natural marker mapping method according to the present invention can be realized by a computer program. The code and code segments that make up this computer program can be easily deduced by a computer programmer in the field. In addition, the computer program is stored in a computer-readable medium and readable and executed by a computer to implement an image-based natural marker mapping method. The information storage medium includes a magnetic recording medium, an optical recording medium, and a carrier wave medium.
이상에서와 같이, 본 발명은 영상기반 자연표식물 지도 작성 장치 및 그 방법을 제공함으로써, 사용자가 카트 형태의 이동체를 끌고 다니면서 물리적 치수에 기반한 지도와 영상에 기반한 자연표식물 지도를 작성하여 이동체에 제공할 수 있어 영상 기반 자연표식물 지도를 구축하는데 소요되는 시간을 절약할 수 있으며, 이동 로봇과 같은 이동체의 정확한 위치를 추정하는데 활용될 수 있다. 특히 공공시설과 같은 여러 기타 실내 공간에서 다양한 서비스에 활용되는 이동로봇에 사용된다면, 이동로봇이 자신의 위치를 정확하게 추정할 수 있다.As described above, the present invention provides an image-based natural marker mapping apparatus and method, wherein a user draws a cart-shaped moving object, creates a map based on physical dimensions and a natural marker map based on the image, It is possible to save the time required for constructing the image-based natural marker map, and can be used for estimating the exact position of the moving object such as a mobile robot. In particular, if the mobile robot is used in a mobile robot used for various services in various other indoor spaces such as public facilities, the mobile robot can accurately estimate its position.
지금까지 본 발명에 대하여 그 일부 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The present invention has been described with reference to some embodiments thereof. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.
도 1은 본 발명의 일 실시예에 따른 영상기반 자연표식물 지도 작성을 위한 카트 형태의 이동체 장치를 도시한 도면,BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram of a cart-type mobile device for mapping an image-based natural markers according to an embodiment of the present invention;
도 2는 본 발명의 일 실시예에 따른 영상기반 자연표식물 지도 작성 장치를 위한 블록 구성도,FIG. 2 is a block diagram of an image-based natural marker mapping apparatus according to an embodiment of the present invention;
도 3은 도 2에 도시된 이동체 하드웨어부를 보다 상세하게 도시한 블록 구성도,FIG. 3 is a block diagram showing the moving body hardware unit shown in FIG. 2 in more detail;
도 4는 도 2에 도시된 이동체 감지정보 처리부를 상세하게 도시한 블록 구성도,FIG. 4 is a block diagram showing the moving object detection information processing unit shown in FIG. 2 in detail;
도 5는 도 2에 도시된 지도 작성부를 상세하게 도시한 블록 구성도,FIG. 5 is a block diagram showing in detail the map creating unit shown in FIG. 2,
도 6은 본 발명의 일 실시예에 따른 영상기반 자연표식물 지도 작성 방법에 대하여 순차적으로 도시한 흐름도.FIG. 6 is a flowchart sequentially illustrating an image-based natural marker mapping method according to an embodiment of the present invention; FIG.
<도면의 주요부분에 대한 부호의 설명>Description of the Related Art
10 : 이동체 하드웨어부 11 : 바퀴 인코더10: Moving body hardware part 11: Wheel encoder
13 : 레이저 센서 15 : 비전 센서13: Laser sensor 15: Vision sensor
30 : 이동체 감지정보 처리부 31 : 제1바퀴의 회전수 획득부30: moving object detection information processing unit 31: rotational speed acquiring unit of first wheel
33 : 제2바퀴 회전수 획득부 35 : 위치 산출부33: second wheel speed acquiring unit 35: position calculating unit
37 : 거리 정보 획득부 39 : 영상 정보 획득부37: Distance information acquisition unit 39: Image information acquisition unit
41 : 자연표식물 추출부 50 : 지도 작성부41: Natural marker extracting unit 50: Mapping unit
51 : 물리치수기반 지도부 53 : 영상기반 지도부51: Physical Dimension Based Leadership Unit 53:
55 : 좌표 동기화부 57 : 실내지도 작성부55: coordinate synchronizer 57: indoor map maker
Claims (10)
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080120801 | 2008-12-01 | ||
KR20080120801 | 2008-12-01 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100062858A KR20100062858A (en) | 2010-06-10 |
KR101141601B1 true KR101141601B1 (en) | 2012-05-17 |
Family
ID=42363062
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090031365A KR101141601B1 (en) | 2008-12-01 | 2009-04-10 | Quick map building apparatus based on vision natural landmark |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101141601B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210157747A (en) * | 2020-06-22 | 2021-12-29 | 중앙대학교 산학협력단 | Displacement Measurement System of structure using image processing unit and laser |
KR20240064449A (en) | 2022-11-04 | 2024-05-13 | 주식회사 벰소프트 | A Pattern Matching Method for Measuring The Position of A Driving Robot Using Lidar and A Computer-Readable Recording Medium On Which A Program Performing The Same Is Recorded |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR200488998Y1 (en) * | 2014-09-02 | 2019-04-15 | 네이버비즈니스플랫폼 주식회사 | Apparatus for constructing indoor map |
KR102269362B1 (en) * | 2019-12-16 | 2021-06-25 | 네이버랩스 주식회사 | Method and system for controlling robot for providing management service for plant in building |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100776215B1 (en) * | 2005-01-25 | 2007-11-16 | 삼성전자주식회사 | Apparatus and method for estimating location and generating map of mobile body, using upper image, computer-readable recording media storing computer program controlling the apparatus |
KR100822064B1 (en) * | 2006-06-05 | 2008-04-15 | 현웅근 | Robot and method of drawing indoor map |
-
2009
- 2009-04-10 KR KR1020090031365A patent/KR101141601B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100776215B1 (en) * | 2005-01-25 | 2007-11-16 | 삼성전자주식회사 | Apparatus and method for estimating location and generating map of mobile body, using upper image, computer-readable recording media storing computer program controlling the apparatus |
KR100822064B1 (en) * | 2006-06-05 | 2008-04-15 | 현웅근 | Robot and method of drawing indoor map |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210157747A (en) * | 2020-06-22 | 2021-12-29 | 중앙대학교 산학협력단 | Displacement Measurement System of structure using image processing unit and laser |
KR102444976B1 (en) * | 2020-06-22 | 2022-09-21 | 중앙대학교 산학협력단 | Displacement Measurement System of structure using image processing unit and laser |
KR20240064449A (en) | 2022-11-04 | 2024-05-13 | 주식회사 벰소프트 | A Pattern Matching Method for Measuring The Position of A Driving Robot Using Lidar and A Computer-Readable Recording Medium On Which A Program Performing The Same Is Recorded |
Also Published As
Publication number | Publication date |
---|---|
KR20100062858A (en) | 2010-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101314588B1 (en) | Method and apparatus for producing map of artificial mark, method and apparatus for measuring position of mobile object by using same | |
KR101493075B1 (en) | apparatus and method for recognizing a situation of mobile robot | |
KR101553653B1 (en) | apparatus and method for detecting slip of robot | |
US20110205338A1 (en) | Apparatus for estimating position of mobile robot and method thereof | |
KR101739996B1 (en) | Moving robot and simultaneous localization and map-buliding method thereof | |
KR100877072B1 (en) | Method and apparatus of building map for a mobile robot and cleaning simultaneously | |
JP5803367B2 (en) | Self-position estimation apparatus, self-position estimation method and program | |
KR20090010367A (en) | Method and apparatus for providing indoor eco-map | |
KR20110020961A (en) | Method of detecting and tracking moving object for mobile platform | |
CN108038139B (en) | Map construction method and device, robot positioning method and device, computer equipment and storage medium | |
JP2010511957A (en) | Apparatus and method for creating an environment map for a moving body capable of quickly adapting to surrounding environmental changes and creating an environment map | |
CA2786407A1 (en) | Method and system for sensing the position of a vehicle | |
KR101141601B1 (en) | Quick map building apparatus based on vision natural landmark | |
CN111982099A (en) | Robot hybrid positioning method, device, equipment and computer readable medium | |
Skrzypczyński | Mobile robot localization: Where we are and what are the challenges? | |
CN113188557A (en) | Visual inertial integrated navigation method fusing semantic features | |
CN112129282B (en) | Method and device for converting positioning results among different navigation modes | |
KR20100040234A (en) | Apparatus and method for simultaneous localization and mapping of robot | |
Feng et al. | Marker-assisted structure from motion for 3D environment modeling and object pose estimation | |
WO2020194079A1 (en) | Method and system for performing localization of an object in a 3d | |
JP2006172016A (en) | Mobile robot, mobile robot control method and mobile robot control program | |
Kurazume et al. | Introduction to the robot town project and 3-d co-operative geometrical modeling using multiple robots | |
KR101553656B1 (en) | Apparatus and method for relocation of robot | |
CN115471530A (en) | Robot self-positioning precision evaluation method based on laser radar | |
Rybski et al. | Appearance-based minimalistic metric SLAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160330 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20170407 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20180322 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20190424 Year of fee payment: 8 |