KR20180109284A - Autonomous mobile robot to implement logistics automation systems and method for map building and localization of the robot - Google Patents

Autonomous mobile robot to implement logistics automation systems and method for map building and localization of the robot Download PDF

Info

Publication number
KR20180109284A
KR20180109284A KR1020170038655A KR20170038655A KR20180109284A KR 20180109284 A KR20180109284 A KR 20180109284A KR 1020170038655 A KR1020170038655 A KR 1020170038655A KR 20170038655 A KR20170038655 A KR 20170038655A KR 20180109284 A KR20180109284 A KR 20180109284A
Authority
KR
South Korea
Prior art keywords
distance
map
mobile robot
autonomous mobile
distance information
Prior art date
Application number
KR1020170038655A
Other languages
Korean (ko)
Other versions
KR101912361B1 (en
Inventor
나성권
신명찬
임혁
Original Assignee
(주)엔스퀘어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)엔스퀘어 filed Critical (주)엔스퀘어
Priority to KR1020170038655A priority Critical patent/KR101912361B1/en
Publication of KR20180109284A publication Critical patent/KR20180109284A/en
Application granted granted Critical
Publication of KR101912361B1 publication Critical patent/KR101912361B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

The present invention relates to a method for performing environment scanning and self-localization of an autonomous mobile robot driving in a warehouse, the method comprising the steps of: preparing an actual grip-based map which shows information on surrounding environment by use of actual distance information measured by the autonomous mobile robot driving in a distribution space; forming a revised map by adding an imaginary wall showing an area limiting the driving of the autonomous mobile robot to the actual map; and setting candidate points of a self-position on the revised map by N numbers in case the autonomous mobile robot actually drives in the distribution space, selecting n candidate points by comparing the distance information calculated in a specific direction on the revised map with the actual distance information measured in the specific direction by a distance sensor at the respective N candidate points, and estimating the self-position based on the n candidate points.

Description

물류 자동화를 위한 자율주행 로봇 및 상기 로봇의 환경인식 및 자기위치 추정 방법{AUTONOMOUS MOBILE ROBOT TO IMPLEMENT LOGISTICS AUTOMATION SYSTEMS AND METHOD FOR MAP BUILDING AND LOCALIZATION OF THE ROBOT}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an autonomous mobile robot for automating logistics and an environment recognition method and a magnetic location estimation method for the robot,

본 발명은 자율주행 로봇 및 상기 자율주행 로봇의 이동 제어에 관련된 것으로, 보다 상세하게는 환경 상황이 빈번하게 변하는 영역을 반영한 격자기반 지도를 기반으로 자율주행 로봇이 자신의 위치를 추정하는 방법 및 이러한 방법을 적용하여 자율주행하는 로봇에 관한 것이다. The present invention relates to a movement control of an autonomous mobile robot and an autonomous mobile robot, and more particularly, to a method of estimating a position of an autonomous mobile robot based on a grid-based map reflecting an area in which environmental conditions are frequently changed, To a self-running robot.

물류 자동화를 위해 자율주행 로봇이 운행하게 되는 물류 현장은, 수많은 물건이 보관되는 창고일 수 있으며, 창고 안에 보관된 물건들이 외부로 반출되고 새로운 물건이 들여져 적재되는 일이 빈번하여 자율주행 로봇이 인식해야 하는 주변환경의 형태 변화가 매우 심하다. In order to automate logistics, the logistics site where autonomous mobile robots are operated can be a warehouse where many objects are stored, objects stored in a warehouse are taken out, new objects are loaded and loaded, The shape of the surrounding environment to be changed is very severe.

따라서, 자율주행 로봇이, 물류 현장에서 특정 시점에서 실측한 정보를 이용하여 구성된 지도를 그대로 이용하게 되면, 물건의 위치가 변경된 경우에 자기위치를 식별하지 못하는 상황이 발생할 수 있다. Therefore, if the autonomous mobile robot uses the map constructed by using the information measured at a specific point in time at the logistics site, the self position can not be identified when the position of the object is changed.

이러한 문제를 극복하기 위한 방법으로, 물류 현장의 공간 내에 인위적인 표식을 부착하고 이 표식을 인식하여 자율주행 로봇이 자신의 위치를 추정하게 하는 방법이 사용되고 있다. 하지만, 다수의 표식을 다수의 위치에 부착해야 하는 문제점 및 표식이 훼손되지 않도록 유지보수 해야 하는 문제점이 있다. As a method to overcome this problem, a method of attaching an artificial mark in the space of a logistics site and recognizing the mark and allowing the autonomous mobile robot to estimate its position is used. However, there is a problem that a plurality of markers are required to be attached to a plurality of positions, and maintenance must be performed to prevent markings from being damaged.

한편, 최근에 개발되고 있는 자율주행 로봇은, 중심으로부터 여러 각도로 레이저를 조사하여 해당 방향에서 물체까지의 거리를 측정하는 레이저 거리 센서를 구비하고, 측정된 거리정보를 사용하여 물체들 사이를 주행하도록 구성되고 있다. 이렇게 레이저 거리센서를 이용하는 경우에는, 주변 환경에 대응하는 지도를 미리 구비하고 있어야 하며, 측정된 거리정보에 근거하여 지도 내에서 자기위치를 실시간으로 추정하고, 추정된 자기위치에 근거하여 공간 내에서의 자율주행을 실행하도록 구성된다. On the other hand, a recently developed autonomous mobile robot has a laser distance sensor that measures a distance from an object to an object by irradiating the laser at various angles from the center, and uses the measured distance information to travel between objects . When the laser distance sensor is used, a map corresponding to the surrounding environment must be provided in advance. The position of the user is estimated in real time on the basis of the measured distance information, and based on the estimated position, Of the vehicle.

하지만, 이 경우에도, 주변 환경에서 물체의 위치가 변경되면, 자기위치를 정확하게 추정할 수 없다는 문제점은 여전하다. 따라서, 이동가능한 물체의 위치변경에 관계없이 지도 내에서 자신의 위치를 정확하게 추정할 수 있게 하는 향상된 자기위치 추정 알고리즘이 필요하다.However, even in this case, there is still a problem that the position of the object can not be accurately estimated when the position of the object changes in the surrounding environment. Therefore, there is a need for an improved magnetic localization algorithm that allows accurate estimation of its position within a map, regardless of the position of the movable object.

본 발명은 상술한 바와 같은 필요성에 의한 것으로서, 물건의 이동이 빈번한 물류 현장의 공간에서 자율주행 로봇이, 스스로 주변 환경에 대응하는 격자기반 지도를 작성하고, 작성된 지도가 물건의 이동을 감안하여 수정 보완되면, 이 수정 보완된 격자기반 지도와 레이저 거리센서를 이용하여 자기위치를 정밀도 높게 추정할 수 있게 하는 방법 및 이러한 방법을 적용하여 주행하는 자율주행 로봇을 제공하고자 한다. An object of the present invention is to provide an autonomous mobile robot which can automatically create a grid-based map corresponding to the surrounding environment in a space at a logistics site where items are frequently moved, In this paper, we propose a method for estimating the position of a robot with high accuracy using the grid - based map and the laser range sensor.

본 발명은, 물류 창고 등에서 운행되는 자율주행 로봇의 환경인식 및 자기위치 추정 방법에 관한 것으로, 그 방법은: 레이저 거리센서를 가진 자율주행 로봇이 실제 주행을 통하여 획득한 거리정보를 축적하여 격자기반의 실측지도를 작성하는 단계와, 물건 위치가 변동하여 발생하는 주변환경의 변화에 강인하게 대처하기 위하여 물건의 위치가 변동되는 영역에 가상의 차단벽을 설정하여 격자기반의 실측지도를 수정하여 수정지도를 구성하는 단계와, 수정지도와 실시간으로 입력되는 실측된 거리정보를 서로 비교하여 자율주행 로봇이 현재의 자기위치를 추정하는 단계를 포함한다.The present invention relates to an environmental recognition and a self-localization method of an autonomous mobile robot running in a warehouse or the like. The autonomous mobile robot having a laser distance sensor accumulates distance information obtained through actual traveling, A virtual obstruction wall is set in an area where the position of the object is changed in order to cope with the change of the surrounding environment caused by the fluctuation of the object position, Constructing a map, comparing the measured distance information inputted in real time with the corrected map, and estimating the current self position of the autonomous mobile robot.

추가로, 가상벽이 설정된 영역에 자율주행 로봇이 위치하는 경우에는, 자율주행 로봇이 실측한 거리정보를 가상벽과 관련되도록 조정하고, 조정된 거리정보를 참고하여 자신의 위치를 추정한다.Further, when the autonomous mobile robot is located in the area where the virtual wall is set, the autonomous mobile robot adjusts the distance information measured by the autonomous mobile robot to be related to the virtual wall, and estimates its own position by referring to the adjusted distance information.

더욱 상세하게는, 본 발명의 일 실시예에 따른 물류 자동화를 위한 자율주행 로봇의 환경인식 및 자기위치 추정 방법은: 물체까지의 거리를 측정하기 위한 거리센서 및 주행한 이동거리를 측정하기 위한 엔코더를 포함하는 자율주행 로봇이, 자율주행해야할 물류공간을 주행하면서 실측한 실측 거리정보를 이용하여 주변환경의 형태를 정보화한 격자기반의 실측지도를 작성하는 단계; 상기 실측지도상에 상기 자율주행 로봇의 주행을 제한하는 영역을 표시하는 가상벽을 추가하여 수정지도를 구성하는 단계; 상기 자율주행 로봇이 상기 물류공간을 실제 주행하는 경우, 상기 수정지도에서 자기위치의 후보지점을 N개 설정하고(상기 N은, 1 이상의 자연수), 상기 설정된 N개의 후보지점 각각에서 상기 수정지도 내에서 특정 방향으로 계산된 계산 거리정보와 상기 거리센서에 의해 상기 특정 방향으로 실측한 실측 거리정보를 비교하는 방식으로, 하나 또는 복수의 후보지점을 선택하고, 상기 선택된 하나 또는 복수의 후보지점에 근거하여 자기위치를 추정하는 단계를 포함할 수 있다.More particularly, the present invention relates to an environment recognition and self-localization method of an autonomous mobile robot for automating logistics, including: a distance sensor for measuring a distance to an object; and an encoder Creating a grid-based actual map by informing the shape of the surrounding environment using actual measured distance information while the autonomous mobile robot is traveling in a logistics space to be autonomously traveling; Constructing a modified map by adding a virtual wall for displaying an area for limiting the running of the autonomous mobile robot on the actual map; (N is a natural number equal to or greater than 1) of candidate positions in the correction map when the autonomous mobile robot is actually traveling in the distribution space, The method comprising: selecting one or a plurality of candidate points by a method of comparing calculated distance information calculated in a specific direction with actual distance information actually measured in the specific direction by the distance sensor; and based on the selected one or plurality of candidate points And estimating its own position.

여기서, 상기 자기위치를 추정하는 단계는: 상기 자율주행 로봇이 자율주행을 시작하는 초기위치를 결정하는 것; 상기 엔코더를 이용하여 상기 자율주행 로봇의 주행한 이동거리를 계산하고, 자율주행한 현재 위치에서 상기 특정 방향으로 실측 거리정보를 생성하는 것; 상기 초기위치에 상기 계산된 이동거리를 결합하고, 여기에 노이즈를 추가하여 상기 수정지도상에서 상기 후보지점을 N개 설정하는 것; 상기 설정된 N개의 후보지점들 각각에 대하여 상기 수정지도상에서 상기 특정 방향으로 계산 거리정보를 계산하고, 각각의 상기 후보지점들에 대하여 상기 계산된 계산 거리정보와 상기 실측 거리정보와의 차이를 계산하고, 상기 계산된 차이가 적은 순서로 상기 후보지점들 중 n개를 선택하는 것(상기 n은, 1≤n≤N인 자연수); 상기 선택된 n개의 후보지점들의 위치들을 조합한 위치를 상기 자율주행 로봇의 새로운 자기위치로서 결정하는 것을 포함할 수 있다. The step of estimating the self position may include: determining an initial position at which the autonomous mobile robot starts autonomous travel; Calculating a traveling distance traveled by the autonomous mobile robot using the encoder and generating actual distance information in the specific direction from the self-traveling current position; Combining the calculated travel distance to the initial position and adding noise thereto to set N candidate points on the correction map; Calculating the calculated distance information in the specific direction on the modified map for each of the set N candidate points and calculating the difference between the calculated calculated distance information and the actual distance information for each of the candidate points , Selecting n of the candidate points in order of decreasing calculated difference (n is a natural number 1? N? N); And determining a combination of positions of the selected n candidate points as a new magnetic position of the autonomous mobile robot.

또한, 상기 자기위치를 추정하는 단계는: 상기 새로운 자기위치가 결정된 후 그다음의 새로운 자기위치를 결정하기 위한 절차로서: 상기 계산된 차이가 적은 순서로 선택된 상기 n개의 후보지점들 각각에 대해 그다음의 이동거리 및 노이즈를 추가하여, 총 N개의 새로운 후보지점을 설정하는 것, 상기 N개의 새로운 후보지점의 각각으로부터 상기 특정 방향으로 상기 수정지도에서 상기 계산 거리정보들을 계산하고, 상기 계산된 계산 거리정보와 현재 위치에서의 상기 특정 방향으로의 실측 거리정보와의 차이를 계산하고, 상기 계산된 차이에 근거하여 선택되는 n개의 후보지점들에 근거하여 상기 자율주행 로봇의 그다음의 새로운 자기위치를 결정하는 것을 더 포함할 수 있다. The step of estimating the magnetic position may further comprise: a procedure for determining a new magnetic location after the new magnetic location is determined, the method comprising: determining, for each of the n candidate points selected in order of decreasing the calculated difference, Adding the calculated distance information and the noise to set a total of N new candidate points; calculating the calculated distance information in the modified map from each of the N new candidate points in the specific direction; And the actual distance information in the specific direction at the current position and determines the next new magnetic position of the autonomous mobile robot based on the n candidate points selected based on the calculated difference Quot;

이때, 상기 가상벽은 상기 실측지도에서 고정된 물체들을 연결하는 형태로 구성되고, 상기 자율주행 로봇은, 상기 영역의 내부 또는 상기 가상벽까지의 거리가 측정되는 구간을 실제 주행하는 경우, 상기 가상벽을 향하는 상기 특정 방향의 근방을 실측하여 k개의 스캔 거리정보를 생성하고(상기 k는, 1 이상의 자연수), 상기 k개의 스캔 거리정보 각각에 대해 상기 특정 방향에 대한 거리성분을 계산하고, 상기 계산된 거리성분들 중 가장 짧은 하나를 상기 특정 방향으로의 실측 거리정보로서 결정할 수 있다. In this case, the virtual wall is configured to connect fixed objects on the actual map, and when the distance to the inside of the area or the virtual wall is measured, (K is a natural number of 1 or more), calculates distance components for the specific directions for each of the k pieces of scan distance information, The shortest one of the calculated distance components can be determined as the actual distance information in the specific direction.

또한, 상기 특정 방향은, 상기 자율주행 로봇의 정면방향, 좌측방향 및 우측방향일 수 있다. The specific direction may be a front direction, a left direction, and a right direction of the autonomous mobile robot.

본 발명의 또하나의 실시예에 따르면, 물류 현장 내의 물류공간에서 자율주행하도록 구현된 로봇을 개시하는데, 상기 로봇은: 특정 방향에 대하여 물체까지의 거리를 측정하기 위한 거리센서; 상기 로봇을 이동시키는 이동수단; 상기 로봇이 주행한 거리를 측정하기 위한 엔코더; 상기 이동수단의 동작을 제어하고, 상기 거리센서의 측정값에 근거하여 특정 방향에 대한 실측 거리정보를 생성하고, 상기 엔코더의 측정값에 근거하여 이동거리를 계산하고, 상기 물류공간을 주행하면서 실측한 상기 실측 거리정보를 이용하여 주변환경을 정보화한 격자기반의 실측지도를 작성하고, 상기 실측지도상에 주행이 제한된 영역을 표시하는 가상벽이 추가된 수정지도를 유지하고, 상기 로봇이 상기 물류공간을 실제 주행하는 경우, 상기 수정지도에서 자기위치의 후보지점을 N개 설정하고(상기 N은, 1 이상의 자연수), 상기 설정된 N개의 후보지점 각각에서 상기 특정 방향으로 계산된 계산 거리정보와 상기 생성한 실측 거리정보의 차이를 계산하고, 상기 계산된 차이가 적은 순서로 상기 후보지점들 중 n개를 선택하고(상기 n은, 1≤n≤N인 자연수), 상기 선택된 후보지점에 근거하여 자기위치를 추정하여 상기 이동수단을 제어하는 컴퓨터를 포함할 수 있다. According to another embodiment of the present invention, there is provided a robot embodied as an autonomous vehicle in a logistics space in a logistics site, the robot comprising: a distance sensor for measuring a distance to an object with respect to a specific direction; A moving means for moving the robot; An encoder for measuring a distance traveled by the robot; Wherein the control unit controls the operation of the moving unit, generates actual distance information for a specific direction based on the measured value of the distance sensor, calculates a moving distance based on the measured value of the encoder, And a virtual map display unit for displaying map information of the virtual map on the actual map, the virtual map displaying the real map on the actual map, (N is a natural number equal to or greater than 1) in the corrected map, the calculated distance information calculated in each of the set N candidate points in the specific direction, Calculates the difference of the generated actual distance information, selects n of the candidate points in order of decreasing the calculated difference (where n is 1? N? N Be), based on the selected candidate point may include a computer for controlling said moving means to estimate the self location.

또한, 상기 로봇이 상기 영역의 내부 또는 상기 가상벽까지의 거리가 측정되는 구간을 실제 주행하는 경우, 상기 컴퓨터는: 상기 가상벽을 향하는 상기 특정 방향의 근방을 실측하여 k개의 스캔 거리정보를 생성하고(상기 k는, 1 이상의 자연수), 상기 k개의 스캔 거리정보 각각에 대해 상기 특정 방향에 대한 거리성분을 계산하고, 상기 계산된 거리성분들 중 가장 짧은 하나를 상기 특정 방향으로의 실측 거리정보로서 결정할 수 있다. In addition, when the robot actually travels a section in which the distance to the inside of the area or the virtual wall is measured, the computer: measures the vicinity of the specific direction toward the virtual wall to generate k pieces of scan distance information (K is a natural number equal to or greater than 1), calculates a distance component for the specific direction for each of the k pieces of scan distance information, and calculates the shortest one of the calculated distance components as actual distance information As shown in FIG.

본 발명에 의하면, 자율주행 로봇이 주변환경의 물체의 위치가 자주 변경되는 물류환경에서도 자신의 위치를 정확히 식별하여, 안전한 경로를 추종하여 이동할 수 있게 된다. 이를 바탕으로 물류환경에서 물체의 이동을 자율주행 로봇이 스스로 처리할 수 있어, 안전한 물류 운반을 지원할 수 있게 된다. According to the present invention, the autonomous mobile robot accurately identifies its own position in a logistics environment in which the position of an object in the surrounding environment is frequently changed, and follows the safe route. Based on this, the autonomous mobile robot can process the movement of the object in the logistics environment by itself, and it is possible to support the safe transportation of the logistics.

도 1은 본 발명에 따른 자율주행 로봇의 구성 및 외형을 개략적으로 도시한 도면이다.
도 2는 본 발명에 따른 자율주행 로봇의 환경인식 및 자기위치 추정 방법의 개략적인 단계를 도시한다.
도 3은 격자기반의 초기실측지도의 예를 도시한다.
도 4는 물건들이 빈번하게 반출 및 반입되는 영역(A)을 도시한다.
도 5는 초기실측지도에 가상벽이 추가된 수정지도를 도시한다.
도 6은 자기위치 추정 방법의 구체적인 단계를 도시한다.
도 7은 자기위치 추정 방법의 개념을 설명하는 도면이다.
도 8은 자율주행 로봇이 영역(A)을 지날 때 왼쪽 방향의 가상벽까지의 거리정보를 계산하는 방법을 도시한다.
1 is a schematic view showing the configuration and outline of an autonomous mobile robot according to the present invention.
FIG. 2 shows a schematic step of an environment recognition and self-localization method of an autonomous mobile robot according to the present invention.
Figure 3 shows an example of a grid-based initial real map.
Fig. 4 shows a region A where objects are frequently taken out and brought in.
Fig. 5 shows a correction map to which a virtual wall is added to the initial actual map.
6 shows concrete steps of the magnetic localization method.
7 is a view for explaining the concept of the self-localization method.
Fig. 8 shows a method of calculating the distance information to the virtual wall in the left direction when the autonomous mobile robot passes the region A. Fig.

먼저, 도 1을 참조하여 본 발명에 따른 물류 자동화를 위하여 물류 공간을 자율주행하는 로봇의 구성 및 형태를 개략적으로 설명한다. First, with reference to FIG. 1, a configuration and a form of a robot that autonomously travels a logistics space for automating logistics according to the present invention will be schematically described.

자율주행 로봇(100)은, 크게, 레이저 거리센서(110)와 주행수단(125)과 엔코더(120)와 컴퓨터(150)를 포함할 수 있다. The autonomous mobile robot 100 may largely include a laser distance sensor 110, a traveling means 125, an encoder 120, and a computer 150.

자율주행 로봇(100)은, 물류 공간을 자율주행하여 물건을 운반하기 위한 것으로서, 상부에 물건을 올려놓을 수 있는 형태이거나, 다른 운반차를 견인할 수 있는 형태로 구현될 수 있다. The autonomous mobile robot 100 is for transporting objects by autonomously traveling in a logistics space, and can be configured to be capable of placing objects on the upper part thereof or to be able to pull other transportation vehicles.

레이저 거리센서(110)는 로봇(100)의 전후좌우 상하 방향에 대하여 물체, 물건, 또는 장애물을 식별하고 거기까지의 거리를 측정하기 위한 수단이다. 레이저 거리센서(110)는 레이저를 이용하여 거리를 측정하지만, 이는 단지 예시일 뿐으로서, 초음파, 음파, 자외선, 적외선, 촬영된 영상 등 다양한 방식의 거리센서를 포함할 수 있을 것이다. The laser distance sensor 110 is a means for identifying an object, an object, or an obstacle in front, back, right, left, and up and down directions of the robot 100 and measuring the distance therefrom. The laser distance sensor 110 measures the distance using a laser, but it is merely an example, and may include various types of distance sensors such as ultrasonic waves, sonic waves, ultraviolet rays, infrared rays, and photographed images.

일반적인 레이저 거리센서(110)는, 향하는 방향의 좌우로 약 270° 범위를 매 0.5° 마다 레이저를 조사하고, 측정된 거리를 나타내는 거리정보를 출력하도록 구성될 수 있다. 하지만, 본 발명에서는, 도 1(a)에 도시된 바와 같이, 수평방향으로의 왼쪽(0°), 전방(90°) 및 오른쪽(180°)의 거리정보만을 사용하는 것으로 가정하여 설명한다. The general laser distance sensor 110 may be configured to irradiate a laser every 0.5 [deg.] Range in a range of about 270 [deg.] To the left and right in the facing direction, and output distance information indicating the measured distance. However, in the present invention, it is assumed that only the distance information of left (0 °), front (90 °) and right (180 °) in the horizontal direction is used as shown in FIG.

주행수단(125)은, 예를 들면, 하나 또는 복수의 바퀴 또는 캐터필러 또는 다리(足)와 이를 회전 또는 구동시키기 위한 모터 또는 링크를 포함할 수 있다. The traveling means 125 may comprise, for example, one or more wheels or caterpillar or legs and a motor or link for rotating or driving it.

엔코더(120)는 모터 또는 바퀴의 회전량, 다리의 동작 거리를 측정하여 이동거리 정보를 생성할 수 있다. 또는, 엔코더(120)는 주변을 촬영한 이미지를 직접 분석하여 이동거리를 계산할 수도 있다. The encoder 120 can generate movement distance information by measuring the rotation amount of the motor or the wheel and the operation distance of the leg. Alternatively, the encoder 120 may directly analyze the photographed image of the periphery to calculate the moving distance.

컴퓨터(150)는, 레이저 거리센서(110)를 제어하여 생성되는 실측 거리정보를 획득하고, 주행수단(125)의 동작을 제어하여 로봇(100)을 자율주행시키고, 엔코더(120)로부터 이동거리 정보를 획득하고, 후술하는 본 발명에 따른 환경인식 및 자기위치 추정 방법을 처리하여 자율주행 로봇(100)의 현재 자기위치를 추정하는 기능을 수행한다. The computer 150 obtains the actual distance information generated by controlling the laser distance sensor 110 and controls the operation of the travel means 125 to autonomously travel the robot 100. The distance traveled from the encoder 120 And performs a function of estimating the current self position of the autonomous mobile robot 100 by processing the environment recognition and self position estimation method according to the present invention to be described later.

도 1(b)은 본 발명에 따른 물류 자동화를 위한 자율주행 로봇의 예시적인 형태를 보여준다. 1 (b) shows an exemplary embodiment of an autonomous mobile robot for automating logistics according to the present invention.

자율주행 로봇(100)은 상부에는 물건을 올려놓을 수 있는 받침대가 구비될 수 있다. 받침대의 근방에는 물건을 선반으로 이송하거나 선반으로부터 가져오기 위한 이송기구가 배치될 수도 있다(도시하지 않음). The autonomous mobile robot 100 may be provided with a pedestal on which an article can be placed. In the vicinity of the pedestal, a conveying mechanism for conveying the objects to or from the shelves may be disposed (not shown).

자율주행 로봇(100)의 적어도 전방에 레이저 거리센서(110)가 배치될 수 있다. The laser distance sensor 110 may be disposed at least in front of the autonomous mobile robot 100. [

자율주행 로봇(100)의 내부에 컴퓨터가 탑재될 수 있다. 또는, 컴퓨터에서 수행하는 자기위치 추정 기능과 주행수단 제어 기능 등은, 네트워크를 통해 연결된 서버(도시하지 않음)에서 전송되는 명령에 의해 처리되는 방식으로 구현될 수도 있다.
A computer can be mounted inside the autonomous mobile robot 100. Alternatively, the self-position estimation function and the traveling means control function performed by the computer may be implemented in such a manner that they are processed by an instruction transmitted from a server (not shown) connected via a network.

이하에서는, 본 발명에서 제안하는 자율주행 로봇의 환경인식 및 자기위치 추정 방법의 구체적인 내용을 설명한다. Hereinafter, the details of the environment recognition and self-localization method of the autonomous mobile robot proposed in the present invention will be described.

먼저, 본 발명에 따른 자율주행 로봇(100)의 환경인식 및 자기위치 추정 방법은, 도 2에 도시된 바와 같이, 자율주행 로봇(100)이 임의의 이동과정에서 축적된 레이저 거리센서(110)에 의한 거리정보를 이용하여 물류 공간(S)의 주변환경에 관련한 격자기반의 초기실측지도를 작성하는 단계와; 물건의 이동이 빈번한 공간에 대한 사전정보를 바탕으로 격자기반 초기실측지도를 수정 및 보완하여 수정지도를 구성하는 단계와; 자율주행 로봇(100)이 레이저 거리센서(110)에 의해 실시간으로 측정되는 실측된 거리정보와 상기 수정지도를 참고하여 계산된 거리정보를 상호 비교하여 현재의 자기위치를 추정하고, 추정된 자기위치에 근거하여 실제 물류 공간(S) 내부를 자율주행하는 단계를 포함할 수 있다.
2, an autonomous mobile robot 100 according to an embodiment of the present invention includes an autonomous mobile robot 100 and an autonomous mobile robot 100. The autonomous mobile robot 100 includes a laser distance sensor 110, Creating an initial realistic grid-based map related to the surrounding environment of the distribution space S using distance information by the grid; A step of constructing a correction map by correcting and supplementing the grid-based initial measurement map based on the prior information about the space where the movement of the object frequently occurs; The autonomic mobile robot 100 compares the measured distance information measured in real time by the laser distance sensor 110 with the distance information calculated by referring to the correction map to estimate the current magnetic position, (S) in the actual logistics space (S).

자율주행 로봇(100)이 환경을 인식하기 위하여 격자기반 지도를 구성하고 격자기반 지도에 근거하여 자기위치를 추정하는 방법의 첫번째 단계는, 자율주행 로봇(100)이 관리자의 수동 조종 또는 다른 제어 시스템에 의한 자동 유도에 의하여 주행하거나 또는 공간에 미리배치된 임의의 표식을 따라 주행하면서, 이동 과정에서 레이저 거리센서에 의해 실측되는 거리정보를 이용하여 주변환경의 벽면, 가구, 기둥, 물건들 또는 장애물을 구분하여 표시하는 격자기반의 초기실측지도를 작성하는 것을 포함한다. The first step of the method for constructing the grid-based map for recognizing the environment of the autonomous mobile robot 100 and estimating the self-position based on the grid-based map is that the autonomous mobile robot 100 is controlled by the manager's manual control or other control system Or the obstacle, the furniture, the column, the object, or the obstacle, by using the distance information actually measured by the laser distance sensor in the course of travel while traveling along an arbitrary mark previously arranged in the space, Based initial real map that displays the grid-based initial real map.

초기실측지도는 임의의 축척을 갖는 격자들로 구성된 격자기반 지도로서, 자율주행 로봇(100)이 움직이는 공간(S)을 작은 격자들로 나누고, 각 격자에는 벽이나 물류 장비, 물품과 같이 자율주행 로봇이 회피해야 하는 물체가 있을 가능성이 확률로 표시된다(후술하는 수정지도 역시 이와 동일한 격자기반 지도일 수 있다). 이와 같이, 격자기반으로 구성된 지도는 실제 주변 형태를 2차원으로 배치된 격자와 각 격자의 값(예를 들면, 1비트 또는 4비트 등의 값을 가짐)으로 단순하게 표시할 수 있으므로, 자율주행 로봇에 장착된 레이저 거리측정 센서의 장점을 살릴 수 있고 환경의 변화를 빠르게 지도에 반영할 수 있는 장점이 있다. 2차원적인 격자로 구성된 격자기반 지도의 각 격자의 값은 자율주행 로봇(100)이 이동하면서 받아들인 주변환경에서 각 물체까지의 거리정보를 축적하여 지속적으로 갱신될 수 있다.The initial real map is a grid-based map composed of grids having arbitrary scales. The space (S) in which the autonomous mobile robot (100) moves is divided into small grids, and each grating has autonomous traveling There is a probability that there is an object that the robot should avoid (the modified map described below may also be the same grid-based map). As described above, the grid-based map can display the actual peripheral shape simply by two-dimensionally arranged grids and the values of the respective grids (for example, having a value of 1 bit or 4 bits) It can take advantages of the laser distance measuring sensor mounted on the robot, and it is able to quickly reflect the change of the environment on the map. The values of the respective grids of the grid-based map composed of the two-dimensional grids can be continuously updated by accumulating the distance information from the surrounding environment received by the autonomous mobile robot 100 to the respective objects.

격자기반 지도에서 각 격자를 m으로 표시하고, 격자들은 m1, m2, ... mN의 N개의 격자로 구성되어 있다고 설정한다. 각각의 격자 mi는 0과 1 사이의 확률값을 가질 수 있으며 이 확률값은 p(mi)으로 표시될 수 있다. 격자에 있어서 p(mi)가 0에 가까울수록 장애물이 없는 빈 공간일 가능성이 크며, 1에 가까울수록 장애물이 있는 공간일 가능성이 크다. In the grid-based map, each lattice is denoted by m, and the lattices are set to be composed of N lattices of m 1 , m 2 , ... m N. Each grid m i can have a probability value between 0 and 1, and this probability value can be denoted by p (m i ). The closer the p (m i ) to the grid, the more likely it is that there is an obstacle free space.

자율주행 로봇(100)의 위치와 방향을 상태변수 x, 레이저 거리센서의 측정값을 z로 표시하면, 시간 t까지 누적된 상태변수와 측정값은 각각 x1:t, z1 :t로 표시될 수 있다. 따라서 격자기반 지도의 각 격자의 확률값은 다음과 같이 표시될 수 있다. When the position and direction of the autonomous mobile robot 100 are represented by the state variable x and the measured value of the laser distance sensor by z, the state variables and measured values accumulated until time t are represented by x 1: t and z 1 : t , respectively . Therefore, the probability values of each grid of the grid-based map can be expressed as follows.

Figure pat00001
Figure pat00001

t=1인 초기상태의 경우에는, 격자기반 지도의 각 격자에 대하여 사전에 입력된 어떠한 정보도 없으므로, 모든 격자에 관하여 확률의 중간값인 0.5가 지정된다.In the initial state of t = 1, since there is no information previously input for each lattice of the lattice-based map, an intermediate value of 0.5 is assigned to all lattices.

이후, 자율주행 로봇(100)이 주행하면서 실측한 거리정보를 적용하여 각 격자의 확률값이 조정되고, 그 결과로 실측지도를 생성하게 된다.Thereafter, the probability information of each grid is adjusted by applying the distance information measured while the autonomous mobile robot 100 travels, and as a result, an actual map is generated.

위와 같은 과정을 거쳐서 완성된 초기실측지도의 예시는 도 3과 같다.An example of an initial real map completed through the above process is shown in FIG.

여기서, 흰색의 공간은 확률이 0.5 미만인 격자들에 의한 것으로서, 벽이나 장애물이 존재하지 않는 위치로 간주될 수 있고, 자율주행 로봇이 자유로이 이동할 수 있는 영역이 된다. 한편, 검은색의 공간은 확률이 0.5 초과인 격자들에 의한 것으로서, 레이저 거리센서로부터 장애물이 검출된 위치를 의미하고, 자율주행 로봇(100)의 이동에 대한 장애물이 된다. 실측 거리정보가 없는 부분은 확률이 0.5를 그대로 유지하며 회색 또는 검은색으로 표시될 수 있다. 확률이 0.5인 위치도 자율주행 로봇(100)이 주행할 수 없도록 할 수 있다.
Here, the white space is caused by grids having a probability of less than 0.5, which can be regarded as a position where no wall or obstacle exists, and is an area in which the autonomous mobile robot can freely move. On the other hand, the black space is caused by grids having a probability of more than 0.5, which means a position where an obstacle is detected from the laser distance sensor, and becomes an obstacle to the movement of the autonomous mobile robot 100. The part without the actual distance information can be displayed in gray or black while maintaining the probability of 0.5. It is possible to prevent the autonomous mobile robot 100 from traveling even when the probability is 0.5.

자율주행 로봇의 환경인식 및 자기위치 추정 방법의 두번째 단계는, 자율주행 로봇(100)의 실측에 의해 만들어진 초기실측지도를, 물류환경의 변동성을 고려하여 수정하는 작업을 포함한다. The second step of the environmental recognition and self-localization method of the autonomous mobile robot includes an operation of modifying the initial real map generated by the actual measurement of the autonomous mobile robot 100 in consideration of the volatility of the logistics environment.

물류현장은 일반적으로 기둥에 의해 받쳐지는 다수의 선반을 구비하고, 물건들은 선반에 놓여 보관된다. 이 물건들은 자율주행 로봇이 다른 위치를 주행하고 있는 도중에도 선반으로부터 수시로 반출되거나 보충될 수 있으며, 이와 같이 물건의 이동이 발생하게 되면, 물건의 이동이 발생하기 전에 작성하여 저장하고 있는 지도와 물건의 이동이 발생한 이후의 실측 거리정보 간에 차이가 발생하게 될 것이다. The logistics site usually has a large number of shelves supported by columns, and objects are stored on shelves. These objects can be taken out or replenished from the shelf from time to time even while the autonomous mobile robot is traveling at another location. When the movement of the object occurs in this manner, the map and the object There will be a difference between the actual distance information after the occurrence of the movement.

자율주행 로봇(100)은 실시간으로 측정되는 거리정보를 저장하고 있는 지도에 적용하여 자기위치를 추정하여 이동할 수 있는데, 물건의 이동에 의한 환경의 변화가 발생하면, 실측된 거리정보를 저장하고 있는 지도에 적용할 때 그 지도상에서 자기위치를 정확히 특정할 수 없게 될 가능성이 있다. The autonomous mobile robot 100 estimates its own position by applying the distance information measured in real time to the stored map. When the environment changes due to the movement of the object, the measured distance information is stored When applied to a map, there is a possibility that it will not be able to pinpoint its position on the map.

따라서, 물건의 이동이 발생할 수 있는 영역에 대해서는, 초기실측지도의 실측된 장애물 중에서 물건의 이동이 발생하더라도 꾸준하게 변경되지 않는 고정 기물을 기준으로 하는 가상의 차단벽(또는, 가상벽)을, 초기실측지도에 추가로 설정할 수 있다. 이러한 가상벽의 설정은 자율주행 로봇(100)의 관리자에 의해 수동조작으로 이루어지거나, 자율주행 로봇(100)에 탑재된 컴퓨터(150) 또는 자율주행 로봇(100)과 네트워크 연결된 제어 서버의 자체 판단에 의해 자동으로 이루어질 수 있다. 여기서, 초기실측지도에 가상벽이 추가된 지도를 수정지도라고 칭한다. Therefore, the virtual blocking wall (or the virtual wall) based on the fixed object, which is not constantly changed even if the movement of the object occurs in the observed obstacles of the initial real map, It can be additionally set on the actual map. The setting of the virtual wall may be performed manually by an administrator of the autonomous mobile robot 100 or may be performed by a computer 150 mounted on the autonomous mobile robot 100 or by a self- As shown in FIG. Here, a map to which a virtual wall is added to an initial actual map is referred to as a correction map.

본 발명에서 자율주행 로봇은, 바람직하게는 수정지도에 의해 주행하게 된다.In the present invention, the autonomous mobile robot is preferably driven by a correction map.

가상벽은, 물류 환경에서의 예를 들면, 선반의 기둥을 연결하여 설정될 수 있다. 도 4는 초기실측지도에서 물건들이 빈번하게 반출 및 반입될 수 있는 선반을 포함하는 영역(A)을 표시하고 있다. 여기서, 사각형으로 표시된 영역(A) 내부에 점형태로 표시된 부분은 선반의 기둥이 실측된 것으로서, 이 점들을 연결하거나 점의 연장선을 정의하여 가상벽을 구성할 수 있다. The virtual wall can be set by connecting, for example, a column of a shelf in a logistics environment. Fig. 4 shows an area A including a shelf where objects can be frequently taken out and carried in the initial real map. In this case, a portion indicated by a dot in the area A indicated by a rectangle is the actual column of the shelf, and a virtual wall can be formed by connecting these points or defining an extension line of the point.

도 5는 도 4의 영역(A)에 가상벽(B)이 설정된 것을 도시한다. 자율주행 로봇(100)은, 수정지도에 의해 주행하게 될 것이고, 가상벽(B)이 설정된 영역(A)을 주행할 때에는 가상벽(B)은 장애물로 인식되므로 이를 통과하지 못하고, 가상벽 사이의 긴 통로를 통해서만 이동하게 될 것이다. Fig. 5 shows that the virtual wall B is set in the area A of Fig. The autonomous mobile robot 100 will run on the modified map and when the virtual wall B is traveling in the set area A, the virtual wall B is recognized as an obstacle, Will only travel through the long aisle of.

한편, 이렇게 가상벽(B)이 설정된 영역(A)에서는, 레이저 거리센서(110)에 의한 실측된 거리정보와 수정지도에서 계산된 계산 거리정보가 서로 달라서, 주행 로봇(100)이 자기위치를 특정할 수 없게 될 수 있다. 따라서, 자율주행 로봇(100)은 영역(A)을 이동할 때에는 다른 방식으로 자기위치를 추정해야한다. 이에 대해서는 후술한다.
On the other hand, in the area A in which the virtual wall B is set, the distance information actually measured by the laser distance sensor 110 and the calculated distance information calculated in the correction map are different from each other, It may become impossible to specify. Therefore, the autonomous mobile robot 100 must estimate its own position in a different manner when moving in the area A. This will be described later.

자율주행 로봇의 환경인식 및 자기위치 추정 방법의 세번째 단계는, 자율주행 로봇(100)이, 수정된 격자기반 지도(즉, 수정지도)에서 현재의 자기위치에 대한 복수의 후보지점을 설정하고 설정된 후보지점들로부터 계산된 계산 거리정보와 실시간 측정되는 레이저 거리센서(110)의 실측 거리정보를 비교하여 후보지점들 중 하나 또는 복수에 근거하여 자기위치를 실시간으로 추정하면서 주행하는 것을 포함한다. The third step of the environmental recognition and self-localization method of the autonomous mobile robot is to set the plurality of candidate points for the current magnetic position in the modified grid-based map (i.e., correction map) Compares the calculated distance information calculated from the candidate points with the actually measured distance information of the laser distance sensor 110 measured in real time and estimates the self position based on one or more of the candidate points in real time.

자율주행 로봇(100)의 격자기반 지도에 의한 자율주행은, 기본적으로 몬테카를로 위치추정 방법(Monte Carlo Localization)에 기반하고 있다. 이 방법은 파티클 필터(partie filter) 방식을 주요 알고리즘으로 사용하고 있으며 다음의 단계들을 포함한다. The autonomous mobile robot 100 is based on the Monte Carlo Localization method. This method uses the particle filter (partie filter) method as the main algorithm and includes the following steps.

즉, 자율주행 로봇(100)은, 도 6에 도시된 바와 같이, 전원이 인가된 후에 초기화되고(initialize)(S10), 이후, 매 제어주기마다 자기위치에 대한 복수의 후보지점을 예측하고(predict)(S20) → 각 후보지점들을 갱신하고(update)(S30) → 하나 또는 복수의 후보지점을 선택하여 자신의 위치 및 자세를 추정하고(pose estimate)(S40) → 계속하여 그 다음번 위치를 추정하기 위하여 추정된 위치에 근거하여 다시 복수의 후보지점을 재샘플링하는(resample)(S50) 단계들을 수행하게 된다. 특히, 단계(S20) 내지 단계(S50)를 반복하게 될 것이다. 이 절차에 의하여, 로봇(100)은 수정지도상에서의 자기위치를 추정할 수 있고, 수정지도를 참고하여 이동방향 및 이동거리 등을 결정하고 주행수단(125)의 동작을 제어함으로써, 물류 공간(S)을 자율주행할 수 있게 된다. That is, the autonomous mobile robot 100 initializes (S10) after power is applied as shown in FIG. 6, and then predicts a plurality of candidate points for the self position every control period predict (step S20), update each candidate point (S30), select one or more candidate points to estimate its position and orientation (S40), and continue to the next position And resample (S50) a plurality of candidate points again based on the estimated position to estimate the position. In particular, steps S20 to S50 will be repeated. By this procedure, the robot 100 can estimate its own position on the correction map, determine the moving direction and the moving distance with reference to the correction map, and control the operation of the traveling means 125, S) can be autonomously driven.

도 6을 참조한 자기위치 추정 방법은, 이하의 설명 및 도 7의 개념도를 참조하여 이해할 수 있다. 6 can be understood with reference to the following description and the conceptual diagram of Fig.

(1) 초기화(initialize) 단계(1) initialize step

초기화 단계는, 자율주행 로봇(100)이 정지상태에서 전원이 인가되면 현재 자기위치를 미리정의된 초기 위치(예를 들면, 충전 장소)로 특정한다. The initialization step specifies the current magnetic position as a predefined initial position (for example, a charging place) when the power is applied while the autonomous mobile robot 100 is in the stationary state.

(2) 예측(predict) 단계(2) a predict stage

자율주행 로봇(100)이 임의의 방향으로 임의의 거리만큼 움직였을 때, 자율주행 로봇(100)의 바퀴에 장착된 엔코더(120)의 측정값을 참고하여 이동거리를 계산할 수 있다. 이 계산된 이동거리는, 오도메트리(odometry) 정보라고 하고

Figure pat00002
로 표시한다. When the autonomous mobile robot 100 moves by an arbitrary distance in any direction, the moving distance can be calculated by referring to the measured value of the encoder 120 mounted on the wheel of the autonomous mobile robot 100. This calculated travel distance is referred to as odometry information
Figure pat00002
.

오도메트리 정보는, 초기 위치 또는 이전의 위치추정계산 주기에서 결정된 자율주행 로봇(100)의 위치에 결합될 수 있다. 그리고 이전의 위치에 오도메트리 정보가 결합된 새로운 위치에, 가우시안 랜덤(Gaussian Random) 함수에 의한 노이즈를 추가하여, N개의 파티클을 구성한다. 이 노이즈를

Figure pat00003
라고 하면, 각 파티클은 다음과 같이 계산된다. 여기서, 노이즈가 추가됨으로써, 오도메트리 정보가 결합된 위치의 주변에 설정된 가상의 파티클들이 자기위치의 후보지점으로 설정된다. The odometry information can be combined with the position of the autonomous mobile robot 100 determined in the initial position or the previous position estimation calculation cycle. Then, N particles are constructed by adding noise by a Gaussian random function to a new position where the odometry information is combined with the previous position. This noise
Figure pat00003
, Each particle is calculated as follows. Here, by adding noise, virtual particles set around the position where the odometry information is combined are set as candidate points of the self position.

Figure pat00004
Figure pat00004

본 발명의 일 실시예에 따른 자율주행 로봇(100)의 경우 N개(예를 들면, 50개)의 파티클을 사용한다고 가정한다. 각 파티클은 자율주행 로봇(100)의 아직 확정되지 않았지만 실제 위치와 근접한 위치와 자세를 의미할 수 있다. In the case of the autonomous mobile robot 100 according to an embodiment of the present invention, it is assumed that N (for example, 50) particles are used. Each particle may mean a position and an attitude of the autonomous mobile robot 100 which is not yet determined but is close to the actual position.

이때, 시간 t에서의 i번째 파티클을

Figure pat00005
라 하고, 그 파티클의 가중치를
Figure pat00006
라 하고, 자율주행 로봇(100)의 격자기반 지도상의 위치좌표를
Figure pat00007
,
Figure pat00008
라 하고, 평면상의 자세를
Figure pat00009
라 하면, 시간 t에서의 가중치가 포함된 파티클들 St를 다음과 같이 표시할 수 있다.At this time, the i-th particle at time t
Figure pat00005
And the weight of the particle
Figure pat00006
, And the position coordinates on the grid-based map of the autonomous mobile robot 100
Figure pat00007
,
Figure pat00008
, And the posture on the plane
Figure pat00009
, The particles S t including the weight at time t can be expressed as follows.

Figure pat00010
Figure pat00010

Figure pat00011
Figure pat00011

초기 상태에서 자율주행 로봇(100)의 위치는 사전에 주어진 위치일 것이며, 최초에 생성된 파티클들의 가중치는 모두 동일하다. 즉, 초기상태에서 최초 생성된 N개, 즉, 50개의 파티클들 각각의 가중치는 모두 동일할 것이다. In the initial state, the position of the autonomous mobile robot 100 will be a predetermined position, and the weights of the particles generated at the beginning are all the same. That is, the weights of each of N particles, i.e., 50 particles, initially generated in the initial state will be the same.

(3) 갱신(update) 단계(3) an update step

예측 단계에서 추정된 자율주행 로봇(100)의 위치와 자세의 후보들, 즉, 50개의 파티클들 중에서, 현재의 레이저 거리센서(110)의 측정값에 부합하는 정도에 따라 각 파티클의 가중치를 변경하고, 가중치의 순서에 따라 자기위치에 근접한 하나 또는 복수의 파티클을 선택한다. The weight of each particle is changed according to the degree of matching with the measured value of the current laser distance sensor 110 among the candidates of the position and attitude of the autonomous mobile robot 100 estimated in the prediction step, , And selects one or a plurality of particles close to the magnetic position in accordance with the order of the weights.

자율주행 로봇(100)에 장착된 레이저 거리센서(110)는 통상적으로 감지 범위가 수평 방향으로 180도 이상이며 대략 270도에 이르는 넓은 각도 범위에 걸쳐 있다. 또한, 이러한 통상적인 레이저 거리센서(110)는 감지 범위 전체에 대해서 각도 1°마다 수 개 내지 수십 개 정도로 세분화하여 측정하게 되므로, 감지범위 전체에 대한 한 번의 측정에서도 수백 내지 수천 개의 거리정보가 생성될 수 있다. 또한, 레이저 거리센서(110)는 감지범위 전체에 대한 측정을 매 초당 수 내지 수십 회 반복할 수 있으므로, 이렇게 생성되는 모든 거리정보를 이용하여 자기위치를 추정하는 것은 자율주행 로봇의 컴퓨터(150)에 큰 부담이 된다. The laser distance sensor 110 mounted on the autonomous mobile robot 100 typically spans a wide angle range of 180 degrees or more in the horizontal direction and approximately 270 degrees in the horizontal direction. In addition, since the conventional laser distance sensor 110 is subdivided into several to several tens of angles at an angle of 1 degree with respect to the entire sensing range, several hundreds to several thousands of distance information are generated even in one measurement for the entire sensing range . In addition, since the laser range sensor 110 can repeat the measurement for the entire sensing range from several tens to several tens of times per second, estimating the self position using all the generated distance information is performed by the computer 150 of the autonomous mobile robot, It becomes a large burden.

이러한 이유로, 본 발명의 일 실시예에 따른 자율주행 로봇(100)은, 왼쪽 방향(예를 들면, 0°), 정면 방향(예를 들면, 90°) 및 오른쪽 방향(예를 들면, 180°)의 3방향에서 측정된 거리정보만을 사용할 수 있다. For this reason, the autonomous mobile robot 100 according to the embodiment of the present invention is configured such that the robot 100 moves in the leftward direction (for example, 0 degrees), in the front direction (for example, 90 degrees) ) Can be used as the distance information.

한편, 자율주행 로봇(100)이 이동하여 현재 도달한 위치를 추정하기 위하여, 이전의 위치에 그다음 오도메트리 정보를 결합하여 생성한 새로운 위치에 노이즈를 추가하여 50개의 파티클들(파티클들이 처음 생성될 때에는 동일한 가중치가 설정됨)을 생성하였고, 각 파티클의 위치를 수정지도에서 특정하고, 특정된 위치들을 중심으로 수정지도에서 3방향 거리정보를 계산한다(즉, 계산 거리정보). 50개의 계산 거리정보가 계산될 수 있다.Meanwhile, in order to estimate the position reached by the movement of the autonomous mobile robot 100, noise is added to a new position generated by combining odometry information at the previous position, so that 50 particles , The position of each particle is specified on the correction map, and the three-way distance information is calculated on the modified map centered on the specified positions (that is, the calculated distance information). 50 calculation distance information can be calculated.

그리고, 자율주행 로봇(100)이 현재 실측한 3방향 거리정보와 각각의(예를 들면, 50개 각각) 계산 거리정보를 비교하여, 그 오차(또는, 거리차이)의 정도에 따라서 각 파티클들의 가중치를 조정한다. 예를 들면, 오차가 적을수록 가중치를 크게 조정할 수 있다.Then, the three-way distance information currently measured by the autonomous mobile robot 100 is compared with each calculation distance information (for example, each of 50), and according to the degree of the error (or distance difference) Adjust the weight. For example, the smaller the error, the greater the weight can be adjusted.

자율주행 로봇(100)이 주행중에 측정한 실측 거리값 중에서 전방방향의 거리를 lfront라 하고, 오른쪽 방향의 거리를 lright, 왼쪽 방향의 거리를 lleft라 설정한다. 그리고, 수정지도에서 각 파티클에서 계산되는 계산 거리정보(전방, 오른쪽, 왼쪽)를 vlfront, vlright vlleft라고 설정한다. 그렇다면, 현재의 자율주행 로봇(100)의 위치에서의 실측 거리정보와 임의의 파티클(

Figure pat00012
)과의 거리차이
Figure pat00013
은 다음과 같이 계산할 수 있다.Let the front distance be l front , the distance in the right direction be l right , and the distance in the left direction be l left among the actual distance values measured by the autonomous mobile robot 100 while driving. Then, set the calculated distance information (front, right, left) calculated on each particle in the correction map as vl front and vl right vl left . In this case, the actual distance information at the current position of the autonomous mobile robot 100 and the distance
Figure pat00012
)
Figure pat00013
Can be calculated as follows.

Figure pat00014
Figure pat00014

거리차이가 계산되면 파티클의 집합 Si는 아래와 같이 정리할 수 있다.When the distance difference is calculated, the set of particles S i can be summarized as follows.

Figure pat00015
Figure pat00015

다음으로, 가중치를 계산한다. 가중치

Figure pat00016
는 거리차이
Figure pat00017
에 의하여 결정된다. 거리차이가 작은 파티클은 가중치가 크고, 거리차이가 큰 파티클의 가중치가 작다. 가중치가 큰 파티클의 위치가 자율주행 로봇(100)의 현재 위치일 가능성이 크다.Next, weights are calculated. weight
Figure pat00016
Distance difference
Figure pat00017
. Particles with small distance differences have large weights and particles with large distance differences have small weights. It is highly likely that the position of the particle with a large weight is the current position of the autonomous mobile robot 100.

(4) 자세추정(pose estimate) 단계(4) Pose estimate step

갱신 단계에서 각 파티클의 가중치가 계산되면, N개의 파티클 중에서 가장 가중치가 높은 상위 n개의 파티클을 선정할 수 있다. n은 N보다 작은 값으로써 1/10 정도일 수 있다. 이 선정된 n개(예를 들면, 5개)의 파티클들의 각각의 위치를 평균하고, 그 평균값을 자율주행 로봇(100)의 현재 위치 및 자세로 결정할 수 있다. 자세추정 단계를 거침으로서 자율주행 로봇(100)의 현재 위치에 대한 추정이 완료된다. When the weight of each particle is calculated in the update step, the top n particles having the highest weight among the N particles can be selected. n is a value smaller than N and may be about 1/10. The position of each of the n selected particles (for example, five particles) may be averaged, and the average value may be determined as the current position and posture of the autonomous mobile robot 100. The estimation of the current position of the autonomous mobile robot 100 is completed through the posture estimation step.

(5) 재샘플링(resample) 단계(5) Resample step

재샘플링은, 현재 추정된 자기위치에서 로봇(100)이 더 진행한 경우의 새로운 위치(이전에 추정된 자기위치로부터의 그다음 위치)를 추정하기 위한 것으로서, 이전의 위치에 그다음 오도메트리 정보를 결합하고 여기에 노이즈를 추가하여 새로운 파티클들을 생성하는 단계이다. 즉, 자세추정 단계에서 가중치가 낮은 파티클을 삭제하고, 가중치가 높아서 삭제되지 않은 파티클(즉, 평균 계산에 사용된 파티클들)로부터 새로운 파티클을 만들어내는 단계이다. The resampling is for estimating a new position (the next position from the previously estimated magnetic position) when the robot 100 further proceeds at the currently estimated magnetic position, and then the osometry information is stored in the previous position And adding new noise to create new particles. That is, in the posture estimation step, the particles having low weight are deleted, and new particles are generated from the particles that have not been deleted due to high weighting (ie, the particles used for the average calculation).

즉, 앞서 선정된 n개의 파티클을 남겨놓고 나머지 (N-n)개의 파티클을 삭제하고, 선정된 n개의 파티클 각자를 이용하여 오도메트리 정보와 노이즈를 결합하여 복수개의 파티클들을 생성하고, 총 N개의 새로운 파티클을 생성한다. 이렇게 생성된 N개의 파티클에는 다시 동일한 가중치가 설정되고, 자율주행 로봇(100)의 새로운 위치 후보로 사용된다. 그리고 갱신 단계로부터 반복한다.That is, the remaining n particles are deleted while leaving the previously selected n particles, and a plurality of particles are generated by combining the odometry information and noise using each of the n particles selected, and a total of N new particles . The same weight is set again for the N particles thus generated and used as a new position candidate of the autonomous mobile robot 100. Then, it repeats from the update step.

예를 들면, 최초 50개의 파티클 중에서 가중치가 높은 상위 5개의 파티클을 선정하여 평균값에 의해 현재 위치를 결정하였을 때, 나머지 45개의 파티클들은 삭제된다. 그리고, 자율주행 로봇(100)의 오도메트리 정보를 획득하고, 획득한 오도메트리 정보를 선정된 5개의 파티클 각각에 대하여 결합하여 5개의 새로운 위치들을 생성한다. 그리고, 각 새로운 위치들마다 노이즈를 추가하여 10개씩의 새로운 파티클을 생성함으로써, 총 50개의 파티클을 생성하게 된다. 이후, 각 파티클들로부터 계산 거리정보를 계산할 수 있으며, 이 값들은 레이저 거리센서(110)의 측정 거리정보와 비교되어 가중치가 조정될 수 있다. 마침내, 가중치가 높은 5개의 파티클을 선정하고, 이를 근거로 새로운 자기위치를 추정한다. For example, when the top five particles with the highest weight among the first 50 particles are selected and the current position is determined by the average value, the remaining 45 particles are deleted. Then, the autometry robot 100 acquires the odometry information of the autonomous mobile robot 100, and combines the obtained odometry information with each of the five selected particles to generate five new positions. A total of 50 particles are created by adding noise to each new position to create 10 new particles. The calculated distance information can then be calculated from each particle, and these values can be compared with the measured distance information of the laser distance sensor 110 to adjust the weighting. Finally, we select five particles with high weights and estimate the new self position based on this.

자율주행 로봇(100)은, 상기한 바와 같은, 예측 → 갱신 → 자세추정 → 재샘플링 단계를 반복하면서 수정지도상에서의 자기위치를 실시간으로 및 연속적으로 추정하고, 추정된 자기위치를 근거로 이동방향 및 이동거리를 설정하여 자율주행하게 된다.
The autonomous mobile robot 100 estimates its own position on the modified map in real time and continuously while repeating the above-described prediction → update → posture estimation → resampling step as described above, and based on the estimated magnetic position, And the traveling distance are set so as to make autonomous travel.

다음은, 본 발명에 있어서 수정지도의 영역(A)에 가상벽(B)이 추가된 경우에, 실측 거리정보와 계산 거리정보의 차이를 보상하여 자기위치를 정확하게 추정할 수 있는 방법에 대해서 설명한다. Next, a description will be given of a method capable of accurately estimating the self position by compensating for the difference between the actual distance information and the calculation distance information when the virtual wall B is added to the correction map area A in the present invention do.

본 발명의 일 실시예에 따른 자율주행 로봇(100)은, 전방, 오른쪽, 왼쪽의 3방향 거리정보를 이용한다. 하지만, 가상벽(B)이 설정된 영역(예를 들면 영역(A))으로 진입하였거나 상기 3방향 중 하나가 가상벽(B)까지 연장되는 경우에는 좀 더 넓은 범위의 추가 방향으로의 거리정보를 더 이용한다. 특히, 추가 방향의 거리정보는, 추가 방향에서 측정된 거리를 3방향 중 관련된 방향의 연장선으로 수선의 발을 내리고, 거리센서(110)로부터 수선의 발까지의 거리를 3방향 중 관련된 방향의 거리정보로 간주하는 방식으로 활용된다. The autonomous mobile robot 100 according to an embodiment of the present invention uses three-way distance information of front, right, and left directions. However, when the virtual wall B enters the set area (for example, area A) or one of the three directions extends to the virtual wall B, the distance information in a wider range of additional directions I use more. In particular, the distance information in the additional direction is obtained by dividing the distance measured in the additional direction by an extension of the related direction among the three directions and by reducing the distance from the distance sensor 110 to the foot of the waterline, It is used as a way of considering information.

예를 들면, 도 8에 도시된 바와 같이, 자율주행 로봇(100)의 왼쪽에 가상벽(B)이 위치하는 상황이라고 가정할 수 있다. 가상벽(B)은 수정지도에서 선반의 기둥 위치를 따라서 설정되었기 때문에, 가상벽(B)이 존재하는 영역(A)을 주행하는 자율주행 로봇(100)은 선반의 기둥을 식별하고 그 기둥을 기준으로 왼쪽의 거리를 다시 계산하여야 한다. For example, it can be assumed that the virtual wall B is located on the left side of the autonomous mobile robot 100, as shown in Fig. Since the virtual wall B is set along the column position of the shelf in the correction map, the autonomous mobile robot 100 running in the area A where the virtual wall B exists identifies the column of the shelf, The distance to the left should be recalculated by reference.

만일, 선반의 안쪽에 물건이 없는 경우에는, 왼쪽 방향(0°)으로의 실측 거리정보는, 가상벽(B)까지의 거리 또는 선반의 기둥까지의 거리를 측정하지 못하고, 선반의 안쪽에서 물건이 있던 부분을 통과하여 더 멀리에 있는 물체까지의 거리를 측정하게 될 것이다. If there is no object on the inside of the shelf, the actual distance information to the left direction (0 DEG) can not measure the distance to the virtual wall B or the distance to the pillar of the shelf, Will pass through the area where it was located and measure the distance to an object farther away.

따라서, 가상벽(B)의 근방을 지날 경우에는 다른 각도 방향에서 측정된 거리정보를 참고하여야 한다. 다른 각도는, 예를 들면, 왼쪽 방향에 가상벽이 있다고 하면, 0°, 5°, 10°, 15° 등과 같이 일정한 간격 또는 0°, 2°, 5°, 10° 등과 같이 임의의 간격을 갖는 방향으로 거리를 측정할 수 있다. 그리고, 여러 방향으로부터 획득된 복수의 거리정보를 이용하여, 가상벽(B)이 설정된 기준인 선반 기둥을 식별하고, 식별된 선반 기둥까지의 가상의 거리를 측정된 거리정보로 간주하는 것이다. Therefore, when passing near the virtual wall B, the distance information measured in the other angular direction should be referred to. For example, if there is a virtual wall in the left direction, the other angles may be arbitrary intervals such as 0 °, 5 °, 10 °, 15 °, or a certain interval such as 0 °, 2 °, 5 °, You can measure the distance in the direction you have. Then, by using a plurality of pieces of distance information obtained from various directions, the virtual wall B is identified as a set reference shelf column, and the imaginary distance to the identified shelf column is regarded as the measured distance information.

다시 설명하면, 자율주행 로봇(100)의 왼쪽 0° 방향으로부터 임의의 각도 범위 내에서 k개의 거리정보가 획득되었다고 가정한다. 이때, i번째 거리 정보의 거리가 lengthi이고 각도가 αi라고 가정한다. 그렇다면, k개의 각 거리정보로부터 0° 방향의 직선에 내린 수선의 발까지의 거리는 다음과 같이 계산할 수 있다. In other words, it is assumed that k pieces of distance information are obtained within an arbitrary angle range from the left 0 ° direction of the autonomous mobile robot 100. At this time, it is assumed that the distance of the i-th distance information is length i and the angle is α i . If so, the distance from the k pieces of distance information to the foot of the waterline falling on a straight line in the 0 ° direction can be calculated as follows.

Figure pat00018
Figure pat00018

이때, 자율주행 로봇(100)의 왼쪽 방향의 거리 lleft는 p1, p2, ... pk 중에서 최소인 값으로 설정될 수 있다. At this time, the distance l left in the left direction of the autonomous mobile robot 100 may be set to a minimum value among p 1 , p 2 , ..., p k .

수선의 발이 가장 짧다는 것은 lleft가 가장 짧다는 것을 의미할 수 있으며, lleft가 가장 짧다는 것은 왼쪽에서 선반의 기둥이 감지되었음을 의미할 수 있다. 따라서, 여기서는, 자율주행 로봇(100)이 자신의 왼쪽 방향을 폭넓게 센싱한 후 감지되는 선반의 기둥을 기반으로 가상벽(B)까지의 거리를 계산하고, 계산된 거리를 참고하여 자신의 위치를 추정하는 방식을 이용하는 것이다. Repairs to the feet means that it is the shortest and the shortest l left, l left it is the shortest may mean that the detection of the shelf columns on the left. Therefore, in this case, the autonomous mobile robot 100 senses its leftward direction in a wide sense, calculates the distance to the virtual wall B based on the detected column of the shelf, It is a method of estimating.

자율주행 로봇의 전방 또는 오른쪽 방향으로도 가상벽이 존재한다면 마찬가지의 방식으로 계산하여 lfront, lright를 계산할 수 있다. If a virtual wall exists also in the front or right direction of the autonomous mobile robot, l front , l right can be calculated by the same method.

일단, 레이저 거리센서 측정값으로부터 lfront, lright, lleft를 계산하면, 상술한 바와 같은 단계들에 따라서 자율주행 로봇의 자기위치를 추정할 수 있다.
Once the l front , l right and l left are calculated from the laser distance sensor measurement values, the self position of the autonomous mobile robot can be estimated according to the steps as described above.

이상에서 설명된 본 발명의 실시예들은 본 발명의 기술 사상을 예시적으로 보여준 것에 불과하며, 본 발명의 보호 범위는 이하 특허청구범위에 의하여 해석되어야 마땅할 것이다. 또한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것인 바, 본 발명과 균등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The embodiments of the present invention described above are merely illustrative of the technical idea of the present invention, and the scope of protection of the present invention should be interpreted according to the claims. It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the essential characteristics thereof, It is to be understood that the invention is not limited thereto.

Claims (7)

물체까지의 거리를 측정하기 위한 거리센서 및 주행한 이동거리를 측정하기 위한 엔코더를 포함하는 자율주행 로봇의 환경인식 및 자기위치 추정 방법으로서:
상기 자율주행 로봇이 자율주행해야할 물류공간을 주행하면서 실측한 실측 거리정보를 이용하여 주변환경의 형태를 정보화한 격자기반의 실측지도를 작성하는 단계;
상기 실측지도상에 상기 자율주행 로봇의 주행을 제한하는 영역을 표시하는 가상벽을 추가하여 수정지도를 구성하는 단계;
상기 자율주행 로봇이 상기 물류공간을 실제 주행하는 경우, 상기 수정지도에서 자기위치의 후보지점을 N개 설정하고(상기 N은, 1 이상의 자연수), 상기 설정된 N개의 후보지점 각각에서 상기 수정지도 내에서 특정 방향으로 계산된 계산 거리정보와 상기 거리센서에 의해 상기 특정 방향으로 실측한 실측 거리정보를 비교하여 하나 또는 복수의 후보지점을 선택하고, 상기 선택된 하나 또는 복수의 후보지점에 근거하여 자기위치를 추정하는 단계를 포함하는, 물류 자동화를 위한 자율주행 로봇의 환경인식 및 자기위치 추정 방법.
A distance sensor for measuring a distance to an object, and an encoder for measuring a traveling distance traveled, the method comprising:
Creating a grid-based actual map by informing the shape of the surrounding environment by using actual measured distance information while the autonomous mobile robot travels in a logistics space to be autonomously traveled;
Constructing a modified map by adding a virtual wall for displaying an area for limiting the running of the autonomous mobile robot on the actual map;
(N is a natural number equal to or greater than 1) of candidate positions in the correction map when the autonomous mobile robot is actually traveling in the distribution space, Calculates one or a plurality of candidate points by comparing calculated distance information calculated in a specific direction with actual distance information measured by the distance sensor in the specific direction, and selects one or more candidate points based on the selected one or more candidate points, And estimating an environment of the autonomous mobile robot for automation of the logistics.
제1항에 있어서,
상기 자기위치를 추정하는 단계는:
상기 자율주행 로봇이 자율주행을 시작하는 초기위치를 결정하는 것;
상기 엔코더를 이용하여 상기 자율주행 로봇의 주행한 이동거리를 계산하고, 자율주행한 현재 위치에서 상기 특정 방향으로 실측 거리정보를 생성하는 것;
상기 초기위치에 상기 계산된 이동거리를 결합하고, 여기에 노이즈를 추가하여 상기 수정지도상에서 상기 후보지점을 N개 설정하는 것;
상기 설정된 N개의 후보지점들 각각에 대하여 상기 수정지도상에서 상기 특정 방향으로 계산 거리정보를 계산하고, 각각의 상기 후보지점들에 대하여 상기 계산된 계산 거리정보와 상기 실측 거리정보와의 차이를 계산하고, 상기 계산된 차이가 적은 순서로 상기 후보지점들 중 n개를 선택하는 것(상기 n은, 1≤n≤N인 자연수);
상기 선택된 n개의 후보지점들의 위치들을 조합한 위치를 상기 자율주행 로봇의 새로운 자기위치로서 결정하는 것을 포함하는, 물류 자동화를 위한 자율주행 로봇의 환경인식 및 자기위치 추정 방법.
The method according to claim 1,
The step of estimating the magnetic position comprises:
Determining an initial position at which the autonomous mobile robot starts autonomous traveling;
Calculating a traveling distance traveled by the autonomous mobile robot using the encoder and generating actual distance information in the specific direction from the self-traveling current position;
Combining the calculated travel distance to the initial position and adding noise thereto to set N candidate points on the correction map;
Calculating the calculated distance information in the specific direction on the modified map for each of the set N candidate points and calculating the difference between the calculated calculated distance information and the actual distance information for each of the candidate points , Selecting n of the candidate points in order of decreasing calculated difference (n is a natural number 1? N? N);
And determining a position where the positions of the selected n candidate points are combined as a new self position of the autonomous mobile robot.
제2항에 있어서,
상기 새로운 자기위치가 결정된 후 그다음의 새로운 자기위치를 결정하기 위한 절차로서:
상기 계산된 차이가 적은 순서로 선택된 상기 n개의 후보지점들 각각에 대해 그다음의 이동거리 및 노이즈를 추가하여, 총 N개의 새로운 후보지점을 설정하는 것,
상기 N개의 새로운 후보지점의 각각으로부터 상기 특정 방향으로 상기 수정지도에서 상기 계산 거리정보들을 계산하고, 상기 계산된 계산 거리정보와 현재 위치에서의 상기 특정 방향으로의 실측 거리정보와의 차이를 계산하고, 상기 계산된 차이에 근거하여 선택되는 n개의 후보지점들에 근거하여 상기 자율주행 로봇의 그다음의 새로운 자기위치를 결정하는 것을 포함하는, 물류 자동화를 위한 자율주행 로봇의 환경인식 및 자기위치 추정 방법.
3. The method of claim 2,
As a procedure for determining a new magnetic location after the new magnetic location is determined,
Setting a total of N new candidate points by adding a next movement distance and noise to each of the n candidate points selected in descending order of the calculated difference,
Calculating the calculated distance information in the modified map from each of the N new candidate points in the specific direction and calculating a difference between the calculated calculated distance information and actual distance information in the specific direction at the current position And determining a new self position of the autonomous mobile robot based on n candidate points selected on the basis of the calculated difference, wherein the autonomous mobile robot .
제1항에 있어서,
상기 가상벽은 상기 실측지도에서 고정된 물체들을 연결하는 형태로 구성되고,
상기 자율주행 로봇은, 상기 영역의 내부 또는 상기 가상벽까지의 거리가 측정되는 구간을 실제 주행하는 경우,
상기 가상벽을 향하는 상기 특정 방향의 근방을 실측하여 k개의 스캔 거리정보를 생성하고(상기 k는, 1 이상의 자연수),
상기 k개의 스캔 거리정보 각각에 대해 상기 특정 방향에 대한 거리성분을 계산하고,
상기 계산된 거리성분들 중 가장 짧은 하나를 상기 특정 방향으로의 실측 거리정보로서 결정하는 것을 특징으로 하는, 물류 자동화를 위한 자율주행 로봇의 환경인식 및 자기위치 추정 방법.
The method according to claim 1,
Wherein the virtual wall is configured to connect fixed objects on the actual map,
The autonomous mobile robot may be configured such that, when the distance to the inside of the area or the virtual wall is measured,
(K is a natural number equal to or larger than 1) of k pieces of scan distance information by actually observing the vicinity of the specific direction toward the virtual wall,
Calculating distance components for the specific directions for each of the k pieces of scan distance information,
And determining the shortest one of the calculated distance components as the actual distance information in the specific direction.
제1항에 있어서,
상기 특정 방향은, 상기 자율주행 로봇의 정면방향, 좌측방향 및 우측방향인 것을 특징으로 하는, 물류 자동화를 위한 자율주행 로봇의 환경인식 및 자기위치 추정 방법.
The method according to claim 1,
Wherein the specific direction is a front direction, a left direction, and a right direction of the autonomous mobile robot.
물류 현장 내의 물류공간에서 자율주행하도록 구현된 로봇으로서:
특정 방향에 대하여 물체까지의 거리를 측정하기 위한 거리센서;
상기 로봇을 이동시키는 이동수단;
상기 로봇이 주행한 거리를 측정하기 위한 엔코더;
상기 이동수단의 동작을 제어하고, 상기 거리센서의 측정값에 근거하여 특정 방향에 대한 실측 거리정보를 생성하고, 상기 엔코더의 측정값에 근거하여 이동거리를 계산하고, 상기 물류공간을 주행하면서 실측한 상기 실측 거리정보를 이용하여 주변환경을 정보화한 격자기반의 실측지도를 작성하고, 상기 실측지도상에 주행이 제한된 영역을 표시하는 가상벽이 추가된 수정지도를 유지하고, 상기 로봇이 상기 물류공간을 실제 주행하는 경우, 상기 수정지도에서 자기위치의 후보지점을 N개 설정하고(상기 N은, 1 이상의 자연수), 상기 설정된 N개의 후보지점 각각에서 상기 특정 방향으로 계산된 계산 거리정보와 상기 생성한 실측 거리정보의 차이를 계산하고, 상기 계산된 차이가 적은 순서로 상기 후보지점들 중 n개를 선택하고(상기 n은, 1≤n≤N인 자연수), 상기 선택된 후보지점에 근거하여 자기위치를 추정하여 상기 이동수단을 제어하는 컴퓨터를 포함하는, 환경인식 및 자기위치 추정 기능을 구비한 물류 자동화를 위한 자율주행 로봇.
A robot embodied as an autonomous robot in a logistics space in a logistics site, comprising:
A distance sensor for measuring a distance to an object in a specific direction;
A moving means for moving the robot;
An encoder for measuring a distance traveled by the robot;
Wherein the control unit controls the operation of the moving unit, generates actual distance information for a specific direction based on the measured value of the distance sensor, calculates a moving distance based on the measured value of the encoder, And a virtual map display unit for displaying map information of the virtual map on the actual map, the virtual map displaying the real map on the actual map, (N is a natural number equal to or greater than 1) in the corrected map, the calculated distance information calculated in each of the set N candidate points in the specific direction, Calculates the difference of the generated actual distance information, selects n of the candidate points in order of decreasing the calculated difference (where n is 1? N? N Be), based on the selected candidate point by including a computer for controlling said moving means to estimate the self-location, environmental awareness and the self location autonomous robot for the automatic distribution having an estimation function.
제6항에 있어서,
상기 로봇이 상기 영역의 내부 또는 상기 가상벽까지의 거리가 측정되는 구간을 실제 주행하는 경우, 상기 컴퓨터는:
상기 가상벽을 향하는 상기 특정 방향의 근방을 실측하여 k개의 스캔 거리정보를 생성하고(상기 k는, 1 이상의 자연수), 상기 k개의 스캔 거리정보 각각에 대해 상기 특정 방향에 대한 거리성분을 계산하고, 상기 계산된 거리성분들 중 가장 짧은 하나를 상기 특정 방향으로의 실측 거리정보로서 결정하는 것을 특징으로 하는, 환경인식 및 자기위치 추정 기능을 구비한 물류 자동화를 위한 자율주행 로봇.
The method according to claim 6,
When the robot actually travels a section in which the distance to the inside of the area or the virtual wall is measured,
(K is a natural number equal to or larger than 1), and calculates a distance component for the specific direction for each of the k pieces of scan distance information , And determines the shortest one of the calculated distance components as actual distance information in the specific direction. The autonomous traveling robot for automation of logistics having the environment recognition and magnetic position estimation function.
KR1020170038655A 2017-03-27 2017-03-27 Autonomous mobile robot to implement logistics automation systems and method for map building and localization of the robot KR101912361B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170038655A KR101912361B1 (en) 2017-03-27 2017-03-27 Autonomous mobile robot to implement logistics automation systems and method for map building and localization of the robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170038655A KR101912361B1 (en) 2017-03-27 2017-03-27 Autonomous mobile robot to implement logistics automation systems and method for map building and localization of the robot

Publications (2)

Publication Number Publication Date
KR20180109284A true KR20180109284A (en) 2018-10-08
KR101912361B1 KR101912361B1 (en) 2018-10-26

Family

ID=63864633

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170038655A KR101912361B1 (en) 2017-03-27 2017-03-27 Autonomous mobile robot to implement logistics automation systems and method for map building and localization of the robot

Country Status (1)

Country Link
KR (1) KR101912361B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102106858B1 (en) 2018-11-27 2020-05-06 노성우 Logistic Robot Location Estimation Method of Hybrid Type
KR20200139533A (en) 2019-06-04 2020-12-14 최중인 Method and system for managing a storage based on a cloud service
KR20210001706A (en) 2019-06-28 2021-01-06 최중인 Method and system for managing a storage based on a cloud service
KR20220029346A (en) * 2020-08-31 2022-03-08 네이버랩스 주식회사 Building providing delivery service using robots performing delivery task

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102231902B1 (en) 2019-04-15 2021-03-29 한국타이어앤테크놀로지 주식회사 logistics processing driving apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090088516A (en) * 2008-02-15 2009-08-20 한국과학기술연구원 Method for self-localization of a robot based on object recognition and environment information around the recognized object
JP2009205226A (en) * 2008-02-26 2009-09-10 Toyota Motor Corp Autonomous moving robot, method of estimating self position, method and apparatus for creating environmental map, and data structure of environmental map
KR20140087486A (en) * 2012-12-31 2014-07-09 노틸러스효성 주식회사 Method for generating work path of mobile robot using virtual wall layer

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090088516A (en) * 2008-02-15 2009-08-20 한국과학기술연구원 Method for self-localization of a robot based on object recognition and environment information around the recognized object
JP2009205226A (en) * 2008-02-26 2009-09-10 Toyota Motor Corp Autonomous moving robot, method of estimating self position, method and apparatus for creating environmental map, and data structure of environmental map
KR20140087486A (en) * 2012-12-31 2014-07-09 노틸러스효성 주식회사 Method for generating work path of mobile robot using virtual wall layer

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102106858B1 (en) 2018-11-27 2020-05-06 노성우 Logistic Robot Location Estimation Method of Hybrid Type
KR20200139533A (en) 2019-06-04 2020-12-14 최중인 Method and system for managing a storage based on a cloud service
KR20220005614A (en) 2019-06-04 2022-01-13 최중인 Method and system for managing a storage based on a cloud service
KR20210001706A (en) 2019-06-28 2021-01-06 최중인 Method and system for managing a storage based on a cloud service
KR20210127645A (en) 2019-06-28 2021-10-22 최중인 Method and system for managing a storage based on a cloud service
KR20220029346A (en) * 2020-08-31 2022-03-08 네이버랩스 주식회사 Building providing delivery service using robots performing delivery task

Also Published As

Publication number Publication date
KR101912361B1 (en) 2018-10-26

Similar Documents

Publication Publication Date Title
KR101912361B1 (en) Autonomous mobile robot to implement logistics automation systems and method for map building and localization of the robot
US9740209B2 (en) Autonomous moving body
CN105466438B (en) Sensor instrument distance in anticollision vehicle and application
JP4788722B2 (en) Autonomous mobile robot, self-position estimation method, environmental map generation method, environmental map generation device, and environmental map data structure
Maier et al. Integrated perception, mapping, and footstep planning for humanoid navigation among 3d obstacles
JP5503419B2 (en) Automated guided vehicle and travel control method
WO2011074165A1 (en) Autonomous mobile device
US8825257B2 (en) Autonomous navigation method and autonomous mobile body
US9943959B2 (en) Map localizing with partially obstructed ranging devices for autonomous robots and vehicles
JP6962007B2 (en) Driving control device for autonomous driving trolley, autonomous driving trolley
CN105531601B (en) Positioning system
JP2016024598A (en) Control method of autonomous mobile apparatus
JP6011562B2 (en) Self-propelled inspection device and inspection system
KR20190024189A (en) Mobile robot for maintenance of underground structures and method for create an autonomous action using the same
JP2016149090A (en) Autonomous mobile device, autonomous mobile system, autonomous mobile method and program
JP5414465B2 (en) Simulation system
KR20180105326A (en) Method for map building and localization of autonomous mobile robot to implement logistics automation systems
Ghani et al. Improvement of the 2D SLAM system using Kinect sensor for indoor mapping
Batavia et al. Autonomous coverage operations in semi-structured outdoor environments
Woosley et al. Multirobot task allocation with real-time path planning
JP7253411B2 (en) Distance estimation device and distance estimation system
KR20220046304A (en) Robot capable of recognizing environment of logistics space and running autonomously, and method for recognizing environment of logistics space and running autonomously
KR20210059460A (en) Remote control system for automated guided vehicle for logistics automation
US20220276659A1 (en) Environment map creation device and method, local position estimation device, and autonomous moving body
Faigl et al. On localization uncertainty in an autonomous inspection

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant