KR20220152451A - Position tracking method or device of robot using natural objects of SLAM-based mobile robot, computer-readable recording medium and computer program - Google Patents

Position tracking method or device of robot using natural objects of SLAM-based mobile robot, computer-readable recording medium and computer program Download PDF

Info

Publication number
KR20220152451A
KR20220152451A KR1020210058976A KR20210058976A KR20220152451A KR 20220152451 A KR20220152451 A KR 20220152451A KR 1020210058976 A KR1020210058976 A KR 1020210058976A KR 20210058976 A KR20210058976 A KR 20210058976A KR 20220152451 A KR20220152451 A KR 20220152451A
Authority
KR
South Korea
Prior art keywords
mobile robot
robot
location
landmark
slam
Prior art date
Application number
KR1020210058976A
Other languages
Korean (ko)
Other versions
KR102521280B1 (en
Inventor
진욱빈
박안빈
Original Assignee
휴림로봇 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 휴림로봇 주식회사 filed Critical 휴림로봇 주식회사
Priority to KR1020210058976A priority Critical patent/KR102521280B1/en
Publication of KR20220152451A publication Critical patent/KR20220152451A/en
Application granted granted Critical
Publication of KR102521280B1 publication Critical patent/KR102521280B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1684Tracking a line or surface by means of sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • G05D2201/0207

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

The present invention relates to a method for tracking the location of a SLAM-based mobile robot by using natural objects, executable by the SLAM-based mobile robot. The method comprises the steps of: creating an environment map by using 2D LIDAR SLAM; obtaining a video image by using a 3D camera, recognizing a natural object from the obtained video image, and storing the location thereof as a landmark based on the created environment map; and recognizing the natural object when it is determined that it is required to correct the current location of the mobile robot during autonomous driving, and correcting the current location of the mobile robot based on the location of the stored landmark. Therefore, the method can easily create and use a map and can accurately correct the location of the mobile robot without the need for expensive equipment and cumbersome work.

Description

SLAM 기반 이동로봇의 자연사물을 이용한 로봇의 위치추종 방법 및 장치, 컴퓨터 판독가능 기록 매체 및 컴퓨터 프로그램{Position tracking method or device of robot using natural objects of SLAM-based mobile robot, computer-readable recording medium and computer program}Position tracking method or device of robot using natural objects of SLAM-based mobile robot, computer-readable recording medium and computer program program}

본 발명은 SLAM 기반 이동로봇에서 인식된 자연사물을 이용한 로봇의 위치추종 방법에 관한 것으로서, 보다 상세하게는 SLAM 기반 이동로봇에서 이에 장착된 카메라로 인식가능한 자연사물을 이용한 로봇의 위치추종 방법에 관한 것이다. The present invention relates to a method for tracking the position of a robot using natural objects recognized in a SLAM-based mobile robot, and more particularly, to a method for following the position of a robot using natural objects recognizable by a camera mounted thereon in a SLAM-based mobile robot. will be.

SLAM(Simultaneous Localization and Mapping)은, 특히 자율주행 이동체에 사용되어 주변 환경지도를 작성하는 동시에 이동체의 현재 위치를 작성된 환경지도 안에서 인식하는 기법을 지칭한다. 이때 자율주행 이동체는, 자율주행으로 스스로 이동이 가능한 차량, 로봇, 전자 기기 등을 포함한다. SLAM (Simultaneous Localization and Mapping) refers to a technique that is used for autonomous vehicles, in particular, to create a map of the surrounding environment and to recognize the current location of the mobile body within the created environment map. At this time, the self-driving moving object includes a vehicle, robot, electronic device, etc. that can move by itself through autonomous driving.

SLAM 기반의 이동로봇 자율주행(Navigation)에서 가장 중요한 기술은, 로봇의 현재 자기 위치를 파악하는 - 로봇 현지화(Localization) 기술이다. The most important technology in SLAM-based mobile robot navigation is the robot localization technology, which identifies the current position of the robot.

종래 기술에서는 이동로봇의 현재 자기 위치를 알기 위하여 고가의 GPS를 장착하여 로봇의 실제 위치 정보를 받아 현지화를 하거나, 또는 로봇이 이동하는 경로에 특정 표식, RFID 센서, 초음파 센서, Wi-Fi 또는 BLE의 신호 세기를 이용하는 등 부가적인 센서를 설치한 후 해당 표식이 인식될 때 로봇의 위치를 현지화하는 기술을 사용해 왔다.In the prior art, in order to know the current self-location of a mobile robot, an expensive GPS is installed to receive and localize the actual location information of the robot, or a specific mark, RFID sensor, ultrasonic sensor, Wi-Fi or BLE After installing an additional sensor, such as using the signal strength of , a technology that localizes the position of the robot when the corresponding mark is recognized has been used.

하지만, GPS를 사용하는 방법은 로봇에 고가의 GPS 장비를 설치해야 하기 때문에 비용적인 문제점이 있다. 또한, GPS의 경우 위치오차가 20미터로서 크고 건물안이나 지하와 같은 폐쇄된 공간에서는 GPS 데이터 수신률이 낮다는 단점이 있다. However, the method using GPS has a cost problem because expensive GPS equipment must be installed in the robot. In addition, in the case of GPS, there is a disadvantage in that the position error is large as 20 meters and the GPS data reception rate is low in a closed space such as inside a building or underground.

또한, 특정 표식을 설치하는 방법은 로봇의 이동 경로에 사람이 해당 표식을 일일이 설치해야 하며, 경로가 바뀌는 경우에 있어서는 추가적인 표식 설치 작업이 수행되어야 하는 단점이 있다.In addition, the method of installing a specific marker has a disadvantage in that a person must install the corresponding marker one by one on the moving path of the robot, and additional marker installation work must be performed when the path is changed.

따라서, 이동로봇 현지화에서는 고가의 장비 및 번거로운 작업이 필요 없는, 시스템 구축에 유리하면서 유연성 있는 위치보정 기술에 대한 니즈가 있다. Therefore, in the localization of mobile robots, there is a need for flexible positioning technology that does not require expensive equipment and cumbersome work and is advantageous for system construction.

KR 10-2021-0022935 AKR 10-2021-0022935 A KR 10-2169283 B1KR 10-2169283 B1

이로써, 본 발명의 목적은 고가의 장비 및 번거로운 작업이 필요 없는, SLAM 기반 이동로봇에서 인식가능한 자연사물을 이용한 로봇의 위치추종 방법 및 장치를 제공하는 데 있다. Accordingly, an object of the present invention is to provide a method and apparatus for tracking the position of a robot using natural objects recognizable in a SLAM-based mobile robot, which does not require expensive equipment and cumbersome work.

본 발명의 다른 목적은 시스템 구축에 유리한, SLAM 기반 이동로봇에서 인식가능한 자연사물을 이용한 로봇의 위치추종 방법을 제공하는 데 있다. Another object of the present invention is to provide a method for tracking the position of a robot using recognizable natural objects in a SLAM-based mobile robot, which is advantageous for system construction.

본 발명이 해결하고자 하는 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the above-mentioned problems, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 목적은, 본 발명의 제1 측면에 따라, The above object is, according to the first aspect of the present invention,

SLAM 기반 이동로봇에서 인식가능한 자연사물을 이용한 로봇의 위치추종 방법에 있어서, In the position tracking method of a robot using a recognizable natural object in a SLAM-based mobile robot,

2D 라이다 SLAM을 이용해 환경지도를 작성하는 단계; Creating an environment map using 2D lidar SLAM;

3D 카메라를 이용해 영상 이미지를 획득하고, 상기 획득된 영상 이미지로부터 자연사물을 인식하여, 상기 작성된 환경지도에 기초하여 그 위치를 랜드마크로 저장하는 단계; 및Acquiring a video image using a 3D camera, recognizing a natural object from the acquired video image, and storing the location as a landmark based on the created environment map; and

상기 이동로봇의 자율주행시 상기 이동로봇의 현재 위치를 보정할 필요가 있다고 판단된 때, 상기 자연사물을 인식하여, 상기 이동로봇의 현재 위치를 상기 저장된 랜드마크의 위치를 기반으로 보정하는 단계를 포함하는, Recognizing the natural object and correcting the current location of the mobile robot based on the location of the stored landmark when it is determined that the current location of the mobile robot needs to be corrected during autonomous driving of the mobile robot. doing,

로봇의 위치추종 방법에 의해 달성된다.It is achieved by the position tracking method of the robot.

이때, 상기 자연사물의 인식은 YOLO 알고리즘을 이용해 사전에 학습하는 것이 바람직하다. At this time, the recognition of the natural object is preferably learned in advance using the YOLO algorithm.

나아가, 상기 랜드마크의 위치는 상기 작성된 환경지도의 (0,0) 좌표를 기준으로 절대 좌표 정보로 저장될 수 있다. Furthermore, the location of the landmark may be stored as absolute coordinate information based on (0,0) coordinates of the created environment map.

한편, 상기 이동로봇의 오도메트리 좌표와 상기 환경지도 상의 좌표 사이의 차이값을 이용해, 상기 이동로봇의 현재 위치를 보정할 필요가 있다고 판단하는 것을 특징으로 할 수 있다. Meanwhile, it may be characterized in that it is determined that the current position of the mobile robot needs to be corrected by using a difference value between odometry coordinates of the mobile robot and coordinates on the environment map.

나아가, 상기 이동로봇의 현재 위치를 상기 저장된 랜드마크의 위치를 기반으로 보정하는 단계는, 상기 이동로봇의 자율주행시 인식된 자연사물의 위치를 저장된 랜드마크의 위치로 변환하고 변환된 위치로 상기 이동로봇을 이동시키는 단계를 포함할 수 있다. Furthermore, the step of correcting the current location of the mobile robot based on the location of the stored landmark may include converting the location of a natural object recognized during autonomous driving of the mobile robot to the location of the stored landmark and moving the mobile robot to the converted location. It may include moving the robot.

상기 목적은, 본 발명의 제2 측면에 따라, The above object is, according to the second aspect of the present invention,

SLAM 기반 이동로봇의 자연사물을 이용한 로봇의 위치추종 장치에 있어서, In the position tracking device of a robot using natural objects of a SLAM-based mobile robot,

2D 라이다 SLAM을 이용해 작성된 환경지도; environmental maps created using 2D LiDAR SLAM;

3D 카메라를 이용해 획득된 영상 이미지로부터 인식된 자연사물의 위치가 상기 환경지도에 기초하여 랜드마크로 저장된 데이터베이스; 및a database in which locations of natural objects recognized from video images acquired using a 3D camera are stored as landmarks based on the environment map; and

상기 이동로봇의 자율주행시 상기 이동로봇의 현재 위치를 보정할 필요가 있다고 판단된 때, 상기 자연사물을 인식하여, 상기 이동로봇의 현재 위치를 상기 저장된 랜드마크의 위치를 기반으로 보정하는 제어부를 포함하는, When it is determined that the current position of the mobile robot needs to be corrected during autonomous driving of the mobile robot, a control unit recognizing the natural object and correcting the current position of the mobile robot based on the location of the stored landmark doing,

로봇의 위치추종 장치에 의해 달성된다.It is achieved by the position tracking device of the robot.

상기 목적은, 또한 본 발명의 제3 측면에 따라, The above object is also according to the third aspect of the present invention,

상기의 방법을 수행하는 프로그램을 기록한 컴퓨터 판독가능 기록 매체에 의해 달성된다.This is achieved by a computer readable recording medium recording a program for performing the above method.

나아가, 상기 목적은, 또한 본 발명의 제4 측면에 따라, Furthermore, the above object is also according to the fourth aspect of the present invention,

상기의 방법을 하드웨어와의 결합을 통해 실행시키기 위한 매체에 저장된 컴퓨터 프로그램에 의해 달성된다. It is achieved by a computer program stored in a medium for executing the above method through combination with hardware.

상기한 바와 같은 본 발명의 SLAM 기반 이동로봇에서 인식가능한 자연사물을 이용한 로봇의 위치추종 방법 및 장치에 따르면 GPS와 같은 고가의 장비 사용 및 특정 마커를 부착하는 번거로운 작업의 필요 없이, 이동로봇의 정확한 위치 보정이 가능하다는 장점이 있다. According to the method and apparatus for tracking the position of a robot using recognizable natural objects in a SLAM-based mobile robot of the present invention as described above, without the need for expensive equipment such as GPS and the cumbersome task of attaching a specific marker, accurate tracking of the mobile robot is possible. It has the advantage that position correction is possible.

또한 본 발명의 SLAM 기반 이동로봇에서 인식가능한 자연사물을 이용한 로봇의 위치추종 방법 및 장치에 따르면, 3D SLAM 기법에 비해 환경지도 저장 및 로딩시 시스템에 무리가 없어, 시스템 구축에 유리하다는 장점이 있다. In addition, according to the method and device for tracking the position of a robot using natural objects recognizable in a SLAM-based mobile robot of the present invention, compared to the 3D SLAM technique, there is no burden on the system when saving and loading an environment map, which is advantageous in system construction. .

도 1은 본 발명에 따른 SLAM 기반 이동로봇에서 인식가능한 자연사물을 이용한 로봇의 위치추종 방법의 흐름도이다.
도 2는 본 발명에 따른 SLAM 기반 이동로봇에서 실행가능한 자연사물을 이용한 로봇의 위치추종 방법 중 S200의 일 실시예를 보여주는 흐름도이다.
도 3은 본 발명에 따른 SLAM 기반 이동로봇에서 인식가능한 자연사물을 이용한 로봇의 위치추종 방법 중 S300의 일 실시예를 보여주는 흐름도이다.
도 4는 본 발명에 따른 SLAM 기반 이동로봇에서 인식가능한 자연사물을 이용한 로봇의 위치추종 장치를 포함하는 이동로봇의 구성도이다.
도 5는 본 발명에 따른 환경지도 및 DB의 일 예를 보여주는 도면이다.
도 6a 내지 도 6c는 본 발명에 따른 SLAM 기반 이동로봇에서 현재 위치를 보정하는 과정의 일 실시예를 보여주는 도면이다.
1 is a flowchart of a method for following a position of a robot using recognizable natural objects in a SLAM-based mobile robot according to the present invention.
2 is a flowchart showing an embodiment of S200 of a method for following a position of a robot using natural objects executable in a SLAM-based mobile robot according to the present invention.
3 is a flowchart showing an embodiment of S300 of a method for following a position of a robot using a recognizable natural object in a SLAM-based mobile robot according to the present invention.
4 is a configuration diagram of a mobile robot including a position tracking device using a recognizable natural object in a SLAM-based mobile robot according to the present invention.
5 is a diagram showing an example of an environment map and DB according to the present invention.
6A to 6C are diagrams illustrating an embodiment of a process of correcting a current position in a SLAM-based mobile robot according to the present invention.

이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 예시적 실시예를 상세하게 설명한다. 다만, 본 발명이 예시적 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조부호는 실질적으로 동일한 기능을 수행하는 부재를 나타낸다.Hereinafter, exemplary embodiments according to the present invention will be described in detail with reference to the contents described in the accompanying drawings. However, the present invention is not limited or limited by exemplary embodiments. The same reference numerals presented in each figure indicate members performing substantially the same function.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예컨대, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Terms including ordinal numbers, such as first and second, may be used to describe various components, but the components are not limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present invention have been selected from general terms that are currently widely used as much as possible while considering the functions in the present invention, but these may vary depending on the intention of a person skilled in the art or precedent, the emergence of new technologies, and the like. In addition, in a specific case, there is also a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, not simply the name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.When it is said that a certain part "includes" a certain component throughout the specification, it means that it may further include other components without excluding other components unless otherwise stated.

도 1은 본 발명에 따른 SLAM 기반 이동로봇에서 인식가능한 자연사물을 이용한 로봇의 위치추종 방법의 흐름도이다. 1 is a flowchart of a method for following a position of a robot using recognizable natural objects in a SLAM-based mobile robot according to the present invention.

도면을 참조하면, 본 발명에 따른 SLAM 기반 이동로봇에서 인식가능한 자연사물을 이용한 로봇의 위치추종 방법은, 환경지도를 작성하는 단계(S100); 인식된 자연사물의 위치를 저장하는 단계(S200); 및 자율주행시 인식된 자연사물의 위치를 기반으로, 이동로봇의 현재 위치를 보정하는 단계(S300)를 포함한다. Referring to the drawings, a method for tracking the position of a robot using recognizable natural objects in a SLAM-based mobile robot according to the present invention includes the steps of creating an environment map (S100); Storing the location of the recognized natural object (S200); and correcting the current position of the mobile robot based on the position of the natural object recognized during autonomous driving (S300).

본 발명의 환경지도 작성(S100) 및 인식된 자연사물 위치 저장(S200) 단계들은, SLAM 기반의 이동로봇이 로봇을 운용할 환경에 대한 환경지도를 생성하는 단계로서, 개념적으로 3D 깊이 카메라 및 YOLO 알고리즘을 이용해 인식된 랜드마크를, 2D 라이다를 이용한 2D SLAM과 병합하여 환경지도를 구성하는 방식을 채택한다. The steps of creating an environment map (S100) and storing the recognized natural object position (S200) of the present invention are steps for the SLAM-based mobile robot to create an environment map for the environment in which the robot will operate, conceptually using a 3D depth camera and YOLO A method of constructing an environment map is adopted by merging landmarks recognized using an algorithm with 2D SLAM using 2D LIDAR.

이를 위해, 본 발명에 따른 이동로봇(1)은, 본 발명에 따른 SLAM 기반 이동로봇에서 인식가능한 자연사물을 이용한 로봇의 위치추종 장치를 포함하는 이동로봇의 구성도인 도 4를 참조하여 살펴보면, 기본적으로 2D 라이다(10); 및 3D 카메라(30)를 구비함으로써, 본 발명의 기반이 되는, 2D 라이다 SLAM을 이용해 작성된 환경지도(20); 및 3D 카메라를 이용해 획득된 영상 이미지로부터 인식된 자연사물의 위치가 상기 환경지도에 기초하여 랜드마크로 저장된 데이터베이스(40)를 구비하고 있다.To this end, the mobile robot 1 according to the present invention, referring to FIG. 4, which is a configuration diagram of a mobile robot including a position tracking device using natural objects recognizable in the SLAM-based mobile robot according to the present invention, Basically 2D lidar (10); and an environment map 20 created using 2D lidar SLAM, which is the basis of the present invention, by having a 3D camera 30; and a database 40 in which locations of natural objects recognized from video images obtained using a 3D camera are stored as landmarks based on the environment map.

이에 더하여, GPU가 장착된 이동로봇(1)은, 환경지도(20), 인코더(60), 3D 카메라(30), 및 DB(40)와 상호작용하여 해당 이동로봇의 자율주행시 이동로봇의 현재 위치를 보정할 필요가 있는지 판단하고, 이동로봇의 현재 위치가 저장된 랜드마크의 위치로 보정되도록 조치하는 제어부(50)를 포함한다. In addition, the mobile robot 1 equipped with a GPU interacts with the environment map 20, the encoder 60, the 3D camera 30, and the DB 40 to determine the current state of the mobile robot during autonomous driving of the mobile robot. and a control unit 50 that determines whether the location needs to be corrected and corrects the current location of the mobile robot to the location of the stored landmark.

다시 도 1을 참조하면, 환경 지도를 작성하는 단계(S100)는, 2D 라이다 SLAM을 이용한다. 물론 3D 라이다를 이용해 3D SLAM을 구현하고, 해당 3D 환경지도를 기반으로 자율주행을 할 수도 있으나, 본 발명은, 3D 환경지도의 경우 그 자체 용량이 크기 때문에 환경지도를 저장할 공간을 확보하거나 환경지도를 로딩하는 과정에 많은 시간이 소요되는 단점을 보완하는 방법으로서 제안된다. 2D 라이다 SLAM 환경지도는 자율주행 시작 전에 작성되지만, 자율주행 중에도 필요에 따라 언제든지 수정될 수 있음은 물론이다. Referring back to FIG. 1 , in the step of creating an environment map (S100), a 2D lidar SLAM is used. Of course, 3D SLAM can be implemented using 3D lidar and autonomous driving can be performed based on the corresponding 3D environment map. It is proposed as a method to compensate for the disadvantage that a lot of time is consumed in the process of loading a map. The 2D LiDAR SLAM environment map is created before the start of autonomous driving, but it can of course be modified at any time during autonomous driving as needed.

인식된 자연사물의 위치를 저장하는 단계(S200)는, 인식된 자연사물 위치를 저장하는 3D 카메라를 이용해 영상 이미지를 획득하고, 획득된 영상 이미지로부터 자연사물을 인식하여, 작성된 환경지도에 기초하여 그 위치를 랜드마크로 저장하는 단계를 포함한다. In the step of storing the position of the recognized natural object (S200), a video image is acquired using a 3D camera that stores the position of the recognized natural object, the natural object is recognized from the acquired video image, and based on the created environment map and storing the location as a landmark.

보다 구체적으로는, 본 발명에 따른 SLAM 기반 이동로봇에서 인식가능한 자연사물을 이용한 로봇의 위치추종 방법 중 S200의 일 실시예를 보여주는 흐름도인 도 2를 참조하여 살펴본다. More specifically, it will be looked at with reference to FIG. 2, which is a flowchart showing an embodiment of S200 among the robot position tracking method using recognizable natural objects in the SLAM-based mobile robot according to the present invention.

먼저, 3D 깊이 카메라(3D Depth Camera)를 이용해 RGB 이미지 정보 뿐만 아니라 픽셀의 깊이 정보까지 포함되는 3D 영상 이미지(포인트 클라우드 데이터)를 획득한다(S210). First, a 3D video image (point cloud data) including not only RGB image information but also pixel depth information is obtained using a 3D depth camera (S210).

상기에서 획득된 3D 영상 이미지에 포함된 일부의 자연사물이 DB에 등록하기 위해 사전에 학습된 사물에 해당되는지 여부를 판단한다(S220). 이때 이미지에서 사물을 검출해내는 사물 검출 방법은, 처리 과정이 간단하고 처리 속도가 빠른 YOLO(You Only Look Once) 알고리즘을 이용하는 것이 바람직하다. 여기서는 ROS(Robot Operation System)에서 제공하는 ROS YOLO 패키지를 활용하였다. It is determined whether some of the natural objects included in the acquired 3D video image correspond to previously learned objects to be registered in the DB (S220). In this case, the object detection method for detecting the object in the image preferably uses a You Only Look Once (YOLO) algorithm, which has a simple processing process and a high processing speed. Here, ROS YOLO package provided by ROS (Robot Operation System) was used.

여기서, 자연사물(Natural Landmark)은, 사전에 학습되어 랜드마크로서 저장되는 사물로서, 소화전, 테이블, 벽걸이 시계 또는 액자 등과 같이, 고정되어 있는 사물이라면 어느 것이라도 가능하다. Here, the natural landmark is an object learned in advance and stored as a landmark, and any fixed object such as a fire hydrant, a table, a wall clock, or a picture frame can be used.

이렇게 인식된 사물은, ROS(Robot Operation System)에서 제공하는 jsk pcl 패키지를 이용해 그 위치에 대응하는 좌표가 획득될 수 있다(S230). 이때 획득되는 좌표는 예를 들어, 이동로봇이 바라보았을 때의 기준으로 로봇의 절대 위치 좌표로서, 카메라 좌표 기준의 (x, y, z, θ) 데이터일 수 있다. Coordinates corresponding to the location of the recognized object may be acquired using the jsk pcl package provided by ROS (Robot Operation System) (S230). The coordinates obtained at this time are, for example, absolute position coordinates of the robot based on the point of view of the mobile robot, and may be (x, y, z, θ) data based on camera coordinates.

마지막으로, 인식된 사물의 좌표는, 랜드마크의 위치로서, 작성된 환경지도의 xy 좌표계에 있어서는 (0,0) 좌표 또는 xyz 좌표계에 있어서는 (0, 0, 0)를 기준으로 하는 절대 좌표 정보로 DB에 저장된다(S240). 이에 더하여, 인식된 사물은, 해당 환경지도에 랜드마크로서 표시되어 저장될 수 있다. 이때 인식된 사물을 랜드마크로 등록하고자 할 때, YOLO 알고리즘을 이용하는 외에도, 별도의 이미지 강화학습 툴, 예를 들어 Colab을 이용해, 학습하여 추가할 수 있다.Finally, the coordinates of the recognized object are the location of the landmark, which is absolute coordinate information based on (0,0) coordinates in the xy coordinate system of the created environment map or (0, 0, 0) in the xyz coordinate system. It is stored in the DB (S240). In addition to this, the recognized object may be displayed and stored as a landmark on the corresponding environment map. At this time, when registering a recognized object as a landmark, in addition to using the YOLO algorithm, a separate image reinforcement learning tool, for example, Colab, may be used for learning and addition.

환경지도(20) 및 DB(40)의 구현 예는, 본 발명에 따른 환경지도 및 DB의 일 예를 보여주는 도면인 도 5를 참조한다. For an implementation example of the environment map 20 and DB 40, refer to FIG. 5, which is a diagram showing an example of the environment map and DB according to the present invention.

이와 같이, 본 발명에서 제안하는 환경지도를 생성하는 방법을 이용하면, 2D SLAM의 구성에서 특정 위치에 대한 랜드마크를 생성할 수 있다. 또한 해당 환경지도는 2D 맵과 동일한 저용량으로 저장되고, 랜드마크의 위치는 DB 파일로 별도로 저장되기 때문에, 저장 장치에 큰 무리가 없고, 환경지도를 로딩하는 작업에서도 시스템 부하 문제가 없다는 장점이 있다. In this way, using the method for generating an environment map proposed in the present invention, a landmark for a specific location can be created in a 2D SLAM configuration. In addition, since the corresponding environment map is stored in the same low capacity as the 2D map, and the location of the landmark is stored separately as a DB file, there is no great burden on the storage device and there is no system load problem in loading the environment map. .

한편, 자율주행시 인식된 자연사물의 위치를 기반으로, 이동로봇의 현재 위치를 보정하는 단계(S300)는, 이동로봇의 자율주행시 이동로봇의 현재 위치를 보정할 필요가 있다고 판단된 때, 해당 자연사물을 인식하여, 이동로봇의 현재 위치를 저장된 랜드마크의 위치를 기반으로 보정하는 단계를 포함한다. On the other hand, in the step of correcting the current position of the mobile robot based on the position of the natural object recognized during autonomous driving (S300), when it is determined that it is necessary to correct the current position of the mobile robot during autonomous driving, the corresponding natural object Recognizing the object and correcting the current location of the mobile robot based on the location of the stored landmark.

보다 구체적으로는, 본 발명에 따른 SLAM 기반 이동로봇에서 인식가능한 자연사물을 이용한 로봇의 위치추종 방법 중 S300의 일 실시예를 보여주는 흐름도인 도 3을 참조하여 살펴본다. More specifically, it will be looked at with reference to FIG. 3, which is a flowchart showing an embodiment of S300 of a method for tracking the position of a robot using natural objects recognizable in a SLAM-based mobile robot according to the present invention.

먼저, 3D 깊이 카메라를 이용해 3D 영상 이미지를 획득한다(S310). First, a 3D video image is acquired using a 3D depth camera (S310).

환경지도에 기반한 자율주행에 있어서 현재 위치 보정이 필요한지 여부를 판단한다(S320). 이때 S310 및 S320 단계들은 주기적으로 그리고 상대적인 순서에 관계없이 발생할 수 있다. In autonomous driving based on the environment map, it is determined whether current position correction is necessary (S320). Steps S310 and S320 may occur periodically and in any relative order.

일반적으로 이동로봇의 현재 위치는 구동바퀴에 설치된 인코더로부터의 정보를 이용해 로봇의 위치/자세(Odometry)를 추종하는데, 실제 환경에서 바닥과의 미끄러짐이 발생되거나 외부환경 조건의 영향으로 인해, 인코더로부터의 정보에 기초한 위치와 2D 라이더로부터의 정보에 기초한 환경지도 상에서의 위치가 상이할 수 있다. In general, the current position of a mobile robot follows the robot's position/posture (Odometry) using information from encoders installed on driving wheels. The location based on the information of , and the location on the environment map based on the information from the 2D rider may be different.

이때에는 인코더로부터의 오도메트리 좌표와 환경지도 상의 좌표 사이의 차이값을 이용해, 이동로봇의 현재 위치를 보정할 필요가 있는지 여부를 판단할 수 있다. 임의의 임계 값 또는 범위를 기준으로 보정 필요성 여부를 정의할 수 있음은 물론이다.In this case, it is possible to determine whether the current position of the mobile robot needs to be corrected by using the difference between the odometry coordinates from the encoder and the coordinates on the environment map. Needless to say, it is possible to define whether or not correction is necessary based on an arbitrary threshold value or range.

예를 들어, 이동로봇의 현재 위치를 보정할 필요가 있다고 판단된 때는, 현재 위치추종 오차가 누적된다고 판단된 때일 수 있고, 이때 위치추정 오차는 모터에 장착된 인코더로부터 계산된 오도메트리 정보와 SLAM에서 얻어진 위치 정보 사이에서 발생되는 차이일 수 있다.For example, when it is determined that the current position of the mobile robot needs to be corrected, it may be when it is determined that the current position tracking error is accumulated. It may be a difference between location information obtained from SLAM.

현재 위치 보정이 필요하다고 판단되면, 상기에서 획득된 3D 영상 이미지에 포함된 일부의 자연사물이 랜드마크로서 DB에 등록되어 있는지 여부를 판단한다(S330). 이때 이미지에서 사물을 검출해내는 사물 검출 방법은, 처리 과정이 간단하고 처리 속도가 빠른 YOLO(You Only Look Once) 알고리즘을 이용하는 것이 바람직하다. 여기서는 ROS(Robot Operation System)에서 제공하는 ROS YOLO 패키지를 활용하였다. 또한, 인식된 자연사물이 랜드마크로서 DB에 등록되어 있는지 여부는, 인식된 자연사물과 DB에 저장된 랜드마크와의 비교에 기초하여 판단하였다. If it is determined that the current location correction is necessary, it is determined whether some of the natural objects included in the 3D video image obtained above are registered in the DB as landmarks (S330). In this case, the object detection method for detecting the object in the image preferably uses a You Only Look Once (YOLO) algorithm, which has a simple processing process and a high processing speed. Here, ROS YOLO package provided by ROS (Robot Operation System) was used. In addition, whether or not the recognized natural object is registered in the DB as a landmark is determined based on a comparison between the recognized natural object and the landmark stored in the DB.

인식된 자연사물이 DB에 저장된 랜드마크를 나타내는 정보와 일치하면, 이동로봇의 현재 위치를 해당 랜드마크의 위치를 기반으로 보정한다(S340). 이때, 이동로봇의 현재 위치를 해당 랜드마크의 위치를 기반으로 보정하는 것은, 이동로봇에 장착된 카메라의 중심 좌표를 기준으로 인식된 자연사물, 즉 등록된 랜드마크의 상대 좌표를 맵 기준의 절대 좌표로 변환하여 해당 위치로 이동로봇을 이동시킴으로써, 실제 달성될 수 있다. If the recognized natural object matches the information indicating the landmark stored in the DB, the current location of the mobile robot is corrected based on the location of the landmark (S340). At this time, correcting the current position of the mobile robot based on the position of the corresponding landmark is to convert the relative coordinates of the recognized natural object, that is, the registered landmark, to the absolute coordinates of the map based on the center coordinates of the camera mounted on the mobile robot. It can be actually achieved by converting it into coordinates and moving the mobile robot to the corresponding position.

이를 본 발명에 따른 SLAM 기반 이동로봇에서 현재 위치를 보정하는 과정의 일 실시예를 보여주는 도면인 도 6a 내지 도 6c를 참조하여 보다 상세하게 살펴 본다. This will be examined in more detail with reference to FIGS. 6A to 6C, which are diagrams showing an embodiment of a process of correcting a current position in a SLAM-based mobile robot according to the present invention.

먼저, 출발 지점(도면에 원으로 표시된 start point)에서 시작하여 도면의 하방으로 이동하는 경우, 바닥과의 미끄러짐 없이 정상적으로 주행할 때에는, 2D 라이다 데이터(도면에 유색선으로 표시됨)가 맵의 벽 정보와 일치하는 것으로 표시된다(도 6a 참조)First, when starting from the starting point (the start point indicated by a circle in the drawing) and moving downward in the drawing, when driving normally without slipping with the floor, 2D lidar data (indicated by a colored line in the drawing) is displayed on the wall of the map. It is marked as matching information (see Fig. 6a)

반면, 출발 지점(도면에 원으로 표시된 start point)에서 시작하여 도면의 하방으로 이동하는 경우, 바닥과의 미끄러짐이 발생하여 로봇의 위치가 틀어져서 주행할 때에는, 2D 라이다 데이터가 맵의 벽 정보와 일치하지 않는 것으로 표시된다. (도 6b 참조) 이때 위치추정 오차가 발생되어 이동로봇의 전방에 적색 화살표들이 누적되는 것을 도면에서 확인할 수 있다. On the other hand, when starting from the starting point (the start point indicated by a circle in the drawing) and moving downward on the drawing, sliding with the floor occurs and the robot moves distorted, the 2D lidar data is the wall information of the map. is marked as inconsistent with (See FIG. 6B) At this time, it can be seen in the drawing that red arrows are accumulated in front of the mobile robot due to an error in position estimation.

도 6b와 같이 이동로봇의 위치가 틀어져서 현재 위치의 보정이 필요하다고 판단되는 경우에는, YOLO 알고리즘을 이용해 인식된 소화기(도면에는 fire extinguisher로 표시됨)가 환경지도 작성시에 등록된 랜드마크인지 확인하고, 인식된 소화기의 상대 좌표를 등록된 랜드마크의 절대 좌표로 변환하고 변환된 위치로 이동로봇을 이동시키면, 도 6c와 같이 2D 라이다 데이터가 맵의 벽 정보와 일치하게 됨을 확인할 수 있다. As shown in FIG. 6B, if it is determined that the current position needs to be corrected because the position of the mobile robot is distorted, the YOLO algorithm is used to check whether the recognized fire extinguisher (indicated as a fire extinguisher in the drawing) is a registered landmark when creating an environmental map. Then, when the relative coordinates of the recognized fire extinguisher are converted into absolute coordinates of the registered landmark and the mobile robot is moved to the converted position, it can be confirmed that the 2D lidar data matches the wall information of the map as shown in FIG. 6c.

이와 같이, 사전에 작성된 환경지도를 기반으로 자율주행을 수행할 때, 바닥과의 미끄러짐이나, 외부 환경적인 요인으로 인해, 이동로봇의 위치/자세가 틀어지는 경우, 3D 깊이 카메라로 인식되는 자연사물이 사전에 DB에 등록된 랜드마크와 일치하면 해당 랜드마크의 저장된 좌표를 이용하여 로봇의 위치 현지화를 수행할 수 있기 때문에, 이동로봇의 위치/자세를 보정할 수 있다는 장점이 있다. In this way, when performing autonomous driving based on a pre-created environment map, when the position/posture of the mobile robot is distorted due to slippage with the floor or external environmental factors, natural objects recognized by the 3D depth camera If it coincides with a landmark registered in the DB in advance, it is possible to localize the position of the robot using the coordinates stored in the corresponding landmark, so there is an advantage in that the position/posture of the mobile robot can be corrected.

한편, 본 발명의 실시예에 따른 방법들은 적어도 부분적으로 프로그램 명령 형태로 구현되어, 컴퓨터 판독 가능 기록매체에 기록될 수 있다. 예를 들어, 프로그램 코드를 포함하는 컴퓨터-판독가능 매체로 구성되는 프로그램 제품과 함께 구현되고, 이는 기술된 임의의 또는 모든 단계, 동작, 또는 과정을 수행하기 위한 프로세서에 의해 실행될 수 있다. Meanwhile, the methods according to the embodiments of the present invention may be at least partially implemented in the form of program instructions and recorded on a computer-readable recording medium. For example, implemented together with a program product consisting of a computer-readable medium containing program code, which may be executed by a processor to perform any or all steps, operations, or processes described.

상기 컴퓨터는 하나 이상의 대체적이고 특별한 목적의 프로세서, 메모리, 저장공간, 및 네트워킹 구성요소(무선 또는 유선 중 어느 하나)를 가지는 컴퓨팅 장치이다. 상기 컴퓨터는 예를 들어, 마이크로소프트의 윈도우와 호환되는 운영 체제, 예를 들어 리눅스 배포판(Linux distribution)와 같은 운영체제(operating system)를 실행할 수 있다.The computer is a computing device having one or more alternative and special purpose processors, memory, storage, and networking components (whether wireless or wired). The computer may run, for example, an operating system compatible with Microsoft's Windows, for example, an operating system such as a Linux distribution.

상기 프로그램 명령 형태는, 소프트웨어로 통칭될 수 있고, 이는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. The program instruction form may be collectively referred to as software, which may include a computer program, code, instruction, or a combination of one or more of them, and may cause a processing device to operate as desired. It can configure or command processing units independently or collectively. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or to provide instructions or data to a processing device. may be permanently or temporarily embodied in

상기 컴퓨터 판독 가능 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시 예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. The computer readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

일반적으로 본 명세서에서 사용된 용어는, 특히 청구항에서(예를 들어, 청구항의 본문) 일반적으로 "개방적인" 용어로 의도된다(예를 들어, "포함하는"은 "포함하나 이에 제한되지 않는"으로, "가지다"는 "적어도 그 이상으로 가지다"로, "포함하다"는 "포함하나 이에 제한되지 않는다"로 해석되어야 함) 도입된 청구항 기재에 대하여 특정한 개수가 의도되는 경우, 이러한 의도는 해당 청구항에서 명시적으로 기재되며, 이러한 기재가 부재하는 경우 이러한 의도는 존재하지 않는 것으로 이해된다. In general, the terms used herein are generally intended to be "open-ended" terms, especially in the claims (e.g., the body of a claim) (e.g., "comprising" means "including but not limited to" , "has" should be construed as "has at least more", and "includes" as "including, but not limited to") If a specific number is intended for an introduced claim statement, such intent It is understood that as expressly recited in the claims, in the absence of such recitation, such intent is not present.

본 발명의 특정 특징만이 본 명세서에서 도시되고 설명되었으며, 다양한 수정 및 변경이 당업자에 대하여 발생할 수 있다. 그러므로 청구항은 본 발명의 사상 내에 속하는 변경 및 수정을 포함하는 것으로 의도된다는 점이 이해된다.While only certain features of the present invention have been shown and described herein, various modifications and changes may occur to those skilled in the art. It is understood, therefore, that the claims are intended to cover such changes and modifications as fall within the spirit of the present invention.

10: 2D 라이다 20: 환경지도
30: 3D 카메라 40: DB
50: 제어부 60: 인코더
10: 2D LiDAR 20: Environment Map
30: 3D camera 40: DB
50: control unit 60: encoder

Claims (12)

SLAM 기반 이동로봇에서 인식가능한 자연사물을 이용한 로봇의 위치추종 방법에 있어서,
2D 라이다 SLAM을 이용해 환경지도를 작성하는 단계;
3D 카메라를 이용해 영상 이미지를 획득하고, 상기 획득된 영상 이미지로부터 자연사물을 인식하여, 상기 작성된 환경지도에 기초하여 그 위치를 랜드마크로 저장하는 단계; 및
상기 이동로봇의 자율주행시 상기 이동로봇의 현재 위치를 보정할 필요가 있다고 판단된 때, 상기 자연사물을 인식하여, 상기 이동로봇의 현재 위치를 상기 저장된 랜드마크의 위치를 기반으로 보정하는 단계를 포함하는,
로봇의 위치추종 방법.
In the position tracking method of a robot using a recognizable natural object in a SLAM-based mobile robot,
Creating an environment map using 2D lidar SLAM;
Acquiring a video image using a 3D camera, recognizing a natural object from the acquired video image, and storing the location as a landmark based on the created environment map; and
Recognizing the natural object and correcting the current location of the mobile robot based on the location of the stored landmark when it is determined that the current location of the mobile robot needs to be corrected during autonomous driving of the mobile robot. doing,
How to follow the position of the robot.
제 1 항에 있어서,
상기 자연사물의 인식은 YOLO 알고리즘을 이용해 사전에 학습하는 것을 특징으로 하는,
로봇의 위치추종 방법.
According to claim 1,
Characterized in that the recognition of the natural object is learned in advance using the YOLO algorithm,
How to follow the position of the robot.
제 2 항에 있어서,
상기 랜드마크의 위치는 상기 작성된 환경지도의 (0,0) 좌표를 기준으로 절대 좌표 정보로 저장되는,
로봇의 위치추종 방법.
According to claim 2,
The location of the landmark is stored as absolute coordinate information based on (0,0) coordinates of the created environment map,
How to follow the position of the robot.
제 3 항에 있어서,
상기 이동로봇의 오도메트리 좌표와 상기 환경지도 상의 좌표 사이의 차이값을 이용해, 상기 이동로봇의 현재 위치를 보정할 필요가 있다고 판단하는 것을 특징으로 하는,
로봇의 위치추종 방법.
According to claim 3,
Characterized in that it is determined that the current position of the mobile robot needs to be corrected using a difference between the odometry coordinates of the mobile robot and the coordinates on the environment map.
How to follow the position of the robot.
제 4 항에 있어서,
상기 이동로봇의 현재 위치를 상기 저장된 랜드마크의 위치를 기반으로 보정하는 단계는, 상기 이동로봇의 자율주행시 인식된 자연사물의 위치를 저장된 랜드마크의 위치로 변환하고 변환된 위치로 상기 이동로봇을 이동시키는 단계를 포함하는 것을 특징으로 하는,
로봇의 위치추종 방법.
According to claim 4,
The step of correcting the current position of the mobile robot based on the position of the stored landmark may include converting the position of a natural object recognized during autonomous driving of the mobile robot into the position of the stored landmark and moving the mobile robot to the converted position. Characterized in that it comprises the step of moving,
How to follow the position of the robot.
SLAM 기반 이동로봇의 자연사물을 이용한 로봇의 위치추종 장치에 있어서,
2D 라이다 SLAM을 이용해 작성된 환경지도;
3D 카메라를 이용해 획득된 영상 이미지로부터 인식된 자연사물의 위치가 상기 환경지도에 기초하여 랜드마크로 저장된 데이터베이스; 및
상기 이동로봇의 자율주행시 상기 이동로봇의 현재 위치를 보정할 필요가 있다고 판단된 때, 상기 자연사물을 인식하여, 상기 이동로봇의 현재 위치를 상기 저장된 랜드마크의 위치를 기반으로 보정하는 제어부를 포함하는,
로봇의 위치추종 장치.
In the position tracking device of a robot using natural objects of a SLAM-based mobile robot,
environmental maps created using 2D LiDAR SLAM;
a database in which locations of natural objects recognized from video images acquired using a 3D camera are stored as landmarks based on the environment map; and
When it is determined that the current position of the mobile robot needs to be corrected during autonomous driving of the mobile robot, a control unit recognizing the natural object and correcting the current position of the mobile robot based on the location of the stored landmark doing,
Robot position tracking device.
제 6 항에 있어서,
상기 자연사물의 인식은 YOLO 알고리즘을 이용해 사전에 학습하는 것을 특징으로 하는,
로봇의 위치추종 장치.
According to claim 6,
Characterized in that the recognition of the natural object is learned in advance using the YOLO algorithm,
Robot position tracking device.
제 7 항에 있어서,
상기 랜드마크의 위치는 상기 작성된 환경지도의 (0,0) 좌표를 기준으로 절대 좌표 정보로 저장되는,
로봇의 위치추종 장치.
According to claim 7,
The location of the landmark is stored as absolute coordinate information based on (0,0) coordinates of the created environment map,
Robot position tracking device.
제 8 항에 있어서, 상기 제어부는
상기 이동로봇의 오도메트리 좌표와 상기 환경지도 상의 좌표 사이의 차이값을 이용해, 상기 이동로봇의 현재 위치를 보정할 필요가 있다고 판단하는 것을 특징으로 하는,
로봇의 위치추종 장치.
The method of claim 8, wherein the controller
Characterized in that it is determined that the current position of the mobile robot needs to be corrected using a difference between the odometry coordinates of the mobile robot and the coordinates on the environment map.
Robot position tracking device.
제 9 항에 있어서,
상기 이동로봇의 현재 위치를 상기 저장된 랜드마크의 위치를 기반으로 보정하는 것은, 상기 이동로봇의 자율주행시 인식된 자연사물의 위치를 저장된 랜드마크의 위치로 변환하고 변환된 위치로 상기 이동로봇을 이동시키는 것을 포함하는 것을 특징으로 하는,
로봇의 위치추종 장치.
According to claim 9,
Correcting the current location of the mobile robot based on the location of the stored landmark converts the location of a natural object recognized during autonomous driving of the mobile robot into the location of the stored landmark and moves the mobile robot to the converted location. Characterized in that it includes,
Robot position tracking device.
제 1 항 내지 제 5 항 중 어느 한 항의 방법을 수행하는 프로그램을 기록한 컴퓨터 판독가능 기록 매체. A computer-readable recording medium recording a program for performing the method of any one of claims 1 to 5. 제 1 항 내지 제 5 항 중 어느 한 항의 방법을 하드웨어와의 결합을 통해 실행시키기 위한 매체에 저장된 컴퓨터 프로그램. A computer program stored in a medium for executing the method of any one of claims 1 to 5 through combination with hardware.
KR1020210058976A 2021-05-07 2021-05-07 Position tracking method or device of robot using natural objects of SLAM-based mobile robot, computer-readable recording medium and computer program KR102521280B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210058976A KR102521280B1 (en) 2021-05-07 2021-05-07 Position tracking method or device of robot using natural objects of SLAM-based mobile robot, computer-readable recording medium and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210058976A KR102521280B1 (en) 2021-05-07 2021-05-07 Position tracking method or device of robot using natural objects of SLAM-based mobile robot, computer-readable recording medium and computer program

Publications (2)

Publication Number Publication Date
KR20220152451A true KR20220152451A (en) 2022-11-16
KR102521280B1 KR102521280B1 (en) 2023-04-17

Family

ID=84235802

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210058976A KR102521280B1 (en) 2021-05-07 2021-05-07 Position tracking method or device of robot using natural objects of SLAM-based mobile robot, computer-readable recording medium and computer program

Country Status (1)

Country Link
KR (1) KR102521280B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102631313B1 (en) 2023-06-08 2024-01-31 (주)인티그리트 Device capable of correcting location errors using real-time analysis and contrast between vision data and lidar data for the implementation of simultaneous localization and map-building technology
KR102631315B1 (en) 2023-06-08 2024-02-01 (주)인티그리트 System capable of correcting location errors using real-time analysis and contrast between vision data and lidar data for the implementation of simultaneous localization and map-building technology

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090002640A (en) * 2007-07-02 2009-01-09 한국전자통신연구원 Hierarchical classifying system and using method for function of environment map for moving objects
KR101619365B1 (en) * 2008-10-09 2016-05-11 삼성전자주식회사 Apparatus and method for simultaneous localization and mapping of robot
JP2020087407A (en) * 2018-11-28 2020-06-04 台達電子工業股▲ふん▼有限公司Delta Electronics, Inc. Map creation device and map creation method therefor
KR102169283B1 (en) 2019-12-30 2020-10-23 (주)원익로보틱스 Method of updating map using autonomous robot and system implementing the same
KR20210022935A (en) 2019-08-21 2021-03-04 엘지전자 주식회사 ELECTRONIC APPARATUS AND METHOD FOR IMPLEMENTING SLAM(Simultaneous Localization and Mapping)

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090002640A (en) * 2007-07-02 2009-01-09 한국전자통신연구원 Hierarchical classifying system and using method for function of environment map for moving objects
KR101619365B1 (en) * 2008-10-09 2016-05-11 삼성전자주식회사 Apparatus and method for simultaneous localization and mapping of robot
JP2020087407A (en) * 2018-11-28 2020-06-04 台達電子工業股▲ふん▼有限公司Delta Electronics, Inc. Map creation device and map creation method therefor
KR20210022935A (en) 2019-08-21 2021-03-04 엘지전자 주식회사 ELECTRONIC APPARATUS AND METHOD FOR IMPLEMENTING SLAM(Simultaneous Localization and Mapping)
KR102169283B1 (en) 2019-12-30 2020-10-23 (주)원익로보틱스 Method of updating map using autonomous robot and system implementing the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102631313B1 (en) 2023-06-08 2024-01-31 (주)인티그리트 Device capable of correcting location errors using real-time analysis and contrast between vision data and lidar data for the implementation of simultaneous localization and map-building technology
KR102631315B1 (en) 2023-06-08 2024-02-01 (주)인티그리트 System capable of correcting location errors using real-time analysis and contrast between vision data and lidar data for the implementation of simultaneous localization and map-building technology

Also Published As

Publication number Publication date
KR102521280B1 (en) 2023-04-17

Similar Documents

Publication Publication Date Title
CN110869700B (en) System and method for determining vehicle position
KR101976241B1 (en) Map building system and its method based on multi-robot localization
KR102521280B1 (en) Position tracking method or device of robot using natural objects of SLAM-based mobile robot, computer-readable recording medium and computer program
KR101214143B1 (en) Method and apparatus for detecting position and orientation
KR101423139B1 (en) Method for localization and mapping using 3D line, and mobile body thereof
JP2012084149A (en) Navigation of mobile divice
CN106933223B (en) Autonomous navigation method and system for robot
KR102561263B1 (en) Electronic apparatus and operating method for generating a map data
CN110789529B (en) Vehicle control method, device and computer-readable storage medium
JP6998281B2 (en) Autonomous mobile devices, server devices, programs, and information processing methods
JP6456562B1 (en) Driving support system, driving support method, and driving support program
KR20170088583A (en) System and method for simultaneous localization and mapping of mobile robot
Palomeras et al. Vision-based localization and mapping system for AUV intervention
GB2602588A (en) Electronic device for automated user identification
JP2017120551A (en) Autonomous traveling device
JP2009070357A (en) Guiding system for mobile body
CN110083158B (en) Method and equipment for determining local planning path
JP2017165358A (en) Vehicle control information creation device and vehicle control information creation method
WO2019230557A1 (en) Output device, drive device, mobile device, mobile body system, output method, and computer readable medium
JP2018141716A (en) Position estimation device, control method, and program
WO2020248209A1 (en) 3d odometry in 6d space with roadmodel 2d manifold
WO2019053986A1 (en) Self-position estimation device, self-position estimation method, program, and mobile body device
JP2019046372A (en) Autonomous moving body and movement control method
KR102542550B1 (en) Apparatus and method for estimating pose of vehicle
TWI747195B (en) Vehicle pose real-time accurate calibration system

Legal Events

Date Code Title Description
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant