KR20220064913A - Apparatus and for detecting and removing dynamic obstacle of robot and operating method thereof - Google Patents

Apparatus and for detecting and removing dynamic obstacle of robot and operating method thereof Download PDF

Info

Publication number
KR20220064913A
KR20220064913A KR1020210153743A KR20210153743A KR20220064913A KR 20220064913 A KR20220064913 A KR 20220064913A KR 1020210153743 A KR1020210153743 A KR 1020210153743A KR 20210153743 A KR20210153743 A KR 20210153743A KR 20220064913 A KR20220064913 A KR 20220064913A
Authority
KR
South Korea
Prior art keywords
cell
dynamic obstacle
tracking information
robot
map
Prior art date
Application number
KR1020210153743A
Other languages
Korean (ko)
Other versions
KR102651025B1 (en
Inventor
박성주
김창수
정명교
이재영
Original Assignee
주식회사 유진로봇
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 유진로봇 filed Critical 주식회사 유진로봇
Priority to PCT/KR2021/016525 priority Critical patent/WO2022103195A1/en
Priority to EP21892362.1A priority patent/EP4245474A1/en
Publication of KR20220064913A publication Critical patent/KR20220064913A/en
Priority to US18/316,167 priority patent/US20240077881A1/en
Priority to US18/316,145 priority patent/US20240085188A1/en
Priority to US18/316,160 priority patent/US20240078774A1/en
Application granted granted Critical
Publication of KR102651025B1 publication Critical patent/KR102651025B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/08Programme-controlled manipulators characterised by modular constructions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Processing Or Creating Images (AREA)

Abstract

An apparatus for detecting and removing a dynamic obstacle of a robot by an operation method thereof according to a preferred embodiment of the present invention detects and removes a dynamic obstacle while simultaneously generating a map and estimating a location using a simultaneous localization and mapping (SLAM) technology, to efficiently detect and remove the dynamic obstacle even in a situation with large dynamic changes in surrounding environments and large size of the environments in which location estimation is to be performed. The apparatus comprises a storage unit, a tracking management unit, a dynamic obstacle detection unit, and a dynamic obstacle removal unit.

Description

로봇의 동적 장애물 검출 및 삭제 장치 및 이의 동작 방법{Apparatus and for detecting and removing dynamic obstacle of robot and operating method thereof}Apparatus and for detecting and removing dynamic obstacle of robot and operating method thereof

본 발명은 로봇의 동적 장애물 검출 및 삭제 장치 및 이의 동작 방법에 관한 것으로서, 더욱 상세하게는 SLAM(Simultaneous Localization And Mapping) 기술을 이용하여 지도 작성 및 위치 추정을 동시에 수행하면서 동적 장애물을 검출하여 삭제하는, 장치 및 이의 동작 방법에 관한 것이다.The present invention relates to an apparatus for detecting and deleting a dynamic obstacle for a robot and an operating method thereof, and more particularly, to a dynamic obstacle detection and deletion method while simultaneously performing map preparation and location estimation using SLAM (Simultaneous Localization And Mapping) technology. , an apparatus and a method of operation thereof.

동적 장애물을 제거하지 못하면, 로봇은 불필요하게 우회하는 경로를 계획하거나, 위치 추정에 어려움을 겪게 된다. 기존에는 동적 장애물을 제거하기 위하여 위치 인식과 지도 작성을 동시에 하지 못하거나 지도 작성 후에 동적 장애물을 수작업으로 지도에서 삭제하는 방식을 사용하고 있다.If the dynamic obstacles are not removed, the robot will have difficulty in planning an unnecessary detour or estimating its location. Conventionally, in order to remove dynamic obstacles, either location recognition and map preparation cannot be performed at the same time, or a method of manually deleting dynamic obstacles from the map after map preparation is used.

이러한 방식은 사용자의 시간, 비용 등을 증가시키고, 수작업으로 이루어짐에 따라 사용자의 실수에 의해 지도가 훼손되는 등 부작용이 발생할 수 있으며, 지도가 변경되는 경우 다시 지도를 작성하여야 하고, 공장, 창고 등과 같은 복잡한 환경에서 동적 장애물과 정적 장애물을 수작업을 통해 구분하는 것이 어려운 문제가 있다.This method increases the user's time and cost, and as it is done manually, there may be side effects such as damage to the map due to the user's mistake. In the same complex environment, it is difficult to manually distinguish between a dynamic obstacle and a static obstacle.

이에 따라, 위치 인식과 지도 작성을 동시(Simultaneous Localization And Mapping, SLAM)에 수행하면서 동적 장애물을 검출하여 삭제하는 기술의 개발이 필요하다.Accordingly, it is necessary to develop a technology to detect and delete dynamic obstacles while simultaneously performing location recognition and map creation (Simultaneous Localization And Mapping, SLAM).

본 발명이 이루고자 하는 목적은, SLAM(Simultaneous Localization And Mapping) 기술을 이용하여 지도 작성 및 위치 추정을 동시에 수행하면서 동적 장애물을 검출하여 삭제하는, 로봇의 동적 장애물 검출 및 삭제 장치 및 이의 동작 방법을 제공하는 데 있다.An object of the present invention is to provide a device for detecting and deleting a dynamic obstacle for a robot and an operating method thereof, which detects and deletes a dynamic obstacle while simultaneously performing map preparation and location estimation using SLAM (Simultaneous Localization And Mapping) technology is to do

본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 수 있다.Other objects not specified in the present invention may be additionally considered within the scope that can be easily inferred from the following detailed description and effects thereof.

상기의 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 로봇의 동적 장애물 검출 및 삭제 장치는, 미리 설정된 크기의 셀(cell)로 이루어지고 3차원 좌표 공간으로 이루어지는 지도를 저장하고 있는 저장부; 로봇에 탑재된 센서로부터 센서 데이터를 제공받으면, 상기 센서 데이터를 상기 지도에 입력하고, 상기 센서 데이터를 통해 감지된 셀을 기반으로 셀의 누적 감지 시간 정보를 상기 지도의 셀별로 업데이트하며, 상기 센서 데이터로부터 획득된 레이저(laser)의 셀 통과 여부를 기반으로 셀의 추적 정보를 상기 지도의 셀별로 업데이트하는 추적 관리부; 상기 추적 관리부를 통해 업데이트되는, 상기 지도의 셀별 누적 감지 시간 정보와 추적 정보를 기반으로 셀이 동적 장애물인지 여부를 획득하는 동적 장애물 검출부; 및 상기 동적 장애물 검출부를 통해 동적 장애물로 검출된 셀에 대응되는 데이터를 상기 지도에서 삭제하는 동적 장애물 삭제부;를 포함한다.According to a preferred embodiment of the present invention for achieving the above object, there is provided an apparatus for detecting and deleting a dynamic obstacle for a robot, comprising: a storage unit for storing a map composed of cells of a preset size and composed of a three-dimensional coordinate space; Upon receiving sensor data from a sensor mounted on the robot, the sensor data is input to the map, and accumulated detection time information of a cell is updated for each cell of the map based on the cell detected through the sensor data, and the sensor a tracking management unit that updates cell tracking information for each cell of the map based on whether a laser obtained from data passes through the cell; a dynamic obstacle detection unit for obtaining whether a cell is a dynamic obstacle based on the accumulated detection time information and tracking information for each cell of the map, updated through the tracking management unit; and a dynamic obstacle deletion unit that deletes data corresponding to a cell detected as a dynamic obstacle through the dynamic obstacle detection unit from the map.

여기서, 상기 추적 관리부는, 상기 센서 데이터를 통해 감지된 셀 중에서 처음으로 감지된 셀에 대해서는 셀의 최초 시간 정보를 획득하고, 나머지 셀에 대해서는 셀의 최초 시간 정보를 기반으로 셀의 누적 감지 시간 정보를 업데이트할 수 있다.Here, the tracking management unit acquires initial time information of a cell for a first detected cell among the cells detected through the sensor data, and for the remaining cells, cumulative detection time information of a cell based on the initial time information of the cell can be updated.

여기서, 상기 추적 정보는, 레이저가 셀에 맺힌 횟수를 나타내는 제1 추적 정보 및 레이저가 셀을 통과하는 횟수를 나타내는 제2 추적 정보를 포함하며, 상기 추적 관리부는, 상기 센서 데이터를 기반으로, 레이저가 통과하는 셀에 대해서는 셀의 제2 추적 정보를 미리 설정된 단위로 증가시키고, 레이저가 맺힌 셀에 대해서는 셀의 제1 추적 정보를 미리 설정된 단위로 증가시킬 수 있다.Here, the tracking information includes first tracking information indicating the number of times the laser is formed on the cell and second tracking information indicating the number of times the laser passes through the cell, and the tracking management unit, based on the sensor data, For a cell through which is passed, the second tracking information of the cell may be increased by a preset unit, and for a cell on which a laser is focused, the first tracking information of the cell may be increased by a preset unit.

여기서, 상기 추적 관리부는, 셀과 상기 센서 사이의 거리 및 상기 센서의 분해능(resolution)을 기반으로 가중치를 획득하며, 상기 가중치를 이용하여 셀의 제1 추적 정보 및 제2 추적 정보를 획득할 수 있다.Here, the tracking management unit may obtain a weight based on a distance between the cell and the sensor and a resolution of the sensor, and obtain the first tracking information and the second tracking information of the cell by using the weight. there is.

여기서, 상기 동적 장애물 검출부는, 셀의 누적 감지 시간 정보가 미리 설정된 기준 시간 이상인 셀에 대해, 장애물 존재 확률과 상기 제1 추적 정보를 기반으로 셀이 동적 장애물인지 여부를 검출하며, 상기 장애물 존재 확률은, 상기 제1 추적 정보 및 상기 제2 추적 정보를 기반으로 획득될 수 있다.Here, the dynamic obstacle detecting unit detects whether the cell is a dynamic obstacle based on the obstacle existence probability and the first tracking information for a cell in which the accumulated detection time information of the cell is equal to or longer than a preset reference time, and the obstacle existence probability may be obtained based on the first tracking information and the second tracking information.

여기서, 상기 동적 장애물 검출부는, 상기 장애물 존재 확률이 미리 설정된 제1 기준값 이하이고 상기 제1 추적 정보가 미리 설정된 제2 기준값 이하인 셀을 동적 장애물로 검출할 수 있다.Here, the dynamic obstacle detection unit may detect a cell in which the obstacle existence probability is less than or equal to a preset first reference value and the first tracking information is less than or equal to a preset second reference value as a dynamic obstacle.

여기서, 상기 장애물 존재 확률은, 상기 제1 추적 정보와 상기 제2 추적 정보를 더한 값으로 상기 제1 추적 정보를 나누어 획득될 수 있다.Here, the obstacle existence probability may be obtained by dividing the first tracking information by a value obtained by adding the first tracking information and the second tracking information.

여기서, 상기 추적 관리부는, 상기 로봇에 탑재된 센서로부터 상기 센서 데이터를 제공받으면, 상기 센서 데이터의 위치를 보정하고, 위치가 보정된 상기 센서 데이터를 상기 지도에 입력하고, 위치가 보정된 상기 센서 데이터를 기반으로 셀의 누적 감지 시간 정보를 업데이트하며, 위치가 보정된 상기 센서 데이터를 기반으로 셀의 추적 정보를 업데이트할 수 있다.Here, the tracking management unit, upon receiving the sensor data from the sensor mounted on the robot, corrects the position of the sensor data, inputs the corrected position of the sensor data to the map, and the position of the corrected sensor The accumulated detection time information of the cell may be updated based on the data, and the tracking information of the cell may be updated based on the sensor data whose position is corrected.

여기서, 상기 지도의 셀의 데이터 구조는, 옥트리(Octree) 데이터 구조로 이루어질 수 있다.Here, the data structure of the cell of the map may be formed of an octree data structure.

상기의 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 로봇의 동적 장애물 검출 및 삭제 장치의 동작 방법은, 로봇에 탑재된 센서로부터 센서 데이터를 제공받으면, 상기 센서 데이터를 지도에 입력하고, 상기 센서 데이터를 통해 감지된 셀(cell)을 기반으로 셀의 누적 감지 시간 정보를 상기 지도의 셀별로 업데이트하며, 상기 센서 데이터로부터 획득된 레이저(laser)의 셀 통과 여부를 기반으로 셀의 추적 정보를 상기 지도의 셀별로 업데이트하는 단계; 상기 지도의 셀별 누적 감지 시간 정보와 추적 정보를 기반으로 셀이 동적 장애물인지 여부를 획득하는 단계; 및 동적 장애물로 검출된 셀에 대응되는 데이터를 상기 지도에서 삭제하는 단계;를 포함하며, 상기 지도는, 미리 설정된 크기의 셀로 이루어지고 3차원 좌표 공간으로 이루어진다.In a method of operating a device for detecting and deleting a dynamic obstacle for a robot according to a preferred embodiment of the present invention for achieving the above object, when sensor data is provided from a sensor mounted on the robot, the sensor data is input to a map, and the Based on the cell detected through the sensor data, the cumulative detection time information of the cell is updated for each cell of the map, and the tracking information of the cell is obtained based on whether the laser obtained from the sensor data passes through the cell. updating the map for each cell; obtaining whether a cell is a dynamic obstacle based on the accumulated detection time information and tracking information for each cell of the map; and deleting data corresponding to a cell detected as a dynamic obstacle from the map, wherein the map includes cells of a preset size and a three-dimensional coordinate space.

여기서, 상기 추적 정보는, 레이저가 셀에 맺힌 횟수를 나타내는 제1 추적 정보 및 레이저가 셀을 통과하는 횟수를 나타내는 제2 추적 정보를 포함하며, 상기 업데이트 단계는, 상기 센서 데이터를 기반으로, 레이저가 통과하는 셀에 대해서는 셀의 제2 추적 정보를 미리 설정된 단위로 증가시키고, 레이저가 맺힌 셀에 대해서는 셀의 제1 추적 정보를 미리 설정된 단위로 증가시키는 것으로 이루어질 수 있다.Here, the tracking information includes first tracking information indicating the number of times the laser is formed on the cell and second tracking information indicating the number of times the laser passes through the cell, and the updating step includes: For a cell through which is passed, the second tracking information of the cell is increased by a preset unit, and for a cell on which a laser is focused, the first tracking information of the cell is increased by a preset unit.

여기서, 상기 동적 장애물인지 여부 획득 단계는, 셀의 누적 감지 시간 정보가 미리 설정된 기준 시간 이상인 셀에 대해, 장애물 존재 확률과 상기 제1 추적 정보를 기반으로 셀이 동적 장애물인지 여부를 검출하는 것으로 이루어지며, 상기 장애물 존재 확률은, 상기 제1 추적 정보 및 상기 제2 추적 정보를 기반으로 획득될 수 있다.In this case, the step of obtaining whether the dynamic obstacle is a dynamic obstacle consists of detecting whether the cell is a dynamic obstacle based on the obstacle existence probability and the first tracking information for a cell in which the accumulated detection time information of the cell is equal to or longer than a preset reference time. and the obstacle existence probability may be obtained based on the first tracking information and the second tracking information.

상기의 기술적 과제를 달성하기 위한 본 발명의 바람직한 실시예에 따른 컴퓨터 프로그램은 컴퓨터로 읽을 수 있는 기록 매체에 저장되어 상기한 로봇의 동적 장애물 검출 및 삭제 장치의 동작 방법 중 어느 하나를 컴퓨터에서 실행시킨다.A computer program according to a preferred embodiment of the present invention for achieving the above technical problem is stored in a computer-readable recording medium, and any one of the operating methods of the apparatus for detecting and deleting a dynamic obstacle of the robot is executed in the computer .

본 발명의 바람직한 실시예에 따른 로봇의 동적 장애물 검출 및 삭제 장치 및 이의 동작 방법에 의하면, SLAM(Simultaneous Localization And Mapping) 기술을 이용하여 지도 작성 및 위치 추정을 동시에 수행하면서 동적 장애물을 검출하여 삭제함으로써, 주변 환경의 동적 변화가 심하고 위치 추정을 해야 할 환경의 크기가 큰 상황에서도 효율적으로 동적 장애물을 검출하여 이를 삭제할 수 있다.According to the apparatus for detecting and deleting a dynamic obstacle for a robot and an operation method thereof according to a preferred embodiment of the present invention, a dynamic obstacle is detected and deleted while simultaneously performing map preparation and location estimation using SLAM (Simultaneous Localization And Mapping) technology. , it is possible to efficiently detect and delete a dynamic obstacle even in a situation where the dynamic change of the surrounding environment is severe and the size of the environment to be estimated is large.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 바람직한 실시예에 따른 로봇의 동적 장애물 검출 및 삭제 장치를 설명하기 위한 블록도이다.
도 2는 본 발명의 바람직한 실시예에 따른 추적 정보 업데이트 동작의 일례를 설명하기 위한 도면이다.
도 3은 본 발명의 바람직한 실시예에 따른 추적 정보 업데이트 동작의 다른 예를 설명하기 위한 도면이다.
도 4는 본 발명의 바람직한 실시에에 따른 동적 장애물 검출 및 삭제 동작의 적용 일례를 설명하기 위한 도면이다.
도 5는 본 발명의 바람직한 실시에에 따른 동적 장애물 검출 및 삭제 동작의 효과를 설명하기 위한 도면이다.
도 6은 본 발명의 바람직한 실시예에 따른 로봇의 동적 장애물 검출 및 삭제 장치의 동작 방법을 설명하기 위한 흐름도이다.
1 is a block diagram illustrating an apparatus for detecting and deleting a dynamic obstacle of a robot according to a preferred embodiment of the present invention.
2 is a diagram for explaining an example of a tracking information update operation according to a preferred embodiment of the present invention.
3 is a diagram for explaining another example of a tracking information update operation according to a preferred embodiment of the present invention.
4 is a view for explaining an example of application of a dynamic obstacle detection and deletion operation according to a preferred embodiment of the present invention.
5 is a view for explaining the effect of the dynamic obstacle detection and deletion operation according to a preferred embodiment of the present invention.
6 is a flowchart for explaining a method of operating a device for detecting and deleting a dynamic obstacle of a robot according to a preferred embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 실시 예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention, and a method for achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments published below, but may be implemented in various different forms, and only these embodiments make the publication of the present invention complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein may be used with the meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless clearly defined in particular.

본 명세서에서 "제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.In the present specification, terms such as “first” and “second” are for distinguishing one component from other components, and the scope of rights should not be limited by these terms. For example, a first component may be termed a second component, and similarly, a second component may also be termed a first component.

본 명세서에서 각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In the present specification, identification symbols (eg, a, b, c, etc.) in each step are used for convenience of description, and identification symbols do not describe the order of each step, and each step is clearly Unless a specific order is specified, the order may differ from the specified order. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.

본 명세서에서, "가진다", "가질 수 있다", "포함한다" 또는 "포함할 수 있다"등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this specification, expressions such as “have”, “may have”, “include” or “may include” indicate the existence of a corresponding feature (eg, a numerical value, function, operation, or component such as a part). and does not exclude the presence of additional features.

또한, 본 명세서에 기재된 '~부'라는 용어는 소프트웨어 또는 FPGA(field-programmable gate array) 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터 구조들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다.In addition, the term '~ unit' as used herein means software or a hardware component such as a field-programmable gate array (FPGA) or ASIC, and '~ unit' performs certain roles. However, '-part' is not limited to software or hardware. '~' may be configured to reside on an addressable storage medium or may be configured to refresh one or more processors. Accordingly, as an example, '~' indicates components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data structures and variables. The functions provided in the components and '~ units' may be combined into a smaller number of components and '~ units' or further separated into additional components and '~ units'.

이하에서 첨부한 도면을 참조하여 본 발명에 따른 로봇의 동적 장애물 검출 및 삭제 장치 및 이의 동작 방법의 바람직한 실시예에 대해 상세하게 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a preferred embodiment of an apparatus for detecting and deleting a robot and an operating method thereof according to the present invention will be described in detail with reference to the accompanying drawings.

먼저, 도 1 내지 도 3을 참조하여 본 발명의 바람직한 실시예에 따른 로봇의 동적 장애물 검출 및 삭제 장치에 대하여 설명한다.First, an apparatus for detecting and deleting a dynamic obstacle of a robot according to a preferred embodiment of the present invention will be described with reference to FIGS. 1 to 3 .

도 1은 본 발명의 바람직한 실시예에 따른 로봇의 동적 장애물 검출 및 삭제 장치를 설명하기 위한 블록도이고, 도 2는 본 발명의 바람직한 실시예에 따른 추적 정보 업데이트 동작의 일례를 설명하기 위한 도면이며, 도 3은 본 발명의 바람직한 실시예에 따른 추적 정보 업데이트 동작의 다른 예를 설명하기 위한 도면이다.1 is a block diagram for explaining a device for detecting and deleting a dynamic obstacle of a robot according to a preferred embodiment of the present invention, and FIG. 2 is a view for explaining an example of a tracking information update operation according to a preferred embodiment of the present invention. , Figure 3 is a view for explaining another example of the tracking information update operation according to a preferred embodiment of the present invention.

도 1을 참조하면, 본 발명의 바람직한 실시예에 따른 로봇의 동적 장애물 검출 및 삭제 장치(이하 '동적 장애물 검출 및 삭제 장치'라 한다)(100)는 SLAM(Simultaneous Localization And Mapping) 기술을 이용하여 지도 작성 및 위치 추정을 동시에 수행하면서 동적 장애물을 검출하여 삭제한다.Referring to FIG. 1 , a robot dynamic obstacle detection and deletion apparatus (hereinafter referred to as a 'dynamic obstacle detection and deletion apparatus') 100 according to a preferred embodiment of the present invention uses SLAM (Simultaneous Localization And Mapping) technology. It detects and deletes dynamic obstacles while mapping and estimating at the same time.

여기서, 본 발명은 가정용 청소 로봇, 공공 건물용 청소 로봇, 물류 로봇, 서비스 로봇을 비롯하여, 산업용 로봇 등에도 사용될 수 있다.Here, the present invention may be used in household cleaning robots, cleaning robots for public buildings, logistics robots, service robots, and industrial robots.

이를 위해, 동적 장애물 검출 및 삭제 장치(100)는 저장부(110), 추적 관리부(130), 동적 장애물 검출부(150) 및 동적 장애물 삭제부(170)를 포함할 수 있다.To this end, the dynamic obstacle detection and deletion apparatus 100 may include a storage unit 110 , a tracking management unit 130 , a dynamic obstacle detection unit 150 , and a dynamic obstacle deletion unit 170 .

저장부(110)는 동적 장애물 검출 및 삭제 장치(100)의 동작에 필요한 프로그램 및 데이터를 저장하는 역할을 수행하며, 프로그램 영역과 데이터 영역으로 구분될 수 있다. 프로그램 영역은 동적 장애물 검출 및 삭제 장치(100)의 전반적인 동작을 제어하는 프로그램, 동적 장애물 검출 및 삭제 장치(100)를 부팅시키는 운영체제(Operating System, OS), 셀(cell)의 누적 감지 시간 정보의 업데이트, 셀의 추적 정보의 업데이트, 동적 장애물의 검출, 동적 장애물의 삭제 등과 같은 동적 장애물 검출 및 삭제 장치(100)의 동작에 필요한 응용 프로그램 등을 저장할 수 있다. 데이터 영역은 동적 장애물 검출 및 삭제 장치(100)의 사용에 따라 발생하는 데이터가 저장되는 영역으로서, 지도, 셀의 최초 시간 정보, 셀의 누적 감지 시간 정보, 셀의 추적 정보 등을 저장할 수 있다.The storage 110 serves to store programs and data necessary for the operation of the dynamic obstacle detection and deletion apparatus 100 , and may be divided into a program area and a data area. The program area includes a program for controlling the overall operation of the dynamic obstacle detection and deletion apparatus 100 , an operating system (OS) for booting the dynamic obstacle detection and deletion apparatus 100 , and accumulated detection time information of cells. An application program necessary for the operation of the apparatus 100 for detecting and deleting a dynamic obstacle such as update, update of tracking information of a cell, detection of a dynamic obstacle, and deletion of a dynamic obstacle may be stored. The data area is an area in which data generated according to the use of the dynamic obstacle detection and deletion apparatus 100 is stored, and may store a map, initial time information of a cell, information about a cumulative detection time of a cell, tracking information of a cell, and the like.

여기서, 지도는 미리 설정된 크기('3cm' 등)의 셀로 이루어지고 3차원 좌표 공간으로 이루어질 수 있다.Here, the map may be formed of cells having a preset size (such as '3 cm') and may be formed in a three-dimensional coordinate space.

이때, 지도의 셀의 데이터 구조는 옥트리(Octree) 데이터 구조로 이루어질 수 있다. 실시간으로 동작해야 하는 SLAM 기술의 특성 상, 데이터 접근 횟수가 많은 일련의 물체 감지 및 삭제 방식은 최적화된 데이터 접근을 필요로 한다. 이를 위해, 본 발명에 따른 셀은 데이터 구조로 옥트리 방식을 사용한다.In this case, the data structure of the cell of the map may be formed of an octree data structure. Due to the nature of SLAM technology that needs to operate in real time, a series of object detection and deletion methods with a large number of data accesses require optimized data access. To this end, the cell according to the present invention uses an octree method as a data structure.

즉, 옥트리(Octree) 데이터 구조는 하나의 중간 노드가 8개의 자식 노드를 가지는 트리 형태의 자료 구조로, 지도의 셀을 옥트리 데이터 구조로 표현함으로써, 3차원 공간에 대한 접근 속도를 향상시킬 수 있다. KD-tree를 이용한 나이브(naive)한 구현의 경우 메모리를 너무 많이 사용하거나, 검색에 시간이 오래 걸리는 문제가 있다.That is, the octree data structure is a tree-type data structure in which one intermediate node has 8 child nodes. By expressing the cells of the map as an octree data structure, the access speed to a three-dimensional space can be improved . In the case of a naive implementation using KD-tree, there is a problem that uses too much memory or takes a long time to search.

추적 관리부(130)는 로봇에 탑재된 센서로부터 획득한 센서 데이터를 기반으로 동적 장애물 검출에 이용되는 셀의 추적 정보를 저장부(110)에 저장되어 있는 지도의 셀별로 관리한다.The tracking management unit 130 manages the tracking information of cells used for dynamic obstacle detection based on sensor data acquired from a sensor mounted on the robot for each cell of the map stored in the storage unit 110 .

여기서, 추적 정보는 레이저(laser)가 셀에 맺힌 횟수를 나타내는 제1 추적 정보 및 레이저가 셀을 통과하는 횟수를 나타내는 제2 추적 정보를 포함할 수 있다.Here, the tracking information may include first tracking information indicating the number of times a laser is formed on the cell and second tracking information indicating the number of times the laser passes through the cell.

즉, 추적 관리부(130)는 로봇에 탑재된 센서로부터 센서 데이터를 제공받으면, 센서 데이터를 지도에 입력하고, 센서 데이터를 통해 감지된 셀을 기반으로 셀의 누적 감지 시간 정보를 지도의 셀별로 업데이트하며, 센서 데이터로부터 획득된 레이저의 셀 통과 여부를 기반으로 셀의 추적 정보를 지도의 셀별로 업데이트할 수 있다. 이때, 추적 관리부(130)는 로봇에 탑재된 센서로부터 센서 데이터를 제공받으면, 센서 데이터의 기존 지도를 이용하여 위치를 보정하고, 위치가 보정된 센서 데이터를 지도에 입력하고, 위치가 보정된 센서 데이터를 기반으로 셀의 누적 감지 시간 정보를 업데이트하며, 위치가 보정된 센서 데이터를 기반으로 셀의 추적 정보를 업데이트할 수 있다.That is, when the tracking management unit 130 receives sensor data from a sensor mounted on the robot, it inputs the sensor data to the map, and updates the accumulated detection time information of the cells for each cell of the map based on the cells detected through the sensor data. And, based on whether the laser obtained from the sensor data passes through the cell, the tracking information of the cell may be updated for each cell of the map. At this time, when the tracking management unit 130 receives sensor data from a sensor mounted on the robot, it corrects the position using the existing map of the sensor data, inputs the corrected position sensor data to the map, and the position corrected sensor The accumulated detection time information of the cell may be updated based on the data, and the tracking information of the cell may be updated based on the sensor data whose position is corrected.

보다 자세히 설명하면, 추적 관리부(130)는 센서 데이터를 통해 감지된 셀 중에서 처음으로 감지된 셀에 대해서는 셀의 최초 시간 정보를 획득하고, 나머지 셀에 대해서는 셀의 최초 시간 정보를 기반으로 셀의 누적 감지 시간 정보를 업데이트할 수 있다.More specifically, the tracking management unit 130 acquires the first time information of the cell for the first detected cell among the cells detected through the sensor data, and for the remaining cells, the accumulation of cells based on the first time information of the cell The detection time information can be updated.

그리고, 추적 관리부(130)는 도 2에 도시된 바와 같이, 센서 데이터를 기반으로, 레이저가 통과하는 셀에 대해서는 셀의 제2 추적 정보를 미리 설정된 단위('1' 등)로 증가시키고, 레이저가 맺힌 셀에 대해서는 셀의 제1 추적 정보를 미리 설정된 단위('1' 등)로 증가시킬 수 있다.Then, as shown in FIG. 2 , the tracking management unit 130 increases the second tracking information of the cell by a preset unit ('1', etc.) for a cell through which the laser passes, based on the sensor data, and the laser For a cell in which , the first tracking information of the cell may be increased by a preset unit ('1', etc.).

예컨대, 레이저가 통과하는 셀의 경우, 제1 추적 정보는 기존과 동일한 값으로 유지하고, 제2 추적 정보는 "제2 추적 정보의 기존 값 + 미리 설정된 단위"로 업데이트할 수 있다. 반면, 레이저가 맺힌 셀의 경우, 제1 추적 정보는 "제1 추적 정보의 기존 값 + 미리 설정된 단위"로 업데이트하고, 제2 추적 정보는 기존과 동일한 값으로 유지할 수 있다.For example, in the case of a cell through which a laser passes, the first tracking information may be maintained at the same value as before, and the second tracking information may be updated with "the existing value of the second tracking information + a preset unit". On the other hand, in the case of a laser-focused cell, the first tracking information may be updated to "the existing value of the first tracking information + a preset unit", and the second tracking information may be maintained at the same value as the existing value.

이때, 추적 관리부(130)는 도 3에 도시된 바와 같이, 셀과 센서 사이의 거리 및 센서의 분해능(resolution)을 기반으로 가중치를 획득하며, 가중치를 이용하여 셀의 제1 추적 정보 및 제2 추적 정보를 획득할 수도 있다.At this time, as shown in FIG. 3 , the tracking management unit 130 obtains a weight based on the distance between the cell and the sensor and the resolution of the sensor, and uses the weight to obtain the first tracking information and the second tracking information of the cell. It is also possible to obtain tracking information.

즉, 가중치는 아래의 [수학식 1]을 통해 계산될 수 있다.That is, the weight can be calculated through [Equation 1] below.

Figure pat00001
Figure pat00001

여기서, weight는 가중치를 나타낸다. distance는 셀과 센서 사이의 거리를 나타내며,

Figure pat00002
을 통해 계산되며, (x,y,z)는 셀의 좌표값을 나타낸다. sensor frequency는 센서의 분해능을 나타낸다. 예컨대, 3D 라이다(LiDAR)의 경우, 1개의 레이저 센서가 최상단 45도부터 최하단 -45도까지 1.6초동안 순차적으로 스윕(sweep)하며 움직이고, 최상단에서 다시 최상단에 도달하기까지 3.2초가 소요된다. 이 경우, 센서의 분해능은
Figure pat00003
를 통해 계산되며, tuning factor는 해당 센서에 대해 미리 설정된 값을 나타낸다.Here, weight represents a weight. distance represents the distance between the cell and the sensor,
Figure pat00002
It is calculated through , and (x, y, z) represents the coordinate value of the cell. The sensor frequency indicates the resolution of the sensor. For example, in the case of 3D LiDAR, one laser sensor sequentially sweeps from the top 45 degrees to the bottom -45 degrees for 1.6 seconds and moves, and it takes 3.2 seconds to reach the top again from the top. In this case, the resolution of the sensor is
Figure pat00003
It is calculated through , and the tuning factor represents a preset value for the corresponding sensor.

예컨대, 레이저가 통과하는 셀의 경우, 제1 추적 정보는 기존과 동일한 값으로 유지하고, 제2 추적 정보는 "(제2 추적 정보의 기존 값 + 미리 설정된 단위) * 해당 셀의 가중치"로 업데이트할 수 있다.For example, in the case of a cell through which the laser passes, the first tracking information is maintained at the same value as before, and the second tracking information is updated to "(existing value of the second tracking information + preset unit) * weight of the corresponding cell" can do.

즉, 제2 추적 정보는 아래의 [수학식 2]를 통해 계산될 수 있다.That is, the second tracking information may be calculated through [Equation 2] below.

Figure pat00004
Figure pat00004

여기서, miss(t)는 t에서의 제2 추적 정보(miss)를 나타낸다. miss(t-1)는 t-1에서의 제2 추적 정보(miss)를 나타낸다. number of miss는 레이저가 통과한 셀의 개수 등과 같은 미리 설정된 단위를 나타낸다. weight는 가중치를 나타낸다.Here, miss(t) represents the second tracking information (miss) at t. miss(t-1) represents the second tracking information (miss) at t-1. The number of miss indicates a preset unit such as the number of cells that the laser has passed through. weight represents the weight.

반면, 레이저가 맺힌 셀의 경우, 제1 추적 정보는 "(제1 추적 정보의 기존 값 + 미리 설정된 단위) * 해당 셀의 가중치"로 업데이트하고, 제2 추적 정보는 기존과 동일한 값으로 유지할 수 있다.On the other hand, in the case of a laser-focused cell, the first tracking information is updated to "(existing value of the first tracking information + preset unit) * weight of the corresponding cell", and the second tracking information can be maintained at the same value as before. there is.

즉, 제1 추적 정보는 아래의 [수학식 3]을 통해 계산될 수 있다.That is, the first tracking information may be calculated through [Equation 3] below.

Figure pat00005
Figure pat00005

여기서, hit(t)는 t에서의 제1 추적 정보(hit)를 나타낸다. hit(t-1)는 t-1에서의 제1 추적 정보(hit)를 나타낸다. number of hit는 레이저가 맺힌 셀의 개수 등과 같은 미리 설정된 단위를 나타낸다. weight는 가중치를 나타낸다.Here, hit(t) represents the first tracking information (hit) at t. hit(t-1) represents the first tracking information (hit) at t-1. The number of hit indicates a preset unit such as the number of cells on which the laser is focused. weight represents the weight.

즉, 라이다(LiDAR)의 특성 상, 센서로부터의 거리에 따라 센서 데이터의 밀도가 변화하게 된다. 원거리에서 움직이는 물체를 검출하고 삭제하기 위해, 본 발명은 제1 추적 정보와 제2 추적 정보를 계산할 때 센서로부터의 거리와 센서 분해능을 사용하여 획득한 가중치를 곱해 줄 수 있다.That is, due to the characteristics of LiDAR, the density of sensor data changes according to the distance from the sensor. In order to detect and delete a moving object at a distance, the present invention may multiply the distance from the sensor and a weight obtained using the sensor resolution when calculating the first tracking information and the second tracking information.

동적 장애물 검출부(150)는 추적 관리부(130)를 통해 업데이트되는, 지도의 셀별 누적 감지 시간 정보와 추적 정보를 기반으로 셀이 동적 장애물인지 여부를 획득한다.The dynamic obstacle detection unit 150 acquires whether a cell is a dynamic obstacle based on the tracking information and the accumulated detection time information for each cell of the map updated through the tracking management unit 130 .

즉, 동적 장애물 검출부(150)는 셀의 누적 감지 시간 정보가 미리 설정된 기준 시간 이상인 셀에 대해, 장애물 존재 확률과 제1 추적 정보를 기반으로 셀이 동적 장애물인지 여부를 검출할 수 있다.That is, the dynamic obstacle detection unit 150 may detect whether the cell is a dynamic obstacle based on the obstacle existence probability and the first tracking information for a cell in which the accumulated detection time information of the cell is equal to or longer than a preset reference time.

예컨대, t=0에서 감지되고, t=1에서 감지가 되지 않고, t=3에서도 감지가 되지 않으면, 장애물의 존재를 의심하여야 하는 상황이다. 즉, 지속적으로 감지할 수 없는 경우 해당 내용을 삭제하기 위해, 기준 시간을 설정할 수 있으며, 이는 관리자에 의해 미리 설정되어 있다.For example, if it is detected at t=0, not detected at t=1, and not detected even at t=3, the existence of an obstacle should be suspected. That is, in order to delete the corresponding content when it cannot be continuously detected, a reference time can be set, which is preset by the administrator.

여기서, 장애물 존재 확률은 제1 추적 정보 및 제2 추적 정보를 기반으로 획득될 수 있다. 예컨대, 장애물 존재 확률(p)은 아래의 [수학식 4]와 같이, 제1 추적 정보(hit)와 제2 추적 정보(miss)를 더한 값으로 제1 추적 정보(hit)를 나누어 획득될 수 있다.Here, the obstacle existence probability may be obtained based on the first tracking information and the second tracking information. For example, the obstacle presence probability (p) can be obtained by dividing the first tracking information (hit) by a value obtained by adding the first tracking information (hit) and the second tracking information (miss) as shown in [Equation 4] below. there is.

Figure pat00006
Figure pat00006

예컨대, 동적 장애물 검출부(150)는 장애물 존재 확률이 미리 설정된 제1 기준값 이하이고 제1 추적 정보가 미리 설정된 제2 기준값 이하인 셀을 동적 장애물로 검출할 수 있다.For example, the dynamic obstacle detecting unit 150 may detect a cell having an obstacle existence probability equal to or less than a preset first reference value and having first tracking information equal to or less than a preset second reference value as a dynamic obstacle.

여기서, 제1 기준값은 '50%'일 수 있다. 제2 기준값은 아래의 [수학식 5]를 통해 계산될 수 있다.Here, the first reference value may be '50%'. The second reference value may be calculated through [Equation 5] below.

Figure pat00007
Figure pat00007

동적 장애물 삭제부(170)는 동적 장애물 검출부(150)를 통해 동적 장애물로 검출된 셀에 대응되는 데이터를 지도에서 삭제한다.The dynamic obstacle deletion unit 170 deletes data corresponding to a cell detected as a dynamic obstacle through the dynamic obstacle detection unit 150 from the map.

그러면, 도 4 및 도 5를 참조하여 본 발명의 바람직한 실시예에 따른 로봇의 동적 장애물 검출 및 삭제 동작의 효과에 대하여 설명한다.Then, the effect of the robot's dynamic obstacle detection and deletion operation according to a preferred embodiment of the present invention will be described with reference to FIGS. 4 and 5 .

도 4는 본 발명의 바람직한 실시에에 따른 동적 장애물 검출 및 삭제 동작의 적용 일례를 설명하기 위한 도면이고, 도 5는 본 발명의 바람직한 실시에에 따른 동적 장애물 검출 및 삭제 동작의 효과를 설명하기 위한 도면이다.4 is a view for explaining an example of application of the dynamic obstacle detection and deletion operation according to the preferred embodiment of the present invention, Figure 5 is for explaining the effect of the dynamic obstacle detection and deletion operation according to the preferred embodiment of the present invention It is a drawing.

위치 인식과 지도 작성을 동시에 하는 SLAM 수행 도중 본 발명에 따른 동적 장애물 검출 및 삭제 동작을 수행한 결과는 도 4에 도시된 바와 같다. 도 4를 참조하면, 색을 가지고 있는 셀들은 본 발명에 따른 동적 장애물 검출 및 삭제 동작을 거쳐 지도에 등록된 셀을 나타낸다.The result of performing the dynamic obstacle detection and deletion operation according to the present invention during SLAM for simultaneously recognizing location and creating a map is shown in FIG. 4 . Referring to FIG. 4 , colored cells represent cells registered on a map through dynamic obstacle detection and deletion operations according to the present invention.

도 5를 참조하면, 본 발명은 셀의 추적 정보와 셀의 누적 감지 시간 정보를 함께 사용함으로써, 로봇을 향해 접근하는 물체도 검출하여 삭제할 수 있다. 즉, 로봇을 향해 다가오는 물체에 가려져서 해당 물체의 이전 이동 궤적을 감지할 수 없는 문제를 해결할 수 있다.Referring to FIG. 5 , according to the present invention, an object approaching toward the robot can be detected and deleted by using the cell tracking information and the cell's cumulative detection time information together. In other words, it is possible to solve the problem that the previous movement trajectory of the object cannot be detected because it is obscured by an object approaching the robot.

그러면, 도 6을 참조하여 본 발명의 바람직한 실시예에 따른 로봇의 동적 장애물 검출 및 삭제 장치의 동작 방법에 대하여 설명한다.Then, a description will be given of a method of operating the apparatus for detecting and deleting a dynamic obstacle of a robot according to a preferred embodiment of the present invention with reference to FIG. 6 .

도 6은 본 발명의 바람직한 실시예에 따른 로봇의 동적 장애물 검출 및 삭제 장치의 동작 방법을 설명하기 위한 흐름도이다.6 is a flowchart for explaining a method of operating a device for detecting and deleting a dynamic obstacle of a robot according to a preferred embodiment of the present invention.

도 6을 참조하면, 동적 장애물 검출 및 삭제 장치(100)는 로봇에 탑재된 센서로부터 센서 데이터를 제공받으면, 센서 데이터를 지도에 입력하고, 센서 데이터를 통해 감지된 셀을 기반으로 셀의 누적 감지 시간 정보를 지도의 셀별로 업데이트하며, 센서 데이터로부터 획득된 레이저의 셀 통과 여부를 기반으로 셀의 추적 정보를 지도의 셀별로 업데이트한다(S110). 이때, 동적 장애물 검출 및 삭제 장치(100)는 로봇에 탑재된 센서로부터 센서 데이터를 제공받으면, 센서 데이터의 기존 지도를 이용하여 위치를 보정하고, 위치가 보정된 센서 데이터를 지도에 입력하고, 위치가 보정된 센서 데이터를 기반으로 셀의 누적 감지 시간 정보를 업데이트하며, 위치가 보정된 센서 데이터를 기반으로 셀의 추적 정보를 업데이트할 수 있다.Referring to FIG. 6 , the dynamic obstacle detection and deletion apparatus 100 receives sensor data from a sensor mounted on the robot, inputs the sensor data to a map, and cumulatively detects cells based on the cells detected through the sensor data. Time information is updated for each cell of the map, and tracking information of the cell is updated for each cell of the map based on whether the laser obtained from the sensor data passes through the cell (S110). At this time, when the dynamic obstacle detection and deletion apparatus 100 receives sensor data from a sensor mounted on the robot, it corrects the position using the existing map of the sensor data, inputs the corrected position sensor data to the map, and the position may update information on the accumulated detection time of the cell based on the corrected sensor data, and update the tracking information of the cell based on the corrected sensor data.

보다 자세히 설명하면, 동적 장애물 검출 및 삭제 장치(100)는 센서 데이터를 통해 감지된 셀 중에서 처음으로 감지된 셀에 대해서는 셀의 최초 시간 정보를 획득하고, 나머지 셀에 대해서는 셀의 최초 시간 정보를 기반으로 셀의 누적 감지 시간 정보를 업데이트할 수 있다.More specifically, the dynamic obstacle detection and deletion apparatus 100 acquires the first time information of the cell for the first detected cell among the cells detected through the sensor data, and for the remaining cells, based on the first time information of the cell to update the cell's accumulated detection time information.

그리고, 동적 장애물 검출 및 삭제 장치(100)는 센서 데이터를 기반으로, 레이저가 통과하는 셀에 대해서는 셀의 제2 추적 정보를 미리 설정된 단위로 증가시키고, 레이저가 맺힌 셀에 대해서는 셀의 제1 추적 정보를 미리 설정된 단위로 증가시킬 수 있다.And, the dynamic obstacle detection and deletion apparatus 100 increases the second tracking information of the cell by a preset unit for the cell through which the laser passes, based on the sensor data, and the first tracking of the cell for the cell on which the laser is focused Information can be incremented in a preset unit.

이때, 동적 장애물 검출 및 삭제 장치(100)는 셀과 센서 사이의 거리 및 센서의 분해능을 기반으로 가중치를 획득하며, 가중치를 이용하여 셀의 제1 추적 정보 및 제2 추적 정보를 획득할 수도 있다.In this case, the dynamic obstacle detection and deletion apparatus 100 obtains a weight based on the distance between the cell and the sensor and the resolution of the sensor, and may obtain the first tracking information and the second tracking information of the cell by using the weight. .

이후, 동적 장애물 검출 및 삭제 장치(100)는 지도의 셀별 누적 감지 시간 정보와 추적 정보를 기반으로 셀이 동적 장애물인지 여부를 획득한다(S130).Thereafter, the dynamic obstacle detection and deletion apparatus 100 acquires whether a cell is a dynamic obstacle based on the accumulated detection time information and tracking information for each cell of the map ( S130 ).

즉, 동적 장애물 검출 및 삭제 장치(100)는 셀의 누적 감지 시간 정보가 미리 설정된 기준 시간 이상인 셀에 대해, 장애물 존재 확률과 제1 추적 정보를 기반으로 셀이 동적 장애물인지 여부를 검출할 수 있다. 여기서, 장애물 존재 확률은 제1 추적 정보 및 제2 추적 정보를 기반으로 획득될 수 있다.That is, the dynamic obstacle detection and deletion apparatus 100 may detect whether the cell is a dynamic obstacle based on the obstacle existence probability and the first tracking information for a cell in which the accumulated detection time information of the cell is equal to or longer than a preset reference time. . Here, the obstacle existence probability may be obtained based on the first tracking information and the second tracking information.

예컨대, 동적 장애물 검출 및 삭제 장치(100)는 장애물 존재 확률이 미리 설정된 제1 기준값 이하이고 제1 추적 정보가 미리 설정된 제2 기준값 이하인 셀을 동적 장애물로 검출할 수 있다.For example, the apparatus 100 for detecting and deleting a dynamic obstacle may detect a cell having an obstacle existence probability equal to or less than a preset first reference value and having first tracking information equal to or less than a preset second reference value as a dynamic obstacle.

그리고, 동적 장애물 검출 및 삭제 장치(100)는 동적 장애물로 검출된 셀에 대응되는 데이터를 지도에서 삭제한다(S150).Then, the dynamic obstacle detection and deletion apparatus 100 deletes data corresponding to a cell detected as a dynamic obstacle from the map (S150).

이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 기록 매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 기록 매체로서는 자기기록매체, 광 기록매체 등이 포함될 수 있다.Even though all the components constituting the embodiment of the present invention described above are described as being combined or operated in combination, the present invention is not necessarily limited to this embodiment. That is, within the scope of the object of the present invention, all the components may operate by selectively combining one or more. In addition, all of the components may be implemented as one independent hardware, but a part or all of each component is selectively combined to perform some or all of the functions combined in one or a plurality of hardware program modules It may be implemented as a computer program having In addition, such a computer program is stored in a computer readable media such as a USB memory, a CD disk, a flash memory, etc., read and executed by a computer, thereby implementing an embodiment of the present invention. The recording medium of the computer program may include a magnetic recording medium, an optical recording medium, and the like.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and those of ordinary skill in the art to which the present invention pertains may make various modifications, changes and substitutions within the scope without departing from the essential characteristics of the present invention. will be. Accordingly, the embodiments disclosed in the present invention and the accompanying drawings are for explaining, not limiting, the technical spirit of the present invention, and the scope of the technical spirit of the present invention is not limited by these embodiments and the accompanying drawings . The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

100 : 동적 장애물 검출 및 삭제 장치,
110 : 저장부,
130 : 추적 관리부,
150 : 동적 장애물 검출부,
170 : 동적 장애물 삭제부
100: dynamic obstacle detection and deletion device;
110: storage unit;
130: tracking management unit;
150: dynamic obstacle detection unit,
170: dynamic obstacle removal unit

Claims (13)

미리 설정된 크기의 셀(cell)로 이루어지고 3차원 좌표 공간으로 이루어지는 지도를 저장하고 있는 저장부;
로봇에 탑재된 센서로부터 센서 데이터를 제공받으면, 상기 센서 데이터를 상기 지도에 입력하고, 상기 센서 데이터를 통해 감지된 셀을 기반으로 셀의 누적 감지 시간 정보를 상기 지도의 셀별로 업데이트하며, 상기 센서 데이터로부터 획득된 레이저(laser)의 셀 통과 여부를 기반으로 셀의 추적 정보를 상기 지도의 셀별로 업데이트하는 추적 관리부;
상기 추적 관리부를 통해 업데이트되는, 상기 지도의 셀별 누적 감지 시간 정보와 추적 정보를 기반으로 셀이 동적 장애물인지 여부를 획득하는 동적 장애물 검출부; 및
상기 동적 장애물 검출부를 통해 동적 장애물로 검출된 셀에 대응되는 데이터를 상기 지도에서 삭제하는 동적 장애물 삭제부;
를 포함하는 로봇의 동적 장애물 검출 및 삭제 장치.
a storage unit for storing a map composed of cells of a preset size and composed of a three-dimensional coordinate space;
Upon receiving sensor data from a sensor mounted on the robot, the sensor data is input to the map, and accumulated detection time information of a cell is updated for each cell of the map based on the cell detected through the sensor data, and the sensor a tracking management unit for updating cell tracking information for each cell of the map based on whether a laser obtained from data passes through the cell;
a dynamic obstacle detection unit for obtaining whether a cell is a dynamic obstacle based on the cumulative detection time information and tracking information for each cell of the map, updated through the tracking management unit; and
a dynamic obstacle deletion unit for deleting data corresponding to a cell detected as a dynamic obstacle from the map through the dynamic obstacle detection unit;
A robot's dynamic obstacle detection and deletion device comprising a.
제1항에서,
상기 추적 관리부는,
상기 센서 데이터를 통해 감지된 셀 중에서 처음으로 감지된 셀에 대해서는 셀의 최초 시간 정보를 획득하고, 나머지 셀에 대해서는 셀의 최초 시간 정보를 기반으로 셀의 누적 감지 시간 정보를 업데이트하는,
로봇의 동적 장애물 검출 및 삭제 장치.
In claim 1,
The tracking management unit,
Obtaining initial time information of a cell for the first detected cell among the cells detected through the sensor data, and updating the accumulated detection time information of the cell based on the initial time information of the cell for the remaining cells,
Robot's dynamic obstacle detection and deletion device.
제1항에서,
상기 추적 정보는,
레이저가 셀에 맺힌 횟수를 나타내는 제1 추적 정보 및 레이저가 셀을 통과하는 횟수를 나타내는 제2 추적 정보를 포함하며,
상기 추적 관리부는,
상기 센서 데이터를 기반으로, 레이저가 통과하는 셀에 대해서는 셀의 제2 추적 정보를 미리 설정된 단위로 증가시키고, 레이저가 맺힌 셀에 대해서는 셀의 제1 추적 정보를 미리 설정된 단위로 증가시키는,
로봇의 동적 장애물 검출 및 삭제 장치.
In claim 1,
The tracking information is
It includes first tracking information indicating the number of times the laser has hit the cell and second tracking information indicating the number of times the laser has passed through the cell,
The tracking management unit,
Based on the sensor data, increasing the second tracking information of the cell by a preset unit for a cell through which the laser passes, and increasing the first tracking information of the cell by a preset unit for a cell on which the laser is focused,
Robot's dynamic obstacle detection and deletion device.
제3항에서,
상기 추적 관리부는,
셀과 상기 센서 사이의 거리 및 상기 센서의 분해능(resolution)을 기반으로 가중치를 획득하며, 상기 가중치를 이용하여 셀의 제1 추적 정보 및 제2 추적 정보를 획득하는,
로봇의 동적 장애물 검출 및 삭제 장치.
In claim 3,
The tracking management unit,
Obtaining a weight based on the distance between the cell and the sensor and the resolution of the sensor, and obtaining the first tracking information and the second tracking information of the cell by using the weight,
Robot's dynamic obstacle detection and deletion device.
제3항에서,
상기 동적 장애물 검출부는,
셀의 누적 감지 시간 정보가 미리 설정된 기준 시간 이상인 셀에 대해, 장애물 존재 확률과 상기 제1 추적 정보를 기반으로 셀이 동적 장애물인지 여부를 검출하며,
상기 장애물 존재 확률은,
상기 제1 추적 정보 및 상기 제2 추적 정보를 기반으로 획득되는,
로봇의 동적 장애물 검출 및 삭제 장치.
In claim 3,
The dynamic obstacle detection unit,
For a cell in which the accumulated detection time information of the cell is equal to or longer than a preset reference time, it is detected whether the cell is a dynamic obstacle based on the obstacle existence probability and the first tracking information,
The probability of the existence of the obstacle is,
Obtained based on the first tracking information and the second tracking information,
Robot's dynamic obstacle detection and deletion device.
제5항에서,
상기 동적 장애물 검출부는,
상기 장애물 존재 확률이 미리 설정된 제1 기준값 이하이고 상기 제1 추적 정보가 미리 설정된 제2 기준값 이하인 셀을 동적 장애물로 검출하는,
로봇의 동적 장애물 검출 및 삭제 장치.
In claim 5,
The dynamic obstacle detection unit,
Detecting a cell in which the obstacle existence probability is less than or equal to a preset first reference value and the first tracking information is less than or equal to a preset second reference value as a dynamic obstacle,
Robot's dynamic obstacle detection and deletion device.
제6항에서,
상기 장애물 존재 확률은,
상기 제1 추적 정보와 상기 제2 추적 정보를 더한 값으로 상기 제1 추적 정보를 나누어 획득되는,
로봇의 동적 장애물 검출 및 삭제 장치.
In claim 6,
The probability of the existence of the obstacle is
Obtained by dividing the first tracking information by a value obtained by adding the first tracking information and the second tracking information,
Robot's dynamic obstacle detection and deletion device.
제1항에서,
상기 추적 관리부는,
상기 로봇에 탑재된 센서로부터 상기 센서 데이터를 제공받으면, 상기 센서 데이터의 위치를 보정하고, 위치가 보정된 상기 센서 데이터를 상기 지도에 입력하고, 위치가 보정된 상기 센서 데이터를 기반으로 셀의 누적 감지 시간 정보를 업데이트하며, 위치가 보정된 상기 센서 데이터를 기반으로 셀의 추적 정보를 업데이트하는,
로봇의 동적 장애물 검출 및 삭제 장치.
In claim 1,
The tracking management unit,
Upon receiving the sensor data from the sensor mounted on the robot, the position of the sensor data is corrected, the position corrected sensor data is input to the map, and the cell is accumulated based on the corrected position of the sensor data. Updating the detection time information and updating the tracking information of the cell based on the sensor data whose position is corrected,
Robot's dynamic obstacle detection and deletion device.
제1항에서,
상기 지도의 셀의 데이터 구조는,
옥트리(Octree) 데이터 구조로 이루어지는,
로봇의 동적 장애물 검출 및 삭제 장치.
In claim 1,
The data structure of the cell of the map is,
Consists of an octree data structure,
Robot's dynamic obstacle detection and deletion device.
로봇에 탑재된 센서로부터 센서 데이터를 제공받으면, 상기 센서 데이터를 지도에 입력하고, 상기 센서 데이터를 통해 감지된 셀(cell)을 기반으로 셀의 누적 감지 시간 정보를 상기 지도의 셀별로 업데이트하며, 상기 센서 데이터로부터 획득된 레이저(laser)의 셀 통과 여부를 기반으로 셀의 추적 정보를 상기 지도의 셀별로 업데이트하는 단계;
상기 지도의 셀별 누적 감지 시간 정보와 추적 정보를 기반으로 셀이 동적 장애물인지 여부를 획득하는 단계; 및
동적 장애물로 검출된 셀에 대응되는 데이터를 상기 지도에서 삭제하는 단계;
를 포함하며,
상기 지도는,
미리 설정된 크기의 셀로 이루어지고 3차원 좌표 공간으로 이루어지는,
로봇의 동적 장애물 검출 및 삭제 장치의 동작 방법.
When sensor data is provided from a sensor mounted on the robot, the sensor data is input to the map, and accumulated detection time information of the cell is updated for each cell of the map based on the cell detected through the sensor data, updating cell tracking information for each cell of the map based on whether a laser obtained from the sensor data passes through the cell;
obtaining whether a cell is a dynamic obstacle based on the accumulated detection time information and tracking information for each cell of the map; and
deleting data corresponding to a cell detected as a dynamic obstacle from the map;
includes,
The map is
Consisting of cells of a preset size and consisting of a three-dimensional coordinate space,
The operation method of the robot's dynamic obstacle detection and deletion device.
제10항에서,
상기 추적 정보는,
레이저가 셀에 맺힌 횟수를 나타내는 제1 추적 정보 및 레이저가 셀을 통과하는 횟수를 나타내는 제2 추적 정보를 포함하며,
상기 업데이트 단계는,
상기 센서 데이터를 기반으로, 레이저가 통과하는 셀에 대해서는 셀의 제2 추적 정보를 미리 설정된 단위로 증가시키고, 레이저가 맺힌 셀에 대해서는 셀의 제1 추적 정보를 미리 설정된 단위로 증가시키는 것으로 이루어지는,
로봇의 동적 장애물 검출 및 삭제 장치의 동작 방법.
In claim 10,
The tracking information is
It includes first tracking information indicating the number of times the laser has hit the cell and second tracking information indicating the number of times the laser has passed through the cell,
The update step is
Based on the sensor data, increasing the second tracking information of the cell by a preset unit for a cell through which the laser passes, and increasing the first tracking information of the cell by a preset unit for a cell on which the laser is focused,
The operation method of the robot's dynamic obstacle detection and deletion device.
제11항에서,
상기 동적 장애물인지 여부 획득 단계는,
셀의 누적 감지 시간 정보가 미리 설정된 기준 시간 이상인 셀에 대해, 장애물 존재 확률과 상기 제1 추적 정보를 기반으로 셀이 동적 장애물인지 여부를 검출하는 것으로 이루어지며,
상기 장애물 존재 확률은,
상기 제1 추적 정보 및 상기 제2 추적 정보를 기반으로 획득되는,
로봇의 동적 장애물 검출 및 삭제 장치의 동작 방법.
In claim 11,
The step of acquiring whether the dynamic obstacle is
With respect to a cell in which the accumulated detection time information of the cell is equal to or longer than a preset reference time, detecting whether the cell is a dynamic obstacle based on the obstacle existence probability and the first tracking information,
The probability of the existence of the obstacle is
Obtained based on the first tracking information and the second tracking information,
The operation method of the robot's dynamic obstacle detection and deletion device.
제10항 내지 제12항 중 어느 한 항에 기재된 로봇의 동적 장애물 검출 및 삭제 장치의 동작 방법을 컴퓨터에서 실행시키기 위하여 컴퓨터로 읽을 수 있는 기록 매체에 저장된 컴퓨터 프로그램.
A computer program stored in a computer-readable recording medium in order to execute the operating method of the apparatus for detecting and deleting a dynamic obstacle of a robot according to any one of claims 10 to 12.
KR1020210153743A 2020-11-12 2021-11-10 Apparatus and for detecting and removing dynamic obstacle of robot and operating method thereof KR102651025B1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
PCT/KR2021/016525 WO2022103195A1 (en) 2020-11-12 2021-11-12 Robot system
EP21892362.1A EP4245474A1 (en) 2020-11-12 2021-11-12 Robot system
US18/316,167 US20240077881A1 (en) 2020-11-12 2023-05-11 Apparatus for detecting and removing dynamic obstacle for robot and operating method thereof
US18/316,145 US20240085188A1 (en) 2020-11-12 2023-05-11 Apparatus and method for localizing robot having robustness to dynamic environments
US18/316,160 US20240078774A1 (en) 2020-11-12 2023-05-11 Apparartus and method for editing 3d slam data

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200151000 2020-11-12
KR20200151000 2020-11-12

Publications (2)

Publication Number Publication Date
KR20220064913A true KR20220064913A (en) 2022-05-19
KR102651025B1 KR102651025B1 (en) 2024-03-25

Family

ID=81801079

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020210073734A KR102556355B1 (en) 2020-11-12 2021-06-07 Apparatus and method for localization of robot having robustness to dynamic environments
KR1020210073735A KR20220064884A (en) 2020-11-12 2021-06-07 Apparatus and method for editing 3D SLAM data
KR1020210153743A KR102651025B1 (en) 2020-11-12 2021-11-10 Apparatus and for detecting and removing dynamic obstacle of robot and operating method thereof

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020210073734A KR102556355B1 (en) 2020-11-12 2021-06-07 Apparatus and method for localization of robot having robustness to dynamic environments
KR1020210073735A KR20220064884A (en) 2020-11-12 2021-06-07 Apparatus and method for editing 3D SLAM data

Country Status (1)

Country Link
KR (3) KR102556355B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102517351B1 (en) 2022-08-19 2023-04-03 주식회사 트위니 Transport robot capable of discriminating temporary obstacle and temporary obstacle removal method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117804423A (en) * 2022-09-26 2024-04-02 华为云计算技术有限公司 Repositioning method and device
CN115979248B (en) * 2023-03-17 2023-08-18 上海仙工智能科技有限公司 Map updating method and system based on positioning pose as constraint and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120043096A (en) * 2009-08-31 2012-05-03 니토 로보틱스 인코퍼레이티드 Method and apparatus for simultaneous localization and mapping of mobile robot environment
KR20200119394A (en) * 2019-03-27 2020-10-20 엘지전자 주식회사 Moving robot and control method thereof

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101941852B1 (en) * 2017-04-05 2019-01-24 충북대학교 산학협력단 Keyframe extraction method for graph-slam and apparatus using thereof
KR102296908B1 (en) * 2019-03-19 2021-09-02 한국전자통신연구원 Method for managing a feature map and apparatus for the same
WO2020251100A1 (en) * 2019-06-14 2020-12-17 엘지전자 주식회사 Method for updating map in fusion slam and robot implementing same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120043096A (en) * 2009-08-31 2012-05-03 니토 로보틱스 인코퍼레이티드 Method and apparatus for simultaneous localization and mapping of mobile robot environment
KR20200119394A (en) * 2019-03-27 2020-10-20 엘지전자 주식회사 Moving robot and control method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102517351B1 (en) 2022-08-19 2023-04-03 주식회사 트위니 Transport robot capable of discriminating temporary obstacle and temporary obstacle removal method

Also Published As

Publication number Publication date
KR20220064883A (en) 2022-05-19
KR102651025B1 (en) 2024-03-25
KR102556355B1 (en) 2023-07-17
KR20220064884A (en) 2022-05-19

Similar Documents

Publication Publication Date Title
KR102651025B1 (en) Apparatus and for detecting and removing dynamic obstacle of robot and operating method thereof
US10031231B2 (en) Lidar object detection system for automated vehicles
AU2018326401C1 (en) Method and system for use in performing localisation
CN111427979B (en) Dynamic map construction method, system and medium based on laser radar
JP5560794B2 (en) Control device, control method and program
JP6455113B2 (en) Object tracking method and apparatus
CN112526993B (en) Grid map updating method, device, robot and storage medium
JP6295122B2 (en) State estimation device, program, and integrated circuit
JP2019500691A (en) Action plan of fast search randomized feedback subject
Lázaro et al. Efficient long-term mapping in dynamic environments
Zhang et al. Entropy based feature selection scheme for real time simultaneous localization and map building
Bellotto et al. Vision and laser data fusion for tracking people with a mobile robot
Nobre et al. Online probabilistic change detection in feature-based maps
Faghmous et al. Multiple hypothesis object tracking for unsupervised self-learning: An ocean eddy tracking application
Taylor et al. Regroup: A robot-centric group detection and tracking system
EP3913527A1 (en) Method and device for performing behavior prediction by using explainable self-focused attention
CN112418316B (en) Robot repositioning method and device, laser robot and readable storage medium
JP2010152787A (en) Environment map creation program, environment map creation method, and mobile robot
AU2022330049A1 (en) Navigation method and self-propelled apparatus
Dames et al. Playing fetch with your Robot: The ability of Robots to locate and interact with objects
Herath et al. A two-tier map representation for compact-stereo-vision-based SLAM
Hoffmann et al. Further studies on the use of negative information in mobile robot localization
WO2020117358A9 (en) Systems and methods for operating robots using object-oriented partially observable markov decision processes
KR102344005B1 (en) High performance target tracking device using super resolution convolutional neural network
CN118037845A (en) Repositioning method and device and electronic equipment

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant