KR20240023008A - Moving robot, method and program for outputting estimated position data in space of moving robot using position tracking model - Google Patents

Moving robot, method and program for outputting estimated position data in space of moving robot using position tracking model Download PDF

Info

Publication number
KR20240023008A
KR20240023008A KR1020230111909A KR20230111909A KR20240023008A KR 20240023008 A KR20240023008 A KR 20240023008A KR 1020230111909 A KR1020230111909 A KR 1020230111909A KR 20230111909 A KR20230111909 A KR 20230111909A KR 20240023008 A KR20240023008 A KR 20240023008A
Authority
KR
South Korea
Prior art keywords
data
space
point
image
processor
Prior art date
Application number
KR1020230111909A
Other languages
Korean (ko)
Inventor
최지훈
Original Assignee
주식회사 클로봇
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 클로봇 filed Critical 주식회사 클로봇
Priority to KR1020230111909A priority Critical patent/KR20240023008A/en
Publication of KR20240023008A publication Critical patent/KR20240023008A/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1415Saving, restoring, recovering or retrying at system level
    • G06F11/1438Restarting or rejuvenating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3051Monitoring arrangements for monitoring the configuration of the computing system or of the computing system component, e.g. monitoring the presence of processing resources, peripherals, I/O links, software programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 개시는 인공 지능 기반의 무인 이동체의 공간 내 위치를 찾는 방법에 있어서, 무인 이동체의 비정상적인 재부팅의 발생 여부를 감지하는 단계; 감지된 결과를 기반으로 비정상적인 재부팅이 발생된 경우, 도킹 스테이션의 충전 신호가 수신된 것인지를 판단하는 단계; 충전 신호가 미수신이면, 공간 내 위치를 찾는 키드냅 리커버리(kidnap recovery) 모드를 수행하는 단계; 무인 이동체가 공간 내 위치를 찾도록, 기 설정된 제1 지점에서 제2 지점까지 기 설정된 지그재그 패턴의 주행으로 영상 데이터와 라이다 데이터를 추론 모델을 만들기 위하여 수집하는 단계; 수집된 영상 데이터를 영상 추출 모델에 입력하여 영상 내의 공간 데이터를 추출하는 단계; 및 영상 내의 공간 데이터 및 라이다 데이터를 위치 추적 모델에 입력하여 무인 이동체의 공간 내 예상 위치 데이터를 출력하는 단계; 를 포함할 수 있다.The present disclosure provides an artificial intelligence-based method for locating an unmanned vehicle in space, comprising: detecting whether an abnormal reboot of the unmanned vehicle has occurred; If an abnormal reboot occurs based on the detected result, determining whether a charging signal from the docking station has been received; If the charging signal is not received, performing a kidney recovery mode to find a location in space; Collecting image data and LIDAR data to create an inference model by driving in a preset zigzag pattern from a preset first point to a second point so that the unmanned vehicle can find its position in space; Inputting the collected image data into an image extraction model to extract spatial data within the image; and inputting spatial data and lidar data in the image into a position tracking model to output expected position data in space of the unmanned moving object; may include.

Description

이동 로봇, 위치 추적 모델을 활용한 이동 로봇의 공간 내 예상 위치 데이터 출력 방법 및 프로그램{MOVING ROBOT, METHOD AND PROGRAM FOR OUTPUTTING ESTIMATED POSITION DATA IN SPACE OF MOVING ROBOT USING POSITION TRACKING MODEL}Mobile robot, method and program to output expected position data in space of a mobile robot using a position tracking model {MOVING ROBOT, METHOD AND PROGRAM FOR OUTPUTTING ESTIMATED POSITION DATA IN SPACE OF MOVING ROBOT USING POSITION TRACKING MODEL}

본 개시는 이동 로봇에 관한 것이다. 보다 상세하게는, 본 개시는 위치 추적 모델을 활용한 이동 로봇의 공간 내 예상 위치 데이터 출력 방법 및 프로그램에 관한 것이다.This disclosure relates to mobile robots. More specifically, the present disclosure relates to a method and program for outputting expected position data in space of a mobile robot using a position tracking model.

4차 산업혁명 시대를 맞이하여 병원, 공항, mall 등 다양한 공간에서 서비스 무인 이동체의 도입이 증가하는 추세이다.In the era of the 4th Industrial Revolution, the introduction of unmanned service vehicles is increasing in various spaces such as hospitals, airports, and malls.

종래, 무인 이동체는 자율 주행으로 이동하다가 전원이 부족하거나, 시스템 오류 등으로 인해 전원을 재부팅하는 경우가 존재한다.Conventionally, unmanned vehicles may be rebooted due to lack of power or system errors while moving autonomously.

이때, 무인 이동체의 전원이 꺼지고, 다시 무인 이동체의 전원이 켜지면, 무인 이동체는 자신의 공간 내 현재 위치가 어디인지 파악하는데에 어려움이 있었다.At this time, when the unmanned vehicle was turned off and the power was turned on again, the unmanned vehicle had difficulty determining where its current location was in space.

따라서, 최근에는 비정상적인 재부팅이 발생된 경우에도, 자신의 공간 내 현재 위치를 빠르고 정확하게 찾을 수 있는 무인 이동체의 연구가 지속적으로 행해져 오고 있다.Therefore, in recent years, research on unmanned vehicles that can quickly and accurately find their current location in space has been continuously conducted even when an abnormal reboot occurs.

대한민국 공개특허공보 제10-2014-0141265호(2014.12.10)Republic of Korea Patent Publication No. 10-2014-0141265 (December 10, 2014)

본 개시에 개시된 실시예는, 자신의 공간 내 현재 위치를 빠르고 정확하게 찾을 수 있는 것을 제공하는데 그 목적이 있다.The purpose of the embodiments disclosed in this disclosure is to provide a way to quickly and accurately find one's current location in space.

본 개시가 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present disclosure are not limited to the problems mentioned above, and other problems not mentioned can be clearly understood by those skilled in the art from the description below.

상술한 기술적 과제를 달성하기 위한 본 개시의 일 측면에 따른 인공 지능 기반의 무인 이동체의 공간 내 위치를 찾는 방법은, 인공 지능 기반의 무인 이동체의 공간 내 위치를 찾는 방법에 있어서, 상기 무인 이동체의 비정상적인 재부팅의 발생 여부를 감지하는 단계; 상기 감지된 결과를 기반으로 상기 비정상적인 재부팅이 발생된 경우, 도킹 스테이션의 충전 신호가 수신된 것인지를 판단하는 단계; 상기 충전 신호가 미수신이면, 공간 내 위치를 찾는 키드냅 리커버리(kidnap recovery) 모드를 수행하는 단계; 상기 무인 이동체가 상기 공간 내 위치를 찾도록, 기 설정된 제1 지점에서 제2 지점까지 기 설정된 지그재그 패턴의 주행으로 영상 데이터와 라이다 데이터를 추론 모델을 만들기 위하여 수집하는 단계; 상기 수집된 영상 데이터를 영상 추출 모델에 입력하여 영상 내의 공간 데이터를 추출하는 단계; 및 상기 영상 내의 공간 데이터 및 상기 라이다 데이터를 위치 추적 모델에 입력하여 상기 무인 이동체의 공간 내 예상 위치 데이터를 출력하는 단계; 를 포함할 수 있다.A method of finding a position in space of an artificial intelligence-based unmanned mobile object according to an aspect of the present disclosure for achieving the above-described technical problem includes: detecting whether an abnormal reboot has occurred; If the abnormal reboot occurs based on the detected result, determining whether a charging signal from the docking station has been received; If the charging signal is not received, performing a kidnap recovery mode to find a location in space; Collecting image data and LIDAR data to create an inference model by driving in a preset zigzag pattern from a preset first point to a second point so that the unmanned mobile device finds its position in the space; extracting spatial data within the image by inputting the collected image data into an image extraction model; and inputting the spatial data in the image and the LIDAR data into a position tracking model to output expected position data in space of the unmanned moving object. may include.

또한, 상기 수집 단계는, 상기 제1 지점 및 상기 제2 지점 내의 복수의 지점마다 360도 회전하여 회전 각도 별 단위 개수의 영상 데이터와 라이다 데이터를 더 수집하는 것을 특징으로 할 수 있다.In addition, the collection step may be characterized by rotating 360 degrees at each of the plurality of points within the first point and the second point to further collect a unit number of image data and LIDAR data for each rotation angle.

또한, 상기 예상 위치 데이터는, 상기 무인 이동체의 위치 좌표, 상기 무인 이동체가 전방과 측방 및 후방 중 적어도 하나를 바라보는 회전각을 포함할 수 있다.Additionally, the expected position data may include the position coordinates of the unmanned mobile device and a rotation angle at which the unmanned mobile device faces at least one of front, side, and rear.

또한, 상기 출력 단계는, 상기 예상 위치 데이터를 군집간 클러스터링(Clustering)하고, 상기 클러스터링된 군집 중 예상 위치 데이터의 개수가 기 설정된 개수보다 많은 군집을 선택하며, 상기 클러스터링된 군집 중 동일한 개수의 군집이 있으면, 분산이 낮은 군집을 선택하는 것을 특징으로 할 수 있다.In addition, in the output step, clustering the expected location data between clusters, selecting a cluster in which the number of expected location data is greater than a preset number among the clustered clusters, and selecting the same number of clusters among the clustered clusters. If there is, it can be characterized by selecting a cluster with low variance.

또한, 상기 출력 단계는, 상기 예상 위치 데이터가 기 설정된 오차값을 벗어나면, 상기 라이다 데이터를 ICP(Iterative Closet Point) 알고리즘에 입력하여, 보정된 예상 위치 데이터를 더 출력하는 것을 특징으로 할 수 있다.In addition, the output step may be characterized in that, if the expected position data deviates from a preset error value, the LIDAR data is input to an Iterative Closet Point (ICP) algorithm to further output the corrected expected position data. there is.

또한, 본 개시의 다른 측면에 따른 무인 이동체는, 도킹 스테이션과 통신하는 통신부; 및 공간 내 위치를 찾는 동작을 제어하는 프로세서를 포함하고, 상기 프로세서는, 비정상적인 재부팅의 발생 여부를 감지하며, 상기 감지된 결과를 기반으로 상기 비정상적인 재부팅이 발생된 경우, 상기 통신부를 통해 상기 도킹 스테이션의 충전 신호가 수신된 것인지를 판단하고, 상기 충전 신호가 미수신이면, 상기 공간 내 위치를 찾는 키드냅 리커버리(kidnap recovery) 모드를 수행하며, 상기 공간 내 위치를 찾도록, 기 설정된 제1 지점에서 제2 지점까지 기 설정된 지그재그 패턴의 주행으로 영상 데이터와 라이다 데이터를 추론 모델을 만들기 위하여 수집하고, 상기 수집된 영상 데이터를 영상 추출 모델에 입력하여 영상 내의 공간 데이터를 추출하며, 상기 영상 내의 공간 데이터 및 상기 라이다 데이터를 위치 추적 모델에 입력하여 상기 공간 내 예상 위치 데이터를 출력하는 것을 특징으로 할 수 있다.Additionally, an unmanned mobile device according to another aspect of the present disclosure includes a communication unit that communicates with a docking station; and a processor that controls an operation to find a location in space, wherein the processor detects whether an abnormal reboot occurs, and when the abnormal reboot occurs based on the detected result, the docking station is connected to the docking station through the communication unit. Determine whether the charging signal has been received, and if the charging signal is not received, perform a kidney recovery mode to find the location in the space, and find the location in the space at a preset first point. By driving in a preset zigzag pattern to a second point, image data and LiDAR data are collected to create an inference model, the collected image data is input into an image extraction model to extract spatial data within the image, and the space within the image is extracted. Data and the lidar data may be input into a location tracking model to output expected location data within the space.

또한, 상기 프로세서는, 상기 제1 지점 및 상기 제2 지점 내의 복수의 지점마다 360도 회전하여 회전 각도 별 단위 개수의 영상 데이터와 라이다 데이터를 더 수집하는 것을 특징으로 할 수 있다.In addition, the processor may rotate 360 degrees at each of a plurality of points within the first point and the second point to further collect a unit number of image data and lidar data for each rotation angle.

또한, 상기 프로세서는, 상기 예상 위치 데이터를 군집간 클러스터링(Clustering)하고, 상기 클러스터링된 군집 중 예상 위치 데이터의 개수가 기 설정된 개수보다 많은 군집을 선택하며, 상기 클러스터링된 군집 중 동일한 개수의 군집이 있으면, 분산이 낮은 군집을 선택하는 것을 특징으로 할 수 있다.In addition, the processor clusters the expected location data between clusters, selects a cluster in which the number of expected location data is greater than a preset number among the clustered clusters, and selects a cluster with the same number of clusters among the clustered clusters. If so, it can be characterized by selecting clusters with low variance.

또한, 상기 프로세서는, 상기 예상 위치 데이터가 기 설정된 오차값을 벗어나면, 상기 라이다 데이터를 ICP(Iterative Closet Point) 알고리즘에 입력하여, 보정된 예상 위치 데이터를 더 출력하는 것을 특징으로 할 수 있다.In addition, the processor may input the LIDAR data into an Iterative Closet Point (ICP) algorithm if the expected position data deviates from a preset error value, and further output corrected expected position data. .

이 외에도, 본 개시를 구현하기 위한 실행하기 위한 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램이 더 제공될 수 있다.In addition to this, a computer program stored in a computer-readable recording medium for execution to implement the present disclosure may be further provided.

이 외에도, 본 개시를 구현하기 위한 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.In addition, a computer-readable recording medium recording a computer program for executing a method for implementing the present disclosure may be further provided.

본 개시의 전술한 과제 해결 수단에 의하면, 자신의 공간 내 현재 위치를 빠르고 정확하게 찾을 수 있다.According to the means for solving the above-described problem of the present disclosure, one can quickly and accurately find one's current location in space.

본 개시의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned may be clearly understood by those skilled in the art from the description below.

도 1은 본 개시에 따른 무인 이동체의 구성을 나타낸 도면이다.
도 2는 도 1의 메모리에 저장된 공간 상의 지도 정보를 일 예로 나타낸 도면이다.
도 3 내지 도 5는 본 개시에 따른 무인 이동체의 공간 내 위치를 찾는 방법을 나타낸 순서도이다.
도 6은 도 1의 프로세서를 통해 무인 이동체가 공간 내 위치를 찾는 과정을 일 예로 나타낸 도면이다.
도 7은 도 1의 메모리에 예상 위치 데이터와 보정된 예상 위치 데이터를 저장하는 과정을 일 예로 나타낸 도면이다.
도 8은 도 1의 프로세서를 통해 예상 위치 데이터를 군집간 클러스터링하고, 최적의 군집을 선택하는 과정을 일 예로 나타낸 도면이다.
1 is a diagram showing the configuration of an unmanned mobile vehicle according to the present disclosure.
FIG. 2 is a diagram illustrating map information on a space stored in the memory of FIG. 1 as an example.
3 to 5 are flowcharts showing a method for finding the location of an unmanned moving object in space according to the present disclosure.
FIG. 6 is a diagram illustrating an example of a process in which an unmanned mobile device finds a position in space through the processor of FIG. 1.
FIG. 7 is a diagram showing an example of a process for storing expected position data and corrected expected position data in the memory of FIG. 1 .
FIG. 8 is a diagram illustrating an example of the process of clustering expected location data between clusters and selecting the optimal cluster using the processor of FIG. 1.

본 개시 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 개시가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 개시가 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는‘부, 모듈, 부재, 블록’이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.Like reference numerals refer to like elements throughout this disclosure. The present disclosure does not describe all elements of the embodiments, and general content or overlapping content between the embodiments in the technical field to which the present disclosure pertains is omitted. The term 'part, module, member, block' used in the specification may be implemented as software or hardware, and depending on the embodiment, a plurality of 'part, module, member, block' may be implemented as a single component, or It is also possible for one 'part, module, member, or block' to include multiple components.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.Throughout the specification, when a part is said to be “connected” to another part, this includes not only direct connection but also indirect connection, and indirect connection includes connection through a wireless communication network. do.

또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Additionally, when a part "includes" a certain component, this means that it may further include other components rather than excluding other components, unless specifically stated to the contrary.

명세서 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout the specification, when a member is said to be located “on” another member, this includes not only cases where a member is in contact with another member, but also cases where another member exists between the two members.

제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.Terms such as first and second are used to distinguish one component from another component, and the components are not limited by the above-mentioned terms.

단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly makes an exception.

각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.The identification code for each step is used for convenience of explanation. The identification code does not explain the order of each step, and each step may be performed differently from the specified order unless a specific order is clearly stated in the context. there is.

이하 첨부된 도면들을 참고하여 본 개시의 작용 원리 및 실시예들에 대해 설명한다.Hereinafter, the operating principle and embodiments of the present disclosure will be described with reference to the attached drawings.

본 명세서에서 본 개시에 따른 무인 이동체의 제어부는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 본 개시에 따른 제어부는, 컴퓨터, 서버를 모두 포함하거나, 또는 어느 하나의 형태가 될 수 있다.In this specification, the control unit of the unmanned mobile device according to the present disclosure includes various devices that can perform calculation processing and provide results to the user. For example, the control unit according to the present disclosure may include both a computer and a server, or may take any form.

여기에서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), 태블릿 PC, 슬레이트 PC, 싱글보드 컴퓨터 등을 포함할 수 있다.Here, the computer may include, for example, a laptop equipped with a web browser, a desktop, a laptop, a tablet PC, a slate PC, a single board computer, etc.

서버 장치는 외부 장치와 통신을 수행하여 정보를 처리하는 서버로써, 애플리케이션 서버, 컴퓨팅 서버, 데이터베이스 서버, 파일 서버, 메일 서버, 프록시 서버 및 웹 서버 등을 포함할 수 있다.A server device is a server that processes information by communicating with external devices and may include an application server, computing server, database server, file server, mail server, proxy server, and web server.

휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), WiBro(Wireless Broadband Internet) 단말, 스마트 폰(Smart Phone) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치와 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD) 등과 같은 웨어러블 장치를 포함할 수 있다.Portable terminals are, for example, wireless communication devices that ensure portability and mobility, such as PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), and PDA ( Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), WiBro (Wireless Broadband Internet) terminal, smart phone All types of handheld wireless communication devices, such as watches, rings, bracelets, anklets, necklaces, glasses, contact lenses, or head-mounted-device (HMD), etc. It can be included.

본 개시에 따른 무인 이동체는 무인 이동체의 비정상적인 재부팅의 발생 여부를 감지하고, 감지된 결과를 기반으로 비정상적인 재부팅이 발생된 경우, 도킹 스테이션의 충전 신호가 수신된 것인지를 판단하며, 충전 신호가 미수신이면, 공간 내 위치를 찾는 키드냅 리커버리(kidnap recovery) 모드를 수행하고, 무인 이동체가 공간 내 위치를 찾도록, 기 설정된 제1 지점에서 제2 지점까지 기 설정된 지그재그 패턴의 주행으로 영상 데이터와 라이다 데이터를 수집하며, 수집된 영상 데이터를 영상 추출 모델에 입력하여 영상 내의 공간 데이터를 추출하고, 영상 내의 공간 데이터 및 라이다 데이터를 위치 추적 모델에 입력하여 무인 이동체의 공간 내 예상 위치 데이터를 출력하도록 제공될 수 있다.The unmanned vehicle according to the present disclosure detects whether an abnormal reboot of the unmanned vehicle has occurred, and if an abnormal reboot occurs based on the detected result, determines whether the charging signal from the docking station has been received, and if the charging signal is not received, , perform a kidnap recovery mode to find the position in space, and run in a preset zigzag pattern from a preset first point to a second point so that the unmanned vehicle finds the position in space, using image data and LIDAR. Collect data, input the collected video data into the image extraction model to extract spatial data within the video, and input the spatial data and lidar data within the video into the location tracking model to output expected position data in space of the unmanned moving object. can be provided.

이러한, 무인 이동체는 자신의 공간 내 현재 위치를 빠르고 정확하게 찾을 수 있다.These unmanned vehicles can quickly and accurately find their current location in space.

무인 이동체가 목적지를 이동하기 위해서는, 현재 자신이 어디에 있는지 알아야 목적지로 이동할 수 있다. 라이다 기반으로 위치를 추정하는 기법인 MCL은 격자 지도에서 시작점을 알아야 무인 이동체가 얼마만큼 움직였을 때 어디에 있는지를 추정할 수 있다. 즉, 무인 이동체는 시작점을 알아야 그 이후부터 쉽게 공간 상의 위치를 추정할 수 있다. 이러한 이유로 무인 이동체는 도킹 스테이션을 시작점으로 설정할 수 있다.In order for an unmanned vehicle to move to a destination, it must know where it currently is before it can move to the destination. MCL, a LiDAR-based location estimation technique, requires the starting point on a grid map to estimate where the unmanned vehicle is when it has moved. In other words, the unmanned vehicle must know the starting point so that it can easily estimate its position in space from then on. For this reason, the unmanned vehicle can set the docking station as the starting point.

그런데, 무인 이동체는 도킹 스테이션이 아닌 곳에서 전원이 부족하여 꺼지거나, 시스템 오류 등으로 전원을 재부팅하는 경우가 존재할 수 있다. 이때, 도킹 스테이션의 충전 신호로 무인 이동체는 도킹 스테이션의 앞에 있는지를 확인할 수 있다. 만약, 충전 신호가 들어온다면 무인 이동체는 도킹 스테이션의 앞에 존재하며, 무인 이동체는 현재 시작점에 있다라는 것을 알 수 있다. 반대로, 충전 신호가 없다면 무인 이동체는 도킹 스테이션의 앞에 없고, 현재 자신이 시작점과 다른 위치에 있는 것으로 판단할 수도 있다.However, there may be cases where the unmanned mobile device is turned off due to lack of power in a place other than the docking station, or is rebooted due to a system error, etc. At this time, it is possible to check whether the unmanned mobile object is in front of the docking station using the docking station's charging signal. If a charging signal is received, it can be seen that the unmanned vehicle exists in front of the docking station and that the unmanned vehicle is currently at the starting point. Conversely, if there is no charging signal, the unmanned vehicle is not in front of the docking station and may determine that it is currently in a different location from the starting point.

또한, 무인 이동체가 자신의 위치를 성공적으로 추정하는 도중에 누군가에 의해 로봇이 옮겨지는 경우가 발생할 수 있다. 무인 이동체는 자신의 위치가 바뀌었다는 것을 모르기 때문에 옮겨지기 이전의 위치로부터 계속적으로 자신의 위치를 추정할 수밖에 없다. 이러한 문제를 kidnapped robot problem이라고 한다. 이러한 문제가 어려운 이유는, 무인 이동체가 스스로 위치 인식에 실패했다는 것을 알기가 쉽지 않기 때문이다. 따라서, 무인 이동체의 위치 인식이 성공적으로 수행되고 있는지 또는 kidnap 되었는지의 여부를 판단할 수 있는 위치 인식 성능 척도(quality measure)가 필요하다.Additionally, there may be cases where the robot is moved by someone while the unmanned vehicle is successfully estimating its location. Since the unmanned vehicle does not know that its position has changed, it has no choice but to continuously estimate its position from the position before it was moved. This problem is called the kidnapped robot problem. The reason this problem is difficult is because it is not easy to know that an unmanned vehicle has failed to recognize its own location. Therefore, a location recognition performance measure (quality measure) is needed that can determine whether location recognition of an unmanned vehicle is being successfully performed or has been kidnapped.

이하에서는, 무인 이동체를 자세하게 살펴보기로 한다.Below, we will look at the unmanned mobile device in detail.

도 1은 본 개시에 따른 무인 이동체의 구성을 나타낸 도면이다. 도 2는 도 1의 메모리에 저장된 공간 상의 지도 정보를 일 예로 나타낸 도면이다.1 is a diagram showing the configuration of an unmanned mobile vehicle according to the present disclosure. FIG. 2 is a diagram illustrating map information on a space stored in the memory of FIG. 1 as an example.

도 1을 참조하면, 무인 이동체(100)는 사람의 도움없이 스스로 외부 환경을 인식해 상황을 판단하고 임무를 수행하는 이동체일 수 있다. 예를 들어, 무인 이동체(100)는 이동 로봇일 수 있다. 무인 이동체(100)는 통신부(110), 제어부(120), 구동부(130)를 포함할 수 있다.Referring to FIG. 1, the unmanned mobile vehicle 100 may be a mobile vehicle that recognizes the external environment, judges the situation, and performs a mission on its own without human assistance. For example, the unmanned mobile object 100 may be a mobile robot. The unmanned mobile device 100 may include a communication unit 110, a control unit 120, and a driving unit 130.

통신부(110)는 제어부(120)와 전기적으로 연결될 수 있고, 충전을 위한 도킹 스테이션(10)과 통신을 수행할 수 있다. 통신부(110)는 도킹 스테이션(10)의 충전 신호를 수신받을 수 있다. 이때, 통신부(110)는 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution), 4G, 5G, 6G 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.The communication unit 110 may be electrically connected to the control unit 120 and may communicate with the docking station 10 for charging. The communication unit 110 may receive a charging signal from the docking station 10. At this time, the communication unit 110 includes global system for mobile communication (GSM), code division multiple access (CDMA), wideband code division multiple access (WCDMA), and universal wireless communication (UMTS) modules, in addition to the Wi-Fi module and the wireless broadband module. It may include a wireless communication module that supports various wireless communication methods, such as mobile telecommunications system), Time Division Multiple Access (TDMA), Long Term Evolution (LTE), 4G, 5G, and 6G.

제어부(120)는 본 장치 내의 구성요소들의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 메모리(121), 및 메모리(121)에 저장된 데이터를 이용하여 전술한 동작을 수행하는 적어도 하나의 프로세서(122)로 구현될 수 있다. 여기에서, 메모리(121)와 프로세서(122)는 각각 별개의 칩으로 구현될 수 있다. 또한, 메모리(121)와 프로세서(122)는 단일 칩으로 구현될 수도 있다.The control unit 120 performs the above-described operations using a memory 121 that stores data for an algorithm for controlling the operation of components in the device or a program that reproduces the algorithm, and the data stored in the memory 121. It may be implemented with at least one processor 122. Here, the memory 121 and the processor 122 may each be implemented as separate chips. Additionally, the memory 121 and processor 122 may be implemented as a single chip.

메모리(121)는 본 장치의 다양한 기능을 지원하는 데이터와, 제어부의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들을 저장할 있고, 본 장치에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 본 장치의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다.The memory 121 can store data supporting various functions of the device and a program for the operation of the control unit, can store input/output data, and can store a plurality of application programs (application programs or applications) running on the device. (application)), data and commands for operation of the device can be stored. At least some of these applications may be downloaded from an external server via wireless communication.

이러한, 메모리(121)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리(211)는 본 장치와는 분리되어 있으나, 유선 또는 무선으로 연결된 데이터베이스가 될 수도 있다.The memory 121 may be a flash memory type, a hard disk type, a solid state disk type, an SDD type (Silicon Disk Drive type), or a multimedia card micro type. micro type), card type memory (e.g. SD or XD memory, etc.), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), EEPROM (electrically erasable) It may include at least one type of storage medium among programmable read-only memory (PROM), programmable read-only memory (PROM), magnetic memory, magnetic disk, and optical disk. Additionally, the memory 211 is separate from the device, but may be a database connected by wire or wirelessly.

메모리(121)는 도착지 별로 전역 경로가 저장되어 있을 수 있다. 도착지 별 전역 경로는 병원, 공항, mall 등과 같은 공간에서 무인 이동체(100)가 특정 목적지까지 도착하기 위한 경로일 수 있다.The memory 121 may store global routes for each destination. The global route for each destination may be a route for the unmanned mobile device 100 to arrive at a specific destination in a space such as a hospital, airport, mall, etc.

메모리(121)는 지도 정보(A)가 저장되어 있을 수 있다. 이때, 도 2에 도시된 바와 같이, 지도 정보(A)는 격자 지도일 수 있다. 격자 지도는 무인 이동체(100)의 센싱을 통해 또는 사전에 여러가지 SLAM(Simutaneous Localization And Mapping) 기법을 이용하여 2D 또는 3D 자율 주행을 위한 형태로 생성될 수 있다. 예를 들어, 격자 지도는 png, pgm 등의 이미지 파일의 형태의 2D 지도로 생성되거나, 3축 공간 정보가 포함된 포인트 클라우드 데이터(Poing cloud data) 등을 통해 3D 지도로 생성될 수 있다. 이때, 지도 정보(A)의 제1 지점(B)은 공간 내 위치를 찾기 위한 시작점일 수 있고, 제2 지점(C)은 공간 내 위치를 찾기 위한 끝지점일 수 있다. The memory 121 may store map information (A). At this time, as shown in FIG. 2, the map information (A) may be a grid map. The grid map can be created in a form for 2D or 3D autonomous driving through sensing of the unmanned vehicle 100 or by using various SLAM (Simutaneous Localization And Mapping) techniques in advance. For example, a grid map can be created as a 2D map in the form of image files such as png or pgm, or as a 3D map through point cloud data containing 3-axis spatial information. At this time, the first point (B) of the map information (A) may be a starting point for finding a location in space, and the second point (C) may be an end point for finding a location in space.

프로세서(122)는 공간 내 위치를 찾는 동작을 제어할 수 있다.The processor 122 may control the operation of finding a location in space.

프로세서(122)는 비정상적인 재부팅의 발생 여부를 감지할 수 있다. 프로세서(122)는 감지된 결과를 기반으로 비정상적인 재부팅이 발생된 경우, 통신부(150)를 통해 도킹 스테이션(10)의 충전 신호가 수신된 것인지를 판단할 수 있다.The processor 122 may detect whether an abnormal reboot has occurred. If an abnormal reboot occurs based on the detected result, the processor 122 may determine whether a charging signal from the docking station 10 has been received through the communication unit 150.

프로세서(122)는 충전 신호가 미수신이면, 공간 내 위치를 찾는 키드냅 리커버리(kidnap recovery) 모드를 수행할 수 있다. 프로세서(122)는 공간 내 위치를 찾기 위해, 기 설정된 제1 지점에서 제2 지점까지 기 설정된 지그재그 패턴의 주행으로 지도 정보 기반의 영상 데이터와 라이다 데이터를 추론 모델을 만들기 위하여 수집할 수 있다. 이때, 프로세서(122)는 제1 지점 및 제2 지점 내의 복수의 지점마다 360도 회전하여 회전 각도 별 단위 개수의 영상 데이터와 라이다 데이터를 더 수집할 수 있다.If the charging signal is not received, the processor 122 may perform a kidney recovery mode to find a location in space. In order to find a location in space, the processor 122 may collect map information-based image data and LIDAR data to create an inference model by driving in a preset zigzag pattern from a preset first point to a second point. At this time, the processor 122 may rotate 360 degrees at each of the plurality of points within the first point and the second point to further collect a unit number of image data and LIDAR data for each rotation angle.

프로세서(122)는 수집된 영상 데이터를 영상 추출 모델에 입력하여 영상 내의 공간 데이터를 추출할 수 있다. 프로세서(122)는 영상 내의 공간 데이터 및 라이다 데이터를 위치 추적 모델에 입력하여 무인 이동체의 공간 내 예상 위치 데이터를 출력할 수 있다. 여기에서, 공간 데이터는 특징 데이터일 수 있다. 이때, 프로세서(122)는 예상 위치 데이터를 군집간 클러스터링(Clustering)하고, 클러스터링된 군집 중 예상 위치 데이터의 개수가 기 설정된 개수보다 많은 군집을 선택하며, 클러스터링된 군집 중 동일한 개수의 군집이 있으면, 분산이 낮은 군집을 선택할 수 있다. 또한, 프로세서(122)는 예상 위치 데이터가 기 설정된 오차값을 벗어나면, 라이다 데이터를 ICP(Iterative Closet Point) 알고리즘에 입력하여, 보정된 예상 위치 데이터를 더 출력할 수 있다.The processor 122 may extract spatial data within the image by inputting the collected image data into an image extraction model. The processor 122 may input spatial data and LIDAR data in the image into a position tracking model and output expected position data in space of the unmanned moving object. Here, spatial data may be feature data. At this time, the processor 122 clusters the expected location data between clusters, selects a cluster among the clustered clusters in which the number of expected location data is greater than a preset number, and if there are the same number of clusters among the clustered clusters, Clusters with low variance can be selected. Additionally, if the expected position data deviates from a preset error value, the processor 122 may input the LiDAR data into an Iterative Closet Point (ICP) algorithm and further output corrected expected position data.

구동부(130)는 프로세서(122)를 통해 출력되는 지그재그 패턴 주행, 360도 회전 주행 등을 포함하는 주행 정보를 기반으로, 공간 내의 위치를 찾기 위해 제1 지점에서 제2 지점까지 주행하도록 무인 이동체(100)를 구동할 수 있다. 예를 들어, 구동부(130)는 무인 이동체(100)의 주행에 필요한 동력을 제공하기 위해, 배터리 및 배터리로부터 전원을 공급받는 전자적인 부품, 배터리 및 배터리로부터 전원을 공급받아 구동하는 바퀴 또는 구동벨트 등의 기계적인 구동 부품을 포함할 수 있다.The driving unit 130 drives an unmanned moving object (unmanned moving object) to travel from a first point to a second point in order to find a position in space based on driving information including zigzag pattern driving, 360-degree rotation driving, etc. output through the processor 122. 100) can be operated. For example, the driving unit 130 includes a battery, an electronic component that receives power from the battery, a wheel or a drive belt that receives power from the battery and drives the unmanned vehicle 100 in order to provide power necessary for driving the unmanned vehicle 100. It may include mechanical driving parts such as.

도 3 내지 도 5는 본 개시에 따른 무인 이동체의 공간 내 위치를 찾는 방법을 나타낸 순서도이다. 도 6은 도 1의 프로세서를 통해 무인 이동체가 공간 내 위치를 찾는 과정을 일 예로 나타낸 도면이다.3 to 5 are flowcharts showing a method for finding the location of an unmanned moving object in space according to the present disclosure. FIG. 6 is a diagram illustrating an example of a process in which an unmanned mobile device finds a position in space through the processor of FIG. 1.

도 7은 도 1의 메모리에 예상 위치 데이터와 보정된 예상 위치 데이터를 저장하는 과정을 일 예로 나타낸 도면이다. 도 8은 도 1의 프로세서를 통해 예상 위치 데이터를 군집간 클러스터링하고, 최적의 군집을 선택하는 과정을 일 예로 나타낸 도면이다.FIG. 7 is a diagram showing an example of a process for storing expected position data and corrected expected position data in the memory of FIG. 1 . FIG. 8 is a diagram illustrating an example of the process of clustering expected location data between clusters and selecting the optimal cluster using the processor of FIG. 1.

도 3 내지 도 8을 참조하면, 무인 이동체의 공간 내 위치를 찾는 방법은, 감지 단계(S310), 판단 단계(S320), 모드 수행 단계(S330), 수집 단계(S340), 추출 단계(S350), 출력 단계(S360)를 포함할 수 있다.Referring to FIGS. 3 to 8, the method for finding the location of an unmanned moving object in space includes a detection step (S310), a decision step (S320), a mode execution step (S330), a collection step (S340), and an extraction step (S350). , may include an output step (S360).

감지 단계는, 프로세서(122)를 통해, 무인 이동체(100)의 비정상적인 재부팅의 발생 여부를 감지할 수 있다(S310). 예를 들어, 비정상적인 재부팅은 전원이 부족하여 스스로 꺼지는 상태, 시스템 오류 등으로 스스로 켜지는 상태 중 적어도 하나를 포함할 수 있다. 즉, 프로세서(122)는 사용자의 전원 입력 신호 기반의 재부팅 명령이 아니면, 비정상적인 재부팅으로 판단할 수 있다.In the detection step, whether an abnormal reboot of the unmanned mobile device 100 has occurred can be detected through the processor 122 (S310). For example, an abnormal reboot may include at least one of a state in which the device turns itself off due to insufficient power or a state in which the device turns on by itself due to a system error. That is, the processor 122 may determine that the reboot is abnormal if the reboot command is not based on the user's power input signal.

판단 단계는, 프로세서(122)를 통해, 감지된 결과를 기반으로 비정상적인 재부팅이 발생된 경우, 도킹 스테이션(10)의 충전 신호가 수신된 것인지를 판단할 수 있다(S320). 이때, 도킹 스테이션(10)의 충전 신호로 프로세서(122)는 도킹 스테이션(10)의 앞에 있는지를 확인할 수 있다. 즉, 프로세서(122)는 충전 신호를 수신받으면, 도킹 스테이션(10)의 앞에 존재하는 것으로 판단하고, 현재 시작점에 있는 것으로 인식할 수 있다. 프로세서(122)는 충전 신호를 수신받지 않으면, 도킹 스테이션(10)의 앞에 존재하지 않는 것으로 판단하고, 현재 시작점과 다른 위치에 있는 것으로 인식할 수 있다.In the determination step, if an abnormal reboot occurs based on the detected result, the processor 122 may determine whether a charging signal from the docking station 10 has been received (S320). At this time, the processor 122 can check whether it is in front of the docking station 10 using the charging signal from the docking station 10. That is, when the processor 122 receives a charging signal, it can determine that it exists in front of the docking station 10 and recognize that it is currently at the starting point. If the processor 122 does not receive a charging signal, it may determine that it does not exist in front of the docking station 10 and recognize it as being in a different position from the current starting point.

모드 수행 단계는, 프로세서(122)를 통해, 충전 신호가 미수신이면(S320), 공간 내 위치를 찾는 키드냅 리커버리(kidnap recovery) 모드를 수행할 수 있다(S330). 여기에서, 키드냅 상태는 무인 이동체가 어느 위치로 이동되었는지 알 수 없는 다른 위치로 이동된 상태로, 누군가에 의해 무인 이동체가 옮겨진 상태, 예상치 못한 물체와의 충돌 등으로 인하여 무인 이동체의 방향이나 위치가 변경된 상태, 무인 이동체가 미리 지정한 위치를 파악하지 못하는 상태 중 적어도 하나를 포함할 수 있다. 따라서, 모드 수행 단계에서는, 상기 키드냅 상태일 때에도 무인 이동체가 공간 내 위치를 찾을 수 있도록, 키드냅 리커버리 모드를 수행할 수 있다.In the mode performance step, if the charging signal is not received through the processor 122 (S320), a kidney recovery mode to find a location in space may be performed (S330). Here, the kidnapping state is a state in which the unmanned vehicle has been moved to another location where it is not known which location it was moved to, a state in which the unmanned vehicle has been moved by someone, or the direction or location of the unmanned vehicle due to a collision with an unexpected object, etc. It may include at least one of a changed state and a state in which the unmanned moving object cannot determine the pre-designated location. Accordingly, in the mode execution step, the kidnap recovery mode can be performed so that the unmanned vehicle can find its location in space even when it is in the kidnap state.

도 6에 도시된 바와 같이, 수집 단계는 프로세서(122)를 통해, 무인 이동체(100)가 공간 내 위치를 찾도록, 기 설정된 제1 지점(B)에서 제2 지점(C)까지 기 설정된 지그재그 패턴(P)의 주행으로 영상 데이터와 라이다 데이터를 추론 모델을 만들기 위하여 수집할 수 있다(S340). 프로세서(122)는 카메라(140)와 센서부(150)로부터 획득한 영상 데이터와 라이다 데이터를 수집할 수 있다. 프로세서(122)는 제1 지점(B)에서 제2 지점(C)까지 복수의 지점(P1 내지 P11, …)마다 지그재그 패턴(P)의 주행으로 영상 데이터와 라이다 데이터를 수집할 수 있다. 이때, 제1 지점(B)은 공간 내 위치를 찾기 위한 시작점일 수 있고, 제2 지점(C)은 공간 내 위치를 찾기 위한 끝지점일 수 있다. 여기에서, 영상 데이터는 무인 이동체의 위치 좌표를 포함할 수 있고, 라이다 데이터는 주변 물체의 거리값을무인 이동체 포함할 수 있다.As shown in FIG. 6, the collection step is performed through the processor 122 by performing a preset zigzag movement from a preset first point (B) to a second point (C) so that the unmanned mobile object 100 finds its position in space. By driving the pattern (P), image data and lidar data can be collected to create an inference model (S340). The processor 122 may collect image data and LIDAR data obtained from the camera 140 and the sensor unit 150. The processor 122 may collect image data and LIDAR data by driving a zigzag pattern (P) at each of a plurality of points (P1 to P11,...) from the first point (B) to the second point (C). At this time, the first point (B) may be a starting point for finding a location in space, and the second point (C) may be an end point for finding a location in space. Here, the image data may include the position coordinates of the unmanned moving object, and the LIDAR data may include distance values of surrounding objects of the unmanned moving object.

또한, 수집 단계는, 프로세서(122)를 통해, 제1 지점(B) 및 제2 지점(C) 내의 복수의 지점(P1 내지 P11, …)마다 360도 회전하여 회전 각도 별 단위 개수의 영상 데이터와 라이다 데이터를 더 수집할 수 있다(S340). 예를 들어, 프로세서(122)는 복수의 지점(P1 내지 P11, …)마다 10도 회전당 36개의 영상 데이터와 라이다 데이터를 수집할 수 있다. 프로세서(122)는 제1 지점(B) 및 제2 지점(C)까지 복수의 지점(P1 내지 P11, …)마다 360도 회전과 지그재그 패턴(P)의 주행으로 영상 데이터와 라이다 데이터를 수집할 수 있다. 예를 들어, 프로세서(122)는 무인 이동체가 360도 회전을 완료하기전까지는 P1 지점에서 10도 회전당 36개의 영상 데이터와 라이다 데이터를 수집하고(제1 과정), P1 지점에서 무인 이동체가 360도 회전을 완료하면 P2 지점까지 기 설정된 지그재그 패턴(P)의 주행으로 영상 데이터와 라이다 데이터를 수집할 수 있다(제2 과정). 이러한, 무인 이동체는 제1 지점(B)에서 제2 지점(C)까지 복수의 지점(P1 내지 P11, …)마다 지그재그 패턴(P)의 주행과, 360도 회전으로 영상 데이터와 라이다 데이터를 수집할 수 있다.In addition, in the collection step, through the processor 122, each of the plurality of points (P1 to P11, ...) within the first point (B) and the second point (C) is rotated 360 degrees to collect a unit number of image data for each rotation angle. You can collect more LIDAR data (S340). For example, the processor 122 may collect 36 pieces of image data and LIDAR data per 10 degree rotation for each of the plurality of points (P1 to P11,...). The processor 122 collects image data and LIDAR data by rotating 360 degrees and driving in a zigzag pattern (P) at each of the plurality of points (P1 to P11, ...) to the first point (B) and the second point (C). can do. For example, the processor 122 collects 36 image data and LIDAR data per 10-degree rotation at point P1 until the unmanned vehicle completes a 360-degree rotation (first process), and the unmanned vehicle rotates 360 degrees at point P1. Once the 360-degree rotation is completed, video data and lidar data can be collected by driving in a preset zigzag pattern (P) to point P2 (second process). This unmanned vehicle travels in a zigzag pattern (P) at each of a plurality of points (P1 to P11,...) from the first point (B) to the second point (C) and rotates 360 degrees to collect image data and lidar data. It can be collected.

여기에서, 카메라(140)는 이미지 센서를 이용하는 영상 카메라로 제공될 수 있다. 카메라(140)는 이미지 센서를 통해 획득한 정지영상 또는 동영상 등의 화상 프레임을 처리할 수 있다. 한편, 카메라(140)가 복수개일 경우, 매트릭스 구조를 이루도록 배치될 수 있다. 이러한 매트릭스 구조를 이루는 영상 카메라들을 통해 다양한 각도 또는 초점을 갖는 복수의 영상정보가 입력될 수 있다. 또한, 영상 카메라들은 3차원의 입체영상을 구현하기 위한 좌 영상 및 우 영상을 획득하도록, 스트레오 구조로 배치될 수 있다. 또한, 카메라(140)는 AI 카메라로 제공될 수도 있다. AI 카메라는 인간의 망막을 모방하여 만들어진 광각센서를 통해 인식된 이미지를, 뇌신경망 알고리즘으로 미세하게 조정할 수 있다. AI 카메라는 셔터 속도, 광노출, 포화도, 색 농도, 동적 범위, 대비 등을 조절할 수 있다. 또한, AI 카메라는 촬영된 영상을 양질의 영상으로 출력할 수 있다. 센서부(150)는 초음파 센서, 레이더 센서, 라이다 센서 중 적어도 하나를 포함할 수 있다. 센서부(150)는 라이다 센서를 통해 라이다 데이터를 획득할 수 있다.Here, the camera 140 may be provided as a video camera using an image sensor. The camera 140 can process image frames such as still images or videos acquired through an image sensor. Meanwhile, when there are a plurality of cameras 140, they may be arranged to form a matrix structure. A plurality of image information having various angles or focuses can be input through the video cameras forming this matrix structure. Additionally, video cameras may be arranged in a stereo structure to acquire left and right images to implement a three-dimensional stereoscopic image. Additionally, the camera 140 may be provided as an AI camera. The AI camera can finely adjust images recognized through a wide-angle sensor that mimics the human retina using a brain neural network algorithm. AI cameras can adjust shutter speed, light exposure, saturation, color depth, dynamic range, contrast, etc. Additionally, AI cameras can output captured images as high-quality images. The sensor unit 150 may include at least one of an ultrasonic sensor, a radar sensor, and a lidar sensor. The sensor unit 150 can acquire LiDAR data through a LiDAR sensor.

도 7에 도시된 바와 같이, 추출 단계는 프로세서(122)를 통해, 수집된 영상 데이터(ID1)를 영상 추출 모델(M1)에 입력하여 영상 내의 특징 데이터(OD1)를 추출할 수 있다(S350). 이때, 영상 추출 모델(M1)은 강인하게 영상을 인식하고 추출할 수 있는 모델일 수 있다. As shown in FIG. 7, the extraction step inputs the collected image data (ID1) into the image extraction model (M1) through the processor 122 to extract feature data (OD1) in the image (S350). . At this time, the image extraction model (M1) may be a model that can robustly recognize and extract images.

출력 단계는 프로세서(122)를 통해, 영상 내의 특징 데이터(OD1) 및 라이다 데이터(ID2)를 위치 추적 모델(M2)에 입력하여 무인 이동체의 공간 내 예상 위치 데이터(OD2)를 출력할 수 있다(S360). 이때, 예상 위치 데이터는, 무인 이동체의 위치 좌표(x, y), 무인 이동체가 전방과 측방 및 후방 중 적어도 하나를 바라보는 회전각(θ)을 포함할 수 있다. 예를 들어, 무인 이동체의 위치 좌표(x, y)는 36개의 x좌표 및 y좌표를 포함할 수 있고, 회전각(θ)은 무인 이동체가 1시 방향 내지 12시 방향 중 적어도 하나의 방향으로 바라보는 각도일 수 있다.In the output step, feature data (OD1) and lidar data (ID2) in the image are input into the position tracking model (M2) through the processor 122 to output expected position data (OD2) in space of the unmanned moving object. (S360). At this time, the expected position data may include the position coordinates (x, y) of the unmanned mobile object, and the rotation angle (θ) at which the unmanned mobile object looks at least one of front, side, and rear. For example, the position coordinates (x, y) of the unmanned mobile device may include 36 x and y coordinates, and the rotation angle (θ) may be the position of the unmanned mobile device in at least one of the 1 o'clock to 12 o'clock directions. It could be the viewing angle.

여기에서, 제어부(120)와 전기적으로 연결된 서버(20)는 메타데이터인 영상 내의 특징 데이터(OD1)와 라이다 데이터(ID2)의 입력값을 위치 추적 모델(M2)을 기반으로 학습하여 추천된 무인 이동체의 공간 내 예상 위치 데이터(OD2)의 결과값을 출력할 수 있다. 이때, 영상 내의 특징 데이터(OD1)는 무인 이동체의 공간 좌표를 포함할 수 있고, 라이다 데이터(ID2)는 주변 물체의 거리값을무인 이동체포함할 수 있다. 또한, 위치 추적 모델(M2)은 입력 데이터에 포함된 영상 내의 특징 데이터(OD1)와 라이다 데이터(ID2)를 상관 관계를 통해 학습하도록 구축될 수 있다. 위치 추적 모델(M2)은 영상 내의 특징 데이터(OD1)와 라이다 데이터(ID2)를 DNN 알고리즘을 이용하여 학습데이터 셋으로 구축 및 강화 학습시킬 수 있다.Here, the server 20, which is electrically connected to the control unit 120, learns the input values of feature data (OD1) and lidar data (ID2) in the image, which are metadata, based on the location tracking model (M2) to make recommendations. The result of the expected position data (OD2) within the space of the unmanned moving object can be output. At this time, feature data OD1 in the image may include the spatial coordinates of the unmanned moving object, and LiDAR data ID2 may include distance values of surrounding objects of the unmanned moving object. Additionally, the location tracking model (M2) can be built to learn through correlation between feature data (OD1) and lidar data (ID2) in the image included in the input data. The location tracking model (M2) can be constructed and reinforced as a learning data set using the feature data (OD1) and lidar data (ID2) in the image using the DNN algorithm.

서버(20)는 영상 내의 특징 데이터(OD1)와 라이다 데이터(ID2)를 기반으로 판단한 무인 이동체의 공간 내 예상 위치 데이터(OD2)를 제어부(120)의 메모리(121)에 전송할 수 있다. 메모리(121)는 수신된 무인 이동체의 공간 내 예상 위치 데이터(OD2)를 저장할 수 있다. 이때, 메모리(211)는 공간 내 예상 위치 데이터(OD2) 내의 36개의 x좌표 및 y좌표를 갖는 무인 이동체의 위치 좌표(x, y)가 저장될 수 있고, 무인 이동체가 1시 방향 내지 12시 방향 중 적어도 하나의 방향 또는 36개의 방향으로 바라보는 회전각(θ)이 저장될 수 있다.The server 20 may transmit the expected position data (OD2) in space of the unmanned moving object determined based on the characteristic data (OD1) in the image and the lidar data (ID2) to the memory 121 of the control unit 120. The memory 121 may store the received expected position data OD2 in space of the unmanned moving object. At this time, the memory 211 may store the position coordinates (x, y) of the unmanned moving object having 36 x and y coordinates in the expected position data (OD2) in space, and the unmanned moving object may be positioned between 1 o'clock and 12 o'clock. The rotation angle (θ) viewed in at least one of the directions or 36 directions may be stored.

프로세서(122)는 카메라(140) 및 센서부(150)로부터 획득한 현재 공간 내 위치에 해당하는 영상 데이터와 라이다 데이터가 수신된 경우, 인공지능을 기반으로 무인 이동체의 공간 내 예상 위치 데이터를 추출할 수 있다.When image data and LIDAR data corresponding to the current position in space acquired from the camera 140 and the sensor unit 150 are received, the processor 122 generates the expected position data in space of the unmanned moving object based on artificial intelligence. It can be extracted.

도 8에 도시된 바와 같이, 출력 단계는 프로세서(122)를 통해, 예상 위치 데이터를 군집(A, B, C)간 클러스터링(Clustering)할 수 있다(S371). 출력 단계는 프로세서(122)를 통해, 클러스터링된 군집(A, B, C) 중 동일한 개수의 군집이 있으면(S372), 분산이 낮은 군집을 선택할 수 있다(S373). 출력 단계는 프로세서(122)를 통해, 클러스터링된 군집(A, B, C) 중 동일한 개수의 군집이 없으면(S372), 예상 위치 데이터의 개수가 기 설정된 개수보다 많은 군집을 선택할 수 있다(S374).As shown in FIG. 8, the output step may cluster the expected location data between clusters (A, B, C) through the processor 122 (S371). In the output step, if there are the same number of clusters among the clustered clusters (A, B, C) through the processor 122 (S372), a cluster with low variance can be selected (S373). In the output step, if there is no same number of clusters among the clustered clusters (A, B, C) through the processor 122 (S372), a cluster in which the number of expected location data is greater than the preset number can be selected (S374). .

여기에서, 군집(A, B, C)의 포인트 클라우드들은 예상 위치 데이터에 해당하는 것으로, 36개의 x좌표 및 y좌표를 갖는 무인 이동체의 위치 좌표(x, y)를 포함할 수 있고, 무인 이동체가 1시 방향 내지 12시 방향 중 적어도 하나의 방향으로 바라보는 회전각(θ)을 포함할 수 있으며, 회전각을 산출할 수도 있다. 예를 들어, 프로세서(122)는 동일한 개수의 A 군집과 B 군집이 있으면, 분산이 낮은 B 군집을 선택할 수 있다. 다른 예를 들어, 프로세서(122)는 동일한 개수의 군집이 없으면, 예상 위치 데이터의 개수가 기 설정된 개수보다 많은 C 군집을 선택할 수 있다. 이러한, 프로세서(122)는 예상 위치 데이터의 정확성을 높이기 위해, 예상 위치 데이터를 군집(A, B, C)간 클러스터링하고, 군집(A, B, C)의 포인트 클라우드들에서 분산이 낮은 군집 또는 예상 위치 데이터의 개수가 많은 군집을 선택할 수 있다.Here, the point clouds of the cluster (A, B, C) correspond to the expected position data and may include the position coordinates (x, y) of the unmanned moving object with 36 x and y coordinates, and the unmanned moving object may include a rotation angle (θ) viewed in at least one of the 1 o'clock direction to the 12 o'clock direction, and the rotation angle may be calculated. For example, if there are the same number of A clusters and B clusters, the processor 122 may select B clusters with low variance. For another example, if there are no clusters with the same number, the processor 122 may select cluster C in which the number of expected location data is greater than the preset number. In order to increase the accuracy of the expected location data, the processor 122 clusters the expected location data between clusters (A, B, C), and clusters or clusters with low variance in the point clouds of the clusters (A, B, C). You can select a cluster with a large number of expected location data.

한편, 출력 단계는 프로세서(122)를 통해, 예상 위치 데이터가 기 설정된 오차값을 벗어나면(S375), 라이다 데이터(ID2)를 ICP(Iterative Closet Point) 알고리즘(M3)에 입력하여, 보정된 예상 위치 데이터(OD3)를 더 출력할 수 있다. 프로세서(122)는 예상 위치 데이터에 해당하는 36개의 x좌표 및 y좌표를 갖는 무인 이동체의 위치 좌표(x, y)와, 무인 이동체가 1시 방향 내지 12시 방향 중 적어도 하나의 방향으로 바라보는 회전각(θ)이 기 설정된 오차값을 벗어나는지를 판단할 수 있다. ICP 알고리즘(M3)은 서로 다른 두 개의 포인트 클라우드를 정합(registration)시키는 알고리즘을 이용하여 예상 위치 데이터를 더욱 정밀하게 분석할 수 있다. ICP 알고리즘(M3)은 예상 위치 데이터들의 가장 가까운 점을 이용하여 연관성을 찾고, 찾은 연관성을 기반으로 현재 데이터를 이동 및 회전을시켜 기존의 데이터셋에 추가할 수 있다. 이러한, ICP 알고리즘(M3)을 이용한 프로세서(122)는 한개의 영상을 처리하는데에 0.1초가 소요되므로, 36개의 영상을 처리하는데에 3.6초가 소요되어, 약 4초 이내에 키드냅 리커버리 모드를 수행할 수 있다.Meanwhile, in the output stage, if the expected position data deviates from the preset error value (S375) through the processor 122, the lidar data (ID2) is input to the ICP (Iterative Closet Point) algorithm (M3), and the corrected Expected position data (OD3) can be further output. The processor 122 provides the position coordinates (x, y) of the unmanned moving object having 36 x-coordinates and y-coordinates corresponding to the expected position data, and the position coordinates (x, y) of the unmanned moving object looking in at least one direction from 1 o'clock to 12 o'clock. It can be determined whether the rotation angle θ is outside a preset error value. The ICP algorithm (M3) can analyze expected location data more precisely by using an algorithm that registers two different point clouds. The ICP algorithm (M3) can find correlations using the closest points of expected location data, and move and rotate the current data based on the found correlations to add it to the existing dataset. Since the processor 122 using the ICP algorithm (M3) takes 0.1 seconds to process one image, it takes 3.6 seconds to process 36 images, and the Kidnap recovery mode can be performed within about 4 seconds. there is.

무인 이동체(100)는 상기와 같은 예상 위치 데이터 또는 보정된 예상 위치 데이터를 기반으로 공간 내의 위치를 찾으면, 기 설정된 도착지 또는 충전을 위한 도킹 스테이션(10)까지 정확한 이동 경로로 주행할 수 있다.When the unmanned mobile device 100 finds its location in space based on the above-described expected location data or corrected expected location data, it can travel along an accurate path to a preset destination or a docking station 10 for charging.

100: 무인 이동체 110: 통신부
120: 제어부 121: 메모리
122: 프로세서 130: 구동부
140: 카메라 150: 센서부
100: Unmanned mobile device 110: Communication department
120: Control unit 121: Memory
122: processor 130: driving unit
140: Camera 150: Sensor unit

Claims (10)

위치 추적 모델을 활용한 이동 로봇의 공간 내 예상 위치 데이터 출력 방법에 있어서,
상기 이동 로봇의 비정상적인 재부팅의 발생 여부를 감지하는 단계;
상기 감지된 결과를 기반으로 상기 비정상적인 재부팅이 발생된 경우, 도킹스테이션의 충전 신호가 수신된 것인지를 판단하는 단계;
상기 충전 신호가 미수신이면, 공간 내 위치를 찾는 키드냅 리커버리(kidnap recovery) 모드를 수행하는 단계;
상기 이동 로봇이 상기 공간 내 위치를 찾도록, 기 설정된 제1 지점에서 제2 지점까지 기 설정된 지그재그 패턴의 주행으로 영상 데이터와 라이다 데이터를 추론 모델을 만들기 위하여 수집하는 단계;
상기 수집된 영상 데이터를 영상 추출 모델에 입력하여 영상 내의 공간 데이터를 추출하는 단계; 및
상기 영상 내의 공간 데이터 및 상기 라이다 데이터를 위치 추적 모델에 입력하여 상기 이동 로봇의 공간 내 예상 위치 데이터를 출력하는 단계; 를 포함하고,
상기 예상 위치 데이터는, 상기 이동 로봇의 위치 좌표, 상기 이동 로봇이 전방과 측방 및 후방을 바라보는 회전각을 포함하는, 방법.
In a method of outputting expected position data in space of a mobile robot using a position tracking model,
Detecting whether an abnormal reboot of the mobile robot has occurred;
If the abnormal reboot occurs based on the detected result, determining whether a charging signal from the docking station has been received;
If the charging signal is not received, performing a kidnap recovery mode to find a location in space;
Collecting image data and LIDAR data to create an inference model by driving in a preset zigzag pattern from a preset first point to a second point so that the mobile robot can find its position in the space;
extracting spatial data within the image by inputting the collected image data into an image extraction model; and
Inputting the spatial data in the image and the LIDAR data into a position tracking model to output expected position data in space of the mobile robot; Including,
The expected position data includes position coordinates of the mobile robot and rotation angles at which the mobile robot looks forward, sideways, and backward.
제1항에 있어서,
상기 수집 단계는,
상기 제1 지점 및 상기 제2 지점 내의 복수의 지점마다 360도 회전하여 회전 각도 별 단위 개수의 영상 데이터와 라이다 데이터를 더 수집하는 것을 특징으로 하는, 방법.
According to paragraph 1,
The collection step is,
A method characterized in that each of the plurality of points within the first point and the second point is rotated 360 degrees to further collect a unit number of image data and lidar data for each rotation angle.
제2항에 있어서,
상기 출력 단계는,
상기 예상 위치 데이터를 군집간 클러스터링(Clustering)하고,
상기 클러스터링된 군집 중 예상 위치 데이터의 개수가 기 설정된 개수보다 많은 군집을 선택하는 것을 특징으로 하는, 방법.
According to paragraph 2,
The output step is,
Clustering the predicted location data between clusters,
A method characterized in that, among the clustered clusters, a cluster in which the number of expected location data is greater than a preset number is selected.
제3항에 있어서,
상기 출력 단계는,
상기 클러스터링된 군집 중 동일한 개수의 군집이 있으면, 분산이 낮은 군집을 선택하는 것을 특징으로 하는, 방법.
According to paragraph 3,
The output step is,
A method characterized in that, if there are the same number of clusters among the clustered clusters, a cluster with low variance is selected.
제4항에 있어서,
상기 출력 단계는,
상기 예상 위치 데이터가 기 설정된 오차값을 벗어나면,
상기 라이다 데이터를 ICP(Iterative Closet Point) 알고리즘에 입력하여, 보정된 예상 위치 데이터를 더 출력하는 것을 특징으로 하는, 방법.
According to paragraph 4,
The output step is,
If the expected location data exceeds the preset error value,
A method characterized by inputting the LIDAR data into an Iterative Closet Point (ICP) algorithm and further outputting corrected expected position data.
도킹 스테이션과 통신하는 통신부; 및
공간 내 위치를 찾는 동작을 제어하는 프로세서를 포함하고,
상기 프로세서는,
비정상적인 재부팅의 발생 여부를 감지하며,
상기 감지된 결과를 기반으로 상기 비정상적인 재부팅이 발생된 경우, 상기 통신부를 통해 상기 도킹 스테이션의 충전 신호가 수신된 것인지를 판단하고,
상기 충전 신호가 미수신이면, 상기 공간 내 위치를 찾는 키드냅 리커버리(kidnap recovery) 모드를 수행하며,
상기 공간 내 위치를 찾도록, 기 설정된 제1 지점에서 제2 지점까지 기 설정된 지그재그 패턴의 주행으로 영상 데이터와 라이다 데이터를 추론 모델을 만들기 위하여 수집하고,
상기 수집된 영상 데이터를 영상 추출 모델에 입력하여 영상 내의 공간 데이터를 추출하며,
상기 영상 내의 공간 데이터 및 상기 라이다 데이터를 위치 추적 모델에 입력하여 상기 공간 내 예상 위치 데이터를 출력하고,
상기 예상 위치 데이터는, 위치 좌표, 전방과 측방 및 후방을 바라보는 회전각을 포함하는, 이동 로봇.
a communication unit communicating with the docking station; and
a processor that controls the operation of finding a position in space;
The processor,
Detects whether an abnormal reboot occurs,
If the abnormal reboot occurs based on the detected result, determine whether a charging signal from the docking station has been received through the communication unit,
If the charging signal is not received, a kidney recovery mode is performed to find the location in the space,
In order to find the location in the space, video data and lidar data are collected to create an inference model by driving in a preset zigzag pattern from a preset first point to a second point,
Input the collected image data into an image extraction model to extract spatial data within the image,
Input spatial data in the image and the lidar data into a position tracking model to output expected position data in the space,
The expected position data includes position coordinates, rotation angles looking forward, sideways, and backward, a mobile robot.
제6항에 있어서,
상기 프로세서는,
상기 제1 지점 및 상기 제2 지점 내의 복수의 지점마다 360도 회전하여 회전 각도 별 단위 개수의 영상 데이터와 라이다 데이터를 더 수집하는 것을 특징으로 하는, 이동 로봇.
According to clause 6,
The processor,
A mobile robot, characterized in that it rotates 360 degrees at each of the plurality of points within the first point and the second point and further collects a unit number of image data and lidar data for each rotation angle.
제7항에 있어서,
상기 프로세서는,
상기 예상 위치 데이터를 군집간 클러스터링(Clustering)하고,
상기 클러스터링된 군집 중 예상 위치 데이터의 개수가 기 설정된 개수보다 많은 군집을 선택하는 것을 특징으로 하는, 이동 로봇.
In clause 7,
The processor,
Clustering the predicted location data between clusters,
A mobile robot, characterized in that among the clustered groups, a group in which the number of expected location data is greater than a preset number is selected.
제8에 있어서,
상기 프로세서는,
상기 클러스터링된 군집 중 동일한 개수의 군집이 있으면, 분산이 낮은 군집을 선택하는 것을 특징으로 하는, 이동 로봇.
In article 8,
The processor,
A mobile robot, characterized in that if there are the same number of clusters among the clustered clusters, a cluster with low variance is selected.
제9항에 있어서,
상기 프로세서는,
상기 예상 위치 데이터가 기 설정된 오차값을 벗어나면,
상기 라이다 데이터를 ICP(Iterative Closet Point) 알고리즘에 입력하여, 보정된 예상 위치 데이터를 더 출력하는 것을 특징으로 하는, 이동 로봇.
According to clause 9,
The processor,
If the expected location data exceeds the preset error value,
A mobile robot, characterized in that the lidar data is input into an ICP (Iterative Closet Point) algorithm to further output corrected expected position data.
KR1020230111909A 2022-08-12 2023-08-25 Moving robot, method and program for outputting estimated position data in space of moving robot using position tracking model KR20240023008A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230111909A KR20240023008A (en) 2022-08-12 2023-08-25 Moving robot, method and program for outputting estimated position data in space of moving robot using position tracking model

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220101340A KR102572832B1 (en) 2022-08-12 2022-08-12 Unmanned moving object, method and program for finding the location in space of unmanned moving object based on artificial intelligence
KR1020230111909A KR20240023008A (en) 2022-08-12 2023-08-25 Moving robot, method and program for outputting estimated position data in space of moving robot using position tracking model

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020220101340A Division KR102572832B1 (en) 2022-08-12 2022-08-12 Unmanned moving object, method and program for finding the location in space of unmanned moving object based on artificial intelligence

Publications (1)

Publication Number Publication Date
KR20240023008A true KR20240023008A (en) 2024-02-20

Family

ID=87846187

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020220101340A KR102572832B1 (en) 2022-08-12 2022-08-12 Unmanned moving object, method and program for finding the location in space of unmanned moving object based on artificial intelligence
KR1020230111909A KR20240023008A (en) 2022-08-12 2023-08-25 Moving robot, method and program for outputting estimated position data in space of moving robot using position tracking model

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020220101340A KR102572832B1 (en) 2022-08-12 2022-08-12 Unmanned moving object, method and program for finding the location in space of unmanned moving object based on artificial intelligence

Country Status (1)

Country Link
KR (2) KR102572832B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140141265A (en) 2013-05-31 2014-12-10 전남대학교산학협력단 Mobile robot for location tracing and object finding using the active and passive type rfid received signal strength indication

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101618030B1 (en) * 2009-07-28 2016-05-09 주식회사 유진로봇 Method for Recognizing Position and Controlling Movement of a Mobile Robot, and the Mobile Robot Using the same
US11175676B2 (en) * 2016-10-20 2021-11-16 Lg Electronics Inc. Mobile robot and method of controlling the same
KR20220029824A (en) * 2020-08-28 2022-03-10 삼성전자주식회사 Cleaning robot and controlling method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140141265A (en) 2013-05-31 2014-12-10 전남대학교산학협력단 Mobile robot for location tracing and object finding using the active and passive type rfid received signal strength indication

Also Published As

Publication number Publication date
KR102572832B9 (en) 2024-04-08
KR102572832B1 (en) 2023-08-30

Similar Documents

Publication Publication Date Title
US11585662B2 (en) Laser scanner with real-time, online ego-motion estimation
Cvišić et al. SOFT‐SLAM: Computationally efficient stereo visual simultaneous localization and mapping for autonomous unmanned aerial vehicles
Chen et al. A survey on deep learning for localization and mapping: Towards the age of spatial machine intelligence
US10748061B2 (en) Simultaneous localization and mapping with reinforcement learning
CN109917818B (en) Collaborative search containment method based on ground robot
CN112179330B (en) Pose determination method and device of mobile equipment
US9710925B2 (en) Robust anytime tracking combining 3D shape, color, and motion with annealed dynamic histograms
CN111797657A (en) Vehicle peripheral obstacle detection method, device, storage medium, and electronic apparatus
Martinez-Gomez et al. A taxonomy of vision systems for ground mobile robots
Akai et al. Simultaneous pose and reliability estimation using convolutional neural network and Rao–Blackwellized particle filter
CN111292352B (en) Multi-target tracking method, device, equipment and storage medium
US11379995B2 (en) System and method for 3D object detection and tracking with monocular surveillance cameras
del Pino et al. Low resolution lidar-based multi-object tracking for driving applications
Simanek et al. Improving multi-modal data fusion by anomaly detection
Martinez‐Alpiste et al. Smartphone‐based object recognition with embedded machine learning intelligence for unmanned aerial vehicles
Guizilini et al. Semi-parametric learning for visual odometry
Rybski et al. Using visual features to build topological maps of indoor environments
US11079240B2 (en) Method, system and apparatus for adaptive particle filter localization
Misu et al. Specific person tracking using 3D LIDAR and ESPAR antenna for mobile service robots
Zakaryaie Nejad et al. ARM-VO: an efficient monocular visual odometry for ground vehicles on ARM CPUs
CN113033439A (en) Method and device for data processing and electronic equipment
KR102572832B1 (en) Unmanned moving object, method and program for finding the location in space of unmanned moving object based on artificial intelligence
Guan et al. A dual-mode automatic switching feature points matching algorithm fusing IMU data
US20210114204A1 (en) Mobile robot device for correcting position by fusing image sensor and plurality of geomagnetic sensors, and control method
Perera et al. Human motion analysis from UAV video