KR102562044B1 - Robot control system and controlling method of the same - Google Patents

Robot control system and controlling method of the same Download PDF

Info

Publication number
KR102562044B1
KR102562044B1 KR1020210141976A KR20210141976A KR102562044B1 KR 102562044 B1 KR102562044 B1 KR 102562044B1 KR 1020210141976 A KR1020210141976 A KR 1020210141976A KR 20210141976 A KR20210141976 A KR 20210141976A KR 102562044 B1 KR102562044 B1 KR 102562044B1
Authority
KR
South Korea
Prior art keywords
robot
target robot
control system
target
robots
Prior art date
Application number
KR1020210141976A
Other languages
Korean (ko)
Other versions
KR20230057784A (en
Inventor
최정훈
진수경
이민우
Original Assignee
롯데정보통신 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 롯데정보통신 주식회사 filed Critical 롯데정보통신 주식회사
Priority to KR1020210141976A priority Critical patent/KR102562044B1/en
Publication of KR20230057784A publication Critical patent/KR20230057784A/en
Application granted granted Critical
Publication of KR102562044B1 publication Critical patent/KR102562044B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • G05D1/0282Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal generated in a local control room
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

로봇 관제 시스템 및 이의 제어 방법이 개시된다. 이에 의한 로봇 관제 시스템은, 대상 로봇의 위치를 산출하는 실내 측위 변환부; 와, 상기 대상 로봇의 주행 경로를 생성하는 경로 생성부; 및. 상기 대상 로봇이 제1항법에 따라 운용되고 있는 상태에서 상기 제1항법과 다른 제2항법으로 운용되는 작업 영역으로 이동하고자 하는 경우, 상기 대상 로봇과 주변 로봇과의 상대 위치를 계산하고 상기 주변 로봇의 자세 정보에 기초하여 상기 대상 로봇의 위치를 추정하도록 상기 실내 측위 변환부를 제어하고, 상기 대상 로봇의 자세 정보를 상기 작업 영역에 매핑하며, 상기 대상 로봇이 상기 주변 로봇과 충돌하지 않는 상기 주행 경로를 생성하도록 상기 경로 생성부를 제어하는 제어부; 를 포함할 수 있다.A robot control system and a control method thereof are disclosed. Accordingly, the robot control system includes an indoor positioning conversion unit that calculates the position of the target robot; and a path generator for generating a travel path of the target robot; and. In a state where the target robot is operated according to the first navigation method, when it is desired to move to a work area operated by the second navigation method, which is different from the first navigation method, the relative position between the target robot and the surrounding robots is calculated and the surrounding robots are operated. Controls the indoor positioning conversion unit to estimate the position of the target robot based on posture information of the target robot, maps the posture information of the target robot to the work area, and the driving path in which the target robot does not collide with the surrounding robots a controller for controlling the path generating unit to generate; can include

Description

로봇 관제 시스템 및 이의 제어 방법{ROBOT CONTROL SYSTEM AND CONTROLLING METHOD OF THE SAME}Robot control system and its control method {ROBOT CONTROL SYSTEM AND CONTROLLING METHOD OF THE SAME}

본 발명은 로봇 관제 시스템 및 이의 제어 방법에 관한 것으로서, 보다 상세하게는 다중 항법 방식을 혼용할 수 있는 이기종 로봇 관제 시스템 및 이의 실내 측위 방법에 관한 것이다. The present invention relates to a robot control system and a control method thereof, and more particularly, to a heterogeneous robot control system capable of using a multi-navigation method together and an indoor positioning method thereof.

최근 물류 창고나 대형 공장에서는 물류나 제조 설비 또는 자재의 운반 및 이동을 위해 이동 로봇(Mobile Robot)이나 무인 자율주행차량(automated guided vehicle: AGV)이 사용되고 있다.Recently, a mobile robot or an automated guided vehicle (AGV) is used in a logistics warehouse or a large factory to transport and move logistics, manufacturing equipment, or materials.

일반적으로 로봇 관제 시스템은 이동 로봇 또는 무인 자율주행차량의 구동축의 기구적인 형태와 자기 위치를 인식하는 센서의 형태, 그리고 항법에 따라 지도의 형태를 위상 지도(topological map)와 격자 지도(grid map) 및 점유 격자 지도(occupancy grid map) 형태로 구분하고, 각각의 형태에 적합한 단일 항법 및 경로 계획 방식으로 운용하는 것이 일반적이다. In general, a robot control system is a topological map and a grid map according to the mechanical shape of the drive shaft of a mobile robot or unmanned autonomous vehicle, the shape of a sensor that recognizes its position, and the shape of a map according to navigation. and occupancy grid map forms, and it is common to operate in a single navigation and route planning method suitable for each type.

따라서, 어떠한 사양의 이동 로봇이나 무인 자율주행차량이 선정되면 이에 대응하는 항법이 정해지게 되며, 이에 따라 현장에서 주행 가능한 공간도 정해지게 된다. 반대로 현장에서 이동 로봇 또는 무인 자율주행차량이 주행 가능한 공간이 정해져 있다면 이에 적합한 항법을 사용하는 이동 로봇이나 무인 자율주행차량을 선택해야 한다.Therefore, if a mobile robot or an unmanned autonomous vehicle of any specification is selected, a corresponding navigation method is determined, and accordingly, a driving space in the field is also determined. Conversely, if a space in which a mobile robot or an unmanned autonomous vehicle can drive is determined in the field, a mobile robot or an unmanned autonomous vehicle that uses an appropriate navigation method should be selected.

이와 같은 제약 사항에 따라 단일 항법으로만 동작되는 기존의 로봇 관제 시스템에서 작업대의 위치를 변경하거나 다른 종류의 대상물을 취급하고자 작업 환경을 변경하는 경우, 기존에 선정된 항법에 따라 멀리 돌아가는 경로를 사용하게 되거나, 작업 공간을 분할하여 별도의 로봇과 로봇 관제 시스템을 각각 운용해야 하는 상황이 발생할 수 있다. 이러한 경우 로봇 관제 시스템에 대한 추가적인 투자나 폐기 등을 야기하게 되며, 이는 막대한 경제적 부담을 유발한다. 따라서, 다중 항법 방식을 혼용할 수 있는 이기종 이동 로봇을 관제할 수 있는 시스템이 필요하다.In the case of changing the location of the workbench or changing the work environment to handle a different type of object in the existing robot control system that operates only with a single navigation according to these limitations, a path that goes back farther according to the previously selected navigation is used. or a situation in which separate robots and robot control systems need to be operated by dividing the workspace may occur. In this case, additional investment or disposal of the robot control system is caused, which causes a huge economic burden. Therefore, there is a need for a system capable of controlling heterogeneous mobile robots capable of using multi-navigation methods together.

한편, 이러한 문제점을 해결하기 위하여, 최근 QR 코드 기반의 항법과 자율주행 항법을 겸용으로 사용할 수 있는 이동 로봇이 연구되고 있다. 그러나, 이는 단순히 각각의 항법에 대해 대응할 수 있는 QR 코드 인식장치와 2D 레이저 스캐너를 이동 로봇에 모두 구비한 것으로서, 고가의 센서가 다수 부착된 만큼 로봇의 운용에 비용이 상승하는 단점이 있다.On the other hand, in order to solve this problem, a mobile robot that can use both QR code-based navigation and autonomous navigation is being researched recently. However, this is simply equipped with both a QR code recognition device and a 2D laser scanner capable of responding to each navigation, and has a disadvantage in that the cost of operating the robot increases as many expensive sensors are attached.

한국등록특허공보 제10-2067770호(2020.01.13.)Korean Registered Patent Publication No. 10-2067770 (2020.01.13.)

본 발명이 해결하고자 하는 과제는, 로봇이 특정 항법에 제한되지 않고 다양한 항법으로 주행 가능하도록 제어할 수 있는 로봇 관제 시스템 및 이의 제어 방법을 제공하는 것이다.An object to be solved by the present invention is to provide a robot control system and a control method thereof capable of controlling a robot to travel in various navigations without being limited to a specific navigation method.

또한, 본 발명이 해결하고자 하는 과제는, 다양한 방식의 항법으로 주행하는 다수의 이동 로봇과 무인 자율주행차량이 충돌없이 목적지로 이동할 수 있는 전역 경로를 생성할 수 있는 로봇 관제 시스템 및 이의 제어 방법을 제공하는 것이다. In addition, the problem to be solved by the present invention is to provide a robot control system and a control method thereof capable of generating a global path through which a plurality of mobile robots and unmanned autonomous vehicles traveling in various navigations can move to a destination without collision. is to provide

나아가, 본 발명이 해결하고자 하는 과제는, 다양한 방식의 항법으로 주행하는 다수의 이동 로봇과 무인 자율주행차량을 단일 관제 시스템으로 관리할 수 있는 로봇 관제 시스템 및 이의 제어 방법을 제공하는 것이다.Furthermore, an object to be solved by the present invention is to provide a robot control system and a control method thereof capable of managing a plurality of mobile robots and unmanned self-driving vehicles traveling in various navigations with a single control system.

본 발명의 일 실시예에 의한 로봇 관제 시스템은, 대상 로봇의 위치를 산출하는 실내 측위 변환부; 와, 상기 대상 로봇의 주행 경로를 생성하는 경로 생성부; 및, 상기 대상 로봇이 제1항법에 따라 운용되고 있는 상태에서 상기 제1항법과 다른 제2항법으로 운용되는 작업 영역으로 이동하고자 하는 경우, 상기 대상 로봇과 주변 로봇과의 상대 위치를 계산하고 상기 주변 로봇의 자세 정보에 기초하여 상기 대상 로봇의 위치를 추정하도록 상기 실내 측위 변환부를 제어하고, 상기 대상 로봇의 자세 정보를 상기 작업 영역에 매핑하며, 상기 대상 로봇이 상기 주변 로봇과 충돌하지 않는 상기 주행 경로를 생성하도록 상기 경로 생성부를 제어하는 제어부; 를 포함할 수 있다.A robot control system according to an embodiment of the present invention includes an indoor positioning conversion unit for calculating a position of a target robot; and a path generator for generating a travel path of the target robot; And, in the case where the target robot is operated according to the first navigation method and wants to move to a work area operated by the second navigation method different from the first navigation method, the relative position between the target robot and the surrounding robot is calculated and the The indoor positioning conversion unit is controlled to estimate the position of the target robot based on the position information of the surrounding robots, the position information of the target robot is mapped to the work area, and the target robot does not collide with the surrounding robots. a control unit controlling the path generation unit to generate a travel path; can include

상기 로봇 관제 시스템에 있어서, 상기 제1항법은 레이저 스캐너 센서를 사용하여 위치를 인식하고, 상기 제2항법은 QR 코드를 사용하여 위치를 인식하는 것을 특징으로 할 수 있다.In the robot control system, the first navigation method may recognize a location using a laser scanner sensor, and the second navigation method may recognize a location using a QR code.

상기 로봇 관제 시스템에 있어서, 상기 실내 측위 변환부는, Shape-fitting을 통해 상기 대상 로봇과 상기 주변 로봇과의 상기 상대 위치를 계산하고, 파티클 필터를 이용하여 상기 주변 로봇의 상기 자세 정보에 기초하여 상기 대상 로봇의 위치를 추정할 수 있다.In the robot control system, the indoor positioning conversion unit calculates the relative position between the target robot and the surrounding robot through shape-fitting, and calculates the relative position of the surrounding robot based on the posture information of the surrounding robot using a particle filter. The position of the target robot can be estimated.

상기 로봇 관제 시스템에 있어서, 상기 실내 측위 변환부는, 상기 Shape-fitting을 수행하는 경우, 기준거리를 소정값만큼 반복하여 확장해가면서 상기 기준거리 내에 존재하는 데이터들의 군집을 형성하고, 상기 군집에 기초하여 벡터화된 로봇윤곽모델을 생성하며, 상기 로봇윤곽모델의 각도로 위치를 맞추어 상기 대상 로봇과 상기 주변 로봇과의 거리 및 각도를 계산할 수 있다.In the robot control system, when performing the shape-fitting, the indoor positioning conversion unit forms a cluster of data existing within the reference distance while repeatedly extending a reference distance by a predetermined value, and based on the cluster A vectorized robot contour model is generated, and the distance and angle between the target robot and the surrounding robots can be calculated by matching the position to the angle of the robot contour model.

상기 로봇 관제 시스템에 있어서, 상기 실내 측위 변환부는, 상기 대상 로봇과 상기 주변 로봇과의 거리를 기준으로 각 파티클의 유사도를 산정하고, 각 파티클의 가중치를 계산하여 다수의 파티클로 재생성한 후 기설정된 샘플링 횟수만큼 반복하여 상기 대상 로봇의 위치를 추정할 수 있다.In the robot control system, the indoor positioning conversion unit calculates the similarity of each particle based on the distance between the target robot and the neighboring robot, calculates a weight of each particle, regenerates a plurality of particles, and then The position of the target robot may be estimated by repeating the number of times of sampling.

상기 로봇 관제 시스템에 있어서, 상기 경로 생성부는, 상기 대상 로봇의 크기 정보에 기초하여 최소 회전반경과 점유 공간을 계산하고, 상기 최소 회전반경 및 상기 점유 공간에 기초하여 상기 주변 로봇과의 안전 거리를 부여하며, 우선 순위에 의해 진입 순서를 정하여 충돌이 없는 상기 주행 경로를 생성할 수 있다.In the robot control system, the path generator calculates a minimum rotation radius and an occupied space based on size information of the target robot, and calculates a safety distance with the surrounding robots based on the minimum rotation radius and the occupied space. It is possible to generate the driving route without collision by determining the entry order according to the priority.

본 발명의 다른 실시예에 의한 로봇 관제 시스템의 제어 방법은, 대상 로봇의 위치를 산출하는 단계; 와, 상기 대상 로봇의 주행 경로를 생성하는 단계; 및 상기 대상 로봇이 제1항법에 따라 운용되고 있는 상태에서 상기 제1항법과 다른 제2항법으로 운용되는 작업 영역으로 이동하고자 하는 경우, 상기 대상 로봇과 주변 로봇과의 상대 위치를 계산하고 상기 주변 로봇의 자세 정보에 기초하여 상기 대상 로봇의 위치를 추정하고, 상기 대상 로봇의 자세 정보를 상기 작업 영역에 매핑하며, 상기 대상 로봇이 상기 주변 로봇과 충돌하지 않는 상기 주행 경로를 생성하는 단계; 를 포함할 수 있다.A control method of a robot control system according to another embodiment of the present invention includes calculating a position of a target robot; and generating a travel path of the target robot; and in a state where the target robot is operated according to the first navigation method, when it is desired to move to a work area operated by the second navigation method different from the first navigation method, a relative position between the target robot and a neighboring robot is calculated, and the surrounding estimating a position of the target robot based on posture information of the robot, mapping the posture information of the target robot to the work area, and generating the driving path in which the target robot does not collide with neighboring robots; can include

상기 로봇 관제 시스템의 제어 방법에 있어서, 상기 제1항법은 레이저 스캐너 센서를 사용하여 위치를 인식하고, 상기 제2항법은 QR 코드를 사용하여 위치를 인식하는 것을 특징으로 할 수 있다.In the control method of the robot control system, the first navigation method may be characterized in that the position is recognized using a laser scanner sensor, and the second navigation method is characterized in that the position is recognized using a QR code.

상기 로봇 관제 시스템의 제어 방법에 있어서, Shape-fitting을 통해 상기 대상 로봇과 상기 주변 로봇과의 상기 상대 위치를 계산하고, 파티클 필터를 이용하여 상기 주변 로봇의 상기 자세 정보에 기초하여 상기 대상 로봇의 위치를 추정할 수 있다.In the control method of the robot control system, the relative position between the target robot and the surrounding robot is calculated through shape-fitting, and the position information of the surrounding robot is calculated using a particle filter to determine the position of the target robot. location can be estimated.

상기 로봇 관제 시스템의 제어 방법에 있어서, 상기 Shape-fitting을 수행하는 경우, 기준거리를 소정값만큼 반복하여 확장해가면서 상기 기준거리 내에 존재하는 데이터들의 군집을 형성하고, 상기 군집에 기초하여 벡터화된 로봇윤곽모델을 생성하며, 상기 로봇윤곽모델의 각도로 위치를 맞추어 상기 대상 로봇과 상기 주변 로봇과의 거리 및 각도를 계산할 수 있다.In the control method of the robot control system, in the case of performing the shape-fitting, a reference distance is repeatedly extended by a predetermined value to form a cluster of data existing within the reference distance, and vectorized based on the cluster A robot contour model is created, and the distance and angle between the target robot and the surrounding robots can be calculated by matching the position to the angle of the robot contour model.

상기 로봇 관제 시스템의 제어 방법에 있어서, 상기 대상 로봇과 상기 주변 로봇과의 거리를 기준으로 각 파티클의 유사도를 산정하고, 각 파티클의 가중치를 계산하여 다수의 파티클로 재생성한 후 기설정된 샘플링 횟수만큼 반복하여 상기 대상 로봇의 위치를 추정할 수 있다.In the control method of the robot control system, the similarity of each particle is calculated based on the distance between the target robot and the neighboring robot, the weight of each particle is calculated, and a plurality of particles are regenerated, and then a predetermined number of sampling is performed. It is possible to repeatedly estimate the position of the target robot.

상기 로봇 관제 시스템의 제어 방법에 있어서, 상기 대상 로봇의 크기 정보에 기초하여 최소 회전반경과 점유 공간을 계산하고, 상기 최소 회전반경 및 상기 점유 공간에 기초하여 상기 주변 로봇과의 안전 거리를 부여하며, 우선 순위에 의해 진입 순서를 정하여 충돌이 없는 상기 주행 경로를 생성할 수 있다.In the control method of the robot control system, a minimum rotation radius and an occupied space are calculated based on size information of the target robot, and a safety distance with the surrounding robots is given based on the minimum rotation radius and the occupied space, , it is possible to create the collision-free driving route by determining the entry order by priority.

본 발명의 실시예에 따르면, 로봇이 특정 항법에 제한되지 않고 다양한 항법으로 주행 가능하도록 제어할 수 있다.According to an embodiment of the present invention, the robot can be controlled to travel in various navigations without being limited to a specific navigation.

또한, 본 발명의 실시예에 따르면, 다양한 방식의 항법으로 주행하는 다수의 이동 로봇과 무인 자율주행차량이 충돌없이 목적지로 이동할 수 있게 한다. In addition, according to an embodiment of the present invention, a plurality of mobile robots and unmanned self-driving vehicles traveling in various navigation systems can move to a destination without collision.

또한, 본 발명의 실시예에 따르면, 이동 로봇에 QR 코드 인식 장치와 같은 추가적인 센서를 장착하지 않고도 대상 로봇의 레이저 스캐너 신호와 상대 로봇의 좌표를 이용한 위치 추정 방법을 제공할 수 있다.In addition, according to an embodiment of the present invention, it is possible to provide a position estimation method using a laser scanner signal of a target robot and coordinates of a target robot without mounting an additional sensor such as a QR code recognition device on the mobile robot.

나아가, 본 발명의 실시예에 따르면, 다양한 방식의 항법으로 주행하는 다수의 이동 로봇과 무인 자율주행차량을 단일 관제 시스템으로 관리할 수 있다.Furthermore, according to an embodiment of the present invention, a plurality of mobile robots and unmanned self-driving vehicles traveling in various navigation systems can be managed by a single control system.

도 1은 본 발명에 따른 로봇 관제 시스템이 연결되는 네트워크 구성을 도시한 도면이다.
도 2는 본 발명에 따른 로봇 관제 시스템의 구성을 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 로봇 관제 시스템의 구성을 도시한 상세 블록도이다.
도 4는 본 발명에 따른 로봇 관제 시스템이 QR 코드 인식 장치가 없는 로봇을 QR 코드 작업 영역에 배치하는 과정을 도시한다.
도 5는 본 발명에 따른 로봇 관제 시스템이 shape-fitting 기법으로 주변 로봇과의 상대 위치를 계산하는 과정을 도시한 도면이다.
도 6은 본 발명에 따른 로봇 관제 시스템이 파티클 필터로 대상 로봇의 위치를 추정하는 과정을 도시한 도면이다.
도 7은 본 발명에 따른 로봇 관제 시스템의 제어 방법에 의하여 A 항법으로 주행하는 로봇이 QR 코드 항법의 작업 영역을 통과하는 과정을 도시한 도면이다.
도 8a와 도 8b는 본 발명에 따른 로봇 관제 시스템이 다양한 방식의 항법을 혼용하는 환경에 적용되는 일 예를 설명하기 위한 도면이다.
도 9a와 도 9b는 본 발명에 따른 로봇 관제 시스템이 작업 현장의 변화에 대응하는 방법을 설명하기 위한 도면이다.
도 10a 내지 도 10f는 로봇이 QR 항법 영역을 통과하는 일 예를 설명하기 위한 도면이다.
도 11은 본 발명에 따른 로봇 관제 시스템이 실내 측위의 정확도를 향상시키는 방법을 설명하기 위한 도면이다.
도 12는 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다
1 is a diagram showing a network configuration to which a robot control system according to the present invention is connected.
2 is a block diagram showing the configuration of a robot control system according to the present invention.
3 is a detailed block diagram showing the configuration of a robot control system according to an embodiment of the present invention.
4 illustrates a process in which the robot control system according to the present invention arranges a robot without a QR code recognition device in a QR code work area.
5 is a diagram illustrating a process in which the robot control system according to the present invention calculates a relative position with a neighboring robot using a shape-fitting technique.
6 is a diagram illustrating a process in which the robot control system according to the present invention estimates the position of a target robot using a particle filter.
7 is a diagram illustrating a process in which a robot traveling in A navigation passes through a work area of QR code navigation according to a control method of a robot control system according to the present invention.
8A and 8B are views for explaining an example in which the robot control system according to the present invention is applied to an environment in which various types of navigation are mixed.
9a and 9b are views for explaining how the robot control system according to the present invention responds to changes in the work site.
10A to 10F are views for explaining an example in which a robot passes through a QR navigation area.
11 is a diagram for explaining a method for improving the accuracy of indoor positioning by the robot control system according to the present invention.
12 is a diagram illustrating a computing device according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily carry out the present invention. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본 명세서에서, 동일한 구성요소에 대해서 중복된 설명은 생략한다.In this specification, redundant descriptions of the same components are omitted.

또한 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.In addition, in this specification, when a component is referred to as being 'connected' or 'connected' to another component, it may be directly connected or connected to the other component, but another component in the middle It should be understood that may exist. On the other hand, in this specification, when a component is referred to as 'directly connected' or 'directly connected' to another component, it should be understood that no other component exists in the middle.

또한, 본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로써, 본 발명을 한정하려는 의도로 사용되는 것이 아니다.In addition, terms used in this specification are only used to describe specific embodiments and are not intended to limit the present invention.

또한 본 명세서에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.Also, in this specification, a singular expression may include a plurality of expressions unless the context clearly indicates otherwise.

또한 본 명세서에서, '포함하다' 또는 '가지다' 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품, 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 할 것이다.In addition, in this specification, terms such as 'include' or 'having' are only intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more It should be understood that the presence or addition of other features, numbers, steps, operations, components, parts, or combinations thereof is not precluded.

또한 본 명세서에서, '및/또는' 이라는 용어는 복수의 기재된 항목들의 조합 또는 복수의 기재된 항목들 중의 어느 항목을 포함한다. 본 명세서에서, 'A 또는 B'는, 'A', 'B', 또는 'A와 B 모두'를 포함할 수 있다.Also in this specification, the term 'and/or' includes a combination of a plurality of listed items or any item among a plurality of listed items. In this specification, 'A or B' may include 'A', 'B', or 'both A and B'.

또한 본 명세서에서, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략될 것이다.Also, in this specification, detailed descriptions of well-known functions and configurations that may obscure the subject matter of the present invention will be omitted.

먼저 본 발명과 관련된 용어 및 기술들에 대해 설명한다. First, terms and techniques related to the present invention will be described.

무인 자율주행차량(Automated Guided Vehicle: AGV)은 무인 대차, 무인 반송 차량 등을 지칭하며, 물류 창고나 공장에서 물류나 설비 및 자재의 운반이나 이동을 위해 사용될 수 있다.An automated guided vehicle (AGV) refers to an unmanned vehicle, an unmanned transport vehicle, and the like, and may be used for transportation or movement of logistics or facilities and materials in a warehouse or factory.

무인 자율주행차량은 항법에 따라, AGV, LGV, AMR 등으로 분류될 수 있다.Unmanned self-driving vehicles can be classified into AGVs, LGVs, AMRs, and the like according to navigation.

AGV는 무인 반송 차량을 일반적으로 지칭하며, 자기 테이프를 따라가는 항법을 사용하는 무인 반송 차량을 지칭하기도 한다.AGV generally refers to unmanned guided vehicles, and also refers to unmanned guided vehicles that use magnetic tape-following navigation.

LGV(Laser Guided Vehicle)은 환경에 설치된 반사판에 의해 감지되는 레이저 센서를 사용하며 이를 기반으로 자유로운 경로로 주행을 한다. 다만, 레이저 센서는 2m 이상의 높이에 설치되므로, 이 경우 장애물을 인식할 수는 없다.LGV (Laser Guided Vehicle) uses a laser sensor that is detected by a reflector installed in the environment and travels in a free path based on this. However, since the laser sensor is installed at a height of 2 m or more, in this case, the obstacle cannot be recognized.

AMR(Autonomous Mobile Robot)은 2D 레이저 스캐너(LiDAR)를 사용하여 주변 장애물을 인식하고 회피하는 자율주행 항법을 사용하는 무인 반송 차량을 지칭한다.AMR (Autonomous Mobile Robot) refers to an unmanned guided vehicle that uses autonomous navigation to recognize and avoid surrounding obstacles using a 2D laser scanner (LiDAR).

ACS(AGV Control System)은 AGV를 제어하는 AGV 관제 시스템이다. ACS는 관제 대상을 한정하지 않으며, 무인 반송 차량을 관제하는 시스템에 대해 일반적으로 사용한다. 이 경우, 단일 ACS에서 지원하는 항법은 단일 항법이며, 연동되는 AGV도 단일 기종인 경우가 대부분이다.ACS (AGV Control System) is an AGV control system that controls AGVs. ACS is not limited to control targets, and is generally used for systems that control unmanned guided vehicles. In this case, the navigation supported by a single ACS is a single navigation, and in most cases, the interlocking AGV is also a single type.

RCS(Robot Control System)은 AMR을 제어하는 AMR 관제 시스템이다. 관제 대상은 AMR로만 구성하는 것이 일반적이다. RCS (Robot Control System) is an AMR control system that controls AMR. In general, the control target consists of only AMR.

도 1은 본 발명에 따른 로봇 관제 시스템이 연결되는 네트워크 구성을 도시한 도면이다.1 is a diagram showing a network configuration to which a robot control system according to the present invention is connected.

물류 창고나 공장과 같은 산업 현장에는 복수개의 로봇(120), 복수개의 로봇(120)을 제어하는 로봇 관제 시스템(200) 및 로봇 관제 시스템(200)에 작업 지시를 내리는 관리 시스템(110)이 존재할 수 있다. In an industrial site such as a distribution warehouse or a factory, a plurality of robots 120, a robot control system 200 for controlling the plurality of robots 120, and a management system 110 that issues work instructions to the robot control system 200 exist. can

관리 시스템(110)은 상위 생산 관리 시스템(Manufacturing Execution System, MES) 또는 창고 관리 시스템(Warehouse Management System, WMS) 등으로 구현될 수 있다. The management system 110 may be implemented as a manufacturing execution system (MES) or a warehouse management system (WMS).

로봇 관제 시스템(200)은 상위 시스템인 관리 시스템(110)과 하위의 복수개의 로봇(120) 사이의 중간 계층에서 모니터링, 작업 지시 및 주행 제어 등을 중계할 수 있다. 이를 위해, 로봇 관제 시스템(200)은 관리 시스템(110)과는 유선 통신을 수행하고, 복수개의 로봇(120)과는 무선 통신을 수행할 수 있다.The robot control system 200 may relay monitoring, work instructions, driving control, and the like in an intermediate layer between the management system 110, which is an upper system, and a plurality of lower robots 120. To this end, the robot control system 200 may perform wired communication with the management system 110 and perform wireless communication with a plurality of robots 120 .

복수개의 로봇(120)은 다양한 기종의 로봇 및/또는 무인 자율주행차량 중 적어도 하나를 포함할 수 있다. 예를 들어, 복수개의 로봇(120)은 도 1에 도시된 바와 같이, 로봇 1(122), 로봇 2(124) 및 AGV(126)로 구성될 수 있다.The plurality of robots 120 may include at least one of various types of robots and/or unmanned autonomous vehicles. For example, as shown in FIG. 1 , the plurality of robots 120 may include a robot 1 122 , a robot 2 124 and an AGV 126 .

만일, 현장의 작업 수준이 복잡하지 않은 경우라면, 상위 시스템인 관리 시스템(110)은 생략될 수 있다. 이 경우, 로봇 관제 시스템(200)의 사용자 어플리케이션을 통해 복수개의 로봇(120)을 위한 작업을 생성하고 지시할 수 있다.If the work level of the field is not complicated, the management system 110, which is a higher level system, may be omitted. In this case, it is possible to generate and instruct tasks for a plurality of robots 120 through a user application of the robot control system 200 .

도 2는 본 발명에 따른 로봇 관제 시스템의 구성을 도시한 블록도이다.2 is a block diagram showing the configuration of a robot control system according to the present invention.

본 발명에 따른 로봇 관제 시스템(200)은 다중 항법 방식을 혼용할 수 있는 다수의 이기종 로봇을 제어할 수 있다.The robot control system 200 according to the present invention can control a plurality of heterogeneous robots that can use multi-navigation methods together.

이를 위해, 로봇 관제 시스템(200)은 인터페이스부(210), 실내 측위 변환부(220), 작업 명령 처리부(230), 경로 생성부(240) 및 제어부(250)를 포함하여 구성될 수 있다.To this end, the robot control system 200 may include an interface unit 210, an indoor positioning conversion unit 220, a work command processing unit 230, a path generator 240, and a control unit 250.

인터페이스부(210)는 로봇 및 관리 시스템과 유무선 통신을 수행할 수 있다.The interface unit 210 may perform wired/wireless communication with the robot and the management system.

실내 측위 변환부(220)는 대상 로봇의 위치를 산출할 수 있다.The indoor positioning conversion unit 220 may calculate the position of the target robot.

일 실시예에 의하면, 실내 측위 변환부(220)는 Shape-fitting을 통해 대상 로봇과 주변 로봇과의 상대 위치를 계산할 수 있다. 또한, 실내 측위 변환부(220)는 파티클 필터를 이용하여 주변 로봇의 자세 정보에 기초하여 대상 로봇의 위치를 추정할 수 있다. According to an embodiment, the indoor positioning conversion unit 220 may calculate relative positions between the target robot and the surrounding robots through shape-fitting. In addition, the indoor positioning conversion unit 220 may estimate the position of the target robot based on posture information of neighboring robots using a particle filter.

이 경우, 실내 측위 변환부(220)는, Shape-fitting을 수행하는 경우 기준거리를 소정값만큼 반복하여 확장해가면서 기준거리 내에 존재하는 데이터들의 군집을 형성하고, 군집에 기초하여 벡터화된 로봇윤곽모델을 생성하며, 로봇윤곽모델의 각도로 위치를 맞추어 대상 로봇과 주변 로봇과의 거리 및 각도를 계산할 수 있다.In this case, when shape-fitting is performed, the indoor positioning conversion unit 220 forms a cluster of data existing within the reference distance while repeatedly extending the reference distance by a predetermined value, and forms a vectorized robot contour based on the cluster. A model is created, and the distance and angle between the target robot and the surrounding robots can be calculated by matching the location with the angle of the robot contour model.

또한, 실내 측위 변환부(220)는, 대상 로봇과 주변 로봇과의 거리를 기준으로 각 파티클의 유사도를 산정하고, 각 파티클의 가중치를 계산하여 다수의 파티클로 재생성한 후 기설정된 샘플링 횟수만큼 반복하여 대상 로봇의 위치를 추정할 수 있다.In addition, the indoor positioning conversion unit 220 calculates the similarity of each particle based on the distance between the target robot and the neighboring robot, calculates the weight of each particle, regenerates the particles into a plurality of particles, and then repeats it for a predetermined number of sampling times. Thus, the position of the target robot can be estimated.

작업 명령 처리부(230)는 로봇에 작업 명령을 할당할 수 있다.The work command processing unit 230 may assign work commands to the robot.

경로 생성부(240)는 대상 로봇의 주행 경로를 생성할 수 있다.The path generator 240 may generate a travel path of the target robot.

일 실시예에 의하면, 경로 생성부(240)는 대상 로봇의 크기 정보에 기초하여 최소 회전반경과 점유 공간을 계산하고, 최소 회전반경 및 점유 공간에 기초하여 주변 로봇과의 안전 거리를 부여하며, 우선 순위에 의해 진입 순서를 정하여 충돌이 없는 주행 경로를 생성할 수 있다.According to an embodiment, the path generator 240 calculates the minimum rotation radius and the occupied space based on the size information of the target robot, and grants a safe distance with neighboring robots based on the minimum rotation radius and the occupied space, It is possible to create a collision-free driving route by determining the entry order by priority.

제어부(250)는 대상 로봇이 제1항법에 따라 운용되고 있는 상태에서 제1항법과 다른 제2항법으로 운용되는 작업 영역으로 이동하고자 하는 경우, 대상 로봇과 주변 로봇과의 상대 위치를 계산하고 주변 로봇의 자세 정보에 기초하여 대상 로봇의 위치를 추정하도록 실내 측위 변환부(220)를 제어할 수 있다.The controller 250 calculates the relative position of the target robot and the surrounding robots when moving to a work area operated by the second navigation method, which is different from the first navigation method, while the target robot is being operated according to the first navigation method. The indoor positioning conversion unit 220 may be controlled to estimate the position of the target robot based on the posture information of the robot.

이 경우, 제어부(250)는 대상 로봇의 자세 정보를 작업 영역에 매핑할 수 있다. 또한, 제어부(250)는 대상 로봇이 주변 로봇과 충돌하지 않는 주행 경로를 생성하도록 경로 생성부(240)를 제어할 수 있다.In this case, the controller 250 may map posture information of the target robot to the work area. Also, the controller 250 may control the path generator 240 to generate a driving path in which the target robot does not collide with neighboring robots.

일 실시예에 의하면, 제1항법은 레이저 스캐너 센서를 사용하여 위치를 인식하고, 제2항법은 QR 코드를 사용하여 위치를 인식하는 것을 특징으로 할 수 있다.According to an embodiment, the first navigation method recognizes a location using a laser scanner sensor, and the second navigation method recognizes a location using a QR code.

실시예에 따라, 제어부(250)는 대상 로봇의 목적지까지의 경로가 서로 다른 항법으로 운용되는 작업 영역들을 거치는 경우, 대상 로봇의 위치를 추정하여 격자지도 상에 매핑하도록 실내 측위 변환부(220)를 제어하고, 위치 및 자세에 기초하여 대상 로봇이 주변 로봇과 충돌하지 않는 경로를 생성하도록 경로 생성부(240)를 제어할 수 있다.Depending on the embodiment, the control unit 250 may use the indoor positioning conversion unit 220 to estimate the location of the target robot and map it on a grid map when the route to the destination of the target robot passes through work areas operated by different navigations. and the path generator 240 may be controlled to generate a path in which the target robot does not collide with neighboring robots based on the position and posture.

제어부(250)는 대상 로봇이 레이저 센서를 사용하는 경우, 대상 로봇의 위치를 격자지도 상에 매핑하도록 실내 측위 변환부(220)를 제어할 수 있다.When the target robot uses a laser sensor, the controller 250 may control the indoor positioning conversion unit 220 to map the position of the target robot on a grid map.

또한, 제어부(250)는 대상 로봇이 레이저 스캐너 센서를 사용하는 경우, Shape-fitting을 통해 대상 로봇과 주변 로봇의 상대 위치를 계산하고 주변 로봇의 자세 정보를 통해 파티클 필터로 대상 로봇의 위치를 추정하도록 실내 측위 변환부(220)를 제어할 수 있다.In addition, when the target robot uses a laser scanner sensor, the controller 250 calculates the relative position of the target robot and the surrounding robots through shape-fitting and estimates the position of the target robot using a particle filter based on the attitude information of the surrounding robots. The indoor positioning conversion unit 220 may be controlled to do so.

도 3은 본 발명의 일 실시예에 따른 로봇 관제 시스템의 구성을 도시한 상세 블록도이다.3 is a detailed block diagram showing the configuration of a robot control system according to an embodiment of the present invention.

설비 인터페이스 처리부(301)는 상위 생산 관리 시스템 또는 창고 관리 시스템 등의 관리 시스템(110)과 통신을 수행한다. 이 경우, 설비 인터페이스 처리부(301)는 메시지를 표준 통신 프로토콜로 변환하여 전송할 수 있다. The facility interface processing unit 301 communicates with a management system 110 such as a higher production management system or a warehouse management system. In this case, the facility interface processing unit 301 may convert the message into a standard communication protocol and transmit it.

로봇 인터페이스 처리부(302)는 복수개의 로봇(120)과 통신을 수행한다.The robot interface processing unit 302 communicates with a plurality of robots 120 .

구체적으로, 로봇 인터페이스 처리부(302)는 다양한 항법으로 주행하는 다양한 기종의 복수개의 로봇(120)에 대응할 수 있도록 좌표계와 단위계 등의 표준화 변환을 수행할 수 있다. 일 실시예에 의하면, 표준 단위계는 SI 단위계를 사용하고, 지리 좌표계(Geometry Coordinate System)는 ENU(East North Up)를 따를 수 있다.Specifically, the robot interface processing unit 302 may perform standardization conversion such as a coordinate system and a unit system to correspond to a plurality of robots 120 of various types traveling in various navigations. According to an embodiment, the standard unit system may use the SI unit system, and the geometry coordinate system may follow ENU (East North Up).

로봇 인터페이스 처리부(302)는 연결되는 복수개의 로봇(120)들의 상태정보 업데이트 주기, 제어명령 업데이트 주기, 내부제어기 업데이트 주기 등을 변수로 관리하고, 통신이 개시되면 해당 설정에 따라 데이터 송수신을 수행할 수 있다.The robot interface processing unit 302 manages status information update cycles, control command update cycles, internal controller update cycles, etc. of the plurality of connected robots 120 as variables, and when communication is initiated, data transmission and reception is performed according to the settings. can

실시예에 따라, 로봇 인터페이스 처리부(302)는 일부 작업 명령과 상태 정보의 교환을 처리하기 위한 가상 메모리 어드레스에 매핑되는 메시지 큐를 포함할 수 있다.Depending on the embodiment, the robot interface processing unit 302 may include a message queue mapped to a virtual memory address for processing exchange of some work commands and status information.

데이터 적재 DB(303)는 복수개의 로봇(120)을 제어 및 관리하기 위한 데이터를 저장할 수 있다. 예를 들어, 로봇 상태, 로봇 위치, 작업 진행 상태 등의 데이터를 저장할 수 있다.The data loading DB 303 may store data for controlling and managing the plurality of robots 120 . For example, data such as robot status, robot location, and work progress status can be stored.

지도 편집 처리부(304)는 지도를 관리하고 편집할 수 있다.The map editing processing unit 304 may manage and edit a map.

구체적으로, 지도 편집 처리부(304)는 사용자가 정의한 임의의 배경 또는 평면도로 모사되는 작업 공간에서 복수개의 로봇(120)이 이동하는 고정적인 경로를 편집할 수 있다. 이 경우, 다수의 정점을 생성할 수 있고, 일 정점과 타 정점을 잇는 간선의 곡률을 세밀하게 조정할 수 있다. 간선의 곡률은 다양한 보간법(ex: 선형 직선, 모노톤 큐빅, 3차 다항, 5차 다항, 사이클로이드 등)을 이용하여 현장에 적합하게 설정할 수 있다. Specifically, the map editing processing unit 304 may edit a fixed path along which the plurality of robots 120 move in a work space simulated with an arbitrary background or plan view defined by a user. In this case, multiple vertices can be created, and the curvature of an edge connecting one vertex to another can be finely adjusted. The curvature of the trunk line can be set appropriately for the site using various interpolation methods (ex: linear straight line, monotone cubic, cubic polynomial, 5th order polynomial, cycloid, etc.).

또한, 지도 편집 처리부(304)는 임의의 영역에 속성을 부여하여, 복수개의 로봇(120)이 이동할 수 없는 가상의 벽을 생성할 수 있다.In addition, the map editing processor 304 may assign attributes to an arbitrary area to create a virtual wall on which the plurality of robots 120 cannot move.

실내 측위 변환부(305)는 주변의 로봇(120)과의 상대 위치를 기반으로 로봇(120)의 위치 정보를 합성 처리하거나, 별도의 기준점을 기반으로 산출된 로봇(120)의 위치 정보를 격자지도 상에 매핑할 수 있다.The indoor positioning conversion unit 305 synthesizes and processes the location information of the robot 120 based on the relative location with the robot 120 in the surroundings, or converts the location information of the robot 120 calculated based on a separate reference point into a grid. It can be mapped on a map.

구체적으로, 실내 측위 변환부(305)는 로봇(120)의 위치 정보를 현장의 기준 좌표에 매핑할 수 있다. 이를 위해, 2D 레이저 스캐너 센서만 구비한 로봇(120)이 대상 로봇(120)의 센서의 원 데이터와 주변 로봇(120)의 위치 자세를 기반으로 위치 추정 연산을 수행하고, 산출된 로봇(120)의 자세 정보를 격자 지도의 셀 좌표로 매핑할 수 있다.Specifically, the indoor positioning conversion unit 305 may map location information of the robot 120 to reference coordinates of the site. To this end, the robot 120 equipped with only the 2D laser scanner sensor performs a position estimation operation based on the raw data of the sensor of the target robot 120 and the position and posture of the surrounding robots 120, and the calculated robot 120 The attitude information of can be mapped to the cell coordinates of the lattice map.

또한, 실내 측위 변환부(305)는 QR 코드 인식 장치 없이 2D 레이저 스캐너 센서만 구비한 로봇(120)이 QR 코드 격자 공간에서 자기 위치를 추정할 수 있도록, 위치 정보를 합성 처리하는 경우 대상 로봇(120)의 2D 레이저 스캐너 센서의 원 데이터를 수신하여 360도 위상에 반사되는 값에 기초하여 Shape-fitting 기법을 통해 상대 로봇(120)의 위치를 추정하고 대상 로봇(120)과의 기하학적 거리와 각도를 산출할 수 있다. 이 경우, 기하학적 거리 정보를 기반으로 한 파티클 필터 기법을 이용하여 대상 로봇(120)의 위치 정보를 추정할 수 있다. 이렇게 추정한 위치나 자세 값 또는 별도 작업 공간의 기준점에 기초하여 레이저 센서를 통해 산출된 로봇(120)의 위치 정보를 기반으로, 격자 좌표를 매핑하는 경우 해당 좌표값을 설정 규격 범위에 따라 QR 코드 격자에 매핑하고 위치와 각도 편차를 구한 후 lateral control 기법으로 편차 보정을 할 수 있다.In addition, the indoor positioning conversion unit 305 synthesizes and processes positional information so that the robot 120 equipped with only a 2D laser scanner sensor without a QR code recognition device can estimate its own position in the QR code lattice space, the target robot ( 120) receives raw data from the 2D laser scanner sensor, estimates the position of the opponent robot 120 through a shape-fitting technique based on the value reflected in the 360-degree phase, and calculates the geometric distance and angle with the target robot 120 can be calculated. In this case, position information of the target robot 120 may be estimated using a particle filter technique based on geometric distance information. Based on the location information of the robot 120 calculated through the laser sensor based on the position or posture value estimated in this way or the reference point of the separate work space, when mapping grid coordinates, the corresponding coordinate values are set in the QR code according to the standard range. After mapping to the grid and finding the position and angle deviations, deviation correction can be performed using the lateral control technique.

작업 명령 처리부(306)는 상위 시스템으로부터 받은 작업을 로봇에게 할당할 수 있다. 이를 위해, 작업 명령 처리부(306)는 상위 시스템에서 전송받은 작업들을 보관, 할당, 편집 및 삭제하는 기능, 이에 따른 대상 로봇 추가나 삭제, 로봇의 배터리 상태 관리, 로봇에의 작업 할당이나 전이 및 삭제 등을 처리 및 관리할 수 있다.The work command processing unit 306 may allocate the work received from the upper system to the robot. To this end, the work command processing unit 306 has functions of storing, allocating, editing, and deleting jobs received from the upper system, adding or deleting target robots, managing battery status of robots, assigning or transferring and deleting jobs to robots, and the like. can be processed and managed.

일 실시예에 의하면, 작업 명령 처리부(306)는 로봇(120)을 추가하는 과정에서 로봇(120)의 상세 정보를 입력 받는다. 여기서, 입력된 로봇(120)의 상세 정보는 로봇(120)의 크기 정보(ex: 폭, 너비, 높이)와 구동바퀴에 대한 정보(ex: 구동바퀴의 구조, 구동바퀴 간의 거리, 센서의 설치 위치 좌표 등)를 포함할 수 있다. 이와 같이 입력 받은 크기 정보와 구동바퀴 간의 거리를 통해 최소 회전반경을 계산하고, QR 코드 인식 장치나 2D 레이저 스캐너 또는 레이저 센서 등 측위 센서의 설치 위치 좌표를 통해 로봇(120)으로부터 전송받은 센서의 원 데이터(raw data)를 처리할 때에 로봇(120)의 중심 좌표에서 센서까지의 거리 값을 바이어스로 부여할 수 있다.According to one embodiment, the work command processing unit 306 receives detailed information about the robot 120 in the process of adding the robot 120 . Here, the input detailed information of the robot 120 is information on the size of the robot 120 (ex: width, width, height) and information on driving wheels (ex: structure of driving wheels, distance between driving wheels, sensor installation location coordinates, etc.). The minimum rotation radius is calculated through the input size information and the distance between the driving wheels, and the sensor circle transmitted from the robot 120 through the installation location coordinates of positioning sensors such as QR code recognition devices, 2D laser scanners, or laser sensors When processing data (raw data), a distance value from the center coordinates of the robot 120 to the sensor may be given as a bias.

경로 생성부(307)는 다양한 항법에 대응되는 경로를 생성할 수 있다.The route generator 307 may create routes corresponding to various navigations.

구체적으로, 경로 생성부(307)는 복수의 로봇(120)이 동시적으로 출발지점에서 목적지점으로 이동하는 경우, 미리 입력된 로봇(120)의 크기 정보에 기초하여 최소 회전 반경과 점유 공간을 계산할 수 있다. 이 경우, 교차점에서 회전을 하더라도 로봇(120)의 점유 공간만큼 안전 거리를 부여하고, 우선 순위에 의해 진입 순서를 정하여, 충돌이 없는 경로를 생성하는 알고리즘에 의해 경로를 생성할 수 있다. Specifically, when the plurality of robots 120 simultaneously move from the starting point to the destination point, the path generator 307 determines the minimum turning radius and the occupied space based on previously input size information of the robots 120. can be calculated In this case, even if it rotates at the intersection, a route can be created by an algorithm that gives a safety distance equal to the space occupied by the robot 120, determines the entry order based on priority, and creates a route without collision.

경로 생성부(307)는 QR 코드 항법에 대해 격자 공간에서의 이동 경로를 시계열 정보로 분할하고, 우선순위에 따라 복수의 로봇(120)이 동시적으로 출발지점에서 목적지점으로 이동하더라도 충돌이 없는 경로를 생성하는 알고리즘에 의해 경로를 생성할 수 있다.The path generation unit 307 divides the movement path in grid space into time series information for QR code navigation, and even if the plurality of robots 120 move simultaneously from the starting point to the destination point according to the priority, there is no collision. A path may be generated by an algorithm for generating a path.

또한, 경로 생성부(307)는 QR 코드 항법에 대해 다양한 크기의 로봇(120)이 차지하는 격자 공간의 크기가 다른 경우, 점유 공간만큼 안전 거리를 동적으로 변경하여 충돌이 없는 경로를 생성하는 알고리즘에 의해 경로를 생성할 수 있다.In addition, the path generation unit 307 uses an algorithm for creating a collision-free path by dynamically changing the safety distance by the space occupied when the size of the grid space occupied by the robots 120 of various sizes is different for QR code navigation. Paths can be created by

경로 생성부(307)는 로봇(120)이 이동하는 경로에 대기중인 로봇(120)이 존재하는 경우, 해당 로봇(120)을 다른 위치로 이동시키고 지나가는 경로를 생성할 수 있다.When there is a robot 120 waiting on the path along which the robot 120 moves, the path generation unit 307 may move the robot 120 to another location and create a passing path.

나아가, 경로 생성부(307)는 로봇(120)이 레이저 유도 항법이나 자율주행 항법으로 주행하는 경우, 로봇(120)이 QR 코드 격자 공간을 통과하여 지나갈 수 있도록 이전 항법 처리부에서 QR 코드 항법 처리부로 대상 로봇(120)을 동적으로 전이시키고, 다른 로봇(120)의 이동 경로와 충돌되지 않는 진입점을 할당하며 대상 로봇(120)의 지역 경로 제어권을 로봇 관제 시스템(200)으로 가져올 수 있다. 이 경우, QR 코드 항법으로 경로 제어를 하여 충돌없이 해당 공간을 통과시키고, 다시 로봇(120)의 지역 경로 제어권을 로봇(120)에게 할당할 수 있다.Furthermore, the route generator 307 converts the previous navigation processing unit to the QR code navigation processing unit so that the robot 120 can pass through the QR code lattice space when the robot 120 travels by laser-guided navigation or autonomous navigation. The target robot 120 may be dynamically transferred, an entry point that does not collide with a movement path of another robot 120 may be allocated, and the right to control the local path of the target robot 120 may be brought to the robot control system 200 . In this case, the path can be controlled by QR code navigation to pass through the space without collision, and the right to control the local path of the robot 120 can be allocated to the robot 120 again.

경로 생성부(307)는 복수의 객체를 생성할 수 있고, 객체 각각에 대해 경로 생성 알고리즘을 변경하여 생성할 수 있다. The path creation unit 307 may create a plurality of objects, and may create a path by changing a path creation algorithm for each object.

이에 의하면, 위상 지도와 격자 지도 형태의 경로 생성이 가능하기 때문에, 단일 시스템으로 레이저 유도 항법, QR코드 항법 및 자율주행 항법 등의 경로 생성이 가능해진다.According to this, since it is possible to create a route in the form of a phase map and a grid map, it is possible to create a route such as laser-guided navigation, QR code navigation, and autonomous navigation with a single system.

모션 제어 처리부(308)는 로봇(120)의 이동 궤적을 생성하고, 위치 및 속도 제어 명령을 생성할 수 있다.The motion control processing unit 308 may generate a movement trajectory of the robot 120 and generate position and speed control commands.

구체적으로, 모션 제어 처리부(308)는 로봇(120)의 지역 경로 제어권을 로봇 관제 시스템(200)에서 가져온 경우, 지역 경로를 이동하기 위한 로봇(120)의 궤적을 생성할 수 있다. 이 경우, 생성한 궤적에 따라 로봇(120)의 구동축의 기구학을 반영한 가속 및 감속 프로파일을 생성할 수 있다. 또한, 로봇(120)의 위치와 자세 각도를 기반으로 생성된 궤적과의 오차를 계산하고 진입 각도를 연산할 수 있다.Specifically, the motion control processing unit 308 may generate a trajectory of the robot 120 for moving the local path when the control right for the local path of the robot 120 is obtained from the robot control system 200 . In this case, an acceleration and deceleration profile reflecting the kinematics of the drive shaft of the robot 120 may be generated according to the generated trajectory. In addition, an error with a trajectory generated based on the position and attitude angle of the robot 120 may be calculated and an entry angle may be calculated.

또한, 모션 제어 처리부(308)는 실제 로봇(120)을 연동하지 않더라도 명령 신호에 대한 가상의 피드백 신호를 생성하고 업데이트하는 시뮬레이션을 수행할 수 있다.In addition, the motion control processing unit 308 may perform a simulation of generating and updating a virtual feedback signal for a command signal even if the actual robot 120 is not interlocked.

로그 명령 관리부(309)는 로봇(120)과 로봇 관제 시스템(200)에서 발생하는 알람과 처리 명령의 로깅을 수행할 수 있다.The log command management unit 309 may perform logging of alarms and processing commands generated from the robot 120 and the robot control system 200 .

로그 명령 관리부(309)는 사용자의 추가나 편집 및 삭제를 수행하거나 사용자에 따라 기능을 활성화 또는 비활성화하도록 설정할 수 있다. The log command management unit 309 may add, edit, or delete users, or set functions to be activated or deactivated according to users.

로그 명령 관리부(309)는 각 로봇(120)의 통신 상태와 상태 파라미터를 확인할 수 있다.The log command management unit 309 can check the communication status and status parameters of each robot 120 .

로그 명령 관리부(309)는 로봇 관제 시스템(200) 및 각 로봇(120)의 알람 이력을 확인하고 검색할 수 있다.The log command management unit 309 may check and search the alarm history of the robot control system 200 and each robot 120 .

또한, 로그 명령 관리부(309)는 로봇 관제 시스템(200) 및 각 로봇(120)의 내부 명령어와 외부 메시지, 송수신 메시지 등을 기록하고 이력을 확인 및 검색할 수 있다. 이 경우, 기록된 명령어 로그를 기반으로 시뮬레이션으로 재구현하고 재생이나 중지 및 탐색을 수행할 수 있다.In addition, the log command management unit 309 may record internal commands, external messages, transmission/reception messages, etc. of the robot control system 200 and each robot 120 and check and search the history. In this case, based on the recorded command log, it can be re-implemented as a simulation, and play, stop, and search can be performed.

한편, 본 발명에 따른 로봇 관제 시스템의 제어 방법은, 대상 로봇의 위치를 산출하는 단계; 와, 상기 대상 로봇의 주행 경로를 생성하는 단계; 및, 상기 대상 로봇이 제1항법에 따라 운용되고 있는 상태에서 상기 제1항법과 다른 제2항법으로 운용되는 작업 영역으로 이동하고자 하는 경우, 상기 대상 로봇과 주변 로봇과의 상대 위치를 계산하고 상기 주변 로봇의 자세 정보에 기초하여 상기 대상 로봇의 위치를 추정하고, 상기 대상 로봇의 자세 정보를 상기 작업 영역에 매핑하며, 상기 대상 로봇이 상기 주변 로봇과 충돌하지 않는 상기 주행 경로를 생성하는 단계; 를 포함할 수 있다.On the other hand, the control method of the robot control system according to the present invention, calculating the position of the target robot; and generating a travel path of the target robot; And, in a state where the target robot is operated according to the first navigation method, when it is desired to move to a work area operated by the second navigation method different from the first navigation method, the relative position between the target robot and the surrounding robot is calculated and the estimating a position of the target robot based on posture information of neighboring robots, mapping the posture information of the target robot to the work area, and generating the driving path in which the target robot does not collide with the neighboring robots; can include

도 4는 본 발명에 따른 로봇 관제 시스템이 QR 코드 인식 장치가 없는 로봇을 QR 코드 작업 영역에 배치하는 과정을 도시한다.4 illustrates a process in which the robot control system according to the present invention arranges a robot without a QR code recognition device in a QR code work area.

대상 로봇이 작업 영역을 교차하는 경우, 도 4와 같은 과정을 거친다. 이 경우, 대상 로봇이 사용하는 센서에 따라 추가적인 프로세스가 발생할 수 있다.When the target robot crosses the work area, the same process as in FIG. 4 is performed. In this case, additional processes may occur depending on the sensor used by the target robot.

도 4에 도시된 바와 같이, 대상 로봇의 목적지가 작업 영역을 교차하는지 판단한다(S401). 여기서, 작업 영역을 교차한다는 것은 대상 로봇이 항법 방식이 다른 작업 영역으로 이동하는 것을 의미할 수 있다. 예를 들어, 도 4에서는 QR 코드 인식 장치가 없는 대상 로봇을 QR 코드 작업 영역에 배치하는 경우이다. As shown in FIG. 4, it is determined whether the destination of the target robot crosses the work area (S401). Here, crossing the work area may mean that the target robot moves to a work area with a different navigation method. For example, in FIG. 4 , a target robot without a QR code recognition device is placed in a QR code work area.

작업 영역을 교차하지 않는 경우(S401-No), QR 코드 인식 장치가 없는 로봇을 QR 코드 작업 영역에 배치할 필요가 없으므로, 본 과정을 종료한다. If it does not cross the work area (S401-No), it is not necessary to arrange a robot without a QR code recognition device in the QR code work area, so this process ends.

작업 영역을 교차하는 경우(S401-Yes), 대상 로봇이 레이저 스캐너 센서를 사용하는지 판단한다(S402).When crossing the work area (S401-Yes), it is determined whether the target robot uses a laser scanner sensor (S402).

만일, 레이저 센서를 사용하는 경우에는, 로봇의 위치 정보를 비교적 정확하게 얻을 수 있으므로, 위치 정보를 기반으로 바로 QR 격자 영역에 매핑하게 된다.If a laser sensor is used, position information of the robot can be obtained relatively accurately, and thus, based on the position information, the robot is directly mapped to the QR grid area.

반면, 2D 레이저 스캐너 센서를 사용하는 경우에는, 로봇의 위치 정보를 얻을 수는 있으나, 현장 환경의 특징 요소가 주변의 로봇들에 의해 가려지는 상황이 많은 QR 코드 항법 영역에서는 추가적인 측위 기법이 요구된다.On the other hand, in the case of using a 2D laser scanner sensor, robot position information can be obtained, but additional positioning techniques are required in the QR code navigation area, where there are many situations in which the feature elements of the field environment are covered by nearby robots. .

대상 로봇이 레이저 스캐너 센서를 사용하는 경우(S402-Yes), shape-fitting을 통해 대상 로봇과 주변 로봇의 상대 위치를 계산한다(S403). If the target robot uses a laser scanner sensor (S402-Yes), the relative positions of the target robot and neighboring robots are calculated through shape-fitting (S403).

2D 레이저 스캐너 센서의 데이터를 통해 Shape-fitting 기법으로 주변 로봇과의 상대 위치를 계산할 수 있다. 이에 대해서는 도 5에 대한 설명에서 상세하게 설명한다.Through the data of the 2D laser scanner sensor, the relative position with the surrounding robot can be calculated by shape-fitting technique. This will be described in detail in the description of FIG. 5 .

주변 로봇의 자세 정보를 통해 파티클 필터로 대상 로봇의 위치를 추정한다(S404). The position of the target robot is estimated using the particle filter through the posture information of the surrounding robots (S404).

주변 로봇과의 상대 위치를 기반으로 파티클 필터(Particle filter)를 통해 대상 로봇의 위치를 추정한다. 이에 대해서는 도 6에 대한 설명에서 상세하게 설명한다.Based on the relative position with neighboring robots, the position of the target robot is estimated through a particle filter. This will be described in detail in the description of FIG. 6 .

한편, S402 단계에서 대상 로봇이 레이저 스캐너 센서를 사용하지 않는 경우(S402-No), S403 단계와 S404 단계를 거치지 않고 S405 단계로 진행한다.Meanwhile, in step S402, when the target robot does not use the laser scanner sensor (S402-No), step S405 is performed without going through steps S403 and S404.

대상 로봇의 자세 정보를 QR 격자 영역에 매핑한다(S405).The posture information of the target robot is mapped to the QR grid area (S405).

매핑된 위치 정보를 경로 생성부에 업데이트 한다(S406).The mapped location information is updated to the route generator (S406).

도 5는 본 발명에 따른 로봇 관제 시스템이 shape-fitting 기법으로 주변 로봇과의 상대 위치를 계산하는 과정을 도시한 도면이다.5 is a diagram illustrating a process in which the robot control system according to the present invention calculates a relative position with a neighboring robot using a shape-fitting technique.

대상 로봇 센서의 원시 데이터를 최대/최소값 이상치를 제거한다(S501).The maximum/minimum value outliers are removed from the raw data of the target robot sensor (S501).

먼저 대상 로봇의 2D 레이저 스캐너 센서의 원시 데이터(raw data)를 최대/최소값에 대해 필터링한다. 신뢰성 있는 값을 획득하기 위하여, 원시 데이터에서 최대값 및 최소값은 제거한다.First, raw data of the 2D laser scanner sensor of the target robot is filtered for maximum/minimum values. In order to obtain reliable values, the maximum and minimum values are removed from the raw data.

임의의 거리 이내에 존재하는 데이터가 있는지 판단한다(S502).It is determined whether there is data within a certain distance (S502).

미리 정의한 거리를 기준으로 감지된 데이터가 존재하는지 확인한다.Based on the predefined distance, it checks whether the detected data exists.

임의의 거리 이내에 존재하는 데이터가 있으면(S502-Yes), 범위의 데이터로 새로운 군집을 구성하고 기준 거리를 확장한다(S503).If there is data within a certain distance (S502-Yes), a new cluster is formed with the data within the range and the reference distance is extended (S503).

기준 거리를 확장한 범위에 데이터가 있는지 확인한다(S504).It is checked whether there is data in the extended range of the reference distance (S504).

해당 범위의 데이터를 군집으로 구성하고, 기준 거리를 확장하여 다시 데이터를 확인한다. 이때 분리된 군집은 장애물 후보가 된다.Organize the data in the range into clusters, expand the reference distance, and check the data again. At this time, the separated cluster becomes an obstacle candidate.

만일, 기준 거리를 확장한 범위에 데이터가 없으면(S504-No), 벡터화된 로봇 윤곽 모형을 불러온다(S505).If there is no data in the extended range of the reference distance (S504-No), a vectorized robot outline model is called (S505).

반면, 기준 거리를 확장한 범위에 데이터가 있으면(S504-Yes), S503 단계로 되돌아가 해당 범위의 데이터로 새로운 군집을 구성하고 기준 거리를 다시 확장한다.On the other hand, if there is data in the range in which the reference distance is extended (S504-Yes), the process returns to step S503 to configure a new cluster with the data in the corresponding range and extend the reference distance again.

한편, S502 단계에서 임의의 거리 이내에 존재하는 데이터가 없으면(S502-No), S505 단계로 진행하여 벡터화된 로봇 윤곽 모형을 불러온다(S505).On the other hand, if there is no data existing within a certain distance in step S502 (S502-No), the process proceeds to step S505 and a vectorized robot outline model is called (S505).

모든 방향으로 반복했는지 판단한다(S506).It is determined whether it is repeated in all directions (S506).

수치 행렬로 표현한 로봇 윤곽 모델을 기준으로 모든 방향으로 탐색한다. 탐색에 의해, 로봇 모델의 모든 점에서 각 모서리 점까지의 거리를 구할 수 있다.Based on the robot contour model expressed as a numerical matrix, it searches in all directions. By searching, the distance from all points of the robot model to each corner point can be obtained.

얻어진 거리 값에 따라 P와 Q로 분리할 수 있다(러프하게 가로선과 세로선 등으로 구분할 수 있다). 분리된 두 부분 집합에 대해 다음 [식 1]로 최소 제곱 오차를 구한다. Depending on the obtained distance value, it can be divided into P and Q (it can be roughly divided into horizontal lines and vertical lines). For the two separated subsets, the least square error is obtained by the following [Equation 1].

[식 1] [Equation 1]

목적함수는 몇 가지 방식을 선택적으로 사용할 수 있다. 구체적으로, 면적이 최소값을 갖는 경우를 찾는 방법, 점에서 변까지의 가장 가까운 거리가 최소값을 갖는 경우를 찾는 방법, 두 부분 집합의 점들이 속한 직교하는 두 변의 제곱 오차가 최소값을 갖는 경우를 찾는 방법 등을 사용할 수 있다. The objective function can selectively use several methods. Specifically, a method for finding a case where the area has a minimum value, a method for finding a case where the closest distance from a point to an edge has a minimum value, a method for finding a case where the square error of two orthogonal sides to which the points of the two subsets belong have a minimum value method, etc. can be used.

본 발명에서는, 면적이 최소값을 갖는 경우를 찾는 목적함수를 예로 들어 설명한다. In the present invention, an objective function for finding a case where an area has a minimum value will be described as an example.

S506 단계에서 모든 방향으로 반복했다면(S506-Yes), 최소 제곱 오차가 발생한 로봇 윤곽 모델의 각도로 로봇 윤곽 모형의 위치를 맞춘다(S507).If step S506 is repeated in all directions (S506-Yes), the position of the robot contour model is aligned with the angle of the robot contour model where the least square error has occurred (S507).

즉, 최소값을 갖는 각도로 로봇 윤곽 모형의 위치를 맞춘다.That is, the position of the robot contour model is adjusted to the angle having the minimum value.

대상 로봇과 상대 로봇의 상대 거리와 각도를 계산한다(S508).The relative distance and angle between the target robot and the opponent robot are calculated (S508).

이 경우, 대상 로봇과 상대 로봇의 상대 거리와 각도를 저장한다.In this case, the relative distance and angle between the target robot and the opponent robot are stored.

로봇을 이동시킨다(S511).The robot is moved (S511).

한편, S506 단계에서 모든 방향으로 반복하지 않았다면(S506-No), 로봇 윤곽 모델 데이터를 회전시킨다(S509). Meanwhile, if it is not repeated in all directions in step S506 (S506-No), the robot contour model data is rotated (S509).

목적 함수로 제곱 오차를 계산한다(S510).A square error is calculated as an objective function (S510).

도 6은 본 발명에 따른 로봇 관제 시스템이 파티클 필터로 대상 로봇의 위치를 추정하는 과정을 도시한 도면이다.6 is a diagram illustrating a process in which the robot control system according to the present invention estimates the position of a target robot using a particle filter.

파티클을 초기화한다(S601).Particles are initialized (S601).

먼저 균등 분포로 파티클을 초기화한다.First, we initialize the particles with a uniform distribution.

대상 로봇과 상대 로봇의 거리를 기준으로 각 파티클의 유사도를 산정한다(S602).The similarity of each particle is calculated based on the distance between the target robot and the opponent robot (S602).

구체적으로, 대상 로봇과 주변 로봇의 상대 거리를 기준으로 각 파티클의 유사도를 산정한다.Specifically, the similarity of each particle is calculated based on the relative distance between the target robot and the neighboring robot.

각 파티클의 가중치를 계산한다(S603).The weight of each particle is calculated (S603).

가중치 도출을 위해 거리값과 거리 예측값을 다음 [식 2]와 같은 정규화 식으로 표현한다.To derive the weight, the distance value and the distance prediction value are expressed as a normalization expression as shown in [Equation 2].

[식 2] [Equation 2]

정규화된 두 값의 차이를 비교하여 각 파티클이 대상 로봇에서 관측된 거리와 얼마나 유사한지를 판단하여 해당 파티클의 가중치를 구한다.The weight of the particle is obtained by comparing the difference between the two normalized values to determine how similar each particle is to the observed distance from the target robot.

다음 [식 3]을 통해 각 파티클의 가중치를 도출할 수 있다.The weight of each particle can be derived through the following [Equation 3].

[식 3] [Equation 3]

다수의 파티클로 재생성한다(S604).It is regenerated into a large number of particles (S604).

가중치가 높게 평가된 파티클들을 다수의 파티클로 복제하여 재생성한다.Particles with a high weight are copied and regenerated into multiple particles.

N번 반복하였는지 판단한다(S605).It is determined whether it has been repeated N times (S605).

위의 과정들을 설정된 샘플링 횟수 N번 만큼 반복한다. N번 반복하지 않는 경우(S605-No), S602단계로 되돌아가 과정을 반복한다. Repeat the above process as many times as the set number of sampling times. If not repeated N times (S605-No), return to step S602 and repeat the process.

N번 반복한 경우(S605-Yes), 최종 위치 측위점을 산출한다(S606).If repeated N times (S605-Yes), the final location positioning point is calculated (S606).

여기서 최종 위치 측위점 은 다음 [식 4]와 같이 표현된다.final positioning point here is expressed as the following [Equation 4].

[식 4] [Equation 4]

로봇을 이동시킨다(S607).The robot is moved (S607).

최종 위치 측위점 를 고려하여 주행경로를 생성하고 로봇을 이동시킨다.final position positioning point Considering , a driving path is created and the robot is moved.

도 7은 본 발명에 따른 로봇 관제 시스템의 제어 방법에 의하여 A 항법으로 주행하는 로봇이 QR 코드 항법의 작업 영역을 통과하는 과정을 도시한 도면이다.7 is a diagram illustrating a process in which a robot traveling in A navigation passes through a work area of QR code navigation according to a control method of a robot control system according to the present invention.

이 경우, A 항법은 QR 코드 항법이 아닌 다른 임의의 항법을 의미한다. 도 7에 의한 과정은 대상 로봇의 목적지가 QR 코드 항법 영역을 통과하는 경우 거치게 된다.In this case, A navigation refers to any navigation other than the QR code navigation. The process of FIG. 7 is performed when the target robot's destination passes through the QR code navigation area.

대상 로봇의 목적지가 작업 영역을 교차하는지 판단한다(S701).It is determined whether the destination of the target robot crosses the work area (S701).

대상 로봇의 목적지가 작업 영역을 교차하지 않으면(S701-No), 도 7에 의한 과정은 종료한다.If the destination of the target robot does not cross the work area (S701-No), the process according to FIG. 7 ends.

대상 로봇의 목적지가 작업 영역을 교차하면(S701-Yes), 대상 로봇을 교차 대기 목적지로 이동시킨다(S702).If the destination of the target robot crosses the work area (S701-Yes), the target robot is moved to the cross standby destination (S702).

먼저, 대상 로봇을 영역 교차 주행을 위해 미리 설정된 A 항법 영역의 대기 영역으로 이동시킨다.First, the target robot is moved to the standby area of the navigation area A, which is set in advance for cross-traveling.

교차할 항법 처리부로 대상 로봇을 전이시킨다(S703).The target robot is transferred to the navigation processing unit to cross (S703).

구체적으로, 기존에 대상 로봇을 제어하던 A 항법 처리부는 대상 로봇 및 제어권한을 교차할 QR 코드 항법 처리부로 전이시킬 수 있다.Specifically, the navigation processing unit A, which previously controlled the target robot, may transfer the target robot and control authority to the QR code navigation processing unit to cross.

대상 로봇이 이동을 완료하면, A 항법 처리부에서 등록을 해제하고 QR 항법 처리부에 로봇 등록을 추가한다.When the target robot completes its movement, the A navigation processing unit cancels the registration and adds the robot registration to the QR navigation processing unit.

교차된 항법 처리부에서 대상 로봇의 경로를 생성한다(S704).In the intersected navigation processing unit, a path of the target robot is created (S704).

QR 코드 항법 처리부는 대상 로봇 및 제어권한을 넘겨 받는 경우, 대상 로봇의 경로를 생성할 수 있다. 이 경우, QR 코드 항법 처리부는 새롭게 등록된 대상 로봇의 최적 경로를 생성하여, 다른 로봇과 충돌없이 QR 항법 영역의 대기 영역으로 이동이 가능하도록 한다. 이때, 대상 로봇(예를 들어, 임의의 제조사의 로봇 하드웨어)에 QR 항법 주행에 대한 기능이 탑재되어 있지 않은 경우, 지역 경로 제어권을 로봇 관제 시스템이 가져와서 미소 거리의 주행을 제어할 수 있다.The QR code navigation processing unit may create a path of the target robot when the target robot and control authority are transferred. In this case, the QR code navigation processing unit creates an optimal path for the newly registered target robot so that it can move to the standby area of the QR navigation area without colliding with another robot. At this time, if the target robot (eg, robot hardware of any manufacturer) is not equipped with a function for QR navigation driving, the robot control system can control the driving of a small distance by obtaining the local path control right.

다시 교차할 작업 영역에 가까운 대기 목적지로 이동한다(S705).It moves to a standby destination close to the work area to be intersected again (S705).

만일, 다시 작업 영역을 교차하는 경우, 대상 로봇을 영역 교차 주행을 위해 미리 설정된 Q 항법 영역의 대기 영역으로 이동시킨다.If it crosses the work area again, the target robot is moved to the waiting area of the preset Q navigation area for crossing the area.

다시 교차할 항법 처리부로 대상 로봇을 전이시킨다(S706).The target robot is transferred to the navigation processor to intersect again (S706).

대상 로봇을 제어하던 Q 항법 처리부는, 대상 로봇 및 제어권한을 교차할 A 항법 처리부로 전이시킨다.The Q navigation processing unit controlling the target robot transfers the target robot and control authority to the A navigation processing unit to intersect.

다시 대상 로봇을 QR 코드 항법 처리부에서 등록 해제하고, A 항법 처리부에 로봇 등록을 추가한다.Again, the target robot is deregistered from the QR code navigation processing unit, and robot registration is added to the A navigation processing unit.

교차된 항법 처리부에서 대상 로봇의 경로를 생성한다(S707).The route of the target robot is created in the intersected navigation processing unit (S707).

A 항법 처리부는 대상 로봇 및 제어권한을 넘겨 받는 경우, 대상 로봇의 경로를 생성할 수 있다. 이 경우, A 항법 처리부는 새롭게 등록된 대상 로봇의 최적 경로를 생성하여, 다른 로봇과 충돌없이 A 항법 영역의 대기 영역으로 이동이 가능하도록 한다.The A navigation processing unit may create a path of the target robot when the target robot and control authority are transferred. In this case, the navigation processing unit A creates an optimal path for the newly registered target robot so that it can move to the waiting area of the navigation area A without colliding with another robot.

목적지까지 대상 로봇이 이동한다(S708).The target robot moves to the destination (S708).

대상 로봇은 생성된 경로에 따라 A 항법 영역의 목적지까지 이동한다. The target robot moves to the destination of the navigation area A according to the created route.

이와 같은 프로세서에 대해서는 구체적인 실시예에서 도면을 참조하여 다시 서술한다.Such a processor will be described again with reference to drawings in specific embodiments.

도 8a와 도 8b는 본 발명에 따른 로봇 관제 시스템이 다양한 방식의 항법을 혼용하는 환경에 적용되는 일 예를 설명하기 위한 도면이다.8A and 8B are views for explaining an example in which the robot control system according to the present invention is applied to an environment in which various types of navigation are mixed.

도 8a 및 도 8b에서는 최근 활발하게 도입되고 있는 복합 물류센터의 작업 환경을 예로 들어 설명한다.In FIGS. 8A and 8B , a working environment of a complex logistics center that has recently been actively introduced will be described as an example.

구체적으로, 도 8a는 기존의 로봇 관제 시스템이 적용된 경우이다. 복합 물류센터의 입고 창구를 통해 팔레트나 박스 단위의 상품이 입고된다. 입고된 상품은 포장을 제거하는 단계를 거쳐, 제1 작업 영역(810)에 전달된다.Specifically, FIG. 8A is a case where an existing robot control system is applied. Products in units of pallets or boxes are received through the warehousing window of the complex distribution center. The received product is delivered to the first work area 810 after going through a step of removing the packaging.

제1 작업 영역(810)에서 이동 로봇은 포장이 제거된 개별 상품을 제2 작업 영역(820)의 입고 작업자에게 전달되는 라인까지 이송한다.In the first work area 810 , the mobile robot transfers the unpackaged individual products to the second work area 820 where they are delivered to the warehousing operator.

제2 작업 영역(820)의 입고 작업자는 전달된 개별 상품을 작업대에 나열된 인벤토리 선반에 분배한다. 이때 인벤토리 선반에 상품을 분배하기 위해 DAS(Digital Assorting System)가 적용되어 있을 수 있으며, 적용되어 있지 않더라도 상품 분배 완료 신호를 로봇 관제 시스템에 알릴 수 있다.The warehousing worker in the second work area 820 distributes the delivered individual products to the inventory shelves arranged on the work table. At this time, a digital assorting system (DAS) may be applied to distribute products on the inventory shelf, and even if not applied, a product distribution completion signal may be notified to the robot control system.

상품 분배가 완료된 인벤토리 선반은 로봇 관제 시스템에 의하여 선반을 배치할 공간을 할당받을 수 있다. 로봇 관제 시스템의 작업 명령 처리부에서는 해당 선반을 할당된 위치로 이송시키는 명령을 생성하고, 현재 대기중이고 배터리의 잔량이 충분하며 선반과 가까운 거리에 있는 등의 조건에 부합하는 이동 로봇을 선정한다.Inventory shelves on which product distribution has been completed may be allocated spaces for arranging the shelves by the robot control system. The work command processing unit of the robot control system generates a command to transfer the shelf to the assigned position, and selects a mobile robot that meets conditions such as being on standby, having sufficient battery power, and being close to the shelf.

로봇 관제 시스템의 경로 생성 처리부는 선정된 로봇이 다른 로봇과 충돌하지 않으며 빠른 경로로로 이동할 수 있는 경로를 생성하고, 로봇에게 이동 명령을 전송한다. 로봇이 선반을 이송하고 난 뒤, 분류 작업 지시에 따라 출하를 위해 분류되어야 하는 상품이 보관된 인벤토리 선반으로 이동할 수 있다.The path generation processing unit of the robot control system creates a path through which the selected robot can move on a fast path without colliding with other robots, and transmits a movement command to the robot. After the robot transports the shelves, it can move to the inventory shelves where products to be sorted for shipment are stored according to sorting instructions.

해당 인벤토리 선반을 분류 작업자의 작업대까지 로봇이 이송하게 되면, 분류 작업자는 출하 명령에 따라 인벤토리 선반에 보관된 해당 상품을 분류 선반에 옮겨담게 된다. 이때 분류 작업자가 출하된 상품을 분류 선반에 옮겨 담기 위해, DPS(Digital Picking System)가 적용되어 있을 수 있으며, 적용되어 있지 않더라도 상품을 옮겨담는 것이 완료되면 로봇 관제 시스템에 완료 명령을 보낼 수 있다.When the robot transfers the corresponding inventory shelf to the sorting worker's work table, the sorting worker moves the corresponding product stored in the inventory shelf to the sorting shelf according to a shipment command. In this case, a digital picking system (DPS) may be applied to the sorting worker to transfer the shipped product to the sorting shelf, and even if it is not applied, a completion command may be sent to the robot control system when the moving of the product is completed.

상품 분류가 완료된 분류 선반은 로봇 관제 시스템에 의해 임의의 이동 로봇이 선정되어 수집 작업자의 작업대로 이송된다.A random mobile robot is selected by the robot control system for the sorting shelf on which product classification is completed, and is transported to the collection worker's work table.

수집 작업자는 작업대에서 분류가 완료된 선반들에 보관된 상품을 주문 목록에 따라 수집하게 된다. 수집이 완료된 상품들은 박스나 바구니 등 임의의 어떤 포장 규격에 따라 포장된다. 이 경우, 포장된 상품은 임의의 자동화 라인을 통해 제3 작업 영역(830)으로 이동한다.The collection worker collects the products stored on the shelves that have been sorted on the work table according to the order list. The collected products are packaged according to any packaging standard such as a box or a basket. In this case, the packaged product moves to the third work area 830 through an arbitrary automated line.

제3 작업 영역(830)의 이동 로봇은 포장된 상품을 자동 창고나 출하장으로 이송한다. 출하장으로 이송된 상품은 출하 차량을 통해 출하된다.The mobile robot in the third work area 830 transports the packaged products to an automated warehouse or shipping yard. Products transported to the shipping yard are shipped through shipping vehicles.

이와 같은 예시의 물류 현장은 3개의 작업 영역으로 구분되어 운용되고 있다. 이 경우, 각 작업 영역(810, 820, 830)은 작업에 최적화된 항법으로 운용되며, 각 작업 영역(810, 820, 830)에 대응하는 로봇 관제 시스템은 대응하는 항법에 따라 이동 로봇을 제어하게 된다.The logistics site of this example is operated by being divided into three work areas. In this case, each work area (810, 820, 830) is operated with a navigation optimized for the work, and the robot control system corresponding to each work area (810, 820, 830) controls the mobile robot according to the corresponding navigation. do.

이와 같이, 기존의 로봇 관제 시스템은 하나의 시스템에서 다양한 항법의 경로 생성을 처리하지 못하기 때문에, 복수의 로봇 관제 시스템으로 운용되어야 한다. 이는 비용면에서 비효율적이며, 작업 영역이나 현장이 바뀌어야 하는 경우에도 추가적인 비용 투자가 요구되므로 유동적으로 변경하기 어렵다는 문제점이 존재한다.In this way, since the existing robot control system cannot process creation of various navigation routes in one system, it must be operated as a plurality of robot control systems. This is inefficient in terms of cost, and there is a problem in that it is difficult to change flexibly because additional cost investment is required even when the work area or site needs to be changed.

도 8b는 본 발명에 따른 로봇 관제 시스템이 적용된 경우이다. 본 발명에 따른 로봇 관제 시스템(200)은 복수의 경로 생성 알고리즘을 포함하는 경로 생성 처리부를 통해, 이종 항법이 적용된 여러 개의 작업 영역으로 분할된 현장에 적용되더라도 단일 시스템에 의해 제어가능하며 다수의 이동 로봇이 충돌하지 않고 목적지까지 이동할 수 있다.Figure 8b is a case where the robot control system according to the present invention is applied. The robot control system 200 according to the present invention is controllable by a single system through a path generation processing unit including a plurality of path generation algorithms, even when applied to a site divided into several work areas to which heterogeneous navigation is applied, and can be controlled by a single system and has multiple movements. The robot can move to its destination without colliding.

경로 생성 처리부는 사용자의 운용 계획에 따라 경로 생성 처리기를 복수의 객체로 생성할 수 있고, 각 객체는 다른 경로 생성 알고리즘으로 생성될 수 있다.The path generation processing unit may create a path generation processor as a plurality of objects according to a user's operation plan, and each object may be created with a different path generation algorithm.

생성된 경로 생성 처리기는 작업 명령 처리부를 통해 각각 임의의 개수의 로봇을 등록하게 되며, 이동, 정지, 충전 및 적재 명령 등 다양한 명령을 수신 받아 상황에 적합한 경로를 생성하게 된다.The created path creation processor registers an arbitrary number of robots through the work command processing unit, receives various commands such as move, stop, charge, and load commands, and creates a path suitable for the situation.

생성된 경로는 고유의 알고리즘에 따라 시간에 대해 임의의 개수로 분할된 경로 계획을 로봇에 전송하게 된다. 이때 전송되는 경로 계획은 항법이나 주행 제어 기법에 따라 경유해야 할 노드의 배열이 될 수도 있고, 위치 좌표의 배열이 될 수도 있다. 여기서 노드(Node)는 로봇이 인식할 수 있는 지점을 의미하며, 이름이나 고유식별번호(ID)로 관리될 수 있다. 노드는 사용자에게 제공되는 지도 편집 처리기를 통해 정의할 수 있다.The created path transmits a path plan divided into an arbitrary number of times to the robot according to a unique algorithm. At this time, the transmitted route plan may be an array of nodes to be passed through according to navigation or driving control techniques, or an array of location coordinates. Here, a node means a point that a robot can recognize, and can be managed with a name or a unique identification number (ID). Nodes can be defined through the map editing handler provided to the user.

도 9a와 도 9b는 본 발명에 따른 로봇 관제 시스템이 작업 현장의 변화에 대응하는 방법을 설명하기 위한 도면이다.9A and 9B are views for explaining how the robot control system according to the present invention responds to changes in the work site.

구체적으로, 도 9a는 기존의 로봇 관제 시스템이 적용된 경우이고, 도 9b는 본 발명에 따른 로봇 관제 시스템이 적용된 경우이다.Specifically, FIG. 9A is a case in which an existing robot control system is applied, and FIG. 9B is a case in which a robot control system according to the present invention is applied.

본 발명에 따른 로봇 관제 시스템(200)은 작업 현장의 변화에 유연하게 대응할 수 있다. 최근의 물류 환경은 소량 다품종의 상품들의 입출고를 처리하며 고도의 기능성과 높은 공간 활용도를 요구한다. 따라서, 초기에 배치된 작업 환경은 사용자의 의도에 따라 작업대의 배치나 동선 등이 달라질 수도 있고, 취급하는 물류의 형태가 바뀌거나 각 작업 영역의 수하물이 교차되어 취급될 수도 있다.The robot control system 200 according to the present invention can flexibly respond to changes in the work site. The recent logistics environment handles the warehousing and warehousing of many types of products in small quantities and requires high functionality and high space utilization. Accordingly, in the initially arranged work environment, the arrangement of the workbench or the movement line may be changed according to the user's intention, the type of logistics to be handled may be changed, or the luggage of each work area may be handled crosswise.

이에 대한 예시로 도 9a에 도시된 것과 같은 기존 작업 현장에서 보다 높은 물동량을 처리하기 위해 인벤토리 선반의 적재 공간을 확장한다고 가정한다. 이때 기존 제3 작업 영역(830)의 이동 로봇이 이동하는 동선이 확장된 제2 작업 영역(820)으로 인해 이동이 불가능해지는 상황이 발생한다. 즉, 제3 작업 영역(830)과 제2 작업 영역(820)은 항법이 상이하므로, 제3 작업 영역(830)에서 작업하는 이동 로봇은 제2 작업 영역(820)에서 이동할 수 없다. 도 9a에서 이동 로봇은 제2 작업 영역(820)을 가로지르는 경로(900)로 이동할 수 없다. As an example of this, it is assumed that the loading space of the inventory shelf is expanded in order to handle a higher quantity of goods in the existing work site as shown in FIG. 9A. At this time, a situation arises in which movement of the mobile robot in the existing third work area 830 becomes impossible due to the expanded second work area 820 . That is, since navigation is different between the third work area 830 and the second work area 820 , the mobile robot working in the third work area 830 cannot move in the second work area 820 . In FIG. 9A , the mobile robot cannot move along the path 900 crossing the second work area 820 .

이와 같이 기존에는 단일 시스템이 단일 항법에 대한 주행 관리를 하는 것이 일반적이므로, 기존에 설정된 작업 영역을 벗어나거나 다른 항법으로 로봇이 주행중인 작업 영역을 통과하는 것은 불가능하다.Since it is common for a single system to manage driving for a single navigation in the past, it is impossible to deviate from a previously set work area or pass through a work area where a robot is traveling using another navigation method.

반면, 본 발명에 따른 로봇 관제 시스템(200)을 적용하는 경우 이동 로봇은 각각 다른 항법으로 운용되는 작업 영역을 통과하며 이송 작업을 완료할 수 있다. 도 9b에서, 이동 로봇은 다른 항법으로 로봇이 주행중인 작업 영역을 가로지르는 경로(910)로 이동할 수 있다.On the other hand, when the robot control system 200 according to the present invention is applied, the mobile robot can pass through work areas operated in different navigations and complete the transfer work. In FIG. 9B , the mobile robot may move on a path 910 that traverses the work area in which the robot is traveling in another way.

도 10a 내지 도 10f는 로봇이 QR 항법 영역을 통과하는 일 예를 설명하기 위한 도면이다.10A to 10F are views for explaining an example in which a robot passes through a QR navigation area.

구체적으로, 도 10a 내지 도 10f는 QR 항법 이외의 항법으로 주행하는 로봇이 QR 항법 영역을 통과하는 과정에 대한 예시이다. 작업 공간을 격자 형태로 구성하는 QR 항법 영역에서 주행하는 로봇들은 로봇 관제 시스템(200)의 경로 계획에 따라 주행하고 있다. 이때 도 10a 내지 도 10f에서 노란색으로 표시된 임의의 항법(이하, A 항법)으로 주행하는 로봇이 QR 항법 영역을 통과하는 상황이 발생하는 경우, 로봇 관제 시스템(200)은 해당 로봇의 경유 지점을 2단계로 분할하며 우선 1 단계 이동만 전송한다.Specifically, FIGS. 10A to 10F are examples of a process in which a robot traveling in navigation other than QR navigation passes through a QR navigation area. Robots traveling in the QR navigation area constituting the work space in a grid form are traveling according to the path planning of the robot control system 200 . At this time, if a situation occurs in which a robot traveling with a navigation method indicated in yellow in FIGS. 10A to 10F (hereinafter referred to as A navigation) passes through the QR navigation area, the robot control system 200 determines the passing point of the robot as 2 It is divided into steps, and only one step movement is transmitted first.

경유 지점의 1단계는 출발 지점에서 QR 항법 영역 진입을 위한 대기 경유 지점까지의 경로이며, 2단계는 QR 영역을 통과한 대기 경유 지점에서 최종 목적지까지의 경로이다. 이때 대기 경유 지점의 위치 정보는 A 항법 작업 영역과 QR 항법 작업 영역에 모두 등록되어 각각의 경로 생성 처리기에서 인식 가능하다.Step 1 of the passing point is the route from the starting point to the waiting point for entering the QR navigation area, and step 2 is the route from the waiting point passing through the QR area to the final destination. At this time, the location information of the waiting point is registered in both the A navigation work area and the QR navigation work area, and can be recognized by each route creation processor.

먼저 도 10a를 참조하면, 로봇 관제 시스템(200)에서 전송한 1단계에 따라 대상 로봇은 QR 영역의 대기 경유 지점(별이 표시된 격자)까지 이동한다.First, referring to FIG. 10A , according to the first step transmitted from the robot control system 200, the target robot moves to the standby passing point (a grid marked with stars) in the QR area.

도 10b에 도시된 바와 같이, 로봇이 해당 위치(대기 경유 지점)에 도착하면, 도착 신호를 로봇 관제 시스템(200)에 전송한다. 이 경우, 로봇 관제 시스템(200)은 대상 로봇을 A 항법 경로 생성기에서 등록 해제하고, QR 항법 경로 생성기에 등록 추가를 한다. 한편, 로봇은 중간 목적지(별이 표시된 격자)까지의 경로를 알아야만 QR 격자 영역을 주행할 수 있다.As shown in FIG. 10B , when the robot arrives at the corresponding location (airway passing point), an arrival signal is transmitted to the robot control system 200. In this case, the robot control system 200 deregisters the target robot from the A navigation path generator and adds registration to the QR navigation path generator. On the other hand, the robot can travel in the QR grid area only when it knows the route to the intermediate destination (the grid marked with stars).

QR 항법 경로 생성기로 로봇의 동적 전이가 완료되면, 도 10c에 도시된 바와 같이 주변 로봇들의 현재 위치를 반영하여 새로운 경로 계획을 생성한다. 구체적으로, 도 10c를 참조하면, 격자 영역 상에 주변 로봇들의 경로가 서로 다른 색상으로 표시되어 있는데, 주변 로봇들의 경로 및 현재 위치를 반영하여 대상 로봇의 경로 계획(노란색으로 도시된 경로)을 생성한다.When the robot's dynamic transition is completed with the QR navigation path generator, a new path plan is generated by reflecting the current positions of neighboring robots as shown in FIG. 10C. Specifically, referring to FIG. 10C , the paths of neighboring robots are displayed in different colors on the grid area, and a path plan (route shown in yellow) of the target robot is generated by reflecting the paths and current positions of the surrounding robots. do.

한편, 경로 생성기에 대상 로봇이 추가되는 경우, 대상 로봇의 크기 정보 등이 함께 입력된다. 따라서, 대상 로봇의 경로 계획을 생성하는 경우, 도 10d에 도시된 바와 같이 대상 로봇이 여러 개의 격자 셀을 점유하도록 계획할 수 있다.Meanwhile, when a target robot is added to the path generator, size information of the target robot is also input. Therefore, when creating a path plan for the target robot, as shown in FIG. 10D, the target robot may occupy several lattice cells.

도 10d 및 도 10e에 도시된 바와 같이 계획된 경로로 충돌없이 주행을 완료한 후, 대상 로봇은 A 항법 영역 진입을 위한 대기 경유 지점에 도착한다. 이 경우, 대상 로봇은 도착 신호를 로봇 관제 시스템(200)에 전송하고, 로봇 관제 시스템(200)은 다시 대상 로봇을 QR 항법 경로 생성기에서 A 항법 경로 생성기로 전이시킨다.As shown in FIGS. 10D and 10E , after driving along the planned route without collision, the target robot arrives at the standby transit point for entering the navigation area A. In this case, the target robot transmits an arrival signal to the robot control system 200, and the robot control system 200 again transitions the target robot from the QR navigation path generator to the A navigation path generator.

A 항법 경로 생성기로 로봇의 전이가 완료되면, 도 10f에 도시된 바와 같이 대기 경유 지점에서 최종 목적지까지의 2단계 이동 명령을 전송한다.When the transition of the robot to the A navigation path generator is completed, as shown in FIG. 10F, a 2-step movement command from the waiting point to the final destination is transmitted.

도 11은 본 발명에 따른 로봇 관제 시스템이 실내 측위의 정확도를 향상시키는 방법을 설명하기 위한 도면이다.11 is a diagram for explaining a method for improving the accuracy of indoor positioning by the robot control system according to the present invention.

일반적으로 자율주행 항법으로 QR 코드 기반의 격자 지도에서 주행을 하게 되면, 대상 로봇의 주변을 다른 로봇들이 둘러싸는 경우에는 주변환경을 인식하지 못하여 자기 위치를 잃어버리는 현상이 발생할 수 있다. 따라서, 작업 공간을 침범하지 않거나, 추가적으로 QR 코드 인식 장치를 부착하여 사용할 수밖에 없다.In general, when driving on a grid map based on a QR code with autonomous navigation, if other robots surround the target robot, it may not recognize the surrounding environment and lose its position. Therefore, there is no choice but to use it without invading the work space or by attaching an additional QR code recognition device.

이하, 도 11에서는 앞서 설명한 것과 같이 2D 레이저 스캐너 센서만 구비하고 있는 로봇이 QR 코드 인식장치 없이 해당 영역을 통과하는 상황에서 실내 측위의 정확도를 향상시키는 방법에 대해 설명한다.Hereinafter, in FIG. 11, as described above, a method for improving the accuracy of indoor positioning in a situation where a robot equipped with only a 2D laser scanner sensor passes through a corresponding area without a QR code recognition device will be described.

레이저 센서를 사용하는 로봇은 상대적으로 높은 위치에 설치되는 센서에 의해 주변 로봇이 대상 로봇을 감싸는 형태에서도 높은 위치 측정 정밀도를 유지할 수 있다.A robot using a laser sensor can maintain high positioning accuracy even when surrounding robots surround the target robot by the sensor installed at a relatively high position.

반면, 2D 레이저 스캐너 센서를 사용하는 로봇은 미리 작업 영역에 대해 센서로 감지한 데이터를 기반으로 지도를 생성하고 참조하기 때문에, 주변 로봇이 대상 로봇을 감싸는 상황에서 위치 측정 정밀도가 현저히 낮아지거나 현재 위치를 잃어버리는 현상도 발생할 수 있다.On the other hand, since a robot using a 2D laser scanner sensor creates and references a map based on data detected by the sensor for the work area in advance, the position measurement accuracy is significantly lowered or the current position is Loss of may also occur.

이러한 현상을 방지하기 위해, 로봇 관제 시스템(200)에 실시간으로 저장되어 있는 대상 로봇의 2D 레이저 스캐너 센서의 원시 데이터 및 주변 로봇의 위치 정보를 기반으로 대상 로봇의 측위를 수행할 수 있다.In order to prevent this phenomenon, positioning of the target robot may be performed based on raw data of the 2D laser scanner sensor of the target robot and location information of surrounding robots stored in the robot control system 200 in real time.

먼저 도 11에 도시된 바와 같이, 센서의 원시 데이터에서 일정 거리 범위에 따라 감지한 거리값을 군집화한다. 군집화한 데이터에 대해 로봇 외형 모델을 회전시키며 평가 함수를 통해 매칭시킨다. 매칭된 정보로 대상 로봇과 주변 로봇 간의 상대 거리를 도출한다. 도출된 상대 거리를 기반으로 파티클 필터 기법으로 대상 로봇의 위치를 추정하고, 추정한 위치를 QR 격자 지도에 매핑한다. First, as shown in FIG. 11, the detected distance values are clustered according to a certain distance range in the raw data of the sensor. For the clustered data, the robot appearance model is rotated and matched through an evaluation function. With the matched information, the relative distance between the target robot and the surrounding robots is derived. Based on the derived relative distance, the position of the target robot is estimated using the particle filter technique, and the estimated position is mapped to the QR grid map.

기존의 로봇 관제 시스템은 단일 항법의 경로 생성만이 가능했다. 그러나, 본 발명에 따른 다중 항법 방식을 혼용할 수 있는 다수의 이기종 로봇 관제 시스템은, 항법에 따라 경로 탐색 알고리즘을 변경하여 복수의 객체로 생성할 수 있는 경로 생성 처리기를 기반으로, 현장의 작업 공간 또는 다른 종류의 대상물을 취급하고자 작업 환경이 변경되더라도 단일 시스템만으로 다양한 항법을 사용하여 여러 개의 작업 영역으로 분리하여 운용이 가능하다.Existing robot control systems can only create a single navigation path. However, a plurality of heterogeneous robot control systems capable of mixing multiple navigation methods according to the present invention are based on a path creation processor that can create multiple objects by changing the path search algorithm according to navigation, Alternatively, even if the work environment is changed to handle a different type of object, it is possible to separate and operate several work areas using various navigation methods with only a single system.

즉, 다양한 항법에 대응하는 경로 탐색 알고리즘을 설계하는 경로 생성 처리기를 포함하고, 로봇의 측위 정보를 각 작업 영역에 동적으로 매핑하고 경우에 따라 지역 경로 제어권을 로봇과 관제 시스템이 교차하며 운용하기 때문에, 작업 현장을 항법에 따라 여러 개의 작업 영역으로 분리하여 운용하는 것이 가능해진다. 이에 따라, 현장의 작업 공간 또는 다른 종류의 대상물을 취급하고자 작업 환경이 변경되더라도 단일 시스템만으로도 이기종의 로봇을 다양한 항법으로 운용할 수 있다.In other words, it includes a route generation processor that designs route search algorithms corresponding to various navigations, dynamically maps robot positioning information to each work area, and in some cases, controls the local route between the robot and the control system. In this case, it becomes possible to separate and operate the work site into several work areas according to navigation. Accordingly, even if the work environment is changed to handle a work space or a different type of object, heterogeneous robots can be operated in various navigations with only a single system.

또한, 고유의 실내 측위 기술을 통해 QR 코드 인식 장치가 없는 2D 레이저 스캐너 기반의 자율주행 로봇도 QR 코드 격자 공간을 넘나들며 작업이 가능하므로 추가적인 비용 발생을 절감할 수 있다.In addition, through its unique indoor positioning technology, 2D laser scanner-based self-driving robots without a QR code recognition device can work across the QR code lattice space, reducing additional costs.

도 12는 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다. 도 12의 컴퓨팅 장치(TN100)는 본 명세서에서 기술된 로봇 관제 시스템(200) 일 수 있다. 12 is a diagram illustrating a computing device according to an embodiment of the present invention. The computing device TN100 of FIG. 12 may be the robot control system 200 described in this specification.

도 12의 실시예에서, 컴퓨팅 장치(TN100)는 적어도 하나의 프로세서(TN110), 송수신 장치(TN120), 및 메모리(TN130)를 포함할 수 있다. 또한, 컴퓨팅 장치(TN100)는 저장 장치(TN140), 입력 인터페이스 장치(TN150), 출력 인터페이스 장치(TN160) 등을 더 포함할 수 있다. 컴퓨팅 장치(TN100)에 포함된 구성 요소들은 버스(bus)(TN170)에 의해 연결되어 서로 통신을 수행할 수 있다.In the embodiment of FIG. 12 , the computing device TN100 may include at least one processor TN110, a transceiver TN120, and a memory TN130. In addition, the computing device TN100 may further include a storage device TN140, an input interface device TN150, and an output interface device TN160. Elements included in the computing device TN100 may communicate with each other by being connected by a bus TN170.

프로세서(TN110)는 메모리(TN130) 및 저장 장치(TN140) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(TN110)는 중앙 처리 장치(CPU: central processing unit), 그래픽 처리 장치(GPU: graphics processing unit), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 프로세서(TN110)는 본 발명의 실시예와 관련하여 기술된 절차, 기능, 및 방법 등을 구현하도록 구성될 수 있다. 프로세서(TN110)는 컴퓨팅 장치(TN100)의 각 구성 요소를 제어할 수 있다.The processor TN110 may execute program commands stored in at least one of the memory TN130 and the storage device TN140. The processor TN110 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to embodiments of the present invention are performed. Processor TN110 may be configured to implement procedures, functions, methods, and the like described in relation to embodiments of the present invention. The processor TN110 may control each component of the computing device TN100.

메모리(TN130) 및 저장 장치(TN140) 각각은 프로세서(TN110)의 동작과 관련된 다양한 정보를 저장할 수 있다. 메모리(TN130) 및 저장 장치(TN140) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(TN130)는 읽기 전용 메모리(ROM: read only memory) 및 랜덤 액세스 메모리(RAM: random access memory) 중에서 적어도 하나로 구성될 수 있다. Each of the memory TN130 and the storage device TN140 may store various information related to the operation of the processor TN110. Each of the memory TN130 and the storage device TN140 may include at least one of a volatile storage medium and a non-volatile storage medium. For example, the memory TN130 may include at least one of read only memory (ROM) and random access memory (RAM).

송수신 장치(TN120)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. 송수신 장치(TN120)는 네트워크에 연결되어 통신을 수행할 수 있다. The transmitting/receiving device TN120 may transmit or receive a wired signal or a wireless signal. The transmitting/receiving device TN120 may perform communication by being connected to a network.

한편, 본 발명의 실시예는 지금까지 설명한 장치 및/또는 방법을 통해서만 구현되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 상술한 실시예의 기재로부터 본 발명이 속하는 기술 분야의 통상의 기술자라면 쉽게 구현할 수 있는 것이다. Meanwhile, the embodiments of the present invention are not implemented only through the devices and/or methods described so far, and may be implemented through a program that realizes functions corresponding to the configuration of the embodiments of the present invention or a recording medium in which the program is recorded. And, such implementation can be easily implemented by those skilled in the art from the description of the above-described embodiment.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 통상의 기술자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concept of the present invention defined in the following claims are also provided. belong to the scope of the invention.

200: 로봇 관제 시스템 210: 인터페이스부
220: 실내 측위 변환부 230: 작업 명령 처리부
240: 경로 생성부 250: 제어부
301: 설비 인터페이스 처리부 302: 로봇 인터페이스 처리부
303: 데이터 적재 DB 304: 지도 편집 처리부
305: 실내 측위 변환부 306: 작업 명령 처리부
307: 경로 생성부 308: 모션 제어 처리부
309: 로그 명령 관리부
200: robot control system 210: interface unit
220: indoor positioning conversion unit 230: work command processing unit
240: path generation unit 250: control unit
301: facility interface processing unit 302: robot interface processing unit
303: data loading DB 304: map editing processing unit
305: indoor positioning conversion unit 306: work command processing unit
307: path generation unit 308: motion control processing unit
309: log command management unit

Claims (12)

로봇 관제 시스템에 있어서,
대상 로봇의 위치를 산출하는 실내 측위 변환부;
상기 대상 로봇의 주행 경로를 생성하는 경로 생성부; 및
상기 대상 로봇이 제1항법에 따라 운용되고 있는 상태에서 상기 제1항법과 다른 제2항법으로 운용되는 작업 영역으로 이동하고자 하는 경우, 상기 대상 로봇과 주변 로봇과의 상대 위치를 계산하고 상기 주변 로봇의 자세 정보에 기초하여 상기 대상 로봇의 위치를 추정하도록 상기 실내 측위 변환부를 제어하고, 상기 대상 로봇의 자세 정보를 상기 작업 영역에 매핑하며, 상기 대상 로봇이 상기 주변 로봇과 충돌하지 않는 상기 주행 경로를 생성하도록 상기 경로 생성부를 제어하는 제어부; 를 포함하되,
상기 실내 측위 변환부는,
Shape-fitting을 통해 상기 대상 로봇과 상기 주변 로봇과의 상기 상대 위치를 계산하고,
파티클 필터를 이용하여 상기 주변 로봇의 상기 자세 정보에 기초하여 상기 대상 로봇의 위치를 추정하는
로봇 관제 시스템.
In the robot control system,
an indoor positioning conversion unit that calculates the position of the target robot;
a path generator for generating a travel path of the target robot; and
In a state where the target robot is operated according to the first navigation method, when it is desired to move to a work area operated by the second navigation method, which is different from the first navigation method, the relative position between the target robot and the surrounding robots is calculated and the surrounding robots are operated. Controls the indoor positioning conversion unit to estimate the position of the target robot based on posture information of the target robot, maps the posture information of the target robot to the work area, and the driving path in which the target robot does not collide with the surrounding robots a controller for controlling the path generating unit to generate; Including,
The indoor positioning conversion unit,
Calculate the relative position between the target robot and the surrounding robot through shape-fitting;
Estimating the position of the target robot based on the attitude information of the surrounding robots using a particle filter
robot control system.
제1항에 있어서,
상기 제1항법은 레이저 스캐너 센서를 사용하여 위치를 인식하고,
상기 제2항법은 QR 코드를 사용하여 위치를 인식하는 것을 특징으로 하는,
로봇 관제 시스템.
According to claim 1,
The first navigation method recognizes a position using a laser scanner sensor,
The second navigation method is characterized in that the location is recognized using a QR code,
robot control system.
삭제delete 제1항에 있어서,
상기 실내 측위 변환부는,
상기 Shape-fitting을 수행하는 경우, 기준거리를 소정값만큼 반복하여 확장해가면서 상기 기준거리 내에 존재하는 데이터들의 군집을 형성하고, 상기 군집에 기초하여 벡터화된 로봇윤곽모델을 생성하며, 상기 로봇윤곽모델의 각도로 위치를 맞추어 상기 대상 로봇과 상기 주변 로봇과의 거리 및 각도를 계산하는,
로봇 관제 시스템.
According to claim 1,
The indoor positioning conversion unit,
In the case of performing the shape-fitting, a cluster of data existing within the reference distance is formed while repeatedly extending the reference distance by a predetermined value, a vectorized robot contour model is created based on the cluster, and the robot contour model is formed. Calculating the distance and angle between the target robot and the surrounding robot by aligning the position with the angle of the model,
robot control system.
제1항에 있어서,
상기 실내 측위 변환부는,
상기 대상 로봇과 상기 주변 로봇과의 거리를 기준으로 각 파티클의 유사도를 산정하고, 각 파티클의 가중치를 계산하여 다수의 파티클로 재생성한 후 기설정된 샘플링 횟수만큼 반복하여 상기 대상 로봇의 위치를 추정하는,
로봇 관제 시스템.
According to claim 1,
The indoor positioning conversion unit,
Estimating the position of the target robot by calculating the similarity of each particle based on the distance between the target robot and the neighboring robots, calculating the weight of each particle, regenerating the particles into a plurality of particles, and repeating the number of times of sampling set in advance ,
robot control system.
제1항에 있어서,
상기 경로 생성부는,
상기 대상 로봇의 크기 정보에 기초하여 최소 회전반경과 점유 공간을 계산하고, 상기 최소 회전반경 및 상기 점유 공간에 기초하여 상기 주변 로봇과의 안전 거리를 부여하며, 우선 순위에 의해 진입 순서를 정하여 충돌이 없는 상기 주행 경로를 생성하는,
로봇 관제 시스템.
According to claim 1,
The path generator,
Based on the size information of the target robot, the minimum rotation radius and the occupied space are calculated, based on the minimum rotation radius and the occupied space, a safety distance with the surrounding robots is given, and an entry order is determined by priority to collide with each other. generating the driving route without
robot control system.
로봇 관제 시스템의 제어 방법에 있어서,
대상 로봇의 위치를 산출하는 단계;
상기 대상 로봇의 주행 경로를 생성하는 단계; 및
상기 대상 로봇이 제1항법에 따라 운용되고 있는 상태에서 상기 제1항법과 다른 제2항법으로 운용되는 작업 영역으로 이동하고자 하는 경우, 상기 대상 로봇과 주변 로봇과의 상대 위치를 계산하고 상기 주변 로봇의 자세 정보에 기초하여 상기 대상 로봇의 위치를 추정하고, 상기 대상 로봇의 자세 정보를 상기 작업 영역에 매핑하며, 상기 대상 로봇이 상기 주변 로봇과 충돌하지 않는 상기 주행 경로를 생성하는 단계; 를 포함하되,
Shape-fitting을 통해 상기 대상 로봇과 상기 주변 로봇과의 상기 상대 위치를 계산하고,
파티클 필터를 이용하여 상기 주변 로봇의 상기 자세 정보에 기초하여 상기 대상 로봇의 위치를 추정하는
로봇 관제 시스템의 제어 방법.
In the control method of the robot control system,
Calculating the position of the target robot;
generating a travel path of the target robot; and
In a state where the target robot is operated according to the first navigation method, when it is desired to move to a work area operated by the second navigation method, which is different from the first navigation method, the relative position between the target robot and the surrounding robots is calculated and the surrounding robots are operated. estimating the position of the target robot based on posture information of the target robot, mapping the posture information of the target robot to the work area, and generating the driving path in which the target robot does not collide with neighboring robots; Including,
Calculate the relative position between the target robot and the surrounding robot through shape-fitting;
Estimating the position of the target robot based on the attitude information of the surrounding robots using a particle filter
Control method of robot control system.
제7항에 있어서,
상기 제1항법은 레이저 스캐너 센서를 사용하여 위치를 인식하고,
상기 제2항법은 QR 코드를 사용하여 위치를 인식하는 것을 특징으로 하는,
로봇 관제 시스템의 제어 방법.
According to claim 7,
The first navigation method recognizes a position using a laser scanner sensor,
The second navigation method is characterized in that the location is recognized using a QR code,
Control method of robot control system.
삭제delete 제7항에 있어서,
상기 Shape-fitting을 수행하는 경우, 기준거리를 소정값만큼 반복하여 확장해가면서 상기 기준거리 내에 존재하는 데이터들의 군집을 형성하고, 상기 군집에 기초하여 벡터화된 로봇윤곽모델을 생성하며, 상기 로봇윤곽모델의 각도로 위치를 맞추어 상기 대상 로봇과 상기 주변 로봇과의 거리 및 각도를 계산하는,
로봇 관제 시스템의 제어 방법.
According to claim 7,
In the case of performing the shape-fitting, a cluster of data existing within the reference distance is formed while repeatedly extending the reference distance by a predetermined value, a vectorized robot contour model is created based on the cluster, and the robot contour model is formed. Calculating the distance and angle between the target robot and the surrounding robot by aligning the position with the angle of the model,
Control method of robot control system.
제7항에 있어서,
상기 대상 로봇과 상기 주변 로봇과의 거리를 기준으로 각 파티클의 유사도를 산정하고, 각 파티클의 가중치를 계산하여 다수의 파티클로 재생성한 후 기설정된 샘플링 횟수만큼 반복하여 상기 대상 로봇의 위치를 추정하는,
로봇 관제 시스템의 제어 방법.
According to claim 7,
Estimating the position of the target robot by calculating the similarity of each particle based on the distance between the target robot and the neighboring robots, calculating the weight of each particle, regenerating the particles into a plurality of particles, and repeating the number of times of sampling set in advance ,
Control method of robot control system .
제7항에 있어서,
상기 대상 로봇의 크기 정보에 기초하여 최소 회전반경과 점유 공간을 계산하고, 상기 최소 회전반경 및 상기 점유 공간에 기초하여 상기 주변 로봇과의 안전 거리를 부여하며, 우선 순위에 의해 진입 순서를 정하여 충돌이 없는 상기 주행 경로를 생성하는,
로봇 관제 시스템의 제어 방법.
According to claim 7,
Based on the size information of the target robot, the minimum rotation radius and the occupied space are calculated, based on the minimum rotation radius and the occupied space, a safety distance with the surrounding robots is given, and an entry order is determined by priority to collide with each other. generating the driving route without
Control method of robot control system.
KR1020210141976A 2021-10-22 2021-10-22 Robot control system and controlling method of the same KR102562044B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210141976A KR102562044B1 (en) 2021-10-22 2021-10-22 Robot control system and controlling method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210141976A KR102562044B1 (en) 2021-10-22 2021-10-22 Robot control system and controlling method of the same

Publications (2)

Publication Number Publication Date
KR20230057784A KR20230057784A (en) 2023-05-02
KR102562044B1 true KR102562044B1 (en) 2023-07-31

Family

ID=86387701

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210141976A KR102562044B1 (en) 2021-10-22 2021-10-22 Robot control system and controlling method of the same

Country Status (1)

Country Link
KR (1) KR102562044B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010061293A (en) * 2008-09-02 2010-03-18 Toyota Motor Corp Route searching device, route searching method, and route searching program
US20190049992A1 (en) 2017-08-14 2019-02-14 GM Global Technology Operations LLC System and Method for Improved Obstable Awareness in Using a V2x Communications System
KR102106858B1 (en) * 2018-11-27 2020-05-06 노성우 Logistic Robot Location Estimation Method of Hybrid Type
KR102228106B1 (en) 2020-11-16 2021-03-16 주식회사 케이스랩 Method and System for Dynamic Task Distribution of Multi Unmanned Ground Vehicle
JP2021114222A (en) * 2020-01-21 2021-08-05 日立Geニュークリア・エナジー株式会社 Robot system and method of estimating its position

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102067770B1 (en) 2018-11-23 2020-01-17 롯데정보통신 주식회사 Apparatus and method for intergratedly controlling multiple heterogeneous robots

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010061293A (en) * 2008-09-02 2010-03-18 Toyota Motor Corp Route searching device, route searching method, and route searching program
US20190049992A1 (en) 2017-08-14 2019-02-14 GM Global Technology Operations LLC System and Method for Improved Obstable Awareness in Using a V2x Communications System
KR102106858B1 (en) * 2018-11-27 2020-05-06 노성우 Logistic Robot Location Estimation Method of Hybrid Type
JP2021114222A (en) * 2020-01-21 2021-08-05 日立Geニュークリア・エナジー株式会社 Robot system and method of estimating its position
KR102228106B1 (en) 2020-11-16 2021-03-16 주식회사 케이스랩 Method and System for Dynamic Task Distribution of Multi Unmanned Ground Vehicle

Also Published As

Publication number Publication date
KR20230057784A (en) 2023-05-02

Similar Documents

Publication Publication Date Title
US11262200B2 (en) Boolean satisfiability (SAT) reduction for geometry and kinematics agnostic multi-agent planning
US10296012B2 (en) Pre-computation of kinematically feasible roadmaps
US11016493B2 (en) Planning robot stopping points to avoid collisions
Martínez-Barberá et al. Autonomous navigation of an automated guided vehicle in industrial environments
Mehami et al. Smart automated guided vehicles for manufacturing in the context of Industry 4.0
Arbanas et al. Decentralized planning and control for UAV–UGV cooperative teams
Sabattini et al. Technological roadmap to boost the introduction of AGVs in industrial applications
US10994418B2 (en) Dynamically adjusting roadmaps for robots based on sensed environmental data
CN111103887B (en) Multi-sensor-based multi-mobile-robot scheduling system design method
Guney et al. Dynamic prioritized motion coordination of multi-AGV systems
Behrje et al. An autonomous forklift with 3d time-of-flight camera-based localization and navigation
KR102562044B1 (en) Robot control system and controlling method of the same
Indri et al. Supervised global path planning for mobile robots with obstacle avoidance
Hyla et al. Automated Guided Vehicles–the Survey
Oleari et al. Improving AGV systems: Integration of advanced sensing and control technologies
CN115213893A (en) Method and system for positioning sensors in a workspace
Ozkil et al. Design of a robotic automation system for transportation of goods in hospitals
Stenzel et al. Concept of decentralized cooperative path conflict resolution for heterogeneous mobile robots
de Melo et al. Mobile robot indoor autonomous navigation with position estimation using rf signal triangulation
Dubova et al. Virtual Prototype of AGV-Based Warehouse System
Li Research on Multi-AGVs Cooperative Transportation Strategy in Warehouse Logistics Environment Based on HCA Algorithm
Szpytko et al. Automated guided vehicles navigating problem in container terminal
Grohmann et al. HYDRA-High Yield Dense Robotic Arms
Lee et al. Path planning based on probabilistic roadmap for initial deployment of marsupial robot team
Зігфрід et al. A review of the automated guided vehicle systems: dispatching systems and navigation concept

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant