KR102546156B1 - Autonomous logistics transport robot - Google Patents

Autonomous logistics transport robot Download PDF

Info

Publication number
KR102546156B1
KR102546156B1 KR1020210183260A KR20210183260A KR102546156B1 KR 102546156 B1 KR102546156 B1 KR 102546156B1 KR 1020210183260 A KR1020210183260 A KR 1020210183260A KR 20210183260 A KR20210183260 A KR 20210183260A KR 102546156 B1 KR102546156 B1 KR 102546156B1
Authority
KR
South Korea
Prior art keywords
target
data
module
follow
lidar
Prior art date
Application number
KR1020210183260A
Other languages
Korean (ko)
Inventor
정광익
박성현
박상운
정필준
Original Assignee
주식회사 트위니
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 트위니 filed Critical 주식회사 트위니
Priority to KR1020210183260A priority Critical patent/KR102546156B1/en
Application granted granted Critical
Publication of KR102546156B1 publication Critical patent/KR102546156B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 대규모 매장, 공장 등에서 사용되는 물류 운송 로봇에 관한 것으로, 본 발명에 따른 자율 주행 물류 운송 로봇은 물류를 적재하는 본체부(10), 상기 본체부(10)를 이동시키는 이송부(20) 및 상기 본체부(10)에 구비되는 라이다부(30)로 구성되어, 상기 라이다부(30)가 설정된 목표를 3차원 공간에서 감지하여 3차원 라이다 데이터를 생성하면, 상기 본체부(10)가 3차원 라이다 데이터를 가공하여 상기 목표를 추종하고, 상기 이송부(20)가 제어 명령에 따라 상기 본체부(10)를 이동시키는 자율 주행 물류 운송 로봇으로서, 상기 본체부(10)가 상기 이송부(20)에 동력을 전달하는 모터(13), 상기 모터(13)를 제어하는 모터 구동 보드(14), 상기 모터 구동 보드(14)와 상기 라이다부(30)를 제어하는 PC(15) 및 배터리(16)와 배터리를 제어하여 상기 모터 구동 보드(14) 및 PC(15)에 전력을 공급하는 전력 공급 보드(17)로 구성되고, 상기 PC(15)가 인접 데이터 구분 모듈(15-1), 강도 기반 추종 대상 분류 모듈(15-2), 추종 대상 결정 모듈(15-3) 및 추종 모듈(15-4)로 구성되며, 라이다부(30)가 작업 공간 내에 있는 물체들의 실시간 위치 데이터를 수집하는 데이터 수집 단계(S10)를 수행하고, 인접 데이터 구분 모듈(15-1)이 3차원 라이다 데이터로 수집된 반사점들을 추종 대상 후보군으로 그룹핑하는 인접 데이터 구분 단계(S20)를 수행하며, 강도 기반 추종 대상 분류 모듈(15-2)이 상기 인접 데이터 구분 모듈(15-1)에서 도출된 추종 대상 후보군으로 판단된 점군에 대해 추종 대상일 가능성이 높은 우선 추종 대상 후보군을 추출해 내는 우선 추종 대상 후보군 추출 단계(S30)를 수행하고, 추종 대상 결정 모듈(15-3)이 상기 자율 주행 물류 운송 로봇이 추종해야 하는 목표를 결정하는 추종 목표 결정 단계(S40)를 수행하며, 추종 모듈(15-4)이 상기 추종 대상 결정 모듈(15-3)에서 결정된 목표를 지속적으로 추종하면서 상기 자율 주행 물류 운송 로봇이 목표를 따라 이동하는 목표 추종 단계(S50)를 수행하는 것을 기술적 특징으로 한다.The present invention relates to a logistics transport robot used in large-scale stores, factories, etc., and the self-driving logistics transport robot according to the present invention includes a body unit 10 for loading logistics and a transfer unit 20 for moving the body unit 10 And composed of a lidar unit 30 provided in the body unit 10, when the lidar unit 30 detects a set target in a 3-dimensional space and generates 3-dimensional lidar data, the body unit 10 A self-driving logistics transport robot that processes 3D lidar data to follow the target, and the transfer unit 20 moves the body unit 10 according to a control command, wherein the body unit 10 is the transfer unit A motor 13 for transmitting power to 20, a motor driving board 14 for controlling the motor 13, a PC 15 for controlling the motor driving board 14 and the lidar unit 30, and It is composed of a battery 16 and a power supply board 17 that supplies power to the motor driving board 14 and the PC 15 by controlling the battery, and the PC 15 controls the adjacent data discrimination module 15-1. ), an intensity-based following target classification module 15-2, a following target determining module 15-3, and a following module 15-4, and real-time location data of objects in the working space of the lidar unit 30. The data collection step (S10) of collecting is performed, and the adjacent data classification module (15-1) performs the adjacent data classification step (S20) of grouping reflection points collected as 3D LiDAR data into a candidate group to be followed, The intensity-based follow-up target classification module 15-2 extracts a preferred follow-up target candidate group with a high possibility of being a follow-up target from the point group determined to be the follow-up target group derived from the adjacent data classification module 15-1. A candidate group extraction step (S30) is performed, and a following target determining module (15-3) performs a following target determining step (S40) in which the self-driving logistics transport robot determines a target to be followed, and the following module (15-3) is performed. 4) is technically characterized in that the self-driving logistics transport robot performs a target following step (S50) in which the self-driving logistics transport robot moves along the target while continuously following the target determined in the following target determination module 15-3.

Description

자율 주행 물류 운송 로봇 {AUTONOMOUS LOGISTICS TRANSPORT ROBOT}Autonomous Logistics Transportation Robot {AUTONOMOUS LOGISTICS TRANSPORT ROBOT}

본 발명은 로봇에 관한 것으로, 더욱 상세하게는 대규모 매장, 공장 등에서 사용되는 물류 운송 로봇에 관한 것이다.The present invention relates to robots, and more particularly, to logistics transport robots used in large-scale stores, factories, and the like.

자율 주행이란 자동차, 비행기, 로봇 등 기계 장치가 외부의 힘을 빌리지 않고 자체 장착된 각종 센서와 컴퓨팅 시스템에 의존하여 자유롭게 주행하는 것을 의미하는 것으로, 영상 인식, Lidar, Radar, 기계 학습 등 관련 기술의 발전 정도가 일정 수준 이상이 되면서 2020년대에는 우리 주변에서 흔히 볼 수 있는 기술이 되고 있다.Autonomous driving means that mechanical devices such as cars, airplanes, and robots travel freely by relying on various sensors and computing systems installed on their own without borrowing external power. As the degree of development has reached a certain level, it is becoming a common technology in the 2020s.

최근 자율 주행 이슈가 가장 부각되는 분야는 자동차 분야인데, 간단한 도로 주행이나 주차 등은 이미 구현되고 있는 중이고, 무인 자동차나 운전자의 조작을 필요로 하지 않는 자동차도 현실화될 것으로 예상하고 있다.The field where self-driving issues are highlighted the most recently is the automobile field. Simple road driving and parking are already being implemented, and unmanned cars and cars that do not require driver's operation are expected to become a reality.

자율 주행이 적용될 수 있는 분야는 위치의 이동이 수반되는 장치라면 모두 가능하겠지만, 본 발명이 주목하는 분야는 로봇, 그 중에서도 대형 마트나 공장 등(이하 ‘마트 등’이라 한다)에서 활용 가능한 물류 운송 로봇 분야이다. 이러한 마트 등의 환경은 진열대나 수납대, 작업대 등이 공간에 산재되어 있고, 작업자들의 이동이 빈번히 일어나기 때문에 자율 주행 물류 운송 로봇의 경우 로봇이 움직이는 공간 내에 어떤 장애물이 있는지를 실시간으로 탐지할 수 있어야 한다. 특히 사람에 대한 탐지는 사고 가능성과 밀접한 관련성이 있기 때문에 더욱 중요하다 할 것이다.Any field to which autonomous driving can be applied can be any device that involves movement of location, but the field of attention of the present invention is robots, in particular, logistics transportation that can be used in large marts or factories (hereinafter referred to as 'marts, etc.') This is the field of robotics. In an environment such as a mart, shelves, storage stands, work tables, etc. are scattered throughout the space, and workers move frequently, so in the case of an autonomous logistics transportation robot, it is necessary to be able to detect any obstacles in the space where the robot moves in real time. do. In particular, human detection is more important because it is closely related to the possibility of an accident.

이러한 사람 탐지 또는 추종과 관련된 기술은 다양하게 개발되고 있는데, HDL(High resolution real time 3D Lidar) 기반 트랙킹 알고리즘은 3D Lidar 데이터를 기반으로 SLAM(Simultaneous Localization And Mapping)으로 생성한 사전 맵(지도)으로부터 배경 데이터를 제거하고 SVM(Support Vector Machine) 기법을 이용하여 사람의 상체 데이터를 미리 학습하여 사람을 추종하는 알고리즘이다. Various technologies related to such human detection or tracking have been developed. HDL (High resolution real time 3D Lidar)-based tracking algorithm is based on 3D Lidar data and based on SLAM (Simultaneous Localization And Mapping). It is an algorithm that follows a person by removing background data and learning the upper body data of a person in advance using SVM (Support Vector Machine) technique.

TANet은 Lidar와 깊이 카메라(depth camera)를 이용한 러닝 기반의 사람 추종 알고리즘으로서, 러닝 결과를 depth 이미지 기반으로 변환한 후, 정확한 사람의 위치는 Lidar를 이용하여 추종하는 알고리즘이다.TANet is a learning-based human-following algorithm using lidar and a depth camera. After converting the running result into a depth image-based algorithm, the exact position of the person is tracked using lidar.

또 ‘비특허문헌 1’에는 CNN(Convolutional Neural Network) 기반으로 Lidar 데이터에서 사람의 다리 데이터를 구분 및 학습하여 사람을 추종하는 알고리즘이 개시되어 있다.In addition, 'Non-Patent Document 1' discloses an algorithm that follows a person by distinguishing and learning human leg data from Lidar data based on CNN (Convolutional Neural Network).

그런데 이러한 종래의 알고리즘들은 학습에 기반하기 때문에 학습에 사용된 데이터와 다른 상태(예를 들면 사람이 몸을 구부리거나 측면을 보이거나 상하체 구분이 불가능한 경우 등)에서는 분류가 불가능한 문제가 잇다. 또 학습에 사용되는 데이터가 방대하기 때문에 많은 학습 시간이 소요되는 문제가 있다. HDL의 경우 사전 맵을 기반으로 배경을 제거하기 때문에 사전 맵 생성을 전제로 해야 하는 문제가 있다.However, since these conventional algorithms are based on learning, there is a problem in which classification is impossible in a state different from the data used for learning (eg, when a person bends or shows a side, or when the upper and lower body cannot be distinguished). In addition, since the data used for learning is vast, there is a problem in that a lot of learning time is required. In the case of HDL, since the background is removed based on the prior map, there is a problem in that the generation of the prior map must be premised.

따라서 종래의 알고리즘들을 이용하여 자율 주행 로봇을 구현하려 하는 경우 종래 알고리즘의 문제가 그대로 로봇에도 나타나게 된다.Therefore, when trying to implement an autonomous robot using conventional algorithms, the problems of conventional algorithms appear in the robot as it is.

Claudia Alvarez-Aparicio et al. People Detection and Tracking Using LIDAR Sensors. ROBOTICS. MDPI. 2019. 8. 31., 8, 75 Claudia Alvarez-Aparicio et al. People Detection and Tracking Using LIDAR Sensors. ROBOTICS. MDPI. 2019. 8. 31., 8, 75

본 발명은 위와 같은 문제점을 해결하기 위하여 안출된 것으로, 본 발명이 해결하고자 하는 과제는 학습에 의존하지 않고 사전 맵을 필요로 하지 않으면서 실시간으로 자율 주행할 수 있는 자율 주행 물류 운송 로봇을 제공하는 것이다.The present invention has been made to solve the above problems, and the problem to be solved by the present invention is to provide an autonomous logistics transport robot capable of autonomously driving in real time without relying on learning and without requiring a prior map. will be.

본 발명에 따른 자율 주행 물류 운송 로봇은 물류를 적재하는 본체부, 상기 본체부를 이동시키는 이송부 및 상기 본체부에 구비되는 라이다부로 구성되어, 상기 라이다부가 설정된 목표를 3차원 공간에서 감지하여 3차원 라이다 데이터를 생성하면, 상기 본체부가 3차원 라이다 데이터를 가공하여 상기 목표를 추종하고, 상기 이송부가 제어 명령에 따라 상기 본체부를 이동시키는 자율 주행 물류 운송 로봇으로서, 상기 본체부가 상기 이송부에 동력을 전달하는 모터, 상기 모터를 제어하는 모터 구동 보드, 상기 모터 구동 보드와 상기 라이다부를 제어하는 PC 및 배터리와 배터리를 제어하여 상기 모터 구동 보드 및 PC에 전력을 공급하는 전력 공급 보드로 구성되고, 상기 PC가 인접 데이터 구분 모듈, 강도 기반 추종 대상 분류 모듈, 추종 대상 결정 모듈 및 추종 모듈로 구성되며, 라이다부가 작업 공간 내에 있는 물체들의 실시간 위치 데이터를 수집하는 데이터 수집 단계를 수행하고, 인접 데이터 구분 모듈이 3차원 라이다 데이터로 수집된 반사점들을 추종 대상 후보군으로 그룹핑하는 인접 데이터 구분 단계를 수행하며, 강도 기반 추종 대상 분류 모듈이 상기 인접 데이터 구분 모듈에서 도출된 추종 대상 후보군으로 판단된 점군에 대해 추종 대상일 가능성이 높은 우선 추종 대상 후보군을 추출해 내는 우선 추종 대상 후보군 추출 단계를 수행하고, 추종 대상 결정 모듈이 상기 자율 주행 물류 운송 로봇이 추종해야 하는 목표를 결정하는 추종 목표 결정 단계를 수행하며, 추종 모듈이 상기 추종 대상 결정 모듈에서 결정된 목표를 지속적으로 추종하면서 상기 자율 주행 물류 운송 로봇이 목표를 따라 이동하는 목표 추종 단계를 수행하는 것을 기술적 특징으로 한다.The self-driving logistics transport robot according to the present invention is composed of a main body for loading logistics, a transfer unit for moving the main body, and a lidar unit provided in the body, and the lidar unit detects a set target in a three-dimensional space and When dimensional lidar data is generated, the body unit processes the three-dimensional lidar data to follow the target, and the transfer unit is an autonomous logistics transport robot in which the body unit moves according to a control command, wherein the body unit moves the transfer unit. Composed of a motor that transmits power, a motor drive board that controls the motor, a PC that controls the motor drive board and the lidar unit, and a battery and a power supply board that supplies power to the motor drive board and the PC by controlling the battery. The PC is composed of a neighbor data classification module, an intensity-based follow target classification module, a follow target determination module, and a follow module, and the lidar unit performs a data collection step of collecting real-time location data of objects in the work space, The adjacent data classification module performs the adjacent data classification step of grouping reflection points collected as 3D LiDAR data into a target candidate group to be followed, and the intensity-based following target classification module determines the candidate group to be followed derived from the adjacent data classification module. A priority target candidate group extraction step of extracting a preferred follow target candidate group with a high probability of being a follow target for the point group is performed, and a follow target determination step of determining a target to be followed by the self-driving logistics transport robot is performed by the follow target determination module. and performs a target following step in which the self-driving logistics transport robot moves along the target while the following module continuously tracks the target determined by the following target determination module.

본 발명에 따른 자율 주행 물류 운송 로봇은 작업 공간 내의 목표를 실시간으로 파악하여 자율 주행 경로를 설정할 수 있다.The self-driving logistics transport robot according to the present invention can set an autonomous route by recognizing a target in a workspace in real time.

또 사람을 목표로 추종하는 경우 매 라이다 측정마다 추측과 측정을 반영함으로써 목표에 대한 강인한 실시간 추종이 가능하다.In addition, in the case of tracking a person as a target, robust real-time tracking of the target is possible by reflecting guesswork and measurement for each LiDAR measurement.

도 1은 본 발명에 따른 자율 주행 물류 운송 로봇의 사시도
도 2는 본 발명에 따른 자율 주행 물류 운송 로봇 구성도
도 3은 PC에서 목표를 탐지 및 추종하는 모듈 집합체의 구성도
도 4는 라이다부 및 모듈 집합체에서 수행되는 탐지 및 추종 방법의 순서도
도 5는 반사체의 일례인 반사조끼
도 6은 사람에 대해 인접 데이터 구분 단계를 거친 결과
도 7은 2개 점군의 분포와 중심의 관계를 도시한 예시도
도 8은 사람을 목표로 하여 추종 목표 결정 단계를 거친 결과
도 9는 목표 추종 단계의 세부 순서도
도 10은 데이터 서브 샘플링된 결과
도 11은 반사체 데이터가 보강된 결과
1 is a perspective view of an autonomous logistics transport robot according to the present invention
2 is a configuration diagram of an autonomous logistics transport robot according to the present invention
3 is a configuration diagram of a module assembly for detecting and following a target in a PC
4 is a flowchart of a detection and tracking method performed in a lidar unit and a module assembly
5 is a reflective vest that is an example of a reflector
6 is a result of the adjacent data classification step for a person
7 is an exemplary view showing the relationship between the distribution and center of two point groups;
8 is a result of a follow-up target determination step targeting a human
9 is a detailed flow chart of a goal following step
10 is data subsampled results
11 is a result of reinforcing reflector data

이하에서는 본 발명에 따른 자율 주행 물류 운송 로봇을 첨부된 도면을 참조하여 상세히 설명한다.Hereinafter, an autonomous logistics transport robot according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 자율 주행 물류 운송 로봇의 사시도이고, 도 2는 본 발명에 따른 자율 주행 물류 운송 로봇 구성도이다. 본 발명에 따른 자율 주행 물류 운송 로봇은 물류를 적재하는 본체부(10), 본체부(10)를 이동시키는 이송부(20) 및 본체부(10)에 구비되는 라이다부(30)로 구성되어, 라이다부(30)가 운반자 등 설정된 목표를 3차원 공간에서 감지하여 3차원 라이다 데이터를 생성하면, 본체부(10)가 3차원 라이다 데이터를 가공하여 목표를 추종하고, 이송부(20)가 제어 명령에 따라 본체부(10)를 이동시킨다. 본 발명에 따른 자율 주행 물류 운송 로봇은 라이다부(30)를 보완하기 위하여 카메라부(40)를 더 포함하여 구성될 수 있다1 is a perspective view of an autonomous logistics transport robot according to the present invention, and FIG. 2 is a configuration diagram of an autonomous logistics transport robot according to the present invention. The self-driving logistics transport robot according to the present invention is composed of a main body 10 for loading logistics, a transfer unit 20 for moving the main body 10, and a lidar unit 30 provided in the main body 10, When the lidar unit 30 detects a set target, such as a carrier, in a 3-dimensional space and generates 3-dimensional lidar data, the body unit 10 processes the 3-dimensional lidar data to follow the target, and the transfer unit 20 The main body 10 is moved according to the control command. The self-driving logistics transport robot according to the present invention may be configured to further include a camera unit 40 to supplement the lidar unit 30.

본체부(10)는 라이다부(30)에서 수집되는 3차원 데이터로부터 본 발명에 따른 자율 주행 물류 운송 로봇이 움직이는 공간(이하 ‘작업 공간’이라 한다. 물류 창고 내부, 공장 내부 등이 될 수 있다) 내에 있는 물체(복수 개가 될 수 있다)의 위치와 속도를 실시간으로 추정하고, 물체 중 추종하여야 할 목표를 결정 및 추종함으로써 자율 주행이 가능하도록 하는 구성요소이다.The main body unit 10 is a space in which the self-driving logistics transport robot according to the present invention moves from the three-dimensional data collected by the lidar unit 30 (hereinafter referred to as a 'work space'. It may be inside a logistics warehouse, inside a factory, etc. ), it is a component that enables autonomous driving by estimating the position and speed of objects (which can be plural) in real time, and determining and following the target among the objects.

이송부(20)는 바퀴나 무한궤도 등으로 구성되어 본체부(10)의 제어에 따라 본체부(10)를 이송하는 구성요소이다.The transfer unit 20 is composed of wheels or endless tracks and is a component that transports the body unit 10 under the control of the body unit 10 .

라이다부(30)는 빛을 발산하고 발산된 빛이 작업 공간 내에 있는 물체에서 반사되는 빛의 강도를 감지하여 본체부(10)에 전송하는 구성요소로서, 본 발명에서 사람을 주요 목표로 설정하고 있기 때문에 3차원 공간에서 정의되는 반사점{물체에서 빛이 반사되어 라이다부(30)에 포착되는 점, 빛이 반사된다 하더라도 라이다부(30)에서 강도 0으로 판정될 정도의 미약한 빛을 반사시키는 점은 반사점이 되지 못한다}을 탐지하기 위하여 3차원 라이다(31)를 포함하여 구성되고, 물체의 위치 보정에 사용될 2차원 데이터를 수집하기 위한 2차원 라이다(32)를 더 포함하여 구성될 수 있다. 2차원 라이다는 본 발명에서 3차원 라이다(31)에서 수집되는 3차원 라이다 데이터를 통해 구할 수 있는 물체의 위치의 정확성을 검증하거나, 3차원 라이다(31)의 이상 시 일시적인 목표 탐지 및 제어를 수행하는 용도로 구비된다.The lidar unit 30 is a component that emits light and senses the intensity of the emitted light reflected from an object in the work space and transmits it to the body unit 10. In the present invention, a person is set as the main target, Since there is a reflection point defined in a three-dimensional space {the point where light is reflected from an object and captured by the lidar unit 30, even if the light is reflected, the lidar unit 30 reflects weak light enough to be determined as intensity 0 It is configured to include a 3D lidar 31 to detect a point cannot be a reflection point}, and to further include a 2D lidar 32 to collect 2D data to be used for position correction of an object. can The 2D lidar verifies the accuracy of the position of an object that can be obtained through the 3D lidar data collected from the 3D lidar 31 in the present invention, or detects a temporary target when the 3D lidar 31 is abnormal. And it is provided for the purpose of performing control.

카메라부(40)는 영상 분석을 위한 이미지를 생성하기 위한 구성요소로서, 라이다부(30)에서 획득된 3차원 라이다 데이터에 의한 추종 목표 구분을 보완하는 용도로 사용된다. 예를 들면, 추종 목표의 색상을 감지하여 3차원 라이다 데이터에 의한 예측된 추종 목표가 적절한지 여부를 알 수 있고, 관심 영역에서 목표를 구분할 수 없을 때 색상으로 목표를 특정해 줄 수 있다. 카메라부(40)가 깊이 카메라로 구성되는 경우 3차원 라이다 데이터에 의한 위치 추정이 정확한지도 검증할 수 있다.The camera unit 40 is a component for generating an image for image analysis, and is used to supplement tracking target classification by 3D lidar data obtained from the lidar unit 30. For example, by detecting the color of the tracking target, it is possible to know whether the tracking target predicted by the 3D LIDAR data is appropriate or not, and when the target cannot be distinguished in the region of interest, the target can be specified by color. When the camera unit 40 is configured as a depth camera, it may also be verified that position estimation based on 3D LIDAR data is accurate.

본체부(10)는 적외선 센서, 초음파 센서 등 센서(11)와 센서(11)에서 센싱된 데이터를 수집하는 MCU 보드(12), 이송부(20)에 동력을 전달하는 모터(13), 모터(13)를 제어하는 모터 구동 보드(14), MCU 보드(12), 모터 구동 보드(14), 라이다부(30), 카메라부(40)를 제어하는 PC(15) 및 배터리(16)와 배터리를 제어하여 MCU 보드(12), 모터 구동 보드(14), PC(15)에 전력을 공급하는 전력 공급 보드(17)로 구성된다. PC(15)와 MCU 보드(12), 모터 구동 보드(14), 전력 공급 보드(17) 사이는 RS232 또는 CAN 통신 등의 방법으로 데이터 및 제어 명령이 송수신될 수 있다. 센서(11)와 MCU 보드(12)는 라이다부(30)에 의한 3차원 라이다 데이터 외에 필요한 데이터가 없는 경우 생략 가능하다.The body unit 10 includes a sensor 11 such as an infrared sensor and an ultrasonic sensor, an MCU board 12 that collects data sensed by the sensor 11, a motor 13 that transmits power to the transfer unit 20, and a motor ( 13), a motor driving board 14 controlling the MCU board 12, a motor driving board 14, a lidar unit 30, a PC 15 controlling the camera unit 40, and a battery 16 and a battery It is composed of an MCU board 12, a motor driving board 14, and a power supply board 17 that supplies power to the PC 15 by controlling. Data and control commands may be transmitted and received between the PC 15 and the MCU board 12, the motor driving board 14, and the power supply board 17 through RS232 or CAN communication. The sensor 11 and the MCU board 12 can be omitted if there is no necessary data other than the 3D lidar data by the lidar unit 30.

PC(15)는 센싱된 3차원 라이다 데이터를 가공하여 목표를 탐지 및 추종하는데, 이러한 목표 탐지 및 추종은 펌웨어 또는 소프트웨어적으로 수행될 수 있다. 본 발명에서는 펌웨어와 소프트웨어를 구분하지 않고, 모듈(하드웨어적으로 구현될 수도 있고 소프트웨어적으로 구현될 수도 있으나 기술사상면에 있어서는 동일하므로 이 역시 구분하지 않는다) 개념으로 접근하도록 한다.The PC 15 processes the sensed 3D LIDAR data to detect and follow a target, and this target detection and tracking may be performed in terms of firmware or software. In the present invention, firmware and software are not distinguished, and the concept of a module (which may be implemented in hardware or software, but is the same in terms of technology, so it is not distinguished) is approached.

도 3은 PC에서 목표를 탐지 및 추종하는 모듈 집합체의 구성도이고, 도 4는 라이다부 및 모듈 집합체에서 수행되는 탐지 및 추종 방법의 순서도이다. 본 발명에서 PC(15)는 인접 데이터 구분 모듈(15-1), 강도 기반 추종 대상 분류 모듈(15-2), 추종 대상 결정 모듈(15-3) 및 추종 모듈(15-4)로 구성되는 모듈 집합체를 포함하여 구성되고, 데이터 서브 샘플링 모듈(15-5), 강도 데이터 복구 모듈(15-6), 추종 대상 초기화 모듈(15-7)이 모듈 집합체에 더 포함되어 구성될 수 있다.3 is a configuration diagram of a module assembly for detecting and following a target in a PC, and FIG. 4 is a flowchart of a detection and tracking method performed in a lidar unit and a module assembly. In the present invention, the PC 15 is composed of a neighbor data classification module 15-1, an intensity-based following target classification module 15-2, a following target determining module 15-3, and a following module 15-4. It is configured to include a module assembly, and a data sub-sampling module 15-5, a strength data recovery module 15-6, and an initialization module 15-7 to be followed may be further included in the module assembly.

라이다부(30)는 모듈 집합체에서 수행되는 각 단계의 사전 단계로서 작업 공간 내에 있는 물체들의 실시간 위치 데이터를 수집하는 데이터 수집 단계(S10)를 수행한다. 3차원 라이다 데이터의 수집이 라이다부(30)에서 이루어지기 때문에 라이다부(30)가 목표를 잘 감지할 수 있도록 목표에는 반사체가 구비되는 것이 바람직하다. 도 5는 목표가 사람일 경우 채택할 수 있는 반사체의 일례인 반사조끼의 이미지이다.The lidar unit 30 performs a data collection step (S10) of collecting real-time location data of objects in the work space as a preliminary step of each step performed in the module assembly. Since the collection of 3D lidar data is performed in the lidar unit 30, it is preferable that a reflector is provided at the target so that the lidar unit 30 can detect the target well. 5 is an image of a reflective vest that is an example of a reflector that can be adopted when the target is a person.

자율 주행 물류 운송 로봇을 기준으로 3차원 라이다 데이터가 수집되고(말하자면 상대 좌표계), 라이다부(30)에서 수집되는 3차원 라이다 데이터는 3차원 공간 상 다수의 반사점으로 표현할 수 있는데 이 반사점들의 집합을 점군(cloud point)이라 한다. 3D LiDAR data is collected based on the self-driving logistics transport robot (in other words, a relative coordinate system), and the 3D LiDAR data collected from the lidar unit 30 can be expressed as a plurality of reflection points in a 3D space. A set is called a cloud point.

인접 데이터 구분 모듈(15-1)은 3차원 라이다 데이터로 수집된 반사점들을 추종 대상 후보군으로 그룹핑하는 인접 데이터 구분 단계(S20)를 수행한다. 반사조끼를 입은 사람이 복수로 있는 경우 반사점이 밀집한 점군들이 사람의 위치에 대응되어 생성되므로 인접 데이터 구분이란 작업 공간에 위치한 추종 대상 후보군을 인지하는 것과 유사하다.The neighbor data classification module 15-1 performs a neighbor data classification step (S20) of grouping reflection points collected as 3D lidar data into a candidate group to be followed. When there are multiple people wearing reflective vests, point clouds with dense reflection points are generated corresponding to the location of people, so classifying adjacent data is similar to recognizing a candidate group to follow located in the workspace.

라이다부(30)에서 바라볼 때에 물체가 동일 또는 근접 시선(line of sight)에 있는 경우 해당 물체에서 반사된 점군(cloud point)이 겹치기 때문에 이를 구분할 필요가 있다. 도 6은 사람에 대해 인접 데이터 구분 단계를 거친 결과를 예시한 것으로서, 주황색 박스 내에 사람 모양의 점들이 점군을 이루고 있는 것(따라서 추종 대상 후보군이 된다)을 알 수 있다.If an object is in the same or close line of sight when viewed from the lidar unit 30, it is necessary to distinguish it because cloud points reflected from the object overlap. 6 illustrates the result of the neighbor data classification step for a person, and it can be seen that human-shaped points in an orange box form a point group (thus, they become a candidate group to be followed).

인접 데이터 구분 단계(S20)는 점군들의 분할 및 재결합을 통해 이루어진다. 먼저 복수 개의 점군이 있고 복수 개의 점군 간 거리가 충분히 떨어져 있는 경우에는 각각의 추종 대상 후보들이 점군에 1:1 대응되는 경우로 볼 수 있기 때문에 점군을 분할로 충분하다. The step of classifying adjacent data (S20) is performed through segmentation and recombination of point clouds. First, if there are a plurality of point clouds and the distances between the plurality of point clouds are sufficiently far apart, it is sufficient to divide the point clouds because each candidate to be followed can be regarded as a case where the point clouds correspond 1:1.

다음으로 2개 이상의 점군 간 거리가 인접해 있는 경우라면 하나의 추종 대상 후보가 위 2개 이상의 복수의 점군들로 이루어질 수 있고, 이때에는 2개 이상의 점군을 하나의 추종 대상 후보로 보아야 하는지 판단해야 한다. 본 발명에서는 이러한 판단에 점군 간 거리를 이용한다. 본 발명은 로봇이 사람을 추종하는 것을 전제로 하므로, 사람에 대응되는 점군을 결정할 때 점군과 점군이 사람의 크기(키나 어깨 폭 등)보다 작은 범위에 있다면 해당 점군들을 하나의 점군으로 판단할 수 있다. 예를 들면, 사람의 어깨 폭이 아무리 커도 1m가 넘지는 않고 복수의 사람의 몸의 중심이 50㎝ 이내에 있는 경우는 거의 없으므로, 복수의 점군 간 중심(각 점군을 구성하는 점들의 위치의 평균일 수 있다) 거리가 50㎝ 이하인 경우 하나의 추종 대상 후보에 속하는 것으로 점군을 재결합할 수 있다.Next, if the distance between two or more point clouds is adjacent, one follow-up target candidate can be composed of the above two or more point clouds. do. In the present invention, the distance between point clouds is used for this determination. Since the present invention is based on the premise that a robot follows a human, when determining a point cloud corresponding to a human, if the point cloud and the point cloud are within a range smaller than the size (height, shoulder width, etc.) of the human, the corresponding point clouds can be determined as one point cloud. there is. For example, no matter how large a person's shoulder width is, it does not exceed 1 m, and since the center of a plurality of people's bodies is rarely within 50 cm, ) If the distance is 50 cm or less, the point cloud can be recombined as belonging to one follow-up target candidate.

인접 데이터 구분은 특정 점군 주변에 2개 이상 복수 개의 점군이 비슷한 거리에 가까이 있는 경우 문제가 될 수 있다. 이때에는 점군의 분포를 고려하여 점군의 재결합을 결정할 수 있다. The classification of adjacent data can be problematic when two or more point clouds are close to each other at a similar distance. In this case, recombination of point groups can be determined by considering the distribution of point groups.

도 7은 2개 점군의 분포와 중심의 관계를 도시한 예시도이다. 설명을 간단히 하기 위하여 2개 점군(제1, 제2 점군), 그리고 2차원 분포를 예로 들었으나 3개 이상의 점군 및 3차원 분포의 경우에도 문제 해결의 기술수단은 동일하다(3차원 분포인 경우 다변수 가우시안 분포를 사용할 수 있다). 도 7(a)와 같이 제1 점군의 표준편차(σ)가 작은 경우와 도 7(b)와 같이 제1 점군의 표준편차가 큰 경우라면 제1 점군과 제2 점군의 중심(G1, G2) 거리는 도 7(a)의 경우가 도 7(b)의 경우보다 짧지만, 도 7(a)의 표준편차가 도 7(b)의 표준편차보다 작기 때문에 제2 점군의 중심(G2)이 제1 점군에 속할 확률은 도 7(b)의 경우가 더 크고 따라서 제2 점군이 도 7(b)의 제1 점군에 속하는 것으로 재결합하는 것이 확률적으로 더 옳게 된다. 즉, 본 발명에서 인접 데이터의 재결합은 점군 간 중심 거리가 소정 값 이하(위 예에서 50㎝)인 경우에는 해당 점군 간에, 만약 제1 점군과 중심 거리가 소정 값 이하인 제2 점군이 복수 개인 경우 (특정 제1 점군과 제2 점군의 중심 거리)÷(위 특정 제1 점군의 표준편차)의 값이 제일 작은 제1 점군과 제2 점군 간에 이루어진다.7 is an exemplary view showing the relationship between the distribution and center of two point groups. For simplicity of explanation, two point clouds (first and second point clouds) and a 2-dimensional distribution are given as an example, but the technical means of solving the problem is the same even in the case of three or more point clouds and a 3-dimensional distribution (in the case of a 3-dimensional distribution) multivariate Gaussian distribution can be used). When the standard deviation (σ) of the first point group is small as shown in FIG. 7(a) and the standard deviation of the first point group is large as shown in FIG. ) distance is shorter in the case of FIG. 7(a) than in the case of FIG. 7(b), but since the standard deviation of FIG. 7(a) is smaller than that of FIG. The probability of belonging to the first point cloud is higher in the case of FIG. 7(b), and therefore it is more probabilistically correct that the second point cloud belongs to the first point cloud of FIG. 7(b) and recombines. That is, in the present invention, the recombination of adjacent data is carried out between corresponding point clouds when the center distance between point clouds is less than a predetermined value (50 cm in the above example), and if there are a plurality of second point clouds whose center distance from the first point cloud is less than a predetermined value It is made between the first point cloud and the second point cloud in which the value of (central distance between the first specific point cloud and the second point cloud) ÷ (the standard deviation of the first specific point group above) is the smallest.

위와 같은 방법으로 구분된 점군에 의해 각각의 추종 대상 후보의 위치를 결정할 수 있다. 자율 주행 물류 운송 로봇이 계속 이동하면서 로봇의 정면이 변경되어 추종 목표의 위치를 단순히 (x, y) 좌표만으로 표시하기 어려우므로, 로봇의 선수각(예를 들면, y축에 대한 로봇 정면의 각) θ을 포함하여 데이터 형태가 (x, y, θ)로 되고, x, y 좌표도 로봇의 위치를 원점으로 하여 측정되며(x, y 축이 회전하지는 않고 원점만 로봇의 위치로 평행이동된다), 로봇의 전방 소정 영역을 관심 영역(ROI; Region of Interest)으로 설정하여 관심 영역 내에서만 3차원 라이다 데이터를 수집한다. 이러한 관심 영역의 설정은 이후에 설명할 데이터 서브 샘플링과 함께 연산량을 줄이는데 큰 영향을 미치게 된다.The location of each candidate to be followed can be determined by the point cloud classified in the above way. As the self-driving logistics transport robot continues to move, the front of the robot changes, making it difficult to simply display the position of the tracking target with (x, y) coordinates. ) Including θ, the data form is (x, y, θ), and the x, y coordinates are also measured with the robot's position as the origin (x, y axes do not rotate, only the origin is moved in parallel to the robot's position ), and sets a predetermined region in front of the robot as a region of interest (ROI) to collect 3D lidar data only within the region of interest. The setting of such a region of interest has a great effect on reducing the amount of computation together with data subsampling, which will be described later.

강도 기반 추종 대상 분류 모듈(15-2)은 인접 데이터 구분 모듈(15-1)에서 분할 및 재결합되어 추종 대상 후보군으로 판단된 점군에 대해 추종 대상일 가능성이 높은 우선 추종 대상 후보군을 추출해 내는 우선 추종 대상 후보군 추출 단계(S30)를 수행한다. 우선 추종 대상 후보군 추출 단계(S30)가 필요한 이유는 본 발명에서 낮은 밀도의 점군은 실제 추종 대상 후보군이 아니라 물체나 바닥의 난반사 등에 의한 노이즈일 가능성이 크기 때문이다. 극단적인 예로, 추종 대상 후보군으로 판단된 점군에 속하는 점이 1개 또는 2개이고 다른 점군들과 거리가 충분히 떨어져 있는 경우에는 이를 추종 대상 후보로 판단할 필요가 없는 것이다. 따라서 추종 대상 후보군으로 판단된 점군에서 반사강도가 소정 값 이상인 반사점이 소정 개수 이상인 경우에 우선 추종 대상 후보군으로 분류할 수 있다. 본 발명자들의 실험에 의하면 반사조끼와 같이 적절한 반사체를 사람이 착용하고 있는 경우 점군에 반사강도 255 이상인 점이 100개 이상 있는지가 우선 추종 대상 후보군을 판단하는데 적절한 기준이 된다. 위에서 반사강도 255는 일반적인 환경에서 반사조끼에 대한 반사를 측정했을 때 반사강도가 포화(saturation)되는 값의 일례(8bit)이다. 라이다 성능에 따라 반사강도의 분해능은 더욱 높아질 수 있다. 즉, 위 반사강도 255 이상인 점은 반사조끼에 대응되는 반사점이므로 우선 추종 대상 후보로 보아도 무방하다는 것이다.The intensity-based follow-up target classification module (15-2) is divided and recombined in the adjacent data classification module (15-1), and preferential follow-up is performed to extract a preferred follow-up target group with a high possibility of being a follow-up target for the point group determined as a follow-up target group. A target candidate group extraction step (S30) is performed. The reason why the step of extracting the candidate group to be followed (S30) is necessary first is that the low-density point cloud in the present invention is not an actual candidate group to be followed, but is highly likely to be noise caused by diffuse reflection of an object or floor. As an extreme example, if there are one or two points belonging to a point group determined as a candidate to be followed, and the distance is sufficiently far from other point clouds, there is no need to determine this as a candidate to be followed. Therefore, if there are more than a predetermined number of reflection points having a reflection intensity of a predetermined value or more in the point group determined as a candidate group to be followed, it can be classified as a candidate group to be followed first. According to the experiment of the present inventors, when a person is wearing an appropriate reflector such as a reflective vest, whether there are 100 or more points with a reflective intensity of 255 or more in the point group is an appropriate criterion for determining a candidate group to be followed first. Above, the reflection intensity 255 is an example (8 bits) of a value where the reflection intensity is saturated when the reflection of a reflective vest is measured in a general environment. Depending on lidar performance, the resolution of reflection intensity can be further increased. In other words, since the point with the above reflection intensity of 255 or more is the reflection point corresponding to the reflective vest, it is safe to consider it as a candidate to be followed first.

추종 대상 결정 모듈(15-3)은 자율 주행 물류 운송 로봇이 추종해야 하는 목표를 결정하는 추종 목표 결정 단계(S40)를 수행한다. 즉, 추종 목표 결정 단계(S40)는 본 발명에 따른 자율 주행 물류 운송 로봇이 추종해야 하는 1개의 목표를 결정하는 단계이다. 도 8은 사람을 목표로 하여 추종 목표 결정 단계를 거친 결과를 예시한 것으로서, 도 6에 나타나있던 다른 추종 대상 후보군들이 제거되고 목표만 표시된 상태를 보여준다. 본 발명에서 1개의 추종 목표는 강도 기반 추종 대상 분류 모듈(15-2)이 추출한 우선 추종 대상 후보 중 본 발명에 따른 자율 주행 물류 운송 로봇에 가장 가까운 우선 추종 대상 후보로 결정된다. 왜냐하면, 본 발명에 따른 자율 주행 물류 운송 로봇은 로봇을 사용하는 운반자가 최초로 구동하므로, 다른 우선 추종 대상 후보보다 로봇에 최근접해 있기 때문이다.The following target determining module 15-3 performs a following target determining step (S40) of determining a target to be followed by the self-driving logistics transport robot. That is, the following target determination step (S40) is a step of determining one target to be followed by the self-driving logistics transport robot according to the present invention. FIG. 8 illustrates the result of the step of determining a follow-up target targeting a person, and shows a state in which only the target is displayed with other follow-up target groups shown in FIG. 6 removed. In the present invention, one follow-up target is determined as a preferred follow-up target closest to the self-driving logistics transport robot according to the present invention among preferred follow-up target candidates extracted by the strength-based follow-up target classification module 15-2. This is because the self-driving logistics transportation robot according to the present invention is driven first by a carrier using the robot, and therefore is closer to the robot than other candidates for priority following.

추종 모듈(15-4)은 추종 대상 결정 모듈(15-3)에서 결정된 목표를 지속적으로 추종하면서 자율 주행 물류 운송 로봇이 목표를 따라 이동하는 목표 추종 단계(S50)를 수행한다. 도 9는 목표 추종 단계의 세부 순서도이다. 목표 추종은 목표의 직전 데이터(xt -1, yt - 1)로부터 현재 위치(χt, ψt)를 추측(estimation)하고, 라이다부(30)에서 측정(measurement)된 현재 목표 위치(xt, yt)가 추측된 위치(χt, ψt)와 소정의 오차 범위 내에 있을 때 측정된 현재 목표 위치 데이터를 다음 위치 추측의 입력값으로 보정(correction)하는 칼만 필터링(Kalman Filtering)에 의해 수행될 수 있다. 측정된 목표 위치와 추측된 위치의 거리가 소정 오차(e) 범위를 초과하는 경우라면, 측정된 위치가 자율 주행 물류 운송 로봇이 추종하고자 하는 목표의 것이 아닐 가능성이 있다는 것을 의미하므로 잘못된 목표를 추종하여 따라가는 것을 방지하기 위하여 다음 위치 추측은 보정 없이 목표의 직전 위치 데이터로부터 추측된 현재 위치 데이터(xt, yt) = (χt, ψt)를 입력값으로 하여 다시 추측하게 된다. 만약 다음 위치(χt +1, ψt +1) 추측과 라이다부(30)에서 측정된 위치(xt +1, yt + 1)가 다시 소정 오차 범위 내에 있다면 목표를 다시 포착한 것으로 판단하여 측정된 위치로 보정하고, 그렇지 않다면 다시 추측된 위치 데이터(χt, ψt)에 기반하여 다음 위치(χt +1, ψt+1)를 추측하게 된다. 그리고 측정에 의한 보정 없이 소정 회수(도 9의 예에서는 3)를 초과하여 추정이 연속되는 경우 리셋 후 관심 영역 내에서 추종 목표 결정 단계(S40)를 다시 거칠 수 있다.The following module 15-4 performs a target following step S50 in which the self-driving logistics transport robot moves along the target while continuously following the target determined by the following target determination module 15-3. 9 is a detailed flow chart of a goal following step. Target tracking estimates the current position (χ t , ψ t ) from the previous data (x t -1 , y t - 1 ) of the target, and measures the current target position (measurement) in the lidar unit 30 Kalman filtering that corrects the measured current target position data with the input value of the next position estimation when x t , y t ) is within a predetermined error range with the estimated position (χ t , ψ t ) can be performed by If the distance between the measured target position and the estimated position exceeds the predetermined error range (e), it means that the measured position may not be the target that the self-driving logistics transport robot wants to follow, so it follows the wrong target. In order to prevent it from being followed, the next location estimation is performed again by using the current location data (x t , y t ) = (χ t , ψ t ) estimated from the previous location data of the target without correction as an input value. If the next position (χ t +1 , ψ t +1 ) and the position (x t +1 , y t + 1 ) measured by the lidar unit 30 are again within a predetermined error range, it is determined that the target has been captured again Otherwise, the next position (χ t +1 , ψ t +1 ) is estimated based on the estimated position data (χ t , ψ t ). In addition, if the estimation continues for more than a predetermined number of times (3 in the example of FIG. 9 ) without correcting by measurement, the following target determination step (S40) in the region of interest may be performed again after the reset.

본 발명에 따른 자율 주행 물류 운송 로봇은 PC(15)에서 목표 탐지 및 추종을 수행하는데, 고성능의 PC(15)를 구비하는 것이 어려우므로 알고리즘에 의해 연산량을 줄일 필요가 있고, 이를 위하여 데이터 서브 샘플링 모듈(15-5)과 강도 데이터 복구 모듈(15-6)이 더 구비될 수 있다.The self-driving logistics transportation robot according to the present invention performs target detection and tracking in the PC 15, but since it is difficult to have a high-performance PC 15, it is necessary to reduce the amount of calculation by an algorithm, and for this purpose, data subsampling A module 15-5 and a strength data recovery module 15-6 may be further provided.

데이터 서브 샘플링 모듈(15-5)이 라이다부(30)에서 수집된 데이터 중에서 일부만 샘플링하는 데이터 서브 샘플링 단계(S60)를 수행할 수 있다. 데이터가 줄어들기 때문에 인접 데이터 구분 모듈(15-1) 등 이후 모듈의 처리에서 연산량을 현저히 감소시킬 수 있다. 본 발명자의 실험에 따르면 수집된 데이터의 약 1/10 정도만 서브 샘플링하더라도 최종 목표 추종의 품질이 크게 저하되지 않았다. 도 10은 데이터 서브 샘플링된 결과를 예시한 것으로서, 관심 영역 내에 여러 점군이 나타나 있는 것을 알 수 있다. 참고로, 적색 파이프는 x축을, 녹색 파이프는 y축을 나타낸다.The data sub-sampling module 15 - 5 may perform a data sub-sampling step ( S60 ) of sampling only a part of the data collected by the lidar unit 30 . Since the data is reduced, the amount of calculation in the processing of subsequent modules such as the adjacent data classification module 15-1 can be significantly reduced. According to the experiment of the present inventors, the quality of the final target tracking did not significantly deteriorate even when only about 1/10 of the collected data was subsampled. 10 illustrates data subsampled results, and it can be seen that several point clouds appear in the region of interest. For reference, the red pipe represents the x-axis and the green pipe represents the y-axis.

강도 데이터 복구 모듈(15-6)은 반사체에서 반사되는 고반사강도 반사점을 서브 샘플링된 데이터에 부가하는 반사체 데이터 보강 단계(S70)를 수행한다. 이에 따라 서브 샘플링에 따른 데이터 희석이 크게 완화될 수 있다. 도 11은 반사체 데이터가 보강된 결과를 예시한 것으로서, 반사조끼의 ‘V’자 반사점들이 도 10 대비 더 부가되어 있는 것을 알 수 있다. 반사체 데이터는 라이다부(30)에서 측정되는 빔 강도가 소정 임계치(위에서 예라면 반사강도 255) 이상인 점들을 추출하여 구성할 수 있다.The intensity data recovery module 15 - 6 performs a reflector data augmentation step ( S70 ) of adding high reflection intensity reflection points reflected from the reflector to the subsampled data. Accordingly, data dilution due to subsampling can be greatly alleviated. FIG. 11 illustrates the result of reinforcing reflector data, and it can be seen that more 'V'-shaped reflection points of the reflective vest are added compared to FIG. 10 . The reflector data can be configured by extracting points where the beam intensity measured by the lidar unit 30 is equal to or greater than a predetermined threshold value (reflection intensity 255 in the case of the example above).

데이터 수집 단계(S10)에서 수집된 데이터를 일괄적으로 서브 샘플링하는 경우 목표의 위치를 강력하게 나타내는 반사체의 반사점도 획일적으로 줄어들게 되고 따라서 목표에 대응되는 점군의 밀도가 낮아져 분포의 판단이 어려워지고 점군 간 거리 판단도 부정확해진다. 반사체의 반사점을 서브 샘플링된 데이터에 부가한다는 것은 점군의 피크(일괄적으로 서브 샘플링하더라도 점군의 중심에서 반사점 개수가 가장 많다) 주변의 반사점 데이터 개수를 현저히 늘린다는 것이므로 점군의 분포가 보다 급격해지고(sharp) 따라서 목표의 위치가 잘 특정되는 효과가 나타난다. 이후 인접 데이터 구분 단계(S20)를 수행하면 점군들의 분할 및 재결합이 더욱 명확하게 이루어질 수 있다.When the data collected in the data collection step (S10) is collectively subsampled, the reflection points of the reflector that strongly indicate the position of the target are uniformly reduced, and accordingly, the density of the point group corresponding to the target is lowered, making it difficult to determine the distribution. Inter-distance judgments also become inaccurate. Adding the reflection points of the reflector to the subsampled data significantly increases the number of reflection points around the peak of the point group (the center of the point group has the largest number of reflection points even if it is collectively subsampled), so the distribution of the point group becomes more rapid ( sharp) Therefore, the effect that the position of the target is well specified appears. Subsequently, if the adjacent data classification step (S20) is performed, the division and recombination of point clouds can be performed more clearly.

추종 대상 초기화 모듈(15-7)은 위 도 9로 설명한 바와 같이, 측정에 의한 보정 없이 소정 회수(도 9의 예에서는 3)를 초과하여 추정이 연속되는 경우 목표 추종이 불가능해진 것으로 판단하여 추종 대상 초기화 단계(S80)를 수행한다. 따라서 리셋 후 관심 영역 내에서 추종 목표 결정 단계(S40)를 다시 거쳐 추종 목표를 설정한다.As described above with reference to FIG. 9, the follow-up target initialization module 15-7 determines that the target follow-up becomes impossible when the estimation continues for more than a predetermined number of times (3 in the example of FIG. 9) without correction by measurement, and follows A target initialization step (S80) is performed. Therefore, after the reset, a following target is set through the following target determination step (S40) again in the region of interest.


10 본체부 11 센서
12 MCU 보드 13 모터
14 모터 구동 보드 15 PC
15-1 인접 데이터 구분 모듈 15-2 강도 기반 추종 대상 분류 모듈
15-3 추종 대상 결정 모듈 15-4 추종 모듈
15-5 데이터 서브 샘플링 모듈 15-6 강도 데이터 복구 모듈
15-7 추종 대상 초기화 모듈 16 배터리
17 전력 공급 보드 20 이송부
30 라이다부 31 3차원 라이다
32 2차원 라이다 40 카메라부
S10 데이터 수집 단계 S20 인접 데이터 구분 단계
S30 우선 추종 대상 후보군 추출 단계
S40 추종 목표 결정 단계 S50 목표 추종 단계
S60 데이터 서브 샘플링 단계 S70 반사체 데이터 보강 단계
S80 추종 대상 초기화 단계

10 body part 11 sensor
12 MCU board 13 motor
14 motor driving board 15 pcs
15-1 Adjacent Data Classification Module 15-2 Intensity-Based Tracking Target Classification Module
15-3 Tracking target determination module 15-4 Tracking module
15-5 Data Subsampling Module 15-6 Intensity Data Recovery Module
15-7 Follow Target Initialization Module 16 Battery
17 power supply board 20 transport
30 lidar part 31 3-dimensional lidar
32 2D lidar 40 Camera unit
S10 data collection step S20 adjacent data classification step
S30 Priority Follow-up Target Candidate Extraction Step
S40 Tracking Goal Determination Step S50 Goal Tracking Step
S60 data subsampling step S70 reflector data augmentation step
S80 follower initialization step

Claims (5)

물류를 적재하는 본체부(10), 상기 본체부(10)를 이동시키는 이송부(20) 및 상기 본체부(10)에 구비되는 라이다부(30)로 구성되어, 상기 라이다부(30)가 설정된 목표를 3차원 공간에서 감지하여 3차원 라이다 데이터를 생성하면, 상기 본체부(10)가 3차원 라이다 데이터를 가공하여 상기 목표를 추종하고, 상기 이송부(20)가 제어 명령에 따라 상기 본체부(10)를 이동시키는 자율 주행 물류 운송 로봇으로서,
상기 목표에 반사체가 구비되며,
상기 본체부(10)가 상기 이송부(20)에 동력을 전달하는 모터(13), 상기 모터(13)를 제어하는 모터 구동 보드(14), 상기 모터 구동 보드(14)와 상기 라이다부(30)를 제어하는 PC(15) 및 배터리(16)와 배터리를 제어하여 상기 모터 구동 보드(14) 및 PC(15)에 전력을 공급하는 전력 공급 보드(17)로 구성되고,
상기 PC(15)가 인접 데이터 구분 모듈(15-1), 강도 기반 추종 대상 분류 모듈(15-2), 추종 대상 결정 모듈(15-3), 추종 모듈(15-4), 데이터 서브 샘플링 모듈(15-5) 및 강도 데이터 복구 모듈(15-6)로 구성되며,
라이다부(30)가 작업 공간 내에 있는 물체들의 실시간 위치 데이터를 수집하는 데이터 수집 단계(S10)를 수행하고,
인접 데이터 구분 모듈(15-1)이 3차원 라이다 데이터로 수집된 반사점들을 추종 대상 후보군으로 그룹핑하는 인접 데이터 구분 단계(S20)를 수행하며,
강도 기반 추종 대상 분류 모듈(15-2)이 상기 인접 데이터 구분 모듈(15-1)에서 도출된 추종 대상 후보군으로 판단된 점군에 대해 추종 대상일 가능성이 높은 우선 추종 대상 후보군을 추출해 내는 우선 추종 대상 후보군 추출 단계(S30)를 수행하되, 상기 우선 추종 대상 후보군은 상기 인접 데이터 구분 모듈(15-1)이 그룹핑한 추종 대상 후보군 중 상기 반사체의 반사강도가 소정 값 이상인 반사점이 소정 개수 이상인 것이고,
추종 대상 결정 모듈(15-3)이 상기 자율 주행 물류 운송 로봇이 추종해야 하는 목표를 결정하는 추종 목표 결정 단계(S40)를 수행하며,
추종 모듈(15-4)이 상기 추종 대상 결정 모듈(15-3)에서 결정된 목표를 지속적으로 추종하면서 상기 자율 주행 물류 운송 로봇이 목표를 따라 이동하는 목표 추종 단계(S50)를 수행하고,
상기 데이터 수집 단계(10)에서 상기 데이터 서브 샘플링 모듈(15-5)이 상기 라이다부(30)에서 수집된 데이터 중에서 일부만 샘플링하는 데이터 서브 샘플링 단계(S60)를 수행한 후, 상기 강도 데이터 복구 모듈(15-6)이 상기 라이다부(30)에서 측정되는 빔 강도가 소정 임계치 이상인 점들인 고반사강도 반사점을 상기 서브 샘플링된 데이터에 부가하는 반사체 데이터 보강 단계(S70)를 수행하는 것을 특징으로 하는 자율 주행 물류 운송 로봇.
It consists of a body part 10 for loading logistics, a transfer part 20 for moving the body part 10, and a lidar part 30 provided in the body part 10, and the lidar part 30 is set. When a target is sensed in a 3D space and 3D lidar data is generated, the main body 10 processes the 3D lidar data to follow the target, and the transfer unit 20 performs a control command on the main body. As an autonomous logistics transport robot that moves the unit 10,
A reflector is provided on the target,
The body part 10 transmits power to the transfer part 20, the motor 13, the motor driving board 14 controlling the motor 13, the motor driving board 14 and the lidar part 30 ) and a battery 16 and a power supply board 17 that supplies power to the motor driving board 14 and the PC 15 by controlling the battery,
The PC 15 includes a neighbor data classification module 15-1, an intensity-based follow target classification module 15-2, a follow target determination module 15-3, a follow module 15-4, and a data subsampling module. (15-5) and intensity data recovery module (15-6),
The lidar unit 30 performs a data collection step (S10) of collecting real-time location data of objects in the work space,
The adjacent data classification module 15-1 performs the adjacent data classification step (S20) of grouping reflection points collected as 3D LiDAR data into a candidate group to be followed,
A preferred follow-up target in which the intensity-based follow-up target classification module 15-2 extracts a preferred follow-up target candidate group with a high possibility of being a follow-up target for the point group determined to be the follow-up target group derived from the adjacent data classification module 15-1 A candidate group extraction step (S30) is performed, but the priority target candidate group is a target candidate group having a predetermined number or more reflection points having a reflection intensity of the reflector of a predetermined value or more among the target candidate groups grouped by the neighbor data discrimination module 15-1.
The following target determination module 15-3 performs a following target determination step (S40) of determining a target to be followed by the self-driving logistics transport robot;
The following module 15-4 performs a target following step S50 in which the self-driving logistics transport robot moves along the target while continuously following the target determined in the following target determination module 15-3,
In the data collection step 10, after the data subsampling module 15-5 performs a data subsampling step S60 of sampling only a part of the data collected by the lidar unit 30, the intensity data recovery module (15-6) performs a reflector data augmentation step (S70) of adding high reflection intensity reflection points, which are points at which the beam intensity measured by the lidar unit 30 is equal to or greater than a predetermined threshold, to the subsampled data. Self-driving logistics transport robot.
청구항 1 에 있어서,
상기 인접 데이터 구분 모듈(15-1)이 상기 반사점들의 집합인 점군의 분할 및 재결합을 수행하고,
2개 이상의 점군을 하나의 추종 대상 후보로 보아야 하는지 판단하는 것을 특징으로 하는 자율 주행 물류 운송 로봇.
The method of claim 1,
The neighbor data segmentation module 15-1 performs segmentation and recombination of a point group that is a set of reflection points,
An autonomous logistics transport robot characterized in that it determines whether two or more point clouds should be viewed as one follow-up target candidate.
청구항 2에 있어서,
상기 목표가 사람이고, 상기 2개 이상의 점군 간 중심 거리가 50㎝ 이하인 경우 하나의 추종 대상 후보에 속하는 것으로 점군을 재결합하는 것을 특징으로 하는 자율 주행 물류 운송 로봇.
The method of claim 2,
The self-driving logistics transport robot, characterized in that for recombining the point clouds as belonging to one follow-up target candidate when the target is a person and the central distance between the two or more point clouds is 50 cm or less.
청구항 1에 있어서,
추종 대상 결정 모듈(15-3)이 상기 강도 기반 추종 대상 분류 모듈(15-2)이 추출한 우선 추종 대상 후보 중 상기 자율 주행 물류 운송 로봇에 가장 가까운 우선 추종 대상 후보를 추종해야 하는 목표로 결정하는 것을 특징으로 하는 자율 주행 물류 운송 로봇.
The method of claim 1,
The follow-up target determination module 15-3 determines the preferred follow-up target candidate closest to the self-driving logistics transport robot among the preferred follow-up target candidates extracted by the intensity-based follow target classification module 15-2 as a target to be followed Self-driving logistics transport robot, characterized in that.
청구항 1에 있어서,
상기 추종 모듈(15-4)이 상기 목표의 직전 데이터(xt -1, yt - 1)로부터 현재 위치(χt, ψt)를 추측하고, 상기 라이다부(30)에서 측정된 현재 목표 위치(xt, yt)가 추측된 위치(χt, ψt)와 소정의 오차 범위 내에 있을 때 상기 측정된 현재 목표 위치 데이터를 다음 위치 추측의 입력값으로 보정하여 다음 위치를 추측하는 것을 특징으로 하는 자율 주행 물류 운송 로봇.
The method of claim 1,
The tracking module 15-4 estimates the current position (χ t , ψ t ) from the previous data (x t -1 , y t - 1 ) of the target, and the current target measured by the lidar unit 30 When the position (x t , y t ) is within a predetermined error range with the estimated position (χ t , ψ t ), the measured current target position data is corrected with the input value of the next position estimation to guess the next position Autonomous driving logistics transport robot.
KR1020210183260A 2021-12-21 2021-12-21 Autonomous logistics transport robot KR102546156B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210183260A KR102546156B1 (en) 2021-12-21 2021-12-21 Autonomous logistics transport robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210183260A KR102546156B1 (en) 2021-12-21 2021-12-21 Autonomous logistics transport robot

Publications (1)

Publication Number Publication Date
KR102546156B1 true KR102546156B1 (en) 2023-06-21

Family

ID=86989555

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210183260A KR102546156B1 (en) 2021-12-21 2021-12-21 Autonomous logistics transport robot

Country Status (1)

Country Link
KR (1) KR102546156B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110119438A (en) * 2010-04-27 2011-11-02 목포대학교산학협력단 Human worker following mobile robot
KR20180074144A (en) * 2016-12-23 2018-07-03 한국과학기술연구원 Moving and searching method of mobile robot for following human
KR102179238B1 (en) * 2020-05-25 2020-11-16 센서기술 주식회사 Human following cruise and autonomous method for a vehicle
KR20210025327A (en) * 2019-08-27 2021-03-09 주식회사 케이티 Moving robot and method for control of the moving robot

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110119438A (en) * 2010-04-27 2011-11-02 목포대학교산학협력단 Human worker following mobile robot
KR20180074144A (en) * 2016-12-23 2018-07-03 한국과학기술연구원 Moving and searching method of mobile robot for following human
KR20210025327A (en) * 2019-08-27 2021-03-09 주식회사 케이티 Moving robot and method for control of the moving robot
KR102179238B1 (en) * 2020-05-25 2020-11-16 센서기술 주식회사 Human following cruise and autonomous method for a vehicle

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Claudia Alvarez-Aparicio et al. People Detection and Tracking Using LIDAR Sensors. ROBOTICS. MDPI. 2019. 8. 31., 8, 75

Similar Documents

Publication Publication Date Title
US8265425B2 (en) Rectangular table detection using hybrid RGB and depth camera sensors
CN108303096B (en) Vision-assisted laser positioning system and method
CN114782626B (en) Transformer substation scene map building and positioning optimization method based on laser and vision fusion
Maier et al. Vision-based humanoid navigation using self-supervised obstacle detection
Tsalatsanis et al. Vision based target tracking and collision avoidance for mobile robots
Chen et al. Global path planning in mobile robot using omnidirectional camera
Le Saux et al. Rapid semantic mapping: Learn environment classifiers on the fly
Li et al. A mobile robotic arm grasping system with autonomous navigation and object detection
US20240051146A1 (en) Autonomous solar installation using artificial intelligence
KR102546156B1 (en) Autonomous logistics transport robot
Vincze et al. Edge-projected integration of image and model cues for robust model-based object tracking
Ge et al. Visual-feature-assisted mobile robot localization in a long corridor environment
US20210371260A1 (en) Automatic detection and tracking of pallet pockets for automated pickup
CN114782639A (en) Rapid differential latent AGV dense three-dimensional reconstruction method based on multi-sensor fusion
Ding et al. Obstacles Detection Algorithm in Forest based on Multi-sensor Data Fusion.
Wang et al. Localization with laser range finder in a metrically inconsistent map from monocular slam
TWI751735B (en) Automatic guided vehicle tracking system and automatic guided vehicle tracking method
Achour et al. Localization and guidance with an embarked camera on a mobile robot
Wang et al. Binocular visual environment perception technology for Unmanned Surface Vehicle
WO2023193681A1 (en) System and method for detecting dynamic events
Wei et al. Practical Vision-Based Walking Navigation for the Humanoid Robot NAO in the Maze-like Environment
Nakamura et al. Localization Fault Detection Method using 2D LiDAR and Fisheye Camera for an Autonomous Mobile Robot Control
Estilo et al. Obstacle detection and localization in an automated vehicle using binocular stereopsis and motion field
Huang et al. Human-Following Strategy for Orchard Mobile Robot Based on the KCF-YOLO Algorithm
Karlsson et al. Perception capabilities for ARWs: The art of perceiving the environment

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant