KR20210006138A - Indoor autonomousdriving system of transpotation robot - Google Patents

Indoor autonomousdriving system of transpotation robot Download PDF

Info

Publication number
KR20210006138A
KR20210006138A KR1020190082040A KR20190082040A KR20210006138A KR 20210006138 A KR20210006138 A KR 20210006138A KR 1020190082040 A KR1020190082040 A KR 1020190082040A KR 20190082040 A KR20190082040 A KR 20190082040A KR 20210006138 A KR20210006138 A KR 20210006138A
Authority
KR
South Korea
Prior art keywords
transport robot
autonomous driving
area
transport
indoor
Prior art date
Application number
KR1020190082040A
Other languages
Korean (ko)
Other versions
KR102281588B1 (en
Inventor
조준구
노민영
Original Assignee
씨제이올리브네트웍스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 씨제이올리브네트웍스 주식회사 filed Critical 씨제이올리브네트웍스 주식회사
Priority to KR1020190082040A priority Critical patent/KR102281588B1/en
Publication of KR20210006138A publication Critical patent/KR20210006138A/en
Application granted granted Critical
Publication of KR102281588B1 publication Critical patent/KR102281588B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

According to one embodiment of the present invention, a method for assisting autonomous driving of a transportation robot by an autonomous driving control server comprises the steps of: obtaining an image of an indoor space photographed by a transportation robot from the transportation robot; and extracting a drivable area from the obtained image, and learning the drivable area for the indoor space.

Description

운송 로봇의 실내자율주행 시스템{INDOOR AUTONOMOUSDRIVING SYSTEM OF TRANSPOTATION ROBOT}Indoor autonomous driving system of transport robot {INDOOR AUTONOMOUSDRIVING SYSTEM OF TRANSPOTATION ROBOT}

본 발명은 운송 로봇의 실내 주행 시스템에 관한 것으로, 보다 자세하게는 운송 로봇이 촬영한 실내 공간 이미지를 이용하여 주행 가능 영역을 딥러닝(Deep Learning)의 기계 학습 알고리즘을 통해 학습하고, 주행 영역 내에서 장애물의 존재를 확인하여, 운송 로봇이 기 설정된 경로에 따라 정확하게 주행할 수 있는 방법 및 이를 수행하는 실내 주행 시스템에 관한 것이다.The present invention relates to an indoor driving system of a transport robot, and more particularly, learns a driving area through a machine learning algorithm of deep learning using an indoor space image captured by a transport robot, and within the driving area. The present invention relates to a method for accurately driving a transport robot according to a preset path by checking the existence of an obstacle, and an indoor driving system for performing the same.

최근 물류량이 급증함에 따라, 물류 서비스 산업에서 물류 자동화에 대한 니즈(needs)가 증가하고 있다. 이 중 물류 자동화의 일환으로, 물류 피킹(picking) 작업을 수행하는 운송 로봇이 시범적으로 도입되고 있으며, 운송 로봇은 공장이나 물류 창고 등의 대형 실내 공간에서 이동 또는 전달되는 각종 물품의 배송을 수행할 수 있다.With the recent rapid increase in logistics volume, the needs for logistics automation in the logistics service industry are increasing. Among these, as part of logistics automation, transport robots that perform logistics picking are being introduced on a pilot basis, and transport robots deliver various goods that are moved or delivered in large indoor spaces such as factories or logistics warehouses. can do.

한편, 기존 프로세스에 대한 변화를 최소화하면서 24시간 작업이 가능한 운송 로봇의 도입을 위해서는, 실시간으로 변화하는 대형 실내 공간의 환경을 정확하게 인식하는 것이 운송 로봇의 자율 주행 동작의 핵심이라고 할 수 있다.On the other hand, in order to introduce a transport robot capable of working 24 hours while minimizing changes to existing processes, it can be said that accurately recognizing the environment of a large indoor space that changes in real time is the core of the autonomous driving operation of the transport robot.

그에 따라, 운송 로봇은 실내 환경 변화에 대응하기 위한 다양한 기술들이 개발되어 왔으며, 대표적으로 운송 로봇에 엔코더, 적외선, 초음파 등의 센서를 장착하여 운송 로봇의 위치 변화를 측정하는 오도메트리(Odometry)자율 주행기술을 들 수 있다. Accordingly, various technologies have been developed for transport robots to respond to changes in the indoor environment. Representatively, Odometry, which measures the position change of the transport robot by attaching sensors such as encoders, infrared rays, and ultrasonic waves to the transport robot. Self-driving technology is mentioned.

그러나 외부로부터 수신되는 정보 없이 운송 로봇이 자율 주행하는 경우, 주행 경로면 재질에 따라 운송 로봇의 밀림이 발생하거나, 운송 로봇에 부착된 센서의 오작동, 고장, 새로운 장애물의 배치 등 다양한 이유로 인해, 주행 경로의 오차가 필연적으로 발생하게 된다. However, if the transport robot runs autonomously without any information received from the outside, the transport robot may be pushed down depending on the material of the travel path, or due to various reasons such as malfunction of the sensor attached to the transport robot, failure, and the placement of new obstacles. Path errors inevitably occur.

따라서 운송 로봇에 장착된 카메라로 획득한 실내 공간의 이미지를 이용하여 주행 가능 영역을 학습하고, 장애물을 인식하여 운송 로봇이 설정한 계획 경로 대로 주행할 수 있는 새로운 기술 및 시스템의 개발이 요구되며, 본 발명은 이에 관한 것이다.Therefore, it is required to develop a new technology and system that can learn the driving range using the image of the indoor space acquired by the camera mounted on the transport robot, recognize obstacles, and travel according to the planned route set by the transport robot. The present invention relates to this.

한국등록특허공보 제10-1944497호(2019.01.25.)Korean Registered Patent Publication No. 10-1944497 (2019.01.25.)

본 발명이 해결하고자 하는 기술적 과제는 GPS를 사용할 수 없는 실내 환경에 놓여진 운송 로봇에 카메라를 부착하고, 실내 공간의 이미지를 획득하여 이를 딥 러닝의 기계 학습 알고리즘을 통해 학습함으로써, 장애물의 존재를 판단하고 및 주행 가능 영역을 추론할 수 있는 방법 및 시스템을 제공하는 것이다.The technical problem to be solved by the present invention is to determine the existence of an obstacle by attaching a camera to a transport robot placed in an indoor environment where GPS is not available, acquiring an image of an indoor space, and learning it through a machine learning algorithm of deep learning. And to provide a method and system capable of inferring a drivable area.

본 발명이 해결하고자 하는 또 다른 기술적 과제는 학습된 주행 가능 영역과 운송 로봇에 부착된 카메라, 센서를 활용하여 운송 로봇이 기 설정된 경로에서 벗어났는지 감지하고, 그 위치를 보정할 수 있는 방법 및 시스템을 제공하는 것이다.Another technical problem to be solved by the present invention is a method and system capable of detecting whether a transport robot deviates from a preset route by using a learned driveable area, a camera attached to a transport robot, and a sensor, and correcting its position. Is to provide.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 일 실시 예에 따른 자율 주행 제어 서버가 운송 로봇의 자율 주행을 보조하는 방법으로서, 상기 운송 로봇으로부터 상기 운송 로봇이 촬영한 실내 공간의 이미지를 획득하는 단계, 상기 획득한 이미지에서 주행 가능 영역을 추출하여, 상기 실내 공간에 대한 주행 가능 영역을 학습하는 단계, 상기 학습된 주행 가능 영역을 기초로 상기 실내 공간에 배치된 운송 로봇의 주행 현황에 따라 확정되는 주행 경로를 생성하여 상기 운송 로봇으로 송신하는 단계를 포함한다.A method of assisting the autonomous driving of a transport robot by an autonomous driving control server according to an embodiment of the present invention, the method comprising: acquiring an image of an indoor space photographed by the transport robot from the transport robot, and driving from the acquired image The transport robot by extracting an area and learning a drivable region for the indoor space, by generating a travel path determined according to the driving status of a transport robot disposed in the indoor space based on the learned drivable region And transmitting.

일 실시 예에 따르면, 상기 운송 로봇이 주행 중인 경우, 상기 주행 경로를 상기 운송 로봇으로 송신하는 단계는, 상기 운송 로봇으로부터 이미지를 획득하고, 상기 획득한 이미지를 상기 학습된 주행 가능 영역에 입력하여, 주행 가능 영역을 추론하는 단계, 상기 추론된 주행 가능 영역에서 장애물의 존재 여부를 확인하는 단계를 더 포함할 수 있다.According to an embodiment, when the transport robot is traveling, transmitting the travel path to the transport robot includes obtaining an image from the transport robot, and inputting the acquired image into the learned driveable area. The method may further include inferring a drivable area, and checking whether an obstacle exists in the inferred drivable area.

일 실시 예에 따르면, 상기 확인하는 단계에서 장애물이 존재하는 것으로 확인되었다면, 상기 운송 로봇과 상기 장애물 간의 상대 거리를 산출하고, 상기 상대 거리를 기초로 상기 추론된 주행 가능 영역에서의 주행 경로를 보정하는 단계를 더 포함할 수 있다.According to an embodiment, if it is confirmed that an obstacle exists in the checking step, a relative distance between the transport robot and the obstacle is calculated, and a driving path in the inferred driving area is corrected based on the relative distance. It may further include the step of.

일 실시 예에 따르면, 상기 운송 로봇과 상기 장애물과의 상대 거리는, 상기 학습된 주행 가능 영역의 치수 또는 상기 운송 로봇의 주행 정보를 기초로 산출될 수 있다.According to an embodiment, the relative distance between the transport robot and the obstacle may be calculated based on the learned dimension of the drivable area or driving information of the transport robot.

일 실시 예에 따르면, 상기 장애물이 다른 운송 로봇인 경우,인접한 운송 로봇 각각의 주행 정보를 기초로 충돌 가능성을 판단하고, 상기 인접한 운송 로봇 각각에 기 설정된 주행 경로를 보정하는 단계를 더 포함할 수 있다.According to an embodiment, when the obstacle is a different transport robot, determining a collision possibility based on driving information of each of the adjacent transport robots, and correcting a preset driving path for each of the adjacent transport robots. have.

일 실시 예에 따르면, 상기 확인하는 단계에서 장애물이 존재하지 않는 것으로 확인되었다면, 상기 이미지 및 상기 학습된 주행 가능 영역을 기초로 상기 운송 로봇의 현재 위치 좌표를 계산하고, 상기 계산된 위치 좌표와 주행 경로 확정 신호를 상기 운송 로봇으로 송신하는 단계를 더 포함할 수 있다.According to an embodiment, if it is confirmed that there is no obstacle in the checking step, the current position coordinates of the transport robot are calculated based on the image and the learned driveable area, and the calculated position coordinates and driving It may further include transmitting a route determination signal to the transport robot.

일 실시 예에 따르면, 상기 주행 경로를 상기 운송 로봇으로 송신하는 단계 이후에, 상기 운송 로봇으로부터 상기 운송 로봇이 촬영한 이미지 데이터와 함께 상기 운송 로봇이 계산한 상대 위치 좌표를 수신하는 단계, 상기 수신한 이미지 데이터와 상기 학습된 주행 가능 영역을 기초로 상기 운송 로봇의 절대 위치 좌표를 계산하는 단계, 상기 상대 위치 좌표와 절대 위치 좌표 간의 차이가 오차 범위를 벗어나는지 판단하는 단계 및 상기 오차 범위를 벗어나는 것으로 판단될 경우, 상기 운송 로봇의 위치 보정 값을 산출하는 단계를 더 포함할 수 있다.According to an embodiment, after transmitting the travel route to the transport robot, receiving the relative position coordinates calculated by the transport robot together with image data captured by the transport robot from the transport robot, the reception Calculating absolute position coordinates of the transport robot based on one image data and the learned driveable area, determining whether a difference between the relative position coordinates and the absolute position coordinates is out of an error range, and out of the error range If it is determined that it is determined, the step of calculating a position correction value of the transport robot may be further included.

일 실시 예에 따르면, 상기 주행 경로를 상기 운송 로봇으로 송신하는 단계는, 상기 운송 로봇으로부터 경로 계획을 수신하는 단계 및 상기 수신한 경로 계획을 상기 학습된 주행 가능 영역에 입력하여, 주행 불가 영역을 확인하는 단계를 더 포함할 수 있다.According to an embodiment, the transmitting of the travel route to the transport robot includes: receiving a route plan from the transport robot and inputting the received route plan into the learned driveable area, thereby defining a non-driving area. It may further include the step of confirming.

일 실시 예에 따르면, 상기 주행 불가 영역이 존재하는 것으로 확인될 경우, 상기 학습된 주행 가능 영역 내 중심선을 따라 이동하는 새로운 경로 계획을 생성하는 단계를 더 포함할 수 있다.According to an embodiment, when it is determined that the non-driving area exists, generating a new route plan moving along a center line within the learned driving possible area may be further included.

일 실시 예에 따르면, 상기 주행 불가 영역이 존재하는 것으로 확인될 경우, 상기 학습된 주행 가능 영역 중 상기 경로 계획과 유사도가 높은 주행 가능 영역을 탐색하여, 새로운 경로 계획을 생성하는 단계를 더 포함하고, 상기 유사도는, 상기 운송 로봇의 이동 방향 또는 상기 경로 계획에 따른 이동 거리를 기초로 산출될 수 있다.According to an embodiment, when it is determined that the non-driving area exists, searching for a driving available area having a high similarity to the route plan among the learned driving available areas, and generating a new route plan, , The similarity may be calculated based on a moving direction of the transport robot or a moving distance according to the route plan.

본 발명에 의하면, GPS를 사용할 수 없는 실내 환경에서 운송 로봇에 부착된 카메라를 통해 획득한 실내 공간 이미지 정보를 이용하여 주행 가능 영역을 기계 학습 알고리즘을 통해 학습함으로써, 운송 로봇과 장애물의 상대적인 거리, 실내 공간에서 운송 로봇의 상대적인 위치를 정확하게 추론할 수 있다는 효과가 있다.According to the present invention, in an indoor environment where GPS is not available, by learning an available driving area through a machine learning algorithm using indoor spatial image information acquired through a camera attached to a transport robot, the relative distance between the transport robot and the obstacle, There is an effect of being able to accurately infer the relative position of a transport robot in an indoor space.

또한, 딥 러닝의 기계 학습 알고리즘을 사용하여 실내 공간에서 주행 가능 영역을 추론하는 바, 실내 공간에 변화가 생기더라도 주행 가능 영역을 정확하게 인식할 수 있다는 효과가 있다.In addition, since a drivable area is inferred in an indoor space using a machine learning algorithm of deep learning, it is possible to accurately recognize a drivable area even if there is a change in the indoor space.

또한, 운송 로봇에 설치된 부수적인 센서들(예. 관성 센서, 엔코더, 라이다)을 활용하여 운송 로봇의 위치를 추정하고, 기 설정된 경로를 벗어날 경우, 학습된 주행 가능 영역을 기초로 오차를 보정하여 현재 시점에서의 최적 주행 경로를 산출할 수 있어, 운송 로봇이 효율적으로 주행할 수 있다는 효과가 있다.In addition, the position of the transport robot is estimated using auxiliary sensors installed in the transport robot (e.g., inertial sensor, encoder, lidar), and if it deviates from a preset path, the error is corrected based on the learned driving area. Thus, it is possible to calculate the optimal travel path at the current point in time, and there is an effect that the transport robot can travel efficiently.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.The effects of the present invention are not limited to the above-mentioned effects, and other effects that are not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시 예에 따른 실내 자율 주행 시스템의 개략적인 구성을 나타낸 도면이다.
도 2는 본 발명의 일 실시 예에 따른 실내 자율 주행 보조 방법의 흐름을 나타낸 순서도이다.
도 3은 도 2에 도시된 S210 및 S220 단계를 구체화한 순서도이다.
도 4는 본 발명의 일 실시 예에 따른 자율 주행 제어 서버가 주행 가능 영역을 학습하는 방식을 설명하기 위한 도면이다.
도 5는 도 2에 도시된 S230 단계를 구체화한 순서도이다.
도 6은 도 5에 도시된 S2304 단계를 구체화한 순서도이다.
도 7은 본 발명의 일 실시 에에 따른 자율 주행 제어 서버가 주행 경로를 보정하는 방식을 설명하기 위한 도면이다.
도 8은 본 발명의 또 다른 실시 예에 따른 자율 주행 제어 서버가 주행 경로를 보정하는 방식을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시 예에 따른 자율 주행 제어 서버의 경로 계획 판단 방식을 설명하기 위한 순서도이다.
도 10은 본 발명의 일 실시 예에 따른 자율 주행 제어 서버가 운송 로봇의 위치를 보정하는 방식을 설명하기 위한 순서도이다.
1 is a diagram showing a schematic configuration of an indoor autonomous driving system according to an embodiment of the present invention.
2 is a flowchart illustrating a flow of an indoor autonomous driving assistance method according to an embodiment of the present invention.
3 is a flowchart illustrating steps S210 and S220 shown in FIG. 2.
FIG. 4 is a diagram for explaining a method in which an autonomous driving control server learns an available driving area according to an embodiment of the present invention.
5 is a flowchart illustrating step S230 illustrated in FIG. 2.
6 is a flow chart illustrating step S2304 shown in FIG. 5.
7 is a diagram illustrating a method of correcting a driving route by an autonomous driving control server according to an embodiment of the present invention.
FIG. 8 is a diagram for explaining a method in which an autonomous driving control server corrects a driving route according to another embodiment of the present invention.
9 is a flowchart illustrating a method of determining a route plan by an autonomous driving control server according to an embodiment of the present invention.
10 is a flowchart illustrating a method of correcting a position of a transport robot by an autonomous driving control server according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. The same reference numerals refer to the same components throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless explicitly defined specifically. The terms used in the present specification are for describing exemplary embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase.

본 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.As used herein, “comprises” and/or “comprising” refers to the recited component, step, operation, and/or element, of one or more other elements, steps, operations and/or elements. It does not exclude presence or addition.

도 1은 본 발명의 일 실시 예에 따른 실내 자율 주행 시스템(1000)의 개략적인 구성을 나타낸 도면이며, 각 구성 요소들이 수행하는 기능 별로 구분한 도면이다.1 is a diagram showing a schematic configuration of an indoor autonomous driving system 1000 according to an exemplary embodiment of the present invention, and is a diagram divided by functions performed by each component.

도 1을 참조하면, 실내 자율 주행 시스템(1000)은 실내 공간 내 주행 가능 영역을 학습하는 자율 주행 제어 서버(100) 및 실내 공간을 주행하는 운송 로봇(200)을 포함하는 것을 확인할 수 있으며, 자율 주행 제어 서버(100)는 학습 모듈(110), 추론 모듈(120) 및 통신 모듈(130)을 포함하고, 운송 로봇(200)은 카메라 모듈(210), 주행 모듈(220) 및 통신 모듈(230)을 포함할 수 있다.Referring to FIG. 1, it can be seen that the indoor autonomous driving system 1000 includes an autonomous driving control server 100 that learns an available driving area in an indoor space and a transport robot 200 that travels in an indoor space. The driving control server 100 includes a learning module 110, an inference module 120, and a communication module 130, and the transport robot 200 includes a camera module 210, a driving module 220, and a communication module 230. ) Can be included.

자율 주행 제어 서버(100)의 학습 모듈(110)은 실내 공간을 촬영한 이미지를 기초로 실내 공간 내 운송 로봇(200)이 주행 가능한 주행 가능 영역을 학습할 수 있다. 여기서, 실내 공간을 촬영한 이미지는 운송 로봇(200)으로부터 수신할 수 있으며, 이미지 내에서 실내 공간의 바닥면을 추론한 후 바닥면에 대한 폭과 길이, 그리드를 학습하여, 실내 공간에 대한 주행 가능 영역 모델을 획득할 수 있다.The learning module 110 of the autonomous driving control server 100 may learn a drivable area in which the transport robot 200 in the indoor space can drive based on an image photographed of the indoor space. Here, the image of the indoor space can be received from the transport robot 200, and after inferring the floor surface of the indoor space within the image, the width and length of the floor surface, and the grid are learned to drive the indoor space. A possible area model can be obtained.

자율 주행 제어 서버(100)의 추론 모듈(120)은 운송 로봇(200)의 현재 위치, 운송 로봇(200)이 주행하는 경로에서의 장애물의 존재, 운송 로봇(200)이 설정한 경로 계획의 유효성, 운송 로봇(200) 간의 충돌 등 실내 공간을 주행하는 적어도 하나 이상의 운송 로봇(200)이 자율 주행하는 동안 필요한 다양한 정보들을 학습된 주행 가능 영역 모델을 통해 추론할 수 있다. The inference module 120 of the autonomous driving control server 100 includes the current position of the transport robot 200, the existence of an obstacle in the path the transport robot 200 travels, and the validity of the route plan set by the transport robot 200. , During autonomous driving of at least one or more transport robots 200 traveling in an indoor space, such as collisions between transport robots 200, various information necessary for autonomous driving may be inferred through the learned driveable area model.

예를 들어, 추론 모듈(120)은 운송 로봇(200)으로부터 경로 계획(path planning)을 수신하고, 이를 학습된 주행 가능 영역 모델에 적용하여, 막혀있는 경로는 없는지, 또 다른 운송 로봇(200)과 충돌할 가능성은 없는지, 보다 효율적인 경로가 존재하는 지 등 운송 로봇(200)이 생성한 경로 계획에 대한 유효성을 추론할 수 있다.For example, the inference module 120 receives path planning from the transport robot 200 and applies it to the learned drivable area model to determine if there is a blocked path, and another transport robot 200 It is possible to infer the validity of the route plan generated by the transport robot 200, such as whether there is a possibility of collision with or whether a more efficient route exists.

자율 주행 제어 서버(100)의 통신 모듈(130)은 운송 로봇(200) 또는 관리자 단말(미도시)로부터 실내 공간의 주행 가능 영역을 학습 및 추론하기 위한 다양한 정보들을 수신할 수 있다. 예를 들어, 통신 모듈(130)은 운송 로봇(200)의 식별 정보, 운송 로봇(200)으로부터 실내 공간에 대한 이미지, 운송 로봇(200)이 계산한 운송 로봇(200)의 위치 좌표, 운송 로봇(200)의 주행 정보 등을 수신할 수 있으며, 관리자 단말로부터 실내 공간에 배치된 설비의 식별 정보, 실내 공간에 배치된 새로운 설비(예. 물품을 적재하는 랙(Rack)) 정보, 새롭게 재배치된 실내 공간의 지도 정보, 실내 공간을 주행하는 운송 로봇(200)의 개수, 식별 정보 등을 수신할 수 있다.The communication module 130 of the autonomous driving control server 100 may receive various pieces of information for learning and inferring an available driving area of an indoor space from the transport robot 200 or a manager terminal (not shown). For example, the communication module 130 includes identification information of the transport robot 200, an image of the indoor space from the transport robot 200, the position coordinates of the transport robot 200 calculated by the transport robot 200, and the transport robot (200) driving information, etc. can be received, and identification information of facilities placed in the indoor space from the manager terminal, new equipment placed in the indoor space (e.g., racks for loading goods), and newly relocated information Map information of the indoor space, the number of transport robots 200 traveling in the indoor space, identification information, and the like may be received.

한편, 운송 로봇(200)은 공간을 주행하는 지능형 로봇(Intelligent service robot)으로서, 외부 환경을 인식하고 스스로 상황을 판단하여 자율적으로 동작할 수 있다.On the other hand, the transport robot 200 is an intelligent service robot that travels in space, and can operate autonomously by recognizing an external environment and determining a situation by itself.

운송 로봇(200)의 카메라 모듈(210)은 운송 로봇(200)의 전후방에 배치되어, 운송 로봇(200)이 주행하는 경로를 따라 지속적으로 실내 공간의 이미지를 획득할 수 있다. 이를 위해, 카메라 모듈(210)은 일반적인 아날로그 카메라, 네트워크 카메라, 줌 카메라, 스피드 돔 카메라 중 어느 하나 이상일 수 있으며, 전후방뿐만 아니라 좌우/상하에 배치되어 실내 공간의 이미지를 획득할 수 있다.The camera module 210 of the transport robot 200 is disposed at the front and rear of the transport robot 200 to continuously acquire an image of an indoor space along a path along which the transport robot 200 travels. To this end, the camera module 210 may be any one or more of a general analog camera, a network camera, a zoom camera, and a speed dome camera, and may be disposed in the front and rear as well as left and right/top and bottom to obtain an image of an indoor space.

운송 로봇(200)의 주행 모듈(220)은 실내 공간 내 운송 로봇(200)을 주행시키는 하드웨어적 구성 요소와 실내 공간을 주행하기 위한 경로 계획을 생성하는 소프트웨어적 구성 요소를 포함할 수 있다. 여기서, 주행 모듈(220)이 생성하는 경로 계획이란 전역 경로 계획(Global Path Planning), 지역 경로 계획(Local Path Planning)을 포함할 수 있다. 이때, 전역 경로 계획은 운송 로봇(200)이 출발 지점에서 목표 지점까지 자체적으로 생성한 최적의 경로 계획을 의미하고, 지역 경로 계획은 운송 로봇(200)에 구비된 센서들을 이용하여 장애물을 감지하고, 장애물의 회피를 위해 실시간으로 생성하는 경로 계획을 의미한다.The traveling module 220 of the transport robot 200 may include a hardware component for driving the transport robot 200 in an indoor space and a software component for generating a route plan for traveling in the indoor space. Here, the route plan generated by the driving module 220 may include global path planning and local path planning. At this time, the global route plan means an optimal route plan generated by the transport robot 200 from the starting point to the target point, and the regional route plan detects obstacles using sensors provided in the transport robot 200. , It means a path plan that is generated in real time to avoid obstacles.

이를 위해, 운송 로봇(200)은 엔코더(Encoder), 관성센서(IMU, Inertia Measurement Unit), 적외선 센서, 초음파 센서, 라이다(LADAR) 등과 같은 센서들을 포함할 수 있으며, 상술한 센서들을 통해 운송 로봇(200)의 x좌표, y좌표, 이동 각도 등을 계산할 수 있다.To this end, the transport robot 200 may include sensors such as an encoder, an inertial sensor (IMU, Inertia Measurement Unit), an infrared sensor, an ultrasonic sensor, and a lidar, and transport through the above-described sensors. The x-coordinate, y-coordinate, and moving angle of the robot 200 may be calculated.

운송 로봇(200)의 통신 모듈(230)은 자율 주행 제어 서버(100)와 통신하여 실내 공간의 이미지, 주행 정보, 위치 좌표, 장애물의 존재, 경로 계획 등 운송 로봇의 주행에 관한 다양한 정보들을 주고받을 수 있다. 이를 위해, 통신부(110)는 2G/3G, LTE(Long Term Evolution), LTE-A(LTE-Advance) 및 5G 등과 같은 셀룰러 통신 네트워크를 지원할 수 있으며, Wi-Fi와 같은 무선 네트워크를 지원할 수 있다.The communication module 230 of the transport robot 200 communicates with the autonomous driving control server 100 to provide various information on the driving of the transport robot such as an image of an indoor space, driving information, position coordinates, presence of obstacles, and route planning. I can receive it. To this end, the communication unit 110 may support cellular communication networks such as 2G/3G, Long Term Evolution (LTE), LTE-Advance (LTE-A), and 5G, and may support wireless networks such as Wi-Fi. .

한편, 운송 로봇(200)이 자체적으로 인식한 위치 좌표, 경로 계획은 센서들을 통해 계산한 상대적인 위치 좌표이기 때문에, 운송 로봇(200)이 생성한 정보들은 실내 공간의 주행 경로면 재질의 변화나 마찰력의 발생, 운송 로봇(200)에 구비된 센서의 오작동 등 예측 불가능한 다양한 돌발 상황에서 정확도가 떨어지게 된다. 그에 따라, 운송 로봇(200)은 자율 주행 제어 서버(100)가 실내 공간의 이미지를 이용하여 학습한 주행 가능 영역 모델을 기초로 주행 경로에 대한 정보를 제공받을 수 있다.On the other hand, since the position coordinates and route plans recognized by the transport robot 200 are relative position coordinates calculated through sensors, the information generated by the transport robot 200 is a change in the material of the driving path surface or frictional force in the indoor space. The accuracy is deteriorated in various unpredictable unexpected situations, such as the occurrence of, and a malfunction of a sensor provided in the transport robot 200. Accordingly, the transport robot 200 may receive information on a driving route based on the driving available area model learned by the autonomous driving control server 100 using the image of the indoor space.

이하에서는 자율 주행 제어 서버(100)가 운송 로봇(200)으로 실내 공간에 대한 정보를 제공하기 위해 주행 가능 영역을 학습하고, 주행 경로에 대한 정보를 제공하는 방식에 대하여 설명하도록 한다.Hereinafter, a method in which the autonomous driving control server 100 learns an available driving area and provides information on a driving route in order to provide information on an indoor space to the transport robot 200 will be described.

이하, 본 발명의 일 실시 예에 따른 운송 로봇의 실내 자율 주행 보조 방법에 대하여 도 2 내지 도 10을 참조하여 설명하도록 한다.Hereinafter, a method of assisting indoor autonomous driving of a transport robot according to an embodiment of the present invention will be described with reference to FIGS. 2 to 10.

도 2 는 본 발명의 일 실시 예에 따른 실내 자율 주행 보조 방법의 흐름을 나타낸 순서도이고, 도 3은 도 2에 도시된 S210 및 S220 단계를 구체화한 순서도이다.FIG. 2 is a flow chart showing a flow of an indoor autonomous driving assistance method according to an embodiment of the present invention, and FIG. 3 is a flowchart illustrating steps S210 and S220 shown in FIG. 2.

이는 본 발명의 목적을 달성하기 위한 바람직한 실시 예일 뿐이며, 필요에 따라 일부 단계가 삭제 또는 추가되거나, 어느 한 단계가 다른 단계에 포함되어 수행될 수 있음은 물론이다.This is only a preferred embodiment for achieving the object of the present invention, and if necessary, some steps may be deleted or added, or one step may be included in another step and performed.

자율 주행 제어 서버(100)는 운송 로봇(200)으로부터 운송 로봇(200)이 촬영한 실내 공간의 이미지를 획득한다(S210). 이를 위해, 실내 공간을 주행하는 운송 로봇(200)은 전방 또는 후방에 배치된 카메라를 이용하여 주기적으로 실내 공간에 대한 이미지를 획득하고, 이를 운송 로봇(200)의 주행 정보와 함께 자율 주행 제어 서버(100)로 송신할 수 있다. 여기서, 주행 정보란 운송 로봇(200)의 식별 정보와 속력, 위치 등의 주행 정보를 포함하며, 이미지에는 이미지의 촬영 시점이 포함될 수 있다.The autonomous driving control server 100 acquires an image of an indoor space captured by the transport robot 200 from the transport robot 200 (S210). To this end, the transport robot 200 traveling in the indoor space periodically acquires an image of the indoor space using a camera disposed in the front or rear, and this is an autonomous driving control server along with driving information of the transport robot 200 Can be sent to (100). Here, the driving information includes identification information of the transport robot 200 and driving information such as speed and location, and the image may include a time point at which the image is captured.

즉, 자율 주행 제어 서버(100)는 운송 로봇(200)으로부터 실내 공간에 대한 이미지를 주기적으로 수신하고, 이를 취합하여 실내 공간의 이미지를 획득할 수 있다.That is, the autonomous driving control server 100 may periodically receive an image of an indoor space from the transport robot 200 and collect the image of the indoor space to obtain an image of the indoor space.

S210 단계 이후, 자율 주행 제어 서버(100)는 사전에 획득한 이미지에서 주행 가능 영역을 추출에 대한 라벨링을 진행하고, 실내 공간 에 대한 주행 가능 영역을 학습한다(S220). 여기서, 실내 공간의 이미지는 전체 공간에 대한 이미지가 될 수도 있고, 일부 공간에 대한 이미지가 될 수도 있다.After step S210, the autonomous driving control server 100 performs labeling for extracting the driving possible area from the previously acquired image, and learns the driving possible area for the indoor space (S220). Here, the image of the indoor space may be an image of the entire space or an image of a partial space.

도 3은 자율 주행 제어 서버(100)의 실내 공간 이미지 학습 방법을 구체화한 순서도이며, 이하 도 3을 참조하여 S220 단계를 보다 구체적으로 설명하도록 한다.FIG. 3 is a flow chart illustrating a method of learning an image of an indoor space of the autonomous driving control server 100, and step S220 will be described in more detail with reference to FIG. 3.

도 3을 참조하면, 자율 주행 제어 서버(100)는 운송 로봇(200)으로부터 이미지를 획득하고(S2201), 획득한 이미지를 전처리한다(S2202). 여기서, 이미지 전처리(pre-processing)란 운송 로봇(200)이 촬영한 실내 공간의 이미지에서 불필요한 정보는 제외하고 유의미한 데이터를 정제하는 과정으로서, 다양한 방식을 통해 수행될 수 있다. 예를 들어, 이미지 전처리는 그레이 스케일, 이진화, 확대/축소, 회전/변환 등의 방식이 사용될 수 있다.Referring to FIG. 3, the autonomous driving control server 100 acquires an image from the transport robot 200 (S2201) and preprocesses the acquired image (S2202). Here, image pre-processing is a process of purifying meaningful data from an image of an indoor space captured by the transport robot 200, excluding unnecessary information, and may be performed through various methods. For example, the image preprocessing may be performed using gray scale, binarization, enlargement/reduction, rotation/transformation, or the like.

즉, 자율 주행 제어 서버(100)는 획득한 이미지를 전처리하여, 학습에 사용될 수 있도록 이미지를 변환한다. That is, the autonomous driving control server 100 pre-processes the acquired image and converts the image to be used for learning.

S2202 단계 이후, 자율 주행 제어 서버(100)는 확인된 주행 가능 영역이 라벨링(labeling)되어 있는지 확인한다(S2203). 다시 말해서, 자율 주행 제어 서버(100)는 라벨링 데이터의 존재를 판단할 수 있으며, 라벨링 데이터가 존재하지 않은 경우, 확인된 주행 가능 영역을 라벨링한다(S2203-1, NO).After step S2202, the autonomous driving control server 100 checks whether or not the confirmed driving possible area is labeled (S2203). In other words, the autonomous driving control server 100 may determine the existence of the labeling data, and if the labeling data does not exist, it labels the confirmed driving available area (S2203-1, NO).

이와 관련하여, 도 4는 본 발명의 일 실시 예에 따른 자율 주행 제어 서버(100)가 주행 가능 영역을 학습하는 방식을 설명하기 위한 도면인바, 도 5를 참조하면, 자율 주행 제어 서버(100)는 운송 로봇(200)으로부터 (a)와 같은 실내 공간 이미지를 수신하고, 주행 가능 영역(빗금 표시)에 대한 라벨링을 수행한다. In this regard, FIG. 4 is a diagram for explaining a method in which the autonomous driving control server 100 according to an embodiment of the present invention learns a driving available area. Referring to FIG. 5, the autonomous driving control server 100 Receives the indoor space image as shown in (a) from the transport robot 200, and performs labeling of the drivable area (hatched).

다시 도 3을 참조하면, S2203 단계에서 주행 가능 영역이 라벨링되어 있는 것으로 확인되었다면, 자율 주행 제어 서버(100)는 현재 수집한 데이터가 충분한지 확인한다(S2204, YES).Referring back to FIG. 3, if it is confirmed that the driving available area is labeled in step S2203, the autonomous driving control server 100 checks whether the currently collected data is sufficient (S2204, YES).

S2204 단계에서 데이터가 충분하지 않은 것으로 확인되는 경우, 자율 주행 제어 서버(100)는 사전에 학습한 내용을 기반으로, 데이터를 보강할 수 있으며(S2204-1, NO), 반대로 S2204 단계에서 데이터가 충분한 것으로 확인되는 경우, 자율 주행 제어 서버(100)는 획득한 데이터를 이용하여 딥러닝의 기계 학습 알고리즘을 활용하여, 실내 공간에 대한 주행 가능 영역을 학습한다(S2205, YES). 즉, 자율 주행 제어 서버(100)는 사전에 학습된 모델에 기반하여 주행 가능 영역을 확인할 수 있으며, 이미지에 대응되는 실내 공간에서 장애물의 존재 여부를 판단할 수 있다.If it is determined that the data is insufficient in step S2204, the autonomous driving control server 100 can augment the data based on the previously learned content (S2204-1, NO), and, conversely, the data in step S2204. When it is confirmed that it is sufficient, the autonomous driving control server 100 learns a driving possible area for an indoor space by using a machine learning algorithm of deep learning using the acquired data (S2205, YES). That is, the autonomous driving control server 100 may check the drivable area based on the model learned in advance, and may determine whether an obstacle exists in an indoor space corresponding to the image.

한편, 상술한 항목들을 학습하기 위해 자율 주행 제어 서버(100)는 지도 학습(Supervised Learning) 등 다양한 기계 학습 알고리즘을 활용할 수 있다.Meanwhile, in order to learn the above-described items, the autonomous driving control server 100 may utilize various machine learning algorithms such as supervised learning.

S2205 단계 이후, 자율 주행 제어 서버(100)는 실내 공간에 대한 주행 가능 영역을 확인하는 모델이 학습되었는지 검증하며(S2206), 학습이 완료되었다면, 이를 저장할 수 있다(S2207, YES). 보다 구체적으로, 자율 주행 제어 서버(100)는 학습 데이터와 검증 데이터의 손실(Loss) 값을 기초로 모델의 학습이 완료되었지 판단할 수 있다. 즉, 자율 주행 제어 서버(100)는 학습 완료된 모델을 이용하여 운송 로봇(200)으로부터 새롭게 수신하는 실내 공간의 이미지에서 장애물의 존재 여부를 확인할 수 있다. After step S2205, the autonomous driving control server 100 verifies whether the model for checking the driving available area for the indoor space has been trained (S2206), and if the learning is completed, it may be stored (S2207, YES). More specifically, the autonomous driving control server 100 may determine whether training of the model has been completed based on the training data and the loss value of the verification data. That is, the autonomous driving control server 100 may check whether an obstacle exists in an image of an indoor space newly received from the transport robot 200 by using the trained model.

한편, S2205 단계에서 학습이 완료되지 않은 것으로 판단된다면, 자율 주행 제어 서버(100)는 역전파 알고리즘(Back-propagation)을 활용하여 모델 내부의 가중치를 지속적으로 업데이트할 수 있다(S2206-1, NO). 다만, 이에 제한되지 않는 다양한 알고리즘이 활용될 수 있다.On the other hand, if it is determined that the learning has not been completed in step S2205, the autonomous driving control server 100 may continuously update the weight inside the model by using a back-propagation (S2206-1, NO. ). However, various algorithms that are not limited thereto may be used.

이와 같이, 자율 주행 제어 서버(100)는 운송 로봇(200)이 송신한 실내 공간의 이미지를 이용하여, 운송 로봇(200)의 주행에 있어 핵심이 되는 주행 가능 영역을 학습할 수 있으며, 실제로 운송 로봇(200)이 실내 공간을 주행하는 과정에서 필요로 하는 정보들을 제공해 줄 수 있다.In this way, the autonomous driving control server 100 can learn the driving area, which is a key in the driving of the transport robot 200, using the image of the indoor space transmitted by the transport robot 200, and actually transport The robot 200 may provide information required in the process of driving the indoor space.

다시 도 2에 대한 설명으로 돌아가도록 한다. Returning to the description of FIG. 2 again.

도 2를 참조하면, S220 단계를 통해 자율 주행 제어 서버(100)는 실내 공간에 대한 주행 가능 영역을 학습 완료할 수 있으며, 자율 주행 제어 서버(100)는 학습된 주행 가능 영역을 기초로 실내 공간에 배치된 운송 로봇(200)의 주행 현황에 따라 확정되는 주행 경로를 생성하여 운송 로봇(200)으로 송신한다(S230). 예를 들어, 운송 로봇(200)의 주행 현황은 운송 로봇(200)이 현재 실내 공간을 주행 중인 상황, 스스로 설정한 경로 계획을 따라 이동하고자 하는 상황 등이 존재할 수 있으며, 이외에 실내 공간에 배치된 운송 로봇(200)의 주행과 관련된 모든 상황을 포함할 수 있다.Referring to FIG. 2, through step S220, the autonomous driving control server 100 may complete learning of a drivable area for an indoor space, and the autonomous driving control server 100 is an indoor space based on the learned drivable area. A travel route determined according to the driving status of the transport robot 200 disposed in is generated and transmitted to the transport robot 200 (S230). For example, the driving status of the transport robot 200 may include a situation in which the transport robot 200 is currently traveling in an indoor space, a situation in which the transport robot 200 wants to move according to a route plan set by itself, and the like. All situations related to the driving of the transport robot 200 may be included.

도 5는 도 2에 도시된 S230 단계를 구체화한 순서도로서, 도 5는 운송 로봇(200)이 현재 실내 공간을 주행 중이며, 실내 공간에 대한 이미지를 획득하고, 자율 주행 제어 서버(100)로 송신한 경우를 설명하고 있다.5 is a flow chart embodied in step S230 shown in FIG. 2, and FIG. 5 is a transport robot 200 is currently traveling in an indoor space, acquires an image of the indoor space, and transmits it to the autonomous driving control server 100 One case is described.

도 5를 참조하면, 자율 주행 제어 서버(100)는 운송 로봇(200)으로부터 이미지를 획득한다(S2301). 이를 통해 자율 주행 제어 서버(100)는 운송 로봇(200)의 식별 정보를 획득할 수 있으며, 식별 정보를 획득함과 동시에 운송 로봇(200)의 이전 주행 경로를 로드하여, 운송 로봇(200)의 현재 위치 좌표를 추론할 수 있는 정보를 획득할 수 있다. Referring to FIG. 5, the autonomous driving control server 100 acquires an image from the transport robot 200 (S2301). Through this, the autonomous driving control server 100 may acquire identification information of the transport robot 200, and at the same time acquire the identification information and load the previous travel path of the transport robot 200, Information for inferring the current location coordinates may be obtained.

S2301 단계 이후, 자율 주행 제어 서버(100)는 이미지를 전처리 하며(S2302), 운송 로봇(200)이 송신한 이미지에서 주행 가능 영역에 대한 데이터를 추출할 수 있다.After step S2301, the autonomous driving control server 100 may pre-process the image (S2302), and may extract data on an available driving area from the image transmitted by the transport robot 200.

S2302 단계 이후, 자율 주행 제어 서버(100)는 전처리된 이미지 데이터를 학습된 모델에 입력하고(S2303), 주행 가능 영역을 추론한다(S2304). 즉, 주행 가능 영역의 추론이란 자율 주행 제어 서버(100)가 운송 로봇(200)의 현재 위치를 기준으로 촬영된 실내 공간의 이미지 내에서 장애물의 존재 여부를 확인하고, 주행 가능/불가능한 영역을 판단하는 것이며, 이는 픽셀 단위로 구분되는 주행 가능 영역을 이용하여 수행될 수 있다.After step S2302, the autonomous driving control server 100 inputs the preprocessed image data into the trained model (S2303), and infers a driving available area (S2304). That is, the inference of the driving possible area means that the autonomous driving control server 100 checks the existence of an obstacle in the image of the indoor space taken based on the current position of the transport robot 200, and determines the driving possible/impossible area. This can be done by using a drivable area divided by pixel units.

또한, 주행 불가능한 영역은 예를 들어, 창고 선반이 배치된 영역, 영역 내 물품이나 또 다른 운송 로봇(200)이 배치된 영역일 수 있으며, 자율 주행 서버(100)는 불가능한 사유에 대한 분류도 가능할 수 있다. In addition, the non-driable area may be, for example, an area in which a warehouse shelf is placed, an area in which goods or another transport robot 200 is placed, and the autonomous driving server 100 can also classify reasons for which it is impossible. I can.

이와 관련하여 도 6 및 도 7을 첨부한바, 도 6은 도 5에 도시된 S2304 단계를 구체화한 순서도이며, 도 7은 본 발명의 일 실시 에에 따른 자율 주행 제어 서버(100)가 주행 경로를 보정하는 방식을 설명하기 위한 도면이다.In this regard, FIGS. 6 and 7 are attached, and FIG. 6 is a flow chart embodied in step S2304 shown in FIG. 5, and FIG. 7 is a self-driving control server 100 according to an embodiment of the present invention to correct a driving route. It is a diagram for explaining the method of doing.

도 6을 참조하면, 자율 주행 제어 서버(100)는 이미지 데이터를 학습된 모델에 입력함으로써, 장애물의 존재 여부를 확인할 수 있다(S2304-1). Referring to FIG. 6, the autonomous driving control server 100 may check whether an obstacle exists by inputting image data into the learned model (S2304-1).

즉, 도 7의 (a)와 같이, 자율 주행 제어 서버(100)는 운송 로봇(200)이 송신한 이미지를 이용해 주행 가능 영역을 추론함으로써, 학습 과정에서 존재하지 않았던 장애물의 존재를 확인할 수 있다.That is, as shown in (a) of FIG. 7, the autonomous driving control server 100 can check the existence of an obstacle that did not exist in the learning process by inferring a driving area using the image transmitted by the transport robot 200. .

S2304-1 단계에 장애물이 존재하는 것으로 확인될 경우, 자율 주행 제어 서버(100)는 운송 로봇(200)과 장애물 간의 상대적인 거리를 계산하고, 상대 거리를 기초로, 추론된 주행 가능 영역에서의 주행 경로를 보정할 수 있다(S230-4-2, YES). 구체적으로, 자율 주행 제어 서버(100)는 학습된 주행 가능 영역의 치수와 운송 로봇(200)의 주행 정보를 이용하여 주행 좌표를 계산할 수 있으며, 여기서 주행 가능 영역의 치수란 실내 공간에 배치되어 물품을 적재하는 랙(Rack) 간의 거리(D1), 주행 가능 영역의 거리(D2), 주행 가능 영역의 중심선(L)을 기준으로 하는 위치 좌표 등을 의미할 수 있다.When it is determined that an obstacle exists in step S2304-1, the autonomous driving control server 100 calculates the relative distance between the transport robot 200 and the obstacle, and based on the relative distance, the driving in the inferred driving range The path can be corrected (S230-4-2, YES). Specifically, the autonomous driving control server 100 may calculate driving coordinates using the learned dimensions of the driving available area and driving information of the transport robot 200, wherein the dimensions of the driving available area are arranged in an indoor space to It may mean a distance (D1) between the racks in which are loaded, a distance (D2) of a driving area, a position coordinate based on a center line (L) of the driving area, and the like.

이와 관련하여, 도 7의 (b)를 참조하면, 현재 운송 로봇(200)의 위치 및 주행 정보가 주행 가능 영역의 중심선(L)을 기준으로 우측으로 기울어진 경우, 자율 주행 제어 서버(100)는 운송 로봇(200)이 중심선(L)을 향하는 우측 방향으로 주행할 수 있도록 주행 경로를 보정할 수 있다. In this regard, referring to (b) of FIG. 7, when the location and driving information of the current transport robot 200 is inclined to the right with respect to the center line L of the driving available area, the autonomous driving control server 100 May correct the travel path so that the transport robot 200 can travel in the right direction toward the center line L.

즉, 자율 주행 제어 서버(100)는 점선과 같이 이동하고자 하는 운송 로봇(200)이 실선을 따라 이동할 수 있도록 주행 경로를 보정할 수 있다.That is, the autonomous driving control server 100 may correct the driving path so that the transport robot 200 to be moved can move along the solid line as shown in the dotted line.

아울러, 보다 구체적인 보정을 위해 자율 주행 제어 서버(100)는 운송 로봇(200)이 송신한 이미지를 이용하여 현재 운송 로봇(200)의 위치 좌표를 산출하고, 주행 가능 영역의 중심선(L)을 기준으로 하는 그리드를 통해 장애물의 좌표를 확인하여, 운송 로봇(200)의 바퀴 각도, 속력/바퀴 회전 수 등을 포함하는 주행 경로 보정 값을 생성할 수 있다.In addition, for a more specific correction, the autonomous driving control server 100 calculates the position coordinates of the current transport robot 200 using the image transmitted by the transport robot 200, and based on the center line (L) of the driveable area. By checking the coordinates of the obstacle through the grid, it is possible to generate a driving route correction value including a wheel angle, speed/wheel rotation number of the transport robot 200.

반면, S2304-1 단계에서 장애물이 존재하지 않는 것으로 확인될 경우, 자율 주행 제어 서버(100)는 운송 로봇(200)이 송신한 이미지 및 학습된 주행 가능 영역을 기초로 운송 로봇(200)의 현재 위치 좌표를 계산하고, 계산된 위치 좌표와 주행 경로를 확정하는 신호를 생성할 수 있다(S2304-3). On the other hand, if it is determined that the obstacle does not exist in step S2304-1, the autonomous driving control server 100 is based on the image transmitted by the transport robot 200 and the learned driveable area. Position coordinates may be calculated, and a signal for determining the calculated position coordinates and a driving route may be generated (S2304-3).

한편, 실내 공간에는 복수 개의 운송 로봇(200)이 배치되어 각각이 경로 계획에 따라 주행하게 되며, 그에 따라 움직이지 않는 물품뿐만 아니라, 주행 중인 또 다른 운송 로봇(200)이 어느 하나의 운송 로봇(200)에게 장애물로 간주될 수 있다.On the other hand, a plurality of transport robots 200 are arranged in the indoor space so that each of them travels according to the route plan, and accordingly, not only items that do not move, but also another transport robot 200 that is traveling is one transport robot ( 200) can be considered an obstacle.

도 8은 본 발명의 또 다른 실시 예에 따른 자율 주행 제어 서버(100)가 주행 경로를 보정하는 방식을 설명하기 위한 도면이다.FIG. 8 is a diagram for explaining a method in which the autonomous driving control server 100 corrects a driving route according to another embodiment of the present invention.

도 8의 (a) 및 (b)를 참조하면, 자율 주행 제어 서버(100)는 이미지 데이터에서 주행 가능 영역 상에서의 운송 로봇(200)을 식별할 수 있다. 즉, 도 8에 도시된 도면에서 A는 현재 자율 주행 제어 서버(100)가 주행 경로의 보정 유무를 판단하는 운송 로봇(200)이며, B와 C는 A 운송 로봇(200)이 촬영한 이미지 내에 존재하는 운송 로봇(200)일 수 있다.Referring to FIGS. 8A and 8B, the autonomous driving control server 100 may identify the transport robot 200 on the drivable area from the image data. That is, in the drawing shown in FIG. 8, A is the transport robot 200 for which the autonomous driving control server 100 currently determines whether or not the driving route is corrected, and B and C are in the image captured by the transport robot A 200. It may be an existing transport robot 200.

자율 주행 제어 서버(100)는 A 운송 로봇(200)이 촬영한 이미지 내에 존재하는 운송 로봇(200)을 식별하고, 두 개의 인접한 운송 로봇(200)으로부터 주행 정보를 수신할 수 있다. 이를 통해, 자율 주행 제어 서버(100)는 현재 두 개의 인접한 운송 로봇(200)의 경로 계획과 주행 속도를 고려하여, 운송 로봇(200)의 충돌 가능성을 판단할 수 있다. The autonomous driving control server 100 may identify the transport robot 200 present in the image captured by the transport robot A 200 and receive driving information from two adjacent transport robots 200. Through this, the autonomous driving control server 100 may determine the possibility of collision of the transport robot 200 in consideration of the path planning and the driving speed of the two adjacent transport robots 200 at present.

예를 들어, 자율 주행 제어 서버(300)는 (a), (b)에서 B, C 운송 로봇(200)이 실선을 따라 이동할 경우, 인접한 운송 로봇(200)이 충돌하지 않을 것으로 판단할 수 있으며, B, C 운송 로봇(200)이 점선을 따라 이동할 경우, 인접한 운송 로봇(200)이 충돌할 것으로 판단하고, 각각에 기 설정된 주행 경로를 보정할 수 있다.For example, the autonomous driving control server 300 may determine that when the B, C transport robot 200 moves along a solid line in (a) and (b), the adjacent transport robot 200 will not collide. , When the B, C transport robot 200 moves along the dotted line, it is determined that the adjacent transport robot 200 will collide, and a preset driving route may be corrected for each.

다시 도 5에 대한 설명으로 돌아가도록 한다. It will return to the description of FIG. 5 again.

S2304 단계 이후, 자율 주행 제어 서버(100)는 상술한 추론 결과 출력하여, 운송 로봇(200)으로 송신할 수 있다(S2305). 그에 따라, 운송 로봇(200)는 본래 설정한 경로 계획에 맞게 이동하거나, 자율 주행 제어 서버(100)가 송신한 주행 경로에 맞게 이동하여, 장애물과 충돌하지 않고 안전한 주행을 할 수 있다. 즉, 운송 로봇(200)에 구비된 센서들을 통해 장애물을 식별하는 것보다 빠르게 장애물의 존재를 인식할 수 있어, 충돌 확률을 최소화할 수 있다.After step S2304, the autonomous driving control server 100 may output the above-described inference result and transmit it to the transport robot 200 (S2305). Accordingly, the transport robot 200 may move according to the originally set route plan or move according to the travel path transmitted by the autonomous driving control server 100, thereby enabling safe driving without colliding with an obstacle. That is, the presence of the obstacle can be recognized faster than the detection of the obstacle through the sensors provided in the transport robot 200, so that the probability of collision can be minimized.

한편, 자율 주행 제어 서버(100)는 운송 로봇(200)으로부터 운송 로봇(200)이 촬영한 실내 공간에 대한 이미지와 함께 운송 로봇(200)이 자체적으로 수립한 경로 계획을 수신할 수도 있으며, 이를 평가할 수 있다. 이는 도 9에 대한 설명이며, 이하 설명하도록 한다.Meanwhile, the autonomous driving control server 100 may receive an image of the indoor space captured by the transport robot 200 from the transport robot 200 and a route plan established by the transport robot 200 itself. Can be evaluated. This is a description of FIG. 9 and will be described below.

도 9는 본 발명의 일 실시 예에 따른 자율 주행 제어 서버(100)의 경로 계획 판단 방식을 설명하기 위한 순서도이다.9 is a flowchart illustrating a route plan determination method of the autonomous driving control server 100 according to an embodiment of the present invention.

도 9를 참조하면, 자율 주행 제어 서버(100)는 운송 로봇(200)으로부터 자체적으로 설정한 전역 경로 또는 경로 계획을 수신 받아 획득할 수 있으며(S2310), 획득한 경로에서 주행 불가능한 영역이 존재하는지 확인한다(S2320). 즉, 자율 주행 제어 서버(100)는 수신한 경로 계획을 학습된 주행 가능 영역에 입력하여, 주행이 불가능한 영역을 확인할 수 있다. 여기서, 전역 경로란 운송 로봇(200)이 가지고 있는 정보를 기초로 생성한 실내 공간에 대한 주행 가능 영역이며, 경로 계획은 현재 위치에서 기 설정된 도착 지점까지 가기 위해 운송 로봇(200)이 설정한 주행 경로 계획을 의미한다.Referring to FIG. 9, the autonomous driving control server 100 may receive and obtain a global route or route plan set by itself from the transport robot 200 (S2310), and whether there is an undriable area in the obtained route. Check (S2320). That is, the autonomous driving control server 100 may input the received route plan into the learned driving available area to check the area in which driving is impossible. Here, the global route is a travelable area for an indoor space created based on the information possessed by the transport robot 200, and the route plan is a driving set by the transport robot 200 to go from the current position to a preset arrival point. Means route planning.

S2320 단계에서 주행 불가능한 영역이 존재하는 것으로 확인되었다면, 자율 주행 제어 서버(100)는 학습된 주행 가능 영역을 탐색하여(S2320-1), 새로운 경로 계획 또는 지역 경로를 생성한다(S2320-2). 여기서, 새로운 경로 계획이란 주행 가능 영역 내 중심선을 이동하는 경로 계획일 수 있다. 아울러 중심선이 아니더라도 주행 가능 영역을 이동하는 경로라면 어떠한 경로도 가능할 수 있다. 예를 들어, 주행 가능 영역 내 중심선을 기준으로, 현재 운송 로봇(200)의 위치가 주행 가능 영역 내 중심선에 배치되어 있지 않은 것으로 판단될 경우, 자율 주행 제어 서버(100)는 새로운 경로 계획에서 운송 로봇(200)이 주행 가능 영역의 중심선을 따라 이동할 수 있도록 위치, 방향을 보정하는 정보를 포함시킬 수 있다.If it is determined that there is an undriable area in step S2320, the autonomous driving control server 100 searches for the learned drivable area (S2320-1), and generates a new route plan or a local route (S2320-2). Here, the new route plan may be a route plan that moves the center line within the drivable area. In addition, even if it is not the center line, any path may be possible as long as it moves through the drivable area. For example, if it is determined that the current location of the transport robot 200 is not located on the center line within the drivable area, based on the center line within the drivable area, the autonomous driving control server 100 transports in a new route plan. Information for correcting a position and a direction may be included so that the robot 200 can move along the center line of the drivable area.

한편, 새로운 경로 계획은 주행 가능 영역 내 중심선을 따르는 것 외에도, 운송 로봇(200)이 설정한 이동 방향, 흐름 또는 경로 계획에 따른 이동 거리를 기초로 산출될 수 있다. 즉, 자율 주행 제어 서버(100)는 주행이 불가능한 영역을 기준으로 적어도 하나 이상의 주행 가능 영역을 탐색하고, 그 중 본래의 이동 방향에서 크게 틀어지지 않거나, 이동 거리가 비슷한 영역을 유사도가 높은 영역으로 선정하고, 해당 영역을 경유하는 새로운 경로 계획 또는 지역 경로를 생성할 수도 있다.Meanwhile, the new route plan may be calculated based on a moving direction set by the transport robot 200, a flow, or a moving distance according to a route plan, in addition to following the center line within the driveable area. That is, the autonomous driving control server 100 searches for at least one drivable area based on the area in which driving is not possible, and among them, the area that does not change significantly from the original movement direction or the movement distance is similar to the area with high similarity. It is also possible to select and create a new route plan or local route through the area.

상술한 바와 같이, 자율 주행 제어 서버(100)는 새롭게 설정하거나 확정된 경로를 운송 로봇(200)으로 송신함으로써, 추론을 종료할 수 있으며, 운송 로봇(200)은 수신한 정보(예. 새로운 주행 경로, 경로 계획 확인 신호)에 따라 실내 공간을 안전하게 주행할 수 있다.As described above, the autonomous driving control server 100 may terminate the inference by transmitting a newly set or determined route to the transport robot 200, and the transport robot 200 receives received information (eg, new driving). You can safely drive through the indoor space according to the route, route plan confirmation signal).

또 다른 한편, 자율 주행 제어 서버(100)는 실내 공간에 대한 이미지를 지속적으로 송신하는 운송 로봇(200)으로부터 운송 로봇(200)이 자체적으로 판단한 위치 정보를 함께 수신할 수 있는데, 운송 로봇(200)이 자체적으로 판단한 위치 정보는 실내 공간의 마찰이나, 운송 로봇(200)이 적재하고 있는 물품의 무게, 실내 공간 바닥면의 재질에 따라 오차가 발생할 수 있으므로, 이를 주기적으로 확인하고, 보정 정보를 생성하여야 한다. 이는 도 11에 관한 설명이며, 이하 설명하도록 한다.On the other hand, the autonomous driving control server 100 may also receive location information determined by the transport robot 200 itself from the transport robot 200 that continuously transmits an image of an indoor space. ) The location information determined by itself may cause errors depending on the friction of the indoor space, the weight of the goods loaded by the transport robot 200, and the material of the floor of the indoor space, so check this periodically and check the correction information. Must be created. This is a description of FIG. 11 and will be described below.

도 10은 본 발명의 일 실시 예에 따른 자율 주행 제어 서버(100)가 운송 로봇(200)의 위치를 보정하는 방식을 설명하기 위한 순서도이다.10 is a flowchart illustrating a method of correcting the position of the transport robot 200 by the autonomous driving control server 100 according to an embodiment of the present invention.

도 10을 참조하면, 도시된 S310 ~ S330 단계는 운송 로봇(200)에 의해 수행되는 단계로서, 운송 로봇(200)은 초기 위치를 설정하고(S310), 실내 공간의 촬영을 수행하며 주행하는 동안 센서를 통해 주행량, 즉 주행 정보를 기록한 후(S320), 자체적으로 위치 좌표를 계산하여, 자율 주행 제어 서버(100)로 송신할 수 있다. 여기서, 운송 로봇(200)이 계산한 위치 좌표는 상대적인 위치 좌표인 것으로 이해될 수 있다.Referring to FIG. 10, the steps S310 to S330 shown are steps performed by the transport robot 200, and the transport robot 200 sets an initial position (S310), photographs an indoor space, and while driving. After recording the driving amount, that is, driving information through the sensor (S320), the position coordinates may be calculated by itself and transmitted to the autonomous driving control server 100. Here, the position coordinate calculated by the transport robot 200 may be understood as a relative position coordinate.

이와 같이, 운송 로봇(200)이 위치 좌표를 계산함과 동시에 자율 주행 제어 서버(100)는 운송 로봇(200)으로부터 실내 공간에 대한 이미지를 획득하고(S410), 이미지를 이용하여 주행 가능 영역을 추론한 후(S420), 학습된 주행 가능 영역을 기초로 운송 로봇(200)의 절대 위치 좌표를 계산할 수 있다(S430).In this way, while the transport robot 200 calculates the position coordinates, the autonomous driving control server 100 acquires an image of the indoor space from the transport robot 200 (S410), and uses the image to determine the driving area. After inferring (S420), the absolute position coordinates of the transport robot 200 may be calculated based on the learned driveable area (S430).

S430 단계 이후, 자율 주행 제어 서버(100)는 상대 위치 좌표와 절대 위치 좌표 간의 차이가 오차 범위 내인지 판단할 수 있다(S440). 여기서, 오차 범위는 현재 운송 로봇(200)에 설정된 경로 계획에 따른 시간 또는 거리를 기준으로 설정할 수 있다.After step S430, the autonomous driving control server 100 may determine whether a difference between the relative position coordinates and the absolute position coordinates is within an error range (S440). Here, the error range may be set based on a time or distance according to a route plan currently set in the transport robot 200.

S430 단계에서 좌표 간의 차이가 오차 범위를 벗어나는 것으로 판단될 경우, 자율 주행 제어 서버(100)는 운송 로봇(200)의 위치 보정 값을 산출하고(S440-1, NO), 이를 운송 로봇(200)에게 송신하여 위치를 확정할 수 있으며(S450), 반대의 경우에는 자율 주행 제어 서버(100)가 계산한 절대 위치 좌표와 함께 위치 확정 신호를 운송 로봇(200)으로 송신할 수 있다(S450, YES).If it is determined that the difference between the coordinates is out of the error range in step S430, the autonomous driving control server 100 calculates a position correction value of the transport robot 200 (S440-1, NO), and this is the transport robot 200 The location can be determined by sending it to (S450), and in the opposite case, a location determination signal can be transmitted to the transport robot 200 together with the absolute position coordinates calculated by the autonomous driving control server 100 (S450, YES). ).

지금까지 본 발명의 일 실시 에에 따른 자율 주행 제어 서버(100)가 운송 로봇(200)이 촬영한 실내 공간에 대한 이미지를 기초로 운송 로봇(200)의 주행과 관련된 다양한 정보를 제공하는 방법에 대하여 설명하였다. 본 발명에 따르면, 자율 주행 제어 서버(100)는 단순히 운송 로봇(200)의 위치를 식별하는 것에서 더 나아가 실내 공간의 주행 가능 영역을 추론하고, 상대적인 거리를 가늠하여, 운송 로봇(200)이 기 설정된 경로나 위치를 벗어났을 경우 이를 보정하기 위한 정보를 제공할 수 있어, 실내 자율 주행 시스템(1000)의 운영 과정에서 주행의 정확성과 그에 따른 운송의 효율성이 상승할 수 있다.So far, a method of providing various information related to driving of the transport robot 200 based on an image of an indoor space captured by the transport robot 200 by the autonomous driving control server 100 according to an embodiment of the present invention Explained. According to the present invention, the autonomous driving control server 100 goes beyond simply identifying the location of the transport robot 200 to infer a driving area of an indoor space and measure the relative distance, so that the transport robot 200 When a set route or location is deviated, information for correcting it may be provided, and thus the accuracy of driving and thus the efficiency of transportation may increase during the operation of the indoor autonomous driving system 1000.

한편, 본 발명은 또한 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 마그네틱 저장매체, 광학적 판독 매체 등 모든 저장매체를 포함한다. 또한, 본 발명에서 사용되는 메시지의 데이터 포맷을 기록 매체에 기록하는 것이 가능하다.Meanwhile, the present invention can also be implemented as a computer-readable code on a computer-readable recording medium. Computer-readable recording media include all storage media such as magnetic storage media and optical reading media. It is also possible to record the data format of the message used in the present invention on a recording medium.

이상 첨부된 도면을 참조하여 본 발명의 실시 예들을 설명하였지만, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Embodiments of the present invention have been described above with reference to the accompanying drawings, but those of ordinary skill in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features. You can understand. Therefore, it should be understood that the embodiments described above are illustrative and non-limiting in all respects.

1000: 실내 자율 주행 시스템
100: 자율 주행 제어 서버
110: 학습 모듈
120: 추론 모듈
130: 통신 모듈
200: 운송 로봇
210: 카메라 모듈
220: 주행 모듈
230: 통신 모듈
1000: indoor autonomous driving system
100: autonomous driving control server
110: learning module
120: reasoning module
130: communication module
200: transport robot
210: camera module
220: drive module
230: communication module

Claims (11)

자율 주행 제어 서버가 운송 로봇의 자율 주행을 보조하는 방법으로서,
상기 운송 로봇으로부터 상기 운송 로봇이 촬영한 실내 공간의 이미지를 획득하는 단계; 및
획득한 이미지에서 주행 가능 영역을 추출하여, 상기 실내 공간에 대한 주행 가능 영역을 학습하는 단계;
를 포함하는 운송 로봇의 실내 자율 주행 보조 방법.
As a method for the autonomous driving control server to assist the autonomous driving of a transport robot,
Obtaining an image of an indoor space photographed by the transport robot from the transport robot; And
Extracting a drivable area from the acquired image and learning a drivable area for the indoor space;
Indoor autonomous driving assistance method of a transport robot comprising a.
제1항에 있어서,
상기 주행 가능 영역을 학습하는 단계 이후에,
상기 학습된 주행 가능 영역을 기초로 상기 실내 공간에 배치된 운송 로봇의 주행 현황에 따라, 확정되는 주행 경로를 생성하여 상기 운송 로봇으로 송신하는 단계;
를 더 포함하는 운송 로봇의 실내 자율 주행 보조 방법.
The method of claim 1,
After the step of learning the drivable area,
Generating a determined travel path according to the driving status of the transport robot disposed in the indoor space based on the learned travelable area, and transmitting it to the transport robot;
Indoor autonomous driving assistance method of the transport robot further comprising a.
제2항에 있어서,
상기 운송 로봇이 주행 중인 경우,
상기 주행 경로를 상기 운송 로봇으로 송신하는 단계는,
상기 운송 로봇으로부터 이미지를 획득하고, 획득한 이미지를 상기 학습된 주행 가능 영역에 입력하여, 주행 가능 영역을 추론하는 단계; 및
상기 추론된 주행 가능 영역에서 장애물의 존재 여부를 확인하는 단계;
를 더 포함하는 운송 로봇의 실내 자율 주행 보조 방법.
The method of claim 2,
When the transport robot is running,
Transmitting the travel route to the transport robot,
Obtaining an image from the transport robot and inputting the acquired image to the learned drivable area to infer a drivable area; And
Checking whether an obstacle exists in the inferred drivable area;
Indoor autonomous driving assistance method of the transport robot further comprising a.
제3항에 있어서,
상기 확인하는 단계에서 장애물이 존재하는 것으로 확인되었다면,
상기 운송 로봇과 상기 장애물 간의 상대 거리를 산출하고, 상기 상대 거리를 기초로 상기 추론된 주행 가능 영역에서의 주행 경로를 보정하는 단계;
를 더 포함하는 운송 로봇의 실내 자율 주행 보조 방법.
The method of claim 3,
If it is confirmed that an obstacle exists in the step of checking,
Calculating a relative distance between the transport robot and the obstacle, and correcting a travel path in the inferred drivable area based on the relative distance;
Indoor autonomous driving assistance method of the transport robot further comprising a.
제4항에 있어서,
상기 운송 로봇과 상기 장애물 간의 상대 거리는,
상기 학습된 주행 가능 영역의 치수 또는 상기 운송 로봇의 주행 정보를 기초로 산출되는,
운송 로봇의 실내 자율 주행 보조 방법.
The method of claim 4,
The relative distance between the transport robot and the obstacle,
Calculated based on the learned dimension of the driving available area or driving information of the transport robot,
How to assist transport robots in indoor autonomous driving.
제4항에 있어서,
상기 장애물이 다른 운송 로봇인 경우,
인접한 운송 로봇 각각의 주행 정보를 기초로 충돌 가능성을 판단하고, 상기 인접한 운송 로봇 각각에 기 설정된 주행 경로를 보정하는 단계;
를 더 포함하는 운송 로봇의 실내 자율 주행 보조 방법.
The method of claim 4,
If the obstacle is another transport robot,
Determining a possibility of collision based on driving information of each of the adjacent transport robots, and correcting a preset travel path for each of the adjacent transport robots;
Indoor autonomous driving assistance method of the transport robot further comprising a.
제3항에 있어서,
상기 확인하는 단계에서 장애물이 존재하지 않는 것으로 확인되었다면,
상기 이미지 및 상기 학습된 주행 가능 영역을 기초로 상기 운송 로봇의 현재 위치 좌표를 계산하고, 상기 계산된 위치 좌표와 주행 경로 확정 신호를 상기 운송 로봇으로 송신하는 단계;
를 더 포함하는 운송 로봇의 실내 자율 주행 보조 방법.
The method of claim 3,
If it is confirmed that there is no obstacle in the step of checking,
Calculating the current position coordinates of the transport robot based on the image and the learned travelable area, and transmitting the calculated position coordinates and a driving route determination signal to the transport robot;
Indoor autonomous driving assistance method of the transport robot further comprising a.
제2항에 있어서,
상기 주행 경로를 상기 운송 로봇으로 송신하는 단계 이후에,
상기 운송 로봇으로부터 상기 운송 로봇이 촬영한 이미지 데이터와 함께 상기 운송 로봇이 계산한 상대 위치 좌표를 수신하는 단계;
수신한 이미지 데이터와 상기 학습된 주행 가능 영역을 기초로 상기 운송 로봇의 절대 위치 좌표를 계산하는 단계;
상기 상대 위치 좌표와 절대 위치 좌표 간의 차이가 오차 범위를 벗어나는지 판단하는 단계; 및
상기 오차 범위를 벗어나는 것으로 판단될 경우, 상기 운송 로봇의 위치 보정 값을 산출하는 단계;
를 더 포함하는 운송 로봇의 실내 자율 주행 보조 방법.
The method of claim 2,
After the step of transmitting the travel route to the transport robot,
Receiving a relative position coordinate calculated by the transport robot together with image data captured by the transport robot from the transport robot;
Calculating absolute position coordinates of the transport robot based on the received image data and the learned driveable area;
Determining whether a difference between the relative position coordinates and the absolute position coordinates is out of an error range; And
Calculating a position correction value of the transport robot when it is determined that it is out of the error range;
Indoor autonomous driving assistance method of the transport robot further comprising a.
제2항에 있어서,
상기 주행 경로를 상기 운송 로봇으로 송신하는 단계는,
상기 운송 로봇으로부터 경로 계획을 수신하는 단계; 및
수신한 경로 계획을 상기 학습된 주행 가능 영역에 입력하여, 주행 불가 영역을 확인하는 단계;
를 더 포함하는 운송 로봇의 실내 자율 주행 보조 방법.
The method of claim 2,
Transmitting the travel route to the transport robot,
Receiving a route plan from the transport robot; And
Inputting the received route plan into the learned driveable area to confirm a non-driving area;
Indoor autonomous driving assistance method of the transport robot further comprising a.
제9항에 있어서,
상기 주행 불가 영역이 존재하는 것으로 확인될 경우, 상기 학습된 주행 가능 영역 내 중심선을 따라 이동하는 새로운 경로 계획을 생성하는 단계;
를 더 포함하는 운송 로봇의 실시 자율 주행 보조 방법.
The method of claim 9,
Generating a new route plan for moving along a center line within the learned driveable area when it is determined that the non-driving area exists;
Implementation autonomous driving assistance method of the transport robot further comprising a.
제9항에 있어서,
상기 주행 불가 영역이 존재하는 것으로 확인될 경우, 상기 학습된 주행 가능 영역 중 상기 경로 계획과 유사도가 높은 주행 가능 영역을 탐색하여, 새로운 경로 계획을 생성하는 단계; 를 더 포함하고,
상기 유사도는,
상기 운송 로봇의 이동 방향 또는 상기 경로 계획에 따른 이동 거리를 기초로 산출되는,
운송 로봇의 실내 자율 주행 보조 방법.
The method of claim 9,
When it is determined that the non-driving area exists, searching for a drivable area having a high similarity to the route plan among the learned drivable areas, and generating a new route plan; Including more,
The similarity is,
Calculated based on the moving direction of the transport robot or the moving distance according to the route plan,
How to assist transport robots in indoor autonomous driving.
KR1020190082040A 2019-07-08 2019-07-08 Indoor autonomousdriving system of transpotation robot KR102281588B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190082040A KR102281588B1 (en) 2019-07-08 2019-07-08 Indoor autonomousdriving system of transpotation robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190082040A KR102281588B1 (en) 2019-07-08 2019-07-08 Indoor autonomousdriving system of transpotation robot

Publications (2)

Publication Number Publication Date
KR20210006138A true KR20210006138A (en) 2021-01-18
KR102281588B1 KR102281588B1 (en) 2021-07-26

Family

ID=74236776

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190082040A KR102281588B1 (en) 2019-07-08 2019-07-08 Indoor autonomousdriving system of transpotation robot

Country Status (1)

Country Link
KR (1) KR102281588B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220135138A (en) * 2021-03-29 2022-10-06 네이버랩스 주식회사 A building having facilities used by robots that drive in the building
CN115469656A (en) * 2022-08-30 2022-12-13 北京长木谷医疗科技有限公司 Intelligent navigation obstacle avoidance method, system and device for orthopedic surgery robot
KR102543883B1 (en) * 2022-05-18 2023-06-15 윤지현 Distributed robot-based object movement system and object movement method using the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101944497B1 (en) 2018-08-02 2019-01-31 블랙썬 주식회사 Control system and method of unmanned driving vehicle using intelligent CCTV
KR101959814B1 (en) * 2016-12-16 2019-03-21 네이버 주식회사 Physical distribution system and method using indoor autonomous riding robot for handicapped person and indoor autonomous riding robot
KR101963422B1 (en) * 2017-06-23 2019-03-28 우버 테크놀로지스, 인크. Collision-avoidance system for autonomous-capable vehicles

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101959814B1 (en) * 2016-12-16 2019-03-21 네이버 주식회사 Physical distribution system and method using indoor autonomous riding robot for handicapped person and indoor autonomous riding robot
KR101963422B1 (en) * 2017-06-23 2019-03-28 우버 테크놀로지스, 인크. Collision-avoidance system for autonomous-capable vehicles
KR101944497B1 (en) 2018-08-02 2019-01-31 블랙썬 주식회사 Control system and method of unmanned driving vehicle using intelligent CCTV

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220135138A (en) * 2021-03-29 2022-10-06 네이버랩스 주식회사 A building having facilities used by robots that drive in the building
KR102543883B1 (en) * 2022-05-18 2023-06-15 윤지현 Distributed robot-based object movement system and object movement method using the same
US12093057B2 (en) 2022-05-18 2024-09-17 Jihyun Yoon Distributed robot-based object movement system and object movement method using the same
CN115469656A (en) * 2022-08-30 2022-12-13 北京长木谷医疗科技有限公司 Intelligent navigation obstacle avoidance method, system and device for orthopedic surgery robot

Also Published As

Publication number Publication date
KR102281588B1 (en) 2021-07-26

Similar Documents

Publication Publication Date Title
CN111511620B (en) Dynamic window method using optimal interaction collision avoidance cost assessment
KR102281588B1 (en) Indoor autonomousdriving system of transpotation robot
US12055940B2 (en) Path planning for autonomous moving devices
EP4016230A1 (en) Method and system for simultaneous localization and calibration
Fulgenzi et al. Dynamic obstacle avoidance in uncertain environment combining PVOs and occupancy grid
US20120136510A1 (en) Apparatus and method for detecting vehicles using laser scanner sensors
AU2020225213B2 (en) Systems and methods for calibration of a pose of a sensor relative to a materials handling vehicle
US20120330492A1 (en) Deep lane navigation system for automatic guided vehicles
CN110304386B (en) Robot and repositioning method after code losing of robot
WO2012136672A1 (en) A collision avoiding method and associated system
JP6711555B1 (en) Transport system, area determination device, and area determination method
US10388164B2 (en) Method and system for detecting an unoccupied region within a parking facility
Behrje et al. An autonomous forklift with 3d time-of-flight camera-based localization and navigation
Reinke et al. Strategies for contour-based self-localization in large-scale modern warehouses
US20200166951A1 (en) Autonomous driving method adapted for recognition failure of road line and method of building driving guide data
US11592826B2 (en) Method, system and apparatus for dynamic loop closure in mapping trajectories
KR20200046161A (en) Indoor position recognition system of transpotation robot
US11537137B2 (en) Marker for space recognition, method of moving and lining up robot based on space recognition and robot of implementing thereof
CN113125795A (en) Obstacle speed detection method, device, equipment and storage medium
US20240134378A1 (en) Automated Recovery Assistance for Incapacitated Mobile Robots
US20220162001A1 (en) Predicting a path of material handling equipment and determining an obstacle-free path
Lee et al. Velocity range-based reward shaping technique for effective map-less navigation with LiDAR sensor and deep reinforcement learning
Kozyr et al. Algorithm for Replacing the Battery of a Robotic Tool Using Servicing Mobile Robots on Inhomogeneous Surfaces
KR102442448B1 (en) Coordinates recognition apparatus of multiple automatic guided vehicle and method thereof
JP7481058B1 (en) TRANSPORT SYSTEM, TRANSPORT CONTROL METHOD, AND PROGRAM

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant