KR20210006138A - Indoor autonomousdriving system of transpotation robot - Google Patents
Indoor autonomousdriving system of transpotation robot Download PDFInfo
- Publication number
- KR20210006138A KR20210006138A KR1020190082040A KR20190082040A KR20210006138A KR 20210006138 A KR20210006138 A KR 20210006138A KR 1020190082040 A KR1020190082040 A KR 1020190082040A KR 20190082040 A KR20190082040 A KR 20190082040A KR 20210006138 A KR20210006138 A KR 20210006138A
- Authority
- KR
- South Korea
- Prior art keywords
- transport robot
- autonomous driving
- area
- transport
- indoor
- Prior art date
Links
- 238000000034 method Methods 0.000 claims abstract description 51
- 238000012937 correction Methods 0.000 claims description 6
- 230000032258 transport Effects 0.000 description 172
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000002372 labelling Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000007257 malfunction Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000010267 cellular communication Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
본 발명은 운송 로봇의 실내 주행 시스템에 관한 것으로, 보다 자세하게는 운송 로봇이 촬영한 실내 공간 이미지를 이용하여 주행 가능 영역을 딥러닝(Deep Learning)의 기계 학습 알고리즘을 통해 학습하고, 주행 영역 내에서 장애물의 존재를 확인하여, 운송 로봇이 기 설정된 경로에 따라 정확하게 주행할 수 있는 방법 및 이를 수행하는 실내 주행 시스템에 관한 것이다.The present invention relates to an indoor driving system of a transport robot, and more particularly, learns a driving area through a machine learning algorithm of deep learning using an indoor space image captured by a transport robot, and within the driving area. The present invention relates to a method for accurately driving a transport robot according to a preset path by checking the existence of an obstacle, and an indoor driving system for performing the same.
최근 물류량이 급증함에 따라, 물류 서비스 산업에서 물류 자동화에 대한 니즈(needs)가 증가하고 있다. 이 중 물류 자동화의 일환으로, 물류 피킹(picking) 작업을 수행하는 운송 로봇이 시범적으로 도입되고 있으며, 운송 로봇은 공장이나 물류 창고 등의 대형 실내 공간에서 이동 또는 전달되는 각종 물품의 배송을 수행할 수 있다.With the recent rapid increase in logistics volume, the needs for logistics automation in the logistics service industry are increasing. Among these, as part of logistics automation, transport robots that perform logistics picking are being introduced on a pilot basis, and transport robots deliver various goods that are moved or delivered in large indoor spaces such as factories or logistics warehouses. can do.
한편, 기존 프로세스에 대한 변화를 최소화하면서 24시간 작업이 가능한 운송 로봇의 도입을 위해서는, 실시간으로 변화하는 대형 실내 공간의 환경을 정확하게 인식하는 것이 운송 로봇의 자율 주행 동작의 핵심이라고 할 수 있다.On the other hand, in order to introduce a transport robot capable of working 24 hours while minimizing changes to existing processes, it can be said that accurately recognizing the environment of a large indoor space that changes in real time is the core of the autonomous driving operation of the transport robot.
그에 따라, 운송 로봇은 실내 환경 변화에 대응하기 위한 다양한 기술들이 개발되어 왔으며, 대표적으로 운송 로봇에 엔코더, 적외선, 초음파 등의 센서를 장착하여 운송 로봇의 위치 변화를 측정하는 오도메트리(Odometry)자율 주행기술을 들 수 있다. Accordingly, various technologies have been developed for transport robots to respond to changes in the indoor environment. Representatively, Odometry, which measures the position change of the transport robot by attaching sensors such as encoders, infrared rays, and ultrasonic waves to the transport robot. Self-driving technology is mentioned.
그러나 외부로부터 수신되는 정보 없이 운송 로봇이 자율 주행하는 경우, 주행 경로면 재질에 따라 운송 로봇의 밀림이 발생하거나, 운송 로봇에 부착된 센서의 오작동, 고장, 새로운 장애물의 배치 등 다양한 이유로 인해, 주행 경로의 오차가 필연적으로 발생하게 된다. However, if the transport robot runs autonomously without any information received from the outside, the transport robot may be pushed down depending on the material of the travel path, or due to various reasons such as malfunction of the sensor attached to the transport robot, failure, and the placement of new obstacles. Path errors inevitably occur.
따라서 운송 로봇에 장착된 카메라로 획득한 실내 공간의 이미지를 이용하여 주행 가능 영역을 학습하고, 장애물을 인식하여 운송 로봇이 설정한 계획 경로 대로 주행할 수 있는 새로운 기술 및 시스템의 개발이 요구되며, 본 발명은 이에 관한 것이다.Therefore, it is required to develop a new technology and system that can learn the driving range using the image of the indoor space acquired by the camera mounted on the transport robot, recognize obstacles, and travel according to the planned route set by the transport robot. The present invention relates to this.
본 발명이 해결하고자 하는 기술적 과제는 GPS를 사용할 수 없는 실내 환경에 놓여진 운송 로봇에 카메라를 부착하고, 실내 공간의 이미지를 획득하여 이를 딥 러닝의 기계 학습 알고리즘을 통해 학습함으로써, 장애물의 존재를 판단하고 및 주행 가능 영역을 추론할 수 있는 방법 및 시스템을 제공하는 것이다.The technical problem to be solved by the present invention is to determine the existence of an obstacle by attaching a camera to a transport robot placed in an indoor environment where GPS is not available, acquiring an image of an indoor space, and learning it through a machine learning algorithm of deep learning. And to provide a method and system capable of inferring a drivable area.
본 발명이 해결하고자 하는 또 다른 기술적 과제는 학습된 주행 가능 영역과 운송 로봇에 부착된 카메라, 센서를 활용하여 운송 로봇이 기 설정된 경로에서 벗어났는지 감지하고, 그 위치를 보정할 수 있는 방법 및 시스템을 제공하는 것이다.Another technical problem to be solved by the present invention is a method and system capable of detecting whether a transport robot deviates from a preset route by using a learned driveable area, a camera attached to a transport robot, and a sensor, and correcting its position. Is to provide.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems that are not mentioned will be clearly understood by those skilled in the art from the following description.
본 발명의 일 실시 예에 따른 자율 주행 제어 서버가 운송 로봇의 자율 주행을 보조하는 방법으로서, 상기 운송 로봇으로부터 상기 운송 로봇이 촬영한 실내 공간의 이미지를 획득하는 단계, 상기 획득한 이미지에서 주행 가능 영역을 추출하여, 상기 실내 공간에 대한 주행 가능 영역을 학습하는 단계, 상기 학습된 주행 가능 영역을 기초로 상기 실내 공간에 배치된 운송 로봇의 주행 현황에 따라 확정되는 주행 경로를 생성하여 상기 운송 로봇으로 송신하는 단계를 포함한다.A method of assisting the autonomous driving of a transport robot by an autonomous driving control server according to an embodiment of the present invention, the method comprising: acquiring an image of an indoor space photographed by the transport robot from the transport robot, and driving from the acquired image The transport robot by extracting an area and learning a drivable region for the indoor space, by generating a travel path determined according to the driving status of a transport robot disposed in the indoor space based on the learned drivable region And transmitting.
일 실시 예에 따르면, 상기 운송 로봇이 주행 중인 경우, 상기 주행 경로를 상기 운송 로봇으로 송신하는 단계는, 상기 운송 로봇으로부터 이미지를 획득하고, 상기 획득한 이미지를 상기 학습된 주행 가능 영역에 입력하여, 주행 가능 영역을 추론하는 단계, 상기 추론된 주행 가능 영역에서 장애물의 존재 여부를 확인하는 단계를 더 포함할 수 있다.According to an embodiment, when the transport robot is traveling, transmitting the travel path to the transport robot includes obtaining an image from the transport robot, and inputting the acquired image into the learned driveable area. The method may further include inferring a drivable area, and checking whether an obstacle exists in the inferred drivable area.
일 실시 예에 따르면, 상기 확인하는 단계에서 장애물이 존재하는 것으로 확인되었다면, 상기 운송 로봇과 상기 장애물 간의 상대 거리를 산출하고, 상기 상대 거리를 기초로 상기 추론된 주행 가능 영역에서의 주행 경로를 보정하는 단계를 더 포함할 수 있다.According to an embodiment, if it is confirmed that an obstacle exists in the checking step, a relative distance between the transport robot and the obstacle is calculated, and a driving path in the inferred driving area is corrected based on the relative distance. It may further include the step of.
일 실시 예에 따르면, 상기 운송 로봇과 상기 장애물과의 상대 거리는, 상기 학습된 주행 가능 영역의 치수 또는 상기 운송 로봇의 주행 정보를 기초로 산출될 수 있다.According to an embodiment, the relative distance between the transport robot and the obstacle may be calculated based on the learned dimension of the drivable area or driving information of the transport robot.
일 실시 예에 따르면, 상기 장애물이 다른 운송 로봇인 경우,인접한 운송 로봇 각각의 주행 정보를 기초로 충돌 가능성을 판단하고, 상기 인접한 운송 로봇 각각에 기 설정된 주행 경로를 보정하는 단계를 더 포함할 수 있다.According to an embodiment, when the obstacle is a different transport robot, determining a collision possibility based on driving information of each of the adjacent transport robots, and correcting a preset driving path for each of the adjacent transport robots. have.
일 실시 예에 따르면, 상기 확인하는 단계에서 장애물이 존재하지 않는 것으로 확인되었다면, 상기 이미지 및 상기 학습된 주행 가능 영역을 기초로 상기 운송 로봇의 현재 위치 좌표를 계산하고, 상기 계산된 위치 좌표와 주행 경로 확정 신호를 상기 운송 로봇으로 송신하는 단계를 더 포함할 수 있다.According to an embodiment, if it is confirmed that there is no obstacle in the checking step, the current position coordinates of the transport robot are calculated based on the image and the learned driveable area, and the calculated position coordinates and driving It may further include transmitting a route determination signal to the transport robot.
일 실시 예에 따르면, 상기 주행 경로를 상기 운송 로봇으로 송신하는 단계 이후에, 상기 운송 로봇으로부터 상기 운송 로봇이 촬영한 이미지 데이터와 함께 상기 운송 로봇이 계산한 상대 위치 좌표를 수신하는 단계, 상기 수신한 이미지 데이터와 상기 학습된 주행 가능 영역을 기초로 상기 운송 로봇의 절대 위치 좌표를 계산하는 단계, 상기 상대 위치 좌표와 절대 위치 좌표 간의 차이가 오차 범위를 벗어나는지 판단하는 단계 및 상기 오차 범위를 벗어나는 것으로 판단될 경우, 상기 운송 로봇의 위치 보정 값을 산출하는 단계를 더 포함할 수 있다.According to an embodiment, after transmitting the travel route to the transport robot, receiving the relative position coordinates calculated by the transport robot together with image data captured by the transport robot from the transport robot, the reception Calculating absolute position coordinates of the transport robot based on one image data and the learned driveable area, determining whether a difference between the relative position coordinates and the absolute position coordinates is out of an error range, and out of the error range If it is determined that it is determined, the step of calculating a position correction value of the transport robot may be further included.
일 실시 예에 따르면, 상기 주행 경로를 상기 운송 로봇으로 송신하는 단계는, 상기 운송 로봇으로부터 경로 계획을 수신하는 단계 및 상기 수신한 경로 계획을 상기 학습된 주행 가능 영역에 입력하여, 주행 불가 영역을 확인하는 단계를 더 포함할 수 있다.According to an embodiment, the transmitting of the travel route to the transport robot includes: receiving a route plan from the transport robot and inputting the received route plan into the learned driveable area, thereby defining a non-driving area. It may further include the step of confirming.
일 실시 예에 따르면, 상기 주행 불가 영역이 존재하는 것으로 확인될 경우, 상기 학습된 주행 가능 영역 내 중심선을 따라 이동하는 새로운 경로 계획을 생성하는 단계를 더 포함할 수 있다.According to an embodiment, when it is determined that the non-driving area exists, generating a new route plan moving along a center line within the learned driving possible area may be further included.
일 실시 예에 따르면, 상기 주행 불가 영역이 존재하는 것으로 확인될 경우, 상기 학습된 주행 가능 영역 중 상기 경로 계획과 유사도가 높은 주행 가능 영역을 탐색하여, 새로운 경로 계획을 생성하는 단계를 더 포함하고, 상기 유사도는, 상기 운송 로봇의 이동 방향 또는 상기 경로 계획에 따른 이동 거리를 기초로 산출될 수 있다.According to an embodiment, when it is determined that the non-driving area exists, searching for a driving available area having a high similarity to the route plan among the learned driving available areas, and generating a new route plan, , The similarity may be calculated based on a moving direction of the transport robot or a moving distance according to the route plan.
본 발명에 의하면, GPS를 사용할 수 없는 실내 환경에서 운송 로봇에 부착된 카메라를 통해 획득한 실내 공간 이미지 정보를 이용하여 주행 가능 영역을 기계 학습 알고리즘을 통해 학습함으로써, 운송 로봇과 장애물의 상대적인 거리, 실내 공간에서 운송 로봇의 상대적인 위치를 정확하게 추론할 수 있다는 효과가 있다.According to the present invention, in an indoor environment where GPS is not available, by learning an available driving area through a machine learning algorithm using indoor spatial image information acquired through a camera attached to a transport robot, the relative distance between the transport robot and the obstacle, There is an effect of being able to accurately infer the relative position of a transport robot in an indoor space.
또한, 딥 러닝의 기계 학습 알고리즘을 사용하여 실내 공간에서 주행 가능 영역을 추론하는 바, 실내 공간에 변화가 생기더라도 주행 가능 영역을 정확하게 인식할 수 있다는 효과가 있다.In addition, since a drivable area is inferred in an indoor space using a machine learning algorithm of deep learning, it is possible to accurately recognize a drivable area even if there is a change in the indoor space.
또한, 운송 로봇에 설치된 부수적인 센서들(예. 관성 센서, 엔코더, 라이다)을 활용하여 운송 로봇의 위치를 추정하고, 기 설정된 경로를 벗어날 경우, 학습된 주행 가능 영역을 기초로 오차를 보정하여 현재 시점에서의 최적 주행 경로를 산출할 수 있어, 운송 로봇이 효율적으로 주행할 수 있다는 효과가 있다.In addition, the position of the transport robot is estimated using auxiliary sensors installed in the transport robot (e.g., inertial sensor, encoder, lidar), and if it deviates from a preset path, the error is corrected based on the learned driving area. Thus, it is possible to calculate the optimal travel path at the current point in time, and there is an effect that the transport robot can travel efficiently.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.The effects of the present invention are not limited to the above-mentioned effects, and other effects that are not mentioned will be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 일 실시 예에 따른 실내 자율 주행 시스템의 개략적인 구성을 나타낸 도면이다.
도 2는 본 발명의 일 실시 예에 따른 실내 자율 주행 보조 방법의 흐름을 나타낸 순서도이다.
도 3은 도 2에 도시된 S210 및 S220 단계를 구체화한 순서도이다.
도 4는 본 발명의 일 실시 예에 따른 자율 주행 제어 서버가 주행 가능 영역을 학습하는 방식을 설명하기 위한 도면이다.
도 5는 도 2에 도시된 S230 단계를 구체화한 순서도이다.
도 6은 도 5에 도시된 S2304 단계를 구체화한 순서도이다.
도 7은 본 발명의 일 실시 에에 따른 자율 주행 제어 서버가 주행 경로를 보정하는 방식을 설명하기 위한 도면이다.
도 8은 본 발명의 또 다른 실시 예에 따른 자율 주행 제어 서버가 주행 경로를 보정하는 방식을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시 예에 따른 자율 주행 제어 서버의 경로 계획 판단 방식을 설명하기 위한 순서도이다.
도 10은 본 발명의 일 실시 예에 따른 자율 주행 제어 서버가 운송 로봇의 위치를 보정하는 방식을 설명하기 위한 순서도이다.1 is a diagram showing a schematic configuration of an indoor autonomous driving system according to an embodiment of the present invention.
2 is a flowchart illustrating a flow of an indoor autonomous driving assistance method according to an embodiment of the present invention.
3 is a flowchart illustrating steps S210 and S220 shown in FIG. 2.
FIG. 4 is a diagram for explaining a method in which an autonomous driving control server learns an available driving area according to an embodiment of the present invention.
5 is a flowchart illustrating step S230 illustrated in FIG. 2.
6 is a flow chart illustrating step S2304 shown in FIG. 5.
7 is a diagram illustrating a method of correcting a driving route by an autonomous driving control server according to an embodiment of the present invention.
FIG. 8 is a diagram for explaining a method in which an autonomous driving control server corrects a driving route according to another embodiment of the present invention.
9 is a flowchart illustrating a method of determining a route plan by an autonomous driving control server according to an embodiment of the present invention.
10 is a flowchart illustrating a method of correcting a position of a transport robot by an autonomous driving control server according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. The same reference numerals refer to the same components throughout the specification.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless explicitly defined specifically. The terms used in the present specification are for describing exemplary embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase.
본 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.As used herein, “comprises” and/or “comprising” refers to the recited component, step, operation, and/or element, of one or more other elements, steps, operations and/or elements. It does not exclude presence or addition.
도 1은 본 발명의 일 실시 예에 따른 실내 자율 주행 시스템(1000)의 개략적인 구성을 나타낸 도면이며, 각 구성 요소들이 수행하는 기능 별로 구분한 도면이다.1 is a diagram showing a schematic configuration of an indoor
도 1을 참조하면, 실내 자율 주행 시스템(1000)은 실내 공간 내 주행 가능 영역을 학습하는 자율 주행 제어 서버(100) 및 실내 공간을 주행하는 운송 로봇(200)을 포함하는 것을 확인할 수 있으며, 자율 주행 제어 서버(100)는 학습 모듈(110), 추론 모듈(120) 및 통신 모듈(130)을 포함하고, 운송 로봇(200)은 카메라 모듈(210), 주행 모듈(220) 및 통신 모듈(230)을 포함할 수 있다.Referring to FIG. 1, it can be seen that the indoor
자율 주행 제어 서버(100)의 학습 모듈(110)은 실내 공간을 촬영한 이미지를 기초로 실내 공간 내 운송 로봇(200)이 주행 가능한 주행 가능 영역을 학습할 수 있다. 여기서, 실내 공간을 촬영한 이미지는 운송 로봇(200)으로부터 수신할 수 있으며, 이미지 내에서 실내 공간의 바닥면을 추론한 후 바닥면에 대한 폭과 길이, 그리드를 학습하여, 실내 공간에 대한 주행 가능 영역 모델을 획득할 수 있다.The
자율 주행 제어 서버(100)의 추론 모듈(120)은 운송 로봇(200)의 현재 위치, 운송 로봇(200)이 주행하는 경로에서의 장애물의 존재, 운송 로봇(200)이 설정한 경로 계획의 유효성, 운송 로봇(200) 간의 충돌 등 실내 공간을 주행하는 적어도 하나 이상의 운송 로봇(200)이 자율 주행하는 동안 필요한 다양한 정보들을 학습된 주행 가능 영역 모델을 통해 추론할 수 있다. The
예를 들어, 추론 모듈(120)은 운송 로봇(200)으로부터 경로 계획(path planning)을 수신하고, 이를 학습된 주행 가능 영역 모델에 적용하여, 막혀있는 경로는 없는지, 또 다른 운송 로봇(200)과 충돌할 가능성은 없는지, 보다 효율적인 경로가 존재하는 지 등 운송 로봇(200)이 생성한 경로 계획에 대한 유효성을 추론할 수 있다.For example, the
자율 주행 제어 서버(100)의 통신 모듈(130)은 운송 로봇(200) 또는 관리자 단말(미도시)로부터 실내 공간의 주행 가능 영역을 학습 및 추론하기 위한 다양한 정보들을 수신할 수 있다. 예를 들어, 통신 모듈(130)은 운송 로봇(200)의 식별 정보, 운송 로봇(200)으로부터 실내 공간에 대한 이미지, 운송 로봇(200)이 계산한 운송 로봇(200)의 위치 좌표, 운송 로봇(200)의 주행 정보 등을 수신할 수 있으며, 관리자 단말로부터 실내 공간에 배치된 설비의 식별 정보, 실내 공간에 배치된 새로운 설비(예. 물품을 적재하는 랙(Rack)) 정보, 새롭게 재배치된 실내 공간의 지도 정보, 실내 공간을 주행하는 운송 로봇(200)의 개수, 식별 정보 등을 수신할 수 있다.The
한편, 운송 로봇(200)은 공간을 주행하는 지능형 로봇(Intelligent service robot)으로서, 외부 환경을 인식하고 스스로 상황을 판단하여 자율적으로 동작할 수 있다.On the other hand, the
운송 로봇(200)의 카메라 모듈(210)은 운송 로봇(200)의 전후방에 배치되어, 운송 로봇(200)이 주행하는 경로를 따라 지속적으로 실내 공간의 이미지를 획득할 수 있다. 이를 위해, 카메라 모듈(210)은 일반적인 아날로그 카메라, 네트워크 카메라, 줌 카메라, 스피드 돔 카메라 중 어느 하나 이상일 수 있으며, 전후방뿐만 아니라 좌우/상하에 배치되어 실내 공간의 이미지를 획득할 수 있다.The
운송 로봇(200)의 주행 모듈(220)은 실내 공간 내 운송 로봇(200)을 주행시키는 하드웨어적 구성 요소와 실내 공간을 주행하기 위한 경로 계획을 생성하는 소프트웨어적 구성 요소를 포함할 수 있다. 여기서, 주행 모듈(220)이 생성하는 경로 계획이란 전역 경로 계획(Global Path Planning), 지역 경로 계획(Local Path Planning)을 포함할 수 있다. 이때, 전역 경로 계획은 운송 로봇(200)이 출발 지점에서 목표 지점까지 자체적으로 생성한 최적의 경로 계획을 의미하고, 지역 경로 계획은 운송 로봇(200)에 구비된 센서들을 이용하여 장애물을 감지하고, 장애물의 회피를 위해 실시간으로 생성하는 경로 계획을 의미한다.The traveling
이를 위해, 운송 로봇(200)은 엔코더(Encoder), 관성센서(IMU, Inertia Measurement Unit), 적외선 센서, 초음파 센서, 라이다(LADAR) 등과 같은 센서들을 포함할 수 있으며, 상술한 센서들을 통해 운송 로봇(200)의 x좌표, y좌표, 이동 각도 등을 계산할 수 있다.To this end, the
운송 로봇(200)의 통신 모듈(230)은 자율 주행 제어 서버(100)와 통신하여 실내 공간의 이미지, 주행 정보, 위치 좌표, 장애물의 존재, 경로 계획 등 운송 로봇의 주행에 관한 다양한 정보들을 주고받을 수 있다. 이를 위해, 통신부(110)는 2G/3G, LTE(Long Term Evolution), LTE-A(LTE-Advance) 및 5G 등과 같은 셀룰러 통신 네트워크를 지원할 수 있으며, Wi-Fi와 같은 무선 네트워크를 지원할 수 있다.The
한편, 운송 로봇(200)이 자체적으로 인식한 위치 좌표, 경로 계획은 센서들을 통해 계산한 상대적인 위치 좌표이기 때문에, 운송 로봇(200)이 생성한 정보들은 실내 공간의 주행 경로면 재질의 변화나 마찰력의 발생, 운송 로봇(200)에 구비된 센서의 오작동 등 예측 불가능한 다양한 돌발 상황에서 정확도가 떨어지게 된다. 그에 따라, 운송 로봇(200)은 자율 주행 제어 서버(100)가 실내 공간의 이미지를 이용하여 학습한 주행 가능 영역 모델을 기초로 주행 경로에 대한 정보를 제공받을 수 있다.On the other hand, since the position coordinates and route plans recognized by the
이하에서는 자율 주행 제어 서버(100)가 운송 로봇(200)으로 실내 공간에 대한 정보를 제공하기 위해 주행 가능 영역을 학습하고, 주행 경로에 대한 정보를 제공하는 방식에 대하여 설명하도록 한다.Hereinafter, a method in which the autonomous
이하, 본 발명의 일 실시 예에 따른 운송 로봇의 실내 자율 주행 보조 방법에 대하여 도 2 내지 도 10을 참조하여 설명하도록 한다.Hereinafter, a method of assisting indoor autonomous driving of a transport robot according to an embodiment of the present invention will be described with reference to FIGS. 2 to 10.
도 2 는 본 발명의 일 실시 예에 따른 실내 자율 주행 보조 방법의 흐름을 나타낸 순서도이고, 도 3은 도 2에 도시된 S210 및 S220 단계를 구체화한 순서도이다.FIG. 2 is a flow chart showing a flow of an indoor autonomous driving assistance method according to an embodiment of the present invention, and FIG. 3 is a flowchart illustrating steps S210 and S220 shown in FIG. 2.
이는 본 발명의 목적을 달성하기 위한 바람직한 실시 예일 뿐이며, 필요에 따라 일부 단계가 삭제 또는 추가되거나, 어느 한 단계가 다른 단계에 포함되어 수행될 수 있음은 물론이다.This is only a preferred embodiment for achieving the object of the present invention, and if necessary, some steps may be deleted or added, or one step may be included in another step and performed.
자율 주행 제어 서버(100)는 운송 로봇(200)으로부터 운송 로봇(200)이 촬영한 실내 공간의 이미지를 획득한다(S210). 이를 위해, 실내 공간을 주행하는 운송 로봇(200)은 전방 또는 후방에 배치된 카메라를 이용하여 주기적으로 실내 공간에 대한 이미지를 획득하고, 이를 운송 로봇(200)의 주행 정보와 함께 자율 주행 제어 서버(100)로 송신할 수 있다. 여기서, 주행 정보란 운송 로봇(200)의 식별 정보와 속력, 위치 등의 주행 정보를 포함하며, 이미지에는 이미지의 촬영 시점이 포함될 수 있다.The autonomous
즉, 자율 주행 제어 서버(100)는 운송 로봇(200)으로부터 실내 공간에 대한 이미지를 주기적으로 수신하고, 이를 취합하여 실내 공간의 이미지를 획득할 수 있다.That is, the autonomous
S210 단계 이후, 자율 주행 제어 서버(100)는 사전에 획득한 이미지에서 주행 가능 영역을 추출에 대한 라벨링을 진행하고, 실내 공간 에 대한 주행 가능 영역을 학습한다(S220). 여기서, 실내 공간의 이미지는 전체 공간에 대한 이미지가 될 수도 있고, 일부 공간에 대한 이미지가 될 수도 있다.After step S210, the autonomous
도 3은 자율 주행 제어 서버(100)의 실내 공간 이미지 학습 방법을 구체화한 순서도이며, 이하 도 3을 참조하여 S220 단계를 보다 구체적으로 설명하도록 한다.FIG. 3 is a flow chart illustrating a method of learning an image of an indoor space of the autonomous
도 3을 참조하면, 자율 주행 제어 서버(100)는 운송 로봇(200)으로부터 이미지를 획득하고(S2201), 획득한 이미지를 전처리한다(S2202). 여기서, 이미지 전처리(pre-processing)란 운송 로봇(200)이 촬영한 실내 공간의 이미지에서 불필요한 정보는 제외하고 유의미한 데이터를 정제하는 과정으로서, 다양한 방식을 통해 수행될 수 있다. 예를 들어, 이미지 전처리는 그레이 스케일, 이진화, 확대/축소, 회전/변환 등의 방식이 사용될 수 있다.Referring to FIG. 3, the autonomous
즉, 자율 주행 제어 서버(100)는 획득한 이미지를 전처리하여, 학습에 사용될 수 있도록 이미지를 변환한다. That is, the autonomous
S2202 단계 이후, 자율 주행 제어 서버(100)는 확인된 주행 가능 영역이 라벨링(labeling)되어 있는지 확인한다(S2203). 다시 말해서, 자율 주행 제어 서버(100)는 라벨링 데이터의 존재를 판단할 수 있으며, 라벨링 데이터가 존재하지 않은 경우, 확인된 주행 가능 영역을 라벨링한다(S2203-1, NO).After step S2202, the autonomous
이와 관련하여, 도 4는 본 발명의 일 실시 예에 따른 자율 주행 제어 서버(100)가 주행 가능 영역을 학습하는 방식을 설명하기 위한 도면인바, 도 5를 참조하면, 자율 주행 제어 서버(100)는 운송 로봇(200)으로부터 (a)와 같은 실내 공간 이미지를 수신하고, 주행 가능 영역(빗금 표시)에 대한 라벨링을 수행한다. In this regard, FIG. 4 is a diagram for explaining a method in which the autonomous
다시 도 3을 참조하면, S2203 단계에서 주행 가능 영역이 라벨링되어 있는 것으로 확인되었다면, 자율 주행 제어 서버(100)는 현재 수집한 데이터가 충분한지 확인한다(S2204, YES).Referring back to FIG. 3, if it is confirmed that the driving available area is labeled in step S2203, the autonomous
S2204 단계에서 데이터가 충분하지 않은 것으로 확인되는 경우, 자율 주행 제어 서버(100)는 사전에 학습한 내용을 기반으로, 데이터를 보강할 수 있으며(S2204-1, NO), 반대로 S2204 단계에서 데이터가 충분한 것으로 확인되는 경우, 자율 주행 제어 서버(100)는 획득한 데이터를 이용하여 딥러닝의 기계 학습 알고리즘을 활용하여, 실내 공간에 대한 주행 가능 영역을 학습한다(S2205, YES). 즉, 자율 주행 제어 서버(100)는 사전에 학습된 모델에 기반하여 주행 가능 영역을 확인할 수 있으며, 이미지에 대응되는 실내 공간에서 장애물의 존재 여부를 판단할 수 있다.If it is determined that the data is insufficient in step S2204, the autonomous
한편, 상술한 항목들을 학습하기 위해 자율 주행 제어 서버(100)는 지도 학습(Supervised Learning) 등 다양한 기계 학습 알고리즘을 활용할 수 있다.Meanwhile, in order to learn the above-described items, the autonomous
S2205 단계 이후, 자율 주행 제어 서버(100)는 실내 공간에 대한 주행 가능 영역을 확인하는 모델이 학습되었는지 검증하며(S2206), 학습이 완료되었다면, 이를 저장할 수 있다(S2207, YES). 보다 구체적으로, 자율 주행 제어 서버(100)는 학습 데이터와 검증 데이터의 손실(Loss) 값을 기초로 모델의 학습이 완료되었지 판단할 수 있다. 즉, 자율 주행 제어 서버(100)는 학습 완료된 모델을 이용하여 운송 로봇(200)으로부터 새롭게 수신하는 실내 공간의 이미지에서 장애물의 존재 여부를 확인할 수 있다. After step S2205, the autonomous
한편, S2205 단계에서 학습이 완료되지 않은 것으로 판단된다면, 자율 주행 제어 서버(100)는 역전파 알고리즘(Back-propagation)을 활용하여 모델 내부의 가중치를 지속적으로 업데이트할 수 있다(S2206-1, NO). 다만, 이에 제한되지 않는 다양한 알고리즘이 활용될 수 있다.On the other hand, if it is determined that the learning has not been completed in step S2205, the autonomous
이와 같이, 자율 주행 제어 서버(100)는 운송 로봇(200)이 송신한 실내 공간의 이미지를 이용하여, 운송 로봇(200)의 주행에 있어 핵심이 되는 주행 가능 영역을 학습할 수 있으며, 실제로 운송 로봇(200)이 실내 공간을 주행하는 과정에서 필요로 하는 정보들을 제공해 줄 수 있다.In this way, the autonomous
다시 도 2에 대한 설명으로 돌아가도록 한다. Returning to the description of FIG. 2 again.
도 2를 참조하면, S220 단계를 통해 자율 주행 제어 서버(100)는 실내 공간에 대한 주행 가능 영역을 학습 완료할 수 있으며, 자율 주행 제어 서버(100)는 학습된 주행 가능 영역을 기초로 실내 공간에 배치된 운송 로봇(200)의 주행 현황에 따라 확정되는 주행 경로를 생성하여 운송 로봇(200)으로 송신한다(S230). 예를 들어, 운송 로봇(200)의 주행 현황은 운송 로봇(200)이 현재 실내 공간을 주행 중인 상황, 스스로 설정한 경로 계획을 따라 이동하고자 하는 상황 등이 존재할 수 있으며, 이외에 실내 공간에 배치된 운송 로봇(200)의 주행과 관련된 모든 상황을 포함할 수 있다.Referring to FIG. 2, through step S220, the autonomous
도 5는 도 2에 도시된 S230 단계를 구체화한 순서도로서, 도 5는 운송 로봇(200)이 현재 실내 공간을 주행 중이며, 실내 공간에 대한 이미지를 획득하고, 자율 주행 제어 서버(100)로 송신한 경우를 설명하고 있다.5 is a flow chart embodied in step S230 shown in FIG. 2, and FIG. 5 is a
도 5를 참조하면, 자율 주행 제어 서버(100)는 운송 로봇(200)으로부터 이미지를 획득한다(S2301). 이를 통해 자율 주행 제어 서버(100)는 운송 로봇(200)의 식별 정보를 획득할 수 있으며, 식별 정보를 획득함과 동시에 운송 로봇(200)의 이전 주행 경로를 로드하여, 운송 로봇(200)의 현재 위치 좌표를 추론할 수 있는 정보를 획득할 수 있다. Referring to FIG. 5, the autonomous
S2301 단계 이후, 자율 주행 제어 서버(100)는 이미지를 전처리 하며(S2302), 운송 로봇(200)이 송신한 이미지에서 주행 가능 영역에 대한 데이터를 추출할 수 있다.After step S2301, the autonomous
S2302 단계 이후, 자율 주행 제어 서버(100)는 전처리된 이미지 데이터를 학습된 모델에 입력하고(S2303), 주행 가능 영역을 추론한다(S2304). 즉, 주행 가능 영역의 추론이란 자율 주행 제어 서버(100)가 운송 로봇(200)의 현재 위치를 기준으로 촬영된 실내 공간의 이미지 내에서 장애물의 존재 여부를 확인하고, 주행 가능/불가능한 영역을 판단하는 것이며, 이는 픽셀 단위로 구분되는 주행 가능 영역을 이용하여 수행될 수 있다.After step S2302, the autonomous
또한, 주행 불가능한 영역은 예를 들어, 창고 선반이 배치된 영역, 영역 내 물품이나 또 다른 운송 로봇(200)이 배치된 영역일 수 있으며, 자율 주행 서버(100)는 불가능한 사유에 대한 분류도 가능할 수 있다. In addition, the non-driable area may be, for example, an area in which a warehouse shelf is placed, an area in which goods or another
이와 관련하여 도 6 및 도 7을 첨부한바, 도 6은 도 5에 도시된 S2304 단계를 구체화한 순서도이며, 도 7은 본 발명의 일 실시 에에 따른 자율 주행 제어 서버(100)가 주행 경로를 보정하는 방식을 설명하기 위한 도면이다.In this regard, FIGS. 6 and 7 are attached, and FIG. 6 is a flow chart embodied in step S2304 shown in FIG. 5, and FIG. 7 is a self-driving
도 6을 참조하면, 자율 주행 제어 서버(100)는 이미지 데이터를 학습된 모델에 입력함으로써, 장애물의 존재 여부를 확인할 수 있다(S2304-1). Referring to FIG. 6, the autonomous
즉, 도 7의 (a)와 같이, 자율 주행 제어 서버(100)는 운송 로봇(200)이 송신한 이미지를 이용해 주행 가능 영역을 추론함으로써, 학습 과정에서 존재하지 않았던 장애물의 존재를 확인할 수 있다.That is, as shown in (a) of FIG. 7, the autonomous
S2304-1 단계에 장애물이 존재하는 것으로 확인될 경우, 자율 주행 제어 서버(100)는 운송 로봇(200)과 장애물 간의 상대적인 거리를 계산하고, 상대 거리를 기초로, 추론된 주행 가능 영역에서의 주행 경로를 보정할 수 있다(S230-4-2, YES). 구체적으로, 자율 주행 제어 서버(100)는 학습된 주행 가능 영역의 치수와 운송 로봇(200)의 주행 정보를 이용하여 주행 좌표를 계산할 수 있으며, 여기서 주행 가능 영역의 치수란 실내 공간에 배치되어 물품을 적재하는 랙(Rack) 간의 거리(D1), 주행 가능 영역의 거리(D2), 주행 가능 영역의 중심선(L)을 기준으로 하는 위치 좌표 등을 의미할 수 있다.When it is determined that an obstacle exists in step S2304-1, the autonomous
이와 관련하여, 도 7의 (b)를 참조하면, 현재 운송 로봇(200)의 위치 및 주행 정보가 주행 가능 영역의 중심선(L)을 기준으로 우측으로 기울어진 경우, 자율 주행 제어 서버(100)는 운송 로봇(200)이 중심선(L)을 향하는 우측 방향으로 주행할 수 있도록 주행 경로를 보정할 수 있다. In this regard, referring to (b) of FIG. 7, when the location and driving information of the
즉, 자율 주행 제어 서버(100)는 점선과 같이 이동하고자 하는 운송 로봇(200)이 실선을 따라 이동할 수 있도록 주행 경로를 보정할 수 있다.That is, the autonomous
아울러, 보다 구체적인 보정을 위해 자율 주행 제어 서버(100)는 운송 로봇(200)이 송신한 이미지를 이용하여 현재 운송 로봇(200)의 위치 좌표를 산출하고, 주행 가능 영역의 중심선(L)을 기준으로 하는 그리드를 통해 장애물의 좌표를 확인하여, 운송 로봇(200)의 바퀴 각도, 속력/바퀴 회전 수 등을 포함하는 주행 경로 보정 값을 생성할 수 있다.In addition, for a more specific correction, the autonomous
반면, S2304-1 단계에서 장애물이 존재하지 않는 것으로 확인될 경우, 자율 주행 제어 서버(100)는 운송 로봇(200)이 송신한 이미지 및 학습된 주행 가능 영역을 기초로 운송 로봇(200)의 현재 위치 좌표를 계산하고, 계산된 위치 좌표와 주행 경로를 확정하는 신호를 생성할 수 있다(S2304-3). On the other hand, if it is determined that the obstacle does not exist in step S2304-1, the autonomous
한편, 실내 공간에는 복수 개의 운송 로봇(200)이 배치되어 각각이 경로 계획에 따라 주행하게 되며, 그에 따라 움직이지 않는 물품뿐만 아니라, 주행 중인 또 다른 운송 로봇(200)이 어느 하나의 운송 로봇(200)에게 장애물로 간주될 수 있다.On the other hand, a plurality of
도 8은 본 발명의 또 다른 실시 예에 따른 자율 주행 제어 서버(100)가 주행 경로를 보정하는 방식을 설명하기 위한 도면이다.FIG. 8 is a diagram for explaining a method in which the autonomous
도 8의 (a) 및 (b)를 참조하면, 자율 주행 제어 서버(100)는 이미지 데이터에서 주행 가능 영역 상에서의 운송 로봇(200)을 식별할 수 있다. 즉, 도 8에 도시된 도면에서 A는 현재 자율 주행 제어 서버(100)가 주행 경로의 보정 유무를 판단하는 운송 로봇(200)이며, B와 C는 A 운송 로봇(200)이 촬영한 이미지 내에 존재하는 운송 로봇(200)일 수 있다.Referring to FIGS. 8A and 8B, the autonomous
자율 주행 제어 서버(100)는 A 운송 로봇(200)이 촬영한 이미지 내에 존재하는 운송 로봇(200)을 식별하고, 두 개의 인접한 운송 로봇(200)으로부터 주행 정보를 수신할 수 있다. 이를 통해, 자율 주행 제어 서버(100)는 현재 두 개의 인접한 운송 로봇(200)의 경로 계획과 주행 속도를 고려하여, 운송 로봇(200)의 충돌 가능성을 판단할 수 있다. The autonomous
예를 들어, 자율 주행 제어 서버(300)는 (a), (b)에서 B, C 운송 로봇(200)이 실선을 따라 이동할 경우, 인접한 운송 로봇(200)이 충돌하지 않을 것으로 판단할 수 있으며, B, C 운송 로봇(200)이 점선을 따라 이동할 경우, 인접한 운송 로봇(200)이 충돌할 것으로 판단하고, 각각에 기 설정된 주행 경로를 보정할 수 있다.For example, the autonomous driving control server 300 may determine that when the B,
다시 도 5에 대한 설명으로 돌아가도록 한다. It will return to the description of FIG. 5 again.
S2304 단계 이후, 자율 주행 제어 서버(100)는 상술한 추론 결과 출력하여, 운송 로봇(200)으로 송신할 수 있다(S2305). 그에 따라, 운송 로봇(200)는 본래 설정한 경로 계획에 맞게 이동하거나, 자율 주행 제어 서버(100)가 송신한 주행 경로에 맞게 이동하여, 장애물과 충돌하지 않고 안전한 주행을 할 수 있다. 즉, 운송 로봇(200)에 구비된 센서들을 통해 장애물을 식별하는 것보다 빠르게 장애물의 존재를 인식할 수 있어, 충돌 확률을 최소화할 수 있다.After step S2304, the autonomous
한편, 자율 주행 제어 서버(100)는 운송 로봇(200)으로부터 운송 로봇(200)이 촬영한 실내 공간에 대한 이미지와 함께 운송 로봇(200)이 자체적으로 수립한 경로 계획을 수신할 수도 있으며, 이를 평가할 수 있다. 이는 도 9에 대한 설명이며, 이하 설명하도록 한다.Meanwhile, the autonomous
도 9는 본 발명의 일 실시 예에 따른 자율 주행 제어 서버(100)의 경로 계획 판단 방식을 설명하기 위한 순서도이다.9 is a flowchart illustrating a route plan determination method of the autonomous
도 9를 참조하면, 자율 주행 제어 서버(100)는 운송 로봇(200)으로부터 자체적으로 설정한 전역 경로 또는 경로 계획을 수신 받아 획득할 수 있으며(S2310), 획득한 경로에서 주행 불가능한 영역이 존재하는지 확인한다(S2320). 즉, 자율 주행 제어 서버(100)는 수신한 경로 계획을 학습된 주행 가능 영역에 입력하여, 주행이 불가능한 영역을 확인할 수 있다. 여기서, 전역 경로란 운송 로봇(200)이 가지고 있는 정보를 기초로 생성한 실내 공간에 대한 주행 가능 영역이며, 경로 계획은 현재 위치에서 기 설정된 도착 지점까지 가기 위해 운송 로봇(200)이 설정한 주행 경로 계획을 의미한다.Referring to FIG. 9, the autonomous
S2320 단계에서 주행 불가능한 영역이 존재하는 것으로 확인되었다면, 자율 주행 제어 서버(100)는 학습된 주행 가능 영역을 탐색하여(S2320-1), 새로운 경로 계획 또는 지역 경로를 생성한다(S2320-2). 여기서, 새로운 경로 계획이란 주행 가능 영역 내 중심선을 이동하는 경로 계획일 수 있다. 아울러 중심선이 아니더라도 주행 가능 영역을 이동하는 경로라면 어떠한 경로도 가능할 수 있다. 예를 들어, 주행 가능 영역 내 중심선을 기준으로, 현재 운송 로봇(200)의 위치가 주행 가능 영역 내 중심선에 배치되어 있지 않은 것으로 판단될 경우, 자율 주행 제어 서버(100)는 새로운 경로 계획에서 운송 로봇(200)이 주행 가능 영역의 중심선을 따라 이동할 수 있도록 위치, 방향을 보정하는 정보를 포함시킬 수 있다.If it is determined that there is an undriable area in step S2320, the autonomous
한편, 새로운 경로 계획은 주행 가능 영역 내 중심선을 따르는 것 외에도, 운송 로봇(200)이 설정한 이동 방향, 흐름 또는 경로 계획에 따른 이동 거리를 기초로 산출될 수 있다. 즉, 자율 주행 제어 서버(100)는 주행이 불가능한 영역을 기준으로 적어도 하나 이상의 주행 가능 영역을 탐색하고, 그 중 본래의 이동 방향에서 크게 틀어지지 않거나, 이동 거리가 비슷한 영역을 유사도가 높은 영역으로 선정하고, 해당 영역을 경유하는 새로운 경로 계획 또는 지역 경로를 생성할 수도 있다.Meanwhile, the new route plan may be calculated based on a moving direction set by the
상술한 바와 같이, 자율 주행 제어 서버(100)는 새롭게 설정하거나 확정된 경로를 운송 로봇(200)으로 송신함으로써, 추론을 종료할 수 있으며, 운송 로봇(200)은 수신한 정보(예. 새로운 주행 경로, 경로 계획 확인 신호)에 따라 실내 공간을 안전하게 주행할 수 있다.As described above, the autonomous
또 다른 한편, 자율 주행 제어 서버(100)는 실내 공간에 대한 이미지를 지속적으로 송신하는 운송 로봇(200)으로부터 운송 로봇(200)이 자체적으로 판단한 위치 정보를 함께 수신할 수 있는데, 운송 로봇(200)이 자체적으로 판단한 위치 정보는 실내 공간의 마찰이나, 운송 로봇(200)이 적재하고 있는 물품의 무게, 실내 공간 바닥면의 재질에 따라 오차가 발생할 수 있으므로, 이를 주기적으로 확인하고, 보정 정보를 생성하여야 한다. 이는 도 11에 관한 설명이며, 이하 설명하도록 한다.On the other hand, the autonomous
도 10은 본 발명의 일 실시 예에 따른 자율 주행 제어 서버(100)가 운송 로봇(200)의 위치를 보정하는 방식을 설명하기 위한 순서도이다.10 is a flowchart illustrating a method of correcting the position of the
도 10을 참조하면, 도시된 S310 ~ S330 단계는 운송 로봇(200)에 의해 수행되는 단계로서, 운송 로봇(200)은 초기 위치를 설정하고(S310), 실내 공간의 촬영을 수행하며 주행하는 동안 센서를 통해 주행량, 즉 주행 정보를 기록한 후(S320), 자체적으로 위치 좌표를 계산하여, 자율 주행 제어 서버(100)로 송신할 수 있다. 여기서, 운송 로봇(200)이 계산한 위치 좌표는 상대적인 위치 좌표인 것으로 이해될 수 있다.Referring to FIG. 10, the steps S310 to S330 shown are steps performed by the
이와 같이, 운송 로봇(200)이 위치 좌표를 계산함과 동시에 자율 주행 제어 서버(100)는 운송 로봇(200)으로부터 실내 공간에 대한 이미지를 획득하고(S410), 이미지를 이용하여 주행 가능 영역을 추론한 후(S420), 학습된 주행 가능 영역을 기초로 운송 로봇(200)의 절대 위치 좌표를 계산할 수 있다(S430).In this way, while the
S430 단계 이후, 자율 주행 제어 서버(100)는 상대 위치 좌표와 절대 위치 좌표 간의 차이가 오차 범위 내인지 판단할 수 있다(S440). 여기서, 오차 범위는 현재 운송 로봇(200)에 설정된 경로 계획에 따른 시간 또는 거리를 기준으로 설정할 수 있다.After step S430, the autonomous
S430 단계에서 좌표 간의 차이가 오차 범위를 벗어나는 것으로 판단될 경우, 자율 주행 제어 서버(100)는 운송 로봇(200)의 위치 보정 값을 산출하고(S440-1, NO), 이를 운송 로봇(200)에게 송신하여 위치를 확정할 수 있으며(S450), 반대의 경우에는 자율 주행 제어 서버(100)가 계산한 절대 위치 좌표와 함께 위치 확정 신호를 운송 로봇(200)으로 송신할 수 있다(S450, YES).If it is determined that the difference between the coordinates is out of the error range in step S430, the autonomous
지금까지 본 발명의 일 실시 에에 따른 자율 주행 제어 서버(100)가 운송 로봇(200)이 촬영한 실내 공간에 대한 이미지를 기초로 운송 로봇(200)의 주행과 관련된 다양한 정보를 제공하는 방법에 대하여 설명하였다. 본 발명에 따르면, 자율 주행 제어 서버(100)는 단순히 운송 로봇(200)의 위치를 식별하는 것에서 더 나아가 실내 공간의 주행 가능 영역을 추론하고, 상대적인 거리를 가늠하여, 운송 로봇(200)이 기 설정된 경로나 위치를 벗어났을 경우 이를 보정하기 위한 정보를 제공할 수 있어, 실내 자율 주행 시스템(1000)의 운영 과정에서 주행의 정확성과 그에 따른 운송의 효율성이 상승할 수 있다.So far, a method of providing various information related to driving of the
한편, 본 발명은 또한 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 마그네틱 저장매체, 광학적 판독 매체 등 모든 저장매체를 포함한다. 또한, 본 발명에서 사용되는 메시지의 데이터 포맷을 기록 매체에 기록하는 것이 가능하다.Meanwhile, the present invention can also be implemented as a computer-readable code on a computer-readable recording medium. Computer-readable recording media include all storage media such as magnetic storage media and optical reading media. It is also possible to record the data format of the message used in the present invention on a recording medium.
이상 첨부된 도면을 참조하여 본 발명의 실시 예들을 설명하였지만, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Embodiments of the present invention have been described above with reference to the accompanying drawings, but those of ordinary skill in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features. You can understand. Therefore, it should be understood that the embodiments described above are illustrative and non-limiting in all respects.
1000: 실내 자율 주행 시스템
100: 자율 주행 제어 서버
110: 학습 모듈
120: 추론 모듈
130: 통신 모듈
200: 운송 로봇
210: 카메라 모듈
220: 주행 모듈
230: 통신 모듈1000: indoor autonomous driving system
100: autonomous driving control server
110: learning module
120: reasoning module
130: communication module
200: transport robot
210: camera module
220: drive module
230: communication module
Claims (11)
상기 운송 로봇으로부터 상기 운송 로봇이 촬영한 실내 공간의 이미지를 획득하는 단계; 및
획득한 이미지에서 주행 가능 영역을 추출하여, 상기 실내 공간에 대한 주행 가능 영역을 학습하는 단계;
를 포함하는 운송 로봇의 실내 자율 주행 보조 방법.As a method for the autonomous driving control server to assist the autonomous driving of a transport robot,
Obtaining an image of an indoor space photographed by the transport robot from the transport robot; And
Extracting a drivable area from the acquired image and learning a drivable area for the indoor space;
Indoor autonomous driving assistance method of a transport robot comprising a.
상기 주행 가능 영역을 학습하는 단계 이후에,
상기 학습된 주행 가능 영역을 기초로 상기 실내 공간에 배치된 운송 로봇의 주행 현황에 따라, 확정되는 주행 경로를 생성하여 상기 운송 로봇으로 송신하는 단계;
를 더 포함하는 운송 로봇의 실내 자율 주행 보조 방법.The method of claim 1,
After the step of learning the drivable area,
Generating a determined travel path according to the driving status of the transport robot disposed in the indoor space based on the learned travelable area, and transmitting it to the transport robot;
Indoor autonomous driving assistance method of the transport robot further comprising a.
상기 운송 로봇이 주행 중인 경우,
상기 주행 경로를 상기 운송 로봇으로 송신하는 단계는,
상기 운송 로봇으로부터 이미지를 획득하고, 획득한 이미지를 상기 학습된 주행 가능 영역에 입력하여, 주행 가능 영역을 추론하는 단계; 및
상기 추론된 주행 가능 영역에서 장애물의 존재 여부를 확인하는 단계;
를 더 포함하는 운송 로봇의 실내 자율 주행 보조 방법.The method of claim 2,
When the transport robot is running,
Transmitting the travel route to the transport robot,
Obtaining an image from the transport robot and inputting the acquired image to the learned drivable area to infer a drivable area; And
Checking whether an obstacle exists in the inferred drivable area;
Indoor autonomous driving assistance method of the transport robot further comprising a.
상기 확인하는 단계에서 장애물이 존재하는 것으로 확인되었다면,
상기 운송 로봇과 상기 장애물 간의 상대 거리를 산출하고, 상기 상대 거리를 기초로 상기 추론된 주행 가능 영역에서의 주행 경로를 보정하는 단계;
를 더 포함하는 운송 로봇의 실내 자율 주행 보조 방법.The method of claim 3,
If it is confirmed that an obstacle exists in the step of checking,
Calculating a relative distance between the transport robot and the obstacle, and correcting a travel path in the inferred drivable area based on the relative distance;
Indoor autonomous driving assistance method of the transport robot further comprising a.
상기 운송 로봇과 상기 장애물 간의 상대 거리는,
상기 학습된 주행 가능 영역의 치수 또는 상기 운송 로봇의 주행 정보를 기초로 산출되는,
운송 로봇의 실내 자율 주행 보조 방법.The method of claim 4,
The relative distance between the transport robot and the obstacle,
Calculated based on the learned dimension of the driving available area or driving information of the transport robot,
How to assist transport robots in indoor autonomous driving.
상기 장애물이 다른 운송 로봇인 경우,
인접한 운송 로봇 각각의 주행 정보를 기초로 충돌 가능성을 판단하고, 상기 인접한 운송 로봇 각각에 기 설정된 주행 경로를 보정하는 단계;
를 더 포함하는 운송 로봇의 실내 자율 주행 보조 방법.The method of claim 4,
If the obstacle is another transport robot,
Determining a possibility of collision based on driving information of each of the adjacent transport robots, and correcting a preset travel path for each of the adjacent transport robots;
Indoor autonomous driving assistance method of the transport robot further comprising a.
상기 확인하는 단계에서 장애물이 존재하지 않는 것으로 확인되었다면,
상기 이미지 및 상기 학습된 주행 가능 영역을 기초로 상기 운송 로봇의 현재 위치 좌표를 계산하고, 상기 계산된 위치 좌표와 주행 경로 확정 신호를 상기 운송 로봇으로 송신하는 단계;
를 더 포함하는 운송 로봇의 실내 자율 주행 보조 방법.The method of claim 3,
If it is confirmed that there is no obstacle in the step of checking,
Calculating the current position coordinates of the transport robot based on the image and the learned travelable area, and transmitting the calculated position coordinates and a driving route determination signal to the transport robot;
Indoor autonomous driving assistance method of the transport robot further comprising a.
상기 주행 경로를 상기 운송 로봇으로 송신하는 단계 이후에,
상기 운송 로봇으로부터 상기 운송 로봇이 촬영한 이미지 데이터와 함께 상기 운송 로봇이 계산한 상대 위치 좌표를 수신하는 단계;
수신한 이미지 데이터와 상기 학습된 주행 가능 영역을 기초로 상기 운송 로봇의 절대 위치 좌표를 계산하는 단계;
상기 상대 위치 좌표와 절대 위치 좌표 간의 차이가 오차 범위를 벗어나는지 판단하는 단계; 및
상기 오차 범위를 벗어나는 것으로 판단될 경우, 상기 운송 로봇의 위치 보정 값을 산출하는 단계;
를 더 포함하는 운송 로봇의 실내 자율 주행 보조 방법.The method of claim 2,
After the step of transmitting the travel route to the transport robot,
Receiving a relative position coordinate calculated by the transport robot together with image data captured by the transport robot from the transport robot;
Calculating absolute position coordinates of the transport robot based on the received image data and the learned driveable area;
Determining whether a difference between the relative position coordinates and the absolute position coordinates is out of an error range; And
Calculating a position correction value of the transport robot when it is determined that it is out of the error range;
Indoor autonomous driving assistance method of the transport robot further comprising a.
상기 주행 경로를 상기 운송 로봇으로 송신하는 단계는,
상기 운송 로봇으로부터 경로 계획을 수신하는 단계; 및
수신한 경로 계획을 상기 학습된 주행 가능 영역에 입력하여, 주행 불가 영역을 확인하는 단계;
를 더 포함하는 운송 로봇의 실내 자율 주행 보조 방법.The method of claim 2,
Transmitting the travel route to the transport robot,
Receiving a route plan from the transport robot; And
Inputting the received route plan into the learned driveable area to confirm a non-driving area;
Indoor autonomous driving assistance method of the transport robot further comprising a.
상기 주행 불가 영역이 존재하는 것으로 확인될 경우, 상기 학습된 주행 가능 영역 내 중심선을 따라 이동하는 새로운 경로 계획을 생성하는 단계;
를 더 포함하는 운송 로봇의 실시 자율 주행 보조 방법.The method of claim 9,
Generating a new route plan for moving along a center line within the learned driveable area when it is determined that the non-driving area exists;
Implementation autonomous driving assistance method of the transport robot further comprising a.
상기 주행 불가 영역이 존재하는 것으로 확인될 경우, 상기 학습된 주행 가능 영역 중 상기 경로 계획과 유사도가 높은 주행 가능 영역을 탐색하여, 새로운 경로 계획을 생성하는 단계; 를 더 포함하고,
상기 유사도는,
상기 운송 로봇의 이동 방향 또는 상기 경로 계획에 따른 이동 거리를 기초로 산출되는,
운송 로봇의 실내 자율 주행 보조 방법.The method of claim 9,
When it is determined that the non-driving area exists, searching for a drivable area having a high similarity to the route plan among the learned drivable areas, and generating a new route plan; Including more,
The similarity is,
Calculated based on the moving direction of the transport robot or the moving distance according to the route plan,
How to assist transport robots in indoor autonomous driving.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190082040A KR102281588B1 (en) | 2019-07-08 | 2019-07-08 | Indoor autonomousdriving system of transpotation robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190082040A KR102281588B1 (en) | 2019-07-08 | 2019-07-08 | Indoor autonomousdriving system of transpotation robot |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210006138A true KR20210006138A (en) | 2021-01-18 |
KR102281588B1 KR102281588B1 (en) | 2021-07-26 |
Family
ID=74236776
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190082040A KR102281588B1 (en) | 2019-07-08 | 2019-07-08 | Indoor autonomousdriving system of transpotation robot |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102281588B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220135138A (en) * | 2021-03-29 | 2022-10-06 | 네이버랩스 주식회사 | A building having facilities used by robots that drive in the building |
CN115469656A (en) * | 2022-08-30 | 2022-12-13 | 北京长木谷医疗科技有限公司 | Intelligent navigation obstacle avoidance method, system and device for orthopedic surgery robot |
KR102543883B1 (en) * | 2022-05-18 | 2023-06-15 | 윤지현 | Distributed robot-based object movement system and object movement method using the same |
CN118569682A (en) * | 2024-07-29 | 2024-08-30 | 北京达美盛软件股份有限公司 | Planning system and method for industrial transportation assembly line |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101944497B1 (en) | 2018-08-02 | 2019-01-31 | 블랙썬 주식회사 | Control system and method of unmanned driving vehicle using intelligent CCTV |
KR101959814B1 (en) * | 2016-12-16 | 2019-03-21 | 네이버 주식회사 | Physical distribution system and method using indoor autonomous riding robot for handicapped person and indoor autonomous riding robot |
KR101963422B1 (en) * | 2017-06-23 | 2019-03-28 | 우버 테크놀로지스, 인크. | Collision-avoidance system for autonomous-capable vehicles |
-
2019
- 2019-07-08 KR KR1020190082040A patent/KR102281588B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101959814B1 (en) * | 2016-12-16 | 2019-03-21 | 네이버 주식회사 | Physical distribution system and method using indoor autonomous riding robot for handicapped person and indoor autonomous riding robot |
KR101963422B1 (en) * | 2017-06-23 | 2019-03-28 | 우버 테크놀로지스, 인크. | Collision-avoidance system for autonomous-capable vehicles |
KR101944497B1 (en) | 2018-08-02 | 2019-01-31 | 블랙썬 주식회사 | Control system and method of unmanned driving vehicle using intelligent CCTV |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220135138A (en) * | 2021-03-29 | 2022-10-06 | 네이버랩스 주식회사 | A building having facilities used by robots that drive in the building |
KR102543883B1 (en) * | 2022-05-18 | 2023-06-15 | 윤지현 | Distributed robot-based object movement system and object movement method using the same |
US12093057B2 (en) | 2022-05-18 | 2024-09-17 | Jihyun Yoon | Distributed robot-based object movement system and object movement method using the same |
CN115469656A (en) * | 2022-08-30 | 2022-12-13 | 北京长木谷医疗科技有限公司 | Intelligent navigation obstacle avoidance method, system and device for orthopedic surgery robot |
CN118569682A (en) * | 2024-07-29 | 2024-08-30 | 北京达美盛软件股份有限公司 | Planning system and method for industrial transportation assembly line |
Also Published As
Publication number | Publication date |
---|---|
KR102281588B1 (en) | 2021-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102281588B1 (en) | Indoor autonomousdriving system of transpotation robot | |
US12055940B2 (en) | Path planning for autonomous moving devices | |
Fulgenzi et al. | Dynamic obstacle avoidance in uncertain environment combining PVOs and occupancy grid | |
US20120136510A1 (en) | Apparatus and method for detecting vehicles using laser scanner sensors | |
AU2020225213B2 (en) | Systems and methods for calibration of a pose of a sensor relative to a materials handling vehicle | |
US20120330492A1 (en) | Deep lane navigation system for automatic guided vehicles | |
CN110304386B (en) | Robot and repositioning method after code losing of robot | |
CN112149555A (en) | Multi-storage AGV tracking method based on global vision | |
WO2012136672A1 (en) | A collision avoiding method and associated system | |
JP6711555B1 (en) | Transport system, area determination device, and area determination method | |
US10388164B2 (en) | Method and system for detecting an unoccupied region within a parking facility | |
Behrje et al. | An autonomous forklift with 3d time-of-flight camera-based localization and navigation | |
Reinke et al. | Strategies for contour-based self-localization in large-scale modern warehouses | |
US20200166951A1 (en) | Autonomous driving method adapted for recognition failure of road line and method of building driving guide data | |
US11592826B2 (en) | Method, system and apparatus for dynamic loop closure in mapping trajectories | |
KR20200046161A (en) | Indoor position recognition system of transpotation robot | |
US20210382494A1 (en) | Marker for space recognition, method of moving and lining up robot based on space recognition and robot of implementing thereof | |
CN113125795A (en) | Obstacle speed detection method, device, equipment and storage medium | |
US20240134378A1 (en) | Automated Recovery Assistance for Incapacitated Mobile Robots | |
JP7411185B2 (en) | Guidance of a mobile robot that follows passersby | |
US20220162001A1 (en) | Predicting a path of material handling equipment and determining an obstacle-free path | |
CN112445220B (en) | Automatic guided vehicle control method and device, storage medium and electronic equipment | |
Lee et al. | Velocity range-based reward shaping technique for effective map-less navigation with LiDAR sensor and deep reinforcement learning | |
Kozyr et al. | Algorithm for Replacing the Battery of a Robotic Tool Using Servicing Mobile Robots on Inhomogeneous Surfaces | |
JP7504527B1 (en) | TRANSPORT SYSTEM, TRANSPORT CONTROL METHOD, AND PROGRAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |