KR102650464B1 - Method for updating map based on image deep learning using autonomous mobile robot and system for monitoring driving using the method - Google Patents
Method for updating map based on image deep learning using autonomous mobile robot and system for monitoring driving using the method Download PDFInfo
- Publication number
- KR102650464B1 KR102650464B1 KR1020220142729A KR20220142729A KR102650464B1 KR 102650464 B1 KR102650464 B1 KR 102650464B1 KR 1020220142729 A KR1020220142729 A KR 1020220142729A KR 20220142729 A KR20220142729 A KR 20220142729A KR 102650464 B1 KR102650464 B1 KR 102650464B1
- Authority
- KR
- South Korea
- Prior art keywords
- frame
- robot
- environmental change
- classified
- location
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000012544 monitoring process Methods 0.000 title description 5
- 238000013135 deep learning Methods 0.000 title description 2
- 230000007613 environmental effect Effects 0.000 claims abstract description 136
- 238000013507 mapping Methods 0.000 claims abstract description 48
- 238000010801 machine learning Methods 0.000 claims description 12
- 238000004891 communication Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 3
- 244000025254 Cannabis sativa Species 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 239000000428 dust Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000009193 crawling Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000009474 immediate action Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 238000007790 scraping Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Mechanical Engineering (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Robotics (AREA)
- Electromagnetism (AREA)
- Theoretical Computer Science (AREA)
- Manipulator (AREA)
Abstract
본 발명의 일 실시예에 따르는, 서버에 의해 수행되는, 이미지학습 기반 지도 업데이트를 통한 자율 주행 로봇 제어 방법은, a) 특정 공간을 주기적으로 자율 주행하며 상기 공간을 센싱하는 맵핑 로봇으로부터 상기 공간을 촬영한 영상 데이터를 포함하는 센싱 데이터를 실시간으로 수집하는 단계; b) 상기 센싱 데이터와 이전 주기에 수집된 센싱 데이터를 비교하여 상기 공간에 발생한 환경변화를 인지하고 상기 환경변화의 위치를 파악하는 단계; c) 상기 영상 데이터 중 상기 환경변화의 위치가 촬영된 프레임을 기 설정된 이미지학습 모델에 의해 구축된 환경변화 분류기에 입력하여 상기 환경변화의 유형을 판단하고, 판단 결과를 기 저장된 상기 공간의 지도에 반영하여 상기 지도를 업데이트하는 단계; 및 d) 상기 판단 결과에 따라 상기 환경변화의 위치를 경유하여 기 설정된 서비스를 수행할 서비스 로봇의 자율 주행을 제어하는 단계를 포함한다.According to an embodiment of the present invention, a method of controlling a self-driving robot through image learning-based map updating performed by a server includes: a) periodically autonomously driving in a specific space and selecting the space from a mapping robot that senses the space; Collecting sensing data including captured image data in real time; b) comparing the sensing data with sensing data collected in a previous cycle to recognize environmental changes occurring in the space and determine the location of the environmental changes; c) Among the image data, the frame in which the location of the environmental change is captured is input into an environmental change classifier built by a preset image learning model to determine the type of environmental change, and the judgment result is stored on a map of the space previously stored. updating the map based on the reflection; and d) controlling autonomous driving of a service robot to perform a preset service via the location of the environmental change according to the determination result.
Description
본 발명은 자율 주행 로봇을 이용한 이미지 학습 기반 지도 업데이트 방법 및 이를 활용한 주행 모니터링 시스템에 관한 것이다.The present invention relates to an image learning-based map update method using an autonomous driving robot and a driving monitoring system using the same.
최근 각 종 산업 및 서비스 현장에서 자율 주행 로봇의 활용도가 증가하고 있는 추세이다. 그러나, 자율 주행에 의해 발생할 수 있는 돌발 상황이나 장애 여건이 다양하여 실제로 자율 주행이 구현되는 장소나 서비스는 매우 제한적인 실정이다.Recently, the use of self-driving robots is increasing in various industries and service sites. However, due to the variety of unexpected situations and failure conditions that can occur due to autonomous driving, the places and services where autonomous driving is actually implemented are very limited.
이와 관련하여, 센서나 카메라를 구비하여 주위의 장애물을 인지하고, 장애물을 회피하는 기능이 접목된 자율 주행 로봇이 개발되고 있다. 그러나, 이러한 로봇은 고가의 장비가 요구되어 경제적인 부담이 상당하고 복잡한 설계에 따른 결함의 우려가 있다.In this regard, self-driving robots equipped with sensors or cameras to recognize surrounding obstacles and to avoid them are being developed. However, these robots require expensive equipment, resulting in a significant economic burden, and there is a risk of defects due to their complex design.
또한, 로봇이 주행하면서 획득한 객체의 이미지를 반영하여 지도를 생성하거나 업데이트 하는 기술이 고안되고 있다. 그러나, 주행에 영향을 주는 요소가 매우 다양함에도 불구하고, 아직까지는 객체의 존재나 유형을 파악하고 이를 지도에 반영한다는 추상적인 컨셉에 그치고 있어 실효성이 떨어진다는 한계가 존재한다.Additionally, technology is being designed to create or update maps by reflecting images of objects acquired while the robot is driving. However, despite the wide variety of factors that affect driving, it is still limited to the abstract concept of identifying the existence or type of an object and reflecting it on the map, which limits its effectiveness.
이러한 상황을 개선하고자, 주행 중 발생할 수 있는 다양한 돌발 상황을 지도에 종합적으로 반영함으로써, 단순 컨셉이 아닌 실제 현장에서 상용 가능한 로봇-인프라 연계 기술의 도입이 요구되고 있다.In order to improve this situation, there is a demand for the introduction of robot-infrastructure linkage technology that can be used in actual fields rather than a simple concept by comprehensively reflecting various unexpected situations that may occur during driving on the map.
본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 맵핑 로봇의 주행을 통해 수집되는 이미지에 대한 기계학습으로 다양한 유형의 환경변화를 반영하여 지도를 업데이트하고, 환경변화의 유형에 따라 다수의 서비스 로봇의 주행을 제어하고 관리하는 기술을 제공하는 데에 그 목적이 있다.The present invention is intended to solve the problems of the prior art described above, and updates the map to reflect various types of environmental changes through machine learning on images collected through the driving of a mapping robot, and updates a number of maps according to the type of environmental change. The purpose is to provide technology to control and manage the driving of service robots.
다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical challenges that this embodiment aims to achieve are not limited to the technical challenges described above, and other technical challenges may exist.
본 발명의 일 실시예에 따르는, 서버에 의해 수행되는, 이미지학습 기반 지도 업데이트를 통한 자율 주행 로봇 제어 방법은, a) 특정 공간을 주기적으로 자율 주행하며 상기 공간을 센싱하는 맵핑 로봇으로부터 상기 공간을 촬영한 영상 데이터를 포함하는 센싱 데이터를 실시간으로 수집하는 단계; b) 상기 센싱 데이터와 이전 주기에 수집된 센싱 데이터를 비교하여 상기 공간에 발생한 환경변화를 인지하고 상기 환경변화의 위치를 파악하는 단계; c) 상기 영상 데이터 중 상기 환경변화의 위치가 촬영된 프레임을 기 설정된 이미지학습 모델에 의해 구축된 환경변화 분류기에 입력하여 상기 환경변화의 유형을 판단하고, 판단 결과를 기 저장된 상기 공간의 지도에 반영하여 상기 지도를 업데이트하는 단계; 및 d) 상기 판단 결과에 따라 상기 환경변화의 위치를 경유하여 기 설정된 서비스를 수행할 서비스 로봇의 자율 주행을 제어하는 단계를 포함한다.According to an embodiment of the present invention, a method of controlling a self-driving robot through image learning-based map updating performed by a server includes: a) periodically autonomously driving in a specific space and selecting the space from a mapping robot that senses the space; Collecting sensing data including captured image data in real time; b) comparing the sensing data with sensing data collected in a previous cycle to recognize environmental changes occurring in the space and determine the location of the environmental changes; c) Among the image data, the frame in which the location of the environmental change is captured is input into an environmental change classifier built by a preset image learning model to determine the type of environmental change, and the judgment result is stored on a map of the space previously stored. updating the map based on the reflection; and d) controlling autonomous driving of a service robot to perform a preset service via the location of the environmental change according to the determination result.
본 발명의 일 실시예에 따르면, 상기 맵핑 로봇은 상기 맵핑 로봇의 위치 데이터를 실시간으로 검출하는 위치 센서, 상기 맵핑 로봇의 주변 지형지물에 대한 3차원 공간 데이터를 획득하는 공간인식 센서, 상기 맵핑 로봇의 주변에 대한 영상 데이터를 획득하는 360도 카메라 센서를 포함하되, 상기 3차원 공간 데이터 및 영상 데이터는 상기 위치 데이터 마다 매칭되어 저장되는 것이다.According to one embodiment of the present invention, the mapping robot includes a position sensor that detects location data of the mapping robot in real time, a spatial recognition sensor that acquires three-dimensional spatial data about the surrounding terrain of the mapping robot, and the mapping robot. It includes a 360-degree camera sensor that acquires image data about the surroundings, and the 3D spatial data and image data are matched and stored for each location data.
본 발명의 일 실시예에 따르면, 상기 서비스 로봇은 상기 공간인식 센서 및 상기 360도 카메라 센서를 포함하지 않도록 저가로 설계되는 것이다.According to one embodiment of the present invention, the service robot is designed to be inexpensive and does not include the spatial recognition sensor and the 360-degree camera sensor.
본 발명의 일 실시예에 따르면, 상기 서버는, 상기 a)단계 전에, 상기 위치 데이터, 상기 3차원 공간 데이터 및 상기 영상 데이터를 기초로 상기 공간의 지도를 생성하여 저장한다.According to one embodiment of the present invention, before step a), the server generates and stores a map of the space based on the location data, the 3D space data, and the image data.
본 발명의 일 실시예에 따르면, 상기 b)단계는, 동일한 위치 데이터 별로 상기 영상 데이터와 이전 주기에 수집된 영상 데이터를 비교하고, 비교 결과 상이한 프레임이 발견되는 위치 데이터를 파악하는 단계; 파악된 위치 데이터 및 상기 파악된 위치 데이터에 매칭된 3차원 공간 데이터에 기초하여 상기 환경변화의 위치를 결정하는 단계; 및 상기 환경변화의 위치에 대응하는 상기 지도의 좌표 데이터를 추출하는 단계를 포함한다.According to one embodiment of the present invention, step b) includes comparing the image data with the image data collected in the previous cycle for the same location data, and identifying location data in which different frames are found as a result of the comparison; determining the location of the environmental change based on identified location data and three-dimensional spatial data matched to the identified location data; and extracting coordinate data of the map corresponding to the location of the environmental change.
본 발명의 일 실시예에 따르면, 상기 서버는, 상기 a)단계 전에, 기 설정된 환경변화의 유형을 나타내는 객체가 포함된 학습 이미지를 수집하고, 하나의 학습 이미지가 입력되면 상기 환경변화의 유형 중 적어도 하나가 출력되도록 상기 이미지학습 모델을 통한 기계학습을 반복하여 상기 환경변화 분류기를 구축한다.According to one embodiment of the present invention, before step a), the server collects learning images containing objects representing preset types of environmental changes, and when one learning image is input, one of the types of environmental changes is selected. The environmental change classifier is constructed by repeating machine learning through the image learning model so that at least one is output.
본 발명의 일 실시예에 따르면, 상기 c)단계는, 상기 유형은 상기 환경변화 분류기에 입력된 데이터가 분류되는 기준으로 기 설정된 것으로서, 장애물, 날씨, 노면의 질감, 사람의 밀집도, 및 도난과 충돌의 유형을 포함하며, 상기 프레임이 상기 환경변화 분류기에 입력되면 적어도 하나 이상의 유형으로 분류되는 것이다.According to one embodiment of the present invention, in step c), the type is preset as a standard by which the data input to the environmental change classifier is classified, such as obstacles, weather, texture of the road surface, density of people, and theft. It includes a type of conflict, and when the frame is input to the environment change classifier, it is classified into at least one type.
본 발명의 일 실시예에 따르면, 상기 c)단계는, 상기 프레임이 상기 환경변화 분류기에 입력되어 장애물 유형으로 분류되는 경우, 장애물을 나타내는 상기 프레임의 특징값에 기초하여 처리 가능한 장애물 및 처리 불가능한 장애물 중 하나의 서브유형으로 더 분류되는 것이다.According to an embodiment of the present invention, in step c), when the frame is input to the environment change classifier and classified into an obstacle type, obstacles that can be handled and obstacles that cannot be handled are based on feature values of the frame representing the obstacle. It is further classified into one subtype.
본 발명의 일 실시예에 따르면, 상기 d)단계는, 상기 프레임이 처리 가능한 장애물의 서브유형으로 분류되는 경우, 소정의 시간 동안 상기 서비스 로봇이 상기 환경변화의 위치를 지나가지 않도록 상기 서비스 로봇의 자율 주행을 제어하고, 상기 프레임이 처리 불가능한 장애물의 서브유형으로 분류되는 경우, 상기 환경변화의 위치에 대한 회피 경로를 생성하여 상기 서비스 로봇으로 전송하는 단계를 포함한다.According to one embodiment of the present invention, in step d), if the frame is classified into a subtype of an obstacle that can be handled, the service robot is set so that the service robot does not pass the location of the environmental change for a predetermined period of time. Controlling autonomous driving, and if the frame is classified as a subtype of an obstacle that cannot be handled, generating an avoidance route for the location of the environmental change and transmitting it to the service robot.
본 발명의 일 실시예에 따르면, 상기 c)단계는, 상기 프레임이 상기 환경변화 분류기에 입력되어 날씨 유형으로 분류되는 경우, 날씨를 나타내는 상기 프레임의 특징값에 기초하여 상기 공간의 기상상황이 파악되고 상기 기상상황에 따라 주행 가능한 날씨 및 주행 불가능한 날씨 중 하나의 서브유형으로 더 분류되는 것이다.According to one embodiment of the present invention, in step c), when the frame is input to the environmental change classifier and classified into a weather type, the weather situation in the space is identified based on the feature value of the frame indicating the weather. And depending on the weather conditions, it is further classified into one subtype of drivable weather and non-drivable weather.
본 발명의 일 실시예에 따르면, 상기 d)단계는, 상기 프레임이 주행 가능한 날씨의 서브유형으로 분류되는 경우, 상기 서비스 로봇으로 저속 주행의 신호를 전송하고 상기 프레임이 주행 불가능한 날씨의 서브유형으로 분류되는 경우, 상기 서비스 로봇으로 정지 신호를 전송하는 단계를 포함한다.According to one embodiment of the present invention, in step d), if the frame is classified into the subtype of weather where driving is possible, a signal of low speed driving is transmitted to the service robot and the frame is classified into the subtype of weather where driving is not possible. When classified, it includes transmitting a stop signal to the service robot.
본 발명의 일 실시예에 따르면, 상기 c)단계는, 상기 프레임이 상기 환경변화 분류기에 입력되어 노면의 질감 유형으로 분류되는 경우, 노면의 질감을 나타내는 상기 프레임의 특징값에 기초하여 노면 상태가 파악되고 상기 노면 상태에 따라 주행 가능한 노면 및 주행 불가능한 노면 중 하나의 서브유형으로 더 분류되는 것이다.According to one embodiment of the present invention, in step c), when the frame is input to the environmental change classifier and classified into a road surface texture type, the road surface condition is determined based on the feature value of the frame representing the road surface texture. It is identified and further classified into one subtype of drivable road surface and non-drivable road surface according to the road surface condition.
본 발명의 일 실시예에 따르면, 상기 d)단계는, 상기 프레임이 주행 가능한 노면의 서브유형으로 분류되는 경우, 상기 서비스 로봇으로 저속 주행의 신호를 전송하고, 상기 프레임이 주행 불가능한 노면의 서브유형으로 분류되는 경우, 상기 환경변화의 위치에 대한 회피 경로를 생성하여 상기 서비스 로봇으로 전송하는 단계를 포함한다.According to an embodiment of the present invention, in step d), if the frame is classified into a subtype of a road surface that can be driven, a signal of low speed driving is transmitted to the service robot, and the frame is classified into a subtype of a road surface that is not drivable. If classified, it includes generating an avoidance route for the location of the environmental change and transmitting it to the service robot.
본 발명의 일 실시예에 따르면, 상기 c)단계는, 상기 프레임이 상기 환경변화 분류기에 입력되어 사람의 밀집도 유형으로 분류되는 경우, 사람을 나타내는 상기 프레임의 특징값에 기초하여 주행 가능한 영역 및 주행 불가능한 영역 중 하나의 서브유형으로 더 분류되는 것이다.According to one embodiment of the present invention, in step c), when the frame is input to the environmental change classifier and classified into a human density type, the drivable area and driving range are based on the characteristic values of the frame representing the person. It is further classified into one subtype of the impossible area.
본 발명의 일 실시예에 따르면, 상기 d)단계는, 상기 프레임이 주행 가능한 지역의 서브유형으로 분류되는 경우, 상기 서비스 로봇으로 저속 주행의 신호를 전송하고, 상기 프레임이 주행 불가능한 지역의 서브유형으로 분류되는 경우, 상기 환경변화의 위치에 대한 회피 경로를 생성하여 상기 서비스 로봇으로 전송하거나 소정의 시간 동안 상기 서비스 로봇이 상기 환경변화의 위치를 지나가지 않도록 상기 서비스 로봇의 자율 주행을 제어하는 단계를 포함한다.According to an embodiment of the present invention, in step d), if the frame is classified into a subtype of an area where driving is possible, a signal of low speed driving is transmitted to the service robot, and the frame is classified into a subtype of an area where driving is not possible. If classified as, creating an avoidance route for the location of the environmental change and transmitting it to the service robot, or controlling autonomous driving of the service robot so that the service robot does not pass the location of the environmental change for a predetermined period of time. Includes.
본 발명의 일 실시예에 따르면, 상기 c)단계는, 상기 프레임이 상기 환경변화 분류기에 입력되어 해상도가 저하된 특징값이 추출되는 경우 상기 프레임은 도난과 충돌 유형으로 분류되는 것이다.According to one embodiment of the present invention, in step c), when the frame is input to the environmental change classifier and feature values with reduced resolution are extracted, the frame is classified into theft and collision types.
본 발명의 일 실시예에 따르면, 상기 d)단계는, 상기 프레임이 도난과 충돌 유형으로 분류되는 경우, 관리자 단말로 상기 환경변화의 위치 및 위험 신호를 제공하고, 소정의 시간 동안 상기 서비스 로봇이 상기 환경변화의 위치를 회피하도록 상기 서비스 로봇의 자율 주행을 제어하는 단계를 포함한다.According to one embodiment of the present invention, in step d), if the frame is classified as a theft or collision type, the location of the environmental change and a danger signal are provided to the administrator terminal, and the service robot is operated for a predetermined period of time. and controlling autonomous driving of the service robot to avoid the location of the environmental change.
본 발명의 일 실시예에 따르는, 자율 주행 로봇 제어 서버는, 이미지학습 기반 지도 업데이트를 통한 자율 주행 로봇 제어 방법을 수행하는 프로그램이 저장된 메모리; 및 상기 프로그램을 실행하는 프로세서;를 포함하고, 상기 방법은, a) 특정 공간을 주기적으로 자율 주행하며 상기 공간을 센싱하는 맵핑 로봇으로부터 상기 공간을 촬영한 영상 데이터를 포함하는 센싱 데이터를 실시간으로 수집하는 단계; b) 상기 센싱 데이터와 이전 주기에 수집된 센싱 데이터를 비교하여 상기 공간에 발생한 환경변화를 인지하고 상기 환경변화의 위치를 파악하는 단계; c) 상기 영상 데이터 중 상기 환경변화의 위치가 촬영된 프레임을 기 설정된 이미지학습 모델에 의해 구축된 환경변화 분류기에 입력하여 상기 환경변화의 유형을 판단하고, 판단 결과를 기 저장된 상기 공간의 지도에 반영하여 상기 지도를 업데이트하는 단계; 및 d) 상기 판단 결과에 따라 상기 환경변화의 위치를 경유하여 기 설정된 서비스를 수행할 서비스 로봇의 자율 주행을 제어하는 단계를 포함한다.According to an embodiment of the present invention, a self-driving robot control server includes a memory storing a program that performs a self-driving robot control method through image learning-based map update; and a processor executing the program, wherein the method includes: a) periodically autonomously driving in a specific space and collecting sensing data including image data captured in the space from a mapping robot that senses the space in real time; steps; b) comparing the sensing data with sensing data collected in a previous cycle to recognize environmental changes occurring in the space and determine the location of the environmental changes; c) Among the image data, the frame in which the location of the environmental change is captured is input into an environmental change classifier built by a preset image learning model to determine the type of environmental change, and the judgment result is stored on a map of the space previously stored. updating the map based on the reflection; and d) controlling autonomous driving of a service robot to perform a preset service via the location of the environmental change according to the determination result.
본 발명의 일 실시예에 따르면, 직접 방문하거나 작업을 수행하지 않아도 자율 주행 로봇을 활용하여 특정 장소에 대한 지도의 제작 및 업데이트가 가능하다.According to one embodiment of the present invention, it is possible to create and update a map for a specific place using an autonomous robot without having to visit or perform the task in person.
본 발명의 일 실시예에 따르면, 자율 주행 중 발생 가능한 환경 변화나 돌발 상황의 유형이 구체적으로 특정되며, 그에 맞는 학습 데이터가 제시된다.According to an embodiment of the present invention, the types of environmental changes or unexpected situations that can occur during autonomous driving are specifically specified, and learning data corresponding to them is presented.
본 발명의 일 실시예에 따르면, 기계학습으로 구축된 분류기를 통해 로봇이 전송하는 영상에서 주행에 방해되는 객체가 실시간으로 식별되고 그 유형이 파악된다.According to one embodiment of the present invention, objects that interfere with driving are identified in real time in images transmitted by a robot through a classifier built through machine learning, and their types are determined.
본 발명의 일 실시예에 따르면, 단순히 유형의 객체만이 식별되는 것이 아니라, 날씨, 질감, 밀집도, 외부상황 등 무형의 환경변화 또한 식별되며 이와 같이 다양한 변경 사항이 지도에 반영된다.According to one embodiment of the present invention, not only tangible objects are identified, but also intangible environmental changes such as weather, texture, density, and external conditions are identified, and such various changes are reflected in the map.
본 발명의 일 실시예에 따르면, 이미지 학습 기반으로 업데이트된 지도는 주행 중인 다른 자율 주행 로봇에 공유된다.According to one embodiment of the present invention, the map updated based on image learning is shared with other autonomous robots that are driving.
본 발명의 일 실시예에 따르면, 환경변화의 요인에 적합한 동작으로 주행 중인 로봇들 각각을 제어할 수 있다.According to an embodiment of the present invention, each of the running robots can be controlled with an operation appropriate for factors of environmental change.
본 발명의 일 실시예에 따르면, 지도를 생성하거나 업데이트 하는 데 활용되는 고가의 로봇을 소수만 구비하더라도, 서비스를 수행하는 다수 로봇의 주행을 동시에 관리할 수 있다. 따라서, 안전한 주행이 도모되며 서비스 로봇을 저가로 설계할 수 있어 경제적이다.According to one embodiment of the present invention, even if only a few expensive robots are used to generate or update maps, the driving of multiple robots performing services can be managed simultaneously. Therefore, safe driving is promoted and service robots can be designed at low cost, making it economical.
이와 같이, 본 발명의 일 실시예는, 이미지 학습 분류 모델의 처리속도 및 정확도가 보장되며, 이에 따라 실제 주행 모니터링 시스템에 적용하는데 유효하여, 주행 중인 로봇들에 대한 돌발 상황을 예측하고 대처하기 용이하다.In this way, one embodiment of the present invention guarantees the processing speed and accuracy of the image learning classification model, and is therefore effective in applying to an actual driving monitoring system, making it easy to predict and respond to unexpected situations for driving robots. do.
도 1은 본 발명의 일 실시예에 따르는 자율 주행 로봇 제어 시스템의 구조도이다.
도 2는 본 발명의 일 실시예에 따르는 자율 주행 로봇 제어 서버의 구조를 설명하기 위한 블록도이다.
도 3은 본 발명의 일 실시예에 따르는 자율 주행 로봇 제어 방법에 대한 동작 흐름도이다.
도 4는 본 발명의 일 실시예에 따르는 환경변화 분류기를 구축하는 과정을 설명하기 위한 개념도이다.
도 5는 본 발명의 일 실시예에 따르는 맵핑 로봇의 주행에 의해 생성된 지도의 예시도이다.
도 6은 본 발명의 일 실시예에 따라 업데이트된 지도의 예시도이다.
도 7은 본 발명의 일 실시예에 따르는 환경변화 분류기를 통해 장애물 유형으로 분류되는 프레임의 예시도이다.
도 8은 본 발명의 일 실시예에 따르는 환경변화 분류기를 통해 날씨 유형으로 분류되는 프레임의 예시도이다.
도 9는 본 발명의 일 실시예에 따르는 환경변화 분류기를 통해 노면의 질감 유형으로 분류되는 프레임의 예시도이다.
도 10은 본 발명의 일 실시예에 따르는 환경변화 분류기를 통해 사람의 밀집도 유형으로 분류되는 프레임의 예시도이다.
도 11은 본 발명의 일 실시예에 따르는 환경변화 분류기를 통해 도난과 충돌 유형으로 분류되는 프레임의 예시도이다.1 is a structural diagram of a self-driving robot control system according to an embodiment of the present invention.
Figure 2 is a block diagram for explaining the structure of a self-driving robot control server according to an embodiment of the present invention.
Figure 3 is an operation flowchart of a method for controlling a self-driving robot according to an embodiment of the present invention.
Figure 4 is a conceptual diagram for explaining the process of building an environmental change classifier according to an embodiment of the present invention.
Figure 5 is an example diagram of a map generated by driving a mapping robot according to an embodiment of the present invention.
Figure 6 is an example diagram of an updated map according to an embodiment of the present invention.
Figure 7 is an example of a frame classified into an obstacle type through an environmental change classifier according to an embodiment of the present invention.
Figure 8 is an example of a frame classified by weather type through an environmental change classifier according to an embodiment of the present invention.
Figure 9 is an example of a frame classified by road surface texture type through an environmental change classifier according to an embodiment of the present invention.
Figure 10 is an example of a frame classified by human density type through an environmental change classifier according to an embodiment of the present invention.
Figure 11 is an example of a frame classified into theft and collision types through an environmental change classifier according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts that are not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected," but also the case where it is "electrically connected" with another element in between. . Additionally, when a part "includes" a certain component, this means that it may further include other components rather than excluding other components, unless specifically stated to the contrary.
이하, 첨부된 도면을 활용하여 본 발명의 일 실시예를 상세히 설명하도록 한다.Hereinafter, an embodiment of the present invention will be described in detail using the attached drawings.
도 1은 본 발명의 일 실시예에 따르는 자율 주행 로봇 제어 시스템의 구조도이다.1 is a structural diagram of a self-driving robot control system according to an embodiment of the present invention.
도 1을 참조하면, 시스템은, 서버(100), 맵핑 로봇(200) 및 서비스 로봇(300)을 포함한다.Referring to FIG. 1, the system includes a
일 실시예에 따르는, 맵핑 로봇(200)은, 특정 공간을 기 설정된 경로를 따라 주기적으로 자율 주행하며 주변을 촬영하거나 지형지물을 센싱하는 장치이다. 맵핑 로봇(200)은 서버(100)와 무선 통신을 수행하며, 설치되어 있는 각 종 센서에 의해 검출되는 센싱 데이터를 서버(100)에 실시간으로 전송할 수 있다.According to one embodiment, the
일 실시예에 따르면, 맵핑 로봇(200)은, 맵핑 로봇(200)의 위치 데이터를 실시간으로 검출하는 GPS와 같은 위치 센서, 주변 지형지물에 대한 3차원 공간 데이터를 획득하는 라이더(lider)와 같은 공간인식 센서, 주변에 대한 영상 데이터를 획득하는 360도 카메라 센서를 포함할 수 있다. 각 센서에 의해 검출된 센싱 데이터는 서버(100)로 전송되며, 서버(100)는 3차원 공간 데이터 및 영상 데이터를 위치 데이터 마다 매칭하여 저장할 수 있다. 한편, 맵핑 로봇(200)은, 초음파 센서, 관성계(Inertial Measurement Unit, IMU) 등 더 다양한 부속품들을 포함할 수 있으며, 위에서 열거된 구성으로 한정되는 것은 아니다.According to one embodiment, the
일 실시예에 따르는, 서비스 로봇(300)은, 맵핑 로봇(200)의 주행 공간 중 일부 또는 전부를 주행하면서 미리 설정된 서비스를 주기적으로 수행하도록 설계된 장치로서, 여기서 서비스는, 배송, 배달, 운반, 안내, 공정, 미화 등 다양할 수 있으며, 특별히 제한되는 것은 아니다.According to one embodiment, the
일 실시예에 따르면, 서비스 로봇(300)은, 주행 및 서비스 수행을 모니터링하는 서버(100)와 연결되어 무선 통신을 수행하며, 이에 따라 서버(100)로부터 전송되는 제어 명령에 의해 실시간으로 동작이 제어될 수 있다.According to one embodiment, the
일 실시예에 따르면, 서비스 로봇(300)에는, 맵핑 로봇(200)의 주행 공간에 대한 지도가 저장되어 있다. 서버(100)에 의해 지도가 업데이트 되는 경우, 서비스 로봇(300)은 이전에 저장된 지도를 메모리에서 제거하고 서버(100)로부터 업데이트 된 지도를 수신하여 저장할 수 있다.According to one embodiment, a map of the driving space of the
일 실시예에 따르면, 서비스 로봇(300)은 업데이트된 지도를 수신하면서, 서버(100)로부터 지도에 반영된 환경변화에 대한 데이터를 동시에 수신할 수 있다. 환경변화에 대한 데이터는 환경변화의 유형, 위치 및 대응동작에 대한 명령값을 포함할 수 있으며, 이에 한정되는 것은 아니다.According to one embodiment, the
일 실시예에 따르면, 서비스 로봇(300)은 시스템 상에 다수가 구비될 수 있으며, 각 서비스 로봇(300)에는 로봇 아이디나 코드와 같은 고유의 식별 데이터가 미리 설정되어 서버(100)에 저장될 수 있다.According to one embodiment, a plurality of
일 실시예에 따르면, 서비스 로봇(300)에는 GPS센서와 같은 위치 센서가 구비될 수 있다. 서버(100)는 이를 통해 각 서비스 로봇(300)의 위치가 어디인지, 주행을 시작하거나 정해진 서비스를 수행하는 서비스 로봇(300)이 무엇인지 실시간으로 파악이 가능하다.According to one embodiment, the
일 실시예에 따르면, 맵핑 로봇(200)과 달리 서비스 로봇(300)은 공간인식 센서 및 360도 카메라 센서를 포함하지 않도록 설계될 수 있다. 즉, 서비스 로봇(300)은 자율 주행과 서비스 제공에 필수적으로 요구되는 장비들로만 구성되도록 저가형으로 제작될 수 있다. 이에 따라, 서비스 사업자의 경제적인 부담이 완화될 수 있으며, 다수의 서비스 로봇(300)을 구비하는 것이 상대적으로 용이하므로, 더 향상된 서비스가 대중에게 제공될 수 있다.According to one embodiment, unlike the
서버(100)는, 자율 주행 로봇의 제어 및 모니터링 서비스를 제공하는 업체가 운영하는 서버를 의미할 수 있다. 따라서, 서버(100)는 자율 주행 로봇 제어 서버로 그 용어를 정의할 수 있다.The
도 2는 본 발명의 일 실시예에 따르는 자율 주행 로봇 제어 서버의 구조를 설명하기 위한 블록도이다.Figure 2 is a block diagram for explaining the structure of a self-driving robot control server according to an embodiment of the present invention.
일 실시예에 따르면, 서버(100)는, 통신모듈(110), 메모리(120), 프로세서(130) 및 데이터베이스(140)를 포함할 수 있다.According to one embodiment, the
통신모듈(110)은, 각각의 맵핑 로봇(200) 및 서비스 로봇(300)과 데이터 통신을 처리한다.The
메모리(120)에는, 자율 주행 로봇 제어 방법을 수행하기 위한 프로그램(또는 애플리케이션)이 저장되어 있으며, 프로세서(130)는, 메모리(120)에 저장된 프로그램을 실행하여 자율 주행 로봇 제어 방법에 대한 각 종 프로세스를 처리한다.The
프로세서(130)가 처리하는 전반적인 프로세스의 일 실시예는 다음과 같다. 프로세서(130)는 맵핑 로봇(200)으로부터 실시간으로 수신되는 위치 데이터, 3차원 공간 데이터 및 영상 데이터를 기초로 맵핑 로봇(200)이 주행하는 공간의 지도를 생성하여 저장한다. 프로세서(130)는 기 설정된 환경변화의 유형을 나타내는 객체가 포함된 학습 이미지를 수집한다. 프로세서(130)는 하나의 학습 이미지가 입력되면 적어도 하나의 유형이 출력되도록 이미지학습 모델을 통한 기계학습을 반복하여 환경변화 분류기를 구축한다. 프로세서(130)는 맵핑 로봇(200)으로부터 영상 데이터를 포함하는 센싱 데이터를 실시간으로 수집한다. 프로세서(130)는 현재 수집된 센싱 데이터와 이전 주기에 수집된 센싱 데이터를 비교하여 해당 공간에 발생한 환경변화를 인지하고 그 위치를 파악한다. 프로세서(130)는 환경변화의 위치가 촬영된 영상 데이터의 프레임을 환경변화 분류기에 입력하여 환경변화의 유형을 판단한다. 프로세서(130)는 판단 결과를 기 저장되어 있는 이전에 제작된 지도에 반영하여 해당 지도를 업데이트한다. 프로세서(130)는 판단 결과에 따라 환경변화의 위치를 경유하거나 경유할 예정인 서비스 로봇(300)의 자율 주행을 제어한다.One embodiment of the overall process processed by the
일 실시예에 따르는 데이터베이스(140)에는, 자율 주행 로봇 제어 방법이 수행됨에 따라 발생하는 각 종 데이터들이 저장될 수 있다. 구체적으로, 프로세서(110)에 의해 수집된 학습 이미지가 저장된다. 학습 이미지가 이미지모델에 의해 학습되어 특정 환경변화의 유형으로 분류되면, 각 학습 이미지는 분류된 유형과 매칭되어 저장된다. 프로세서(110)에 의해 생성된 지도가 저장된다. 맵핑 로봇(200)으로부터 수신되는 센싱 데이터가 실시간으로 저장되며, 맵핑 로봇(200)이 주행하는 주기에 따라 센싱 데이터는 분류되어 저장된다. 프로세서(110)에 의해 환경변화가 인지되면, 해당 프레임, 프레임이 환경변화 분류기에 의해 분류된 유형 및 환경변화의 위치가 저장된다. 이에 기초하여 프로세서(110)에 의해 지도가 업데이트되면 기존 저장되어 있던 지도가 업데이트 된 지도로 갱신된다.In the
일 실시예에 따르면, 시스템은 자율 주행 모니터링을 수행하는 관리자의 관리자 단말(미도시)을 더 포함할 수 있다. 관리자 단말은 서버(100)와 연결되어 무선 통신을 수행할 수 있으며, 관리자 단말에는 맵핑 로봇(200) 및 서비스 로봇(300)의 주행 및 서비스 수행을 모니터링하는 프로그램이 설치될 수 있다. 또한, 관리자 단말은 서버(100)로부터 지도 생성 및 변경을 위한 사용자 인터페이스를 수신할 수 있다. 지도는 서버(100)의 프로세스에 의해 자동으로 생성되거나 업데이트될 수 있으나, 관리자에 의해서도 수동적으로 조작될 수 있다.According to one embodiment, the system may further include a manager terminal (not shown) of a manager that performs autonomous driving monitoring. The manager terminal may be connected to the
한편, "관리자 단말"은 네트워크를 통해 서버나 타 단말에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), VR HMD(예를 들어, HTC VIVE, Oculus Rift, GearVR, DayDream, PSVR 등)등을 포함할 수 있다. 여기서, VR HMD 는 PC용 (예를 들어, HTC VIVE, Oculus Rift, FOVE, Deepon 등)과 모바일용(예를 들어, GearVR, DayDream, 폭풍마경, 구글 카드보드 등) 그리고 콘솔용(PSVR)과 독립적으로 구현되는 Stand Alone 모델(예를 들어, Deepon, PICO 등) 등을 모두 포함한다. 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 스마트폰(smart phone), 태블릿 PC, 웨어러블 디바이스뿐만 아니라, 블루투스(BLE, Bluetooth Low Energy), NFC, RFID, 초음파(Ultrasonic), 적외선, 와이파이(WiFi), 라이파이(LiFi) 등의 통신 모듈을 탑재한 각종 디바이스를 포함할 수 있다. 또한, "네트워크"는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷 (WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 블루투스 통신, 적외선 통신, 초음파 통신, 가시광 통신(VLC: Visible Light Communication), 라이파이(LiFi) 등이 포함되나 이에 한정되지는 않는다.Meanwhile, the “administrator terminal” may be implemented as a computer or portable terminal that can connect to a server or other terminals through a network. Here, the computer is, for example, a laptop equipped with a web browser, a desktop, a laptop, a VR HMD (e.g., HTC VIVE, Oculus Rift, GearVR, DayDream, PSVR, etc.), etc. may include. Here, VR HMD is for PC (e.g. HTC VIVE, Oculus Rift, FOVE, Deepon, etc.), mobile (e.g. GearVR, DayDream, Storm Magic, Google Cardboard, etc.), and console (PSVR). Includes independently implemented Stand Alone models (e.g. Deepon, PICO, etc.). Portable terminals are, for example, wireless communication devices that ensure portability and mobility, including smart phones, tablet PCs, and wearable devices, as well as Bluetooth (BLE, Bluetooth Low Energy), NFC, RFID, and ultrasonic devices. , may include various devices equipped with communication modules such as infrared, WiFi, and LiFi. In addition, “network” refers to a connection structure that allows information exchange between nodes such as terminals and servers, including a local area network (LAN), a wide area network (WAN), and the Internet. (WWW: World Wide Web), wired and wireless data communication network, telephone network, wired and wireless television communication network, etc. Examples of wireless data communication networks include 3G, 4G, 5G, 3GPP (3rd Generation Partnership Project), LTE (Long Term Evolution), WIMAX (World Interoperability for Microwave Access), Wi-Fi, Bluetooth communication, infrared communication, and ultrasound. This includes, but is not limited to, communication, Visible Light Communication (VLC), LiFi, etc.
이하, 도 3 내지 도 11을 활용하여 자율 주행 로봇 제어 방법에 대한 일 실시예를 설명하도록 한다. 도 3은 본 발명의 일 실시예에 따르는 자율 주행 로봇 제어 방법에 대한 동작 흐름도이다.Hereinafter, an embodiment of a method for controlling an autonomous robot will be described using FIGS. 3 to 11. Figure 3 is an operation flowchart of a method for controlling a self-driving robot according to an embodiment of the present invention.
단계 S300에서, 서버(100)는 기 설정된 환경변화의 유형을 나타내는 객체가 포함된 학습 이미지를 수집할 수 있다. 예를 들어, 각 학습 이미지는 관리자 단말에 의해 환경변화의 유형이 라벨링되어 수집되거나, 인터넷 크롤링, 스크래핑 등의 수집 기법을 통해 서버(100)에 의해 자체적으로 수집될 수 있으며, 수집 방식이 본 발명을 제한하는 것은 아니다.In step S300, the
구체적인 학습 이미지에 대한 실시예로서, 도 4를 참조하면, 학습 이미지는 다양한 형태의 장애물이 포함된 이미지, 날씨를 표현된 이미지, 노면이나 바닥의 질감을 표현하는 이미지, 다수의 사람이나 사물이 구성된 공간의 이미지 및 사람이나 사물이 흔들려 초점이 안 맞는 이미지를 포함할 수 있다. 여기서 장애물이란 자율 주행에 영향을 줄 수 있는 시설물이나 지형지물을 통칭하는 용어이다.As an example of a specific learning image, referring to FIG. 4, the learning image is an image containing various types of obstacles, an image expressing the weather, an image expressing the texture of the road surface or floor, and a plurality of people or objects. It may include images of space and images of people or objects that are blurred and out of focus. Here, obstacle is a general term for facilities or terrain features that can affect autonomous driving.
서버(100)는 학습 데이터를 이용하여 이미지 학습을 수행할 수 있다. 도 4에 도시된 바와 같이, 이미지 학습은 딥러닝 기반의 기 설정된 기계학습 모델이 적용될 수 있다. 기계학습 모델은, 예를 들어, CNN(Convolutional neural network)계열의 이미지 처리에 특화된 딥러닝 모델일 수 있으나, 이에 한정되는 것은 아니다.The
일 실시예에 따르면, 이미지 학습은 하나의 학습 이미지가 입력되면 환경변화의 유형 중 적어도 하나가 출력되도록 기계학습 모델을 통해 반복 수행될 수 있다. 여기서 유형은, 장애물, 날씨, 노면의 질감, 사람의 밀집도 및 도난과 충돌의 유형을 포함할 수 있다. 예를 들어, 서버(100)는 방지턱을 포함하면서 우천 상황이 묘사된 학습 이미지가 기계학습 모델에 입력되면 장애물 및 날씨의 유형이 출력되도록 이미지 학습을 반복할 수 있다.According to one embodiment, image learning may be repeatedly performed through a machine learning model so that when one learning image is input, at least one type of environmental change is output. Types here may include obstacles, weather, road texture, human density, and types of theft and collisions. For example, the
일 실시예에 따르면, 기계학습 모델에 의해 각 학습 이미지의 특징값이 추출되는데, 서버(100)는 특징값에 기초하여 하나의 학습 이미지가 입력되면 적어도 하나의 서브유형으로 더 분류되도록 이미지 학습을 심화할 수 있다. 즉, 장애물, 날씨, 노면의 질감, 사람의 밀집도 및 도난과 충돌이 메인유형이며, 각 메인유형은 적어도 하나 이상의 서브유형으로 더 분류될 수 있다. 예를 들어, 특정 학습 이미지가 기계학습 모델에 입력되어 "날씨"의 유형이 출력된 경우, 날씨를 나타내는 특징값에 기초하여 적어도 하나 이상의 기상상황을 나타내는 결과값이 더 출력될 수 있다. 여기서 기상상황은 기 설정된 것으로서, 눈, 비, 황사, 안개, 어둠 등을 예로 들 수 있으나, 이에 한정되는 것은 아니다. 또한, 출력된 기상상황에 기초하여 주행 가능한 날씨 및 주행 불가능한 날씨의 서브유형 중 하나가 더 출력될 수 있다. 즉, 서버(100)는 우천을 묘사한 학습 이미지가 기계학습 모델에 입력되면, "날씨", "비" 및 "주행 가능한 날씨(또는 주행 불가능한 날씨)"가 출력되도록 이미지 학습을 반복 수행할 수 있다.According to one embodiment, the feature values of each learning image are extracted by a machine learning model, and the
서버(100)는 이미지 학습의 결과로서 환경변화 분류기를 구축할 수 있다. 즉, 환경변화 분류기는 무작위한 특정 이미지가 입력되면 적어도 하나 이상의 환경변화의 유형으로 분류되도록 설계된 것이다. 또한, 전술한 실시예에 따르면, 환경변화 분류기는 무작위한 특정 이미지가 입력되면 적어도 하나 이상의 서브유형으로 더 분류되도록 설계될 수 있다.The
일 실시예에 따르면, 환경변화 분류기는, 일 축은 환경변화의 유형으로, 타 축은 서브유형으로 구성된 테이블 형태로 구축될 수 있다. 즉, 특정 이미지가 환경변화 분류기에 입력되면 적어도 하나 이상의 테이블값이 추출될 수 있으며, 예를 들어, "회전문"이 포함된 이미지가 입력되면 "장애물-처리 불가능한 장애물"이라는 테이블값이 추출될 수 있다.According to one embodiment, the environmental change classifier may be constructed in the form of a table where one axis is composed of environmental change types and the other axis is composed of subtypes. In other words, when a specific image is input into an environmental change classifier, at least one table value can be extracted. For example, when an image containing a “revolving door” is input, a table value of “obstacle-unprocessable obstacle” can be extracted. there is.
단계 S301에서, 서버(100)는 앞으로 자율 주행을 통해 서비스를 제공하려는 공간으로 맵핑 로봇(200)의 자율 주행을 제어한다. 서버(100)는 해당 공간의 각 영역을 전체적으로 경유하는 주행 경로를 생성하고 이를 맵핑 로봇(200)에 전송할 수 있다. 맵핑 로봇(200)은 주행 경로를 따라 주행하면서 해당 공간을 센싱한 센싱 데이터를 실시간으로 서버(100)에 전송하며, 서버(100)는 수신한 센싱 데이터를 기초로 해당 공간의 지도를 생성할 수 있다. 예를 들어, 서버(100)는 360 카메라 센서에 의해 촬영된 영상 데이터를 통해 공간의 지형과 노면 상태 및 고정 지물들을 파악할 수 있다. 서버(100)는 공간인식 센서에 의해 깊이가 검출된 3차원 공간 데이터 및 위치 센서에 따른 로봇의 실시간 위치 데이터에 따라 각 지형지물의 형상과 크기 및 위치를 파악할 수 있다. 서버(100)는 위치 센서에 설정된 좌표계를 공유하는 3차원 공간 상에 파악된 데이터들을 맵핑하여 지도를 생성하고 저장할 수 있으며, 지도의 예시(50)는 도 5에 도시되어 있다. 서버(100)는 생성된 지도를 맵핑 로봇(200) 및 각 서비스 로봇(300)으로 전송하여 공유시킬 수 있다.In step S301, the
지도가 생성된 이후, 단계 S302에서, 맵핑 로봇(200)은 주행 경로를 따라 주행하면서 주기적으로 지도의 공간을 센싱한다. 서버(100)는 맵핑 로봇(200)으로부터 해당 공간을 촬영한 영상 데이터를 포함하는 센싱 데이터를 실시간으로 수집한다.After the map is created, in step S302, the
단계 S303에서, 서버(100)는 센싱 데이터와 이전 주기에 수집된 센싱 데이터를 비교하여 해당 공간에서 발생한 환경변화를 인지하고 그 위치를 파악한다.In step S303, the
일 실시예에 따르면, 서버(100)는 동일한 위치 데이터 별로 영상 데이터와 이전 주기에 수집된 영상 데이터를 비교하고, 비교 결과 상이한 프레임이 발견되는 맵핑 로봇(200)의 위치 데이터를 파악할 수 있다. 서버(100)는 파악된 위치 데이터 및 이에 매칭된 3차원 공간 데이터에 기초하여 환경변화의 위치를 결정할 수 있다. 서버(100)는 결정된 위치에 대응하는 지도의 좌표 데이터를 추출할 수 있다.According to one embodiment, the
단계 S304에서, 서버(100)는 영상 데이터 중 환경변화의 위치가 촬영된 프레임을 환경변화 분류기에 입력하여 환경변화의 유형을 판단한다. 즉, 환경변화로 인지된 위치가 촬영된 프레임들이 시계열적으로 환경변화 분류기에 입력되며, 그에 따라 각 프레임들은 적어도 하나 이상의 유형으로 분류된다. 일 실시예에 따르면, 각 프레임들은 적어도 하나 이상의 서브유형으로 더 분류될 수 있으며, 이에 대응하여 "유형-서브유형"의 테이블값이 적어도 하나 이상 출력될 수 있다.In step S304, the
단계 S305에서, 서버(100)는 환경변화를 지도에 반영하여 지도를 업데이트하고, 업데이트된 지도를 맵핑 로봇(200) 및 각 서비스 로봇(300)으로 전송하여 공유시킬 수 있다. 예를 들어, 프레임이 장애물의 유형으로 분류되면, 서버(100)는 해당 위치 데이터의 3차원 공간 데이터에 기초하여 장애물의 형상 및 크기를 파악하고, 형상 및 크기에 매칭되어 저장되어 있는 소정의 오브젝트를 해당 위치 데이터에 대응하는 지도의 좌표에 추가로 표시한다. 프레임이 날씨의 유형으로 분류되면, 서버(100)는 지도의 배경을 변경하거나 현재 맵핑 로봇(200)이 위치한 좌표에 소정의 기상상황을 나타내는 이미지 객체를 추가로 표시한다. 프레임이 사람의 밀집도의 유형으로 분류되고 주행 불가능한 지역의 서브유형으로 더 분류된 경우, 서버(100)는 지도 내 해당하는 좌표에 기 설정된 주행 불가의 이미지 객체를 추가로 표시한다. 프레임이 도난과 충돌의 유형으로 분류된 경우, 서버(100)는 지도 내 해당하는 좌표에 기 설정된 경고의 이미지 객체를 추가로 표시한다. 프레임이 노면의 질감의 유형으로 분류된 경우, 서버(100)는 노면 상태를 파악하고 지도 내 해당하는 노면의 좌표에 해당 노면 상태를 나타내는 기 설정된 텍스쳐를 추가로 표시한다. 프레임이 노면의 질감의 유형으로 분류된 경우, 기존의 지도에서 해당 부분(61)이 변경된 업데이트 지도(60)의 예시가 도 6에 도시되어 있다.In step S305, the
단계 S306에서, 서버(100)는 환경변화의 유형 및 위치를 관리자 단말로 제공하여 관리자에게 알릴 수 있다. 관리자는 이를 즉시 확인하고 현장 체크를 수행할 수 있다. 또한, 맵핑 로봇(200)에 의하여 파악된 환경변화는 다수의 서비스 로봇(300)에 즉각적으로 공유되며, 이에 따라 각 서비스 로봇(300)은 환경변화에 대한 영향이 최소화되는 방향으로 주행을 실시하여 안전한 서비스를 이룩하게 된다. 즉, 서버(100)는 환경변화의 유형에 따라 해당 위치를 경유하거나 경유할 예정인 서비스 로봇(300)의 주행 동작을 제어할 수 있으며, 각 유형 별 제어 방법에 대한 구체적인 실시예는 도 7 내지 도 11을 활용하여 설명하도록 한다. In step S306, the
도 7은 본 발명의 일 실시예에 따르는 환경변화 분류기를 통해 장애물 유형으로 분류되는 프레임의 예시도이다.Figure 7 is an example of a frame classified into an obstacle type through an environmental change classifier according to an embodiment of the present invention.
단계 S303에서, 특정 위치 데이터에 대한 영상 데이터 중 이전 주기의 프레임 대비 임의의 객체가 더 포함된 프레임이 발견될 수 있다. 또는, 이전 주기에서 수집되지 않았던 위치 데이터의 영상 데이터가 발견될 수 있다. 도 7에 도시된 바와 같이, 프레임에 나타나 있는 객체들은 바운딩 박스(bounding boxes)로 처리되며, 동일한 위치 데이터에 대한 이전 주기의 프레임에 없던 바운딩 박스가 검출되거나 이전에 수집되지 않았던 위치의 영상 데이터가 검출되는 경우, 서버(100)는 해당 프레임 또는 해당 영상 데이터의 모든 프레임을 환경변화 분류기에 입력할 수 있다.In step S303, a frame containing more random objects than the frame of the previous cycle may be found among the image data for specific location data. Alternatively, image data of location data that was not collected in the previous cycle may be discovered. As shown in FIG. 7, objects appearing in a frame are processed as bounding boxes, and bounding boxes that were not in the frame of the previous cycle for the same location data are detected or image data at a location that was not previously collected is detected. If detected, the
단계 S304에서, 프레임이 환경변화 분류기에 입력되면 장애물 유형으로 분류되며, 검출된 바운딩 박스의 이미지가 특징값으로 추출된다. 도 7로 예를 들면, 도 7(a)에서는 공사 안내판, 도7(b)에서는 방지턱 및 오름턱, 도7(c)에서는 회전문이 특징값으로 추출된다. 이러한 특징값들에 기초하여, 해당 프레임은 처리 가능한 장애물 및 처리 불가능한 장애물 중 하나의 서브유형으로 더 분류될 수 있다.In step S304, when the frame is input to the environment change classifier, it is classified into an obstacle type, and the image of the detected bounding box is extracted as a feature value. For example, in FIG. 7, a construction information board is extracted as feature values in FIG. 7(a), bumps and risers are extracted in FIG. 7(b), and a revolving door is extracted as feature values in FIG. 7(c). Based on these feature values, the frame may be further classified into one subtype of handleable obstacles and non-handleable obstacles.
단계 S306에서, 도 7(a)의 경우와 같이, 프레임이 처리 가능한 장애물로 분류되는 경우, 서버(100)는 소정의 시간 동안 주행 중인 서비스 로봇(300)들이 환경변화의 위치를 지나가지 않도록 서비스 로봇(300)의 자율 주행을 제어할 수 있다. 여기서 소정의 시간이란, 관리자에 의해 장애물이 처리되는데 걸리는 시간일 수 있으며, 서버(100)에 미리 설정되어 저장된 것이다.In step S306, when the frame is classified as a handleable obstacle, as in the case of FIG. 7(a), the
반대로, 도 7(b) 및 도 7(c)의 경우와 같이, 프레임이 처리 불가능한 장애물로 분류되는 경우, 서버(100)는 환경변화의 위치를 회피하기 위한 회피 경로를 생성하고 주행 중인 서비스 로봇(300)으로 전송할 수 있다. 즉, 각 서비스 로봇(300)에 저장되어 있던 기존의 주행 경로는 회피 경로로 갱신되며, 이에 따라 서비스 로봇(300)은 회피 경로를 따라 주행하게 된다.Conversely, as in the case of FIGS. 7(b) and 7(c), if the frame is classified as an obstacle that cannot be processed, the
도 8은 본 발명의 일 실시예에 따르는 환경변화 분류기를 통해 날씨 유형으로 분류되는 프레임의 예시도이다.Figure 8 is an example of a frame classified by weather type through an environmental change classifier according to an embodiment of the present invention.
단계 S303에서, 도 8에 도시된 바와 같은, 특정 위치 데이터에 대하여 날씨의 변화가 있는 것으로 판단되는 프레임이 발견될 수 있다. 예를 들어, 동일한 위치 데이터에 대한 이전 주기의 프레임 대비하여 기 설정된 면적 이상의 픽셀값이 기 설정된 범위 이상 차이가 나는 프레임이 검출될 수 있다. 또는, 이전 주기에서 수집되지 않았던 위치 데이터의 영상 데이터가 발견될 수 있다. 이러한 경우, 서버(100)는 해당하는 프레임들을 환경변화 분류기에 입력할 수 있다.In step S303, a frame in which it is determined that there is a change in weather for specific location data, as shown in FIG. 8, may be found. For example, a frame in which pixel values of a preset area or more differ by more than a preset range may be detected compared to the frame of the previous cycle for the same location data. Alternatively, image data of location data that was not collected in the previous cycle may be discovered. In this case, the
단계 S304에서, 프레임이 환경변화 분류기에 입력되면 날씨 유형으로 분류되며, 날씨를 나타내는 부분이나 픽셀값이 상이한 부분이 특징값으로 추출되어 이를 기초로 기상상황이 파악될 수 있다. 기상상황은 환경변화 분류기 구축시 미리 설정된 분류값으로, 도 8로 예를 들면, 눈, 비, 안개, 황사, 어둠을 포함할 수 있으나, 이에 한정되는 것은 아니다. 또한, 파악된 기상상황에 따라, 해당 프레임은 주행 가능한 날씨 및 주행 불가능한 날씨 중 하나의 서브유형으로 더 분류될 수 있다.In step S304, when the frame is input to the environmental change classifier, it is classified into a weather type, and the part representing the weather or the part with a different pixel value is extracted as a feature value, and the weather situation can be identified based on this. Weather conditions are preset classification values when building an environmental change classifier, and may include, for example, snow, rain, fog, yellow dust, and darkness as shown in Figure 8, but are not limited thereto. Additionally, depending on the identified weather situation, the frame may be further classified into one subtype of drivable weather and non-drivable weather.
단계 S306에서, 프레임이 주행 가능한 날씨로 분류되는 경우, 서버(100)는 주행 중인 서비스 로봇(300)으로 저속 주행의 신호를 전송할 수 있다. 각 서비스 로봇(300), 저속 주행의 신호에 따라 미리 설정된 속도로 저감하여 주행하게 된다. 반대로, 프레임이 주행 불가능한 날씨로 분류되는 경우, 서버(100)는 주행 중인 서비스 로봇(300)으로 정지 신호를 전송할 수 있다. 각 서비스 로봇(300)은 신호를 받은 뒤 정지 동작을 수행하며, 맵핑 로봇(200)에 의해 주행 가능한 날씨로 파악되면, 서버(100)의 제어에 따라 주행을 다시 시작하게 된다.In step S306, if the frame is classified as driving weather, the
도 9는 본 발명의 일 실시예에 따르는 환경변화 분류기를 통해 노면의 질감 유형으로 분류되는 프레임의 예시도이다.Figure 9 is an example of a frame classified by road surface texture type through an environmental change classifier according to an embodiment of the present invention.
단계 S303에서, 도 9에 도시된 바와 같은, 특정 위치 데이터에 대하여 노면의 상태에 대한 변화가 있는 것으로 판단되는 프레임이 발견될 수 있다. 예를 들어, 동일한 위치 데이터에 대한 이전 주기의 프레임 대비하여 기 설정된 면적 이상의 픽셀값이 기 설정된 범위 이상 차이가 나는 프레임이 검출될 수 있다. 또는, 이전 주기에서 수집되지 않았던 위치 데이터의 영상 데이터가 발견될 수 있다. 이러한 경우, 서버(100)는 해당 프레임들을 환경변화 분류기에 입력할 수 있다.In step S303, a frame in which it is determined that there is a change in the state of the road surface can be found for specific location data, as shown in FIG. 9. For example, a frame in which pixel values of a preset area or more differ by more than a preset range may be detected compared to the frame of the previous cycle for the same location data. Alternatively, image data of location data that was not collected in the previous cycle may be discovered. In this case, the
단계 S304에서, 프레임이 환경변화 분류기에 입력되면 노면의 질감 유형으로 분류되며, 노면을 나타내는 부분이나 픽셀값이 상이한 부분이 특징값으로 추출되어 이를 기초로 노면 상태가 파악될 수 있다. 노면 상태는 환경변화 분류기 구축시 미리 설정된 분류값으로, 도 9로 예를 들면, 모래, 자갈, 잔디, 웅덩이, 빙판 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 또한, 파악된 노면 상태에 따라, 해당 프레임은 주행 가능한 노면 및 주행 불가능한 노면 중 하나의 서브유형으로 더 분류될 수 있다.In step S304, when the frame is input to the environmental change classifier, it is classified into the texture type of the road surface, and the part representing the road surface or the part with different pixel values is extracted as a feature value, and the road surface condition can be identified based on this. The road surface condition is a preset classification value when building an environmental change classifier, and as shown in FIG. 9, for example, it may include sand, gravel, grass, puddles, ice, etc., but is not limited thereto. Additionally, depending on the identified road surface condition, the frame may be further classified into one subtype of a drivable road surface and a non-drivable road surface.
단계 S306에서, 도 9(a)의 잔디와 같이, 프레임이 주행 가능한 노면으로 분류되는 경우, 서버(100)는 주행 중인 서비스 로봇(300)으로 저속 주행의 신호를 전송할 수 있다. 각 서비스 로봇(300), 저속 주행의 신호에 따라 미리 설정된 속도로 저감하여 주행하게 된다. 반대로, 도 9(b)와 같이 자갈이 심하게 포진되어 있어 주행 불가능한 노면으로 분류되는 경우, 서버(100)는 환경변화의 위치를 회피하기 위한 회피 경로를 생성하고 주행 중인 서비스 로봇(300)으로 전송할 수 있다. 즉, 각 서비스 로봇(300)에 저장되어 있던 기존의 주행 경로는 회피 경로로 갱신되며, 이에 따라 서비스 로봇(300)은 회피 경로를 따라 주행하게 된다.In step S306, when the frame is classified as a drivable road surface, such as the grass in FIG. 9(a), the
도 10은 본 발명의 일 실시예에 따르는 환경변화 분류기를 통해 사람의 밀집도 유형으로 분류되는 프레임의 예시도이다.Figure 10 is an example of a frame classified by human density type through an environmental change classifier according to an embodiment of the present invention.
단계 S303에서, 도 10에 도시된 바와 같은, 다수의 사람이 분포된 프레임이 발견될 수 있다. 예를 들어, 프레임에 나타나 있는 사람들은 바운딩 박스로 처리되며, 서버(100)는 바운딩 박스가 복수개인 프레임을 환경변화 분류기로 입력할 수 있다.In step S303, a frame in which a large number of people are distributed can be found, as shown in FIG. 10. For example, people appearing in a frame are processed as bounding boxes, and the
단계 S304에서, 프레임이 환경변화 분류기에 입력되면 사람의 밀집도 유형으로 분류되며, 바운딩 박스의 분포 상태가 특징값으로 추출될 수 있다. 예를 들어, 바운딩 박스의 분포 상태는 바운딩 박스의 개수, 인접한 바운딩 박스 사이의 거리 및 전체 프레임의 면적에서 바운딩 박스가 없는 면적의 비율 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 이러한 특징값에 기초하여, 해당 프레임은 주행 가능한 영역 및 주행 불가능한 영역 중 하나의 서브유형으로 더 분류될 수 있다. 예를 들어, 환경변화 분류기는, 바운딩 박스의 개수가 기 설정된 개수 이상이거나, 바운딩 박스 사이의 거리가 기 설정된 길이값 이하이거나, 바운딩 박스가 없는 면적의 비율이 기 설정된 임계치 이하인 경우, 주행 불가능한 영역으로 분류되도록 학습될 수 있다.In step S304, when the frame is input to the environmental change classifier, it is classified into the type of human density, and the distribution state of the bounding box can be extracted as a feature value. For example, the distribution state of the bounding boxes may include at least one of the number of bounding boxes, the distance between adjacent bounding boxes, and the ratio of the area without bounding boxes to the area of the entire frame, but is not limited to this. Based on these feature values, the frame may be further classified into one subtype of drivable area and non-drivable area. For example, the environmental change classifier detects an undriveable area when the number of bounding boxes is more than a preset number, the distance between bounding boxes is less than a preset length value, or the ratio of the area without bounding boxes is less than a preset threshold. It can be learned to be classified as.
단계 S306에서, 도 10(a)의 경우와 같이, 프레임이 주행 가능한 영역으로 분류되는 경우, 서버(100)는 주행 중인 서비스 로봇(300)으로 저속 주행의 신호를 전송할 수 있다. 각 서비스 로봇(300), 저속 주행의 신호에 따라 미리 설정된 속도로 저감하여 주행하게 된다. 반대로, 프레임이 주행 불가능한 영역으로 분류되는 경우, 서버(100)는 환경변화의 위치를 회피하기 위한 회피 경로를 생성하고 주행 중인 서비스 로봇(300)으로 전송할 수 있다. 또는, 서버(100)는 소정의 시간 동안 주행 중인 서비스 로봇(300)들이 환경변화의 위치를 지나가지 않도록 서비스 로봇(300)의 자율 주행을 제어할 수 있다. 여기서 소정의 시간이란, 맵핑 로봇(200)에 의해 사람의 밀집도가 완화된 것으로 파악될 때까지 걸리는 시간일 수 있다.In step S306, when the frame is classified as a drivable area, as in the case of FIG. 10(a), the
도 11은 본 발명의 일 실시예에 따르는 환경변화 분류기를 통해 도난과 충돌 유형으로 분류되는 프레임의 예시도이다.Figure 11 is an example of a frame classified into theft and collision types through an environmental change classifier according to an embodiment of the present invention.
예를 들어, 사람이 로봇이나 적재된 물건을 훔치기 위해 맵핑 로봇(200)에 힘을 가하거나, 맵핑 로봇(200)이 특정 객체와 충돌하는 경우, 맵핑 로봇(200)으로부터 초점이 흔들리는 부분을 포함하는 프레임이 전송될 수 있다.For example, when a person applies force to the
도 11을 참조하면, 단계 S304에서, 초점이 흔들린 부분(10)이 포함된 프레임이 환경변화 분류기에 입력되어 해상도가 저하된 특징값이 추출되는 경우, 해당 프레임은 도난과 충돌 유형으로 분류될 수 있다. 여기서 저하된 해상도의 범위는 환경변화 분류기에 미리 설정될 수 있다.Referring to FIG. 11, in step S304, when a frame containing an out-of-focus portion 10 is input to an environmental change classifier and feature values with reduced resolution are extracted, the frame can be classified into theft and collision types. there is. Here, the range of reduced resolution can be set in advance in the environmental change classifier.
단계 S306에서, 프레임이 도난과 충돌 유형으로 분류되는 경우, 서버(100)는 관리자 단말로 환경변화의 위치 및 기 설정된 위험 신호를 제공할 수 있다. 이에 따라, 관리자는 위험을 인식하고 즉각적인 조치를 수행하게 된다. 또는, 서버(100)는 소정의 시간 동안 주행 중인 서비스 로봇(300)이 환경변화의 위치를 회피하도록 각 서비스 로봇(300)의 자율 주행을 제어할 수 있다. 예를 들어, 관리자에 의해 도난 및 충돌 상황이 해제될 소정의 시간 동안 서비스 로봇(300)이 해당 위치를 회피하도록 제어할 수 있다.In step S306, if the frame is classified as theft or collision type, the
본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.Although the methods and systems of the present invention have been described with respect to specific embodiments, some or all of their components or operations may be implemented using a computer system having a general-purpose hardware architecture.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다.The description of the present invention described above is for illustrative purposes, and those skilled in the art will understand that the present invention can be easily modified into other specific forms without changing the technical idea or essential features of the present invention. will be.
그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. For example, each component described as unitary may be implemented in a distributed manner, and similarly, components described as distributed may also be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims described below rather than the detailed description above, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.
100: 서버
200: 맵핑 로봇
300: 서비스 로봇
50: 지도
60: 업데이트 지도100: server
200: Mapping robot
300: Service robot
50: map
60: Update map
Claims (18)
a) 특정 공간을 주기적으로 자율 주행하며 상기 공간을 센싱하는 맵핑 로봇으로부터 상기 공간을 촬영한 영상 데이터를 포함하는 센싱 데이터를 실시간으로 수집하는 단계;
b) 상기 센싱 데이터와 이전 주기에 수집된 센싱 데이터를 비교하여 상기 공간에 발생한 환경변화를 인지하고 상기 환경변화의 위치를 파악하는 단계;
c) 상기 영상 데이터 중 상기 환경변화의 위치가 촬영된 프레임을 기 설정된 이미지학습 모델에 의해 구축된 환경변화 분류기에 입력하여 상기 환경변화의 유형을 판단하고, 판단 결과를 기 저장된 상기 공간의 지도에 반영하여 상기 지도를 업데이트하는 단계; 및
d) 상기 판단 결과에 따라 상기 환경변화의 위치를 경유하여 기 설정된 서비스를 수행할 서비스 로봇의 자율 주행을 제어하는 단계;
를 포함하되,
상기 c)단계는,
상기 유형은 상기 환경변화 분류기에 입력된 데이터가 분류되는 기준으로 기 설정된 것으로서, 장애물, 날씨, 노면의 질감, 사람의 밀집도, 및 도난과 충돌의 유형을 포함하며,
상기 프레임이 상기 환경변화 분류기에 입력되면 적어도 하나 이상의 유형으로 분류되는 것이고,
상기 프레임이 상기 환경변화 분류기에 입력되어 상기 프레임에 포함된 사람이 바운딩 박스로 처리됨에 따라 사람의 밀집도 유형으로 분류되는 경우, 사람을 나타내는 상기 프레임의 특징값에 기초하여 주행 가능한 영역 및 주행 불가능한 영역 중 하나의 서브유형으로 더 분류되되,
상기 사람을 나타내는 상기 프레임의 특징값은, 바운딩 박스의 개수, 인접한 바운딩 박스 사이의 거리 및 전체 프레임의 면적에서 바운딩 박스가 없는 면적의 비율 중 적어도 하나를 포함하는 바운딩 박스의 분포 상태로 추출되는 것인, 자율 주행 로봇 제어 방법.In a method of controlling a self-driving robot through image learning-based map update performed by a server,
a) collecting sensing data including image data taken of the space in real time from a mapping robot that periodically autonomously drives through a specific space and senses the space;
b) comparing the sensing data with sensing data collected in a previous cycle to recognize environmental changes occurring in the space and determine the location of the environmental changes;
c) Among the image data, the frame in which the location of the environmental change is captured is input into an environmental change classifier built by a preset image learning model to determine the type of environmental change, and the judgment result is stored on a map of the space previously stored. updating the map based on the reflection; and
d) controlling autonomous driving of a service robot to perform a preset service via the location of the environmental change according to the determination result;
Including,
In step c),
The type is preset as a standard by which data input to the environmental change classifier is classified and includes obstacles, weather, road surface texture, human density, and types of theft and collision,
When the frame is input into the environmental change classifier, it is classified into at least one type,
When the frame is input to the environmental change classifier and the people included in the frame are processed as bounding boxes and classified into human density types, drivable areas and non-drivable areas are based on the characteristic values of the frame representing people. It is further classified into one subtype of:
The feature value of the frame representing the person is extracted as the distribution state of bounding boxes, including at least one of the number of bounding boxes, the distance between adjacent bounding boxes, and the ratio of the area without bounding boxes to the area of the entire frame. In,A self-driving robot control method.
상기 맵핑 로봇은 상기 맵핑 로봇의 위치 데이터를 실시간으로 검출하는 위치 센서, 상기 맵핑 로봇의 주변 지형지물에 대한 3차원 공간 데이터를 획득하는 공간인식 센서, 상기 맵핑 로봇의 주변에 대한 영상 데이터를 획득하는 360도 카메라 센서를 포함하되,
상기 3차원 공간 데이터 및 영상 데이터는 상기 위치 데이터 마다 매칭되어 저장되는 것인, 자율 주행 로봇 제어 방법.According to clause 1,
The mapping robot includes a position sensor that detects the location data of the mapping robot in real time, a spatial recognition sensor that acquires 3D spatial data about the surrounding terrain of the mapping robot, and a sensor that acquires image data about the surroundings of the mapping robot. Includes a 360-degree camera sensor,
The 3D spatial data and image data are matched and stored for each location data.
상기 서비스 로봇은 상기 공간인식 센서 및 상기 360도 카메라 센서를 포함하지 않도록 저가로 설계되는 것인, 자율 주행 로봇 제어 방법.According to clause 2,
The service robot is designed to be inexpensive and does not include the spatial recognition sensor and the 360-degree camera sensor.
상기 a)단계 전에, 상기 위치 데이터, 상기 3차원 공간 데이터 및 상기 영상 데이터를 기초로 상기 공간의 지도를 생성하여 저장하는 단계;를 더 포함하는, 자율 주행 로봇 제어 방법.According to clause 2,
Before step a), generating and storing a map of the space based on the location data, the three-dimensional space data, and the image data. A method for controlling a self-driving robot, further comprising:
상기 b)단계는,
동일한 위치 데이터 별로 상기 영상 데이터와 이전 주기에 수집된 영상 데이터를 비교하고, 비교 결과 상이한 프레임이 발견되는 위치 데이터를 파악하는 단계;
파악된 위치 데이터 및 상기 파악된 위치 데이터에 매칭된 3차원 공간 데이터에 기초하여 상기 환경변화의 위치를 결정하는 단계; 및
상기 환경변화의 위치에 대응하는 상기 지도의 좌표 데이터를 추출하는 단계;
를 포함하는, 자율 주행 로봇 제어 방법.According to clause 2,
In step b),
Comparing the image data with image data collected in a previous cycle for each same location data, and identifying location data in which different frames are found as a result of the comparison;
determining the location of the environmental change based on identified location data and three-dimensional spatial data matched to the identified location data; and
extracting coordinate data of the map corresponding to the location of the environmental change;
A self-driving robot control method including.
상기 a)단계 전에, 기 설정된 환경변화의 유형을 나타내는 객체가 포함된 학습 이미지를 수집하고, 하나의 학습 이미지가 입력되면 상기 환경변화의 유형 중 적어도 하나가 출력되도록 상기 이미지학습 모델을 통한 기계학습을 반복하여 상기 환경변화 분류기를 구축하는 단계;를 더 포함하는, 자율 주행 로봇 제어 방법.According to clause 1,
Before step a), learning images containing objects representing preset types of environmental changes are collected, and when one learning image is input, machine learning is performed using the image learning model so that at least one of the types of environmental changes is output. Constructing the environment change classifier by repeating; Further comprising, a self-driving robot control method.
상기 c)단계는, 상기 프레임이 상기 환경변화 분류기에 입력되어 장애물 유형으로 분류되는 경우, 장애물을 나타내는 상기 프레임의 특징값에 기초하여 처리 가능한 장애물 및 처리 불가능한 장애물 중 하나의 서브유형으로 더 분류되는 것인, 자율 주행 로봇 제어 방법.According to clause 1,
In step c), when the frame is input to the environment change classifier and classified into an obstacle type, it is further classified into one subtype of a treatable obstacle and an unprocessable obstacle based on the characteristic value of the frame representing the obstacle. A method for controlling a self-driving robot.
상기 d)단계는,
상기 프레임이 처리 가능한 장애물의 서브유형으로 분류되는 경우, 소정의 시간 동안 상기 서비스 로봇이 상기 환경변화의 위치를 지나가지 않도록 상기 서비스 로봇의 자율 주행을 제어하고,
상기 프레임이 처리 불가능한 장애물의 서브유형으로 분류되는 경우, 상기 환경변화의 위치에 대한 회피 경로를 생성하여 상기 서비스 로봇으로 전송하는 단계;를 포함하는, 자율 주행 로봇 제어 방법.According to clause 8,
In step d),
If the frame is classified as a subtype of a handleable obstacle, controlling autonomous driving of the service robot so that the service robot does not pass the location of the environmental change for a predetermined period of time,
If the frame is classified as a subtype of an obstacle that cannot be handled, generating an avoidance path for the location of the environmental change and transmitting it to the service robot.
상기 c)단계는, 상기 프레임이 상기 환경변화 분류기에 입력되어 날씨 유형으로 분류되는 경우, 날씨를 나타내는 상기 프레임의 특징값에 기초하여 상기 공간의 기상상황이 파악되고 상기 기상상황에 따라 주행 가능한 날씨 및 주행 불가능한 날씨 중 하나의 서브유형으로 더 분류되는 것인, 자율 주행 로봇 제어 방법.According to clause 1,
In step c), when the frame is input to the environmental change classifier and classified into a weather type, the weather situation in the space is identified based on the feature value of the frame representing the weather, and the weather condition that can be driven according to the weather situation is determined. and a method for controlling an autonomous robot, which is further classified into one subtype of non-driving weather.
상기 d)단계는,
상기 프레임이 주행 가능한 날씨의 서브유형으로 분류되는 경우, 상기 서비스 로봇으로 저속 주행의 신호를 전송하고,
상기 프레임이 주행 불가능한 날씨의 서브유형으로 분류되는 경우, 상기 서비스 로봇으로 정지 신호를 전송하는 단계;를 포함하는, 자율 주행 로봇 제어 방법.According to clause 10,
In step d),
If the frame is classified as a subtype of drivable weather, transmitting a signal of low-speed driving to the service robot,
If the frame is classified as a subtype of weather that is impossible to drive, transmitting a stop signal to the service robot. A method for controlling an autonomous robot, including.
상기 c)단계는, 상기 프레임이 상기 환경변화 분류기에 입력되어 노면의 질감 유형으로 분류되는 경우, 노면의 질감을 나타내는 상기 프레임의 특징값에 기초하여 노면 상태가 파악되고 상기 노면 상태에 따라 주행 가능한 노면 및 주행 불가능한 노면 중 하나의 서브유형으로 더 분류되는 것인, 자율 주행 로봇 제어 방법.According to clause 1,
In step c), when the frame is input to the environmental change classifier and classified into a road surface texture type, the road surface condition is identified based on the feature value of the frame representing the road surface texture, and the road surface condition is determined to allow driving according to the road surface condition. A method of controlling an autonomous robot, which is further classified into one subtype of road surface and non-divable road surface.
상기 d)단계는,
상기 프레임이 주행 가능한 노면의 서브유형으로 분류되는 경우, 상기 서비스 로봇으로 저속 주행의 신호를 전송하고,
상기 프레임이 주행 불가능한 노면의 서브유형으로 분류되는 경우, 상기 환경변화의 위치에 대한 회피 경로를 생성하여 상기 서비스 로봇으로 전송하는 단계;를 포함하는, 자율 주행 로봇 제어 방법.According to clause 12,
In step d),
If the frame is classified into a subtype of a drivable road surface, a signal of low-speed driving is transmitted to the service robot,
If the frame is classified as a subtype of an undriveable road surface, generating an avoidance route for the location of the environmental change and transmitting it to the service robot. A method for controlling an autonomous driving robot comprising a.
상기 d)단계는,
상기 프레임이 주행 가능한 지역의 서브유형으로 분류되는 경우, 상기 서비스 로봇으로 저속 주행의 신호를 전송하고,
상기 프레임이 주행 불가능한 지역의 서브유형으로 분류되는 경우, 상기 환경변화의 위치에 대한 회피 경로를 생성하여 상기 서비스 로봇으로 전송하거나 소정의 시간 동안 상기 서비스 로봇이 상기 환경변화의 위치를 지나가지 않도록 상기 서비스 로봇의 자율 주행을 제어하는 단계;를 포함하는, 자율 주행 로봇 제어 방법.According to clause 1,
In step d),
If the frame is classified into a subtype of a drivable area, a signal of low-speed driving is transmitted to the service robot,
If the frame is classified as a subtype of an untravelable area, an avoidance route for the location of the environmental change is created and transmitted to the service robot, or the service robot is prevented from passing the location of the environmental change for a predetermined period of time. A method for controlling an autonomous driving robot, comprising: controlling the autonomous driving of a service robot.
상기 c)단계는, 상기 프레임이 상기 환경변화 분류기에 입력되어 해상도가 저하된 특징값이 추출되는 경우 상기 프레임은 도난과 충돌 유형으로 분류되는 것인, 자율 주행 로봇 제어 방법.According to clause 1,
In step c), when the frame is input to the environment change classifier and feature values with reduced resolution are extracted, the frame is classified into theft and collision types.
상기 d)단계는, 상기 프레임이 도난과 충돌 유형으로 분류되는 경우, 관리자 단말로 상기 환경변화의 위치 및 위험 신호를 제공하고, 소정의 시간 동안 상기 서비스 로봇이 상기 환경변화의 위치를 회피하도록 상기 서비스 로봇의 자율 주행을 제어하는 단계;를 포함하는, 자율 주행 로봇 제어 방법.According to clause 16,
In step d), if the frame is classified as a theft or collision type, the location of the environmental change and a danger signal are provided to the administrator terminal, and the service robot avoids the location of the environmental change for a predetermined period of time. A method for controlling an autonomous driving robot, comprising: controlling the autonomous driving of a service robot.
이미지학습 기반 지도 업데이트를 통한 자율 주행 로봇 제어 방법을 수행하는 프로그램이 저장된 메모리; 및
상기 프로그램을 실행하는 프로세서;를 포함하고,
상기 방법은,
a) 특정 공간을 주기적으로 자율 주행하며 상기 공간을 센싱하는 맵핑 로봇으로부터 상기 공간을 촬영한 영상 데이터를 포함하는 센싱 데이터를 실시간으로 수집하는 단계;
b) 상기 센싱 데이터와 이전 주기에 수집된 센싱 데이터를 비교하여 상기 공간에 발생한 환경변화를 인지하고 상기 환경변화의 위치를 파악하는 단계;
c) 상기 영상 데이터 중 상기 환경변화의 위치가 촬영된 프레임을 기 설정된 이미지학습 모델에 의해 구축된 환경변화 분류기에 입력하여 상기 환경변화의 유형을 판단하고, 판단 결과를 기 저장된 상기 공간의 지도에 반영하여 상기 지도를 업데이트하는 단계; 및
d) 상기 판단 결과에 따라 상기 환경변화의 위치를 경유하여 기 설정된 서비스를 수행할 서비스 로봇의 자율 주행을 제어하는 단계;
를 포함하되,
상기 c)단계는,
상기 유형은 상기 환경변화 분류기에 입력된 데이터가 분류되는 기준으로 기 설정된 것으로서, 장애물, 날씨, 노면의 질감, 사람의 밀집도, 및 도난과 충돌의 유형을 포함하며,
상기 프레임이 상기 환경변화 분류기에 입력되면 적어도 하나 이상의 유형으로 분류되는 것이고,
상기 프레임이 상기 환경변화 분류기에 입력되어 상기 프레임에 포함된 사람이 바운딩 박스로 처리됨에 따라 사람의 밀집도 유형으로 분류되는 경우, 사람을 나타내는 상기 프레임의 특징값에 기초하여 주행 가능한 영역 및 주행 불가능한 영역 중 하나의 서브유형으로 더 분류되되,
상기 사람을 나타내는 상기 프레임의 특징값은, 바운딩 박스의 개수, 인접한 바운딩 박스 사이의 거리 및 전체 프레임의 면적에서 바운딩 박스가 없는 면적의 비율 중 적어도 하나를 포함하는 바운딩 박스의 분포 상태로 추출되는 것인, 자율 주행 로봇 제어 서버.In the autonomous robot control server,
Memory storing a program that performs a self-driving robot control method through image learning-based map update; and
Includes a processor that executes the program,
The above method is,
a) collecting sensing data including image data taken of the space in real time from a mapping robot that periodically autonomously drives through a specific space and senses the space;
b) comparing the sensing data with sensing data collected in a previous cycle to recognize environmental changes occurring in the space and determine the location of the environmental changes;
c) Among the image data, the frame in which the location of the environmental change is captured is input into an environmental change classifier built by a preset image learning model to determine the type of environmental change, and the judgment result is stored in the previously stored map of the space. updating the map based on the reflection; and
d) controlling autonomous driving of a service robot to perform a preset service via the location of the environmental change according to the determination result;
Including,
In step c),
The type is preset as a standard by which data input to the environmental change classifier is classified and includes obstacles, weather, road surface texture, human density, and types of theft and collision,
When the frame is input into the environmental change classifier, it is classified into at least one type,
When the frame is input to the environmental change classifier and the people included in the frame are processed as bounding boxes and classified into human density types, drivable areas and non-drivable areas are based on the characteristic values of the frame representing people. It is further classified into one subtype of:
The feature value of the frame representing the person is extracted as the distribution state of bounding boxes, including at least one of the number of bounding boxes, the distance between adjacent bounding boxes, and the ratio of the area without bounding boxes to the area of the entire frame. In,autonomous robot control server.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220142729A KR102650464B1 (en) | 2022-10-31 | 2022-10-31 | Method for updating map based on image deep learning using autonomous mobile robot and system for monitoring driving using the method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220142729A KR102650464B1 (en) | 2022-10-31 | 2022-10-31 | Method for updating map based on image deep learning using autonomous mobile robot and system for monitoring driving using the method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102650464B1 true KR102650464B1 (en) | 2024-03-25 |
Family
ID=90473664
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220142729A KR102650464B1 (en) | 2022-10-31 | 2022-10-31 | Method for updating map based on image deep learning using autonomous mobile robot and system for monitoring driving using the method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102650464B1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019008431A (en) * | 2017-06-22 | 2019-01-17 | 株式会社日立製作所 | Route searching apparatus and route searching method |
KR20200013155A (en) * | 2018-07-19 | 2020-02-06 | 네이버랩스 주식회사 | Method and system for detecting change point of interest |
KR20210102540A (en) * | 2020-02-11 | 2021-08-20 | 현대자동차주식회사 | Method for alerting danger situations of moving object and apparatus for the same |
KR20220025887A (en) * | 2020-05-22 | 2022-03-03 | 메치-민드 로보틱스 테크놀로지스 엘티디. | Robot motion planning method, path planning method, gripping method and device therefor |
JP2022037421A (en) * | 2020-08-25 | 2022-03-09 | 株式会社Subaru | Vehicle travel control device |
-
2022
- 2022-10-31 KR KR1020220142729A patent/KR102650464B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019008431A (en) * | 2017-06-22 | 2019-01-17 | 株式会社日立製作所 | Route searching apparatus and route searching method |
KR20200013155A (en) * | 2018-07-19 | 2020-02-06 | 네이버랩스 주식회사 | Method and system for detecting change point of interest |
KR20210102540A (en) * | 2020-02-11 | 2021-08-20 | 현대자동차주식회사 | Method for alerting danger situations of moving object and apparatus for the same |
KR20220025887A (en) * | 2020-05-22 | 2022-03-03 | 메치-민드 로보틱스 테크놀로지스 엘티디. | Robot motion planning method, path planning method, gripping method and device therefor |
JP2022037421A (en) * | 2020-08-25 | 2022-03-09 | 株式会社Subaru | Vehicle travel control device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Asadi et al. | Vision-based integrated mobile robotic system for real-time applications in construction | |
US11216971B2 (en) | Three-dimensional bounding box from two-dimensional image and point cloud data | |
CN110974088B (en) | Sweeping robot control method, sweeping robot and storage medium | |
US10794710B1 (en) | High-precision multi-layer visual and semantic map by autonomous units | |
US10807230B2 (en) | Bistatic object detection apparatus and methods | |
KR102298582B1 (en) | Artificial intelligence robot for determining cleaning route using sensor data and method for the same | |
US11688081B2 (en) | Method of performing simultaneous localization and mapping with respect to a salient object in an image | |
US11673269B2 (en) | Method of identifying dynamic obstacle and robot implementing same | |
CN114474061B (en) | Cloud service-based multi-sensor fusion positioning navigation system and method for robot | |
JP2019529209A (en) | System, method and non-transitory computer readable storage medium for parking a vehicle | |
US20210138654A1 (en) | Robot and method for controlling the same | |
KR20190106891A (en) | Artificial intelligence monitoring device and operating method thereof | |
KR102629036B1 (en) | Robot and the controlling method thereof | |
CN112740268A (en) | Target detection method and device | |
US20220373354A1 (en) | Automatic generation of vector map for vehicle navigation | |
US20230161356A1 (en) | Method of updating map in fusion slam and robot implementing same | |
Abbyasov et al. | Comparative analysis of ROS-based centralized methods for conducting collaborative monocular visual SLAM using a pair of UAVs | |
KR20210042537A (en) | Method of estimating position in local area in large sapce and robot and cloud server implementing thereof | |
KR102650464B1 (en) | Method for updating map based on image deep learning using autonomous mobile robot and system for monitoring driving using the method | |
CN116700228A (en) | Robot path planning method, electronic device and readable storage medium | |
Show et al. | 3D Mapping and Indoor Navigation for an Indoor Environment of the University Campus | |
KR102647135B1 (en) | Real-time crack detection system for construction site using artificial intelligence-based object detection algorithm and operation method therefor | |
EP4024155B1 (en) | Method, system and computer program product of control of unmanned aerial vehicles | |
CN118348901B (en) | Unmanned rake pushing machine central control system based on switching type remote unmanned aerial vehicle co-driving | |
KR102333612B1 (en) | Server and method for generating map based on object data and robot moving based on object map |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |