KR102324989B1 - Mobile body, management server, and operating method thereof - Google Patents

Mobile body, management server, and operating method thereof Download PDF

Info

Publication number
KR102324989B1
KR102324989B1 KR1020190077875A KR20190077875A KR102324989B1 KR 102324989 B1 KR102324989 B1 KR 102324989B1 KR 1020190077875 A KR1020190077875 A KR 1020190077875A KR 20190077875 A KR20190077875 A KR 20190077875A KR 102324989 B1 KR102324989 B1 KR 102324989B1
Authority
KR
South Korea
Prior art keywords
driving
information
fingerprints
coordinates
management server
Prior art date
Application number
KR1020190077875A
Other languages
Korean (ko)
Other versions
KR20210001578A (en
Inventor
현승헌
유성호
Original Assignee
주식회사 엘지유플러스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘지유플러스 filed Critical 주식회사 엘지유플러스
Priority to KR1020190077875A priority Critical patent/KR102324989B1/en
Publication of KR20210001578A publication Critical patent/KR20210001578A/en
Application granted granted Critical
Publication of KR102324989B1 publication Critical patent/KR102324989B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0285Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using signals transmitted via a public communication network, e.g. GSM network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

일 실시예에 따르면, 관리 서버는 미리 정해진 주행 공간을 이동하는 제1 이동체로부터, SLAM 지도를 생성하기 위하여 주변 환경이 감지되는 복수의 지점들에서 주변 환경의 감지와 함께 측정된 제1 핑거프린트들을 수집하고, 주행 공간 내 복수의 지점들에 대응하는 SLAM 지도 상의 복수의 제1 좌표들과 제1 핑거프린트들을 매칭하고, 매칭된 제1 좌표들 및 제1 핑거프린트들에 기초하여 핑거프린트에 대응하는 SLAM 지도 상의 좌표를 추정하는 신경망을 학습하고, SLAM 지도 상에 설정된 경로 정보에 기초하여 주행 공간을 이동하는 제2 이동체로부터 제2 핑거프린트를 수신하고, 신경망을 이용하여 제2 핑거프린트에 대응하는 SLAM 지도 상의 제2 좌표를 추정하며, 경로 정보 및 추정된 제2 좌표에 기초하여 제2 이동체의 주행 정보를 결정하여 전송할 수 있다.According to an embodiment, the management server collects first fingerprints measured along with the detection of the surrounding environment at a plurality of points where the surrounding environment is sensed in order to generate a SLAM map from a first moving body moving in a predetermined driving space. collect, match the first fingerprints with a plurality of first coordinates on the SLAM map corresponding to the plurality of points in the driving space, and correspond to the fingerprint based on the matched first coordinates and the first fingerprints learning a neural network estimating coordinates on a SLAM map, receiving a second fingerprint from a second moving object moving in a driving space based on path information set on the SLAM map, and using a neural network to respond to the second fingerprint The second coordinates on the SLAM map may be estimated, and the driving information of the second moving object may be determined and transmitted based on the route information and the estimated second coordinates.

Description

이동체, 관리 서버 및 그 동작 방법{MOBILE BODY, MANAGEMENT SERVER, AND OPERATING METHOD THEREOF}A mobile body, a management server, and an operation method thereof

실시예들은 이동체, 관리 서버 및 그 동작 방법에 관한 것이다.Embodiments relate to a mobile body, a management server, and an operating method thereof.

공장의 생산 라인이나 창고 등에서의 인력 절약 및/또는 반송의 정확성을 향상시키기 위해, 목표 경로를 따라 자동적으로 주행하는 무인 운반 차량, 무인 반송 로봇 등과 같은 다양한 이동체가 도입되고 있다. 이동체는 예를 들어, 이동체의 주행 경로 상에 자성 도료, 유도용 전선, 유도용 테이프, 큐알 코드(QR code) 등을 시공하고, 이동체가 자성 도료, 테이프 또는 큐알 코드 등을 감지함으로써 목표 경로를 따라 주행하도록 유도될 수 있다. In order to save manpower and/or improve conveyance accuracy in a production line of a factory or a warehouse, various moving objects such as an unmanned transport vehicle and an unmanned transport robot that automatically travel along a target path have been introduced. The moving object constructs, for example, magnetic paint, induction wire, induction tape, QR code, etc. on the traveling path of the moving object, and detects the magnetic paint, tape, or QR code, etc. to determine the target path. may be induced to follow.

이와 같이 이동체의 주행을 유도하는 방식은 목표 경로 상에 감지 가능한 자성 도료, 유도용 전선, 유도용 테이프, 큐알 코드(QR code) 등을 시공하는 과정이 반드시 선행 되어야 한다. 뿐만 아니라, 공장 내 환경에 따라 이동체의 유도를 위한 공간 확보가 어렵거나, 또는 경로 확보를 위한 추가적인 비용이 소요될 수 있다. 이 밖에도, 경로 변경, 유도용 도료, 전선, 테이프 등의 훼손에 따른 부가 작업이 요구된다. In such a way to induce the movement of a moving object, the process of constructing a detectable magnetic paint, an induction wire, an induction tape, and a QR code on the target path must be preceded. In addition, depending on the environment in the factory, it may be difficult to secure a space for guiding the moving object, or additional cost for securing a path may be required. In addition, additional work is required due to damage to the route change, induction paint, wire, tape, etc.

일 실시예에 따르면, 관리 서버가 5G 네트워크 기반의 핑거프린트를 SLAM 지도와 연동하여 이동체의 주행 정보를 보다 빠르고 정확하게 결정하고, 5G 네트워크를 통해 주행 정보를 고속으로 이동체에게 전달할 수 있다. According to an embodiment, the management server can determine the driving information of the moving object more quickly and accurately by linking the 5G network-based fingerprint with the SLAM map, and deliver the driving information to the moving object at high speed through the 5G network.

일 실시예에 따르면, 관리 서버가 핑거프린트에 대응하는 SLAM 지도 상의 좌표를 추정하는 신경망을 이용하여 이동체를 위한 경로 정보 및 좌표를 추정함으로써 이동체의 경로 유도를 위한 유도용 도료, 전선, 테이프, 큐알 코드(QR code) 등이 없이도 이동체의 주행 정보를 보다 정확하게 결정할 수 있다. According to an embodiment, the management server estimates the path information and coordinates for the moving object using a neural network that estimates the coordinates on the SLAM map corresponding to the fingerprint, thereby inducing paint, wire, tape, QR for inducing the path of the moving object. It is possible to more accurately determine the driving information of the moving object without a QR code or the like.

일 실시예에 따르면, 이동체에 구비된 5G 네트워크 모듈 및 IoT 센서 수신 장치를 통해 수신된 정보에 대응하여 관리 서버가 실시간으로 SLAM 지도 상의 좌표를 추정하여 주행 경로를 결정함으로써 주변 환경 변화에 따른 주행 정보의 변화에도 신속하게 대응할 수 있다. According to one embodiment, in response to information received through the 5G network module and IoT sensor receiving device provided in the mobile body, the management server determines the driving route by estimating the coordinates on the SLAM map in real time, so that driving information according to changes in the surrounding environment Able to respond quickly to changes in

일 실시예에 따르면, 5G 네트워크 모듈 및 IoT 센서 수신 장치만을 추가함으로써 기존 이동체의 교체없이도 관리 서버로부터 보다 정확한 경로 정보를 제공받을 수 있다. According to an embodiment, by adding only the 5G network module and the IoT sensor receiving device, it is possible to receive more accurate route information from the management server without replacing the existing moving object.

일 실시예에 따르면, 5G 네트워크 기반의 고속, 고화질, 실시간 영상 분석을 통해 갑작스러운 방해물의 등장에 의한 이동체의 추돌 및 안전 사고를 방지할 수 있다.According to an embodiment, it is possible to prevent a collision of a moving object and a safety accident due to the sudden appearance of an obstacle through 5G network-based high-speed, high-definition, and real-time image analysis.

일 실시예에 따르면, 관리 서버의 동작 방법은 미리 정해진 주행 공간을 이동하는 제1 이동체로부터, SLAM 지도를 생성하기 위하여 주변 환경이 감지되는 복수의 지점들에서 상기 주변 환경의 감지와 함께 측정된 제1 핑거프린트들(fingerprints)을 수집하는 단계; 상기 주행 공간 내 상기 복수의 지점들에 대응하는 상기 SLAM 지도 상의 복수의 제1 좌표들과 상기 제1 핑거프린트들을 매칭하는 단계; 상기 매칭된 제1 좌표들 및 제1 핑거프린트들에 기초하여, 핑거프린트에 대응하는 상기 SLAM 지도 상의 좌표를 추정하는 신경망을 학습하는 단계; 상기 SLAM 지도 상에 설정된 경로 정보에 기초하여 상기 주행 공간을 이동하는 제2 이동체로부터 제2 핑거프린트를 수신하는 단계; 상기 신경망을 이용하여, 상기 제2 핑거프린트에 대응하는 상기 SLAM 지도 상의 제2 좌표를 추정하는 단계; 상기 경로 정보 및 상기 추정된 제2 좌표에 기초하여, 상기 제2 이동체의 주행 정보를 결정하는 단계; 및 상기 주행 정보를 전송하는 단계를 포함한다. According to an embodiment of the present disclosure, the method of operating the management server includes the first mobile device that moves in a predetermined driving space, the first measured along with the detection of the surrounding environment at a plurality of points where the surrounding environment is sensed in order to generate a SLAM map. 1 Collecting fingerprints; matching the first fingerprints with a plurality of first coordinates on the SLAM map corresponding to the plurality of points in the driving space; learning a neural network for estimating coordinates on the SLAM map corresponding to a fingerprint based on the matched first coordinates and first fingerprints; receiving a second fingerprint from a second mobile body moving in the driving space based on route information set on the SLAM map; estimating second coordinates on the SLAM map corresponding to the second fingerprint by using the neural network; determining driving information of the second moving object based on the path information and the estimated second coordinates; and transmitting the driving information.

상기 제1 핑거프린트들을 수집하는 단계는 5G 네트워크 내의 적어도 하나의 기지국에서 송출되는 신호의 전파 특성에 기초하여 상기 제1 핑거프린트들을 수집하는 단계를 포함할 수 있다. Collecting the first fingerprints may include collecting the first fingerprints based on propagation characteristics of a signal transmitted from at least one base station in a 5G network.

상기 관리 서버의 동작 방법은 상기 신경망의 학습 결과에 기초하여, 상기 복수의 지점들에서 감지되는 장애물을 고려하여 상기 LAM 지도 상에 경로 정보를 설정하는 단계를 더 포함할 수 있다. The method of operating the management server may further include setting path information on the LAM map in consideration of obstacles detected at the plurality of points based on the learning result of the neural network.

상기 경로 정보를 결정하는 단계는 상기 제1 핑거프린트들을 기초로, 상기 주행 공간 내 음영 지역에 대한 정보를 획득하는 단계; 및 상기 신경망에 기초하여 상기 음영 지역에 대응하는 경로 정보로 결정하는 단계를 포함할 수 있다. The determining of the route information may include: acquiring information on a shadow area in the driving space based on the first fingerprints; and determining the path information corresponding to the shaded area based on the neural network.

상기 제1 핑거프린트들을 수집하는 단계는 상기 제1 이동체가 상기 복수의 지점들에서 주변 환경을 감지한 결과를 기초로, SLAM(Simultaneous Localization And Mapping) 기법에 의해 상기 제1 이동체의 위치에 대응하는 상기 SLAM 지도를 생성하는 단계를 더 포함할 수 있다. In the collecting of the first fingerprints, the first mobile body detects the surrounding environment at the plurality of points, based on a result of detecting the surrounding environment at the plurality of points. The method may further include generating the SLAM map.

상기 복수의 지점들은 상기 주행 공간에 설치된 적어도 하나의 IoT 센서 및 적어도 하나의 액세스 포인트 중 적어도 하나를 포함할 수 있다. The plurality of points may include at least one of at least one IoT sensor and at least one access point installed in the driving space.

상기 관리 서버의 동작 방법은 상기 제2 이동체에 탑재된 적어도 하나의 촬영 장치를 통해 촬영된 주행 환경 영상을 실시간으로 수신하는 단계; 상기 주행 환경 영상을 분석하는 단계; 상기 분석 결과에 기초하여 상기 주행 공간 내의 객체 출현 여부를 알리는 알람을 생성하는 단계; 및 상기 알람을 상기 제2 이동체에게 전송하는 단계를 더 포함할 수 있다. The method of operating the management server may include: receiving in real time a driving environment image captured by at least one photographing device mounted on the second moving object; analyzing the driving environment image; generating an alarm notifying whether an object appears in the driving space based on the analysis result; and transmitting the alarm to the second moving object.

상기 주행 환경 영상을 분석하는 단계는 미리 학습된 심층 신경망에 의해 상기 주행 환경 영상을 분석하는 단계를 포함할 수 있다. The analyzing of the driving environment image may include analyzing the driving environment image using a pre-trained deep neural network.

상기 알람을 생성하는 단계는 상기 분석 결과에 기초하여 상기 주행 공간 내의 객체 출현 여부를 인식하는 단계; 및 상기 인식에 따라 알람을 생성하는 단계를 포함할 수 있다. The generating of the alarm may include: recognizing whether an object appears in the driving space based on the analysis result; and generating an alarm according to the recognition.

상기 제2 이동체는 5G 네트워크 모듈을 포함하고, 상기 5G 네트워크 모듈을 통해 상기 제2 이동체가 상기 복수의 지점들에서 감지한 주변 환경에 대한 정보를 수신하는 단계; 및 상기 주변 환경에 대한 정보를 기초로, 상기 제2 이동체의 주행을 모니터링하는 단계를 더 포함할 수 있다. the second mobile body includes a 5G network module, and the second mobile body receives information on the surrounding environment sensed at the plurality of points through the 5G network module; and monitoring the driving of the second moving object based on the information on the surrounding environment.

상기 관리 서버의 동작 방법은 상기 모니터링 결과에 따라 상기 주행 정보를 수정하는 단계; 및 상기 수정된 주행 정보를 상기 5G 네트워크 모듈을 통해 상기 제2 이동체에게 전송하는 단계를 더 포함할 수 있다. The method of operating the management server may include: correcting the driving information according to the monitoring result; and transmitting the modified driving information to the second mobile unit through the 5G network module.

일 실시예에 따르면, 이동체의 동작 방법은 미리 정해진 주행 공간을 이동함에 따라 수집되는 핑거프린트들을 전송하는 단계; 미리 학습된 신경망에서 상기 핑거프린트들에 대응하여 추정된 SLAM 지도 상의 좌표 및 경로 정보를 기초로 결정된 주행 정보를 수신하는 단계; 상기 주행 정보에 기초하여 구동 파라미터를 결정하는 단계; 및 상기 구동 파라미터에 따라 구동을 수행하는 단계를 포함할 수 있다. According to an embodiment, a method of operating a moving object includes transmitting fingerprints collected as it moves in a predetermined driving space; receiving driving information determined based on coordinates and route information on a SLAM map estimated in response to the fingerprints from a pre-trained neural network; determining a driving parameter based on the driving information; and performing driving according to the driving parameters.

상기 주행 정보를 수신하는 단계는 관리 서버 및 관제 인터페이스 중 어느 하나로부터, 상기 주행 정보를 수신하는 단계를 포함할 수 있다. Receiving the driving information may include receiving the driving information from any one of a management server and a control interface.

상기 이동체는 5G 네트워크 모듈을 포함하고, 상기 핑거프린트들을 전송하는 단계는 미리 정해진 주행 공간을 이동함에 따라 수집되는 핑거프린트들 을 상기 5G 네트워크 모듈을 통해 전송하는 단계를 포함할 수 있다. The mobile body may include a 5G network module, and the step of transmitting the fingerprints may include transmitting the fingerprints collected as the mobile device moves through a predetermined driving space through the 5G network module.

상기 이동체의 동작 방법은 상기 이동체의 구동에 따라 변화되는 주변 환경에 대한 정보를 전송하는 단계; 상기 변화되는 주변 환경에 대한 정보에 기초한 모니터링 결과에 따라 수정된 주행 정보를 수신하는 단계; 및 상기 수정된 주행 정보에 따라 상기 구동 파라미터를 변경하는 단계; 및 상기 변경된 구동 파라미터에 따라 상기 이동체를 구동하는 단계를 더 포함할 수 있다. The method of operating the moving object may include transmitting information on a surrounding environment that is changed according to the driving of the moving object; receiving driving information corrected according to a monitoring result based on the changed surrounding environment information; and changing the driving parameter according to the modified driving information. and driving the movable body according to the changed driving parameter.

상기 이동체의 동작 방법은 상기 이동체에 탑재된 적어도 하나의 촬영 장치를 통해 주변 환경 영상을 촬영하는 단계; 상기 주변 환경 영상을 전송하는 단계; 및 상기 주변 환경 영상을 분석한 결과에 기초하여 인식된 상기 주행 공간 내의 객체 출현 여부에 따라 생성된 알람을 수신하는 단계를 더 포함할 수 있다. The method of operating the moving object may include: capturing an image of a surrounding environment through at least one photographing device mounted on the moving object; transmitting the surrounding environment image; and receiving an alarm generated according to whether an object appears in the driving space recognized based on a result of analyzing the surrounding environment image.

일 실시예에 따르면, 관리 서버는 미리 정해진 주행 공간을 이동하는 제1 이동체로부터, SLAM 지도를 생성하기 위하여 주변 환경이 감지되는 복수의 지점들에서 상기 주변 환경의 감지와 함께 측정된 제1 핑거프린트(fingerprint)들을 수집하고, 상기 주행 공간 내 상기 복수의 지점들에 대응하는 상기 SLAM 지도 상의 복수의 제1 좌표들과 상기 제1 핑거프린트들을 매칭하며, 상기 매칭된 제1 좌표들 및 제1 핑거프린트들에 기초하여, 핑거프린트에 대응하는 상기 SLAM 지도 상의 좌표를 추정하는 신경망을 학습하는 프로세서; 및 상기 SLAM 지도 상에 설정된 경로 정보에 기초하여 상기 주행 공간을 이동하는 제2 이동체로부터 제2 핑거프린트를 수신하는 통신 인터페이스를 포함하고, 상기 프로세서는 상기 신경망을 이용하여, 상기 제2 핑거프린트에 대응하는 상기 SLAM 지도 상의 제2 좌표를 추정하고, 상기 경로 정보 및 상기 추정된 제2 좌표를 기초로, 상기 제2 이동체의 주행 정보를 결정한다. According to an embodiment, the management server generates a SLAM map from a first mobile body moving in a predetermined driving space at a plurality of points where the surrounding environment is sensed and a first fingerprint measured along with the sensing of the surrounding environment. collecting (fingerprints), matching the first fingerprints with a plurality of first coordinates on the SLAM map corresponding to the plurality of points in the travel space, the matched first coordinates and the first finger a processor for training a neural network estimating coordinates on the SLAM map corresponding to a fingerprint based on the prints; and a communication interface for receiving a second fingerprint from a second mobile body moving in the driving space based on the route information set on the SLAM map, wherein the processor uses the neural network to access the second fingerprint. The corresponding second coordinates on the SLAM map are estimated, and the driving information of the second mobile body is determined based on the route information and the estimated second coordinates.

일 실시예에 따르면, 이동체는 미리 정해진 주행 공간을 이동함에 따라 수집되는 핑거프린트들을 전송하고, 미리 학습된 신경망에서 상기 핑거프린트들에 대응하여 추정된 SLAM 지도 상의 좌표 및 경로 정보를 기초로 결정된 주행 정보를 수신하는 통신 인터페이스; 및 상기 주행 정보에 기초하여 구동 파라미터를 결정하고, 상기 구동 파라미터에 따라 구동을 수행하는 프로세서를 포함한다.According to an embodiment, the moving object transmits fingerprints collected as it moves in a predetermined driving space, and a driving determined based on coordinates and path information on a SLAM map estimated in response to the fingerprints in a pre-trained neural network a communication interface for receiving information; and a processor that determines a driving parameter based on the driving information and performs driving according to the driving parameter.

일 측에 따르면, 관리 서버가 5G 네트워크 기반의 핑거프린트를 SLAM 지도와 연동하여 이동체의 주행 정보를 보다 빠르고 정확하게 결정하고, 5G 네트워크를 통해 주행 정보를 고속으로 이동체에게 전달할 수 있다. According to one side, the management server can determine the driving information of the moving object more quickly and accurately by linking the 5G network-based fingerprint with the SLAM map, and deliver the driving information to the moving object at high speed through the 5G network.

일 측에 따르면, 관리 서버가 핑거프린트에 대응하는 SLAM 지도 상의 좌표를 추정하는 신경망을 이용하여 이동체를 위한 경로 정보 및 좌표를 추정함으로써 이동체의 경로 유도를 위한 유도용 도료, 전선, 테이프, 큐알 코드(QR code) 등이 없이도 이동체의 주행 정보를 보다 정확하게 결정할 수 있다. According to one side, the management server estimates the path information and coordinates for the moving object using a neural network that estimates the coordinates on the SLAM map corresponding to the fingerprint. It is possible to more accurately determine the driving information of the moving object without a QR code or the like.

일 측에 따르면, 이동체에 구비된 5G 네트워크 모듈 및 IoT 센서 수신 장치를 통해 수신된 정보에 대응하여 관리 서버가 실시간으로 SLAM 지도 상의 좌표를 추정하여 주행 경로를 결정함으로써 주변 환경 변화에 따른 주행 정보의 변화에도 신속하게 대응할 수 있다. According to one side, in response to information received through the 5G network module and the IoT sensor receiving device provided in the mobile body, the management server estimates the coordinates on the SLAM map in real time to determine the driving route, so that the driving information according to changes in the surrounding environment is obtained. Able to respond quickly to changes.

일 측에 따르면, 5G 네트워크 모듈 및 IoT 센서 수신 장치만을 추가함으로써 기존 이동체의 교체없이도 관리 서버로부터 보다 정확한 경로 정보를 제공받을 수 있다. According to one side, by adding only the 5G network module and the IoT sensor receiving device, it is possible to receive more accurate route information from the management server without replacing the existing moving body.

일 측에 따르면, 5G 네트워크 기반의 고속, 고화질, 실시간 영상 분석을 통해 갑작스러운 방해물의 등장에 의한 이동체의 추돌 및 안전 사고를 방지할 수 있다.According to one side, high-speed, high-definition, real-time video analysis based on 5G network can prevent collisions and safety accidents of moving objects due to the sudden appearance of obstacles.

도 1은 일 실시예에 따른 관리 서버의 동작 방법을 나타낸 흐름도.
도 2는 일 실시예에 따른 이동체가 핑거프린트를 수집하는 방법을 설명하기 위한 도면.
도 3은 일 실시예에 따른 관리 서버에서 영상 분석을 통해 알람을 생성하는 과정을 설명하기 위한 도면.
도 4는 일 실시예에 따른 이동체의 동작 방법을 나타낸 흐름도.
도 5는 일 실시예에 따른 이동체의 구성 요소들 및 구성 요소들 간의 제어 흐름을 설명하기 위한 도면
도 6은 일 실시예에 따른 이동체의 투시도.
도 7은 일 실시예에 따른 이동체의 구성도.
도 8은 일 실시예에 따른 관리 서버의 블럭도.
1 is a flowchart illustrating a method of operating a management server according to an embodiment;
FIG. 2 is a view for explaining a method for a mobile body to collect fingerprints according to an exemplary embodiment;
3 is a view for explaining a process of generating an alarm through image analysis in a management server according to an embodiment;
4 is a flowchart illustrating a method of operating a moving object according to an embodiment;
5 is a diagram for explaining components of a mobile body and a control flow between the components according to an embodiment;
6 is a perspective view of a movable body according to an embodiment;
7 is a configuration diagram of a movable body according to an embodiment;
8 is a block diagram of a management server according to an embodiment;

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Like reference numerals in each figure indicate like elements.

아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Various modifications may be made to the embodiments described below. It should be understood that the embodiments described below are not intended to limit the embodiments, and include all modifications, equivalents or substitutes thereto.

실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the examples are only used to describe specific examples, and are not intended to limit the examples. The singular expression includes the plural expression unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are assigned the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In the description of the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.

도 1은 일 실시예에 따른 관리 서버의 동작 방법을 나타낸 흐름도이다. 도 1을 참조하면, 일 실시예에 따른 관리 서버는 미리 정해진 주행 공간을 이동하는 제1 이동체로부터, SLAM 지도를 생성하기 위하여 주변 환경이 감지되는 복수의 지점들에서 주변 환경의 감지와 함께 측정된 제1 핑거프린트들(fingerprints)을 수집한다(110). '제1 이동체'는 예를 들어, 공장, 화물 적하장, 주차장 등과 같은 미리 정해진 주행 공간에서의 실제 주행에 앞서 좌표 추정 및 경로 정보 결정 등을 위한 정보를 수집하기 위해 이동하는 이동체에 해당할 수 있다. 제1 이동체는 예를 들어, 무인 운반 차량(Automatic Guided Vehicle; AGV), 무인 이송 로봇, 무인 이동체(UnManned Vehicle; UMV)뿐만 아니라 자율 주행 차량, 운전자가 운전하는 운반 차량 등을 모두 포괄하는 의미로 이해될 수 있다. 제1 이동체는 후술하는 제2 이동체와 동일할 수도 있고, 상이할 수도 있다. 1 is a flowchart illustrating a method of operating a management server according to an exemplary embodiment. Referring to FIG. 1 , the management server according to an embodiment of the present invention generates a SLAM map from a first moving body moving in a predetermined driving space at a plurality of points where the surrounding environment is sensed and measured together with the sensing of the surrounding environment. First fingerprints are collected (110). The 'first moving body' may correspond to a moving body that moves to collect information for estimating coordinates and determining route information prior to actual driving in a predetermined driving space, such as a factory, cargo loading dock, parking lot, etc. have. The first mobile body includes, for example, an automatic guided vehicle (AGV), an unmanned transport robot, an unmanned vehicle (UMV), as well as an autonomous vehicle, a transport vehicle driven by a driver, and the like. can be understood The first movable body may be the same as or different from the second movable body to be described later.

여기서, 'SLAM 지도를 생성하기 위하여 주변 환경이 감지되는 복수의 지점들에서 주변 환경의 감지와 함께 측정된 제1 핑거프린트들을 수집한다'는 것은 복수의 지점들에서의 주변 환경을 감지한 결과를 기초로 SLAM 지도를 생성하는 동작과 복수의 지점들에서의 제1 핑거프린트들을 수집하는 동작이 함께 수행된다는 의미이다. 다시 말해, 관리 서버는 복수의 지점들에서 주변 환경을 감지한 결과를 기초로 SLAM 기법에 의해 제1 이동체의 위치에 대응하는 SLAM 지도를 생성하고 이와 연동하여 복수의 지점들에 대응하는 SLAM 지도 상의 좌표에서 제1 핑거프린트들을 수집할 수 있다. 복수의 지점들은 예를 들어, 주행 공간에 설치된 적어도 하나의 IoT 센서 및 적어도 하나의 액세스 포인트 등과 같은 신호 송출기를 포함할 수 있다. Here, 'collecting the first fingerprints measured together with the sensing of the surrounding environment at a plurality of points where the surrounding environment is sensed to generate a SLAM map' refers to the result of sensing the surrounding environment at a plurality of points. This means that the operation of generating the SLAM map based on the basis and the operation of collecting the first fingerprints at a plurality of points are performed together. In other words, the management server generates a SLAM map corresponding to the location of the first mobile body by the SLAM technique based on the result of detecting the surrounding environment at a plurality of points, and interworks with the SLAM map corresponding to the plurality of points on the SLAM map. The first fingerprints may be collected at the coordinates. The plurality of points may include, for example, a signal transmitter such as at least one IoT sensor and at least one access point installed in the driving space.

SLAM(Simultaneous Localization and Mapping) 기법은 동시적 위치 추정 및 지도 작성 기법이다. SLAM 기법에 의하면, 로봇 등과 같은 이동체가 임의의 공간을 이동하여 주변을 탐색하면서 해당 공간의 지도 및 현재 위치를 추정할 수 있다. SLAM (Simultaneous Localization and Mapping) technique is a simultaneous localization and mapping technique. According to the SLAM technique, a moving object, such as a robot, moves in an arbitrary space and searches the surroundings, while estimating a map and a current location of the space.

핑거프린트(들)은 핑거프린트(fingerprint) 기법에서 이용되는 위치 정보에 해당할 수 있다. 핑거프린트 기법은 신호 송출기(예를 들어, 액세스 포인트, IoT 센서, 또는 IoT 디바이스 등)로부터 전송된 신호 세기를 사전에 측정하여 데이터베이스에 예를 들어, 도 2의 WiFi 라디오 맵(210)과 같은 형태로 저장한 후, 이동체로부터 수신되는 신호 세기의 값이 전달되면, 데이터베이스로부터 해당 신호 세기 값에 대응되는 위치 정보를 호출하여 이동체로 제공하는 방식이다. 이때, 신호 송출기로부터 전송되는 신호는 예를 들어, RF 신호, LTE 신호, 및 5G 신호 중 어느 하나일 수 있다. The fingerprint(s) may correspond to location information used in a fingerprint technique. The fingerprint technique measures the signal strength transmitted from a signal transmitter (eg, an access point, an IoT sensor, or an IoT device, etc.) in advance and stores it in a database, for example, in the form of the WiFi radio map 210 of FIG. 2 . After storing as , when the value of the signal strength received from the moving object is transmitted, the location information corresponding to the corresponding signal strength value is called from the database and provided to the moving object. In this case, the signal transmitted from the signal transmitter may be, for example, any one of an RF signal, an LTE signal, and a 5G signal.

이하에서, '제1 핑거프린트(들)'은 제1 이동체에 의해 수집되는 핑거프린트(들)을 의미하고, 제2 핑거프린트(들)은 제2 이동체에 의해 수집되는 핑거프린트(들)을 의미할 수 있다. 또한, 제1 핑거프린트(들) 및 제2 핑거프린트(들)은 예를 들어, RF 핑거프린트, LTE 핑거프린트, 5G 핑거프린트 중 어느 하나일수 있다. 일 실시예에 따른 이동체가 핑거프린트를 수집하는 방법은 아래의 도 2를 참조하여 보다 구체적으로 설명한다. Hereinafter, 'first fingerprint(s)' refers to the fingerprint(s) collected by the first moving object, and the second fingerprint(s) refers to the fingerprint(s) collected by the second moving object. can mean In addition, the first fingerprint(s) and the second fingerprint(s) may be, for example, any one of an RF fingerprint, an LTE fingerprint, and a 5G fingerprint. A method of collecting a fingerprint by a moving object according to an exemplary embodiment will be described in more detail with reference to FIG. 2 below.

관리 서버는 주행 공간 내 복수의 지점들에 대응하는 SLAM 지도 상의 복수의 제1 좌표들과 제1 핑거프린트들을 매칭한다(120). 일 실시예에 따른 관리 서버는 제2 이동체가 주행해야 하는 주행 공간에 대한 제1 핑거프린트들을 수집하고, 주행 공간의 SLAM 지도와 제1 핑거프린트들을 매칭시킴으로써 향후 제2 이동체의 주행을 위한 경로 정보 및 SLAM 지도 상의 좌표를 결정하여 제2 이동체의 자율 주행이 가능하도록 할 수 있다. The management server matches the first fingerprints with a plurality of first coordinates on the SLAM map corresponding to the plurality of points in the driving space ( 120 ). The management server according to an embodiment collects first fingerprints for a driving space in which the second moving object needs to travel, and matches the SLAM map of the driving space with the first fingerprints, thereby providing path information for future driving of the second moving object. and determining the coordinates on the SLAM map to enable autonomous driving of the second mobile body.

관리 서버는 매칭된 제1 좌표들 및 제1 핑거프린트들에 기초하여, 핑거프린트에 대응하는 SLAM 지도 상의 좌표를 추정하는 신경망을 학습한다(130). 이때, 신경망은 핑거프린트가 입력되면, 입력된 핑거프린트에 대응하는 SLAM 지도 상의 좌표를 출력하도록 미리 학습된 신경망일 수 있다. 신경망은 예를 들어, 심층 신경망(Deep Neural Network; DNN) 또는 회귀 신경망(Recurrent Neural Network; RNN) 등을 포함할 수 있다. 관리 서버는 신경망의 학습 결과에 기초하여, 복수의 지점들에서 감지되는 장애물을 고려하여 SLAM 지도 상에 경로 정보를 설정할 수 있다. 관리 서버는 제1 핑거프린트들을 기초로, 주행 공간 내 음영 지역에 대한 정보를 획득하고, 신경망에 기초하여 음영 지역에 대응하는 경로 정보를 결정할 수 있다. The management server learns a neural network for estimating coordinates on the SLAM map corresponding to the fingerprint based on the matched first coordinates and the first fingerprints ( 130 ). In this case, when a fingerprint is input, the neural network may be a neural network previously trained to output coordinates on the SLAM map corresponding to the input fingerprint. The neural network may include, for example, a deep neural network (DNN) or a recurrent neural network (RNN). The management server may set path information on the SLAM map in consideration of obstacles detected at a plurality of points based on the learning result of the neural network. The management server may obtain information on the shaded area in the driving space based on the first fingerprints, and determine path information corresponding to the shaded area based on the neural network.

관리 서버는 SLAM 지도 상에 설정된 경로 정보에 기초하여 주행 공간을 이동하는 제2 이동체로부터 제2 핑거프린트를 수신한다(140). 이때, 제2 이동체는 5G 네트워크 모듈 및 IoT 센서 수신 장치를 포함할 수 있다. The management server receives the second fingerprint from the second mobile body moving in the driving space based on the route information set on the SLAM map ( 140 ). In this case, the second mobile body may include a 5G network module and an IoT sensor receiving device.

관리 서버는 단계(130)를 통해 학습된 신경망을 이용하여, 제2 핑거프린트에 대응하는 SLAM 지도 상의 제2 좌표를 추정한다(150).The management server estimates the second coordinates on the SLAM map corresponding to the second fingerprint by using the neural network learned through step 130 (step 150).

관리 서버는 경로 정보 및 추정된 제2 좌표에 기초하여, 제2 이동체의 주행 정보를 결정한다(160).The management server determines driving information of the second moving object based on the route information and the estimated second coordinates ( 160 ).

관리 서버는 주행 정보를 전송한다(170).The management server transmits driving information (170).

실시예에 따라서, 관리 서버는 5G 네트워크 모듈을 통해 제2 이동체가 주행 공간 내의 복수의 지점들에서 감지한 주변 환경에 대한 정보를 수신할 수 있다. 관리 서버는 주변 환경에 대한 정보를 기초로, 제2 이동체의 주행을 모니터링할 수 있다. 관리 서버는 모니터링 결과에 따라 주행 정보를 수정하고, 수정된 주행 정보를 5G 네트워크 모듈을 통해 제2 이동체에게 전송할 수 있다. According to an embodiment, the management server may receive information on the surrounding environment sensed by the second mobile body at a plurality of points in the driving space through the 5G network module. The management server may monitor the driving of the second moving object based on the information on the surrounding environment. The management server may correct the driving information according to the monitoring result, and transmit the corrected driving information to the second mobile unit through the 5G network module.

일 실시예에 따른 관리 서버는 예를 들어, 분산 서버일수도 있고, 클라우드 서버일 수도 있다. 이때, 관리 서버에는 예를 들어, fleet management software와 같은 관제 인터페이스가 포함될 수도 있다. 실시예에 따라서, 관제 인터페이스는 관리 서버와 별개로 공장 관리 서버 또는 작업장의 분산 서버 등에 설치될 수도 있다. The management server according to an embodiment may be, for example, a distributed server or a cloud server. In this case, the management server may include, for example, a control interface such as fleet management software. According to an embodiment, the control interface may be installed separately from the management server, such as a factory management server or a distributed server of a workplace.

도 2는 일 실시예에 따른 이동체가 핑거프린트를 수집하는 방법을 설명하기 위한 도면이다. 도 2를 참조하면, 제1 이동체로부터 복수의 지점들에서 수집된 제1 핑거프린트들에 의해 작성된 데이터 베이스(210)가 도시된다. FIG. 2 is a diagram for describing a method of collecting a fingerprint by a moving object according to an exemplary embodiment. Referring to FIG. 2 , a database 210 created by first fingerprints collected from a first moving body at a plurality of points is shown.

관리 서버는 이동체의 주행 공간에 위치하는 복수의 신호 송출기들(예를 들어, 액세스 포인트, IoT 센서, 또는 IoT 디바이스 등)로부터 전송된 신호 세기를 측정하여 데이터베이스(210)에 저장할 수 있다. 이때, 신호 송출기로부터 전송된 신호는 예를 들어, RF 신호일 수도 있고, LTE 신호일 수도 있고, 5G 신호일 수도 있다. The management server may measure the signal strength transmitted from a plurality of signal transmitters (eg, an access point, an IoT sensor, or an IoT device, etc.) located in the driving space of the moving object and store it in the database 210 . In this case, the signal transmitted from the signal transmitter may be, for example, an RF signal, an LTE signal, or a 5G signal.

이후, 관리 서버는 주행 공간의 이동하는 이동체로부터 온라인으로 측정값(예를 들어, 이동체에 수신되는 신호 세기의 값)이 전달되면, 패턴 매칭을 통해 해당 신호 세기 값에 대응하여 추정된 위치 정보를 데이터베이스로부터 호출하여 이동체로 제공할 수 있다. 이때, 패턴 매칭은 예를 들어, K-NN(Nearest Neighboring) 분류기, SVM(Support Vector Machine), NN(Neural Network) 등을 통해 수행될 수 있다. Thereafter, when the measurement value (eg, the value of the signal strength received by the moving object) is transmitted online from the moving object in the driving space, the management server receives position information estimated in response to the corresponding signal strength value through pattern matching. It can be provided as a mobile object by calling it from the database. In this case, the pattern matching may be performed through, for example, a Nearest Neighboring (K-NN) classifier, a Support Vector Machine (SVM), or a Neural Network (NN).

이때, 데이터베이스(210)는 예를 들어, (x, y)로 표현되는 위치 정보와, 각 위치에서 각각의 신호 송출기로부터 수신되는 신호 세기 정보를 포함할 수 있다. 데이터베이스(210)에서 (x1, y1) 위치에 대응하는 수신 신호 정보로 표시되는 값(예를 들어, -62, -88, -79 등)은 예를 들어, (x1, y1) 위치에서 AP1, AP2, AP3로부터 수신되는 신호의 세기를 나타낼 수 있다. In this case, the database 210 may include, for example, location information represented by (x, y) and signal strength information received from each signal transmitter at each location. A value (eg, -62, -88, -79, etc.) displayed as received signal information corresponding to the (x1, y1) position in the database 210 is, for example, (x1, y1) AP1 at the position, It may indicate the strength of a signal received from AP2 and AP3.

실시예에 따라서, 미리 정해진 주행 공간이 예를 들어, 공장 등과 같은 제한적인 장소인 경우, 공장 내 스마트 팩토리(smart factory)를 위해 설치되는 소형 5G 수신기 등을 신호 송출기로 이용하여 핑거프린트를 수집할 수도 있다. According to the embodiment, when the predetermined driving space is a limited place, such as a factory, a small 5G receiver installed for a smart factory in the factory, etc., as a signal transmitter, is used as a signal transmitter to collect fingerprints. may be

도 3은 일 실시예에 따른 관리 서버에서 영상 분석을 통해 알람을 생성하는 과정을 설명하기 위한 도면이다. 도 3을 참조하면, 일 실시예에 따른 관리 서버는 제2 이동체에 탑재된 적어도 하나의 촬영 장치를 통해 촬영된 주행 환경 영상을 실시간으로 수신할 수 있다(310). 이때, 제2 이동체에서 촬영된 주행 환경 영상은 예를 들어, Full-HD 급의 실시간 영상으로서 5G 네트워크에 의해 고속으로 관리 서버로 전송될 수 있다. 3 is a diagram for explaining a process of generating an alarm through image analysis in a management server according to an embodiment. Referring to FIG. 3 , the management server according to an exemplary embodiment may receive a driving environment image captured through at least one photographing device mounted on the second moving body in real time ( 310 ). In this case, the driving environment image captured by the second moving object may be transmitted to the management server at high speed by the 5G network as a real-time image of a Full-HD level, for example.

관리 서버는 예를 들어, 심층 신경망(DNN) 분류기를 이용하여 주행 환경 영상을 분석할 수 있다(320). 이때, 심층 신경망(DNN) 분류기는 주행 환경 영상 내에 포함된 다른 이동체, 사람, 동물, 기타의 방해물 등을 분류하도록 미리 학습될 수 있다. The management server may analyze the driving environment image using, for example, a deep neural network (DNN) classifier ( 320 ). In this case, the deep neural network (DNN) classifier may be trained in advance to classify other moving objects, people, animals, and other obstacles included in the driving environment image.

관리 서버는 영상 분석을 통해 이동체의 주행 공간 내에서의 새로운 객체의 출현 여부를 인식할 수 있다(330). The management server may recognize whether a new object appears in the traveling space of the moving object through image analysis ( 330 ).

관리 서버는 분석 결과(예를 들어, 새로운 객체의 출현)에 기초하여 주행 공간 내의 객체 출현 여부를 알리는 알람을 생성할 수 있다(340). 관리 서버는 생성한 알람을 제2 이동체에게 전송할 수 있다. 알람을 수신한 제2 이동체는 알람의 유형에 따라 구동을 즉시 중지하거나, 또는 다양한 알람 사운드, 음성 경고, 또는 점멸등 발광 등을 통해 주행 공간 내에 갑자기 출현한 객체에 대한 알람을 표현할 수 있다. 알람의 유형은 예를 들어, 다른 이동체의 고장 등에 의한 방해물 발생, 또는 갑작스러운 사람 또는 동물 출현 등과 같이 다양한 형태를 가질 수 있다. The management server may generate an alarm notifying whether an object appears in the driving space based on the analysis result (eg, appearance of a new object) ( 340 ). The management server may transmit the generated alarm to the second mobile body. Upon receiving the alarm, the second moving object may immediately stop driving according to the type of the alarm, or may express an alarm for an object that suddenly appears in the driving space through various alarm sounds, voice warnings, or flashing lights. The type of the alarm may have various forms, such as, for example, generation of an obstruction due to a failure of another moving object, or a sudden appearance of a person or animal.

도 3을 통해 전술한 과정들은 관리 서버에 의해 수행될 수도 있고, 또는 실시예에 따라서 관리 서버와 별개의 관제 인터페이스에 의해 수행될 수도 있다.The processes described above with reference to FIG. 3 may be performed by the management server, or may be performed by a control interface separate from the management server according to an embodiment.

일 실시예에서는 전술한 과정을 모바일 엣지 컴퓨팅(mobile edge computing)을 통해 수행함으로써 5G 네트워크에서의 실시간성을 보장할 수 있다. 모바일 엣지 컴퓨팅은 무선 기지국에 분산 클라우드 컴퓨팅 기술을 적용하여 다양한 서비스와 캐싱 콘텐츠를 이용자 단말에 가까이 전개함으로써 모바일 코어망의 혼잡을 완화하고, 새로운 로컬 서비스를 창출하는 기술이다. 모바일 엣지 컴퓨팅에 의하면, 중앙화된 클라우드에서 네트워크 에지와 고객에 보다 근접한 곳으로 트래픽 및 서비스 컴퓨팅을 이동시킬 수 있다. 이때, 모든 데이터를 클라우드로 전송하여 처리하는 대신에 분산된 네트워크 에지에서 데이터를 분석, 처리 및 저장할 수 있다. 이와 같이 고객 가까이에서 데이터를 수집하고 처리함에 따라 지연 시간이 단축되고, 고대역폭 어플리케이션에서의 실시간 성능이 제공될 수 있다. In an embodiment, real-time performance in the 5G network may be guaranteed by performing the above-described process through mobile edge computing. Mobile edge computing is a technology that alleviates congestion in the mobile core network and creates new local services by applying distributed cloud computing technology to wireless base stations and deploying various services and caching contents close to user terminals. With mobile edge computing, traffic and service computing can be moved from a centralized cloud to the edge of the network and closer to the customer. At this time, instead of sending all data to the cloud for processing, data can be analyzed, processed, and stored at the edge of the distributed network. By collecting and processing data close to the customer in this way, latency can be reduced and real-time performance in high-bandwidth applications can be provided.

도 4는 일 실시예에 따른 이동체의 동작 방법을 나타낸 흐름도이다. 도 4를 참조하면, 일 실시예에 따른 이동체는 미리 정해진 주행 공간을 이동함에 따라 수집되는 핑거프린트들을 전송한다(410). 이동체는 예를 들어, 5G 네트워크 모듈 및 IoT 센서 수신부를 포함할 수 있다. 이동체는 미리 정해진 주행 공간을 이동함에 따라 수집되는 핑거프린트들을 5G 네트워크 모듈을 통해 전송할 수 있다. 이동체는 핑거프린트들을 예를 들어, 관리 서버에게 전송할 수도 있고, 관제 인터페이스에게 전송할 수도 있다. 이때, 이동체는 예를 들어, 제2 이동체일 수 있다. 핑거프린트들은 제2 이동체에서 수집되는 제2 핑거프린트들일 수 있다. 4 is a flowchart illustrating a method of operating a moving body according to an exemplary embodiment. Referring to FIG. 4 , a moving object according to an embodiment transmits fingerprints collected as it moves through a predetermined driving space ( 410 ). The mobile body may include, for example, a 5G network module and an IoT sensor receiver. The mobile body may transmit fingerprints collected as it moves through a predetermined driving space through the 5G network module. The moving object may transmit the fingerprints, for example, to the management server or to the control interface. In this case, the movable body may be, for example, the second movable body. The fingerprints may be second fingerprints collected from the second moving body.

이동체는 미리 학습된 신경망에서 핑거프린트들에 대응하여 추정된 SLAM 지도 상의 좌표 및 경로 정보를 기초로 결정된 주행 정보를 수신한다(420). 이동체는 예를 들어, 관리 서버 또는 관제 인터페이스 중 어느 하나로부터 주행 정보를 수신할 수 있다. The moving object receives the driving information determined based on the coordinates and route information on the SLAM map estimated in response to the fingerprints from the pre-trained neural network ( 420 ). The moving object may receive driving information from, for example, any one of a management server and a control interface.

이동체는 주행 정보에 기초하여 구동 파라미터를 결정한다(430). 구동 파라미터는 예를 들어, 이동체의 전륜 조향 모터, 후륜 주행 모터를 제어하기 위한 모터 제어 파라미터, 이동체의 기어비 제어 파라미터, 이동체의 바퀴 회전 속도, 회전각 등을 제어하기 위한 바퀴 움직임 제어 파라미터 등을 포함할 수 있다. The moving object determines a driving parameter based on the driving information ( 430 ). The driving parameters include, for example, a motor control parameter for controlling a front wheel steering motor and a rear wheel driving motor of the moving body, a gear ratio control parameter of the moving body, a wheel motion control parameter for controlling the wheel rotation speed and rotation angle of the moving body, etc. can do.

이동체는 구동 파라미터에 따라 구동을 수행한다(440).The moving object is driven according to the driving parameter ( 440 ).

실시예에 따라서, 이동체는 이동체의 구동에 따라 변화되는 주변 환경에 대한 정보를 관제 인터페이스 또는 관리 서버로 전송할 수 있다. 이동체는 변화되는 주변 환경에 대한 정보에 기초한 모니터링 결과에 따라 관제 인터페이스 또는 관리 서버로부터 수정된 주행 정보를 수신할 수 있다. 이동체는 수정된 주행 정보에 따라 구동 파라미터를 변경하고, 변경된 구동 파라미터에 따라 이동체의 구동부를 구동할 수 있다. According to an embodiment, the moving object may transmit information about the surrounding environment that is changed according to the driving of the moving object to the control interface or the management server. The moving object may receive the modified driving information from the control interface or the management server according to the monitoring result based on the changed information on the surrounding environment. The moving object may change a driving parameter according to the modified driving information, and may drive a driving unit of the moving object according to the changed driving parameter.

도 5는 일 실시예에 따른 이동체의 구성 요소들 및 구성 요소들 간의 제어 흐름을 설명하기 위한 도면이다. 도 5를 참조하면, 일 실시예에 따른 이동체는 통신부(510), 센서부(520), 제어부(530), 및 구동부(540)를 포함할 수 있다. 5 is a diagram for explaining components of a moving body and a control flow between the components according to an embodiment. Referring to FIG. 5 , a mobile body according to an embodiment may include a communication unit 510 , a sensor unit 520 , a control unit 530 , and a driving unit 540 .

통신부(510)는 관리 서버 또는 관제 인터페이스로부터 SLAM 지도 및 주행 정보를 수신하여 센서부(520)로 전송할 수 있다. 통신부(510)는 예를 들어, 5G 네트워크 모듈 및/또는 IoT 센서 수신 장치를 포함할 수 있다. The communication unit 510 may receive the SLAM map and driving information from the management server or the control interface and transmit it to the sensor unit 520 . The communication unit 510 may include, for example, a 5G network module and/or an IoT sensor receiving device.

센서부(520)는 센서부(520)에 포함된 다양한 센서들을 통해 감지된 주변 환경 정보를 기초로, 이동체의 움직임 정보에 따라 통신부(510)를 통해 수신한 주행 정보를 수정하거나, 또는 새로운 주행 정보를 생성할 수 있다. The sensor unit 520 modifies the driving information received through the communication unit 510 according to the movement information of the moving object, based on the surrounding environment information sensed through various sensors included in the sensor unit 520 , or a new driving method. information can be generated.

제어부(530)는 센서부(520)로부터 수신한 주행 정보를 기초로, 이동체의 바퀴, 기어, 조향 장치, 및/또는 엔진 등의 구동을 제어하는 구동 파라미터를 결정할 수 있다. 제어부(530)는 예를 들어, 도 6에 도시된 메인 컨트롤러(Main Controller)에 해당할 수 있다. Based on the driving information received from the sensor unit 520 , the controller 530 may determine a driving parameter for controlling the driving of wheels, gears, steering devices, and/or engines of the moving object. The controller 530 may correspond to, for example, the main controller shown in FIG. 6 .

구동부(540)는 구동 파라미터에 따라 이동체의 각 구동 기관을 구동할 수 있다. 또한, 구동부(540)는 예를 들어, 바퀴 회전 속도, 회전각 등과 같은 이동체의 바퀴 움직임 정보를 센서부(520)로 전달하여 센서부(520)가 주행 정보를 수정하거나, 또는 새로운 주행 정보를 생성하도록 할 수 있다. The driving unit 540 may drive each driving engine of the moving body according to driving parameters. In addition, the driving unit 540 transmits, for example, wheel movement information of the moving object, such as wheel rotation speed and rotation angle, to the sensor unit 520 so that the sensor unit 520 corrects the driving information or receives new driving information. can be made to create

일 실시예에 따른 이동체(500)는 센서부(520)를 통해 감지되는 주변 환경 정보를 통해 새로운 주행 정보를 생성하여 제어부(530) 및 구동부(540)에 전달함으로써 이동체(500)의 지속적인 자율 주행 또는 무인 주행이 가능하도록 할 수 있다. The moving object 500 according to an exemplary embodiment generates new driving information based on the surrounding environment information sensed by the sensor unit 520 and transmits it to the controller 530 and the driving unit 540 to continuously autonomously drive the moving object 500 . Alternatively, unmanned driving may be enabled.

도 6은 일 실시예에 따른 이동체의 투시도이다. 도 6을 참조하면, 일 실시예에 따른 이동체(600)는 일반적인 이동체의 구조에 더하여 5G 네트워크 모듈(610) 및 IoT 센서 수신 장치(630)를 더 포함할 수 있다. 일반적인 이동체의 구조 및 동작은 잘 알려져 있으므로 이하에서는 5G 네트워크 모듈(610) 및 IoT 센서 수신 장치(630)에 대하여 설명하기로 한다. 6 is a perspective view of a movable body according to an exemplary embodiment. Referring to FIG. 6 , a mobile body 600 according to an embodiment may further include a 5G network module 610 and an IoT sensor receiving device 630 in addition to the general structure of the mobile body. Since the structure and operation of a general mobile body are well known, the 5G network module 610 and the IoT sensor receiving device 630 will be described below.

5G 네트워크 모듈(610)은 이동체(600)에 장착되어 미리 정해진 주행 공간을 이동함에 따라 수집되는 핑거프린트들을 관제 인터페이스 및/또는 관리 서버에게 전송할 수 있다. 또한, 5G 네트워크 모듈(610)은 미리 학습된 신경망에서 5G 네트워크 모듈(610)을 통해 전송한 핑거프린트들에 대응하여 추정된 SLAM 지도 상의 좌표 및 경로 정보를 기초로 결정된 주행 정보를 수신할 수 있다. The 5G network module 610 may be mounted on the mobile unit 600 and transmit fingerprints collected as it moves through a predetermined driving space to a control interface and/or a management server. In addition, the 5G network module 610 may receive driving information determined based on the coordinates and route information on the SLAM map estimated in response to the fingerprints transmitted through the 5G network module 610 from the pre-trained neural network. .

5G 네트워크 모듈(610)은 예를 들어, 아래의 도 7에 도시된 RS-232 포트(240)를 통해 관제 인터페이스 및/또는 관리 서버에게 핑거프린트들을 전송하거나, 또는 관제 인터페이스 및/또는 관리 서버로부터 주행 정보를 수신할 수 있다. The 5G network module 610 transmits fingerprints to, for example, the control interface and/or the management server through the RS-232 port 240 shown in FIG. 7 below, or from the control interface and/or the management server. You can receive driving information.

IoT 센서 수신 장치(630)는 다양한 IoT 센서들을 통해 감지된 주변 환경 정보를 수신할 수 있다. IoT 센서 수신 장치(630)는 예를 들어, 아래의 도 7에 도시된 I/O 포트(730)를 통해 다양한 IoT 센서들로부터 주변 환경 정보를 수신할 수 있다. The IoT sensor receiving device 630 may receive surrounding environment information sensed through various IoT sensors. The IoT sensor receiving device 630 may receive surrounding environment information from various IoT sensors, for example, through the I/O port 730 shown in FIG. 7 below.

일 실시예에 따르면, 이동체(600)에 구비된 5G 네트워크 모듈(610) 및 IoT 센서 수신 장치(630)를 통해 수신된 정보에 대응하여 관리 서버가 실시간으로 SLAM 지도 상의 좌표를 추정하여 주행 경로를 결정함으로써 주변 환경 변화에 따른 주행 정보의 변화에도 신속하게 대응할 수 있다. 또한, 5G 네트워크 모듈(610) 및 IoT 센서 수신 장치(630)만을 추가함으로써 기존 이동체의 교체없이도 관리 서버로부터 보다 정확한 경로 정보를 제공받을 수 있다.According to an embodiment, the management server estimates the coordinates on the SLAM map in real time in response to information received through the 5G network module 610 and the IoT sensor receiving device 630 provided in the mobile unit 600 to determine the driving route. By making this decision, it is possible to quickly respond to changes in driving information according to changes in the surrounding environment. In addition, by adding only the 5G network module 610 and the IoT sensor receiving device 630, it is possible to receive more accurate route information from the management server without replacing the existing moving body.

일 실시예에 따른 이동체(600)는 탑재된 5G 네트워크 모듈(610)을 통해 주행 상황을 관리 서버 또는 관제 인터페이스에 전송할 수 있다. 관리 서버 또는 관제 인터페이스는 이동체(600)로부터 수신한 정보에 기초하여 이동체(600)가 올바른 경로를 주행하고 있는지를 지속적으로 확인할 수 있다. 관리 서버 또는 관제 인터페이스는 5G 네트워크 모듈(610)을 통해 실시간으로 주행 정보를 전송함으로써 이동체(600)의 주행을 정밀하게 제어할 수 있다. The mobile unit 600 according to an embodiment may transmit the driving situation to the management server or the control interface through the 5G network module 610 mounted thereon. The management server or the control interface may continuously check whether the mobile device 600 is traveling on a correct path based on the information received from the mobile device 600 . The management server or control interface may precisely control the driving of the mobile unit 600 by transmitting driving information in real time through the 5G network module 610 .

도 7은 일 실시예에 따른 이동체의 구성도이다. 도 7을 참조하면, 일 실시예에 따른 이동체(700)는 A/D 컨버터(Analogue/Digital converter)(710), 카운터(Counter)(720), I/O 포트(I/O port)(730), 및 RS-232 포트(740)를 포함할 수 있다. 7 is a configuration diagram of a movable body according to an embodiment. Referring to FIG. 7 , a moving body 700 according to an embodiment includes an analog/digital converter 710 , a counter 720 , and an I/O port 730 . ), and an RS-232 port 740 .

A/D 컨버터(710)는 이동체(700)의 제어부에서 결정된 구동 파라미터에 따라 앞바퀴 모터를 제어하여 이동체(700)의 속도를 조정할 수 있다. 이때, A/D 컨버터(710)는 가변 저항의 값을 조절함으로써 이동체(700)의 앞바퀴 모터의 구동 속도를 조정할 수 있다. The A/D converter 710 may adjust the speed of the moving object 700 by controlling the front wheel motor according to the driving parameter determined by the controller of the moving object 700 . In this case, the A/D converter 710 may adjust the driving speed of the front wheel motor of the movable body 700 by adjusting the value of the variable resistor.

카운터(Counter)(720)는 뒷바퀴 모터의 회전 속도, 및/또는 회전각을 측정함으로써 이동체(700)의 주행 상태를 측정할 수 있다. The counter 720 may measure the driving state of the moving object 700 by measuring the rotation speed and/or the rotation angle of the rear wheel motor.

A/D 컨버터(710) 및 카운터(Counter)(720)는 예를 들어, 도 5를 통해 전술한 이동체의 제어부(530)에 포함될 수 있다. 또는 실시예에 따라서, A/D 컨버터(710)는 전술한 이동체의 제어부(530)에 포함되고, 카운터(Counter)(720)는 전술한 이동체의 구동부(540)에 포함될 수도 있다. The A/D converter 710 and the counter 720 may be included in, for example, the controller 530 of the moving object described above with reference to FIG. 5 . Alternatively, according to an embodiment, the A/D converter 710 may be included in the control unit 530 of the above-described moving body, and the counter 720 may be included in the driving unit 540 of the above-described moving body.

I/O 포트(I/O port)(730)는 울트라 소닉 센서(Ultra Sonic Sensor) 및/또는 IoT 센서로부터 감지 결과를 수신할 수 있다. 울트라 소닉 센서의 감지 결과 및/또는 IoT 센서의 감지 결과는 이동체(700)의 주차를 위한 장애물 감지에 이용될 수 있다. The I/O port 730 may receive a detection result from an Ultra Sonic Sensor and/or an IoT sensor. The detection result of the ultra sonic sensor and/or the detection result of the IoT sensor may be used to detect an obstacle for parking the moving object 700 .

RS-232 포트(740)는 1:1 직렬 통신을 통해 CCD 카메라로부터 주변 환경 영상을 수신할 수 있다. 전술한 5G 네트워크 모듈(610)은 RS-232 포트(740)를 통해 다양한 정보를 송, 수신할 수 있다. 이동체(700)는 RS-232 포트(740)를 통해 수신된 주변 환경 영상 및/또는 5G 네트워크 모듈(610)로 전송되는 정보를 기초로 영상 인식을 통해 주변 환경을 파악할 수 있다. The RS-232 port 740 may receive an image of the surrounding environment from the CCD camera through 1:1 serial communication. The aforementioned 5G network module 610 may transmit and receive various information through the RS-232 port 740 . The mobile unit 700 may recognize the surrounding environment through image recognition based on the surrounding environment image received through the RS-232 port 740 and/or information transmitted to the 5G network module 610 .

도 8은 일 실시예에 따른 관리 서버의 블럭도이다. 도 8을 참조하면, 일 실시예에 따른 관리 서버(800)는 프로세서(810), 및 통신 인터페이스(830)를 포함한다. 기지국(800)은 메모리(850)를 더 포함할 수 있다. 프로세서(810), 통신 인터페이스(830) 및 메모리(850)는 통신 버스(805)를 통해 서로 통신할 수 있다. 8 is a block diagram of a management server according to an embodiment. Referring to FIG. 8 , the management server 800 according to an embodiment includes a processor 810 and a communication interface 830 . The base station 800 may further include a memory 850 . The processor 810 , the communication interface 830 , and the memory 850 may communicate with each other via the communication bus 805 .

프로세서(810)는 미리 정해진 주행 공간을 이동하는 제1 이동체로부터, SLAM 지도를 생성하기 위하여 주변 환경이 감지되는 복수의 지점들에서 주변 환경의 감지와 함께 측정된 제1 핑거프린트들을 수집한다. 프로세서(810)는 주행 공간 내 복수의 지점들에 대응하는 SLAM 지도 상의 복수의 제1 좌표들과 제1 핑거프린트들을 매칭한다. 프로세서(810)는 매칭된 제1 좌표들 및 제1 핑거프린트들에 기초하여, 핑거프린트에 대응하는 SLAM 지도 상의 좌표를 추정하는 신경망을 학습한다. 또한, 프로세서(810)는 신경망을 이용하여, 제2 핑거프린트에 대응하는 SLAM 지도 상의 제2 좌표를 추정한다. 프로세서(810)는 경로 정보 및 추정된 제2 좌표를 기초로, 제2 이동체의 주행 정보를 결정한다. The processor 810 collects first fingerprints measured along with sensing of the surrounding environment at a plurality of points where the surrounding environment is sensed to generate a SLAM map from the first moving body moving in a predetermined driving space. The processor 810 matches the first fingerprints with a plurality of first coordinates on the SLAM map corresponding to the plurality of points in the driving space. The processor 810 learns a neural network for estimating coordinates on the SLAM map corresponding to the fingerprint based on the matched first coordinates and the first fingerprints. In addition, the processor 810 estimates the second coordinates on the SLAM map corresponding to the second fingerprint by using the neural network. The processor 810 determines driving information of the second moving object based on the path information and the estimated second coordinates.

통신 인터페이스(830)는 SLAM 지도 상에 설정된 경로 정보에 기초하여 주행 공간을 이동하는 제2 이동체로부터 제2 핑거프린트를 수신한다. The communication interface 830 receives the second fingerprint from the second mobile body moving in the driving space based on the route information set on the SLAM map.

메모리(850)는 프로세서(810)가 생성한 SLAM 지도 상에 설정된 경로 정보, 프로세서(810)가 추정한 제2 핑거프린트에 대응하는 SLAM 지도 사의 제2 좌표, 및 프로세서(810)가 결정한 제2 이동체의 주행 정보 중 적어도 하나를 저장할 수 있다. The memory 850 includes path information set on the SLAM map generated by the processor 810 , the second coordinates of the SLAM map company corresponding to the second fingerprint estimated by the processor 810 , and the second determined by the processor 810 . At least one of driving information of the moving object may be stored.

또한, 프로세서(810)는 도 1 내지 도 7을 통해 전술한 적어도 하나의 방법 또는 적어도 하나의 방법에 대응되는 알고리즘을 수행할 수 있다. 프로세서(810)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다. Also, the processor 810 may perform at least one method described above with reference to FIGS. 1 to 7 or an algorithm corresponding to the at least one method. The processor 810 may be a hardware-implemented data processing device having a circuit having a physical structure for executing desired operations. For example, desired operations may include code or instructions included in a program. For example, a data processing device implemented as hardware includes a microprocessor, a central processing unit, a processor core, a multi-core processor, and a multiprocessor. , an Application-Specific Integrated Circuit (ASIC), and a Field Programmable Gate Array (FPGA).

프로세서(810)는 프로그램을 실행하고, 관리 서버(800)를 제어할 수 있다. 프로세서(810)에 의하여 실행되는 프로그램 코드는 메모리(850)에 저장될 수 있다.The processor 810 may execute a program and control the management server 800 . The program code executed by the processor 810 may be stored in the memory 850 .

메모리(850)는 상술한 프로세서(810)에서의 처리 과정에서 생성되는 다양한 정보들을 저장할 수 있다. 이 밖에도, 메모리(850)는 각종 데이터와 프로그램 등을 저장할 수 있다. 메모리(850)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(850)는 하드 디스크 등과 같은 대용량 저장 매체를 구비하여 각종 데이터를 저장할 수 있다.The memory 850 may store various pieces of information generated in the process of the above-described processor 810 . In addition, the memory 850 may store various data and programs. The memory 850 may include a volatile memory or a non-volatile memory. The memory 850 may include a mass storage medium such as a hard disk to store various data.

일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, although the present invention has been described with reference to limited embodiments and drawings, the present invention is not limited to the above embodiments, and various modifications and variations from these descriptions are provided by those skilled in the art to which the present invention pertains. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined by the following claims as well as the claims and equivalents.

800: 관리 서버
805: 통신 버스
810: 프로세서
830: 통신 인터페이스
850: 메모리
800: management server
805: communication bus
810: processor
830: communication interface
850: memory

Claims (19)

미리 정해진 주행 공간을 이동하는 제1 이동체로부터, SLAM 지도를 생성하기 위하여 주변 환경이 감지되는 복수의 지점들에서 상기 주변 환경의 감지와 함께 측정된 제1 핑거프린트들(fingerprints)을 수집하는 단계;
상기 주행 공간 내 상기 복수의 지점들에 대응하는 상기 SLAM 지도 상의 복수의 제1 좌표들과 상기 제1 핑거프린트들을 매칭하는 단계;
상기 매칭된 제1 좌표들 및 제1 핑거프린트들에 기초하여, 핑거프린트에 대응하는 상기 SLAM 지도 상의 좌표를 추정하는 신경망을 학습하는 단계;
상기 SLAM 지도 상에 설정된 경로 정보에 기초하여 상기 주행 공간을 이동하는 제2 이동체로부터 제2 핑거프린트를 수신하는 단계;
상기 신경망을 이용하여, 상기 제2 핑거프린트에 대응하는 신호 세기 값들을 패턴 매칭함으로써, 상기 SLAM 지도 상의 제2 좌표를 추정하는 단계;
상기 경로 정보 및 상기 추정된 제2 좌표에 기초하여, 상기 제2 이동체의 주행 정보를 결정하는 단계;
상기 제2 이동체에 탑재된 적어도 하나의 촬영 장치를 통해 촬영된 주행 환경 영상을 실시간으로 수신하는 단계;
상기 주행 환경 영상을 분석하는 단계;
상기 분석 결과에 기초하여 상기 주행 공간 내의 객체 출현 여부를 알리는 알람을 생성하는 단계; 및
상기 주행 정보 및 상기 알람을 상기 제2 이동체에게 전송하는 단계
를 포함하는, 관리 서버의 동작 방법.
collecting first fingerprints measured along with the sensing of the surrounding environment at a plurality of points where the surrounding environment is sensed to generate a SLAM map from a first moving body moving in a predetermined driving space;
matching the first fingerprints with a plurality of first coordinates on the SLAM map corresponding to the plurality of points in the driving space;
learning a neural network for estimating coordinates on the SLAM map corresponding to a fingerprint based on the matched first coordinates and first fingerprints;
receiving a second fingerprint from a second mobile body moving in the driving space based on route information set on the SLAM map;
estimating second coordinates on the SLAM map by pattern matching signal intensity values corresponding to the second fingerprint using the neural network;
determining driving information of the second moving object based on the path information and the estimated second coordinates;
receiving a driving environment image captured by at least one photographing device mounted on the second moving object in real time;
analyzing the driving environment image;
generating an alarm notifying whether an object appears in the driving space based on the analysis result; and
transmitting the driving information and the alarm to the second moving object;
Including, the method of operation of the management server.
제1항에 있어서,
상기 제1 핑거프린트들을 수집하는 단계는
5G 네트워크 내의 적어도 하나의 기지국에서 송출되는 신호의 전파 특성에 기초하여 상기 제1 핑거프린트들을 수집하는 단계
를 포함하는, 관리 서버의 동작 방법.
According to claim 1,
The step of collecting the first fingerprints
collecting the first fingerprints based on propagation characteristics of a signal transmitted from at least one base station in a 5G network
Including, the method of operation of the management server.
제1항에 있어서,
상기 신경망의 학습 결과에 기초하여, 상기 복수의 지점들에서 감지되는 장애물을 고려하여 상기 SLAM 지도 상에 경로 정보를 설정하는 단계
를 더 포함하는, 관리 서버의 동작 방법.
According to claim 1,
setting path information on the SLAM map in consideration of obstacles detected at the plurality of points based on the learning result of the neural network
Further comprising, the method of operation of the management server.
제3항에 있어서,
상기 경로 정보를 결정하는 단계는
상기 제1 핑거프린트들을 기초로, 상기 주행 공간 내 음영 지역에 대한 정보를 획득하는 단계; 및
상기 신경망에 기초하여 상기 음영 지역에 대응하는 경로 정보를 결정하는 단계
를 포함하는, 관리 서버의 동작 방법.
4. The method of claim 3,
The step of determining the route information
obtaining information on a shaded area in the driving space based on the first fingerprints; and
determining path information corresponding to the shaded area based on the neural network
Including, the method of operation of the management server.
제1항에 있어서,
상기 제1 핑거프린트들을 수집하는 단계는
상기 제1 이동체가 상기 복수의 지점들에서 주변 환경을 감지한 결과를 기초로, SLAM(Simultaneous Localization And Mapping) 기법에 의해 상기 제1 이동체의 위치에 대응하는 상기 SLAM 지도를 생성하는 단계
를 더 포함하는, 관리 서버의 동작 방법.
According to claim 1,
The step of collecting the first fingerprints
generating the SLAM map corresponding to the location of the first mobile body by the SLAM (Simultaneous Localization And Mapping) technique based on a result of the first mobile body sensing the surrounding environment at the plurality of points;
Further comprising, the method of operation of the management server.
제1항에 있어서,
상기 복수의 지점들은
상기 주행 공간에 설치된 적어도 하나의 IoT 센서 및 적어도 하나의 액세스 포인트 중 적어도 하나를 포함하는, 관리 서버의 동작 방법.
According to claim 1,
The plurality of points
A method of operating a management server comprising at least one of at least one IoT sensor and at least one access point installed in the driving space.
삭제delete 제1항에 있어서,
상기 주행 환경 영상을 분석하는 단계는
미리 학습된 심층 신경망에 의해 상기 주행 환경 영상을 분석하는 단계
를 포함하는, 관리 서버의 동작 방법.
According to claim 1,
The step of analyzing the driving environment image is
Analyzing the driving environment image by a pre-trained deep neural network
Including, the method of operation of the management server.
제1항에 있어서,
상기 알람을 생성하는 단계는
상기 분석 결과에 기초하여 상기 주행 공간 내의 객체 출현 여부를 인식하는 단계; 및
상기 인식에 따라 알람을 생성하는 단계
를 포함하는, 관리 서버의 동작 방법.
According to claim 1,
The step of generating the alarm is
recognizing whether an object appears in the driving space based on the analysis result; and
generating an alarm according to the recognition
Including, the method of operation of the management server.
제1항에 있어서,
상기 제2 이동체는 5G 네트워크 모듈을 포함하고,
상기 5G 네트워크 모듈을 통해 상기 제2 이동체가 상기 복수의 지점들에서 감지한 주변 환경에 대한 정보를 수신하는 단계; 및
상기 주변 환경에 대한 정보를 기초로, 상기 제2 이동체의 주행을 모니터링하는 단계
를 더 포함하는, 관리 서버의 동작 방법.
According to claim 1,
The second mobile includes a 5G network module,
receiving information on the surrounding environment sensed by the second mobile unit at the plurality of points through the 5G network module; and
monitoring the driving of the second mobile body based on the information on the surrounding environment;
Further comprising, the method of operation of the management server.
제10항에 있어서,
상기 모니터링 결과에 따라 상기 주행 정보를 수정하는 단계; 및
상기 수정된 주행 정보를 상기 5G 네트워크 모듈을 통해 상기 제2 이동체에게 전송하는 단계
를 더 포함하는, 관리 서버의 동작 방법.
11. The method of claim 10,
correcting the driving information according to the monitoring result; and
transmitting the modified driving information to the second mobile unit through the 5G network module;
Further comprising, the method of operation of the management server.
미리 정해진 주행 공간을 이동함에 따라 수집되는 핑거프린트들을 전송하는 단계;
미리 학습된 신경망에서 상기 핑거프린트들에 대응하여 추정된 SLAM 지도 상의 좌표 및 경로 정보를 기초로 결정된 주행 정보를 수신하는 단계;
상기 주행 정보에 기초하여 구동 파라미터를 결정하는 단계;
상기 구동 파라미터에 따라 구동을 수행하는 단계;
적어도 하나의 촬영 장치를 통해 촬영된 주행 환경 영상을 실시간으로 전송하는 단계; 및
상기 주행 환경 영상의 분석 결과에 기초하여 인식된 상기 주행 공간 내의 객체 출현 여부에 따라 생성된 알람을 수신하는 단계
를 포함하고,
상기 SLAM 지도 상의 좌표는 상기 신경망을 이용하여, 상기 핑거프린트들에 대응하는 신호 세기 값들을 패턴 매칭함으로써 추정되고,
상기 경로 정보는 상기 신경망의 학습 결과에 기초하여, 상기 주행 공간 내 복수의 지점들에서 감지되는 장애물을 고려하여 설정되는,
이동체의 동작 방법.
transmitting fingerprints collected as the user moves in a predetermined driving space;
receiving driving information determined based on coordinates and route information on a SLAM map estimated in response to the fingerprints from a pre-trained neural network;
determining a driving parameter based on the driving information;
performing driving according to the driving parameters;
transmitting a driving environment image captured by at least one photographing device in real time; and
Receiving an alarm generated according to whether an object appears in the driving space recognized based on the analysis result of the driving environment image
including,
Coordinates on the SLAM map are estimated by pattern matching signal strength values corresponding to the fingerprints using the neural network,
The path information is set in consideration of obstacles sensed at a plurality of points in the driving space based on a learning result of the neural network,
How the moving object works.
제12항에 있어서,
상기 주행 정보를 수신하는 단계는
관리 서버 및 관제 인터페이스 중 어느 하나로부터, 상기 주행 정보를 수신하는 단계
를 포함하는, 이동체의 동작 방법.
13. The method of claim 12,
Receiving the driving information includes:
Receiving the driving information from any one of a management server and a control interface
Including, a method of operating a moving object.
제12항에 있어서,
상기 이동체는 5G 네트워크 모듈을 포함하고,
상기 핑거프린트들을 전송하는 단계는
미리 정해진 주행 공간을 이동함에 따라 수집되는 핑거프린트들을 상기 5G 네트워크 모듈을 통해 전송하는 단계
를 포함하는, 이동체의 동작 방법.
13. The method of claim 12,
The mobile body includes a 5G network module,
The step of transmitting the fingerprints
Transmitting the fingerprints collected by moving the predetermined driving space through the 5G network module
Including, a method of operating a moving object.
제12항에 있어서,
상기 이동체의 구동에 따라 변화되는 주변 환경에 대한 정보를 전송하는 단계;
상기 변화되는 주변 환경에 대한 정보에 기초한 모니터링 결과에 따라 수정된 주행 정보를 수신하는 단계; 및
상기 수정된 주행 정보에 따라 상기 구동 파라미터를 변경하는 단계; 및
상기 변경된 구동 파라미터에 따라 상기 이동체를 구동하는 단계
를 더 포함하는, 이동체의 동작 방법.
13. The method of claim 12,
transmitting information on a surrounding environment that is changed according to the driving of the moving object;
receiving driving information corrected according to a monitoring result based on the changed surrounding environment information; and
changing the driving parameter according to the modified driving information; and
driving the movable body according to the changed driving parameter
Further comprising, a method of operating a mobile body.
제12항에 있어서,
상기 주행 환경 영상을 실시간으로 전송하는 단계는
상기 이동체에 탑재된 적어도 하나의 촬영 장치를 통해 주변 환경 영상을 촬영하는 단계; 및
상기 주변 환경 영상을 전송하는 단계
를 포함하는, 이동체의 동작 방법.
13. The method of claim 12,
The step of transmitting the driving environment image in real time is
photographing an image of the surrounding environment through at least one photographing device mounted on the moving object; and
Transmitting the surrounding environment image
Including, a method of operating a moving object.
하드웨어와 결합되어 제1항 내지 제6항 및 제8항 내지 제16항 중 어느 하나의 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램.A computer program stored in a computer-readable recording medium in combination with hardware to execute the method of any one of claims 1 to 6 and 8 to 16. 미리 정해진 주행 공간을 이동하는 제1 이동체로부터, SLAM 지도를 생성하기 위하여 주변 환경이 감지되는 복수의 지점들에서 상기 주변 환경의 감지와 함께 측정된 제1 핑거프린트(fingerprint)들을 수집하고, 상기 주행 공간 내 상기 복수의 지점들에 대응하는 상기 SLAM 지도 상의 복수의 제1 좌표들과 상기 제1 핑거프린트들을 매칭하며, 상기 매칭된 제1 좌표들 및 제1 핑거프린트들에 기초하여, 핑거프린트에 대응하는 상기 SLAM 지도 상의 좌표를 추정하는 신경망을 학습하는 프로세서; 및
상기 SLAM 지도 상에 설정된 경로 정보에 기초하여 상기 주행 공간을 이동하는 제2 이동체로부터 제2 핑거프린트 및 상기 제2 이동체에 탑재된 적어도 하나의 촬영 장치를 통해 촬영된 주행 환경 영상을 수신하는 통신 인터페이스
를 포함하고,
상기 프로세서는
상기 신경망을 이용하여, 상기 제2 핑거프린트에 대응하는 신호 세기 값들을 패턴 매칭함으로써, 상기 SLAM 지도 상의 제2 좌표를 추정하고, 상기 경로 정보 및 상기 추정된 제2 좌표를 기초로, 상기 제2 이동체의 주행 정보를 결정하고, 상기 주행 환경 영상을 분석하고, 상기 분석 결과에 기초하여 상기 주행 공간 내의 객체 출현 여부를 알리는 알람을 생성하며,
상기 통신 인터페이스는
상기 결정된 주행 정보 및 상기 생성된 알람을 상기 제2 이동체에 전송하는,
관리 서버.
In order to generate a SLAM map from a first moving body moving in a predetermined driving space, first fingerprints measured with the sensing of the surrounding environment are collected at a plurality of points where the surrounding environment is sensed, and the driving is performed. Match the first fingerprints with a plurality of first coordinates on the SLAM map corresponding to the plurality of points in space, and based on the matched first coordinates and first fingerprints, a processor for learning a neural network estimating coordinates on the corresponding SLAM map; and
A communication interface for receiving a second fingerprint from a second mobile body moving in the driving space based on the route information set on the SLAM map and a driving environment image captured through at least one photographing device mounted on the second mobile body
including,
the processor
Using the neural network, by pattern matching signal intensity values corresponding to the second fingerprint, the second coordinates on the SLAM map are estimated, and based on the path information and the estimated second coordinates, the second determining the driving information of the moving object, analyzing the driving environment image, and generating an alarm indicating whether an object appears in the driving space based on the analysis result;
The communication interface is
transmitting the determined driving information and the generated alarm to the second moving object;
management server.
미리 정해진 주행 공간을 이동함에 따라 수집되는 핑거프린트들을 전송하고, 미리 학습된 신경망에서 상기 핑거프린트들에 대응하여 추정된 SLAM 지도 상의 좌표 및 경로 정보를 기초로 결정된 주행 정보를 수신하고, 적어도 하나의 촬영 장치를 통해 촬영된 주행 환경 영상을 실시간으로 전송하고, 상기 주행 환경 영상의 분석 결과에 기초하여 인식된 상기 주행 공간 내의 객체 출현 여부에 따라 생성된 알람을 수신하는 통신 인터페이스; 및
상기 주행 정보에 기초하여 구동 파라미터를 결정하고, 상기 구동 파라미터에 따라 구동을 수행하는 프로세서
를 포함하고,
상기 SLAM 지도 상의 좌표는 상기 신경망을 이용하여, 상기 핑거프린트들에 대응하는 신호 세기 값들을 패턴 매칭함으로써 추정되고,
상기 경로 정보는 상기 신경망의 학습 결과에 기초하여, 상기 주행 공간 내 복수의 지점들에서 감지되는 장애물을 고려하여 설정되는,
이동체.
It transmits fingerprints collected as it moves in a predetermined driving space, receives driving information determined based on coordinates and path information on a SLAM map estimated in response to the fingerprints in a pre-trained neural network, and at least one a communication interface that transmits a driving environment image captured by a photographing device in real time and receives an alarm generated according to whether an object appears in the driving space recognized based on an analysis result of the driving environment image; and
A processor that determines a driving parameter based on the driving information and performs driving according to the driving parameter
including,
Coordinates on the SLAM map are estimated by pattern matching signal strength values corresponding to the fingerprints using the neural network,
The path information is set in consideration of obstacles detected at a plurality of points in the driving space based on a learning result of the neural network,
moving body.
KR1020190077875A 2019-06-28 2019-06-28 Mobile body, management server, and operating method thereof KR102324989B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190077875A KR102324989B1 (en) 2019-06-28 2019-06-28 Mobile body, management server, and operating method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190077875A KR102324989B1 (en) 2019-06-28 2019-06-28 Mobile body, management server, and operating method thereof

Publications (2)

Publication Number Publication Date
KR20210001578A KR20210001578A (en) 2021-01-06
KR102324989B1 true KR102324989B1 (en) 2021-11-10

Family

ID=74128687

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190077875A KR102324989B1 (en) 2019-06-28 2019-06-28 Mobile body, management server, and operating method thereof

Country Status (1)

Country Link
KR (1) KR102324989B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114935341B (en) * 2022-07-25 2022-11-29 深圳市景创科技电子股份有限公司 Novel SLAM navigation computation video identification method and device
WO2024076169A1 (en) * 2022-10-07 2024-04-11 삼성전자 주식회사 Method for training object recognition model using spatial information, and computing device for performing same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101831028B1 (en) * 2015-07-03 2018-02-21 한국과학기술원 Method and apparatus for relocation of mobile robot in indoor environment
KR101876968B1 (en) * 2016-10-21 2018-07-12 네이버 주식회사 Method and system for controlling indoor autonomous robot

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180134230A (en) * 2017-06-08 2018-12-18 삼성전자주식회사 Cleaning robot and controlling method of thereof
KR102628998B1 (en) * 2017-12-08 2024-01-25 한국전자통신연구원 Method for updating fingerprint database based on crowd-sourcing and apparatus using the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101831028B1 (en) * 2015-07-03 2018-02-21 한국과학기술원 Method and apparatus for relocation of mobile robot in indoor environment
KR101876968B1 (en) * 2016-10-21 2018-07-12 네이버 주식회사 Method and system for controlling indoor autonomous robot

Also Published As

Publication number Publication date
KR20210001578A (en) 2021-01-06

Similar Documents

Publication Publication Date Title
US11034349B2 (en) Autonomous driving method and apparatus
US10762798B2 (en) Autonomous driving method and apparatus
US9804605B2 (en) Position identification device and mobile robot provided with same
US11460851B2 (en) Eccentricity image fusion
JP6682833B2 (en) Database construction system for machine learning of object recognition algorithm
US20190310651A1 (en) Object Detection and Determination of Motion Information Using Curve-Fitting in Autonomous Vehicle Applications
CN109085829B (en) Dynamic and static target identification method
US20120136510A1 (en) Apparatus and method for detecting vehicles using laser scanner sensors
JP7051366B2 (en) Information processing equipment, trained models, information processing methods, and programs
US20180050694A1 (en) Method and device for monitoring a setpoint trajectory to be traveled by a vehicle for being collision free
KR101797818B1 (en) Apparatus and method for providing road information based on deep learnig
KR102324989B1 (en) Mobile body, management server, and operating method thereof
US11030774B2 (en) Vehicle object tracking
WO2023109589A1 (en) Smart car-unmanned aerial vehicle cooperative sensing system and method
US11645775B1 (en) Methods and apparatus for depth estimation on a non-flat road with stereo-assisted monocular camera in a vehicle
CN113885011A (en) Light detection and ranging recalibration system based on point cloud chart for automatic vehicle
CN113544538A (en) Identifying radar reflections using velocity and position information
WO2022115216A2 (en) Method and system for determining a mover model for motion forecasting in autonomous vehicle control
US11938968B2 (en) Trajectory design for image data acquisition for object detection/recognition
US20230260254A1 (en) Information processing device, information processing method, and program
JP6412207B2 (en) Position identification device
US20230230257A1 (en) Systems and methods for improved three-dimensional data association using information from two-dimensional images
US20230219601A1 (en) Efficient neural networks
WO2023210279A1 (en) Electronic device, method and program
US11535257B2 (en) Lane localization system and method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant