KR102324989B1 - Mobile body, management server, and operating method thereof - Google Patents
Mobile body, management server, and operating method thereof Download PDFInfo
- Publication number
- KR102324989B1 KR102324989B1 KR1020190077875A KR20190077875A KR102324989B1 KR 102324989 B1 KR102324989 B1 KR 102324989B1 KR 1020190077875 A KR1020190077875 A KR 1020190077875A KR 20190077875 A KR20190077875 A KR 20190077875A KR 102324989 B1 KR102324989 B1 KR 102324989B1
- Authority
- KR
- South Korea
- Prior art keywords
- driving
- information
- fingerprints
- coordinates
- management server
- Prior art date
Links
- 238000011017 operating method Methods 0.000 title description 2
- 238000013528 artificial neural network Methods 0.000 claims abstract description 43
- 238000000034 method Methods 0.000 claims description 53
- 238000004891 communication Methods 0.000 claims description 16
- 230000004044 response Effects 0.000 claims description 10
- 238000004458 analytical method Methods 0.000 claims description 9
- 238000012544 monitoring process Methods 0.000 claims description 8
- 230000004807 localization Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims 1
- 238000001514 detection method Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 8
- 230000006698 induction Effects 0.000 description 5
- 239000003973 paint Substances 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000010191 image analysis Methods 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000001939 inductive effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0285—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using signals transmitted via a public communication network, e.g. GSM network
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Theoretical Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
일 실시예에 따르면, 관리 서버는 미리 정해진 주행 공간을 이동하는 제1 이동체로부터, SLAM 지도를 생성하기 위하여 주변 환경이 감지되는 복수의 지점들에서 주변 환경의 감지와 함께 측정된 제1 핑거프린트들을 수집하고, 주행 공간 내 복수의 지점들에 대응하는 SLAM 지도 상의 복수의 제1 좌표들과 제1 핑거프린트들을 매칭하고, 매칭된 제1 좌표들 및 제1 핑거프린트들에 기초하여 핑거프린트에 대응하는 SLAM 지도 상의 좌표를 추정하는 신경망을 학습하고, SLAM 지도 상에 설정된 경로 정보에 기초하여 주행 공간을 이동하는 제2 이동체로부터 제2 핑거프린트를 수신하고, 신경망을 이용하여 제2 핑거프린트에 대응하는 SLAM 지도 상의 제2 좌표를 추정하며, 경로 정보 및 추정된 제2 좌표에 기초하여 제2 이동체의 주행 정보를 결정하여 전송할 수 있다.According to an embodiment, the management server collects first fingerprints measured along with the detection of the surrounding environment at a plurality of points where the surrounding environment is sensed in order to generate a SLAM map from a first moving body moving in a predetermined driving space. collect, match the first fingerprints with a plurality of first coordinates on the SLAM map corresponding to the plurality of points in the driving space, and correspond to the fingerprint based on the matched first coordinates and the first fingerprints learning a neural network estimating coordinates on a SLAM map, receiving a second fingerprint from a second moving object moving in a driving space based on path information set on the SLAM map, and using a neural network to respond to the second fingerprint The second coordinates on the SLAM map may be estimated, and the driving information of the second moving object may be determined and transmitted based on the route information and the estimated second coordinates.
Description
실시예들은 이동체, 관리 서버 및 그 동작 방법에 관한 것이다.Embodiments relate to a mobile body, a management server, and an operating method thereof.
공장의 생산 라인이나 창고 등에서의 인력 절약 및/또는 반송의 정확성을 향상시키기 위해, 목표 경로를 따라 자동적으로 주행하는 무인 운반 차량, 무인 반송 로봇 등과 같은 다양한 이동체가 도입되고 있다. 이동체는 예를 들어, 이동체의 주행 경로 상에 자성 도료, 유도용 전선, 유도용 테이프, 큐알 코드(QR code) 등을 시공하고, 이동체가 자성 도료, 테이프 또는 큐알 코드 등을 감지함으로써 목표 경로를 따라 주행하도록 유도될 수 있다. In order to save manpower and/or improve conveyance accuracy in a production line of a factory or a warehouse, various moving objects such as an unmanned transport vehicle and an unmanned transport robot that automatically travel along a target path have been introduced. The moving object constructs, for example, magnetic paint, induction wire, induction tape, QR code, etc. on the traveling path of the moving object, and detects the magnetic paint, tape, or QR code, etc. to determine the target path. may be induced to follow.
이와 같이 이동체의 주행을 유도하는 방식은 목표 경로 상에 감지 가능한 자성 도료, 유도용 전선, 유도용 테이프, 큐알 코드(QR code) 등을 시공하는 과정이 반드시 선행 되어야 한다. 뿐만 아니라, 공장 내 환경에 따라 이동체의 유도를 위한 공간 확보가 어렵거나, 또는 경로 확보를 위한 추가적인 비용이 소요될 수 있다. 이 밖에도, 경로 변경, 유도용 도료, 전선, 테이프 등의 훼손에 따른 부가 작업이 요구된다. In such a way to induce the movement of a moving object, the process of constructing a detectable magnetic paint, an induction wire, an induction tape, and a QR code on the target path must be preceded. In addition, depending on the environment in the factory, it may be difficult to secure a space for guiding the moving object, or additional cost for securing a path may be required. In addition, additional work is required due to damage to the route change, induction paint, wire, tape, etc.
일 실시예에 따르면, 관리 서버가 5G 네트워크 기반의 핑거프린트를 SLAM 지도와 연동하여 이동체의 주행 정보를 보다 빠르고 정확하게 결정하고, 5G 네트워크를 통해 주행 정보를 고속으로 이동체에게 전달할 수 있다. According to an embodiment, the management server can determine the driving information of the moving object more quickly and accurately by linking the 5G network-based fingerprint with the SLAM map, and deliver the driving information to the moving object at high speed through the 5G network.
일 실시예에 따르면, 관리 서버가 핑거프린트에 대응하는 SLAM 지도 상의 좌표를 추정하는 신경망을 이용하여 이동체를 위한 경로 정보 및 좌표를 추정함으로써 이동체의 경로 유도를 위한 유도용 도료, 전선, 테이프, 큐알 코드(QR code) 등이 없이도 이동체의 주행 정보를 보다 정확하게 결정할 수 있다. According to an embodiment, the management server estimates the path information and coordinates for the moving object using a neural network that estimates the coordinates on the SLAM map corresponding to the fingerprint, thereby inducing paint, wire, tape, QR for inducing the path of the moving object. It is possible to more accurately determine the driving information of the moving object without a QR code or the like.
일 실시예에 따르면, 이동체에 구비된 5G 네트워크 모듈 및 IoT 센서 수신 장치를 통해 수신된 정보에 대응하여 관리 서버가 실시간으로 SLAM 지도 상의 좌표를 추정하여 주행 경로를 결정함으로써 주변 환경 변화에 따른 주행 정보의 변화에도 신속하게 대응할 수 있다. According to one embodiment, in response to information received through the 5G network module and IoT sensor receiving device provided in the mobile body, the management server determines the driving route by estimating the coordinates on the SLAM map in real time, so that driving information according to changes in the surrounding environment Able to respond quickly to changes in
일 실시예에 따르면, 5G 네트워크 모듈 및 IoT 센서 수신 장치만을 추가함으로써 기존 이동체의 교체없이도 관리 서버로부터 보다 정확한 경로 정보를 제공받을 수 있다. According to an embodiment, by adding only the 5G network module and the IoT sensor receiving device, it is possible to receive more accurate route information from the management server without replacing the existing moving object.
일 실시예에 따르면, 5G 네트워크 기반의 고속, 고화질, 실시간 영상 분석을 통해 갑작스러운 방해물의 등장에 의한 이동체의 추돌 및 안전 사고를 방지할 수 있다.According to an embodiment, it is possible to prevent a collision of a moving object and a safety accident due to the sudden appearance of an obstacle through 5G network-based high-speed, high-definition, and real-time image analysis.
일 실시예에 따르면, 관리 서버의 동작 방법은 미리 정해진 주행 공간을 이동하는 제1 이동체로부터, SLAM 지도를 생성하기 위하여 주변 환경이 감지되는 복수의 지점들에서 상기 주변 환경의 감지와 함께 측정된 제1 핑거프린트들(fingerprints)을 수집하는 단계; 상기 주행 공간 내 상기 복수의 지점들에 대응하는 상기 SLAM 지도 상의 복수의 제1 좌표들과 상기 제1 핑거프린트들을 매칭하는 단계; 상기 매칭된 제1 좌표들 및 제1 핑거프린트들에 기초하여, 핑거프린트에 대응하는 상기 SLAM 지도 상의 좌표를 추정하는 신경망을 학습하는 단계; 상기 SLAM 지도 상에 설정된 경로 정보에 기초하여 상기 주행 공간을 이동하는 제2 이동체로부터 제2 핑거프린트를 수신하는 단계; 상기 신경망을 이용하여, 상기 제2 핑거프린트에 대응하는 상기 SLAM 지도 상의 제2 좌표를 추정하는 단계; 상기 경로 정보 및 상기 추정된 제2 좌표에 기초하여, 상기 제2 이동체의 주행 정보를 결정하는 단계; 및 상기 주행 정보를 전송하는 단계를 포함한다. According to an embodiment of the present disclosure, the method of operating the management server includes the first mobile device that moves in a predetermined driving space, the first measured along with the detection of the surrounding environment at a plurality of points where the surrounding environment is sensed in order to generate a SLAM map. 1 Collecting fingerprints; matching the first fingerprints with a plurality of first coordinates on the SLAM map corresponding to the plurality of points in the driving space; learning a neural network for estimating coordinates on the SLAM map corresponding to a fingerprint based on the matched first coordinates and first fingerprints; receiving a second fingerprint from a second mobile body moving in the driving space based on route information set on the SLAM map; estimating second coordinates on the SLAM map corresponding to the second fingerprint by using the neural network; determining driving information of the second moving object based on the path information and the estimated second coordinates; and transmitting the driving information.
상기 제1 핑거프린트들을 수집하는 단계는 5G 네트워크 내의 적어도 하나의 기지국에서 송출되는 신호의 전파 특성에 기초하여 상기 제1 핑거프린트들을 수집하는 단계를 포함할 수 있다. Collecting the first fingerprints may include collecting the first fingerprints based on propagation characteristics of a signal transmitted from at least one base station in a 5G network.
상기 관리 서버의 동작 방법은 상기 신경망의 학습 결과에 기초하여, 상기 복수의 지점들에서 감지되는 장애물을 고려하여 상기 LAM 지도 상에 경로 정보를 설정하는 단계를 더 포함할 수 있다. The method of operating the management server may further include setting path information on the LAM map in consideration of obstacles detected at the plurality of points based on the learning result of the neural network.
상기 경로 정보를 결정하는 단계는 상기 제1 핑거프린트들을 기초로, 상기 주행 공간 내 음영 지역에 대한 정보를 획득하는 단계; 및 상기 신경망에 기초하여 상기 음영 지역에 대응하는 경로 정보로 결정하는 단계를 포함할 수 있다. The determining of the route information may include: acquiring information on a shadow area in the driving space based on the first fingerprints; and determining the path information corresponding to the shaded area based on the neural network.
상기 제1 핑거프린트들을 수집하는 단계는 상기 제1 이동체가 상기 복수의 지점들에서 주변 환경을 감지한 결과를 기초로, SLAM(Simultaneous Localization And Mapping) 기법에 의해 상기 제1 이동체의 위치에 대응하는 상기 SLAM 지도를 생성하는 단계를 더 포함할 수 있다. In the collecting of the first fingerprints, the first mobile body detects the surrounding environment at the plurality of points, based on a result of detecting the surrounding environment at the plurality of points. The method may further include generating the SLAM map.
상기 복수의 지점들은 상기 주행 공간에 설치된 적어도 하나의 IoT 센서 및 적어도 하나의 액세스 포인트 중 적어도 하나를 포함할 수 있다. The plurality of points may include at least one of at least one IoT sensor and at least one access point installed in the driving space.
상기 관리 서버의 동작 방법은 상기 제2 이동체에 탑재된 적어도 하나의 촬영 장치를 통해 촬영된 주행 환경 영상을 실시간으로 수신하는 단계; 상기 주행 환경 영상을 분석하는 단계; 상기 분석 결과에 기초하여 상기 주행 공간 내의 객체 출현 여부를 알리는 알람을 생성하는 단계; 및 상기 알람을 상기 제2 이동체에게 전송하는 단계를 더 포함할 수 있다. The method of operating the management server may include: receiving in real time a driving environment image captured by at least one photographing device mounted on the second moving object; analyzing the driving environment image; generating an alarm notifying whether an object appears in the driving space based on the analysis result; and transmitting the alarm to the second moving object.
상기 주행 환경 영상을 분석하는 단계는 미리 학습된 심층 신경망에 의해 상기 주행 환경 영상을 분석하는 단계를 포함할 수 있다. The analyzing of the driving environment image may include analyzing the driving environment image using a pre-trained deep neural network.
상기 알람을 생성하는 단계는 상기 분석 결과에 기초하여 상기 주행 공간 내의 객체 출현 여부를 인식하는 단계; 및 상기 인식에 따라 알람을 생성하는 단계를 포함할 수 있다. The generating of the alarm may include: recognizing whether an object appears in the driving space based on the analysis result; and generating an alarm according to the recognition.
상기 제2 이동체는 5G 네트워크 모듈을 포함하고, 상기 5G 네트워크 모듈을 통해 상기 제2 이동체가 상기 복수의 지점들에서 감지한 주변 환경에 대한 정보를 수신하는 단계; 및 상기 주변 환경에 대한 정보를 기초로, 상기 제2 이동체의 주행을 모니터링하는 단계를 더 포함할 수 있다. the second mobile body includes a 5G network module, and the second mobile body receives information on the surrounding environment sensed at the plurality of points through the 5G network module; and monitoring the driving of the second moving object based on the information on the surrounding environment.
상기 관리 서버의 동작 방법은 상기 모니터링 결과에 따라 상기 주행 정보를 수정하는 단계; 및 상기 수정된 주행 정보를 상기 5G 네트워크 모듈을 통해 상기 제2 이동체에게 전송하는 단계를 더 포함할 수 있다. The method of operating the management server may include: correcting the driving information according to the monitoring result; and transmitting the modified driving information to the second mobile unit through the 5G network module.
일 실시예에 따르면, 이동체의 동작 방법은 미리 정해진 주행 공간을 이동함에 따라 수집되는 핑거프린트들을 전송하는 단계; 미리 학습된 신경망에서 상기 핑거프린트들에 대응하여 추정된 SLAM 지도 상의 좌표 및 경로 정보를 기초로 결정된 주행 정보를 수신하는 단계; 상기 주행 정보에 기초하여 구동 파라미터를 결정하는 단계; 및 상기 구동 파라미터에 따라 구동을 수행하는 단계를 포함할 수 있다. According to an embodiment, a method of operating a moving object includes transmitting fingerprints collected as it moves in a predetermined driving space; receiving driving information determined based on coordinates and route information on a SLAM map estimated in response to the fingerprints from a pre-trained neural network; determining a driving parameter based on the driving information; and performing driving according to the driving parameters.
상기 주행 정보를 수신하는 단계는 관리 서버 및 관제 인터페이스 중 어느 하나로부터, 상기 주행 정보를 수신하는 단계를 포함할 수 있다. Receiving the driving information may include receiving the driving information from any one of a management server and a control interface.
상기 이동체는 5G 네트워크 모듈을 포함하고, 상기 핑거프린트들을 전송하는 단계는 미리 정해진 주행 공간을 이동함에 따라 수집되는 핑거프린트들 을 상기 5G 네트워크 모듈을 통해 전송하는 단계를 포함할 수 있다. The mobile body may include a 5G network module, and the step of transmitting the fingerprints may include transmitting the fingerprints collected as the mobile device moves through a predetermined driving space through the 5G network module.
상기 이동체의 동작 방법은 상기 이동체의 구동에 따라 변화되는 주변 환경에 대한 정보를 전송하는 단계; 상기 변화되는 주변 환경에 대한 정보에 기초한 모니터링 결과에 따라 수정된 주행 정보를 수신하는 단계; 및 상기 수정된 주행 정보에 따라 상기 구동 파라미터를 변경하는 단계; 및 상기 변경된 구동 파라미터에 따라 상기 이동체를 구동하는 단계를 더 포함할 수 있다. The method of operating the moving object may include transmitting information on a surrounding environment that is changed according to the driving of the moving object; receiving driving information corrected according to a monitoring result based on the changed surrounding environment information; and changing the driving parameter according to the modified driving information. and driving the movable body according to the changed driving parameter.
상기 이동체의 동작 방법은 상기 이동체에 탑재된 적어도 하나의 촬영 장치를 통해 주변 환경 영상을 촬영하는 단계; 상기 주변 환경 영상을 전송하는 단계; 및 상기 주변 환경 영상을 분석한 결과에 기초하여 인식된 상기 주행 공간 내의 객체 출현 여부에 따라 생성된 알람을 수신하는 단계를 더 포함할 수 있다. The method of operating the moving object may include: capturing an image of a surrounding environment through at least one photographing device mounted on the moving object; transmitting the surrounding environment image; and receiving an alarm generated according to whether an object appears in the driving space recognized based on a result of analyzing the surrounding environment image.
일 실시예에 따르면, 관리 서버는 미리 정해진 주행 공간을 이동하는 제1 이동체로부터, SLAM 지도를 생성하기 위하여 주변 환경이 감지되는 복수의 지점들에서 상기 주변 환경의 감지와 함께 측정된 제1 핑거프린트(fingerprint)들을 수집하고, 상기 주행 공간 내 상기 복수의 지점들에 대응하는 상기 SLAM 지도 상의 복수의 제1 좌표들과 상기 제1 핑거프린트들을 매칭하며, 상기 매칭된 제1 좌표들 및 제1 핑거프린트들에 기초하여, 핑거프린트에 대응하는 상기 SLAM 지도 상의 좌표를 추정하는 신경망을 학습하는 프로세서; 및 상기 SLAM 지도 상에 설정된 경로 정보에 기초하여 상기 주행 공간을 이동하는 제2 이동체로부터 제2 핑거프린트를 수신하는 통신 인터페이스를 포함하고, 상기 프로세서는 상기 신경망을 이용하여, 상기 제2 핑거프린트에 대응하는 상기 SLAM 지도 상의 제2 좌표를 추정하고, 상기 경로 정보 및 상기 추정된 제2 좌표를 기초로, 상기 제2 이동체의 주행 정보를 결정한다. According to an embodiment, the management server generates a SLAM map from a first mobile body moving in a predetermined driving space at a plurality of points where the surrounding environment is sensed and a first fingerprint measured along with the sensing of the surrounding environment. collecting (fingerprints), matching the first fingerprints with a plurality of first coordinates on the SLAM map corresponding to the plurality of points in the travel space, the matched first coordinates and the first finger a processor for training a neural network estimating coordinates on the SLAM map corresponding to a fingerprint based on the prints; and a communication interface for receiving a second fingerprint from a second mobile body moving in the driving space based on the route information set on the SLAM map, wherein the processor uses the neural network to access the second fingerprint. The corresponding second coordinates on the SLAM map are estimated, and the driving information of the second mobile body is determined based on the route information and the estimated second coordinates.
일 실시예에 따르면, 이동체는 미리 정해진 주행 공간을 이동함에 따라 수집되는 핑거프린트들을 전송하고, 미리 학습된 신경망에서 상기 핑거프린트들에 대응하여 추정된 SLAM 지도 상의 좌표 및 경로 정보를 기초로 결정된 주행 정보를 수신하는 통신 인터페이스; 및 상기 주행 정보에 기초하여 구동 파라미터를 결정하고, 상기 구동 파라미터에 따라 구동을 수행하는 프로세서를 포함한다.According to an embodiment, the moving object transmits fingerprints collected as it moves in a predetermined driving space, and a driving determined based on coordinates and path information on a SLAM map estimated in response to the fingerprints in a pre-trained neural network a communication interface for receiving information; and a processor that determines a driving parameter based on the driving information and performs driving according to the driving parameter.
일 측에 따르면, 관리 서버가 5G 네트워크 기반의 핑거프린트를 SLAM 지도와 연동하여 이동체의 주행 정보를 보다 빠르고 정확하게 결정하고, 5G 네트워크를 통해 주행 정보를 고속으로 이동체에게 전달할 수 있다. According to one side, the management server can determine the driving information of the moving object more quickly and accurately by linking the 5G network-based fingerprint with the SLAM map, and deliver the driving information to the moving object at high speed through the 5G network.
일 측에 따르면, 관리 서버가 핑거프린트에 대응하는 SLAM 지도 상의 좌표를 추정하는 신경망을 이용하여 이동체를 위한 경로 정보 및 좌표를 추정함으로써 이동체의 경로 유도를 위한 유도용 도료, 전선, 테이프, 큐알 코드(QR code) 등이 없이도 이동체의 주행 정보를 보다 정확하게 결정할 수 있다. According to one side, the management server estimates the path information and coordinates for the moving object using a neural network that estimates the coordinates on the SLAM map corresponding to the fingerprint. It is possible to more accurately determine the driving information of the moving object without a QR code or the like.
일 측에 따르면, 이동체에 구비된 5G 네트워크 모듈 및 IoT 센서 수신 장치를 통해 수신된 정보에 대응하여 관리 서버가 실시간으로 SLAM 지도 상의 좌표를 추정하여 주행 경로를 결정함으로써 주변 환경 변화에 따른 주행 정보의 변화에도 신속하게 대응할 수 있다. According to one side, in response to information received through the 5G network module and the IoT sensor receiving device provided in the mobile body, the management server estimates the coordinates on the SLAM map in real time to determine the driving route, so that the driving information according to changes in the surrounding environment is obtained. Able to respond quickly to changes.
일 측에 따르면, 5G 네트워크 모듈 및 IoT 센서 수신 장치만을 추가함으로써 기존 이동체의 교체없이도 관리 서버로부터 보다 정확한 경로 정보를 제공받을 수 있다. According to one side, by adding only the 5G network module and the IoT sensor receiving device, it is possible to receive more accurate route information from the management server without replacing the existing moving body.
일 측에 따르면, 5G 네트워크 기반의 고속, 고화질, 실시간 영상 분석을 통해 갑작스러운 방해물의 등장에 의한 이동체의 추돌 및 안전 사고를 방지할 수 있다.According to one side, high-speed, high-definition, real-time video analysis based on 5G network can prevent collisions and safety accidents of moving objects due to the sudden appearance of obstacles.
도 1은 일 실시예에 따른 관리 서버의 동작 방법을 나타낸 흐름도.
도 2는 일 실시예에 따른 이동체가 핑거프린트를 수집하는 방법을 설명하기 위한 도면.
도 3은 일 실시예에 따른 관리 서버에서 영상 분석을 통해 알람을 생성하는 과정을 설명하기 위한 도면.
도 4는 일 실시예에 따른 이동체의 동작 방법을 나타낸 흐름도.
도 5는 일 실시예에 따른 이동체의 구성 요소들 및 구성 요소들 간의 제어 흐름을 설명하기 위한 도면
도 6은 일 실시예에 따른 이동체의 투시도.
도 7은 일 실시예에 따른 이동체의 구성도.
도 8은 일 실시예에 따른 관리 서버의 블럭도.1 is a flowchart illustrating a method of operating a management server according to an embodiment;
FIG. 2 is a view for explaining a method for a mobile body to collect fingerprints according to an exemplary embodiment;
3 is a view for explaining a process of generating an alarm through image analysis in a management server according to an embodiment;
4 is a flowchart illustrating a method of operating a moving object according to an embodiment;
5 is a diagram for explaining components of a mobile body and a control flow between the components according to an embodiment;
6 is a perspective view of a movable body according to an embodiment;
7 is a configuration diagram of a movable body according to an embodiment;
8 is a block diagram of a management server according to an embodiment;
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Like reference numerals in each figure indicate like elements.
아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Various modifications may be made to the embodiments described below. It should be understood that the embodiments described below are not intended to limit the embodiments, and include all modifications, equivalents or substitutes thereto.
실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the examples are only used to describe specific examples, and are not intended to limit the examples. The singular expression includes the plural expression unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are assigned the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In the description of the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.
도 1은 일 실시예에 따른 관리 서버의 동작 방법을 나타낸 흐름도이다. 도 1을 참조하면, 일 실시예에 따른 관리 서버는 미리 정해진 주행 공간을 이동하는 제1 이동체로부터, SLAM 지도를 생성하기 위하여 주변 환경이 감지되는 복수의 지점들에서 주변 환경의 감지와 함께 측정된 제1 핑거프린트들(fingerprints)을 수집한다(110). '제1 이동체'는 예를 들어, 공장, 화물 적하장, 주차장 등과 같은 미리 정해진 주행 공간에서의 실제 주행에 앞서 좌표 추정 및 경로 정보 결정 등을 위한 정보를 수집하기 위해 이동하는 이동체에 해당할 수 있다. 제1 이동체는 예를 들어, 무인 운반 차량(Automatic Guided Vehicle; AGV), 무인 이송 로봇, 무인 이동체(UnManned Vehicle; UMV)뿐만 아니라 자율 주행 차량, 운전자가 운전하는 운반 차량 등을 모두 포괄하는 의미로 이해될 수 있다. 제1 이동체는 후술하는 제2 이동체와 동일할 수도 있고, 상이할 수도 있다. 1 is a flowchart illustrating a method of operating a management server according to an exemplary embodiment. Referring to FIG. 1 , the management server according to an embodiment of the present invention generates a SLAM map from a first moving body moving in a predetermined driving space at a plurality of points where the surrounding environment is sensed and measured together with the sensing of the surrounding environment. First fingerprints are collected (110). The 'first moving body' may correspond to a moving body that moves to collect information for estimating coordinates and determining route information prior to actual driving in a predetermined driving space, such as a factory, cargo loading dock, parking lot, etc. have. The first mobile body includes, for example, an automatic guided vehicle (AGV), an unmanned transport robot, an unmanned vehicle (UMV), as well as an autonomous vehicle, a transport vehicle driven by a driver, and the like. can be understood The first movable body may be the same as or different from the second movable body to be described later.
여기서, 'SLAM 지도를 생성하기 위하여 주변 환경이 감지되는 복수의 지점들에서 주변 환경의 감지와 함께 측정된 제1 핑거프린트들을 수집한다'는 것은 복수의 지점들에서의 주변 환경을 감지한 결과를 기초로 SLAM 지도를 생성하는 동작과 복수의 지점들에서의 제1 핑거프린트들을 수집하는 동작이 함께 수행된다는 의미이다. 다시 말해, 관리 서버는 복수의 지점들에서 주변 환경을 감지한 결과를 기초로 SLAM 기법에 의해 제1 이동체의 위치에 대응하는 SLAM 지도를 생성하고 이와 연동하여 복수의 지점들에 대응하는 SLAM 지도 상의 좌표에서 제1 핑거프린트들을 수집할 수 있다. 복수의 지점들은 예를 들어, 주행 공간에 설치된 적어도 하나의 IoT 센서 및 적어도 하나의 액세스 포인트 등과 같은 신호 송출기를 포함할 수 있다. Here, 'collecting the first fingerprints measured together with the sensing of the surrounding environment at a plurality of points where the surrounding environment is sensed to generate a SLAM map' refers to the result of sensing the surrounding environment at a plurality of points. This means that the operation of generating the SLAM map based on the basis and the operation of collecting the first fingerprints at a plurality of points are performed together. In other words, the management server generates a SLAM map corresponding to the location of the first mobile body by the SLAM technique based on the result of detecting the surrounding environment at a plurality of points, and interworks with the SLAM map corresponding to the plurality of points on the SLAM map. The first fingerprints may be collected at the coordinates. The plurality of points may include, for example, a signal transmitter such as at least one IoT sensor and at least one access point installed in the driving space.
SLAM(Simultaneous Localization and Mapping) 기법은 동시적 위치 추정 및 지도 작성 기법이다. SLAM 기법에 의하면, 로봇 등과 같은 이동체가 임의의 공간을 이동하여 주변을 탐색하면서 해당 공간의 지도 및 현재 위치를 추정할 수 있다. SLAM (Simultaneous Localization and Mapping) technique is a simultaneous localization and mapping technique. According to the SLAM technique, a moving object, such as a robot, moves in an arbitrary space and searches the surroundings, while estimating a map and a current location of the space.
핑거프린트(들)은 핑거프린트(fingerprint) 기법에서 이용되는 위치 정보에 해당할 수 있다. 핑거프린트 기법은 신호 송출기(예를 들어, 액세스 포인트, IoT 센서, 또는 IoT 디바이스 등)로부터 전송된 신호 세기를 사전에 측정하여 데이터베이스에 예를 들어, 도 2의 WiFi 라디오 맵(210)과 같은 형태로 저장한 후, 이동체로부터 수신되는 신호 세기의 값이 전달되면, 데이터베이스로부터 해당 신호 세기 값에 대응되는 위치 정보를 호출하여 이동체로 제공하는 방식이다. 이때, 신호 송출기로부터 전송되는 신호는 예를 들어, RF 신호, LTE 신호, 및 5G 신호 중 어느 하나일 수 있다. The fingerprint(s) may correspond to location information used in a fingerprint technique. The fingerprint technique measures the signal strength transmitted from a signal transmitter (eg, an access point, an IoT sensor, or an IoT device, etc.) in advance and stores it in a database, for example, in the form of the
이하에서, '제1 핑거프린트(들)'은 제1 이동체에 의해 수집되는 핑거프린트(들)을 의미하고, 제2 핑거프린트(들)은 제2 이동체에 의해 수집되는 핑거프린트(들)을 의미할 수 있다. 또한, 제1 핑거프린트(들) 및 제2 핑거프린트(들)은 예를 들어, RF 핑거프린트, LTE 핑거프린트, 5G 핑거프린트 중 어느 하나일수 있다. 일 실시예에 따른 이동체가 핑거프린트를 수집하는 방법은 아래의 도 2를 참조하여 보다 구체적으로 설명한다. Hereinafter, 'first fingerprint(s)' refers to the fingerprint(s) collected by the first moving object, and the second fingerprint(s) refers to the fingerprint(s) collected by the second moving object. can mean In addition, the first fingerprint(s) and the second fingerprint(s) may be, for example, any one of an RF fingerprint, an LTE fingerprint, and a 5G fingerprint. A method of collecting a fingerprint by a moving object according to an exemplary embodiment will be described in more detail with reference to FIG. 2 below.
관리 서버는 주행 공간 내 복수의 지점들에 대응하는 SLAM 지도 상의 복수의 제1 좌표들과 제1 핑거프린트들을 매칭한다(120). 일 실시예에 따른 관리 서버는 제2 이동체가 주행해야 하는 주행 공간에 대한 제1 핑거프린트들을 수집하고, 주행 공간의 SLAM 지도와 제1 핑거프린트들을 매칭시킴으로써 향후 제2 이동체의 주행을 위한 경로 정보 및 SLAM 지도 상의 좌표를 결정하여 제2 이동체의 자율 주행이 가능하도록 할 수 있다. The management server matches the first fingerprints with a plurality of first coordinates on the SLAM map corresponding to the plurality of points in the driving space ( 120 ). The management server according to an embodiment collects first fingerprints for a driving space in which the second moving object needs to travel, and matches the SLAM map of the driving space with the first fingerprints, thereby providing path information for future driving of the second moving object. and determining the coordinates on the SLAM map to enable autonomous driving of the second mobile body.
관리 서버는 매칭된 제1 좌표들 및 제1 핑거프린트들에 기초하여, 핑거프린트에 대응하는 SLAM 지도 상의 좌표를 추정하는 신경망을 학습한다(130). 이때, 신경망은 핑거프린트가 입력되면, 입력된 핑거프린트에 대응하는 SLAM 지도 상의 좌표를 출력하도록 미리 학습된 신경망일 수 있다. 신경망은 예를 들어, 심층 신경망(Deep Neural Network; DNN) 또는 회귀 신경망(Recurrent Neural Network; RNN) 등을 포함할 수 있다. 관리 서버는 신경망의 학습 결과에 기초하여, 복수의 지점들에서 감지되는 장애물을 고려하여 SLAM 지도 상에 경로 정보를 설정할 수 있다. 관리 서버는 제1 핑거프린트들을 기초로, 주행 공간 내 음영 지역에 대한 정보를 획득하고, 신경망에 기초하여 음영 지역에 대응하는 경로 정보를 결정할 수 있다. The management server learns a neural network for estimating coordinates on the SLAM map corresponding to the fingerprint based on the matched first coordinates and the first fingerprints ( 130 ). In this case, when a fingerprint is input, the neural network may be a neural network previously trained to output coordinates on the SLAM map corresponding to the input fingerprint. The neural network may include, for example, a deep neural network (DNN) or a recurrent neural network (RNN). The management server may set path information on the SLAM map in consideration of obstacles detected at a plurality of points based on the learning result of the neural network. The management server may obtain information on the shaded area in the driving space based on the first fingerprints, and determine path information corresponding to the shaded area based on the neural network.
관리 서버는 SLAM 지도 상에 설정된 경로 정보에 기초하여 주행 공간을 이동하는 제2 이동체로부터 제2 핑거프린트를 수신한다(140). 이때, 제2 이동체는 5G 네트워크 모듈 및 IoT 센서 수신 장치를 포함할 수 있다. The management server receives the second fingerprint from the second mobile body moving in the driving space based on the route information set on the SLAM map ( 140 ). In this case, the second mobile body may include a 5G network module and an IoT sensor receiving device.
관리 서버는 단계(130)를 통해 학습된 신경망을 이용하여, 제2 핑거프린트에 대응하는 SLAM 지도 상의 제2 좌표를 추정한다(150).The management server estimates the second coordinates on the SLAM map corresponding to the second fingerprint by using the neural network learned through step 130 (step 150).
관리 서버는 경로 정보 및 추정된 제2 좌표에 기초하여, 제2 이동체의 주행 정보를 결정한다(160).The management server determines driving information of the second moving object based on the route information and the estimated second coordinates ( 160 ).
관리 서버는 주행 정보를 전송한다(170).The management server transmits driving information (170).
실시예에 따라서, 관리 서버는 5G 네트워크 모듈을 통해 제2 이동체가 주행 공간 내의 복수의 지점들에서 감지한 주변 환경에 대한 정보를 수신할 수 있다. 관리 서버는 주변 환경에 대한 정보를 기초로, 제2 이동체의 주행을 모니터링할 수 있다. 관리 서버는 모니터링 결과에 따라 주행 정보를 수정하고, 수정된 주행 정보를 5G 네트워크 모듈을 통해 제2 이동체에게 전송할 수 있다. According to an embodiment, the management server may receive information on the surrounding environment sensed by the second mobile body at a plurality of points in the driving space through the 5G network module. The management server may monitor the driving of the second moving object based on the information on the surrounding environment. The management server may correct the driving information according to the monitoring result, and transmit the corrected driving information to the second mobile unit through the 5G network module.
일 실시예에 따른 관리 서버는 예를 들어, 분산 서버일수도 있고, 클라우드 서버일 수도 있다. 이때, 관리 서버에는 예를 들어, fleet management software와 같은 관제 인터페이스가 포함될 수도 있다. 실시예에 따라서, 관제 인터페이스는 관리 서버와 별개로 공장 관리 서버 또는 작업장의 분산 서버 등에 설치될 수도 있다. The management server according to an embodiment may be, for example, a distributed server or a cloud server. In this case, the management server may include, for example, a control interface such as fleet management software. According to an embodiment, the control interface may be installed separately from the management server, such as a factory management server or a distributed server of a workplace.
도 2는 일 실시예에 따른 이동체가 핑거프린트를 수집하는 방법을 설명하기 위한 도면이다. 도 2를 참조하면, 제1 이동체로부터 복수의 지점들에서 수집된 제1 핑거프린트들에 의해 작성된 데이터 베이스(210)가 도시된다. FIG. 2 is a diagram for describing a method of collecting a fingerprint by a moving object according to an exemplary embodiment. Referring to FIG. 2 , a
관리 서버는 이동체의 주행 공간에 위치하는 복수의 신호 송출기들(예를 들어, 액세스 포인트, IoT 센서, 또는 IoT 디바이스 등)로부터 전송된 신호 세기를 측정하여 데이터베이스(210)에 저장할 수 있다. 이때, 신호 송출기로부터 전송된 신호는 예를 들어, RF 신호일 수도 있고, LTE 신호일 수도 있고, 5G 신호일 수도 있다. The management server may measure the signal strength transmitted from a plurality of signal transmitters (eg, an access point, an IoT sensor, or an IoT device, etc.) located in the driving space of the moving object and store it in the
이후, 관리 서버는 주행 공간의 이동하는 이동체로부터 온라인으로 측정값(예를 들어, 이동체에 수신되는 신호 세기의 값)이 전달되면, 패턴 매칭을 통해 해당 신호 세기 값에 대응하여 추정된 위치 정보를 데이터베이스로부터 호출하여 이동체로 제공할 수 있다. 이때, 패턴 매칭은 예를 들어, K-NN(Nearest Neighboring) 분류기, SVM(Support Vector Machine), NN(Neural Network) 등을 통해 수행될 수 있다. Thereafter, when the measurement value (eg, the value of the signal strength received by the moving object) is transmitted online from the moving object in the driving space, the management server receives position information estimated in response to the corresponding signal strength value through pattern matching. It can be provided as a mobile object by calling it from the database. In this case, the pattern matching may be performed through, for example, a Nearest Neighboring (K-NN) classifier, a Support Vector Machine (SVM), or a Neural Network (NN).
이때, 데이터베이스(210)는 예를 들어, (x, y)로 표현되는 위치 정보와, 각 위치에서 각각의 신호 송출기로부터 수신되는 신호 세기 정보를 포함할 수 있다. 데이터베이스(210)에서 (x1, y1) 위치에 대응하는 수신 신호 정보로 표시되는 값(예를 들어, -62, -88, -79 등)은 예를 들어, (x1, y1) 위치에서 AP1, AP2, AP3로부터 수신되는 신호의 세기를 나타낼 수 있다. In this case, the
실시예에 따라서, 미리 정해진 주행 공간이 예를 들어, 공장 등과 같은 제한적인 장소인 경우, 공장 내 스마트 팩토리(smart factory)를 위해 설치되는 소형 5G 수신기 등을 신호 송출기로 이용하여 핑거프린트를 수집할 수도 있다. According to the embodiment, when the predetermined driving space is a limited place, such as a factory, a small 5G receiver installed for a smart factory in the factory, etc., as a signal transmitter, is used as a signal transmitter to collect fingerprints. may be
도 3은 일 실시예에 따른 관리 서버에서 영상 분석을 통해 알람을 생성하는 과정을 설명하기 위한 도면이다. 도 3을 참조하면, 일 실시예에 따른 관리 서버는 제2 이동체에 탑재된 적어도 하나의 촬영 장치를 통해 촬영된 주행 환경 영상을 실시간으로 수신할 수 있다(310). 이때, 제2 이동체에서 촬영된 주행 환경 영상은 예를 들어, Full-HD 급의 실시간 영상으로서 5G 네트워크에 의해 고속으로 관리 서버로 전송될 수 있다. 3 is a diagram for explaining a process of generating an alarm through image analysis in a management server according to an embodiment. Referring to FIG. 3 , the management server according to an exemplary embodiment may receive a driving environment image captured through at least one photographing device mounted on the second moving body in real time ( 310 ). In this case, the driving environment image captured by the second moving object may be transmitted to the management server at high speed by the 5G network as a real-time image of a Full-HD level, for example.
관리 서버는 예를 들어, 심층 신경망(DNN) 분류기를 이용하여 주행 환경 영상을 분석할 수 있다(320). 이때, 심층 신경망(DNN) 분류기는 주행 환경 영상 내에 포함된 다른 이동체, 사람, 동물, 기타의 방해물 등을 분류하도록 미리 학습될 수 있다. The management server may analyze the driving environment image using, for example, a deep neural network (DNN) classifier ( 320 ). In this case, the deep neural network (DNN) classifier may be trained in advance to classify other moving objects, people, animals, and other obstacles included in the driving environment image.
관리 서버는 영상 분석을 통해 이동체의 주행 공간 내에서의 새로운 객체의 출현 여부를 인식할 수 있다(330). The management server may recognize whether a new object appears in the traveling space of the moving object through image analysis ( 330 ).
관리 서버는 분석 결과(예를 들어, 새로운 객체의 출현)에 기초하여 주행 공간 내의 객체 출현 여부를 알리는 알람을 생성할 수 있다(340). 관리 서버는 생성한 알람을 제2 이동체에게 전송할 수 있다. 알람을 수신한 제2 이동체는 알람의 유형에 따라 구동을 즉시 중지하거나, 또는 다양한 알람 사운드, 음성 경고, 또는 점멸등 발광 등을 통해 주행 공간 내에 갑자기 출현한 객체에 대한 알람을 표현할 수 있다. 알람의 유형은 예를 들어, 다른 이동체의 고장 등에 의한 방해물 발생, 또는 갑작스러운 사람 또는 동물 출현 등과 같이 다양한 형태를 가질 수 있다. The management server may generate an alarm notifying whether an object appears in the driving space based on the analysis result (eg, appearance of a new object) ( 340 ). The management server may transmit the generated alarm to the second mobile body. Upon receiving the alarm, the second moving object may immediately stop driving according to the type of the alarm, or may express an alarm for an object that suddenly appears in the driving space through various alarm sounds, voice warnings, or flashing lights. The type of the alarm may have various forms, such as, for example, generation of an obstruction due to a failure of another moving object, or a sudden appearance of a person or animal.
도 3을 통해 전술한 과정들은 관리 서버에 의해 수행될 수도 있고, 또는 실시예에 따라서 관리 서버와 별개의 관제 인터페이스에 의해 수행될 수도 있다.The processes described above with reference to FIG. 3 may be performed by the management server, or may be performed by a control interface separate from the management server according to an embodiment.
일 실시예에서는 전술한 과정을 모바일 엣지 컴퓨팅(mobile edge computing)을 통해 수행함으로써 5G 네트워크에서의 실시간성을 보장할 수 있다. 모바일 엣지 컴퓨팅은 무선 기지국에 분산 클라우드 컴퓨팅 기술을 적용하여 다양한 서비스와 캐싱 콘텐츠를 이용자 단말에 가까이 전개함으로써 모바일 코어망의 혼잡을 완화하고, 새로운 로컬 서비스를 창출하는 기술이다. 모바일 엣지 컴퓨팅에 의하면, 중앙화된 클라우드에서 네트워크 에지와 고객에 보다 근접한 곳으로 트래픽 및 서비스 컴퓨팅을 이동시킬 수 있다. 이때, 모든 데이터를 클라우드로 전송하여 처리하는 대신에 분산된 네트워크 에지에서 데이터를 분석, 처리 및 저장할 수 있다. 이와 같이 고객 가까이에서 데이터를 수집하고 처리함에 따라 지연 시간이 단축되고, 고대역폭 어플리케이션에서의 실시간 성능이 제공될 수 있다. In an embodiment, real-time performance in the 5G network may be guaranteed by performing the above-described process through mobile edge computing. Mobile edge computing is a technology that alleviates congestion in the mobile core network and creates new local services by applying distributed cloud computing technology to wireless base stations and deploying various services and caching contents close to user terminals. With mobile edge computing, traffic and service computing can be moved from a centralized cloud to the edge of the network and closer to the customer. At this time, instead of sending all data to the cloud for processing, data can be analyzed, processed, and stored at the edge of the distributed network. By collecting and processing data close to the customer in this way, latency can be reduced and real-time performance in high-bandwidth applications can be provided.
도 4는 일 실시예에 따른 이동체의 동작 방법을 나타낸 흐름도이다. 도 4를 참조하면, 일 실시예에 따른 이동체는 미리 정해진 주행 공간을 이동함에 따라 수집되는 핑거프린트들을 전송한다(410). 이동체는 예를 들어, 5G 네트워크 모듈 및 IoT 센서 수신부를 포함할 수 있다. 이동체는 미리 정해진 주행 공간을 이동함에 따라 수집되는 핑거프린트들을 5G 네트워크 모듈을 통해 전송할 수 있다. 이동체는 핑거프린트들을 예를 들어, 관리 서버에게 전송할 수도 있고, 관제 인터페이스에게 전송할 수도 있다. 이때, 이동체는 예를 들어, 제2 이동체일 수 있다. 핑거프린트들은 제2 이동체에서 수집되는 제2 핑거프린트들일 수 있다. 4 is a flowchart illustrating a method of operating a moving body according to an exemplary embodiment. Referring to FIG. 4 , a moving object according to an embodiment transmits fingerprints collected as it moves through a predetermined driving space ( 410 ). The mobile body may include, for example, a 5G network module and an IoT sensor receiver. The mobile body may transmit fingerprints collected as it moves through a predetermined driving space through the 5G network module. The moving object may transmit the fingerprints, for example, to the management server or to the control interface. In this case, the movable body may be, for example, the second movable body. The fingerprints may be second fingerprints collected from the second moving body.
이동체는 미리 학습된 신경망에서 핑거프린트들에 대응하여 추정된 SLAM 지도 상의 좌표 및 경로 정보를 기초로 결정된 주행 정보를 수신한다(420). 이동체는 예를 들어, 관리 서버 또는 관제 인터페이스 중 어느 하나로부터 주행 정보를 수신할 수 있다. The moving object receives the driving information determined based on the coordinates and route information on the SLAM map estimated in response to the fingerprints from the pre-trained neural network ( 420 ). The moving object may receive driving information from, for example, any one of a management server and a control interface.
이동체는 주행 정보에 기초하여 구동 파라미터를 결정한다(430). 구동 파라미터는 예를 들어, 이동체의 전륜 조향 모터, 후륜 주행 모터를 제어하기 위한 모터 제어 파라미터, 이동체의 기어비 제어 파라미터, 이동체의 바퀴 회전 속도, 회전각 등을 제어하기 위한 바퀴 움직임 제어 파라미터 등을 포함할 수 있다. The moving object determines a driving parameter based on the driving information ( 430 ). The driving parameters include, for example, a motor control parameter for controlling a front wheel steering motor and a rear wheel driving motor of the moving body, a gear ratio control parameter of the moving body, a wheel motion control parameter for controlling the wheel rotation speed and rotation angle of the moving body, etc. can do.
이동체는 구동 파라미터에 따라 구동을 수행한다(440).The moving object is driven according to the driving parameter ( 440 ).
실시예에 따라서, 이동체는 이동체의 구동에 따라 변화되는 주변 환경에 대한 정보를 관제 인터페이스 또는 관리 서버로 전송할 수 있다. 이동체는 변화되는 주변 환경에 대한 정보에 기초한 모니터링 결과에 따라 관제 인터페이스 또는 관리 서버로부터 수정된 주행 정보를 수신할 수 있다. 이동체는 수정된 주행 정보에 따라 구동 파라미터를 변경하고, 변경된 구동 파라미터에 따라 이동체의 구동부를 구동할 수 있다. According to an embodiment, the moving object may transmit information about the surrounding environment that is changed according to the driving of the moving object to the control interface or the management server. The moving object may receive the modified driving information from the control interface or the management server according to the monitoring result based on the changed information on the surrounding environment. The moving object may change a driving parameter according to the modified driving information, and may drive a driving unit of the moving object according to the changed driving parameter.
도 5는 일 실시예에 따른 이동체의 구성 요소들 및 구성 요소들 간의 제어 흐름을 설명하기 위한 도면이다. 도 5를 참조하면, 일 실시예에 따른 이동체는 통신부(510), 센서부(520), 제어부(530), 및 구동부(540)를 포함할 수 있다. 5 is a diagram for explaining components of a moving body and a control flow between the components according to an embodiment. Referring to FIG. 5 , a mobile body according to an embodiment may include a
통신부(510)는 관리 서버 또는 관제 인터페이스로부터 SLAM 지도 및 주행 정보를 수신하여 센서부(520)로 전송할 수 있다. 통신부(510)는 예를 들어, 5G 네트워크 모듈 및/또는 IoT 센서 수신 장치를 포함할 수 있다. The
센서부(520)는 센서부(520)에 포함된 다양한 센서들을 통해 감지된 주변 환경 정보를 기초로, 이동체의 움직임 정보에 따라 통신부(510)를 통해 수신한 주행 정보를 수정하거나, 또는 새로운 주행 정보를 생성할 수 있다. The
제어부(530)는 센서부(520)로부터 수신한 주행 정보를 기초로, 이동체의 바퀴, 기어, 조향 장치, 및/또는 엔진 등의 구동을 제어하는 구동 파라미터를 결정할 수 있다. 제어부(530)는 예를 들어, 도 6에 도시된 메인 컨트롤러(Main Controller)에 해당할 수 있다. Based on the driving information received from the
구동부(540)는 구동 파라미터에 따라 이동체의 각 구동 기관을 구동할 수 있다. 또한, 구동부(540)는 예를 들어, 바퀴 회전 속도, 회전각 등과 같은 이동체의 바퀴 움직임 정보를 센서부(520)로 전달하여 센서부(520)가 주행 정보를 수정하거나, 또는 새로운 주행 정보를 생성하도록 할 수 있다. The driving
일 실시예에 따른 이동체(500)는 센서부(520)를 통해 감지되는 주변 환경 정보를 통해 새로운 주행 정보를 생성하여 제어부(530) 및 구동부(540)에 전달함으로써 이동체(500)의 지속적인 자율 주행 또는 무인 주행이 가능하도록 할 수 있다. The moving object 500 according to an exemplary embodiment generates new driving information based on the surrounding environment information sensed by the
도 6은 일 실시예에 따른 이동체의 투시도이다. 도 6을 참조하면, 일 실시예에 따른 이동체(600)는 일반적인 이동체의 구조에 더하여 5G 네트워크 모듈(610) 및 IoT 센서 수신 장치(630)를 더 포함할 수 있다. 일반적인 이동체의 구조 및 동작은 잘 알려져 있으므로 이하에서는 5G 네트워크 모듈(610) 및 IoT 센서 수신 장치(630)에 대하여 설명하기로 한다. 6 is a perspective view of a movable body according to an exemplary embodiment. Referring to FIG. 6 , a
5G 네트워크 모듈(610)은 이동체(600)에 장착되어 미리 정해진 주행 공간을 이동함에 따라 수집되는 핑거프린트들을 관제 인터페이스 및/또는 관리 서버에게 전송할 수 있다. 또한, 5G 네트워크 모듈(610)은 미리 학습된 신경망에서 5G 네트워크 모듈(610)을 통해 전송한 핑거프린트들에 대응하여 추정된 SLAM 지도 상의 좌표 및 경로 정보를 기초로 결정된 주행 정보를 수신할 수 있다. The
5G 네트워크 모듈(610)은 예를 들어, 아래의 도 7에 도시된 RS-232 포트(240)를 통해 관제 인터페이스 및/또는 관리 서버에게 핑거프린트들을 전송하거나, 또는 관제 인터페이스 및/또는 관리 서버로부터 주행 정보를 수신할 수 있다. The
IoT 센서 수신 장치(630)는 다양한 IoT 센서들을 통해 감지된 주변 환경 정보를 수신할 수 있다. IoT 센서 수신 장치(630)는 예를 들어, 아래의 도 7에 도시된 I/O 포트(730)를 통해 다양한 IoT 센서들로부터 주변 환경 정보를 수신할 수 있다. The IoT
일 실시예에 따르면, 이동체(600)에 구비된 5G 네트워크 모듈(610) 및 IoT 센서 수신 장치(630)를 통해 수신된 정보에 대응하여 관리 서버가 실시간으로 SLAM 지도 상의 좌표를 추정하여 주행 경로를 결정함으로써 주변 환경 변화에 따른 주행 정보의 변화에도 신속하게 대응할 수 있다. 또한, 5G 네트워크 모듈(610) 및 IoT 센서 수신 장치(630)만을 추가함으로써 기존 이동체의 교체없이도 관리 서버로부터 보다 정확한 경로 정보를 제공받을 수 있다.According to an embodiment, the management server estimates the coordinates on the SLAM map in real time in response to information received through the
일 실시예에 따른 이동체(600)는 탑재된 5G 네트워크 모듈(610)을 통해 주행 상황을 관리 서버 또는 관제 인터페이스에 전송할 수 있다. 관리 서버 또는 관제 인터페이스는 이동체(600)로부터 수신한 정보에 기초하여 이동체(600)가 올바른 경로를 주행하고 있는지를 지속적으로 확인할 수 있다. 관리 서버 또는 관제 인터페이스는 5G 네트워크 모듈(610)을 통해 실시간으로 주행 정보를 전송함으로써 이동체(600)의 주행을 정밀하게 제어할 수 있다. The
도 7은 일 실시예에 따른 이동체의 구성도이다. 도 7을 참조하면, 일 실시예에 따른 이동체(700)는 A/D 컨버터(Analogue/Digital converter)(710), 카운터(Counter)(720), I/O 포트(I/O port)(730), 및 RS-232 포트(740)를 포함할 수 있다. 7 is a configuration diagram of a movable body according to an embodiment. Referring to FIG. 7 , a moving
A/D 컨버터(710)는 이동체(700)의 제어부에서 결정된 구동 파라미터에 따라 앞바퀴 모터를 제어하여 이동체(700)의 속도를 조정할 수 있다. 이때, A/D 컨버터(710)는 가변 저항의 값을 조절함으로써 이동체(700)의 앞바퀴 모터의 구동 속도를 조정할 수 있다. The A/
카운터(Counter)(720)는 뒷바퀴 모터의 회전 속도, 및/또는 회전각을 측정함으로써 이동체(700)의 주행 상태를 측정할 수 있다. The
A/D 컨버터(710) 및 카운터(Counter)(720)는 예를 들어, 도 5를 통해 전술한 이동체의 제어부(530)에 포함될 수 있다. 또는 실시예에 따라서, A/D 컨버터(710)는 전술한 이동체의 제어부(530)에 포함되고, 카운터(Counter)(720)는 전술한 이동체의 구동부(540)에 포함될 수도 있다. The A/
I/O 포트(I/O port)(730)는 울트라 소닉 센서(Ultra Sonic Sensor) 및/또는 IoT 센서로부터 감지 결과를 수신할 수 있다. 울트라 소닉 센서의 감지 결과 및/또는 IoT 센서의 감지 결과는 이동체(700)의 주차를 위한 장애물 감지에 이용될 수 있다. The I/
RS-232 포트(740)는 1:1 직렬 통신을 통해 CCD 카메라로부터 주변 환경 영상을 수신할 수 있다. 전술한 5G 네트워크 모듈(610)은 RS-232 포트(740)를 통해 다양한 정보를 송, 수신할 수 있다. 이동체(700)는 RS-232 포트(740)를 통해 수신된 주변 환경 영상 및/또는 5G 네트워크 모듈(610)로 전송되는 정보를 기초로 영상 인식을 통해 주변 환경을 파악할 수 있다. The RS-232
도 8은 일 실시예에 따른 관리 서버의 블럭도이다. 도 8을 참조하면, 일 실시예에 따른 관리 서버(800)는 프로세서(810), 및 통신 인터페이스(830)를 포함한다. 기지국(800)은 메모리(850)를 더 포함할 수 있다. 프로세서(810), 통신 인터페이스(830) 및 메모리(850)는 통신 버스(805)를 통해 서로 통신할 수 있다. 8 is a block diagram of a management server according to an embodiment. Referring to FIG. 8 , the
프로세서(810)는 미리 정해진 주행 공간을 이동하는 제1 이동체로부터, SLAM 지도를 생성하기 위하여 주변 환경이 감지되는 복수의 지점들에서 주변 환경의 감지와 함께 측정된 제1 핑거프린트들을 수집한다. 프로세서(810)는 주행 공간 내 복수의 지점들에 대응하는 SLAM 지도 상의 복수의 제1 좌표들과 제1 핑거프린트들을 매칭한다. 프로세서(810)는 매칭된 제1 좌표들 및 제1 핑거프린트들에 기초하여, 핑거프린트에 대응하는 SLAM 지도 상의 좌표를 추정하는 신경망을 학습한다. 또한, 프로세서(810)는 신경망을 이용하여, 제2 핑거프린트에 대응하는 SLAM 지도 상의 제2 좌표를 추정한다. 프로세서(810)는 경로 정보 및 추정된 제2 좌표를 기초로, 제2 이동체의 주행 정보를 결정한다. The
통신 인터페이스(830)는 SLAM 지도 상에 설정된 경로 정보에 기초하여 주행 공간을 이동하는 제2 이동체로부터 제2 핑거프린트를 수신한다. The
메모리(850)는 프로세서(810)가 생성한 SLAM 지도 상에 설정된 경로 정보, 프로세서(810)가 추정한 제2 핑거프린트에 대응하는 SLAM 지도 사의 제2 좌표, 및 프로세서(810)가 결정한 제2 이동체의 주행 정보 중 적어도 하나를 저장할 수 있다. The
또한, 프로세서(810)는 도 1 내지 도 7을 통해 전술한 적어도 하나의 방법 또는 적어도 하나의 방법에 대응되는 알고리즘을 수행할 수 있다. 프로세서(810)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다. Also, the
프로세서(810)는 프로그램을 실행하고, 관리 서버(800)를 제어할 수 있다. 프로세서(810)에 의하여 실행되는 프로그램 코드는 메모리(850)에 저장될 수 있다.The
메모리(850)는 상술한 프로세서(810)에서의 처리 과정에서 생성되는 다양한 정보들을 저장할 수 있다. 이 밖에도, 메모리(850)는 각종 데이터와 프로그램 등을 저장할 수 있다. 메모리(850)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(850)는 하드 디스크 등과 같은 대용량 저장 매체를 구비하여 각종 데이터를 저장할 수 있다.The
일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, although the present invention has been described with reference to limited embodiments and drawings, the present invention is not limited to the above embodiments, and various modifications and variations from these descriptions are provided by those skilled in the art to which the present invention pertains. This is possible.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined by the following claims as well as the claims and equivalents.
800: 관리 서버
805: 통신 버스
810: 프로세서
830: 통신 인터페이스
850: 메모리800: management server
805: communication bus
810: processor
830: communication interface
850: memory
Claims (19)
상기 주행 공간 내 상기 복수의 지점들에 대응하는 상기 SLAM 지도 상의 복수의 제1 좌표들과 상기 제1 핑거프린트들을 매칭하는 단계;
상기 매칭된 제1 좌표들 및 제1 핑거프린트들에 기초하여, 핑거프린트에 대응하는 상기 SLAM 지도 상의 좌표를 추정하는 신경망을 학습하는 단계;
상기 SLAM 지도 상에 설정된 경로 정보에 기초하여 상기 주행 공간을 이동하는 제2 이동체로부터 제2 핑거프린트를 수신하는 단계;
상기 신경망을 이용하여, 상기 제2 핑거프린트에 대응하는 신호 세기 값들을 패턴 매칭함으로써, 상기 SLAM 지도 상의 제2 좌표를 추정하는 단계;
상기 경로 정보 및 상기 추정된 제2 좌표에 기초하여, 상기 제2 이동체의 주행 정보를 결정하는 단계;
상기 제2 이동체에 탑재된 적어도 하나의 촬영 장치를 통해 촬영된 주행 환경 영상을 실시간으로 수신하는 단계;
상기 주행 환경 영상을 분석하는 단계;
상기 분석 결과에 기초하여 상기 주행 공간 내의 객체 출현 여부를 알리는 알람을 생성하는 단계; 및
상기 주행 정보 및 상기 알람을 상기 제2 이동체에게 전송하는 단계
를 포함하는, 관리 서버의 동작 방법.collecting first fingerprints measured along with the sensing of the surrounding environment at a plurality of points where the surrounding environment is sensed to generate a SLAM map from a first moving body moving in a predetermined driving space;
matching the first fingerprints with a plurality of first coordinates on the SLAM map corresponding to the plurality of points in the driving space;
learning a neural network for estimating coordinates on the SLAM map corresponding to a fingerprint based on the matched first coordinates and first fingerprints;
receiving a second fingerprint from a second mobile body moving in the driving space based on route information set on the SLAM map;
estimating second coordinates on the SLAM map by pattern matching signal intensity values corresponding to the second fingerprint using the neural network;
determining driving information of the second moving object based on the path information and the estimated second coordinates;
receiving a driving environment image captured by at least one photographing device mounted on the second moving object in real time;
analyzing the driving environment image;
generating an alarm notifying whether an object appears in the driving space based on the analysis result; and
transmitting the driving information and the alarm to the second moving object;
Including, the method of operation of the management server.
상기 제1 핑거프린트들을 수집하는 단계는
5G 네트워크 내의 적어도 하나의 기지국에서 송출되는 신호의 전파 특성에 기초하여 상기 제1 핑거프린트들을 수집하는 단계
를 포함하는, 관리 서버의 동작 방법.According to claim 1,
The step of collecting the first fingerprints
collecting the first fingerprints based on propagation characteristics of a signal transmitted from at least one base station in a 5G network
Including, the method of operation of the management server.
상기 신경망의 학습 결과에 기초하여, 상기 복수의 지점들에서 감지되는 장애물을 고려하여 상기 SLAM 지도 상에 경로 정보를 설정하는 단계
를 더 포함하는, 관리 서버의 동작 방법.According to claim 1,
setting path information on the SLAM map in consideration of obstacles detected at the plurality of points based on the learning result of the neural network
Further comprising, the method of operation of the management server.
상기 경로 정보를 결정하는 단계는
상기 제1 핑거프린트들을 기초로, 상기 주행 공간 내 음영 지역에 대한 정보를 획득하는 단계; 및
상기 신경망에 기초하여 상기 음영 지역에 대응하는 경로 정보를 결정하는 단계
를 포함하는, 관리 서버의 동작 방법.4. The method of claim 3,
The step of determining the route information
obtaining information on a shaded area in the driving space based on the first fingerprints; and
determining path information corresponding to the shaded area based on the neural network
Including, the method of operation of the management server.
상기 제1 핑거프린트들을 수집하는 단계는
상기 제1 이동체가 상기 복수의 지점들에서 주변 환경을 감지한 결과를 기초로, SLAM(Simultaneous Localization And Mapping) 기법에 의해 상기 제1 이동체의 위치에 대응하는 상기 SLAM 지도를 생성하는 단계
를 더 포함하는, 관리 서버의 동작 방법.According to claim 1,
The step of collecting the first fingerprints
generating the SLAM map corresponding to the location of the first mobile body by the SLAM (Simultaneous Localization And Mapping) technique based on a result of the first mobile body sensing the surrounding environment at the plurality of points;
Further comprising, the method of operation of the management server.
상기 복수의 지점들은
상기 주행 공간에 설치된 적어도 하나의 IoT 센서 및 적어도 하나의 액세스 포인트 중 적어도 하나를 포함하는, 관리 서버의 동작 방법.According to claim 1,
The plurality of points
A method of operating a management server comprising at least one of at least one IoT sensor and at least one access point installed in the driving space.
상기 주행 환경 영상을 분석하는 단계는
미리 학습된 심층 신경망에 의해 상기 주행 환경 영상을 분석하는 단계
를 포함하는, 관리 서버의 동작 방법.According to claim 1,
The step of analyzing the driving environment image is
Analyzing the driving environment image by a pre-trained deep neural network
Including, the method of operation of the management server.
상기 알람을 생성하는 단계는
상기 분석 결과에 기초하여 상기 주행 공간 내의 객체 출현 여부를 인식하는 단계; 및
상기 인식에 따라 알람을 생성하는 단계
를 포함하는, 관리 서버의 동작 방법.According to claim 1,
The step of generating the alarm is
recognizing whether an object appears in the driving space based on the analysis result; and
generating an alarm according to the recognition
Including, the method of operation of the management server.
상기 제2 이동체는 5G 네트워크 모듈을 포함하고,
상기 5G 네트워크 모듈을 통해 상기 제2 이동체가 상기 복수의 지점들에서 감지한 주변 환경에 대한 정보를 수신하는 단계; 및
상기 주변 환경에 대한 정보를 기초로, 상기 제2 이동체의 주행을 모니터링하는 단계
를 더 포함하는, 관리 서버의 동작 방법.According to claim 1,
The second mobile includes a 5G network module,
receiving information on the surrounding environment sensed by the second mobile unit at the plurality of points through the 5G network module; and
monitoring the driving of the second mobile body based on the information on the surrounding environment;
Further comprising, the method of operation of the management server.
상기 모니터링 결과에 따라 상기 주행 정보를 수정하는 단계; 및
상기 수정된 주행 정보를 상기 5G 네트워크 모듈을 통해 상기 제2 이동체에게 전송하는 단계
를 더 포함하는, 관리 서버의 동작 방법.11. The method of claim 10,
correcting the driving information according to the monitoring result; and
transmitting the modified driving information to the second mobile unit through the 5G network module;
Further comprising, the method of operation of the management server.
미리 학습된 신경망에서 상기 핑거프린트들에 대응하여 추정된 SLAM 지도 상의 좌표 및 경로 정보를 기초로 결정된 주행 정보를 수신하는 단계;
상기 주행 정보에 기초하여 구동 파라미터를 결정하는 단계;
상기 구동 파라미터에 따라 구동을 수행하는 단계;
적어도 하나의 촬영 장치를 통해 촬영된 주행 환경 영상을 실시간으로 전송하는 단계; 및
상기 주행 환경 영상의 분석 결과에 기초하여 인식된 상기 주행 공간 내의 객체 출현 여부에 따라 생성된 알람을 수신하는 단계
를 포함하고,
상기 SLAM 지도 상의 좌표는 상기 신경망을 이용하여, 상기 핑거프린트들에 대응하는 신호 세기 값들을 패턴 매칭함으로써 추정되고,
상기 경로 정보는 상기 신경망의 학습 결과에 기초하여, 상기 주행 공간 내 복수의 지점들에서 감지되는 장애물을 고려하여 설정되는,
이동체의 동작 방법.transmitting fingerprints collected as the user moves in a predetermined driving space;
receiving driving information determined based on coordinates and route information on a SLAM map estimated in response to the fingerprints from a pre-trained neural network;
determining a driving parameter based on the driving information;
performing driving according to the driving parameters;
transmitting a driving environment image captured by at least one photographing device in real time; and
Receiving an alarm generated according to whether an object appears in the driving space recognized based on the analysis result of the driving environment image
including,
Coordinates on the SLAM map are estimated by pattern matching signal strength values corresponding to the fingerprints using the neural network,
The path information is set in consideration of obstacles sensed at a plurality of points in the driving space based on a learning result of the neural network,
How the moving object works.
상기 주행 정보를 수신하는 단계는
관리 서버 및 관제 인터페이스 중 어느 하나로부터, 상기 주행 정보를 수신하는 단계
를 포함하는, 이동체의 동작 방법.13. The method of claim 12,
Receiving the driving information includes:
Receiving the driving information from any one of a management server and a control interface
Including, a method of operating a moving object.
상기 이동체는 5G 네트워크 모듈을 포함하고,
상기 핑거프린트들을 전송하는 단계는
미리 정해진 주행 공간을 이동함에 따라 수집되는 핑거프린트들을 상기 5G 네트워크 모듈을 통해 전송하는 단계
를 포함하는, 이동체의 동작 방법.13. The method of claim 12,
The mobile body includes a 5G network module,
The step of transmitting the fingerprints
Transmitting the fingerprints collected by moving the predetermined driving space through the 5G network module
Including, a method of operating a moving object.
상기 이동체의 구동에 따라 변화되는 주변 환경에 대한 정보를 전송하는 단계;
상기 변화되는 주변 환경에 대한 정보에 기초한 모니터링 결과에 따라 수정된 주행 정보를 수신하는 단계; 및
상기 수정된 주행 정보에 따라 상기 구동 파라미터를 변경하는 단계; 및
상기 변경된 구동 파라미터에 따라 상기 이동체를 구동하는 단계
를 더 포함하는, 이동체의 동작 방법.13. The method of claim 12,
transmitting information on a surrounding environment that is changed according to the driving of the moving object;
receiving driving information corrected according to a monitoring result based on the changed surrounding environment information; and
changing the driving parameter according to the modified driving information; and
driving the movable body according to the changed driving parameter
Further comprising, a method of operating a mobile body.
상기 주행 환경 영상을 실시간으로 전송하는 단계는
상기 이동체에 탑재된 적어도 하나의 촬영 장치를 통해 주변 환경 영상을 촬영하는 단계; 및
상기 주변 환경 영상을 전송하는 단계
를 포함하는, 이동체의 동작 방법.13. The method of claim 12,
The step of transmitting the driving environment image in real time is
photographing an image of the surrounding environment through at least one photographing device mounted on the moving object; and
Transmitting the surrounding environment image
Including, a method of operating a moving object.
상기 SLAM 지도 상에 설정된 경로 정보에 기초하여 상기 주행 공간을 이동하는 제2 이동체로부터 제2 핑거프린트 및 상기 제2 이동체에 탑재된 적어도 하나의 촬영 장치를 통해 촬영된 주행 환경 영상을 수신하는 통신 인터페이스
를 포함하고,
상기 프로세서는
상기 신경망을 이용하여, 상기 제2 핑거프린트에 대응하는 신호 세기 값들을 패턴 매칭함으로써, 상기 SLAM 지도 상의 제2 좌표를 추정하고, 상기 경로 정보 및 상기 추정된 제2 좌표를 기초로, 상기 제2 이동체의 주행 정보를 결정하고, 상기 주행 환경 영상을 분석하고, 상기 분석 결과에 기초하여 상기 주행 공간 내의 객체 출현 여부를 알리는 알람을 생성하며,
상기 통신 인터페이스는
상기 결정된 주행 정보 및 상기 생성된 알람을 상기 제2 이동체에 전송하는,
관리 서버.In order to generate a SLAM map from a first moving body moving in a predetermined driving space, first fingerprints measured with the sensing of the surrounding environment are collected at a plurality of points where the surrounding environment is sensed, and the driving is performed. Match the first fingerprints with a plurality of first coordinates on the SLAM map corresponding to the plurality of points in space, and based on the matched first coordinates and first fingerprints, a processor for learning a neural network estimating coordinates on the corresponding SLAM map; and
A communication interface for receiving a second fingerprint from a second mobile body moving in the driving space based on the route information set on the SLAM map and a driving environment image captured through at least one photographing device mounted on the second mobile body
including,
the processor
Using the neural network, by pattern matching signal intensity values corresponding to the second fingerprint, the second coordinates on the SLAM map are estimated, and based on the path information and the estimated second coordinates, the second determining the driving information of the moving object, analyzing the driving environment image, and generating an alarm indicating whether an object appears in the driving space based on the analysis result;
The communication interface is
transmitting the determined driving information and the generated alarm to the second moving object;
management server.
상기 주행 정보에 기초하여 구동 파라미터를 결정하고, 상기 구동 파라미터에 따라 구동을 수행하는 프로세서
를 포함하고,
상기 SLAM 지도 상의 좌표는 상기 신경망을 이용하여, 상기 핑거프린트들에 대응하는 신호 세기 값들을 패턴 매칭함으로써 추정되고,
상기 경로 정보는 상기 신경망의 학습 결과에 기초하여, 상기 주행 공간 내 복수의 지점들에서 감지되는 장애물을 고려하여 설정되는,
이동체.
It transmits fingerprints collected as it moves in a predetermined driving space, receives driving information determined based on coordinates and path information on a SLAM map estimated in response to the fingerprints in a pre-trained neural network, and at least one a communication interface that transmits a driving environment image captured by a photographing device in real time and receives an alarm generated according to whether an object appears in the driving space recognized based on an analysis result of the driving environment image; and
A processor that determines a driving parameter based on the driving information and performs driving according to the driving parameter
including,
Coordinates on the SLAM map are estimated by pattern matching signal strength values corresponding to the fingerprints using the neural network,
The path information is set in consideration of obstacles detected at a plurality of points in the driving space based on a learning result of the neural network,
moving body.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190077875A KR102324989B1 (en) | 2019-06-28 | 2019-06-28 | Mobile body, management server, and operating method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190077875A KR102324989B1 (en) | 2019-06-28 | 2019-06-28 | Mobile body, management server, and operating method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210001578A KR20210001578A (en) | 2021-01-06 |
KR102324989B1 true KR102324989B1 (en) | 2021-11-10 |
Family
ID=74128687
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190077875A KR102324989B1 (en) | 2019-06-28 | 2019-06-28 | Mobile body, management server, and operating method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102324989B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114935341B (en) * | 2022-07-25 | 2022-11-29 | 深圳市景创科技电子股份有限公司 | Novel SLAM navigation computation video identification method and device |
WO2024076169A1 (en) * | 2022-10-07 | 2024-04-11 | 삼성전자 주식회사 | Method for training object recognition model using spatial information, and computing device for performing same |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101831028B1 (en) * | 2015-07-03 | 2018-02-21 | 한국과학기술원 | Method and apparatus for relocation of mobile robot in indoor environment |
KR101876968B1 (en) * | 2016-10-21 | 2018-07-12 | 네이버 주식회사 | Method and system for controlling indoor autonomous robot |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180134230A (en) * | 2017-06-08 | 2018-12-18 | 삼성전자주식회사 | Cleaning robot and controlling method of thereof |
KR102628998B1 (en) * | 2017-12-08 | 2024-01-25 | 한국전자통신연구원 | Method for updating fingerprint database based on crowd-sourcing and apparatus using the same |
-
2019
- 2019-06-28 KR KR1020190077875A patent/KR102324989B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101831028B1 (en) * | 2015-07-03 | 2018-02-21 | 한국과학기술원 | Method and apparatus for relocation of mobile robot in indoor environment |
KR101876968B1 (en) * | 2016-10-21 | 2018-07-12 | 네이버 주식회사 | Method and system for controlling indoor autonomous robot |
Also Published As
Publication number | Publication date |
---|---|
KR20210001578A (en) | 2021-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11034349B2 (en) | Autonomous driving method and apparatus | |
US10762798B2 (en) | Autonomous driving method and apparatus | |
US9804605B2 (en) | Position identification device and mobile robot provided with same | |
US11460851B2 (en) | Eccentricity image fusion | |
JP6682833B2 (en) | Database construction system for machine learning of object recognition algorithm | |
US20190310651A1 (en) | Object Detection and Determination of Motion Information Using Curve-Fitting in Autonomous Vehicle Applications | |
CN109085829B (en) | Dynamic and static target identification method | |
US20120136510A1 (en) | Apparatus and method for detecting vehicles using laser scanner sensors | |
JP7051366B2 (en) | Information processing equipment, trained models, information processing methods, and programs | |
US20180050694A1 (en) | Method and device for monitoring a setpoint trajectory to be traveled by a vehicle for being collision free | |
KR101797818B1 (en) | Apparatus and method for providing road information based on deep learnig | |
KR102324989B1 (en) | Mobile body, management server, and operating method thereof | |
US11030774B2 (en) | Vehicle object tracking | |
WO2023109589A1 (en) | Smart car-unmanned aerial vehicle cooperative sensing system and method | |
US11645775B1 (en) | Methods and apparatus for depth estimation on a non-flat road with stereo-assisted monocular camera in a vehicle | |
CN113885011A (en) | Light detection and ranging recalibration system based on point cloud chart for automatic vehicle | |
CN113544538A (en) | Identifying radar reflections using velocity and position information | |
WO2022115216A2 (en) | Method and system for determining a mover model for motion forecasting in autonomous vehicle control | |
US11938968B2 (en) | Trajectory design for image data acquisition for object detection/recognition | |
US20230260254A1 (en) | Information processing device, information processing method, and program | |
JP6412207B2 (en) | Position identification device | |
US20230230257A1 (en) | Systems and methods for improved three-dimensional data association using information from two-dimensional images | |
US20230219601A1 (en) | Efficient neural networks | |
WO2023210279A1 (en) | Electronic device, method and program | |
US11535257B2 (en) | Lane localization system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |