KR20200097482A - System for providing unmanned delivery robot service - Google Patents

System for providing unmanned delivery robot service Download PDF

Info

Publication number
KR20200097482A
KR20200097482A KR1020190014902A KR20190014902A KR20200097482A KR 20200097482 A KR20200097482 A KR 20200097482A KR 1020190014902 A KR1020190014902 A KR 1020190014902A KR 20190014902 A KR20190014902 A KR 20190014902A KR 20200097482 A KR20200097482 A KR 20200097482A
Authority
KR
South Korea
Prior art keywords
delivery
robot
delivery robot
sub
information
Prior art date
Application number
KR1020190014902A
Other languages
Korean (ko)
Inventor
서동현
강동호
Original Assignee
한양대학교 에리카산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 에리카산학협력단 filed Critical 한양대학교 에리카산학협력단
Priority to KR1020190014902A priority Critical patent/KR20200097482A/en
Publication of KR20200097482A publication Critical patent/KR20200097482A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/083Shipping
    • G06Q10/0832Special goods or special handling procedures, e.g. handling of hazardous or fragile goods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1682Dual arm manipulator; Coordination of several manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q50/28
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Economics (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Operations Research (AREA)
  • Development Economics (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Quality & Reliability (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Emergency Management (AREA)
  • Manipulator (AREA)

Abstract

The present invention relates to an unmanned delivery robot service providing system. The unmanned delivery robot service providing system comprises a main delivery robot (100), a sub-delivery robot (200), a network (300), and an unmanned delivery robot management server (400). According to the present invention, the efficiency of the movement of delivery articles can be increased.

Description

무인 배달로봇 서비스 제공 시스템{System for providing unmanned delivery robot service}System for providing unmanned delivery robot service

본 발명은 무인 배달로봇 서비스 제공 시스템에 관한 것으로, 보다 구체적으로는, 복수의 소형 서브 배달로봇을 하나의 대형 메인 배달로봇이 태우고 다니면서 소형의 서브 배달로봇이 음식 등과 같은 배달물품을 배달시킨 뒤, 다시 대형의 메인 배달로봇이 배달을 완료한 소형의 서브 배달로봇을 태우고 복귀하도록 함으로써, 배달물품의 이동의 효율성과 좁은 골목 등에서의 차량 혼잡과 교통체증 등의 문제를 해결할 수 있도록 함과 동시에 자신에 대한 방어 동작, 이동 불능일 경우의 처리, 배달물품 홍보, 배달물품의 상태 및 위치 확인, 그리고 원격제어가 가능하도록 할 수 있도록 하기 위한 무인 배달로봇 서비스 제공 시스템에 관한 것이다. The present invention relates to a system for providing an unmanned delivery robot service, and more specifically, after a plurality of small sub delivery robots are carried by a large main delivery robot while the small sub delivery robot delivers delivery goods such as food, By letting the large main delivery robot pick up and return the small sub delivery robot that has completed the delivery, it is possible to solve problems such as vehicle congestion and traffic congestion in narrow alleys and the efficiency of moving goods. It relates to a system for providing an unmanned delivery robot service to enable defensive action against, handling in case of inability to move, promotion of delivered goods, checking the status and location of delivered goods, and enabling remote control.

최근 무인 로봇이나 드론(drone) 기술이 발전하면서, 이러한 기술을 배송에 적용하고자 하는 사례가 많이 소개되었다. Google은 무인 자동차를 배송에 활용하고자 계획하고 있고, Amazon에서는 Prime Air라는 서비스를 시도하고 있으며 이는 사용자가 인터넷으로 물건을 주문하면 30분 안에 로봇으로 사용자의 앞마당까지 물건을 배달해주는 서비스이다. 또한, 세계적인 피자배달 업체인 Dominos도 로봇으로 피자를 배달하려는 서비스를 시범으로 보였다. 이와 같은 배달 서비스는 사용자에게 더욱 신속히 물건을 배달하여 소비자 만족도와 배송효율을 높이는데 그 목적이 있다.With the recent development of unmanned robots and drones, many cases of applying these technologies to delivery have been introduced. Google plans to use a driverless car for delivery, and Amazon is trying a service called Prime Air, a service that delivers items to the user's front yard with a robot within 30 minutes when users order items over the Internet. In addition, Dominos, a global pizza delivery company, also demonstrated a service to deliver pizza by robot. The purpose of such a delivery service is to increase customer satisfaction and delivery efficiency by delivering goods to users more quickly.

그러나 드론형 무인 로봇만을 이용하는 경우 원격제어를 위한 무선주파수의 혼재로 인해 사고가 발생할 수 있을 뿐만 아니라, 효율성이 떨어지는 한계점이 있으며, 드론의 배터리 성능을 무한하게 높일 수 없는 문제점 등이 있으며, 차량형 무인 로봇만을 활용하는 경우 교통 체증과 도로 혼잡도 등에 따라 배송지연이 발생하는 문제점이 발생한다. However, if only drone-type unmanned robots are used, accidents may occur due to the mixture of radio frequencies for remote control, as well as limitations of inferiority in efficiency, and problems such as inability to infinitely increase the battery performance of drones. When using only an unmanned robot, there is a problem that delivery delays occur due to traffic congestion and road congestion.

대한민국 특허출원 출원번호 제10-2016-0034605호 "무인배송로봇의 사용자 식별을 통한 배송 방법(Delivery Method using Close Range User Identification in Autonomous Delivery Robot)"Korean Patent Application No. 10-2016-0034605 "Delivery Method using Close Range User Identification in Autonomous Delivery Robot"

본 발명은 상기의 문제점을 해결하기 위한 것으로, 복수의 소형 서브 배달로봇을 하나의 대형 메인 배달로봇이 태우고 다니면서 소형의 서브 배달로봇이 음식 등과 같은 배달물품을 배달시킨 뒤, 다시 대형의 메인 배달로봇이 배달을 완료한 소형의 서브 배달로봇을 태우고 복귀하도록 함으로써, 배달물품의 이동의 효율성과 좁은 골목 등에서의 차량 혼잡과 교통체증 등의 문제를 해결할 수 있도록 하기 위한 무인 배달로봇 서비스 제공 시스템을 제공하기 위한 것이다.The present invention is to solve the above problems, and a large main delivery robot carries a plurality of small sub delivery robots, and a small sub delivery robot delivers delivery goods such as food, and then a large main delivery robot. Provide an unmanned delivery robot service providing system to solve problems such as vehicle congestion and traffic congestion in narrow alleys and the efficiency of moving goods by picking up and returning a small sub-delivery robot that has completed this delivery. For.

또한, 본 발명은 무인로봇 자체에 대한 방어 동작, 이동 불능일 경우의 처리, 배달물품 홍보, 배달물품의 상태 및 위치 확인, 그리고 원격제어가 가능하도록 하기 위한 무인 배달로봇 서비스 제공 시스템을 제공하기 위한 것이다.In addition, the present invention is to provide a system for providing an unmanned delivery robot service for defensive operation against the unmanned robot itself, handling in case of inability to move, promotion of delivered goods, checking the status and location of delivered goods, and enabling remote control. will be.

그러나 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the objects of the present invention are not limited to the above-mentioned objects, and other objects that are not mentioned will be clearly understood by those skilled in the art from the following description.

상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 무인 배달로봇 서비스 제공 시스템은, 메인 배달로봇(100), 서브 배달로봇(200), 네트워크(300), 무인 배달로봇 관리 서버(400)를 포함하는 무인 배달로봇 서비스 제공 시스템에 있어서, 무인 배달로봇 서비스 제공 서버(400)는, 도착점에 도달시 도착점과 매칭되는 각 서브 배달로봇(200)에 대한 메인 배달로봇(100)으로부터의 분리를 제어하도록 하는 분리 제어 명령을 네트워크(300)를 통해 메인 배달로봇(100)으로 전송하도록 송수신부(410)를 제어하는 이동 모듈(422); 및 도착점으로부터 배달지 정보로 향하는 서브 배달로봇(200)에 대해서 인도 주행 중에 각 서브 배달로봇(200)에 장착된 근접 센서(211)로 만지려는 행위를 검출하기 위해 접근 위치를 검출에 따라, 서브 배달로봇(200)의 MCU(270)에 의한 외부 카메라(220)에 의해 촬영된 영상 정보를 수신하도록 송수신부(410)를 제어한 뒤, 영상 정보를 영상인식 기반으로 만지는 행위라고 분석시 경고 제어 명령을 서브 배달로봇(200)으로 전송하도록 송수신부(410)를 제어하는 터치 방지 모듈(423); 을 포함하는 것을 특징으로 한다.In order to achieve the above object, the unmanned delivery robot service providing system according to an embodiment of the present invention includes a main delivery robot 100, a sub delivery robot 200, a network 300, and an unmanned delivery robot management server 400. In the unmanned delivery robot service providing system including, the unmanned delivery robot service providing server 400 controls separation from the main delivery robot 100 for each sub delivery robot 200 that matches the destination point when reaching the destination point A moving module 422 for controlling the transceiver 410 to transmit a separation control command to be transmitted to the main delivery robot 100 through the network 300; And the sub-delivery robot 200 heading from the destination to the delivery destination information in order to detect an action to be touched by the proximity sensor 211 mounted on each sub-delivery robot 200 during delivery. After controlling the transmission/reception unit 410 to receive the image information captured by the external camera 220 by the MCU 270 of the robot 200, a warning control command when analyzing that the image information is touched based on image recognition A touch prevention module 423 for controlling the transmission/reception unit 410 to transmit to the sub delivery robot 200; It characterized in that it comprises a.

이때, 서브 배달로봇(200)은, 경고 제어 명령을 수신하면, 몸체에 형성된 주의 램프(230)를 적색으로 점등하도록 할 뿐만 아니라, MCU(270)에 연결된 스피커(271)를 통해 경고 음성신호를 출력하는 것을 특징으로 한다.At this time, the sub delivery robot 200, upon receiving the warning control command, not only turns on the caution lamp 230 formed on the body in red, but also transmits a warning voice signal through the speaker 271 connected to the MCU 270. It is characterized by outputting.

또한, 무인 배달로봇 서비스 제공 서버(400)는, 각 서브 배달로봇(200)에 구비된 외부 카메라(220)에 의해 객체로 사람이 미리 설정된 반경 내로 인식되는 경우(제 1 인식 이벤트), 또는 객체로 사물이 미리 설정된 반경 내로 외부 카메라(220)에 의해 인식되면서 각 서브 배달로봇(200)이 이동에 따라 인식된 사물의 영상 내의 배율 변화 속도보다 빠른 속도로 변화되는 다른 사물을 인지하는 배율 변화 이벤트 발생이 인식되는 경우(제 2 인식 이벤트), 네트워크(300)를 통해 영상 정보, 그리고 제 1 인식 이벤트 또는 제 2 인식 이벤트를 수신하도록 송수신부(410)를 제어하는 이동 불능 처리 모듈(424); 을 더 포함하는 것을 특징으로 한다.In addition, the unmanned delivery robot service providing server 400 is, when a person is recognized as an object within a preset radius by the external camera 220 provided in each sub delivery robot 200 (first recognition event), or As an object is recognized by the external camera 220 within a preset radius, a magnification change event in which each sub delivery robot 200 recognizes another object that changes at a faster rate than the magnification change speed in the image of the recognized object as it moves When an occurrence is recognized (a second recognition event), a movement disability processing module 424 that controls the transceiver 410 to receive image information and a first recognition event or a second recognition event through the network 300; It characterized in that it further comprises.

또한, 이동 불능 처리 모듈(424)은, 제 1 또는 제 2 인식 이벤트와 매칭되는 영상 정보를 무인 배달로봇 서비스 제공 서버(400)와 연결된 로봇 관리자 단말(400a) 중 하나로 전송하여, 로봇 관리자 단말(400a) 상에 실시간 관리대상 로봇 창으로 영상 정보가 출력되도록 할 뿐만 아니라, 이동하는 물체와의 충돌 위험에 해당하는 제 2 인식 이벤트와 함께 영상 정보가 수신된 경우, 로봇 관리자 단말(400a) 상에 주의 대상 로봇 메시지를 포함하는 실시간 주의대상 로봇 창으로 영상 정보가 출력되도록 하는 것을 특징으로 한다.In addition, the immobilization processing module 424 transmits image information matching the first or second recognition event to one of the robot manager terminals 400a connected to the unmanned delivery robot service providing server 400, and the robot manager terminal ( In addition to outputting image information to the robot window to be managed in real time on 400a), when image information is received together with a second recognition event corresponding to the risk of collision with a moving object, the robot manager terminal 400a It characterized in that the image information is output to a real-time attention target robot window including a attention target robot message.

또한, 로봇 관리자 단말(400a)은, 실시간 관리대상 로봇 창을 통해 관리자가 해당되는 서브 배달로봇(200)이 운행방해상태에 있게 될 가능성이 높음을 인식할 뿐만 아니라, 서브 배달로봇(200)이 실제 방해를 받아 이동하지 못하는 경우에도 제 3 인식 이벤트를 이동 불능 처리 모듈(424)을 통해 수신한 뒤, 제 1 내지 제 3 인식 이벤트 정보 및 영상 정보에 대응되는 원격 제어 명령을 이동 불능 처리 모듈(424)을 통해 각 서브 배달로봇(200)으로 전달하는 것을 특징으로 한다.In addition, the robot manager terminal 400a, through the real-time management target robot window, not only recognizes that the corresponding sub-delivery robot 200 is likely to be in a driving disturbance state, but also the sub-delivery robot 200 Even when movement is not possible due to actual interference, after receiving the third recognition event through the disability processing module 424, a remote control command corresponding to the first to third recognition event information and the image information is transmitted to the disability processing module ( It is characterized in that it is transmitted to each sub-delivery robot 200 through 424).

또한, 이동 불능 처리 모듈(424)은, 로봇 관리자 단말(400a)에 의한 제 3 인식 이벤트에 대한 원격 제어 명령에도 빠져나오지 못하는 운행 불능 상태에 빠진 경우에는 로봇 관리자 단말(400a)로부터 운행 불능 판정을 수신한 뒤, 운행 불능 상태에 빠진 지점에서 시간대별 유동인구 통계 정보를 네트워크(300)를 통해 빅데이터 서버(700)로부터 수신한 뒤, 현재 시간대의 유동인구 통계가 미리 설정된 임계치 이상이거나, 외부 카메라(220)를 통해 수신되는 영상 정보를 영상인식 기반으로 분석하여 주변에 사람이 있다고 판단되면, 구조 요청 제어 명령을 서브 배달로봇(200)으로 전송하는 것을 특징으로 한다.In addition, the movement disability processing module 424 makes a determination of inoperability from the robot manager terminal 400a when the robot manager terminal 400a falls into an inoperable state in which the robot manager terminal 400a cannot escape even with a remote control command for the third recognition event. After receiving, after receiving the floating population statistics information for each time period from the big data server 700 through the network 300 at the point of being inoperable, the floating population statistics in the current time period is above a preset threshold or an external camera When it is determined that there is a person around by analyzing the image information received through 220 based on image recognition, a rescue request control command is transmitted to the sub delivery robot 200.

또한, 서브 배달로봇(200)은, 구조 요청 제어 명령 수신에 따라 몸체에 형성된 주의 램프(230)를 적색으로 점등하도록 할 뿐만 아니라, MCU(270)에 연결된 스피커(271)를 통해 구조 음성신호를 출력하는 것을 특징으로 한다. In addition, the sub delivery robot 200 not only turns on the attention lamp 230 formed on the body in red in response to receiving the rescue request control command, but also transmits a rescue voice signal through the speaker 271 connected to the MCU 270. It is characterized by outputting.

본 발명의 실시예에 따른 무인 배달로봇 서비스 제공 시스템은, 복수의 소형 서브 배달로봇을 하나의 대형 메인 배달로봇이 태우고 다니면서 소형의 서브 배달로봇이 음식 등과 같은 배달물품을 배달시킨 뒤, 다시 대형의 메인 배달로봇이 배달을 완료한 소형의 서브 배달로봇을 태우고 복귀하도록 함으로써, 배달물품의 이동의 효율성과 좁은 골목 등에서의 차량 혼잡과 교통체증 등의 문제를 해결하는 효과를 제공한다. In the unmanned delivery robot service providing system according to an embodiment of the present invention, one large main delivery robot carries a plurality of small sub delivery robots while the small sub delivery robot delivers delivery goods such as food, By allowing the main delivery robot to pick up and return a small sub delivery robot that has completed delivery, it provides the effect of solving problems such as vehicle congestion and traffic congestion in narrow alleys and the efficiency of moving goods.

뿐만 아니라, 본 발명의 다른 실시예에 따른 무인 배달로봇 서비스 제공 시스템은, 무인로봇 자체에 대한 방어 동작, 이동 불능일 경우의 처리, 배달물품 홍보, 배달물품의 상태 및 위치 확인, 그리고 원격제어가 가능한 효과를 제공한다. In addition, the unmanned delivery robot service providing system according to another embodiment of the present invention provides a defense operation for the unmanned robot itself, handling in case of inability to move, promotion of delivery goods, checking the status and location of delivered goods, and remote control. Provides possible effects.

도 1은 본 발명의 실시예에 따른 무인 배달로봇 서비스 제공 시스템(1)을 나타내는 도면이다.
도 2는 본 발명의 실시예에 따른 무인 배달로봇 서비스 제공 시스템(1) 중 무인 배달로봇 서비스 제공 서버(400)의 구성요소를 나타내는 블록도이다.
도 3은 본 발명의 실시예에 따른 무인 배달로봇 서비스 제공 시스템(1) 중 서브 배달로봇(200)의 구성요소를 나타내는 블록도이다.
도 4 및 도 5는 본 발명의 실시예에 따른 무인 배달로봇 서비스 제공 시스템(1)에서 배달 대상자 단말(600)에 구현되는 유저 인터페이스 화면을 나타내는 도면이다.
1 is a view showing an unmanned delivery robot service providing system 1 according to an embodiment of the present invention.
2 is a block diagram showing the components of the unmanned delivery robot service providing server 400 of the unmanned delivery robot service providing system 1 according to an embodiment of the present invention.
3 is a block diagram showing the components of the sub-delivery robot 200 in the unmanned delivery robot service providing system 1 according to an embodiment of the present invention.
4 and 5 are diagrams showing user interface screens implemented in the delivery target terminal 600 in the unmanned delivery robot service providing system 1 according to an embodiment of the present invention.

이하, 본 발명의 바람직한 실시예의 상세한 설명은 첨부된 도면들을 참조하여 설명할 것이다. 하기에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.Hereinafter, a detailed description of a preferred embodiment of the present invention will be described with reference to the accompanying drawings. In the following description of the present invention, when it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted.

본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터 또는 신호를 '전송'하는 경우에는 구성요소는 다른 구성요소로 직접 상기 데이터 또는 신호를 전송할 수 있고, 적어도 하나의 또 다른 구성요소를 통하여 데이터 또는 신호를 다른 구성요소로 전송할 수 있음을 의미한다.In the present specification, when one component'transmits' data or a signal to another component, the component can directly transmit the data or signal to another component, and through at least one other component It means that data or signals can be transmitted to other components.

도 1은 본 발명의 실시예에 따른 무인 배달로봇 서비스 제공 시스템(1)을 나타내는 도면이다. 도 1을 참조하면, 무인 배달로봇 서비스 제공 시스템(1)은 메인 배달로봇(100), 서브 배달로봇(200), 네트워크(300), 무인 배달로봇 서비스 제공 서버(400), 배달 요청자 단말 그룹(500g), 배달 대상자 단말 그룹(600g), 빅데이터 서버(700), 그리고 인접 건물 관리자 단말 그룹(800g)을 포함할 수 있다.1 is a view showing an unmanned delivery robot service providing system 1 according to an embodiment of the present invention. 1, the unmanned delivery robot service providing system 1 includes a main delivery robot 100, a sub delivery robot 200, a network 300, an unmanned delivery robot service providing server 400, a delivery requester terminal group ( 500g), a delivery target terminal group (600g), a big data server 700, and a neighboring building manager terminal group (800g).

메인 배달로봇(100)은 적어도 하나 이상의 서브 배달로봇(200)을 싣거나 내려줄 수 있는 도킹 공간 또는 대형의 화물칸을 구비하는 것이 바람직하다. The main delivery robot 100 is preferably provided with a docking space or a large cargo compartment capable of loading or unloading at least one sub delivery robot 200.

서브 배달로봇(200)은 하나의 배달 영역으로 지정된 메인 배달로봇(100)에 의해 이동된 뒤, 골목 등과 같은 좁은 공간을 이동하여 배달물품을 배달하기 위한 것으로 드론 형태 또는 차량 형태로 제공되거나, 드론과 차량의 복합 형태인 하이브리드 타입으로 제공될 수 있다. The sub-delivery robot 200 is for delivering a delivery product by moving a small space such as an alley after being moved by the main delivery robot 100 designated as one delivery area, and is provided in the form of a drone or a vehicle, or It can be provided in a hybrid type that is a hybrid type of a vehicle and a vehicle.

네트워크(300)는 대용량, 장거리 음성 및 데이터 서비스가 가능한 대형 통신망의 고속 기간 망인 통신망이며, 인터넷(Internet) 또는 고속의 멀티미디어 서비스를 제공하기 위한 차세대 유선 및 무선 망일 수 있다. 네트워크(300)가 이동통신망일 경우 동기식 이동 통신망일 수도 있고, 비동기식 이동 통신망일 수도 있다. 비동기식 이동 통신망의 일 실시 예로서, WCDMA(Wideband Code Division Multiple Access) 방식의 통신망을 들 수 있다. 이 경우 도면에 도시되진 않았지만, 네트워크(300)는 RNC(Radio Network Controller)을 포함할 수 있다. 한편, WCDMA망을 일 예로 들었지만, 3G LTE망, 4G망 그 밖의 5G 등 차세대 통신망, 그 밖의 IP를 기반으로 한 IP망일 수 있다. 네트워크(300)는 메인 배달로봇(100), 서브 배달로봇(200), 무인 배달로봇 서비스 제공 서버(400), 배달 요청자 단말 그룹(500g), 배달 대상자 단말 그룹(600g), 빅데이터 서버(700), 인접 건물 관리자 단말 그룹(800g), 그 밖의 시스템 상호 간의 신호 및 데이터를 상호 전달하는 역할을 한다. The network 300 is a communication network, which is a high-speed backbone network of a large communication network capable of large-capacity, long-distance voice and data services, and may be a next-generation wired or wireless network for providing Internet or high-speed multimedia services. When the network 300 is a mobile communication network, it may be a synchronous mobile communication network or an asynchronous mobile communication network. As an embodiment of the asynchronous mobile communication network, there may be a communication network of a wideband code division multiple access (WCDMA) type. In this case, although not shown in the drawing, the network 300 may include a Radio Network Controller (RNC). On the other hand, although the WCDMA network was taken as an example, it may be a 3G LTE network, a 4G network, a next-generation communication network such as 5G, and other IP-based IP networks. The network 300 includes a main delivery robot 100, a sub delivery robot 200, an unmanned delivery robot service providing server 400, a delivery requester terminal group (500g), a delivery target terminal group (600g), and a big data server 700. ), the adjacent building manager terminal group (800g), and other systems, which transmit signals and data to each other.

배달 요청자 단말 그룹(500g)은 복수의 배달 요청자 단말(500)을 포함할 수 있다. 여기서 각 배달 요청자 단말(500)은 식당 또는 지역 택배 센터 등을 운영하는 배달이 필요한 업체가 운영하는 단말이거나, 무인 배달로봇 서비스 제공 서버(400)로 배달물품을 등록하는 개인이 운영하는 단말일 수 있다. The delivery requester terminal group 500g may include a plurality of delivery requester terminals 500. Here, each delivery requester terminal 500 may be a terminal operated by a company in need of delivery that operates a restaurant or a local courier center, or a terminal operated by an individual who registers delivery goods with the unmanned delivery robot service providing server 400 have.

배달 대상자 단말 그룹(600g)은 복수의 배달 대상자 단말(600)을 포함할 수 있다. 여기서 각 배달 대상자 단말(600)은 배달 요청자에 의해 주문지로 설정된 사람이 운영하는 단말일 수 있다. The delivery target terminal group 600g may include a plurality of delivery target terminal devices 600. Here, each delivery target terminal 600 may be a terminal operated by a person set as an order place by a delivery requester.

인접 건물 관리자 단말 그룹(800g)은 복수의 인접 건물 관리자 단말(800)을 포함할 수 있다. 여기서 각 인접 건물 관리자 단말(800)은 아파트 또는 건물 관리인 등에 해당하는 인접 건물 관리자가 운영하는 단말일 수 있다. The adjacent building manager terminal group 800g may include a plurality of adjacent building manager terminals 800. Here, each adjacent building manager terminal 800 may be a terminal operated by an adjacent building manager corresponding to an apartment or building manager.

도 2는 본 발명의 실시예에 따른 무인 배달로봇 서비스 제공 시스템(1) 중 무인 배달로봇 서비스 제공 서버(400)의 구성요소를 나타내는 블록도이다. 도 3은 본 발명의 실시예에 따른 무인 배달로봇 서비스 제공 시스템(1) 중 서브 배달로봇(200)의 구성요소를 나타내는 블록도이다. 도 4 및 도 5는 본 발명의 실시예에 따른 무인 배달로봇 서비스 제공 시스템(1)에서 배달 대상자 단말(600)에 구현되는 유저 인터페이스(User Interface, 이하 UI) 화면을 나타내는 도면이다. 2 is a block diagram showing the components of the unmanned delivery robot service providing server 400 of the unmanned delivery robot service providing system 1 according to an embodiment of the present invention. 3 is a block diagram showing the components of the sub-delivery robot 200 in the unmanned delivery robot service providing system 1 according to an embodiment of the present invention. 4 and 5 are diagrams showing a user interface (UI) screen implemented in the delivery target terminal 600 in the unmanned delivery robot service providing system 1 according to an embodiment of the present invention.

먼저, 도 2를 참조하면, 무인 배달로봇 서비스 제공 서버(400)는 송수신부(410), 제어부(420) 및 데이터베이스(430)를 포함하며, 제어부(420)는 배달정보 수집 모듈(421), 이동 모듈(422), 터치 방지 모듈(423), 이동 불능 처리 모듈(424), 배달물품 홍보 모듈(425), 배달물품 상태 제공 모듈(426), 배달물품 위치 제공 모듈(427) 및 원격정보 제공 모듈(428)을 포함할 수 있다.First, referring to FIG. 2, the unmanned delivery robot service providing server 400 includes a transmission/reception unit 410, a control unit 420, and a database 430, and the control unit 420 includes a delivery information collection module 421, Moving module 422, touch prevention module 423, immovable processing module 424, delivery product promotion module 425, delivery product status providing module 426, delivery product location providing module 427 and remote information provision Module 428.

그리고 도 3을 참조하면, 서브 배달로봇(200)은 센서모듈(210), 외부 카메라(220), 주의 램프(230), 영상 장치(240), 내부 조명(250), GPS 수신부(260), MCU(270), 저장부(280), 통신부(290)를 포함하며, 센서모듈(210)은 근접센서(211), 온도센서(212), 습도센서(213) 및 내부 카메라(214)로 이루어질 수 있다.And referring to Figure 3, the sub-delivery robot 200 is a sensor module 210, an external camera 220, a caution lamp 230, an imaging device 240, an internal lighting 250, a GPS receiver 260, It includes an MCU 270, a storage unit 280, and a communication unit 290, and the sensor module 210 is composed of a proximity sensor 211, a temperature sensor 212, a humidity sensor 213, and an internal camera 214. I can.

이하에서는 도 2의 제어부(320)의 구성요소를 중심으로 도 3의 서브 배달로봇(200)의 구성요소를 참조하여, 무인 배달로봇 서비스 제공 서버(400) 및 무인 배달로봇 서비스 제공 시스템(1)에 대해서 구체적으로 살펴보도록 한다. Hereinafter, with reference to the components of the sub-delivery robot 200 of FIG. 3 with a focus on the components of the control unit 320 of FIG. 2, the unmanned delivery robot service providing server 400 and the unmanned delivery robot service providing system 1 Let's look at in detail.

배달정보 수집 모듈(421)은 배달 요청자 단말 그룹(500g)을 이루는 각 배달 요청자 단말(500)로부터 배달 요청자 단말(500)의 제 1 단말식별번호, 배달 대상자 단말(600)의 제 2 단말식별번호, 그리고 배달 대상자 배달지 정보를 수집하여 데이터베이스(430)에 저장할 수 있다. The delivery information collection module 421 includes a first terminal identification number of the delivery requester terminal 500 and a second terminal identification number of the delivery target terminal 600 from each delivery requester terminal 500 forming the delivery requester terminal group 500g. And, it is possible to collect the delivery destination information of the delivery target and store it in the database 430.

이동 모듈(422)은 데이터베이스(430)에 저장된 복수의 배달 대상자 배달지 정보를 하나의 거점 영역 및 하나의 배달 영역으로 지정된 각 메인 배달로봇(100)에 대한 선택을 수행한다. The moving module 422 selects a plurality of delivery destination information stored in the database 430 for each main delivery robot 100 designated as one base area and one delivery area.

여기서 거점 영역은 메인 배달로봇(100)이 배달물품을 싣기 위한 공간에 해당하는 곳이며, 배달 영역은 메인 배달로봇(100)에 실린 서브 배달로봇(200) 각각으로 지정된 배달 대상자 배달지 정보를 모두 포함하는 구획 좌표 공간에 해당한다. Here, the base area corresponds to a space for the main delivery robot 100 to load delivery goods, and the delivery area includes all delivery destination information designated as each of the sub delivery robots 200 loaded on the main delivery robot 100 Corresponds to the partition coordinate space.

여기서, 이동 모듈(422)은 각 메인 배달로봇(100)에 탑승가능한 서브 배달로봇(200)의 개수만큼을 추출하여 하나의 메인 배달로봇(100)으로 지정을 수행하며, 메인 배달로봇(100) 지정이 완료되면 각 서브 배달로봇(200)에 대한 하나의 배달 대상자 배달지 정보도 지정을 완료한 뒤 데이터베이스(430)에 저장할 수 있다.Here, the moving module 422 extracts as many as the number of sub-delivery robots 200 that can be boarded in each main delivery robot 100 and designates it as one main delivery robot 100, and the main delivery robot 100 When the designation is completed, information on the delivery destination for each sub-delivery robot 200 may also be stored in the database 430 after designation is completed.

이후, 이동 모듈(422)은 거점 영역의 중앙에 해당하는 거점 좌표로 메인 배달로봇(100)에 대한 이동 명령을 네트워크(300)를 통해 전송하도록 송수신부(410)를 제어하여 거점 좌표로 메인 배달로봇(100)이 무인주행 기반으로 도달이 완료되거나 기존에 거점 좌표에 메인 배달로봇(100)이 위치하고 있는 경우, 거점 좌표에서 각 배달물품을 실은 서브 배달로봇(100)을 탑승시킨 뒤, 메인 배달로봇(100)을 통해 서브 배달로봇(200)으로 지정된 배달 대상자 배달지 정보로 배달 명령을 네트워크(300)를 통해 전송하도록 송수신부(410)를 제어할 수 있다. Thereafter, the movement module 422 controls the transmission/reception unit 410 to transmit the movement command for the main delivery robot 100 through the network 300 to the base coordinates corresponding to the center of the base area, and delivers the main delivery to the base coordinates. When the robot 100 is reached based on unmanned driving, or if the main delivery robot 100 is located at the base coordinates, board the sub delivery robot 100 carrying each delivery item at the base coordinates, and then deliver the main delivery. Through the robot 100, the transmission/reception unit 410 may be controlled to transmit a delivery command to the delivery destination information designated as the sub-delivery robot 200 through the network 300.

여기서 배달 대상자 배달지 정보는 각 서브 배달로봇(200)이 메인 배달로봇(100)으로부터 내릴 수 있는 골목 등을 포함하는 최근접 분기 좌표 영역을 도착점으로 지정되는데 활용될 수 있다. 이를 위해 배달정보 수집 모듈(421)은 네트워크(300)를 통해 빅데이터 서버(700)로 각 배달 대상자 배달지 정보와 하나의 배달 영역 정보를 전송함으로써, 빅데이터 서버(700)에 의해 하나의 배달 영역 정보과 매칭되는 지도 정보를 추출한 뒤, 추출된 지도 정보에서 각 배달 대상자 배달지 정보로 도달할 수 있는 대로 등을 포함하는 메인 배달로봇(100)이 접근 가능한 최근접 분기 좌표 영역을 추출하면, 추출된 최근접 분기 좌표 영역을 도착점 정보로 반환받을 수 있다. Here, the delivery destination information may be used to designate a nearest branch coordinate region including an alley through which each sub delivery robot 200 can get off the main delivery robot 100 as a destination. To this end, the delivery information collection module 421 transmits the delivery destination information and one delivery area information to the big data server 700 through the network 300, so that one delivery area by the big data server 700 After extracting map information matching the information, extracting the nearest branch coordinate area accessible by the main delivery robot 100, including as far as can be reached from the extracted map information, to each delivery destination information, the extracted recent The contact point coordinate area can be returned as destination information.

이동 모듈(422)은 도착점에 도달시 도착점과 매칭되는 각 서브 배달로봇(200)에 대한 메인 배달로봇(100)으로부터의 분리를 제어하도록 하는 분리 제어 명령을 네트워크(300)를 통해 메인 배달로봇(100)으로 전송하도록 송수신부(410)를 제어할 수 있다.The movement module 422 sends a separation control command to control separation from the main delivery robot 100 for each sub delivery robot 200 matched with the arrival point when reaching the destination point through the network 300. The transmission/reception unit 410 may be controlled to transmit to 100).

한편, 이동 모듈(422)은 각 분리되는 서브 배달로봇(200)의 이동 원격 제어를 위해 네트워크(300)와 연결된 메인 배달로봇(100)을 통해 각 서브 배달로봇(200)과 데이터 세션을 연결하거나, 직접 네트워크(300)를 통해 하나의 메인 배달로봇(100)으로 지정된 모든 서브 배달로봇(200)과 데이터 세션을 연결한 뒤, 각 서브 배달로봇(200)에 대한 자율주행 알고리즘 기반으로 각 배달지 정보로 배달이 수행되도록 자율주행 명령을 전송할 수 있다. On the other hand, the movement module 422 connects each sub delivery robot 200 and a data session through the main delivery robot 100 connected to the network 300 for remote control of the movement of each separate sub delivery robot 200 , After connecting the data session with all the sub delivery robots 200 designated as one main delivery robot 100 through the direct network 300, each delivery destination information based on the autonomous driving algorithm for each sub delivery robot 200 Autonomous driving commands can be sent so that delivery is performed.

터치 방지 모듈(423)은 도착점으로부터 배달지 정보로 향하는 서브 배달로봇(200)에 대해서 인도 주행 중에 불특정 다수의 사람에게 보이므로 사람들이 불필요하게 만지려고 하는 경우에 대한 방어 제어 명령을 전송할 수 있다.The anti-touch module 423 may transmit a defense control command for a case where people unnecessarily try to touch the sub-delivery robot 200 from the destination point to the delivery destination information, since it is visible to a number of unspecified people during delivery.

즉, 터치 방지 모듈(423)은 각 서브 배달로봇(200)에 장착된 근접 센서(211)로 만지려는 행위를 검출하기 위해 접근 위치를 검출에 따라, 서브 배달로봇(200)의 MCU(270)에 의한 외부 카메라(220)에 의해 촬영된 영상 정보를 수신하도록 송수신부(410)를 제어한 뒤, 영상 정보를 영상인식 기반으로 만지는 행위라고 분석시 경고 제어 명령을 서브 배달로봇(200)으로 전송함으로써, 서브 배달로봇(200)에 의해 서브 배달로봇(200)의 몸체에 형성된 주의 램프(230)를 적색으로 점등하도록 할 뿐만 아니라, MCU(270)에 연결된 스피커(271)를 통해 경고 음성신호로 "만지지 말아주세요." 등을 출력하도록 함으로써, 만지려는 사람이 놀라면서 만지면 안 되는지를 인지할 수 있도록 할 수 있다. 여기서 영상 정보를 영상인식 기반으로 만지는 행위라고 분석시 터치 방지 모듈(423)은 데이터베이스(430)에서 다양한 손 모양 패턴을 활용해 영상 정보에서 만지는 행위를 분석할 수 있다. 이를 위해 데이터베이스(430)에는 다양한 제품 패턴이 저장되어 있는데, 터치 방지 모듈(423)은 이러한 다양한 손 모양 패턴 자체 정보 또는 상기 다양한 손 모양 패턴의 기울어진 것, 역으로 된 것, 약간 각도가 기울어진 것 등과 영상 정보에 포함된 손 모양의 패턴을 비교하여 영상 정보 속의 만지는 행위를 판별한다.That is, the touch prevention module 423 detects an approach position in order to detect an action to be touched with the proximity sensor 211 mounted on each sub delivery robot 200, according to the MCU 270 of the sub delivery robot 200 After controlling the transmitting/receiving unit 410 to receive the image information captured by the external camera 220 by, a warning control command is transmitted to the sub delivery robot 200 when analyzing that the image information is touched based on image recognition. By doing so, not only the attention lamp 230 formed on the body of the sub delivery robot 200 is lit in red by the sub delivery robot 200, but also as a warning voice signal through the speaker 271 connected to the MCU 270. "Please don't touch it." By having the back printed out, the person you are trying to touch can be surprised and recognize if it should not be touched. Here, when analyzing that the image information is an act of touching based on image recognition, the touch prevention module 423 may analyze the act of touching in the image information using various hand pattern patterns in the database 430. To this end, various product patterns are stored in the database 430, and the touch prevention module 423 includes information on the various hand pattern itself or the inclined, reversed, and slightly inclined The hand pattern included in the image information is compared with the thing to determine the act of touching in the image information.

이동 불능 처리 모듈(424)은 각 서브 배달로봇(200)에 구비된 외부 카메라(220)에 의해 객체로 사람이 미리 설정된 반경 내로 인식되는 경우(제 1 인식 이벤트), 또는 객체로 사물이 미리 설정된 반경 내로 외부 카메라(220)에 의해 인식되면서 각 서브 배달로봇(200)이 이동에 따라 인식된 사물의 영상 내의 배율 변화 속도보다 빠른 속도로 변화되는 다른 사물을 인지하는 배율 변화 이벤트 발생이 인식되는 경우(제 2 인식 이벤트), 네트워크(300)를 통해 영상 정보, 그리고 제 1 인식 이벤트 또는 제 2 인식 이벤트를 수신하도록 송수신부(410)를 제어할 수 있다. When a person is recognized as an object within a preset radius by the external camera 220 provided in each sub delivery robot 200 (the first recognition event), or the object is preset as an object. When the occurrence of a magnification change event in which the sub-delivery robot 200 recognizes another object that changes at a faster rate than the magnification change speed in the image of the object recognized according to the movement is recognized while being recognized by the external camera 220 within the radius The transmitting and receiving unit 410 may be controlled to receive (second recognition event), image information, and a first recognition event or a second recognition event through the network 300.

이후, 이동 불능 처리 모듈(424)은 제 1 또는 제 2 인식 이벤트와 매칭되는 영상 정보를 무인 배달로봇 서비스 제공 서버(400)와 연결된 로봇 관리자 단말(400a) 중 하나로 전송함으로써, 로봇 관리자 단말(400a) 상에 실시간 관리대상 로봇 창으로 영상 정보가 출력되도록 할 뿐만 아니라, 특히 이동하는 물체와의 충돌 위험에 해당하는 제 2 인식 이벤트와 함께 영상 정보가 수신된 경우, 로봇 관리자 단말(400a) 상에 주의 대상 로봇 메시지를 포함하는 실시간 주의대상 로봇 창으로 영상 정보가 출력되도록 할 수 있다. Thereafter, the immobilization processing module 424 transmits the image information matched with the first or second recognition event to one of the robot manager terminals 400a connected to the unmanned delivery robot service providing server 400, so that the robot manager terminal 400a ) To the real-time management target robot window, in particular, when the image information is received together with the second recognition event corresponding to the risk of collision with a moving object, the robot manager terminal 400a Image information can be output to a real-time attention target robot window including a attention target robot message.

이에 따라, 로봇 관리자 단말(400a)은 실시간 관리대상 로봇 창을 통해 관리자가 해당되는 서브 배달로봇(200)이 운행방해상태에 있게 될 가능성이 높음을 인식할 뿐만 아니라, 서브 배달로봇(200)이 실제 방해를 받아 이동하지 못하는 경우에도 제 3 인식 이벤트를 이동 불능 처리 모듈(424)을 통해 수신한 뒤, 제 1 내지 제 3 인식 이벤트 정보 및 영상 정보에 대응되는 원격 제어 명령을 이동 불능 처리 모듈(424)을 통해 각 서브 배달로봇(200)으로 전달할 수 있다. Accordingly, the robot manager terminal 400a not only recognizes that there is a high possibility that the sub-delivery robot 200 corresponding to the manager is in a driving disturbance state through the real-time management target robot window, the sub-delivery robot 200 Even when movement is not possible due to actual interference, after receiving the third recognition event through the disability processing module 424, a remote control command corresponding to the first to third recognition event information and the image information is transmitted to the disability processing module ( It can be delivered to each sub-delivery robot 200 through 424.

한편, 이동 불능 처리 모듈(424)은 상술한 로봇 관리자 단말(400a)에 의한 제 3 인식 이벤트에 대한 원격 제어 명령에도 빠져나오지 못하는 운행 불능 상태에 빠진 경우에는 로봇 관리자 단말(400a)로부터 운행 불능 판정을 수신한 뒤, 운행 불능 상태에 빠진 골목 등에서 시간대별 유동인구 통계 정보를 네트워크(300)를 통해 빅데이터 서버(700)로부터 수신한 뒤, 현재 시간대의 유동인구 통계가 미리 설정된 임계치 이상이거나, 외부 카메라(220)를 통해 수신되는 영상 정보를 영상인식 기반으로 분석하여 주변에 사람이 있다고 판단되면, 구조 요청 제어 명령을 서브 배달로봇(200)으로 전송할 수 있다.On the other hand, if the movement disability processing module 424 is in a state of inoperability that cannot escape even with a remote control command for a third recognition event by the robot manager terminal 400a, it is determined that the robot manager terminal 400a is unable to operate. After receiving, after receiving the floating population statistics information for each time period from the big data server 700 through the network 300 in an alley that has fallen into an inoperable state, the floating population statistics in the current time period is equal to or greater than a preset threshold or external When the image information received through the camera 220 is analyzed based on image recognition and it is determined that there is a person nearby, a rescue request control command may be transmitted to the sub delivery robot 200.

여기서 영상 정보를 영상인식 기반으로 유동인구가 미리 설정된 임계치 이상이라고 분석시 이동 불능 처리 모듈(424)은 데이터베이스(430)에서 다양한 사람 모양 패턴을 활용해 영상 정보에서 유동인구를 분석할 수 있다. 이를 위해 데이터베이스(430)에는 다양한 사람 모양 패턴이 저장되어 있는데, 이동 불능 처리 모듈(424)은 이러한 다양한 사람 모양 패턴 자체 정보 또는 상기 다양한 사람 모양 패턴의 기울어진 것, 역으로 된 것, 약간 각도가 기울어진 것 등과 영상 정보에 포함된 사람 모양의 패턴을 비교하여 영상 정보 속에서 유동인구를 분석한다. Here, when analyzing the image information that the floating population is greater than or equal to a preset threshold based on image recognition, the mobility impossibility processing module 424 may analyze the floating population from the image information using various human pattern patterns in the database 430. To this end, various human pattern patterns are stored in the database 430, and the immobilization processing module 424 includes information on the various human pattern itself or the inclined, inverted, or slightly angled information of the various human pattern patterns. It analyzes the floating population in the image information by comparing the inclined ones and the human-shaped pattern included in the image information.

이에 따라, 서브 배달로봇(200)은 몸체에 형성된 주의 램프(230)를 적색으로 점등하도록 할 뿐만 아니라, MCU(270)에 연결된 스피커(271)를 통해 구조 음성신호로 "구해주세요." 등을 출력하도록 할 수 있다. Accordingly, the sub-delivery robot 200 not only turns on the caution lamp 230 formed on the body in red, but also “save me” as a rescue voice signal through the speaker 271 connected to the MCU 270. And so on.

반대로, 이동 불능 처리 모듈(424)은 현재 시간대의 유동인구 통계가 미리 설정된 임계치 미만이거나, 외부 카메라(220)를 통해 수신되는 영상 정보를 영상인식 기반으로 분석하여 주변에 사람이 없다고 판단되면, 네트워크(300)를 통해 현재 서브 배달로봇(200)의 GPS 수신부(260)로부터 수신된 위치 정보와 매칭되는 인접 건물 관리자 단말(800)을 적어도 하나 데이터베이스(330) 상에서 추출한 뒤, 추출된 인접 건물 관리자 단말(800)로 서브 배달로봇(200)의 식별 ID 및 서브 배달로봇(200)의 외부 카메라(220)에 의해 촬영되는 영상 정보를 전송함으로써, 인접 건물 관리자 단말(800)을 운영하는 인접 건물 관리자와 로봇 관리자 단말(400a)을 운영하는 로봇 관리자가 협업하여 서브 배달로봇(200)의 이행 불능 상태를 해제하도록 할 수 있다.On the contrary, when it is determined that the floating population statistics of the current time zone is less than a preset threshold or the image information received through the external camera 220 is analyzed based on image recognition and it is determined that there are no people nearby, the network After extracting the neighboring building manager terminal 800 matching the location information received from the GPS receiver 260 of the current sub-delivery robot 200 through 300 from at least one database 330, the extracted neighboring building manager terminal By transmitting the identification ID of the sub-delivery robot 200 and image information photographed by the external camera 220 of the sub-delivery robot 200 to 800, the adjacent building manager who operates the adjacent building manager terminal 800 The robot manager operating the robot manager terminal 400a may cooperate to cancel the transition impossible state of the sub delivery robot 200.

여기서 인접 건물 관리자 단말(800)을 운영하는 인접 건물 관리자는 아파트 또는 건물 관리인에 해당할 수 있다. Here, the adjacent building manager operating the adjacent building manager terminal 800 may correspond to an apartment or building manager.

배달물품 홍보 모듈(425)은 이동 모듈(422)에 의한 자율주행 알고리즘 기반으로 각 배달지 정보로 배달물품 배달을 수행하는 서브 배달로봇(200)의 영상 장치(240)로 배달물품의 광고 영상을 출력하도록 광고 영상을 제공할 수 있다.The delivery product promotion module 425 outputs an advertisement image of the delivery product to the video device 240 of the sub delivery robot 200 that delivers the delivery product with each delivery destination information based on the autonomous driving algorithm by the mobile module 422 It is possible to provide an advertisement video so as to do so.

즉, 길가던 사람이 서브 배달로봇(200)이 음식을 배달하는 경우 배달되는 내용물인 음식에 대한 식욕을 느끼도록 하는 광고 영상을 영상 장치(240)를 통해 제공할 수 있다. That is, when a person on the road delivers food by the sub-delivery robot 200, an advertisement image that allows a person to feel an appetite for food, which is the delivered content, may be provided through the imaging device 240.

이를 위해 배달 요청자 단말 그룹(500g)을 이루는 복수의 배달 요청자 단말(500) 중 서브 배달로봇(200)을 통해 음식을 배달시키는 식당을 운영하는 배달 요청자가 운영하는 배달 요청자 단말(500)인 경우, 배달물품 홍보 모듈(425)은 네트워크(300)를 통해 사전에 배달 요청자 단말(500)로부터 광고 영상을 수신하도록 송수신부(410)를 제어한 뒤, 광고 영상을 데이터베이스(430)에 저장된 배달 요청자 단말(500)의 제 1 단말식별번호를 메타데이터로 하여 저장할 수 있다.For this purpose, in the case of the delivery requester terminal 500 operated by a delivery requester who operates a restaurant that delivers food through the sub delivery robot 200 among a plurality of delivery requester terminals 500 constituting the delivery requester terminal group 500g, The delivery product promotion module 425 controls the transmission/reception unit 410 to receive an advertisement image from the delivery requester terminal 500 in advance through the network 300, and then stores the advertisement image in the database 430. The first terminal identification number of 500 may be stored as metadata.

이후, 배달물품 홍보 모듈(425)은 배달 요청자 단말(500)의 미리 설정된 광고료 결제와 현재 배달 중인 서브 배달로봇(200)이 있는 경우 배달 요청자 단말(500) 상의 배달 요청자 앱을 통한 광고 요청을 수신한 경우, 배달 중인 서브 배달로봇(200)으로 광고 영상을 전송하도록 송수신부(410)를 제어함으로써, 서브 배달로봇(200)의 영상 장치(240)로 광고 영상이 출력되도록 할 수 있다. Thereafter, the delivery product promotion module 425 receives an advertisement request through the delivery requester app on the delivery requester terminal 500 when there is a preset advertisement fee payment of the delivery requester terminal 500 and the sub delivery robot 200 currently being delivered. In one case, by controlling the transmission/reception unit 410 to transmit an advertisement image to the sub delivery robot 200 being delivered, the advertisement image may be output to the video device 240 of the sub delivery robot 200.

이 경우, 서브 배달로봇(200)은 광고 영상을 저장부(280)에 저장한 뒤, 메인 배달로봇(100)에서 내려서 목적지인 배달지 정보에 도달하기까지 저장된 광고 영상을 로봇 정면에 형성되거나 로봇 몸체 겉면을 두르고 형성되는 영상 장치(240)로 출력할 수 있다. In this case, the sub-delivery robot 200 stores the advertisement image in the storage unit 280, and then dismounts the main delivery robot 100 and stores the stored advertisement image on the front of the robot until it reaches the destination information. It can be output to the imaging device 240 formed by covering the outer surface.

배달물품 상태 제공 모듈(426)은 서브 배달로봇(200)으로 배달이 진행되는 배달물품에 대한 실시간 영상 정보를 수신한 뒤, 배달물품에 관여된 배달 요청자 단말(500) 및 배달 대상자 단말(600)로 네트워크(300)를 통해 전송하도록 송수신부(410)를 제어할 수 있다. The delivery product status providing module 426 receives real-time video information on the delivery product being delivered to the sub delivery robot 200, and then the delivery requester terminal 500 and the delivery target terminal 600 involved in the delivery product. The transmission/reception unit 410 may be controlled to transmit through the network 300.

즉, 배달물품 상태 제공 모듈(426)은 네트워크(300)를 통한 하나의 배달물품에 대한 배달 요청자 단말(500)의 배달 요청자 앱 및/또는 배달 대상자 단말(600)의 배달 대상자 앱을 통한 액세스(access)를 확인한 뒤, 배달물품의 상태에 대한 정보 공개 요청을 수신하는 경우, 배달물품을 운반하는 서브 배달로봇(200)의 화물칸 내부에 형성된 내부 조명(250)에 대한 전원 온(ON) 명령, 그리고 내부 카메라(214), 온도센서(212) 및 습도센서(213)에 대한 센싱 명령을 통해 내부 영상 정보, 내부 온/습도 정보를 획득할 수 있다.That is, the delivery product status providing module 426 accesses the delivery requester app of the delivery requester terminal 500 for one delivery product through the network 300 and/or the delivery target app of the delivery target terminal 600 ( access), and when receiving a request to disclose information on the state of the delivered goods, a power-on command for the internal lighting 250 formed inside the cargo compartment of the sub delivery robot 200 carrying the delivery goods, In addition, internal image information and internal temperature/humidity information may be obtained through sensing commands for the internal camera 214, the temperature sensor 212, and the humidity sensor 213.

이후, 배달물품 상태 제공 모듈(426)은 하나의 배달물품에 대한 배달 요청자 단말(500)의 배달 요청자 앱 및/또는 배달 대상자 단말(600)의 배달 대상자 앱 상에서 터치스크린으로 구현된 배달물품 상태보기 영역에 대한 선택 신호가 수신됨을 인식한 경우, 내부 영상 정보, 내부 온/습도 정보를 네트워크(300)를 통해 배달 요청자 단말(500) 및/또는 배달 대상자 단말(600)로 전송하여 출력되도록 송수신부(410)를 제어할 수 있다.Thereafter, the delivery item status providing module 426 is a delivery requester app of the delivery requester terminal 500 for one delivery item and/or a delivery item status view implemented by a touch screen on the delivery target person app of the delivery target terminal 600 When it is recognized that the selection signal for the region is received, the transmission/reception unit transmits and outputs internal image information and internal temperature/humidity information to the delivery requester terminal 500 and/or the delivery target terminal 600 through the network 300 You can control 410.

즉, 배달 요청자 또는 배달 대상자는 배달물품의 실시간 상태를 확인하고자 할 때 앱 상에서 '배송물품 상태보기'를 클릭한다. 이에 따라, 배달 요청자 또는 배달 대상자의 앱 UI 화면에 로딩중이라고 뜨는 동안 배달 요청자 또는 배달 대상자의 앱에서 무인 배달로봇 서비스 제공 서버(400)를 통해 서브 배달로봇(200)에 배달 요청자 또는 배달 대상자가 내부상태를 보길 원한다는 사실을 전달한다. 이에 따라, 서브 배달로봇(200)의 MCU(270)은 내부의 조명(250)을 켜고 상기한 온/습도센서들로부터 입력되는 온/습도 정보를 실시간이라고 느껴질 만큼의 일정한 시간간격으로 무인 배달로봇 서비스 제공 서버(400)를 통해 배달 요청자 또는 배달 대상자 앱으로 전달할 수 있다. In other words, the delivery requester or delivery target clicks'View Delivery Item Status' on the app to check the real-time status of the delivered item. Accordingly, while the delivery requester or the delivery target's app UI screen is loading, the delivery requester or the delivery target is internally sent to the sub delivery robot 200 through the unmanned delivery robot service providing server 400 in the delivery requester or delivery target's app. Communicate that you want to see the state. Accordingly, the MCU 270 of the sub-delivery robot 200 turns on the internal lighting 250 and transmits the temperature/humidity information input from the above-described temperature/humidity sensors at a constant time interval so that it is felt in real time. It may be delivered to a delivery requester or a delivery target person app through the service providing server 400.

배달물품 상태 제공 모듈(426)은 하나의 배달물품에 대한 배달 요청자 단말(500)의 배달 요청자 앱 및/또는 배달 대상자 단말(600)의 배달 대상자 앱을 통한 배달 요청자 단말(500) 및/또는 배달 대상자 단말(600)로부터 배달 경로 확인 요청을 수신하는 경우, 배달물품 위치 제공 모듈(427)과의 연동을 통해 현재까지의 위치 정보에 따른 배송물품의 상태에 대한 서브 배달로봇(200)으로부터 수신한 영상 정보를 배달 요청자 단말(500) 및/또는 배달 대상자 단말(600)로 제공함으로써, 내부의 영상을 기반으로 경로에서 발생할 수 있는 파손상황을 확인할 수 있도록 할 수 있다.The delivery item status providing module 426 is the delivery requester terminal 500 and/or delivery through the delivery requester app of the delivery requester terminal 500 and/or the delivery destination app of the delivery destination terminal 600 for one delivery product. When receiving a request to confirm the delivery route from the target terminal 600, received from the sub-delivery robot 200 for the status of the delivered item according to the location information to date through interlocking with the delivery item location providing module 427 By providing the image information to the delivery requester terminal 500 and/or the delivery target terminal 600, it is possible to check the damage situation that may occur in the path based on the internal image.

배달물품 상태 제공 모듈(426)은 배달 대상자 단말(600)을 운영하는 배달 대상자가 배달물품으로 배달음식을 시킨 경우, 따뜻하게 먹고 싶은지, 차갑게 먹고 싶은지에 따라서 온도를 추가로 조절할 수 있으며, 이를 위해 서브 배달로봇(200)에는 온도조절장치(미도시)를 추가로 구비하는 것이 바람직하다.The delivery item status providing module 426 can additionally adjust the temperature depending on whether the delivery target person who operates the delivery target terminal 600 makes delivery food as a delivery product, whether they want to eat warm or cold. It is preferable that the delivery robot 200 further includes a temperature control device (not shown).

배달물품 상태 제공 모듈(426)은 배달 대상자가 제공하는 온도 조절 정보를 실시간으로 서브 배달로봇(200)으로 전달하도록 송수신부(410)를 제어할 수 있다. The delivery article status providing module 426 may control the transmission/reception unit 410 to transmit temperature control information provided by the delivery target to the sub delivery robot 200 in real time.

배달물품 위치 제공 모듈(427)은 서브 배달로봇(200)이 배달하는 하나의 배달물품에 관여된 배달 요청자 단말(500) 및/또는 배달 대상자 단말(600)로부터 서브 배달로봇(200)의 현재 위치에 대한 요청을 수신한 뒤, 네트워크(200)를 통해 제공하도록 송수신부(410)를 제어할 수 있다.The delivery product location providing module 427 is the current location of the sub delivery robot 200 from the delivery requester terminal 500 and/or the delivery target terminal 600 involved in one delivery product delivered by the sub delivery robot 200 After receiving the request for, the transmission/reception unit 410 may be controlled to provide it through the network 200.

보다 구체적으로, 현재 위치에 대한 요청을 수신한 배달물품 위치 제공 모듈(427)은 서브 배달로봇(200)과 메인 배달로봇(100)의 GPS 위치 정보를 수신하도록 송수신부(410)를 제어한 뒤, 수신된 GPS 위치 정보를 네트워크(200)를 통해 서브 배달로봇(200)이 배달하는 하나의 배달물품에 관여된 배달 요청자 단말(500) 및/또는 배달 대상자 단말(600)로 전송하도록 송수신부(410)를 제어할 수 있다. More specifically, after receiving the request for the current location, the delivery article location providing module 427 controls the transmission/reception unit 410 to receive GPS location information of the sub delivery robot 200 and the main delivery robot 100 , Transmitting and receiving unit to transmit the received GPS location information to the delivery requester terminal 500 and/or the delivery target terminal 600 involved in one delivery article delivered by the sub delivery robot 200 through the network 200 410) can be controlled.

한편, 서브 배달로봇(200)의 외부 카메라(220)와 동일하게 메인 배달로봇(100)도 정면에 외부 카메라가 설치될 수 있으며, 배달 요청자 단말(500) 및/또는 배달 대상자 단말(600)이 배달 요청자 앱 및/또는 배달 대상자 앱에 구현된 배달용 지도 상에서 배달물품의 위치 정보를 구현시, 배달 요청자 앱 및/또는 배달 대상자 앱 상에서 추가로 영상 제공 요청에 따라 실시간으로 서브 배달로봇(200)의 영상 정보 및/또는 메인 배달로봇(100)의 영상 정보를 배달물품 위치 제공 모듈(427)을 통해 미리 설정된 시간 간격으로 수신하여 출력할 수 있다. On the other hand, like the external camera 220 of the sub delivery robot 200, the main delivery robot 100 may also have an external camera installed in front, and the delivery requester terminal 500 and/or the delivery target terminal 600 When implementing the location information of the delivered item on the delivery map implemented in the delivery requester app and/or the delivery target app, the sub delivery robot 200 in real time according to the request to provide additional images on the delivery requester app and/or delivery target app The image information and/or the image information of the main delivery robot 100 may be received and output at a preset time interval through the delivery article location providing module 427.

여기서, 영상 정보는 블랙박스 영상 정보로 활용하며, 배달물품 위치 제공 모듈(427)은 영상 정보를 전송함에 있어 모든 픽셀의 정보를 전송하면 시간과 비용이 많이 소모되기 때문에 비디오 압축기술(Sum of Absolute Differences)를 사용하는 것이 바람직하다. Here, the image information is used as black box image information, and the delivery item location providing module 427 consumes a lot of time and cost when transmitting the information of all pixels in transmitting the image information. Differences) are preferred.

원격정보 제공 모듈(428)은 배달 요청자 단말(500) 및/또는 배달 대상자 단말(600)로부터 원격조정 요청에 따라 배달 요청자 단말(500) 및/또는 배달 대상자 단말(600)과 서브 배달로봇(200) 간의 데이터 송수신을 중계할 수 있다.The remote information providing module 428 includes the delivery requester terminal 500 and/or the delivery target terminal 600 and the sub-delivery robot 200 according to a remote control request from the delivery requester terminal 500 and/or the delivery target terminal 600. ) Data transmission and reception can be relayed.

즉, 원격정보 제공 모듈(428)은 서브 배달로봇(200)의 실시간 위치 정보가 수신되어, 서브 배달로봇(200)의 실시간 위치 정보와 배달지 정보인 목적지 주소가 일치하는 경우 서브 배달로봇(200)이 건물 내부로 진입한 것으로 판단한 뒤, 네트워크(300)를 통해 배달 요청자 단말(500) 및/또는 배달 대상자 단말(600)의 앱에 의해 구현된 UI 화면에 서브 배달로봇(200)이 조종가능한 상태임을 메시지 형태로 전송하도록 송수신부(410)를 제어할 수 있다. That is, when the remote information providing module 428 receives real-time location information of the sub delivery robot 200 and the real-time location information of the sub delivery robot 200 matches the destination address, which is the delivery destination information, the sub delivery robot 200 After determining that it has entered the building, the sub-delivery robot 200 can be manipulated on the UI screen implemented by the app of the delivery requester terminal 500 and/or the delivery target terminal 600 through the network 300 The transmission/reception unit 410 may be controlled to transmit the message in the form of a message.

배달 요청자 단말(500) 및/또는 배달 대상자 단말(600) 상에서 원격조정 확정 입력에 따라, 원격정보 제공 모듈(428)은 배달 요청자 단말(500) 및/또는 배달 대상자 단말(600)로부터 수신되는 원격정보(방향 및 거리 제어 명령)을 수신한 뒤, 서브 배달로봇(200)으로 전송함으로써, 서브 배달로봇(200)에 대한 원격제어가 가능하도록 중계할 수 있다. According to the remote control confirmation input on the delivery requester terminal 500 and/or the delivery destination terminal 600, the remote information providing module 428 is a remote information received from the delivery requester terminal 500 and/or the delivery destination terminal 600. After receiving the information (direction and distance control command), by transmitting it to the sub delivery robot 200, it can be relayed to enable remote control of the sub delivery robot 200.

한편, 서브 배달로봇(200)은 배달 요청자 또는 배달 대상자의 과실로 인한 사고를 방지하기 위해 긴급제동장치(미도시)를 포함함으로써, 외부 카메라(220)에 의해 촬영되는 영상 정보를 수신한 뒤, MCU(270)에 의한 자율주행 기반으로 영상 정보를 분석하여 벽 또는 객체(사람 및 사물)과 충돌 위험이 있는 경우, 긴급제동장치를 제어함으로써 이동을 중지할 수 있다. On the other hand, the sub-delivery robot 200 includes an emergency braking device (not shown) to prevent an accident due to the negligence of the delivery requester or the delivery target, and after receiving the image information photographed by the external camera 220, When there is a risk of collision with a wall or an object (people and objects) by analyzing image information based on autonomous driving by the MCU 270, the movement can be stopped by controlling the emergency braking device.

배달 픽업 제공 모듈(429)은 서브 배달로봇(200)이 지정된 배달 대상자 배달지 정보로 배달을 완료하고 메인 배달로봇(100)으로 돌아가기 위해 기다리는 동안 가까운 거리에서 배달수요가 발생한 경우 추가배달수요에 대한 처리를 수행할 수 있다.The delivery pickup providing module 429 completes the delivery with the designated delivery destination information and waits to return to the main delivery robot 100 when delivery demand occurs in a short distance. Treatment can be carried out.

즉, 배달 요청자 단말(500)이 배달 요청자 앱 상에서 출발지 및 배달물품 중량을 배달물품 정보로 추가로 입력하면, 배달정보 수집 모듈(421)이 배달물품 정보를 수신한 뒤, 배달물품 정보를 데이터베이스(430)에 저장할 수 있다. That is, when the delivery requester terminal 500 additionally inputs the origin and the weight of the delivered product as delivery product information on the delivery requester app, the delivery information collection module 421 receives the delivery product information, and then stores the delivery product information in the database ( 430).

이에 따라, 배달 픽업 제공 모듈(429)은 배달물품에 대해서 이동 모듈(422)에 의한 운송할 메인 배달로봇(100) 및 서브 배달로봇(200)을 픽업을 위한 탐색하고 있는 동안에 미리 설정된 거리 이내에서 메인 배달로봇(100)으로 복귀하기 위해 기다리고 있는 서브 배달로봇(200)의 위치정보인 제 1 위치정보, 현재 배달중이나 미리 설정된 시간 내에 기다리고 있어야 하는 서브 배달 로봇(200)의 위치정보인 제 2 위치정보, 그리고 배달물품 정보 중 출발지를 포함하는 거점 영역으로 이동 모듈(422)에 의해 지정된 메인 배달로봇(100) 내에 배달물품을 싣고 있지 않은 서브 배달로봇(200)이 있는 경우 메인 배달로봇(200)의 위치정보인 제 3 위치정보를 추출하여 네트워크(300)를 통해 배달 요청자 단말(500)로 전송하도록 송수신부(410)를 제어함으로써, 배달 요청자 단말(500)의 UI 화면으로 각 위치정보를 출력하도록 할 수 있다. Accordingly, the delivery pickup providing module 429 is within a preset distance while searching for the main delivery robot 100 and the sub delivery robot 200 to be transported by the moving module 422 for the delivered goods for pickup. The first location information, which is the location information of the sub delivery robot 200 waiting to return to the main delivery robot 100, and the second location, which is the location information of the sub delivery robot 200 that is currently being delivered or must be waiting within a preset time. If there is a sub-delivery robot 200 that does not carry a delivery product in the main delivery robot 100 designated by the moving module 422 to the base area including the origin among the information and the delivery product information, the main delivery robot 200 By controlling the transmission/reception unit 410 to extract the third location information, which is the location information of, and transmit it to the delivery requester terminal 500 through the network 300, each location information is output on the UI screen of the delivery requester terminal 500 You can do it.

여기서, 배달 픽업 제공 모듈(429)은 연산알고리즘을 포함함으로써, 기다리는 서브 배달로봇(200)의 제 1 위치정보, 기다릴 서브 배달로봇(200)의 제 2 위치정보, 그리고 배달물품을 싣고 있지 않은 제 3 위치정보 각각과 출발지와의 거리정보를 연산하여 배달 요청자 단말(500)의 UI 화면으로 제공할 뿐만 아니라, 빅데이터 서버(700)로 액세스하여 제 1 내지 제 3 위치정보 각각과 출발지와의 사이의 교통정보(신호등의 개수, 차량 통행량, 운행 속도)를 수신한 뒤, 배달 요청자 단말(500)로 전송하도록 송수신부(410)를 제어할 수 있다. Here, the delivery pickup providing module 429 includes an operation algorithm, so that the first location information of the waiting sub delivery robot 200, the second location information of the sub delivery robot 200 to wait, and the delivery product not loaded 3 The distance information between each of the location information and the departure point is calculated and provided to the UI screen of the delivery requester terminal 500, as well as access to the big data server 700 and the distance between each of the first to third location information and the departure point. After receiving the traffic information (number of traffic lights, vehicle traffic, driving speed), it is possible to control the transmission/reception unit 410 to transmit it to the delivery requester terminal 500.

배달 픽업 제공 모듈(429)은 제 1 내지 제 3 위치정보 각각과 출발지와의 사이의 거리정보 및 교통정보(신호등의 개수, 차량 통행량, 운행 속도) 중 거리정보를 제 1 가중치로 하고 교통정보의 각 파라미터에 대한 할당비율을 반영한 지연예상정보를 제 2 가중치로 하여 가장 신속하게 도달가능한 서브 배달로봇(200)을 오름 차순으로 나열하여 데이터베이스(430)에 저장한 뒤, 네트워크(300)를 통해 배달 요청자 단말(500)로 네트워크(300)를 통해 가장 우선순위에 있는 서브 배달로봇(200)의 식별 ID 및 위치정보를 전송하도록 송수신부(410)를 제어함으로써, 배달 요청자 단말(500)의 UI 화면으로 출력하도록 할 수 있다. 여기서 제 1 가중치는 제 2 가중치보다 높은 정량적 수치에 해당한다. The delivery pickup providing module 429 uses the distance information of the distance information between each of the first to third location information and the departure point and traffic information (number of traffic lights, vehicle traffic volume, driving speed) as a first weight, and The sub-delivery robots 200 that can reach the most quickly in ascending order are listed in ascending order by using the delay prediction information reflecting the allocation ratio for each parameter as a second weight, stored in the database 430, and then delivered through the network 300. By controlling the transmission/reception unit 410 to transmit the identification ID and location information of the sub-delivery robot 200 having the highest priority through the network 300 to the requestor terminal 500, the UI screen of the delivery requester terminal 500 You can print it out. Here, the first weight corresponds to a higher quantitative value than the second weight.

이에 따라 배달 요청자 단말(500)에 의해 UI 화면에 출력된 서브 배달로봇(200)에 대한 선택이 각 서브 배달로봇(200)에 대한 미리 설정된 제한시간 내에 수행되면, 배달 픽업 제공 모듈(429)은 선택된 서브 배달로봇(200)을 배달 요청자 단말(500)의 제 1 단말식별번호로 지정하여 데이터베이스(430)에 저장함으로써, 배달을 수행할 서브 배달로봇(200), 지정된 서브 배달로봇(200)에 할당된 메인 배달로봇(100)에 대한 결정을 완료할 수 있다.Accordingly, when the selection for the sub delivery robot 200 output on the UI screen by the delivery requester terminal 500 is performed within a preset time limit for each sub delivery robot 200, the delivery pickup providing module 429 By designating the selected sub delivery robot 200 as the first terminal identification number of the delivery requester terminal 500 and storing it in the database 430, the sub delivery robot 200 to perform delivery and the designated sub delivery robot 200 It is possible to complete the determination on the assigned main delivery robot 100.

여기서 미리 설정된 제한시간 내로 수행되어야 하는 이유는 배달 요청자 단말(500)을 운영하는 배달 요청자가 최종 결정하는데 시간 지체에 따라 메인 배달로봇(100)이 서브 배달로봇(200)을 싣고 배달 요청자 단말(500)로부터 미리 설정된 거리 내로부터 벗어나기 때문이며, 미리 설정된 거리 내를 벗어나는 경우, 배달 픽업 제공 모듈(429)은 거리 내를 벗어난 서브 배달로봇(200)의 식별 ID 및 위치정보를 배달 요청자 단말(500)로 네트워크(300)를 통해 전송하도록 송수신부(410)를 제어함으로써, 배달 요청자 앱에 구현되도록 할 수 있다. Here, the reason to be performed within a preset time limit is that the delivery requester who operates the delivery requester terminal 500 determines the final decision. According to the time delay, the main delivery robot 100 loads the sub delivery robot 200 and the delivery requester terminal 500 ) From within a preset distance, and if it is outside a preset distance, the delivery pickup providing module 429 transfers the identification ID and location information of the sub-delivery robot 200 out of the distance to the delivery requester terminal 500 By controlling the transmission/reception unit 410 to transmit through the network 300, it can be implemented in the delivery requester app.

한편, 배달 요청자 앱 상에서는 배치 결정된 서브 배달로봇(200)의 위치정보와 미리 설정된 제한시간이 도 4와 같이 출력되면, UI 화면상의 테두리에 적색 선을 출력하고, 도 5a, 도 5b와 같이 남은 제한시간의 역수에 비례하여 UI 화면상의 테두리의 적색 선의 비율이 감소하도록 배달 요청자 단말(500)이 제어함으로써, 배달 요청자에게 배달물품 픽업에 대한 남은 시간에 대한 직관적인 압박을 느끼게 할 수 있다.On the other hand, on the delivery requester app, if the location information of the sub-delivery robot 200 and the preset time limit are output as shown in FIG. 4, a red line is output on the edge of the UI screen, and the remaining limit as shown in FIGS. 5A and 5B. By controlling the delivery requester terminal 500 to decrease the ratio of the red line of the frame on the UI screen in proportion to the reciprocal of the time, it is possible to make the delivery requester feel an intuitive pressure on the remaining time for pickup of the delivered goods.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.The present invention can also be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices that store data that can be read by a computer system.

컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage devices, and are implemented in the form of carrier waves (for example, transmission through the Internet). Also includes.

또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.In addition, the computer-readable recording medium is distributed over a computer system connected through a network, so that computer-readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers in the technical field to which the present invention belongs.

이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.As described above, in the present specification and drawings, a preferred embodiment of the present invention has been disclosed, and although specific terms are used, this is only used in a general meaning to easily explain the technical content of the present invention and to aid understanding of the invention. , It is not intended to limit the scope of the present invention. In addition to the embodiments disclosed herein, it is apparent to those of ordinary skill in the art that other modified examples based on the technical idea of the present invention may be implemented.

1 : 무인 배달로봇 관리 시스템
100 : 메인 배달로봇
200 : 서브 배달로봇
300 : 네트워크
400 : 무인 배달로봇 관리 서버
500 : 배달 요청자 단말
500g : 배달 요청자 단말 그룹
600g : 배달 대상자 단말 그룹
600 : 배달 대상자
700 : 빅데이터 서버
800 : 인접 건물 관리자 단말
800g : 인접 건물 관리자 단말 그룹
1: Unmanned delivery robot management system
100: main delivery robot
200: sub delivery robot
300: network
400: unmanned delivery robot management server
500: delivery requester terminal
500g: Delivery requester terminal group
600g: Terminal group to be delivered
600: person to be delivered
700: Big data server
800: adjacent building manager terminal
800g: adjacent building manager terminal group

Claims (7)

메인 배달로봇(100), 서브 배달로봇(200), 네트워크(300), 무인 배달로봇 관리 서버(400)를 포함하는 무인 배달로봇 서비스 제공 시스템에 있어서, 무인 배달로봇 서비스 제공 서버(400)는,
도착점에 도달시 도착점과 매칭되는 각 서브 배달로봇(200)에 대한 메인 배달로봇(100)으로부터의 분리를 제어하도록 하는 분리 제어 명령을 네트워크(300)를 통해 메인 배달로봇(100)으로 전송하도록 송수신부(410)를 제어하는 이동 모듈(422); 및
도착점으로부터 배달지 정보로 향하는 서브 배달로봇(200)에 대해서 인도 주행 중에 각 서브 배달로봇(200)에 장착된 근접 센서(211)로 만지려는 행위를 검출하기 위해 접근 위치를 검출에 따라, 서브 배달로봇(200)의 MCU(270)에 의한 외부 카메라(220)에 의해 촬영된 영상 정보를 수신하도록 송수신부(410)를 제어한 뒤, 영상 정보를 영상인식 기반으로 만지는 행위라고 분석시 경고 제어 명령을 서브 배달로봇(200)으로 전송하도록 송수신부(410)를 제어하는 터치 방지 모듈(423); 을 포함하는 것을 특징으로 하는 무인 배달로봇 서비스 제공 시스템.
In the unmanned delivery robot service providing system including the main delivery robot 100, the sub delivery robot 200, the network 300, and the unmanned delivery robot management server 400, the unmanned delivery robot service providing server 400,
Sending and receiving to transmit a separation control command to control separation from the main delivery robot 100 for each sub delivery robot 200 matched with the destination point when reaching the destination point to the main delivery robot 100 through the network 300 A moving module 422 for controlling the unit 410; And
According to the detection of the approach position to detect the action to be touched by the proximity sensor 211 mounted on each sub delivery robot 200 during delivery of the sub delivery robot 200 heading from the destination to the delivery destination information, the sub delivery robot After controlling the transmission/reception unit 410 to receive the image information captured by the external camera 220 by the MCU 270 of 200, a warning control command is issued when analyzing that the image information is touched based on image recognition. A touch prevention module 423 for controlling the transmission/reception unit 410 to transmit to the sub delivery robot 200; Unmanned delivery robot service providing system comprising a.
청구항 1에 있어서, 서브 배달로봇(200)은,
경고 제어 명령을 수신하면, 몸체에 형성된 주의 램프(230)를 적색으로 점등하도록 할 뿐만 아니라, MCU(270)에 연결된 스피커(271)를 통해 경고 음성신호를 출력하는 것을 특징으로 하는 무인 배달로봇 서비스 제공 시스템.
The method according to claim 1, the sub delivery robot 200,
Unmanned delivery robot service, characterized in that upon receiving the warning control command, not only the attention lamp 230 formed on the body turns on in red, but also outputs a warning voice signal through the speaker 271 connected to the MCU 270. Delivery system.
청구항 1에 있어서, 무인 배달로봇 서비스 제공 서버(400)는,
각 서브 배달로봇(200)에 구비된 외부 카메라(220)에 의해 객체로 사람이 미리 설정된 반경 내로 인식되는 경우(제 1 인식 이벤트), 또는 객체로 사물이 미리 설정된 반경 내로 외부 카메라(220)에 의해 인식되면서 각 서브 배달로봇(200)이 이동에 따라 인식된 사물의 영상 내의 배율 변화 속도보다 빠른 속도로 변화되는 다른 사물을 인지하는 배율 변화 이벤트 발생이 인식되는 경우(제 2 인식 이벤트), 네트워크(300)를 통해 영상 정보, 그리고 제 1 인식 이벤트 또는 제 2 인식 이벤트를 수신하도록 송수신부(410)를 제어하는 이동 불능 처리 모듈(424); 을 더 포함하는 것을 특징으로 하는 무인 배달로봇 서비스 제공 시스템.
The method according to claim 1, the unmanned delivery robot service providing server 400,
When a person is recognized as an object within a preset radius by the external camera 220 provided in each sub-delivery robot 200 (first recognition event), or the object as an object is detected by the external camera 220 within a preset radius. When the occurrence of a magnification change event in which each sub-delivery robot 200 recognizes another object that changes at a faster rate than the magnification change speed in the image of the object recognized as it moves is recognized (second recognition event), the network A movement impossibility processing module 424 for controlling the transmission/reception unit 410 to receive image information and a first recognition event or a second recognition event through 300; Unmanned delivery robot service providing system, characterized in that it further comprises.
청구항 3에 있어서, 이동 불능 처리 모듈(424)은,
제 1 또는 제 2 인식 이벤트와 매칭되는 영상 정보를 무인 배달로봇 서비스 제공 서버(400)와 연결된 로봇 관리자 단말(400a) 중 하나로 전송하여, 로봇 관리자 단말(400a) 상에 실시간 관리대상 로봇 창으로 영상 정보가 출력되도록 할 뿐만 아니라, 이동하는 물체와의 충돌 위험에 해당하는 제 2 인식 이벤트와 함께 영상 정보가 수신된 경우, 로봇 관리자 단말(400a) 상에 주의 대상 로봇 메시지를 포함하는 실시간 주의대상 로봇 창으로 영상 정보가 출력되도록 하는 것을 특징으로 하는 무인 배달로봇 서비스 제공 시스템.
The method according to claim 3, the immobilization processing module 424,
The image information matched with the first or second recognition event is transmitted to one of the robot manager terminals 400a connected to the unmanned delivery robot service providing server 400, and the image is displayed on the robot manager terminal 400a in a real-time management target robot window. In addition to outputting information, when image information is received together with a second recognition event corresponding to a risk of collision with a moving object, a real-time attention-targeted robot including a attention-target robot message on the robot manager terminal 400a An unmanned delivery robot service providing system, characterized in that video information is output through a window.
청구항 4에 있어서, 로봇 관리자 단말(400a)은,
실시간 관리대상 로봇 창을 통해 관리자가 해당되는 서브 배달로봇(200)이 운행방해상태에 있게 될 가능성이 높음을 인식할 뿐만 아니라, 서브 배달로봇(200)이 실제 방해를 받아 이동하지 못하는 경우에도 제 3 인식 이벤트를 이동 불능 처리 모듈(424)을 통해 수신한 뒤, 제 1 내지 제 3 인식 이벤트 정보 및 영상 정보에 대응되는 원격 제어 명령을 이동 불능 처리 모듈(424)을 통해 각 서브 배달로봇(200)으로 전달하는 것을 특징으로 하는 무인 배달로봇 서비스 제공 시스템.
The method according to claim 4, the robot manager terminal (400a),
Through the real-time management target robot window, the administrator not only recognizes that there is a high possibility that the corresponding sub-delivery robot 200 is in a state of obstruction, but also when the sub-delivery robot 200 cannot move due to actual interference. After receiving the 3 recognition event through the immobilization processing module 424, the remote control command corresponding to the first to third recognition event information and the image information is transmitted through the immobilization processing module 424 for each sub delivery robot 200 ) Unmanned delivery robot service providing system, characterized in that the delivery.
청구항 5에 있어서, 이동 불능 처리 모듈(424)은,
로봇 관리자 단말(400a)에 의한 제 3 인식 이벤트에 대한 원격 제어 명령에도 빠져나오지 못하는 운행 불능 상태에 빠진 경우에는 로봇 관리자 단말(400a)로부터 운행 불능 판정을 수신한 뒤, 운행 불능 상태에 빠진 지점에서 시간대별 유동인구 통계 정보를 네트워크(300)를 통해 빅데이터 서버(700)로부터 수신한 뒤, 현재 시간대의 유동인구 통계가 미리 설정된 임계치 이상이거나, 외부 카메라(220)를 통해 수신되는 영상 정보를 영상인식 기반으로 분석하여 주변에 사람이 있다고 판단되면, 구조 요청 제어 명령을 서브 배달로봇(200)으로 전송하는 것을 특징으로 하는 무인 배달로봇 서비스 제공 시스템.
The method of claim 5, wherein the immobilization processing module 424,
If the robot manager terminal 400a falls into an inoperable state in which it cannot escape even with a remote control command for a third recognition event, after receiving a determination of inoperability from the robot manager terminal 400a, After receiving the floating population statistics information for each time period from the big data server 700 through the network 300, the floating population statistics for the current time period are equal to or greater than a preset threshold, or the video information received through the external camera 220 is imaged. An unmanned delivery robot service providing system, characterized in that when it is determined that there is a person in the vicinity by analyzing based on recognition, a rescue request control command is transmitted to the sub delivery robot 200.
청구항 6에 있어서, 서브 배달로봇(200)은,
구조 요청 제어 명령 수신에 따라 몸체에 형성된 주의 램프(230)를 적색으로 점등하도록 할 뿐만 아니라, MCU(270)에 연결된 스피커(271)를 통해 구조 음성신호를 출력하는 것을 특징으로 하는 무인 배달로봇 서비스 제공 시스템.
The method according to claim 6, the sub delivery robot 200,
Unmanned delivery robot service, characterized in that the attention lamp 230 formed on the body is lit in red in response to the reception of the rescue request control command, and outputs a rescue voice signal through the speaker 271 connected to the MCU 270 Delivery system.
KR1020190014902A 2019-02-08 2019-02-08 System for providing unmanned delivery robot service KR20200097482A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190014902A KR20200097482A (en) 2019-02-08 2019-02-08 System for providing unmanned delivery robot service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190014902A KR20200097482A (en) 2019-02-08 2019-02-08 System for providing unmanned delivery robot service

Publications (1)

Publication Number Publication Date
KR20200097482A true KR20200097482A (en) 2020-08-19

Family

ID=72265489

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190014902A KR20200097482A (en) 2019-02-08 2019-02-08 System for providing unmanned delivery robot service

Country Status (1)

Country Link
KR (1) KR20200097482A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112045717A (en) * 2020-09-10 2020-12-08 刘斌 Agricultural and forestry robot monitoring platform
WO2022145912A1 (en) * 2020-12-30 2022-07-07 재단법인대구경북과학기술원 Delivery service system and method using autonomous vehicles
KR20220135877A (en) 2021-03-31 2022-10-07 주식회사 승은 Non-face-to-face delivery service system using robot within the service space and method thereof
KR20230116129A (en) 2022-01-27 2023-08-04 금오공과대학교 산학협력단 Food delivery service robot using autonomous driving in school
KR20240083217A (en) 2022-12-02 2024-06-12 예주산업(주) System for delivering food in apartment complex by using drone and robot

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160034605A (en) 2014-09-22 2016-03-30 (주)코리아테크 Spindle support body for painting device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160034605A (en) 2014-09-22 2016-03-30 (주)코리아테크 Spindle support body for painting device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112045717A (en) * 2020-09-10 2020-12-08 刘斌 Agricultural and forestry robot monitoring platform
CN112045717B (en) * 2020-09-10 2024-02-27 刘斌 Agriculture and forestry robot monitoring platform
WO2022145912A1 (en) * 2020-12-30 2022-07-07 재단법인대구경북과학기술원 Delivery service system and method using autonomous vehicles
KR20220135877A (en) 2021-03-31 2022-10-07 주식회사 승은 Non-face-to-face delivery service system using robot within the service space and method thereof
KR20230116129A (en) 2022-01-27 2023-08-04 금오공과대학교 산학협력단 Food delivery service robot using autonomous driving in school
KR20240083217A (en) 2022-12-02 2024-06-12 예주산업(주) System for delivering food in apartment complex by using drone and robot

Similar Documents

Publication Publication Date Title
KR20200097482A (en) System for providing unmanned delivery robot service
CN111874764B (en) Robot scheduling method, server and storage medium
US11443634B2 (en) Smart signs for autonomous vehicles
CN106429657B (en) Flexible destination dispatch passenger support system
JP6329671B1 (en) Dispatch system
US20210027060A1 (en) Person search system
CN106144797B (en) Traffic list generation for passenger transport
KR102549978B1 (en) Airport robot, and airport robot system including same
US11513539B2 (en) Information collection system and server apparatus
US20190306779A1 (en) Vehicle communication control method and vehicle communication device
WO2018132088A1 (en) Picking up and dropping off passengers at an airport using an autonomous vehicle
KR102416497B1 (en) A shared vehicle, a shared vehicle service providing device, a shared vehicle service management server, a shared vehicle service providing system, a shared vehicle service providing method
KR102570164B1 (en) Airport robot, and method for operating server connected thereto
US20210088341A1 (en) Shuttle routing system
US10783647B2 (en) Real-time object tracking
KR102558767B1 (en) Robot-friendly building
KR102599784B1 (en) Airport robot
KR20210005761A (en) Autonomous vehicle control system for maximizing autonomy, and Autonomy providing server for the same
KR20200097474A (en) Unmanned delivery robot management system, and method thereof
US20200327460A1 (en) Information processing apparatus, information processing method and program
CN115249198A (en) Enhanced car booking system and method
WO2020195441A1 (en) Vehicle management device, terminal, vehicle management method, and program
KR20210005420A (en) Mobile store providing system based on autonomous driving, and mobile store providing server for the same
JP7036690B2 (en) Information processing equipment, information processing methods and information processing programs
KR102460949B1 (en) System and method for sharing information of autonomous vehicle and controlling

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application