KR20200097482A - System for providing unmanned delivery robot service - Google Patents
System for providing unmanned delivery robot service Download PDFInfo
- Publication number
- KR20200097482A KR20200097482A KR1020190014902A KR20190014902A KR20200097482A KR 20200097482 A KR20200097482 A KR 20200097482A KR 1020190014902 A KR1020190014902 A KR 1020190014902A KR 20190014902 A KR20190014902 A KR 20190014902A KR 20200097482 A KR20200097482 A KR 20200097482A
- Authority
- KR
- South Korea
- Prior art keywords
- delivery
- robot
- delivery robot
- sub
- information
- Prior art date
Links
- 238000007726 management method Methods 0.000 claims abstract description 10
- 230000005540 biological transmission Effects 0.000 claims description 23
- 238000012545 processing Methods 0.000 claims description 17
- 238000007667 floating Methods 0.000 claims description 10
- 230000008859 change Effects 0.000 claims description 6
- 230000002265 prevention Effects 0.000 claims description 6
- 238000000926 separation method Methods 0.000 claims description 6
- 230000009471 action Effects 0.000 claims description 4
- 238000013459 approach Methods 0.000 claims description 2
- 230000004044 response Effects 0.000 claims description 2
- 238000000034 method Methods 0.000 claims 6
- 238000001514 detection method Methods 0.000 claims 1
- 235000013305 food Nutrition 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000010295 mobile communication Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 230000001174 ascending effect Effects 0.000 description 2
- 230000007123 defense Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 235000013550 pizza Nutrition 0.000 description 2
- 230000036528 appetite Effects 0.000 description 1
- 235000019789 appetite Nutrition 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000002716 delivery method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
- G06Q10/083—Shipping
- G06Q10/0832—Special goods or special handling procedures, e.g. handling of hazardous or fragile goods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1682—Dual arm manipulator; Coordination of several manipulators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
-
- G06Q50/28—
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/18—Status alarms
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Economics (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Operations Research (AREA)
- Development Economics (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- Quality & Reliability (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- Entrepreneurship & Innovation (AREA)
- General Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Emergency Management (AREA)
- Manipulator (AREA)
Abstract
Description
본 발명은 무인 배달로봇 서비스 제공 시스템에 관한 것으로, 보다 구체적으로는, 복수의 소형 서브 배달로봇을 하나의 대형 메인 배달로봇이 태우고 다니면서 소형의 서브 배달로봇이 음식 등과 같은 배달물품을 배달시킨 뒤, 다시 대형의 메인 배달로봇이 배달을 완료한 소형의 서브 배달로봇을 태우고 복귀하도록 함으로써, 배달물품의 이동의 효율성과 좁은 골목 등에서의 차량 혼잡과 교통체증 등의 문제를 해결할 수 있도록 함과 동시에 자신에 대한 방어 동작, 이동 불능일 경우의 처리, 배달물품 홍보, 배달물품의 상태 및 위치 확인, 그리고 원격제어가 가능하도록 할 수 있도록 하기 위한 무인 배달로봇 서비스 제공 시스템에 관한 것이다. The present invention relates to a system for providing an unmanned delivery robot service, and more specifically, after a plurality of small sub delivery robots are carried by a large main delivery robot while the small sub delivery robot delivers delivery goods such as food, By letting the large main delivery robot pick up and return the small sub delivery robot that has completed the delivery, it is possible to solve problems such as vehicle congestion and traffic congestion in narrow alleys and the efficiency of moving goods. It relates to a system for providing an unmanned delivery robot service to enable defensive action against, handling in case of inability to move, promotion of delivered goods, checking the status and location of delivered goods, and enabling remote control.
최근 무인 로봇이나 드론(drone) 기술이 발전하면서, 이러한 기술을 배송에 적용하고자 하는 사례가 많이 소개되었다. Google은 무인 자동차를 배송에 활용하고자 계획하고 있고, Amazon에서는 Prime Air라는 서비스를 시도하고 있으며 이는 사용자가 인터넷으로 물건을 주문하면 30분 안에 로봇으로 사용자의 앞마당까지 물건을 배달해주는 서비스이다. 또한, 세계적인 피자배달 업체인 Dominos도 로봇으로 피자를 배달하려는 서비스를 시범으로 보였다. 이와 같은 배달 서비스는 사용자에게 더욱 신속히 물건을 배달하여 소비자 만족도와 배송효율을 높이는데 그 목적이 있다.With the recent development of unmanned robots and drones, many cases of applying these technologies to delivery have been introduced. Google plans to use a driverless car for delivery, and Amazon is trying a service called Prime Air, a service that delivers items to the user's front yard with a robot within 30 minutes when users order items over the Internet. In addition, Dominos, a global pizza delivery company, also demonstrated a service to deliver pizza by robot. The purpose of such a delivery service is to increase customer satisfaction and delivery efficiency by delivering goods to users more quickly.
그러나 드론형 무인 로봇만을 이용하는 경우 원격제어를 위한 무선주파수의 혼재로 인해 사고가 발생할 수 있을 뿐만 아니라, 효율성이 떨어지는 한계점이 있으며, 드론의 배터리 성능을 무한하게 높일 수 없는 문제점 등이 있으며, 차량형 무인 로봇만을 활용하는 경우 교통 체증과 도로 혼잡도 등에 따라 배송지연이 발생하는 문제점이 발생한다. However, if only drone-type unmanned robots are used, accidents may occur due to the mixture of radio frequencies for remote control, as well as limitations of inferiority in efficiency, and problems such as inability to infinitely increase the battery performance of drones. When using only an unmanned robot, there is a problem that delivery delays occur due to traffic congestion and road congestion.
본 발명은 상기의 문제점을 해결하기 위한 것으로, 복수의 소형 서브 배달로봇을 하나의 대형 메인 배달로봇이 태우고 다니면서 소형의 서브 배달로봇이 음식 등과 같은 배달물품을 배달시킨 뒤, 다시 대형의 메인 배달로봇이 배달을 완료한 소형의 서브 배달로봇을 태우고 복귀하도록 함으로써, 배달물품의 이동의 효율성과 좁은 골목 등에서의 차량 혼잡과 교통체증 등의 문제를 해결할 수 있도록 하기 위한 무인 배달로봇 서비스 제공 시스템을 제공하기 위한 것이다.The present invention is to solve the above problems, and a large main delivery robot carries a plurality of small sub delivery robots, and a small sub delivery robot delivers delivery goods such as food, and then a large main delivery robot. Provide an unmanned delivery robot service providing system to solve problems such as vehicle congestion and traffic congestion in narrow alleys and the efficiency of moving goods by picking up and returning a small sub-delivery robot that has completed this delivery. For.
또한, 본 발명은 무인로봇 자체에 대한 방어 동작, 이동 불능일 경우의 처리, 배달물품 홍보, 배달물품의 상태 및 위치 확인, 그리고 원격제어가 가능하도록 하기 위한 무인 배달로봇 서비스 제공 시스템을 제공하기 위한 것이다.In addition, the present invention is to provide a system for providing an unmanned delivery robot service for defensive operation against the unmanned robot itself, handling in case of inability to move, promotion of delivered goods, checking the status and location of delivered goods, and enabling remote control. will be.
그러나 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the objects of the present invention are not limited to the above-mentioned objects, and other objects that are not mentioned will be clearly understood by those skilled in the art from the following description.
상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 무인 배달로봇 서비스 제공 시스템은, 메인 배달로봇(100), 서브 배달로봇(200), 네트워크(300), 무인 배달로봇 관리 서버(400)를 포함하는 무인 배달로봇 서비스 제공 시스템에 있어서, 무인 배달로봇 서비스 제공 서버(400)는, 도착점에 도달시 도착점과 매칭되는 각 서브 배달로봇(200)에 대한 메인 배달로봇(100)으로부터의 분리를 제어하도록 하는 분리 제어 명령을 네트워크(300)를 통해 메인 배달로봇(100)으로 전송하도록 송수신부(410)를 제어하는 이동 모듈(422); 및 도착점으로부터 배달지 정보로 향하는 서브 배달로봇(200)에 대해서 인도 주행 중에 각 서브 배달로봇(200)에 장착된 근접 센서(211)로 만지려는 행위를 검출하기 위해 접근 위치를 검출에 따라, 서브 배달로봇(200)의 MCU(270)에 의한 외부 카메라(220)에 의해 촬영된 영상 정보를 수신하도록 송수신부(410)를 제어한 뒤, 영상 정보를 영상인식 기반으로 만지는 행위라고 분석시 경고 제어 명령을 서브 배달로봇(200)으로 전송하도록 송수신부(410)를 제어하는 터치 방지 모듈(423); 을 포함하는 것을 특징으로 한다.In order to achieve the above object, the unmanned delivery robot service providing system according to an embodiment of the present invention includes a
이때, 서브 배달로봇(200)은, 경고 제어 명령을 수신하면, 몸체에 형성된 주의 램프(230)를 적색으로 점등하도록 할 뿐만 아니라, MCU(270)에 연결된 스피커(271)를 통해 경고 음성신호를 출력하는 것을 특징으로 한다.At this time, the
또한, 무인 배달로봇 서비스 제공 서버(400)는, 각 서브 배달로봇(200)에 구비된 외부 카메라(220)에 의해 객체로 사람이 미리 설정된 반경 내로 인식되는 경우(제 1 인식 이벤트), 또는 객체로 사물이 미리 설정된 반경 내로 외부 카메라(220)에 의해 인식되면서 각 서브 배달로봇(200)이 이동에 따라 인식된 사물의 영상 내의 배율 변화 속도보다 빠른 속도로 변화되는 다른 사물을 인지하는 배율 변화 이벤트 발생이 인식되는 경우(제 2 인식 이벤트), 네트워크(300)를 통해 영상 정보, 그리고 제 1 인식 이벤트 또는 제 2 인식 이벤트를 수신하도록 송수신부(410)를 제어하는 이동 불능 처리 모듈(424); 을 더 포함하는 것을 특징으로 한다.In addition, the unmanned delivery robot
또한, 이동 불능 처리 모듈(424)은, 제 1 또는 제 2 인식 이벤트와 매칭되는 영상 정보를 무인 배달로봇 서비스 제공 서버(400)와 연결된 로봇 관리자 단말(400a) 중 하나로 전송하여, 로봇 관리자 단말(400a) 상에 실시간 관리대상 로봇 창으로 영상 정보가 출력되도록 할 뿐만 아니라, 이동하는 물체와의 충돌 위험에 해당하는 제 2 인식 이벤트와 함께 영상 정보가 수신된 경우, 로봇 관리자 단말(400a) 상에 주의 대상 로봇 메시지를 포함하는 실시간 주의대상 로봇 창으로 영상 정보가 출력되도록 하는 것을 특징으로 한다.In addition, the immobilization processing module 424 transmits image information matching the first or second recognition event to one of the
또한, 로봇 관리자 단말(400a)은, 실시간 관리대상 로봇 창을 통해 관리자가 해당되는 서브 배달로봇(200)이 운행방해상태에 있게 될 가능성이 높음을 인식할 뿐만 아니라, 서브 배달로봇(200)이 실제 방해를 받아 이동하지 못하는 경우에도 제 3 인식 이벤트를 이동 불능 처리 모듈(424)을 통해 수신한 뒤, 제 1 내지 제 3 인식 이벤트 정보 및 영상 정보에 대응되는 원격 제어 명령을 이동 불능 처리 모듈(424)을 통해 각 서브 배달로봇(200)으로 전달하는 것을 특징으로 한다.In addition, the
또한, 이동 불능 처리 모듈(424)은, 로봇 관리자 단말(400a)에 의한 제 3 인식 이벤트에 대한 원격 제어 명령에도 빠져나오지 못하는 운행 불능 상태에 빠진 경우에는 로봇 관리자 단말(400a)로부터 운행 불능 판정을 수신한 뒤, 운행 불능 상태에 빠진 지점에서 시간대별 유동인구 통계 정보를 네트워크(300)를 통해 빅데이터 서버(700)로부터 수신한 뒤, 현재 시간대의 유동인구 통계가 미리 설정된 임계치 이상이거나, 외부 카메라(220)를 통해 수신되는 영상 정보를 영상인식 기반으로 분석하여 주변에 사람이 있다고 판단되면, 구조 요청 제어 명령을 서브 배달로봇(200)으로 전송하는 것을 특징으로 한다.In addition, the movement disability processing module 424 makes a determination of inoperability from the
또한, 서브 배달로봇(200)은, 구조 요청 제어 명령 수신에 따라 몸체에 형성된 주의 램프(230)를 적색으로 점등하도록 할 뿐만 아니라, MCU(270)에 연결된 스피커(271)를 통해 구조 음성신호를 출력하는 것을 특징으로 한다. In addition, the
본 발명의 실시예에 따른 무인 배달로봇 서비스 제공 시스템은, 복수의 소형 서브 배달로봇을 하나의 대형 메인 배달로봇이 태우고 다니면서 소형의 서브 배달로봇이 음식 등과 같은 배달물품을 배달시킨 뒤, 다시 대형의 메인 배달로봇이 배달을 완료한 소형의 서브 배달로봇을 태우고 복귀하도록 함으로써, 배달물품의 이동의 효율성과 좁은 골목 등에서의 차량 혼잡과 교통체증 등의 문제를 해결하는 효과를 제공한다. In the unmanned delivery robot service providing system according to an embodiment of the present invention, one large main delivery robot carries a plurality of small sub delivery robots while the small sub delivery robot delivers delivery goods such as food, By allowing the main delivery robot to pick up and return a small sub delivery robot that has completed delivery, it provides the effect of solving problems such as vehicle congestion and traffic congestion in narrow alleys and the efficiency of moving goods.
뿐만 아니라, 본 발명의 다른 실시예에 따른 무인 배달로봇 서비스 제공 시스템은, 무인로봇 자체에 대한 방어 동작, 이동 불능일 경우의 처리, 배달물품 홍보, 배달물품의 상태 및 위치 확인, 그리고 원격제어가 가능한 효과를 제공한다. In addition, the unmanned delivery robot service providing system according to another embodiment of the present invention provides a defense operation for the unmanned robot itself, handling in case of inability to move, promotion of delivery goods, checking the status and location of delivered goods, and remote control. Provides possible effects.
도 1은 본 발명의 실시예에 따른 무인 배달로봇 서비스 제공 시스템(1)을 나타내는 도면이다.
도 2는 본 발명의 실시예에 따른 무인 배달로봇 서비스 제공 시스템(1) 중 무인 배달로봇 서비스 제공 서버(400)의 구성요소를 나타내는 블록도이다.
도 3은 본 발명의 실시예에 따른 무인 배달로봇 서비스 제공 시스템(1) 중 서브 배달로봇(200)의 구성요소를 나타내는 블록도이다.
도 4 및 도 5는 본 발명의 실시예에 따른 무인 배달로봇 서비스 제공 시스템(1)에서 배달 대상자 단말(600)에 구현되는 유저 인터페이스 화면을 나타내는 도면이다. 1 is a view showing an unmanned delivery robot
2 is a block diagram showing the components of the unmanned delivery robot
3 is a block diagram showing the components of the
4 and 5 are diagrams showing user interface screens implemented in the
이하, 본 발명의 바람직한 실시예의 상세한 설명은 첨부된 도면들을 참조하여 설명할 것이다. 하기에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.Hereinafter, a detailed description of a preferred embodiment of the present invention will be described with reference to the accompanying drawings. In the following description of the present invention, when it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted.
본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터 또는 신호를 '전송'하는 경우에는 구성요소는 다른 구성요소로 직접 상기 데이터 또는 신호를 전송할 수 있고, 적어도 하나의 또 다른 구성요소를 통하여 데이터 또는 신호를 다른 구성요소로 전송할 수 있음을 의미한다.In the present specification, when one component'transmits' data or a signal to another component, the component can directly transmit the data or signal to another component, and through at least one other component It means that data or signals can be transmitted to other components.
도 1은 본 발명의 실시예에 따른 무인 배달로봇 서비스 제공 시스템(1)을 나타내는 도면이다. 도 1을 참조하면, 무인 배달로봇 서비스 제공 시스템(1)은 메인 배달로봇(100), 서브 배달로봇(200), 네트워크(300), 무인 배달로봇 서비스 제공 서버(400), 배달 요청자 단말 그룹(500g), 배달 대상자 단말 그룹(600g), 빅데이터 서버(700), 그리고 인접 건물 관리자 단말 그룹(800g)을 포함할 수 있다.1 is a view showing an unmanned delivery robot
메인 배달로봇(100)은 적어도 하나 이상의 서브 배달로봇(200)을 싣거나 내려줄 수 있는 도킹 공간 또는 대형의 화물칸을 구비하는 것이 바람직하다. The
서브 배달로봇(200)은 하나의 배달 영역으로 지정된 메인 배달로봇(100)에 의해 이동된 뒤, 골목 등과 같은 좁은 공간을 이동하여 배달물품을 배달하기 위한 것으로 드론 형태 또는 차량 형태로 제공되거나, 드론과 차량의 복합 형태인 하이브리드 타입으로 제공될 수 있다. The
네트워크(300)는 대용량, 장거리 음성 및 데이터 서비스가 가능한 대형 통신망의 고속 기간 망인 통신망이며, 인터넷(Internet) 또는 고속의 멀티미디어 서비스를 제공하기 위한 차세대 유선 및 무선 망일 수 있다. 네트워크(300)가 이동통신망일 경우 동기식 이동 통신망일 수도 있고, 비동기식 이동 통신망일 수도 있다. 비동기식 이동 통신망의 일 실시 예로서, WCDMA(Wideband Code Division Multiple Access) 방식의 통신망을 들 수 있다. 이 경우 도면에 도시되진 않았지만, 네트워크(300)는 RNC(Radio Network Controller)을 포함할 수 있다. 한편, WCDMA망을 일 예로 들었지만, 3G LTE망, 4G망 그 밖의 5G 등 차세대 통신망, 그 밖의 IP를 기반으로 한 IP망일 수 있다. 네트워크(300)는 메인 배달로봇(100), 서브 배달로봇(200), 무인 배달로봇 서비스 제공 서버(400), 배달 요청자 단말 그룹(500g), 배달 대상자 단말 그룹(600g), 빅데이터 서버(700), 인접 건물 관리자 단말 그룹(800g), 그 밖의 시스템 상호 간의 신호 및 데이터를 상호 전달하는 역할을 한다. The
배달 요청자 단말 그룹(500g)은 복수의 배달 요청자 단말(500)을 포함할 수 있다. 여기서 각 배달 요청자 단말(500)은 식당 또는 지역 택배 센터 등을 운영하는 배달이 필요한 업체가 운영하는 단말이거나, 무인 배달로봇 서비스 제공 서버(400)로 배달물품을 등록하는 개인이 운영하는 단말일 수 있다. The delivery
배달 대상자 단말 그룹(600g)은 복수의 배달 대상자 단말(600)을 포함할 수 있다. 여기서 각 배달 대상자 단말(600)은 배달 요청자에 의해 주문지로 설정된 사람이 운영하는 단말일 수 있다. The delivery
인접 건물 관리자 단말 그룹(800g)은 복수의 인접 건물 관리자 단말(800)을 포함할 수 있다. 여기서 각 인접 건물 관리자 단말(800)은 아파트 또는 건물 관리인 등에 해당하는 인접 건물 관리자가 운영하는 단말일 수 있다. The adjacent building
도 2는 본 발명의 실시예에 따른 무인 배달로봇 서비스 제공 시스템(1) 중 무인 배달로봇 서비스 제공 서버(400)의 구성요소를 나타내는 블록도이다. 도 3은 본 발명의 실시예에 따른 무인 배달로봇 서비스 제공 시스템(1) 중 서브 배달로봇(200)의 구성요소를 나타내는 블록도이다. 도 4 및 도 5는 본 발명의 실시예에 따른 무인 배달로봇 서비스 제공 시스템(1)에서 배달 대상자 단말(600)에 구현되는 유저 인터페이스(User Interface, 이하 UI) 화면을 나타내는 도면이다. 2 is a block diagram showing the components of the unmanned delivery robot
먼저, 도 2를 참조하면, 무인 배달로봇 서비스 제공 서버(400)는 송수신부(410), 제어부(420) 및 데이터베이스(430)를 포함하며, 제어부(420)는 배달정보 수집 모듈(421), 이동 모듈(422), 터치 방지 모듈(423), 이동 불능 처리 모듈(424), 배달물품 홍보 모듈(425), 배달물품 상태 제공 모듈(426), 배달물품 위치 제공 모듈(427) 및 원격정보 제공 모듈(428)을 포함할 수 있다.First, referring to FIG. 2, the unmanned delivery robot
그리고 도 3을 참조하면, 서브 배달로봇(200)은 센서모듈(210), 외부 카메라(220), 주의 램프(230), 영상 장치(240), 내부 조명(250), GPS 수신부(260), MCU(270), 저장부(280), 통신부(290)를 포함하며, 센서모듈(210)은 근접센서(211), 온도센서(212), 습도센서(213) 및 내부 카메라(214)로 이루어질 수 있다.And referring to Figure 3, the
이하에서는 도 2의 제어부(320)의 구성요소를 중심으로 도 3의 서브 배달로봇(200)의 구성요소를 참조하여, 무인 배달로봇 서비스 제공 서버(400) 및 무인 배달로봇 서비스 제공 시스템(1)에 대해서 구체적으로 살펴보도록 한다. Hereinafter, with reference to the components of the
배달정보 수집 모듈(421)은 배달 요청자 단말 그룹(500g)을 이루는 각 배달 요청자 단말(500)로부터 배달 요청자 단말(500)의 제 1 단말식별번호, 배달 대상자 단말(600)의 제 2 단말식별번호, 그리고 배달 대상자 배달지 정보를 수집하여 데이터베이스(430)에 저장할 수 있다. The delivery information collection module 421 includes a first terminal identification number of the
이동 모듈(422)은 데이터베이스(430)에 저장된 복수의 배달 대상자 배달지 정보를 하나의 거점 영역 및 하나의 배달 영역으로 지정된 각 메인 배달로봇(100)에 대한 선택을 수행한다. The moving module 422 selects a plurality of delivery destination information stored in the database 430 for each
여기서 거점 영역은 메인 배달로봇(100)이 배달물품을 싣기 위한 공간에 해당하는 곳이며, 배달 영역은 메인 배달로봇(100)에 실린 서브 배달로봇(200) 각각으로 지정된 배달 대상자 배달지 정보를 모두 포함하는 구획 좌표 공간에 해당한다. Here, the base area corresponds to a space for the
여기서, 이동 모듈(422)은 각 메인 배달로봇(100)에 탑승가능한 서브 배달로봇(200)의 개수만큼을 추출하여 하나의 메인 배달로봇(100)으로 지정을 수행하며, 메인 배달로봇(100) 지정이 완료되면 각 서브 배달로봇(200)에 대한 하나의 배달 대상자 배달지 정보도 지정을 완료한 뒤 데이터베이스(430)에 저장할 수 있다.Here, the moving module 422 extracts as many as the number of
이후, 이동 모듈(422)은 거점 영역의 중앙에 해당하는 거점 좌표로 메인 배달로봇(100)에 대한 이동 명령을 네트워크(300)를 통해 전송하도록 송수신부(410)를 제어하여 거점 좌표로 메인 배달로봇(100)이 무인주행 기반으로 도달이 완료되거나 기존에 거점 좌표에 메인 배달로봇(100)이 위치하고 있는 경우, 거점 좌표에서 각 배달물품을 실은 서브 배달로봇(100)을 탑승시킨 뒤, 메인 배달로봇(100)을 통해 서브 배달로봇(200)으로 지정된 배달 대상자 배달지 정보로 배달 명령을 네트워크(300)를 통해 전송하도록 송수신부(410)를 제어할 수 있다. Thereafter, the movement module 422 controls the transmission/reception unit 410 to transmit the movement command for the
여기서 배달 대상자 배달지 정보는 각 서브 배달로봇(200)이 메인 배달로봇(100)으로부터 내릴 수 있는 골목 등을 포함하는 최근접 분기 좌표 영역을 도착점으로 지정되는데 활용될 수 있다. 이를 위해 배달정보 수집 모듈(421)은 네트워크(300)를 통해 빅데이터 서버(700)로 각 배달 대상자 배달지 정보와 하나의 배달 영역 정보를 전송함으로써, 빅데이터 서버(700)에 의해 하나의 배달 영역 정보과 매칭되는 지도 정보를 추출한 뒤, 추출된 지도 정보에서 각 배달 대상자 배달지 정보로 도달할 수 있는 대로 등을 포함하는 메인 배달로봇(100)이 접근 가능한 최근접 분기 좌표 영역을 추출하면, 추출된 최근접 분기 좌표 영역을 도착점 정보로 반환받을 수 있다. Here, the delivery destination information may be used to designate a nearest branch coordinate region including an alley through which each
이동 모듈(422)은 도착점에 도달시 도착점과 매칭되는 각 서브 배달로봇(200)에 대한 메인 배달로봇(100)으로부터의 분리를 제어하도록 하는 분리 제어 명령을 네트워크(300)를 통해 메인 배달로봇(100)으로 전송하도록 송수신부(410)를 제어할 수 있다.The movement module 422 sends a separation control command to control separation from the
한편, 이동 모듈(422)은 각 분리되는 서브 배달로봇(200)의 이동 원격 제어를 위해 네트워크(300)와 연결된 메인 배달로봇(100)을 통해 각 서브 배달로봇(200)과 데이터 세션을 연결하거나, 직접 네트워크(300)를 통해 하나의 메인 배달로봇(100)으로 지정된 모든 서브 배달로봇(200)과 데이터 세션을 연결한 뒤, 각 서브 배달로봇(200)에 대한 자율주행 알고리즘 기반으로 각 배달지 정보로 배달이 수행되도록 자율주행 명령을 전송할 수 있다. On the other hand, the movement module 422 connects each
터치 방지 모듈(423)은 도착점으로부터 배달지 정보로 향하는 서브 배달로봇(200)에 대해서 인도 주행 중에 불특정 다수의 사람에게 보이므로 사람들이 불필요하게 만지려고 하는 경우에 대한 방어 제어 명령을 전송할 수 있다.The anti-touch module 423 may transmit a defense control command for a case where people unnecessarily try to touch the
즉, 터치 방지 모듈(423)은 각 서브 배달로봇(200)에 장착된 근접 센서(211)로 만지려는 행위를 검출하기 위해 접근 위치를 검출에 따라, 서브 배달로봇(200)의 MCU(270)에 의한 외부 카메라(220)에 의해 촬영된 영상 정보를 수신하도록 송수신부(410)를 제어한 뒤, 영상 정보를 영상인식 기반으로 만지는 행위라고 분석시 경고 제어 명령을 서브 배달로봇(200)으로 전송함으로써, 서브 배달로봇(200)에 의해 서브 배달로봇(200)의 몸체에 형성된 주의 램프(230)를 적색으로 점등하도록 할 뿐만 아니라, MCU(270)에 연결된 스피커(271)를 통해 경고 음성신호로 "만지지 말아주세요." 등을 출력하도록 함으로써, 만지려는 사람이 놀라면서 만지면 안 되는지를 인지할 수 있도록 할 수 있다. 여기서 영상 정보를 영상인식 기반으로 만지는 행위라고 분석시 터치 방지 모듈(423)은 데이터베이스(430)에서 다양한 손 모양 패턴을 활용해 영상 정보에서 만지는 행위를 분석할 수 있다. 이를 위해 데이터베이스(430)에는 다양한 제품 패턴이 저장되어 있는데, 터치 방지 모듈(423)은 이러한 다양한 손 모양 패턴 자체 정보 또는 상기 다양한 손 모양 패턴의 기울어진 것, 역으로 된 것, 약간 각도가 기울어진 것 등과 영상 정보에 포함된 손 모양의 패턴을 비교하여 영상 정보 속의 만지는 행위를 판별한다.That is, the touch prevention module 423 detects an approach position in order to detect an action to be touched with the proximity sensor 211 mounted on each
이동 불능 처리 모듈(424)은 각 서브 배달로봇(200)에 구비된 외부 카메라(220)에 의해 객체로 사람이 미리 설정된 반경 내로 인식되는 경우(제 1 인식 이벤트), 또는 객체로 사물이 미리 설정된 반경 내로 외부 카메라(220)에 의해 인식되면서 각 서브 배달로봇(200)이 이동에 따라 인식된 사물의 영상 내의 배율 변화 속도보다 빠른 속도로 변화되는 다른 사물을 인지하는 배율 변화 이벤트 발생이 인식되는 경우(제 2 인식 이벤트), 네트워크(300)를 통해 영상 정보, 그리고 제 1 인식 이벤트 또는 제 2 인식 이벤트를 수신하도록 송수신부(410)를 제어할 수 있다. When a person is recognized as an object within a preset radius by the external camera 220 provided in each sub delivery robot 200 (the first recognition event), or the object is preset as an object. When the occurrence of a magnification change event in which the
이후, 이동 불능 처리 모듈(424)은 제 1 또는 제 2 인식 이벤트와 매칭되는 영상 정보를 무인 배달로봇 서비스 제공 서버(400)와 연결된 로봇 관리자 단말(400a) 중 하나로 전송함으로써, 로봇 관리자 단말(400a) 상에 실시간 관리대상 로봇 창으로 영상 정보가 출력되도록 할 뿐만 아니라, 특히 이동하는 물체와의 충돌 위험에 해당하는 제 2 인식 이벤트와 함께 영상 정보가 수신된 경우, 로봇 관리자 단말(400a) 상에 주의 대상 로봇 메시지를 포함하는 실시간 주의대상 로봇 창으로 영상 정보가 출력되도록 할 수 있다. Thereafter, the immobilization processing module 424 transmits the image information matched with the first or second recognition event to one of the
이에 따라, 로봇 관리자 단말(400a)은 실시간 관리대상 로봇 창을 통해 관리자가 해당되는 서브 배달로봇(200)이 운행방해상태에 있게 될 가능성이 높음을 인식할 뿐만 아니라, 서브 배달로봇(200)이 실제 방해를 받아 이동하지 못하는 경우에도 제 3 인식 이벤트를 이동 불능 처리 모듈(424)을 통해 수신한 뒤, 제 1 내지 제 3 인식 이벤트 정보 및 영상 정보에 대응되는 원격 제어 명령을 이동 불능 처리 모듈(424)을 통해 각 서브 배달로봇(200)으로 전달할 수 있다. Accordingly, the
한편, 이동 불능 처리 모듈(424)은 상술한 로봇 관리자 단말(400a)에 의한 제 3 인식 이벤트에 대한 원격 제어 명령에도 빠져나오지 못하는 운행 불능 상태에 빠진 경우에는 로봇 관리자 단말(400a)로부터 운행 불능 판정을 수신한 뒤, 운행 불능 상태에 빠진 골목 등에서 시간대별 유동인구 통계 정보를 네트워크(300)를 통해 빅데이터 서버(700)로부터 수신한 뒤, 현재 시간대의 유동인구 통계가 미리 설정된 임계치 이상이거나, 외부 카메라(220)를 통해 수신되는 영상 정보를 영상인식 기반으로 분석하여 주변에 사람이 있다고 판단되면, 구조 요청 제어 명령을 서브 배달로봇(200)으로 전송할 수 있다.On the other hand, if the movement disability processing module 424 is in a state of inoperability that cannot escape even with a remote control command for a third recognition event by the
여기서 영상 정보를 영상인식 기반으로 유동인구가 미리 설정된 임계치 이상이라고 분석시 이동 불능 처리 모듈(424)은 데이터베이스(430)에서 다양한 사람 모양 패턴을 활용해 영상 정보에서 유동인구를 분석할 수 있다. 이를 위해 데이터베이스(430)에는 다양한 사람 모양 패턴이 저장되어 있는데, 이동 불능 처리 모듈(424)은 이러한 다양한 사람 모양 패턴 자체 정보 또는 상기 다양한 사람 모양 패턴의 기울어진 것, 역으로 된 것, 약간 각도가 기울어진 것 등과 영상 정보에 포함된 사람 모양의 패턴을 비교하여 영상 정보 속에서 유동인구를 분석한다. Here, when analyzing the image information that the floating population is greater than or equal to a preset threshold based on image recognition, the mobility impossibility processing module 424 may analyze the floating population from the image information using various human pattern patterns in the database 430. To this end, various human pattern patterns are stored in the database 430, and the immobilization processing module 424 includes information on the various human pattern itself or the inclined, inverted, or slightly angled information of the various human pattern patterns. It analyzes the floating population in the image information by comparing the inclined ones and the human-shaped pattern included in the image information.
이에 따라, 서브 배달로봇(200)은 몸체에 형성된 주의 램프(230)를 적색으로 점등하도록 할 뿐만 아니라, MCU(270)에 연결된 스피커(271)를 통해 구조 음성신호로 "구해주세요." 등을 출력하도록 할 수 있다. Accordingly, the
반대로, 이동 불능 처리 모듈(424)은 현재 시간대의 유동인구 통계가 미리 설정된 임계치 미만이거나, 외부 카메라(220)를 통해 수신되는 영상 정보를 영상인식 기반으로 분석하여 주변에 사람이 없다고 판단되면, 네트워크(300)를 통해 현재 서브 배달로봇(200)의 GPS 수신부(260)로부터 수신된 위치 정보와 매칭되는 인접 건물 관리자 단말(800)을 적어도 하나 데이터베이스(330) 상에서 추출한 뒤, 추출된 인접 건물 관리자 단말(800)로 서브 배달로봇(200)의 식별 ID 및 서브 배달로봇(200)의 외부 카메라(220)에 의해 촬영되는 영상 정보를 전송함으로써, 인접 건물 관리자 단말(800)을 운영하는 인접 건물 관리자와 로봇 관리자 단말(400a)을 운영하는 로봇 관리자가 협업하여 서브 배달로봇(200)의 이행 불능 상태를 해제하도록 할 수 있다.On the contrary, when it is determined that the floating population statistics of the current time zone is less than a preset threshold or the image information received through the external camera 220 is analyzed based on image recognition and it is determined that there are no people nearby, the network After extracting the neighboring
여기서 인접 건물 관리자 단말(800)을 운영하는 인접 건물 관리자는 아파트 또는 건물 관리인에 해당할 수 있다. Here, the adjacent building manager operating the adjacent
배달물품 홍보 모듈(425)은 이동 모듈(422)에 의한 자율주행 알고리즘 기반으로 각 배달지 정보로 배달물품 배달을 수행하는 서브 배달로봇(200)의 영상 장치(240)로 배달물품의 광고 영상을 출력하도록 광고 영상을 제공할 수 있다.The delivery product promotion module 425 outputs an advertisement image of the delivery product to the
즉, 길가던 사람이 서브 배달로봇(200)이 음식을 배달하는 경우 배달되는 내용물인 음식에 대한 식욕을 느끼도록 하는 광고 영상을 영상 장치(240)를 통해 제공할 수 있다. That is, when a person on the road delivers food by the
이를 위해 배달 요청자 단말 그룹(500g)을 이루는 복수의 배달 요청자 단말(500) 중 서브 배달로봇(200)을 통해 음식을 배달시키는 식당을 운영하는 배달 요청자가 운영하는 배달 요청자 단말(500)인 경우, 배달물품 홍보 모듈(425)은 네트워크(300)를 통해 사전에 배달 요청자 단말(500)로부터 광고 영상을 수신하도록 송수신부(410)를 제어한 뒤, 광고 영상을 데이터베이스(430)에 저장된 배달 요청자 단말(500)의 제 1 단말식별번호를 메타데이터로 하여 저장할 수 있다.For this purpose, in the case of the
이후, 배달물품 홍보 모듈(425)은 배달 요청자 단말(500)의 미리 설정된 광고료 결제와 현재 배달 중인 서브 배달로봇(200)이 있는 경우 배달 요청자 단말(500) 상의 배달 요청자 앱을 통한 광고 요청을 수신한 경우, 배달 중인 서브 배달로봇(200)으로 광고 영상을 전송하도록 송수신부(410)를 제어함으로써, 서브 배달로봇(200)의 영상 장치(240)로 광고 영상이 출력되도록 할 수 있다. Thereafter, the delivery product promotion module 425 receives an advertisement request through the delivery requester app on the
이 경우, 서브 배달로봇(200)은 광고 영상을 저장부(280)에 저장한 뒤, 메인 배달로봇(100)에서 내려서 목적지인 배달지 정보에 도달하기까지 저장된 광고 영상을 로봇 정면에 형성되거나 로봇 몸체 겉면을 두르고 형성되는 영상 장치(240)로 출력할 수 있다. In this case, the
배달물품 상태 제공 모듈(426)은 서브 배달로봇(200)으로 배달이 진행되는 배달물품에 대한 실시간 영상 정보를 수신한 뒤, 배달물품에 관여된 배달 요청자 단말(500) 및 배달 대상자 단말(600)로 네트워크(300)를 통해 전송하도록 송수신부(410)를 제어할 수 있다. The delivery product status providing module 426 receives real-time video information on the delivery product being delivered to the
즉, 배달물품 상태 제공 모듈(426)은 네트워크(300)를 통한 하나의 배달물품에 대한 배달 요청자 단말(500)의 배달 요청자 앱 및/또는 배달 대상자 단말(600)의 배달 대상자 앱을 통한 액세스(access)를 확인한 뒤, 배달물품의 상태에 대한 정보 공개 요청을 수신하는 경우, 배달물품을 운반하는 서브 배달로봇(200)의 화물칸 내부에 형성된 내부 조명(250)에 대한 전원 온(ON) 명령, 그리고 내부 카메라(214), 온도센서(212) 및 습도센서(213)에 대한 센싱 명령을 통해 내부 영상 정보, 내부 온/습도 정보를 획득할 수 있다.That is, the delivery product status providing module 426 accesses the delivery requester app of the
이후, 배달물품 상태 제공 모듈(426)은 하나의 배달물품에 대한 배달 요청자 단말(500)의 배달 요청자 앱 및/또는 배달 대상자 단말(600)의 배달 대상자 앱 상에서 터치스크린으로 구현된 배달물품 상태보기 영역에 대한 선택 신호가 수신됨을 인식한 경우, 내부 영상 정보, 내부 온/습도 정보를 네트워크(300)를 통해 배달 요청자 단말(500) 및/또는 배달 대상자 단말(600)로 전송하여 출력되도록 송수신부(410)를 제어할 수 있다.Thereafter, the delivery item status providing module 426 is a delivery requester app of the
즉, 배달 요청자 또는 배달 대상자는 배달물품의 실시간 상태를 확인하고자 할 때 앱 상에서 '배송물품 상태보기'를 클릭한다. 이에 따라, 배달 요청자 또는 배달 대상자의 앱 UI 화면에 로딩중이라고 뜨는 동안 배달 요청자 또는 배달 대상자의 앱에서 무인 배달로봇 서비스 제공 서버(400)를 통해 서브 배달로봇(200)에 배달 요청자 또는 배달 대상자가 내부상태를 보길 원한다는 사실을 전달한다. 이에 따라, 서브 배달로봇(200)의 MCU(270)은 내부의 조명(250)을 켜고 상기한 온/습도센서들로부터 입력되는 온/습도 정보를 실시간이라고 느껴질 만큼의 일정한 시간간격으로 무인 배달로봇 서비스 제공 서버(400)를 통해 배달 요청자 또는 배달 대상자 앱으로 전달할 수 있다. In other words, the delivery requester or delivery target clicks'View Delivery Item Status' on the app to check the real-time status of the delivered item. Accordingly, while the delivery requester or the delivery target's app UI screen is loading, the delivery requester or the delivery target is internally sent to the
배달물품 상태 제공 모듈(426)은 하나의 배달물품에 대한 배달 요청자 단말(500)의 배달 요청자 앱 및/또는 배달 대상자 단말(600)의 배달 대상자 앱을 통한 배달 요청자 단말(500) 및/또는 배달 대상자 단말(600)로부터 배달 경로 확인 요청을 수신하는 경우, 배달물품 위치 제공 모듈(427)과의 연동을 통해 현재까지의 위치 정보에 따른 배송물품의 상태에 대한 서브 배달로봇(200)으로부터 수신한 영상 정보를 배달 요청자 단말(500) 및/또는 배달 대상자 단말(600)로 제공함으로써, 내부의 영상을 기반으로 경로에서 발생할 수 있는 파손상황을 확인할 수 있도록 할 수 있다.The delivery item status providing module 426 is the
배달물품 상태 제공 모듈(426)은 배달 대상자 단말(600)을 운영하는 배달 대상자가 배달물품으로 배달음식을 시킨 경우, 따뜻하게 먹고 싶은지, 차갑게 먹고 싶은지에 따라서 온도를 추가로 조절할 수 있으며, 이를 위해 서브 배달로봇(200)에는 온도조절장치(미도시)를 추가로 구비하는 것이 바람직하다.The delivery item status providing module 426 can additionally adjust the temperature depending on whether the delivery target person who operates the
배달물품 상태 제공 모듈(426)은 배달 대상자가 제공하는 온도 조절 정보를 실시간으로 서브 배달로봇(200)으로 전달하도록 송수신부(410)를 제어할 수 있다. The delivery article status providing module 426 may control the transmission/reception unit 410 to transmit temperature control information provided by the delivery target to the
배달물품 위치 제공 모듈(427)은 서브 배달로봇(200)이 배달하는 하나의 배달물품에 관여된 배달 요청자 단말(500) 및/또는 배달 대상자 단말(600)로부터 서브 배달로봇(200)의 현재 위치에 대한 요청을 수신한 뒤, 네트워크(200)를 통해 제공하도록 송수신부(410)를 제어할 수 있다.The delivery product location providing module 427 is the current location of the
보다 구체적으로, 현재 위치에 대한 요청을 수신한 배달물품 위치 제공 모듈(427)은 서브 배달로봇(200)과 메인 배달로봇(100)의 GPS 위치 정보를 수신하도록 송수신부(410)를 제어한 뒤, 수신된 GPS 위치 정보를 네트워크(200)를 통해 서브 배달로봇(200)이 배달하는 하나의 배달물품에 관여된 배달 요청자 단말(500) 및/또는 배달 대상자 단말(600)로 전송하도록 송수신부(410)를 제어할 수 있다. More specifically, after receiving the request for the current location, the delivery article location providing module 427 controls the transmission/reception unit 410 to receive GPS location information of the
한편, 서브 배달로봇(200)의 외부 카메라(220)와 동일하게 메인 배달로봇(100)도 정면에 외부 카메라가 설치될 수 있으며, 배달 요청자 단말(500) 및/또는 배달 대상자 단말(600)이 배달 요청자 앱 및/또는 배달 대상자 앱에 구현된 배달용 지도 상에서 배달물품의 위치 정보를 구현시, 배달 요청자 앱 및/또는 배달 대상자 앱 상에서 추가로 영상 제공 요청에 따라 실시간으로 서브 배달로봇(200)의 영상 정보 및/또는 메인 배달로봇(100)의 영상 정보를 배달물품 위치 제공 모듈(427)을 통해 미리 설정된 시간 간격으로 수신하여 출력할 수 있다. On the other hand, like the external camera 220 of the
여기서, 영상 정보는 블랙박스 영상 정보로 활용하며, 배달물품 위치 제공 모듈(427)은 영상 정보를 전송함에 있어 모든 픽셀의 정보를 전송하면 시간과 비용이 많이 소모되기 때문에 비디오 압축기술(Sum of Absolute Differences)를 사용하는 것이 바람직하다. Here, the image information is used as black box image information, and the delivery item location providing module 427 consumes a lot of time and cost when transmitting the information of all pixels in transmitting the image information. Differences) are preferred.
원격정보 제공 모듈(428)은 배달 요청자 단말(500) 및/또는 배달 대상자 단말(600)로부터 원격조정 요청에 따라 배달 요청자 단말(500) 및/또는 배달 대상자 단말(600)과 서브 배달로봇(200) 간의 데이터 송수신을 중계할 수 있다.The remote information providing module 428 includes the
즉, 원격정보 제공 모듈(428)은 서브 배달로봇(200)의 실시간 위치 정보가 수신되어, 서브 배달로봇(200)의 실시간 위치 정보와 배달지 정보인 목적지 주소가 일치하는 경우 서브 배달로봇(200)이 건물 내부로 진입한 것으로 판단한 뒤, 네트워크(300)를 통해 배달 요청자 단말(500) 및/또는 배달 대상자 단말(600)의 앱에 의해 구현된 UI 화면에 서브 배달로봇(200)이 조종가능한 상태임을 메시지 형태로 전송하도록 송수신부(410)를 제어할 수 있다. That is, when the remote information providing module 428 receives real-time location information of the
배달 요청자 단말(500) 및/또는 배달 대상자 단말(600) 상에서 원격조정 확정 입력에 따라, 원격정보 제공 모듈(428)은 배달 요청자 단말(500) 및/또는 배달 대상자 단말(600)로부터 수신되는 원격정보(방향 및 거리 제어 명령)을 수신한 뒤, 서브 배달로봇(200)으로 전송함으로써, 서브 배달로봇(200)에 대한 원격제어가 가능하도록 중계할 수 있다. According to the remote control confirmation input on the
한편, 서브 배달로봇(200)은 배달 요청자 또는 배달 대상자의 과실로 인한 사고를 방지하기 위해 긴급제동장치(미도시)를 포함함으로써, 외부 카메라(220)에 의해 촬영되는 영상 정보를 수신한 뒤, MCU(270)에 의한 자율주행 기반으로 영상 정보를 분석하여 벽 또는 객체(사람 및 사물)과 충돌 위험이 있는 경우, 긴급제동장치를 제어함으로써 이동을 중지할 수 있다. On the other hand, the
배달 픽업 제공 모듈(429)은 서브 배달로봇(200)이 지정된 배달 대상자 배달지 정보로 배달을 완료하고 메인 배달로봇(100)으로 돌아가기 위해 기다리는 동안 가까운 거리에서 배달수요가 발생한 경우 추가배달수요에 대한 처리를 수행할 수 있다.The delivery pickup providing module 429 completes the delivery with the designated delivery destination information and waits to return to the
즉, 배달 요청자 단말(500)이 배달 요청자 앱 상에서 출발지 및 배달물품 중량을 배달물품 정보로 추가로 입력하면, 배달정보 수집 모듈(421)이 배달물품 정보를 수신한 뒤, 배달물품 정보를 데이터베이스(430)에 저장할 수 있다. That is, when the
이에 따라, 배달 픽업 제공 모듈(429)은 배달물품에 대해서 이동 모듈(422)에 의한 운송할 메인 배달로봇(100) 및 서브 배달로봇(200)을 픽업을 위한 탐색하고 있는 동안에 미리 설정된 거리 이내에서 메인 배달로봇(100)으로 복귀하기 위해 기다리고 있는 서브 배달로봇(200)의 위치정보인 제 1 위치정보, 현재 배달중이나 미리 설정된 시간 내에 기다리고 있어야 하는 서브 배달 로봇(200)의 위치정보인 제 2 위치정보, 그리고 배달물품 정보 중 출발지를 포함하는 거점 영역으로 이동 모듈(422)에 의해 지정된 메인 배달로봇(100) 내에 배달물품을 싣고 있지 않은 서브 배달로봇(200)이 있는 경우 메인 배달로봇(200)의 위치정보인 제 3 위치정보를 추출하여 네트워크(300)를 통해 배달 요청자 단말(500)로 전송하도록 송수신부(410)를 제어함으로써, 배달 요청자 단말(500)의 UI 화면으로 각 위치정보를 출력하도록 할 수 있다. Accordingly, the delivery pickup providing module 429 is within a preset distance while searching for the
여기서, 배달 픽업 제공 모듈(429)은 연산알고리즘을 포함함으로써, 기다리는 서브 배달로봇(200)의 제 1 위치정보, 기다릴 서브 배달로봇(200)의 제 2 위치정보, 그리고 배달물품을 싣고 있지 않은 제 3 위치정보 각각과 출발지와의 거리정보를 연산하여 배달 요청자 단말(500)의 UI 화면으로 제공할 뿐만 아니라, 빅데이터 서버(700)로 액세스하여 제 1 내지 제 3 위치정보 각각과 출발지와의 사이의 교통정보(신호등의 개수, 차량 통행량, 운행 속도)를 수신한 뒤, 배달 요청자 단말(500)로 전송하도록 송수신부(410)를 제어할 수 있다. Here, the delivery pickup providing module 429 includes an operation algorithm, so that the first location information of the waiting
배달 픽업 제공 모듈(429)은 제 1 내지 제 3 위치정보 각각과 출발지와의 사이의 거리정보 및 교통정보(신호등의 개수, 차량 통행량, 운행 속도) 중 거리정보를 제 1 가중치로 하고 교통정보의 각 파라미터에 대한 할당비율을 반영한 지연예상정보를 제 2 가중치로 하여 가장 신속하게 도달가능한 서브 배달로봇(200)을 오름 차순으로 나열하여 데이터베이스(430)에 저장한 뒤, 네트워크(300)를 통해 배달 요청자 단말(500)로 네트워크(300)를 통해 가장 우선순위에 있는 서브 배달로봇(200)의 식별 ID 및 위치정보를 전송하도록 송수신부(410)를 제어함으로써, 배달 요청자 단말(500)의 UI 화면으로 출력하도록 할 수 있다. 여기서 제 1 가중치는 제 2 가중치보다 높은 정량적 수치에 해당한다. The delivery pickup providing module 429 uses the distance information of the distance information between each of the first to third location information and the departure point and traffic information (number of traffic lights, vehicle traffic volume, driving speed) as a first weight, and The
이에 따라 배달 요청자 단말(500)에 의해 UI 화면에 출력된 서브 배달로봇(200)에 대한 선택이 각 서브 배달로봇(200)에 대한 미리 설정된 제한시간 내에 수행되면, 배달 픽업 제공 모듈(429)은 선택된 서브 배달로봇(200)을 배달 요청자 단말(500)의 제 1 단말식별번호로 지정하여 데이터베이스(430)에 저장함으로써, 배달을 수행할 서브 배달로봇(200), 지정된 서브 배달로봇(200)에 할당된 메인 배달로봇(100)에 대한 결정을 완료할 수 있다.Accordingly, when the selection for the
여기서 미리 설정된 제한시간 내로 수행되어야 하는 이유는 배달 요청자 단말(500)을 운영하는 배달 요청자가 최종 결정하는데 시간 지체에 따라 메인 배달로봇(100)이 서브 배달로봇(200)을 싣고 배달 요청자 단말(500)로부터 미리 설정된 거리 내로부터 벗어나기 때문이며, 미리 설정된 거리 내를 벗어나는 경우, 배달 픽업 제공 모듈(429)은 거리 내를 벗어난 서브 배달로봇(200)의 식별 ID 및 위치정보를 배달 요청자 단말(500)로 네트워크(300)를 통해 전송하도록 송수신부(410)를 제어함으로써, 배달 요청자 앱에 구현되도록 할 수 있다. Here, the reason to be performed within a preset time limit is that the delivery requester who operates the
한편, 배달 요청자 앱 상에서는 배치 결정된 서브 배달로봇(200)의 위치정보와 미리 설정된 제한시간이 도 4와 같이 출력되면, UI 화면상의 테두리에 적색 선을 출력하고, 도 5a, 도 5b와 같이 남은 제한시간의 역수에 비례하여 UI 화면상의 테두리의 적색 선의 비율이 감소하도록 배달 요청자 단말(500)이 제어함으로써, 배달 요청자에게 배달물품 픽업에 대한 남은 시간에 대한 직관적인 압박을 느끼게 할 수 있다.On the other hand, on the delivery requester app, if the location information of the
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.The present invention can also be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices that store data that can be read by a computer system.
컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage devices, and are implemented in the form of carrier waves (for example, transmission through the Internet). Also includes.
또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.In addition, the computer-readable recording medium is distributed over a computer system connected through a network, so that computer-readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers in the technical field to which the present invention belongs.
이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.As described above, in the present specification and drawings, a preferred embodiment of the present invention has been disclosed, and although specific terms are used, this is only used in a general meaning to easily explain the technical content of the present invention and to aid understanding of the invention. , It is not intended to limit the scope of the present invention. In addition to the embodiments disclosed herein, it is apparent to those of ordinary skill in the art that other modified examples based on the technical idea of the present invention may be implemented.
1 : 무인 배달로봇 관리 시스템
100 : 메인 배달로봇
200 : 서브 배달로봇
300 : 네트워크
400 : 무인 배달로봇 관리 서버
500 : 배달 요청자 단말
500g : 배달 요청자 단말 그룹
600g : 배달 대상자 단말 그룹
600 : 배달 대상자
700 : 빅데이터 서버
800 : 인접 건물 관리자 단말
800g : 인접 건물 관리자 단말 그룹1: Unmanned delivery robot management system
100: main delivery robot
200: sub delivery robot
300: network
400: unmanned delivery robot management server
500: delivery requester terminal
500g: Delivery requester terminal group
600g: Terminal group to be delivered
600: person to be delivered
700: Big data server
800: adjacent building manager terminal
800g: adjacent building manager terminal group
Claims (7)
도착점에 도달시 도착점과 매칭되는 각 서브 배달로봇(200)에 대한 메인 배달로봇(100)으로부터의 분리를 제어하도록 하는 분리 제어 명령을 네트워크(300)를 통해 메인 배달로봇(100)으로 전송하도록 송수신부(410)를 제어하는 이동 모듈(422); 및
도착점으로부터 배달지 정보로 향하는 서브 배달로봇(200)에 대해서 인도 주행 중에 각 서브 배달로봇(200)에 장착된 근접 센서(211)로 만지려는 행위를 검출하기 위해 접근 위치를 검출에 따라, 서브 배달로봇(200)의 MCU(270)에 의한 외부 카메라(220)에 의해 촬영된 영상 정보를 수신하도록 송수신부(410)를 제어한 뒤, 영상 정보를 영상인식 기반으로 만지는 행위라고 분석시 경고 제어 명령을 서브 배달로봇(200)으로 전송하도록 송수신부(410)를 제어하는 터치 방지 모듈(423); 을 포함하는 것을 특징으로 하는 무인 배달로봇 서비스 제공 시스템.
In the unmanned delivery robot service providing system including the main delivery robot 100, the sub delivery robot 200, the network 300, and the unmanned delivery robot management server 400, the unmanned delivery robot service providing server 400,
Sending and receiving to transmit a separation control command to control separation from the main delivery robot 100 for each sub delivery robot 200 matched with the destination point when reaching the destination point to the main delivery robot 100 through the network 300 A moving module 422 for controlling the unit 410; And
According to the detection of the approach position to detect the action to be touched by the proximity sensor 211 mounted on each sub delivery robot 200 during delivery of the sub delivery robot 200 heading from the destination to the delivery destination information, the sub delivery robot After controlling the transmission/reception unit 410 to receive the image information captured by the external camera 220 by the MCU 270 of 200, a warning control command is issued when analyzing that the image information is touched based on image recognition. A touch prevention module 423 for controlling the transmission/reception unit 410 to transmit to the sub delivery robot 200; Unmanned delivery robot service providing system comprising a.
경고 제어 명령을 수신하면, 몸체에 형성된 주의 램프(230)를 적색으로 점등하도록 할 뿐만 아니라, MCU(270)에 연결된 스피커(271)를 통해 경고 음성신호를 출력하는 것을 특징으로 하는 무인 배달로봇 서비스 제공 시스템.
The method according to claim 1, the sub delivery robot 200,
Unmanned delivery robot service, characterized in that upon receiving the warning control command, not only the attention lamp 230 formed on the body turns on in red, but also outputs a warning voice signal through the speaker 271 connected to the MCU 270. Delivery system.
각 서브 배달로봇(200)에 구비된 외부 카메라(220)에 의해 객체로 사람이 미리 설정된 반경 내로 인식되는 경우(제 1 인식 이벤트), 또는 객체로 사물이 미리 설정된 반경 내로 외부 카메라(220)에 의해 인식되면서 각 서브 배달로봇(200)이 이동에 따라 인식된 사물의 영상 내의 배율 변화 속도보다 빠른 속도로 변화되는 다른 사물을 인지하는 배율 변화 이벤트 발생이 인식되는 경우(제 2 인식 이벤트), 네트워크(300)를 통해 영상 정보, 그리고 제 1 인식 이벤트 또는 제 2 인식 이벤트를 수신하도록 송수신부(410)를 제어하는 이동 불능 처리 모듈(424); 을 더 포함하는 것을 특징으로 하는 무인 배달로봇 서비스 제공 시스템.
The method according to claim 1, the unmanned delivery robot service providing server 400,
When a person is recognized as an object within a preset radius by the external camera 220 provided in each sub-delivery robot 200 (first recognition event), or the object as an object is detected by the external camera 220 within a preset radius. When the occurrence of a magnification change event in which each sub-delivery robot 200 recognizes another object that changes at a faster rate than the magnification change speed in the image of the object recognized as it moves is recognized (second recognition event), the network A movement impossibility processing module 424 for controlling the transmission/reception unit 410 to receive image information and a first recognition event or a second recognition event through 300; Unmanned delivery robot service providing system, characterized in that it further comprises.
제 1 또는 제 2 인식 이벤트와 매칭되는 영상 정보를 무인 배달로봇 서비스 제공 서버(400)와 연결된 로봇 관리자 단말(400a) 중 하나로 전송하여, 로봇 관리자 단말(400a) 상에 실시간 관리대상 로봇 창으로 영상 정보가 출력되도록 할 뿐만 아니라, 이동하는 물체와의 충돌 위험에 해당하는 제 2 인식 이벤트와 함께 영상 정보가 수신된 경우, 로봇 관리자 단말(400a) 상에 주의 대상 로봇 메시지를 포함하는 실시간 주의대상 로봇 창으로 영상 정보가 출력되도록 하는 것을 특징으로 하는 무인 배달로봇 서비스 제공 시스템.
The method according to claim 3, the immobilization processing module 424,
The image information matched with the first or second recognition event is transmitted to one of the robot manager terminals 400a connected to the unmanned delivery robot service providing server 400, and the image is displayed on the robot manager terminal 400a in a real-time management target robot window. In addition to outputting information, when image information is received together with a second recognition event corresponding to a risk of collision with a moving object, a real-time attention-targeted robot including a attention-target robot message on the robot manager terminal 400a An unmanned delivery robot service providing system, characterized in that video information is output through a window.
실시간 관리대상 로봇 창을 통해 관리자가 해당되는 서브 배달로봇(200)이 운행방해상태에 있게 될 가능성이 높음을 인식할 뿐만 아니라, 서브 배달로봇(200)이 실제 방해를 받아 이동하지 못하는 경우에도 제 3 인식 이벤트를 이동 불능 처리 모듈(424)을 통해 수신한 뒤, 제 1 내지 제 3 인식 이벤트 정보 및 영상 정보에 대응되는 원격 제어 명령을 이동 불능 처리 모듈(424)을 통해 각 서브 배달로봇(200)으로 전달하는 것을 특징으로 하는 무인 배달로봇 서비스 제공 시스템.
The method according to claim 4, the robot manager terminal (400a),
Through the real-time management target robot window, the administrator not only recognizes that there is a high possibility that the corresponding sub-delivery robot 200 is in a state of obstruction, but also when the sub-delivery robot 200 cannot move due to actual interference. After receiving the 3 recognition event through the immobilization processing module 424, the remote control command corresponding to the first to third recognition event information and the image information is transmitted through the immobilization processing module 424 for each sub delivery robot 200 ) Unmanned delivery robot service providing system, characterized in that the delivery.
로봇 관리자 단말(400a)에 의한 제 3 인식 이벤트에 대한 원격 제어 명령에도 빠져나오지 못하는 운행 불능 상태에 빠진 경우에는 로봇 관리자 단말(400a)로부터 운행 불능 판정을 수신한 뒤, 운행 불능 상태에 빠진 지점에서 시간대별 유동인구 통계 정보를 네트워크(300)를 통해 빅데이터 서버(700)로부터 수신한 뒤, 현재 시간대의 유동인구 통계가 미리 설정된 임계치 이상이거나, 외부 카메라(220)를 통해 수신되는 영상 정보를 영상인식 기반으로 분석하여 주변에 사람이 있다고 판단되면, 구조 요청 제어 명령을 서브 배달로봇(200)으로 전송하는 것을 특징으로 하는 무인 배달로봇 서비스 제공 시스템.
The method of claim 5, wherein the immobilization processing module 424,
If the robot manager terminal 400a falls into an inoperable state in which it cannot escape even with a remote control command for a third recognition event, after receiving a determination of inoperability from the robot manager terminal 400a, After receiving the floating population statistics information for each time period from the big data server 700 through the network 300, the floating population statistics for the current time period are equal to or greater than a preset threshold, or the video information received through the external camera 220 is imaged. An unmanned delivery robot service providing system, characterized in that when it is determined that there is a person in the vicinity by analyzing based on recognition, a rescue request control command is transmitted to the sub delivery robot 200.
구조 요청 제어 명령 수신에 따라 몸체에 형성된 주의 램프(230)를 적색으로 점등하도록 할 뿐만 아니라, MCU(270)에 연결된 스피커(271)를 통해 구조 음성신호를 출력하는 것을 특징으로 하는 무인 배달로봇 서비스 제공 시스템.
The method according to claim 6, the sub delivery robot 200,
Unmanned delivery robot service, characterized in that the attention lamp 230 formed on the body is lit in red in response to the reception of the rescue request control command, and outputs a rescue voice signal through the speaker 271 connected to the MCU 270 Delivery system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190014902A KR20200097482A (en) | 2019-02-08 | 2019-02-08 | System for providing unmanned delivery robot service |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190014902A KR20200097482A (en) | 2019-02-08 | 2019-02-08 | System for providing unmanned delivery robot service |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200097482A true KR20200097482A (en) | 2020-08-19 |
Family
ID=72265489
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190014902A KR20200097482A (en) | 2019-02-08 | 2019-02-08 | System for providing unmanned delivery robot service |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20200097482A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112045717A (en) * | 2020-09-10 | 2020-12-08 | 刘斌 | Agricultural and forestry robot monitoring platform |
WO2022145912A1 (en) * | 2020-12-30 | 2022-07-07 | 재단법인대구경북과학기술원 | Delivery service system and method using autonomous vehicles |
KR20220135877A (en) | 2021-03-31 | 2022-10-07 | 주식회사 승은 | Non-face-to-face delivery service system using robot within the service space and method thereof |
KR20230116129A (en) | 2022-01-27 | 2023-08-04 | 금오공과대학교 산학협력단 | Food delivery service robot using autonomous driving in school |
KR20240083217A (en) | 2022-12-02 | 2024-06-12 | 예주산업(주) | System for delivering food in apartment complex by using drone and robot |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160034605A (en) | 2014-09-22 | 2016-03-30 | (주)코리아테크 | Spindle support body for painting device |
-
2019
- 2019-02-08 KR KR1020190014902A patent/KR20200097482A/en not_active Application Discontinuation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160034605A (en) | 2014-09-22 | 2016-03-30 | (주)코리아테크 | Spindle support body for painting device |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112045717A (en) * | 2020-09-10 | 2020-12-08 | 刘斌 | Agricultural and forestry robot monitoring platform |
CN112045717B (en) * | 2020-09-10 | 2024-02-27 | 刘斌 | Agriculture and forestry robot monitoring platform |
WO2022145912A1 (en) * | 2020-12-30 | 2022-07-07 | 재단법인대구경북과학기술원 | Delivery service system and method using autonomous vehicles |
KR20220135877A (en) | 2021-03-31 | 2022-10-07 | 주식회사 승은 | Non-face-to-face delivery service system using robot within the service space and method thereof |
KR20230116129A (en) | 2022-01-27 | 2023-08-04 | 금오공과대학교 산학협력단 | Food delivery service robot using autonomous driving in school |
KR20240083217A (en) | 2022-12-02 | 2024-06-12 | 예주산업(주) | System for delivering food in apartment complex by using drone and robot |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20200097482A (en) | System for providing unmanned delivery robot service | |
CN111874764B (en) | Robot scheduling method, server and storage medium | |
US11443634B2 (en) | Smart signs for autonomous vehicles | |
CN106429657B (en) | Flexible destination dispatch passenger support system | |
JP6329671B1 (en) | Dispatch system | |
US20210027060A1 (en) | Person search system | |
CN106144797B (en) | Traffic list generation for passenger transport | |
KR102549978B1 (en) | Airport robot, and airport robot system including same | |
US11513539B2 (en) | Information collection system and server apparatus | |
US20190306779A1 (en) | Vehicle communication control method and vehicle communication device | |
WO2018132088A1 (en) | Picking up and dropping off passengers at an airport using an autonomous vehicle | |
KR102416497B1 (en) | A shared vehicle, a shared vehicle service providing device, a shared vehicle service management server, a shared vehicle service providing system, a shared vehicle service providing method | |
KR102570164B1 (en) | Airport robot, and method for operating server connected thereto | |
US20210088341A1 (en) | Shuttle routing system | |
US10783647B2 (en) | Real-time object tracking | |
KR102558767B1 (en) | Robot-friendly building | |
KR102599784B1 (en) | Airport robot | |
KR20210005761A (en) | Autonomous vehicle control system for maximizing autonomy, and Autonomy providing server for the same | |
KR20200097474A (en) | Unmanned delivery robot management system, and method thereof | |
US20200327460A1 (en) | Information processing apparatus, information processing method and program | |
CN115249198A (en) | Enhanced car booking system and method | |
WO2020195441A1 (en) | Vehicle management device, terminal, vehicle management method, and program | |
KR20210005420A (en) | Mobile store providing system based on autonomous driving, and mobile store providing server for the same | |
JP7036690B2 (en) | Information processing equipment, information processing methods and information processing programs | |
KR102460949B1 (en) | System and method for sharing information of autonomous vehicle and controlling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |