KR102494841B1 - 배송 임무를 수행하는 다수의 로봇을 이용하여 배송 서비스를 제공하는 건물 - Google Patents

배송 임무를 수행하는 다수의 로봇을 이용하여 배송 서비스를 제공하는 건물 Download PDF

Info

Publication number
KR102494841B1
KR102494841B1 KR1020210081076A KR20210081076A KR102494841B1 KR 102494841 B1 KR102494841 B1 KR 102494841B1 KR 1020210081076 A KR1020210081076 A KR 1020210081076A KR 20210081076 A KR20210081076 A KR 20210081076A KR 102494841 B1 KR102494841 B1 KR 102494841B1
Authority
KR
South Korea
Prior art keywords
robot
information
delivery
specific
area
Prior art date
Application number
KR1020210081076A
Other languages
English (en)
Other versions
KR20220029346A (ko
Inventor
차세진
이현철
김석태
Original Assignee
네이버랩스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버랩스 주식회사 filed Critical 네이버랩스 주식회사
Priority to KR1020210081076A priority Critical patent/KR102494841B1/ko
Publication of KR20220029346A publication Critical patent/KR20220029346A/ko
Application granted granted Critical
Publication of KR102494841B1 publication Critical patent/KR102494841B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/083Shipping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9035Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9038Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q50/28

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Operations Research (AREA)
  • Development Economics (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

본 발명은 로봇을 이용하여 효율적으로 물건 배송을 수행할 수 있는 배송 방법 및 시스템에 관한 것이다. 위에서 살펴본 과제를 해결하기 위하여 본 발명에 따른 로봇을 이용한 배송 방법은, 스캔부에 의해 오브젝트가 스캔되는 것에 근거하여, 상기 오브젝트에 대한 운송장 정보를 획득하는 단계, 사용자 DB를 이용하여 상기 운송장 정보에 매칭되는 타겟 유저를 특정하고, 상기 사용자 DB로부터 상기 타겟 유저에 대응되는 타겟 정보를 추출하는 단계, 상기 운송장 정보 및 상기 타겟 정보를 이용하여, 상기 오브젝트에 부착될 식별 표지에 포함되는 식별 정보를 생성하는 단계 및 상기 타겟 유저에게 상기 오브젝트가 배송되도록 로봇을 제어하는 단계를 포함할 수 있다.

Description

배송 임무를 수행하는 다수의 로봇을 이용하여 배송 서비스를 제공하는 건물{BUILDING PROVIDING DELIVERY SERVICE USING ROBOTS PERFORMING DELIVERY TASK}
본 발명은 로봇을 이용하여 효율적으로 물건 배송을 수행할 수 있는 배송 방법 및 시스템에 관한 것이다.
기술이 발전함에 따라, 다양한 서비스 디바이스들이 나타나고 있으며, 특히 최근에는 다양한 작업 또는 서비스를 수행하는 로봇에 대한 기술 개발이 활발하게 이루어지고 있다.
나아가 최근에는, 인공 지능 기술, 클라우드 기술 등이 발전함에 따라, 로봇의 활용도가 점차적으로 높아지고 있다.
최근에는 로봇이 인간의 업무 또는 작업을 대체하고 있으며, 특히 사람을 대상으로 로봇이 직접 서비스를 제공하는 방법들이 활발하게 연구되고 있다.
한편, 최근에는 로봇을 이용하여 우편물, 택배 등과 같은 물건을 사용자에게 직접 배송하는 서비스가 점차적으로 도입되고 있다.
예를 들어, 대한민국 공개특허 제10-2018-0123298호(배송로봇장치 및 그 동작 방법, 그리고 서비스서버)에서는, 배송로봇장치를 이용하여, 배송원에 의해 배송 영역까지 집화된 물건을 원래의 배송지까지 배송 처리하는 시스템에 대하여 개시하고 있다. 이와 같이, 로봇을 이용하여 물건 배송의 자동화에 대한 기술 개발 및 연구가 활발하게 진행되고 있다.
본 발명은 효율적으로 물건 배송을 처리할 수 있는 로봇을 이용한 배송 방법 및 시스템을 제공하는 것이다.
보다 구체적으로 본 발명은, 배송원으로부터 배송되는 물건을 체계적이고, 효율적으로 집화할 수 있는 로봇을 이용한 배송 방법 및 시스템을 제공하는 것이다.
나아가, 본 발명은, 로봇을 이용한 자동화 배송 시스템을 통하여, 집화된 물건을 사용자에게 직접 배송할 수 있는 로봇을 이용한 배송 방법 및 시스템을 제공하는 것이다.
위에서 살펴본 과제를 해결하기 위하여 본 발명에 따른 로봇을 이용한 배송 방법은, 스캔부에 의해 오브젝트가 스캔되는 것에 근거하여, 상기 오브젝트에 대한 운송장 정보를 획득하는 단계, 사용자 DB를 이용하여 상기 운송장 정보에 매칭되는 타겟 유저를 특정하고, 상기 사용자 DB로부터 상기 타겟 유저에 대응되는 타겟 정보를 추출하는 단계, 상기 운송장 정보 및 상기 타겟 정보를 이용하여, 상기 오브젝트에 부착될 식별 표지에 포함되는 식별 정보를 생성하는 단계 및 상기 타겟 유저에게 상기 오브젝트가 배송되도록 로봇을 제어하는 단계를 포함할 수 있다.
나아가, 위에서 살펴본, 상기 로봇을 제어하는 단계에서는, 상기 식별 표지를 스캔한 특정 로봇에 의해 상기 오브젝트가 배송되도록 상기 특정 로봇에 대한 제어를 수행할 수 있다.
한편, 본 발명에 따른 로봇을 이용한 배송 시스템은, 사용자 DB를 저장하는 저장부, 오브젝트에 대한 스캔을 수행하는 스캔부 및 상기 스캔부에 의해 상기 오브젝트가 스캔되는 것에 근거하여, 상기 오브젝트에 대한 운송장 정보를 획득하고, 상기 사용자 DB로부터 상기 운송장 정보에 매칭되는 타겟 유저에 대응되는 타겟 정보를 추출하는, 제어부를 포함할 수 있다.
나아가, 위에서 살펴본 제어부는, 상기 운송장 정보 및 상기 타겟 정보를 이용하여, 상기 오브젝트에 부착될 식별 표지에 포함되는 식별 정보를 생성하고, 상기 식별 표지를 스캔한 특정 로봇에 의해 상기 오브젝트가 배송되도록 상기 특정 로봇에 대한 제어를 수행할 수 있다.
위에서 살펴본 것과 같이, 본 발명에 따른 로봇을 이용한 배송 방법 및 시스템은, 배송된 물건(또는 오브젝트)에 부착된 운송장 정보를 이용하여, 배송된 물건의 수신인에 해당하는 타겟 유저의 정보를 획득할 수 있다. 나아가, 본 발명에서는, 획득된 타겟 유저의 정보 및 운송장 정보를 이용하여, 로봇이 스캔 가능한 식별 표지를 생성하고, 이러한 식별 표지를 스캔한 로봇에 의하여 해당 물건이 타겟 유저에게 배송되도록 하는 배송 방법 및 시스템을 제공할 수 있다. 이를 통하여, 본 발명에 따른 로봇을 이용한 배송 방법 및 시스템은, 물건의 배송을 관리하는 관리자가 로봇에 일일이 물건의 배송지 정보를 입력하지 않더라도, 로봇이 타겟 유저에게 물건을 배송하도록 함으로써, 업무의 효율성이 높아질 수 있다.
나아가, 본 발명에 따른 로봇을 이용한 배송 방법 및 시스템은, 집화된 물건이 보관된 장소에 대한 정보를 사용자 DB에 입력함으로써, 타겟 유저가 물건 배송을 요청할 경우, 물건이 보관된 장소에 대한 정보를 사용자 DB로부터 제공할 수 있다. 따라서, 물건의 배송을 관리하는 관리자(또는 작업자)는 타겟 유저에게 물건을 배송하기 위하여 물건이 보관된 장소를 일일이 찾아야 하는 번거로움을 줄일 수 있다.
도 1, 도 2 및 도 3은 본 발명에 따른 로봇을 이용한 물건 배송 방법 및 시스템을 설명하기 위한 개념도들이다.
도 4는 본 발명에 따른 로봇을 이용한 물건 배송 방법 및 시스템에서 로봇을 식별하는 방법을 설명하기 위한 개념도이다.
도 5는 본 발명에 따른 로봇을 이용한 물건 배송 방법 및 시스템에서 로봇의 위치를 추정하는 방법을 설명하기 위한 개념도이다.
도 6은 본 발명에 따른 로봇을 이용한 물건 배송 방법을 설명하기 위한 흐름도이다.
도 7, 도 8, 도 9a 및 도 9b, 도 10a, 도 10b, 도 10c, 도 10d, 도 11, 도 12a 및 도 12b는 본 발명에 따른 로봇을 이용한 물건 배송 방법을 설명하기 위한 개념도들이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소에는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명은 로봇을 이용한 배송 방법 및 시스템에 관한 것으로서, 보다 구체적으로, 효율적으로 물건 배송을 처리할 수 있는 방법을 제안한다. 이하에서는, 첨부된 도면과 함께, 로봇이 주행하는 공간 및 이를 둘러싼 로봇(robot) 제어 시스템에 대하여 살펴보도록 한다. 도 1, 도 2 및 도 3은 본 발명에 따른 로봇을 이용한 물건 배송 방법 및 시스템을 설명하기 위한 개념도들이다. 나아가, 도 4는 본 발명에 따른 로봇을 이용한 물건 배송 방법 및 시스템에서 로봇을 식별하는 방법을 설명하기 위한 개념도이다. 그리고, 도 5는 본 발명에 따른 로봇을 이용한 물건 배송 방법 및 시스템에서 로봇의 위치를 추정하는 방법을 설명하기 위한 개념도이다.
기술이 발전함에 따라 로봇의 활용도는 점차적으로 높아지고 있다. 종래 로봇은 특수한 산업분야(예를 들어, 산업 자동화 관련 분야)에서 활용되었으나, 점차적으로 인간이나 설비를 위해 유용한 작업을 수행할 수 있는 서비스 로봇으로 변모하고 있다.
이와 같이 다양한 서비스를 제공할 수 있는 로봇은, 부여된 임무를 수행하기 위하여 도 1에 도시된 것과 같은 공간(10)을 주행하도록 이루어질 수 있다. 로봇(R)이 주행하는 공간의 종류에는 제한이 없으며, 필요에 따라 실내 공간 및 실외 공간 중 적어도 하나를 주행하도록 이루어 질 수 있다. 예를 들어, 실내 공간은 백화점, 공항, 호텔, 학교, 빌딩, 지하철역, 기차역, 서점 등과 같이 다양한 공간일 수 있다. 로봇(R)은, 이와 같이, 다양한 공간에 배치되어 인간에게 유용한 서비스를 제공하도록 이루어질 수 있다. 한편, 본 발명에 따른 로봇(R)은 다양하게 명명될 수 있으며, 예를 들어, 무인 이동 머신, 자율 이동 머신 등으로 표현될 수 있다.
도 1에 도시된 것과 같이, 로봇이 위치한 공간(10)에는 카메라(20)가 배치될 수 있다. 도시와 같이, 공간(10)에 배치된 카메라(20)의 수는 그 제한이 없다. 도시와 같이, 공간(10)에는 복수개의 카메라들(20a, 20b, 20c)이 배치될 수 있다. 공간(10)에 배치된 카메라(20)의 종류는 다양할 수 있으며, 공간(10)에 배치된 카메라(20)는 CCTV(closed circuit television)일 수 있다.
한편, 공간(10)을 주행하는 로봇(R)은, 사용자에게 서비스를 제공하기 위한 서비스 로봇을 포함할 수 있다. 로봇(R)이 사용자에게 제공하는 서비스의 유형은 매우 다양할 수 있다. 예를 들어, 로봇(R)은, 사용자에게 물품(예를 들어, 우편물, 택배 등)을 배송하거나, 음료를 서빙하는 것과 같은 서비스를 제공할 수 있다. 이러한 서비스를 제공하는 로봇(R)은 서비스의 대상이 되는 사용자(이하, “타겟 유저(target user”라고 명명함)를 공간(10) 상에서 직접 만나(또는 대면하여), 타겟 유저에게 서비스를 제공하도록 이루어질 수 있다.
한편, 로봇(R)에서 서비스를 제공하는 동작은, 로봇(R)에서 임무(task)를 수행하는 것으로 이해되어 질 수 있다. 즉, 로봇(R)은 할당된 임무를 수행함으로써, 타겟 유저에게 서비스를 제공하도록 이루어진다. 이하에서는, 설명의 편의를 위하여, “로봇(R)에서(또는 로봇이) 서비스를 제공”하는 것을 “로봇(R)에서 임무를 수행”한다고 표현하기로 한다.
본 발명은 로봇(R)에서 제공하는 서비스 중 특히 로봇을 이용한 물건 배송 서비스를 제공할 수 있는 방법 및 시스템에 대하여 제안한다. 회사 건물, 병원, 학교, 아파트와 같이 여러 사람이 함께 생활하는 공간에는, 하루에도 수십~수백, 그리고 수천개까지의 매우 많은 양의 물건이 집화될 수 있다.
여기에서, “집화”란 물건의 배송을 위하여, 물건이 모아지는 것을 의미한다. 앞서 살펴본 다양한 장소(회사 건물, 병원, 학교, 아파트 등)에 해당하는 특정 공간에서는, 특정 공간에서 생활하는 개개인(individual)에게 배송되는 물건을 1차적으로 집화하는 작업을 선행한 후, 특정 공간을 주행하는 로봇(R)을 이용하여 개개인에게 물건 배송을 수행하는 방식으로 물건 배송 체계가 운용될 수 있다.
이에, 본 발명에 따른 로봇(R)을 이용한 배송 방법 및 시스템은, i)배송원으로부터 물건을 집화하는 프로세스, ii)집화된 물건을 수신할 특정 유저를 특정하는 프로세스 및 iii)로봇(R)을 이용하여 특정 유저에게 물건을 배송하는 프로세스를 유기적으로 처리할 수 있는 방법에 대하여 제안한다.
본 발명에서 “물건”은 배송원으로부터 수신되는 배송의 대상이 된 “오브젝트(object, 물건 또는 물체)”로서, 택배, 우편물 등 그 구체적인 종류에는 제한이 없다. 이하에서는 용어의 통일을 위하여, 집화되는 “물건”을 “오브젝트”의 용어로 통일하도록 한다.
도 2를 참조하면, 본 발명에 따른 로봇(R)을 이용한 배송 방법 및 시스템에서는, 공간(10)내의 특정 장소(예를 들어, 배송 작업 장소)에서, 오브젝트(503)를 집화하도록 이루어질 수 있다. 여기에서, 오브젝트(503)는 앞서 살펴본 것과 같이, 배송원에 의하여 배송되는 물건으로서, 배송원은 특정 장소에 오브젝트(503)를 배송할 수 있다.
나아가, 본 발명에 따른 시스템에 의해 운용되는 특정 장소에는, 로봇(R)이 주행하는 로봇 주행 영역(520)을 포함할 수 있다. 이러한 로봇 주행 영역(520)은 로봇 전용 공간으로 이루어질 수 있다. 로봇(R)은 배송 업무의 효율을 위하여, 로봇 주행 영역(520) 상에서 주행하도록 이루어질 수 있다. 이 경우, 로봇(R)은 로봇 주행 영역(520) 내에서 주행하도록 프로그래밍될 수 있다.
로봇 주행 영역(520)은 서로 다른 주행 방향 영역에 제1 영역 및 제2 영역(521, 522)을 포함할 수 있다. 로봇(R)은, 주행 방향에 따라, 제1 및 제2 영역(521, 522) 중 어느 하나의 영역에서만 주행할 수 있다.
본 발명에 따른 시스템에 의해 운용되는 특정 장소는, 복수의 로봇 운용 영역(504, 505, 506)을 포함할 수 있다. 복수의 로봇 운용 영역(504, 505, 506)은 서로 다른 목적으로 로봇을 운용하는 영역으로서, 제1 로봇 운용 영역(504)은 오브젝트를 배송하기 위하여 임무를 수신할 적어도 하나의 로봇이 대기하는 영역일 수 있다.
그리고, 복수의 로봇 운용 영역(504, 505, 506) 중 제2 로봇 운용 영역(505)은 전원 충전 영역으로서, 전원의 충전이 필요한 로봇이 위치할 수 있다. 제2 로봇 운용 영역(505)에 로봇이 위치하는 경우, 해당 로봇(R)은 유선 또는 무선 방식 중 적어도 하나로 전원 충전을 수행할 수 있다.
다음으로, 복수의 로봇 운용 영역(504, 505, 506) 중 제3 로봇 운용 영역(506)은 임무의 수행이 완료되지 못한 로봇(R)이 대기하는 영역일 수 있다. 여기에서, 임무의 수행이 완료되지 못했다고 함은, 로봇(R)이 타겟 유저에게 오브젝트의 배송을 위하여 주행을 시작하였으나, 타겟 유저의 상황 또는 기타 다른 상황에 의하여 타겟 유저에게 물건의 배송을 완료하지 못한 것을 의미할 수 있다. 즉, 제3 로봇 운용 영역(506)은 로봇(R)에 보관된 물건의 반송을 위하여, 로봇(R)이 대기하는 영역일 수 있다.
한편, 본 발명에 따른 시스템에서는, 운용 대상 로봇을 그 목적에 따라, 위에서 살펴본 복수의 로봇 운용 영역(504, 505, 506) 중 어느 하나의 영역에 위치시킬 수 있다.
나아가, 본 발명에 따른 시스템에 의해 운용되는 특정 장소에는 집화되는 오브젝트(503)를 접수하는 접수 영역(502)을 포함할 수 있다.
도시와 같이, 접수 영역(502)은 디스플레이부(130) 및 스캔부(150) 중 적어도 하나를 포함할 수 있다. 스캔부(150)는, 오브젝트(503)에 구비된 오브젝트의 운송장 정보를 획득하도록 이루어 질 수 있다.
본 명세서에서는, 설명의 편의를 위하여, “운송장 정보”의 용어를 통일하여 사용하나, “운송장 정보”의 용어는 다른 용어로 대체되는 것이 가능하다.
예를 들어, “운송장 정보”는 “오브젝트에 대한 정보”라고도 표현될 수 있다.
운송장 정보는, 오브젝트의 배송의 대상이 되는 타겟 유저(수신인)에 대한 정보를 포함하는 정보로서, 수신인에 대한 정보 외에, 우편물 정보, 운송장 번호, 배송사 정보, 발신인 정보 및 오브젝트에 대한 설명 정보(예를 들어, 오브젝트의 종류(운동화, 옷 등)) 중 적어도 하나를 더 포함할 수 있다.
본 발명에서는, 오브젝트(503)가 집화되는 경우, 접수 영역(502)에서, 집화된 오브젝트를 접수하는 작업이 이루어질 수 있다. 오브젝트에 대한 접수는, 스캔부(150)를 이용하여, 오브젝트에 구비된 운송장 정보를 획득하고, 오브젝트의 타겟 유저를 특정하는 작업을 포함할 수 있다.
나아가, 본 발명에 따른 시스템에 의해 운용되는 특정 장소는 접수 영역(502)에서 접수가 완료된 오브젝트(503)를 보관하는 보관 장소(또는 보관 영역. 510)를 포함할 수 있다. 도시와 같이, 보관 장소(510)는 복수의 보관함(510b)을 포함할 수 있다. 접수된 오브젝트는 로봇(R)에 의하여 타겟 유저에게 배송되기 전까지, 보관함(510b)에 보관될 수 있다. 한편, 접수 영역(502)에서는 접수된 오브젝트가 특정 보관함(510a)에 보관될 수 있다. 본 발명에서, 보관함은, 보관함 마다 서로 다른 식별 정보(511)가 부여될 수 있다. 본 발명에 따른 시스템은, 접수 영역(502)에서 오브젝트를 접수하는 경우, i)오브젝트의 운송장 정보, ii)오브젝트의 수신인에 해당하는 타겟 유저에 대한 타겟 정보 및 iii)오브젝트가 보관되는 보관함의 식별 정보(511)를 서로 매칭하여 저장할 수 있다. 따라서, 본 발명에 따른 시스템은, 위의 매칭된 정보를 이용하여, 오브젝트가 특정 장소에 집화된 후, 타겟 유저에게 배송되기까지의 체계적인 프로세스를 제공할 수 있다.
도 3에 도시된 것과 같이, 본 발명에 따른 시스템(100)은, 통신부(110), 저장부(120), 디스플레이부(130), 입력부(140), 스캔부(150) 및 제어부(160) 중 적어도 하나를 포함할 수 있다.
통신부(110)는, 공간(10)에 배치된 다양한 디바이스와 유선 또는 무선으로 통신하도록 이루어질 수 있다. 통신부(110)는 도시와 같이 로봇(R), 외부 서버(200), 영상 관제 시스템(2000) 중 적어도 하나와 통신할 수 있다.
예를 들어, 통신부(110)는 로봇(R)으로부터 데이터(예를 들어, 로봇(R)에서 촬영되는 영상, 센싱 데이터 등)를 수신하거나, 로봇(R)으로 제어명령을 전송할 수 있다.
나아가, 통신부(110)는 공간(10)에 배치된 카메라(20)와의 직접적인 통신을 수행할 수 있다. 또한, 통신부(110)는 카메라(20)를 제어하는 영상 관제 시스템(2000)과 통신하도록 이루어질 수 있다. 영상 관제 시스템(2000)과 통신부(110) 사이에 통신이 이루어지는 경우, 배송 시스템(100)은 통신부(110)를 통해 영상 관제 시스템(2000)으로부터 카메라(20)에서 촬영되는(또는 수신되는) 영상을 수신할 수 있다.
나아가, 통신부(110)는 적어도 하나의 외부 서버(또는 외부 저장소, 200)와 통신하도록 이루어질 수 있다. 여기에서, 외부 서버(200)는, 도시된 것과 같이, 클라우드 서버(210) 또는 데이터베이스(220) 중 적어도 하나를 포함하도록 구성될 수 있다. 한편, 외부 서버(200)에서는, 제어부(160)의 적어도 일부의 역할을 수행하도록 구성될 수 있다. 즉, 데이터 처리 또는 데이터 연산 등의 수행은 외부 서버(200)에서 이루어지는 것이 가능하며, 본 발명에서는 이러한 방식에 대한 특별한 제한을 두지 않는다.
나아가, 통신부(110)는 사용자(또는 타겟 유저)가 소지한 전자기기와 통신하도록 이루어질 수 있다. 여기에서, 전자기기의 종류는 제한이 없으며, 스마트폰, 태블릿PC 등일 수 있다.
한편, 통신부(110)는 통신하는 디바이스의 통신 규격에 따라 다양한 통신 방식을 지원할 수 있다.
예를 들어, 통신부(110)는, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 5G(5th Generation Mobile Telecommunication ), 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra-Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 공간(20) 내외에 위치한 디바이스(클라우드 서버 포함)와 통신하도록 이루어질 수 있다.
다음으로 저장부(120)는, 본 발명과 관련된 다양한 정보를 저장하도록 이루어질 수 있다. 본 발명에서 저장부(120)는 배송 시스템(100) 자체에 구비될 수 있다. 이와 다르게, 저장부(120)의 적어도 일부는, 클라우드 서버(210) 및 데이터베이스(database: DB, 220) 중 적어도 하나를 의미할 수 있다. 즉, 저장부(120)는 본 발명에 따른 로봇 제어를 위하여 필요한 정보가 저장되는 공간이면 충분하며, 물리적인 공간에 대한 제약은 없는 것으로 이해될 수 있다. 이에, 이하에서는, 저장부(120), 클라우드 서버(210) 및 데이터베이스(220)를 별도로 구분하지 않고, 모두 저장부(120)라고 표현하도록 한다. 이때, 클라우드 서버(210)는 “클라우드 저장소”를 의미할 수 있다.
먼저, 저장부(120)에는, 로봇(R)에 대한 정보가 저장될 수 있다.
로봇(R)에 대한 정보는 매우 다양할 수 있으며, 일 예로서, i)공간(10)에 배치된 로봇(R)을 식별하기 위한 식별 정보(예를 들어, 일련번호, TAG 정보, QR코드 정보 등), ii)로봇(R)에 부여된 임무 정보(예를 들어, 임무의 종류, 임무에 따른 동작, 임무의 대상이 되는 타겟 유저 정보, 임무 수행 장소, 임무 수행 예정 시간 등), iii)로봇(R)에 설정된 주행 경로 정보, iv)로봇(R)의 위치 정보, v)로봇(R)의 상태 정보(예를 들어, 전원 상태, 고장 유무, 배터리 상태 등), vi)로봇(R)에 구비된 카메라로부터 수신된 영상 정보, vii) 로봇(R)의 동작과 관련된 동작 정보 등이 존재할 수 있다.
다음으로, 저장부(120)에는, 카메라(20)에 대한 정보가 저장될 수 있다.
카메라(20)에 대한 정보는 매우 다양할 수 있으며, 카메라(20)에 대한 정보는, i) 각각의 카메라(20a, 20b, 20c, 20d…)의 식별 정보(예를 들어, 일련번호, TAG 정보, QR코드 정보 등), ii) 각각의 카메라(20a, 20b, 20c, 20d…)의 배치 위치 정보(예를 들어, 공간 내에서 각각의 카메라(20a, 20b, 20c, 20d…)가 어느 위치에 배치되었는지에 대한 정보), iii) 각각의 카메라(20a, 20b, 20c, 20d…)의 화각 정보(anle of view, 예를 들어, 각각의 카메라(20a, 20b, 20c, 20d…)가 공간의 어느 뷰를 촬영하고 있는지에 대한 정보), iv) 각각의 카메라(20a, 20b, 20c, 20d…)의 화각에 대응되는 영역(또는 공간(또는 특정 공간))에 대한 위치 정보, v) 각각의 카메라(20a, 20b, 20c, 20d…)의 상태 정보(예를 들어, 전원 상태, 고장 유무, 배터리 상태 등), vi) 각각의 카메라(20a, 20b, 20c, 20d…)로부터 수신된 영상 정보 등이 존재할 수 있다.
한편, 위에서 열거된 카메라(20)에 대한 정보는 각각의 카메라(20a, 20b, 20c, 20d…)를 기준으로 서로 매칭되어 존재할 수 있다.
예를 들어, 저장부(120)에는, 특정 카메라(20a)의 식별정보, 위치 정보, 화각 정보, 상태 정보, 위치 정보, 및 영상 정보 중 적어도 하나가 매칭되어 매칭 정보로서 존재할 수 있다. 이러한 매칭 정보는, 추후 특정 카메라가 위치한 공간(또는 장소, 영역)을 특정하거나, 해당 공간에 위치한 사용자(예를 들어, 타겟 유저)의 위치를 확인하는데 유용하게 활용될 수 있다.
나아가, 저장부(120)에는 사용자와 관련된 정보가 저장될 수 있다. 이러한 사용자와 관련된 정보는 “사용자 DB” 라고도 명명될 수 있다.
사용자와 관련된 정보는, “사용자의 식별 정보”라고도 명명될 수 있다.
사용자와 관련된 정보는, 사용자의 이름, 생년월일, 주소, 전화번호, 사번, ID, 얼굴 이미지, 생체 정보(지문 정보, 홍채 정보 등), 공간(10) 내에서의 사용자의 생활 장소(예를 들어, 근무 장소(또는 근무 구역), 주거 장소 등), 사용자가 소지한 전자기기의 식별 정보, 사용자의 일정(스케줄)과 관련된 정보 중 적어도 하나를 포함할 수 있다.
나아가, 저장부(120)에는 접수된 오브젝트에 대한 운송장 정보(또는 오브젝트에 대한 정보)가 저장될 수 있다. 앞서 살펴본 것과 같이, 운송장 정보는, 오브젝트의 배송의 대상이 되는 타겟 유저(수신인)에 대한 정보를 포함할 수 있다. 나아가, 운송장 정보는, 타겟 유저(수신인)에 대한 정보 외에, 우편물 정보, 운송장 번호, 배송사 정보, 발신인 정보 및 오브젝트에 대한 설명 정보(예를 들어, 오브젝트의 종류(운동화, 옷 등)) 중 적어도 하나를 더 포함할 수 있다.
저장부(120)의 사용자 DB에는, i)오브젝트의 운송장 정보, ii)오브젝트의 수신인에 해당하는 타겟 유저에 대한 타겟 정보 및 iii)오브젝트가 보관되는 보관함의 식별 정보(511)가 매칭되어 존재할 수 있다.
즉, 타겟 유저에 대한 오브젝트가 접수된 경우, 사용자 DB에 저장된 접수된 오브젝트의 운송장 정보가, 타겟 유저에 대한 타겟 정보에 포함되도록, 사용자 DB가 업데이트 될 수 있다.
나아가, 저장부(120)에는 보관함 정보가 더 포함될 수 있다.
보관함 정보는, 보관함 각각에 부여된 식별 정보(예를 들어, 도 2의 511 식별번호 참조) 및 각각의 보관함에 보관된 오브젝트에 대한 정보(예를 들어, 운송장 정보 중 적어도 일부) 중 적어도 하나를 포함할 수 있다.
즉, 보관함 정보에 의하면, 복수의 보관함 중 어느 보관함에, 어느 오브젝트가 보관되어 있는지가 특정될 수 있다.
한편, 이러한 보관함 정보는, 앞서 살펴본 것과 같이, 사용자 DB에 포함될 수 있다. 즉, 사용자 DB에 저장된 타겟 유저의 타겟 정보는, 타겟 유저에게 배송된 오브젝트의 운송장 정보 및 해당 오브젝트가 보관된 보관함의 식별 정보(또는 보관함 정보)가 더 포함될 수 있다.
한편, 저장부(120)에는 오브젝트에 대한 배송을 수행하는 로봇(R)의 식별정보를 더 포함할 수 있다.
이 경우, i)오브젝트에 대한 정보(예를 들어, 운송장 정보), ii)해당 오브젝트에 대한 배송 임무를 할당받은 특정 로봇의 식별 정보, iii)타겟 유저의 타겟 정보 및 iv)해당 오브젝트가 보관된 보관함의 식별 정보 중 적어도 하나는 상호 매칭되어 저장부(120)에 저장될 수 있다. 나아가, 이러한 매칭 정보는 사용자 DB에 포함될 수 있다. 이러한 매칭 정보는, 사용자 DB의 타겟 정보를 기준으로 존재할 수 있다. 즉, 타겟 유저의 타겟 정보에는, i)오브젝트에 대한 정보(예를 들어, 운송장 정보), ii)해당 오브젝트에 대한 배송 임무를 할당받은 특정 로봇의 식별 정보, iii)해당 오브젝트가 보관된 보관함의 식별 정보가 더 포함될 수 있다.
나아가, 저장부(120)에는 오브젝트에 대한 일련 번호가 저장될 수 있으며, 이러한 일련 번호는 본 발명에 따른 배송 시스템(100)에 의하여 생성될 수 있다. 오브젝트에 대한 일련 번호는, 앞서 살펴본 사용자 DB에 추가적으로 저장될 수 있다. 한편, 일련 번호는 식별 정보 또는 시리얼 정보라고도 명명될 수 있으며, 숫자, 문자 및 도형 중 적어도 하나로 표현되는 정보를 포함할 수 있다.
다음으로 저장부(120)에는, 공간(10)에 대한 지도(map, 또는 지도 정보)가 저장될 수 있다. 여기에서, 지도는, 2차원 또는 3차원 지도 중 적어도 하나로 이루어 질 수 있다. 공간(10)에 대한 지도는 로봇(R) 또는 사용자의 현재 위치를 파악하거나, 로봇(R)의 주행 경로를 설정하거나, 로봇(R)이 주행하는데 활용될 수 있는 지도를 의미할 수 있다.
특히, 본 발명에 따른 배송 시스템(100)에서는, 로봇(R)에서 수신되는 영상을 기반으로 로봇(R)의 위치를 파악할 수 있다. 이를 위하여, 저장부(120)에 저장된 공간(10)에 대한 지도는 영상에 기반하여 위치를 추정할 수 있도록 하는 데이터로 구성될 수 있다.
*이때, 공간(10)에 대한 지도는 사전에 공간(10)을 이동하는 적어도 하나의 로봇에 의해, SLAM(Simultaneous Localization and Mapping)에 기반하여 작성된 지도일 수 있다.
한편, 위에서 열거한 정보의 종류 외에도 저장부(120)에는 다양한 정보가 저장될 수 있다.
다음으로 디스플레이부(130)는 로봇(R)을 원격으로 관리하는 사용자 또는 관리자의 디바이스에 구비된 것으로서, 도 3에 도시된 것과 같이, 관제실(100a)에 구비될 수 있다. 나아가, 디스플레이부(130)는 모바일 디바이스에 구비된 디스플레이일 수 있다. 이와 같이, 본 발명에서는 디스플레이부의 종류에 대해서는 제한을 두지 않는다.
나아가, 디스플레이부(130)는 도 2에 도시된 것과 같이, 집화된 오브젝트(503)를 접수하는 접수 장소에 배치될 수 있다. 접수 영역(502)에는 적어도 하나의 디스플레이부(130)가 배치될 수 있다.
다음으로, 입력부(140)는 사용자(또는 관리자)로부터 입력되는 정보의 입력을 위한 것으로서, 입력부(140)는 사용자(또는 관리자)와 배송 시스템(100) 사이의 매개체가 될 수 있다. 보다 구체적으로, 입력부(140)는 사용자로부터 로봇(R)을 원격으로 제어하기 위한 제어 명령을 수신하는 입력 수단을 의미할 수 있다. 이때의 사용자는 서비스를 수행 받는 대상이 되는 타겟 유저와 다른 의미일 수 있다.
입력부(140)의 종류에는 특별한 제한이 없으며, 입력부(140)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 마우스(mouse), 조이스틱(joy stic), 물리적인 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단 중 적어도 하나를 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다. 이때, 입력부(140)가 터치 스크린을 포함하는 경우, 디스플레이부(130)는 터치 스크린으로 이루어 질 수 있다. 이 경우, 디스플레이부(130)는 정보를 출력하는 역할과, 정보를 입력받는 역할을 모두 수행할 수 있다.
다음으로 스캔부(150)는 오브젝트, 보관함 및 로봇 중 적어도 하나에 대한 스캔을 수행하는 것으로서, 스캔되는 정보의 형식에 따라 스캔 방식이 상이할 수 있다.
보다 구체적으로, 스캔부(150)는 오브젝트에 부착된 운송장(또는 오브젝트에 기재된 발신인, 수신인 정보 등), 로봇에 구비된 식별 표지 및 보관함에 구비된 식별 표지 중 적어도 하나에 대한 스캔을 수행할 수 있다.
스캔부(150)는, 1차원, 2차원 또는 3차원 중 적어도 하나로 이루어진 문자, 마크, 패턴 등에 해당하는 정보를 스캔하도록 이루어질 수 있다. 이러한 정보는, QR코드 또는 바코드(barcode)를 포함할 수 있다.
나아가, 스캔부(150)는 RFID 태그 또는 NFC태그를 스캔하도록 이루어질 수 있다.
다음으로 제어부(160)는 본 발명과 관련된 배송 시스템(100)의 전반적인 동작을 제어하도록 이루어질 수 있다. 제어부(160)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
제어부(160)는, 로봇(R)에 임무를 할당하도록 이루어질 수 있다. 제어부(160)는 로봇(R)에 대한 임무 할당을 위하여, 통신부(110)를 이용하여, 로봇(R)으로, 임무와 관련된 제어 명령을 전송할 수 있다. 이러한 제어 명령은, 로봇(R)이 임무를 수행하도록 하는 제어를 포함할 수 있다.
제어부(160)는, 임무에 매칭된 특정 장소로 상기 로봇(R)이 이동하도록, 상기 로봇(R)의 주행과 관련된 제어를 수행할 수 있다. 제어부(160)는 로봇(R)에게, 임무에 해당하는 제어 명령을 전송함으로써, 로봇(R)이 상기 임무에 매칭된 특정 장소로 이동하도록 제어할 수 있다.
이때, 로봇(R)에 할당되는 임무에 대응되는 제어 명령은, 임무와 관련된 정보를 포함할 수 있다. 앞서 살펴본 것과 같이, 임무와 관련된 정보는, 임무의 종류, 임무에 따른 동작, 임무의 대상이 되는 타겟 유저 정보, 임무 수행 장소(또는, 임무에 매칭된 특정 장소) 및 임무 수행 예정 시간 중 적어도 하나와 관련된 정보를 포함할 수 있다.
본 발명에서 로봇(R)에 할당되는 임무는, 타겟 유저에게 오브젝트를 배송하는 배송 서비스에 해당할 수 있다.
나아가, 제어부(160)는 오브젝트가 타겟 유저에게 배송될 수 있도록, i)배송원으로부터 물건을 집화하는 프로세스, ii)집화된 물건을 수신할 특정 유저를 특정하는 프로세스 및 iii)로봇을 이용하여 특정 유저에게 물건을 배송하는 프로세스를 제어하도록 이루어질 수 있다.
한편, 본 발명에서 로봇(R)은, 제어부(160)로부터 임무에 해당하는 제어 명령을 수신하면, 할당된 임무를 수행하기 위하여, 임무에 매칭된 장소로 이동할 수 있다. 로봇(R)의 제어부는, 배송 시스템(100)으로부터 수신한 임무와 관련된 정보에 근거하여, 임무 수행 장소로 이동할 수 있다.
한편, 로봇(R)은 도 3에 도시된 것과 같이, 오브젝트가 수용되는 수용함(Ra)를 구비할 수 있다. 수용함(Ra)은 3차원 공간을 가지도록 형성될 수 있다. 로봇(R)은 수용함(Ra)에 수용된 오브젝트를 타겟 유저에게 배송하는 서비스를 제공할 수 있다.
나아가, 제어부(160)는 공간(10)에 배치된 로봇(R)을 제어하기 위한 다양한 제어를 수행할 수 있다. 이를 위하여, 제어부(160)는 공간(10)에 배치된 로봇(R)을 다양한 방법으로 인식함으로써, 로봇(R)의 현재 위치를 파악하거나, 로봇의 동작을 제어할 수 있다. 나아가, 제어부(160)는 공간(10)에 배치된 로봇(R)을 다양한 방법으로 인식함으로써, 로봇에 할당된 임무를 관리할 수 있다.
한편, 로봇(R)의 식별 정보는 도 4에 도시된 것과 같이, 로봇(R)에 구비된 식별 표지(또는 식별 마크)에 포함될 수 있다. 이러한 식별 표지는 앞서 살펴본 것과 같이, 배송 시스템(100)의 스캔부(150)에 의하여 스캔될 수 있다. 도 3의 (a), (b) 및 (c)에 도시된 것과 같이, 로봇(R)의 식별 표지(401. 402. 403)는 로봇의 식별 정보를 포함할 수 있다. 도시와 같이, 식별 표지(401. 402. 403)는 바코드 (barcode, 401), 일련 정보(또는 시리얼 정보, 402), QR코드(403), RFID태그(미도시됨) 또는 NFC 태그(미도시됨) 등으로 나타내어 질 수 있다. 바코드 (barcode, 401), 일련 정보(또는 시리얼 정보, 402), QR코드(403), RFID태그(미도시됨) 또는 NFC 태그(미도시됨) 등은 식별 표지가 구비된(또는 부착된) 로봇의 식별 정보를 포함하도록 이루어질 수 있다.
로봇의 식별 정보는, 로봇 각각을 구분하기 위한 정보로서, 동일한 종류의 로봇이더라도, 서로 다른 식별 정보를 가질 수 있다. 한편, 식별 표지를 구성하는 정보는, 위에서 살펴본 바코드, 일련 정보, QR코드, RFID태그(미도시됨) 또는 NFC 태그(미도시됨) 외에도 다양하게 구성될 수 있다.
제어부(160)는 카메라(20)로부터 수신되는 영상 또는 스캔부(150)로부터 위에서 살펴본 식별 표지가 식별(또는 스캔)되는 것에 근거하여, 로봇(R)의 식별 정보 추출하여, 오브젝트에 대한 배송을 수행할 로봇을 특정할 수 있다.
나아가, 제어부(160)는 카메라(20)로부터 수신되는 영상 또는 스캔부(150)로부터 위에서 살펴본 식별 표지가 식별(또는 스캔)되는 것에 근거하여, 로봇(R)의 식별 정보 추출하여, 공간(10)에서의 특정된 로봇(R)의 위치를 파악할 수 있다.
한편, 본 발명에서 카메라(20)에 촬영된 로봇(R)을 특정하는 방법은 다양할 수 있다. 위에서 살펴본 것과 같이, 제어부(160)는 영상으로부터 로봇(R)의 식별 정보를 추출하여, 로봇(R)을 특정하는 것이 가능하다. 이 외에도, 제어부(160)는 영상이 촬영된 시간 및 영상을 촬영한 카메라(20)에 매칭된 위치 정보 중 적어도 하나를 이용하여, 카메라(20)에 촬영된 로봇(R)의 현재 위치를 특정할 수 있다.
한편, 로봇(R)에서 위치를 추정하는 위에서 살펴본 공간(10)에 구비된 카메라를 이용하는 방법 외에도 다양할 수 있다. 예를 들어, 도 5에 도시된 것과 같이, 배송 시스템(100) 또는 로봇(R)의 제어부는 로봇(100)에 구비된 카메라(미도시됨)를 이용하여 공간(10)에 대한 영상을 수신하고, 수신된 영상으로부터 로봇의 위치를 추정하는 Visual Localization수행하도록 이루어진다. 이때, 로봇(100)에 구비된 카메라는 공간(10)에 대한 영상, 즉, 로봇(100) 주변에 대한 영상을 촬영(또는 센싱)하도록 이루어진다. 이하에서는, 설명의 편의를 위하여,
배송 시스템(100) 또는 로봇(R)의 제어부는 도 5의 (a)에 도시된 것과 같이, 로봇(R)에 구비된 카메라를 통하여 영상을 획득하도록 이루어진다. 그리고, 배송 시스템(100) 또는 로봇(R)의 제어부는 획득된 영상을 이용하여, 로봇(R)의 현재 위치를 추정할 수 있다.
배송 시스템(100) 또는 로봇(R)의 제어부는 로봇(R)에서 획득된 영상과 저장부(120)에 저장된 지도 정보를 비교하여, 도 5의 (b)에 도시된 것과 같이, 로봇(R)의 현재 위치에 대응하는 위치 정보(예를 들어, “3층 A구역 (3, 1, 1)”를 추출할 수 있다.
앞서 살펴본 것과 같이, 본 발명에서 공간(10)에 대한 지도는 사전에 공간(10)을 이동하는 적어도 하나의 로봇에 의해, SLAM(Simultaneous Localization and Mapping)에 기반하여 작성된 지도일 수 있다. 특히, 공간(10)에 대한 지도는, 영상 정보를 기반으로 생성된 지도일 수 있다.
즉, 공간(10)에 대한 지도는 vision(또는 visual)기반의 SLAM기술에 의하여 생성된 지도일 수 있다.
따라서, 배송 시스템(100) 또는 로봇(R)의 제어부는 로봇(R)에서 획득된 영상에 대해 도 5의 (b)에 도시된 것과 같이 좌표 정보(예를 들어, 3층, A구역(3, 1,1,))를 특정할 수 있다. 이와 같이, 특정된 좌표 정보는 곧, 로봇(R)의 현재 위치 정보가 될 수 있다.
이때, 배송 시스템(100) 또는 로봇(R)의 제어부는, 로봇(R)에서 획득된 영상과 vision(또는 visual)기반의 SLAM 기술에 의하여 생성된 지도를 비교함으로써, 로봇(R)의 위치(또는 현재 위치)를 추정할 수 있다. 이 경우, 배송 시스템(100) 또는 로봇(R)의 제어부는 i)로봇(R)에서 획득된 영상과 기 생성된 지도를 구성하는 이미지들 간의 이미지 비교를 이용하여, 로봇(R)에서 획득된 영상과 가장 비슷한 이미지를 특정하고, ii)특정된 이미지에 매칭된 위치 정보를 획득하는 방식으로 로봇(R)의 위치 정보를 특정할 수 있다.
이와 같이, 배송 시스템(100) 또는 로봇(R)의 제어부는 도 5의 (a)에 도시된 것과 같이, 로봇(R)에서 영상이 획득되면, 획득된 영상을 이용하여, 로봇의 위치(또는 현재 위치)를 특정할 수 있다. 앞서 살펴본 것과 같이, 배송 시스템(100) 또는 로봇(R)의 제어부(160)는 저장부(120)에 기 저장된 지도 정보(예를 들어, “참조 맵”으로도 명명 가능)로부터, 상기 로봇(R)에서 획득된 영상에 대응되는 위치 정보(예를 들어, 좌표 정보)를 추출할 수 있다.
한편, 도 3에 도시된, 영상 관제 시스템(2000)은, 공간(10) 내 배치된 적어도 하나의 카메라(20)를 제어하도록 이루어 질 수 있다. 도시와 같이, 공간(10)에는 복수의 카메라(20a, 20b, 20c, 20d, …)가 배치될 수 있다. 이러한 복수의 카메라(20a, 20b, 20c, 20d, …)는 공간(10) 내에서 각각 서로 다른 위치에 배치될 수 있다.
이와 같이, 공간(10)의 서로 다른 위치에는 복수의 카메라(20a, 20b, 20c, 20d, …)가 배치되어 있으므로, 배송 시스템(100)에서는 이러한 복수의 카메라(20a, 20b, 20c, 20d, …)를 이용하여, 로봇(R)의 동작을 모니터링하거나, 타겟 유저의 위치를 파악하는 것이 가능하다.
영상 관제 시스템(2000)은 배송 시스템(100)과의 상호 통신을 통하여, 로봇(R)의 임무 수행에 필요한 정보를 배송 시스템(100)에 제공할 수 있다. 앞서 저장부(120)의 구성에서 살펴본 것과 같이, 영상 관제 시스템(2000)의 저장부에는, 카메라(20)에 대한 다양한 정보를 저장하도록 이루어질 수 있다. 카메라(20)에 대한 정보는 매우 다양할 수 있으며, 카메라(20)에 대한 정보는, i) 각각의 카메라(20a, 20b, 20c, 20d…)의 식별 정보(예를 들어, 일련번호, TAG 정보, QR코드 정보 등), ii) 각각의 카메라(20a, 20b, 20c, 20d…)의 배치 위치 정보(예를 들어, 공간 내에서 각각의 카메라(20a, 20b, 20c, 20d…)가 어느 위치에 배치되었는지에 대한 정보), iii) 각각의 카메라(20a, 20b, 20c, 20d…)의 화각 정보(anle of view, 예를 들어, 각각의 카메라(20a, 20b, 20c, 20d…) 가 공간의 어느 뷰를 촬영하고 있는지에 대한 정보), iv) 각각의 카메라(20a, 20b, 20c, 20d…)의 화각에 대응되는 영역(또는 공간(또는 특정 공간))에 대한 위치 정보, v) 각각의 카메라(20a, 20b, 20c, 20d…)의 상태 정보(예를 들어, 전원 상태, 고장 유무, 배터리 상태 등), vi) 각각의 카메라(20a, 20b, 20c, 20d…)로부터 수신된 영상 정보 등이 존재할 수 있다.
한편, 위에서 열거된 카메라(20)에 대한 정보는 각각의 카메라(20a, 20b, 20c, 20d…)를 기준으로 서로 매칭되어 존재할 수 있다.
예를 들어, 영상 관제 시스템(2000)의 저장부에는, 특정 카메라(20a)의 식별정보, 위치 정보, 화각 정보, 위치 정보, 상태 정보, 및 영상 정보 중 적어도 하나가 매칭되어 매칭 정보로서 존재할 수 있다.
한편, 이하의 설명에서는 위에서 살펴본 카메라의 정보가, 어느 저장부(또는 저장소)에 저장되어 있는지에 대한 구분 없이, 설명의 편의를 위하여, 저장부(120)의 구성에 저장되었음을 예를 들어 설명하도록 한다. 즉, 카메라에 대한 정보는 상황에 따라, 다양한 저장부에 저장될 수 있으므로, 본 발명에서는 이에 대한 특별한 제한을 두지 않는다.
한편, 위의 설명에 의하면, 본 발명에서, 영상 관제 시스템(2000)과 배송 시스템(100)을 별개의 구성으로 설명하였다. 그러나, 본 발명은 이에 제한되지 않으며, 영상 관제 시스템(2000)과 배송 시스템(100)은 하나의 통합된 시스템으로 이루어질 수 있다. 이 경우, 영상 관제 시스템(2000)은 “카메라부”의 구성으로 명명되는 것 또한 가능하다.
이하에서는, 위에서 살펴본 구성을 참조하여, 본 발명에 따른 로봇을 이용한 배송 방법에 대하여 첨부된 도면과 함께 보다 구체적으로 살펴본다. 도 6은 본 발명에 따른 로봇을 이용한 물건 배송 방법을 설명하기 위한 흐름도이고, 도 7, 도 8, 도 9a 및 도 9b, 도 10a, 도 10b, 도 10c, 도 10d, 도 11, 도 12a 및 도 12b는 본 발명에 따른 로봇을 이용한 물건 배송 방법을 설명하기 위한 개념도들이다.
먼저 본 발명에서는 스캔부에 의해 오브젝트가 스캔되는 것에 근거하여, 오브젝트에 대한 운송장 정보를 획득하는 과정이 진행될 수 있다(S610).
앞서, 도 2에서 살펴본 것과 같이, 오브젝트가 집화되는 접수 영역(502, 도 2 참조)에는 스캔부(150)가 구비될 수 있다. 스캔부(150)는, 오브젝트(503)에 구비된 오브젝트의 운송장 정보를 획득하도록 이루어 질 수 있다.
본 명세서에서는, 설명의 편의를 위하여, “운송장 정보”의 용어를 통일하여 사용하나, “운송장 정보”의 용어는 다른 용어로 대체되는 것이 가능하다.
스캔부(150)에 의해 획득되는 운송장 정보는, “오브젝트에 대한 정보”라고도 표현될 수 있다.
운송장 정보는, 오브젝트의 배송의 대상이 되는 타겟 유저(수신인)에 대한 정보를 포함하는 정보로서, 수신인에 대한 정보 외에, 우편물 정보, 운송장 번호, 배송사 정보, 발신인 정보 및 오브젝트에 대한 설명 정보(예를 들어, 오브젝트의 종류(운동화, 옷 등)) 중 적어도 하나를 더 포함할 수 있다.
본 발명에서는, 오브젝트(503)가 집화되는 경우, 접수 영역(502)에서, 집화된 오브젝트를 접수하는 작업이 이루어질 수 있다. 오브젝트에 대한 접수는, 스캔부(150)를 이용하여, 오브젝트에 구비된 운송장 정보를 획득하고, 오브젝트의 타겟 유저를 특정하는 작업을 포함할 수 있다.
한편, 스캔부(150)는 다양한 형태 및 다양한 장소에 배치되어, 오브젝트에 대한 스캔을 수행할 수 있다.
*예를 들어, 도 7의 (a)에 도시된 것과 같이, 스캔부(150)는 작업자(예를 들어, 오브젝트에 대한 접수를 수행하는 사람, 또는 로봇(또는 작업 로봇))에 의하여 이동이 가능한 형태로 이루어질 수 있다. 예를 들어, 도 7의 (a)에 도시된 것과 같이, 스캔부(150)는 핸디형으로 이루어질 수 있으며, 이 경우, 작업자는 스캔부(150)를 손에 쥐고 오브젝트(710)에 스캔부(150)를 접근시킬 수 있다. 따라서, 스캔부(150)는 오브젝트(710)에 구비된 운송장(711)에 대한 스캔을 통해, 운송장 정보를 획득할 수 있다.
또 다른 예를 들어, 도 7의 (b)에 도시된 것과 같이, 스캔부(150)는 접수 영역(502)의 작업대(예를 들어, 책상, 테이블 등, 720)에 구비될 수 있다. 이 경우, 스캔부(150)는 작업대(750)에 고정된 형태로 설치될 수 있다. 작업자는 오브젝트(710)를 스캔부(150)에 접근시키는 동작을 취할 수 있으며, 스캔부(150)는 스캔부 주변에 위치한 오브젝트(710)에 대한 스캔을 수행할 수 있다.
한편, 작업대(750)는 가이드 영역(721)을 포함할 수 있다. 여기에서, 가이드 영역(710)은 2차원 또는 3차원 공간에 대한 가이드 정보를 포함할 수 있다.
가이드 영역(710)은 로봇(R)에 구비된 수용함(Ra, 도 3 참조)의 크기와 같거나 작은 크기를 가질 수 있다. 작업자는 오브젝트를 가이드 영역(710)에 위치시킨 뒤, 가이드 영역보다 작은 크기의 오브젝트를 로봇(R)을 통해 배송할 오브젝트로 선별할 수 있다.
한편, 비록 도시되지는 않았지만, 스캔부(150)는 가이드 영역(710)의 적어도 일 영역에 배치될 수 있다. 따라서, 본 발명에서는 작업자가 로봇(Ra)에 수용가능한 오브젝트를 선별하기 위하여 가이드 영역(710)에 오브젝트를 위치시키는 것만으로도, 스캔부(150)를 통하여, 오브젝트에 구비된 운송장의 정보가 스캔될 수 있다.
또 다른 예로서, 도 7의 (c)에 도시된 것과 같이, 스캔부(150)는 보관함(740)의 적어도 일 영역에 배치될 수 있다. 이 경우, 작업자가 보관함(740)에 오브젝트를 보관하고자, 보관함에 오브젝트를 이동하는 하나의 동작을 통하여, 스캔부(150)에서 오브젝트에 구비된 운송장의 정보가 스캔될 수 있다.
한편, 이 경우, 저장부(120)에는 보관함(740)에 구비된 스캐너(150)의 식별 정보와 보관함(740)의 식별정보가 존재할 수 있으며, 이러한 정보들은 서로 매칭되어 존재할 수 있다. 따라서, 제어부(160)는 보관함(740)에 구비된 스캐너(150)를 통해 오브젝트가 스캔되는 경우, 오브젝트가 보관된 관함의 식별 정보 및 오브젝트의 운송장 정보를 모두 획득할 수 있다.
즉, 이 경우, 제어부(160)는 스캐너(150)로부터 운송장 정보가 수신되는 경우, 수신된 정보로부터, 운송장 정보를 스캔한 스캐너(150)의 식별 정보를 추출할 수 있다. 그리고, 제어부(160)는 저장부(120)로부터, 스캐너(150)의 식별 정보와 매칭된 보관함(740)의 식별 정보를 추출할 수 있다. 그리고, 제어부(160)는 추출된 식별 정보에 대응되는 보관함(740)을 상기 오브젝트가 보관된 보관함이라고 특정할 수 있다.
이와 같이, 오브젝트가 스캔되는 것에 근거하여, 운송장 정보가 획득되면, 다음으로, 본 발명에서는 운송장 정보에 매칭되는 타겟 유저를 특정하고, 특정된 타겟 유저에 대응되는 타겟 정보를 추출하는 과정이 진행될 수 있다(S620).
앞서 살펴본 것과 같이, 저장부(120)에는 사용자와 관련된 정보가 저장된 사용자 DB가 존재할 수 있다.
사용자와 관련된 정보는, 사용자의 이름, 생년월일, 주소, 전화번호, 사번, ID, 얼굴 이미지, 생체 정보(지문 정보, 홍채 정보 등), 사용자의 위치 정보(예를 들어, 공간(10) 내에서의 사용자의 생활 장소(예를 들어, 근무 장소(또는 근무 구역), 주거 장소 등)), 사용자가 소지한 전자기기의 식별 정보, 사용자의 이메일 주소, 사용자의 일정(스케줄)과 관련된 정보 중 적어도 하나를 포함할 수 있다.
제어부(160)는 운송장 정보와 사용자 DB를 비교함으로써, 운송장 정보에 대응되는 타겟 유저를 특정할 수 있다. 제어부(160)는 타겟 유저가 특정되는 경우, 앞서 살펴본 사용자 DB로부터 타겟 유저의 타겟 정보를 추출할 수 있다.
타겟 정보는, 오브젝트를 배송하는 로봇(R)이 접근 가능한 공간 내에서의 상기 타겟 유저의 위치 정보를 포함할 수 있다. 나아가, 타겟 정보는, 타겟 유저의 이름, 전화번호, 타겟 유저가 소지한 전자기기의 식별 정보(전화 번호), 이메일 주소, 생체 정보, 일정(스케줄) 정보, 얼굴 이미지, 사번 및 ID 중 적어도 하나를 더 포함할 수 있다.
예를 들어, 도 8에 도시된 것과 같이, 제어부(160)는 사용자 DB로부터, 운송장 정보(송장번호: 380678608965)에 대응되는 타겟 유저(수신인: 김준완)를 특정하고, 타겟 유저의 타겟 정보(예를 들어, 부서: ME Hardware)를 추출할 수 있다.
한편, 제어부(160)는 도 8에 도시된 것과 같이, 운송장 정보(송장번호: 380678608965, 발신처: 케어광학), 타겟 유저의 타겟 정보(수신인: 김준완, 부서: ME Hardware), 오브젝트를 보관한 보관함의 식별 정보(예를 들어, 03) 및 해당 오브젝트에 대한 배송 임무를 할당받은 특정 로봇(R)의 식별 정보 중 적어도 하나를 매칭하여 저장할 수 있다.
도시와 같이, 오브젝트 배송과 관련된 사용자 DB가 별도로 존재하는 것 또한 가능하다. 제어부(160)는 오브젝트로부터 운송장 정보가 획득되고, 획득된 운송장 정보에 대응되는 타겟 유저가 특정되면, 타겟 유저의 타겟 정보에 오브젝트의 배송과 관련된 정보를 업데이트할 수 있다. 여기에서, 업데이트는, 타겟 유저를 기준으로, 오브젝트의 배송과 관련된 정보를 매칭하여 저장하는 것을 의미할 수 있다.
이러한 업데이트는 오브젝트의 배송 상태에 따라 순차적으로 이루어질 수 있다.
먼저, 제어부(160)는 특정 오브젝트의 운송장 정보로부터, 타겟 유저가 특정되면, 사용자 DB에 포함된 타겟 정보를 업데이트 할 수 있다.
제어부(160)는 타겟 유저의 타겟 정보에, 운송장 정보가 포함되도록, 타겟 정보를 업데이트 할 수 있다.
그리고, 제어부(160)는 상기 특정 오브젝트가 보관함에 보관되고, 상기 보관함의 식별정보가 수신되면, 상기 타겟 유저의 타겟 정보에 상기 보관함의 식별정보가 포함되도록 사용자 DB(보다 구체적으로, 사용자 DB에 포함된 타겟 정보)를 업데이트할 수 있다.
여기에서, 보관함의 식별정보는, 앞서 살펴본 스캔부(150)에 의해 보관함에 구비된 식별 표지가 스캔되는 것을 통하여 수신되거나, 또는 입력부(130)를 통한 작업자의 입력에 의해 수신될 수 있다.
나아가, 제어부(160)는 상기 특정 오브젝트를 배송하는 로봇(R)이 특정된 경우, 특정된 로봇(R)의 식별 정보를 상기 타겟 유저의 타겟 정보에 업데이트할 수 있다.
즉, 제어부(160는 타겟 유저의 타겟 정보에 상기 특정된 로봇(R)의 식별 정보가 포함되도록, 사용자 DB(보다 구체적으로, 사용자 DB에 포함된 타겟 정보)를 업데이트할 수 있다.
따라서, 사용자 DB에는 도 8에 도시된 것과 같이, 타겟 유저의 타겟 정보에, i)오브젝트에 대한 정보(예를 들어, 운송장 정보), iii)해당 오브젝트가 보관된 보관함의 식별 정보 및 iii)해당 오브젝트에 대한 배송 임무를 할당받은 특정 로봇(R)의 식별 정보가 매칭되어 저장될 수 있다.
한편, 본 발명에서는, 운송장 정보 및 타겟 정보를 이용하여, 오브젝트에 부착될 식별 표지에 포함되는 식별 정보를 생성하는 과정이 진행될 수 있다(S630). 도 9a 및 도 9b에 도시된 것과 같이, 식별 정보(920)는 운송장 정보 및 타겟 정보 중 적어도 하나를 포함하도록 이루어질 수 있다. 이때, 식별 정보에는 운송장 정보의 적어도 일부가 포함될 수 있다.
제어부(160)는 운송장 정보, 타겟 정보 및 보관함 정보 중 적어도 하나를 이용하여, 식별 정보를 생성할 수 있다.
한편, 도 9a의 (a)에 도시된 것과 같이, 본 발명에 따른 시스템(100)은 식별 정보를 포함한 식별 표지(920)를 출력할 수 있다. 이러한 식별 표지(920)는 스티커 형식으로 이루어져, 도 9a의 (b)에 도시된 것과 같이, 오브젝트(930)에 부착될 수 있다. 제어부(160)는 작업자에 의해, 식별 표지(920)에 대한 출력 요청이 수신된 경우, 출력부(910)를 제어하여, 식별 정보를 포함한 식별 표지(920)를 출력할 수 있다. 도 8에 도시된 것과 같이, 작업자의 디스플레이부(130)에는, 식별 표지를 출력하기 위한 기능 아이콘(예를 들어, “인쇄”아이콘)이 출력될 수 있다. 사용자의 요청은, 작업자에 의해 상기 기능 아이콘이 선택되는 것에 근거하여 수신될 수 있다.
제어부(160)는 도시와 같이, 선택된 아이콘(131)에 대응되는 타겟 유저(예를 들어, 이름: 채송화)의 식별 표지를 출력할 수 있다.
한편, 식별 정보는, 오브젝트를 배송하는 로봇(R)에 구비된 스캔부에서 식별이 가능한 코드(CODE) 정보를 포함할 수 있다. 여기에서 코드 정보는, 바코드, 일련 정보(또는 시리얼 정보), QR코드, RFID 태그(tag) 또는 NFC 태그 중 적어도 하나의 형식으로 이루어질 수 있다.
한편, 식별 정보에 포함된 상기 코드 정보는, 오브젝트에 대한 운송장 정보, 오브젝트에 대한 타겟 유저의 이름 정보 및 상기 타겟 유저의 위치 정보 중 적어도 하나를 포함할 수 있다. 나아가, 식별 정보는 오브젝트의 일련 번호를 포함할 수 있다. 여기에서, 오브젝트의 일련번호는 오브젝트를 직관적으로 식별하기 위하여, 제어부(160)에 의하여 부여되는 번호일 수 있다.
도 9b에 도시된 것과 같이, 식별 표지(920)는 코드 정보(921) 및 타겟 유저의 타겟 정보(예를 들어, 이름: 채송화) 중 적어도 하나를 포함할 수 있다. 나아가, 식별 표지(920)는 오브젝트에 대한 일련 번호(예를 들어, 90)를 더 포함할 수 있다.
한편, 도 9a의 (a)에 도시된 것과 같이, 출력부(910)에 의해 식별 표지(920)가 출력되면, 도 9a의 (b)에 도시된 것과 같이, 식별 표지(920)는 작업자에 의해, 오브젝트(930)에 부착될 수 있다. 나아가, 식별 표지(920)가 부착된 오브젝트(930)는 도 9a의 (c)에 도시된 것과 같이, 보관함(940)에 보관될 수 있다.
오브젝트(930)는 오브젝트에 대한 배송 이벤트가 시작되기 전까지는 보관함(940)에 보관될 수 있다. 앞서 살펴본 것과 같이, 오브젝트(930)가 보관된 보관함은, 타겟 유저의 타겟 정보에 매칭된 보관함일 수 있다.
한편, 위에서 살펴본 것과 같이, 타겟 유저에 대하여 배송 대상 오브젝트가 존재하는 경우, 제어부(160)는 타겟 유저의 전자기기 또는 타겟 유저의 계정에 대응되는 사서함(예를 들어, 이메일 사서함, 메신저 사서함 등)로, 오브젝트에 대한 배송 이벤트가 존재함을 알리는 알림 정보를 전송할 수 있다.
도 10c의 (a) 또는 도 10d의 (a)에 도시된 것과 같이, 타겟 유저의 전자기기 (또는, 타겟 유저의 계정이 로그인된 전자기기(이하, ‘타겟 유저의 전자기기’로 통일하여 명명함, 1060)에는, 배송 대상 오브젝트가 존재함을 알리는 알림 정보(1060)가 출력될 수 있다. 이를 통하여, 타겟 유저는 오브젝트의 존재를 인식할 수 있다.
제어부(160)는, 사용자 DB에 오브젝트에 대한 운송장 정보, 보관함 정보 등이 업데이트 되는 경우, 이에 근거하여, 상기 사용자 DB에 등록된 상기 타겟 유저의 전자기기로, 상기 오브젝트에 대한 배송 이벤트가 존재함을 알리는 알림 정보를 전송할 수 있다.
한편, 제어부(160)는 배송 이벤트가 존재함을 알리는 알림 정보의 전송 시점을 다양하게 제어할 수 있다.
일 예로서, 제어부(160)는 타겟 유저의 히스토리 정보에 근거하여, 타겟 유저에게 알림 정보를 전송할 전송 시점을 결정할 수 있다. 히스토리 정보는, 타겟 유저에 의해 과거 요청된 배송 시간(또는 배송 예약 시간)에 대한 정보를 포함할 수 있다. 제어부(160)는 타겟 유저가 자주 요청한 배송 시간을 고려하여, 알림 정보가 전송될 시점(또는 시간)을 결정할 수 있다.
나아가, 상기 히스토리 정보는, 타겟 유저에 의해 과거 배송 예약이 요청된 시간(예를 들어, 오후 3시)에 대한 정보를 포함할 수 있다. 제어부(160)는 타겟 유저가 자주 배송 예약을 요청한 시간을 고려하여, 알림 정보가 전송될 시점(또는 시간)을 결정할 수 있다.
다른 예로서, 제어부(160)는 접수된 오브젝트가 복수개인 경우, 복수의 오브젝트에 대응되는 복수의 타겟 유저를 복수의 그룹으로 구분하고, 그룹 단위로 서로 다른 시간에 알림 정보를 전송할 수 있다. 이는 배송 업무의 혼잡도를 줄이기 위함이다.
다음으로, 본 발명에서는 타겟 유저에게 오브젝트가 배송되도록 로봇을 제어하는 과정이 진행될 수 있다(S640).
본 발명에서는, 오브젝트에 대한 배송 요청에 근거하여, 타겟 유저에게 오브젝트를 배송하기 위한 일련의 과정이 진행될 수 있다.
여기에서, 배송 요청은, 타겟 유저, 작업자 또는 제어부로부터 배송 요청 정보가 수신되는 것에 근거하여 의하여 이루어질 수 있다.
*타겟 유저로부터의 배송 요청은, 타겟 유저가 소지한 전자기기 또는 타겟 유저의 계정(예를 들어, 이메일 계정 등)으로부터 수신될 수 있다.
도 10c의 (a)에 도시된 것과 같이, 수신된 배송 요청에는 배송 요청 시간에 대한 정보를 포함할 수 있다. 여기에서, 배송 요청 시간은, “예약 시간” 또는 “배송 이벤트와 관련된 예약 시간”이라고도 표현될 수 있다.
여기에서, 배송 요청 시간은, 타겟 유저가 오브젝트를 배송받기를 원하는 시간을 의미할 수 있다. 도 10c의 (b)에 도시된 것과 같이, 배송 요청 시간(예를 들어, 11시 00분)은, 타겟 유저의 전자기기(1060)에서 선택 또는 입력될 수 있다.
제어부(160)는 배송 요청이 수신되는 것에 근거하여, 로봇(R)에 의해 오브젝트가 타겟 유저에게 배송되도록, 로봇(R)에 대해 오브젝트의 배송과 관련된 임무를 할당할 수 있다. 나아가, 제어부(160)는 수신한 배송 요청에 포함된 배송 요청 시간(또는 예약 시간)에 오브젝트에 대한 배송이 이루어지도록 로봇(R)을 제어할 수 있다.
즉, 제어부(160)는, 타겟 유저의 전자기기로부터, 타겟 유저에 대한 배송 이벤트와 관련된 예약 시간을 포함하는 배송 요청 정보를 수신하는 것에 근거하여, 상기 예약 시간에 상기 타겟 유저에게 상기 오브젝트가 배송되도록 로봇(R)을 제어할 수 있다. 제어부(160)는 상기 배송 요청 시간을 근거로, 로봇(R)이 임무를 수행할 시간을 제어할 수 있다.
배송 요청이 수신된 경우, 제어부(160)는 배송 요청에 대응되는 오브젝트의 정보를 추출할 수 있다. 이때, 오브젝트의 정보는, 도 10a에 도시된 것과 같이, 배송 요청에 대응되는 오브젝트가 보관된 보관함의 식별 정보(또는 보관 장소에 대한 정보, 예를 들어, 보관함 1) 및 오브젝트의 일련 번호(예를 들어, 35번) 중 적어도 하나를 포함할 수 있다. 도 10a의 (a)에 도시된 것과 같이, 오브젝트의 정보는 디스플레이부(130)에 출력될 수 있다. 제어부(160)는 배송 요청이 수신되는 것에 근거하여, 오브젝트의 정보를 디스플레이부(130)에 출력할 수 있다. 따라서, 작업자는 디스플레이부(130)에 출력된 오브젝트의 정보를 확인하고, 도 10a의 (b) 및 (c)에 도시된 것과 같이, 배송 요청된 오브젝트가 보관된 보관함(1001)의 정보 및 배송 대상 오브젝트(1010)를 용이하게 식별할 수 있다.
한편, 본 발명에 따른 배송 시스템(100)은 도 2에서 살펴본 배송 시스템(100)에 의해 제어되는 특정 장소(예를 들어, 배송 작업 장소)와 타겟 유저 사이의 거리 정보에 근거하여, 오브젝트의 배송을 위하여 로봇(R)에 의하여 배송이 시작될 시점에 대한 정보를 결정할 수 있다.
제어부(160)는, 상기 특정 장소와 타겟 유저가 위치한 장소 사이의 거리 정보에 기반하여, 로봇(R)이, 상기 특정 장소로부터 상기 타겟 유저가 위치한 장소까지 이동하는데 소요되는 이동 시간을 산출할 수 있다.
이때, 타겟 유저가 위치한 장소는, 사용자 DB로부터 추출할 수 있다. 여기에서, 타겟 유저가 위치한 장소는, 오브젝트가 배송되는 배송 장소로서, 위에서 살펴본 것과 같이, 사용자 DB로부터 추출되는 것 뿐만 아니라, 타겟 유저에 의해 요청된 장소일 수 있다. 그리고, 제어부(160)는, 상기 산출된 이동 시간을 포함한 기 설정된 시간 전에, 상기 배송 요청이 수신된 오브젝트의 정보를 디스플레이부(130)에 출력시킬 수 있다. 즉, 제어부(160)는, 로봇(R)이, 예약 시간보다 너무 빨리 또는 너무 늦게 오브젝트를 배송하는 것을 방지하기 위하여, 적절한 시간에 로봇(R)에 오브젝트가 적재되는 작업이 수행되도록 할 수 있다.
예를 들어, 상기 산출된 이동 시간이 10분인 경우, 상기 기 설정된 시간은, 상기 산출된 이동 시간(예를 들어, 10분) 및 작업자가 로봇(R)에 오브젝트를 적재하는 최소 작업 시간(예를 들어, 10분)을 포함하는 시간일 수 있다. 따라서, 이 경우, 디스플레이부(130)에는 상기 예약 시간으로부터 20분 전에, 상기 배송 요청이 수신된 오브젝트의 정보가 출력될 수 있다. 작업자는, 디스플레이부(130)에 출력된 오브젝트의 정보를 확인하여, 오브젝트를 로봇(R)에 적재할 수 있다.
한편, 도 10b의 (a)에 도시된 것과 같이, 배송 요청된 오브젝트(1010)는 작업자(1000)에 의하여 특정 로봇(R)의 수용함(1050)에 수용될 수 있다. 작업자는, 배송 요청된 오브젝트(1010)가 타겟 유저에게 배송되도록 오브젝트를 특정 로봇(R)의 수용함(1050)에 적재할 수 있다.
이때, 제어부(160)는 도 10b의 (b)에 도시된 것과 같이, 스캔부(150)를 통하여, 특정 로봇(R)에 적재되는 배송 요청된 오브젝트(1010)에 부착된 식별 표지(1020)를 스캔할 수 있다. 이때의 식별 표지(1020)는, 앞서 도 9a에서 살펴본 출력부(910)를 통해 출력된 식별 표지(1010)일 수 있다. 나아가, 스캔부(150)는 도 10b의 (c)에 도시된 것과 같이, 특정 로봇(R)의 식별 정보(1030)를 스캔할 수 있다. 제어부(160)는 스캔부(150)에 의하여, 배송 요청된 오브젝트(1010)에 부착된 식별 표지(1020) 및 특정 로봇(R)의 식별 정보(1030)가 스캔되는 것에 근거하여, 배송 요청된 오브젝트(1010)를 수신할 타겟 유저의 타겟 정보 및 배송 요청된 오브젝트(1010)에 대한 배송 임무를 수행할 특정 로봇(R)의 식별 정보를 추출할 수 있다.
한편, 제어부(160)는 스캔부(150)에 의하여, 배송 요청된 오브젝트(1010)에 부착된 식별 표지(1020) 및 특정 로봇(R)의 식별 정보(1030)가 순차적으로 스캔되는 것에 근거하여(순서는 무관함), 배송 요청된 오브젝트(1010)를 배송할 로봇(R)이 특정되었다고 판단할 수 있다. 그리고, 제어부(160)는, 특정된 로봇(R)의 식별 정보를 상기 타겟 유저의 타겟 정보에 업데이트할 수 있다.
즉, 제어부(160)는 타겟 유저의 타겟 정보에 상기 특정된 로봇(R)의 식별 정보가 포함되도록, 사용자 DB(보다 구체적으로, 사용자 DB에 포함된 타겟 정보)를 업데이트할 수 있다. 이 경우, 앞서 도 8과 살펴본 사용자 DB에는 로봇의 식별정보가 추가적으로 포함될 수 있다. 나아가, 제어부(160)는 오브젝트를 배송할 로봇이 특정된 경우, “해당 오브젝트가 로봇(R)에 적재되었다”는 이벤트를 생성할 수 있다.
한편, “로봇(R)에 오브젝트가 적재되었다는 이벤트”는 배송 시작 이벤트로도 표현될 수 있다.
제어부(160)는, 로봇(R)에 구비된 스캔부에서 배송 요청된 오브젝트(1010)에 부착된 식별 표지(1020)가 스캔되는 경우, 배송 시작 이벤트를 생성할 수 있다.
이러한, 배송 시작 이벤트가 발생되었다는 정보는, 배송 요청된 오브젝트에 대한 타겟 유저의 타겟 정보를 포함한 사용자 DB에 업데이트될 수 있다.
즉, 사용자 DB에 포함된 상기 타겟 유저의 타겟 정보에는 상기 배송 시작 이벤트에 대한 정보가 업데이트 될 수 있다.
한편, 제어부(160)는, 상기 사용자 DB에 상기 배송 시작 이벤트에 대한 정보가 업데이트 되는 것에 근거하여, 상기 타겟 유저의 전자기기로, 배송 요청된 오브젝트에 대한 배송이 시작되었음을 알리는 알림 정보를 전송할 수 있다.
예를 들어, 도 10c의 (c) 및 도 10d의 (b)에 도시된 것과 같이, 타겟 유저의 전자기기(1060, 1070)에는, 배송 요청된 오브젝트에 대한 배송이 시작되었음을 알리는 알림 정보(1064, 1072)가 전송될 수 있다.
도시와 같이, 알림 정보(1064, 1072)에는, 로봇(R)이 타겟 유저가 위치한 장소로 도착 예정인 도착 예정 시간 정보를 더 포함할 수 있다.
한편, 본 발명에서는, 타겟 유저의 전자기기로부터, 도 10d의 (c)에 도시된 것과 같이, 배송 예약 시간에 대한 변경 요청(1073), 배송 취소 요청(1074), 도 11에 도시된 것과 같이, 배송 중지 요청(1111)과 같이 배송과 관련된 다양한 요청을 수신할 수 있다. 제어부(160)는 위에서 살펴본 배송과 관련된 요청이 타겟 유저의 전자기기로부터 수신된 경우, 수신된 배송과 관련된 요청에 대응되는 제어를 로봇(R)에 대하여 수행할 수 있다. 예를 들어, 로봇(R)이 배송을 출발한 상태에서, 타겟 유저의 전자기기로부터 배송에 대한 시간 변경, 중지 또는 취소 요청이 수신된 경우, 제어부(160)는 로봇(R)에 할당된 임무를 취소하고, 로봇(R)을 특정 장소로 복귀시킬 수 있다.
한편, 도 11에 도시된 것과 같이, 타겟 유저의 전자기기(1110)에는, 로봇(R)의 배송 상태(예를 들어, 배달 중), 도착 예정 시간에 대한 정보가 실시간 또는 기 설정된 시간 간격으로 업데이트 될 수 있다. 즉, 제어부(160)는, 로봇(R)의 배송 상태(예를 들어, 배달 중), 도착 예정 시간에 대한 정보를 실시간 또는 기 설정된 시간 간격으로 타겟 유저의 전자기기로 전송할 수 있다.
한편, 제어부(160)는 도 11의 (b)에 도시된 것과 같이, 로봇(R)이 타겟 유저가 위치한 장소(또는 오브젝트가 배송되기로 예약된 배송장소)에 위치한 경우, 로봇(R)이 해당 장소에 도착했음을 알리는 알림 정보를 타겟 유저의 전자기기로 전송할 수 있다.
나아가, 제어부(160)는, 상기 로봇(R)이, 오브젝트에 대한 배송 예약 시간까지, 타겟 유저를 만나지 못한 경우, 도 11의 (c)에 도시된 것과 같이, 타겟 유저의 전자기기로 추가 대기 시간에 대한 정보를 전송할 수 있다.
이때, 추가 대시 시간에 대한 정보는, 타겟 유저의 현재 위치와 상기 배송 장소 간의 상대적인 거리에 근거하여 결정될 수 있다.
제어부(160)는 공간(10)에 배치된 카메라에서 수신된 영상으로부터의 얼굴 인식, 타겟 유저(1000)가 소지한 식별 표지에 대한 인식, 타겟 유저(1000)가 소지한 전자기기를 인식하는 방법 등으로, 공간(10)에서 타겟 유저의 현재 위치를 확인할 수 있다.
그리고, 제어부(160)는, 상기 타겟 유저의 현재 위치로부터, 상기 배송 장소까지의 거리 또는 이동 예상 시간이, 기 설정된 범위 또는 기 설정된 시간 이내인 경우, 추가 대기 시간을 설정할 수 있다. 여기에서, 추가 대기 시간은, 오브젝트를 배송하는 로봇(R)이 상기 타겟 유저에게 오브젝트를 배송하기 위하여, 배송 예약 시간을 초과하여, 배송 장소에서 타겟 유저를 대기하는 시간을 의미한다.
제어부(160)는 추가 대기 시간이 설정되는 경우, 로봇(R)에게, 추가 대기 시간 동안 배송 장소에서 추가적으로 타겟 유저를 대기하라는 제어명령을 전송할 수 있다.
한편, 본 발명에서 제어부(160)는, 오브젝트의 배송을 위하여 로봇(R)에 임무를 할당할 수 있다. 제어부(160)는, 도 10b의 (c)에 도시된 것과 같이, 스캔부(150)에 의해 식별 정보가 스캔된 로봇(R)에게 오브젝트를 배송하기 위한 임무를 할당할 수 있다.
제어부(160)는 해당 로봇(R)에게, 오브젝트의 배송 임무를 수행하기 위한 제어 명령을 전송할 수 있다. 이러한 제어 명령은, 오브젝트가 배송될 배송 장소에 대한 장소 정보(또는 위치 정보)가 포함될 수 있다.
“로봇(R)에 임무를 할당”한다는 것은, 로봇(R)에 임무를 부여하는 것으로서, 보다 구체적으로, 로봇(R)이 할당된 임무를 수행하도록, 로봇(R)에 제어 명령을 입력 또는 전송하는 것을 의미할 수 있다. 로봇(R)은, 임무가 할당되는 경우, 할당된 임무를 수행하도록 하는 알고리즘을 포함할 수 있다. 즉, 로봇(R)은 할당된 임무를 수행할 수 있도록 프로그래밍될 수 있다. 로봇(R)의 제어부는 기 설정된 알고리즘 및 프로그램에 의하여, 할당된 임무(예를 들어, 오브젝트의 배송)의 수행을 위한 동작을 할 수 있다. 할당된 임무를 수행하기 위한 로봇의 동작은 매우 다양할 수 있다. 예를 들어, 로봇(R)의 동작은 로봇의 주행, 로봇이 수행하는 임무, 로봇의 전원 상태 등과 관련된 동작을 모두 포함하는 개념으로 이해되어 질 수 있다.
한편, 로봇(R)에 임무를 할당하기 위하여, 로봇(R)에 입력 또는 전송되는 제어 명령은, 로봇(R)이 할당된 임무를 수행하도록 로봇(R)을 구동하는 적어도 하나의 명령을 포함할 수 있다. 로봇(R)에 대한 임무 할당은 다양한 경로를 통하여 이루어질 수 있으며, 일 예로서, 본 발명에 따른 배송 시스템(100)에 의하여 할당될 수 있다. 제어부(160)는, 로봇(R)에 임무를 할당하도록 이루어질 수 있다. 제어부(160)는 로봇(R)에 대한 임무 할당을 위하여, 통신부(110)를 이용하여, 로봇(R)으로, 임무와 관련된 제어 명령을 전송할 수 있다. 이러한 제어 명령은, 로봇(R)이 임무를 수행하도록 하는 제어를 포함할 수 있다.
이때, 제어부(160)는, 임무에 매칭된 특정 장소로 상기 로봇(R)이 이동하도록, 상기 로봇(R)의 주행과 관련된 제어를 수행할 수 있다. 제어부(160)는 로봇(R)에게, 임무에 해당하는 제어 명령을 전송함으로써, 로봇(R)이 상기 임무에 매칭된 특정 장소로 이동하도록 제어할 수 있다. 로봇(R)에 할당되는 임무에 대응되는 제어 명령은, 임무와 관련된 정보를 포함할 수 있다. 앞서 살펴본 것과 같이, 임무와 관련된 정보는, 임무의 종류, 임무에 따른 동작, 임무의 대상이 되는 타겟 유저 정보, 임무 수행 장소(또는, 임무에 매칭된 특정 장소(예를 들어, 배송 장소)) 및 임무 수행 예정 시간(예를 들어, 배송 예약 시간) 중 적어도 하나와 관련된 정보를 포함할 수 있다
한편, 로봇(R)은, 제어부(160)로부터 임무에 해당하는 제어 명령을 수신하면, 상기 임무와 관련된 정보에 근거하여, 할당된 임무를 수행하기 위하여, 임무에 매칭된 특정 장소로 이동할 수 있다. 로봇(R)의 제어부는, 배송 시스템(100)으로부터 수신한 임무와 관련된 정보에 근거하여, 임무 수행 장소로 이동할 수 있다.
한편, 로봇(R)에 대한 임무의 할당은 로봇(R)에 임무에 대한 정보가 입력되는 것에 근거하여 할당될 수 있다. 이 경우, 로봇(R)은 로봇(R)에 구비된 스캔부를 임무와 관련된 정보를 수신할 수 있다. 로봇(R)의 스캔부를 통하여 임무와 관련된 정보를 입력하는 대상은 사람 또는 임무를 할당받는 로봇과 다른 로봇일 수 있다.
이와 같이, 로봇(R)에 대한 임무 할당은 다양한 방법으로 이루어질 수 있으며, 로봇(R)은 임무가 할당되는 것에 근거하여, 임무의 수행을 위한 동작을 수행할 수 있다.
앞서 살펴본 것과 같이, 로봇(R)에 할당되는 임무는, 타겟 유저에게 오브젝트를 배송하는 서비스를 제공하는 임무일 수 있다.
한편, 로봇(R)의 제어부는, 임무 수행을 위하여 배송 장소에 도착한 경우, 배송 장소에서 주행이 정지되도록 로봇(R)의 주행부를 제어할 수 있다. 로봇(R)은 배송 장소에서 타겟 유저를 대기하는 동작을 수행할 수 있다. 이때, 로봇(R)의 동작 상태는 디스플레이부와 같은 출력부의 전원이 꺼지거나, 최소의 전원 사용 모드로 동작하는 슬립 모드, 대기 모드 또는 절전 모드의 동작 상태일 수 있다.
로봇(R)의 제어부는, 이러한 동작 상태에서, 기 설정된 시간 간격 또는 실시간으로, 로봇(R)에 구비된 카메라를 이용하여 로봇(R)의 주변 상황을 모니터링할 수 있다. 로봇(R)은, 카메라를 통해 주변 상황에 대한 영상을 수집하고, 수집된 영상으로부터, 도 12a의 (a)에 도시된 것과 같이, 타겟 유저(1000)를 식별할 수 있다.
이 경우, 로봇(R)의 제어부는, 디스플레이부(1220) 또는 스피커를 통하여, 타겟 유저(1000)의 식별 정보(예를 들어, 이름)을 출력할 수 있다. 따라서, 타겟 유저(1000)는 자신과 관련하여 서비스를 수행할 로봇(R)을 쉽게 인지할 수 있다.
한편, 로봇(R)의 제어부는, 타겟 유저(1000)를 인증하기 위한 사용자 인증 과정을 통하여, 타겟 유저(1000)를 인증하는 사용자 인증이 완료된 경우, 타겟 유저(1000)에 대한 임무를 수행할 수 있다. 로봇(R)의 제어부는, 얼굴인식(도 12a의 (b) 참조), 지문인식, 홍채인식, 목소리 인식, 비밀번호 입력, 식별 표지 스캔 등과 같은 다양한 사용자 인증 방법 중 적어도 하나를 통하여, 타겟 유저(1000)에 대한 인증을 수행할 수 있다. 로봇(R)의 제어부는, 로봇(R)에 구비된 다양한 센서(예를 들어, 카메라(1210))를 이용하여, 사용자 인증을 수행할 수 있다.
즉, 로봇(R)의 제어부는, 로봇(R)에 접근한 사용자가, 할당된 임무에 매칭된 타겟 유저에 해당하는 진정한 사용자인지를 인증하는 과정을 통하여, 할당된 임무가, 임무와 관련 없는 제3자에게 수행되는 것을 방지할 수 있다.
한편, 로봇(R)의 제어부는, 사용자 인증이 완료된 경우, 타겟 유저(1000)에게, 임무에 대응되는 서비스를 제공할 수 있다. 예를 들어, 할당된 임무가 물품 배송인 경우, 로봇(R)의 제어부는, 도 12a의 (c)에 도시된 것과 같이, 오브젝트를 보관한 로봇(R)의 보관함(또는 수용함, 1230)이 열리도록 보관함을 제어하여, 타겟 유저(1000)가 오브젝트를 반출할 수 있도록 할 수 있다. 이를 통하여, 로봇(R)의 제어부는, 타겟 유저(1000)에 대한 임무의 수행을 완료할 수 있다.
한편, 도 12a에서 살펴본 로봇(R)에서의 사용자 인증(예를 들어, 얼굴 인식을 통한 인증)이 실패(도 12b의 (a) 참조)한 경우, 배송 시스템(100)은 추가적인 인증 방법을 제공할 수 있다. 예를 들어, 배송 시스템(100)은 도 12b의 (b) 및 (c)에 도시된 것과 같이, 타겟 유저의 전자기기(1240)에서 사용자 인증을 수행하기 위한 사용자 환경을 제공할 수 있다. 도 12b의 (c)에 도시된 것과 같이, 타겟 유저의 전자기기(1240)에는, 로봇(R)의 수용함을 열기 기능에 대응되는 기능 아이콘(1242)이 출력될 수 있다. 제어부(160)는, 상기 기능 아이콘(1242)에 대한 선택신호가 타겟 유저의 전자기기(1240)로부터 수신되는 경우, 로봇(R)의 수용함이 열리도록 로봇(R)에 제어 명령을 전송할 수 있다. 이를 통해, 사용자는, 로봇(R)으로부터 오브젝트를 반출할 수 있다.
위에서 살펴본 것과 같이, 본 발명에 따른 로봇을 이용한 배송 방법 및 시스템은, 배송된 물건(또는 오브젝트)에 부착된 운송장 정보를 이용하여, 배송된 물건의 수신인에 해당하는 타겟 유저의 정보를 획득할 수 있다. 나아가, 본 발명에서는, 획득된 타겟 유저의 정보 및 운송장 정보를 이용하여, 로봇이 스캔 가능한 식별 표지를 생성하고, 이러한 식별 표지를 스캔한 로봇에 의하여 해당 물건이 타겟 유저에게 배송되도록 하는 배송 방법 및 시스템을 제공할 수 있다. 이를 통하여, 본 발명에 따른 로봇을 이용한 배송 방법 및 시스템은, 물건의 배송을 관리하는 관리자가 로봇에 일일이 물건의 배송지 정보를 입력하지 않더라도, 로봇이 타겟 유저에게 물건을 배송하도록 함으로써, 업무의 효율성이 높아질 수 있다.
나아가, 본 발명에 따른 로봇을 이용한 배송 방법 및 시스템은, 집화된 물건이 보관된 장소에 대한 정보를 사용자 DB에 입력함으로써, 타겟 유저가 물건 배송을 요청할 경우, 물건이 보관된 장소에 대한 정보를 사용자 DB로부터 제공할 수 있다. 따라서, 물건의 배송을 관리하는 관리자는 타겟 유저에게 물건을 배송하기 위하여 물건이 보관된 장소를 일일이 찾아야 하는 번거로움을 줄일 수 있다.
한편, 위에서 살펴본 본 발명은, 컴퓨터에서 하나 이상의 프로세스에 의하여 실행되며, 이러한 컴퓨터로 판독될 수 있는 매체에 저장 가능한 프로그램으로서 구현될 수 있다.
나아가, 위에서 살펴본 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드 또는 명령어로서 구현하는 것이 가능하다. 즉, 본 발명은 프로그램의 형태로 제공될 수 있다.
한편, 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다.
나아가, 컴퓨터가 읽을 수 있는 매체는, 저장소를 포함하며 전자기기가 통신을 통하여 접근할 수 있는 서버 또는 클라우드 저장소일 수 있다. 이 경우, 컴퓨터는 유선 또는 무선 통신을 통하여, 서버 또는 클라우드 저장소로부터 본 발명에 따른 프로그램을 다운로드 받을 수 있다.
나아가, 본 발명에서는 위에서 설명한 컴퓨터는 프로세서, 즉 CPU(Central Processing Unit, 중앙처리장치)가 탑재된 전자기기로서, 그 종류에 대하여 특별한 한정을 두지 않는다.
한편, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (12)

  1. 배송 임무를 수행하는 다수의 로봇 및 배송 시스템을 이용하여 배송 서비스를 제공하는 건물에 있어서,
    상기 건물은,
    집화되는 물건에 대한 스캔을 통해, 운송장 정보를 획득하는 접수 영역;
    상기 운송장 정보가 획득된 물건을 보관하도록 형성되는 보관 영역;
    상기 보관 영역에 보관된 물건을 배송하기 위한 배송 임무를 수신하기 위하여 적어도 하나의 로봇이 대기하는 로봇 대기 영역; 및
    로봇 전용 공간으로 이루어지고, 상기 로봇 대기 영역의 주변에 배치되며, 적어도 일부가 평행하게 배치되는 제1 영역과 제2 영역을 가지는 로봇 주행 영역을 포함하며,
    상기 제1 영역과 상기 제2 영역은 상기 로봇 대기 영역에 위치한 로봇 중 상기 보관 영역에 보관된 특정 물건에 대한 배송 임무를 할당 받은 특정 로봇이, 상기 특정 물건에 대한 배송 임무를 수행하기 위하여, 서로 다른 주행 방향에 따라 주행하도록 이루어지고,
    상기 접수 영역은,
    상기 집화되는 물건에 대한 상기 운송장 정보를 획득하는 스캔부; 및
    상기 운송장 정보에 근거하여 특정된 타겟 유저에 대응되는 타겟 정보를 포함하는 식별 표지를 출력하는 출력부를 포함하고,
    상기 배송 시스템은,
    상기 특정 물건에 부착된 식별 표지 및 상기 특정 로봇의 식별 표지가 스캔되는 것에 근거하여, 상기 특정 로봇을, 상기 특정 물건에 대한 배송 임무를 수행할 로봇으로 특정하고,
    상기 특정 로봇은,
    상기 특정 물건에 대한 배송 임무를 수행하기 위하여, 특정 장소로 이동하고,
    상기 특정 로봇에 구비된 카메라를 통해 영상을 수집하고, 상기 수집된 영상을 이용하여 상기 타겟 유저를 인증하는 사용자 인증을 수행하고,
    상기 사용자 인증이 완료된 경우, 상기 특정 로봇의 수용함에 보관된 상기 특정 물건이 반출 가능하도록, 상기 수용함을 오픈하는 것을 특징으로 하는 건물.
  2. 제1항에 있어서,
    상기 할당 받은 배송 임무를 완료하지 못한 적어도 하나의 로봇이 대기하는 반송 영역을 더 포함하는 것을 특징으로 하는 건물.
  3. 제2항에 있어서,
    상기 반송 영역에서는,
    상기 반송 영역에 위치한 상기 적어도 하나의 로봇에 보관된 물건에 대한 반송이 이루어지는 것을 특징으로 하는 건물.
  4. 제3항에 있어서,
    상기 특정 로봇이, 상기 할당 받은 배송 임무에 따라 타겟 유저에게 상기 특정 물건에 대한 배송을 완료하지 못한 경우,
    상기 특정 로봇은, 상기 특정 물건에 대한 반송을 위하여, 상기 반송 영역에서 대기하는 것을 특징으로 하는 건물.
  5. 삭제
  6. 제1항에 있어서,
    상기 운송장 정보가 획득된 물건 마다 각각에 부착된 식별 표지에 포함되는 식별 정보는, 상기 다수의 로봇에 각각 구비된 스캔부에서 식별이 가능한 코드(CODE) 정보를 포함하고,
    상기 특정 물건에 부착된 식별 표지가 상기 특정 로봇에 의해 스캔되는 경우, 상기 특정 로봇에 의해 상기 특정 물건이 상기 타겟 유저에게 배송되기 위한 배송 시작 이벤트가 발생되는 것을 특징으로 하는 건물.
  7. 삭제
  8. 제1항에 있어서,
    상기 보관 영역은 서로 다른 식별 정보가 부여된 복수의 보관함을 포함하고,
    상기 운송장 정보가 획득된 물건은, 상기 복수의 보관함 중 어느 하나에 보관되고,
    상기 특정 물건이 상기 복수의 보관함 중 어느 하나에 보관되는 경우,
    상기 특정 물건의 운송장 정보와 상기 어느 하나의 보관함의 식별 정보는, 서로 매칭되어 데이터베이스(database) 상에 저장되는 것을 특징으로 하는 건물.
  9. 제1항에 있어서,
    상기 접수 영역은, 상기 집화되는 물건으로부터 운송장 정보를 획득하는 작업을 수행하기 위한 작업대를 더 포함하고,
    상기 작업대는,
    상기 다수의 로봇에 구비된 수용함의 크기와 대응되는 크기의 가이드 영역을 구비하는 것을 특징으로 하는 건물.
  10. 제9항에 있어서,
    상기 접수 영역은, 상기 집화되는 물건에 대한 운송장 정보를 획득하는 스캔부를 포함하고
    스캔부는, 상기 가이드 영역의 적어도 일 영역에 배치되어, 상기 가이드 영역에 위치한 물건에 부착된 운송장에 대한 스캔을 수행하는 것을 특징으로 하는 건물.
  11. 제1항에 있어서,
    상기 다수의 로봇 중 전원 충전이 필요한 적어도 하나의 로봇에게 전원 충전을 제공하는 로봇 충전 영역을 더 포함하는 건물.
  12. 다수의 로봇을 이용하여 개인화된 배송 서비스를 제공하는 배송 시스템이 구축된 건물에 있어서,
    집화되는 물건에 부착된 운송장에 대한 스캔을 통해, 상기 운송장의 운송장 정보를 획득하는 단계;
    사용자 DB로부터 상기 운송장 정보에 매칭되는 타겟 유저를 특정하고, 상기 타겟 유저의 정보를 포함하는 식별 표지가 상기 물건에 부착되는 단계;
    상기 물건에 부착된 식별 표지 및 상기 다수의 로봇 중 특정 로봇에 부착된 식별 표지가 각각 스캔되는 것에 근거하여, 상기 특정 로봇을 상기 물건을 배송하는 배송 임무를 수행할 로봇으로서 특정하는 단계; 및
    상기 특정 로봇을 통해, 상기 타겟 유저에 상기 물건이 배송되도록 상기 특정 로봇을 제어하는 단계를 포함하고,
    상기 건물은,
    상기 운송장 정보를 획득하는 접수 영역,
    상기 운송장 정보가 획득된 물건이 보관하도록 형성되는 보관 영역,
    적어도 하나의 로봇이 대기하는 로봇 대기 영역,
    로봇 전용 공간으로 이루어지고, 상기 로봇 대기 영역의 주변에 배치되며, 적어도 일부가 평행하게 배치되는 제1 영역과 제2 영역을 가지는 로봇 주행 영역을 포함하고,
    상기 제1 영역과 상기 제2 영역은 상기 로봇 대기 영역에 위치한 로봇 중 상기 보관 영역에 보관된 특정 물건에 대한 배송 임무를 할당 받은 상기 특정 로봇이, 상기 특정 물건에 대한 배송 임무를 수행하기 위하여 서로 다른 주행 방향에 따라 주행하도록 이루어지며,
    상기 건물에서 생활하는 사용자들과 관련된 정보를 포함하는 사용자 DB에 저장된 상기 타겟 유저와 관련된 정보는,
    상기 타겟 유저를 수신인으로 하는 상기 특정 물건에 대한 운송장 정보 및 상기 특정 물건을 배송하도록 특정된 상기 특정 로봇의 식별 정보가 포함되도록 업데이트되며,
    상기 배송 시스템은,
    상기 특정 물건에 부착된 식별 표지 및 상기 특정 로봇의 식별 표지가 스캔되는 것에 근거하여, 상기 특정 로봇을, 상기 특정 물건에 대한 배송 임무를 수행할 로봇으로 특정하고,
    상기 특정 로봇은,
    상기 할당 받은 배송 임무를 수행하기 위하여 특정 장소로 이동하고,
    상기 특정 로봇에 구비된 카메라를 통해 영상을 수집하고, 상기 수집된 영상을 이용하여 상기 타겟 유저를 인증하는 사용자 인증을 수행하고,
    상기 사용자 인증이 완료된 경우, 상기 특정 로봇의 수용함에 보관된 상기 특정 물건이 반출 가능하도록, 상기 수용함을 오픈하는 것을 특징으로 하는 배송 서비스를 제공하는 배송 시스템이 구축된 건물.
KR1020210081076A 2020-08-31 2021-06-22 배송 임무를 수행하는 다수의 로봇을 이용하여 배송 서비스를 제공하는 건물 KR102494841B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210081076A KR102494841B1 (ko) 2020-08-31 2021-06-22 배송 임무를 수행하는 다수의 로봇을 이용하여 배송 서비스를 제공하는 건물

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200110559A KR102370872B1 (ko) 2020-08-31 2020-08-31 로봇을 이용한 배송 방법 및 시스템
KR1020210081076A KR102494841B1 (ko) 2020-08-31 2021-06-22 배송 임무를 수행하는 다수의 로봇을 이용하여 배송 서비스를 제공하는 건물

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200110559A Division KR102370872B1 (ko) 2020-08-31 2020-08-31 로봇을 이용한 배송 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20220029346A KR20220029346A (ko) 2022-03-08
KR102494841B1 true KR102494841B1 (ko) 2023-02-06

Family

ID=80356744

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200110559A KR102370872B1 (ko) 2020-08-31 2020-08-31 로봇을 이용한 배송 방법 및 시스템
KR1020210081076A KR102494841B1 (ko) 2020-08-31 2021-06-22 배송 임무를 수행하는 다수의 로봇을 이용하여 배송 서비스를 제공하는 건물

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020200110559A KR102370872B1 (ko) 2020-08-31 2020-08-31 로봇을 이용한 배송 방법 및 시스템

Country Status (3)

Country Link
US (1) US20220067634A1 (ko)
JP (1) JP7277523B2 (ko)
KR (2) KR102370872B1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240028225A (ko) * 2022-08-24 2024-03-05 삼성전자주식회사 로봇 및 로봇의 제어 방법
WO2024081693A1 (en) * 2022-10-11 2024-04-18 Bear Robotics, Inc. Mobile robot with controllable film
WO2024096183A1 (en) * 2022-11-03 2024-05-10 Twinny Co., Ltd. Picking system including server for assigning task and robot for performing delivery according to assigned task

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101998384B1 (ko) 2019-02-27 2019-07-09 동명대학교산학협력단 스마트 물류시스템

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4719164B2 (ja) 2007-01-29 2011-07-06 株式会社富士通ソーシアルサイエンスラボラトリ 配送物受渡管理システム及び配送物受渡管理プログラム
US9150119B2 (en) * 2013-03-15 2015-10-06 Aesynt Incorporated Apparatuses, systems, and methods for anticipating and delivering medications from a central pharmacy to a patient using a track based transport system
KR101541359B1 (ko) * 2013-10-21 2015-08-03 동국대학교 산학협력단 무인배달 서비스 방법 및 시스템
KR20170062728A (ko) * 2015-11-30 2017-06-08 쿠팡 주식회사 배송장 부착 시스템
KR101855861B1 (ko) * 2016-09-19 2018-05-18 주식회사 엔티로봇 물류운반 로봇 시스템 및 이를 이용한 로봇의 이동 제어방법
KR101912361B1 (ko) * 2017-03-27 2018-10-26 (주)엔스퀘어 물류 자동화를 위한 자율주행 로봇 및 상기 로봇의 환경인식 및 자기위치 추정 방법
US10252419B2 (en) 2017-05-01 2019-04-09 Savioke, Inc. System and method for robotic delivery between moving targets
KR102386687B1 (ko) * 2017-05-08 2022-04-14 십일번가 주식회사 배송로봇장치 및 그 동작 방법, 그리고 서비스서버
KR20190046212A (ko) * 2017-10-25 2019-05-07 씨제이대한통운 (주) 적치 로봇을 이용한 물류 이송 시스템
KR102070327B1 (ko) * 2017-11-03 2020-01-28 동명대학교산학협력단 스마트 물류 센터 운영 시스템
WO2020079785A1 (ja) 2018-10-17 2020-04-23 楽天株式会社 配送方法、情報処理装置、及び配送システム
WO2021010502A1 (ko) * 2019-07-12 2021-01-21 엘지전자 주식회사 로봇 및 그를 이용한 물품 관리 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101998384B1 (ko) 2019-02-27 2019-07-09 동명대학교산학협력단 스마트 물류시스템

Also Published As

Publication number Publication date
JP7277523B2 (ja) 2023-05-19
KR102370872B1 (ko) 2022-03-07
JP2022041924A (ja) 2022-03-11
US20220067634A1 (en) 2022-03-03
KR20220029346A (ko) 2022-03-08

Similar Documents

Publication Publication Date Title
KR102494841B1 (ko) 배송 임무를 수행하는 다수의 로봇을 이용하여 배송 서비스를 제공하는 건물
US10252419B2 (en) System and method for robotic delivery between moving targets
US9613338B1 (en) Reading station structures
KR102370873B1 (ko) 로봇 원격 제어 방법 및 시스템
US20170278052A1 (en) Wrist band haptic feedback system
US20210064019A1 (en) Robot
US20220035369A1 (en) Control method and system for robot
CN113657565A (zh) 机器人跨楼层移动方法、装置、机器人及云端服务器
KR20210029061A (ko) 로봇
EP3945388A1 (en) Remote control method and system for robot
KR20240025571A (ko) 로봇 친화형 건물, 복수의 로봇들을 이용한 협업 방법 및 시스템
Mishra et al. IoT impact and challenges on robotic waiters in automation of restaurants and hotels
KR102542841B1 (ko) 스마트오피스 운영 시스템
KR102355263B1 (ko) 로봇 제어 방법 및 시스템
KR102489723B1 (ko) 로봇 원격 제어 방법 및 시스템
US20220291696A1 (en) Transport system, control apparatus, transport method, and program
KR102390127B1 (ko) 로봇 평가 방법 및 시스템
KR20230091639A (ko) 로봇 친화형 건물, 로봇을 활용한 배송 방법 및 시스템
KR102671223B1 (ko) 맵 생성 방법, 이를 이용한 로봇 원격 제어 방법 및 시스템
KR102620941B1 (ko) 건물을 주행하는 로봇 제어 방법 및 시스템
US20240004399A1 (en) Method and system for remotely controlling robots, and building having traveling robots flexibly responding to obstacles
KR20230173939A (ko) 로봇 친화형 건물, 로봇 운용을 위한 맵 생성 방법 및 시스템
KR20230171826A (ko) 로봇 친화형 건물, 로봇 운용을 위한 맵 생성 방법 및 시스템
KR20230144380A (ko) 로봇 친화형 건물, 로봇 운영 모니터링 방법 및 시스템
KR20230056270A (ko) 건물을 주행하는 로봇 제어 방법 및 시스템

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant