KR20210099670A - 로봇 시스템의 제어 방 - Google Patents

로봇 시스템의 제어 방 Download PDF

Info

Publication number
KR20210099670A
KR20210099670A KR1020197025664A KR20197025664A KR20210099670A KR 20210099670 A KR20210099670 A KR 20210099670A KR 1020197025664 A KR1020197025664 A KR 1020197025664A KR 20197025664 A KR20197025664 A KR 20197025664A KR 20210099670 A KR20210099670 A KR 20210099670A
Authority
KR
South Korea
Prior art keywords
robot
server
delivery
delivery destination
task
Prior art date
Application number
KR1020197025664A
Other languages
English (en)
Inventor
손병국
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20210099670A publication Critical patent/KR20210099670A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G1/00Storing articles, individually or in orderly arrangement, in warehouses or magazines
    • B65G1/02Storage devices
    • B65G1/04Storage devices mechanical
    • B65G1/0492Storage devices mechanical with cars adapted to travel in storage aisles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0084Programme-controlled manipulators comprising a plurality of manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4155Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/01Customer relationship services
    • G06Q30/015Providing customer assistance, e.g. assisting a customer within a business location or via helpdesk
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/12Hotels or restaurants
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/50Machine tool, machine tool null till machine tool work handling
    • G05B2219/50391Robot

Abstract

본 발명의 일 측면에 따른 로봇 시스템의 제어 방법은, 제1 로봇이 소정 물품의 배송 요청을 포함하는 사용자 입력을 수신하는 단계, 상기 제1 로봇이 서버로 상기 사용자 입력에 기초한 정보를 송신하는 단계, 상기 서버가 상기 배송 요청에 대응하는 업무를 지원할 지원 로봇을 판별하는 단계, 상기 서버가 상기 지원 로봇으로 판별된 제2 로봇에 상기 업무를 요청하는 단계, 상기 제2 로봇이 상기 물품을 접수하는 단계, 및, 상기 제2 로봇이 상기 배송 요청에 포함되는 배송지로 이동하는 단계를 포함함으로써, 로봇간 협업으로 사용 편의성을 향상할 수 있다.

Description

로봇 시스템의 제어 방법
본 발명은 로봇 시스템 및 그 제어 방법에 관한 것으로서, 더욱 상세하게는 복수의 로봇으로 협업을 수행하고 다양한 서비스를 제공할 수 있는 로봇 시스템 및 그 제어 방법에 관한 것이다.
로봇은 산업용으로 개발되어 공장 자동화의 일부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다. 이러한 로봇 중에서 자력으로 주행이 가능한 것을 이동 로봇이라고 한다.
로봇 이용의 증가에 따라, 단순 기능의 반복 수행을 넘어서 다양한 정보, 재미, 서비스를 제공할 수 있는 로봇에 대한 요구가 많아지고 있다.
이에 따라, 가정, 매장, 공공 장소 등에 배치되어 사람과 상호 소통이 가능한 커뮤니케이션 로봇이 개발되고 있다.
또한, 자력으로 주행이 가능한 이동 로봇을 이용한 서비스들에 제안되고 있다. 예를 들어, 선행 문헌(한국 공개특허공보 10-2008-0090150호, 공개일자 2008년 10월 08일)은 서비스 지역을 이동하면서 현재위치에 따른 서비스를 제공할 수 있는 서비스 로봇과 서비스 로봇을 이용하는 서비스 시스템 및 서비스 로봇을 이용하는 서비스 시스템의 제어방법을 제안하고 있다.
하지만, 제안되고 있는 로봇의 수, 종류가 증가하고 있음에도 불구하고, 한대의 로봇이 수행할 수 있는 동작과 서비스에 대해서 연구, 개발이 집중되고 있다.
따라서, 복수의 로봇을 이용하여 고객에게 다양한 서비스를 제공하고, 비용과 효율성 측면에서도 향상된 로봇간 협업 시스템이 요구된다.
본 발명의 목적은, 복수의 로봇을 이용하여 다양한 서비스를 제공할 수 있는 로봇 시스템 및 그 제어 방법을 제공함에 있다.
본 발명의 목적은, 관리자의 개입을 최소화한 저비용, 고효율의 로봇 시스템 및 그 제어 방법을 제공함에 있다.
본 발명의 목적은, 다른 종류의 로봇들로 최적의 서비스를 효율적으로 제공할 수 있는 로봇 시스템 및 그 제어 방법을 제공함에 있다.
본 발명의 목적은, 서비스 제공 장소와 종류에 적합한 조합을 선택하여 최소한의 로봇들로 서비스를 제공할 수 있는 로봇 시스템 및 그 제어 방법을 제공함에 있다.
본 발명의 목적은, 복수의 로봇을 효과적으로 관리할 수 있는 로봇 시스템 및 그 제어 방법을 제공함에 있다.
본 발명의 목적은, 복수의 로봇을 통하여 획득되는 데이터를 활용할 수 있는 로봇 시스템 및 그 제어 방법을 제공함에 있다.
본 발명의 목적은, 외부 서버와 연계하여 다양한 서비스를 제공할 수 있는 로봇 시스템 및 그 제어 방법을 제공함에 있다.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따른 로봇 시스템 및 그 제어 방법은, 복수의 로봇이 협업하여 다양한 서비스를 제공할 수 있다. 특히, 다른 종류의 로봇들을 활용함으로써, 고객의 요구에 부합하는 최적의 서비스를 제공할 수 있다.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따른 로봇 시스템의 제어 방법은, 제1 로봇이 소정 물품의 배송 요청을 포함하는 사용자 입력을 수신하는 단계, 상기 제1 로봇이 서버로 상기 사용자 입력에 기초한 정보를 송신하는 단계, 상기 서버가 상기 배송 요청에 대응하는 업무를 지원할 지원 로봇을 판별하는 단계, 상기 서버가 상기 지원 로봇으로 판별된 제2 로봇에 상기 업무를 요청하는 단계, 상기 제2 로봇이 상기 물품을 접수하는 단계, 및, 상기 제2 로봇이 상기 배송 요청에 포함되는 배송지로 이동하는 단계를 포함함으로써, 로봇간 협업으로 사용 편의성을 향상할 수 있다.
여기서, 상기 제1 로봇과 상기 제2 로봇은 다른 종류의 로봇일 수 있다. 예를 들어, 상기 제1 로봇은, 소정 정보를 영상 및 음성으로 출력하여 사용자와 인터랙션할 수 있는 로봇이고, 상기 제2 로봇은, 상기 물품을 운반할 수 있는 로봇일 수 있다.
서버는, 복수의 로봇 중에서 현재 업무 수행 여부 또는 상기 제1 로봇의 위치와의 거리 또는 현재 수행중인 기존 업무의 완료 예상 시간 중 적어도 하나에 기초하여 상기 지원 로봇을 선정함으로써, 배송 요청에 대응하는 업무를 수행하는 데 적합한 지원 로봇을 선정하고 로봇들을 효율적으로 관리할 수 있다.
또는, 상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따른 로봇 시스템의 제어 방법은, 제1 로봇이 소정 물품의 배송 요청을 포함하는 사용자 입력을 수신하는 단계, 상기 제1 로봇이 상기 배송 요청에 대응하는 업무를 지원할 지원 로봇을 판별하는 단계, 상기 제1 로봇이 상기 지원 로봇으로 판별된 제2 로봇에 상기 업무를 요청하는 단계, 상기 제2 로봇이 상기 물품을 접수하는 단계, 및, 상기 제2 로봇이 상기 배송 요청에 포함되는 배송지로 이동하는 단계를 포함할 수 있다.
이 경우에, 상기 제1 로봇이 현재 업무 수행 여부 또는 상기 제1 로봇의 위치와의 거리 또는 현재 수행중인 기존 업무의 완료 예상 시간 중 적어도 하나를 포함하는 소정 기준에 따라 복수의 로봇 중 상기 업무를 수행할 제2 로봇을 판별할 수 있다.
한편, 상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따른 로봇 시스템의 제어 방법은, 현재 위치 또는 다른 위치로의 물품 배송 서비스를 제공할 수 있다.
배송지는 상기 제1 로봇이 있는 장소이거나 상기 사용자 입력에 포함되는 특정 장소일 수 있다. 또한, 상기 배송 요청에 상기 배송지로 지정된 장소가 있으면, 상기 지정된 장소로 상기 제2 로봇이 이동하고, 상기 배송 요청에 상기 배송지로 지정된 장소가 없으면, 상기 제1 로봇이 있는 장소로 상기 제2 로봇이 이동할 수 있다.
물품 배송에 앞서 물품 접수가 필요한 경우에, 상기 제2 로봇이 상기 물품을 접수할 수 있는 물품 접수지로 이동할 수 있다.
물품 접수지에 도착하면, 상기 제2 로봇이 상기 배송 요청 사항을 알리는 안내 메시지를 출력하여, 직원 등이 상기 제2 로봇에 물품을 싣거나 수납하도록 유도할 수 있다.
상기 물품의 접수가 확인되면, 상기 제2 로봇이 상기 물품 접수 및 상기 배송지로의 이동 알림을 포함하는 중간 리포트를 상기 서버 또는 상기 제1 로봇으로 송신할 수 있고, 상기 제1 로봇이 상기 중간 리포트에 대응하는 안내 메시지를 출력할 수 있다.
배송지 도착시에도, 상기 제2 로봇이 상기 배송지 도착을 알리는 신호를 상기 서버 또는 상기 제1 로봇으로 송신할 수 있고, 상기 제1 로봇이 기 배송지 도착을 알리는 안내 메시지를 출력할 수 있다.
배송 업무 수행 완료 후에는, 제2 로봇이 상기 서버 또는 상기 제1 로봇으로 업무 완료 보고할 수 있고, 서버는, 상기 업무 완료 보고에 기초하여 상기 제1 로봇 및 상기 제2 로봇에 대응하는 데이터를 업데이트함으로써, 로봇들을 효과적으로 관리하고, 로봇들로부터 획득된 데이터를 활용할 수 있다.
본 발명의 실시예들 중 적어도 하나에 의하면, 복수의 로봇을 이용하여 다양한 서비스를 제공하여 사용 편의성을 향상할 수 있다.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 관리자의 개입을 최소화한 저비용, 고효율의 로봇간 협업 시스템을 구현할 수 있다.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 다른 종류의 로봇들로 최적의 서비스를 효율적으로 제공할 수 있다.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 서비스 제공 장소와 종류에 적합한 조합을 선택하여 최소한의 로봇들로 서비스를 제공할 수 있다.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 복수의 로봇을 효과적으로 관리할 수 있고, 복수의 로봇을 통하여 획득되는 데이터를 활용할 수 있다.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 외부 서버와 연계하여 다양한 서비스를 제공할 수 있는 로봇 시스템을 구현할 수 있다.
한편, 그 외의 다양한 효과는 후술될 본 발명의 실시예에 따른 상세한 설명에서 직접적 또는 암시적으로 개시될 것이다.
도 1은 본 발명의 일 실시예에 따른 로봇 시스템 구성도이다.
도 2a 내지 도 2d는 본 발명의 일 실시예에 따른 로봇 시스템에 포함되는 로봇 서비스 딜리버리 플랫폼(Robot Service Delivery Platform)에 관한 설명에 참조되는 도면이다.
도 3은 본 발명의 일 실시예에 따라 로봇에서 획득된 데이터(data)를 이용한 학습(Learning)에 대한 설명에 참조되는 도면이다.
도 4, 도 5, 및, 도 6a 내지 도 6d는 본 발명의 실시예에 따른 로봇들을 예시한 도이다.
도 7은 본 발명의 일 실시예에 따른 로봇의 간략한 내부 블록도의 일예이다.
도 8a는 본 발명의 일 실시예에 따른 서버를 경유하는 로봇간 협업 시스템에 관한 설명에 참조되는 도면이다.
도 8b는 본 발명의 일 실시예에 따른 로봇간 협업 시스템에 관한 설명에 참조되는 도면이다.
도 9는 본 발명의 일 실시예에 따른 로봇 시스템의 제어 방법을 도시한 순서도이다.
도 10은 본 발명의 일 실시예에 따라 호텔 객실로 물품을 배송하는 경우를 도시한 순서도이다.
도 11은 본 발명의 일 실시예에 따라 지정된 장소로 물품을 배송하는 경우를 도시한 순서도이다.
도 12는 본 발명의 일 실시예에 따른 로봇 시스템의 제어 방법을 도시한 순서도이다.
도 13은 본 발명의 일 실시예에 따른 로봇 시스템의 제어 방법을 도시한 순서도이다.
도 14는 본 발명의 일 실시예에 따른 로봇 시스템의 제어 방법을 도시한 순서도이다.
도 15 내지 도 18은 본 발명의 실시예에 따른 로봇 시스템의 동작에 관한 설명에 참조되는 도면이다.
이하에서는 첨부한 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. 그러나 본 발명이 이러한 실시예에 한정되는 것은 아니며 다양한 형태로 변형될 수 있음은 물론이다.
한편, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.
또한, 본 명세서에서, 다양한 요소들을 설명하기 위해 제1, 제2 등의 용어가 이용될 수 있으나, 이러한 요소들은 이러한 용어들에 의해 제한되지 아니한다. 이러한 용어들은 한 요소를 다른 요소로부터 구별하기 위해서만 이용된다.
도 1은 본 발명의 일 실시예에 따른 로봇 시스템 구성도이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 로봇 시스템(1)은, 하나 이상의 로봇(100a, 100b, 100c1, 100c2, 100c3)을 구비하여 공항, 호텔, 마트, 의류매장, 물류, 병원 등 다양한 장소에서 서비스를 제공할 수 있다. 예를 들어, 로봇 시스템(1)은 소정 장소, 물품, 서비스에 대해서 안내할 수 있는 안내로봇(100a), 가정 등에서 사용자와 인터랙션(interaction)하며, 사용자의 입력에 기초하여 다른 로봇, 전자 기기와 통신하는 홈 로봇(100b), 소정 물품을 운반할 수 있는 배송 로봇들(100c1, 100c2, 100c3), 자율 주행하며 청소 작업을 수행할 수 있는 청소 로봇(100d) 중 적어도 하나를 포함할 수 있다.
바람직하게는, 본 발명의 일 실시예에 따른 로봇 시스템(1)은, 복수의 로봇(100a, 100b, 100c1, 100c2, 100c3, 100d), 및, 복수의 로봇(100a, 100b, 100c1, 100c2, 100c3)을 관리하고 제어할 수 있는 서버(10)를 포함할 수 있다.
서버(10)는 원격에서 복수의 로봇(100a, 100b, 100c1, 100c2, 100c3, 100d)의 상태를 모니터링하고, 제어할 수 있고, 로봇 시스템(1)은 복수의 로봇(100a, 100b, 100c1, 100c2, 100c3, 100d)을 이용하여 더 효과적인 서비스 제공이 가능하다.
더욱 바람직하게 로봇 시스템(1)은 다양한 종류의 로봇들(100a, 100b, 100c1, 100c2, 100c3, 100d)을 포함할 수 있다. 이에 따라, 각 로봇이 제공하는 서비스들을 다양하게 제공할 수 있을 뿐만 아니라, 로봇들의 협업으로 더욱 다양하고 편리한 서비스를 제공할 수 있다.
복수의 로봇(100a, 100b, 100c1, 100c2, 100c3, 100d) 및 서버(10)는 하나 이상의 통신 규격을 지원하는 통신 수단(미도시)을 구비하여, 상호 통신할 수 있다. 또한, 복수의 로봇(100a, 100b, 100c1, 100c2, 100c3, 100d) 및 서버(10)는 PC, 이동 단말기, 외부의 다른 서버와 통신할 수 있다.
예를 들어, 복수의 로봇(100a, 100b, 100c1, 100c2, 100c3, 100d) 및 서버(10)는 MQTT(Message Queueing Telemetry Transport) 방식으로 통신할 수 있다.
또는, 복수의 로봇(100a, 100b, 100c1, 100c2, 100c3, 100d) 및 서버(10)는 HTTP(HyperText Transfer Protocol) 방식으로 통신할 수 있다.
또한, 복수의 로봇(100a, 100b, 100c1, 100c2, 100c3, 100d) 및 서버(10)는 HTTP 또는 MQTT 방식으로 PC, 이동 단말기, 외부의 다른 서버와 통신할 수 있다.
경우에 따라서, 복수의 로봇(100a, 100b, 100c1, 100c2, 100c3, 100d) 및 서버(10)는 2이상의 통신 규격을 지원하고, 통신 데이터의 종류, 통신에 참여하는 기기의 종류에 따라 최적의 통신 규격을 사용할 수 있다.
서버(10)는 클라우드(cloud) 서버로 구현되어, 사용자는 PC, 이동 단말기 등 다양한 기기로 통신 연결된 서버(10)에 저장된 데이터와 서버(10)가 제공하는 기능, 서비스를 이용할 수 있다. 로봇(100a, 100b, 100c1, 100c2, 100c3, 100d)에 클라우드(10)가 연동되어 로봇(100a, 100b, 100c1, 100c2, 100c3, 100d)을 모니터링, 제어하고 다양한 솔루션과 콘텐츠를 원격으로 제공할 수 있다.
사용자는 PC, 이동 단말기 등을 통하여 로봇 시스템 내의 로봇들(100a, 100b, 100c1, 100c2, 100c3, 100d)에 관한 정보를 확인하거나 제어할 수 있다.
본 명세서에서 '사용자'는 적어도 하나의 로봇을 통한 서비스를 이용하는 사람으로, 로봇을 구매 또는 대여하여 가정 등에서 사용하는 개인 고객, 및, 로봇을 이용하여 직원 또는 고객에게 서비스를 제공하는 기업의 관리자, 직원들과 이러한 기업이 제공하는 서비스를 이용하는 고객들을 포함할 수 있다. 따라서, '사용자'는 개인 고객(Business to Consumer : B2C)과 기업 고객(Business to Business : B2B)을 포함할 수 있다.
사용자는 PC, 이동 단말기 등을 통하여 로봇 시스템 내의 로봇들(100a, 100b, 100c1, 100c2, 100c3, 100d)의 상태, 위치를 모니터링하고, 콘텐츠 및 작업 스케줄을 관리할 수 있다.
한편, 서버(10)는, 로봇들(100a, 100b, 100c1, 100c2, 100c3, 100d), 기타 기기로부터 수신되는 정보를 저장 및 관리할 수 있다.
상기 서버(10)는 로봇들(100a, 100b, 100c1, 100c2, 100c3, 100d)의 제조사 또는 제조사가 서비스를 위탁한 회사가 제공하는 서버일 수 있다.
한편, 본 발명에 따른 시스템은 2개 이상의 서버와 연동하여 동작할 수 있다.
예를 들어, 상기 서버(10)는 E1, E2 등 외부의 클라우드 서버(20), T1, T2, T3 등 콘텐트(content), 서비스를 제공하는 서드 파티(30) 등과 통신할 수 있다. 이에 따라, 상기 서버(10)는 외부의 클라우드 서버(20), 서드 파티(30)와 연동하여 다양한 서비스를 제공할 수 있다.
상기 서버(10)는 로봇들(100a, 100b, 100c1, 100c2, 100c3, 100d)을 관리하고 제어하는 관제 서버일 수 있다.
상기 서버(10)는 로봇들(100a, 100b, 100c1, 100c2, 100c3, 100d)을 일괄적으로 동일하게 제어하거나, 개별 로봇 별로 제어할 수 있다. 또한, 서버(10)는 로봇들(100a, 100b, 100c1, 100c2, 100c3, 100d) 중 적어도 일부 로봇에 대해서 그룹으로 설정한 후에 그룹별로 제어할 수 있다.
한편, 상기 서버(10)는, 복수의 서버로 정보, 기능이 분산되어 구성될 수도 있고, 하나의 통합 서버로 구성될 수도 있을 것이다.
상기 서버(10)는, 복수의 서버로 정보, 기능이 분산되어 구성되거나 하나의 통합 서버로 구성되어, 로봇을 이용한 서비스 전반을 관리할 수 있으므로 로봇 서비스 딜리버리 플랫폼(Robot Service Delivery Platform: RSDP)으로 명명될 수 있다.
도 2a 내지 도 2d는 본 발명의 일 실시예에 따른 로봇 시스템에 포함되는 로봇 서비스 딜리버리 플랫폼(Robot Service Delivery Platform)에 관한 설명에 참조되는 도면이다.
도 2a는 본 발명의 일 실시예에 따른 로봇 서비스 딜리버리 플랫폼의 통신 아키텍쳐(architecture)를 예시한다.
도 2a를 참조하면, 로봇 서비스 딜리버리 플랫폼(10)은, 하나 이상의 서버(11, 12)를 포함하여 안내 로봇(100a), 청소 로봇(100d) 등 로봇(100)을 관리하고 제어할 수 있다.
로봇 서비스 딜리버리 플랫폼(10)은, 클라이언트(40) 측과 웹 브라우저(41), 이동 단말기 등의 애플리케이션(42) 등을 통하여 통신하며 로봇(100)을 관리하고 제어하는 관제 서버(11)와 로봇(100)과 관련된 데이터를 중계하고 관리하는 기기 관리 서버(12)를 포함할 수 있다.
관제 서버(11)는 클라이언트(40)로부터 수신되는 사용자 입력에 기초하여, 로봇(100)의 상태, 위치를 모니터링하고, 콘텐츠 및 작업 스케줄을 관리할 수 있는 관제 서비스를 제공하는 관제/서비스 서버(11a) 및, 관제 관리자가 웹 브라우저(41) 등을 통해서 접근할 수 있는, 관리자 애플리케이션(admin app) 서버(11b)를 포함할 수 있다.
관제/서비스 서버(11a)는 데이터베이스(DB)를 구비하고, 클라이언트(40)의 로봇 관리, 제어, 무선 펌웨어 업그레이드(Firmware Over The Air : FOTA), 위치 조회 등의 서비스 요청에 응답할 수 있다.
관리자 애플리케이션 서버(11b)는 관제 관리자가 관리자 권한으로 접근 가능하며 로봇과 관련된 기능, 애플리케이션, 콘텐츠를 관리할 수 있다.
기기 관리 서버(12)는 프록시(proxy) 서버로서의 기능, 원 데이터와 관련된 메타 데이터를 저장하고, 저장 장치의 상태를 나타내는 스냅샷(Snapshot) 등을 활용한 데이터 백업 기능을 수행할 수 있다.
기기 관리 서버(12)는 각종 데이터가 저장되는 스토리지(storage)와 관제/서비스 서버(11a) 등과 통신하는 커먼 서버(common server)를 포함할 수 있다. 커먼 서버는 각종 데이터를 스토리지(storage)에 저장하거나 스토리지로부터 데이터를 불러올 수 있고, 관제/서비스 서버(11a)의 로봇 관리, 제어, 무선 펌웨어 업그레이드, 위치 조회 등의 서비스 요청에 응답할 수 있다.
또한, 로봇(100)은 스토리지에 저장된 맵 데이터, 펌웨어 데이터를 다운로드할 수 있다.
관제 서버(11)와 기기 관리 서버(12)가 분리되어 구성함으로써, 데이터를 스토리지에 저장하고, 다시 전송할 필요가 없어, 처리 속도와 시간 측면에서 장점이 있고, 보안 측면에서도 효과적인 관리가 용이한 장점이 있다.
한편, 로봇 서비스 딜리버리 플랫폼(10)은 로봇 관련 서비스를 제공하는 서버의 집합으로, 도 2a에서 클라이언트(40)와 로봇(100)들을 제외한 전부를 의미할 수 있다.
예를 들어, 로봇 서비스 딜리버리 플랫폼(10)은 사용자 계정을 관리하는 사용자 관리 서버(13)를 더 포함할 수 있다. 사용자 관리 서버(13)는 사용자 인증, 등록, 탈퇴를 관리할 수 있다.
실시예에 따라서, 로봇 서비스 딜리버리 플랫폼(10)은 맵(map) 데이터, 지리적 정보에 기반한 데이터를 제공하는 맵 서버(14)를 더 포함할 수 있다.
상기 맵 서버(14)에서 수신되는 맵 데이터 등은 관제 서버(10) 및/또는 기기 관리 서버(12)에 저장될 수 있고, 로봇(100)에 상기 맵 서버(14)의 맵 데이터가 다운로드될 수 있다. 또는, 관제 서버(11) 및/또는 기기 관리 서버(12)의 요청에 따라, 상기 맵 서버(14)에서 상기 로봇(100)으로 맵 데이터가 송신될 수 있다.
로봇(100) 및 서버(11, 12)는 하나 이상의 통신 규격을 지원하는 통신 수단(미도시)을 구비하여, 상호 통신할 수 있다.
도 2a를 참조하면, 로봇(100) 및 서버(11, 12)는 MQTT 방식으로 통신할 수 있다. MQTT 방식은 매개자(broker)를 통해 메시지가 송수신되는 방식으로 저전력, 속도 측면에서 장점이 있다. 한편, 로봇 서비스 딜리버리 플랫폼(10)이 MQTT 방식을 이용할 때 매개자는 기기 관리 서버(12) 등에 구축될 수 있다.
또한, 로봇(100) 및 서버(11, 12)는 2이상의 통신 규격을 지원하고, 통신 데이터의 종류, 통신에 참여하는 기기의 종류에 따라 최적의 통신 규격을 사용할 수 있다. 도 2a에서는 MQTT 방식을 이용한 통신 패스와 HTML 방식을 이용한 통신 패스가 예시된다.
한편, 서버(11, 12)와 로봇(100) 사이의 통신 방법은 로봇 종류와 관계없이 MQTT 방식을 사용할 수 있다.
로봇(100)은 MQTT 세션을 통해 현재 상태를 서버(11, 12)로 전송하고, 서버(11, 12)로부터 원격 제어 명령을 수신할 수 있다. MQTT 연결을 위해서는 (CSR 생성을 위해 발급받은) 개인 키, 로봇 등록 시 받은 X.509 인증서, 기기 관리 서버 인증서 등 디지털 인증서가 필요할 수 있고 다른 인증 방식을 사용할 수도 있다.
도 2a에서는 각 서버들(11, 12, 13, 14)이 수행하는 기능을 기준으로 구분된 것이므로, 본 발명은 이에 한정되지 아니하고 둘 이상의 기능이 하나의 서버를 통해 수행될 수도 있고, 하나의 기능이 둘 이상의 서버를 통해 수행될 수도 있다.
도 2b는 본 발명의 일 실시예에 따른 로봇 서비스 딜리버리 플랫폼의 블록도를 예시한 것으로, 로봇 관제와 관련된 로봇 관제 플랫폼의 상위 계층의 애플리케이션들을 예시한 것이다.
도 2b를 참조하면, 로봇 관제 플랫폼(2)은 유저 인터페이스(2)와 관제/서비스 서버(11)가 제공하는 기능/서비스들(4)을 포함할 수 있다.
로봇 관제 플랫폼(2)은 웹 사이트 기반의 관제 관리자 유저 인터페이스(3a)와 애플리케이션 기반의 유저 인터페이스(3b)를 제공할 수 있다.
클라이언트(40)는 자신이 사용하는 기기를 통하여, 로봇 관제 플랫폼(2)이 제공하는 유저 인터페이스(3b)를 이용할 수 있다.
도 2c와 도 2d는 본 발명의 일 실시예에 따른 로봇 서비스 딜리버리 플랫폼(1)이 제공하는 유저 인터페이스(user interface)를 예시한 것이다.
도 2c는 복수의 안내 로봇(100a)과 관련된 모니터링 화면(210)을 도시한다.
도 2c를 참조하면, 로봇 서비스 딜리버리 플랫폼(1)이 제공하는 유저 인터페이스 화면(210)은 로봇들의 상태 정보(211)와 로봇들의 위치 정보(212a, 212b, 212c)를 포함할 수 있다.
상태 정보(211)는 안내중, 대기중, 충전중 등 로봇들의 현재 상태를 나타낼 수 있다.
위치 정보(212a, 212b, 212c)는 지도 화면 상에 현재 로봇의 위치를 나타낼 수 있다. 실시예에 따라서, 위치 정보(212a, 212b, 212c)는 해당 로봇의 상태에 따라서, 모양, 색상 등을 다르게 표시함으로써, 직관적으로 더 많은 정보를 제공할 수 있다.
사용자는 유저 인터페이스 화면(210)을 통하여, 로봇의 운영 모드와 현재 위치를 실시간으로 모니터링할 수 있다.
도 2d는 개별 안내 로봇(100a)과 관련된 모니터링 화면들을 도시한다.
도 2d를 참조하면, 개별 안내 로봇(100a)이 선택되면, 기설정된 소정 기간 동안의 이력(history) 정보(221)를 포함하는 유저 인터페이스 화면(220)이 제공될 수 있다.
상기 유저 인터페이스 화면(220)은 선택된 개별 안내 로봇(100a)의 현재 위치 정보를 포함할 수 있다.
또한, 유저 인터페이스 화면(220)은 배터리 잔량 상태, 이동 등 개별 안내 로봇(100a)에 대한 알림 정보(222)를 더 포함할 수 있다.
한편, 도 2b를 참조하면, 관제/서비스 서버(11)는 복수의 로봇에 공통으로 적용되는 기능 및 서비스를 포함하는 공통부(4a, 4b), 및, 상기 복수의 로봇 중 적어도 일부와 관련된 특화 기능을 포함하는 전용부(4c)를 포함할 수 있다.
실시예에 따라서, 공통부(4a, 4b)는 기본 서비스(4a)와 공통 기능(4b)으로 나누어질 수도 있다.
공통부(4a, 4b)는 로봇들의 상태를 확인할 수 있는 상태 모니터링 서비스, 로봇들의 상태를 진단할 수 있는 진단 서비스, 로봇들을 원격으로 제어할 수 있는 원격 제어 서비스, 로봇들의 위치를 추적할 수 있는 로봇 위치 추적 서비스, 로봇들의 업무를 할당, 확인, 수정할 수 있는 스케줄 관리 서비스, 각종 통계 데이터와 분석 리포트를 확인할 수 있는 통계/리포트 서비스 등을 포함할 수 있다.
또한, 공통부(4a, 4b)는 로봇 인증 기능 사용자의 권한을 관리하는 사용자 롤(Role) 관리 기능, 운영 이력 관리 기능, 로봇 관리 기능, 펌웨어 관리 기능, 알림 푸시(push)와 관련된 푸시 기능, 로봇들의 그룹을 설정하고 관리할 수 있는 로봇 그룹 관리 기능, 맵 데이터, 버전 정보 등을 확인하고 관리할 수 있는 맵 관리 기능, 공지사항 관리 기능 등을 포함할 수 있다.
전용부(4c)는 로봇들이 운용되는 장소, 서비스의 종류, 고객의 요구 사항 등을 고려한 특화 기능으로 구성될 수 있다. 전용부(4c)는 주로 B2B 고객을 위한 특화 기능을 포함할 수 있다. 예를 들어, 청소 로봇(100d)의 경우에, 전용부(4c)는 청소 영역 설정, 사이트(site)별 상태 모니터링, 청소 예약 설정, 청소 이력 조회 기능을 포함할 수 있다.
한편, 전용부(4c)가 제공하는 특화 기능은 공통으로 적용되는 기능 및 서비스에 기초할 수 있다. 예를 들어, 특화 기능도 기본 서비스(4a)를 수정하거나 기본 서비스(4a)에 소정 서비스를 추가하여 구성될 수 있다. 또는 특화 기능은 공통 기능(4b)을 일부 수정하여 구성하는 것도 가능하다.
이 경우에, 전용부(4c)가 제공하는 특화 기능에 대응하는 기본 서비스, 공통 기능은 제거되거나, 비활성화될 수도 있다.
도 3은 본 발명의 일 실시예에 따라 로봇에서 획득된 데이터(data)를 이용한 학습(Learning)에 대한 설명에 참조되는 도면이다.
도 3을 참조하면, 로봇(100) 등 소정 기기의 동작으로 획득되는 제품 데이터(product data)가 서버(10)로 전송될 수 있다.
예를 들어, 로봇(100)은, 서버(10)로 공간(space), 사물(Object), 사용(Usage) 관련 데이터(Data)를 서버(10)로 전송할 수 있다.
여기서, 공간(space), 사물(Object) 관련 데이터는 로봇(100)이 인식한 공간(space)과 사물(Object)의 인식 관련 데이터이거나, 영상획득부(도 7의 120 참조)가 획득한 공간(space)과 사물(Object)에 대한 이미지 데이터일 수 있다.
실시예에 따라서, 로봇(100) 및 서버(10)는 사용자, 음성, 공간의 속성, 장애물 등 사물의 속성 중 적어도 하나를 인식하도록 학습된 소프트웨어 또는 하드웨어 형태의 인공신경망(Artificial Neural Networks: ANN)을 포함할 수 있다.
본 발명의 일 실시예에 따르면, 로봇(100) 및 서버(10)는 딥러닝(Deep Learning)으로 학습된 CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), DBN(Deep Belief Network) 등 심층신경망(Deep Neural Network: DNN)을 포함할 수 있다. 예를 들어, 로봇(100)의 제어부(도 7의 140 참조)에는 CNN(Convolutional Neural Network) 등 심층신경망 구조(DNN)가 탑재될 수 있다.
서버(10)는 로봇(100)으로부터 수신한 데이터, 사용자에 의해 입력되는 데이터 등에 기초하여, 심층신경망(DNN)을 학습시킨 후, 업데이트된 심층신경망(DNN) 구조 데이터를 로봇(100)으로 전송할 수 있다. 이에 따라, 로봇(100)이 구비하는 인공지능(artificial intelligence)의 심층신경망(DNN) 구조를 업데이트할 수 있다.
또한, 사용(Usage) 관련 데이터(Data)는 소정 제품, 예를 들어, 로봇(100)의 사용에 따라 획득되는 데이터로, 사용 이력 데이터, 센서부(도 7의 170 참조)에서 획득된 센싱 데이터 등이 해당될 수 있다.
학습된 심층신경망 구조(DNN)는 인식용 입력 데이터를 입력받고, 입력 데이터에 포함된 사람, 사물, 공간의 속성을 인식하여, 그 결과를 출력할 수 있다.
또한, 상기 학습된 심층신경망 구조(DNN)는 인식용 입력 데이터를 입력받고, 로봇(100)의 사용(Usage) 관련 데이터(Data)를 분석하고 학습하여 사용 패턴, 사용 환경 등을 인식할 수 있다.
한편, 공간(space), 사물(Object), 사용(Usage) 관련 데이터(Data)는 통신부(도 7의 190 참조)를 통하여 서버(10)로 전송될 수 있다.
서버(10)는 수신한 데이터에 기초하여, 심층신경망(DNN)을 학습시킨 후, 업데이트된 심층신경망(DNN) 구조 데이터를 이동 로봇(100)으로 전송하여 업데이트하게 할 수 있다.
이에 따라, 로봇(100)이 점점 더 똑똑해지고, 사용할수록 진화되는 사용자 경험(UX)을 제공할 수 있다.
로봇(100) 및 서버(10)는 외부 정보(external information)도 이용할 수 있다. 예를 들어, 서버(10)가 다른 연계 서비스 서버(20, 30)로부터 획득한 외부 정보를 종합적으로 사용하여 우수한 사용자 경험을 제공할 수 있다.
상기 서버(70)는 사용자가 발화한 음성 입력 신호를 수신하여 음성 인식을 수행할 수 있다. 이를 위해, 상기 서버(70)는 음성 인식 모듈을 포함할 수 있고, 음성 인식 모듈은 입력 데이터에 대하여 음성 인식을 수행하여 음성 인식 결과를 출력하도록 학습된 인공신경망을 포함할 수 있다.
실시예에 따라서, 상기 서버(10)는 음성 인식을 위한 음성 인식 서버를 포함할 수 있다. 또한, 음성 인식 서버도 음성 인식 과정 중 소정 과정을 분담하여 수행하는 복수의 서버를 포함할 수 있다. 예를 들어, 음성 인식 서버는, 음성 데이터를 수신하고, 수신한 음성 데이터를 텍스트(text) 데이터로 변환하는 자동 음성 인식(Automatic Speech Recognition: ASR) 서버, 및, 상기 자동 음성 인식 서버로부터 상기 텍스트 데이터를 수신하고, 수신한 텍스트 데이터를 분석하여 음성 명령을 판별하는 자연어 처리(Natural Language Processing: NLP) 서버를 포함할 수 있다. 경우에 따라서, 음성 인식 서버는, 자연어 처리 서버가 출력한 텍스트 음성 인식 결과를 음성 데이터로 변환하여 다른 서버 또는 기기로 송신하는 텍스트 음성 변환(Text to Speech: TTS) 서버를 더 포함할 수 있다.
본 발명에 따르면, 로봇(100) 및/또는 서버(10)가 음성 인식을 수행할 수 있어, 로봇(100)의 제어를 위한 입력을 사용자 음성을 사용할 수 있다.
또한, 본 발명에 따르면, 로봇(100)이 능동적으로 먼저 정보를 제공하거나 기능, 서비스를 추천하는 음성을 출력함으로써 사용자에게 더욱 다양하고 적극적인 제어 기능을 제공할 수 있다.
도 4, 도 5, 및, 도 6a 내지 도 6d는 본 발명의 실시예에 따른 로봇들을 예시한 도이다. 로봇(100)은 특정 공간에 배치되거나 주행하면서 부여된 임무를 수행할 수 있다.
도 4는 주로 공공장소에서 사용되는 이동 로봇들을 예시한다. 이동 로봇은 바퀴 등을 이용하여 스스로 이동이 가능한 로봇을 의미한다. 따라서, 이동 로봇은 스스로 이동 가능한 안내 로봇, 청소 로봇, 엔터테인먼트(Entertainment) 로봇, 가정 도우미 로봇, 경비 로봇 등일 수 있고, 본 발명은 이동 로봇의 종류에 한정되지 않는다.
도 4는 안내 로봇(100a)과 청소 로봇(100d)을 예시한다.
안내 로봇(100a)은 디스플레이(110a)를 구비하여 유저 인터페이스 화면 등 소정 영상을 표시할 수 있다.
또한, 안내 로봇(100a)은 이벤트, 광고, 안내 정보 등을 포함하는 유저 인터페이스(UI) 화면을 디스플레이(110a)에 표시할 수 있다. 디스플레이(110a)는 터치스크린으로 구성되어 입력 수단으로도 사용될 수 있다.
또한, 안내 로봇(100a)은, 터치, 음성 입력 등으로 사용자 입력을 수신하여, 사용자 입력에 대응하는 물체, 장소에 대한 정보를 디스플레이(110a) 화면에 표시할 수 있다.
실시예에 따라서, 안내 로봇(100a)은, 안내를 위하여, 티켓, 항공권, 바코드, QR 코드 등을 식별할 수 있는 스캐너를 구비할 수 있다.
또한, 안내 로봇(100a)은, 사용자 요청 시, 특정 목적지까지 이동하면서 사용자를 직접 안내하는 에스코트 서비스(escort service)를 제공할 수 있다.
청소 로봇(100d)은 브러시 등 청소 기구(135d)를 구비하여 스스로 이동하면서 특정 공간을 청소할 수 있다.
이러한 이동 로봇(100a, 100d)은 특정 공간을 주행하면서 부여된 임무를 수행할 수 있다. 이동 로봇(100a, 100d)은 스스로 소정 목적지까지의 경로를 생성하여 이동하는 자율 주행, 사람 또는 다른 로봇을 따라가며 이동하는 추종 주행을 수행할 수 있다. 안전사고 발생을 방지하기 위해서, 이동 로봇(100a, 100d)은 영상획득부(120)를 통하여 획득되는 영상 데이터, 센서부(170)에서 획득되는 센싱 데이터 등에 기초하여 이동 중 장애물을 감지하여 회피하면서 주행할 수 있다.
도 5는 본 발명의 일 실시예에 따른 홈 로봇의 외관을 도시하는 정면도이다.
도 5를 참조하면, 홈 로봇(100b)은, 외관을 형성하고 그 내부에 각종 부품을 수납하는 본체(111b, 112b)를 포함한다.
본체(111b, 112b)는 홈 로봇(100b)을 구성하는 각종 부품들이 수용되는 공간을 형성하는 바디(body, 111b)와 상기 바디(111b)의 하측에 배치되어 상기 바디(111b)를 지지하는 지지부(112b)를 포함할 수 있다.
또한, 홈 로봇(100b)은 본체(111b, 112b)의 상측에 배치되는 헤드(head, 110b)를 포함할 수 있다. 헤드(110b)의 전면에는 영상을 표시할 수 있는 디스플레이(182b)가 배치될 수 있다.
본 명세서에서 전면 방향은 +y 축 방향을 의미하고, 상하 방향은 z축 방향, 좌우 방향은 x축 방향을 의미할 수 있다.
상기 헤드(110b)는 x축을 중심으로 소정 각도 범위 내에서 회전할 수 있다.
이에 따라, 전면에서 봤을 때, 상기 헤드(110b)는 사람이 고개를 상하 방향으로 끄덕거리는 것처럼 상하 방향으로 움직이는 노딩(Nodding) 동작이 가능하다. 예를 들어, 상기 헤드(110b)는 사람이 머리를 상하 방향으로 끄덕거리는 것처럼 소정 범위 내에서 회전 후 원위치 복귀 동작을 1회 이상 수행할 수 있다.
한편, 실시예에 따라서는, 헤드(100b) 중 사람의 안면에 대응할 수 있는 디스플레이(182b)가 배치되는 전면 중 적어도 일부가 노딩되도록 구현될 수 있다.
따라서, 본 명세서에서는, 상기 헤드(110b) 전체가 상하 방향으로 움직이는 실시예를 중심으로 기술하지만, 특별히 설명하지 않는 한, 헤드(110b)가 상하 방향으로 노딩(Nodding)하는 동작은, 디스플레이(182)가 배치되는 전면 중 적어도 일부가 상하 방향으로 노딩하는 동작으로 대체 가능할 것이다.
상기 바디(111b)는 좌우 방향으로 회전 가능하도록 구성될 수 있다. 즉, 상기 바디(111b)는 z축을 중심으로 360도 회전 가능하도록 구성될 수 있다.
또한, 실시예에 따라서는, 상기 바디(111b)도 x축을 중심으로 소정 각도 범위 내에서 회전가능하게 구성됨으로써, 상하 방향으로도 끄덕거리는 것처럼 움직일 수 있다. 이 경우에, 상기 바디(111b)가 상하 방향으로 회전함에 따라, 상기 바디(111b)가 회전하는 축을 중심으로 상기 헤드(110b)도 함께 회전할 수 있다.
따라서, 본 명세서에서 헤드(110b)가 상하 방향으로 노딩(Nodding)하는 동작은, 헤드(110b) 자체가 소정 축을 중심으로 전면에서 봤을 때 상하 방향으로 회전하는 경우와 상기 바디(111b)가 상하 방향으로 노딩함에 따라, 상기 바디(111b)에 연결된 상기 헤드(110b)가 함께 회전함으로써 노딩되는 경우를 모두 포함할 수 있다.
한편, 홈 로봇(100b)은 본체(111b, 112b) 주변, 적어도 본체(111b, 112b) 전면을 중심으로 소정 범위를 촬영할 수 있는 영상획득부(120b)를 포함할 수 있다.
영상획득부(120b)는 본체(111b, 112b) 주변, 외부 환경 등을 촬영하는 것으로, 카메라 모듈을 포함할 수 있다. 이러한 카메라는 촬영 효율을 위해 각 부위별로 여러 개가 설치될 수도 있다. 바람직하게, 영상획득부(120b)는, 본체(111b, 112b) 전면의 영상을 획득하도록 헤드(110b)의 전면에 구비되는 전면 카메라를 포함할 수 있다.
또한, 홈 로봇(100b)은 사용자의 음성 입력을 수신하는 음성 입력부(125b)를 포함할 수 있다.
음성 입력부(125b)는 아날로그 소리를 디지털 데이터로 변환하는 처리부를 포함하거나 처리부에 연결되어 사용자 입력 음성 신호를 서버(10) 또는 제어부(140)에서 인식할 수 있도록 데이터화할 수 있다.
음성 입력부(125b)는 사용자 음성 입력 수신의 정확도를 높이고, 사용자의 위치를 판별하기 위해, 복수의 마이크를 포함할 수 있다.
예를 들어, 음성 입력부(125b)는 적어도 2이상의 마이크를 포함할 수 있다.
복수의 마이크(MIC)는, 서로 다른 위치에 이격되어 배치될 수 있고, 음성 신호를 포함한 외부의 오디오 신호를 획득하여 전기적인 신호로 처리할 수 있다.
한편, 입력 장치인 마이크는 음향을 발생시킨 음원, 사용자의 방향 추정을 위하여 최소 2개가 필요하며, 마이크 사이의 간격은 물리적으로 멀리 떨어져 있을수록 방향 검출의 해상도(각도)가 높다. 실시예에 따라서는 2개의 마이크가 상기 헤드(110b)에 배치될 수 있다. 또한, 상기 헤드(110b)의 후면에 2개의 마이크를 더 포함함으로써, 사용자의 3차원 공간상의 위치를 판별할 수 있다.
또한, 음향 출력부(181b)가 헤드(110b)의 좌우측면에 배치되어, 소정 정보를 음향으로 출력할 수 있다.
한편, 도 5에 예시된 로봇의 외관 및 구조는 예시적인 것으로 본 발명은 이에 한정되지 않는다. 예를 들어, 도 5에서 예시된 로봇(100)의 회전 방향과 달리 로봇(100) 전체가 특정 방향으로 기울어지거나 흔들리는 동작도 가능하다.
도 6a 내지 도 6d는 소정 물품을 운반할 수 있는 배송 로봇들(100c, 100c1, 100c2, 100c3)을 예시한다.
도면들을 참조하면, 배송 로봇들(100c, 100c1, 100c2, 100c3)은 자율 주행, 추종 주행으로 이동할 수 있고, 수용되는 짐, 물품, 캐리어(C) 등을 싣고 소정 장소로 이동할 수 있으며, 경우에 따라서 사용자를 특정 장소까지 안내하는 에스코트 서비스도 제공할 수 있다.
한편, 배송 로봇들(100c, 100c1, 100c2, 100c3)은 소정 장소에서 자율 주행하면서 사람들에게 특정 위치를 안내하거나, 수하물 등 짐을 운반할 수 있다.
또한, 배송 로봇들(100c, 100c1, 100c2, 100c3)은 사용자와 소정 거리를 유지하면서 따라가는 추종 주행을 수행할 수 있다.
실시예에 따라서, 배송 로봇들(100c, 100c1, 100c2, 100c3)은 운반하는 짐의 무게를 센싱하는 무게 센서를 포함할 수 있고, 무게 센서에서 감지된 짐의 무게를 사용자에게 안내할 수 있다.
배송 로봇들(100c, 100c1, 100c2, 100c3)에는 사용 환경 및 용도에 따라 최적화된 서비스를 제공하기 위해 모듈러 디자인이 적용될 수 있다.
예를 들어, 기본 플랫폼(100c)은 바퀴, 모터 등을 구비하여 주행을 담당하는 주행 모듈(160c), 디스플레이, 마이크, 스피커 등을 구비하여 사용자와의 인터랙션을 담당하는 UI 모듈(180c)을 포함할 수 있다.
도면들을 참조하면, 주행 모듈(160c)은 하나 이상의 절개부(OP1, OP2, OP3)를 포함할 수 있다.
제1 절개부(OP1)는, 내부의 전방 라이더(미도시)가 동작 가능하도록 상기 주행 모듈(160c)에서 절개되는 부분으로, 상기 주행 모듈(160c)의 외주면의 전방에서 측방에 걸쳐 형성될 수 있다.
상기 전방 라이더는 상기 주행 모듈(160c)의 내부에서 상기 제1 절개부(OP1)와 마주보도록 배치될 수 있다. 이에 따라, 상기 전방 라이더는 상기 제1 절개부(OP1)를 통하여 레이저를 방출할 수 있다.
제2 절개부(OP2)는, 내부의 후방 라이더(미도시)가 동작 가능하도록 상기 주행 모듈(160c)에서 절개되는 부분으로, 상기 주행 모듈(160c)의 외주면의 후방에서 측방에 걸쳐 형성될 수 있다.
상기 후방 라이더는 상기 주행 모듈(160c)의 내부에서 상기 제2 절개부(OP2)와 마주보도록 배치될 수 있다. 이에 따라, 상기 후방 라이더는 상기 제2 절개부(OP2)를 통하여 레이저를 방출할 수 있다.
제3 절개부(OP3)는, 주행구역 내 바닥에 낭떠러지의 존재 여부를 감지하는 절벽 감지 센서 등 내부의 센서가 동작 가능하도록 상기 주행 모듈(160c)에서 절개되는 부분이다.
한편, 상기 주행 모듈(160c)의 외면에도 센서가 배치될 수 있다. 상기 주행 모듈(160c)의 외면에는 장애물을 감지하기 위한 초음파 센서(171c) 등 장애물 감지 센서가 배치될 수 있다.
예를 들어, 초음파 센서(171c)는 초음파 신호를 이용하여 장애물과 배송 로봇들(100c, 100c1, 100c2, 100c3) 사이의 거리를 측정하기 위한 센서일 수 있다. 상기 초음파 센서(333)는 상기 배송 로봇들(100c, 100c1, 100c2, 100c3)과 근접한 장애물을 감지하기 위한 기능을 수행할 수 있다.
일례로, 상기 초음파 센서(171c)는 상기 배송 로봇들(100c, 100c1, 100c2, 100c3)에 근접한 모든 방향의 장애물을 감지하기 위하여 다수 개로 구성될 수 있다. 그리고 상기 다수 개의 초음파 센서(171c)는 상기 주행 모듈(160c)의 둘레를 따라 서로 이격되게 위치될 수 있다.
실시예에 따라서, UI 모듈(180c)은 2개의 디스플레이(182a, 182b)를 포함할 수 있고, 2개의 디스플레이(182a, 182b) 중 적어도 하나는 터치스크린으로 구성되어 입력 수단으로도 사용될 수 있다
또한, UI 모듈(180c)은 영상획득부(120)의 카메라를 더 포함할 수 있다. 카메라는 UI 모듈(180c)의 전면에 배치되어 UI 모듈(180c)의 전면 소정 범위의 영상 데이터를 획득할 수 있다.
실시예에 따라서, UI 모듈(180c)의 적어도 일부는 회전 가능하게 구현될 수 있다. 예를 들어, UI 모듈(180c)은 좌우 방향으로 회전할 수 있는 헤드부(180a)와 상기 헤드부(180ca)를 지지하는 바디부(180cb)를 포함할 수 있다.
상기 헤드부(180ca)는 배송 로봇들(100c, 100c1, 100c2, 100c3)의 동작 모드, 현재 상태 등에 기초하여 회전할 수 있다.
또한, 상기 헤드부(180ca)에는 상기 카메라가 배치되어 상기 헤드부(180a)가 향하는 방향의 소정 범위의 영상 데이터를 획득할 수 있다.
예를 들어, 배송 로봇들(100c, 100c1, 100c2, 100c3)이 사용자를 따라다니는 추종 주행 모드에서 상기 헤드부(180ca)는 전방을 향하도록 회전할 수 있다. 또한, 배송 로봇들(100c, 100c1, 100c2, 100c3)이 소정 목적지까지 사용자보다 앞서서 이동하며 안내하는 에스코트 서비스를 제공하는 안내 모드에서 상기 헤드부(180ca)는 후방을 향하도록 회전할 수 있다.
또한, 상기 헤드부(180ca)는 상기 카메라가 식별되는 사용자를 향하도록 회전할 수 있다.
포터 로봇(100c1)은 기본 플랫폼(100c)에 짐을 수용할 수 있는 운반 서비스 모듈(160c1)을 더 포함할 수 있다. 실시예에 따라서, 포터 로봇(100c1)은, 안내를 위하여, 티켓, 항공권, 바코드, QR 코드 등을 식별할 수 있는 스캐너를 구비할 수 있다.
서빙 로봇(100c2)은 기본 플랫폼(100c)에 서빙 물품을 수용할 수 있는 서빙 서비스 모듈(160c2)을 더 포함할 수 있다. 예를 들어, 호텔에서의 서빙 물품은 수건, 칫솔, 치약, 욕실 용품, 침구류, 음료, 음식, 룸 서비스, 기타 소물 가전 등이 해당될 수 있다. 서빙 서비스 모듈(160c2)은 서빙 물품을 수용할 수 있는 공간을 구비하여, 서빙 물품을 안정적으로 운반할 수 있다. 또한, 서빙 서비스 모듈(160c2)은 상기 서빙 물품을 수용할 수 있는 공간을 개폐할 수 있는 도어(door)를 구비할 수 있고, 상기 도어는 수동 및/또는 자동으로 열리고 닫힐 수 있다.
카트 로봇(100c3)은 기본 플랫폼(100c)에 고객의 쇼핑 물품을 수용할 수 있는 쇼핑 카트 서비스 모듈(160c3)을 더 포함할 수 있다. 쇼핑 카트 서비스 모듈(160c3)는 쇼핑 물품의 바코드, QR 코드 등을 인식할 수 있는 스캐너를 구비할 수 있다.
서비스 모듈(160c1, 160c2, 160c3)은 주행 모듈(160c) 및/또는 UI 모듈(180c)과 기구적으로 결합될 수 있다. 또한, 서비스 모듈(160c1, 160c2, 160c3)은 주행 모듈(160c) 및/또는 UI 모듈(180c)과 전기적으로 연결되어 신호를 송수신할 수 있다. 이에 따라, 유기적으로 동작할 수 있다.
이를 위해, 배송 로봇들(100c, 100c1, 100c2, 100c3)은, 주행 모듈(160c) 및/또는 UI 모듈(180c)과 서비스 모듈(160c1, 160c2, 160c3)을 결합하기 위한 결합부(400c)를 포함할 수 있다.
도 7은 본 발명의 일 실시예에 따른 로봇의 간략한 내부 블록도의 일예이다.
도 7을 참조하면, 본 발명의 일 실시예에 따른 로봇(100)은, 로봇(100)의 전반적인 동작을 제어하는 제어부(140), 각종 데이터를 저장하는 저장부(130), 서버(10) 등 다른 기기와 데이터를 송수신하는 통신부(190)를 포함할 수 있다.
제어부(140)는, 로봇(100) 내 저장부(130), 통신부(190), 구동부(160), 센서부(170), 출력부(180) 등을 제어하여, 로봇(100)의 동작 전반을 제어할 수 있다.
저장부(130)는 로봇(100)의 제어에 필요한 각종 정보들을 기록하는 것으로, 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다. 기록 매체는 마이크로 프로세서(micro processor)에 의해 읽힐 수 있는 데이터를 저장한 것으로, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등을 포함할 수 있다.
한편, 제어부(140)는 통신부(190)를 통해 로봇(100)의 동작상태 또는 사용자 입력 등을 서버(10) 등으로 전송하도록 제어할 수 있다.
통신부(190)는 적어도 하나의 통신모듈을 포함하여 로봇(100)이 인터넷, 또는 소정의 네트워크에 연결되도록 할 수 있고 다른 기기와 통신하게 할 수 있다.
또한, 통신부(190)는 서버(10)에 구비되는 통신 모듈과 연결하여 로봇(100)과 서버(10) 간의 데이터 송수신을 처리할 수 있다.
본 발명의 일 실시예에 따른 로봇(100)은 마이크를 통하여 사용자의 음성 입력을 수신하는 음성 입력부(125)를 더 포함할 수 있다.
음성 입력부(125)는, 아날로그 소리를 디지털 데이터로 변환하는 처리부를 포함하거나 처리부에 연결되어, 사용자 입력 음성 신호를 제어부(140) 또는 서버(10)에서 인식할 수 있도록 데이터화할 수 있다.
한편, 저장부(130)에는 음성 인식을 위한 데이터가 저장될 수 있고, 상기 제어부(140)는 음성 입력부(125)를 통하여 수신되는 사용자의 음성 입력 신호를 처리하고 음성 인식 과정을 수행할 수 있다.
한편, 음성 인식 과정은 로봇(100) 자체에서 실시되지 않고 서버(10)에서 수행될 수 있다. 이 경우에, 제어부(140)는 사용자 입력 음성 신호가 상기 서버(10)로 송신되도록 통신부(190)를 제어할 수 있다.
또는, 간단한 음성 인식은 로봇(100)이 수행하고, 자연어 처리 등 고차원의 음성 인식은 서버(10)에서 수행될 수 있다.
예를 들어, 기설정된 키워드를 포함하는 음성 입력이 수신되는 경우에, 로봇(100)은 키워드에 대한 동작을 수행하고, 다른 음성 입력은 서버(10)를 통하여 수행할 수 있다. 또는, 로봇(100)은 음성 인식 모드를 활성화하는 호출어 인식까지만 수행하고, 이후의 사용자 음성 입력에 대한 음성 인식은 서버(10)를 통하여 수행할 수 있다.
한편, 제어부(140)는 음성 인식 결과에 기초하여 로봇(100)이 소정 동작을 수행하도록 제어할 수 있다.
한편, 로봇(100)은 출력부(180)를 포함하여, 소정 정보를 영상으로 표시하거나 음향으로 출력할 수 있다.
출력부(180)는 사용자의 명령 입력에 대응하는 정보, 사용자의 명령 입력에 대응하는 처리 결과, 동작모드, 동작상태, 에러상태 등을 영상으로 표시하는 디스플레이(182)를 포함할 수 있다. 실시예에 따라서, 로봇(100)은 복수개의 디스플레이(182)를 포함할 수 있다.
실시예에 따라서는, 상기 디스플레이(182) 중 적어도 일부는 터치패드와 상호 레이어 구조를 이루어 터치스크린으로 구성될 수 있다. 이 경우에, 터치스크린으로 구성되는 디스플레이(182)는 출력 장치 이외에 사용자의 터치에 의한 정보의 입력이 가능한 입력 장치로도 사용될 수 있다.
또한, 출력부(180)는 오디오 신호를 출력하는 음향 출력부(181)를 더 포함할 수 있다. 음향 출력부(181)는 제어부(140)의 제어에 따라 경고음, 동작모드, 동작상태, 에러상태 등의 알림 메시지, 사용자의 명령 입력에 대응하는 정보, 사용자의 명령 입력에 대응하는 처리 결과 등을 음향으로 출력할 수 있다. 음향 출력부(181)는, 제어부(140)로부터의 전기 신호를 오디오 신호로 변환하여 출력할 수 있다. 이를 위해, 스피커 등을 구비할 수 있다.
실시예에 따라서, 로봇(100)은 소정 범위를 촬영할 수 있는 영상획득부(120)를 더 포함할 수 있다.
영상획득부(120)는 로봇(100) 주변, 외부 환경 등을 촬영하는 것으로, 카메라 모듈을 포함할 수 있다. 이러한 카메라는 촬영 효율을 위해 각 부위별로 여러 개가 설치될 수도 있다.
영상획득부(120)는, 사용자 인식용 영상을 촬영할 수 있다. 제어부(140)는 상기 영상획득부(120)가 촬영하여 획득된 영상에 기초하여 외부 상황을 판단하거나, 사용자(안내 대상)를 인식할 수 있다.
또한, 로봇(100)이 안내 로봇(100a), 배송 로봇(100c1, 100c2, 100c3), 청소 로봇(100d) 등 이동 로봇인 경우에, 상기 제어부(140)는, 상기 영상획득부(120)가 촬영하여 획득하는 영상에 기초하여 로봇(100)이 주행하도록 제어할 수 있다.
한편, 상기 영상획득부(120)가 촬영하여 획득된 영상은 저장부(130)에 저장될 수 있다.
로봇(100)이 안내 로봇(100a), 배송 로봇(100c1, 100c2, 100c3), 청소 로봇(100d) 등 이동 로봇인 경우에, 로봇(100)은 이동을 위한 구동부(160)를 더 포함할 수 있고, 상기 구동부(160)는 제어부(140)의 제어에 따라, 본체를 이동시킬 수 있다.
구동부(160)는 로봇(100)은 본체를 이동시키는 적어도 하나의 구동 바퀴(미도시)를 포함할 수 있다. 구동부(160)는 구동 바퀴에 연결되어 구동 바퀴를 회전시키는 구동 모터(미도시)를 포함할 수 있다. 구동 바퀴는 본체의 좌, 우 측에 각각 구비될 수 있으며, 이하, 각각 좌륜과 우륜이라고 한다.
좌륜과 우륜은 하나의 구동 모터에 의해 구동될 수도 있으나, 필요에 따라 좌륜을 구동시키는 좌륜 구동 모터와 우륜을 구동시키는 우륜 구동 모터가 각각 구비될 수도 있다. 좌륜과 우륜의 회전 속도에 차이를 두어 좌측 또는 우측으로 본체의 주행방향을 전환할 수 있다.
홈 로봇(100b)과 같이 이동하지 않는 로봇(100)도 도 5를 참조하여 설명한 것과 같이 소정 액션(action)을 수행하기 위한 구동부(160)를 포함할 수 있다.
이 경우에, 구동부(160)는 바디(111b) 및 헤드(110b)를 회전 및/또는 이동시키는 복수의 구동 모터(미도시)를 포함할 수 있다.
한편, 로봇(100)은 로봇(100)의 동작, 상태와 관련된 각종 데이터를 센싱하는 센서들을 포함하는 센서부(170)를 포함할 수 있다.
상기 센서부(170)는 로봇(100)의 동작을 감지하고 동작 정보를 출력하는 동작 감지 센서를 더 포함할 수 있다. 예를 들어, 동작 감지 센서로는, 자이로 센서(Gyro Sensor), 휠 센서(Wheel Sensor), 가속도 센서(Acceleration Sensor) 등을 사용할 수 있다.
상기 센서부(170)는 장애물을 감지하는 장애물 감지 센서를 포함할 수 있고, 상기 장애물 감지 센서는, 적외선 센서, 초음파 센서, RF 센서, 지자기 센서, PSD(Position Sensitive Device) 센서, 주행구역 내 바닥에 낭떠러지의 존재 여부를 감지하는 절벽 감지 센서, 라이다(light detection and ranging: Lidar) 등 포함할 수 있다.
한편, 상기 장애물 감지 센서는 이동 로봇의 주행(이동) 방향에 존재하는 물체, 특히 장애물을 감지하여 장애물 정보를 제어부(140)에 전달한다. 이때, 제어부(140)는, 감지된 장애물의 위치에 따라 로봇(100)의 움직임을 제어할 수 있다.
도 8a는 본 발명의 일 실시예에 따른 서버를 경유하는 로봇간 협업 시스템에 관한 설명에 참조되는 도면이다.
도 8a를 참조하면, 제1 로봇(101)과 제2 로봇(102)은 관제 서버(11)와 통신할 수 있다.
제1 로봇(101)과 제2 로봇(102)은 사용자 요청 사항, 상태 정보 등 각종 정보를 관제 서버(11)로 송신할 수 있다.
또한, 관제 서버(11)는 제1 로봇(101)과 제2 로봇(102)을 제어할 수 있고, 제1 로봇(101)과 제2 로봇(102)의 상태, 각자가 맡은 업무인 임무 수행 현황 등을 모니터링할 수 있다.
제1 로봇(101)은 소정 서비스를 요청하는 사용자 입력을 수신할 수 있다. 제1 로봇(101)은 사용자가 요청한 서비스에 기초하여, 다른 로봇을 호출하여 업무를 지원할 것을 요청하고, 사용자 요청 사항과 관련된 정보를 관제 서버(11)로 송신할 수 있다.
관제 서버(11)는 현재 로봇들의 상태 정보를 확인하여 제1 로봇(101)이 지원 요청한 업무를 지원할 지원 로봇을 판별할 수 있다.
예를 들어, 관제 서버(11)는 복수의 로봇 중에서 현재 업무 수행 여부 또는 제1 로봇(101)의 위치와의 거리 또는 현재 수행중인 기존 업무의 완료 예상 시간 중 적어도 하나에 기초하여 상기 지원 로봇을 선정할 수 있다.
만약 제2 로봇(102)이 지원 로봇으로 선정된 경우에, 관제 서버(11)는 제2 로봇(102)을 호출하여 업무를 지원할 것을 요청하고, 사용자 요청 사항과 관련된 정보를 제2 로봇(102)으로 송신할 수 있다. 제1 로봇(101)의 호출에 응답하여 지원 업무는 제2 로봇(102)이 맡은 업무인 제2 로봇(102)의 임무가 된다.
관제 서버(11)는 임무를 수행하는 제2 로봇(102)의 동작을 모니터링하고 제어할 수 있다.
경우에 따라서, 관제 서버(11)는 제1 로봇(101)으로 제2 로봇(102)의 지원을 알리는 정보를 송신할 수 있다.
한편, 관제 서버(11)는 호텔 또는 식당 등 상품, 서비스 제공자의 서버(15)와 정보를 송수신할 수 있다. 이 경우에, 관제 서버(11)는 호텔 또는 식당 등 상품, 서비스 제공자의 서버(15)로부터 호텔 또는 식당 관련 정보를 수신할 수 있고, 업무 수행에 필요한 정보를 상기 제1 로봇(101) 및/또는 상기 제2 로봇(102)에 전달할 수 있다.
예를 들어, 호텔 서비스 제공자의 서버(15)는 호텔 객실 정보, 환경 정보, 고객 정보 등을 제공할 수 있고, 식당 서비스 제공자의 서버(15)는 식당 테이블 정보, 환경 정보, 고객 정보 등을 제공할 수 있다.
도 8b는 본 발명의 일 실시예에 따른 로봇간 협업 시스템에 관한 설명에 참조되는 도면이다.
도 8b를 참조하면, 제1 로봇(101)은 소정 서비스를 요청하는 사용자 입력을 수신할 수 있다. 제1 로봇(101)은 사용자가 요청한 서비스에 기초하여, 직접 다른 로봇을 호출하여 업무를 지원할 것을 요청할 수 있다.
제1 로봇(101)은 현재 로봇들의 상태 정보를 확인하여 업무를 지원할 지원 로봇을 판별할 수 있다. 예를 들어, 제1 로봇(101)은 복수의 로봇 중에서 현재 업무 수행 여부 또는 제1 로봇(101)의 위치와의 거리 또는 현재 수행중인 기존 업무의 완료 예상 시간 중 적어도 하나에 기초하여 상기 지원 로봇을 선정할 수 있다.
이를 위해, 제1 로봇(101)은 관제 서버(11)로부터 로봇들의 상태 정보를 수신할 수 있다.
또는, 제1 로봇(101)은 다른 로봇들로 업무 지원을 요청하는 신호를 송신하고, 응답 신호를 송신한 로봇들 중에서 지원 로봇을 선정할 수 있다.
이 경우에, 제1 로봇(101)이 송신하는 신호는, 제1 로봇(101)의 위치 또는 서비스 제공 위치, 사용자의 요청 사항에 대한 정보를 포함할 수 있다. 또한, 로봇들이 송신한 응답 신호는 로봇들의 위치 정보, 상태 정보 등을 포함할 수 있다.
제1 로봇(101)은 응답 신호에 포함된 정보를 확인하여 소정 기준에 따라 지원 로봇을 선정할 수 있다. 본 실시예는, 서버(10)에서 에러가 발생하거나 서버(10)와 제1 로봇(101) 간에 통신 불량이 발생한 경우에도 협업을 제공할 수 있는 장점이 있다.
만약 제2 로봇(102)이 지원 로봇으로 선정된 경우에, 제1 로봇(101)은 제2 로봇(102)을 호출하여 업무를 지원할 것을 요청하고, 사용자 요청 사항과 관련된 정보를 제2 로봇(102)으로 송신할 수 있다. 제1 로봇(101)의 호출에 응답하여 지원 업무는 제2 로봇(102)이 맡은 업무인 제2 로봇(102)의 임무가 된다.
한편, 본 실시예에서도 제1 로봇(101)과 제2 로봇(102)은 관제 서버(11)와 통신할 수 있다.
제1 로봇(101)과 제2 로봇(102)은 상태 정보 등 각종 정보를 관제 서버(11)로 송신할 수 있고, 관제 서버(11)는 제1 로봇(101)과 제2 로봇(102)의 상태, 임무 수행 현황 등을 모니터링하고 제어할 수 있다.
이 경우에도, 관제 서버(11)는 호텔 또는 식당 등 서비스 제공자의 서버(15)와 정보를 송수신할 수 있다. 예를 들어, 관제 서버(11)는 호텔 또는 식당 등 서비스 제공자의 서버(15)로부터 호텔 또는 식당 관련 정보를 수신할 수 있고, 업무 수행에 필요한 정보를 상기 제1 로봇(101) 및/또는 상기 제2 로봇(102)에 전달할 수 있다.
한편, 관제 서버(11)는 본 발명의 일 실시예에 따른 RSDP(10)이거나 RSDP(10)에 포함되는 서버 중 하나일 수 있다. 따라서, 도 8a와 도 8b을 참조하여 설명한 관제 서버(11)의 동작은 RSDP(10)가 수행할 수 있다. 또한, 상술한 것과 같이, RSDP(10)의 구성은 복수의 서버로 정보, 기능이 분산되어 구성될 수도 있고, 하나의 통합 서버로 구성될 수도 있을 것이다.
도 8a와 도 8b에서, 협업을 수행하는 상기 제1 로봇(101)과 상기 제2 로봇(102)은 같은 종류의 로봇일 수 있다. 더욱 바람직하게는 상기 제1 로봇(101)과 상기 제2 로봇(102)은 다른 종류의 로봇일 수 있다. 예를 들어, 상기 제1 로봇(101)은, 소정 정보를 영상 및 음성으로 출력하여 사용자와 인터랙션할 수 있는 안내 로봇(100a), 홈 로봇(100b)이고, 상기 제2 로봇(102)은, 소정 물품을 운반할 수 있는 서빙 로봇(100c2) 등 배송 로봇(100c1, 100c2, 100c3)일 수 있다.
로봇은 종류에 따라 하드웨어 성능 및 제공 가능한 서비스가 다를 수 있다. 따라서, 다른 종류의 로봇을 조합하여 협업을 수행함으로써 더욱 다양하고 풍부한 서비스의 제공이 가능하다.
본 발명에 따르면, 공항, 호텔 등에서 로봇 간 협업 수행이 가능하고, 협업 임무 수행시 관리자의 개입을 최소화함으로써, 관리 비용 및 시간도 감소시킬 수 있어 사용 편의성이 향상될 수 있다.
도 9는 본 발명의 일 실시예에 따른 로봇 시스템의 제어 방법을 도시한 순서도이다.
도 9를 참조하면, 제1 로봇(101)이 소정 서비스 요청을 포함하는 사용자 입력을 수신할 수 있다(S910). 제1 로봇(101)은 사용자의 터치 입력 또는 음성 입력을 수신하여 사용자 입력에 대응하는 서비스를 식별할 수 있다. 예를 들어, 제1 로봇(101)은 사용자의 터치 입력 또는 음성 입력으로부터 소정 물품의 배송 서비스를 요구하는 사용자 요청을 식별할 수 있다. 본 명세서에서 배송 서비스는 호텔의 룸 서비스, 식당의 음식 배송 서비스 등 고객이 요청한 서비스에 대응하여 소정 물품을 특정 장소에 가져다 주는 모든 서비스를 의미할 수 있다.
상기 제1 로봇(101)은 서버(10)로 상기 사용자 입력에 기초한 정보를 송신할 수 있다(S921). 여기서, 상기 사용자 입력에 기초한 정보는 제1 로봇(101)의 위치 또는 서비스 제공 위치, 사용자의 요청 사항에 대한 정보를 포함할 수 있다. 예를 들어, 소정 객실, 테이블로 소정 물품을 배송해주는 배송 서비스를 사용자가 요청한 경우에, 상기 제1 로봇(101)은 서버(10)로 제1 로봇(101)의 현재 위치 정보, 배송지 정보, 배송 서비스 요청 정보 등을 송신할 수 있다.
실시예에 따라서는, 사용자는 특정 장소에 배치된 전화기(예를 들어, 객실폰), 태블릿 PC, TV 등을 이용하여, 룸 서비스, 배송 서비스를 요청할 수 있다.
한편, 서버(10)는 배송 서비스 요청에 대응하는 업무를 지원할 지원 로봇을 판별할 수 있다(S923).
상기 서버(10)는, 로봇 시스템에 포함되는 복수의 로봇 중에서 현재 업무 수행 여부 또는 상기 제1 로봇(101)의 위치와의 거리 또는 현재 수행중인 기존 업무의 완료 예상 시간 중 적어도 하나에 기초하여 상기 지원 로봇을 선정할 수 있다.
예를 들어, 상기 서버(10)는, 기존 업무가 완료되어 대기중인 로봇을 상기 지원 로봇으로 선정할 수 있다. 대기중인 로봇이 복수개라면, 상기 서버(10)는, 대기중인 로봇들 중에서, 상기 제1 로봇(101)의 위치와 가장 가까운 위치에 있는 로봇을 지원 로봇으로 선정할 수 있다.
또한, 전 로봇이 현재 수행 중인 업무가 있다면, 상기 서버(10)는, 기존 업무의 완료 예상 시간이 가장 임박한 로봇을 지원 로봇으로 선정할 수 있다.
또한, 대기중인 로봇이 멀리 있고, 대기중인 로봇이 상기 제1 로봇(101)의 위치로 이동하는 이동 시간보다, 현재 수행 중인 업무가 있는 로봇의 기존 업무의 완료 예상 시간과 상기 제1 로봇(101)의 위치로 이동하는 이동 시간의 합이 작은 경우에는 현재 수행 중인 업무가 있더라도 지원 로봇으로 선정될 수 있다.
본 발명에 따르면, 사용자가 요청한 서비스에 대응하는 업무를 수행하는 데 적합한 지원 로봇을 선정하고 로봇들을 효율적으로 관리할 수 있다.
서버(10)는 상술한 기준에 따라 제2 로봇(102)을 지원 로봇으로 판별할 수 있다. 상기 제1 로봇(101)과 상기 제2 로봇(102)은 같은 종류의 로봇일 수 있다. 더욱 바람직하게는 상기 제1 로봇(101)과 상기 제2 로봇(102)은 다른 종류의 로봇일 수 있다. 예를 들어, 상기 제1 로봇(101)은, 소정 정보를 영상 및 음성으로 출력하여 사용자와 인터랙션할 수 있는 안내 로봇(100a), 홈 로봇(100b)이고, 상기 제2 로봇(102)은, 소정 물품을 운반할 수 있는 서빙 로봇(100c2) 등 배송 로봇(100c1, 100c2, 100c3)일 수 있다.
서빙 로봇(100c2)은 자율 주행 및 추종 주행이 가능하고, 서빙 물품 배송 서비스, 에스코트 서비스 등을 지원할 수 있다. 서빙 로봇(100c2)은 서빙 물품을 수용할 수 있는 서빙 서비스 모듈(160c2)을 포함하여 서빙 물품을 안정적으로 운반할 수 있다. 한편, 호텔에서의 서빙 물품은 수건, 칫솔, 치약, 욕실 용품, 침구류, 음료, 음식, 룸 서비스, 기타 소물 가전 등이 해당될 수 있다.
한편, 서버(10)는 지원 로봇으로 판별된 제2 로봇(102)에 물품 배송, 에스코트 등의 업무를 요청할 수 있다(S925).
이때, 서버(10)가 제2 로봇(102)에 지원 업무를 요청하면서 송신하는 신호는 지원 업무에 대한 정보를 포함할 수 있다. 예를 들어, 제2 로봇(102)으로 송신되는 신호는 제1 로봇(101)의 위치, 서비스 제공 위치, 물품 접수지 위치, 배송지 위치, 사용자의 요청 사항에 대한 정보, 주변 환경 정보 등을 포함할 수 있다.
한편, 제2 로봇(102)은, 상기 물품을 접수하여(S940), 상기 배송 요청에 포함되는 배송지로 이동할 수 있다(S950).
여기서, 상기 배송지는 상기 제1 로봇(101)이 있는 장소이거나 상기 사용자 입력에 포함되는 특정 장소일 수 있다.
배송지가 특정되지 않으면, 디폴트(default)로 상기 제1 로봇(101)이 있는 장소가 설정될 수 있다. 또한, 사용자가 터치 입력, 음성 입력으로 특정 장소를 입력하면, 입력된 장소가 배송지로 설정될 수 있다.
상기 배송 요청에 상기 배송지로 지정된 장소가 있으면, 상기 지정된 장소로 상기 제2 로봇(102)이 이동하고, 상기 배송 요청에 상기 배송지로 지정된 장소가 없으면, 상기 제1 로봇(101)이 있는 장소로 상기 제2 로봇(102)이 이동할 수 있다.
또는, 서버(10)가 고객 정보, 객실 정보 등을 이용하여 배송지를 자동으로 설정할 수 있다.
실시예에 따라서, 제2 로봇(102)은 소정 물품이 보관되고 있는 장소에서 대기하고 있을 수 있다. 이 경우에 제2 로봇(102)은 서비스 대상 물품을 접수하고 배송 업무를 수행할 수 있다.
하지만, 배송 서비스 대상인 물품의 종류는 다양하므로 물품들은 여러 장소에 분산되어 보관될 수 있으므로 제2 로봇(102)의 현재 위치에 배송 서비스 대상 물품이 없는 경우가 많을 것이다. 따라서, 제2 로봇(102)은 물품의 접수를 위해 물품을 접수할 수 있는 물품 접수지로 이동할 수 있다(S930).
한편, 상기 물품 접수지에 도착하면, 제2 로봇(102)은 상기 배송 요청 사항을 알리는 안내 메시지를 영상 및/또는 음향으로 출력할 수 있다.
예를 들어, 제2 로봇(102)은 디스플레이(182)에 배송 요청 사항에 포함되는 물품, 즉, 배송 서비스 대상 물품 및 수량을 표시할 수 있다. 또한, 제2 로봇(102)은 음향 출력부(181)를 통하여 배송 서비스 대상 물품 및 수량을 포함하는 안내 메시지를 음성으로 출력할 수 있다.
물품 접수가 확인되면(S940), 제2 로봇(102)은 배송지로 이동할 수 있다(S950).
물품 접수 확인은 제2 로봇(102)이 구비하는 무게 센서, 카메라 등의 수단으로 자동으로 수행될 수 있다.
또는, 직원의 터치 입력, 음성 입력, 기타 기설정된 조작이 있으면, 제2 로봇(102)은 물품이 접수된 것으로 판별할 수 있다.
또는, 직원이 전자기기를 이용하여 서버(10)로 물품 접수를 알리면, 서버(10)는 제2 로봇(102) 및/또는 제1 로봇(101)으로 물품 접수 완료를 알릴 수 있다.
한편, 상기 배송지에 도착하면, 상기 제2 로봇(102)이 상기 배송지 도착을 알리는 신호를 상기 서버(10)로 송신하고(S961), 상기 서버(10)가 상기 제2 로봇(102)의 상기 배송지 도착을 알리는 신호를 상기 제1 로봇(101)으로 송신할 수 있다(S963).
이에 따라, 상기 제1 로봇(101)이 상기 제2 로봇(101)의 상기 배송지 도착을 알리는 안내 메시지를 출력하여, 고객에게 서빙 물품의 도착을 알릴 수 있다(S965). 만약 객실로 편의 용품을 요청한 경우에, 고객은 객실 문을 열고 서빙 물품을 수령할 수 있다.
실시예에 따라서, 상기 제2 로봇(102)은 출력부(180)를 통하여 상기 배송지 도착을 알리는 안내 메시지를 영상 및/또는 음향으로 출력할 수 있다.
상기 물품의 수령이 확인되면(S970), 상기 제2 로봇(102)이 상기 서버(10)로 업무 완료 보고할 수 있다(S975). 업무 완료 보고는 업무 수행 성공 여부, 업무 내용, 업무를 수행하는 데 소요된 시간 정보 등을 포함할 수 있다.
업무 보고 완료를 받은 서버(10)는, 상기 업무 완료 보고에 기초하여 상기 제1 로봇(101) 및 상기 제2 로봇(102)에 대응하는 데이터를 업데이트하고, 데이터를 관리할 수 있다(S980). 예를 들어, 상기 제1 로봇(101) 및 상기 제2 로봇(102)이 수행한 업무 횟수를 증가시키고, 업무의 종류, 소요 시간 등의 업무 내용 정보도 업데이트할 수 있다. 이에 따라, 로봇 관련 데이터를 효과적으로 관리할 수 있고, 상기 서버(10)는 로봇 관련 데이터를 분석하고 학습할 수 있다.
실시예에 따라서, 물품 수령 확인은 제2 로봇(102)이 구비하는 무게 센서, 카메라 등의 인식 수단을 통하여 자동으로 수행될 수 있다.
또는, 고객의 터치 입력, 음성 입력, 기타 기설정된 조작이 있으면, 제2 로봇(102)은 물품이 수령된 것으로 판별할 수 있다.
또는, 고객이 전자기기를 이용하여 서버(10)로 물품 접수를 알리면, 서버(10)는 제2 로봇(102) 및/또는 제1 로봇(101)으로 물품 접수 완료를 알릴 수 있다.
도 10은 본 발명의 일 실시예에 따라 호텔 객실로 물품을 배송하는 경우를 도시한 순서도이다.
도 10을 참조하면, 호텔 객실에 투숙하고 있는 고객(1010)은 편의 용품, 룸 서비스 등 소정 물품을 요청할 수 있고(S1011), 제1 로봇(101)은 서버(10)로 고객 요청 사항을 전달하고 고객이 요청한 물품의 배송 업무 지원을 요청할 수 있다(S1020). 이때, 제1 로봇(101)은 서버(10)로 객실 호수와 고객이 요청한 물품의 명칭, 수량에 대한 정보를 송신할 수 있다. 또는, 서버(10)는 제1 로봇(101)의 배치 위치를 미리 알고 있을 수 있다. 이 경우에, 제1 로봇(101)은 객실 호수에 대한 정보는 송신하지 않을 수 있다.
설정에 따라서, 제1 로봇(101)은 고객(1010)에게 물품 요청을 확인받을 수 있다(S1013).
서버(10)는 소정 기준에 따라서, 제1 로봇(101)이 요청한 배송 서비스 업무를 지원할 지원 로봇을 판별할 수 있다(S1025).
제2 로봇(102)이 지원 로봇으로 선정된 경우에, 서버(10)는 제2 로봇(102)으로 고객 요청 사항을 전달하고 배송 업무 지원을 요청할 수 있다(S1030). 필요한 경우에, 서버(10)는 제2 로봇(102)으로 물품 접수지 정보도 송신할 수 있다.
더욱 바람직하게는 서버(10)는 배송 대상 물품을 관리하는 직원(1020)에게도 고객 요청 사항을 전달할 수 있다(S1040). 예를 들어, 서버(10)는 직원(1020)의 전자기기에 고객 요청 사항 및 제2 로봇(102)을 통하여 물품을 배송하라는 메시지를 송신할 수 있다.
직원(1020)은 자신의 전자기기를 조작하여 서버(10)의 요청 사항을 확인 입력하고(S1050), 물품 접수지에 대기 중이거나 도착한 제2 로봇(102)이 물품을 요청하면(S1061), 물품을 제2 로봇(102)에 전달할 수 있다(S1063).
예를 들어, 제2 로봇(102)이 수건을 접수한 후 고객에게 운반하기 위해, 제2 로봇(102)은 수건이 보관된 창고로 이동할 수 있다. 이 때, 서버(10)는 창고의 직원(1020)에게도 수건을 원하는 사용자의 서비스 요청을 전달할 수 있다.
한편, 창고에 도착한 제2 로봇(102)은 'X호실에 수건 2개 필요' 등 배송지 및 물품에 대한 정보를 영상 및/또는 음성으로 출력할 수 있다.
직원(1020)은 열림 하드 키(hard key) 또는 제2 로봇(102)이 표시한 인터페이스 화면 상의 확인(또는 열림) 버튼을 누르거나 음성 입력으로 제2 로봇(102)의 물품을 수용할 수 있는 공간을 개폐할 수 있는 도어(door)를 열 수 있다.
직원(1020)은 수건 2개를 제2 로봇(102)의 물품을 수용할 수 있는 공간에 넣고 상기 도어를 닫을 수 있다. 이 경우에도 닫힘 하드 키(hard key) 또는 제2 로봇(102)이 표시한 인터페이스 화면 상의 확인(또는 닫힘) 버튼을 누르거나 음성 입력으로 상기 도어(door)를 닫을 수 있다.
이후, 제2 로봇(102)은 고객(1010)이 요청한 물품을 가지고 배송지인 고객(1010)이 투숙하고 있는 객실까지 이동할 수 있다(S1064).
제2 로봇(102)이 배송지인 객실까지 이동 완료하면, 상기 제2 로봇(102)이 객실 앞 도착을 알리는 신호를 상기 서버(10)로 송신하고(S1065), 상기 서버(10)가 상기 제2 로봇(102)의 객실 앞 도착을 알리는 신호를 상기 제1 로봇(101)으로 송신할 수 있다(S1067).
상기 제1 로봇(101)이 상기 제2 로봇(101)의 상기 배송지 도착을 알리는 안내 메시지를 출력하여, 고객(1010)에게 상기 제2 로봇(102)의 객실 앞 도착을 알릴 수 있다(S1069). 고객(1010)은 객실 문을 열고 요청한 물품을 수령할 수 있다(S1071).
상기 물품의 수령이 확인되면(S1071), 상기 제2 로봇(102)이 상기 서버(10)로 업무 완료 보고할 수 있다(S1073).
서버(10)는 제1 로봇(101) 및 제2 로봇(102)의 운영 결과 리포트를 확인하고, 데이터를 저장하고 관리할 수 있다(S1080).
도 11은 본 발명의 일 실시예에 따라 지정된 장소로 물품을 배송하는 경우를 도시한 순서도이다.
도 11을 참조하면, 호텔 객실에 투숙하고 있는 고객(1010)은 소정 물품을 특정 장소에 요청할 수 있고(S1111), 제1 로봇(101)은 서버(10)로 고객 요청 사항을 전달하고 고객이 요청한 물품의 배송 업무 지원을 요청할 수 있다(S1120).
예를 들어, 고객(1010)은 호텔 수영장으로 수건, 음료 등의 물품 배송을 객실에서 편리하게 요청할 수 있다.
이때, 제1 로봇(101)은 서버(10)로 수영장 등 배송지 정보와 고객이 요청한 물품의 명칭, 수량에 대한 정보를 송신할 수 있다.
설정에 따라서, 제1 로봇(101)은 고객(1010)에게 물품 요청을 확인받을 수 있다(S1113).
서버(10)는 소정 기준에 따라서, 제1 로봇(101)이 요청한 배송 서비스 업무를 지원할 지원 로봇을 판별할 수 있다(S1125).
제2 로봇(102)이 지원 로봇으로 선정된 경우에, 서버(10)는 제2 로봇(102)으로 배송지 정보 및 고객 요청 사항을 전달하고 배송 업무 지원을 요청할 수 있다(S1130). 필요한 경우에, 서버(10)는 제2 로봇(102)으로 물품 접수지 정보도 송신할 수 있다.
더욱 바람직하게는 서버(10)는 배송 대상 물품을 관리하는 직원(1020)에게도 고객 요청 사항을 전달할 수 있다(S1140). 예를 들어, 서버(10)는 직원(1020)의 전자기기에 고객 요청 사항 및 제2 로봇(102)을 통하여 물품을 배송하라는 메시지를 송신할 수 있다.
직원(1020)은 자신의 전자기기를 조작하여 서버(10)의 요청 사항을 확인 입력하고(S1150), 물품 접수지에 대기 중이거나 도착한 제2 로봇(102)이 물품을 요청하면(S1161), 물품을 제2 로봇(102)에 전달할 수 있다(S1163).
이후, 제2 로봇(102)은 고객(1010)이 요청한 물품을 가지고 수영장 등 배송지까지 이동할 수 있다(S1164).
제2 로봇(102)이 배송지인 수영장까지 이동 완료하면, 상기 제2 로봇(102)이 수영장 도착을 알리는 신호를 상기 서버(10)로 송신하고(S1165), 상기 서버(10)가 상기 제2 로봇(102)의 수영장 도착을 알리는 신호를 상기 제1 로봇(101)으로 송신할 수 있다(S1167).
상기 제1 로봇(101)이 상기 제2 로봇(101)의 상기 배송지 도착을 알리는 안내 메시지를 출력하여, 고객(1010)에게 상기 제2 로봇(102)의 수영장 도착을 알릴 수 있다(S1169). 고객(1010)은 요청한 물품을 수령할 수 있다(S1171).
실시예에 따라서, 상기 제2 로봇(101)이 출력부(180)를 통하여 상기 배송지 도착을 알리는 안내 메시지를 출력할 수 있다.
상기 물품의 수령이 확인되면(S1171), 상기 제2 로봇(102)이 상기 서버(10)로 업무 완료 보고할 수 있다(S1173).
서버(10)는 제1 로봇(101) 및 제2 로봇(102)의 운영 결과 리포트를 확인하고, 데이터를 저장하고 관리할 수 있다(S1180).
도 12는 본 발명의 일 실시예에 따른 로봇 시스템의 제어 방법을 도시한 순서도이다.
도 12를 참조하면, 제1 로봇(101)이 소정 서비스 요청을 포함하는 사용자 입력을 수신할 수 있다(S120). 예를 들어, 제1 로봇(101)은 사용자의 터치 입력 또는 음성 입력으로부터 소정 물품의 배송 서비스를 요청하는 사용자 입력을 수신할 수 있다.
상기 제1 로봇(101)은 서버(10)로 상기 사용자 입력에 기초한 정보를 송신할 수 있다(S1221). 예를 들어, 소정 객실, 테이블로 소정 물품을 배송해주는 배송 서비스를 사용자가 요청한 경우에, 상기 제1 로봇(101)은 서버(10)로 배송 물품 정보, 배송지 정보 등 배송 서비스 요청 정보 등을 송신할 수 있다.
한편, 서버(10)는 배송 서비스 요청에 대응하는 업무를 지원할 지원 로봇을 판별할 수 있다(S1223).
상기 서버(10)는, 로봇 시스템에 포함되는 복수의 로봇 중에서 현재 업무 수행 여부 또는 상기 제1 로봇(101)의 위치와의 거리 또는 현재 수행중인 기존 업무의 완료 예상 시간 중 적어도 하나에 기초하여 상기 지원 로봇을 선정할 수 있다.
서버(10)는 상술한 기준에 따라 제2 로봇(102)을 지원 로봇으로 판별할 수 있다. 상기 제1 로봇(101)과 상기 제2 로봇(102)은 같은 종류의 로봇일 수 있다. 더욱 바람직하게는 상기 제1 로봇(101)과 상기 제2 로봇(102)은 다른 종류의 로봇일 수 있다. 예를 들어, 상기 제1 로봇(101)은, 소정 정보를 영상 및 음성으로 출력하여 사용자와 인터랙션할 수 있는 안내 로봇(100a), 홈 로봇(100b)이고, 상기 제2 로봇(102)은, 소정 물품을 운반할 수 있는 서빙 로봇(100c2) 등 배송 로봇(100c1, 100c2, 100c3)일 수 있다.
한편, 서버(10)는 지원 로봇으로 판별된 제2 로봇(102)에 물품 배송, 에스코트 등의 업무를 요청할 수 있다(S1225).
이때, 서버(10)가 제2 로봇(102)에 지원 업무를 요청하면서 송신하는 신호는 지원 업무에 대한 정보를 포함할 수 있다. 예를 들어, 제2 로봇(102)으로 송신하는 신호는, 물품 접수지 위치, 배송지 위치, 사용자의 요청 사항에 대한 정보, 주변 환경 정보 등을 포함할 수 있다.
한편, 제2 로봇(102)은, 상기 물품을 접수하여(S1235), 상기 배송 요청에 포함되는 배송지로 이동할 수 있다(S1250).
필요한 경우, 제2 로봇(102)은 물품의 접수를 위해 물품을 접수할 수 있는 물품 접수지로 이동할 수 있다(S1231).
한편, 상기 물품 접수지에 도착하면, 제2 로봇(102)은 상기 배송 요청 사항을 알리는 안내 메시지를 영상 및/또는 음향으로 출력할 수 있다(S1233).
예를 들어, 제2 로봇(102)이 수건을 접수한 후 고객에게 운반하기 위해, 제2 로봇(102)은 수건이 보관된 창고로 이동할 수 있다. 이 때, 서버(10)는 창고의 직원(1020)에게도 수건을 원하는 사용자의 서비스 요청을 전달할 수 있다.
한편, 창고에 도착한 제2 로봇(102)은 'X호실에 수건 2개 필요' 등 배송지 및 물품에 대한 정보를 영상 및/또는 음성으로 출력할 수 있다.
직원(1020)은 열림 하드 키(hard key) 또는 제2 로봇(102)이 표시한 인터페이스 화면 상의 확인(또는 열림) 버튼을 누르거나 음성 입력으로 제2 로봇(102)의 물품을 수용할 수 있는 공간을 개폐할 수 있는 도어(door)를 열 수 있다.
직원(1020)은 수건 2개를 제2 로봇(102)의 물품을 수용할 수 있는 공간에 넣고 상기 도어를 닫을 수 있다. 이 경우에도 닫힘 하드 키(hard key) 또는 제2 로봇(102)이 표시한 인터페이스 화면 상의 확인(또는 닫힘) 버튼을 누르거나 음성 입력으로 상기 도어(door)를 닫을 수 있다. 이에 따라 물품 점수가 확인될 수 있다(S1235).
물품 접수가 확인되면(S1235), 제2 로봇(102)은, 상기 물품 접수 및 상기 배송지로의 이동 알림을 포함하는 중간 리포트를 상기 서버(10)로 송신할 수 있다(S1241).
상기 서버(10)는 상기 중간 리포트를 상기 제1 로봇(101)으로 전달하고(S1243), 상기 제1 로봇(101)은 출력부(180)를 통하여 상기 중간 리포트에 대응하는 안내 메시지를 출력할 수 있다(S1245). 예를 들어, 상기 중간 리포트에 대응하는 안내 메시지는 물품 접수 및 이동 등 업무 진행 현황에 대한 정보를 포함할 수 있고, 도착 예정 시간 정보를 포함할 수 있다. 도착 예정 시간 정보는 제2 로봇(102) 또는 서버(10)에 의해서 산출될 수 있다.
실시예에 따라서, 상기 중간 리포트는 다른 단계에서 제공될 수 있다.
예를 들어, 사용자 입력 수신(S1210), 제2 로봇(10)의 물품 접수지 이동(S1231), 이후의 배송지 이동(S1250) 시작 또는 중에 상기 제1 로봇(101)으로 제공될 수도 있다.
물품을 접수한 제2 로봇(102)은 배송지로 이동할 수 있고(S1250), 상기 배송지에 도착하면, 상기 제2 로봇(102)이 상기 배송지 도착을 알리는 신호를 상기 서버(10)로 송신할 수 있다(S1261).
상기 서버(10)는 상기 제2 로봇(102)의 상기 배송지 도착을 알리는 신호를 상기 제1 로봇(101)으로 송신할 수 있고(S1263), 상기 제1 로봇(101)이 상기 제2 로봇(101)의 상기 배송지 도착을 알리는 안내 메시지를 출력하여, 고객에게 서빙 물품의 도착을 알릴 수 있다(S1265).
실시예에 따라서, 상기 제2 로봇(102)은 출력부(180)를 통하여 상기 배송지 도착을 알리는 안내 메시지를 영상 및/또는 음향으로 출력할 수 있다.
상기 물품의 수령이 확인되면(S1270), 상기 제2 로봇(102)이 상기 서버(10)로 업무 완료 보고할 수 있다(S1275). 업무 완료 보고는 업무 수행 성공 여부, 업무 내용, 업무를 수행하는 데 소요된 시간 정보 등을 포함할 수 있다.
업무 보고 완료를 받은 서버(10)는, 상기 업무 완료 보고에 기초하여 상기 제1 로봇(101) 및 상기 제2 로봇(102)에 대응하는 데이터를 업데이트하고, 데이터를 관리할 수 있다(S1280).
도 13은 본 발명의 일 실시예에 따른 로봇 시스템의 제어 방법을 도시한 순서도이다.
도 13을 참조하면, 제1 로봇(101)이 소정 서비스 요청을 포함하는 사용자 입력을 수신할 수 있다(S1310). 예를 들어, 제1 로봇(101)은 사용자의 터치 입력 또는 음성 입력을 수신하여 사용자가 요청한 물품 배송 서비스를 식별할 수 있다. 또는, 상기 제1 로봇(101)은, 상기 사용자의 물품 배송 요청을 포함하는 신호를 서버(10)로부터 수신할 수도 있다.
업무 지원이 필요한 경우에, 상기 제1 로봇(101)이 직접 다른 종류의 제2 로봇(102)을 호출하여 업무 지원을 요청할 수 있다(S1325). 예를 들어, 상기 제1 로봇(101)은, 소정 정보를 영상 및 음성으로 출력하여 사용자와 인터랙션할 수 있는 안내 로봇(100a), 홈 로봇(100b)이고, 상기 제2 로봇(102)은, 소정 물품을 운반할 수 있는 서빙 로봇(100c2) 등 배송 로봇(100c1, 100c2, 100c3)일 수 있다. 이 경우에, 물품 배송을 위해, 안내 로봇(100a) 또는 홈 로봇(100b)은 서빙 로봇(100c2)으로 업무 지원을 요청할 수 있다.
본 실시예에서, 제1 로봇(101)은, 사용자가 요청한 서비스에 기초하여, 직접 다른 로봇을 호출하여 업무를 지원할 것을 요청할 수 있다(S1325).
또한, 제1 로봇(101)은 직접 현재 로봇들의 상태 정보를 확인하여 업무를 지원할 지원 로봇을 판별할 수 있다(S1420). 예를 들어, 제1 로봇(101)은 복수의 로봇 중에서 현재 업무 수행 여부 또는 제1 로봇(101)의 위치와의 거리 또는 현재 수행중인 기존 업무의 완료 예상 시간 중 적어도 하나에 기초하여 상기 지원 로봇을 선정할 수 있다.
이를 위해, 제1 로봇(101)은 서버(10)로부터 로봇들의 상태 정보를 수신할 수 있다.
또는, 제1 로봇(101)은 다른 로봇들로 업무 지원을 요청하는 신호를 송신하고, 응답 신호를 송신한 로봇들 중에서 지원 로봇을 선정할 수 있다.
이 경우에, 제1 로봇(101)이 송신하는 신호는, 물품 정보, 배송지 정보 등 사용자의 요청 사항에 대한 정보, 물품 접수지 정보 등 서비스 제공이 필요한 정보들을 포함할 수 있다. 또한, 로봇들이 송신한 응답 신호는 로봇들의 위치 정보, 상태 정보 등을 포함할 수 있다.
제1 로봇(101)은 응답 신호에 포함된 정보를 확인하여 소정 기준에 따라 지원 로봇을 선정할 수 있다. 본 실시예는, 서버(10)에서 에러가 발생하거나 서버(10)와 제1 로봇(101) 간에 통신 불량이 발생한 경우에도 협업을 제공할 수 있는 장점이 있다.
이에 따라, 서비스에 대응하는 업무를 수행하는 데 적합한 지원 로봇을 선정하고 로봇들을 효율적으로 관리할 수 있다.
상기 제1 로봇(101)은 상기 배송 요청에 대응하는 업무를 지원할 지원 로봇을 직접 판별할 수 있고(S1320), 상기 제1 로봇(101)은 상기 제2 로봇(102)으로 업무 지원을 요청하면서 상기 사용자 입력에 기초한 정보를 송신할 수 있다(S1325).
여기서, 상기 사용자 입력에 기초한 정보는 제1 로봇(101)의 위치 또는 서비스 제공 위치, 사용자의 요청 사항에 대한 정보를 포함할 수 있다. 예를 들어, 소정 객실, 테이블로 소정 물품을 배송해주는 배송 서비스를 사용자가 요청한 경우에, 상기 제1 로봇(101)은 상기 제2 로봇(102)으로 제1 로봇(101)의 현재 위치 정보, 배송지 정보, 배송 서비스 요청 정보 등을 송신할 수 있다.
한편, 제2 로봇(102)은, 상기 물품을 접수하여(S1340), 상기 배송 요청에 포함되는 배송지로 이동할 수 있다(S1350).
여기서, 상기 배송지는 상기 제1 로봇(101)이 있는 장소이거나 상기 사용자 입력에 포함되는 특정 장소일 수 있다.
배송지가 특정되지 않으면, 디폴트(default)로 상기 제1 로봇(101)이 있는 장소가 설정될 수 있다. 또한, 사용자가 터치 입력, 음성 입력으로 특정 장소를 입력하면, 입력된 장소가 배송지로 설정될 수 있다.
상기 배송 요청에 상기 배송지로 지정된 장소가 있으면, 상기 지정된 장소로 상기 제2 로봇(102)이 이동하고, 상기 배송 요청에 상기 배송지로 지정된 장소가 없으면, 상기 제1 로봇(101)이 있는 장소로 상기 제2 로봇(102)이 이동할 수 있다.
또는, 서버(10)가 고객 정보, 객실 정보 등을 이용하여 배송지를 자동으로 설정할 수 있다.
실시예에 따라서, 제2 로봇(102)은 물품의 접수를 위해 물품을 접수할 수 있는 물품 접수지로 이동할 수 있다(S1330).
한편, 상기 물품 접수지에 도착하면, 제2 로봇(102)은 상기 배송 요청 사항을 알리는 안내 메시지를 영상 및/또는 음향으로 출력할 수 있다.
예를 들어, 제2 로봇(102)은 디스플레이(182)에 배송 요청 사항에 포함되는 물품, 즉, 배송 서비스 대상 물품 및 수량을 표시할 수 있다. 또한, 제2 로봇(102)은 음향 출력부(181)를 통하여 배송 서비스 대상 물품 및 수량을 포함하는 안내 메시지를 음성으로 출력할 수 있다.
물품 접수가 확인되면(S1340), 제2 로봇(102)은 배송지로 이동할 수 있다(S1350).
물품 접수 확인은 제2 로봇(102)이 구비하는 무게 센서, 카메라 등의 수단으로 자동으로 수행될 수 있다.
또는, 직원의 터치 입력, 음성 입력, 기타 기설정된 조작이 있으면, 제2 로봇(102)은 물품이 접수된 것으로 판별할 수 있다.
한편, 상기 배송지에 도착하면, 상기 제2 로봇(102)이 상기 배송지 도착을 알리는 신호를 상기 제1 로봇(101)으로 송신할 수 있다(S1360).
이에 따라, 상기 제1 로봇(101)이 상기 제2 로봇(101)의 상기 배송지 도착을 알리는 안내 메시지를 출력하여, 고객에게 서빙 물품의 도착을 알릴 수 있다(S1365). 만약 객실로 편의 용품을 요청한 경우에, 고객은 객실 문을 열고 서빙 물품을 수령할 수 있다.
실시예에 따라서, 상기 제2 로봇(102)은 출력부(180)를 통하여 상기 배송지 도착을 알리는 안내 메시지를 영상 및/또는 음향으로 출력할 수 있다.
상기 물품의 수령이 확인되면(S1370), 제2 로봇(102)은 설정에 따라 자율 주행하여 지정된 위치로 복귀할 수 있다(S1380).
실시예에 따라서, 물품 수령 확인은 제2 로봇(102)이 구비하는 무게 센서, 카메라 등의 인식 수단을 통하여 자동으로 수행될 수 있다.
또는, 고객의 터치 입력, 음성 입력, 기타 기설정된 조작이 있으면, 제2 로봇(102)은 물품이 수령된 것으로 판별할 수 있다.
상기 물품의 수령이 확인되면(S1370), 상기 제2 로봇(102)이 상기 제1 로봇(101)으로 업무 완료 보고할 수 있다(미도시). 업무 완료 보고는 업무 수행 성공 여부, 업무 내용, 업무를 수행하는 데 소요된 시간 정보 등을 포함할 수 있다.
또한, 상기 제1 로봇(101)은 상기 서버(10)로 업무 완료를 보고할 수 있다.
업무 보고 완료를 받은 서버(10)는, 상기 업무 완료 보고에 기초하여 상기 제1 로봇(101) 및 상기 제2 로봇(102)에 대응하는 데이터를 업데이트하고, 데이터를 관리할 수 있다. 이에 따라, 로봇 관련 데이터를 효과적으로 관리할 수 있고, 상기 서버(10)는 로봇 관련 데이터를 분석하고 학습할 수 있다.
도 14는 본 발명의 일 실시예에 따른 로봇 시스템의 제어 방법을 도시한 순서도이다.
도 14를 참조하면, 제1 로봇(101)은, 배송 서비스 요청을 포함하는 사용자 입력을 수신할 수 있고(S1410), 상기 제1 로봇(101)이 상기 배송 서비스 업무를 지원할 지원 로봇을 판별할 수 있다(S1420). 예를 들어, 제1 로봇(101)은 복수의 로봇 중에서 현재 업무 수행 여부 또는 제1 로봇(101)의 위치와의 거리 또는 현재 수행중인 기존 업무의 완료 예상 시간 중 적어도 하나에 기초하여 상기 지원 로봇을 선정할 수 있다.
상기 제1 로봇(101)은 상기 제2 로봇(102)으로 업무 지원을 요청하면서 상기 사용자 입력에 기초한 정보를 송신할 수 있다(S1425). 여기서, 상기 사용자 입력에 기초한 정보는 배송 물품 정보, 배송지 정보, 배송 서비스 요청 정보 등 서비스 제공에 필요한 정보를 포함할 수 있다.
한편, 제2 로봇(102)은, 상기 물품을 접수하여(S1435), 상기 배송 요청에 포함되는 배송지로 이동할 수 있다(S1450).
필요한 경우, 제2 로봇(102)은 물품의 접수를 위해 물품을 접수할 수 있는 물품 접수지로 이동할 수 있다(S1431).
한편, 상기 물품 접수지에 도착하면, 제2 로봇(102)은 상기 배송 요청 사항을 알리는 안내 메시지를 영상 및/또는 음향으로 출력할 수 있다(S1433).
물품 접수가 확인되면(S1435), 제2 로봇(102)은, 상기 물품 접수 및 상기 배송지로의 이동 알림을 포함하는 중간 리포트를 상기 제1 로봇(101)으로 송신할 수 있다(S1441).
상기 제1 로봇(101)은 출력부(180)를 통하여 상기 중간 리포트에 대응하는 안내 메시지를 출력할 수 있다(S1443). 예를 들어, 상기 중간 리포트에 대응하는 안내 메시지는 물품 접수 및 이동 등 업무 진행 현황에 대한 정보를 포함할 수 있고, 도착 예정 시간 정보를 포함할 수 있다. 도착 예정 시간 정보는 제2 로봇(102) 에 의해서 산출될 수 있다.
실시예에 따라서, 상기 중간 리포트는 다른 단계에서 제공될 수 있다.
예를 들어, 사용자 입력 수신(S1410), 제2 로봇(10)의 물품 접수지 이동(S1431), 이후의 배송지 이동(S1450) 시작 또는 중에 상기 제1 로봇(101)으로 제공될 수도 있다.
한편, 제2 로봇(102)은, 상기 물품을 접수하여(S1435), 상기 배송 요청에 포함되는 배송지로 이동할 수 있다(S1450).
한편, 상기 배송지에 도착하면, 상기 제2 로봇(102)이 상기 배송지 도착을 알리는 신호를 상기 제1 로봇(101)으로 송신할 수 있다(S1461).
이에 따라, 상기 제1 로봇(101)이 상기 제2 로봇(101)의 상기 배송지 도착을 알리는 안내 메시지를 출력하여, 고객에게 서빙 물품의 도착을 알릴 수 있다(S1463).
실시예에 따라서, 상기 제2 로봇(102)은 출력부(180)를 통하여 상기 배송지 도착을 알리는 안내 메시지를 영상 및/또는 음향으로 출력할 수 있다.
상기 물품의 수령이 확인되면(S1470), 제2 로봇(102)은 설정에 따라 지정된 위치로 복귀할 수 있다(S1480).
이 경우에도, 상기 물품의 수령이 확인되면(S1470), 상기 제2 로봇(102)이 상기 제1 로봇(101)으로 업무 완료 보고할 수 있다(미도시). 또한, 상기 제1 로봇(101)은 상기 서버(10)로 업무 완료를 보고할 수 있다.
업무 보고 완료를 받은 서버(10)는, 상기 업무 완료 보고에 기초하여 상기 제1 로봇(101) 및 상기 제2 로봇(102)에 대응하는 데이터를 업데이트하고, 데이터를 관리할 수 있다. 이에 따라, 로봇 관련 데이터를 효과적으로 관리할 수 있고, 상기 서버(10)는 로봇 관련 데이터를 분석하고 학습할 수 있다.
도 15는 내지 도 18은 본 발명의 실시예에 따른 로봇 시스템의 동작에 관한 설명에 참조되는 도면이다.
도 15를 참조하면, 객실 등 특정 장소에 배치된 홈 로봇(100b) 등은 고객의 서비스 요청을 포함하는 사용자 입력을 수신할 수 있다.
홈 로봇(100b)은 서버(10)와 연결되어 동작 상태, 사용자 요청 등을 보고하고, 서버(10)의 제어에 따라 동작할 수 있다.
예를 들어, 홈 로봇(100b)은 "헤이 클로이, 타월 2개 가져다 주겠니?" 등 특정 물품의 배송을 요청하는 사용자 입력(1510)을 수신할 수 있다.
홈 로봇(100b)은 사용자 입력(1510)에 대응하는 정보를 서버(10)로 송신하고, 서버(10)는 배송 업무를 지원할 서빙 로봇(100c2)을 판별할 수 있다.
또한, 서버(10)는 홈 로봇(100b)에게 예상 시간 정보 등을 전달할 수 있고, 홈 로봇(100b)은 서비스와 관련된 안내 메시지(1520)를 출력할 수 있다.
실시예에 따라서, 고객은 특정 장소에 배치된 전화기(예를 들어, 객실폰), 태블릿 PC, TV 등을 이용하여, 룸 서비스, 배송 서비스를 요청할 수 있다.
또는, 홈 로봇(100b) 고객의 요청 사항을 프론트에 전달하고, 직원이 배송 업무를 지원할 서빙 로봇(100c2)을 선정하여 서버(10)에 입력할 수도 있다.
도 16을 참조하면, 서빙 로봇(100c2)을 호텔, 리조트 등에서 운용하는 경우에, 관리자는 서버(10)에 호텔, 리조트 등에서 서빙 로봇(100c2)이 제공할 수 있는 기능과 관련된 설정(1600)을 입력할 수 있다. 예를 들어, 관리자는 룸서비스 객실 정보(l610), 업무 내용 확인(1620), 객실 고객의 언어에 대응하는 언어(1630)를 설정할 수 있다.
서빙 로봇(100c2)은 관리자가 입력한 설정, 콘텐츠, 정보 등을 서버(10)에서 다운로드할 수 있다. 서빙 로봇(100c2)은 객실의 위치 정보와 객실 고객의 데이터를 확인하여 서버(10)에서 고객의 언어에 대응하는 데이터를 다운로드받을 수 있다. 예를 들어, 아랍어를 사용하는 고객이라면, 서빙 로봇(100c2)은 아랍어로 된 음성 안내 메시지 발화를 위하여 관련된 데이터를 다운로드할 수 있다.
도 17을 참조하면, 관리자는 자신의 전자기기(1710)를 통하여 서빙 로봇(100c2)의 동작을 모니터링할 수 있다.
한편, 관리자는 자신의 전자기기(1710)를 통하여 서빙 로봇(100c2)의 상태 정보를 확인하고 프론트 등 지정된 장소에 복귀하여 대기중인 서빙 로봇(100c2) 또는 복귀중인 서빙 로봇(100c2)에 새로운 업무를 지시할 수 있다.
서빙 로봇(100c2)은 배송지인 해당 객실까지 자율 주행하여 이동할 수 있고, 서빙 로봇(100c2)이 객실 앞에 도착하면, 도착 정보를 전달받은 홈 로봇(100b)이 서빙 로봇(100c2)의 도착 사실을 고객에게 알릴 수 있다.
도 18을 참조하면, 홈 로봇(100b)으로부터 객실 도착 사실을 전달받은 고객(1800)은 문을 열어 요청한 물품(1805)을 수령할 수 있다.
서빙 로봇(100c2)은 영상획득부(120)를 통하여 영상 기반으로 고객(1800)을 감지할 수 있고, 고객(1800)과 인터랙션할 수 있다.
예를 들어, 서빙 로봇(100c2)은 고객에게 배송 서비스와 관련된 음성 안내 메시지(1810)를 발화하고, 고객이 발화한 음성(1820)을 인식할 수 있다.
또한, 고객(1800)이 배송 물품(1805)을 가져가면, 서빙 로봇(100c2)은 인삿말(1830)을 건네고, 프론트 등 지정된 장소로 복귀할 수 있다.
본 발명에 따른 로봇 시스템 및 그 제어 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
한편, 본 발명의 실시예에 따른 로봇 시스템의 제어 방법은, 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다

Claims (20)

  1. 제1 로봇이 소정 물품의 배송 요청을 포함하는 사용자 입력을 수신하는 단계;
    상기 제1 로봇이 서버로 상기 사용자 입력에 기초한 정보를 송신하는 단계;
    상기 서버가 상기 배송 요청에 대응하는 업무를 지원할 지원 로봇을 판별하는 단계;
    상기 서버가 상기 지원 로봇으로 판별된 제2 로봇에 상기 업무를 요청하는 단계;
    상기 제2 로봇이 상기 물품을 접수하는 단계; 및,
    상기 제2 로봇이 상기 배송 요청에 포함되는 배송지로 이동하는 단계;를 포함하는 로봇 시스템의 제어 방법.
  2. 제1항에 있어서,
    상기 배송지는 상기 제1 로봇이 있는 장소이거나 상기 사용자 입력에 포함되는 특정 장소인 것을 특징으로 하는 로봇 시스템의 제어 방법.
  3. 제1항에 있어서,
    상기 배송지로 이동하는 단계는,
    상기 배송 요청에 상기 배송지로 지정된 장소가 있으면, 상기 지정된 장소로 상기 제2 로봇이 이동하고,
    상기 배송 요청에 상기 배송지로 지정된 장소가 없으면, 상기 제1 로봇이 있는 장소로 상기 제2 로봇이 이동하는 것을 특징으로 하는 로봇 시스템의 제어 방법.
  4. 제1항에 있어서,
    상기 제2 로봇이 상기 물품을 접수할 수 있는 물품 접수지로 이동하는 단계;를 더 포함하는 로봇 시스템의 제어 방법.
  5. 제4항에 있어서,
    상기 물품 접수지에 도착하면, 상기 제2 로봇이 상기 배송 요청 사항을 알리는 안내 메시지를 출력하는 단계;를 더 포함하는 로봇 시스템의 제어 방법.
  6. 제1항에 있어서,
    상기 물품의 접수가 확인되면, 상기 제2 로봇이 상기 물품 접수 및 상기 배송지로의 이동 알림을 포함하는 중간 리포트를 상기 서버로 송신하는 단계;
    상기 서버가 상기 중간 리포트를 상기 제1 로봇으로 전달하는 단계; 및,
    상기 제1 로봇이 상기 중간 리포트에 대응하는 안내 메시지를 출력하는 단계;를 더 포함하는 로봇 시스템의 제어 방법.
  7. 제1항에 있어서,
    상기 지원 로봇을 판별하는 단계는,
    상기 서버가 복수의 로봇 중에서 현재 업무 수행 여부 또는 상기 제1 로봇의 위치와의 거리 또는 현재 수행중인 기존 업무의 완료 예상 시간 중 적어도 하나에 기초하여 상기 지원 로봇을 선정하는 것을 특징으로 하는 로봇 시스템의 제어 방법.
  8. 제1항에 있어서,
    상기 배송지에 도착하면, 상기 제2 로봇이 상기 배송지 도착을 알리는 신호를 상기 서버로 송신하는 단계;
    상기 서버가 상기 제2 로봇의 상기 배송지 도착을 알리는 신호를 상기 제1 로봇으로 송신하는 단계; 및,
    상기 제1 로봇이 상기 제2 로봇의 상기 배송지 도착을 알리는 안내 메시지를 출력하는 단계;를 더 포함하는 로봇 시스템의 제어 방법.
  9. 제8항에 있어서,
    상기 물품의 수령이 확인되면, 상기 제2 로봇이 상기 서버로 업무 완료 보고하는 단계; 및,
    상기 서버가, 상기 업무 완료 보고에 기초하여 상기 제1 로봇 및 상기 제2 로봇에 대응하는 데이터를 업데이트하는 단계;를 더 포함하는 로봇 시스템의 제어 방법.
  10. 제1항에 있어서,
    상기 제1 로봇은, 소정 정보를 영상 및 음성으로 출력하여 사용자와 인터랙션할 수 있는 로봇이고, 상기 제2 로봇은, 상기 물품을 운반할 수 있는 로봇인 것을 특징으로 하는 로봇 시스템의 제어 방법.
  11. 제1 로봇이 소정 물품의 배송 요청을 포함하는 사용자 입력을 수신하는 단계;
    상기 제1 로봇이 상기 배송 요청에 대응하는 업무를 지원할 지원 로봇을 판별하는 단계;
    상기 제1 로봇이 상기 지원 로봇으로 판별된 제2 로봇에 상기 업무를 요청하는 단계;
    상기 제2 로봇이 상기 물품을 접수하는 단계; 및,
    상기 제2 로봇이 상기 배송 요청에 포함되는 배송지로 이동하는 단계;를 포함하는 로봇 시스템의 제어 방법.
  12. 제11항에 있어서,
    상기 배송지는 상기 제1 로봇이 있는 장소이거나 상기 사용자 입력에 포함되는 특정 장소인 것을 특징으로 하는 로봇 시스템의 제어 방법.
  13. 제11항에 있어서,
    상기 배송지로 이동하는 단계는,
    상기 배송 요청에 상기 배송지로 지정된 장소가 있으면, 상기 지정된 장소로 상기 제2 로봇이 이동하고,
    상기 배송 요청에 상기 배송지로 지정된 장소가 없으면, 상기 제1 로봇이 있는 장소로 상기 제2 로봇이 이동하는 것을 특징으로 하는 로봇 시스템의 제어 방법.
  14. 제11항에 있어서,
    상기 제2 로봇이 상기 물품을 접수할 수 있는 물품 접수지로 이동하는 단계;를 더 포함하는 로봇 시스템의 제어 방법.
  15. 제14항에 있어서,
    상기 물품 접수지에 도착하면, 상기 제2 로봇이 상기 배송 요청 사항을 알리는 안내 메시지를 출력하는 단계;를 더 포함하는 로봇 시스템의 제어 방법.
  16. 제11항에 있어서,
    상기 물품의 접수가 확인되면, 상기 제2 로봇이 상기 물품 접수 및 상기 배송지로의 이동 알림을 포함하는 중간 리포트를 상기 제1 로봇으로 송신하는 단계; 및, 상기 제1 로봇이 상기 중간 리포트에 대응하는 안내 메시지를 출력하는 단계;를 더 포함하는 로봇 시스템의 제어 방법.
  17. 제11항에 있어서,
    상기 지원 로봇을 판별하는 단계는,
    상기 제1 로봇이 복수의 로봇 중에서 현재 업무 수행 여부 또는 상기 제1 로봇의 위치와의 거리 또는 현재 수행중인 기존 업무의 완료 예상 시간 중 적어도 하나에 기초하여 상기 지원 로봇을 선정하는 것을 특징으로 하는 로봇 시스템의 제어 방법.
  18. 제11항에 있어서,
    상기 배송지에 도착하면, 상기 제2 로봇이 상기 배송지 도착을 알리는 신호를 상기 제1 로봇으로 송신하는 단계; 및,
    상기 제1 로봇이 상기 제2 로봇의 상기 배송지 도착을 알리는 안내 메시지를 출력하는 단계;를 더 포함하는 로봇 시스템의 제어 방법.
  19. 제18항에 있어서,
    상기 물품의 수령이 확인되면, 상기 제2 로봇이 상기 서버로 업무 완료 보고하는 단계; 및,
    상기 서버가, 상기 업무 완료 보고에 기초하여 상기 제1 로봇 및 상기 제2 로봇에 대응하는 데이터를 업데이트하는 단계;를 더 포함하는 로봇 시스템의 제어 방법.
  20. 제11항에 있어서,
    상기 제1 로봇은, 소정 정보를 영상 및 음성으로 출력하여 사용자와 인터랙션할 수 있는 로봇이고, 상기 제2 로봇은, 상기 물품을 운반할 수 있는 로봇인 것을 특징으로 하는 로봇 시스템의 제어 방법.
KR1020197025664A 2019-01-03 2019-01-03 로봇 시스템의 제어 방 KR20210099670A (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/000081 WO2020141636A1 (ko) 2019-01-03 2019-01-03 로봇 시스템의 제어 방법

Publications (1)

Publication Number Publication Date
KR20210099670A true KR20210099670A (ko) 2021-08-13

Family

ID=71406887

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197025664A KR20210099670A (ko) 2019-01-03 2019-01-03 로봇 시스템의 제어 방

Country Status (3)

Country Link
US (1) US11945651B2 (ko)
KR (1) KR20210099670A (ko)
WO (1) WO2020141636A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023027488A1 (ko) * 2021-08-25 2023-03-02 삼성전자주식회사 로봇 및 그 제어 방법

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11173605B2 (en) * 2018-02-26 2021-11-16 dogugonggan Co., Ltd. Method of controlling mobile robot, apparatus for supporting the method, and delivery system using mobile robot
WO2021010502A1 (ko) * 2019-07-12 2021-01-21 엘지전자 주식회사 로봇 및 그를 이용한 물품 관리 방법
KR20210009209A (ko) * 2019-07-16 2021-01-26 엘지전자 주식회사 다른 로봇과 대화가 가능한 로봇 및 이의 제어 방법
KR20210085696A (ko) * 2019-12-31 2021-07-08 삼성전자주식회사 전자 장치의 움직임을 결정하는 방법 및 이를 사용하는 전자 장치
JP2022050964A (ja) * 2020-09-18 2022-03-31 トヨタ自動車株式会社 情報処理装置、情報処理方法、及びプログラム
CN113726798A (zh) * 2021-09-01 2021-11-30 上海景吾智能科技有限公司 智能通知系统及方法、设备、可读介质

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2004106009A1 (ja) * 2003-06-02 2006-07-20 松下電器産業株式会社 物品取扱いシステムおよび物品取扱いサーバ
KR101204418B1 (ko) * 2009-04-13 2012-11-26 (주)아이엠테크놀로지 음식점에서 음식을 로봇으로 배달하는 시스템
JP5417255B2 (ja) * 2010-05-25 2014-02-12 本田技研工業株式会社 給仕サービスのためのロボットシステム
EP2791748B8 (en) * 2012-02-08 2020-10-28 Omron Robotics and Safety Technologies, Inc. Job management sytem for a fleet of autonomous mobile robots
US9557903B2 (en) * 2012-02-13 2017-01-31 Lg Electronics Inc. Method for providing user interface on terminal
US9720414B1 (en) * 2013-07-29 2017-08-01 Vecna Technologies, Inc. Autonomous vehicle providing services at a transportation terminal
US9643779B2 (en) * 2014-03-31 2017-05-09 Panasonic Intellectual Property Corporation Of America Article management system and transport robot
US9120622B1 (en) * 2015-04-16 2015-09-01 inVia Robotics, LLC Autonomous order fulfillment and inventory control robots
US20170011442A1 (en) * 2015-07-12 2017-01-12 Cafe X Technologies Limited Method and system for automated food and beverage serving
US10363659B2 (en) * 2016-03-03 2019-07-30 Fetch Robotics, Inc. System and method for load balancing of robots to create more equivalent task loads across task servers
CN109475129A (zh) * 2016-04-08 2019-03-15 祖美股份有限公司 按需机器人食物组装及相关系统、设备和方法
KR101855861B1 (ko) 2016-09-19 2018-05-18 주식회사 엔티로봇 물류운반 로봇 시스템 및 이를 이용한 로봇의 이동 제어방법
KR102596752B1 (ko) 2016-10-05 2023-11-01 엘지전자 주식회사 공항 로봇 및 공항 로봇 시스템
EP3309725A1 (en) * 2016-10-15 2018-04-18 The Hi-Tech Robotic Systemz Ltd Automated warehouse management system
US10134006B2 (en) * 2016-12-07 2018-11-20 Invia Robotics, Inc. Workflow management system and methods for coordinating simultaneous operation of multiple robots
CA3049022A1 (en) * 2017-01-10 2018-07-19 Alert Innovation Inc. Automated store with interchangeable automated mobile robots
KR102043421B1 (ko) * 2018-07-04 2019-11-11 네이버랩스 주식회사 실내 자율 주행 로봇을 위한 제어 방법 및 시스템
US11092973B2 (en) * 2018-09-28 2021-08-17 Invia Robotics, Inc. Coordinated operation of autonomous robots
CN109399041B (zh) * 2018-11-19 2023-04-21 炬星科技(深圳)有限公司 基于机器人的随机仓储方法、装置及电子设备与存储介质
US10949800B2 (en) * 2018-12-21 2021-03-16 Invia Robotics, Inc. Partitioning and coalescing operation of robots for coordinated autonomous execution

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023027488A1 (ko) * 2021-08-25 2023-03-02 삼성전자주식회사 로봇 및 그 제어 방법

Also Published As

Publication number Publication date
WO2020141636A1 (ko) 2020-07-09
US20220324646A1 (en) 2022-10-13
US11945651B2 (en) 2024-04-02

Similar Documents

Publication Publication Date Title
KR20210099670A (ko) 로봇 시스템의 제어 방
KR20210099217A (ko) 로봇 시스템의 제어 방법
US11840814B2 (en) Overriding control of motorized transport unit systems, devices and methods
US20200218254A1 (en) Control method of robot
KR102391322B1 (ko) 이동 로봇
US11370123B2 (en) Mobile robot and method of controlling the same
US11557387B2 (en) Artificial intelligence robot and method of controlling the same
US6584375B2 (en) System for a retail environment
US7206753B2 (en) Methods for facilitating a retail environment
KR20210099218A (ko) 서버 및 이를 포함하는 로봇 시스템
Gross et al. Further progress towards a home robot companion for people with mild cognitive impairment
JP7243110B2 (ja) 情報処理装置及び情報処理方法、コンピュータプログラム、並びに荷物受け取り支援システム
KR102647132B1 (ko) 로봇 시스템의 제어 방법
US20210323581A1 (en) Mobile artificial intelligence robot and method of controlling the same
KR102391914B1 (ko) 이동 로봇의 동작 방법
JP2020502649A (ja) インテリジェントサービスロボットおよび関連するシステムおよび方法
CN107211113A (zh) 监控
KR20210067406A (ko) 로봇
CA2978424A1 (en) In-store audio systems, devices, and methods
JP2019061325A (ja) 自走式サービス提供装置及びサービス提供システム
US11446811B2 (en) Robot
JP5240060B2 (ja) コミュニケーション情報を収集するロボット装置
CN113977597A (zh) 配送机器人的控制方法及相关装置
GB2562902A (en) Assignment of a motorized personal assistance apparatus
JP6818316B2 (ja) ロボットまたは音声対応電子回路モジュール制御システム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal