KR102355262B1 - 실내 공간을 주행하는 로봇을 모니터링하는 건물 - Google Patents

실내 공간을 주행하는 로봇을 모니터링하는 건물 Download PDF

Info

Publication number
KR102355262B1
KR102355262B1 KR1020210082283A KR20210082283A KR102355262B1 KR 102355262 B1 KR102355262 B1 KR 102355262B1 KR 1020210082283 A KR1020210082283 A KR 1020210082283A KR 20210082283 A KR20210082283 A KR 20210082283A KR 102355262 B1 KR102355262 B1 KR 102355262B1
Authority
KR
South Korea
Prior art keywords
robot
task
target user
information
specific place
Prior art date
Application number
KR1020210082283A
Other languages
English (en)
Inventor
차세진
김가현
Original Assignee
네이버랩스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버랩스 주식회사 filed Critical 네이버랩스 주식회사
Priority to KR1020210082283A priority Critical patent/KR102355262B1/ko
Application granted granted Critical
Publication of KR102355262B1 publication Critical patent/KR102355262B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manipulator (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

본 발명은 로봇 제어에 관한 것으로서, 로봇에 부여된 임무를 효율적으로 관리할 수 있는 로봇 제어 방법 및 시스템이다. 본 발명에 따른 로봇 제어 방법은, 상기 임무에 매칭된 특정 장소로 상기 로봇이 이동하도록, 상기 로봇의 주행과 관련된 제어를 수행하는 단계, 상기 특정 장소가 포함된 공간에 배치된 카메라로부터 영상을 수신하고, 수신된 영상을 이용하여, 상기 임무의 수행 대상이 되는 타겟 유저(target user)의 위치를 확인하는 단계 및 상기 타겟 유저의 위치와 상기 특정 장소 사이의 상대 위치 정보에 근거하여, 상기 임무가 수행되는 시간과 관련된 제어를 수행하는 단계를 포함하는 것을 특징으로 한다.

Description

실내 공간을 주행하는 로봇을 모니터링하는 건물{A BUILDING THAT MONITORS ROBOTS DRIVING IN AN INDOOR SPACE OF THE BUILDING}
본 발명은 로봇 제어에 관한 것으로서, 로봇에 부여된 임무를 효율적으로 관리할 수 있는 로봇 제어 방법 및 시스템이다.
기술이 발전함에 따라, 다양한 서비스 디바이스들이 나타나고 있으며, 특히 최근에는 다양한 작업 또는 서비스를 수행하는 로봇에 대한 기술 개발이 활발하게 이루어지고 있다.
나아가 최근에는, 인공 지능 기술, 클라우드 기술 등이 발전함에 따라, 로봇의 활용도가 점차적으로 높아지고 있다.
최근에는 로봇이 인간의 업무 또는 작업을 대체하고 있으며, 특히 사람을 대상으로 로봇이 직접 서비스를 제공하는 방법들이 활발하게 연구되고 있다. 한편, 로봇으로 다양한 작업 또는 서비스를 제공하기 위해서는, 로봇을 정확하고, 효율적으로 제어하는 것이 매우 중요하다.
예를 들어, 대한민국 공개특허 제10-2019-0096849호(빌딩 관리 로봇 및 그를 이용한 서비스 제공 방법)에서는, 로봇에서 CCTV 영상을 이용하여, DB에 등록된 사용자를 인식하고, 인식된 사용자를 기반으로 서비스를 제공하는 방법에 개시되어 있다. 이와 같이, 로봇이 사용자에게 서비스를 제공하는 경우, 보다 효율적으로 서비스를 제공하기 위한 활발한 기술 개발 및 연구가 진행되고 있다.
한편, 로봇을 보다 효율적으로 운용하고 사용자에게 보다 의미 있는 서비스를 제공하기 위하여 사용자의 상황을 고려하여 로봇에서 서비스를 보다 유연하게 제공할 수 있는 방법에 대한 니즈가 존재한다.
본 발명은 로봇에 대한 원격 제어 방법 및 시스템을 제공하는 것이다.
보다 구체적으로 본 발명은, 사용자의 상황을 고려하여 로봇에 할당된 임무를 제어할 수 있는 로봇 제어 방법 및 시스템을 제공하는 것이다.
특히, 본 발명은, 사용자의 상황에 기반하여, 로봇에 할당된 임무를 보다 유연하게 제어할 수 있는 로봇 제어 방법 및 시스템을 제공하는 것이다.
위에서 살펴본 과제를 해결하기 위하여 본 발명에 따른 로봇 제어 방법은, 상기 임무에 매칭된 특정 장소로 상기 로봇이 이동하도록, 상기 로봇의 주행과 관련된 제어를 수행하는 단계, 상기 특정 장소가 포함된 공간에 배치된 카메라로부터 영상을 수신하고, 수신된 영상을 이용하여, 상기 임무의 수행 대상이 되는 타겟 유저(target user)의 위치를 확인하는 단계 및 상기 타겟 유저의 위치와 상기 특정 장소 사이의 상대 위치 정보에 근거하여, 상기 임무가 수행되는 시간과 관련된 제어를 수행하는 단계를 포함하는 것을 특징으로 한다.
나아가, 본 발명에 따른 로봇 제어 시스템은, 상기 로봇과 통신하는 통신부 및 상기 임무에 매칭된 특정 장소로 상기 로봇이 이동하도록, 상기 로봇의 주행과 관련된 제어를 수행하는 제어부를 포함하고, 상기 제어부는, 상기 특정 장소가 포함된 공간에 배치된 카메라로부터 영상을 수신하고, 수신된 영상을 이용하여, 상기 임무의 수행 대상이 되는 타겟 유저(target user)의 위치를 확인하며, 상기 타겟 유저의 위치와 상기 특정 장소 사이의 상대 위치 정보에 근거하여, 상기 임무가 수행되는 시간과 관련된 제어를 수행하는 것을 특징으로 한다.
나아가, 본 발명에 따른 로봇은, 로봇 제어 시스템으로부터, 수행 대상 임무에 대한 임무 정보를 수신하는 통신부, 상기 임무의 수행이 예정된 특정 장소로 이동하는 주행부 및 상기 로봇 제어 시스템으로부터 상기 임무의 수행 대상이 되는 타겟 유저(target user)의 위치 정보를 수신하고, 상기 타겟 유저의 위치 정보에 기반하여, 상기 타겟 유저와 상기 특정 장소 사이의 거리를 산출하는 제어부를 포함하고, 상기 제어부는, 상기 타겟 유저와 상기 특정 장소 사이의 거리가 기준 범위 이내인 경우, 상기 예정 시간을 초과하여 상기 임무가 수행되도록 추가 임무 수행 시간을 설정하는 것을 특징으로 한다.
위에서 살펴본 것과 같이, 본 발명에 따른 로봇 제어 방법 및 시스템은, 공간에 설치된 카메라를 이용하여, 사용자의 위치를 확인하고, 사용자와 임무 수행 장소와의 거리에 기반하여, 임무가 수행되는 시간에 대한 제어를 수행할 수 있다.
특히, 본 발명에 따른 로봇 제어 방법 및 시스템은, 사용자가 임무 수행 장소로부터 멀지 않게 위치한 경우, 임무가 수행되기로 예정된 예정시간이 지나더라도, 사용자를 대기함으로써, 사용자에 대한 임무의 수행이 완료되도록 로봇을 제어할 수 있다.
따라서, 로봇 측면으로는, 추가 대기 시간 동안 사용자를 기다리는 것을 통하여, 사용자에 대한 임무를 완료할 수 있다 나아가, 로봇 제어 방법 및 시스템은, 임무가 부여된 로봇이, 임무 수행을 완료할 수 있도록 로봇을 제어함으로써, 로봇을 효율적으로 운용할 수 있다.
도 1 및 도 2는 본 발명에 따른 로봇 제어 방법 및 시스템을 설명하기 위한 개념도들이다.
도 3은 본 발명에 따른 로봇 제어 방법 및 시스템에서 로봇을 식별하는 방법을 설명하기 위한 개념도이다.
도 4는 본 발명에 따른 로봇 제어 방법 및 시스템에서 로봇의 위치를 추정하는 방법을 설명하기 위한 개념도이다.
도 5는 본 발명에 따른 로봇 제어 방법을 설명하기 위한 흐름도이다.
도 6, 도 7, 도 8a, 도 8b 및 도 9는 본 발명에 따른 로봇 제어 방법 및 시스템을 설명하기 위한 개념도들이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소에는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명은 로봇에 제어 방법 및 시스템을 제공하는 것으로서, 보다 구체적으로, 사용자의 상황을 고려하여 로봇에 할당된 임무를 제어할 수 있는 로봇 제어 방법 및 시스템을 제공하는 것이다. 이하에서는, 첨부된 도면과 함께, 로봇이 주행하는 공간 및 이를 둘러싼 로봇(robot) 제어 시스템에 대하여 살펴보도록 한다. 도 1 및 도 2는 본 발명에 따른 로봇 제어 방법 및 시스템을 설명하기 위한 개념도들이다. 그리고, 도 3은 본 발명에 따른 로봇 제어 방법 및 시스템에서 로봇을 식별하는 방법을 설명하기 위한 개념도이다. 나아가, 도 4는 본 발명에 따른 로봇 제어 방법 및 시스템에서 로봇의 위치를 추정하는 방법을 설명하기 위한 개념도이다.
기술이 발전함에 따라 로봇의 활용도는 점차적으로 높아지고 있다. 종래 로봇은 특수한 산업분야(예를 들어, 산업 자동화 관련 분야)에서 활용되었으나, 점차적으로 인간이나 설비를 위해 유용한 작업을 수행할 수 있는 서비스 로봇으로 변모하고 있다.
이와 같이 다양한 서비스를 제공할 수 있는 로봇은, 부여된 임무를 수행하기 위하여 도 1에 도시된 것과 같은 공간(10)을 주행하도록 이루어질 수 있다. 로봇(R)이 주행하는 공간의 종류에는 제한이 없으며, 필요에 따라 실내 공간 및 실외 공간 중 적어도 하나를 주행하도록 이루어 질 수 있다. 예를 들어, 실내 공간은 백화점, 공항, 호텔, 학교, 빌딩, 지하철역, 기차역, 서점 등과 같이 다양한 공간일 수 있다. 로봇(R)은, 이와 같이, 다양한 공간에 배치되어 인간에게 유용한 서비스를 제공하도록 이루어질 수 있다. 한편, 본 발명에 따른 로봇은 다양하게 명명될 수 있으며, 예를 들어, 무인 이동 머신, 자율 이동 머신 등으로 표현될 수 있다.
도 1에 도시된 것과 같이, 로봇이 위치한 공간(10)에는 카메라(20)가 배치될 수 있다. 도시와 같이, 공간(10)에 배치된 카메라(20)의 수는 그 제한이 없다. 도시와 같이, 공간(10)에는 복수개의 카메라들(20a, 20b, 20c)이 배치될 수 있다. 공간(10)에 배치된 카메라(20)의 종류는 다양할 수 있으며, 공간(10)에 배치된 카메라(20)는 CCTV(closed circuit television)일 수 있다.
한편, 공간(10)을 주행하는 로봇(R)은, 사용자에게 서비스를 제공하기 위한 서비스 로봇을 포함할 수 있다. 로봇(R)이 사용자에게 제공하는 서비스의 유형은 매우 다양할 수 있다. 예를 들어, 로봇(R)은, 사용자에게 물품(예를 들어, 우편물, 택배 등)을 배송하거나, 음료를 서빙하는 것과 같은 서비스를 제공할 수 있다. 이러한 서비스를 제공하는 로봇(R)은 서비스의 대상이 되는 사용자(이하, “타겟 유저(target user”라고 명명함)를 공간(10) 상에서 직접 만나(또는 대면하여), 타겟 유저에게 서비스를 제공하도록 이루어질 수 있다,
한편, 로봇(R)에서 서비스를 제공하는 동작은, 로봇(R)에서 임무(task)를 수행하는 것으로 이해되어 질 수 있다. 즉, 로봇(R)은 할당된 임무를 수행함으로써, 타겟 유저에게 서비스를 제공하도록 이루어진다. 이하에서는, 설명의 편의를 위하여, “로봇(R)에서 서비스를 제공”하는 것을 “로봇(R)에서 임무를 수행”한다고 표현하기로 한다.
이를 위하여, 로봇(R)에는, 타겟 유저에게 임무를 수행하기로 예정된 시간이 설정될 수 있다.
임무가 수행되기로 예정된 시간은, “예정 시간” 또는 “예약 시간”이라고도 표현될 수 있다. 이러한 예정시간 또는 예약 시간은, 타겟 유저로부터의 선택 또는 로봇 제어 시스템(100)에서의 제어에 근거하여 결정될 수 있다. 예를 들어, 타겟 유저는 로봇 제어 시스템(100)으로, 로봇(R)이 자신에 대해 특정 임무(예를 들어, 택배 배송 임무)를 수행해 줄 것을 예약할 수 있다. 이때, 타겟 유저는, 전자기기를 통하여, 로봇 제어 시스템(100)으로 특정 임무에 따른 서비스를 제공받을 시간(예를 들어, 오후 3시)을 입력할 수 있다. 이러한 특정된 시간은, 위에서 살펴본 예정 시간 또는 예약 시간으로 표현될 수 있다. 또한, 타겟 유저는, 전자기기를 통하여, 로봇 제어 시스템(100)을 거치지 않고, 로봇(R)에 대해 직접 예정 시간 정보를 전송하는 것 또한 가능하다.
한편, 로봇(R)은 다양한 경로를 통하여, 임무 수행 예정 시간에 대한 정보를 수신하고, 해당 시간에 임무가 수행되도록 프로그래밍될 수 있다.
이하에서는, 로봇(R)이 로봇 제어 시스템(100)으로부터 임무의 수행이 예정된 예정 시간에 대한 정보를 수신하는 것을 전제로 설명하다. 로봇 제어 시스템(100)은 로봇(R)과 관련된 다양한 동작을 제어하는 중앙 시스템을 의미할 수 있다.
한편, 로봇(R)은 로봇 제어 시스템(100)으로부터 임무 수행 예정 시간에 대한 시간 정보를 수신하고, 상기 수행 예정 시간에 타겟 유저에게 임무를 수행하도록 이루어질 수 있다. 한편, 로봇(R)에 할당된 임무의 완료는, 타겟 유저에게 임무에 대응되는 서비스를 제공하는 것을 의미할 수 있다. 따라서, 로봇(R)은 예정 시간에 타겟 유저를 만나지 못하는 경우, 타겟 유저에 대한 임무의 수행을 완료할 수 없다. 한편, 타겟 유저는, 로봇(R)에게 서비스를 제공받기 위하여, 예정 시간에, 서비스를 제공받기로 한 장소로 이동할 수 있다. 이때, 타겟 유저는 다양한 상황으로 인하여, 예정 시간보다 빠르게, 혹은 늦게 특정 장소에 도착할 수 있다. 타겟 유저가 예정 시간 보다 빠르게 특정 장소에 도착하는 경우, 타겟 유저는 예정 시간까지 로봇(R)을 기다리는 것을 통해, 로봇(R)에게 서비스를 제공받는 것이 가능하다. 그러나, 타겟 유저가 예정 시간 보다 늦게 특정 장소에 도착하는 경우, 로봇(R)에게 서비스를 제공받는 것이 불가능할 수 있다. 예를 들어, 로봇(R)에 할당된 임무가, 예정 시간에 수행되도록 로봇(R)이 제어된 경우, 로봇(R)은 예정 시간에 타겟 유저를 만나지 못하는 경우, 타겟 유저에 대한 임무의 제공을 취소하거나, 기 설정된 장소를 복귀할 수 있다. 이러한 경우, 타겟 유저는 특정 장소에 도착했더라도, 로봇(R)에 할당된 임무가 취소되었기에, 로봇(R)으로부터 서비스를 제공받지 못할 수 있다.
한편, 타겟 유저가 특정 장소 주변에 위치하거나, 특정 장소로 이동함으로써, 예정 시간으로부터 임계 시간 이내에 특정 장소에 도착할 수 있는 상황이라고 가정하자. 이 경우, 로봇(R)의 운용 측면에서는 예정 시간을 초과하여 타겟 유저에 대한 임무를 수행하는 것이 효율적일 수 있다. 로봇의 측면에서 살펴보면, 이미 특정 장소로 이동한 로봇(R)에서 임무의 수행이 완료되지 못한 경우, 해당 임무를 위해 해당 로봇 또는 다른 로봇은 다음번에 다시 특정 장소로 이동해야 하므로, 로봇에 할당된 임무가 배가 될 수 있기 때문이다. 또한, 타겟 유저 측면에서 살펴보면, 타겟 유저는 로봇(R)을 만나기 위해 특정 장소로 이동을 하는 상황일 수 있다. 이 경우, 로봇(R)에서 특정 장소에 예정 시간에 도착하지 못한 타겟 유저에 대한 임무가 취소되는 경우, 타겟 유저는 로봇(R)을 만나기 위해 사용한 시간을 낭비하는 결과를 초래하게 된다. 또한, 타겟 유저는 다시 로봇(R)으로부터 서비스를 제공받기 위하여, 서비스의 예약 등을 수행해야 하는 번거로움이 존재할 수 있다.
본 발명에서, “로봇(R)에서 임무가 완료”되었다고 함은, 로봇(R)이 타겟 유저를 만나는 것을 포함할 수 있다. 그리고, “로봇(R)에서 임무가 완료”되었다고 함은, 로봇(R)이 타겟 유저를 만난 후, 할당된 임무에 해당하는 서비스를 제공(물품 배송)까지 완료하는 것을 의미할 수 있다. 따라서, 로봇(R)이 타겟 유저를 만나지 못했거나, 타겟 유저에게 서비스를 제공하지 못한 경우, “로봇(R)은 임무를 완료하지 않은 상태”일 수 있다.
이와 같이, 로봇(R)에 할당된 임무의 종류가, 사람을 직접 만남으로써 완료되는 경우, 임무에 따른 서비스의 제공 대상이 되는 타겟 유저의 상황을 고려하여, 보다 유연하게 로봇(R)에서 임무가 수행되는 시간이 제어될 필요가 존재한다. 이에, 본 발명에 따른 로봇 제어 시스템 및 방법은, 사용자의 상황을 고려하여 로봇에 할당된 임무를 제어할 수 있는 로봇 제어 방법 및 시스템을 제공하는 것이다.
도 2에 도시된 것과 같이, 본 발명에 따른 로봇 제어 시스템(100)은, 통신부(110), 저장부(120), 디스플레이부(130), 입력부(140) 및 제어부(150) 중 적어도 하나를 포함할 수 있다.
통신부(110)는, 공간(10)에 배치된 다양한 디바이스와 유선 또는 무선으로 통신하도록 이루어질 수 있다. 통신부(110)는 도시와 같이 로봇(R), 외부 서버(200), 영상 관제 시스템(2000) 중 적어도 하나와 통신할 수 있다.
예를 들어, 통신부(110)는 로봇(R)으로부터 데이터(예를 들어, 로봇(R)에서 촬영되는 영상, 센싱 데이터 등)를 수신하거나, 로봇(R)으로 제어명령을 전송할 수 있다.
나아가, 통신부(110)는 공간(10)에 배치된 카메라(20)와의 직접적인 통신을 수행할 수 있다. 또한, 통신부(110)는 카메라(20)를 제어하는 영상 관제 시스템(2000)과 통신하도록 이루어질 수 있다. 영상 관제 시스템(2000)과 통신부(110) 사이에 통신이 이루어지는 경우, 로봇 제어 시스템(100)은 통신부(110)를 통해 영상 관제 시스템(2000)으로부터 카메라(20)에서 촬영되는(또는 수신되는) 영상을 수신할 수 있다.
나아가, 통신부(110)는 적어도 하나의 외부 서버(또는 외부 저장소, 200)와 통신하도록 이루어질 수 있다. 여기에서, 외부 서버(200)는, 도시된 것과 같이, 클라우드 서버(210) 또는 데이터베이스(220) 중 적어도 하나를 포함하도록 구성될 수 있다. 한편, 외부 서버(200)에서는, 제어부(150)의 적어도 일부의 역할을 수행하도록 구성될 수 있다. 즉, 데이터 처리 또는 데이터 연산 등의 수행은 외부 서버(200)에서 이루어지는 것이 가능하며, 본 발명에서는 이러한 방식에 대한 특별한 제한을 두지 않는다.
나아가, 통신부(110)는 사용자(또는 타겟 유저)가 소지한 전자기기와 통신하도록 이루어질 수 있다. 여기에서, 전자기기의 종류는 제한이 없으며, 스마트폰, 태블릿PC 등일 수 있다.
한편, 통신부(110)는 통신하는 디바이스의 통신 규격에 따라 다양한 통신 방식을 지원할 수 있다.
예를 들어, 통신부(110)는, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 5G(5th Generation Mobile Telecommunication ), 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra-Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 공간(20) 내외에 위치한 디바이스(클라우드 서버 포함)와 통신하도록 이루어질 수 있다.
다음으로 저장부(120)는, 본 발명과 관련된 다양한 정보를 저장하도록 이루어질 수 있다. 본 발명에서 저장부(120)는 로봇 제어 시스템(100) 자체에 구비될 수 있다. 이와 다르게, 저장부(120)의 적어도 일부는, 클라우드 서버(210) 및 데이터베이스(database: DB, 220) 중 적어도 하나를 의미할 수 있다. 즉, 저장부(120)는 본 발명에 따른 로봇 제어를 위하여 필요한 정보가 저장되는 공간이면 충분하며, 물리적인 공간에 대한 제약은 없는 것으로 이해될 수 있다. 이에, 이하에서는, 저장부(120), 클라우드 서버(210) 및 데이터베이스(220)를 별도로 구분하지 않고, 모두 저장부(120)라고 표현하도록 한다. 이때, 클라우드 서버(210)는 “클라우드 저장소”를 의미할 수 있다.
먼저, 저장부(120)에는, 로봇(R)에 대한 정보가 저장될 수 있다.
로봇(R)에 대한 정보는 매우 다양할 수 있으며, 일 예로서, i)공간(10)에 배치된 로봇(R)을 식별하기 위한 식별 정보(예를 들어, 일련번호, TAG 정보, QR코드 정보 등), ii)로봇(R)에 부여된 임무 정보(예를 들어, 임무의 종류, 임무에 따른 동작, 임무의 대상이 되는 타겟 유저 정보, 임무 수행 장소, 임무 수행 예정 시간 등), iii)로봇(R)에 설정된 주행 경로 정보, iv)로봇(R)의 위치 정보, v)로봇(R)의 상태 정보(예를 들어, 전원 상태, 고장 유무, 배터리 상태 등), vi)로봇(R)에 구비된 카메라로부터 수신된 영상 정보, vii) 로봇(R)의 동작과 관련된 동작 정보 등이 존재할 수 있다.
다음으로, 저장부(120)에는, 카메라(20)에 대한 정보가 저장될 수 있다.
카메라(20)에 대한 정보는 매우 다양할 수 있으며, 카메라(20)에 대한 정보는, i) 각각의 카메라(20a, 20b, 20c, 20d…)의 식별 정보(예를 들어, 일련번호, TAG 정보, QR코드 정보 등), ii) 각각의 카메라(20a, 20b, 20c, 20d…)의 배치 위치 정보(예를 들어, 공간 내에서 각각의 카메라(20a, 20b, 20c, 20d…)가 어느 위치에 배치되었는지에 대한 정보), iii) 각각의 카메라(20a, 20b, 20c, 20d…)의 화각 정보(anle of view, 예를 들어, 각각의 카메라(20a, 20b, 20c, 20d…)가 공간의 어느 뷰를 촬영하고 있는지에 대한 정보), iv) 각각의 카메라(20a, 20b, 20c, 20d…)의 화각에 대응되는 영역(또는 공간(또는 특정 공간))에 대한 위치 정보, v) 각각의 카메라(20a, 20b, 20c, 20d…)의 상태 정보(예를 들어, 전원 상태, 고장 유무, 배터리 상태 등), vi) 각각의 카메라(20a, 20b, 20c, 20d…)로부터 수신된 영상 정보 등이 존재할 수 있다.
한편, 위에서 열거된 카메라(20)에 대한 정보는 각각의 카메라(20a, 20b, 20c, 20d…)를 기준으로 서로 매칭되어 존재할 수 있다.
예를 들어, 저장부(120)에는, 특정 카메라(20a)의 식별정보, 위치 정보, 화각 정보, 상태 정보, 위치 정보, 및 영상 정보 중 적어도 하나가 매칭되어 매칭 정보로서 존재할 수 있다. 이러한 매칭 정보는, 추후 특정 카메라가 위치한 공간(또는 장소, 영역)을 특정하거나, 해당 공간에 위치한 사용자(예를 들어, 타겟 유저)의 위치를 확인하는데 유용하게 활용될 수 있다.
나아가, 저장부(120)에는 사용자와 관련된 정보가 저장될 수 있다. 이러한 사용자와 관련된 정보는 “사용자 DB” 라고도 명명될 수 있다.
사용자와 관련된 정보는, “사용자의 식별 정보”라고도 명명될 수 있다.
사용자와 관련된 정보는, 사용자의 이름, 생년월일, 주소, 전화번호, 사번, ID, 얼굴 이미지, 생체 정보(지문 정보, 홍채 정보 등), 공간(10) 내에서의 사용자의 생활 장소(예를 들어, 근무 장소(또는 근무 구역), 주거 장소 등), 사용자가 소지한 전자기기의 식별 정보, 사용자의 일정(스케줄)과 관련된 정보 중 적어도 하나를 포함할 수 있다.
다음으로 저장부(120)에는, 공간(10)에 대한 지도(map, 또는 지도 정보)가 저장될 수 있다. 여기에서, 지도는, 2차원 또는 3차원 지도 중 적어도 하나로 이루어 질 수 있다. 공간(10)에 대한 지도는 로봇(R) 또는 사용자의 현재 위치를 파악하거나, 로봇(R)의 주행 경로를 설정하거나, 로봇(R)이 주행하는데 활용될 수 있는 지도를 의미할 수 있다.
특히, 본 발명에 따른 로봇 제어 시스템(100)에서는, 로봇(R)에서 수신되는 영상을 기반으로 로봇(R)의 위치를 파악할 수 있다. 이를 위하여, 저장부(120)에 저장된 공간(10)에 대한 지도는 영상에 기반하여 위치를 추정할 수 있도록 하는 데이터로 구성될 수 있다.
이때, 공간(10)에 대한 지도는 사전에 공간(10)을 이동하는 적어도 하나의 로봇에 의해, SLAM(Simultaneous Localization and Mapping)에 기반하여 작성된 지도일 수 있다.
한편, 위에서 열거한 정보의 종류 외에도 저장부(120)에는 다양한 정보가 저장될 수 있다.
다음으로 디스플레이부(130)는 로봇(R)을 원격으로 관리하는 사용자 또는 관리자의 디바이스에 구비된 것으로서, 도 2에 도시된 것과 같이, 관제실(100a)에 구비될 수 있다. 나아가, 디스플레이부(130)는 모바일 디바이스에 구비된 디스플레이일 수 있다. 이와 같이, 본 발명에서는 디스플레이부의 종류에 대해서는 제한을 두지 않는다.
다음으로, 입력부(140)는 사용자(또는 관리자)로부터 입력되는 정보의 입력을 위한 것으로서, 입력부(140)는 사용자(또는 관리자)와 로봇 제어 시스템(100) 사이의 매개체가 될 수 있다. 보다 구체적으로, 입력부(140)는 사용자로부터 로봇(R)을 원격으로 제어하기 위한 제어 명령을 수신하는 입력 수단을 의미할 수 있다. 이때의 사용자는 서비스를 수행 받는 대상이 되는 타겟 유저와 다른 의미일 수 있다.
이때, 입력부(140)의 종류에는 특별한 제한이 없으며, 입력부(140)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 마우스(mouse), 조이스틱(joy stic), 물리적인 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단 중 적어도 하나를 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다. 이때, 입력부(140)가 터치 스크린을 포함하는 경우, 디스플레이부(130)는 터치 스크린으로 이루어 질 수 있다. 이 경우, 디스플레이부(130)는 정보를 출력하는 역할과, 정보를 입력받는 역할을 모두 수행할 수 있다.
다음으로 제어부(150)는 본 발명과 관련된 로봇 제어 시스템(100)의 전반적인 동작을 제어하도록 이루어질 수 있다. 제어부(150)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
제어부(150)는, 로봇(R)에 임무를 할당하도록 이루어질 수 있다. 제어부(150)는 로봇(R)에 대한 임무 할당을 위하여, 통신부(110)를 이용하여, 로봇(R)으로, 임무와 관련된 제어 명령을 전송할 수 있다. 이러한 제어 명령은, 로봇(R)이 임무를 수행하도록 하는 제어를 포함할 수 있다.
제어부(150)는, 임무에 매칭된 특정 장소로 상기 로봇(R)이 이동하도록, 상기 로봇(R)의 주행과 관련된 제어를 수행할 수 있다. 제어부(150)는 로봇(R)에게, 임무에 해당하는 제어 명령을 전송함으로써, 로봇(R)이 상기 임무에 매칭된 특정 장소로 이동하도록 제어할 수 있다.
이때, 로봇(R)에 할당되는 임무에 대응되는 제어 명령은, 임무와 관련된 정보를 포함할 수 있다. 앞서 살펴본 것과 같이, 임무와 관련된 정보는, 임무의 종류, 임무에 따른 동작, 임무의 대상이 되는 타겟 유저 정보, 임무 수행 장소(또는, 임무에 매칭된 특정 장소) 및 임무 수행 예정 시간 중 적어도 하나와 관련된 정보를 포함할 수 있다.
한편, 로봇(R)은, 제어부(150)로부터 임무에 해당하는 제어 명령을 수신하면, 할당된 임무를 수행하기 위하여, 임무에 매칭된 특정 장소로 이동할 수 있다. 로봇(R)의 제어부는, 로봇 제어 시스템(100)으로부터 수신한 임무와 관련된 정보에 근거하여, 임무 수행 장소로 이동할 수 있다.
나아가, 제어부(150)는 공간(10)에 배치된 로봇(R)을 제어하기 위한 다양한 제어를 수행할 수 있다. 이를 위하여, 제어부(150)는 공간(10)에 배치된 로봇(R)을 다양한 방법으로 인식함으로써, 로봇(R)의 현재 위치를 파악하거나, 로봇의 동작을 제어할 수 있다. 나아가, 제어부(150)는 공간(10)에 배치된 로봇(R)을 다양한 방법으로 인식함으로써, 로봇에 할당된 임무를 관리할 수 있다.
한편, 로봇(R)의 식별 정보는 도 3에 도시된 것과 같이, 로봇(R)에 구비된 식별 표지(또는 식별 마크)에 근거하여, 영상으로부터 추출될 수 있다. 도 3의 (a), (b) 및 (c)에 도시된 것과 같이, 로봇(R)의 식별 표지(301. 302. 303)는 로봇의 식별 정보를 포함할 수 있다. 도시와 같이, 식별 표지(301. 302. 303)는 바코드 (barcode, 301), 일련 정보(또는 시리얼 정보, 302), QR코드(303)로 구성될 수 있으며, 바코드 (barcode, 301), 일련 정보(또는 시리얼 정보, 302), QR코드(303)는 각각 로봇의 식별 정보를 포함하도록 이루어질 수 있다.
로봇의 식별 정보는, 로봇 각각을 구분하기 위한 정보로서, 동일한 종류의 로봇이더라도, 서로 다른 식별 정보를 가질 수 있다. 한편, 식별 표지를 구성하는 정보는, 위에서 살펴본 바코드, 일련 정보, QR코드 외에도 다양하게 구성될 수 있다.
제어부(150)는 카메라(20)로부터 수신되는 영상으로부터 위에서 살펴본 식별 표지에 근거하여, 로봇(R)의 식별 정보 추출하여, 카메라(20)에 의해 촬영된 로봇(R)을 특정하고, 공간(10)에서의 특정된 로봇(R)의 위치를 파악할 수 있다.
한편, 본 발명에서 카메라(20)에 촬영된 로봇(R)을 특정하는 방법은 다양할 수 있다. 위에서 살펴본 것과 같이, 제어부(150)는 영상으로부터 로봇(R)의 식별 정보를 추출하여, 로봇(R)을 특정하는 것이 가능하다. 이 외에도, 제어부(150)는 영상이 촬영된 시간 및 영상을 촬영한 카메라(20)에 매칭된 위치 정보 중 적어도 하나를 이용하여, 카메라(20)에 촬영된 로봇(R)의 현재 위치를 특정할 수 있다.
한편, 로봇(R)에서 위치를 추정하는 위에서 살펴본 공간(10)에 구비된 카메라를 이용하는 방법 외에도 다양할 수 있다. 예를 들어, 도 4에 도시된 것과 같이, 로봇 제어 시스템(100) 또는 로봇(R)의 제어부는 로봇(100)에 구비된 카메라(미도시됨)를 이용하여 공간(10)에 대한 영상을 수신하고, 수신된 영상으로부터 로봇의 위치를 추정하는 Visual Localization수행하도록 이루어진다. 이때, 로봇(100)에 구비된 카메라는 공간(10)에 대한 영상, 즉, 로봇(100) 주변에 대한 영상을 촬영(또는 센싱)하도록 이루어진다. 이하에서는, 설명의 편의를 위하여,
로봇 제어 시스템(100) 또는 로봇(R)의 제어부는 도 4의 (a)에 도시된 것과 같이, 로봇(R)에 구비된 카메라를 통하여 영상을 획득하도록 이루어진다. 그리고, 로봇 제어 시스템(100) 또는 로봇(R)의 제어부는 획득된 영상을 이용하여, 로봇(R)의 현재 위치를 추정할 수 있다.
로봇 제어 시스템(100) 또는 로봇(R)의 제어부는 로봇(R)에서 획득된 영상과 저장부(120)에 저장된 지도 정보를 비교하여, 도 4의 (b)에 도시된 것과 같이, 로봇(R)의 현재 위치에 대응하는 위치 정보(예를 들어, “3층 A구역 (3, 1, 1)”를 추출할 수 있다.
앞서 살펴본 것과 같이, 본 발명에서 공간(10)에 대한 지도는 사전에 공간(10)을 이동하는 적어도 하나의 로봇에 의해, SLAM(Simultaneous Localization and Mapping)에 기반하여 작성된 지도일 수 있다. 특히, 공간(10)에 대한 지도는, 영상 정보를 기반으로 생성된 지도일 수 있다.
즉, 공간(10)에 대한 지도는 vision(또는 visual)기반의 SLAM기술에 의하여 생성된 지도일 수 있다.
따라서, 로봇 제어 시스템(100) 또는 로봇(R)의 제어부는 로봇(R)에서 획득된 영상에 대해 도 4의 (b)에 도시된 것과 같이 좌표 정보(예를 들어, 3층, A구역(3, 1,1,))를 특정할 수 있다. 이와 같이, 특정된 좌표 정보는 곧, 로봇(R)의 현재 위치 정보가 될 수 있다.
이때, 로봇 제어 시스템(100) 또는 로봇(R)의 제어부는, 로봇(R)에서 획득된 영상과 vision(또는 visual)기반의 SLAM 기술에 의하여 생성된 지도를 비교함으로써, 로봇(R)의 위치(또는 현재 위치)를 추정할 수 있다. 이 경우, 로봇 제어 시스템(100) 또는 로봇(R)의 제어부는 i)로봇(R)에서 획득된 영상과 기 생성된 지도를 구성하는 이미지들 간의 이미지 비교를 이용하여, 로봇(R)에서 획득된 영상과 가장 비슷한 이미지를 특정하고, ii)특정된 이미지에 매칭된 위치 정보를 획득하는 방식으로 로봇(R)의 위치 정보를 특정할 수 있다.
이와 같이, 로봇 제어 시스템(100) 또는 로봇(R)의 제어부는 도 4의 (a)에 도시된 것과 같이, 로봇(R)에서 영상이 획득되면, 획득된 영상을 이용하여, 로봇의 위치(또는 현재 위치)를 특정할 수 있다. 앞서 살펴본 것과 같이, 로봇 제어 시스템(100) 또는 로봇(R)의 제어부는 저장부(320)에 기 저장된 지도 정보(예를 들어, “참조 맵”으로도 명명 가능)로부터, 상기 로봇(R)에서 획득된 영상에 대응되는 위치 정보(예를 들어, 좌표 정보)를 추출할 수 있다.
한편, 도 2에 도시된, 영상 관제 시스템(2000)은, 공간(10) 내 배치된 적어도 하나의 카메라(20)를 제어하도록 이루어 질 수 있다. 도시와 같이, 공간(10)에는 복수의 카메라(20a, 20b, 20c, 20d, …)가 배치될 수 있다. 이러한 복수의 카메라(20a, 20b, 20c, 20d, …)는 공간(10) 내에서 각각 서로 다른 위치에 배치될 수 있다.
이와 같이, 공간(10)의 서로 다른 위치에는 복수의 카메라(20a, 20b, 20c, 20d, …)가 배치되어 있으므로, 로봇 제어 시스템(100)에서는 이러한 복수의 카메라(20a, 20b, 20c, 20d, …)를 이용하여, 로봇(R)의 동작을 모니터링하거나, 타겟 유저의 위치를 파악하는 것이 가능하다.
영상 관제 시스템(2000)은 로봇 제어 시스템(100)과의 상호 통신을 통하여, 로봇(R)의 임무 수행에 필요한 정보를 로봇 제어 시스템(100)에 제공할 수 있다. 앞서 저장부(120)의 구성에서 살펴본 것과 같이, 영상 관제 시스템(2000)의 저장부에는, 카메라(20)에 대한 다양한 정보를 저장하도록 이루어질 수 있다. 카메라(20)에 대한 정보는 매우 다양할 수 있으며, 카메라(20)에 대한 정보는, i) 각각의 카메라(20a, 20b, 20c, 20d…)의 식별 정보(예를 들어, 일련번호, TAG 정보, QR코드 정보 등), ii) 각각의 카메라(20a, 20b, 20c, 20d…)의 배치 위치 정보(예를 들어, 공간 내에서 각각의 카메라(20a, 20b, 20c, 20d…)가 어느 위치에 배치되었는지에 대한 정보), iii) 각각의 카메라(20a, 20b, 20c, 20d…)의 화각 정보(anle of view, 예를 들어, 각각의 카메라(20a, 20b, 20c, 20d…) 가 공간의 어느 뷰를 촬영하고 있는지에 대한 정보), iv) 각각의 카메라(20a, 20b, 20c, 20d…)의 화각에 대응되는 영역(또는 공간(또는 특정 공간))에 대한 위치 정보, v) 각각의 카메라(20a, 20b, 20c, 20d…)의 상태 정보(예를 들어, 전원 상태, 고장 유무, 배터리 상태 등), vi) 각각의 카메라(20a, 20b, 20c, 20d…)로부터 수신된 영상 정보 등이 존재할 수 있다.
한편, 위에서 열거된 카메라(20)에 대한 정보는 각각의 카메라(20a, 20b, 20c, 20d…)를 기준으로 서로 매칭되어 존재할 수 있다.
*예를 들어, 영상 관제 시스템(2000)의 저장부에는, 특정 카메라(20a)의 식별정보, 위치 정보, 화각 정보, 위치 정보, 상태 정보, 및 영상 정보 중 적어도 하나가 매칭되어 매칭 정보로서 존재할 수 있다.
한편, 이하의 설명에서는 위에서 살펴본 카메라의 정보가, 어느 저장부(또는 저장소)에 저장되어 있는지에 대한 구분 없이, 설명의 편의를 위하여, 저장부(120)의 구성에 저장되었음을 예를 들어 설명하도록 한다. 즉, 카메라에 대한 정보는 상황에 따라, 다양한 저장부에 저장될 수 있으므로, 본 발명에서는 이에 대한 특별한 제한을 두지 않는다.
한편, 위의 설명에 의하면, 본 발명에서, 영상 관제 시스템(2000)과 로봇 제어 시스템(100)을 별개의 구성으로 설명하였다. 그러나, 본 발명은 이에 제한되지 않으며, 영상 관제 시스템(2000)과 로봇 제어 시스템(100)은 하나의 통합된 시스템으로 이루어질 수 있다. 이 경우, 영상 관제 시스템(2000)은 “카메라부”의 구성으로 명명되는 것 또한 가능하다.
이하에서는, 위에서 살펴본 구성을 참조하여, 본 발명에 따른 로봇 제어 방법에 대하여 첨부된 도면과 함께 보다 구체적으로 살펴본다. 도 5는 본 발명에 따른 로봇 제어 방법을 설명하기 위한 흐름도이고, 도 6, 도 7, 도 8a, 도 8b 및 도 9는 본 발명에 따른 로봇 제어 방법 및 시스템을 설명하기 위한 개념도들이다.
본 발명에 따른 로봇 제어 방법에서는, 로봇에 임무를 할당하는 과정이 진행된다(S510).
본 발명에서, “로봇에 임무를 할당”한다는 것은, 로봇에 임무를 부여하는 것으로서, 보다 구체적으로, 로봇(R)이 할당된 임무를 수행하도록, 로봇(R)에 제어 명령을 입력 또는 전송하는 것을 의미할 수 있다. 로봇(R)은, 임무가 할당되는 경우, 할당된 임무를 수행하도록 하는 알고리즘을 포함할 수 있다. 즉, 로봇(R)은 할당된 임무를 수행할 수 있도록 프로그래밍될 수 있다. 로봇(R)의 제어부는 기 설정된 알고리즘 및 프로그램에 의하여, 할당된 임무(R)의 수행을 위한 동작을 할 수 있다.
할당된 임무를 수행하기 위한 로봇의 동작은 매우 다양할 수 있다.
예를 들어, 로봇의 동작은 로봇의 주행, 로봇이 수행하는 임무, 로봇의 전원 상태 등과 관련된 동작을 모두 포함하는 개념으로 이해되어 질 수 있다.
로봇의 주행과 관련된 동작은, 로봇의 주행 속도, 주행 방향, 회전 방향, 회전 속도, 주행 시작, 주행 정지, 주행 종료와 같이, 로봇의 주행과 관련된 다양한 동작을 포함할 수 있다.
다음으로 로봇이 수행하는 임무와 관련된 동작은, 로봇이 수행하는 임무의 종류에 따라 다를 수 있다. 예를 들어, 로봇이 길안내 서비스를 제공하는 로봇인 경우, 로봇이 수행하는 임무와 관련된 동작은, 길안내를 위한 길 찾기 동작, 길안내를 위한 주행 동작 등을 포함할 수 있다. 또 다른 예를 들어, 로봇(R)이 물품 배송 서비스를 제공하는 로봇인 경우, 로봇이 수행하는 임무와 관련된 동작은, 물품의 배송을 위한 주행 동작, 물품의 배송을 위한 로봇의 하드웨어를 구동하는 동작 등을 포함할 수 있다.
다음으로, 로봇의 전원 상태와 관련된 동작은, 로봇(R)의 전원을 온(ON) 또는 오프(OFF)시키는 동작, 로봇을 대기 상태(standby state)로 구동하는 동작, 로봇을 슬립 모드(sleep mode)로 구동하는 동작 등을 포함할 수 있다. 위에서 열거한 예들 외에도, 로봇의 동작의 종류는 다양할 수 있으며, 본 발명은 위의 예들에 한정되지 않는다.
이와 같이, 로봇의 동작은 다양하며, 로봇(R)은 할당된 임무의 수행을 위하여 위에서 살펴본 다양한 동작들 중 적어도 하나를 수행할 수 있다.
한편, 로봇(R)에 임무를 할당하기 위하여, 로봇(R)에 입력 또는 전송되는 제어 명령은, 로봇(R)이 할당된 임무를 수행하도록 로봇(R)을 구동하는 적어도 하나의 명령을 포함할 수 있다.
로봇(R)에 대한 임무 할당은 다양한 경로를 통하여 이루어질 수 있으며, 일 예로서, 본 발명에 따른 로봇 제어 시스템(100)에 의하여 할당될 수 있다. 제어부(150)는, 로봇(R)에 임무를 할당하도록 이루어질 수 있다. 제어부(150)는 로봇(R)에 대한 임무 할당을 위하여, 통신부(110)를 이용하여, 로봇(R)으로, 임무와 관련된 제어 명령을 전송할 수 있다. 이러한 제어 명령은, 로봇(R)이 임무를 수행하도록 하는 제어를 포함할 수 있다.
이때, 제어부(150)는, 임무에 매칭된 특정 장소로 상기 로봇(R)이 이동하도록, 상기 로봇(R)의 주행과 관련된 제어를 수행할 수 있다. 제어부(150)는 로봇(R)에게, 임무에 해당하는 제어 명령을 전송함으로써, 로봇(R)이 상기 임무에 매칭된 특정 장소로 이동하도록 제어할 수 있다.
이때, 로봇(R)에 할당되는 임무에 대응되는 제어 명령은, 임무와 관련된 정보를 포함할 수 있다. 앞서 살펴본 것과 같이, 임무와 관련된 정보는, 임무의 종류, 임무에 따른 동작, 임무의 대상이 되는 타겟 유저 정보, 임무 수행 장소(또는, 임무에 매칭된 특정 장소) 및 임무 수행 예정 시간 중 적어도 하나와 관련된 정보를 포함할 수 있다
한편, 로봇(R)은, 제어부(150)로부터 임무에 해당하는 제어 명령을 수신하면, 상기 임무와 관련된 정보에 근거하여, 할당된 임무를 수행하기 위하여, 임무에 매칭된 특정 장소로 이동할 수 있다. 로봇(R)의 제어부는, 로봇 제어 시스템(100)으로부터 수신한 임무와 관련된 정보에 근거하여, 임무 수행 장소로 이동할 수 있다.
한편, 로봇(R)에 대한 임무의 할당은 로봇(R)에 임무에 대한 정보가 입력되는 것에 근거하여 할당될 수 있다. 이 경우, 로봇(R)은 로봇(R)에 구비된 입력부 구성을 통하여, 임무와 관련된 정보를 수신할 수 있다. 로봇(R)의 입력부 구성을 통하여 임무와 관련된 정보를 입력하는 대상은 사람 또는 임무를 할당받는 로봇과 다른 로봇일 수 있다.
이와 같이, 로봇(R)에 대한 임무 할당은 다양한 방법으로 이루어질 수 있으며, 로봇(R)은 임무가 할당되는 것에 근거하여, 임무의 수행을 위한 동작을 수행할 수 있다.
앞서 살펴본 것과 같이, 로봇(R)에 할당되는 임무는, 사용자에게 서비스를 제공하는 임무일 수 있다. 이 경우, 로봇(R)은, 임무의 대상, 즉, 서비스의 대상이 되는 사용자(이하, “타겟 유저(target user”라고 명명함)를 공간(10) 상에서 직접 만나(또는 대면하여), 타겟 유저에게 서비스를 제공하도록 이루어질 수 있다,
이에, 로봇(R)은, 임무가 할당되는 것에 근거하여, 타겟 유저에 대한 임무를 수행하도록(또는 임무에 따른 서비스를 수행하도록) 특정 장소로 이동할 수 있다.
이때, 로봇(R)은, 할당된 임무와 관련된 정보에 근거하여, 특정 장소로 이동할 수 있다. 제어부(150)는, 로봇(R)이 할당된 임무와 관련된 정보에 대응되는 특정 장소로 이동할 수 있도록, 로봇(R)을 제어할 수 있다.
앞서 살펴본 것과 같이, 임무와 관련된 정보는, 임무의 종류, 임무에 따른 동작, 임무의 대상이 되는 타겟 유저 정보, 임무 수행 장소(또는, 임무에 매칭된 특정 장소) 및 임무 수행 예정 시간 중 적어도 하나와 관련된 정보를 포함할 수 있다.
로봇(R)은 임무와 관련된 정보에 근거하여, 임무 수행 예정 시간까지, 임무에 매칭된 특정 장소로, 임무의 수행을 위하여 이동할 수 있다.
제어부(150)는, 로봇(R)이, 상기 임무와 관련된 정보에 근거하여, 임무 수행 예정 시간까지, 임무에 매칭된 특정 장소로 임무의 수행을 위하여 이동하도록, 로봇(R)을 제어할 수 있다.
한편, 임무가 수행되기로 예정된 시간은, “예정 시간” 또는 “예약 시간”이라고도 표현될 수 있다. 이러한 예정시간 또는 예약 시간은, 타겟 유저로부터의 선택 또는 로봇 제어 시스템(100)에서의 제어에 근거하여 결정될 수 있다. 예를 들어, 타겟 유저는 로봇 제어 시스템(100)으로, 로봇(R)이 자신에 대해 특정 임무(예를 들어, 택배 배송 임무)를 수행해 줄 것을 예약할 수 있다. 이때, 타겟 유저는, 전자기기를 통하여, 로봇 제어 시스템(100)으로 특정 임무에 따른 서비스를 제공받을 시간(예를 들어, 오후 3시)을 입력할 수 있다. 이러한 특정된 시간은, 위에서 살펴본 예정 시간 또는 예약 시간으로 표현될 수 있다. 또한, 타겟 유저는, 전자기기를 통하여, 로봇 제어 시스템(100)을 거치지 않고, 로봇(R)에 대해 직접 예정 시간 정보를 전송하는 것 또한 가능하다.
한편, 로봇(R)은 다양한 경로를 통하여, 임무 수행 예정 시간에 대한 정보를 수신하고, 해당 시간에 임무가 수행되도록 프로그래밍될 수 있다.
나아가, 임무가 수행되는 특정 장소 또한, 다양한 방법으로 설정될 수 있다. 예를 들어, 제어부(150)는 서비스의 수행 대상이 되는 타겟 유저가 특정되면, 앞서 살펴본 사용자 DB를 참조하여, 타겟 유저의 근무 장소 또는 거주 장소와 같은 장소 정보를 추출할 수 있다. 그리고, 제어부(150)는 추출된 장소 정보와 관련된 장소를, 임무가 수행될 특정 장소(또는 목적지)로 설정할 수 있다. 또 다른 예를 들어, 임무가 수행되는 특정 장소는, 타겟 유저로부터 수신되는 정보에 근거하여 특정되는 것 또한 가능하다.
한편, 로봇(R)은 다양한 경로를 통하여, 임무가 수행될 특정 장소에 대한 정보를 수신하면, 임무의 수행을 위하여, 해당 특정 장소까지 이동하도록 프로그래밍될 수 있다. 로봇(R)은 상기 특정 장소를 “목적지”로 하여 주행을 수행할 수 있다.
이와 같이, 로봇(R)은 임무가 할당되면, 임무의 수행을 위하여, 예정 시간까지(또는 예정 시간 보다 기 설정된 시간 전까지(예를 들어, 예정 시간이 오후 3시인 경우, 2시 50분까지)) 특정 장소로 이동을 수행할 수 있다.
제어부(150)는 로봇(R)이 상기 할당된 임무의 수행을 위하여, 상기 예정 시간까지 상기 특정 장소로 이동하도록 상기 로봇(R)을 제어할 수 있다. 이때 제어부(150)는, 로봇(R)의 주행에 대한 제어를 수행할 수 있다.
한편, 본 발명에 따른 로봇 제어 방법에서는, 공간에 배치된 카메라로부터 수신된 영상을 이용하여, 임무에 따른 서비스의 제공 대상이 되는 타겟 유저의 위치를 확인하는 과정이 진행될 수 있다(S520).
제어부(150)는, 타겟 유저가 특정되면, 공간(10)에 배치된 카메라로부터 영상을 수신하고, 수신된 영상으로부터 타겟 유저를 식별 및 타겟 유저의 위치 정보를 추출할 수 있다. 제어부(150)는, 임무의 수행 예정된 예정 시간으로부터 기 설정된 시간 전에, 공간(10) 상에서, 타겟 유저의 현재 위치를 확인할 수 있다. 이는 제어부(150)는 예정 시간으로부터 기 설정된 시간 전에, 타겟 유저의 현재 위치를 확인함으로써, 타겟 유저가, 상기 예정 시간까지 임무에 매칭된 특정 장소로 도착이 가능한 상황인지를 파악하기 위함이다.
여기에서, 기 설정된 시간의 길이는 상황에 따라 다르게 설정될 수 있다.
이때, 로봇(R)은 도 6에 도시된 것과 같이, 임무에 매칭된 특정 장소에 도착한 상태이거나, 상기 특정 장소로 이동하는 상태일 수 있다.
한편, 본 발명에서 타겟 유저의 위치를 확인하는 방법을 다양할 수 있다. 보다 구체적으로, 제어부(150)는 도 7에 도시된 것과 같이, 공간(10)에 배치된 카메라(20)를 통해 수신된 영상으로부터, 타겟 유저(1000)를 추출할 수 있다. 제어부(150)는 공간(10)에 배치된 복수의 영상들 중, 얼굴 인식 알고리즘을 이용하여, 타겟 유저(1000)에 대응되는 얼굴 이미지가 포함된 영상을 특정할 수 있다. 타겟 유저(1000)의 얼굴 이미지는 저장부(120)에 저장된 사용자 DB에 기 존재할 수 있다.
한편, 타겟 유저(1000)에 대응되는 얼굴 이미지가 포함된 영상이 특정되면, 제어부(150)는, 특정된 영상을 촬영한 카메라가 배치된 장소를, 타겟 유저의 위치(또는 현재 위치)로 특정할 수 있다.
앞서 살펴본 것과 같이, 저장부(120)에는 카메라에 대한 식별 정보와 함께, 카메라가 배치된 장소에 대한 위치 정보가 매칭되어 존재할 수 있다. 따라서, 제어부(150)는 영상을 촬영한 카메라의 식별정보와 매칭된 위치 정보를 저장부(120)로부터 추출하여, 상기 타겟 유저의 위치로서 특정할 수 있다.
한편, 타겟 유저(1000)의 위치는, 타겟 유저(1000)가 소지한 식별 표지를 인식하는 것에 근거하여 이루어질 수 있다. 제어부(150)는 통신부(110)를 통하여, 타겟 유저 (1000)가 소지한 식별 표지를 인식할 수 있다. 나아가, 제어부(150)는 공간(10)내 배치된 식별 표지를 스캔하는 스캔부 또는 식별 표지를 인식하는 인식부를 이용하여, 식별 표지를 인식할 수 있다. 이러한, 식별 표지는, 안테나(예를 들어, NFC 안테나 등), 바코드, QR코드 등과 같이, 통신을 통하여 인식될 수 있는 구성을 포함할 수 있다. 이러한 식별 표지는 특정 회사의 출입 카드 등으로 구성될 수 있다. 한편, 저장부(120)에는 식별 표지를 인식한 스캔부 또는 인식부의 식별 정보와 함께, 스캔부 또는 인식부가 배치된 장소에 대한 위치 정보가 매칭되어 존재할 수 있다. 따라서, 제어부(150)는 식별 표지를 인식한 스캔부 또는 인식부의 식별 정보와 매칭된 위치 정보를 저장부(120)로부터 추출하여, 상기 타겟 유저의 위치로서 특정할 수 있다.
다른 예로서, 타겟 유저(1000)의 위치는, 타겟 유저(1000)가 소지한 전자기기를 인식하는 것에 근거하여 이루어질 수 있다. 여기에서, 전자기기는, 타겟 유저(1000)의 휴대폰(또는 스마트폰)를 포함할 수 있다. 이러한 전자기기는 사용자 DB에 미리 등록된 전자기기로서, 사용자 DB에 따른 타겟 유저(1000)와 관련된 정보에는, 타겟 유저(1000)의 전자기기에 대응되는 식별 정보가 저장되어 존재할 수 있다. 제어부(150)는 통신부(110)를 이용하여, 타겟 유저(1000)가 소지한 전자기기를 인식할 수 있다.
저장부(120)에는 전자기기와 가장 강한 신호 강도로 통신한 통신부의 식별 정보와 함께, 통신부가 배치된 장소에 대한 위치 정보가 매칭되어 존재할 수 있다. 따라서, 제어부(150)는 상기 전자기기와 가장 강한 신호 강도로 통신한 통신부의 식별 정보와 매칭된 위치 정보를 저장부(120)로부터 추출하여, 추출된 위치 정보를 상기 타겟 유저의 위치로서 특정할 수 있다.
이와 같이, 타겟 유저의 위치 정보가 확인(또는 특정되면), 본 발명에서는, 상기 타겟 유저의 위치와 임무가 수행되는 특정 장소 사이의 상대 위치 정보에 근거하여, 임무가 수행되는 시간과 관련된 제어를 수행하는 과정을 진행할 수 있다(S530).
앞서 살펴본 것과 같이, 임무가 수행되는 시간은, 로봇(R)에 의해 임무가 수행되기로 예정된(또는 타겟 유저를 만나기로 예정된) 예정 시간을 의미할 수 있다.
여기에서, 상대 위치 정보는, 앞서 S520단계에서 확인된 타겟 유저의 위치(또는 현재 위치)와 상기 특정 장소 사이의 거리에 해당하는 거리 정보를 포함할 수 있다. 상대 위치 정보는, 특정 장소로부터 타겟 유저(1000)가 떨어져 있는 정도에 대한 정보로서, 수평 거리 정보 및 수직 거리 정보 중 적어도 하나를 포함할 수 있다.
여기에서, 수평 거리 정보는, 특정 장소와 타겟 유저(1000)가 동일 층(floor)에 존재한다고 가정할 때, 특정 장소로부터 타겟 유저(1000)가 얼마만큼 떨어져 있는지에 대한 정보를 의미할 수 있다. 이러한 수평 거리 정보는 미터 등의 단위로 표현될 수 있다.
나아가, 수직 거리 정보는, 특정 장소와 타겟 유저(1000)가 서로 다른 층(floor)에 위치한다고 가정했을 때, 특정 장소로부터 타겟 유저(1000)가 몇 층에 해당하는 만큼 떨어져 있는지에 대한 정보를 의미할 수 있다. 이러한 수직 거리 정보는 특정 장소가 위치한 층에서 타겟 유저(1000)가 위치한 층을 뺀 만큼의 “층(floor)수”로 나타내어 질 수 있다. 예를 들어, 도 7에 도시된 것과 같이, 공간(10)은, 서로 다른 복수의 층(floor, 10a, 10b, 10c, 10d, …)으로 구성될 수 있다. 이 경우, 타겟 유저(1000)는 1층(10a)에 위치하고, 특정 장소는 4층(10d)에 위치할 수 있다. 이 경우, 특정 장소와 타겟 유저(1000)의 상대 위치 정보(구체적으로는 수직 거리 정보)는 3층에 해당할 수 있다.
이와 같이, 제어부(150)는 타겟 유저(1000)의 위치가 확인되면, 확인된 위치 정보를 이용하여, 타겟 유저(1000)와 특정 장소 사이의 상대 위치 정보를 산출할 수 있다. 그리고, 제어부(150)는, 수직 거리 정보 및 수평 거리 정보 중 적어도 하나를 포함하는 상대 위치 정보에 근거하여, 로봇(R)에 할당된 임무의 수행 예정 시간을 초과하여, 상기 임무가 수행되도록 로봇(R)을 제어할지 여부를 결정할 수 있다.
한편, 로봇(R)은, 상기 예정 시간을 초과하여 임무가 수행되도록 제어되기 전까지는, 임무 수행 예정 시간까지만 특정 장소에서, 타겟 유저(1000)를 대기하도록 프로그래밍(또는 제어)될 수 있다.
한편, 로봇(R)은, 예정 시간까지 타겟 유저(1000)에게, 임무에 대한 서비스(예를 들어, 물품 배송)가 제공되지 못한 경우, 임무의 수행 완료와 관계없이, 더 이상 타겟 유저(1000)에 대한 대기를 수행하지 않고 기 설정된 장소로 복귀할 수 있다. 이 경우, 로봇(R)에 할당된 임무가 취소되었다고도 표현될 수 있다.
따라서, 로봇(R)에서, 할당된 임무의 수행 예정 시간을 초과하여, 상기 임무가 수행된다고 함은, 도 6에 도시된 것과 같이, 로봇(R)이 상기 예정 시간을 넘어서까지 임무에 매칭된 특정 장소에 위치함을 의미할 수 있다.
즉, 로봇(R)에 대해, 상기 예정 시간을 초과하여, 상기 임무가 수행되도록 제어된 경우, 로봇(R)은 특정 장소에서, 타겟 유저(1000)에 대한 대기를 수행할 수 있다.
한편, 로봇(R)은 로봇 제어 시스템(100)으로부터 수신되는 제어 명령에 근거하여, 상기 예정 시간을 초과하여, 기 할당된 임무를 수행할 수 있다. 즉, 로봇(R)의 제어부는, 상기 로봇 제어 시스템(100)으로부터 수신되는 제어 명령에 근거하여, 상기 예정 시간이 초과하더라도, 상기 특정 장소에 계속하여 위치할 수 있다. 이때, 로봇(R)은 대기 모드, 절전 모드 및 슬립 모드 중 어느 하나의 상태로 존재할 수 있다.
로봇(R)에 할당된 임무의 수행 예정 시간을 초과하여, 로봇(R)에서 임무가 수행되도록 로봇(R)을 제어하는 방법에 대하여 보다 구체적으로 살펴본다.
제어부(150)는 다양한 기준에 근거하여, 상기 예정 시간에 대한 추가 임무 수행 시간을 설정할 수 있다. 여기에서, “추가 임무 수행 시간”은 “추가 대기 시간”이라고도 표현될 수 있다. “추가 대기 시간”은, 기 설정된 임무 수행 예정 시간에 대해 초과되는 시간으로서, 예를 들어, 10분, 20분 등으로 특정될 수 있다. 예를 들어, 임무 수행 예정 시간이 오후 3시이고, 추가 대기 시간이 10분인 경우, 로봇(R)은 타겟 유저를 만나기 위하여(또는 타겟 유저에게 임무에 따른 서비스를 제공하기 위하여), 오후 3시 10분까지 특정 장소에 위치할 수 있다.
추가 임무 수행 시간을 설정하는 방법에 대하여 보다 구체적으로 살펴보면, 제어부(150)는, 타겟 유저와 특정 장소 사이의 거리가 기준 범위 이내인 경우, 임무 수행의 예정 시간에 대해 추가 임무 수행 시간을 설정할 수 있다.
여기에서, 상기 타겟 유저와 상기 특정 장소 사이의 거리는, 앞서 살펴본 수평 거리 정보 및 수직 거리 정보 중 적어도 하나에 근거하여 특정될 수 있다.
그리고, 제어부(150)는, 로봇(R)이 상기 예정 시간을 초과하여 상기 추가 임무 수행 시간 동안 임무를 수행하도록, 로봇(R)에 대해 상기 추가 임무 수행 시간과 관련된 제어를 수행할 수 있다. 앞서 살펴본 것과 같이, 추가 임무 수행 시간과 관련된 제어는, 로봇(R)이 상기 특정 장소에 도달한 후, 상기 예정 시간을 초과하여 상기 추가 임무 수행 시간 동안 상기 특정 장소에서 대기하도록 하는 제어를 포함할 수 있다
저장부(120)에는, 도 8a 및 도 8b에 도시된 것과 같이, 추가 임무 수행 시간을 설정하기 위한 다양한 가이드 정보가 저장되어 존재할 수 있다. 제어부(150)는 저장부에 저장된 가이드 정보 및 상대 위치 정보(예를 들어, 타겟 유저의 위치와 상기 특정 장소 사이의 거리)에 근거하여, 추가 임무 수행 시간을 설정할 수 있다.
이때, 추가 임무 수행 시간의 길이(또는 시간 길이, duration)는, 상기 타겟 유저의 위치와 상기 특정 장소 사이의 거리에 따라 서로 다르게 설정될 수 있다.
예를 들어, 도 8a에 도시된 것과 같이, 상기 타겟 유저의 위치와 상기 특정 장소 사이의 거리가 “동일 층(floor) 이면서, 10미터(m)”이내인 경우, 추가 임무 수행 시간의 길이는 “5분”으로 설정될 수 있다. 제어부(150)는 로봇(R)으로 추가 임무 수행 시간에 대한 정보를 전송할 수 있다. 로봇(R)은 제어부(150)로부터 수신된 추가 임무 수행 시간에 대한 정보에 근거하여, 기 설정된 임무 수행 예정 시간을 초과하여, 상기 추가 임무 수행 시간 동안, 할당된 임무가 수행될 수 있도록, 특정 장소에서 대기 상태를 유지할 수 있다.
또 다른 예를 들어, 도 8a에 도시된 것과 같이, 상기 타겟 유저의 위치와 상기 특정 장소 사이의 거리가 “5층”이내인 경우, 추가 임무 수행 시간의 길이는 “10분”으로 설정될 수 있다. 즉, 제어부(150)는 타겟 유저와 특정 장소 사이의 거리가 멀수록, 타겟 유저가 특정 장소로 이동하는 소요되는 시간이 더 많이 필요하므로, 타겟 유저와 특정 장소 사이의 거리에 따라, 추가 대기 시간을 다르게 설정할 수 있다.
한편, 이 경우에도, 제어부(150)는 로봇(R)으로 추가 임무 수행 시간에 대한 정보를 전송할 수 있다. 로봇(R)은 제어부(150)로부터 수신된 추가 임무 수행 시간에 대한 정보에 근거하여, 기 설정된 임무 수행 예정 시간을 초과하여, 상기 추가 임무 수행 시간 동안, 할당된 임무가 수행될 수 있도록, 특정 장소에서 대기 상태를 유지할 수 있다.
한편, 상기 타겟 유저와 상기 특정 장소 사이의 거리가 기준 범위를 벗어난 경우, 상기 로봇(R)에 할당된 상기 임무는 취소될 수 있다.
예를 들어, 특정 장소는 도 7에 도시된 것과 같이, 공간(10)을 구성하는 복수의 층(floor, 10a, 10b, 10c, 10d) 중 특정 층(10d)에 위치할 수 있다. 이때, 기준 범위는 “층”을 기준으로 할 수 있다. 제어부(150)는, 타겟 유저가 상기 복수의 층 중 어느 층에 위치하는지를 확인하고, 상기 타겟 유저가 위치한 층과 상기 특정 장소가 위치한 특정 층이 서로 다른 경우, 추가 임무 수행 시간을 설정하지 않을 수 있다.
또한, 제어부(150)는 상기 타겟 유저의 위치와 상기 특정 장소 사이의 층간 거리가 기준 범위를 벗어난 경우, 추가 임무 수행 시간을 설정하지 않을 수 있다.
예를 들어, 도 8a에 도시된 것과 같이, 상기 타겟 유저의 위치와 상기 특정 장소 사이의 거리가 “5층”초과인 경우, 제어부(150)는 로봇(R)에 할당된 임무가 취소되도록 로봇(R)에 대해 임무 취소에 대한 제어 명령을 전송할 수 있다. 이 경우, 로봇(R)은 임무의 수행을 완료하지 않고, 기 설정된 장소로 복귀할 수 있다. 제어부(150)는 타겟 유저가 특정 장소로부터 기준 범위를 벗어난 거리에 위치한 경우, 타겟 유저가 기 설정된 임무 수행 예정 시간 이내에, 특정 장소로 도착하지 못할 것이라고 판단할 수 있다.
이때, 제어부(150)는, 상기 임무가 수행되기로 예정된 예정 시간 전에, 로봇(R)이 기 설정된 장소로 복귀하도록 로봇(R)을 제어할 수 있다. 이 경우, 로봇(R)은 상기 예정 시간까지 특정 장소에서 대기하지 않고, 기 설정된 장소로 복귀할 수 있다. 또한, 이와 다르게, 제어부(150)는 상기 예정 시간까지는 로봇(R)이 상기 특정 장소에서 타겟 유저를 대기하도록, 로봇(R)을 제어하는 것 또한 가능하다. 즉, 앞서 살펴본 “임무 취소에 대한 제어 명령”은, 위의 두가지 상황 중 어느 하나를 포함할 수 있다.
한편, 제어부(150)는 타겟 유저와 특정 장소 사이의 거리 뿐만 아니라, 타겟 유저의 상황 정보를 함께 고려하여, 추가 임무 수행 시간과 관련된 제어를 수행할 수 있다. 즉, 타겟 유저와 특정 장소 사이의 거리가 가까운 경우라도, 타겟 유저의 현재 처한 상황에 따라, 임무 수행 예정 시간 및 추가 임무 수행 시간까지 타겟 유저가 특정 장소까지 도달하지 못하는 경우가 발생할 수 있다.
타겟 유저의 상황 정보는 다양한 경로로 수집될 수 있다.
일 예로서, 제어부(150)는 공간(10)에 배치된 카메라(20)에서 수신된 영상으로부터, 타겟 유저를 인식하는 것뿐만 아니라, 타겟 유저의 행동 정보 및 타겟 유저가 위치한 장소의 특성 정보 중 적어도 하나를 추출할 수 있다. 예를 들어, 제어부(150)는 영상으로부터, 도 8b에 도시된 것과 같이, 타겟 유저가 i) 특정 장소를 향하여 이동하고 있는지, ii) 제3 자와 대화를 하고 있는지, iii) 회의실에서 미팅을 하고 있는지 등과 같은 타겟 유저의 상황 정보를 파악할 수 있다. 그리고, 제어부(150)는, 타겟 유저의 상황 정보에 근거하여, 타겟 유저가 임무 수행 예정 시간 및 추가 임무 수행 시간까지 도달하지 못할 가능성을 예측할 수 있다. 따라서, 제어부(150)는 타겟 유저와 특정 장소가, 기준 범위 이내에 위치하는 경우이더라도, 타겟 유저의 상황정보에 기반하여, 추가 임무 수행 시간을 설정하지 않을 수 있다. 예를 들어, 도 8b에 도시된 것과 같이, “타겟 유저가 특정 장소를 향하여 이동”하는 타겟 유저의 상황이 분석된 경우, 추가 임무 수행 시간(또는 대기 시간)이 설정될 수 있다. 그리고, 도 8b에 도시된 것과 같이, “회의실에서 미팅”하는 타겟 유저의 상황이 분석된 경우, 타겟 유저가 특정 장소로부터 기준 범위 이내에 위치하는 경우라도, 추가 임무 수행 시간(또는 대기 시간)이 설정되지 않을 수 있다.
한편, 제어부(150)는, 사용자 DB에 저장된 사용자의 스케줄 정보를 기반하여, 사용자의 상황 정보를 분석할 수 있다. 예를 들어, 제어부(150)는 사용자의 스케줄 정보로부터, 미팅 종료 시간 정보를 추출할 수 있다. 만약, 추출된 미팅 종료 시간 정보가 임무 수행 예정 시간 이내이거나, 설정 가능한 추가 임무 수행 시간 이내인 경우, 제어부(150)는 사용자의 스케줄 정보에 기반하여, 추가 임무 수행 시간을 설정할 수 있다.
한편, 제어부(150)는, 타겟 유저가 특정 장소로 이동하고 있는 타겟 유저의 상황 정보가 획득된 경우, 타겟 유저와 특정 장소의 사이의 거리가 기준 범위를 벗어나더라도, 추가 임무 수행 시간을 설정할 수 있다. 이는, 임무에 따른 서비스를 제공받고자 하는 타겟 유저의 의도를 반영하기 위함이다. 이 경우, 제어부(150)는, 로봇(R)에 기 할당된 다른 임무에 따른 임무 예정 시간을 고려하여, 추가 임무 수행 시간을 설정할 수 있다.
한편, 이상의 실시 예에서는, 타겟 유저의 상황만을 고려하여, 추가 임무 수행 시간의 길이를 설정하는 것에 대하여 살펴보았으나, 본 발명에서는 로봇(R)의 스케줄을 고려하여 추가 임무 수행 시간의 길이가 설정될 수 있다. 제어부(150)는 로봇(R)에 기 설정된 다른 임무를 확인하고, 로봇(R)에게 허용된 최대 추가 임무 수행 시간 정보를 산출할 수 있다. 그리고, 제어부(150)는 상기 최대 추가 임무 수행 시간 이내에서, 타겟 유저에 대한 추가 임무 수행 시간을 설정할 수 있다.
한편, 제어부(150)는 타겟 유저에게 서비스를 제공하기 위하여, 임무를 할당 받은 로봇(R)이 특정 장소로 이동을 시작하거나, 또는 임무 수행 예정 시간으로부터 기 설정된 시간 전에 타겟 유저의 전자기기로 알림 정보를 전송할 수 있다. 이러한 알림 정보는, 로봇(R)이 특정 장소로 이동하고 있거나, 특정 장소에 위치하고 있음을 알리는 정보를 포함할 수 있다.
한편, 제어부(150)는, 타겟 유저의 전자기기로부터, 특정 장소로의 도착 예정 시간 및 도착 가능 여부 중 적어도 하나에 대한 정보를 수신할 수 있다. 그리고, 제어부(150)는 타겟 유저의 전자기기로부터 수신된 정보에 기반하여, 추가 임무 수행 시간 관련된 제어(예를 들어, 추가 임무 수행 시간의 길이 결정, 추가 임무 수행 시간 설정 여부 결정 등)를 수행할 수 있다.
한편, 제어부(150)는, 로봇(R)으로부터, 임무의 수행을 위하여 특정 장소에 도착했음을 포함하는 상태 정보를 수신할 수 있다. 제어부(150)는 이러한 상태 정보가 수신되는 것에 근거하여, 타겟 유저의 위치를 확인하고, 위에서 살펴본 일련의 제어를 수행할 수 있다.
나아가, 위의 실시 예들 에서는, 로봇 제어 시스템(100)의 제어에 의하여, 로봇(R)에 대해 추가 임무 수행 시간이 설정되는 방법에 대하여 살펴보았으나, 본 발명에서는, 로봇(R)의 제어부에 의하여, 추가 임무 수행 시간이 설정되는 것 또한 가능하다.
로봇(R)은, 로봇 제어 시스템(100)으로부터, 수행 대상 임무에 대한 임무 정보를 수신하는 통신부, 상기 임무의 수행이 예정된 특정 장소로 이동하는 주행부 및 상기 원격 제어 시스템으로부터 상기 임무의 수행 대상이 되는 타겟 유저(target user)의 위치 정보를 수신하고, 상기 타겟 유저의 위치 정보에 기반하여, 상기 타겟 유저와 상기 특정 장소 사이의 거리를 산출하는 제어부를 포함할 수 있다. 그리고, 로봇(R)의 제어부는, 상기 타겟 유저와 상기 특정 장소 사이의 거리가 기준 범위 이내인 경우, 상기 예정 시간을 초과하여 상기 임무가 수행되도록 추가 임무 수행 시간을 설정하는 것 또한 가능하다. 이때, i) 상기 타겟 유저와 상기 특정 장소 사이의 거리를 산출하고, ii) 이에 따라, 추가 임무 수행 시간을 설정하는 방법은, 위에서 살펴본 로봇 제어 시스템(100)의 제어부(150)에서 수행한 구성과 동일하므로, 이에 대한 구체적인 설명은 생략하기로 한다. 즉, 위에서 살펴본, 로봇 제어 시스템(100)의 제어부(100)는 로봇(R)의 제어부로, 이해되어 질 수 있다.
나아가, 로봇(R)의 제어부는, 로봇 제어 시스템(100)으로부터 i)타겟 유저의 위치 정보 및 ii)타겟 유저와 타겟 장소 사이의 상대 위치 정보 중 적어도 하나를 수신하여, 상기 추가 임무 수행 시간을 설정하는 것 또한 가능하다.
한편, 로봇(R)은 특정 장소에서 타겟 유저(1000)를 대기하는 경우, 특정 장소의 기 설정된 영역(10a, 또는 기 설정된 대기 영역)에서 위치할 수 있다. 여기에서, 기 설정된 영역(10a)은 사람의 통행에 방해가 되지 않는 영역(예를 들어, 도 6의 10a, 도 9의 10a 참조)일 수 있다. 로봇(R)의 제어부는 로봇(R)에 구비된 카메라를 이용하여, 특정 장소에 대한 영상을 수집하고, 타겟 유저를 대기할 대기 영역(기 설정된 영역(10a))을 결정할 수 있다. 이러한 대기 영역(10a)을 설정하는 기준에 대한 정보는 로봇(R) 또는 로봇 제어 시스템(100)의 저장부에 미리 저장되어 존재할 수 있다. 예를 들어, “출입문과 기 설정된 거리 이상 간격을 두고 대기”, “벽 근처에서 대기” 등과 같이, 대기 영역을 설정하는 기준이 존재할 수 있다. 한편, 이러한 대기 영역의 위치는 로봇 제어 시스템(100)의 제어부(150)에 의하여 지정되는 것 또한 가능하다.
한편, 로봇(R)의 제어부는, 임무 수행을 위하여 특정 장소에 도착한 경우, 상기 대기 영역(10a)에 위치하도록 로봇(R)을 제어할 수 있다.
로봇(R)의 제어부는, 상기 로봇(R)이, 상기 특정 장소로의 이동을 완료한 경우, 기 특정 장소의 상기 대기 영역(a) 내에서 주행이 정지되도록 로봇(R)의 주행부를 제어할 수 있다. 로봇(R)은 상기 대기 영역(10a)에서 타겟 유저를 대기하는 동작을 수행할 수 있다. 이때, 로봇(R)의 동작 상태는 디스플레이부와 같은 출력부의 전원이 꺼지거나, 최소의 전원 사용 모드로 동작하는 슬립 모드, 대기 모드 또는 절전 모드의 동작 상태일 수 있다.
로봇(R)의 제어부는, 이러한 동작 상태에서, 기 설정된 시간 간격 또는 실시간으로, 로봇(R)에 구비된 카메라를 이용하여 로봇(R)의 주변 상황을 모니터링할 수 있다. 로봇(R)은, 카메라를 통해 주변 상황에 대한 영상을 수집하고, 수집된 영상으로부터, 도 9의 (b)에 도시된 것과 같이, 타겟 유저(1000)를 식별할 수 있다. 그리고, 로봇(R)의 제어부는, 타겟 유저(1000)가 상기 특장 장소에 도착(진입 또는 위치)한 것을 확인한 경우, 타겟 유저(1000)를 향하여 주행을 시작할 수 있다. 이때 로봇(R)의 제어부는 기 설정된 속도 이하로 타겟 유저(1000)를 향하여 주행할 수 있다. 나아가, 로봇(R)의 제어부는, 디스플레이부 또는 스피커를 통하여, 타겟 유저(1000)의 식별 정보(예를 들어, 이름)을 출력할 수 있다. 따라서, 타겟 유저(1000)는 자신과 관련하여 서비스를 수행할 로봇(R)을 쉽게 인지할 수 있다.
한편, 로봇(R)의 제어부는, 타겟 유저(1000)를 인증하기 위한 사용자 인증 과정을 통하여, 타겟 유저(1000)를 인증하는 사용자 인증이 완료된 경우, 타겟 유저(1000)에 대한 임무를 수행할 수 있다. 로봇(R)의 제어부는, 얼굴인식, 지문인식, 홍채인식, 목소리 인식, 비밀번호 입력, 식별 표지 스캔 등과 같은 다양한 사용자 인증 방법 중 적어도 하나를 통하여, 타겟 유저(1000)에 대한 인증을 수행할 수 있다. 즉, 로봇(R)의 제어부는, 로봇(R)에 접근한 사용자가, 할당된 임무에 매칭된 타겟 유저에 해당하는 진정한 사용자인지를 인증하는 과정을 통하여, 할당된 임무가, 임무와 관련 없는 제3자에게 수행되는 것을 방지할 수 있다.
한편, 로봇(R)의 제어부는, 사용자 인증이 완료된 경우, 타겟 유저(1000)에게, 임무에 대응되는 서비스를 제공할 수 있다. 예를 들어, 할당된 임무가 물품 배송인 경우, 로봇(R)의 제어부는, 로봇(R)의 보관함이 열리도록 보관함을 제어하여, 타겟 유저(1000)가 물품을 반출할 수 있도록 할 수 있다. 이를 통하여, 로봇(R)의 제어부는, 타겟 유저(1000)에 대한 임무의 수행을 완료할 수 있다.
한편, 위에 예에서는 로봇(R)에 구비된 카메라를 이용하여 사용자를 인증하는 방법에 대하여 살펴보았으나, 본 발명에서는 이러한 예에 국한되지 않는다. 본 발명에서는, 로봇(R)에 구비된 카메라 뿐만 아니라, 공간에 배치된 카메라를 활용하여 사용자에 대한 인증을 수행함으로써, 임무의 수행 대상이 되는 타겟 유저(1000)를 인증할 수 있다.
이때, 본 발명에서는, 제어부(150)에서 통신부(110)를 이용하여, 로봇(R)으로, 공간에 배치된 카메라로부터 획득한 영상을 전송할 수 있다. 로봇(R)의 제어부는, 로봇 제어 시스템(100)으로부터 전달받은 영상을 이용하여, 위에서 살펴본 타겟 유저(1000)를 인증하기 위한 사용자 인증 과정을 수행할 수 있다.
나아가, 위의 예와 달리, 본 발명에서는, 제어부(150)에서 공간에 배치된 카메라를 통해 획득된 영상을 이용하여, 사용자 인증을 수행하고, 인증의 결과를 로봇(R)으로 전송할 수 있다. 제어부(150)는 로봇(R) 측으로, 타겟 유저(1000)에 대한 인증이 완료되었음을 알리는 정보를 전송할 수 있다. 로봇(R)의 제어부는, 로봇 제어 시스템(100)으로부터 수신된 정보에 기반하여, 타겟 유저(1000)에 대한 임무를 수행할 수 있다.
이 경우 제어부(150)는 로봇(R)이 위치한 공간에 배치된 카메라를 통해 수신된 영상으로부터 사용자의 얼굴 이미지를 획득할 수 있다. 이때, 제어부(150)는 공간에 배치되는 복수의 카메라 중, 로봇(R)에게 접근하거나, 로봇(R)과 가장 가깝게 위치한 사용자의 얼굴 이미지를 획득할 수 있는 카메라를 선택할 수 있다.
그리고, 제어부(150)는 공간에 배치된 카메라를 통해 획득된 얼굴 이미지에 대한 분석을 통하여, 획득된 얼굴 이미지가 타겟 유저(1000)의 얼굴 이미지에 대응되는지를 판단함으로써, 타겟 유저(1000)에 대한 인증을 수행할 수 있다.
제어부(150)는 사용자 DB(database, 데이터베이스)를 참조하여, 상기 획득된 얼굴 이미지에 대응되는 사용자가, 타겟 유저(1000)에 해당하는지 판단할 수 있다.
이와 같이, 본 발명에서는 로봇(R)에 구비된 카메라 뿐만 아니라, 공간에 배치된 카메라를 활용하여, 효율적으로 타겟 유저(1000)를 인증함으로써, 로봇(R)에 할당된 임무가, 임무와 관련 없는 제3자에게 수행되는 것을 방지할 수 있다.
위에서 살펴본 것과 같이, 본 발명에 따른 로봇 제어 방법 및 시스템은, 공간에 설치된 카메라를 이용하여, 사용자의 위치를 확인하고, 사용자와 임무 수행 장소와의 거리에 기반하여, 임무가 수행되는 시간에 대한 제어를 수행할 수 있다.
특히, 본 발명에 따른 로봇 제어 방법 및 시스템은, 사용자가 임무 수행 장소로부터 멀지 않게 위치한 경우, 임무가 수행되기로 예정된 예정시간이 지나더라도, 사용자를 대기함으로써, 사용자에 대한 임무의 수행이 완료되도록 로봇을 제어할 수 있다.
따라서, 로봇 측면으로는, 추가 대기 시간 동안 사용자를 기다리는 것을 통하여, 사용자에 대한 임무를 완료할 수 있다 나아가, 로봇 제어 방법 및 시스템은, 임무가 부여된 로봇이, 임무 수행을 완료할 수 있도록 로봇을 제어함으로써, 로봇을 효율적으로 운용할 수 있다.
한편, 위에서 살펴본 본 발명은, 컴퓨터에서 하나 이상의 프로세스에 의하여 실행되며, 이러한 컴퓨터로 판독될 수 있는 매체에 저장 가능한 프로그램으로서 구현될 수 있다.
나아가, 위에서 살펴본 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드 또는 명령어로서 구현하는 것이 가능하다. 즉, 본 발명은 프로그램의 형태로 제공될 수 있다.
한편, 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다.
나아가, 컴퓨터가 읽을 수 있는 매체는, 저장소를 포함하며 전자기기가 통신을 통하여 접근할 수 있는 서버 또는 클라우드 저장소일 수 있다. 이 경우, 컴퓨터는 유선 또는 무선 통신을 통하여, 서버 또는 클라우드 저장소로부터 본 발명에 따른 프로그램을 다운로드 받을 수 있다.
나아가, 본 발명에서는 위에서 설명한 컴퓨터는 프로세서, 즉 CPU(Central Processing Unit, 중앙처리장치)가 탑재된 전자기기로서, 그 종류에 대하여 특별한 한정을 두지 않는다.
한편, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (10)

  1. 클라우드 서버를 이용하여 로봇에 대한 모니터링을 수행하는 건물에 있어서,
    상기 건물은,
    상기 로봇이 주행하는 실내 영역; 및
    상기 실내 영역에 배치되는 복수의 카메라를 포함하고,
    상기 클라우드 서버는,
    상기 로봇에 대해, 상기 실내 영역에서 수행되는 임무를 할당하고,
    상기 실내 영역에 배치된 상기 복수의 카메라로부터 영상을 수신하고, 수신된 영상을 이용하여, 상기 임무의 수행 대상이 되는 타겟 유저(target user)의 위치를 확인하며,
    상기 타겟 유저의 위치와 특정 장소 사이의 상대 위치 정보에 근거하여, 상기 로봇에 대해, 상기 임무가 수행되는 시간과 관련된 제어를 수행하는 것을 특징으로 하는 건물.
  2. 제1항에 있어서,
    상기 임무가 수행되는 시간은, 상기 로봇에 의해 상기 임무가 수행되기로 예정된 예정 시간을 포함하고,
    상기 시간과 관련된 제어는,
    상기 상대 위치 정보에 근거하여, 상기 예정 시간을 초과하여 상기 임무가 수행되도록 상기 로봇을 제어할지 여부를 결정하는 것을 특징으로 하는 건물.
  3. 제2항에 있어서,
    상기 상대 위치 정보는,
    상기 타겟 유저의 위치와 상기 특정 장소 사이의 거리에 해당하는 거리 정보를 포함하고,
    상기 클라우드 서버는,
    상기 타겟 유저와 상기 특정 장소 사이의 거리가 기준 범위 이내인 경우, 상기 예정 시간에 대해 추가 임무 수행 시간을 설정하고,
    상기 로봇이 상기 예정 시간을 초과하여 상기 추가 임무 수행 시간 동안 상기 임무를 수행하도록, 상기 로봇에 대해 상기 추가 임무 수행 시간과 관련된 제어를 수행하는 것을 특징으로 하는 건물.
  4. 제3항에 있어서,
    상기 추가 임무 수행 시간과 관련된 제어는,
    상기 로봇이 상기 특정 장소에 도달한 후, 상기 예정 시간을 초과하여 상기 추가 임무 수행 시간 동안 상기 특정 장소에서 대기하도록 제어를 포함하는 것을 특징으로 하는 건물.
  5. 제4항에 있어서,
    상기 추가 임무 수행 시간의 길이는, 상기 타겟 유저의 위치와 상기 특정 장소 사이의 거리에 따라 서로 다르게 설정되는 것을 특징으로 하는 건물.
  6. 제4항에 있어서,
    상기 타겟 유저와 상기 특정 장소 사이의 거리가 상기 기준 범위를 벗어난 경우, 상기 로봇에 할당된 상기 임무는 취소되는 것을 특징으로 하는 건물.
  7. 제3항에 있어서,
    상기 특정 장소는 상기 실내 영역을 구성하는 복수의 층(floor) 중 특정 층에 위치하고,
    상기 클라우드 서버는,
    상기 영상을 이용하여, 상기 타겟 유저가 상기 복수의 층 중 어느 층에 위치하는지를 확인하며,
    상기 타겟 유저가 위치한 층과 상기 특정 장소가 위치한 특정 층이 서로 다른 경우, 상기 추가 임무 수행 시간을 설정하지 않는 것을 특징으로 하는 건물.
  8. 제2항에 있어서,
    상기 위치를 확인하는 단계에서는,
    상기 예정 시간으로부터 기 설정된 시간 전에 상기 타겟 유저(target user)의 위치를 확인하는 것을 특징으로 하는 건물.
  9. 제1항에 있어서,
    상기 클라우드 서버는, 상기 복수의 카메라로부터 수신된 영상으로부터 상기 로봇에 접근하는 사람의 얼굴 이미지를 획득하고,
    상기 획득된 얼굴 이미지가 상기 타겟 유저에 대응되는지 판단하여, 상기 타겟 유저에 대한 인증을 수행하며,
    인증이 완료된 상기 타겟 유저에 대해 상기 임무에 대응되는 서비스가 제공되도록 상기 로봇을 제어하는 것을 특징으로 하는 건물.
  10. 제1항에 있어서,
    상기 로봇은 카메라를 포함하고,
    상기 특정 장소로의 이동을 완료한 경우, 상기 특정 장소의 기 설정된 범위 내에서 주행을 정지하고,
    상기 카메라를 통해 상기 타겟 유저가 인식된 경우, 상기 타겟 유저를 향하여 이동하는 것을 특징으로 하는 건물.
KR1020210082283A 2020-08-28 2021-06-24 실내 공간을 주행하는 로봇을 모니터링하는 건물 KR102355262B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210082283A KR102355262B1 (ko) 2020-08-28 2021-06-24 실내 공간을 주행하는 로봇을 모니터링하는 건물

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200109614A KR102355263B1 (ko) 2020-08-28 2020-08-28 로봇 제어 방법 및 시스템
KR1020210082283A KR102355262B1 (ko) 2020-08-28 2021-06-24 실내 공간을 주행하는 로봇을 모니터링하는 건물

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200109614A Division KR102355263B1 (ko) 2020-08-28 2020-08-28 로봇 제어 방법 및 시스템

Publications (1)

Publication Number Publication Date
KR102355262B1 true KR102355262B1 (ko) 2022-01-24

Family

ID=80049731

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200109614A KR102355263B1 (ko) 2020-08-28 2020-08-28 로봇 제어 방법 및 시스템
KR1020210082283A KR102355262B1 (ko) 2020-08-28 2021-06-24 실내 공간을 주행하는 로봇을 모니터링하는 건물

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020200109614A KR102355263B1 (ko) 2020-08-28 2020-08-28 로봇 제어 방법 및 시스템

Country Status (3)

Country Link
US (1) US11850759B2 (ko)
JP (1) JP7295175B2 (ko)
KR (2) KR102355263B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005329515A (ja) * 2004-05-21 2005-12-02 Hitachi Ltd サービスロボットシステム
KR100702147B1 (ko) * 2006-04-03 2007-03-30 한국전력공사 전력선통신을 이용한 로봇관제 시스템 및 그 방법
JP2015001863A (ja) * 2013-06-17 2015-01-05 株式会社リコー 配達装置、自走型フィニッシャ、画像形成システム、及び配達プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6048321B2 (ja) * 2013-06-07 2016-12-21 富士ゼロックス株式会社 自走式作業装置及びプログラム
JP6956422B2 (ja) 2015-02-23 2021-11-02 株式会社国際電気通信基礎技術研究所 誘導サービスシステム、誘導サービスプログラム、誘導サービス方法および誘導サービス装置
JP2018147359A (ja) * 2017-03-08 2018-09-20 富士ゼロックス株式会社 サービス提供システムおよび要求受付ロボット
US10252419B2 (en) 2017-05-01 2019-04-09 Savioke, Inc. System and method for robotic delivery between moving targets
CN109213141B (zh) * 2017-07-05 2024-02-02 松下电器(美国)知识产权公司 自主行驶车、行驶控制装置和方法及记录程序的记录介质
JP2019032806A (ja) 2017-08-07 2019-02-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 制御装置及び制御方法
KR20210099217A (ko) * 2019-01-03 2021-08-12 엘지전자 주식회사 로봇 시스템의 제어 방법
WO2020256195A1 (ko) 2019-06-21 2020-12-24 엘지전자 주식회사 빌딩 관리 로봇 및 그를 이용한 서비스 제공 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005329515A (ja) * 2004-05-21 2005-12-02 Hitachi Ltd サービスロボットシステム
KR100702147B1 (ko) * 2006-04-03 2007-03-30 한국전력공사 전력선통신을 이용한 로봇관제 시스템 및 그 방법
JP2015001863A (ja) * 2013-06-17 2015-01-05 株式会社リコー 配達装置、自走型フィニッシャ、画像形成システム、及び配達プログラム

Also Published As

Publication number Publication date
JP2022040020A (ja) 2022-03-10
JP7295175B2 (ja) 2023-06-20
US11850759B2 (en) 2023-12-26
US20220063107A1 (en) 2022-03-03
KR102355263B1 (ko) 2022-02-07

Similar Documents

Publication Publication Date Title
KR102370873B1 (ko) 로봇 원격 제어 방법 및 시스템
KR102494841B1 (ko) 배송 임무를 수행하는 다수의 로봇을 이용하여 배송 서비스를 제공하는 건물
US10074226B2 (en) Systems and methods for providing UAV-based digital escort drones in visitor management and integrated access control systems
KR102462636B1 (ko) 클라우드 서버 및 로봇 원격 제어 시스템에 의해 원격 제어되는 로봇이 주행하는 건물
KR102339001B1 (ko) 클라우드 서버를 이용하여 실내 공간을 주행하는 로봇을 모니터링하는 건물
KR20240042369A (ko) 로봇 친화형 건물, 로봇 및 건물을 주행하는 멀티-로봇 제어 시스템
US20240045432A1 (en) Method and system for remote control of robot, and building having elevators for robots
KR20240025571A (ko) 로봇 친화형 건물, 복수의 로봇들을 이용한 협업 방법 및 시스템
KR102355262B1 (ko) 실내 공간을 주행하는 로봇을 모니터링하는 건물
KR102489723B1 (ko) 로봇 원격 제어 방법 및 시스템
KR102462635B1 (ko) 실내 공간을 주행하는 로봇의 동작을 평가하는 건물
KR102620941B1 (ko) 건물을 주행하는 로봇 제어 방법 및 시스템
KR102657615B1 (ko) 로봇 친화형 건물, 로봇의 충전 제어 방법 및 시스템
KR20230091639A (ko) 로봇 친화형 건물, 로봇을 활용한 배송 방법 및 시스템
KR20230041353A (ko) 로봇 친화형 건물, 건물을 주행하는 로봇 제어 방법 및 시스템
KR20240073246A (ko) 로봇 친화형 건물, 건물을 주행하는 로봇 제어 방법 및 시스템
KR20230173939A (ko) 로봇 친화형 건물, 로봇 운용을 위한 맵 생성 방법 및 시스템
KR20230056270A (ko) 건물을 주행하는 로봇 제어 방법 및 시스템
KR20230171826A (ko) 로봇 친화형 건물, 로봇 운용을 위한 맵 생성 방법 및 시스템
KR20230056272A (ko) 로봇 친화형 건물, 건물을 주행하는 로봇 제어 방법 및 시스템
KR20230144380A (ko) 로봇 친화형 건물, 로봇 운영 모니터링 방법 및 시스템

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant