KR102339002B1 - 로봇 관제 방법 및 시스템 - Google Patents

로봇 관제 방법 및 시스템 Download PDF

Info

Publication number
KR102339002B1
KR102339002B1 KR1020200094921A KR20200094921A KR102339002B1 KR 102339002 B1 KR102339002 B1 KR 102339002B1 KR 1020200094921 A KR1020200094921 A KR 1020200094921A KR 20200094921 A KR20200094921 A KR 20200094921A KR 102339002 B1 KR102339002 B1 KR 102339002B1
Authority
KR
South Korea
Prior art keywords
robot
camera
image
information
space
Prior art date
Application number
KR1020200094921A
Other languages
English (en)
Inventor
김가현
차세진
Original Assignee
네이버랩스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버랩스 주식회사 filed Critical 네이버랩스 주식회사
Priority to KR1020200094921A priority Critical patent/KR102339002B1/ko
Priority to KR1020210081910A priority patent/KR102339001B1/ko
Priority to EP21185387.4A priority patent/EP3945389B1/en
Priority to JP2021122298A priority patent/JP7199480B2/ja
Priority to US17/388,279 priority patent/US20220035369A1/en
Application granted granted Critical
Publication of KR102339002B1 publication Critical patent/KR102339002B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0033Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by having the operator tracking the vehicle either by direct line of sight or via one or more cameras located remotely from the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0044Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

본 발명은 로봇 관제에 관한 것으로서, 원격으로 로봇을 관리하고 제어할 수 있는 로봇 관제 방법 및 시스템이다. 위에서 살펴본 과제를 해결하기 위하여 본 발명에 따른 로봇 관제 방법은, 공간내 위치한 로봇으로부터, 상기 로봇의 위치 정보를 수신하는 단계, 상기 위치 정보에 기반하여, 상기 공간에 위치한 복수의 카메라 중 상기 위치 정보와 대응되는 특정 공간에 배치된 카메라를 특정하는 단계, 상기 로봇에 구비된 카메라 및 상기 특정된 카메라로부터 각각 영상을 수신하는 단계 및 디스플레이부 상에 상기 로봇 및 상기 특정된 카메라로부터 수신된 영상들을 출력하는 단계를 포함하는 것을 특징으로 한다.

Description

로봇 관제 방법 및 시스템 {CONTROL METHOD AND SYSTEM FOR ROBOT}
본 발명은 로봇 관제에 관한 것으로서, 원격으로 로봇을 관리하고 제어할 수 있는 로봇 관제 방법 및 시스템이다.
기술이 발전함에 따라, 다양한 서비스 디바이스들이 나타나고 있으며, 특히 최근에는 다양한 작업 또는 서비스를 수행하는 로봇에 대한 기술 개발이 활발하게 이루어지고 있다.
나아가 최근에는, 인공 지능 기술, 클라우드 기술 등이 발전함에 따라, 로봇의 활용도가 점차적으로 높아지고 있다.
한편, 로봇으로 다양한 작업 또는 서비스를 제공하기 위해서는, 로봇을 정확하게 제어하는 것이 매우 중요하다. 그러나, 로봇의 경우, 사용자가 일일이 로봇의 주변에서 로봇에 대한 제어를 수행하는 데에는 현실적인 한계가 있으므로, 원격에서 로봇을 관리하고 제어하는 기술에 대한 필요성이 점차적으로 중요해지고 있다.
이에, 대한민국 등록특허 제10-1305944호(랩어라운드 영상을 이용한 로봇 원격 제어를 위한 방법 및 이를 위한 장치)에서는, 로봇의 사방에 카메라를 구비하여, 로봇 주변의 영상을 획득하고, 이를 이용하여 원격으로 로봇을 관리하는 기술에 대하여 개시하고 있다.
다만, 로봇에 구비된 카메라 만으로 로봇의 주변 환경을 파악하는 경우, 로봇이 위치한 장소 정보를 정확하게 파악하지 못하는 문제가 발생할 수 있다. 이에, 로봇의 위치 정보 및 로봇의 주변 환경 정보를 보다 직관적으로 제공할 수 있는 관제 시스템에 대한 니즈가 여전히 존재한다.
본 발명은 로봇에 대한 관제 방법 및 시스템을 제공하는 것이다. 보다 구체적으로 본 발명은, 보다 직관적으로 로봇을 원격으로 관리하고, 제어할 수 있는 로봇 관제 방법 및 시스템을 제공하는 것이다.
나아가, 본 발명은, 로봇의 주변 환경 및 로봇의 현재 위치를 모두 고려하여, 로봇을 원격으로 제어할 수 있는 로봇 관제 방법 및 시스템을 제공하는 것이다. 보다 구체적으로 본 발명은, 로봇의 사각지대까지 고려할 수 있는 로봇 관제 방법 및 시스템을 제공하는 것이다.
또한, 본 발명은, 로봇의 주변 환경을 직관적으로 파악할 수 있는 사용자 환경을 제공하는 관제 방법 및 시스템을 제공하는 것이다.
위에서 살펴본 과제를 해결하기 위하여 본 발명에 따른 로봇 관제 방법은, 공간내 위치한 로봇으로부터, 상기 로봇의 위치 정보를 수신하는 단계, 상기 위치 정보에 기반하여, 상기 공간에 위치한 복수의 카메라 중 상기 위치 정보와 대응되는 특정 공간에 배치된 카메라를 특정하는 단계, 상기 로봇에 구비된 카메라 및 상기 특정된 카메라로부터 각각 영상을 수신하는 단계 및 디스플레이부 상에 상기 로봇 및 상기 특정된 카메라로부터 수신된 영상들을 출력하는 단계를 포함하는 것을 특징으로 한다.
나아가, 본 발명에 따른 로봇 관제 시스템은, 디스플레이부, 공간내 위치한 로봇으로부터, 상기 로봇의 위치 정보를 수신하는 통신부 및 상기 위치 정보에 기반하여, 상기 공간에 위치한 복수의 카메라 중 상기 위치 정보와 대응되는 특정 공간에 배치된 카메라를 특정하는 제어부를 포함하고, 상기 제어부는, 상기 로봇에 구비된 카메라 및 상기 특정된 카메라로부터 영상들을 상기 통신부를 통해 수신하고, 상기 로봇에 구비된 카메라 및 상기 특정된 카메라로부터 수신된 영상들이 함께 출력되도록 상기 디스플레이부를 제어하는 것을 특징으로 한다.
위에서 살펴본 것과 같이, 본 발명에 따른 로봇 관제 방법 및 시스템은, 로봇이 위치한 공간에 배치된 카메라로부터 영상을 수신하고, 수신된 영상을 제공할 수 있다. 이를 통해, 사용자는 로봇 주변에 위치하지 않더라도, 로봇 주변의 상황 정보를 한눈에 파악할 수 있다.
나아가, 이를 통하여, 본 발명에 따른 로봇 관제 방법 및 시스템은, 로봇에서 수신되는 영상과 함께, 로봇이 위치한 공간에 배치된 카메라로부터 영상을 제공할 수 있다. 이를 통해, 사용자는 로봇에 구비된 카메라와 다른 화각을 갖는 영상을 함께 제공받음으로써, 로봇의 사각지대까지 고려하여, 로봇을 원격으로 제어할 수 있다.
이와 같이, 본 발명은 로봇을 둘러싼 주변 환경 정보를 종합적으로 제공할 수 있는 사용자 환경을 제공함으로써, 사용자는, 로봇을 원격으로 제어하는 경우, 주변 환경을 고려하여 로봇에 대한 보다 정확한 제어를 수행할 수 있다.
도 1 및 도 2는 본 발명에 따른 로봇 관제 방법 및 시스템을 설명하기 위한 개념도들이다.
도 3은 본 발명에 따른 로봇 관제 방법 및 시스템에서, 로봇에서 수집되는 영상 및 로봇의 현재 위치를 추정하는 방법을 설명하기 위한 개념도이다.
도 4는 본 발명에 따른 로봇 관제 방법을 설명하기 위한 흐름도이다.
도 5a, 도 5b, 도 5c, 도 6, 도 7a 및 도 7b는 본 발명에 따른 로봇 관제 방법 및 시스템에서, 로봇을 둘러싼 주변 환경에 대한 정보를 제공하는 방법을 설명하기 위한 개념도들이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소에는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명은 로봇에 대한 관제 방법 및 시스템을 제공하는 것으로서, 보다 구체적으로, 보다 직관적으로 로봇을 원격으로 관리하고 제어할 수 있는 방법 및 시스템을 제공하는 것이다. 이하에서는, 첨부된 도면과 함께, 로봇이 주행하는 공간 및 이를 둘러싼 로봇(robot) 관제 시스템에 대하여 살펴보도록 한다. 도 1 및 도 2는 본 발명에 따른 로봇 관제 방법 및 시스템을 설명하기 위한 개념도들이다.
도 1에 도시된 것과 같이, 기술이 발전함에 따라 로봇의 활용도는 점차적으로 높아지고 있다. 종래 로봇은 특수한 산업분야(예를 들어, 산업 자동화 관련 분야)에서 활용되었으나, 점차적으로 인간이나 설비를 위해 유용한 작업을 수행할 수 있는 서비스 로봇으로 변모하고 있다.
이와 같이 다양한 서비스를 제공할 수 있는 로봇은, 부여된 임무를 수행하기 위하여 도 1에 도시된 것과 같은 공간(10)을 주행하도록 이루어질 수 있다. 로봇이 주행하는 공간의 종류에는 제한이 없으며, 필요에 따라 실내 공간 및 실외 공간 중 적어도 하나를 주행하도록 이루어 질 수 있다. 예를 들어, 실내 공간은 백화점, 공항, 호텔, 학교, 빌딩, 지하철역, 기차역, 서점 등과 같이 다양한 공간일 수 있다. 로봇은, 이와 같이, 다양한 공간에 배치되어 인간에게 유용한 서비스를 제공하도록 이루어질 수 있다.
한편, 로봇을 이용하여 다양한 서비스를 제공하기 위해서는, 로봇을 정확하게 제어하는 것이 매우 중요한 요소이다. 이에, 본 발명은 공간에 배치된 카메라를 함께 이용하여 로봇을 원격으로 보다 정확하게 제어할 수 있는 방법에 대하여 제안한다.
도 1에 도시된 것과 같이, 로봇이 위치한 공간(10)에는 카메라(20)가 배치될 수 있다. 도시와 같이, 공간(10)에 배치된 카메라(20)의 수는 그 제한이 없다. 도시와 같이, 공간(10)에는 복수개의 카메라들(20a, 20b, 20c)이 배치될 수 있다. 공간(10)에 배치된 카메라(20)의 종류는 다양할 수 있으며, 본 발명에서는 특히 공간에 배치된 CCTV(closed circuit television)를 활용할 수 있다.
도 2에 도시된 것과 같이, 본 발명에 의하면 로봇 관제 시스템(300)에서, 로봇(100)을 원격으로 관리하고, 제어할 수 있다.
본 발명에서 “관제”는 원격에서 로봇을 관리, 감시하거나, 제어할 수 있다는 의미를 포함하는 포괄적인 용어로서 사용될 수 있다. 즉, 관제의 대상이 되는 로봇(100)은, 본 발명에 따른 로봇 관제 시스템(300)으로부터 수신되는 제어명령에 근거하여, 동작(예를 들어, 주행)이 제어될 수 있다.
본 발명에 따른 로봇 관제 시스템(300)은 공간(10)에 배치된 카메라(20, 예를 들어, CCTV)에서 수신되는 영상을 활용하여, 로봇을 원격에서 감시하거나, 적절한 제어를 수행할 수 있다. 이하에서는, 공간에 배치된 CCTV로부터 수신되는 영상을 로봇 관제에 활용하는 방법에 대하여 보다 구체적으로 살펴본다.
도 2에 도시된 것과 같이, 본 발명에 따른 로봇 관제 시스템(300)은, 통신부(310), 저장부(320), 디스플레이부(330), 입력부(340) 및 제어부(350) 중 적어도 하나를 포함할 수 있다.
통신부(310)는, 공간(10)에 배치된 다양한 디바이스와 유선 또는 무선으로 통신하도록 이루어질 수 있다. 통신부(310)는 도시와 같이 로봇(100)과 통신할 수 있다. 통신부(310)는 로봇(100)과의 통신을 통해, 로봇(100)에 구비된 카메라로부터 촬영되는 영상을 수신하도록 이루어질 수 있다.
나아가, 통신부(310)는 카메라(20)와의 직접적인 통신을 수행할 수 있다. 나아가, 통신부(310)는 카메라(20)를 제어하는 영상 관제 시스템(2000)과 통신하도록 이루어질 수 있다. 영상 관제 시스템(2000)과 통신부(310) 사이에 통신이 이루어지는 경우, 로봇 관제 시스템(300)은 통신부(310)를 통해 영상 관제 시스템(2000)으로부터 카메라(20)에서 촬영되는(또는 수신되는) 영상을 수신할 수 있다.
나아가, 통신부(310)는 적어도 하나의 외부 서버(또는 외부 저장소, 200)와 통신하도록 이루어질 수 있다. 여기에서, 외부 서버(200)는, 도시된 것과 같이, 클라우드 서버(210) 또는 데이터베이스(220) 중 적어도 하나를 포함하도록 구성될 수 있다. 한편, 외부 서버(200)에서는, 제어부(350)의 적어도 일부의 역할을 수행하도록 구성될 수 있다. 즉, 데이터 처리 또는 데이터 연산 등의 수행은 외부 서버(200)에서 이루어지는 것이 가능하며, 본 발명에서는 이러한 방식에 대한 특별한 제한을 두지 않는다.
한편, 통신부(310)는 통신하는 디바이스의 통신 규격에 따라 다양한 통신 방식을 지원할 수 있다.
예를 들어, 통신부(310)는, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 5G(5th Generation Mobile Telecommunication ), 블루투스(Bluetooth™RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra-Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 공간(20) 내외에 위치한 디바이스(클라우드 서버 포함)와 통신하도록 이루어질 수 있다.
다음으로 저장부(320)는, 본 발명과 관련된 다양한 정보를 저장하도록 이루어질 수 있다. 본 발명에서 저장부(320)는 로봇 관제 시스템(300) 자체에 구비될 수 있다. 이와 다르게, 저장부(320)의 적어도 일부는, 클라우드 서버(210) 및 데이터베이스(220) 중 적어도 하나를 의미할 수 있다. 즉, 저장부(320)는 본 발명에 따른 로봇 관제를 위하여 필요한 정보가 저장되는 공간이면 충분하며, 물리적인 공간에 대한 제약은 없는 것으로 이해될 수 있다. 이에, 이하에서는, 저장부(320), 클라우드 서버(210) 및 데이터베이스(220)를 별도로 구분하지 않고, 모두 저장부(320)라고 표현하도록 한다. 이때, 클라우드 서버(210)는 “클라우드 저장소”를 의미할 수 있다. 나아가, 저장부(320)는 로봇 관제 시스템(300)에 대한 정보 뿐만 아니라, 영상 관제 시스템(2000)과 관련된 다양한 정보를 저장하도록 이루어질 수 있다.
먼저, 저장부(320)에는, 로봇(100)에 대한 정보가 저장될 수 있다.
로봇(100)에 대한 정보는 매우 다양할 수 있으며, 로봇(100)에 대한 정보는 일 예로서, i)공간(10)에 배치된 로봇(100)을 식별하기 위한 식별 정보(예를 들어, 일련번호, TAG 정보, QR코드 정보 등), ii)로봇(100)에 부여된 임무 정보, iii)로봇(100)에 설정된 주행 경로 정보, iv)로봇(100)의 위치 정보, v)로봇(100)의 상태 정보(예를 들어, 전원 상태, 고장 유무, 배터리 상태 등), vi)로봇(100)에 구비된 카메라로부터 수신된 영상 정보 등이 존재할 수 있다.
다음으로, 저장부(320)에는, 카메라(20)에 대한 정보가 저장될 수 있다.
카메라(20)에 대한 정보를 매우 다양할 수 있으며, 카메라(20)에 대한 정보는, i) 각각의 카메라(20a, 20b, 20c, 20d…)의 식별 정보(예를 들어, 일련번호, TAG 정보, QR코드 정보 등), ii) 각각의 카메라(20a, 20b, 20c, 20d…)의 배치 위치 정보(예를 들어, 공간 내에서 각각의 카메라(20a, 20b, 20c, 20d…)가 어느 위치에 배치되었는지에 대한 정보), iii) 각각의 카메라(20a, 20b, 20c, 20d…)의 화각 정보(anle of view, 예를 들어, 각각의 카메라(20a, 20b, 20c, 20d…)가 공간의 어느 뷰를 촬영하고 있는지에 대한 정보), iv) 각각의 카메라(20a, 20b, 20c, 20d…)의 상태 정보(예를 들어, 전원 상태, 고장 유무, 배터리 상태 등), vi) 각각의 카메라(20a, 20b, 20c, 20d…)로부터 수신된 영상 정보 등이 존재할 수 있다.
한편, 위에서 열거된 카메라(20)에 대한 정보는 각각의 카메라(20a, 20b, 20c, 20d…)를 기준으로 서로 매칭되어 존재할 수 있다.
예를 들어, 저장부(320)에는, 특정 카메라(20a)의 식별정보, 위치 정보, 화각 정보, 상태 정보, 및 영상 정보 중 적어도 하나가 매칭되어 매칭 정보로서 존재할 수 있다. 이러한 매칭 정보는, 추후 영상을 보고자 하는 위치가 특정되는 경우, 해당 위치의 카메라를 특정하는데 유용하게 활용될 수 있다.
다음으로 저장부(320)에는, 공간(10)에 대한 지도(map, 또는 지도 정보)가 저장될 수 있다. 여기에서, 지도는, 2차원 또는 3차원 지도 중 적어도 하나로 이루어 질 수 있다. 공간(10)에 대한 지도는 로봇(100)위 현재 위치를 파악하거나, 로봇의 주행 경로를 설정하는데 활용될 수 있는 지도를 의미할 수 있다.
특히, 본 발명에 따른 로봇 관제 시스템(300)에서는, 로봇(100)에서 수신되는 영상을 기반으로 로봇(100)의 위치를 파악할 수 있다. 이를 위하여, 저장부(320)에 저장된 공간(10)에 대한 지도는 영상에 기반하여 위치를 추정할 수 있도록 하는 데이터로 구성될 수 있다.
이때, 공간(10)에 대한 지도는 사전에 공간(10)을 이동하는 적어도 하나의 로봇에 의해, SLAM(Simultaneous Localization and Mapping)에 기반하여 작성된 지도일 수 있다.
한편, 위에서 열거한 정보의 종류 외에도 저장부(320)에는 다양한 정보가 저장될 수 있다.
다음으로 디스플레이부(330)는 로봇(100)에 구비된 카메라 및 공간(10)에 배치된 카메라(20) 중 적어도 하나로부터 수신되는 영상을 출력하도록 이루어질 수 있다. 디스플레이부(330)는 로봇(100)을 원격으로 관리하는 관리자의 디바이스에 구비된 것으로서, 도 2에 도시된 것과 같이, 원격 관제실(300a)에 구비될 수 있다. 나아가, 이와 다르게, 디스플레이부(330)는 모바일 디바이스에 구비된 디스플레이일 수 있다. 이와 같이, 본 발명에서는 디스플레이부의 종류에 대해서는 제한을 두지 않는다.
다음으로, 입력부(340)는 사용자(또는 관리자)로부터 입력되는 정보의 입력을 위한 것으로서, 입력부(340)는 사용자(또는 관리자)와 로봇 관제 시스템(300) 사이의 매개체가 될 수 있다. 보다 구체적으로, 입력부(340)는 사용자로부터 로봇(100)을 제어하기 위한 제어 명령을 수신하는 입력 수단을 의미할 수 있다.
이때, 입력부(340)의 종류에는 특별한 제한이 없으며, 입력부(340)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 마우스(mouse), 조이스틱(joy stic), 물리적인 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단 중 적어도 하나를 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다. 이때, 입력부(340)가 터치 스크린을 포함하는 경우, 디스플레이부(330)는 터치 스크린으로 이루어 질 수 있다. 이 경우, 디스플레이부(330)는 정보를 출력하는 역할과, 정보를 입력받는 역할을 모두 수행할 수 있다.
다음으로 제어부(350)는 본 발명과 관련된 로봇 관제 시스템(300)의 전반적인 동작을 제어하도록 이루어질 수 있다. 제어부(350)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
특히, 제어부(350)는 로봇(100)에 구비된 카메라로부터 수신되는 영상과, 공간(10)에 배치된 카메라(20)로부터 수신되는 영상을 이용하여, 로봇(100)을 관제할 수 있는 디스플레이 환경을 제공할 수 있다.
제어부(350)는 로봇(100)의 현재 위치 정보에 기반하여, 로봇(100)이 위치한 장소에 배치된 적어도 하나의 카메라를 특정할 수 있다. 특히, 로봇(100)에 구비된 카메라로부터 수신되는 영상으로부터 로봇(100)이 공간 상에서 위치한 위치 정보를 추출할 수 있다. 그리고, 제어부(350)는 저장부(320)로부터 상기 추출된 로봇(100)의 위치 정보에 대응되는 카메라의 특정할 수 있다.
여기에서, 상기 특정된 카메라는, 로봇의 위치 정보에 대응되는 장소에 배치된 카메라일 수 있다. 더 나아가, 상기 특정된 카메라는 로봇(100)의 주행 방향에 대응되는 영역을 화각으로 하는 카메라일 수 있다.
한편, 위와 같이, 카메라가 특정되면, 제어부(350)는 상기 로봇으로부터 수신된 영상과 상기 특정된 카메라로부터 수신된 영상을 디스플레이부(330) 상에 함께 출력되도록 디스플레이부(330)를 제어할 수 있다. 나아가, 제어부(350)는 입력부(340)를 통해 상기 디스플레이부(330)에 대해 입력되는 사용자 입력에 근거하여, 로봇(100)에 대한 원격 제어 또한 수행할 수 있다.
한편, 위의 설명에서는, 제어부(350)에서 로봇(100)의 위치를 추정하는 예에 대하여 설명하였으나, 본 발명은 이에 한정되지 않는다. 즉, 로봇(100)의 위치 추정은 로봇(100) 자체에서 이루어질 수 있다. 즉, 로봇(100)은 로봇(100) 자체에서 수신되는 영상에 근거하여, 앞서 살펴본 방식으로 현재 위치를 추정할 수 있다. 그리고, 로봇(100)은, 추정된 위치 정보를 제어부(350)에 전송할 수 있다. 이 경우, 제어부(350)는 로봇으로부터 수신되는 위치 정보에 기반하여, 일련의 제어를 수행할 수 있다.
한편, 영상 관제 시스템(2000)은, 공간(10) 내 배치된 적어도 하나의 카메라(20)를 제어하도록 이루어 질 수 있다. 도시와 같이, 공간(10)에는 복수의 카메라(20a, 20b, 20c, 20d,…)가 배치될 수 있다. 이러한 복수의 카메라(20a, 20b, 20c, 20d, …)는 공간(10) 내에서 각각 서로 다른 위치에 배치될 수 있다.
이와 같이, 공간(10)의 서로 다른 위치에 복수의 카메라(20a, 20b, 20c, 20d, …)가 배치되어 있으므로, 로봇 관제 시스템(300)에서는 이러한 복수의 카메라(20a, 20b, 20c, 20d, …)를 이용하여, 로봇(100)을 원격으로 관리할 수 있다.
영상 관제 시스템(2000)은 로봇 관제 시스템(300)과의 상호 통신을 통하여, 로봇(100)의 관제에 필요한 정보를 로봇 관제 시스템(300)에 제공할 수 있다. 앞서 저장부(320)의 구성에서 살펴본 것과 같이, 영상 관제 시스템(2000)의 저장부에는, 카메라(20)에 대한 다양한 정보를 저장하도록 이루어질 수 있다. 카메라(20)에 대한 정보를 매우 다양할 수 있으며, 카메라(20)에 대한 정보는, i) 각각의 카메라(20a, 20b, 20c, 20d…)의 식별 정보(예를 들어, 일련번호, TAG 정보, QR코드 정보 등), ii) 각각의 카메라(20a, 20b, 20c, 20d…)의 배치 위치 정보(예를 들어, 공간 내에서 각각의 카메라(20a, 20b, 20c, 20d…)가 어느 위치에 배치되었는지에 대한 정보), iii) 각각의 카메라(20a, 20b, 20c, 20d…)의 화각 정보(anle of view, 예를 들어, 각각의 카메라(20a, 20b, 20c, 20d…) 가 공간의 어느 뷰를 촬영하고 있는지에 대한 정보), iv) 각각의 카메라(20a, 20b, 20c, 20d…)의 상태 정보(예를 들어, 전원 상태, 고장 유무, 배터리 상태 등), vi) 각각의 카메라(20a, 20b, 20c, 20d…)로부터 수신된 영상 정보 등이 존재할 수 있다.
한편, 위에서 열거된 카메라(20)에 대한 정보는 각각의 카메라(20a, 20b, 20c, 20d…)를 기준으로 서로 매칭되어 존재할 수 있다.
예를 들어, 영상 관제 시스템(2000)의 저장부에는, 특정 카메라(20a)의 식별정보, 위치 정보, 화각 정보, 상태 정보, 및 영상 정보 중 적어도 하나가 매칭되어 매칭 정보로서 존재할 수 있다. 이러한 매칭 정보는, 추후 영상을 보고자 하는 위치가 특정되는 경우, 해당 위치의 카메라를 특정하는데 유용하게 활용될 수 있다.
한편, 이하의 설명에서는 위에서 살펴본 카메라의 정보가, 어느 저장부(또는 저장소)에 저장되어 있는지에 대한 구분 없이, 설명의 편의를 위하여, 저장부(320)의 구성에 저장되었음을 예를 들어 설명하도록 한다. 즉, 카메라에 대한 정보는 상황에 따라, 다양한 저장부에 저장될 수 있으므로, 본 발명에서는 이에 대한 특별한 제한을 두지 않는다.
한편, 위의 설명에 의하면, 본 발명에서, 영상 관제 시스템(2000)과 로봇 관제 시스템(300)을 별개의 구성으로 설명하였다. 그러나, 본 발명은 이에 제한되지 않으며, 영상 관제 시스템(2000)과 로봇 관제 시스템(300)은 하나의 통합된 시스템으로 이루어질 수 있다. 이 경우, 영상 관제 시스템(2000)은 “카메라부”의 구성으로 명명되는 것 또한 가능하다.
이하에서는, 로봇(100)에서 수신되는 영상에 기반하여 로봇(100)의 현재 위치를 추정하는 방법에 대하여 첨부된 도면과 함께 보다 구체적으로 살펴본다. 도 3은 본 발명에 따른 로봇 관제 방법 및 시스템에서, 로봇에서 수집되는 영상 및 로봇의 현재 위치를 추정하는 방법을 설명하기 위한 개념도이다.
앞서 살펴본 것과 같이, 본 발명에 따른 제어부(350)는 로봇(100)에 구비된 카메라(미도시됨)를 이용하여 공간(10)에 대한 영상을 수신하고, 수신된 영상으로부터 로봇의 위치를 추정하는 Visual Localization수행하도록 이루어진다. 이때, 로봇(100)에 구비된 카메라는 공간(10)에 대한 영상, 즉, 로봇(100) 주변에 대한 영상을 촬영(또는 센싱)하도록 이루어진다. 이하에서는, 설명의 편의를 위하여, 로봇(100)에 구비된 카메라를 이용하여 획득된 영상을 “로봇 영상”이라고 명명하기로 한다. 그리고, 공간(10)에 배치된 카메라를 통하여 획득된 영상을 “공간 영상”이라고 명명하기로 한다.
제어부(350)는 도 3의 (a)에 도시된 것과 같이, 로봇(100)에 구비된 카메라를 통하여 로봇 영상(110)을 획득하도록 이루어진다. 그리고, 제어부(350)는 획득된 로봇 영상(110)을 이용하여, 로봇(100)의 현재 위치를 추정할 수 있다.
제어부(350)는 로봇 영상(110)과 저장부(320)에 저장된 지도 정보를 비교하여, 도 3의 (b)에 도시된 것과 같이, 로봇(100)의 현재 위치에 대응하는 위치 정보(예를 들어, “3층 A구역 (3, 1, 1)”)를 추출할 수 있다.
앞서 살펴본 것과 같이, 본 발명에서 공간(10)에 대한 지도는 사전에 공간(10)을 이동하는 적어도 하나의 로봇에 의해, SLAM(Simultaneous Localization and Mapping)에 기반하여 작성된 지도일 수 있다. 특히, 공간(10)에 대한 지도는, 영상 정보를 기반으로 생성된 지도일 수 있다.
즉, 공간(10)에 대한 지도는 vision(또는 visual)기반의 SLAM기술에 의하여 생성된 지도일 수 있다.
따라서, 제어부(350)는 로봇(100)에서 획득된 로봇 영상(110)에 대해 도 3의 (b)에 도시된 것과 같이 좌표 정보(예를 들어, (3층, A구역(3, 1,1,))를 특정할 수 있다. 이와 같이, 특정된 좌표 정보는 곧, 로봇(100)의 현재 위치 정보가 될 수 있다.
이때, 제어부(350)는, 로봇(100)에서 획득된 로봇 영상(110)과 vision(또는 visual)기반의 SLAM 기술에 의하여 생성된 지도를 비교함으로써, 로봇(100)의 현재 위치를 추정할 수 있다. 이 경우, 제어부(350)는 i)로봇 영상(110)과 기 생성된 지도를 구성하는 이미지들 간의 이미지 비교를 이용하여, 로봇 영상(110)과 가장 비슷한 이미지를 특정하고, ii)특정된 이미지에 매칭된 위치 정보를 획득하는 방식으로 로봇(100)의 위치 정보를 특정할 수 있다.
이와 같이, 제어부(350)는 도 3의 (a)에 도시된 것과 같이, 로봇(100)에서 로봇 영상(110)이 획득되면, 획득된 로봇 영상(110)을 이용하여, 로봇의 현재 위치를 특정할 수 있다. 앞서 살펴본 것과 같이, 제어부(350)는 저장부(320)에 기 저장된 지도 정보(예를 들어, “참조 맵”으로도 명명 가능)로부터, 상기 로봇 영상(110)에 대응되는 위치 정보(예를 들어, 좌표 정보)를 추출할 수 있다.
한편, 위의 설명에서는, 제어부(350)에서 로봇(100)의 위치를 추정하는 예에 대하여 설명하였으나, 앞서 살펴본 것과 같이, 로봇(100)의 위치 추정은 로봇(100) 자체에서 이루어질 수 있다. 즉, 로봇(100)은 로봇(100) 자체에서 수신되는 영상에 근거하여, 앞서 살펴본 방식으로 현재 위치를 추정할 수 있다. 그리고, 로봇(100)은, 추정된 위치 정보를 제어부(350)에 전송할 수 있다. 이 경우, 제어부(350)는 로봇으로부터 수신되는 위치 정보에 기반하여, 일련의 제어를 수행할 수 있다.
이와 같이, 로봇 영상(110)으로부터 로봇(100)의 위치 정보가 추출되면, 제어부(350)는 상기 위치 정보와 대응되는 장소에 배치된 적어도 하나의 카메라(20)를 특정할 수 있다. 제어부(350)는 저장부(320)에 저장된 카메라와 관련된 매칭 정보로부터, 상기 위치 정보에 대응되는 장소에 배치된 카메라(20)를 특정할 수 있다.
그리고, 제어부(350)는, 로봇(100)의 관제를 위하여, 로봇(100) 자체에서 획득되는 로봇 영상(110) 뿐만 아니라, 로봇(100)이 위치한 공간에 배치된 카메라(20)로부터 획득된 영상을 디스플레이부(330)에 함께 출력시킬 수 있다. 따라서, 본 발명은 로봇(100)을 원격으로 관리 및 제어하는 관리자가, 로봇(100)에서 획득되는 로봇 영상(110) 뿐만 아니라, 로봇(100)이 위치한 공간을 고려하여 로봇(100)에 대한 원격 제어를 수행하도록 할 수 있다.
한편, 본 발명에서는 디스플레이부(330) 상에, 로봇 영상 및 공간 영상을 함께 출력함으로써, 사용자가 로봇을 둘러싼 다양한 환경을 모두 고려하여 로봇을 관제할 수 있도록 하는 사용자 환경을 제공할 수 있다. 이하에서는, 이에 대하여 첨부된 도면과 함께 보다 구체적으로 살펴본다. 도 4는 본 발명에 따른 로봇 관제 방법을 설명하기 위한 흐름도이고, 도 5a, 도 5b, 도 5c, 도 6, 도 7a 및 도 7b는 본 발명에 따른 로봇 관제 방법 및 시스템에서, 로봇을 둘러싼 주변 환경에 대한 정보를 제공하는 방법을 설명하기 위한 개념도들이다.
먼저, 본 발명에 따른 로봇 관제 방법에서는, 로봇에서 촬영되는 영상에 대응되는 위치 정보를 특정하는 과정이 진행된다(S410).
여기에서, 특정되는 위치 정보는, 로봇이 현재 위치한 장소에 대한 정보를 포함할 수 있다.
앞서 살펴본 것과 같이, 로봇(100)에 대한 위치 정보는 제어부(350) 또는 로봇(100)에 의하여 특정될 수 있다.
로봇(100)에서 로봇의 위치 정보가 특정되는 경우, 제어부(350)는 로봇(100)으로부터 위치 정보를 수신하며, 로봇(100)으로부터 위치 정보를 수신하는 것은 곧 "로봇의 위치 정보가 특정”된다고 표현될 수 있다.
나아가, 로봇(100)의 위치 정보는, 제어부(350)에 의하여 추출 및 특정되는 것이 가능하다. 보다 구체적으로, 제어부(350)는 통신부(310)를 이용하여, 로봇(100)으로부터 로봇 영상을 수신할 수 있다. 이때, 상기 로봇(100)은 관제의 대상(또는 원격 제어의 대상)이 되는 로봇일 수 있다. 관제의 대상이 되는 로봇(100)의 특정은, 다양하게 이루어질 수 있으며, 본 발명에서는 이에 대한 구체적인 한정을 두지 않는다. 즉, 제어부(350)는 다양한 방법으로 관제의 대상이 되는 로봇에 대한 특정이 이루어지면, 관제의 대상이 되는 로봇(100)으로부터 영상(로봇 영상)을 수신할 수 있다.
이와 같이, 로봇(100)으로부터 로봇 영상이 수신되면, 제어부(350)는, 수신된 로봇 영상을 이용하여, 로봇(100)의 현재 위치를 추정할 수 있다. 제어부(350)는 Visual Localization을 통하여, 로봇(100)의 현재 위치를 특정할 수 있다. 제어부(350)는 로봇 영상과 저장부(320)에 저장된 지도 정보를 비교하여, 도 3의 (b)에 도시된 것과 같이, 로봇(100)의 현재 위치에 대응하는 위치 정보(예를 들어, )를 추출할 수 있다.
앞서 살펴본 것과 같이, 본 발명에서 공간(10)에 대한 지도는 사전에 공간(10)을 이동하는 적어도 하나의 로봇에 의해, SLAM(Simultaneous Localization and Mapping)에 기반하여 작성된 지도일 수 있으며, 특히 영상 정보를 기반으로 생성된 지도일 수 있다. 즉, 공간(10)에 대한 지도는 vision(또는 visual)기반의 SLAM기술에 의하여 생성된 지도일 수 있다.
제어부(350)는, 로봇(100)에서 획득된 로봇 영상과 vision(또는 visual)기반의 SLAM 기술에 의하여 생성된 지도를 비교함으로써, 로봇(100)의 현재 위치를 추정할 수 있다. 이 경우, 제어부(350)는 i)로봇 영상(110)과 기 생성된 지도를 구성하는 이미지들 간의 이미지 비교를 이용하여, 로봇 영상(110)과 가장 비슷한 이미지를 특정하고, ii)특정된 이미지에 매칭된 위치 정보를 획득하는 방식으로 로봇(100)의 위치 정보를 특정할 수 있다.
이와 같이, 제어부(350)는 앞서 살펴본, 도 3의 (a)에 도시된 것과 같이, 로봇(100)에서 로봇 영상(410)이 획득되면, 획득된 로봇 영상(110)을 이용하여, 로봇의 현재 위치를 특정할 수 있다. 앞서 살펴본 것과 같이, 제어부(350)는 저장부(320)에 기 저장된 지도 정보(예를 들어, “참조 맵”으로도 명명 가능)로부터, 상기 로봇 영상(110)에 대응되는 위치 정보(예를 들어, 좌표 정보)를 추출할 수 있다.
한편, 위에서 살펴본 제어부(350)에서 로봇(100)의 위치 정보를 특정하는 방법은, 로봇(100) 자체에서 이루어질 수 있다. 따라서, 이 경우, 위에서 살펴본 제어부(350)의 역할은 로봇의 제어부에 의하여 수행될 수 있다.
위에서 살펴본 것과 같이, 공간(10)내 배치된 로봇(100)의 위치 정보가 특정되면, 상기 위치 정보에 기반하여, 공간(10)에 위치한 카메라 중 특정 공간에 배치된 카메라를 특정하는 과정이 진행될 수 있다(S420).
앞서 언급한 것과 같이, 본 발명에서는 설명의 편의를 위하여, 로봇(100)에 구비된 카메라를 이용하여 획득된 영상을 “로봇 영상”이라고 명명하기로 한다. 그리고, 공간(10)에 배치된 카메라를 통하여 획득된 영상을 “공간 영상”이라고 명명하기로 한다.
본 발명에서는, 로봇(100)에 구비된 카메라 및 상기 S420 과정을 통해 특정된 카메라로부터 각각 영상을 수신하는 과정(S430)이 진행될 수 있다. 나아가, 관제 시스템(300)의 디스플레이부(330) 상에 로봇에 구비된 카메라 및 특정된 카메라에 대응되는 영상들을 함께 출력하는 과정이 진행될 수 있다(S440).
본 발명에 따른 로봇 관제 시스템(300)은 로봇(100) 및 공간에 구비된 카메라로부터 실시간 또는 기 설정된 시간 간격으로 로봇 영상 및 공간 영상을 각각 수신할 수 있다.
제어부(350)는 도 5a에 도시된 것과 같이, 디스플레이부(330) 상에, 로봇 영상(510) 및 공간 영상(521, 522)이 함께 출력되도록 디스플레이부(330)를 제어할 수 있다.
도 5a에 도시된 것과 같이, 상기 디스플레이부(330)는 메인 영역(A) 및 상기 메인 영역(A)의 적어도 일부에 오버랩되는 적어도 하나의 서브 영역(B, B1, B2)을 포함할 수 있다. 상기 디스플레이부(330)에서 시각적인 정보가 표시되는 영역은 “디스플레이 영역”이라고도 명명될 수 있다. 이 경우, 디스플레이부(330)의 디스플레이 영역은, 메인 영역(A) 및 상기 메인 영역(A)의 적어도 일부에 오버랩되는 서브 영역(B)을 포함한다고 표현할 수 있다.
한편, 서브 영역(B)이 메인 영역(A)에서 오버랩되는 위치는, 제어부(350)의 제어 또는 사용자 입력에 근거하여 변경될 수 있다. 나아가, 메인 영역(A) 및 서브 영역(B) 중 적어도 하나의 출력 크기 또한 제어부(350)의 제어 또는 사용자 입력에 근거하여 변경될 수 있음은 물론이다.
위의 예에서는, 서브 영역(B)이 메인 영역(A)상에 오버랩 되는 경우에 대하여 살펴보았으나, 본 발명은 위의 예에 한정되지 않는다. 예를 들어, 디스플레이부(330)는 복수의 디스플레이 영역으로 분할될 수 있으며, 이 중 어느 하나는 메인 영역(A)으로, 다른 적어도 하나는 서브 영역(B)이 될 수 있다. 이때, 메인 영역(A) 및 서브 영역(B)은 서로 중첩되지 않거나, 적어도 일부만 중첩될 수 있다. 본 발명에서, 메인 영역(A)의 크기는 서브 영역(B)보다 크게 이루어질 수 있다.
도 5a에 도시된 것과 같이, 제어부(350)는 로봇(100)의 로봇 영상(510)과 공간 영상(521, 522)을 하나의 디스플레이부(330)상에 출력함으로써, 사용자에게 로봇(100)을 둘러싼 공간에 대한 정보를 종합적으로 제공할 수 있다.
나아가, 본 발명에서 제어부(350)는 도 5a에 도시된 것과 같이, 로봇(100)의 현재 위치에 대응되는 장소 정보를 포함하는 지도 이미지(C)를 더 제공할 수 있다. 즉, 이 경우, 디스플레이부(330)에는, 로봇 영상(510), 공간 영상(521, 522) 및 지도 이미지(C)가 함께 출력될 수 있다.
여기에서, 본 발명에서 지도 이미지(C)는, 2차원 또는 3차원으로 이루어지는 이미지로서, 로봇(100)이 위치한 공간(10)을 시각화한 이미지로 이루어질 수 있다. 이때, 지도 이미지는 로봇(100)에서 획득된 로봇 영상(510)에 대응되는 장소 정보를 포함하도록 이루어질 수 있다. 제어부(350)는 추출된 로봇(100)의 위치 정보에 대응되는 지도 이미지(C)를 특정할 수 있다.
지도 이미지는 다양한 형식으로 이루어질 수 있는데, 실제 카메라에서 획득한 영상으로 이루어질 수 있다. 이 경우, 지도 이미지는 공간(10)에 배치된 카메라(20) 또는 로봇(100)에서 획득되는 영상 중 적어도 하나를 이용하여 구성될 수 있다.
이와 다르게 지도 이미지(C)는, 카메라에서 획득된 영상이 아닌, 공간(10)을 일정 배율로 축소한 이미지로 구성될 수 있다. 지도 이미지는 공간(10)을 구성하는 실제 모든 사물들을 그대로 포함하는 것이 아니라, 공간(10)의 일부 정보를 포함하도록 구성되는 이미지일 수 있다. 여기에서, 공간(10)의 일부 정보는, 로봇(100)의 주행 및 경로를 결정하는데 필요한 정보로서, 기둥 정보, 천정 정보, 벽 정보, 공간 구분 정보, 공간(10)에 배치된 가구 정보 등을 포함할 수 있다.
본 발명에서 제어부(350)는, 로봇(100)을 원격으로 관제하기 위하여, 로봇(100) 자체에서 획득되는 로봇 영상(510) 뿐만 아니라, 로봇(100)이 위치한 공간에 대응되는 지도 이미지(C)를 함께 디스플레이부(330)에 출력시킬 수 있다. 따라서, 본 발명은 로봇(100)을 원격으로 제어하는 관리자는 i)로봇(100)에서 획득되는 로봇 영상(510), ii)로봇이 위치한 공간에 배치된 카메라로부터 수집되는 공간 영상(521, 522) 뿐만 아니라, iii)로봇이 위치한 공간에 대한 지도 이미지(C)를 이용하여, 로봇을 둘러싼 주변 환경을 종합적으로 고려할 수 있다.
한편, 제어부(350)는 디스플레이부(330)에 지도 이미지(C)를 출력할 때, 공간(10)에 대한 정보를 로봇(100)의 로봇 영상(510)과 다른 배율로 제공하도록 지도 이미지(C)의 출력 배율을 제어할 수 있다. 즉, 제어부(350)는 로봇 영상(510)보다 넓은 화각(시야)으로 공간(10)에 대한 정보를 제공하도록 지도 이미지(C)의 출력 배율을 제어할 수 있다. 이 경우, 사용자는, 로봇(100)을 원격 제어할 때에 공간(10)에 대한 정보를 보다 종합적으로 고려할 수 있다.
한편, 도시와 같이, 지도 이미지(C)에는 공간(10)에서 로봇(100)의 현재 위치를 나타내는 그래픽 객체(R)가 더 출력될 수 있다. 즉, 제어부(350)는 사용자가 로봇(100)을 보다 효과적으로 관리하고, 제어할 수 있도록, 지도 이미지(C)에 대응되는 공간에서 로봇(100)이 어디쯤 위치하는지에 대한 정보를 그래픽 객체(R)를 이용하여 표시할 수 있다.
이상에서 살펴본 것과 같이, 제어부(350)는, 디스플레이부(330) 상의 메인 영역(A)에 로봇(100)에서 획득되는 로봇 영상(510)을 출력하고, 서브 영역(B, B1, B2)에 로봇이 위치한 공간에 배치된 카메라로부터 수집되는 공간 영상(521, 522)을 출력하며, 디스플레이부(330)의 일 영역에, 로봇(100)의 현재 위치에 대응되는 장소 정보를 포함하는 지도 이미지(C)를 출력시킬 수 있다.
이하에서는, 서브 영역(B, B1, B2)에 출력되는 공간 영상을 촬영하는 카메라를 특정하는 방법 및 서브 영역(B, B1, B2)의 배치 방법에 대하여 보다 구체적으로 살펴본다.
도 1에 도시된 것과 같이, 공간(10)에는 복수개의 카메라들(20a, 20b, 20c)이 배치될 수 있다. 이러한 복수개의 카메라들(20a, 20b, 20c)은 서로 다른 위치에 배치될 수 있다. 제어부(350)는 공간(10)에 배치된 카메라(20) 중 로봇의 현재 위치와 관련된 위치에 배치된 카메라를 특정할 수 있다.
보다 구체적으로, 제어부(350)는 로봇(100)의 위치 정보를 기준으로, 상기 위치 정보와 대응되는 특정 공간에 배치된 카메라를 특정할 수 있다.
본 발명에서 “카메라를 특정”한다는 것은, 제어부(350)에서 디스플레이부(330)에 출력되는 영상을 제공할 카메라를 선택하는 것을 의미할 수 있다. 이때, 제어부(350)는 저장부(320)에 기 저장된 카메라에 대한 정보(예를 들어, 카메라의 설치 위치 정보, 카메라의 화각 정보 등)에 기반하여, 로봇(100)이 위치한 특정 공간에 위치한 카메라의 식별 정보를 추출할 수 있다. 그리고, 제어부(350)는 추출된 카메라의 식별 정보에 대응되는 카메라를, 상기 로봇(100)의 위치 정보와 대응되는 특정 공간에 배치된 카메라로서 특정할 수 있다. 이와 같이, 제어부(350)는 로봇(100)의 현재 위치와 동일 또는 유사한 장소에 배치된 적어도 하나의 카메라를 특정할 수 있다.
한편, “특정 공간”은, 로봇(100)의 위치 정보에 대응되는 지점(또는 장소)를 기준으로 기 설정된 거리 이내의 영역으로 정의될 수 있다.
예를 들어, 제어부(350)는 공간(10)에 배치된 복수의 카메라 중 로봇(100)의 위치 정보를 기준으로, 기 설정된 거리(또는 범위) 이내에 배치된 카메라를 특정할 수 있다. 제어부(350)는 저장부(320)에 저장된 카메라에 대한 정보를 기반으로, 상기 위치 정보에 대응되는 장소(또는 지점)으로부터 기 설정된 거리 이내에 배치된 적어도 하나의 카메라(또는 카메라의 식별 정보)를 추출할 수 있다. 즉, 제어부(350)는 로봇의 위치 정보와 동일 또는 유사한 위치 정보를 갖는 카메라를 추출(또는)할 수 있다. 이 경우, 로봇의 위치 정보 및 카메라의 위치 정보는 공간(10)에 대한 좌표(또는 좌표 정보)를 포함할 수 있다. 제어부(350)는 로봇의 위치 정보 및 카메라의 위치 정보에 각각 대응되는 좌표들을 비교하여, 로봇의 현재 위치와 대응되는 위치에 배치된 카메라를 추출할 수 있다.
이렇게 추출된 카메라는 상기 특정 공간에 배치된 카메라로서 특정될 수 있다.
한편, 상기 특정 공간에 배치된 카메라는 복수개일 수 있으며, 이 경우 제어부(350)는 다양한 기준으로, 로봇의 현재 위치와 관련된 카메라를 특정할 수 있다.
일 예로서, 제어부(350)는 로봇(100)의 주행 정보에 기반하여, 카메라를 특정할 수 있다. 이 경우, 제어부(350)는, 로봇의 주행 정보에 대응되는 화각을 갖는 카메라를 추출할 수 있다. 보다 구체적으로, 제어부(350)는, 로봇(100)의 위치 정보 및 로봇(100)의 주행 정보에 근거하여, 공간(10)에 배치된 복수의 카메라(20) 중 적어도 하나를 특정할 수 있다.
제어부(350)는, 로봇(100)의 주행 정보에 대응되는 로봇(100)의 주행 방향에 근거하여, 카메라를 특정할 수 있다. 제어부(350)는 공간(10)에 배치된 복수의 카메라(20) 중 로봇(100)의 주행 방향과 대응되는 영역을 화각으로 갖는 카메라를 특정할 수 있다. 여기에서, 로봇(100)의 주행 방향과 대응되는 영역은, 로봇(100)의 진행 방향에 해당하는 영역일 수 있다. 상기 진행 방향에 해당하는 영역은, 로봇(100)의 정면이 향하는 방향일 수 있다. 이와 같이, 제어부(350)는 로봇(100)의 진행 방향에 대응되는 영역에 대한 정보(공간 영상)를 공간(10)에 배치된 카메라(20)를 이용하여 제공할 수 있다.
보다 구체적으로, 제어부(350)는, 로봇(100)의 위치 정보와 대응되는 특정 공간에 배치된 복수의 카메라 중 상기 로봇(100)의 주행 방향과 대응되는 제1 영역을 화각으로 하는 제1 카메라를 특정할 수 있다.
여기에서, 주행 방향은, 로봇의 정면이 향하는 방향일 수 있다. 이 경우, 제1 영역은, 로봇의 정면이 바라보고 있는 영역일 수 있다.
그리고, 도 5a에 도시된 것과 같이, 제어부(350)는, 디스플레이부(330) 상의 제1 위치에 상기 제1 카메라로부터 수신되는 제1 영상(또는 제1 공간 영상, 521)이 출력되도록, 디스플레이부(330)를 제공할 수 있다. 예를 들어, 도 5a에 도시된 것과 같이, 제어부(350)는 공간(10)에서 로봇의 주행 방향(또는 전진 방향, 550)에 대응되는 영역을 촬영할 수 있는 화각을 갖는 카메라를 제1 카메라로서 특정할 수 있다. 따라서, 디스플레이부(330)에는, 로봇 영상(510)과 함께, 로봇의 주행 방향(또는 전진 방향, 또는 로봇(100)의 정면이 바라보는 방향, 550)에 대응되는 특정 공간에 대한 제1 영상(또는 제1 공간 영상, 521)이 출력될 수 있다.
도시와 같이, 디스플레이부(330)의 메인 영역(A)에는 로봇 영상(510)이 출력되고, 서브 영역(B, B1) 에는 제1 공간 영상(521)이 출력될 수 있다. 나아가, 도시와 같이, 디스플레이부(330)에는 지도 이미지(C)가 함께 출력될 수 있다.
나아가, 제어부(350)는 도 5a에 도시된 것과 같이, 로봇(100)이 위치한 특정 공간에 배치된 복수의 카메라로부터 수신되는 복수의 영상(521, 522)을 디스플레이부(330) 상에 제공할 수 있다.
이때, 복수의 영상(521, 522)은 서로 다른 화각을 갖는 카메라로부터 수신되는 영상들일 수 있다.
예를 들어, 제어부(350)는 앞서 살펴본 것과 같이, 로봇(100)의 주행 방향(또는 진행 방향, 550)에 대응되는 제1 카메라의 특정과 함께, 상기 로봇의 주행 방향과 반대되는 방향에 대응되는 제2 영역을 화각으로 하는 제2 카메라를 특정할 수 있다. 도 5a에 도시된 것과 같이, 디스플레이부(330)는 복수의 서브 영역(B1, B2)를 포함할 수 있다. 복수의 서브 영역(B1, B2)은 제1 서브 영역(B1) 및 제2 서브 영역(B2)을 포함할 수 있다. 제어부(350)는 제1 카메라로부터 수신되는 제1 영상(또는 제1 공간 영상, 521)을 제1 서브 영역(B1)에 출력하고, 제2 카메라로부터 수신되는 제2 영상(또는 제2 공간 영상, 522)을 제2 서브 영역(B2)에 출력시킬 수 있다.
도시와 같이, 제2 카메라로부터 수신되는 제2 영상(또는 제2 공간 영상, 522)은, 상기 디스플레이부 상에서, 상기 제1 영상(521)이 출력되는 상기 제1 위치와 중첩되지 않는 제2 위치에 출력될 수 있다. 즉, 제1 서브 영역(B1) 및 제2 서브 영역(B2)은 서로 중첩되지 않게 디스플레이부(330) 상에 배치될 수 있다.
이와 같이, 도 5a에 도시된 것과 같이, 디스플레이부(330)에는 로봇에서 수신되는 로봇 영상(510), 로봇의 주행 방향(550)에 해당하는 제1 공간 영상(521) 및 로봇의 주행 방향과 반대되는 방향에 해당하는 제2 공간 영상(522)이 함께 출력될 수 있다.
한편, 제어부(350)는 로봇(100)의 주행 방향(550)을 기준으로, 복수의 서브 영역의 출력 위치(배치 위치)를 결정할 수 있다. 즉, 제어부(350)는 서브 영역에서 출력되고 있는 영상이 로봇의 주행 방향(550)을 기준으로 어느 영역에 해당하는 영상인지에 따라, 서브 영역의 출력 위치를 결정할 수 있다.
예를 들어, 도 5b에 도시된 것과 같이, 서브 영역(B, B1, B2)은 i)로봇의 주행 방향(550)에 해당하는 제1 공간 영상(521)포함하는 제 1서브 영역(B1) 및 ii) 로봇의 주행 방향과 반대되는 방향(로봇의 후면이 향하는 방향)에 해당하는 제2 공간 영상(522)을 포함하는 제2 서브 영역(B2)을 포함할 수 있다. 그리고, 제어부(350)는 상기 로봇의 주행 방향(550)을 기준으로 제1 및 제2 서브 영역(B1, B2)의 상대 출력 위치를 결정할 수 있다. 도시와 같이, 제어부(350)는 로봇의 주행 방향(550)에 해당하는 제1 공간 영상(521)포함하는 제1 서브 영역(B1)을, 로봇의 주행 방향과 반대되는 방향(로봇의 후면이 향하는 방향)에 해당하는 제2 공간 영상(522)을 포함하는 제2 서브 영역(B2)보다 디스플레이부(330)의 상단에 배치할 수 있다. 디스플레이부(330)의 메인 영역(A)에는 로봇(100)의 정면에 구비된 카메라로부터 수신되는 로봇 영상(510)이 출력될 수 있으며, 제1 서브 영역(B1)이 제2 서브 영역(B2)보다 상단에 배치되는 경우, 사용자는 제1 서브 영역(B1)이 주행 방향에 해당하는 공간에 대한 영상임을 직관적으로 파악할 수 있다.
나아가, 도 5c에 도시된 것과 같이, 제어부(350)는 로봇(100)의 정면이 바라보는 방향을 “전방 방향”으로 정의하였을 때, 상기 전방 방향을 포함하는 복수의 방향을 화각으로 하는 복수의 카메라를 특정할 수 있다.
예를 들어, 제어부(350)는 공간(10)에 배치된 카메라에서, 로봇(100)의 전방 방향을 바라보는 제1 카메라, 로봇(100)의 후방 방향을 바라보는 제2 카메라, 로봇(100)의 좌측 방향을 바라보는 제3 카메라 및 로봇의 후측 방향을 바라보는 제4 카메라를 각각 특정할 수 있다. 이 경우, 도 5c에 도시된 것과 같이, 디스플레이부(330)에는, 로봇(100)의 전, 후, 좌, 우 방향 각각에 대응되는 공간에 대한 영상이 디스플레이부(330) 상에 출력될 수 있다.
로봇(100)의 전방 방향을 바라보는 제1 카메라로부터 수신되는 영상(제1 공간 영상)은 “전방 영상”이라고 명명하고, 로봇(100)의 후방 방향을 바라보는 제2 카메라로부터 수신되는 영상(제2 공간 영상)은 “후방 영상”이라고 명명될 수 있다. 또한, 로봇(100)의 우측면이 향하는 방향을 바라보는 제3 카메라로부터 수신되는 영상(제3 공간 영상)은 “우방 영상”이라고 명명하고, 로봇(100)의 좌측면이 향하는 방향을 바라보는 제4 카메라로부터 수신되는 영상(제4 공간 영상)은 “좌방 영상”이라고 명명될 수 있다.
제어부(350)는 사용자의 선택 또는 제어부(350)의 제어 하에, 디스플레이부(330) 상에 제1 내지 제4 서브 영역(B1, B2, B3, B4)을 출력하고, 제1 내지 제4 서브 영역(B1, B2, B3, B4) 각각에, 로봇(100)의 전, 후, 좌, 우 방향 각각에 대응되는 공간 영상들(521, 522, 523, 524)을 제공할 수 있다. 따라서, 사용자는 로봇(100)을 둘러싼 공간에 대한 정보를 종합적으로 제공받을 수 있다.
한편, 이상의 예에서는, 로봇(100)의 현재 위치와 대응되는 특정 공간에 배치된 복수의 카메라 중, 로봇의 주행 방향을 기준으로 카메라를 특정하는 방법에 대하여 살펴보았다. 이하에서는, 로봇과의 상대적인 위치를 기준으로 카메라를 특정하는 방법에 대하여 살펴보도록 한다.
보다 구체적으로, 제어부(350)는 로봇(100)에 설정된 주행 경로를 기준으로, 공간(10)에 위치한 카메라 중 상기 주행 경로 상에 배치된 복수의 카메라를 특정할 수 있다. 여기에서, 특정된 복수의 카메라는 로봇(100)이 상기 주행 경로를 따라 주행하는 특정 공간에 배치되는 카메라일 수 있다.
공간(10)에는 매우 많은 수의 카메라가 존재할 수 있으므로, 주행 경로 상에 위치한 복수의 카메라가 먼저 특정되는 경우, 로봇(100)의 주행에 따라 로봇(100)의 현재 위치가 변경되었을 때, 로봇의 변경된 현재 위치와 관련된 카메라를 특정하는데 필요한 연산 시간을 줄일 수 있다.
이와 같이, 제어부(350)는 로봇(100)의 주행 경로를 기준으로, 공간 영상을 제공할 복수의 카메라를 1차적으로 선별하고, 로봇(100)의 주행 정도에 따라, 선별된 복수의 카메라에서 제공되는 영상들 간에 전환을 수행할 수 있다(설명의 편의를 위하여, 로봇의 주행 방향을 향하는 화각을 갖는 카메라를 예를 들어 살펴본다).
일 예로서, 제어부(350)는 로봇의 현재 위치 정보 및 로봇(100)의 주행 경로 정보를 이용하여, 복수의 카메라를 특정할 수 있다. 제어부(350)는 로봇의 현재 위치 정보를 기준으로, 상기 로봇(100)의 주행 경로 상에 위치한 복수의 카메라를 로봇의 위치 정보에 대응되는 특정 공간에 위치한 카메라로서 특정할 수 있다. 이때, 제어부(350)는 상기 주행 경로 상에 위치한 복수의 카메라 중 상기 로봇(100)의 현재 위치를 기준으로 기 설정된 기준(예를 들어, 로봇(100)과 가장 가까운 카메라)을 만족하는 카메라로부터 수신되는 영상을 디스플레이부(330) 상에 출력시킬 수 있다.
도 6의 (a) 및 (b)에 도시된 것과 같이, 제어부(350)는 로봇(100)이 주행 경로를 따라 주행하는 것에 연동하여, 상기 복수의 특정된 카메라로부터 수신된 영상들 간에 전환이 이루어지도록 디스플레이부(330)를 제어할 수 있다.
도시와 같이, 제1 서브 영역(B1)에 출력되는 영상(721, 721') 및 제2 서브 영역(B2)에 출력되는 영상(722, 722')은 로봇(100)이 주행함에 따라 전환될 수 있다. 제어부(350)는 로봇(100)의 주행 경로 상에 위치한 기 특정된 복수의 카메라 중, 로봇(100)이 주행함에 따라, 로봇(100)의 현재 위치가 변경되는 경우, 변경된 로봇(100)의 현재 위치를 기준으로 로봇(100)과 가장 가깝게 위치한 2차적으로 카메라를 특정할 수 있다. 1차적으로 선별된 로봇(100)의 주행 경로 상에 위치한 복수의 카메라들에서 수신되는 복수의 영상들 간의 전환은, 로봇(100)의 현재 위치 정보가 업데이트 되는 것에 근거하여 이루어질 수 있다.
한편, 위의 예에서는, 로봇(100)의 주행 경로에 기반하여, 로봇(100)의 주행 경로 상에 위치한 복수의 카메라를 특정하는 방법에 대하여 살펴보았으나, 제어부(350)는 로봇(100)의 현재 위치를 기준으로 실시간 또는 기 설정된 시간 간격으로 상기 로봇(100)의 현재 위치 주변에 위치한 카메라를 특정할 수 있다. 그리고, 제어부(350)는, 로봇(100)의 현재 위치가 변경됨에 따라, 기 특정된 카메라의 화각에 로봇(100)의 현재 위치에 대응되는 특정 공간에 대한 정보가 포함되지 않는 경우, 카메라의 특정을 다시 수행할 수 있다. 이에 따라, 디스플레이부(330)의 서브 영역(B)에 출력되는 공간 영상은 로봇의 현재 위치가 변경됨에 따라 재 특정된 서로 다른 카메라로부터 수신되는 영상들일 수 있다.
한편, 제어부(350)는, 기 특정된 카메라의 화각에 로봇(100)의 현재 위치에 대응되는 특정 공간에 대한 정보가 포함되는지 여부를, 기 특정된 카메라로부터 수신되는 공간 영상과 로봇 영상과의 영상 비교를 통하여 판단할 수 있다. 이 경우, 제어부(350)는 영상 비교 결과, 기 특정된 카메라로부터 수신되는 공간 영상과 로봇 영상 간의 유사도가 기 설정된 기준을 만족하지 못하는 경우, 카메라를 새롭게 특정할 수 있다.
또한, 제어부(350)는, 공간에 배치된 카메라에 대한 정보(예를 들어, 화각 정보)를 이용하여, 기 특정된 카메라의 화각에 로봇(100)의 현재 위치에 대응되는 특정 공간에 대한 정보가 포함되는지 여부를 판단할 수 있다.
이하에서는, 로봇(100)에 구비된 카메라로부터 수신되는 영상과, 공간에 배치된 카메라로부터 수신되는 영상 간에 유사도를 비교하고, 유사도에 근거하여 적어도 하나의 카메라를 선택하는 방법에 대하여 살펴보도록 한다.
제어부(350)는 로봇(100)의 현재 위치와 대응되는 특정 공간에 배치된 카메라가 복수개인 경우, 복수개의 카메라 중 로봇으로부터 수신되는 로봇 영상과 유사도가 가장 낮은 영상을 촬영하는 카메라를 선택할 수 있다.
이는 로봇(100)에 구비된 카메라의 화각으로는 제공하지 못하는 공간에 대한 정보를 최대한 제공하기 위함이다. 여기에서, 상기 특정 공간은, 로봇(100)의 현재 위치를 기준으로 기 설정된 거리 범위 이내의 공간으로서, 로봇(100)을 원격으로 관제하기 위하여 참고의 대상이 되는 의미 있는 공간일 수 있다.
이때, 복수의 카메라는, 로봇(100)의 주행 경로 상에 위치한 카메라일 수 있다. 즉, 복수의 카메라의 화각은 로봇(100)의 주행 경로에 해당하는 공간을 포함하도록 구성될 수 있다. 예를 들어, 상기 복수개의 카메라는 로봇(100)의 주행 방향을 기준으로 동일한 방향(예를 들어, 주행 방향)을 화각으로 하는 카메라들일 수 있다. 로봇(100)에 구비된 카메라의 화각으로는 제공하지 못하는 공간에 대한 정보를 최대한 제공하기 위함이다.
제어부(350)는, 상기 로봇에 구비된 카메라로부터 수신된 로봇 영상과 상기 특정 공간에 위치한 복수개의 특정된 카메라로부터 수신된 복수의 영상들 간의 유사도를 할 수 있다. 그리고, 제어부(350)는 상기 특정된 카메라로부터 수신된 영상들 중 적어도 하나를 상기 유사도에 근거하여 특정하고, 디스플레이부(330) 상에 출력시킬 수 있다.
제어부(350)는 상기 특정 공간에 위치한 복수의 카메라 중, 상기 로봇 영상과 유사도가 가장 낮은 영상을 촬영하는 카메라를 선택하고, 선택된 카메라로부터 촬영되는 영상을 디스플레이부(330) 상에 출력시킬 수 있다. 따라서, 디스플레이부(330) 상에는, 상기 복수개의 특정된 카메라로부터 수신된 복수의 영상들 중 상기 로봇에 구비된 카메라로부터 수신된 영상과 유사도가 가장 낮은 영상이 출력될 수 있다. 앞서 살펴본 것과 같이, 로봇 영상은 메인 영역(A)에 출력되고, 공간에 배치된 카메라로부터 수신되는 영상(공간 영상)은 서브 영역(B)에 출력될 수 있다. 나아가, 지도 이미지 또한, 디스플레이부(33) 상에 함께 출력될 수 있음은 물론이다.
이하에서는, 공간의 환경 정보를 고려하여, 카메라를 선택하는 방법에 대하여 살펴보도록 한다. 제어부(350)는 로봇(100)의 현재 위치와 대응되는 특정 공간에 배치된 카메라가 복수개인 경우, 복수개의 카메라 중 공간의 환경 정보를 기반하여 적어도 하나의 카메라를 선택할 수 있다.
여기에서, 환경 정보는, 공간의 혼잡도(예를 들어, 사람 또는 사물의 배치로 인한 혼잡도)와 관련될 수 있다. 즉, 제어부(350)는 상기 특정 공간에 배치된 카메라가 복수개인 경우, 복수의 카메라 중 특정 환경 정보를 포함하는 영역(공간)을 촬영하는 카메라를 선택하고, 선택된 카메라에서 수신되는 영상을 디스플레이부(330) 상에 출력시킬 수 있다. 이때, 복수의 카메라는, 로봇(100)의 주행 경로 상에 위치한 카메라일 수 있다. 즉, 복수의 카메라의 화각은 로봇(100)의 주행 경로에 해당하는 공간을 포함하도록 구성될 수 있다.
한편, 특정 환경 정보는 앞서 살펴본 것과 같이, 공간의 혼잡도와 관련될 수 있다. 제어부(350)는 영상 분석 알고리즘을 이용하여, 카메라로부터 수신되는 영상에서 특정 환경 정보를 추출할 수 있다.
앞서 살펴본 것과 같이, 로봇 영상은 메인 영역(A)에 출력되고, 공간에 배치된 카메라로부터 수신되는 영상(공간 영상)은 서브 영역(B)에 출력될 수 있다. 나아가, 지도 이미지 또한, 디스플레이부(330) 상에 함께 출력될 수 있음은 물론이다.
이상에서 살펴본 것과 같이, 본 발명에 따른 로봇 관제 방법 및 시스템에서는 로봇에서 촬영되는 로봇 영상 뿐만 아니라, 로봇이 속한 공간에 배치된 카메라로부터 수신되는 영상을 함께 제공할 수 있다. 따라서, 관리자는 공간에 대한 정보를 종합적으로 제공받음으로써, 로봇의 사각지대까지 고려하여 로봇을 감시하고, 제어할 수 있다.
한편, 이상의 실시 예에서는, 디스플레이부 상의 메인 영역(A)에 로봇 영상을 제공하고, 서브 영역(B)에 대하여 살펴보았다. 나아가, 본 발명에서는, 서브 영역(B)에 대한 사용자 입력에 근거하여, 디스플레이부(330)에 배치된 서브 영역(B)의 출력 위치를 제어하거나, 서브 영역(B)에서 출력되는 공간 영상에 대한 전환을 수행할 수 있다.
여기에서, 사용자 입력은, 디스플레이부(330)에 가해지는 입력일 수 있다. 보다 구체적으로, 본 발명에서 디스플레이부(330)에 가해지는 사용자 입력은, 입력부(340)를 통해 입력될 수 있다.
일 예로서, 제어부(350)는 도 7a에 도시된 것과 같이, 입력부(340)를 이용하여 커서 이미지(예를 들어, 도 7a의 도면부호 601, 601a, 601b 참조)를 드래그 하는 드래그 입력이 수신된 경우, 도 7a 및 도 7b에 도시된 것과 같이, 서브 영역(B1, B3)의 출력위치를 변경할 수 있다. 이때, 도 7a에 도시된 것과 같이, 제어부(350)는 서브 영역(B1)이 드래그 되는 영역(640)의 위치에 따라, 도 7a 및 도 7b에 도시된 것과 같이, 서브 영역(B1, B3) 출력되는 영상을 변경할 수 있다.
제어부(350)는 로봇(100)의 주행 방향(550, 도 5a 참조)을 기준으로, 사용자 입력에 근거하여, 서브 영역이 디스플레이부(330)의 상단, 하단, 우측 및 좌측 중 어느 영역으로 이동되었는지에 따라, 서로 다른 카메라로부터 공간 영상을 수신할 수 있다.
예를 들어, 제어부(350)는 도 7a에 도시된 것과 같이 제1 영역에 출력된 서브 영역(B1)이 사용자 입력에 기반하여, 도 7a 및 도 7b에 도시된 것과 같이 제2 영역(640, 디스플레이부(330)의 좌측에 해당하는 영역)으로 이동된 경우, 로봇(100)의 좌측면 부분에 해당하는 공간을 촬영하는 카메라로부터 영상을 수신할 수 있다. 따라서, 도 7b에 도시된 것과 같이, 상기 사용자 입력에 기반하여, 서브 영역(B3)의 출력위치 및 서브 영역(B3)에 출력되는 영상을 제공하는 카메라 또한 변경될 수 있다. 이때, 로봇(100)의 좌측면은, 로봇(100)의 주행 방향(550, 도 5a 참조)을 로봇(100)의 정면이라고 가정하였을 때를 기준으로 특정되는 영역이다.
이와 같이, 본 발명에서 제어부(350)는 사용자 입력에 기반하여, 서브 영역(B1)이 어느 위치로 이동되었는지에 따라, 서브 영역(B1)에 출력될 영상을 촬영하는 카메라에 대한 특정을 다시 수행할 수 있다. 또한, 비록 도시되지는 않았지만, 제어부(350)는, 사용자 입력에 기반하여 서브 영역이 이동된 경우, 서브 영역의 이동과 함께, 서브 영역에 포함되는 영상을 제공하는 카메라에 대한 특정을 다시 수행할지 여부를 사용자로부터 선택받을 수 있다. 이 경우, 디스플레이부(330)는 관련된 안내 정보가 출력될 수 있으며, 제어부(350)는 상기 안내 정보에 기반하여 수신되는 사용자 입력에 기반하여, 서브 영역의 이동 및 카메라에 대한 재특정 중 적어도 하나를 수행할 수 있다.
한편, 이상의 예들에서는, 디스플레이부 상에 로봇 영상 및 공간 영상을 제공하는 방법에 대하여 살펴보았으나, 본 발명에서는 로봇 관제 시스템에서 로봇에 대한 직접적인 제어 명령을 생성 및 전송하는 것이 가능하다. 즉, 제어부(350)는 디스플레이부(330)에 대한 사용자 입력에 기반하여, 로봇의 주행을 제어하기 위한 제어 명령을 생성할 수 있다. 예를 들어, 제어 명령은, 로봇의 주행 방향, 주행 속도, 주행 여부, 주행 거리, 주행 경로 등과 같이, 로봇의 주행과 관련된 다양한 명령을 포함할 수 있다. 로봇(100)은 로봇 관제 시스템(300)을 통해 수신되는 제어 명령에 근거하여, 주행할 수 있다.
한편, 앞서 살펴본 것과 같이, 사용자 입력은 입력부(340)를 통하여 입력될 수 있다. 입력부(340)의 종류는 다양할 수 있으며, 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 마우스(mouse), 조이스틱(joy stic), 물리적인 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단 중 적어도 하나를 포함할 수 있다.
나아가, 디스플레이부(330)에 대한 사용자 입력은, i) 터치 스크린으로 구성된 디스플레이부(330)에 대해 직접적인 터치를 통하여 입력되는 입력 및 ii) 마우스 등과 같은 별개의 입력수단을 매개체로 하여 디스플레이부(330)에 대해 가해지는 입력 중 적어도 하나를 포함할 수 있다.
위에서 살펴본 것과 같이, 본 발명에 따른 로봇 관제 방법 및 시스템은, 로봇이 위치한 공간에 배치된 카메라로부터 영상을 수신하고, 수신된 영상을 제공할 수 있다. 이를 통해, 사용자는 로봇 주변에 위치하지 않더라도, 로봇 주변의 상황 정보를 한눈에 파악할 수 있다.
나아가, 이를 통하여, 본 발명에 따른 로봇 관제 방법 및 시스템은, 로봇에서 수신되는 영상과 함께, 로봇이 위치한 공간에 배치된 카메라로부터 영상을 제공할 수 있다. 이를 통해, 사용자는 로봇에 구비된 카메라와 다른 화각을 갖는 영상을 함께 제공받음으로써, 로봇의 사각지대까지 고려하여, 로봇을 원격으로 제어할 수 있다.
이와 같이, 본 발명은 로봇을 둘러싼 주변 환경 정보를 종합적으로 제공할 수 있는 사용자 환경을 제공함으로써, 사용자는, 로봇을 원격으로 제어하는 경우, 주변 환경을 고려하여 로봇에 대한 보다 정확한 제어를 수행할 수 있다.
한편, 위에서 살펴본 본 발명은, 컴퓨터에서 하나 이상의 프로세스에 의하여 실행되며, 이러한 컴퓨터로 판독될 수 있는 매체에 저장 가능한 프로그램으로서 구현될 수 있다.
나아가, 위에서 살펴본 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드 또는 명령어로서 구현하는 것이 가능하다. 즉, 본 발명은 프로그램의 형태로 제공될 수 있다.
한편, 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다.
나아가, 컴퓨터가 읽을 수 있는 매체는, 저장소를 포함하며 전자기기가 통신을 통하여 접근할 수 있는 서버 또는 클라우드 저장소일 수 있다. 이 경우, 컴퓨터는 유선 또는 무선 통신을 통하여, 서버 또는 클라우드 저장소로부터 본 발명에 따른 프로그램을 다운로드 받을 수 있다.
나아가, 본 발명에서는 위에서 설명한 컴퓨터는 프로세서, 즉 CPU(Central Processing Unit, 중앙처리장치)가 탑재된 전자기기로서, 그 종류에 대하여 특별한 한정을 두지 않는다.
한편, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (12)

  1. 로봇 관제 방법에 있어서,
    공간내 위치한 로봇으로부터, 상기 로봇의 위치 정보를 수신하는 단계;
    상기 위치 정보에 기반하여, 상기 공간에 위치한 복수의 카메라 중 상기 로봇의 주행 정보 및 상기 위치 정보와 대응되는 특정 공간에 배치된 카메라를 특정하는 단계;
    상기 로봇에 구비된 카메라 및 상기 특정된 카메라로부터 각각 영상을 수신하는 단계; 및
    디스플레이부 상에 상기 로봇 및 상기 특정된 카메라로부터 수신된 영상들을 출력하는 단계를 포함하고,
    상기 카메라를 특정하는 단계에서는,
    상기 특정 공간에 배치된 상기 복수의 카메라 중 상기 로봇의 주행 정보에 포함된 주행 방향과 대응되는 영역을 화각으로 갖는 카메라를 특정하고,
    상기 출력하는 단계에서는,
    상기 특정된 카메라로부터 수신되는 영상을 상기 디스플레이부 상의 특정 위치에 출력하는 것을 특징으로 하는 로봇 관제 방법.
  2. 제1항에 있어서,
    상기 디스플레이부에는,
    상기 특정된 카메라에 해당하는 제1 카메라로부터 수신되는 제1 영상이, 상기 특정 위치에 해당하는 상기 디스플레이부의 제1 위치에 출력되는 것을 특징으로 하는 로봇 관제 방법.
  3. 제2항에 있어서,
    상기 카메라를 특정하는 단계에서는,
    상기 제1 카메라의 특정과 함께, 상기 로봇의 주행 방향과 반대되는 방향에 대응되는 제2 영역을 화각으로 하는 제2 카메라를 특정하고,
    상기 제2 카메라로부터 수신되는 제2 영상은,
    상기 디스플레이부 상에서, 상기 제1 영상이 출력되는 제1 위치와 중첩되지 않는 제2 위치에 출력되는 것을 특징으로 하는 로봇 관제 방법.
  4. 제3항에 있어서,
    상기 디스플레이부의 메인 영역에는 상기 로봇에 구비된 카메라로부터 수신되는 영상이 출력되고,
    상기 메인 영역과 중첩되는 서브 영역에는 상기 제1 영상 및 상기 제2 영상이 출력되는 것을 특징으로 하는 로봇 관제 방법.
  5. 제4항에 있어서,
    상기 서브 영역은 상기 제1 영상을 포함하는 제 1서브 영역 및 상기 제2 영상을 포함하는 제2 서브 영역을 포함하고,
    상기 제1 및 제2 서브 영역의 출력 위치는, 상기 로봇의 주행 방향을 기준으로 결정되는 것을 특징으로 하는 로봇 관제 방법.
  6. 제1항에 있어서,
    상기 특정된 카메라가 복수개인 경우,
    상기 로봇에 구비된 카메라로부터 수신된 영상과 상기 복수개의 특정된 카메라로부터 수신된 복수의 영상들 간의 유사도를 비교하는 단계를 더 포함하고,
    상기 디스플레이부 상에 출력된 상기 특정된 카메라로부터 수신된 영상은, 상기 유사도에 근거하여 특정되는 것을 특징으로 하는 로봇 관제 방법.
  7. 제6항에 있어서,
    상기 디스플레이부 상에는,
    상기 복수개의 특정된 카메라로부터 수신된 복수의 영상들 중 상기 로봇에 구비된 카메라로부터 수신된 영상과 유사도가 가장 낮은 영상이 출력되는 것을 특징으로 하는 로봇 관제 방법.
  8. 제1항에 있어서,
    상기 카메라를 특정하는 단계에서는,
    상기 로봇에 설정된 주행 경로에 근거하여, 상기 공간에 위치한 복수의 카메라 중 상기 주행 경로 상에 배치된 복수의 카메라를 특정하고,
    상기 디스플레이부 상에는,
    상기 로봇이 상기 주행 경로를 따라 주행하는 것에 연동하여, 상기 복수의 특정된 카메라로부터 수신된 영상들 간에 전환이 이루어지는 특징으로 하는 로봇 관제 방법.
  9. 제8항에 있어서,
    상기 카메라를 특정하는 단계에서는,
    상기 복수의 특정된 카메라 중, 상기 로봇의 현재 위치를 기준으로 상기 로봇으로부터 가장 가깝게 배치된 제1 카메라를 특정하고,
    상기 출력하는 단계에서는,
    상기 디스플레이부 상에 상기 제1 카메라에서 수신된 영상이 출력되고 있는 상태에서, 상기 로봇이 상기 주행 경로를 따라 주행함에 따라, 상기 로봇의 현재 위치로부터 가장 가깝게 배치된 카메라가 상기 제1 카메라에서 상기 복수의 특정된 카메라 중 제2 카메라로 변경되는 경우,
    상기 디스플레이부 상에 출력된 상기 제1 카메라에서 수신된 영상을 상기 제2 카메라에서 수신된 영상으로 전환하는 것을 특징으로 하는 로봇 관제 방법.
  10. 제1항에 있어서,
    상기 디스플레이부에는,
    상기 위치 정보에 대응하는 장소에 대한 지도 이미지가 더 출력되는 것을 특징으로 하는 로봇 관제 방법.
  11. 디스플레이부;
    공간내 위치한 로봇으로부터, 상기 로봇의 위치 정보를 수신하는 통신부; 및
    상기 위치 정보에 기반하여, 상기 공간에 위치한 복수의 카메라 중 상기 로봇의 주행 정보 및 상기 위치 정보와 대응되는 특정 공간에 배치된 카메라를 특정하는 제어부를 포함하고,
    상기 제어부는,
    상기 로봇에 구비된 카메라 및 상기 특정된 카메라로부터 영상들을 상기 통신부를 통해 수신하고,
    상기 로봇에 구비된 카메라 및 상기 특정된 카메라로부터 수신된 영상들이 함께 출력되도록 상기 디스플레이부를 제어하고,
    상기 특정 공간에 배치된 상기 복수의 카메라 중 상기 로봇의 주행 정보에 포함된 주행 방향과 대응되는 영역을 화각으로 갖는 카메라를 특정하며,
    상기 특정된 카메라로부터 수신되는 영상은 상기 디스플레이부 상의 특정 위치에 출력되는 것을 특징으로 하는 로봇 관제 시스템.
  12. 클라우드 서버를 이용하여 로봇에 대한 모니터링을 수행하는 건물에 있어서,
    상기 건물은,
    상기 로봇이 주행하는 실내 영역;
    상기 실내 영역에 배치되는 복수의 카메라; 및
    상기 로봇 및 클라우드 서버 중 적어도 하나와 통신하는 통신부를 포함하고,
    상기 클라우드 서버는,
    상기 실내 영역을 주행하는 로봇으로부터, 상기 로봇의 위치 정보를 수신하고,
    상기 위치 정보에 기반하여, 상기 실내 영역에 위치한 상기 복수의 카메라 중 상기 로봇의 주행 정보 및 상기 위치 정보와 대응되는 특정 공간에 배치된 카메라를 특정하며,
    디스플레이부 상에 상기 로봇 및 상기 특정된 카메라로부터 수신된 영상들을 출력하고,
    상기 특정된 카메라는, 상기 특정 공간에 배치된 상기 복수의 카메라 중 상기 로봇의 주행 정보에 포함된 주행 방향과 대응되는 영역을 화각으로 갖는 카메라이고,
    상기 특정된 카메라로부터 수신되는 영상은 상기 디스플레이부 상의 특정 위치에 출력되는 것을 특징으로 하는 건물.
KR1020200094921A 2020-07-30 2020-07-30 로봇 관제 방법 및 시스템 KR102339002B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020200094921A KR102339002B1 (ko) 2020-07-30 2020-07-30 로봇 관제 방법 및 시스템
KR1020210081910A KR102339001B1 (ko) 2020-07-30 2021-06-23 클라우드 서버를 이용하여 실내 공간을 주행하는 로봇을 모니터링하는 건물
EP21185387.4A EP3945389B1 (en) 2020-07-30 2021-07-13 Control method and system for robot
JP2021122298A JP7199480B2 (ja) 2020-07-30 2021-07-27 ロボット管制方法及びシステム
US17/388,279 US20220035369A1 (en) 2020-07-30 2021-07-29 Control method and system for robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200094921A KR102339002B1 (ko) 2020-07-30 2020-07-30 로봇 관제 방법 및 시스템

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210081910A Division KR102339001B1 (ko) 2020-07-30 2021-06-23 클라우드 서버를 이용하여 실내 공간을 주행하는 로봇을 모니터링하는 건물

Publications (1)

Publication Number Publication Date
KR102339002B1 true KR102339002B1 (ko) 2021-12-14

Family

ID=77042703

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200094921A KR102339002B1 (ko) 2020-07-30 2020-07-30 로봇 관제 방법 및 시스템
KR1020210081910A KR102339001B1 (ko) 2020-07-30 2021-06-23 클라우드 서버를 이용하여 실내 공간을 주행하는 로봇을 모니터링하는 건물

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210081910A KR102339001B1 (ko) 2020-07-30 2021-06-23 클라우드 서버를 이용하여 실내 공간을 주행하는 로봇을 모니터링하는 건물

Country Status (4)

Country Link
US (1) US20220035369A1 (ko)
EP (1) EP3945389B1 (ko)
JP (1) JP7199480B2 (ko)
KR (2) KR102339002B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102515478B1 (ko) 2022-08-30 2023-03-29 주식회사 파이엇 분산처리로봇관제시스템

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11958198B2 (en) 2020-08-04 2024-04-16 Artificial, Inc. Predictive instruction text with virtual lab representation highlighting
JP2023073535A (ja) * 2021-11-16 2023-05-26 富士通株式会社 表示プログラム及び表示方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001315080A (ja) * 2000-05-10 2001-11-13 Nippon Telegr & Teleph Corp <Ntt> 遠隔地観測装置
KR100702147B1 (ko) * 2006-04-03 2007-03-30 한국전력공사 전력선통신을 이용한 로봇관제 시스템 및 그 방법

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2510894B2 (ja) * 1991-01-08 1996-06-26 株式会社フジタ 追尾装置
JP3665730B2 (ja) * 2000-09-08 2005-06-29 日本電信電話株式会社 遠隔操縦移動型監視ロボットシステム
JP2005268972A (ja) * 2004-03-17 2005-09-29 Matsushita Electric Ind Co Ltd 映像表示システム、及び映像表示方法
JP4572099B2 (ja) * 2004-09-13 2010-10-27 三菱電機株式会社 移動体追跡支援システム
JP4901233B2 (ja) * 2006-02-14 2012-03-21 株式会社日立製作所 監視システム、監視方法、及び、監視プログラム
TWI341779B (en) * 2007-12-04 2011-05-11 Ind Tech Res Inst Sytstem and method for graphically arranging robot's working space
GB201113633D0 (en) * 2011-08-08 2011-09-21 Vision Semantics Ltd User-primed iterative discovery of object associations in distributed multi-source data
US20180316947A1 (en) * 2012-04-24 2018-11-01 Skreens Entertainment Technologies, Inc. Video processing systems and methods for the combination, blending and display of heterogeneous sources
CN104509097B (zh) * 2012-05-30 2019-06-14 株式会社日立制作所 监视摄像机控制装置以及图像监视系统
JP2014016706A (ja) * 2012-07-06 2014-01-30 Nissan Motor Co Ltd 情報取得システムおよび情報取得方法
JP2018110304A (ja) * 2016-12-28 2018-07-12 パナソニックIpマネジメント株式会社 監視システム、監視方法、及びプログラム
JP7353747B2 (ja) * 2018-01-12 2023-10-02 キヤノン株式会社 情報処理装置、システム、方法、およびプログラム
JP7132586B2 (ja) * 2018-01-24 2022-09-07 Vrワイバオ・ジャパン株式会社 ナビゲーション方法、プログラム、および情報処理装置
JP7259274B2 (ja) * 2018-11-12 2023-04-18 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
US20220083054A1 (en) * 2018-12-31 2022-03-17 Tomahawk Robotics Systems and methods of remote teleoperation of robotic vehicles
KR20200144363A (ko) * 2019-06-18 2020-12-29 엘지전자 주식회사 로봇 및 그의 구동 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001315080A (ja) * 2000-05-10 2001-11-13 Nippon Telegr & Teleph Corp <Ntt> 遠隔地観測装置
KR100702147B1 (ko) * 2006-04-03 2007-03-30 한국전력공사 전력선통신을 이용한 로봇관제 시스템 및 그 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102515478B1 (ko) 2022-08-30 2023-03-29 주식회사 파이엇 분산처리로봇관제시스템

Also Published As

Publication number Publication date
US20220035369A1 (en) 2022-02-03
EP3945389B1 (en) 2022-09-07
JP7199480B2 (ja) 2023-01-05
EP3945389A1 (en) 2022-02-02
JP2022027568A (ja) 2022-02-10
KR102339001B1 (ko) 2021-12-14

Similar Documents

Publication Publication Date Title
KR102339001B1 (ko) 클라우드 서버를 이용하여 실내 공간을 주행하는 로봇을 모니터링하는 건물
KR102462636B1 (ko) 클라우드 서버 및 로봇 원격 제어 시스템에 의해 원격 제어되는 로봇이 주행하는 건물
US10335949B2 (en) System for operating mobile robot based on complex map information and operating method thereof
KR102370873B1 (ko) 로봇 원격 제어 방법 및 시스템
JP2017054475A (ja) 遠隔操作装置、方法及びプログラム
KR102671223B1 (ko) 맵 생성 방법, 이를 이용한 로봇 원격 제어 방법 및 시스템
KR102462634B1 (ko) 공간을 주행하는 로봇을 관제하는 건물, 로봇 관제 방법 및 시스템
KR102484770B1 (ko) 로봇의 통신 장애 복구 방법 및 시스템
JP7370362B2 (ja) ロボット管制方法及びシステム
KR102489722B1 (ko) 엘리베이터의 최적 대기 위치에 탑승하는 로봇이 주행하는 건물
KR102315361B1 (ko) 실내 공간을 주행하는 로봇의 동작을 평가하는 건물
KR102489723B1 (ko) 로봇 원격 제어 방법 및 시스템
KR102513728B1 (ko) 로봇 원격 제어 방법 및 시스템
KR102462635B1 (ko) 실내 공간을 주행하는 로봇의 동작을 평가하는 건물
KR102494840B1 (ko) 네트워크 장애 상황에 강인한 로봇이 주행하는 건물
US20240004399A1 (en) Method and system for remotely controlling robots, and building having traveling robots flexibly responding to obstacles
KR102355262B1 (ko) 실내 공간을 주행하는 로봇을 모니터링하는 건물
KR20230144380A (ko) 로봇 친화형 건물, 로봇 운영 모니터링 방법 및 시스템

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant