KR20220027745A - 실내 공간을 주행하는 로봇의 동작을 평가하는 건물 - Google Patents

실내 공간을 주행하는 로봇의 동작을 평가하는 건물 Download PDF

Info

Publication number
KR20220027745A
KR20220027745A KR1020210082284A KR20210082284A KR20220027745A KR 20220027745 A KR20220027745 A KR 20220027745A KR 1020210082284 A KR1020210082284 A KR 1020210082284A KR 20210082284 A KR20210082284 A KR 20210082284A KR 20220027745 A KR20220027745 A KR 20220027745A
Authority
KR
South Korea
Prior art keywords
robot
information
motion
task
image
Prior art date
Application number
KR1020210082284A
Other languages
English (en)
Other versions
KR102462635B1 (ko
Inventor
차세진
김가현
Original Assignee
네이버랩스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버랩스 주식회사 filed Critical 네이버랩스 주식회사
Priority to KR1020210082284A priority Critical patent/KR102462635B1/ko
Publication of KR20220027745A publication Critical patent/KR20220027745A/ko
Application granted granted Critical
Publication of KR102462635B1 publication Critical patent/KR102462635B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/0095Means or methods for testing manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 로봇의 동작을 평가할 수 있는 방법 및 시스템에 관한 것이다. 위에서 살펴본 과제를 해결하기 위하여. 위에서 살펴본 과제를 해결하기 위하여. 본 발명에 따른 로봇 평가 방법은, 공간에 위치한 로봇을 특정하는 단계, 상기 공간에 배치된 카메라를 이용하여, 상기 공간에서 상기 특정된 로봇이 수행한 동작을 센싱하는 단계, 상기 특정된 로봇에 할당된 임무와 관련된 동작 가이드를 기준으로, 상기 특정된 로봇이 상기 임무와 관련하여 수행한 동작에 대한 평가를 수행하는 단계 및 상기 수행된 평가에 따른 평가 결과 정보를, 상기 특정된 로봇의 식별정보와 매칭하여 저장하는 단계를 포함하는 것을 특징으로 한다.

Description

실내 공간을 주행하는 로봇의 동작을 평가하는 건물{A BUILDING THAT EVALUATES MOTIONS OF ROBOTS DRIVING IN AN INDOOR SPACE OF THE BUILDING}
본 발명은 임무를 수행하는 로봇의 동작을 평가할 수 있는 방법 및 시스템에 관한 것이다.
기술이 발전함에 따라, 다양한 서비스 디바이스들이 나타나고 있으며, 특히 최근에는 다양한 작업 또는 서비스를 수행하는 로봇에 대한 기술 개발이 활발하게 이루어지고 있다.
나아가 최근에는, 인공 지능 기술, 클라우드 기술 등이 발전함에 따라, 로봇의 활용도가 점차적으로 높아지고 있다.
한편, 로봇으로 다양한 작업 또는 서비스를 제공하기 위해서는, 로봇을 정확하게 제어하는 것이 매우 중요하다. 이와 같이 로봇을 정확하게 제어하기 위하여는, 로봇이 올바르게 동작하고 있는지를 파악하는 것 또한 매우 중요한 요소이다.
대한민국 등록특허 10-2119161호(운송 로봇의 실내 위치 인식 시스템)에서는, 모니터링 장치(CCTV)를 이용하여, 로봇의 주행을 모니터링함으로써, 최적의 주행 경로 제공하는 방법에 대하여 개시하고 있다.
이와 같은 선행 문헌에 의하면, 로봇의 주행을 모니터링 하는 것은 가능하나, 로봇에 할당된 임무를 수행하기 위하여, 로봇이 올바르게 동작하고 있는지에 대한 평가를 수행하는 데에는 한계가 존재한다.
사용자가 로봇의 주변에서 직접적으로 로봇에 부여된 임무에 대한 제어를 일일이 관여하지 못하는 상황에서도 로봇이 올바르게 동작하고 있는지를 평가하고 이를 활용하는 방법에 대한 니즈가 여전히 존재한다.
본 발명은 로봇의 동작을 평가할 수 있는 로봇 평가 방법 및 시스템을 제공하는 것이다.
보다 구체적으로 본 발명은, 임무를 수행하는 로봇이, 수행 대상의 임무에 대한 동작을 올바르게 수행하고 있는지를 평가할 수 있는 로봇 평가 방법 및 시스템을 제공하는 것이다.
나아가, 본 발명은, 원격에서도 임무를 수행하고 있는 로봇의 동작을 평가할 수 있는 로봇 평가 방법 및 시스템을 제공하는 것이다.
또한, 본 발명은 임무를 수행하는 로봇에 대한 동작 평가 결과를 이용하여, 로봇이 임무를 수행함에 있어 개선된 동작을 수행할 수 있도록 하는 로봇 평가 방법 및 시스템을 제공하는 것이다.
위에서 살펴본 과제를 해결하기 위하여. 본 발명에 따른 로봇 평가 방법은, 공간에 위치한 로봇을 특정하는 단계, 상기 공간에 배치된 카메라를 이용하여, 상기 공간에서 상기 특정된 로봇이 수행한 동작을 센싱하는 단계, 상기 특정된 로봇에 할당된 임무와 관련된 동작 가이드를 기준으로, 상기 특정된 로봇이 상기 임무와 관련하여 수행한 동작에 대한 평가를 수행하는 단계 및 상기 수행된 평가에 따른 평가 결과 정보를, 상기 특정된 로봇의 식별정보와 매칭하여 저장하는 단계를 포함하는 것을 특징으로 한다.
나아가, 본 발명에 따른 로봇 평가 시스템은, 카메라 및 상기 공간에 배치된 카메라를 이용하여, 상기 공간에 위치한 로봇의 동작을 검출하는 제어부를 포함하고, 상기 제어부는, 상기 로봇에 할당된 임무와 관련된 동작 가이드를 기준으로, 상기 로봇이 상기 임무와 관련하여 수행한 동작에 대한 평가를 수행하고, 상기 수행된 평가에 따른 평가 결과 정보를, 상기 특정된 로봇의 식별정보와 매칭하여 저장하는 것을 특징으로 한다.
위에서 살펴본 것과 같이, 본 발명에 따른 로봇 평가 방법 및 시스템에 의하면, 공간에 배치된 카메라를 이용하여 임무를 수행하는 로봇의 동작을 모니터링하고, 이를 이용하여 로봇이 수행하는 임무와 관련된 로봇의 동작을 평가할 수 있다. 이와 같이, 본 발명에 의하면, 임무를 수행하는 로봇의 동작을 평가하기 위하여 로봇에 대해 직접적으로 접근하거나, 로봇에 별도의 모니터링 장치를 구비하지 않더라도, 임무를 수행하는 로봇의 동작을 평가할 수 있다.
나아가, 본 발명에 따른 로봇 평가 방법 및 시스템에 의하면, 로봇이 수행하는 임무의 특성에 근거하여, 로봇의 동작에 대한 평가를 수행할 수 있다. 이러한 방법에 의하면, 로봇에 주어진 임무를 수행하기 위하여 로봇이 적절하게 동작하고 있는지를 평가할 수 있다.
나아가, 본 발명에 따른 로봇 평가 방법 및 시스템에 의하면, 로봇에 대한 평가 결과를, 로봇에 발생한 문제를 파악하거나, 로봇에 부여된 임무와 관련된 동작 가이드에 대한 문제를 파악하는데 활용할 수 있다. 이와 같이, 로봇에 대한 평가 결과는 로봇에 대한 직접적인 개선 또는 로봇에 부여된 임무와 관련된 동작 가이드 대한 개선에 반영될 수 있다. 따라서, 본 발명에 따른 로봇 평가 방법 및 시스템에 의하면, 평가 결과를 기반으로 한 학습을 통해, 로봇의 동작 또는 임무와 관련된 동작 가이드를 계속적으로 개선시킬 수 있으며, 로봇을 운용하는 횟수가 늘어날수록 로봇이 임무를 보다 정확하고 안정적으로 수행할 수 있는 로봇 제어 환경을 제공할 수 있다.
도 1 및 도 2는 본 발명에 따른 로봇 평가 방법 및 시스템을 설명하기 위한 개념도들이다.
도 3은 본 발명에 따른 로봇 평가 방법 및 시스템에서 로봇을 식별하는 방법을 설명하기 위한 개념도이다.
도 4는 본 발명에 따른 로봇 평가 방법 및 시스템에서 로봇의 위치를 추정하는 방법을 설명하기 위한 개념도이다.
도 5는 본 발명에 따른 로봇 평가 방법을 설명하기 위한 흐름도이다.
도 6a, 도 6b, 도 6c, 도 6d, 도 7a, 도 7b 및 도 7c는 본 발명에 따른 로봇 평가 방법 및 시스템에서 로봇을 평가하는 방법을 설명하기 위한 개념도들이다.
도 8은 본 발명에 따른 로봇 평가 방법 및 시스템에서 로봇 평가 결과를 활용하는 방법을 설명하기 위한 개념도들이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소에는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명은 로봇에 대한 평가 방법 및 시스템을 제공하는 것으로서, 보다 구체적으로, 임무를 수행하는 로봇의 동작을 평가할 수 있는 방법 및 시스템을 제공하는 것이다. 이하에서는, 첨부된 도면과 함께, 로봇이 주행하는 공간 및 이를 둘러싼 로봇(robot) 평가 시스템에 대하여 살펴보도록 한다. 도 1 및 도 2는 본 발명에 따른 로봇 평가 방법 및 시스템을 설명하기 위한 개념도들이다. 그리고, 도 3은 본 발명에 따른 로봇 평가 방법 및 시스템에서 로봇을 식별하는 방법을 설명하기 위한 개념도이다. 나아가, 도 4는 본 발명에 따른 로봇 평가 방법 및 시스템에서 로봇의 위치를 추정하는 방법을 설명하기 위한 개념도이다.
기술이 발전함에 따라 로봇의 활용도는 점차적으로 높아지고 있다. 종래 로봇은 특수한 산업분야(예를 들어, 산업 자동화 관련 분야)에서 활용되었으나, 점차적으로 인간이나 설비를 위해 유용한 작업을 수행할 수 있는 서비스 로봇으로 변모하고 있다.
이와 같이 다양한 서비스를 제공할 수 있는 로봇은, 부여된 임무를 수행하기 위하여 도 1에 도시된 것과 같은 공간(10)을 주행하도록 이루어질 수 있다. 로봇이 주행하는 공간의 종류에는 제한이 없으며, 필요에 따라 실내 공간 및 실외 공간 중 적어도 하나를 주행하도록 이루어 질 수 있다. 예를 들어, 실내 공간은 백화점, 공항, 호텔, 학교, 빌딩, 지하철역, 기차역, 서점 등과 같이 다양한 공간일 수 있다. 로봇은, 이와 같이, 다양한 공간에 배치되어 인간에게 유용한 서비스를 제공하도록 이루어질 수 있다.
한편, 로봇을 이용하여 다양한 서비스를 제공하기 위해서는, 로봇을 정확하게 제어하고, 로봇에 부여된 임무가 로봇에 의하여 정확하게 수행되고 있는지를 파악하는 것이 매우 중요한 요소이다. 이에, 본 발명은 로봇에 구비된 카메라를 이용하여, 공간(10)에서의 로봇(R)의 동작을 평가하고, 평가한 결과를 이용하여 임무에 대한 로봇(R)의 동작을 개선할 수 있는 방법에 대하여 제안한다. 한편, 본 발명에 따른 로봇은 다양하게 명명될 수 있으며, 예를 들어, 무인 이동 머신, 자율 이동 머신 등으로 표현될 수 있다.
도 1에 도시된 것과 같이, 로봇이 위치한 공간(10)에는 카메라(20)가 배치될 수 있다. 도시와 같이, 공간(10)에 배치된 카메라(20)의 수는 그 제한이 없다. 도시와 같이, 공간(10)에는 복수개의 카메라들(20a, 20b, 20c)이 배치될 수 있다. 공간(10)에 배치된 카메라(20)의 종류는 다양할 수 있으며, 공간(10)에 배치된 카메라(20)는 CCTV(closed circuit television)일 수 있다.
한편, 본 발명에서는 공간(10)에 배치된 카메라(20)를 통하여, 공간(10)에서의 임무를 수행하는 로봇(R)의 동작에 따른 동작 정보를 추출하고, 추출된 동작 정보를 기반으로 임무에 대한 로봇(R)의 동작을 평가하는 것이 가능하다.
이하에서는, 공간(10)에 배치된 카메라(20)를 이용하여, 로봇(R)의 동작을 평가하는 방법에 대하여 보다 구체적으로 살펴본다. 도 2에 도시된 것과 같이, 본 발명에 따른 로봇 평가 시스템(100)은 공간(10)에 설치된 카메라(20, 20a, 20b)를 이용하여, 카메라(20, 20a, 20b)의 화각(angle of view)에 대응하는 영역에서의 임무를 수행하는 로봇(R)의 동작을 모니터링할 수 있다. 그리고, 로봇 평가 시스템(100)은 모니터링된 로봇(R)의 동작에 기반하여, 임무를 수행하는 로봇(R)의 동작에 대한 평가를 수행할 수 있다. 본 발명에서, 로봇(R)의 동작에 대한 평가 결과는 임무에 대한 로봇(R)의 동작, 로봇(R)자체의 동작 또는 로봇(R)이 주행하는 공간(또는 영역)을 개선하는데 활용될 수 있다.
한편, 본 발명에서 설명하는 “로봇(R)의 동작”의 유형은 매우 다양할 수 있다. 보다 구체적으로, 로봇(R)의 동작은 로봇(R)이 수행하는 임무, 로봇(R)의 주행, 로봇(R)의 전원 상태 등과 관련된 동작을 모두 포함하는 개념으로 이해되어 질 수 있다.
로봇(R)이 수행하는 임무와 관련된 동작은, 로봇(R)이 수행하는 임무의 종류에 따라 다를 수 있다.
여기에서, “임무(task)”는, 로봇(R)이 수행해야할 작업 또는 서비스 등으로도 표현되며, 특정 목적을 위하여, 사람, 사물과 같은 특정 객체(또는 타겟 객체)에 대하여 특정 동작을 수행하는 것을 의미할 수 있다.
예를 들어, 로봇(R)이 길안내 서비스를 제공하는 로봇인 경우, 로봇(R)이 수행하는 임무와 관련된 동작은, 길안내를 위한 길 찾기 동작, 길안내를 위한 주행 동작 등을 포함할 수 있다.
또 다른 예를 들어, 로봇(R)이 서빙 서비스를 제공하는 로봇인 경우, 로봇(R)이 수행하는 임무와 관련된 동작은, 서빙을 위한 주행 동작, 서빙을 위하여 서빙 대상(사용자 또는 테이블(table))에게 접근하는 동작, 서빙을 위한 로봇(R)의 하드웨어를 구동하는 동작 등을 포함할 수 있다.
다음으로, 로봇(R)의 주행과 관련된 동작은, 로봇(R)의 주행 속도, 주행 방향, 회전 방향, 회전 속도, 주행 시작, 주행 정지, 주행 종료와 같이, 로봇(R)의 주행과 관련된 다양한 동작을 포함할 수 있다.
다음으로, 로봇(R)의 전원 상태와 관련된 동작은, 로봇(R)의 전원을 온(ON) 또는 오프(OFF)시키는 동작, 로봇(R)을 대기 상태(standby state)로 구동하는 동작, 로봇(R)을 슬립 모드(sleep mode)로 구동하는 동작 등을 포함할 수 있다.
한편, 대기 상태 또는 슬립 모드에서 로봇(R)의 동작 상태는 경우에 따라 달라질 수 있다. 예를 들어, 로봇(R)의 대기 상태는 로봇(R)이 기 설정된 시간 이상 동안 주행을 정지한 상태일 수 있다. 그리고, 로봇(R)의 슬립 모드는, 로봇(R)의 동작 전원을 최소화하면서 주행을 정지한 상태일 수 있다.
위에서 열거한 예들 외에도, 로봇의 동작의 종류는 다양할 수 있으며, 본 발명은 위의 예들에 한정되지 않는다.
한편, 본 발명에서 임무를 수행하는 로봇(R)의 동작을 평가한다고 함은, 로봇(R)이 수행하는 임무를 기준으로, 공간(10)에서 로봇(R)이 어떻게 동작했는지를 평가하는 것을 의미할 수 있다.
이때, 로봇(R)의 동작을 평가한다고 함은, 공간(10)의 특성을 기준으로 로봇(R)이 어떻게 동작했는지에 대한 평가를 더 포함할 수 있다.
본 발명에서 공간(10)의 특성은 i)공간(10)의 정적인 특성에 해당하는 제1 공간 특성 및 ii)공간(10)의 동적인 특성에 해당하는 제2 공간 특성을 포함할 수 있다.
먼저, 공간(10)의 정적인 특성에 해당하는 제1 공간 특성은, 공간(10)의 구조 및 공간(10)에 배치된 사물 중 적어도 하나에 의하여 정의되는 특성을 의미할 수 있다.
여기에서, 공간(10)의 구조는, 벽, 천정(지붕), 계단, 기둥, 문, 창문과 같은 요소(또는 구조 요소)들에 의하여 정의되는 것으로서, 위와 같은 요소들이 어떻게 설계 또는 배치되는지에 따라 공간(10)마다 구조가 달라질 수 있다.
본 발명에서는 위에서 살펴본 공간(10)의 구조에 따른 특징을 “구조 특징”이라고 명명하도록 한다. 구조 특징은, 공간(10)에 위에서 살펴본 요소들이 어떻게 설계 또는 배치되었는지에 따라 공간 마다 달라질 수 있다.
나아가, 공간(10)에 배치된 사물은, 공간(10)에 배치된 가구, 간판, 전광판, 마네킹, 가판대와 같은 요소(또는 사물 요소)들에 대한 것으로서, 사람에 의하여 배치 위치가 인위적으로 변경되기 전까지는 배치 위치를 유지하는 사물을 의미한다.
본 발명에서는 위에서 살펴본 공간(10)에 배치된 사물에 따른 특징을 “사물 특징”이라고 명명하도록 한다. 사물 특징은 배치된 사물의 종류(예를 들어, 쇼파, 책상, 선반 등)에 따라 달라질 수 있다.
다음으로, 공간(10)의 동적인 특성에 해당하는 제2 공간 특성은, 공간(10) 내에서 움직이는 사람, 동물, 전자기기(예를 들어, 로봇, 차량 등), 차량 등과 같이 동적인 객체(object)와 관련된 특성일 수 있다.
한편, 위에서 살펴본 공간 특성(또는 공간의 특성)은, 로봇(R)이 수행하는 임무의 타겟(또는 타겟 객체)이 될 수 있다.
예를 들어, 로봇(R)에 부여된 임무가 “특정 테이블에 음료를 서빙하는 것”에 대한 임무인 경우, 로봇(R)의 동작은 위에서 살펴본 정적인 특성에 해당하는 테이블에 대한 동작을 포함할 수 있다.
다른 예를 들어, 로봇(R)에 부여된 임무가 “특정 사용자에게, 물건을 배달하는 것”에 대한 임무인 경우, 로봇(R)의 동작은, 위에서 살펴본 동적인 특성에 해당하는 사람에 대한 동작을 포함할 수 있다.
따라서, 본 발명에 따른 로봇 평가 시스템(100)은 위에서 살펴본 공간(10)의 정적인 특성 및 동적인 특성 중 적어도 하나가 고려된 정의된 동작 가이드를 기준으로 로봇(R)이 임무를 수행하기 위하여 수행한 동작을 평가하도록 이루어질 수 있다.
본 발명에서 동작 가이드는 로봇(R)이, 로봇(R)에게 부여된 임무를 수행하기 위하여, 어떻게 동작해야 하는지에 대한 동작 정보를 포함할 수 있다.
이러한 동작 가이드는, 로봇(R)이 배치된 환경, 로봇이 주행하는 공간의 공간 특성 및 로봇이 수행하는 임무 중 적어도 하나를 고려하여 결정된 로봇(R)의 동작에 대한 정보를 포함할 수 있다.
로봇(R)은, 이러한 동작 가이드를 기준으로 주행 또는 동작하도록 프로그래밍 될 수 있다. 본 발명에서는, 이러한 동작 가이드를 기준으로 프로그래밍된 로봇(R)의 동작을 평가함으로써, 로봇(R)이 프로그래밍된 동작 가이드 대로 실제로 동작하는지를 평가하도록 한다.
이하에서는, 공간(10)에서의 임무를 수행하는 로봇의 동작을 평가하는 로봇 평가 시스템(100)에 대하여 보다 구체적으로 살펴본다. 도 2에 도시된 것과 같이, 본 발명에 따른 로봇 평가 시스템(100)은, 통신부(110), 저장부(120), 디스플레이부(130), 입력부(140) 및 제어부(150) 중 적어도 하나를 포함할 수 있다.
통신부(110)는, 공간(10)에 배치된 다양한 디바이스와 유선 또는 무선으로 통신하도록 이루어질 수 있다. 통신부(110)는 도시와 같이 로봇(R), 외부 서버(200), 영상 관제 시스템(2000) 중 적어도 하나와 통신할 수 있다.
예를 들어, 통신부(110)는 로봇(R)으로부터 데이터(예를 들어, 로봇(R)에서 촬영되는 영상, 센싱 데이터 등)를 수신하거나, 로봇(R)으로 제어명령을 전송할 수 있다.
나아가, 통신부(110)는 공간(10)에 배치된 카메라(20)와의 직접적인 통신을 수행할 수 있다. 또한, 통신부(110)는 카메라(20)를 제어하는 영상 관제 시스템(2000)과 통신하도록 이루어질 수 있다. 영상 관제 시스템(2000)과 통신부(110) 사이에 통신이 이루어지는 경우, 로봇 평가 시스템(100)은 통신부(110)를 통해 영상 관제 시스템(2000)으로부터 카메라(20)에서 촬영되는(또는 수신되는) 영상을 수신할 수 있다.
나아가, 통신부(110)는 적어도 하나의 외부 서버(또는 외부 저장소, 200)와 통신하도록 이루어질 수 있다. 여기에서, 외부 서버(200)는, 도시된 것과 같이, 클라우드 서버(210) 또는 데이터베이스(220) 중 적어도 하나를 포함하도록 구성될 수 있다. 한편, 외부 서버(200)에서는, 제어부(150)의 적어도 일부의 역할을 수행하도록 구성될 수 있다. 즉, 데이터 처리 또는 데이터 연산 등의 수행은 외부 서버(200)에서 이루어지는 것이 가능하며, 본 발명에서는 이러한 방식에 대한 특별한 제한을 두지 않는다.
한편, 통신부(110)는 통신하는 디바이스의 통신 규격에 따라 다양한 통신 방식을 지원할 수 있다.
예를 들어, 통신부(110)는, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 5G(5th Generation Mobile Telecommunication ), 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra-Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 공간(20) 내외에 위치한 디바이스(클라우드 서버 포함)와 통신하도록 이루어질 수 있다.
다음으로 저장부(120)는, 본 발명과 관련된 다양한 정보를 저장하도록 이루어질 수 있다. 본 발명에서 저장부(120)는 로봇 평가 시스템(100) 자체에 구비될 수 있다. 이와 다르게, 저장부(120)의 적어도 일부는, 클라우드 서버(210) 및 데이터베이스(database: DB, 220) 중 적어도 하나를 의미할 수 있다. 즉, 저장부(120)는 본 발명에 따른 로봇 평가를 위하여 필요한 정보가 저장되는 공간이면 충분하며, 물리적인 공간에 대한 제약은 없는 것으로 이해될 수 있다. 이에, 이하에서는, 저장부(120), 클라우드 서버(210) 및 데이터베이스(220)를 별도로 구분하지 않고, 모두 저장부(120)라고 표현하도록 한다. 이때, 클라우드 서버(210)는 “클라우드 저장소”를 의미할 수 있다.
먼저, 저장부(120)에는, 로봇(R)에 대한 정보가 저장될 수 있다.
로봇(R)에 대한 정보는 매우 다양할 수 있으며, 일 예로서, i)공간(10)에 배치된 로봇(R)을 식별하기 위한 식별 정보(예를 들어, 일련번호, TAG 정보, QR코드 정보 등), ii)로봇(R)에 부여된 임무 정보, iii)로봇(R)에 설정된 주행 경로 정보, iv)로봇(R)의 위치 정보, v)로봇(R)의 상태 정보(예를 들어, 전원 상태, 고장 유무, 배터리 상태 등), vi)로봇(R)에 구비된 카메라로부터 수신된 영상 정보, vii) 로봇(R)의 동작과 관련된 동작 정보 등이 존재할 수 있다.
다음으로, 저장부(120)에는, 카메라(20)에 대한 정보가 저장될 수 있다.
카메라(20)에 대한 정보는 매우 다양할 수 있으며, 카메라(20)에 대한 정보는, i) 각각의 카메라(20a, 20b, 20c, 20d…)의 식별 정보(예를 들어, 일련번호, TAG 정보, QR코드 정보 등), ii) 각각의 카메라(20a, 20b, 20c, 20d…)의 배치 위치 정보(예를 들어, 공간 내에서 각각의 카메라(20a, 20b, 20c, 20d…)가 어느 위치에 배치되었는지에 대한 정보), iii) 각각의 카메라(20a, 20b, 20c, 20d…)의 화각 정보(anle of view, 예를 들어, 각각의 카메라(20a, 20b, 20c, 20d…)가 공간의 어느 뷰를 촬영하고 있는지에 대한 정보), iv) 각각의 카메라(20a, 20b, 20c, 20d…)의 화각에 대응되는 영역(또는 공간(또는 특정 공간))에 대한 위치 정보, v) 각각의 카메라(20a, 20b, 20c, 20d…)의 상태 정보(예를 들어, 전원 상태, 고장 유무, 배터리 상태 등), vi) 각각의 카메라(20a, 20b, 20c, 20d…)로부터 수신된 영상 정보 등이 존재할 수 있다.
한편, 위에서 열거된 카메라(20)에 대한 정보는 각각의 카메라(20a, 20b, 20c, 20d…)를 기준으로 서로 매칭되어 존재할 수 있다.
예를 들어, 저장부(120)에는, 특정 카메라(20a)의 식별정보, 위치 정보, 화각 정보, 상태 정보, 위치 정보, 및 영상 정보 중 적어도 하나가 매칭되어 매칭 정보로서 존재할 수 있다. 이러한 매칭 정보는, 추후 특정 카메라가 위치한 공간(또는 장소, 영역)을 특정하거나, 해당 공간을 주행한 로봇(R)의 동작을 평가하는데 유용하게 활용될 수 있다.
나아가, 저장부(120)에는 동작 가이드를 포함하는 기준 동작 정보가 포함될 수 있다.
동작 가이드는, 로봇(R)의 동작에 대한 기준 또는 가이드가 되는 정보로서, 로봇(R)에게 부여된 임무를 수행하기 위하여, 로봇(R)이 어떻게 동작해야 하는지를 정의한 가이드라고 이해되어 질 수 있다.
나아가, 기준 동작 정보는, 로봇(R)의 주행과 관련된 동작에 대한 동작 가이드를 포함할 수 있으며, 특히, 서로 다른 공간(10)의 특성마다의 특정 상황에서 로봇(R)이 어떻게 주행 또는 동작해야 될지를 정의한 가이드라고 이해되어질 수 있다.
앞서 살펴본 것과 같이, 로봇(R)은 동작 가이드에 따라 동작되도록 프로그래밍 될 수 있다. 로봇(R)의 동작 알고리즘은, 동작 가이드에 따라 동작 되도록 구성될 수 있다. 즉, 로봇(R)이 특정 임무의 수행을 위하여 주행하는 경우, 로봇(R)은 동작 가이드에 따라 동작하면서 임무를 수행할 수 있다.
한편, 로봇(R)은 원격 제어 시스템(100)으로부터 수신된 제어 명령에 따라 동작할 수 있으며, 이 경우, 상기 제어 명령은 앞서 살펴본 동작 가이드에 따라 로봇이 동작하도록 하는 동작 명령을 포함할 수 있다.
본 발명에서 기준 동작 정보는, 수행하는 임무 및 공간(10)의 특성 중 적어도 하나에 따라 설정된 복수의 동작 가이드를 포함할 수 있다. 저장부(120)에는 임무의 특성 또는 공간(10)의 특성 마다 매칭된 적어도 하나의 동작 가이드를 포함하는 기준 동작 정보를 포함할 수 있다.
예를 들어, 로봇(R)에 부여된 임무가 “서빙”인 경우, 로봇(R)이 수행하는 임무와 관련된 동작은, i)서빙을 위한 주행 동작, ii)서빙을 위하여 서빙 대상(사용자 또는 테이블(table)에게 접근하는 동작, iii)서빙을 위한 로봇(R)의 하드웨어를 구동하는 동작 등을 포함할 수 있다.
한편, 기준 동작 정보는, 로봇(R)이 임무를 수행하기 위하여 필수적으로 취해야 하는 동작(또는 기본 주행과 관련된 동작)에 대한 동작 가이드를 포함할 수 있다. 따라서 서빙 임무를 위한 동작 가이드는, i)서빙을 위한 주행 동작에 대한 동작 가이드(예를 들어, 서빙 대상 사물을 운반하고 있는 일 때에는 기준 속도 이하로 주행 등), ii)서빙을 위하여 서빙 대상(사용자 또는 테이블(table)에게 접근하는 동작(예를 들어, 서빙 대상 1미터 전부터, 기준 속도 이하로 주행 등), iii)서빙을 위한 로봇(R)의 하드웨어를 구동하는 동작(예를 들어, 서빙 시 사물 운반을 위한 로봇 요소 제어 등) 등을 포함할 수 있다.
이때, 기준 동작 정보는, 로봇(R)이 임무를 수행하기 위하여 필수적으로 수행하는 기본 주행 동작(예를 들어, 임무를 수행하기 위하여 특정 장소로 이동하는 주행 동작)에 대한 동작 가이드를 더 포함할 수 있다.
한편, 기본 주행 동작에 대한 동작 가이드는, 앞서 살펴본 공간 특성을 기준으로 설정된 로봇(R)의 동작에 대한 가이드를 포함할 수 있다.
예를 들어, 공간 특성에 따른 구조 특징이 “교차로”에 해당하는 경우, 기준 동작 정보는 “교차로에서 속도를 기준 속도 이하로 감속하여 주행할 것”과 같은 동작 가이드가 포함될 수 있다. 또 다른 예를 들어, 구조 특징이 “계단 주변”에 해당하는 경우, 기준 동작 정보는 “주행을 정지하고, 90도 이상 주행 방향을 회전할 것”과 같은 동작 가이드를 포함할 수 있다.
다음으로, 본 발명에서 기준 동작 정보에 포함되는 동작 가이드는, 위에서 살펴본 사물 특징이 고려된 로봇의 동작에 대한 가이드 정보로 구성될 수 있다. 저장부(120)에는, 공간(10)의 사물 특징 마다 로봇의 동작에 대한 가이드 정보를 포함하는 기준 동작 정보가 저장될 수 있다.
사물 특징은, 공간(10)에 배치된 사물에 대한 것으로서, 가구, 간판, 전광판, 마네킹, 가판대와 같은 요소들을 의미할 수 있다. 사물 특징은, 위와 같이 사물의 종류에 따라 달라질 수 있다.
기준 동작 정보는 위에서 살펴본 각각의 사물 특징마다의 로봇의 동작을 가이드 하는 동작 가이드를 포함할 수 있다. 저장부(120)에는 서로 다른 사물 특징 마다 로봇의 동작을 가이드 하는 적어도 하나의 동작 가이드를 포함하는 기준 동작 정보가 저장될 수 있다.
예를 들어, 사물 특징(또는 사물 종류)이, “소파(sofa)”에 해당하는 경우, 기준 동작 정보는 “소파로부터 2m(미터)이상 거리를 두고 주행할 것”과 같은 동작 가이드가 포함될 수 있다. 또 다른 예를 들어, 사물 특징(또는 사물 종류)이 “마네킹”에 해당하는 경우, 기준 동작 정보는 “마네킹으로부터 1m(미터)이상 거리를 두고 주행할 것”과 같은 동작 가이드를 포함할 수 있다.
이와 같이, 저장부(120)에 저장된 기준 동작 정보는, 공간(10)의 정적인 특성에 해당하는 제1 공간 특성에 따른 동작 가이드를 포함할 수 있다.
다음으로, 공간(10)의 동적인 특성에 따른 제2 공간 특성 및 이와 관련된 기준 동작 정보에 대하여 살펴본다.
저장부(120)에는 제2 공간 특성에 따른 기준 동작 정보가 저장될 수 있다. 제2 공간 특성은, 공간(10) 내에서 움직이는 사람, 동물, 전자기기(예를 들어, 로봇, 차량 등), 차량 등과 같이 움직이는 동적인 객체(object)와 관련된 특성일 수 있다.
저장부(120)에는 동적인 객체의 특징(또는 동적인 객체의 종류)에 따라 정의되는 기준 동작 정보가 저장될 수 있다. 이 경우, 기준 동작 정보는 동적인 객체의 특징(또는 종류)에 각각 매칭된 동작 가이드를 포함할 수 있다.
예를 들어, 동적인 객체의 특징이, “어린이”인 경우, 기준 동작 정보는 “어린이가 2m 반경에 위치하는 경우, 주행을 정지하고, 대기모드로 전환”과 같은 동작 가이드를 포함할 수 있다.
또 다른 예를 들어, 동적인 객체의 특징이, “어른”인 경우, 기준 동작 정보는 “어른이 1m 반경에 위치하는 경우, 기준 속도 이하로 감속 주행”과 같은 동작 가이드를 포함할 수 있다.
또 다른 예를 들어, 동적인 객체의 특징이 “3명 이상의 군집된 사람”인 경우, 기준 동작 정보는 “군집된 사람들 주변으로부터 2m 이상 간격을 두고 주행”과 같은 동작 가이드를 포함할 수 있다.
이와 같이, 저장부(120)에 저장된 기준 동작 정보는, 공간(10)의 동적인 특성에 해당하는 제2공간 특성에 따른 동작 가이드를 포함할 수 있다.
한편, 공간(10)에 포함된 정적 또는 동적인 객체에 해당하는 사물은, 임무의 대상이 되는 타겟 객체가 될 수 있음은 물론이다.
한편, 저장부(120)에 저장되는 기준 동작 정보는, 공간(10)내 포함된 복수의 구역을 기준으로, 구역 각각에 매칭되어 존재할 수 있다. 여기에서, 복수의 구역 각각은, 공간(10)에 설치된 적어도 하나의 카메라(20)의 화각(angle of view)에 대응되는 영역일 수 있다.
복수의 구역 각각에는 적어도 하나의 동작 가이드를 포함하는 기준 동작 정보가 매칭되어 존재할 수 있다. 각각의 구역에는, 각각의 구역에 포함된 공간 특성에 따라 적어도 하나의 동작 가이드가 정의될 수 있다. 예를 들어, 제1 카메라의 화각에 대응되는 제1 영역(또는 제1 구역)에, “교차로”가 존재하고, “계단”이 존재하는 경우, 제1 영역에 대응되는(또는 매칭된) 기준 동작 정보는 i)교차로에 대한 로봇의 동작 가이드 및 ii)계단에 대한 로봇의 동작 가이드를 포함할 수 있다.
이와 같이, 기준 동작 정보는, 공간(10)내 포함된 복수의 구역 각각에 매칭되는 적어도 하나의 동작 가이드를 포함할 수 있다. 이때의 매칭 정보는 구역 정보 및 해당 구역 정보에 매칭된 적어도 하나의 동작 가이드를 포함할 수 있다.
다음으로 저장부(120)에는, 공간(10)에 대한 지도(map, 또는 지도 정보)가 저장될 수 있다. 여기에서, 지도는, 2차원 또는 3차원 지도 중 적어도 하나로 이루어 질 수 있다. 공간(10)에 대한 지도는 로봇(R)의 현재 위치를 파악하거나, 로봇(R)의 주행 경로를 설정하거나, 로봇(R)이 주행하는데 활용될 수 있는 지도를 의미할 수 있다.
특히, 본 발명에 따른 로봇 평가 시스템(100)에서는, 로봇(R)에서 수신되는 영상을 기반으로 로봇(R)의 위치를 파악할 수 있다. 이를 위하여, 저장부(120)에 저장된 공간(10)에 대한 지도는 영상에 기반하여 위치를 추정할 수 있도록 하는 데이터로 구성될 수 있다.
이때, 공간(10)에 대한 지도는 사전에 공간(10)을 이동하는 적어도 하나의 로봇에 의해, SLAM(Simultaneous Localization and Mapping)에 기반하여 작성된 지도일 수 있다.
한편, 위에서 열거한 정보의 종류 외에도 저장부(120)에는 다양한 정보가 저장될 수 있다.
다음으로 디스플레이부(130)는 로봇(R)을 원격으로 관리하는 사용자 또는 관리자의 디바이스에 구비된 것으로서, 도 2에 도시된 것과 같이, 관제실(100a)에 구비될 수 있다. 나아가, 디스플레이부(130)는 모바일 디바이스에 구비된 디스플레이일 수 있다. 이와 같이, 본 발명에서는 디스플레이부의 종류에 대해서는 제한을 두지 않는다.
다음으로, 입력부(140)는 사용자(또는 관리자)로부터 입력되는 정보의 입력을 위한 것으로서, 입력부(140)는 사용자(또는 관리자)와 로봇 평가 시스템(100) 사이의 매개체가 될 수 있다. 보다 구체적으로, 입력부(140)는 사용자로부터 로봇(R)을 원격으로 제어하기 위한 제어 명령을 수신하는 입력 수단을 의미할 수 있다.
이때, 입력부(140)의 종류에는 특별한 제한이 없으며, 입력부(140)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 마우스(mouse), 조이스틱(joy stic), 물리적인 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단 중 적어도 하나를 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다. 이때, 입력부(140)가 터치 스크린을 포함하는 경우, 디스플레이부(130)는 터치 스크린으로 이루어 질 수 있다. 이 경우, 디스플레이부(130)는 정보를 출력하는 역할과, 정보를 입력받는 역할을 모두 수행할 수 있다.
다음으로 제어부(150)는 본 발명과 관련된 로봇 평가 시스템(100)의 전반적인 동작을 제어하도록 이루어질 수 있다. 제어부(150)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
특히, 제어부(150)는 공간(10)에 배치된 카메라(20)로부터 수신되는 영상을 이용하여, 임무를 수행하는 로봇(R)의 동작에 대한 평가를 수행할 수 있다.
보다 구체적으로, 제어부(150)는 공간(10)에 배치된 카메라(20)로부터 수신된 영상을 분석하도록 이루어질 수 있다. 제어부(150)는 적어도 하나의 영상 분석 알고리즘을 이용하여, 로봇(R)의 동작을 평가하기 위한 정보를 추출할 수 있다. 제어부(150)는 딥러닝에 근거한 영상 분석 알고리즘을 활용하여, 영상 분석을 수행하도록 이루어질 수 있다.
로봇(R)의 동작을 평가하기 위한 정보는, 로봇의 식별 정보, 임무를 수행하는 로봇의 동작 정보 및 영상에 대응되는 영역의 공간 특성 정보 중 적어도 하나를 포함할 수 있다.
앞서 살펴본 것과 같이, 로봇의 동작 정보는, 로봇(R)의 주행, 로봇(R)이 수행하는 임무 및 로봇(R)의 전원 상태 등과 관련된 동작 중 적어도 하나와 관련된 정보를 포함할 수 있다.
보다 구체적으로, 제어부(150)는 영상으로부터 로봇(R)의 주행과 관련된 동작 정보를 추출할 수 있다. 제어부(150)는 영상으로부터 로봇(R)의 주행 속도, 주행 방향, 회전 방향, 회전 속도, 주행 시작, 주행 정지 및 주행 종료 중 적어도 하나에 대한 동작 정보를 추출할 수 있다.
나아가, 제어부(150)는 영상으로부터 로봇(R)이 수행하는 임무와 관련된 동작 정보를 추출할 수 있다. 로봇(R)이 수행하는 임무와 관련된 동작은, 로봇(R)이 수행하는 임무의 종류에 따라 다를 수 있다. 예를 들어, 제어부(150)는, 영상으로부터 서빙을 위한 주행 동작, 서빙을 위하여 서빙 대상(사용자 또는 테이블(table)에게 접근하는 동작, 서빙을 위한 로봇(R)의 하드웨어를 구동하는 동작 등에 대한 동작 정보를 추출할 수 있다.
나아가, 제어부(150)는 영상으로부터 로봇(R)의 전원 상태와 관련된 동작 정보를 추출할 수 있다. 예를 들어, 제어부(150)는 영상으로부터, 로봇(R)의 전원을 온(ON) 또는 오프(OFF)시키는 동작, 로봇(R)을 대기 상태(standby state)로 구동하는 동작, 로봇(R)을 슬립 모드(sleep mode)로 구동하는 동작 등에 대한 동작 정보를 추출할 수 있다.
한편, 제어부(150)는 위에서 살펴본 로봇(R)의 동작 정보를, 영상 뿐만 아니라, 로봇(R)으로부터 수신된 정보에 기반하여 추출하는 것 또한 가능하다.
이 경우, 제어부(150)는 카메라(20)로부터 수신된 영상 및 로봇(R)으로부터 수신되는 정보 중 적어도 하나를 이용하여, 로봇(R)의 동작 정보를 추출할 수 있다.
한편, 본 발명에 따른 제어부(150)는 추출된 동작 정보와 저장부(120)에 저장된 기준 동작 정보를 이용하여, 임무를 수행하는 로봇(R)이 공간(예를 들어, 수신된 영상에 대응되는 공간)에서 수행한 동작에 대한 평가를 수행할 수 있다.
나아가, 제어부(150)는 추출된 동작 정보와 기준 동작 정보를 비교하여, 카메라(20)에서 수신된 영상에 대응되는 공간에서 로봇(R)이 수행한 동작에 대한 평가를 수행할 수 있다.
한편, 제어부(150)에 의해 로봇의 동작이 평가되는 경우, 평가의 결과에 해당하는 평가 결과 정보는 저장부(120)에 저장될 수 있다. 제어부(150)는 평가 결과 정보를 로봇(R)의 식별 정보와 매칭하여, 저장부(120) 상에 저장시킬 수 있다. 따라서, 저장부(120)에는 로봇(R) 각각에 대한 평가 결과 정보가 존재할 수 있다.
한편, 로봇(R)의 식별 정보는 도 3에 도시된 것과 같이, 로봇(R)에 구비된 식별 표지(또는 식별 마크)에 근거하여, 영상으로부터 추출될 수 있다. 도 3의 (a), (b) 및 (c)에 도시된 것과 같이, 로봇(R)의 식별 표지(301. 302. 303)는 로봇의 식별 정보를 포함할 수 있다. 도시와 같이, 식별 표지(301. 302. 303)는 바코드 (barcode, 301), 일련 정보(또는 시리얼 정보, 302), QR코드(303)로 구성될 수 있으며, 바코드 (barcode, 301), 일련 정보(또는 시리얼 정보, 302), QR코드(303)는 각각 로봇의 식별 정보를 포함하도록 이루어질 수 있다.
로봇의 식별 정보는, 로봇 각각을 구분하기 위한 정보로서, 동일한 종류의 로봇이더라도, 서로 다른 식별 정보를 가질 수 있다. 한편, 식별 표지를 구성하는 정보는, 위에서 살펴본 바코드, 일련 정보, QR코드 외에도 다양하게 구성될 수 있다.
제어부(150)는 카메라(20)로부터 수신되는 영상으로부터 위에서 살펴본 식별 표지에 근거하여, 로봇(R)의 식별 정보 추출하여, 카메라(20)에 의해 촬영된 로봇(R)을 특정할 수 있다. 그리고, 제어부(150)는 특정된 로봇(R)과, 특정된 로봇(R)이 수행된 동작에 대한 평가 정보를 상호 매칭하여, 저장부(120)에 저장할 수 있다. 이 경우, 저장부(120)에는 로봇(R)의 식별 정보와 로봇(R)의 평가 정보가 매칭된 매칭 정보가 저장될 수 있다.
한편, 본 발명에서, 카메라(20)에 의해 촬영된 로봇(R)을 특정하는 방법은 다양할 수 있다. 위에서 살펴본 것과 같이, 제어부(150)는 영상으로부터 로봇(R)의 식별 정보를 추출하여, 로봇(R)을 특정하는 것이 가능하다. 이 외에도, 제어부(150)는 영상이 촬영된 시간, 영상을 촬영한 카메라(20)에 매칭된 위치 정보 및 로봇(R)의 위치 정보 중 적어도 하나를 이용하여, 카메라(20)에 촬영된 로봇(R)을 특정할 수 있다.
제어부(150)는 로봇(R)의 위치 정보를 이용하여, 영상이 촬영된 시간에, 영상을 촬영한 카메라(20)의 화각에 대응되는 영역에 위치했던 로봇(R)을 특정할 수 있다. 이때, 로봇(R)의 위치 정보는 로봇(R)으로부터 수신되거나, 제어부(150)에 의하여 획득될 수 있다. 여기에서, 로봇(R)의 위치 정보는, 로봇(R)의 절대 위치에 대한 정보를 포함할 수 있다.
로봇(R)의 위치정보는, 도 4에 도시된 것과 같이, 영상 기반으로 획득될 수 있다. 보다 구체적으로, 로봇(R)은, 로봇(R)에 구비된 카메라(미도시됨)를 이용하여 공간(10)에 대한 영상을 수신하고, 수신된 영상으로부터 로봇의 위치를 추정하는 Visual Localization수행하도록 이루어질 수 있다. 이때, 로봇(R)에 구비된 카메라는 공간(10)에 대한 영상, 즉, 로봇(R) 주변에 대한 영상을 촬영(또는 센싱)하도록 이루어진다. 이하에서는, 설명의 편의를 위하여, 로봇(R)에 구비된 카메라를 이용하여 획득된 영상을 “주변 영상”이라고 명명하기로 한다.
로봇(R) 또는 제어부(150)는, 도 3의 (a)에 도시된 것과 같이, 로봇(R)에 구비된 카메라를 통하여 주변 영상을 획득하도록 이루어진다. 그리고, 로봇(R) 또는 제어부(150)는 획득된 주변 영상을 이용하여, 로봇(R)의 현재 위치를 추정할 수 있다
로봇(R) 또는 제어부(150)는, 로봇(R)에서 촬영된 영상과 저장부(120)에 저장된 지도 정보를 비교하여, 로봇(R)의 현재 위치에 대응하는 위치 정보를 추출할 수 있다.
앞서 살펴본 것과 같이, 본 발명에서 공간(10)에 대한 지도는 사전에 공간(10)을 이동하는 적어도 하나의 로봇에 의해, SLAM(Simultaneous Localization and Mapping)에 기반하여 작성된 지도일 수 있다. 특히, 공간(10)에 대한 지도는, 영상 정보를 기반으로 생성된 지도일 수 있다. 즉, 공간(10)에 대한 지도는 vision(또는 visual)기반의 SLAM기술에 의하여 생성된 지도일 수 있다.
따라서, 로봇(R) 또는 제어부(150)는 로봇(R)에서 획득된 주변 영상(410)에 대해 도 4의 (b)에 도시된 것과 같이 좌표 정보(예를 들어, (3층, B구역(3, 1,1,)), (3층, B구역(7, 1, 1))를 특정할 수 있다. 이와 같이, 특정된 좌표 정보는 곧, 로봇(100)의 현재 위치 정보가 될 수 있다.
이때, 로봇(R) 또는 제어부(150)는, 로봇(R)에서 획득된 주변 영상과 vision(또는 visual)기반의 SLAM 기술에 의하여 생성된 지도를 비교함으로써, 로봇(100)의 현재 위치를 추정할 수 있다. 이 경우, 로봇(R) 또는 제어부(150)는 i)주변 영상과 기 생성된 지도(예를 들어, “참조 맵”이라고 명명될 수 있음)를 구성하는 이미지들 간의 이미지 비교를 이용하여, 주변 영상과 가장 비슷한 이미지를 특정하고, ii)특정된 이미지에 매칭된 위치 정보를 획득하는 방식으로 로봇(100)의 위치 정보를 특정할 수 있다.
이와 같이, 로봇(R) 또는 제어부(150)에서 로봇의 위치 정보가 추출되면, 제어부(150)는, 이러한 위치 정보로부터, 카메라(20)에 의해 촬영된 로봇을 특정할 수 있다.
저장부(120)에는 로봇(R)의 식별 정보, 로봇(R)의 위치 정보 및 로봇(R)이 해당 위치에 머물렀던 시간 정보가 매칭되어 저장될 수 있다. 이러한 매칭된 정보는 로봇(R)마다 별개로 존재할 수 있으며, 이를 타임 스탬프(time stamp)라고도 명명할 수 있다.
제어부(150)는 i)카메라(20)에서 로봇(R)에 대한 영상이 촬영된 시점 및 카메라(20)의 위치 정보와 ii)저장부(120)에 저장된 로봇(R)의 타임 스탬프에 근거하여, 카메라(20)에 의해 촬영된 로봇을 특정할 수 있다.
즉, 제어부(150)는 타임 스탬프로부터, 로봇(R)에 대한 촬영이 이루어진 카메라(20)에 대한 위치 정보 및 영상이 촬영된 시점 정보와 동일(또는 대응)되는 정보를 갖는 로봇(R)의 식별 정보를 추출함으로써, 공간(10)에 배치된 다양한 로봇 중 어느 로봇이 분석하고자 하는 영상을 촬영한 카메라(20)에 의해 촬영되었는지를 특정할 수 있다. 이와 같이, 로봇의 식별 정보는, 로봇의 위치 정보 및 카메라(20)의 위치 정보를 이용하여, 추출(또는 특정)될 수 있다.
한편, 영상 관제 시스템(2000)은, 공간(10) 내 배치된 적어도 하나의 카메라(20)를 제어하도록 이루어 질 수 있다. 도시와 같이, 공간(10)에는 복수의 카메라(20a, 20b, 20c, 20d, …)가 배치될 수 있다. 이러한 복수의 카메라(20a, 20b, 20c, 20d, …)는 공간(10) 내에서 각각 서로 다른 위치에 배치될 수 있다.
이와 같이, 공간(10)의 서로 다른 위치에는 복수의 카메라(20a, 20b, 20c, 20d, …)가 배치되어 있으므로, 로봇 평가 시스템(100)에서는 이러한 복수의 카메라(20a, 20b, 20c, 20d, …)를 이용하여, 로봇(R)의 동작을 모니터링하는 것이 가능하다.
영상 관제 시스템(2000)은 로봇 평가 시스템(100)과의 상호 통신을 통하여, 로봇(R)의 동작 평가에 필요한 정보를 로봇 평가 시스템(100)에 제공할 수 있다. 앞서 저장부(120)의 구성에서 살펴본 것과 같이, 영상 관제 시스템(2000)의 저장부에는, 카메라(20)에 대한 다양한 정보를 저장하도록 이루어질 수 있다. 카메라(20)에 대한 정보는 매우 다양할 수 있으며, 카메라(20)에 대한 정보는, i) 각각의 카메라(20a, 20b, 20c, 20d…)의 식별 정보(예를 들어, 일련번호, TAG 정보, QR코드 정보 등), ii) 각각의 카메라(20a, 20b, 20c, 20d…)의 배치 위치 정보(예를 들어, 공간 내에서 각각의 카메라(20a, 20b, 20c, 20d…)가 어느 위치에 배치되었는지에 대한 정보), iii) 각각의 카메라(20a, 20b, 20c, 20d…)의 화각 정보(anle of view, 예를 들어, 각각의 카메라(20a, 20b, 20c, 20d…) 가 공간의 어느 뷰를 촬영하고 있는지에 대한 정보), iv) 각각의 카메라(20a, 20b, 20c, 20d…)의 화각에 대응되는 영역(또는 공간(또는 특정 공간))에 대한 위치 정보, v) 각각의 카메라(20a, 20b, 20c, 20d…)의 상태 정보(예를 들어, 전원 상태, 고장 유무, 배터리 상태 등), vi) 각각의 카메라(20a, 20b, 20c, 20d…)로부터 수신된 영상 정보 등이 존재할 수 있다.
한편, 위에서 열거된 카메라(20)에 대한 정보는 각각의 카메라(20a, 20b, 20c, 20d…)를 기준으로 서로 매칭되어 존재할 수 있다.
예를 들어, 영상 관제 시스템(2000)의 저장부에는, 특정 카메라(20a)의 식별정보, 위치 정보, 화각 정보, 위치 정보, 상태 정보, 및 영상 정보 중 적어도 하나가 매칭되어 매칭 정보로서 존재할 수 있다.
한편, 이하의 설명에서는 위에서 살펴본 카메라의 정보가, 어느 저장부(또는 저장소)에 저장되어 있는지에 대한 구분 없이, 설명의 편의를 위하여, 저장부(120)의 구성에 저장되었음을 예를 들어 설명하도록 한다. 즉, 카메라에 대한 정보는 상황에 따라, 다양한 저장부에 저장될 수 있으므로, 본 발명에서는 이에 대한 특별한 제한을 두지 않는다.
한편, 위의 설명에 의하면, 본 발명에서, 영상 관제 시스템(2000)과 로봇 평가 시스템(100)을 별개의 구성으로 설명하였다. 그러나, 본 발명은 이에 제한되지 않으며, 영상 관제 시스템(2000)과 로봇 평가 시스템(100)은 하나의 통합된 시스템으로 이루어질 수 있다. 이 경우, 영상 관제 시스템(2000)은 “카메라부”의 구성으로 명명되는 것 또한 가능하다.
이하에서는, 위에서 살펴본 구성 및 이하에서 첨부된 도면과 함께, 로봇의 동작을 평가하는 방법에 대한 보다 구체적으로 살펴본다. 도 5는 본 발명에 따른 로봇 평가 방법을 설명하기 위한 흐름도이다. 그리고, 도 6a, 도 6b, 도 6c, 도 6d, 도 7a, 도 7b 및 도 7c는 본 발명에 따른 로봇 평가 방법 및 시스템에서 로봇을 평가하는 방법을 설명하기 위한 개념도들이다. 나아가, 도 8은 본 발명에 따른 로봇 평가 방법 및 시스템에서 로봇 평가 결과를 활용하는 방법을 설명하기 위한 개념도들이다.
임무를 수행하는 로봇의 동작을 평가하기 위하여 본 발명에 따른 로봇 평가 방법에서는 공간에 배치된 카메라를 이용하여, 로봇에 대한 영상을 수신하는 과정이 진행된다(S510). 도 6a에 도시된 것과 같이, 공간(10)에는 카메라(20)가 배치될 수 있다. 제어부(150)는 통신부(110)를 통하여, 카메라(20)에서 촬영된 영상을 수신할 수 있다.
카메라(20)는 공간(10)에 배치되는 카메라(20)로서, 영상 관제 시스템(2000)을 통해, 또는 다이렉트(direct)로 로봇 평가 시스템(100)에 영상을 공유할 수 있는 카메라이면 그 종류 및 배치 위치에 한정되지 않는다.
한편, 수신되는 영상은 특정 공간(또는 특정 영역)을 촬영한 것으로서, 제어부(150)는 카메라(20)에서 영상이 수신되면, 수신된 영상에 해당하는 특정 공간의 위치 정보를 함께 획득할 수 있다. 수신된 영상에 대응되는 위치 정보는, 영상을 촬영한 카메라(20)에 매칭되어 저장부(120)에 존재할 수 있다.
다음으로, 본 발명에서는 수신된 영상으로부터 로봇(R)을 센싱하고, 센싱된 로봇(R)의 동작 정보를 포함하는 평가 대상 정보를 추출하는 과정이 진행된다(S420).
여기에서, 평가 대상 정보는, 공간(10)에서의 로봇의 동작을 평가하기 위하여 고려되는 정보로서, 로봇의 식별 정보, 로봇에 부여된 임무 정보, 로봇의 동작 정보 및 영상에 대응되는 영역의 공간 특성 정보 중 적어도 하나를 포함할 수 있다.
앞서 살펴본 것과 같이, 로봇의 동작 정보는, 로봇(R)의 주행, 로봇(R)이 수행하는 임무 및 로봇(R)의 전원 상태 등과 관련된 동작 중 적어도 하나와 관련된 정보를 포함할 수 있다.
제어부(150)는 딥러닝에 근거한 영상 분석 알고리즘을 활용하여, 카메라(20)로부터 수신되는 영상을 분석하여, 위에서 살펴본 평가 대상 정보를 추출하도록 이루어질 수 있다.
이하에서는 평가 대상 정보를 추출하는 방법에 대하여 보다 구체적으로 살펴본다.
본 발명에서, 제어부(150)는, 특정 공간(10)에 배치된 카메라(20)로부터 수신된 영상에서 특정 로봇이 센싱되면, 센싱된 로봇이 해당 특정 공간(10)에서 수행한 동작에 대한 평가를 수행할 수 있다.
제어부(150)는, 로봇이, 로봇에 부여된 임무를 수행하기 위하여, 상기 특정 공간에서 동작 가이드에 따라 적절한 동작을 수행했는지에 대한 평가를 수행하는 것이다. 이를 위하여, 제어부(150)는 영상으로부터 로봇의 임무와 관련된 평가를 수행하기 위하여 필요한 평가 대상 정보를 추출할 수 있다.
먼저, 제어부(150)는 영상으로부터 로봇의 식별 정보를 추출할 수 있다. 앞서 살펴본 것과 같이, 로봇의 식별 정보는, 영상에서 촬영한 로봇을 특정하기 위한 정보를 의미한다. 로봇의 식별 정보는, 로봇 각각을 구분하기 위한 정보로서, 동일한 종류의 로봇이더라도, 서로 다른 식별 정보를 가질 수 있다.
앞서 도 3에서 함께 살펴본 것과 같이, 제어부(150)는 영상으로부터, 로봇(R)에 구비된 식별 표지(또는 식별 마크(예를 들어, QR코드 등))를 추출할 수 있다.
제어부(150)는 카메라(20)로부터 수신되는 영상으로부터 위에서 살펴본 식별 표지에 근거하여, 로봇(R)의 식별 정보 추출하여, 카메라(20)에 의해 촬영된 로봇(R)을 특정할 수 있다.
저장부(120)에는 식별 표지 및 로봇의 식별 정보가 상호 매칭된 매칭 정보가 존재할 수 있다. 제어부(150)는 이러한 매칭 정보를 참조하여, 영상에서 추출된 식별 표지에 대응되는 로봇의 식별 정보를 추출함으로써, 촬영된 로봇을 특정할 수 있다.
한편, 로봇의 식별 정보를 추출하는 방법은, 영상으로부터 식별 표지를 인식하는 방법 외에도 도 4와 함께 살펴본 것과 같이, 로봇의 위치 정보 및 카메라의 위치 정보를 이용하여 추출되는 것 또한 가능하다.
다음으로, 제어부(150)는 평가 대상 정보로서, 상기 로봇에 할당된 임무 정보를 추출할 수 있다.
로봇에 할당된 임무 정보는, 저장부(120)로부터 추출될 수 있다.
저장부(120)에는 로봇(R)의 식별 정보를 기준으로 임무 정보가 매칭된 매칭 정보가 존재할 수 있다. 제어부(150)는 로봇의 식별 정보가 추출되면, 추출된 식별 정보에 매칭된 임무 정보를 추출할 수 있다.
여기에서 임무 정보는, 추출된 식별 정보에 해당하는 로봇이 수행해야할 임무와 관련된 정보를 포함할 수 있다.
임무 정보는, 로봇에 부여된 특정 임무의 종류(예를 들어, 서빙, 배달 등), 임무의 내용 및 임무의 수행 대상이 되는 타겟 객체에 대한 타겟 정보 중 적어도 하나를 포함할 수 있다.
여기에서, 타겟 객체는, 공간(10)에 위치한 사물(또는 물체), 동물 사람 중 적어도 하나일 수 있다.
예를 들어, 로봇에 부여된 임무가 서빙 임무인 경우, 타겟 객체는, 서빙이 수행될 “사물(예를 들어, 테이블)”일 수 있다.
이와 같이, 타겟 객체가 사물에 해당하는 경우, 타겟 정보는, i) 사물의 형상, ii) 사물이 배치된 위치 정보 및 iii) 사물을 특정하기 위한 사물의 식별 정보(예를 들어, 테이블 번호) 중 적어도 하나를 포함할 수 있다.
또 다른 예를 들어, 로봇에 부여된 임무가 배달 임무인 경우, 타겟 객체는, 물건 배달의 수신인이 되는 “사람(또는 사용자, 또는 특정 사용자)”일 수 있다.
이와 같이, 타겟 객체가 사람에 해당하는 경우, 타겟 정보는, 타겟에 해당하는 사람의 이름, 생년월일, 주소, 전화번호, 사번, ID, 얼굴 이미지, 생체 정보(지문 정보, 홍채 정보 등), 공간(10) 내에서의 사용자의 생활 장소(예를 들어, 근무 장소(또는 근무 구역), 주거 장소 등), 사용자가 소지한 전자기기의 식별 정보, 사용자의 일정(스케줄)과 관련된 정보 중 적어도 하나를 포함할 수 있다.
한편, 제어부(150)는 위에서 살펴본 로봇(R)에 대한 임무 정보에 포함된 타겟 정보를 기준으로 영상으로부터 타겟 객체를 인식할 수 있다. 보다 구체적으로 제어부(150)는 영상 분석 알고리즘을 이용하여, 영상으로부터 타겟 객체를 인식할 수 있다.
예를 들어, 도 6a에 도시된 것과 같이, 타겟 객체가 사물(예를 들어, 테이블, 의자, 물컵 등)인 경우, 제어부(150)는 영상 분석 알고리즘을 이용하여, 영상으로부터 사물에 해당하는 타겟 객체(620, 630, 640)를 인식할 수 있다.
제어부(150)는, 로봇의 임무에 매칭된 타겟 정보로부터, 상기 타겟 객체의 형상 정보를 추출하고, 영상으로부터 상기 형상 정보에 대응되는 사물을 인식할 수 있다. 보다 구체적으로, 제어부(150)는 영상을 구성하며, 개념적으로 구분되는 적어도 하나의 그래픽 객체 중 상기 형상 정보에 대응되는 그래픽 객체를 상기 형상 정보에 대응되는 사물로서 인식할 수 있다. 그리고, 제어부(150)는 상기 형상 정보에 대응되는 사물을 타겟 객체(620, 630, 640)로서 인식할 수 있다.
또 예를 들어, 도 6a에 도시된 것과 같이, 타겟 객체가 특정 사용자(또는 사람)인 경우, 제어부(150)는 영상 분석 알고리즘을 이용하여, 영상으로부터 특정 사용자에 대응되는 타겟 객체(1000)를 인식할 수 있다.
제어부(150)는 로봇의 임무에 매칭된 타겟 정보로부터, 타겟 객체에 해당하는 특정 사용자의 식별 정보(예를 들어, 얼굴 이미지)를 추출하고, 추출된 얼굴 이미지에 대응되는 특정 사용자를 타겟 객체로서 인식할 수 있다.
제어부(150)는, 적어도 하나의 얼굴 인식 알고리즘을 이용하여, 카메라(20)에서 수신되는 영상에서 타겟 유저(1000)의 얼굴 이미지를 검출할 수 있다. 본 발명에서 활용되는 얼굴 인식 알고리즘은 그 종류에 제한이 없으며, 인공지능 또는 딥러닝을 기반으로 동작하는 알고리즘 또한 활용될 수 있다.
제어부(130)는, 카메라(20)를 통해 촬영된 영상에서 획득된 얼굴 이미지와, 타겟 정보에 포함된 타겟 객체의 얼굴 이미지를 비교하여, 영상에서 획득된 얼굴 이미지가 타겟 객체의 얼굴 이미지인지 판단할 수 있다.
그리고, 상기 비교 대상의 얼굴 이미지들 간의 유사도가 기 설정된 조건을 만족하는 경우, 영상에 포함된 얼굴 이미지에 대응되는 특정 사용자(또는 사람)을 타겟 객체로서 인식할 수 있다.
다음으로, 제어부(150)는 평가 대상 정보로서, 상기 로봇의 동작 정보를 추출할 수 있다. 로봇(R)이 수행한 동작 정보를 추출하기 위하여, 제어부(150)는 공간(10)에 배치된 카메라(20)로부터 수신된 영상을 분석하도록 이루어질 수 있다. 제어부(150)는 적어도 하나의 영상 분석 알고리즘을 이용하여, 영상으로부터 로봇(R)이 수행하는 임무, 로봇(R)의 기본 주행, 로봇(R)의 전원 상태 등과 관련된 동작을 추출할 수 있다.
보다 구체적으로, 제어부(150)는 영상으로부터, 공간(10)에서의 로봇의 이동 궤적 및 로봇에 구비된 하드웨어의 동작 궤적 중 적어도 하나와 관련된 동작 정보를 추출할 수 있다.
제어부(150)는 로봇의 이동 궤적에 근거하여, 로봇의 주행 속도, 주행 방향, 회전 방향, 회전 속도, 주행 시작, 주행 정지 및 주행 종료 중 적어도 하나와 관련된 동작 정보를 추출할 수 있다.
한편, 제어부(150)는 로봇(R)이 수행하는 임무와 관련된 동작 정보를 추출할 수 있다.
제어부(150)는 앞에서 살펴본 방식으로 영상으로부터 추출된 타겟 객체에 대한 로봇의 동작 정보를 추출할 수 있다. 즉, 제어부(150)는 영상으로부터, 타겟 객체에 대하여 로봇이 어떻게 동작했는지에 대한 동작 정보를 추출할 수 있다. 추출되는 정보의 종류는 로봇이 수행하는 임무에 따라 매우 다양하게 결정될 수 있다.
저장부(120)에는 로봇이 수행하는 임무에 따라, 영상으로부터 로봇의 어떠한 동작 정보를 추출해야 하는지에 대한 가이드 정보가 존재할 수 있다.
예를 들어, 로봇에 부여된 임무가, “서빙” 임무이고, 타겟 객체가 테이블(620)인 경우, 저장부(120)에는, 서빙 임무를 수행하는 로봇의 동작 정보로서, i)테이블을 향하는 로봇의 주행 속도(또는 접근 속도), ii)테이블 주변에서의 로봇의 동작(예를 들어, 정지 또는 계속 주행), iii) 테이블 주변에서 정지한 경우, 테이블 간의 간격(또는 접근 거리), iv) 테이블에 사물을 내려놓는 하드웨어 구성요소의 동작 속도 등에 대한 정보를 추출할 것을 가이드 하는 가이드 정보를 포함할 수 있다. 한편, 가이드 정보는 임무와 관련된 타겟 객체를 기준으로 정의된 로봇의 동작에 대한 정보를 포함할 수 있다. 제어부(150)는 이러한 가이드 정보에 기반하여, 영상으로부터 임무와 관련된 동작을 추출할 수 있다.
다른 예로서, 타겟 객체가 사람 또는 동물인 경우, 가이드 정보는, 위에서 살펴본 사물인 타겟 객체에 대한 정보에서 더 나아가, 타겟 객체에 해당하는 특정 사람 또는 특정 동물에 대해 로봇이 동작을 취했는지에 대한 정보를 포함할 수 있다.
보다 구체적인 예에 대하여 살펴보면, 도 6a에 도시된 것과 같이, 로봇에 부여된 임무가 “서빙” 임무이고, 타겟 객체는 테이블(630) 및 사용자(1000)라고 가정하자.
먼저, 제어부(150)는, 영상으로부터 타겟 객체인 테이블(630) 및 사용자(1000)를 인식할 수 있다.
그리고, 제어부(150)는 로봇의 동작 정보로서, 서빙을 위하여 타겟 객체인 테이블(630)로 향하는 로봇의 동작 정보(예를 들어, 로봇의 주행 속도)를 추출할 수 있다. 제어부(150)는 앞서 살펴본 가이드 정보에 기반하여, 영상으로부터, 타겟 객체와 관련된 로봇의 동작 정보를 추출할 수 있다.
나아가, 제어부(150)는 로봇의 동작 정보로서, 서빙을 위하여 다가간 사용자(1000)가, 임무 수행의 대상이 되는 특정 사용자가 맞는지에 대한 정보 및 사용자(1000)를 향하는 로봇의 동작(예를 들어, 로봇의 주행 속도) 중 적어도 하나를 추출할 수 있다.
*한편, 제어부(150)는, 로봇의 동작을 평가하기 위한 정보로서, 로봇의 기본 주행과 관련된 동작 정보를 추출할 수 있다. 로봇의 기본 주행 관련된 동작 정보는, 타겟 객체에 대한 로봇의 동작이 아닌, 공간(10)의 공간 특성을 기준으로 한 로봇의 통상적인 주행과 관련된 동작 정보를 의미할 수 있다.
이때, 제어부(150)는 영상에 포함된 공간 특성 정보를 추출하고, 추출된 공간 특성에 따른 공간에서의 로봇의 기본 주행과 관련된 동작 정보를 추출할 수 있다.
이를 위하여, 제어부(150)는 영상으로부터 공간의 특성 정보를 추출할 수 있다. 공간의 특성 정보는 앞서 도 1 및 도 2에서 살펴본 설명으로 대체하도록 한다. 간략하게 살펴보면, 공간의 특성 정보는, 공간(10)의 정적인 특성에 해당하는 제1 공간 특성 및 공간(10)의 동적인 특성에 해당하는 제2 공간 특성 중 적어도 하나와 관련된 정보를 포함할 수 있다.
예를 들어, 추출되는 제1 공간 특성 정보에 대하여 살펴본다.
제어부(150)는 도 6c의 (a)에 도시된 것과 같이, 영상이 촬영된 공간(10)에 서로 다른 주행로(10a, 10b)가 서로 교차하는 “교차로가 존재” 한다는 공간 특성 정보를 추출할 수 있다.
다른 예로서, 제어부(150)는 도 6c의 (b)에 도시된 것과 같이, 영상이 촬영된 공간(10)에 “코너(10c, 10d)가 존재” 한다는 공간 특성 정보를 추출할 수 있다.
또 다른 예로서, 제어부(150)는 도 도 6c의 (c)에 도시된 것과 같이, 영상이 촬영된 공간(10)에 “좁은 주행로가 존재” 한다는 공간 특성 정보를 추출할 수 있다.
또 다른 예로서, 제어부(150)는 도 도 6c의 (d)에 도시된 것과 같이, 영상이 촬영된 공간(10)에 “출입문(10e)이 존재” 한다는 공간 특성 정보를 추출할 수 있다.
이와 같이, 제어부(150)는, 영상 또는 저장부(120)에 저장된 정보로부터, 공간의 구조 및 공간(10)에 배치된 사물 중 적어도 하나에 의하여 정의되는 정적인 공간 특성 정보를 추출할 수 있다.
나아가, 제어부(150)는, 영상으로부터 추출되는 제2 공간 특성 정보(동적인 공간 특성 정보)를 추출할 수 있다.
예를 들어, 제어부(150)는 도 6d에 도시된 것과 같이, 영상이 촬영된 공간(10)에 위치한 사람(1000a, 1000b, 1000c)과 관련된 공간 특성 정보(또는 동적인 객체와 관련된 공간 특성 정보)를 추출할 수 있다.
보다 구체적으로, 사람과 관련된 공간 특성 정보는, 공간(10)에 위치한 사람의 연령대(어른, 어린이, 학생 등), 성별, 자세, 이동 궤적, 이동 방향, 이동 속도 등에 대한 정보를 포함할 수 있다. 또 다른 예를 들어, 제어부(150)는 영상이 촬영된 공간(10)에 포함된 사람들(1000a, 1000b, 1000c)들의 분포 상태(예를 들어, 일정 거리를 두고 이격하여 위치, 일정 거리 이내로 군집하여 위치) 정보를 영상으로부터 추출할 수 있다.
한편, 공간(10)의 특성에 해당하는 공간 특성 정보는 영상으로부터 추출되는 것뿐만 아니라, 저장부(120)로부터 추출되는 것 또한 가능하다. 공간 특성 정보는, 영상을 촬영한 카메라(20)의 식별정보와 매칭되어 존재할 수 있다. 예를 들어, 제어부(150)는 수신된 영상으로부터 로봇의 기본 주행과 관련된 동작 정보를 추출하고, 저장부(120)로부터 공간 특성 정보를 추출할 수 있다. 이 경우, 공간 특성 정보는, 영상을 촬영한 카메라(20)의 식별 정보 및 위치 정보 중 적어도 하나와 매칭되어 존재할 수 있다. 공간에 배치된 카메라(20)의 화각은 고정되므로, 동일한 영역을 촬영하도록 이루어 질 수 있다. 따라서, 저장부(120)에는, 각각의 카메라(20)의 식별정보와, 각각의 카메라가 촬영하는 영역에 해당하는 공간 특성 정보가 상호 매칭되어, 매칭 정보로서 저장될 수 있다. 한편, 이때, 카메라(20, 또는 카메라의 식별 정보)와 매칭되는 공간 특성 정보는, 정적인 공간 특성에 해당하는 정보일 수 있다. 이 경우, 제어부(150)는 정적인 공간 특성 정보를 저장부(120)로부터 추출하고, 동적인 공간 특성 정보는 카메라(20)가 촬영한 영상으로부터 추출할 수 있다.
그리고, 제어부(150)는 영상으로부터 로봇(R)의 기본 주행과 관련된 동작 정보를 추출할 수 있다.
이때, 제어부(150)는 위에서 살펴본 공간 특성 정보(예를 들어, 공간(10)에 배치된 사물, 사람 등의 배치 등)를 기준으로, 로봇(R)의 기본 주행과 관련된 동작 정보를 추출할 수 있다. 제어부(150)는 위에서 살펴본 특성을 갖는 공간에서의 로봇(R)의 주행 궤적(또는 이동 궤적), 주행 속도, 주행 방향, 회전 방향, 회전 속도, 주행 시작, 주행 정지 및 주행 종료 중 적어도 하나에 대한 동작 정보를 추출할 수 있다.
나아가, 제어부(150)는 영상으로부터 로봇(R)의 자세 또는 전원 상태와 관련된 동작 정보를 추출할 수 있다. 예를 들어, 제어부(150)는 도 6b에 도시된 것과 같이, 영상으로부터, 공간(10)에서 로봇이 어떠한 자세(예를 들어, 도시와 같이, 넘어진 자세)를 취하고 있는지에 대한 정보를 추출할 수 있다.
또한, 제어부(150)는 영상으로부터, 로봇(R)의 전원을 온(ON) 또는 오프(OFF)시키는 동작, 로봇(R)을 대기 상태(standby state)로 구동하는 동작, 로봇(R)을 슬립 모드(sleep mode)로 구동하는 동작 등에 대한 동작 정보를 추출할 수 있다. 한편, 제어부(150)는 위에서 살펴본 로봇(R)의 동작 정보를, 영상뿐만 아니라, 로봇(R)으로부터 수신된 정보에 기반하여 추출하는 것 또한 가능하다. 이 경우, 제어부(150)는 카메라(20)로부터 수신된 영상 및 로봇(R)으로부터 수신되는 정보 중 적어도 하나를 이용하여, 로봇(R)의 동작 정보를 추출할 수 있다.
위에서 살펴본 것과 같이, 영상으로부터 로봇의 동작 정보를 포함하는 평가 대상 정보가 추출되면, 로봇에 할당된 임무와 관련된 로봇의 동작에 대한 평가를 수행하는 과정이 진행된다(S530).
먼저, 제어부(150)는 위에서 추출된 로봇의 동작 정보와 동작 가이드를 포함하는 기준 동작 정보를 비교할 수 있다.
본 발명에서 기준 동작 정보는, 수행하는 임무 및 공간(10)의 특성 중 적어도 하나에 따라 설정된 복수의 동작 가이드를 포함할 수 있다. 저장부(120)에는 임무의 특성 또는 공간(10)의 특성 마다 매칭된 적어도 하나의 동작 가이드를 포함하는 기준 동작 정보를 포함할 수 있다.
한편, 제어부(150)는 동작 가이드를 기준으로, 영상으로부터 동작 가이드와 대응되는 로봇의 임무와 관련된 동작 정보를 추출하고, 추출된 정보를 동작 가이드와 비교할 수 있다. 즉, 위에서 살펴본 평가 대상 정보는, 동작 가이드를 기준으로 결정될 수 있다. 제어부(150)는 로봇의 동작을 평가하기 위하여 어떠한 정보를 추출해야 하는지를 기 설정된 동작 가이드를 기준으로 결정할 수 있다. 이를 통하여, 제어부(150)는, 로봇에 할당된 임무와 관련된 동작 가이드와 로봇이 수행한 동작을 비교할 수 있다.
앞서 살펴본 것과 같이, 동작 가이드는, 로봇(R)의 동작에 대한 기준 또는 가이드가 되는 정보로서, 로봇(R)에게 부여된 임무를 수행하기 위하여, 로봇(R)이 어떻게 동작해야 하는지를 정의한 가이드라고 이해되어 질 수 있다. 저장부(120)에는 이러한 동작 가이드를 포함하는 기준 동작 정보가 포함될 수 있다.
예를 들어, 도 7a에 도시된 것과 같이, 저장부(120)에는 임무를 기준으로 정의된 기준 동작 정보가 포함될 수 있다.
기준 동작 정보는, 임무 수행시 로봇의 주행 및 동작에 대한 가이드를 각각 포함할 수 있다. 예를 들어, 서빙 임무를 수행하는 로봇의 경우, 주행 가이드에 의하면, i)서빙 중 제1 속도 이하로 주행할 것, ii)서빙 종료 후 제2 속도 이하로 주행할 것과 같은 로봇의 주행과 관련된 가이드가 포함될 수 있다. 또 다른 예를 들어, 서빙 임무를 수행하는 로봇에서, 동작 가이드에 의하면, i) 테이블과 1미터 이내로 접근 할 것, ii) 서빙 종료 될때까지 대기, iii) 서빙 종료 후 복귀, iv) 기 설정된 사용자에게 다가가기 등과 같은 로봇의 임무와 관련된 동작 가이드가 포함될 수 있다.
제어부(150)는 이러한 동작 가이드와, 영상으로부터 추출된 로봇의 동작 정보를 비교하여, 로봇이 상기 동작 가이드를 따라 동작하였는지 평가할 수 있다. 제어부(150)는 로봇(R)이 임무를 수행하는 과정에서의 주행 및 임무를 위한 동작에 대한 동작 정보를 이용하여, 로봇이 동작 가이드에 따라 동작했는지를 평가함으로써, 로봇이 임무를 적절하게 수행했는지 판단할 수 있다. 이때, 로봇(R)이 기준 동작 정보에 따라 동작했는지 평가하는 방법은 매우 다양하며, 제어부(150)는 로봇(R)의 동작 정보와 기준 동작 정보(또는 동작 가이드) 간의 유사도에 기반하여, 로봇(R)이 기준 동작 정보에 따라 동작했는지를 판단할 수 있다. 제어부(150)는 로봇(R)의 동작 정보와 기준 동작 정보가의 유사도가 기 설정된 기준을 만족하는 경우, 로봇(R)이 기준 동작 정보에 따라 동작했다고 판단할 수 있다. 그리고, 제어부(150)는 로봇(R)의 동작 정보와 기준 동작 정보가의 유사도가 기 설정된 기준을 만족하지 못하는 경우, 로봇(R)이 기준 동작 정보에 따라 동작하지 않았다고 판단할 수 있다.
다음으로, 로봇의 기본 주행과 관련된 동작을 평가하는 방법에 대하여 살펴본다.
앞서 살펴본 것과 같이, 본 발명에서 기준 동작 정보는, 로봇(R)의 기본 주행과 관련된 동작에 대한 동작 가이드를 더 포함할 수 있다. 기본 주행과 관련된 동작 가이드는, 서로 다른 공간(10)의 특성마다의 특정 상황에서 로봇(R)이 어떻게 주행 또는 동작해야 될지를 정의한 가이드라고 이해되어질 수 있다.
제어부(150)는, 이러한 기준 동작 정보에 포함된 동작 가이드와, 영상으로부터 추출된 로봇의 동작 정보를 비교할 수 있다. 제어부(150)는 로봇에 부여된 임무 및 로봇의 기본 주행 각각에 대하여, 동작 가이드와 비교할 수 있다. 즉, 제어부(150)는 영상으로부터 추출된 로봇의 기본 주행과 관련된 동작 정보와 공간 특성에 따른 동작 가이드를 비교할 수 있다.
제어부(150)는 영상에 포함된 공간(10)의 특성을 기준으로 로봇(R)의 동작에 대한 평가를 수행할 수 있다. 제어부(150)에서 로봇(R)에 대한 평가가 수행되는 시점은 매우 다양할 수 있으므로, 본 발명에서는 이에 대한 구체적인 한정을 하지 않기로 한다.
도 7b 및 도 7c 도시된 것과 같이, 저장부(120)에는 정적인 공간 특성 및 동적인 공간 특성 중 적어도 하나와 관련한 로봇(R)의 동작 가이드를 포함하는 기준 동작 정보가 포함될 수 있다.
제어부(150)는 촬영된 영상에 대응되는 공간(10)의 공간 특성 정보에 따른 기준 동작 정보와, 로봇(R)의 기본 주행과 관련된 동작 정보를 비교하여, 로봇(R)이 기준 동작 정보에 따른 동작 가이드대로 동작하였는지 여부를 판단할 수 있다.
제어부(150)는 영상으로부터 추출된 로봇(R)의 동작 정보와, 영상이 촬영된 공간에 해당하는 공간 특성 정보에 대응되는 기준 동작 정보를 비교하여, 로봇(R)이 수행한 동작에 대한 평가를 수행할 수 있다.
나아가, 기준 동작 정보는, 로봇의 기본 자세에 대한 동작 가이드를 포함할 수 있다. 앞서, 도 6b에서 살펴본 것과 같이, 영상으로부터 촬영된 로봇의 자세와 로봇의 기본 자세에 대한 동작 가이드를 비교할 수 있다. 그리고, 비교 결과를 기반으로 로봇의 동작을 평가할 수 있다.
한편, 제어부(150)는, 로봇(R)의 식별 정보를 이용하여, 로봇(R)이 위치한 공간에 대해, 로봇(R)의 출입 권한이 존재하는지 여부를 판단할 수 있다. 공간(10)에는 로봇 마다의 출입 가능 및 출입 제한 구역이 설정될 수 있다.
공간(10)에서 로봇의 출입이 불가능한 영역은, 로봇에 대해 가상의 벽(virtual wall)을 형성할 수 있다. 따라서, 로봇(R)은, 가상의 벽에 해당하는 특정 공간(출입 제한 공간)에 대한 위치 정보를 기반으로, 상기 특정 공간에 진입하지 않도록 프로그래밍 될 수 있다. 제어부(150)는 저장부(120)에 저장된 가상의 벽에 해당하는 특정 공간(출입 제한 공간)에 대한 공간 특성 정보에 근거하여, 로봇(R)이 상기 특정 공간에 진입하였는지를 판단할 수 있다.
또한, 제어부(150)는 로봇(R)이 위치한 공간이 임무와 관련된 장소인지를 판단할 수 있다. 제어부(150)는, 공간에서 로봇이 위치한 장소를 특정하며, 로봇이 위치한 장소가, 로봇이 수행하는 임무와 관련된 이동 경로 및 목적지 중 어느 하나에 포함되었는지를 판단할 수 있다. 그리고, 제어부(150)는 상기 판단 결과에 따라 로봇의 동작을 평가할 수 있다. 예를 들어, 제어부(150)는 로봇이 위치한 장소가, 상기 이동 경로 및 상기 목적지를 벗어난 경우, 로봇이 임무를 정확하게 수행하지 못했다고 판단할 수 있다. 그리고, 제어부(150)는 로봇이 위치한 장소가, 상기 이동 경로 및 상기 목적지를 벗어나지 않은 경우, 로봇이 임무를 정확하게 수행했다고 판단할 수 있다.
한편, 제어부(150)는, 판단 결과, 로봇이 위치한 장소가, 상기 이동 경로 및 상기 목적지를 벗어난 경우, 상기 로봇이 위치한 장소와 관련된 메시지를 생성할 수 있다. 제어부(150)는 로봇에 대한 제어 권한이 존재하는 관리자(또는 사용자)의 전자기기로 상기 메시지를 전송할 수 있다.
이와 같이, 제어부(150)는 특정 공간에 배치된 카메라(20)로부터 수신되는 영상에서, 로봇(R)을 인식하고, 인식된 로봇(R)에 대한 동작을 평가할 수 있다.
이와 같이, 로봇(R)의 동작에 대한 평가가 수행되면, 본 발명에서는, 수행한 평가에 대한 평가 데이터(또는 평가 정보)를 로봇(R)의 식별정보와 매칭하여 저장하는 과정이 진행될 수 있다(S540).
평가 데이터(또는 평가 결과 정보)는, 도 8에 도시된 것과 같이, 로봇(R)의 임무 및 기본 주행 중 적어도 하나에 대한 평가 결과 정보를 포함할 수 있다.
보다 구체적으로, 도 8에 도시된 것과 같이, 평가 결과 정보는, 로봇이 수행한 임무에 대한 임무 정보, 상기 로봇이 수행한 임무에 대한 평가 결과 및 상기 특정된 로봇의 식별 정보가 상호 매칭되어 존재할 수 있다.
제어부(150)에 의해 로봇의 동작이 평가되는 경우, 평가의 결과에 해당하는 평가 결과 정보는 저장부(120)에 저장될 수 있다. 제어부(150)는 평가 결과 정보를 로봇(R)의 식별 정보와 매칭하여, 저장부(120) 상에 저장시킬 수 있다. 따라서, 저장부(120)에는 로봇(R) 각각에 대한 평가 결과 정보가 존재할 수 있다.
보다 구체적으로, 제어부(150)는 평가 결과에 기반하여, 로봇의 동작 타입(type)을 결정하도록 이루어질 수 있다. 로봇(R)의 동작 타입은 복수의 동작 타입(type)을 포함할 수 있다. 예를 들어, 로봇(R)의 동작 타입은 제1 동작 타입 및 제2 동작 타입을 포함할 수 있다. 비교 결과, 상기 로봇(R)이 상기 기준 동작 정보에 따라 동작한 경우, 상기 로봇(R)의 동작 타입은 제1 동작 타입(예를 들어, “GOOD” 동작 타입, 도 8 참조)으로 결정되고, 상기 로봇이 상기 기준 동작 정보에 따라 동작하지 않은 경우, 상기 로봇(R)의 동작 타입은 제2 동작 타입(예를 들어, “BAD” 동작 타입, 도 8 참조)으로 결정될 수 있다. 도시와 같이, 제어부(150)는 임무 및 기본 주행에 대해 각각 평가(도 8의 임무 평가 및 주행 평가 참조)를 수행할 수 있다.
그리고, 제어부(150)는, 도 8에 도시된 것과 같이, 로봇(R)이 상기 제1 동작 타입에 따라 동작한 경우, 상기 로봇의 식별 정보와 상기 제1 타입의 평가 정보를 매칭할 수 있다. 그리고, 제어부(150)는, 로봇(R)이 상기 제2 동작 타입에 따라 동작한 경우, 상기 로봇의 식별 정보와 상기 제2 타입의 평가 정보가 매칭할 수 있다.
도 8에 도시된 것과 같이, 제어부(150)는 로봇의 식별 정보, 로봇이 수행한 동작, 수행한 동작에 대한 동작 타입을 상호 매칭하여 저장할 수 있다. 이러한 매칭 정보는, 각각의 로봇(R)에도 공유될 수 있다.
한편, 제어부(150)는, 특정 로봇(R)에서, 특정 동작에 대해 제1 동작 타입의 횟수가 우세한 경우, 특정 로봇(R)에 사전에 프로그래밍 된 동작 정보에 대해 리워드(reward)를 부여할 수 있다. 이 경우, 특정 로봇(R)은 사전에 프로그래밍 대로 계속하여 특정 동작을 수행할 수 있다. 즉, 이 경우, 특정 로봇(R)은 특정 동작에 대한 강화 학습이 이루어질 수 있다.
나아가, 제어부(150)는, 특정 로봇(R)에서, 특정 동작에 대해 제2 동작 타입의 횟수가 우세한 경우, 특정 로봇(R)에 사전에 프로그래밍 된 동작 정보에 대해 패널티(penalty)를 부여할 수 있다. 이 경우, 특정 로봇(R)은 사전에 프로그래밍된 동작과 멀어지도록 특정 동작을 수행할 수 있다. 즉, 이 경우, 특정 로봇(R)은 특정 동작에 대한 회피 학습이 이루어질 수 있다. 위에서 살펴본 특정 동작은, 임무 및 기본 주행 중 어느 하나와 관련된 동작일 수 있다.
한편, 본 발명에서는 특정 로봇(R) 자체에서, 평가 결과 정보에 기반하여, 강화 학습 또는 회피 학습을 수행하는 것 또한 가능하다.
이상에서 살펴본 것과 같이, 본 발명에 따른 로봇 평가 방법 및 시스템에서는, 로봇의 임무 및 기본 주행과 관련된 동작 정보를 기준으로, 로봇의 동작에 대한 평가를 수행할 수 있다. 그리고, 로봇에 대한 평가 결과를 기반으로, 로봇의 동작 또는 로봇이 주행한 공간에 대한 개선을 통하여, 로봇의 동작에 대한 최적화를 수행할 수 있다.
보다 구체적으로, 제어부(150)는, 로봇의 식별 정보와, 로봇에 대한 평가 결과 정보가 매칭된 매칭 정보를 분석하고, 분석 결과에 기반하여, 상기 로봇에 대한 점검 이벤트를 생성할 수 있다.
제어부(150)는, 분석 결과, 로봇의 식별 정보에 제2 타입의 평가 정보(예를 들어, “BAD” 동작 타입의 평가 정보)가 매칭된 횟수가 기준 횟수 이상인 경우, 해당 로봇에 대한 점검 이벤트를 생성할 수 있다. 이와 다르게, 제어부(150)는, 분석 결과, 로봇의 식별 정보에 제1 타입의 평가 정보(예를 들어, “GOOD” 동작 타입의 평가 정보)가 매칭된 횟수와, 제2 타입의 평가 정보(예를 들어, “BAD” 동작 타입의 평가 정보)가 매칭된 횟수의 비율이 기준 비율 이상인 경우, 상기 점검 이벤트를 생성할 수 있다.
나아가, 제어부(150)는 평가 결과에 기반하여, 도 8에 도시된 것과 같이, 로봇이 임무를 수행함에 있어서 실패하거나, 기본 주행 동작에 문제가 발생한 경우, 실패한 임무 각각에 해당하는 점검 이벤트를 생성할 수 있다.
이와 같이, 제어부(150)는 특정 로봇이 수행된 임무 및 기본 주행 동작 마다의 평가 정보를 모두 종합하여, 점검 이벤트를 생성할 수 있다.
한편, 점검 이벤트는 로봇(R)에 대한 점검이 필요함을 알리는 이벤트를 의미할 수 있다. 이러한 점검 이벤트가 발생되면, 제어부(150)는 로봇에 대한 제어 권한이 존재하는 관리자(또는 사용자)의 전자기기 또는 도 2에서 살펴본 관제실(100a)의 디스플레이부에 점검 이벤트와 관련된 정보(예를 들어, 메시지)를 출력시킬 수 있다. 점검 이벤트는, 실패한 임무와 관련된 정보(예를 들어, 임무 수행 실패 날짜, 실패 관련 동작(예를 들어, 테이블 접근 오류), 예상되는 문제(예를 들어, 하드웨어 이상)) 또는 이상이 발생한 기본 주행에 대한 정보 중 적어도 하나를 포함할 수 있다.
나아가, 점검 이벤트는 특정 동작(예를 들어, “동작 2에 대한 오류횟수 초과”) 및 특정 공간(예를 들어, “구역 1에서 동작 1에 대한 오류 발생”) 중 적어도 하나와 관련된 정보를 포함할 수 있다.
한편, 제어부(150)는 로봇에 대해 영상을 수신한 카메라에 대응되는 공간(도 10의 구역 정보 참조)를 기준으로 점검 이벤트를 생성할 수 있다. 즉, 특정 공간에서, 오류 횟수가 빈번한 경우, 특정 구역에서의 로봇(R)의 동작에 대한 재정의가 필요할 수 있기 때문이다.
도시와 같이, 제어부(150)는 공간을 기준으로, 공간에서 수행되는 동작들에 대한 평가 결과 정보를 분석할 수 있다. 그리고 제어부(150)는, 이러한 평가 결과 정보를 분석한 결과를 이용하여, 로봇 및 공간 중 적어도 하나와 관련된 상태 정보를 생성할 수 있다. 제어부(150)는 i) 특정 공간에 대한 로봇의 동작 가이드 재정, ii) 특정 구역에서 특정 동작에 대한 로봇의 동작 가이드 재정의, iii)특정 로봇에 대한 동작 상태 점검 등과 관련된 상태 정보를 생성할 수 있다. 그리고, 제어부(150)는 이러한 상태 정보에 기반하여, 로봇 및 공간 중 적어도 하나에 대한 점검 이벤트를 생성할 수 있다.
나아가, 제어부(150)는, 평가 결과 정보를 이용하여, 로봇(R)의 동작의 기준이 되는 기준 동작 정보를 업그레이드(또는 업데이트)할 수 있다. 제어부(150)는 평가 정보를 기준으로, 로봇(R)이 제2 동작 타입으로 동작하는 원인을 분석하고, 분석한 원인에 근거하여 로봇의 동작을 개선할 수 있다. 그리고 제어부(150)는 개선된 정보를 기반으로, 종래의 기준 동작 정보를 업데이트할 수 있다. 이 경우, 제어부(150)는 딥러닝 기법을 이용하여, 로봇의 동작에 대한 학습을 통해, 로봇의 동작에 대한 개선을 수행할 수 있다.
위에서 살펴본 것과 같이, 본 발명에 따른 로봇 평가 방법 및 시스템에 의하면, 공간에 배치된 카메라를 이용하여 임무를 수행하는 로봇의 동작을 모니터링하고, 이를 이용하여 로봇이 수행하는 임무와 관련된 로봇의 동작을 평가할 수 있다. 이와 같이, 본 발명에 의하면, 임무를 수행하는 로봇의 동작을 평가하기 위하여 로봇에 대해 직접적으로 접근하거나, 로봇에 별도의 모니터링 장치를 구비하지 않더라도, 임무를 수행하는 로봇의 동작을 평가할 수 있다.
나아가, 본 발명에 따른 로봇 평가 방법 및 시스템에 의하면, 로봇이 수행하는 임무의 특성에 근거하여, 로봇의 동작에 대한 평가를 수행할 수 있다. 이러한 방법에 의하면, 로봇에 주어진 임무를 수행하기 위하여 로봇이 적절하게 동작하고 있는지를 평가할 수 있다.
나아가, 본 발명에 따른 로봇 평가 방법 및 시스템에 의하면, 로봇에 대한 평가 결과를, 로봇에 발생한 문제를 파악하거나, 로봇에 부여된 임무와 관련된 동작 가이드에 대한 문제를 파악하는데 활용할 수 있다. 이와 같이, 로봇에 대한 평가 결과는 로봇에 대한 직접적인 개선 또는 로봇에 부여된 임무와 관련된 동작 가이드 대한 개선에 반영될 수 있다. 따라서, 본 발명에 따른 로봇 평가 방법 및 시스템에 의하면, 평가 결과를 기반으로 한 학습을 통해, 로봇의 동작 또는 임무와 관련된 동작 가이드를 계속적으로 개선시킬 수 있으며, 로봇을 운용하는 횟수가 늘어날수록 로봇이 임무를 보다 정확하고 안정적으로 수행할 수 있는 로봇 제어 환경을 제공할 수 있다.
한편, 위에서 살펴본 본 발명은, 컴퓨터에서 하나 이상의 프로세스에 의하여 실행되며, 이러한 컴퓨터로 판독될 수 있는 매체에 저장 가능한 프로그램으로서 구현될 수 있다.
나아가, 위에서 살펴본 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드 또는 명령어로서 구현하는 것이 가능하다. 즉, 본 발명은 프로그램의 형태로 제공될 수 있다.
한편, 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다.
나아가, 컴퓨터가 읽을 수 있는 매체는, 저장소를 포함하며 전자기기가 통신을 통하여 접근할 수 있는 서버 또는 클라우드 저장소일 수 있다. 이 경우, 컴퓨터는 유선 또는 무선 통신을 통하여, 서버 또는 클라우드 저장소로부터 본 발명에 따른 프로그램을 다운로드 받을 수 있다.
나아가, 본 발명에서는 위에서 설명한 컴퓨터는 프로세서, 즉 CPU(Central Processing Unit, 중앙처리장치)가 탑재된 전자기기로서, 그 종류에 대하여 특별한 한정을 두지 않는다.
한편, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (10)

  1. 클라우드 서버를 이용하여 로봇에 대한 평가를 수행하는 건물에 있어서,
    상기 건물은,
    상기 로봇이 주행하는 실내 영역; 및
    상기 실내 영역에 배치되는 복수의 카메라를 포함하고,
    상기 클라우드 서버는,
    상기 실내 영역에 배치된 카메라를 이용하여, 상기 실내 영역에서 특정 로봇이 수행한 동작을 센싱하고,
    상기 특정 로봇에 할당된 임무와 관련된 동작 가이드를 기준으로, 상기 특정 로봇이 상기 임무와 관련하여 수행한 동작에 대한 평가를 수행하며,
    상기 수행된 평가에 따른 평가 결과 정보를, 상기 특정 로봇의 식별정보와 매칭하여 저장하는 것을 특징으로 하는 건물.
  2. 제1항에 있어서,
    상기 동작 가이드는,
    상기 임무의 수행 대상이 되는 타겟 객체에 대한 상기 특정 로봇의 접근 속도 및 접근 거리 중 적어도 하나와 관련된 주행 정보를 포함하는 것을 특징으로 하는 건물.
  3. 제2항에 있어서,
    상기 클라우드 서버는,
    상기 카메라로부터 수신되는 영상에서, 상기 타겟 객체를 인식하고,
    상기 타겟 객체에 대하여 상기 특정 로봇이 상기 동작 가이드를 따라 동작했는지를 평가하는 것을 특징으로 하는 건물.
  4. 제3항에 있어서,
    상기 클라우드 서버는,
    상기 임무에 매칭된 타겟 정보로부터, 상기 타겟 객체에 대응되는 얼굴 이미지를 추출하고,
    상기 영상으로부터 상기 얼굴 이미지에 대응되는 상기 타겟 객체를 인식하는 것을 특징으로 하는 건물.
  5. 제3항에 있어서,
    상기 클라우드 서버는,
    상기 임무에 매칭된 타겟 정보로부터, 상기 타겟 객체의 형상 정보를 추출하고,
    상기 영상으로부터 상기 형상 정보에 대응되는 사물을 상기 타겟 객체로서 인식하는 것을 특징으로 하는 건물.
  6. 제1항에 있어서,
    상기 클라우드 서버는,
    상기 임무와 관련된 동작 가이드와 상기 특정 로봇이 수행한 동작을 비교하여, 상기 특정 로봇이 상기 임무와 관련된 동작 가이드에 따라 동작하였는지에 대한 평가를 수행하고,
    상기 평가 결과 정보는,
    상기 특정 로봇이 상기 임무와 관련된 동작 가이드에 따라 동작하였는지 여부에 따라 서로 다른 임무 수행 결과를 포함하는 것을 특징으로 하는 건물.
  7. 제6항에 있어서,
    상기 평가 결과 정보는,
    상기 특정 로봇이 수행한 임무에 대한 임무 정보, 상기 특정 로봇이 수행한 임무에 대한 평가 결과 및 상기 특정 로봇의 식별 정보가 상호 매칭되어 존재하며,
    상기 평가 결과 정보는,
    상기 특정 로봇이 상기 동작 가이드에 따라 동작한 경우, 제1 동작 타입의 평가 결과를 포함하고,
    상기 특정 로봇이 상기 동작 가이드에 따라 동작하지 않은 경우, 제2 동작 타입의 평가 결과를 포함하는 것을 특징으로 하는 건물.
  8. 제7항에 있어서,
    상기 클라우드 서버는,
    상기 임무에 대한 상기 특정 로봇의 동작이, 상기 제2 동작 타입의 평가 결과를 갖는 것으로 평가된 횟수가 기 설정된 조건을 만족하는 경우, 상기 특정 로봇에 대한 점검 이벤트를 생성하는 것을 특징으로 하는 건물.
  9. 제1항에 있어서,
    상기 동작 가이드는,
    상기 임무와 관련된 상기 특정 로봇의 이동 경로 및 목적지 중 적어도 하나가 포함된 장소 정보를 포함하고,
    상기 클라우드 서버는,
    상기 실내 영역에서 상기 특정 로봇이 위치한 장소를 특정하며,
    상기 특정 로봇이 위치한 장소가, 상기 이동 경로 및 상기 목적지 중 어느 하나에 포함되었는지를 판단하여, 상기 판단 결과를 상기 평가에 이용하는 것을 특징으로 하는 건물.
  10. 제9항에 있어서,
    판단 결과, 상기 특정 로봇이 위치한 장소가, 상기 이동 경로 및 상기 목적지를 벗어난 경우, 상기 특정 로봇이 위치한 장소와 관련된 메시지를 생성하는 것을 특징으로 하는 건물.
KR1020210082284A 2020-08-27 2021-06-24 실내 공간을 주행하는 로봇의 동작을 평가하는 건물 KR102462635B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210082284A KR102462635B1 (ko) 2020-08-27 2021-06-24 실내 공간을 주행하는 로봇의 동작을 평가하는 건물

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200108502A KR102390127B1 (ko) 2020-08-27 2020-08-27 로봇 평가 방법 및 시스템
KR1020210082284A KR102462635B1 (ko) 2020-08-27 2021-06-24 실내 공간을 주행하는 로봇의 동작을 평가하는 건물

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200108502A Division KR102390127B1 (ko) 2020-08-27 2020-08-27 로봇 평가 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20220027745A true KR20220027745A (ko) 2022-03-08
KR102462635B1 KR102462635B1 (ko) 2022-11-03

Family

ID=80812442

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200108502A KR102390127B1 (ko) 2020-08-27 2020-08-27 로봇 평가 방법 및 시스템
KR1020210082284A KR102462635B1 (ko) 2020-08-27 2021-06-24 실내 공간을 주행하는 로봇의 동작을 평가하는 건물

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020200108502A KR102390127B1 (ko) 2020-08-27 2020-08-27 로봇 평가 방법 및 시스템

Country Status (1)

Country Link
KR (2) KR102390127B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005212023A (ja) * 2004-01-29 2005-08-11 Mitsubishi Heavy Ind Ltd ロボットシステム
KR20160107833A (ko) * 2015-03-05 2016-09-19 국방과학연구소 복수의 무인로봇들에 다중임무를 부여하고, 부여된 임무에 근거하여 무인로봇들을 운용하는 시스템의 무인로봇 운용 방법
KR20180040255A (ko) * 2016-10-12 2018-04-20 엘지전자 주식회사 공항 로봇

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101480774B1 (ko) * 2013-09-30 2015-01-13 전자부품연구원 Cctv를 이용한 이동로봇의 위치 인식 장치 및 방법
KR102631147B1 (ko) * 2016-10-07 2024-01-31 엘지전자 주식회사 공항용 로봇 및 그의 동작 방법
KR102613624B1 (ko) * 2016-10-10 2023-12-15 엘지전자 주식회사 공항용 청소 로봇 및 그의 동작 방법
KR101907548B1 (ko) * 2016-12-23 2018-10-12 한국과학기술연구원 휴먼 추종을 위한 이동로봇의 주행 및 탐색방법
KR20190104486A (ko) * 2019-08-21 2019-09-10 엘지전자 주식회사 행동 방향성 인식기반 서비스 요구자 식별 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005212023A (ja) * 2004-01-29 2005-08-11 Mitsubishi Heavy Ind Ltd ロボットシステム
KR20160107833A (ko) * 2015-03-05 2016-09-19 국방과학연구소 복수의 무인로봇들에 다중임무를 부여하고, 부여된 임무에 근거하여 무인로봇들을 운용하는 시스템의 무인로봇 운용 방법
KR20180040255A (ko) * 2016-10-12 2018-04-20 엘지전자 주식회사 공항 로봇

Also Published As

Publication number Publication date
KR102390127B1 (ko) 2022-04-25
KR102462635B1 (ko) 2022-11-03
KR20220027529A (ko) 2022-03-08

Similar Documents

Publication Publication Date Title
JP6949835B2 (ja) 半自律的モバイルロボットのナビゲーティング
KR102370873B1 (ko) 로봇 원격 제어 방법 및 시스템
KR102671223B1 (ko) 맵 생성 방법, 이를 이용한 로봇 원격 제어 방법 및 시스템
KR102339002B1 (ko) 로봇 관제 방법 및 시스템
KR102462636B1 (ko) 클라우드 서버 및 로봇 원격 제어 시스템에 의해 원격 제어되는 로봇이 주행하는 건물
KR102494841B1 (ko) 배송 임무를 수행하는 다수의 로봇을 이용하여 배송 서비스를 제공하는 건물
KR102489722B1 (ko) 엘리베이터의 최적 대기 위치에 탑승하는 로봇이 주행하는 건물
KR102315361B1 (ko) 실내 공간을 주행하는 로봇의 동작을 평가하는 건물
KR102462634B1 (ko) 공간을 주행하는 로봇을 관제하는 건물, 로봇 관제 방법 및 시스템
KR102462635B1 (ko) 실내 공간을 주행하는 로봇의 동작을 평가하는 건물
Mishra et al. IoT impact and challenges on robotic waiters in automation of restaurants and hotels
US12072701B2 (en) Control method and system for robot
KR102489723B1 (ko) 로봇 원격 제어 방법 및 시스템
KR20220131060A (ko) 로봇 원격 제어 방법 및 시스템
KR102355262B1 (ko) 실내 공간을 주행하는 로봇을 모니터링하는 건물
KR20220131131A (ko) 장애물에 유연하게 대처하는 로봇이 주행하는 건물

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant