WO2024071453A1 - 안내 로봇 및 안내 로봇의 동작방법 - Google Patents

안내 로봇 및 안내 로봇의 동작방법 Download PDF

Info

Publication number
WO2024071453A1
WO2024071453A1 PCT/KR2022/014317 KR2022014317W WO2024071453A1 WO 2024071453 A1 WO2024071453 A1 WO 2024071453A1 KR 2022014317 W KR2022014317 W KR 2022014317W WO 2024071453 A1 WO2024071453 A1 WO 2024071453A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch screen
task
screen
information
robot
Prior art date
Application number
PCT/KR2022/014317
Other languages
English (en)
French (fr)
Inventor
박미현
이수진
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2022/014317 priority Critical patent/WO2024071453A1/ko
Publication of WO2024071453A1 publication Critical patent/WO2024071453A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls

Abstract

안내 로봇 및 그것의 동작방법이 개시된다. 본 개시에 따른 안내 로봇은, 전면 디스플레이의 사용중에 후면 디스플레이에 대한 사용 요청이 있는 경우, 제한적으로 사용을 허용하여 사용 요청에 대응되는 화면을 제공할 수 있다. 이때, 제한된 사용범위는 전면 디스플레이의 사용 상태에 따라 다르게 결정될 수 있다. 그에 따라, 양면 디스플레이를 보다 효율적으로 활용하여 안내 로봇의 사용성이 확대된다.

Description

안내 로봇 및 안내 로봇의 동작방법
본 발명은 안내 로봇 및 안내 로봇의 동작방법으로서, 보다 구체적으로는 바디 양면 각각에 터치 스크린을 구비한 안내 로봇 및 안내 로봇의 동작방법에 관한 것이다.
최근, 사용자에게 다양한 안내 서비스를 제공하는 안내 로봇에 대한 관심이 꾸준히 증가하고 있다. 안내 로봇은 사용자의 조작 없이도 자율적으로 주행하면서 예를 들어 음성 대화 기능 또는 터치 스크린을 통한 인터랙션 기능을 통해 사용자에게 다양한 안내 서비스를 제공한다.
이러한, 안내 로봇은 장착된 디스플레이를 이용하여 사이니지 광고 기능을 수행할 수 있으며, 보다 광고 효과를 높이기 위해 일정 공간을 주행하면서 사이니지 광고 기능을 수행할 수 있다.
한편, 광고 효과를 더욱 높이기 위해 양면에 디스플레이를 장착한 안내 로봇이 개발되고 있다. 그러나, 실제로는 다음과 같은 상황들로 인해 양면 디스플레이가 아닌 한면(예, 전면 디스플레이) 디스플레이만 정상적으로 운용된다.
구체적으로, 하나의 이유는 로봇의 움직임으로 인한 제약인데, 어느 한쪽의 사용자가 디스플레이를 이용하여 로봇의 움직임을 제어하는 경우(예, 길안내, 사진촬영 등) 다른 쪽의 사용자는 갑작스런 로봇의 움직임에 놀라거나 로봇의 움직임으로 인해 사용이 제한된다. 또 다른 이유로는, 전후면 디스플레이를 동시에 사용할 경우, 사용에 따른 가이드에 대한 내용이 중복 또는 중첩되어 사용자의 혼란을 야기할 수 있다.
사용자는 안내 로봇에 양면 디스플레이가 있으면 모두 동작하는 것으로 이해한다. 그러나, 현재는 전술한 제약 및 상황으로 인해, 예를 들어 전면 디스플레이를 사용하는 동안 후면 디스플레이를 터치하는 경우, 후면 디스플레이에 대한 요청을 무시하기 때문에 아무런 화면 변화가 없다. 그에 따라, 후면 디스플레이를 사용하려는 사용자는 무엇을 해야할지 모르는 상황에 놓이고, 양면 디스플레이의 사용성 또한 크게 저하된다.
이에, 더 많은 사용자에게 안내 로봇의 경험을 제공하고 양면 디스플레이의 사용성 확대를 위한 개발이 필요하다.
이에, 본 개시의 일부 실시 예에 따르면, 양면 디스플레이를 구비한 안내 로봇에서 어느 한쪽의 디스플레이가 사용중인 상황에서도 다른 한쪽의 디스플레이를이용할 수 있는 안내 로봇 및 안내 로봇의 동작방법을 제공하는데 그 목적이 있다.
또한, 본 개시의 일부 실시 예에 따르면, 양면 디스플레이를 구비한 안내 로봇에서 어느 한쪽의 디스플레이가 사용중인 상황에서 다른 한쪽의 디스플레이에 대한 사용 요청이 있으면, 안전을 위해 안내 로봇의 움직임을 제한할 수 있는 안내 로봇 및 안내 로봇의 동작방법을 제공하는데 그 목적이 있다.
또한, 본 개시의 일부 실시 예에 따르면, 양면 디스플레이를 구비한 안내 로봇에서 어느 한쪽의 디스플레이의 사용중 다른 한쪽의 디스플레이에 대한 사용 요청이 있음을 사용자에게 제공하고, 어느 한쪽의 디스플레이에 대한 사용 의사가 종료되면 나머지 한쪽의 디스플레이에 대한 사용 제한이 모두 해제될 수 있는 안내 로봇 및 안내 로봇의 동작방법을 제공하는데 그 목적이 있다.
또한, 본 개시의 일부 실시 예에 따르면, 양면 디스플레이를 통해 요청받은 복수의 작업들이 동시에 또는 독립적으로 수행될 수 없는 상황에서도 보다 효율적으로 복수의 작업들을 처리할 수 있는 방법을 제공할 수 있는 안내 로봇의 동작방법을 제공하는데 그 목적이 있다.
본 개시에 따른 안내 로봇은, 전면 디스플레이의 사용중에 후면 디스플레이에 대한 사용 요청이 있는 경우, 제한적으로 사용을 허용하여 사용 요청에 대응되는 화면을 제공할 수 있다. 이때, 제한된 사용범위는 전면 디스플레이의 사용 상태에 따라 다르게 결정될 수 있다.
구체적으로, 본 발명의 실시 예에 따른 안내 로봇은, 상기 안내 로봇을 이동시키는 주행부; 상기 안내 로봇의 바디 전면과 바디 후면에 구비된 제1 터치스크린 및 제2 터치 스크린을 포함하는 디스플레이부; 및 상기 디스플레이부와 전기적으로 연결되어, 상기 제1 터치스크린의 사용에 따른 제1 작업에 대응되는 제1화면정보를 상기 제1 터치스크린에 출력하는 프로세서를 포함한다. 또한, 상기 프로세서는, 상기 제1 터치스크린에 상기 제1화면정보가 디스플레이되는 동안 상기 제2 터치스크린에 대한 사용 요청을 인식하고, 상기 제1 작업의 상태에 기초하여 상기 제2 터치스크린에 대한 사용 요청에 대응되는 제2 화면정보를 결정하여 상기 제2 터치스크린에 출력할 수 있다.
실시 예에서, 상기 제2 터치스크린에 대한 사용 요청의 인식은, 상기 제2 터치스크린에 기설정된 화면정보가 디스플레이되는 동안, 근접 센서를 통한 상기 제2 터치스크린에의 사용자 감지 및 상기 제2 터치스크린에 가해진 터치입력을 기초로 수행될 수 있다.
실시 예에서, 상기 제1작업이 실행 상태이면, 상기 제2 터치스크린에 대한 사용 요청에 응답하여 읽기 전용의 메뉴 화면이 상기 제2화면정보로 결정될 수 있다.
실시 예에서, 상기 프로세서는, 상기 제1작업의 상태에 따라 상기 제2 터치스크린에 대한 사용 요청에 대응되는 기능을 실행할 수 없음이 결정된 것에 응답하여, 상기 요청한 기능을 실행할 수 없음을 안내하는 정보를 상기 제2 터치 스크린에 출력할 수 있다.
실시 예에서, 상기 프로세서는, 상기 제1 작업에 상기 안내 로봇의 주행 기능이 포함된 경우, 상기 제2 화면정보에 상기 주행 기능의 실행과 관련된 안내 정보를 포함하여 상기 제2 터치스크린에 출력할 수 있다.
실시 예에서, 상기 프로세서는, 상기 제2 터치스크린에 상기 제2 화면정보가 디스플레이되는 동안 상기 제1 터치스크린의 사용 의사 없음이 인지된 것에 응답하여, 상기 제1 화면정보를 기설정된 화면정보로 전환하고, 상기 제2 터치스크린의 사용에 따른 제2 작업에 대응되는 제3화면정보를 출력할 수 있다.
실시 예에서, 상기 프로세서는, 상기 제1작업에 대응되는 제1화면정보가 디스플레이되는 동안 상기 제2 터치스크린의 사용에 따른 제2작업의 요청을 인식하고, 상기 제1작업의 상태에 기초하여 상기 제2작업의 실행 여부를 결정하고, 상기 제2작업에 기초하여 상기 제1 작업의 실행 상태를 변경할 수 있다.
실시 예에서, 상기 프로세서는, 상기 제1작업에 상기 안내 로봇의 주행 기능이 포함된 경우, 상기 제2작업에 기초하여 상기 주행 기능을 중단한 상태에서 상기 제1작업을 실행할 수 있다.
실시 예에서, 상기 프로세서는, 상기 제1 및 제2 작업이 동시에 실행될 수 없는 기능을 포함하는 경우, 작업의 실행 우선순위를 결정할 때까지 상기 제1 및 제2 작업의 실행을 지연시킬 수 있다.
실시 예에서, 상기 프로세서는, 상기 제2 터치스크린에 대한 사용 요청에 대응되는 알림 정보를 상기 제1 터치스크린의 일 영역에 표시하고, 상기 알림 정보는 상기 제2 터치스크린의 사용 상태에 따라 가변될 수 있다.
실시 예에서, 상기 프로세서는, 상기 제1 및 제2 작업에 대한 작업 요청 시간에 기초하여 상기 제1 및 제2 작업의 실행 우선순위를 결정하고, 상기 결정에 따른 실행 우선순위를 포함한 작업 처리 정보를 상기 제1 및 제2 터치스크린에 출력하고, 상기 작업 처리 정보에 기초하여 안내 로봇의 동작을 수행할 수 있다.
실시 예에서, 상기 프로세서는, 상기 제1 및 제2 작업의 실행이 지연되는 동안 또는 상기 작업 처리 정보에 기초하여 동작을 수행하는 동안, 상기 제1 및 제2 터치스크린 중 어느 하나에 대한 사용 의사 없음이 감지된 것에 응답하여 다른 하나에 대한 작업을 이어서 실행할 수 있다.
실시 예에서, 상기 프로세서는, 상기 제1 및 제2 작업에 공통 작업 부분이 포함된 경우 상기 공통 작업을 포함한 작업 처리 정보를 상기 제1 및 제2 터치스크린에 출력하고, 상기 공통 작업에 따른 안내 로봇의 동작을 수행하는 동안 나머지 부분 작업에 대한 정보를 각각의 터치 스크린에 제공할 수 있다.
실시 예에서, 상기 프로세서는, 기설정된 조건에 해당하면 상기 제1 및 제2 작업의 실행 우선순위를 변경하고, 상기 변경에 따라 이전 작업의 실행을 일시 중단하고, 상기 제1 및 제2 터치스크린 중 작업이 중단된 하나에 상기 실행 우선순위의 변경 및 다음 동작과 관련된 안내 정보를 출력할 수 있다.
실시 예에서, 상기 기설정된 조건은, 작업의 예상 완료 시간, 작업에 주행 기능의 포함 여부, 및 긴급을 요하는 작업인지 여부와 관련될 수 있다.
또한, 본 발명의 실시 예에 따른 안내 로봇의 동작방법은, 안내 로봇의 바디 전면과 바디 후면에 구비된 제1 터치스크린 및 제2 터치 스크린 각각에 서로 다른 화면을 디스플레이하는 단계; 상기 제1 터치스크린의 사용에 따른 제1 작업에 대응되는 제1화면정보를 상기 제1 터치스크린에 출력하는 단계; 상기 제1 터치스크린에 상기 제1화면정보가 디스플레이되는 동안 상기 제2 터치스크린에 대한 사용 요청을 인식하는 단계; 및 상기 제1 작업의 상태에 기초하여 상기 제2 터치스크린에 대한 사용 요청에 대응되는 제2 화면정보를 결정하여 상기 제2 터치스크린에 출력하는 단계를 포함할 수 있다.
본 발명의 일부 실시 예에 따른 안내 로봇 및 그것의 동작방법에 의하면, 전면 디스플레이의 사용중에 후면 디스플레이에 대한 사용 요청이 있는 경우, 사용 요청을 무시하지 않고, 읽기 모드 등의 제한적 사용을 허용함으로써, 양면 디스플레이를 보다 효율적으로 활용하여 사용성이 확대된다.
또한, 본 발명의 일부 실시 예에 따른 안내 로봇 및 그것의 동작방법에 의하면, 전면 디스플레이의 사용에 주행 기능이 포함된 경우 후면 디스플레이의 사용자에게 이를 알리거나 또는 주행 기능을 일시적으로 제한함으로서, 양면 디스플레이의 사용자가 모두 안전하게 안내 로봇을 이용할 수 있다.
또한, 본 발명의 일부 실시 예에 따른 안내 로봇 및 그것의 동작방법에 의하면, 양면 디스플레이의 각 사용자는 반대쪽 디스플레이의 사용 여부 및 사용 상태를 확인할 수 있고, 어느 디스플레이에서든 반대쪽 디스플레이의 사용 의사가 없음이 확인되면 제한없이 디스플레이를 사용할 수 있도록 구현함으로써, 서로 다른 사용자에 의한 양면 디스플레이의 사용성 확대를 보다 극대화시킬 수 있다.
또한, 본 발명의 일부 실시 예에 따른 안내 로봇 및 그것의 동작방법에 의하면, 양면 디스플레이를 통해 요청받은 복수의 작업들이 동시에 또는 독립적으로 수행될 수 없는 상황에서, 작업의 요청순서, 공통 작업 부분의 검출, 작업의 예상완료 시간 등의 기준을 기초로 보다 효율적으로 복수의 작업들을 처리함으로서, 서로 다른 사용자의 사용 경험 및 사용 만족을 크게 향상시킬 수 있다.
도 1은 본 발명과 관련된 안내 로봇의 예시를 보여주는 도면이다.
도 2 본 발명과 관련된 안내 로봇의 예시 구성을 보인 블록도이다.
도 3은 본 발명과 관련된 복수의 디스플레이를 구비한 안내 로봇을 보여주는 도면이다.
도 4는 본 발명과 관련된 안내 로봇에서 복수의 디스플레이 모두에 사용 요청이 있는 모습을 도시한 도면이다.
도 5는 본 발명과 관련된 안내 로봇의 동작방법의 대표 흐름도이다.
도 6a 및 도 6b는 본 발명과 관련된 안내 로봇에서, 제1 터치스크린이 사용되는 동안 제2 터치스크린의 사용 요청 및 그에 따른 읽기 모드의 화면이 제공되는 예시를 보여주는 도면들이다.
도 7은 본 발명과 관련된 안내 로봇에서, 제1 터치스크린이 사용되는 동안 제2 터치스크린에서 실행할 수 없는 기능의 요청시 화면 예시를 보인 도면이다.
도 8a는 본 발명과 관련된 안내 로봇에서 제1 작업에 주행 기능 포함시 제2 터치스크린에 알림을 제공하는 화면 예시이고, 도 8b는 제1 터치스크린의 사용 의사 없음이 확인된 경우 제2 터치스크린의 화면 변화 예시이다.
도 9는 본 발명과 관련된 안내 로봇의 또 다른 동작방법의 예시 흐름도이다.
도 10a 및 도 10b는 본 발명과 관련된 안내 로봇에서, 제1 및 제2 터치스크린에서 요청받은 작업들에 동시에 실행될 수 없는 기능이 포함된 경우, 각 터치스크린의 화면 처리의 서로 다른 예시를 보인 도면이다.
도 11a, 도 11b, 도 11c는 본 발명과 관련된 안내 로봇에서, 제2 터치스크린의 사용 상태를 제1 터치 스크린에 알려주는 서로 다른 화면 예시들을 보인 도면들이다.
도 12, 도 13, 도 14는 본 발명과 관련된 안내 로봇에서 제1 및 제2 터치스크린에 대한 작업이 서로 동시에 실행될 수 없는 경우의 처리 예시들로, 예를 들어 제1 터치스크린에 대한 작업으로 길안내가 요청된 상태에서 제2 터치스크린에 대한 서로 다른 사용 요청에 대한 처리 예시들을 도시한 도면들이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
한편, 본 명세서에 개시된 "안내 로봇"은 공항, 백화점 등의 쇼핑몰, 호텔 등의 숙박시설, 미술관, 도서관 등의 문화 공간 등의 다양한 공공장소에서 사용자에게 웰컴 인사, 길 안내, 상품안내, 상품검색, 주차 안내, 공항 정보, 도슨트 정보, 도서관 안내 등의 다양한 정보를 제공할 수 있는 로봇을 의미한다.
또한, 본 명세서에 개시된 "안내 로봇"은, 길, 특정 장소 등을 사용자에게 안내하기 위하여, 스스로 자율주행을 수행할 수 있다.
또한, 본 명세서에 개시된 "안내 로봇"이 정해진 공간을 주행하는 동안, 상기 정해진 공간에서 움직이는 오브젝트는, 관람객, 사용자, 장애물 등을 포함하여 지칭될 수 있다.
또한, 본 명세서에 개시된 "안내 로봇"은, 사용자에게 정보나 안내를 다양한 방식(시각적, 청각적, 촉각적)으로 제공하기 위해, 터치 스크린, 음향 출력부, LED, 촉각센서 등과 관련된 다양한 출력수단을 포함할 수 있다.
도 1은 본 발명과 관련된 안내 로봇(100)의 예시를 보여주는 도면이다.
도 1을 참조하면, 본 발명에 따른 안내 로봇(100)은, 헤드(102), 카메라(121), 스피커(152), 음성인식부(미도시), 디스플레이(151), 및 주행부(130)를 포함하여 이루어질 수 있다. 다만, 경우에 따라서는 여기에 개시된 수단 중 일부를 제거하거나 또는 다른 수단을 더 포함하여, 본 발명에 따른 안내 로봇(100)이 구현될 수도 있다.
본 발명에 따른 안내 로봇(100)의 외관은 크게, 헤드(102)와 디스플레이(151)를 포함하는 상부모듈과 주행부(130)를 포함하는 하부모듈을 포함하여 이루어질 수 있다. 상부모듈과 하부모듈은 상호간에 탈착 가능하도록 구비될 수 있다.
상기 상부모듈은, 서비스 환경에 따라 변경 가능한 사용자 인터페이스(User Interface)를 제공한다. 상기 하부모듈은 안내 로봇 본체의 이동을 위한 주행기능을 제공한다.
상기 상부모듈은, 다시 몸체를 형성하며, 디스플레이(151)이 구비된 바디부와, 카메라(121) 등이 구비된 헤드부(102)로 구분될 수 있다. 그러나, 경우에 따라서는 바디부에 카메라가 구비되거나 헤드부(102)에 터치스크린이 배치되는 형태로 구현될 수도 있다.
카메라(121)는 헤드부(102)의 케이스 일측 또는 바디부의 케이스 일측에 구비될 수 있다. 또, 상기 카메라(121)는 복수 개 구비될 수 있다. 이러한 경우, 하나는 본체의 전면에 구비되어 전방을 향하도록 설치되고, 다른 하나는 측면 또는 후면에 구비되어 측방/후방을 향하도록 설치될 수 있다. 그에 따라, 360 범위의 화각을 형성할 수 있다.
카메라(121)가 복수 개 구비되는 경우, 제1카메라는 예를 들어 3D 스테레오 카메라를 포함할 수 있다. 상기 3D 스테레오 카메라는 장애물 감지, 사용자 얼굴인식, 입체영상 획득 등의 기능을 수행할 수 있다. 안내 로봇(100)은 제1카메라를 이용하여 자신의 이동방향에 존재하는 장애물을 감지하여 회피할 수 있고, 사용자를 인식하여 각종 제어동작을 수행할 수 있다. 또, 제2카메라는 예를 들어 슬램(Simultaneous Localization And Mapping) 카메라를 포함할 수 있다. 상기 슬램카메라는 특징점 매칭을 통하여 카메라의 현 위치를 추적하고 이를 기초로 3차원 지도를 작성하는 기능을 수행한다. 안내 로봇(100)은 제2카메라를 이용하여 자신의 현재 위치를 파악할 수 있다.
또한, 카메라(121)는 화각범위 내의 오브젝트를 인식할 수 있고, 사진 및 동영상 촬영의 기능을 수행할 수 있다. 이와 관련하여, 카메라(121)는 카메라 센서(예를 들어, CCD, CMOS 등), 포토 센서(또는 이미지 센서) 및 레이저 센서 중 적어도 하나를 포함할 수 있다. 카메라(121)와 레이저 센서는 서로 조합되어, 3차원 입체영상에 대한 감지대상의 터치를 감지할 수 있다. 포토 센서는 디스플레이 소자에 적층될 수 있는데, 이러한 포토 센서는 터치 스크린에 근접한 감지대상의 움직임을 스캐닝하도록 이루어진다. 보다 구체적으로, 포토 센서는 행/열에 Photo Diode와 TR(Transistor)를 실장하여 Photo Diode에 인가되는 빛의 양에 따라 변화되는 전기적 신호를 이용하여 포토 센서 위에 올려지는 내용물을 스캔한다. 즉, 포토 센서는 빛의 변화량에 따른 감지대상의 좌표 계산을 수행하며, 이를 통하여 감지대상의 위치정보가 획득될 수 있다.
음향 출력부(152)는 사용자에게 제공될 정보를 음성으로 알려주는 기능을 수행하며, 예를 들어 스피커 형태일 수 있다. 구체적으로, 안내 로봇(100)에 구비된 음향 수신부(122)와 음성 인식부(미도시)를 통해 수신된 사용자의 음성에 대응되는 응답이나 검색 결과를 음향 출력부(152)를 통해 음성으로 출력된다. 이러한 음향 출력부(152)는 헤드부(102)나 디스플레이(151)이 구비된 바디부의 외주면에 마련될 수 있다. 또한, 음향 출력부(152)는 디스플레이(151)에 디스플레이된 화면(예, 메뉴화면, 광고화면 등)과 관련된 음성 정보를 출력할 수 있다.
또한, 본 발명에 따른 안내 로봇(100)은 바디부 전면에 제1 스피커(152a)와 바디부 후면에 제2 스피커를 구비할 수 있다. 또는, 공간감을 느낄 수 있도록, 바디부 일측에 여러 방향으로 사운드를 출력할 수 있는 어레이 스피커(array speaker)를 구비할 수 있다.
음향 수신부(122)는 사용자의 음성 등을 수신하는 기능을 수행하며, 예를 들어 마이크로폰 형태일 수 있다. 음향 수신부(122)는 외부의 음향 신호를 전기적인 음성 데이터로 처리하며, 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
디스플레이(151)은 바디부의 일 방향에 길이방향으로 위치할 수 있고, 시각적인 정보, 예를 들어 안내 정보를 제공하기 위하여 화면을 표시할 수 있다. 또, 상기 디스플레이(151)은 디스플레이모듈, 터치센서, 압력센서를 포함하여 이루어질 수 있다.
상기 디스플레이(151)은 예를 들어 이동가이드수단과 결합하여 바디부의 내부를 개폐하도록 구현될 수 있다. 또, 상기 디스플레이(151)은 예를 들어 고정부재를 사용하여 바디부에 결속되어 고정되도록 구현될 수도 있다.
또, 비록 자세히 도시되지는 않았지만, 안내 로봇(100)이 사용자에게 길을 안내하기 위하여 설정된 경로로 선 이동하는 경우를 고려하여, 상기 디스플레이(151)는 헤드(102)를 기준으로 후방에 구비되거나, 또는 전방 외에 후방에도 추가로 구비될 수 있다. 또는, 설정된 경로로 선 이동하기에 앞서 헤드(102)가 180도 회전하여, 디스플레이(151)이 후방에 위치한 것처럼 외관을 변형시킬 수도 있다.
이러한 경우 디스플레이(151)에는 현재 제공되는 서비스와 관련된 시각정보(예, 길 안내 정보, 질의 정보)를 표시하는 기능을 수행한다. 사용자는 안내 로봇(100)을 따라 이동하면서, 안내 로봇(100)의 후방에 설치된 디스플레이(151)를 볼 수 있다.
또한, 상기 디스플레이(151)은 본체의 전면 및 후면 양측에 각각 구비될 수 있다. 이러한 경우, 본체의 전면에 구비된 제1 디스플레이와 본체의 후면에 구비된 제2 디스플레이에 서로 다른 화면(예, 제1 디스플레이에는 사용자와 인터랙션하는 화면, 제2 디스플레이에는 광고 화면 등)이 디스플레이될 수 있다.
디스플레이(151)는 제1 터치스크린(151a) 및 제2 터치스크린(151b)을 포함하여 구현될 수 있다. 구체적으로, 디스플레이(151)가 터치스크린으로 구현되고 본체의 전후면 각각에 구비된 경우, 본체의 전면에는 제1 터치스크린(151a)이 구비되고, 본체의 후면에는 제2 터치스크린(151b)이 구비될 수 있다.
또한, 헤드부(102)의 전면에는 안내 로봇의 다양한 표정변화가 출력하기 위한 디스플레이부가 구비될 수 있다.
주행부(130)는 안내 로봇(100) 본체의 이동, 회전을 수행한다. 이를 위해, 주행부(130)는 복수의 휠 및 구동 모터를 포함하여 이루어질 수 있다. 주행부(130)의 구동은 프로세서에 의해 수신된 제어명령에 따라 제어되며, 구동 전 후에 LED 출력수단(153)을 통한 알림이 제공될 수 있다.
도 2 본 발명과 관련된 안내 로봇의 예시적 세부구성을 보인 블록도이다.
본 발명에 따른 안내 로봇(100)은 통신부(110), 입력부(120), 주행부(130), 센싱부(140), 출력부(150), 메모리(170), 프로세서(180) 및 전원부(190) 등을 포함할 수 있다. 도 2에 도시된 구성요소들은 안내 로봇을 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 안내 로봇은 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
통신부(110)는, 안내 로봇(100)과 외부서버, 예를 들어 인공 지능 서버, 또는 외부단말 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또, 상기 통신부(110)는, 안내 로봇(100)을 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.
상기 통신부(110)는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등의 무선 인터넷 통신 기술을 사용하여 인공지능 서버 등과 통신을 수행할 수 있다. 또, 상기 통신부(110)는 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication) 등의 근거리 통신 기술을 사용하여 외부 단말 등과 통신을 수행할 수 있다.
입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 음향 수신부(122), 예를 들어 마이크로폰(microphone), 사용자로부터 정보를 입력받기 위한 사용자 입력부(미도시, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 신호데이터, 음성 데이터, 이미지 데이터는 분석되어 제어명령으로 처리될 수 있다.
주행부(130)는 안내 로봇(100) 본체의 이동, 회전을 수행한다. 이를 위해, 주행부(130)는 복수의 휠 및 구동 모터를 포함하여 이루어질 수 있다. 주행부(130)의 구동은 프로세서(180)에 의해 수신된 제어명령에 따라 제어되며, 구동 전 후 LED 등의 광출력부(153)를 통한 알림이 제공될 수 있다.
센싱부(140)는 안내 로봇 내 정보, 안내 로봇을 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 안내 로봇은, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다. 또한, 상기 센싱부(140)는 장애물, 바닥 상태 등을 감지하는 주행 관련 센서(142)를 포함할 수 있다.
근접 센서(141)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전 용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 또, 근접 센서(141)는 네비 카메라, 초음파 센서, 라이다(lidar), ToF 센서 중 적어도 하나를 포함할 수 있고, 이를 통해 감지대상(예, 사용자)의 접근 및 위치를 인식할 수 있다.
또한, 상기 센싱부(140)는 주변의 정보를 수집하기 위한 하나 이상의 센서를 포함할 수 있다. 예로서, 카메라, 3D 뎁쓰 카메라, 라이다, 속도 센서, 거리 센서, 장애물 센서, 근접 센서(141) 중 하나 또는 둘 이상의 센서가 포함될 수 있다. 상기 센싱부(140)는 하나 또는 둘 이상의 센서를 이용하여, 주행 공간 내에 사용자가 있는지 여부, 관람객이 접근하거나 멀어지는지 여부 및 접근시 접근 방향을 감지할 수 있다.
상기 센싱부(140)에 의해 수집된 정보는 프로세서(180)에 제공되거나 메모리(170)에 저장될 수 있다.
프로세서(180)는 센싱부(140)를 통한 사용자 접근 감지와 디스플레이(151)에 대한 터치 감지를 통해 디스플레이(151)에 대한 사용 요청을 인식할 수 있다.
프로세서(180)는 제1 터치스크린(151a)에 대한 사용 요청에 따라 제1 터치스크린(151a)에 출력되고 있던 기설정된 화면정보(예, 제1광고화면)를 제1화면정보(예, 메뉴화면)로 변경할 수 있다. 또한, 프로세서(180)는 제2 터치스크린(151b)에 대한 사용 요청에 따라 제2 터치스크린(151b)에 출력되고 있던 기설정된 화면정보(예, 제2광고화면)를 제2화면정보(예, 메뉴화면)로 변경할 수 있다.
프로세서(180)는, 제2 터치스크린(151b)에 대한 사용 요청 전에 제1 터치스크린(151a)에 대한 사용 요청이 있거나 또는 그 반대의 경우, 먼저 사용 요청이 있었던 터치스크린에 입력된 작업의 상태에 따라 나중에 사용 요청이 있는 터치스크린에 출력될 화면정보를 결정할 수 있다. 이때, 결정된 화면정보는 이전의 광고화면 또는 통상의 메뉴화면과 다를 수 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이(151), 음향출력부(152), 광 출력부(153) 중 적어도 하나를 포함할 수 있다. 디스플레이(151)은 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 안내 로봇(100)과 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부로써 기능함과 동시에, 출력 인터페이스를 제공할 수 있다.
광 출력부(153)는 광원의 빛을 이용하여 안내 로봇(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 예를 들어, 안내 로봇(100)의 주행부(130)에 이동명령이 전달된 경우, 이동을 알리기 위한 신호가 광 출력부(153)를 통해 출력된다.
프로세서(180)는 안내 로봇의 인공 지능 기술와 관련된 동작을 수행하기 위하여 AI 학습부(181)(미도시)를 포함할 수 있다. AI 학습부(181)는 데이터 마이닝(data mining), 데이터 분석, 지능형 의사결정 및 머신 러닝 알고리즘 및 기술을 위해 이용될 정보를 수신, 분류, 저장 및 출력하도록 구성될 수 있다. AI 학습부(181)는 안내 로봇을 통해 수신, 검출, 감지, 생성, 사전 정의된 정보 또는 상기 안내 로봇을 통해 다른 방식으로 출력된 정보를 저장하거나, 다른 구성, 장치 및 단말기에 의하여 수신, 검출, 감지, 생성, 사전 정의 또는 출력된 데이터를 저장하도록 구성된 하나 이상의 메모리 유닛을 포함할 수 있다.
일 실시 예에서, AI 학습부(181)는 안내 로봇에 통합되거나, 메모리를 포함할 수 있다. 일 실시 예에서, AI 학습부(181)는 메모리(170)를 통해 구현될 수 있다. 다만 이에 한정되지 않고, AI 학습부(181)는 안내 로봇(100)과 관련된 외부 메모리에 구현되거나, 안내 로봇(100)과 통신 가능한 서버에 포함된 메모리를 통해 구현될 수 있다. 다른 일 실시 예에서, AI 학습부(181)는 클라우드 컴퓨팅 환경에서 유지되는 메모리, 또는 네트워크와 같은 통신 방식을 통해 안내 로봇에 의해 액세스 가능한 다른 원격 메모리를 통해 구현될 수 있다.
AI 학습부(181)는 일반적으로 감독 또는 감독되지 않은 학습, 데이터 마이닝, 예측 분석 또는 다른 머신 러닝 기술에서 사용하기 위한 데이터를 식별, 색인화, 분류, 조작, 저장, 검색 및 출력하기 위해, 상기 데이터를 하나 이상의 데이터베이스에 저장하도록 이루어진다. AI 학습부(181)에 저장된 정보는 서로 다른 유형의 데이터 분석, 기계 학습 알고리즘 및 기계 학습 기술 중 적어도 하나를 사용하는 프로세서(180) 또는 안내 로봇에 포함된 복수의 프로세서들(프로세서들)에 의하여 이용될 수 있다. 이러한 알고리즘 및 기법의 예로는 K 최근접 이웃 시스템(k-Nearest neighbor system), 퍼지 논리(fuzzy logic)(예를 들어, 가능성 이론(possibility theory)), 신경 회로망(neural networks), 볼츠만 머신(Boltzmann machines), 벡터 양자화, 펄스 신경망(pulsed neural nets), 서포트 벡터 머신(support vector machines), 최대-마진 분류기(maximum margin classifiers), 힐 클라이밍(hill-climbing), 유도 논리 시스템(inductive logic systems), 베이지안 네트워크(baysian networks), 페트리 네트(petri nets) (예를 들어, 유한 상태 기계(finite state machines), 밀리 머신(mealy machines), 무어 유한 상태 머신(moore finite state machines)), 분류 트리(classifier trees)(예를 들어, 퍼셉트론 트리(perceptron trees), 서포트 벡터 트리(support vector trees), 마코브 트리(markov trees), 트리-숲 결정(decision tree forests), 랜덤 숲(random forests)), 목마전 모형 및 시스템(pandemonium models and systems), 클러스터링(clustering), 인공 지능 플래닝(artificially intelligent planning), 인공 지능 예측(artificially intelligent forecasting), 데이터 퓨전(data fusion), 센서 퓨전(sensor fusion), 이미지 퓨전(image fusion), 강화 학습(reinforcement learning), 증강 현실(augmented reality), 패턴 인식(pattern recognition), 자동 플래닝(automated planning) 등이 있다.
프로세서(180)는 데이터 분석, 머신 러닝 알고리즘 및 머신 러닝 기술을 사용하여 결정 또는 생성된 정보에 기초하여, 안내 로봇의 실행 가능한 동작을 결정 또는 예측할 수 있다. 이를 위하여, 프로세서(180)는 AI 학습부(181)의 데이터를 요청, 검색, 수신 또는 활용할 수 있다. 프로세서(180)는 지식 기반 시스템, 추론 시스템 및 지식 획득 시스템 등을 구현하는 다양한 기능을 수행할 수 있으며, 불확실한 추론을 위한 시스템(예를 들어, 퍼지 논리 시스템), 적응 시스템, 기계 학습 시스템, 인공 신경망 등을 포함하는 다양한 기능을 수행할 수 있다.
또한, 프로세서(180)는 I/O 처리 모듈, 환경 조건 모듈, 음성-텍스트(STT) 처리 모듈, 자연 언어 처리 모듈, 작업 흐름 처리 모듈 및 서비스 처리 모듈 등과 같은 음성 및 자연 언어 처리를 가능하게 하는 서브 모듈들을 포함할 수 있다. 서브 모듈들 각각은 안내 로봇에서 하나 이상의 시스템 또는 데이터 및 모델, 또는 이들의 서브셋 또는 수퍼셋에 대한 접근권한을 가질 수 있다. 여기서, 서브 모듈들 각각이 접근권한을 가지는 대상은 스케줄링, 어휘 인덱스, 사용자 데이터, 태스크 플로우 모델, 서비스 모델 및 자동 음성 인식(ASR) 시스템을 포함할 수 있다.
일부 실시 예에서, 프로세서(180)는 AI 학습부(181)에서의 데이터에 기초하여 사용자 입력 또는 자연 언어 입력으로 표현된 문맥 조건 또는 사용자의 의도에 기초하여 사용자가 요구하는 것을 검출하고 감지하도록 구성될 수도 있다. AI 학습부(181)에 의해 수행된 데이터 분석, 머신 러닝 알고리즘 및 머신 러닝기술을 바탕으로, 안내 로봇의 동작이 결정되면, 프로세서(180)는 이러한 결정된 동작을 실행하기 위하여, 안내 로봇의 구성 요소들을 제어할 수 있다. 프로세서(180)는 제어 명령에 근거하여, 안내 로봇을 제어함으로써, 결정된 동작을 실행할 수 있다.
메모리(170)는 안내 로봇(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 안내 로봇(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application))과, 안내 로봇(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 또한, 메모리(170)는 사용자와 음성 대화 기능을 수행하기 위한 가변가능한 호출어를 저장할 수 있다.
메모리(170)는, 예를 들어 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
프로세서(180)는 상기 응용 프로그램과 관련된 동작 외에, 통상적으로 안내 로봇(100)의 전반적인 동작을 제어한다. 프로세서(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동하거나, 주행부(130)를 제어함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
전원부(190)는 프로세서(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 안내 로봇(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원부(190)는 배터리를 포함할 수 있고, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 안내 로봇의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 안내 로봇의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 안내 로봇상에서 구현될 수 있다.
또한, 이하에 개시된 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
도 3은 본 발명과 관련된 복수의 디스플레이를 구비한 안내 로봇을 보여주는 도면이다.
도 3에 도시된 바와 같이, 본 발명의 또 다른 실시 예에 따른 안내 로봇(100)은 헤드부(102)와 주행부(130) 사이에 위치한 바디부 전면(103a)에 제1 터치스크린(151a)을 구비하고, 바디부 후면(103b)에 제2 터치스크린(151b)을 구비할 수 있다.
안내 로봇(100)은, 주행하는 동안 제1 터치스크린(151a)과 제2 터치스크린(151b)에 서로 다른 화면 정보를 디스플레이할 수 있다. 예를 들어, 사이니지 광고 기능의 수행시, 안내 로봇(100)의 프로세서(180)는 제1 터치스크린(151a)에는 제1 광고화면을 디스플레이하고, 제2 터치스크린(151b)에는 (제1 광고화면과 다른) 제2 광고화면을 디스플레이할 수 있다.
제1 터치스크린(151a)과 제2 터치스크린(151b) 중 어느 하나만 사용되는 경우 실행될 수 있는 기능의 특별한 제한은 없다. 다만, 일부 부품(예, 카메라(121), 마이크로폰(122))이 본체의 전면에만 구비된 경우에는, 제2 터치스크린(151b)에 대한 사용 요청시 보다 다양한 기능 사용(예, 사진 촬영, 얼굴표정을 보면서 음성 인터랙션하기 등)을 위해 제1 터치스크린(151a)의 사용을 유도하거나 또는 안내 로봇(100)이 안내 후 제자리회전할 수 있다. 다만, 본체의 후면에도 동일한 부품이 적용된 경우라면 제2 터치스크린(151b)을 통한 사용을 유지하도록 동작할 수 있다.
한편, 제1 터치스크린(151a)과 제2 터치스크린(151b)에 서로 다른 광고 화면이 디스플레이되는 경우에는, 하나의 스피커(152)를 통해 제2 터치스크린(151b)에 디스플레이되는 광고 화면과 관련된 사운드가 출력되거나 또는 복수의 스피커 중 어느 하나에 선택적으로 사운드가 출력될 수 있다.
도 4는 본 발명과 관련된 안내 로봇(100)에서 복수의 디스플레이, 즉 제1 및 제2 터치스크린(151a, 151b) 모두에 사용 요청이 있는 모습을 도시한 도면이다.
안내 로봇(100)은 예를 들어 근접 센서(141)와 디스플레이(151)에 대한 터치입력을 기초로 제1 터치스크린(151a) 및/또는 제2 터치스크린(151b)에 대한 사용자의 사용 요청을 인식할 수 있다.
구체적으로, 제1 터치스크린(151a)에 접근한 사용자(P1, P2)가 제1 터치스크린(151a)을 터치하면, 안내 로봇(100)은 이를 제1 터치스크린(151a)에 대한 사용 요청으로 인식할 수 있다. 또, 제2 터치스크린(151b)에 접근한 사용자(P3)가 제2 터치스크린(151b)을 터치하면, 안내 로봇(100)은 이를 제2 터치스크린(151b)에 대한 사용 요청으로 인식할 수 있다.
실시 예에 따라, 제1 터치스크린(151a) 또는 제2 터치스크린(151b) 중 어느 하나의 사용 중에 나머지 하나의 터치 스크린에 대한 사용 요청이 인지되면, 사용 요청에 대응되는 화면변화는 사용중인 터치스크린의 작업 상태에 따라 달리질 수 있으며, 그에 따라 실행가능한 기능/동작의 일부가 제한될 수 있다.
예를 들어, 제1 터치스크린(151a)의 사용 중에 제2 터치스크린(151b)에 사용 요청이 있으면, 제2 터치스크린(151b)에 출력되는 화면(예, 사용 가이드 화면, 메뉴화면)은 읽기 모드로 제공될 수 있다.
실시 예에 따라, 제1 터치스크린(151a) 또는 제2 터치스크린(151b) 중 어느 하나의 사용 중에 나머지 하나의 터치 스크린에 대한 사용 요청이 인지되면, 사용중인 터치스크린의 일부 기능(예, 주행 기능)은 반대쪽 디스플레이에서의 사용 요청에 따라 제한되거나 또는 일시 중단(또는, 대기)될 수 있다.
예를 들어, 제1 터치스크린(151a)의 사용 중에 제2 터치스크린(151b)에 사용 요청이 있으면, 제1 터치스크린(151a)에는 제2 터치스크린(151b)에 사용 요청이 있임과 안내 로봇(100)의 움직임이 제한됨을 알려주는 정보가 출력될 수 있다.
이하, 본 발명의 실시 예에 따른 안내 로봇의 동작방법을 구체적으로 설명하겠다. 한편, 이하의 실시 예들은, 설명의 편의를 위해 주로 제1 터치스크린(151a)의 사용 중에 제2 터치스크린(151b)에 대한 사용 요청이 있는 경우를 전제로 설명하였다. 그러나, 부품의 장착 위치로 인해 기능이 제한되는 경우가 아니라면, 제2 터치스크린(151b)의 사용 중에 제1 터치스크린(151a)에 대한 사용 요청이 있는 경우에도 마찬가지로 적용될 수 있음을 미리 밝혀둔다.
도 5는 본 발명과 관련된 안내 로봇의 동작방법(500)의 대표 흐름도이다. 도 5의 각 단계는, 다른 설명이 없다면 안내 로봇(100)의 프로세서(180)를 통해 구현될 수 있다. 또한, 안내 로봇(100)은 정해진 공간을 주행하며, 디스플레이(151)를 통해서는 기설정된 광고 화면을 디스플레이하고, 디스플레이된 광고 화면과 관련된 사운드를 음향 출력부(152)(예, 스피커)를 통해 출력할 수 있다.
안내 로봇(100)은 주행하거나 또는 제자리에서 바디 전후면에 구비된 제1 터치스크린(151a) 및 제2 터치 스크린(151b) 각각에 서로 다른 화면을 디스플레이할 수 있다.
여기에서, 상기 서로 다른 화면은 안내 로봇(100)의 사이니지 광고 기능의 실행에 따른 서로 다른 광고 컨텐츠일 수 있다. 이때, 상기 서로 다른 광고 컨텐츠는 대응되는 터치스크린의 방향의 POI 와 연관될 수 있다. 예를 들어, 제1 터치스크린(151a)에는 안내 로봇(100)의 주행방향(정주행인 경우)에 위치한 POI 와 관련된 광고 컨텐츠가 디스플레이될 수 있다. 그리고, 제2 터치 스크린(151b)에는 안내 로봇(100)의 주행 반대방향(정주행인 경우)에 위치한 POI 와 관련된 광고 컨텐츠가 디스플레이될 수 있다.
이와 같이 제1 및 제2 터치스크린(151a, 151b)에 서로 다른 광고 컨텐츠가 디스플레이된 상태에서, 제1 터치스크린(151a)의 사용에 따른 제1 작업에 대응되는 제1화면정보가 제1 터치스크린(151a)에 출력될 수 있다(S10).
제1 터치스크린(151a)의 사용은, 예를 들어 근접센서를 통해 감지된 사용자가 제1 터치스크린(151a)을 터치함에 따라 인식될 수 있다.
상기 제1 작업은, 제1 터치스크린(151a)에 디스플레이된 화면을 이용하여 입력받은 특정 기능 또는 특정 기능의 실행에 따른 안내 로봇(100)의 동작을 포함할 수 있다. 예를 들어, 상기 제1 작업은 메뉴화면요청, 사진촬영요청, 길안내요청에 대응되는 기능 또는 그 기능의 실행에 따른 동작을 의미할 수 있다.
상기 제1화면정보는, 상기 제1 작업의 요청에 따른 안내 로봇(100)의 응답 화면 및 이를 포함하는 안내 화면(예, 제1 작업의 요청에 따라 활성화된 기능의 사용과 관련된 안내 화면)일 수 있다. 예를 들어, 메뉴화면요청에 따른 '메뉴화면', 사진촬영요청에 따른 '프리뷰 화면 및 촬영 안내 화면', 길안내요청에 따른 '내비게이션 화면 및 가이드화면'이 상기 제1화면정보로 출력될 수 있다.
계속해서, 제1 터치스크린(151a)에 제1화면정보가 디스플레이되는 동안, 안내 로봇(100)은 제2 터치스크린(151b)에 대한 사용 요청을 인식할 수 있다(S20).
제2 터치스크린(151b)의 사용은, 예를 들어 근접센서를 통해 감지된 사용자가 제2 터치스크린(151b)을 터치함에 따라 인식될 수 있다. 안내 로봇(100)은 제2 터치스크린(151b)에 대한 사용 요청을 인식할 때, 제1 터치스크린(151a)에 대한 사용 상태(예, 사용 지속, 종료 여부 등)를 확인할 수 있다.
다음, 안내 로봇(100)은 제1 터치스크린(151a)을 통해 수행되는 상기 제1 작업의 상태(예, 실행/종료 여부, 진행 정도, 제1 작업을 수행하기 위해 활성화된 기능 등)에 기초하여, 제2 터치스크린(151b)에 대한 사용 요청에 대응되는 제2 화면정보를 결정할 수 있다(S30).
상기 제2 터치스크린(151b)에 대한 사용 요청은 제2 터치스크린(151b)에 대한 단순 터치를 포함할 수 있다. 이러한 경우, 제2 터치스크린(151b)에 디스플레이되던 제2 광고 컨텐츠는 제2화면정보로 변경된다. 즉, 안내 로봇은 제1 터치스크린(151a)의 사용 중에도 제2 터치스크린(151b)에 대한 입력을 무시하지 않는다.
제2 화면정보가 제1 터치스크린(151a)을 통해 수행되는 제1 작업의 상태에 기초한다는 것은, 제1 터치스크린(151a)에 의해 제2 터치스크린(151b)의 사용범위가 제한되는 것을 의미한다. 그러나, 제2 터치스크린(151b)의 사용자는 안내받은 제한된 사용범위에서 제2 터치스크린(151b)을 계속 사용할 수 있다.
또한, 제1 작업의 상태에 따라 제2 화면정보가 결정되는 것은, 현재 제1 작업의 상태를 확인하여 제2 터치스크린(151b)사용범위의 제한 정도가 가변될 수 있음을 의미한다. 예를 들어, 제1 작업을 수행하기 위해 주행 기능이 수반되는 경우, 제2 터치스크린(151b)의 사용 시간이 제한될 수 있다. 또는, 제1 작업의 상태가 진행 중인 경우, 제2 터치스크린(151b)의 사용은 일부 제어명령의 입력이 제한되거나 또는 읽기 모드로의 전환과 같이 사용 방식이 제한될 수 있다.
이와 같이 제2 화면정보가 결정되면, 안내 로봇(100)은 결정된 제2 화면정보를 제2 터치스크린(151b)에 출력할 수 있다(S40).
실시 예에 따라, 상기 제2 화면정보는, 상기 제1 작업의 상태로 인해 제한되는 사용범위가 표시될 수 있다. 예를 들어, 제2 터치스크린(151b)의 사용 시간 제한을 나타내는 표시, 또는 제2 터치스크린(151b)에 표시되는 정보가 읽기 모드로 제공되는 것을 나타내는 표시가 함께 출력될 수 있다.
실시 예에 따라, 제2 터치스크린(151b)에 디스플레이된 제2 화면정보는 제1 터치스크린(151a)을 통해 수행되는 제1 작업의 상태가 변경되거나 또는 더 이상 제1 터치스크린(151a)이 사용되지 않음이 인식되면, 사용범위 제한이 변경된 화면정보나 사용범위의 제한이 없는 화면정보로 변경될 수 있다.
이와 같이, 본 명세서에 개시된 안내 로봇의 동작방법에 따르면, 전면 디스플레이의 사용중에 후면 디스플레이에 대한 사용 요청이 있는 경우에도, 사용 요청을 무시하지 않고, 읽기 모드 등의 제한적 사용을 허용함으로써, 양면 디스플레이를 보다 효율적으로 활용하여 사용성이 확대된다.
도 6a 및 도 6b는 본 발명과 관련된 안내 로봇에서, 제1 터치스크린(151a)이 사용되는 동안 제2 터치스크린(151b)의 사용 요청 및 그에 따른 읽기 모드의 화면이 제공되는 예시를 보여주는 도면들이다.
안내 로봇(100)의 프로세서(180)는, 제2 터치스크린에 기설정된 화면정보(예, 기설정된 광고 컨텐츠)가 디스플레이되는 동안, 예를 들어 근접센서(141)를 통한 제2 터치스크린(151b)에의 사용자 감지 및 제2 터치스크린(151b)에 가해진 터치입력의 감지를 기초로, 제2 터치스크린(151b)에 대한 사용 요청의 인식한다.
예를 들어, 도 6a에 도시된 바와 같이, 제1 터치스크린(151a)에 메뉴 화면(611)이 디스플레이되는 동안, 기설정된 사이니지 화면(620)이 디스플레이된 제2 터치스크린(151b)에 대한 터치입력을 감지하여, 제2 터치스크린(151b)의 사용 요청을 감지할 수 있다.
제2 터치스크린(151b)에 대한 사용 요청이 감지되면, 안내 로봇은 제1 터치스크린(151a)의 사용은 계속 유지하면서, 제한된 사용범위에서 제2 터치스크린(151b)의 화면변화를 제어할 수 있다.
안내 로봇(100)은, 제2 터치스크린(151b)에 대한 사용 요청시 제1 터치스크린(151a)를 통해 요청된 제1작업의 상태를 확인하고, 확인 결과 실행 상태이면, 제2 터치스크린(151b)에 대한 사용 요청에 응답하여 사용 가이드 화면 또는 읽기 전용의 메뉴 화면을 상기 제2화면정보로 결정할 수 있다.
도 6b를 참조하면, 제1 터치스크린(151a)에는 제한없이 메뉴 화면(611)이 계속 디스플레이되며, 제2 터치스크린(151b)에 디스플레이되었던 기설정된 사이니지 화면(620)은 사용 가이드 화면 또는 읽기 모드 메뉴화면(621)으로 전환될 수 있다.
상기 사용 가이드 화면은, 예를 들어, 제1 터치스크린(151a)에서의 사용을 유도하는 안내 화면(예, '로봇의 앞에 와서 사용해 보세요')일 수 있다. 이러한 경우, 제2 터치스크린(151b)의 사용자는 제1 터치스크린(151a) 쪽으로 이동하여 사용 대기할 수 있다. 이 후, 제2 터치스크린(151b)에는 다시 기설정된 사이니지 화면(620)이 디스플레이될 수 있다.
상기 읽기 모드 메뉴화면은, 예를 들어 제2 터치스크린(151b)에서 사용할 수 없는 기능(예, 주행 기능을 포함한 기능, 카메라 기능을 포함한 기능)이 비활성화 상태로 표시된 메뉴화면일 수 있다. 이러한 경우, 제2 터치스크린(151b)의 사용자는 비활성화 상태로 표시된 메뉴 이외의 메뉴 기능만 사용할 수 있다.
이와 관련하여, 도 7은 본 발명과 관련된 안내 로봇에서, 제1 터치스크린(151a)이 사용되는 동안 제2 터치스크린(151b)에서 실행할 수 없는 기능의 요청시 제2 터치스크린(151b)의 화면 예시를 보인 것이다.
안내 로봇(100)의 프로세서(180)는 제1 터치스크린(151a)을 통해 실행된 제1 작업의 상태에 따라 제2 터치스크린(151b)에 대한 사용 요청에 대응되는 기능을 실행할 수 없음이 결정되면, 요청한 기능을 실행할 수 없음을 안내하는 정보를 제2 터치 스크린(151b)에 출력할 수 있다.
예를 들어, 제1 터치스크린(151a)이 사용 중이고, 카메라(121)가 안내 로봇의 전면에만 위치한 경우, 제2 터치스크린(151b)의 사용자로부터 사진 촬영 요청이 있는 경우, 도 7에 도시된 바와 같이 '읽기 모드에서 해당 기능을 사용할 수 없습니다, 전면에 오셔서 사용하세요'와 같은 안내 화면(722)이 제2 터치스크린(151b)에 제공될 수 있다.
이러한 경우, 비록 제2 터치스크린(151b)의 사용자는 원하는 사진 촬영 기능을 바로 수행할 수는 없지만, 적어도 사진 촬영 기능을 실행할 수 없는 이유를 알 수 있다.
기존에는, 제1 터치스크린(151a)의 사용시 제2 터치스크린(151b)에 대한 터치가 있더라도 아무런 화면변화가 없거나 기설정된 광고 컨텐츠를 반복 재생하였기 때문에 제2 터치스크린(151b)의 사용자는 무엇을 해야할지 당황하는 상황이 발생했다. 그러나, 이제 사용자는 제1 터치스크린(151a)이 사용이 완료될 때까지 대기할지 또는 제2 터치스크린(151b)을 사용 않고 떠날지를 스스로 선택할 수 있다.
한편, 제2 터치스크린(151b)에 대한 사용 요청시 제1 터치스크린(151a)를 통해 요청된 제1 작업의 상태 확인 결과, 제1 작업이 종료하고 제1 터치스크린(151a)이 더 이상 사용중이 아니면, 제2 터치스크린(151b)에 대한 사용 요청에 대응되는 화면을 출력할 수 있다.
이때, 일부 부품의 장착 위치로 인해 제2 터치스크린(151b)에서 제한되는 기능이 있으면, 안내 로봇(100)은 제2 터치스크린(151b)의 사용자에게 제1 터치스크린(151a) 쪽으로 이동하여 사용하도록 유도하는 안내 가이드를 제공하거나 또는 안내 후 안내 로봇(100)을 회전 이동시켜서 사용자가 제1 터치스크린(151a) 앞에 오도록 움직일 수 있다.
이하에서는, 제1 및 제2 터치스크린(151a, 151b)이 모두 사용되는 경우, 제1 터치스크린(151a)을 통해 실행된 제1 작업의 상태 변화에 따른 제2 터치스크린(151a, 151b)의 화면 변화의 예시들을 구체적으로 설명하겠다.
여기에서, 상기 제1 작업의 상태 변화는 상기 제1 작업에 복수의 기능이 포함되고 하나의 기능(예, 내비게이션 화면 제공) 수행 후, 이어서 다른 기능(예, 길 안내 주행)을 수행하는 경우, 제1 작업을 수행하기 위해 새로 활성화된 기능(예, 카메라 촬영을 통한 확인 등)을 수행하는 경우, 제1 작업의 종료, 제1 작업을 요청한 사용자의 사용 의사 없음 확인 등의 경우를 포함할 수 있다.
이와 관련하여, 도 8a는 본 발명과 관련된 안내 로봇에서 제1 작업에 주행 기능 포함시 제2 터치스크린에 알림을 제공하는 화면 예시이고, 도 8b는 제1 터치스크린의 사용 의사 없음이 확인된 경우 제2 터치스크린의 화면 변화 예시이다.
안내 로봇(100)은 제1 작업에 안내 로봇(100)의 주행 기능 사용이 포함된 경우, 제1 작업의 상태가 주행 기능을 사용하도록 변화하면, 제2 터치스크린에 디스플레이된 제2 화면정보에 주행 기능의 실행과 관련된 안내 정보를 표시하도록 디스플레이(151)를 제어할 수 있다.
이는, 제2 터치스크린(151b)의 사용 요청 전에, 제1 터치스크린(151a)에 대한 사용이 있었으므로, 제1 터치스크린(151a)에 제어 우선권을 부여한 결과이다.
따라서, 제1 터치스크린(151a)의 사용자가 요청한 제1 작업에 주행 기능의 실행이 포함된 경우, 제2 터치스크린(151b)의 사용 시간을 제한할 수 있다. 이와 같이 제2 터치스크린(151b)의 남은 사용 가능 시간을 주지시키면, 안내 로봇(100)이 갑자기 움직이더라도 제2 터치스크린(151b)의 사용자의 안전 문제(예, 넘어짐 등)가 발생하거나 당황하는 상황이 발생하지 않는다.
도 8a를 참조하면, 안내 로봇(100)의 제1 터치스크린(151a)을 통해 예를 들어 길안내 요청(811)이 수신되고, 이후 제2 터치스크린(151b)에 사용 가이드 화면 또는 읽기 모드 메뉴화면(821)이 디스플레이된 상태에서, 안내 로봇(100) 길안내 요청(811)에 따라 이동하기 전, 제2 터치스크린(151b)에 남은 사용 시간 정보, 예를 들어 '5초 후 이동합니다'와 같은 이미지 화면(822)이 출력될 수 있다.
이때, 제2 터치스크린(151b)에 표시된 남은 사용 시간과 제1 터치스크린(151a)의 길안내 요청(811)에 따른 안내 로봇(100)의 이동 개시는 싱크(sync.)를 맞추어 표시될 수 있다.
제2 터치스크린(151b)에 남은 사용 시간이 경과된 후, 안내 로봇(100)이 주행을 개시하면, 이제 안내 로봇(100)은 제2 터치스크린(151b)의 사용 않음으로 인식하여, 제2 터치스크린(151b)에 기설정된 화면정보(예, 제2 광고 컨텐츠)(820)를 디스플레이하며 주행할 수 있다.
안내 로봇(100)이 주행하는 동안 제1 터치스크린(151a)의 사용자는 제1 터치스크린(151a)을 사용하지 않는데, 이때는 사용 의사 없음으로 처리하지 않고, 길안내 요청(811)이 종료되지 않는한 제1 터치스크린(151a)을 계속 사용하는 것으로 인지하도록 동작한다.
한편, 제1 터치스크린(151a)의 사용 의사 없음이 확인되면, 이제는 제1 작업을 수행할 필요가 없으므로, 제2 터치스크린(151b)의 사용범위를 제한할 필요가 없다.
이에, 안내 로봇(100)의 프로세서(180)는, 제2 터치스크린(151b)에 제2 화면정보가 디스플레이되는 동안, 제1 터치스크린(151a)의 사용 의사 없음이 인지된 것에 응답하여, 제1 터치스크린(151a)의 제1 화면정보를 기설정된 화면정보로 전환하고, 이제 제2 터치스크린(151b)의 사용에 따른 제2 작업에 대응되는 제3화면정보를 출력할 수 있다.
여기에서, 상기 제3화면정보는 제1 작업의 상태에 따라 사용범위가 제한되지 않는 화면(예, 통상의 메뉴화면)을 의미할 수 있다.
여기에서, 사용 의사 없음은 안내 로봇(100)이 주행 중이 아닌 상태에서 제1 터치스크린(151a)에 일정 시간 이상 터치입력이 없고 예를 들어, 근접센서(141)나 카메라(121)를 통해 사용자가 감지되지 않음이 확인된 것을 의미할 수 있다.
도 8을 참조하면, 제1 터치스크린(151a)에 메뉴화면(811)이 디스플레이되고, 이후 제2 터치스크린(151b)에의 사용 요청에 따라 제2 터치스크린(151b)에 사용 가이드 화면 또는 읽기 모드 메뉴화면(821)이 디스플레이된 상태에서, 제1 터치스크린(151a)의 사용 의사 없음이 확인되면, 사용 가이드 화면 또는 읽기 모드 메뉴화면(821)의 디스플레이를 중단한다.
이후, 제1 터치스크린(151a)에는 기설정된 화면정보(예, 제1 광고 컨텐츠)(810)가 디스플레이되고, 제2 터치스크린(151b)에는 사용범위가 제한되지 않는 메뉴 화면(811), 즉 제1 터치스크린(151a)에서 디스플레이되었던 메뉴화면과 동일한 메뉴화면이 출력될 수 있다.
또 다른 실시 예에서는, 제1 터치스크린(151a)의 사용 의사 없음이 확인되면, 제2 터치스크린(151b)의 사용자가 제1 터치스크린(151a)을 통해 로봇을 사용할 수 있도록 가이드 정보를 출력하거나, 안내 후 본체를 180 도 회전하여 메인인 제1 터치스크린(151a)을 사용하도록 동작할 수도 있다.
이상에서 살펴본 바와 같이, 본 개시에 따른 안내 로봇에 따르면 전면 디스플레이의 사용에 주행 기능이 포함된 경우 후면 디스플레이의 사용자에게 이를 알리거나 또는 주행 기능을 일시적으로 제한함으로서, 양면 디스플레이의 사용자가 모두 안전하게 안내 로봇을 이용할 수 있다.
위에서는, 제1 터치스크린(151a)의 사용 중 제2 터치스크린(151b)의 사용 요청시 제2 터치스크린(151b)에 대한 사용범위만 제한된 실시예들을 기술하였다. 이하에서는 제2 터치스크린(151b)의 사용 요청으로 인해 제1 터치스크린(151a)의 사용이 일부 제한되는 실시 예들을 구체적으로 설명하겠다.
또한, 이하의 실시 예들은, 설명의 편의를 위해 주로 제1 터치스크린(151a)의 사용 중에 제2 터치스크린(151b)에 대한 사용 요청이 있는 경우를 전제로 설명하였다. 그러나, 부품의 장착 위치로 인해 기능이 제한되는 경우가 아니라면, 제2 터치스크린(151b)의 사용 중에 제1 터치스크린(151a)에 대한 사용 요청이 있는 경우에도 마찬가지로 적용될 수 있다.
도 9는 본 발명과 관련된 안내 로봇의 또 다른 동작방법(900)의 예시 흐름도이다. 도 9의 각 단계는, 다른 설명이 없다면 안내 로봇(100)의 프로세서(180)를 통해 구현될 수 있다.
먼저, 제1 및 제2 터치스크린(151a, 151b)에 서로 다른 광고 컨텐츠가 디스플레이된 상태에서, 제1 터치스크린(151a)의 사용에 따른 제1 작업에 대응되는 제1화면정보가 제1 터치스크린(151a)에 출력될 수 있다(S910).
상기 제1 작업은, 제1 터치스크린(151a)에 디스플레이된 화면을 이용하여 입력받은 특정 기능 또는 특정 기능의 실행에 따른 안내 로봇(100)의 동작을 포함할 수 있다. 예를 들어, 상기 제1 작업은 메뉴화면요청, 사진촬영요청, 길안내요청에 대응되는 기능 또는 그 기능의 실행에 따른 동작을 의미할 수 있다.
상기 제1 화면정보는, 상기 제1 작업의 요청에 따른 안내 로봇(100)의 응답 화면 및 이를 포함하는 안내 화면(예, 제1 작업의 요청에 따라 활성화된 기능의 사용과 관련된 안내 화면)일 수 있다. 예를 들어, 메뉴화면요청에 따른 '메뉴화면', 사진촬영요청에 따른 '프리뷰 화면 및 촬영 안내 화면', 길안내요청에 따른 '내비게이션 화면 및 가이드화면'이 상기 제1화면정보로 출력될 수 있다.
이러한 상태에서, 안내 로봇(100)의 프로세서(180)는, 제2 터치스크린(151b)의 사용에 따른 제2 작업의 요청을 인식할 수 있다(S920).
여기에서, 상기 제2 작업은 제1 작업과 동일한 기능을 포함하거나 그리고/또는 전혀 다른 기능의 사용을 포함할 수 있다. 예를 들어, 상기 제1 작업은 길안내 요청이고, 상기 제2 작업은 사진촬영(예, 로봇과 함께 사진촬영) 요청인 경우, '주행 기능 사용'을 동일 기능으로 포함하고, '카메라 활성화 기능'을 다른 기능으로 포함한다고 말할 수 있다.
다음, 안내 로봇(100)은 제1 터치스크린(151a)에서의 제1 작업에 기초하여 제2 터치스크린(151b)에서 요청받은 제2 작업의 실행 여부를 결정할 수 있다(S930).
제2 작업의 실행 여부가 제1 작업에 기초하여 결정된다는 것은, 제2 터치스크린(151b)의 사용이 제1 터치스크린(151a)의 사용에 영향을 받음을 의미한다.
구체적으로, 제1 작업에 포함된 기능이 제2 작업과 동시에 수행될 수 없는 특성을 갖는 작업(예, 주행 기능을 포함한 길안내 등)이면, 제2 작업을 실행하지 않고 대기 상태를 유지한다. 반면, 제1 작업에 포함된 기능이 제2 작업과 동시에 수행될 수 있는 특성을 갖는 작업(예, 지도화면에서 특정 POI 안내 등)이고 제2 작업에 포함된 기능 또한 제1 작업과 독립적으로 수행될 수 있는 특성을 갖는 작업(예, 가이드 화면, 지도화면에서 특정 POI 안내 등)이면, 제2 작업을 실행하는 것으로 결정할 수 있다.
제2 작업을 실행하지 않기로 결정된 경우, 제2 터치스크린(151b)이 기설정된 화면정보(예, 제2 광고 컨텐츠)로 전환되는 것을 의미하는 것은 아니다.
다시 말해, 제2 작업이 대기 상태를 유지하는 동안 제2 터치스크린(151b)의 사용자에게 다음 동작을 안내하거나 또는 상황 변화(예, 작업 실행우선순위의 변경, 제1 작업의 중단/종료, 제1 작업과 공통 작업 부분 인식 등)를 인식하여 제2 작업의 적어도 일부를 실행할 수 있다.
한편, 안내 로봇(100)은 제2 터치스크린(151b)에서 요청받은 제2 작업에 기초하여, 제1 터치스크린(151a)에서의 제1 작업의 실행 상태를 변경할 수 있다(S940).
제1 작업의 실행 상태가 제2 작업에 기초한다는 것은, 제1 터치스크린(151a)에서의 사용이 제2 터치스크린(151b)의 사용에 영향을 받음을 의미한다.
구체적으로, 제2 작업과 제1 작업이 동시에 독립적으로 수행될 수 없는 특성을 갖는 작업들(예, 주행 기능을 포함한 길안내 등)이면, 제1 작업을 실행하지 않고 대기 상태를 유지하거나 또는 제1 작업의 실행을 일시 중단할 수 있다.
이 후, 제1 작업의 실행 상태는 안내 로봇(100)의 기설정된 기준에 따른 작업 처리 방식(예, 작업 실행우선순위의 설정, 제2 작업의 중단/종료, 제2 작업과 공통 작업 부분 인식)이 설정되면, 설정된 작업 처리 방식에 따라 제1 작업의 대기 상태를 해제하고 실행으로 전환시킬 수 있다.
도 10a 및 도 10b는 전술한 도 9의 동작방법과 관련하여, 제1 및 제2 터치스크린(151a, 151b)에서 요청받은 작업들에 동시에 실행될 수 없는 기능이 포함된 경우, 각 터치스크린의 화면 처리의 서로 다른 예시를 보인 도면이다.
먼저, 도 10a는 제2 터치스크린(151b)에의 작업 요청에 따라, 제1 터치스크린(151a)의 사용 모드가 크루저 모드(Cruise Mode)에서 스탠드 모드(Stand Mode)로 전환된 예시이다.
크루저 모드(Cruise Mode)는 안내 로봇(100)이 정해진 경로를 주행하면서 디스플레이(151)를 통해 화면을 보여주는 동작 모드를 의미한다. 그리고, 스탠드 모드(Stand Mode)는 안내 로봇(100)이 정해진 위치에 서서 디스플레이(151)를 통해 화면을 보여주는 동작 모드를 의미한다.
안내 로봇(100)의 프로세서(180)는 제1 작업에 안내 로봇의 주행 기능이 포함된 경우, 제2작업에 기초하여 주행 기능을 중단한 상태로 제1작업을 실행한다.
도 10a에서, 제1 터치스크린(151a)의 사용자가 제어권을 가지고 제1 터치스크린(151a)을 사용하는 중에, 제2 터치스크린(151b)에 터치 입력이 가해지면, 제2 터치스크린(151b)에 디스플레이되던 사이니지 화면(1020)이 메뉴화면(1021)으로 전환된다.
이때, 제1 터치스크린(151a)에 디스플레이되던 메뉴화면(1011)은 이제 크루저 모드(Cruise Mode)에서 스탠드 모드(Stand Mode)로 전환된 메뉴화면(1012)으로 디스플레이된다. 크루저 모드(Cruise Mode)의 메뉴화면(1011)과 스탠드 모드(Stand Mode)의 메뉴화면(1012)은 시각적으로는 변화가 없으나, 안내 로봇(100)은 주행을 중단하거나 또는 현재 위치에서 움직이지 않고 디스플레이(151)를 제어한다.
제2 터치스크린(151b)에 디스플레이되는 메뉴화면(1021) 또한 스탠드 모드(Stand Mode)에서 실행된다. 따라서, 제1 및 제2 터치스크린(151a, 151b)의 사용자 유지되는 동안 각 사용자는 스탠드 모드(Stand Mode)로 안내 로봇을 사용할 수 있다.
다음, 도 10b는 제2 터치스크린(151b)에의 작업 요청에 따라, 제1 터치스크린(151a)에서의 작업(제1 작업)과 제2 터치스크린(151b)에서의 작업(제2 작업)이 모두 지연/대기 상태로 전환된 예시이다.
상기 제1 작업과 제2 작업 모두가, 실행시 서로 영향을 주는 기능을 포함하는 경우 또는 동시에 실행될 수 없는 경우, 안내 로봇(100)은 해당 작업에 대한 처리를 모두 지연/대기 상태(이하, '지연 모드(Delay Mode)')로 전환할 수 있다.
실시 예에서, 상기 지연 모드는 안내 로봇(100)이 작업(제1 및 제2 작업)의 실행 우선순위를 결정할 때까지 지속될 수 있다.
도 10b에서, 제1 터치스크린(151a)의 사용자가 제어권을 가지고 제1 터치스크린(151a)을 사용하는 중에, 제2 터치스크린(151b)에 터치 입력이 가해지면, 제2 터치스크린(151b)에 디스플레이되던 사이니지 화면(1020)이 메뉴화면(1022)으로 전환되고 지연 모드(Delay Mode)의 작업으로 처리된다.
이때, 제1 터치스크린(151a)에 디스플레이되던 메뉴화면(1011)은 이제 지연 모드(Delay Mode)로 동작하는 메뉴화면(1013)으로 디스플레이된다. 제1 터치스크린(151a)의 메뉴화면(1013) 또는 제2 터치스크린(151b)의 메뉴화면(1022)을 통해 실행입력된 기능은 안내 로봇(100)이 기설정된 기준에 따라 실행 우선순위를 결정할 때까지 처리 지연(Delay)된다.
한편, 상기 지연 모드에서, 제1 및 제2 터치스크린(151a, 151b) 중 어느 하나의 사용자가 사라져서 사용 없음이 확인되면, 지연 모드를 해제하고, 지연 처리된 작업의 기능을 활성화하여, 다른 터치스크린의 사용자가 요청한 작업을 바로 실행할 수 있다.
이상에서와 같이 본 개시에 따른 실시 예에 의하면, 양면 디스플레이의 사용자가 모두 안전하고 공평하게 안내 로봇을 이용할 수 있도록 함으로서, 양면 디스플레이를 구비한 안내 로봇의 사용 경험과 사용 만족을 동시에 향상시킬 수 있다.
위에서 설명한 바와 같이 양면 디스플레이의 사용자가 모두 안전하고 공평하게 안내 로봇을 이용할 수 있도록, 제1 및 제2 터치스크린 각각에 일부 사용 제한을 하는 경우, 사용자는 안내 로봇이 움직임지 않거나 요청한 작업의 처리가 지연되는 이유가 궁금할 수 있다.
이와 관련하여, 도 11a, 도 11b, 도 11c는 본 발명과 관련된 안내 로봇에서, 제2 터치스크린의 사용 상태를 제1 터치 스크린에 알려주는 서로 다른 화면 예시들을 보인 도면들이다. 한편, 도 11a, 도 11b, 도 11c에서는 제2 터치스크린의 사용 상태를 제1 터치 스크린에 제공하는 것을 예시로 설명하였으나, 이와 반대로 제1 터치 스크린의 사용 상태를 제2 터치스크린에 제공해줄 수 있다.
안내 로봇(100)의 프로세서(180)는, 제1 터치스크린(151a)의 사용 중에 제2 터치스크린(151b)의 사용 요청이 감지되면, 제2 터치스크린(151b)에 대한 사용 요청에 대응되는 알림 정보를 제1 터치스크린(151a)의 일 영역에 표시하도록, 디스플레이(151)를 제어할 수 있다. 이에 의해, 제1 터치스크린(151a)의 사용자는 기존의 제어권(또는, 사용범위)의 변화를 감지할 수 있다.
상기 알림 정보는 제2 터치스크린(151b)이 사용자에 의해 사용중임을 나타내는 텍스트 또는 아이콘이나 그래픽 형태의 이미지일 수 있다.
예를 들어, 도 11a를 참조하면, 제2 터치스크린(151b)에 대한 사용 요청이 인식되면, 제1 터치스크린(151a)의 일 영역, 예를 들어 우측 상단에 제2 터치스크린(151b)이 다른 사용자에 의해 사용중임을 나타내는 사람 이미지 아이콘(1111)이 표시될 수 있다.
비록 도시되지 않았지만, 상기 알림 정보는, 제2 터치스크린(151b)의 사용 요청이 수신된 시간(예, 제2 터치스크린(151b)이 터치된 시간), 제2 터치스크린(151b)를 통해 요청받은 작업의 종류와 작업의 세부정보가 함께 표시될 수 있다.
한편, 제1 터치스크린(151a)에 표시된 상기 알림 정보는 제2 터치스크린(151b)의 사용 상태에 따라 가변될 수 있다. 제2 터치스크린(151b)의 사용 상태는, 사용자 없음/사용 종료, 새로운 작업 요청, 작업의 변경 요청 등을 포함할 수 잇다.
도 11b를 참조하면, 제2 터치스크린(151b)에 대한 사용 없음(사용자 없음)이 감지됨에 따라, 제1 터치스크린(151a)에 표시되었던 사람 이미지 아이콘(1111)이 사라지고, 빈 아이콘(1110)이 표시된 것을 확인할 수 있다. 그에 따라, 제1 터치스크린(151a)의 사용자는 제1 터치스크린(151a)을 사용 제한 없이 이용할 수 있음을 인지할 수 있다.
제2 터치스크린(151b)에 대한 사용 없음(사용자 없음)은, 제2 터치스크린(151b)에 대한 작업의 요청이 없고, 제2 터치스크린(151b)에 일정시간(예, 5초이상)을 경과하도록 터치입력이 없고, 근접센서(141)를 통해 제2 터치스크린(151b)에 더이상 사용자가 감지되지 않음이 충족된 경우에 해당할 수 있다.
실시 예에 따라, 사람 이미지 아이콘(1111)이 표시되거나 사리질 때, 음향 출력부(152)를 통해 대응되는 사운드(예, 로그인/로그아웃 사운드)가 출력될 수 있다.
도 11c를 참조하면, 제2 터치스크린(151b)의 사용에 따라 활성화된 기능을 제1 터치스크린(151a)의 사용자가 확인할 수 있도록, 제2 터치스크린(151b)의 사용 상태를 나타내는 기능 표시 아이콘(1112) 및 요청받은 작업의 세부 정보(1113)가 표시될 수 있다. 실시 예에 따라, 기능 표시 아이콘(1112)에 대한 터치입력이 가해진 경우에 한하여 세부 정보(1113)가 표시될 수도 있다.
기능 표시 아이콘(1112)은 제2 터치스크린(151b)를 통한 제2 작업에 포함된 기능에 대응되는 대표 이미지가 표시될 수 있다. 예를 들어, 상기 제2 작업이 사진촬영기능을 포함하는 경우, 기능 표시 아이콘(1112)에 카메라가 대표 이미지로 표시될 수 있고, 상기 제2 작업이 길안내 기능을 포함하는 경우, 기능 표시 아이콘(1112)에 위치핀 또는 플래그가 대표 이미지로 표시될 수 있다.
한편, 도시되지 않았지만, 실시 예에 따라서는, 안내 로봇(100)이 제2 터치스크린(151b)의 사용 없음을 감지하기 전에, 제1 터치스크린(151a)의 일 영역에 표시된 아이콘에 대한 터치입력(예, 아이콘을 터치하여 나감 처리)을 통해 제1 터치스크린(151a)의 제어권(사용권)을 신속하게 회복할 수도 있다.
다만, 이러한 경우, 적어도 제2 터치스크린(151b)에도 사용 없음 여부를 확인하기 위한 알림 정보(예, '더 이상 사용하지 않으시겠습니까?')를 제공하고, 일정시간 무응답시 제2 터치스크린(151b)의 사용 없음으로 처리할 수 있을 것이다. 이는, 안내 로봇(100)이 직접 사용 없음을 인지하기까지 소요되는 시간을 절약하고 제1 터치스크린(151a)의 사용자가 보다 빠르게 제어권(사용권)을 회복할 수 있게 해준다.
또한, 실시 예에 따라서는, 제2 터치스크린(151b)의 사용자는 제1 터치스크린(151a)의 사용자가 내가 요청한 작업의 세부정보를 알수 없도록, 제2 터치스크린(151b)에 대한 터치입력을 이용하여 요청한 작업의 세부정보 미표시를 요청할 수도 있다.
이와 같이 본 개시에 따르면, 양면 디스플레이의 각 사용자는 반대쪽 디스플레이의 사용 여부 및 사용 상태를 확인할 수 있고, 어느 디스플레이에서든 반대쪽 디스플레이의 사용 의사가 없음이 확인되면 제한없이 디스플레이를 사용할 수 있도록 구현함으로써, 서로 다른 사용자에 의한 양면 디스플레이의 사용성을 보다 극대화시킬 수 있다.
이하에서는, 전술한 제1 및 제2 작업이 동시에 수행될 수 없어서 지연 모드(Delay Mode)로 전환된 상태에서, 안내 로봇(100)이 작업 실행우선순위를 설정하는 구체적인 예시들을 살펴보겠다.
도 12, 도 13, 도 14는 본 발명과 관련된 안내 로봇에서 제1 및 제2 터치스크린에 대한 작업이 서로 동시에 실행될 수 없는 경우의 처리 예시들로, 예를 들어 제1 터치스크린에 대한 작업으로 길안내가 요청된 상태에서 제2 터치스크린에 대한 서로 다른 사용 요청에 대한 처리 예시들을 도시한 것이다.
도 12, 도 13, 도 14에서는 설명의 편의를 위해, 먼저 요청받은 작업, 즉 제1 작업으로 길안내 요청을 예시로 하였으나, 이에 제한되지 않으며, 주행 기능을 포함하는 다른 작업 또는 주행 기능을 포함하지 않지만 동시 작업이 불가한 다른 작업에 대해서도 마찬가지로 적용될 수 있을 것이다.
실시 예에서, 제1 및 제2 터치스크린(151a, 151b)을 통해 동시에 수행될 수 없는 작업(제1 및 제2 작업)이 각각 요청된 경우, 안내 로봇(100)의 프로세서(180)는 제1 및 제2 작업에 대한 작업 요청 시간에 기초하여 제1 및 제2 작업의 실행 우선순위를 결정할 수 있다.
구체적으로, 안내 로봇(100)은 큐(queue) 방식에 따라, 먼저 요청된 작업에 대한 실행 우선순위를 보다 높게 설정할 수 있다. 이 후, 안내 로봇(100)은 결정에 따른 실행 우선순위를 포함한 작업 처리 정보를 제1 및 제2 터치스크린(151a, 151b)에 출력하고, 상기 작업 처리 정보에 기초하여 안내 로봇의 동작을 제어할 수 있다.
실시 예에 따라, 제1 터치스크린(151a)의 사용 중에 이후, 제2 터치 스크린(151b)에서 사용 요청이 감지되었으나, 제2 터치 스크린(151b)에 대한 작업 요청이 앞서는 경우, 안내 로봇(100)은 요청 시간이 더 앞서는 제2 터치 스크린(151b)에 작업의 실행 우선선위를 더 높게 설정할 수 있다.
예를 들어, 도 12를 참조하면, 제1 터치스크린(151a)의 일 영역(예, 우측 상단)에는, 후면의 제2 터치 스크린(151b)의 사용 요청 및 요청받은 작업(예, 길안내)을 나타내는 제1 그래픽객체(1212)와 작업의 세부정보를 나타내는 제2 그래픽객체(1213)('A까지 길안내')가 표시될 수 있다.
이와 같이 제1 및 제2 그래픽객체(1212, 1213)가 표시되는 동안, 제2 터치 스크린(151b)을 통해 요청받은 작업(예, 길안내)을 나타내는 화면정보(1211)가 표시될 수 있다. 안내 로봇(100)은, 제1 및 제2 터치스크린(151a, 151b)에서 요청받은 작업을 대기 모드(Delay Mode)로 전환하고, 작업요청 순서에 대응하도록 요청받은 작업들의 실행 우선순위를 설정하고, 작업 처리 방식을 제공한다.
그에 따라, 제1 터치스크린(151a)에는 요청받은 작업의 세부정보를 나타내는 제2 및 제3 그래픽객체(1213, 1211)가 작업 요청 순서에 따라(즉, 후 실행 작업이 아래에 위치하도록) 표시된다. 그리고, 작업 처리 방식으로, 제1 및 제2 터치스크린(151a, 151b)에서 요청받은 복수의 위치 정보(1215)가 현재 위치 및 경로를 포함하여 표시된다. 이때, 먼저 요청받은 작업에 대응되는 위치를 먼저 방문하고(즉, 경유지로 설정), 나중에 요청받은 작업에 대응되는 위치를 목적지로 설정하여(즉, 최종 목적지로 설정) 길안내 경로를 설정할 수 있다.
길안내를 위한 주행이 시작되면, 제1 터치스크린(151a)의 화면정보(1216)로, 주행 시작을 알리는 알림정보와 함께 작업(길안내)의 실행 순서가 디스플레이된다.
실시 예에 따라, 안내 로봇(100)의 프로세서(180)는 제1 및 제2 작업의 실행이 지연되는 동안 또는 상기 작업 처리 정보에 기초하여 동작을 수행하는 동안, 제1 및 제2 터치스크린(151a, 151b) 중 어느 하나에 대한 사용 의사 없음이 감지되면, 다른 하나에 대한 작업을 이어서 실행할 수 있다.
예를 들어, 도 12에서 A 위치 길안내 요청이 중단된 경우, 안내 로봇(100)은 큐(queue) 방식에 따라 선 작업을 삭제하고, 다음 작업인 B 위치로의 길안내를 바로 실행할 수 있다.
한편, 동시에 실행할 수 없는 복수의 작업에 대한 작업 처리 방식은 다양하게 변형될 수 있다.
실시 예에 따라, 안내 로봇(100)의 프로세서(180)는, 상기 제1 및 제2 작업에 공통 작업 부분이 포함된 경우, 공통 작업을 포함한 작업 처리 정보를 상기 제1 및 제2 터치스크린에 출력하고, 그 공통 작업에 따른 안내 로봇의 동작을 수행하는 동안 나머지 부분 작업에 대한 정보를 각각의 터치 스크린에 제공할 수 있다.
예를 들어, 도 13의 (a)을 참조하면, 제1 및 제2 터치스크린(151a, 151b)에서 요청받은 A 길안내 요청 및 B 길안내 요청에 따라, 제1 터치스크린(151a)에 제2 터치스크린(151b)을 통해 요청받은 작업(예, 길안내 요청)의 기능을 나타내는 제1 그래픽객체(1312), 그 작업의 세부정보(예, A 위치로의 길안내)를 나타내는 제2 그래픽객체(1313) 및 제1 터치스크린(151a)을 통해 요청받은 작업 내용(예, B 위치로의 길안내)을 나타내는 제3 그래픽객체(1311)가 표시되고, 사용자들을 공통 경로(예, 현재 위치 P에서 M까지 위치)까지 먼저 안내하는 화면정보(1315)가 출력될 수 있다.
또는, 예를 들어, 도 13의 (b)를 참조하면, 안내 로봇(100)은 로봇의 현재 위치(P)에서 가까운 위치(D)로 길안내 후(①), 보다 먼 위치(C)를 나중에 길안내하는(②) 안내화면(1315')을 출력할 수 있다. 이때, 위치(C)로의 길안내를 요청한 사용자의 터치스크린에, 보다 경로가 짧은 위치(D)를 먼저 안내한 후 돌아올 것을 알리는 알림정보가 출력될 수 있고, 위치(C) 길안내 요청이 취소되지 않는 한, 해당 작업 요청은 계속 유지될 것이다.
한편, 실시 예에 따라, 안내 로봇(100)의 프로세서(180)는 기설정된 조건에 해당하는 경우, 상기 제1 및 제2 작업의 실행 우선순위를 변경하고, 상기 변경에 따라 이전 작업의 실행을 일시 중단할 수 있다. 그런 다음, 상기 안내 로봇(100)은 적어도 제1 및 제2 터치스크린 중 작업이 중단된 하나의 터치스크린에 실행 우선순위의 변경 및 다음 동작과 관련된 안내 정보를 출력할 수 있다.
여기에서, 상기 기설정된 조건은, 작업의 예상 완료 시간, 작업에 주행 기능의 포함 여부, 및 긴급을 요하는 작업인지 여부와 관련된 조건일 수 있다.
구체적으로, 예를 들어 도 14를 참조하면, 제1 터치스크린(151a)에서 A 위치로의 길안내 요청(1411)이 수신되고, 요청에 대응되는 길안내 화면(1412)이 출력되는 동안, 제2 터치스크린(151b)에 기설정된 조건에 해당하는 작업으로, 현재 위치에서 실행가능하고 작업의 예상 완료 시간이 짧은 사진촬영 요청(1421)이 수신될 수 있다.
이러한 경우, A 위치로의 길안내 요청(1411)이 먼저 수신되었으나, 현재 위치에서 실행가능하고 작업의 예상 완료 시간이 짧은 사진촬영 요청(1421)에 대응되는 실행화면(1422)이 제2 터치스크린(151b)에 출력된다.
한편, 제1 터치스크린(151a)에는 대기 상태를 알리는 화면정보(1413)가 출력되고, 사진촬영 완료 후 길안내가 시작될 것을 알려주는 알림정보(1414)가 이어서 출력될 수 있다. 제1 터치스크린(151a)에서의 사진촬영이 완료되면, 이를 제1 터치스크린(151a)에 알림하고, 이어서 A 위치로의 길안내를 위한 주행이 개시된다(1415).
이상에서 설명한 바와 같이, 본 발명의 일부 실시 예에 따른 안내 로봇 및 그것의 동작방법에 의하면, 전면 디스플레이의 사용중에 후면 디스플레이에 대한 사용 요청이 있는 경우, 사용 요청을 무시하지 않고, 읽기 모드 등의 제한적 사용을 허용함으로써, 양면 디스플레이를 보다 효율적으로 활용하여 사용성이 확대된다. 또한, 전면 디스플레이의 사용에 주행 기능이 포함된 경우 후면 디스플레이의 사용자에게 이를 알리거나 또는 주행 기능을 일시적으로 제한함으로서, 양면 디스플레이의 사용자가 모두 안전하게 안내 로봇을 이용할 수 있다. 나아가, 양면 디스플레이의 각 사용자는 반대쪽 디스플레이의 사용 여부 및 사용 상태를 확인할 수 있고, 어느 디스플레이에서든 반대쪽 디스플레이의 사용 의사가 없음이 확인되면 제한없이 디스플레이를 사용할 수 있도록 구현함으로써, 서로 다른 사용자에 의한 양면 디스플레이의 사용성 확대를 보다 극대화시킬 수 있다. 한편, 양면 디스플레이를 통해 요청받은 복수의 작업들이 동시에 또는 독립적으로 수행될 수 없는 상황에서도, 작업의 요청순서, 공통 작업 부분의 검출, 작업의 예상완료 시간 등의 기준을 기초로 보다 효율적으로 복수의 작업들을 처리함으로서, 서로 다른 사용자의 사용 경험 및 사용 만족을 크게 향상시킬 수 있다.
본 발명의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 발명의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시 예와 같은 특정 실시 예는 단지 예시로 주어진 것으로 이해되어야 한다.
이상에서 실시예들에 설명된 특징, 구조, 효과 등은 본 발명의 적어도 하나의 실시예에 포함되며, 반드시 하나의 실시예에만 한정되는 것은 아니다. 나아가, 각 실시예에서 예시된 특징, 구조, 효과 등은 실시예들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시예들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.
또한, 이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (16)

  1. 안내 로봇으로서,
    상기 안내 로봇을 이동시키는 주행부;
    상기 안내 로봇의 바디 전면과 바디 후면에 구비된 제1 터치스크린 및 제2 터치스크린을 포함하는 디스플레이부; 및
    상기 디스플레이부와 전기적으로 연결되어, 상기 제1 터치스크린의 사용에 따른 제1 작업에 대응되는 제1화면정보를 상기 제1 터치스크린에 출력하는 프로세서를 포함하고,
    상기 프로세서는,
    상기 제1 터치스크린에 상기 제1화면정보가 디스플레이되는 동안 상기 제2 터치스크린에 대한 사용 요청을 인식하고, 상기 제1 작업의 상태에 기초하여 상기 제2 터치스크린에 대한 사용 요청에 대응되는 제2 화면정보를 결정하여 상기 제2 터치스크린에 출력하는 안내 로봇.
  2. 제1항에 있어서,
    상기 제2 터치스크린에 대한 사용 요청의 인식은,
    상기 제2 터치스크린에 기설정된 화면정보가 디스플레이되는 동안, 근접 센서를 통한 상기 제2 터치스크린에의 사용자 감지 및 상기 제2 터치스크린에 가해진 터치입력을 기초로 수행되는 것인 안내 로봇.
  3. 제1항에 있어서,
    상기 제1 작업이 실행 상태이면, 상기 제2 터치스크린에 대한 사용 요청에 응답하여 읽기 전용의 메뉴 화면이 상기 제2화면정보로 결정되는 안내 로봇.
  4. 제1항에 있어서
    상기 프로세서는,
    상기 제1 작업의 상태에 따라 상기 제2 터치스크린에 대한 사용 요청에 대응되는 기능을 실행할 수 없음이 결정된 것에 응답하여, 요청한 기능을 실행할 수 없음을 안내하는 정보를 상기 제2 터치 스크린에 출력하는 안내 로봇.
  5. 제1항에 있어서,
    상기 프로세서는,
    상기 제1 작업에 상기 안내 로봇의 주행 기능이 포함된 경우, 상기 제2 화면정보에 상기 주행 기능의 실행과 관련된 안내 정보를 포함하여 상기 제2 터치스크린에 출력하는 안내 로봇.
  6. 제1항에 있어서,
    상기 프로세서는,
    상기 제2 터치스크린에 상기 제2 화면정보가 디스플레이되는 동안 상기 제1 터치스크린의 사용 의사 없음이 인지된 것에 응답하여,
    상기 제1 화면정보를 기설정된 화면정보로 전환하고, 상기 제2 터치스크린의 사용에 따른 제2 작업에 대응되는 제3화면정보를 출력하는 안내 로봇.
  7. 제1항에 있어서,
    상기 프로세서는,
    상기 제1 작업에 대응되는 제1화면정보가 디스플레이되는 동안 상기 제2 터치스크린의 사용에 따른 제2 작업의 요청을 인식하고,
    상기 제1 작업의 상태에 기초하여 상기 제2작업의 실행 여부를 결정하고,
    상기 제2 작업에 기초하여 상기 제1 작업의 실행 상태를 변경하는 안내 로봇.
  8. 제7항에 있어서,
    상기 프로세서는,
    상기 제1 작업에 상기 안내 로봇의 주행 기능이 포함된 경우, 상기 제2 작업에 기초하여 상기 주행 기능을 중단한 상태에서 상기 제1작업을 실행하는 안내 로봇.
  9. 제7항에 있어서,
    상기 프로세서는,
    상기 제1 및 제2 작업이 동시에 실행될 수 없는 기능을 포함하는 경우, 작업의 실행 우선순위를 결정할 때까지 상기 제1 및 제2 작업의 실행을 지연시키는 안내 로봇.
  10. 제9항에 있어서,
    상기 프로세서는,
    상기 제2 터치스크린에 대한 사용 요청에 대응되는 알림 정보를 상기 제1 터치스크린의 일 영역에 표시하고,
    상기 알림 정보는 상기 제2 터치스크린의 사용 상태에 따라 가변되는 안내 로봇.
  11. 제9항에 있어서,
    상기 프로세서는,
    상기 제1 및 제2 작업에 대한 작업 요청 시간에 기초하여 상기 제1 및 제2 작업의 실행 우선순위를 결정하고,
    상기 결정에 따른 실행 우선순위를 포함한 작업 처리 정보를 상기 제1 및 제2 터치스크린에 출력하고, 상기 작업 처리 정보에 기초하여 안내 로봇의 동작을 수행하는 안내 로봇.
  12. 제11항에 있어서,
    상기 프로세서는,
    상기 제1 및 제2 작업의 실행이 지연되는 동안 또는 상기 작업 처리 정보에 기초하여 동작을 수행하는 동안,
    상기 제1 및 제2 터치스크린 중 어느 하나에 대한 사용 의사 없음이 감지된 것에 응답하여 다른 하나에 대한 작업을 이어서 실행하는 안내 로봇.
  13. 제9항에 있어서,
    상기 프로세서는,
    상기 제1 및 제2 작업에 공통 작업 부분이 포함된 경우 상기 공통 작업을 포함한 작업 처리 정보를 상기 제1 및 제2 터치스크린에 출력하고,
    상기 공통 작업에 따른 안내 로봇의 동작을 수행하는 동안 나머지 부분 작업에 대한 정보를 각각의 터치 스크린에 제공하는 안내 로봇.
  14. 제11항에 있어서,
    상기 프로세서는,
    기설정된 조건에 해당하면 상기 제1 및 제2 작업의 실행 우선순위를 변경하고, 상기 변경에 따라 이전 작업의 실행을 일시 중단하고, 상기 제1 및 제2 터치스크린 중 작업이 중단된 하나에 상기 실행 우선순위의 변경 및 다음 동작과 관련된 안내 정보를 출력하는 안내 로봇.
  15. 제14항에 있어서,
    상기 기설정된 조건은, 작업의 예상 완료 시간, 작업에 주행 기능의 포함 여부, 및 긴급을 요하는 작업인지 여부와 관련된 안내 로봇.
  16. 안내 로봇의 동작방법으로서,
    안내 로봇의 바디 전면과 바디 후면에 구비된 제1 터치스크린 및 제2 터치 스크린 각각에 서로 다른 화면을 디스플레이하는 단계;
    상기 제1 터치스크린의 사용에 따른 제1 작업에 대응되는 제1 화면정보를 상기 제1 터치스크린에 출력하는 단계;
    상기 제1 터치스크린에 상기 제1 화면정보가 디스플레이되는 동안 상기 제2 터치스크린에 대한 사용 요청을 인식하는 단계; 및
    상기 제1 작업의 상태에 기초하여 상기 제2 터치스크린에 대한 사용 요청에 대응되는 제2 화면정보를 결정하여 상기 제2 터치스크린에 출력하는 단계를 포함하는 안내 로봇의 동작방법.
PCT/KR2022/014317 2022-09-26 2022-09-26 안내 로봇 및 안내 로봇의 동작방법 WO2024071453A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2022/014317 WO2024071453A1 (ko) 2022-09-26 2022-09-26 안내 로봇 및 안내 로봇의 동작방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2022/014317 WO2024071453A1 (ko) 2022-09-26 2022-09-26 안내 로봇 및 안내 로봇의 동작방법

Publications (1)

Publication Number Publication Date
WO2024071453A1 true WO2024071453A1 (ko) 2024-04-04

Family

ID=90478267

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/014317 WO2024071453A1 (ko) 2022-09-26 2022-09-26 안내 로봇 및 안내 로봇의 동작방법

Country Status (1)

Country Link
WO (1) WO2024071453A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107186729A (zh) * 2017-06-20 2017-09-22 江苏红石信息系统集成服务有限公司 一种具有双屏的服务机器的显示方法
KR20190003121A (ko) * 2017-06-30 2019-01-09 엘지전자 주식회사 이동 로봇
KR20190100088A (ko) * 2019-03-08 2019-08-28 엘지전자 주식회사 로봇
KR20210078060A (ko) * 2019-12-18 2021-06-28 삼성전자주식회사 사용자와의 인터랙션 중 인터럽션(제3자로부터의 개입)을 방지하는 로봇
CN115042200A (zh) * 2022-06-22 2022-09-13 成都锦城学院 一种文博展厅智能机器人

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107186729A (zh) * 2017-06-20 2017-09-22 江苏红石信息系统集成服务有限公司 一种具有双屏的服务机器的显示方法
KR20190003121A (ko) * 2017-06-30 2019-01-09 엘지전자 주식회사 이동 로봇
KR20190100088A (ko) * 2019-03-08 2019-08-28 엘지전자 주식회사 로봇
KR20210078060A (ko) * 2019-12-18 2021-06-28 삼성전자주식회사 사용자와의 인터랙션 중 인터럽션(제3자로부터의 개입)을 방지하는 로봇
CN115042200A (zh) * 2022-06-22 2022-09-13 成都锦城学院 一种文博展厅智能机器人

Similar Documents

Publication Publication Date Title
WO2021010502A1 (ko) 로봇 및 그를 이용한 물품 관리 방법
WO2019216578A1 (en) Method and apparatus for executing cleaning operation
WO2021015308A1 (ko) 로봇 및 그의 기동어 인식 방법
WO2020141747A1 (ko) 이동 로봇 및 그의 동작 방법
WO2020256195A1 (ko) 빌딩 관리 로봇 및 그를 이용한 서비스 제공 방법
WO2019031825A1 (ko) 전자 장치 및 그 동작 방법
WO2014088253A1 (en) Method and system for providing information based on context, and computer-readable recording medium thereof
WO2019132410A1 (en) Electronic device and control method thereof
WO2020190082A1 (ko) 이동 단말기를 이용한 내비게이션 서비스 제공 방법 및 이동 단말기
WO2019124963A1 (ko) 음성 인식 장치 및 방법
WO2020262746A1 (ko) 인공지능 기반의 세탁 코스 추천 장치 및 그 제어 방법
WO2021006404A1 (ko) 인공지능 서버
WO2020141952A1 (en) Conversational control system and method for registering external device
EP3773111A1 (en) Method and apparatus for executing cleaning operation
WO2018117538A1 (ko) 차선 정보를 추정하는 방법 및 전자 장치
WO2020251074A1 (ko) 음성 인식 기능을 제공하는 인공 지능 로봇 및 그의 동작 방법
WO2019160396A2 (ko) 안내 로봇 및 안내 로봇의 동작 방법
WO2020241920A1 (ko) 장치 정보에 기반하여, 다른 장치를 제어할 수 있는 인공 지능 장치
WO2019208950A1 (ko) 사용자에게 서비스를 제공하는 이동형 로봇 장치 및 방법
WO2021045271A1 (ko) 로봇
WO2020230928A1 (ko) 로봇 및 그의 제어 방법
WO2020246640A1 (ko) 사용자의 위치를 결정하는 인공 지능 장치 및 그 방법
WO2021215547A1 (ko) 스마트 홈 장치 및 방법
WO2021206221A1 (en) Artificial intelligence apparatus using a plurality of output layers and method for same
WO2020246647A1 (ko) 인공 지능 시스템의 동작을 관리하는 인공 지능 장치 및 그 방법