KR20230095585A - 안내 로봇 및 그것의 동작 방법 - Google Patents

안내 로봇 및 그것의 동작 방법 Download PDF

Info

Publication number
KR20230095585A
KR20230095585A KR1020210185221A KR20210185221A KR20230095585A KR 20230095585 A KR20230095585 A KR 20230095585A KR 1020210185221 A KR1020210185221 A KR 1020210185221A KR 20210185221 A KR20210185221 A KR 20210185221A KR 20230095585 A KR20230095585 A KR 20230095585A
Authority
KR
South Korea
Prior art keywords
user
guide robot
voice
main body
robot
Prior art date
Application number
KR1020210185221A
Other languages
English (en)
Inventor
장동선
최종오
이수진
김형진
김병준
박미현
최형진
윤문호
이정현
박성현
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020210185221A priority Critical patent/KR20230095585A/ko
Priority to US17/940,763 priority patent/US20230197073A1/en
Publication of KR20230095585A publication Critical patent/KR20230095585A/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1684Tracking a line or surface by means of sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)

Abstract

안내 로봇 및 안내 로봇의 동작 방법에 개시된다. 본 발명에 따른 안내 로봇은 기동어나 정해진 제스처를 발화하지 않고도 사용자의 사용 의사를 파악하여 음성 대화를 개시할 수 있다. 이를 위해, 본 발명에 따른 안내 로봇은 일반 모드에서는 주행을 수행하면서 터치스크린에 적어도 하나의 디지털 사이니지를 상기 터치 스크린에 디스플레이하고, 센서를 통해 사용자의 접근이 감지된 것에 응답하여 본체의 주행을 정지하고 카메라를 활성화 한다. 그리고, 상기 카메라를 통해 감지된 사용자의 얼굴 및 얼굴 각도에 기초하여 사용 의사 있음을 결정하고, 그 결정에 근거하여 음성 수신부를 활성 상태로 하여 음성 대화 모드를 실행하고, 음성 대화 모드의 실행에 따라 디지털 사이니지의 디스플레이를 중단하고 사용 가이드 정보를 출력한다.

Description

안내 로봇 및 그것의 동작 방법{GUIDE ROBOT AND ITS OPERATION METHOD}
본 발명은 안내 로봇 및 그것의 동작 방법에 관한 것으로, 보다 구체적으로는 기동어 없이도 사용자의 대화 의도를 파악할 수 있도록 구현한 안내 로봇 및 그것의 동작 방법에 관한 것이다.
최근, 사용자에게 다양한 안내 서비스를 제공하는 안내 로봇에 대한 관심이 꾸준히 증가하고 있으며, 특히 안내 로봇에서도 다양한 기기에서와 마찬가지로, 음성 대화 기능 지원이 확대되고 있다.
음성 대화 기능을 활성화 하는 경우, 노이즈 및 비의도적 음성 등으로 인해 음성 오인식 문제가 발생할 수 있으므로, 사용자의 대화 의도를 파악하여 이를 기반으로 음성 대화 기능을 활성화(trigger)하는 방법이 필요하다.
기동어(wake-up word) 방식은 안내로봇이 미리 설정한 키워드의 음성신호를 상시 감지하고, 해당 키워드가 불려진 경우에만 음성 대화를 활성화하는 방식이다. 이러한 기동어 방식을 통해 안내로봇에 명령을 내리거나 또는 안내 로봇과 대화를 하기 위해서는, 먼저 사용자가 사전에 설정된 기동어(wake-up word)를 호출하고, 안내로봇은 그에 대한 인식이 필요하다.
이와 관련하여 국제특허출원 WO2017/217978 A1 (이하, '선행문헌 1'이라 함)에는 적어도 하나의 기동어(wake-up word)를 통해 음성 앱을 활성화하고, 발화된 음성에 기동어가 포함되어 있는지를 판단하여, 자동화된 음성 인식의 정보 표시를 수행하는 구성을 개시한다.
또한, 한국 특허출원 제10-2014-0166478호 (이하, '선행문헌 2'라 함)에는 전자 장치의 저전력 모드에서 지정된 클록을 사용하는 제1 프로세서가 마이크를 통해 입력되는 음성 신호를 인식하고, 인식된 음성 신호가 사전에 설정된 키워드이면, 제2 프로세서가 활성화 상태가 되어 음성 녹음을 수행하는 동작을 개시한다.
선행문헌 1 및 2는 모두 사전에 설정된 키워드의 음성신호, 즉 기동어를 호출해야만 음성 대화를 수행할 수 있다. 이와 같은 기동어 기반의 동작은 기동어 인식 엔진 튜닝이 필요하며, 기동어 감지를 위한 서버 비용이 발생한다. 또한, 한번 설정된 기동어는 일반적으로 변경이 불가하며, 변경시 추가 개발이 요구되는 문제가 있었다.
이에, 한국 특허출원 제10-2019-0078593호 (이하, '선행문헌 3'이라 함)에서는, 기동어의 발화가 아닌 머신 러닝 또는 심층 신경망 모델을 통해 제스처를 인식하고, 사전에 설정된 기동어와 매칭된 제스처를 통해 음성 대화를 시작하는 것을 개시한다. 그러나, 선행문헌 3의 경우 매칭되는 제스처를 미리 알고 있는 사용자만 사용가능한 문제가 있다.
이에, 본 개시의 일 실시 예에 따르면, 기동어 또는 기동어에 매칭되는 제스처를 전혀 알지 못하는 사용자라도 학습 없이 음성 대화를 수행할 수 있는 안내 로봇 및 그것의 동작방법을 제공한다.
또한, 본 개시의 일 실시 예에 따르면, 추가 구성부품 없이, 로봇에 구비된 센서와 카메라만을 사용하여 사용자의 대화 의도를 비교적 정확하게 파악하는 것이 가능한 안내 로봇 및 그것의 동작방법을 제공한다.
또한, 본 개시의 일 실시 예에 따르면, 사용자의 음성 대화 의도가 있는 것으로 판단된 경우에만 호출어를 발화하도록 유도하여 대화를 개시함으로써, 오인식 동작을 미연에 방지할 수 있는 안내 로봇 및 그것의 동작방법을 제공한다.
또한, 본 개시의 일 실시 예에 따르면, 음성 대화의 개시와 관련된 사용자 호출어를, 추가 서버비용 없이 관리자가 상황에 적절하게 변경이 가능하는 것이 가능한 안내 로봇 및 그것의 동작방법을 제공한다.
본 발명의 실시 예에 따른 안내 로봇은, 기동어 없이 사용자의 근접 및 얼굴 각도의 감지만으로 사용 의도 여부를 파악하여, 음성 대화 모드를 수행할 수 있다.
또한, 본 발명에 따른 안내 로봇은, 일반 모드에서는 주행하면서 디지털 사이니지를 화면에 제공하고, 사용자의 사용 의도에 따라 음성 대화 모드로 변경되면, 디지털 사이니지의 제공을 중단하고 사용 가이드 정보를 출력할 수 있다.
본 발명의 일 실시 예에 따른 안내 로봇은, 본체를 주행시키는 주행부; 상기 본체에 구비된 터치 스크린 및 카메라; 사용자의 접근을 감지하도록 이루어진 센서; 활성화 상태에서 음성을 수신하도록 형성된 음성 수신부; 및 적어도 하나의 디지털 사이니지를 상기 터치 스크린에 디스플레이하는 제어부를 포함할 수 있다. 이때, 상기 제어부는, 상기 센서를 통해 사용자의 접근이 감지된 것에 응답하여 상기 본체의 주행을 정지하고 상기 카메라를 활성화하며, 상기 카메라를 통해 감지된 상기 사용자의 얼굴 및 얼굴 각도에 기초하여 사용 의사 있음을 결정하고, 상기 결정에 근거하여 상기 본체의 주행을 중단하고 상기 음성 수신부를 활성 상태로 하여 음성 대화 모드를 실행하고, 상기 음성 대화 모드의 실행에 따라 상기 디지털 사이니지의 디스플레이를 중단하고 사용 가이드 정보를 출력할 수 있다.
일 실시 예에서, 상기 사용 가이드 정보는 노이즈 필터를 위한 호출어 발화를 유도하는 가이드 정보를 포함하며, 상기 사용 가이드 정보는 상기 본체에 구비된 음성 출력부를 통해 출력될 수 있다.
일 실시 예에서, 상기 제어부는, 상기 음성 수신부를 통해 상기 호출어를 발화하는 음성이 수신되면, 상기 음성 출력부를 통해 사용자 질의를 유도하는 음성을 출력할 수 있다.
일 실시 예에서, 상기 제어부는, 미리설정된 시간 내에 상기 호출어를 발화하는 음성이 수신되지 않거나 또는 상기 음성 대화 모드의 실행 동안 상기 센서를 통해 사용자가 더 이상 감지되지 않는 것으로 결정되면, 상기 음성 대화 모드를 종료하고 상기 디지털 사이니지를 상기 터치 스크린에 디스플레이할 수 있다.
일 실시 예에서, 상기 제어부는, 상기 사용 가이드 정보를 상기 터치 스크린에 디스플레이하고, 상기 디스플레이된 사용 가이드 정보는 기설정된 메뉴화면이 포함될 수 있다.
일 실시 예에서, 상기 센서는, 카메라, 초음파 센서, 라이다 센서, ToF 센서 중 적어도 하나를 포함하며, 상기 센서를 통해, 상기 본체를 기준으로 전방, 좌우, 높이 각각에 대응되는 사용자 감지범위가 미리설정될 수 있다.
일 실시 예에서, 상기 본체를 기준으로 높이에 대응되는 사용자 감지범위는,상기 본체를 기준으로 바닥면으로부터 일정거리 위로 이동한 위치가 사용자 높이감지범위의 원점으로 설정될 수 있다.
일 실시 예에서, 상기 제어부는, 상기 센서를 통해 감지된 사용자가 제1 감지범위에서 상기 본체로 접근하는 것에 응답하여 상기 본체의 주행 속도를 감소하고, 상기 사용자가 제1 사용자 감지범위 보다 본체에 더 가까운 제2 감지범위에서 감지된 것에 응답하여 상기 본체의 주행을 정지하도록 상기 주행부를 제어할 수 있다.
일 실시 예에서, 상기 제어부는, 상기 카메라를 통해 상기 사용자의 얼굴을 인식하고, 미리설정된 시간 동안 인식된 얼굴 각도의 좌우 각도변화가 기설정된 범위 이내이면, 사용 의사 있음으로 결정할 수 있다.
일 실시 예에서, 상기 제어부는, 상기 카메라를 통해 상기 사용자의 얼굴 인식에 실패하거나 또는 상기 인식된 얼굴 각도의 좌우 각도변화가 기설정된 범위를 벗어나면, 사용 의사 없음으로 결정하여 미리설정된 시간 동안 회피 주행을 수행하도록 상기 주행부를 제어할 수 있다.
일 실시 예에서, 상기 제어부는, 상기 회피 주행 후, 상기 터치 스크린에 디지털 사이니지를 다시 디스플레이할 수 있다.
본 발명의 일 실시 예에 따른 안내 로봇의 동작방법은, 안내 로봇의 본체에 구비된 터치 스크린에 적어도 하나의 디지털 사이니지를 디스플레이하는 단계; 본체에 구비된 센서를 통해 사용자의 접근이 감지된 것에 응답하여 상기 본체의 주행을 정지하고 상기 카메라를 활성화하는 단계; 상기 카메라를 통해 감지된 상기 사용자의 얼굴 및 얼굴 각도에 기초하여 사용 의사 있음을 결정하는 단계; 상기 결정에 근거하여 상기 본체의 주행을 중단하고 사용자의 음성을 수신하기 위한 음성 수신부를 활성화하여 음성 대화 모드를 실행하는 단계; 및 상기 음성 대화 모드의 실행에 따라 상기 디지털 사이니지의 디스플레이를 중단하고 사용 가이드 정보를 출력하는 단계를 포함할 수 있다.
본 발명의 일부 실시 예에 따른 안내 로봇 및 그것의 동작방법에 의하면, 정해진 기동어 또는 기동어에 매칭되는 제스처를 전혀 알지 못하는 사용자라도 학습 없이 음성 대화를 수행할 수 있다.
또한, 본 발명의 일부 실시 예에 따른 안내 로봇 및 그것의 동작방법에 의하면, 추가 구성부품 없이, 로봇에 구비된 센서와 카메라만을 사용하여 사용자의 대화 의도를 비교적 정확하게 파악할 수 있다.
또한, 본 발명의 일부 실시 예에 따른 안내 로봇 및 그것의 동작방법에 의하면, 사용자의 사용 의사 있음을 파악한 후에도, 노이즈 필터링을 위해 호출어를 발화하도록 유도하는 안내 음성을 출력함으로써, 오인식 동작을 최소화할 수 있으며, 추가 서버비용 없이 상황에 적절한 다양한 호출어를 변경하여 적용할 수 있다.
도 1은 본 발명과 관련된 안내 로봇의 예시를 보여주는 도면이다.
도 2 본 발명과 관련된 안내 로봇의 예시 구성을 보인 블록도이다.
도 3은 본 발명에 실시 예에 따른 안내 로봇의 동작방법을 설명하기 위한 대표 흐름도이다.
도 4a 및 도 4b는 본 발명에 실시 예에 따른 안내 로봇의 사용자 감지범위를 나타내는 도면들이다.
도 5a 및 도 5b는 본 발명에 실시 예에 따른 안내 로봇이 사용자 접근의 감지에 따라 주행을 변경하는 방법을 나타내는 도면들이다.
도 6a 및 도 6b는 본 발명에 실시 예에 따른 안내 로봇이 사용 의사를 파악하기 위해 사용자의 얼굴 각도를 인식하는 방법을 나타내는 도면들이다.
도 7a는 본 발명에 실시 예에 따른 안내 로봇의 터치 스크린에 사용 가이드 정보를 디스플레이하는 것을 나타내는 도면이다.
도 7b는 본 발명에 실시 예에 따른 안내 로봇에서, 노이즈 필터링을 위해 호출어 발화를 유도 및 수신하는 것을 나타내는 도면이다.
도 8 은 본 발명에 실시 예에 따른 안내 로봇에서, 안내 모드에서 음성 대화 모드로의 전환과 관련된 다양한 예시들을 설명하기 위한 흐름도이다.
도 9는 본 발명에 실시 예에 따른 안내 로봇에서, 음성 대화 모드에서 안내 모드로의 전환과 관련된 예시를 설명하기 위한 흐름도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
한편, 본 명세서에 개시된 "안내 로봇"은 공항, 백화점 등의 쇼핑몰, 호텔 등의 숙박시설, 미술관, 도서관 등의 문화 공간 등의 다양한 공공장소에서 사용자에게 웰컴 인사, 길 안내, 상품안내, 상품검색, 주차 안내, 공항 정보, 도슨트 정보, 도서관 안내 등의 다양한 정보를 제공할 수 있는 로봇을 의미한다.
또한, 본 명세서에 개시된 "안내로봇"은, 길, 특정 장소 등을 사용자에게 안내하기 위하여, 스스로 자율주행을 수행할 수 있다. 또한, 본 명세서에 개시된 "안내로봇"은, 그 명칭에 한정되지 않고 다른 목적(예, 청소, 배송, 카트, 쇼핑, 인공지능스피커 등)을 가지고 사용자의 질의에 응답할 수 있는 기능을 포함하는 다양한 형태를 로봇을 모두 포함할 수 있다.
또한, 본 명세서에 개시된 "안내 로봇"은, 사용자에게 정보나 안내를 다양한 방식(시각적, 청각적, 촉각적)으로 제공하기 위해, 터치 스크린, 음향 출력부, LED, 촉각센서 등과 관련된 다양한 출력수단을 포함할 수 있다.
도 1은 본 발명과 관련된 안내 로봇의 예시를 보여주는 도면이다.
도 1을 참조하면, 본 발명에 따른 안내 로봇(100)은, 헤드(102), 카메라(121), 음향출력부(예, 스피커)(152), 음성인식부(미도시), 터치스크린(151), 및 주행부(130)를 포함하여 이루어질 수 있다. 다만, 경우에 따라서는 여기에 개시된 수단 중 일부를 제거하거나 또는 다른 수단을 더 포함하여, 본 발명에 따른 안내 로봇(100)이 구현될 수도 있다.
본 발명에 따른 안내 로봇(100)의 외관은 크게, 헤드(102)와 터치스크린(151)을 포함하는 상부모듈과 주행부(130)를 포함하는 하부모듈을 포함하여 이루어질 수 있다. 상부모듈과 하부모듈은 상호간에 탈착 가능하도록 구비될 수 있다.
상기 상부모듈은, 서비스 환경에 따라 변경 가능한 사용자 인터페이스(User Interface)를 제공한다. 상기 하부모듈은 안내 로봇 본체의 이동을 위한 주행기능을 제공한다.
상기 상부모듈은, 다시 몸체를 형성하며, 터치스크린(151)이 구비된 바디부와, 카메라(121) 등이 구비된 헤드(102)로 구분될 수 있다. 그러나, 경우에 따라서는 바디부에 카메라가 구비되거나 헤드(102)에 터치스크린이 배치되는 형태로 구현될 수도 있다.
카메라(121)는 헤드(102)의 케이스 일측 또는 바디부의 케이스 일측에 구비될 수 있다. 또, 상기 카메라(121)는 복수 개 구비될 수 있다. 이러한 경우, 하나는 본체의 전면에 구비되어 전방을 향하도록 설치되고, 다른 하나는 측면 또는 후면에 구비되어 측방/후방을 향하도록 설치될 수 있다. 그에 따라, 360 범위의 화각을 형성할 수 있다.
카메라(121)가 복수 개 구비되는 경우, 제1카메라는 예를 들어 3D 스테레오 카메라를 포함할 수 있다. 상기 3D 스테레오 카메라는 장애물 감지, 사용자 얼굴인식, 입체영상 획득 등의 기능을 수행할 수 있다. 안내 로봇(100)은 제1카메라를 이용하여 자신의 이동방향에 존재하는 장애물을 감지하여 회피할 수 있고, 사용자를 인식하여 각종 제어동작을 수행할 수 있다. 또, 제2카메라는 예를 들어 슬램(Simultaneous Localization And Mapping) 카메라를 포함할 수 있다. 상기 슬램카메라는 특징점 매칭을 통하여 카메라의 현 위치를 추적하고 이를 기초로 3차원 지도를 작성하는 기능을 수행한다. 안내 로봇(100)은 제2카메라를 이용하여 자신의 현재 위치를 파악할 수 있다.
또한, 카메라(121)는 화각범위 내의 오브젝트를 인식할 수 있고, 사진 및 동영상 촬영의 기능을 수행할 수 있다. 이와 관련하여, 카메라(121)는 카메라 센서(예를 들어, CCD, CMOS 등), 포토 센서(또는 이미지 센서) 및 레이저 센서 중 적어도 하나를 포함할 수 있다. 카메라(121)와 레이저 센서는 서로 조합되어, 3차원 입체영상에 대한 감지대상의 터치를 감지할 수 있다. 포토 센서는 디스플레이 소자에 적층될 수 있는데, 이러한 포토 센서는 터치 스크린에 근접한 감지대상의 움직임을 스캐닝하도록 이루어진다. 보다 구체적으로, 포토 센서는 행/열에 Photo Diode와 TR(Transistor)를 실장하여 Photo Diode에 인가되는 빛의 양에 따라 변화되는 전기적 신호를 이용하여 포토 센서 위에 올려지는 내용물을 스캔한다. 즉, 포토 센서는 빛의 변화량에 따른 감지대상의 좌표 계산을 수행하며, 이를 통하여 감지대상의 위치정보가 획득될 수 있다.
음향 출력부(152)는 사용자에게 제공될 정보를 음성으로 알려주는 기능을 수행하며, 예를 들어 스피커 형태일 수 있다. 구체적으로, 안내 로봇(100)에 구비된 음향 수신부(122)와 음성 인식부(미도시)를 통해 수신된 사용자의 음성에 대응되는 응답이나 검색 결과를 음향 출력부(152)를 통해 음성으로 출력된다. 이러한 음향 출력부(152)는 헤드(102)나 터치스크린(151)이 구비된 바디부의 외주면에 마련될 수 있다. 또한, 음향 출력부(152)는 터치스크린(151)에 디스플레이된 화면(예, 메뉴화면, 광고화면 등)과 관련된 음성 정보를 출력할 수 있다.
음향 수신부(122)는 사용자의 음성 등을 수신하는 기능을 수행하며, 예를 들어 마이크로폰 형태일 수 있다. 음향 수신부(122)는 외부의 음향 신호를 전기적인 음성 데이터로 처리하며, 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
터치스크린(151)은 바디부의 일 방향에 길이방향으로 위치할 수 있고, 시각적인 정보, 예를 들어 안내 정보를 제공하기 위하여 화면을 표시할 수 있다. 또, 상기 터치스크린(151)은 디스플레이모듈, 터치센서, 압력센서를 포함하여 이루어질 수 있다.
상기 터치스크린(151)은 예를 들어 이동가이드수단과 결합하여 바디부의 내부를 개폐하도록 구현될 수 있다. 또, 상기 터치스크린(151)은 예를 들어 고정부재를 사용하여 바디부에 결속되어 고정되도록 구현될 수도 있다.
또, 비록 자세히 도시되지는 않았지만, 안내 로봇(100)이 사용자에게 길을 안내하기 위하여 설정된 경로로 선 이동하는 경우를 고려하여, 상기 터치스크린(151)은 헤드(102)를 기준으로 후방에 구비되거나, 또는 전방 외에 후방에도 추가로 구비될 수 있다. 또는, 설정된 경로로 선 이동하기에 앞서 헤드(102)가 180도 회전하여, 터치스크린(151)이 후방에 위치한 것처럼 외관을 변형시킬 수도 있다.
이러한 경우 터치스크린(151)에는 현재 제공되는 서비스와 관련된 시각정보(예, 길 안내 정보, 질의 정보)를 표시하는 기능을 수행한다. 사용자는 안내 로봇(100)을 따라 이동하면서, 안내 로봇(100)의 후방에 설치된 터치스크린(151)을 볼 수 있다.
또한, 상기 터치스크린(151)은 본체의 전면 및 후면 양측에 각각 구비될 수 있다. 이러한 경우, 본체의 전면에 구비된 제1 터치스크린와 본체의 후면에 구비된 제2 터치스크린에 서로 다른 화면(예, 제1 터치스크린에는 사용자와 인터랙션하는 화면, 제2 터치스크린에는 광고 화면 등)이 디스플레이될 수 있다. 또한, 헤드(102)의 전면에는 안내 로봇의 다양한 표정변화가 출력하기 위한 디스플레이부가 구비될 수 있다.
주행부(130)는 안내 로봇(100) 본체의 이동, 회전을 수행한다. 이를 위해, 주행부(130)는 복수의 휠 및 구동 모터를 포함하여 이루어질 수 있다. 주행부(130)의 구동은 제어부에 의해 수신된 제어명령에 따라 제어되며, 구동 전 후에 LED 등의 출력수단을 통한 알림이 제공될 수 있다.
도 2 본 발명과 관련된 안내 로봇의 예시적 세부구성을 보인 블록도이다.
본 발명에 따른 안내 로봇(100)은 통신부(110), 입력부(120), 주행부(130), 센싱부(140), 출력부(150), 메모리(170), 제어부(180) 및 전원부(190) 등을 포함할 수 있다. 도 2에 도시된 구성요소들은 안내 로봇을 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 안내 로봇은 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
통신부(110)는, 안내 로봇(100)과 외부서버, 예를 들어 인공 지능 서버, 또는 외부단말 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또, 상기 통신부(110)는, 안내 로봇(100)을 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.
상기 통신부(110)는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등의 무선 인터넷 통신 기술을 사용하여 인공지능 서버 등과 통신을 수행할 수 있다. 또, 상기 통신부(110)는 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication) 등의 근거리 통신 기술을 사용하여 외부 단말 등과 통신을 수행할 수 있다.
입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 음향 수신부(122), 예를 들어 마이크로폰(microphone), 사용자로부터 정보를 입력받기 위한 사용자 입력부(미도시, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 신호데이터, 음성 데이터, 이미지 데이터는 분석되어 제어명령으로 처리될 수 있다.
주행부(130)는 안내 로봇(100) 본체의 이동, 회전을 수행한다. 이를 위해, 주행부(130)는 복수의 휠 및 구동 모터를 포함하여 이루어질 수 있다. 주행부(130)의 구동은 제어부(180)에 의해 수신된 제어명령에 따라 제어되며, 구동 전 후 LED 등의 광 출력부(153)를 통한 알림이 제공될 수 있다.
센싱부(140)는 안내 로봇 내 정보, 안내 로봇을 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 안내 로봇은, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다. 또한, 상기 센싱부(140)는 장애물, 바닥 상태 등을 감지하는 주행 관련 센서(142)를 포함할 수 있다.
근접 센서(141)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전 용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 또, 근접 센서(141)는 네비 카메라, 초음파 센서, 라이다(lidar), ToF 센서 중 적어도 하나를 포함할 수 있고, 이를 통해 감지대상(예, 사용자)의 접근 및 위치를 인식할 수 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 터치스크린(151), 음향출력부(152), 광 출력부(153) 중 적어도 하나를 포함할 수 있다. 터치스크린(151)은 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 안내 로봇(100)과 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부로써 기능함과 동시에, 출력 인터페이스를 제공할 수 있다.
광 출력부(153)는 광원의 빛을 이용하여 안내 로봇(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 예를 들어, 안내 로봇(100)의 주행부(130)에 이동명령이 전달된 경우, 이동을 알리기 위한 신호가 광 출력부(153)를 통해 출력된다.
제어부(180)는 안내 로봇의 인공 지능 기술와 관련된 동작을 수행하기 위하여 러닝데이터부(미도시)를 포함할 수 있다. 러닝데이터부는 데이터 마이닝(data mining), 데이터 분석, 지능형 의사결정 및 머신 러닝 알고리즘 및 기술을 위해 이용될 정보를 수신, 분류, 저장 및 출력하도록 구성될 수 있다. 러닝데이터부는 안내 로봇을 통해 수신, 검출, 감지, 생성, 사전 정의된 정보 또는 상기 안내 로봇을 통해 다른 방식으로 출력된 정보를 저장하거나, 다른 구성, 장치 및 단말기에 의하여 수신, 검출, 감지, 생성, 사전 정의 또는 출력된 데이터를 저장하도록 구성된 하나 이상의 메모리 유닛을 포함할 수 있다.
일 실시 예에서, 러닝데이터부는 안내 로봇에 통합되거나, 메모리를 포함할 수 있다. 일 실시 예에서, 러닝데이터부는 메모리(170)를 통해 구현될 수 있다. 다만 이에 한정되지 않고, 러닝데이터부는 안내 로봇(100)과 관련된 외부 메모리에 구현되거나, 안내 로봇(100)과 통신 가능한 서버에 포함된 메모리를 통해 구현될 수 있다. 다른 일 실시 예에서, 러닝데이터부는 클라우드 컴퓨팅 환경에서 유지되는 메모리, 또는 네트워크와 같은 통신 방식을 통해 안내 로봇에 의해 액세스 가능한 다른 원격 메모리를 통해 구현될 수 있다.
러닝데이터부는 일반적으로 감독 또는 감독되지 않은 학습, 데이터 마이닝, 예측 분석 또는 다른 머신 러닝 기술에서 사용하기 위한 데이터를 식별, 색인화, 분류, 조작, 저장, 검색 및 출력하기 위해, 상기 데이터를 하나 이상의 데이터베이스에 저장하도록 이루어진다. 러닝데이터부에 저장된 정보는 서로 다른 유형의 데이터 분석, 기계 학습 알고리즘 및 기계 학습 기술 중 적어도 하나를 사용하는 제어부(180) 또는 안내 로봇에 포함된 복수의 제어부들(프로세서들)에 의하여 이용될 수 있다. 이러한 알고리즘 및 기법의 예로는 K 최근접 이웃 시스템(k-Nearest neighbor system), 퍼지 논리(fuzzy logic)(예를 들어, 가능성 이론(possibility theory)), 신경 회로망(neural networks), 볼츠만 머신(Boltzmann machines), 벡터 양자화, 펄스 신경망(pulsed neural nets), 서포트 벡터 머신(support vector machines), 최대-마진 분류기(maximum margin classifiers), 힐 클라이밍(hill-climbing), 유도 논리 시스템(inductive logic systems), 베이지안 네트워크(baysian networks), 페트리 네트(petri nets) (예를 들어, 유한 상태 기계(finite state machines), 밀리 머신(mealy machines), 무어 유한 상태 머신(moore finite state machines)), 분류 트리(classifier trees)(예를 들어, 퍼셉트론 트리(perceptron trees), 서포트 벡터 트리(support vector trees), 마코브 트리(markov trees), 트리-숲 결정(decision tree forests), 랜덤 숲(random forests)), 목마전 모형 및 시스템(pandemonium models and systems), 클러스터링(clustering), 인공 지능 플래닝(artificially intelligent planning), 인공 지능 예측(artificially intelligent forecasting), 데이터 퓨전(data fusion), 센서 퓨전(sensor fusion), 이미지 퓨전(image fusion), 강화 학습(reinforcement learning), 증강 현실(augmented reality), 패턴 인식(pattern recognition), 자동 플래닝(automated planning) 등이 있다.
제어부(180)는 데이터 분석, 머신 러닝 알고리즘 및 머신 러닝 기술을 사용하여 결정 또는 생성된 정보에 기초하여, 안내 로봇의 실행 가능한 동작을 결정 또는 예측할 수 있다. 이를 위하여, 제어부(180)는 러닝데이터부의 데이터를 요청, 검색, 수신 또는 활용할 수 있다. 제어부(180)는 지식 기반 시스템, 추론 시스템 및 지식 획득 시스템 등을 구현하는 다양한 기능을 수행할 수 있으며, 불확실한 추론을 위한 시스템(예를 들어, 퍼지 논리 시스템), 적응 시스템, 기계 학습 시스템, 인공 신경망 등을 포함하는 다양한 기능을 수행할 수 있다.
또한, 제어부(180)는 I/O 처리 모듈, 환경 조건 모듈, 음성-텍스트(STT) 처리 모듈, 자연 언어 처리 모듈, 작업 흐름 처리 모듈 및 서비스 처리 모듈 등과 같은 음성 및 자연 언어 처리를 가능하게 하는 서브 모듈들을 포함할 수 있다. 서브 모듈들 각각은 안내 로봇에서 하나 이상의 시스템 또는 데이터 및 모델, 또는 이들의 서브셋 또는 수퍼셋에 대한 접근권한을 가질 수 있다. 여기서, 서브 모듈들 각각이 접근권한을 가지는 대상은 스케줄링, 어휘 인덱스, 사용자 데이터, 태스크 플로우 모델, 서비스 모델 및 자동 음성 인식(ASR) 시스템을 포함할 수 있다.
일부 실시 예에서, 제어부(180)는 러닝데이터부에서의 데이터에 기초하여 사용자 입력 또는 자연 언어 입력으로 표현된 문맥 조건 또는 사용자의 의도에 기초하여 사용자가 요구하는 것을 검출하고 감지하도록 구성될 수도 있다. 러닝데이터부에 의해 수행된 데이터 분석, 머신 러닝 알고리즘 및 머신 러닝기술을 바탕으로, 안내 로봇의 동작이 결정되면, 제어부(180)는 이러한 결정된 동작을 실행하기 위하여, 안내 로봇의 구성 요소들을 제어할 수 있다. 제어부(180)는 제어 명령에 근거하여, 안내 로봇을 제어함으로써, 결정된 동작을 실행할 수 있다.
메모리(170)는 안내 로봇(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 안내 로봇(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application))과, 안내 로봇(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 또한, 메모리(170)는 사용자와 음성 대화 기능을 수행하기 위한 가변가능한 호출어를 저장할 수 있다.
메모리(170)는, 예를 들어 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
제어부(180)는 상기 응용 프로그램과 관련된 동작 외에, 통상적으로 안내 로봇(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동하거나, 주행부(130)를 제어함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
전원부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 안내 로봇(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원부(190)는 배터리를 포함할 수 있고, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 안내 로봇의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 안내 로봇의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 안내 로봇상에서 구현될 수 있다.
또한, 이하에 개시된 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
도 3은 본 발명에 실시 예에 따른 안내 로봇의 동작방법을 설명하기 위한 대표 흐름도이다. 도 3에 도시된 동작방법(300)은 안내 로봇이 일반 모드로 동작하는 동안 사용자의 기동어 발화 없이도, 대화 의도를 파악하여 음성 대화 모드를 실행하기 위한 동작방법을 개시한다. 또한, 도 3에 도시된 동작방법(300)의 각 단계는 적어도 하나의 프로세서에 의해 실행되는 프로그램 명령어로 구현될 수 있다.
도 3에서, 본 개시에 따른 안내 로봇(100, 도 1)은 일반 모드에서, 본체에 구비된 터치 스크린에 적어도 하나의 디지털 사이니지를 디스플레이한다(310).
구체적으로, 안내 로봇(100)은, 일반 모드에서, 저장된 맵 경로를 따라 스스로 주행하면서 적어도 하나의 디지털 사이니지를 터치 스크린(151, 도 1)을 통해 디스플레이하고, 디스플레이되는 디지털 사이니지와 관련된 사운드를 음향 출력부(152, 도 1)를 통해 출력할 수 있다. 여기서, 상기 적어도 하나의 디지털 사이니지는, 정해진 영상정보 또는 안내 로봇이 위치한 장소와 연관된 광고정보, 홍보정보, 뉴스정보 등을 포함할 수 있다. 일 실시 예에서, 상기 터치 스크린(151)은 안내 로봇(100)의 전후면에 각각 구비될 수 있으며, 이러한 경우 제1 터치 스크린과 제2 터치 스크린에 서로 다른 디지털 사이니지가 디스플레이될 수 있다.
이와 같이 일반 모드에서, 안내 로봇이 스스로 주행하며 디지털 사이니지를 화면에 디스플레이하는 동안, 안내 로봇(100)은 본체에 구비된 센서를 통해 사용자가 접근하는 것을 감지할 수 있다. 이와 같이 센서를 통해 사용자의 접근이 감지된 것에 응답하여, 안내 로봇(100)은 본체의 주행을 정지하고 본체에 구비된 카메라를 활성화한다(320). 구체적으로, 센서를 통해 안내 로봇(100) 본체를 기준으로 일정범위 내에 사용자가 있음이 검출되면, 카메라(121)를 온(on) 상태로 전환하여 사용자 존재를 확인하고, 주행속도를 점진적으로 감소시킨 후 정지할 수 있다. 이 경우, 터치 스크린(151)에는 디지털 사이니지가 계속 디스플레이될 수 있다.
다음, 카메라를 통해 접근한 사용자의 존재를 확인한 후, 사용자의 얼굴을 인식하고, 인식된 얼굴의 각도변화를 모니터링한다. 안내 로봇은, 이와 같이 카메라를 통해 감지된 사용자의 얼굴 및 얼굴 각도에 기초하여, 사용자의 사용 의사 있음을 결정한다(330).
구체적으로, 일정시간 동안(예, 5초) 카메라를 통해 감지된 사용자의 얼굴 각도가 기설정된 변화범위(예, 좌우 20도) 이내이고, 일정시간(예, 300ms) 동안 응시하는 것으로 모니터링되면, 안내 로봇은 접근한 사용자에 대해 사용 의사 있음으로 결정할 수 있다. 반면, 일정시간 동안(예, 5초) 카메라를 통해 감지된 사용자의 얼굴 각도가 기설정된 변화범위(예, 좌우 20도)를 벗어나거나, 그리고/또는 일정시간(예, 300ms) 동안 응시하지 않는 것으로 모니터링되면, 안내 로봇은 사용 의사 없음으로 결정할 수 있다. 이때, 사용 의사 있음 여부를 결정하는 요소가 되는, 일정시간(예, 5초), 얼굴 각도의 변화범위(예, 좌우 20도), 및/또는 사용자가 응시하는 일정시간((예, 300ms)은 상황에 따라 가변 설정할 수 있다.
이 후, 안내 로봇은, 상기 결정(사용 의사 있음)에 근거하여 사용자의 음성을 수신하기 위한 음향 수신부(또는, 음성 수신부)(122)를 활성화하여 음성 대화 모드를 실행한다(340). 여기에서, 상기 음향 수신부(또는, 음성 수신부)의 활성화는 안내 로봇에 구비된 마이크로폰을 온(on) 상태로 전환하고, 사용자의 음성을 수신할 수 있는 리스닝 상태가 된 것을 의미한다. 또한, 음향 수신부가 활성화 상태가 되면, 디지털 사이니지와 관련된 사운드의 출력은 중단될 수 있다.
그리고, 상기 안내 로봇은, 음성 대화 모드의 실행에 따라 디지털 사이니지의 디스플레이를 중단하고 사용 가이드 정보를 출력한다(350). 그에 따라, 안내 로봇은 사용 의사 있음으로 파악된 사용자와 음성 대화 기반의 인터랙션을 수행할 수 있다. 여기서, 상기 사용 가이드 정보는, 터치 스크린(151)을 통해 시각적으로 제공되거나 그리고/또는 음향 출력부(152)를 통해 청각적으로 제공될 수 있다.
일 실시 예에서, 상기 사용 가이드 정보는, 노이즈 필터링을 위해 정해진 호출어 발화를 유도하는 안내정보(예, "도움이 필요하시면, 제 얼굴을 보고 헤이 클로이라고 말씀하세요")를 포함할 수 있다.
여기서, 상기 정해진 호출어는 음성 인식 기능에의 진입을 위한 기동어(wake-up word)와는 구별되는 것으로, 관리자에 의해 변경될 수 있고 별도의 서버관리가 불필요하다. 이러한 경우, 안내 로봇의 호출어 발화를 유도 음성에 응답하여, 사용자가 호출어를 발화한 경우 음성 대화 모드를 계속 수행하는 것으로 동작할 수 있다. 반면, 일정 시간 동안 호출어 발화가 없으면, 안내 로봇은 사용 의사 없음으로 보고, 음성 대화 모드를 종료할 수 있다.
또 다른 예에서, 상기 사용 가이드 정보는 터치 스크린에 디스플레이된 팝업창을 통해 터치를 유도하는 안내정보(예, "다양한 메뉴를 사용하시려면, 저를 터치해서 사용해 보세요")를 포함할 수 있다. 이러한 경우, 안내 로봇은 사용자의 터치 기반의 입력을 음성 대화 모드에 적용하여, 대응되는 동작을 수행할 수 있을 것이다. 또 다른 예에서, 상기 안내 로봇은, 상기 사용 가이드 정보를 출력하기 전, 정해진 인사말 정보(예, "안녕하세요?")를 출력함으로써, 사용 의사 있는 사용자의 흥미를 유발할 수도 있다. 이러한 경우, 안내 로봇의 헤드부(102, 도 1)에 구비된 디스플레이부를 통해 반가움을 나타내는 표정이 출력될 수 있다.
도 4a 및 도 4b는 본 발명에 실시 예에 따른 안내 로봇의 사용자 감지범위를 보여주고 있다. 발명에 따른 안내 로봇은, 일반 모드로 주행하는 동안, 센서(예, 근접 센서(141, 도 1)를 통해 사용자의 접근을 감지할 수 있고, 이러한 센서는 안내 로봇의 주행시, 장애물, 바닥 상태 등을 감지하기 위한 주행 관련 센서(142)와는 구별된다. 다만, 본 명세서에서 개시된 '센서'는 별다른 언급이 없다면 사용자의 접근 여부(예, 가까워짐, 근접, 멀어짐 등)를 감지하는 근접 센서를 의미하는 것으로 지칭될 수 있다. 또한, 이하에 개시된 사용자 접근을 감지하는 과정은, 안내 로봇이 카메라를 활성화하기 전이므로, 실제로는 장애물의 감지와 유사할 수 있다.
일 실시 예에서, 사용자 접근을 감지하기 위한 센서로, 카메라, 초음파 센서, 라이다 센서, ToF 센서 중 적어도 하나를 포함할 수 있다. 또한, 안내 로봇은, 이와 같은 상기 센서를 통해, 안내 로봇 본체를 기준으로 전방 감지범위, 좌우 좌우범위, 높이 감지범위를 미리 설정할 수 있으며, 이러한 감지범위는 메모리에 저장될 수 있고, 사용자 입력 등을 통해 가변될 수 있다.
도 4a는 안내 로봇 본체를 기준으로 설정된 높이 감지범위(R1)를 보인 것이다. 일 실시예로, 안내 로봇이 사용자의 접근을 결정하기 위한 높이 감지범위(R1)는 본체를 기준으로 바닥면으로부터 일정거리 위로 이동한 위치(L)가 사용자 높이감지범위의 원점으로 설정될 수 있다. 예를 들어, 유아의 키 높이(60cm) 보다 낮은 위치에서 감지된 장애물의 경우, 사람이 아닌 동물, 사물 등으로 판단하도록, 유아의 키 높이(60cm)를 원점으로 설정할 수 있다. 다만, 상기 원점의 높이(60cm)는 상황에 따라 가변될 수 있다. 또한, 일 실시 예로, 안내 로봇이 사용자 접근을 결정하기 위한 높이 감지범위(R1)는 일정 높이를 벗어나는 높이범위(H)의 경우 배제될 수 있다. 예를 들어, 안내 로봇이 사람이 아닌 시설물 등에 근접한 경우에는 높이 감지범위에서 배제시킴으로써, 오인식으로 인해 주행을 정지하거나 카메라를 활성화하지 않도록 동작할 수 있다. 이때, 상기 일정 높이는 예를 들어 장신의 사람 키를 고려하여 2.5m 정도로 설정될 수 있을 것이나, 이에 제한되는 것은 아니며, 입력 등을 통해 가변될 수 있다.
도 4b는 안내 로봇 본체를 기준으로 설정된 전방 및 좌우 감지범위(R2)를 보인 것이다. 안내 로봇이 사용자의 접근을 결정하기 위한 전방 감지범위의 길이(401)는 본체를 기준으로 전방 0.5m ~ 5m 범위내에서 미리설정될 수 있다. 전방 감지범위의 길이(401)는 안내 로봇이 위치한 장소의 특성 및 사용자 밀도 등에 기초하여 가변될 수 있다. 또한, 안내 로봇이 사용자의 접근을 결정하기 위한 좌우 감지범위의 길이(402)는 본체를 기준으로 약 45도의 시야각범위(403)내 좌우 40cm ~ 4m 범위내에서 미리설정될 수 있다. 이러한 좌우 감지범위의 길이(402)는 안내 로봇이 위치한 장소의 특성 및 사용자 밀도 등에 기초하여 가변될 수 있다.
일 실시 예에서, 안내 로봇 본체를 기준으로, 약 45도의 시야각범위 내에서 전방 1.0m 감지범위 및 좌우 0.8m 감지범위의 영역(R2)에서 사용자 있음이 감지된 경우, 본 개시에 따른 사용자의 접근으로 결정할 수 있다. 이러한 경우, 안내 로봇의 제어부(180, 도 1)는, 광 출력부(153, 도 1) 등을 통해 LED 알림을 출력하거나 또는 헤드(102)를 디스플레이에 표정변화를 출력함으로써, 사용자의 접근을 인지하였음을 외부에 표시할 수 있다.
일 실시 예에서, 안내 로봇 주변의 사용자 밀도가 높은 것으로 판단된 경우, 제어부(180)는 사용자의 접근을 결정하기 위한 감지범위의 영역을 이전보다 좁게 가변시킬 수 있다. 이러한 경우, 안내 로봇의 주행속도를 이전보다 느리게 변경할 수 있다. 추가적으로, 안내 로봇 주변의 사용자 밀도가 낮아진 것으로 판단된 경우, 제어부(180)는 사용자의 접근을 결정하기 위한 감지범위의 영역을 이전보다 넓게 가변시킬 수 있다. 이와 같은 판단을 위해, 안내 로봇의 제어부(180)는 일반 모드로 주행하는 동안 본체의 헤드(102)를 회전하면서 근접센서를 통해 사용자 밀도를 파악할 수 있다.
도 5a 및 도 5b는 본 발명에 실시 예에 따른 안내 로봇이 사용자 접근의 감지에 따라 주행을 변경하는 방법을 나타내는 도면들이다.
본 개시에 따른 안내 로봇은 사용자의 접근이 '지속'되는지 여부를 파악하여 주행을 정지하고 카메라를 활성화하도록 동작할 수 있다. 센서를 통해 사용자가 안내 로봇에 더 접근하고 있는지 또는 멀어지는지(그대로인지) 여부는 센서로부터 출력된 신호가 장애물에 부딪혀 돌아오는 신호도착시간 및/또는 신호의 세기에 기초하여 결정된다.
일 실시 예에서, 본 개시에 따른 안내 로봇의 제어부(180)는 센서를 통해 감지된 사용자가 제1 감지범위에서 본체로 더욱 접근하는 것에 응답하여 본체의 주행 속도를 감소시킬 수 있다. 예를 들어, 도 5a에 도시된 바와 같이 안내 로봇(100)이 주행하는 동안, 설정된 접근 감지범위, 보다 구체적으로는 제1 감지범위에 대응되는 제1영역(510)에서 사용자(501)가 감지되면 주행속도를 점진적으로 감소시킨다.
이 후, 도 5b에 도시된 바와 같이 사용자(501)가 제1 사용자 감지범위에 대응되는 제1영역(510)에서 본체에 더 가까이 다가옴에 따라, 안내 로봇이 제2 감지범위에 대응되는 제2영역(520)에서 사용자를 감지하면, 본체의 주행을 정지시킬 수 있다. 즉, 안내 로봇의 급제동을 막기 위해, 사용자가 제1영역(510)에서 감지될 때부터 점진적으로 주행속도를 감소시키고, 사용자 접근이 지속되어 제2영역(520)에서 감지되면 비로소 주행을 정지시킨다.
반면, 사용자가 제1영역(510)에서 감지되었으나, 일정시간 내에 제2영역(520)으로 들어오지 않으면, 사용자의 접근이 지속되지 않은 것으로 판단하여, 원래 주행속도대로 복귀하여 주행할 수 있다. 그리고, 카메라는 비활성화 상태를 유지할 수 있다.
비록 도시되지는 않았지만, 안내 로봇이 제1영역(510)에 접근한 제1사용자의 접근 지속 여부를 모니터링하는 동안, 제2영역(520)에 새로운 제2사용자가 접근하는 것을 감지할 수 있다. 이러한 경우, 본체를 기준으로 더 가까운 감지범위 내에 있는 제2사용자의 사용 의도 여부를 파악하도록 동작할 수 있다.
또한, 비록 도시되지는 않았지만, 일 실시 예에서, 상기 안내 로봇은 본체의 전방 뿐만 아니라, 본체의 후방 및/또는 측방을 기준으로 일정 감지범위 내의 사용자의 접근을 감지할 수 있다. 이를 위해, 상기 안내 로봇은 본체의 사용자의 접근을 감지하기 위한 센서를 전방 외에, 후방 및/또는 측방에 더 구비할 수 있다. 이러한 경우, 상기 안내 로봇의 제어부(180)는 본체의 후방 또는 측방을 기준으로 사용자의 접근을 감지하면, 본체의 헤드(102)가 사용자의 접근 방향을 향하도록 회전시킬 수 있다.
도 6a 및 도 6b는 본 발명에 실시 예에 따른 안내 로봇이 사용 의사를 파악하기 위해 사용자의 얼굴 각도를 인식하는 방법을 나타내는 도면들이다. 본 개시에 따른 안내 로봇은, 사용자의 접근이 감지된 경우 주행을 정지한 후, 카메라를 활성화하여 접근한 사용자의 얼굴을 먼저 확인한다. 이 후, 상기 안내 로봇은 접근한 사용자의 사용 의사를 파악하기 위하여, 사용자의 행동 패턴을 분석한다. 이를 위해, 본 발명에서는 사용자의 얼굴 각도의 변화를 모니터링한다.
일 실시 예에서, 상기 안내 로봇의 제어부(180)는 상기 제어부는, 활성화된 카메라를 통해 접근한 사용자의 얼굴을 인식하고, 미리설정된 시간 동안 인식된 얼굴 각도의 좌우 각도변화가 기설정된 범위 이내이면, 사용 의사 있음으로 결정할 수 있다. 이와 같이, 안내 로봇의 제어부(180)가 카메라를 통해 사용자의 얼굴을 인식함으로써, 센서를 통해 감지된 장애물(아직, 접근하는 주체가 사용자인지를 확신할 수 없음)인지 또는 사람인지를 파악한다. 얼굴이 인식된 경우, 감지된 장애물이 사람인 경우이므로, 이제는 사용 의사를 파악하기 위해, 사용자의 행동 패턴에 대응되는 얼굴 각도 변화를 모니터링한다. 반면 얼굴이 인식되지 않은 경우, 장애물로 파악하여 회피 주행을 수행할 수 있다.
도 6a에는 사용자의 다양한 시선방향(또는 얼굴방향)에 대응되는 얼굴 각도를 나타내고 있다. 사용자가 안내 로봇을 응시하는 시선방향에 대응되는 얼굴 각도 변화(610)는 y축 값이 0이고, 좌우 얼굴 각도는 좌우 ±5~45도 범위내임을 확인할 수 있다. 반면, 사용자가 안내 로봇을 응시하지 않는 경우에는, y축 값이 ±45도 범위내의 양의 값 또는 음의 값을 갖는 것을 확인할 수 있다. 이는, 사용자가 안내 로봇을 응시하고 있지 않음을 의미한다.
본 발명에 따른 안내 로봇은, 카메라를 통해 사용자의 시선방향(또는 얼굴방향)에 대응되는 얼굴 각도를 일정시간 동안 모니터링한다. 이때, 상기 일정시간은 예를 들어 0.5초~15초로 설정될 수 있고, 이는 상황에 따라 가변될 수 있다.
상기 일정시간 동안 모니터링 결과, 사용자가 설정된 감지범위의 얼굴 각도 변화(610)를 나타내는 경우, 안내 로봇의 제어부(180)는 사용자의 사용 의사 있음을 결정한다. 설정된 감지범위의 얼굴 각도 변화(610)는 정해진 임계시간 동안 계속 유지되어야한다. 이때 정해진 임계시간은 예를 들어 100ms~5초 이상의 범위내에서 설정되며, 상황에 따라 가변가능하다.
반면, 상기 일정시간 동안 모니터링 결과, 사용자가 안내 로봇을 응시하지 않는 행동패턴(예, 도 6a에서 얼굴 각도의 y값이 양의 값 또는 음의 값을 갖는 경우)이 지속적으로 검출되거나 또는 설정된 감지범위의 얼굴 각도 변화(610)가 정해진 임계시간 보다 짧은 시간 동안만 관찰되는 경우, 안내 로봇의 제어부(180)는 사용자의 사용 의사 없음으로 결정할 수 있다.
도 6b는 사용자가 안내 로봇을 응시하는 시선방향에 대응되는 좌우 얼굴 각도 범위(620)를 보인 것이다. 안내 로봇을 응시하는 시선방향에 대응되는 좌우 얼굴 각도 범위(620)는 좌우 ±20도 감지범위로 설정될 수 있으나, 이에 제한되는 것은 아니며, 상황에 따라 가변가능하다. 안내 로봇의 제어부(180)는 일정 시간(예, 약 5초) 동안 카메라를 통해 사용자의 얼굴 각도 변화를 모니터링한다.
모니터링 결과, 정해진 좌우 얼굴 각도 범위(620)가 정해진 임계시간(예, 300ms) 동안 검출된 경우, 사용 의사 있음으로 파악하여, (주행을 정지하고) 사용 가이드 정보를 출력할 수 있다. 모니터링 결과, 좌우 얼굴 각도 범위(620)가 정해진 임계시간 미만 동안만 검출되고 상기 일정 시간(예, 약 5초)이 경과하거나 또는 사용자가 접근이 더이상 감지되지 않으면, 사용 의사 없음으로 파악하여, 그에 대응되는 동작(예, 회피 주행)을 수행할 수 있다.
한편, 본 발명의 또 다른 실시 예에서는, 안내 로봇이 일반 모드로 주행하는 동안 사용자의 접근, 얼굴 인식, 및 얼굴 각도를 감지한 후, 사용 의사 있음이 결정된 경우 주행을 정지하는 것으로 구현될 수도 있다. 이러한 경우, 안내 로봇의 제어부(180)는 사용자의 접근, 얼굴 인식, 및 얼굴 각도를 감지하는 동안, 일반 주행 속도보다는 느리게 주행하도록 주행부(130)를 제어할 수 있다. 또, 상기 제어부(180)는 사용자의 얼굴 인식 및 얼굴 각도를 감지하기 위해 사용자의 접근 방향을 향하도록 헤드(102)를 회전하도록 제어할 수 있다.
도 7a는 본 발명에 실시 예에 따른 안내 로봇의 터치 스크린에 사용 가이드 정보를 디스플레이하는 것을 나타내는 도면이다.
본 발명에 따른 안내 로봇이 사용자의 접근, 얼굴 인식, 및 얼굴 각도 변화를 감지하여 사용 의사 있음으로 결정하면, 음성 대화 모드를 실행하고 사용 가이드 정보를 출력할 수 있다. 음성 대화 모드가 실행되면, 일반 모드에서 출력되었던 디지털 사이니지의 화면(또는, 동영상) 및 그에 대응되는 사운드의 출력이 중단되며, 안내 로봇은 사용자와 음성 기반의 대화를 수행하기 위해 음성 수신부(예, 마이크로폰) 및 음성 인식부(미도시)를 활성화 상태로 동작시킨다. 즉, 안내 로봇이 일반 모드에서 음성 대화 모드로 전환된다.
일 실시 예에서, 상기 사용 가이드 정보는 안내 로봇의 터치 스크린(151)에 디스플레이될 수 있으며, 디스플레이된 사용 가이드 정보는 기설정된 메뉴화면, 현재 위치정보, 주변이 맵 정보 등을 포함할 수 있다. 이때, 상기 사용 가이드 정보는 기설정된 메뉴화면을 출력하기 위한 사용자 동작(예, 기설정된 키워드/호출어 발화, 화면 터치 등)을 유도하는 안내 메시지를 포함할 수 있고, 안내 메시지에 대한 사용자 응답에 기초하여 기설정된 메뉴화면을 출력할 수 있다.
도 7a에서, 안내 로봇은 터치 스크린(151)에 디지털 사이니지의 출력 대신, 사용자 동작을 유도하는 안내 메시지(예, "If you need help, please touch the screen.")를 포함하는 제1 화면(710)을 출력할 수 있다. 제 1화면(710)에 터치입력이 수신되거나 정해진 조건을 만족하면(예, 사용자의 응답 음성 수신 등), 안내 로봇은 기설정된 메뉴화면을 포함하는 제2 화면(720)을 출력할 수 있다. 사용자는 제2 화면(720)에 대한 터치 인터랙션을 통해 원하는 정보를 제공받거나 또는 활성화된 음성 수신부 및 음성 인식부를 통해 음성 기반의 대화를 수행할 수 있다.
이와 같이, 사용자가 안내 로봇과 음성 기반의 대화를 수행하기 위한 기동어나 또는 화면 터치(터치 스크린(151)을 터치하면, 디지털 사이니지의 출력이 중단되고 기설정된 메뉴화면이 출력됨)와 같은 조작을 전혀 알지 못하더라도, 안내 로봇이 사용 의사 있는 사용자를 파악하여, 사용 가이드 정보를 제공해줄 수 있다.
한편, 안내 로봇이 사용자 접근, 얼굴 인식, 및 얼굴 각도 변화를 모니터링하여 사용 의사 있음을 결정한 경우라도, 사용자 행동 패턴의 인식률을 보다 향상시키기 위해 노이즈 필터링 동작을 추가로 수행할 수 있다.
도 7b는 본 발명에 실시 예에 따른 안내 로봇에서, 노이즈 필터링을 위해 호출어 발화를 유도 및 수신하는 것을 나타내는 도면이다.
여기에서는, 음성 대화 모드의 실행에 따라, 노이즈 필터를 위한 호출어 발화를 유도하는 사용 가이드 정보가 출력될 수 있다. 이러한 사용 가이드 정보는, 안내 로봇의 음성 출력부를 통해 음성 메시지 형태(예, "도움이 필요하시면 저를 보고 '엘지야'(호출어)라고 말씀하세요")로 출력되거나, 또는 터치 스크린(151)을 통해 화면 메시지 형태로 출력될 수 있다. 이와 같이 사용자로 하여금 정해진 호출어를 발화하도록 유도하는 이유는, 사용자의 사용 의사 있음을 보다 확실히 하기 위함이다. 따라서, 이 경우에는 사용 가이드 정보에 대한 사용자 응답에 기초하여, 음성 대화 모드의 실행이 트리거된다.
일 실시 예에서, 안내 로봇이 안내하는 호출어는 기동어와 달리 일상어와 구별되는 다양한 형태의 단어로 가변될 수 있다. 상기 호출어는, 예를 들어 일상어와 구별되는 된소리 또는 거센소리를 포함하며, 3음절 ~ 6음절 길이의 단어로 설정될 수 있다. 또는, 안내 로봇의 관리자의 입력을 기초로, 호출어로 설정가능한 복수의 단어들을 포함하는 리스트에서, 어느 하나를 호출어로 설정하거나 변경할 수 있다. 이와 같이 호출어는 기능면에서 기동어와 유사한 측면이 있으나, 별도의 서버관리가 불필요하고, 다른 호출어로 변경할 수 있다는 점에서 구별된다.
도 7b에서, 사용자(701)가 안내받은 호출어("엘지야")를 발화하면, 안내 로봇은 응답 음성("네, 말씀하세요")을 출력한 후에, 사용자(701)와 음성 대화를 수행한다. 구체적으로, 안내 로봇(100)은 리스닝 상태가 되며, 사용자가 발화한 음성을 수신, 분석, 및 처리한다. 또한, 안내 로봇(100)은 사용자 음성에 대응되는 처리로서, 응답을 수행하기 위핸 안내 로봇 본체의 머신 러닝부나 또는 연결된 클라우드 서버 등을 이용할 수 있다.
도 8 은 본 발명에 실시 예에 따른 안내 로봇에서, 안내 모드에서 음성 대화 모드로의 전환과 관련된 다양한 예시들을 설명하기 위한 흐름도이다.
도 8을 참조하면, 본 발명에 따른 안내 로봇은, 일반 모드(810)에서는 본체의 터치 스크린을 디지털 사이니지로 사용하여 광고, 뉴스, 등의 정보를 출력하고, 맵 정보를 기초로 주행을 수행한다.
안내 로봇은 일반 모드로 주행하는 동안, 센서를 통해 사용자 근접을 지속적으로 확인한다(820). 이때, 사용자 근접은 카메라가 아직 활성화 상태 전이므로, 장애물 감지를 의미한다. 안내 로봇 본체를 기준으로 미리설정된 전방, 좌우, 높이 감지범위 내에서 장애물이 감지되면(822), 안내 로봇은 주행을 정지한다(830). 반면, 미리설정된 감지범위를 벗어나는 장애물만 감지되는 동안은 적어도 하나의 디지털 사이니지를 출력하며 스스로 주행하는 일반 모드(810)를 계속 수행한다.
여기에서, 안내 로봇이 위치한 장소가 사람이 많이 지나가는 장소이거나 또는 유동인구 밀도가 높은 경우, 안내 로봇이 너무 자주 주행 정지하는 것을 방지하기 위해, 장애물의 감지범위를 더욱 제한할 수 있다. 예를 들어, 안내 로봇 본체를 기준으로 전방 감지범위는 1.0m 보다 짧은 0.5m로 가변할 수 있다.
안내 로봇은 주행 정지(830) 후, 카메라를 활성화하여 사용자 얼굴을 확인한다(840). 즉, 센서를 통해 미리설정된 감지범위에서 감지된 장애물이 사람인지 또는 사물(또는, 동물)인지를 카메라를 통해 얼굴을 확인한다. 또는, 접근한 사용자를 피하여 주행해야 하는지를 파악하기 위해 카메라를 통해 시선방향(또는, 얼굴방향)을 확인한다.
사용자 얼굴이 인식된 경우(842), 미리설정된 시간 동안(예, 5초 동안) 사용자 얼굴 각도를 확인한다(850). 구체적으로, 사용자의 얼굴 각도 변화가 정해진 감지범위(예, 좌우 20도 범위내로 안내 로봇을 응시) 이내인지를 모니터링하여, 사용자의 사용 의사 있음을 결정한다. 반면, 사용자의 얼굴이 인식되지 않거나(841) 또는 인식된 얼굴 각도 변화가 정해진 감지범위를 벗어나거나 정해진 임계 시간 동안 응시하지 않는 것으로 파악되면(851), 사용 의사 없음으로 결정한다.
이러한 경우, 안내 로봇은 일정 시간 동안(예, 약 10초) 회피 주행을 수행한 후, 다시 일반 모드(810)로 회귀한다. 상기 회피 주행은, 안내 로봇의 제어부(180)가 주행부(130)의 구동 모터와 휠을 조작하여 회전시킴으로써, 사용자가 존재하는 영역을 벗어나는 동작을 의미할 수 있다. 이와 같이 사용자의 사용 의사 없음이 결정된 경우, 일정 시간 동안 회피 주행을 수행하는 이유는, 사용 의사 없는 사용자의 얼굴을 계속해서 재인식하고 얼굴 각도 변화를 감지하여 한 곳에 오래 머물러 있는 오류를 피하기 위함이다.
정해진 임계 시간(예, 300ms) 동안 정해진 감지범위 이내에서만 얼굴 각도 변화가 있는 것으로 모니터링되면(852), 사용 의사 있음을 결정하여 안내 로봇이 사용 가이드 정보를 포함하는 선멘트를 출력하고, 사용자 음성을 수신하기 위해 마이크를 온(on) 상태로 동작시킨다(860). 이때, 일반 모드(810)에서 디지털 사이니지와 관련된 사운드가 출력되고 있었다면, 해당 디지털 사이니지의 음성은 출력이 중단될 수 있다.
안내 로봇의 선멘트에 응답하여, 음성 수신부를 통해 사용자가 정해진 호출어를 발화하였는지를 결정한다(870). 음성 수신부를 통해 호출어가 수신된 경우(872), 안내 로봇은 음성 대화 모드(880)를 개시한다. 반면, 일정 시간 내에 호출어 발화가 없는 경우(871), 안내 로봇은 주행 정지(830) 단계로 회귀하여, 사용자 얼굴 인식 동작(840)을 재수행한다.
한편, 안내 로봇의 선멘트는 터치 스크린(151)을 통해 출력될 수도 있다. 이러한 경우, 사용자의 터치 스크린(151)에 대한 터치 응답을 통해, 음성 대화 모드의 개시 여부가 결정된다. 구체적으로, 사용자가 터치 스크린(151)에 출력된 사용 가이드 팝업을 선택한 경우 음성 대화 모드(880)가 실행된다. 반면, 사용자가 터치 스크린(151)에 출력된 사용 가이드 팝업을 닫기('x') 선택한 경우(861), 안내 로봇은 주행 정지(830) 단계로 회귀하여, 사용자 얼굴 인식 동작(840)을 재수행한다.
또한, 일 실시 예에서, 사용자 접근 확인(820) 후부터 안내 로봇이 사용 가이드 정보를 포함하는 선멘트를 출력하는 과정(860)을 수행하는 동안, 센서를 통해 사용자가 더 이상 인접하지 않은 것으로 감지되면(862), 일반 모드(810)로 돌아가서, 디지털 사이니지를 출력하고 정해진 주행 동작을 수행할 수 있다.
이와 같이 본 발명의 안내 로봇의 동작에 따르면, 정해진 기동어 또는 기동어에 매칭되는 제스처를 전혀 알지 못하는 사용자라도 학습 없이 음성 대화를 수행할 수 있으며, 이를 위해 추가 구성품을 설치하지 않고, 로봇에 구비된 센서와 카메라만을 사용하여 사용자의 대화 의도를 비교적 정확하게 파악할 수 있다.
도 9는 본 발명에 실시 예에 따른 안내 로봇에서, 음성 대화 모드에서 안내 모드로의 전환과 관련된 예시를 설명하기 위한 흐름도이다.
도 8에서, 안내 로봇이 사용자의 접근 감지(820), 주행 정지(830), 접근한 사용자 얼굴 인식(840), 사용자 얼굴 각도 확인(850), 및 사용 의사 있음의 결정에 따라 사용 가이드 정보를 제공하는 로봇의 선멘트 및 마이크 온(on) 전환 동작이 수행되면, 도 9에 도시된 바와 같이 일반 모드(910)에서 음성 대화 모드(980)로 전환된다.
음성 대화 모드(980)의 실행에 따라, 안내 로봇의 터치 스크린(151)에 absp 화면이 디스플레이되고, 안내 로봇의 질의 유도 멘트가 음성 출력부(예, 스피커)를 통해 출력될 수 있다(981). 이 후, 안내 로봇은 터치 스크린(151) 또는 음성 수신부(예, 마이크로폰)를 통해 입력된 사용자의 질의를 확인하고(982), 사용자의 질의가 입력된 경우 답변 및 추가질문을 유도하는 멘트를 음성 출력부(예, 스피커)를 통해 출력할 수 있다(983). 이때, 일정 시간이 경과하면(time out), 사용자 질의를 확인하는 과정(982)으로 복귀한다.
사용자 질의의 확인 결과, 일정 시간이 경과하거나(time out) 또는 사용자 질의 입력이 없으면, 안내 로봇은 재질문 반복 횟수를 초과하였는지 여부를 파악 한다(984). 재질문 횟수를 초과한 경우, 안내 로봇은 터치 스크린(151)에 메뉴 화면을 디스플레이하고, 그렇지 않으면 재질문 유도 멘트를 출력하다(985).
이와 같이 음성 대화 모드(980)를 수행하는 동안, 안내 로봇의 센서를 통해 더 이상 사용자가 감지되지 않으면 일정 시간 경과(예, 5초) 후, 일반 모드(910)로 복귀한다. 다만, 일정 조건을 만족하는 경우에는 사용자가 감지되지 않거나 또는 사용자의 감지여부와 관계없이 음성 대화 모드(980)를 계속 유지할 수 있다.
여기에서, 상기 일정 조건은 안내 로봇에서 특정 기능이 수행되는 동안을 의미할 수 있다. 상기 특정 기능은 예를 들어, 안내 로봇의 사진 촬영 기능, 메시지 전송 기능, 전면/후면 터치 스크린에 수신된 터치입력에 응답하여 본체/헤드부를 회전하는 기능, 또는 본체/헤드부의 회전 후 메뉴 진입까지의 대기 동작 등을 포함할 수 있다. 또한, 위에서 설명한 과정 중 어느 단계에서도 사용자에 의해 전면/후면 터치 스크린에 터치입력이 수신된 경우, (디지털 사이니지의 출력 중단 및 주행 중단) 해당 터치 스크린에 메뉴 화면이 출력될 수 있다.
이상에서 살펴본 바와 같이, 본 발명의 실시 예에 따른 안내 로봇 및 그것의 동작방법에 의하면, 정해진 기동어 또는 기동어에 매칭되는 제스처를 전혀 알지 못하는 사용자라도 학습 없이 음성 대화를 수행할 수 있다. 또한, 추가 구성부품 없이, 로봇에 구비된 센서와 카메라만을 사용하여 사용자의 대화 의도를 비교적 정확하게 파악할 수 있다. 또한, 사용자의 사용 의사 있음을 파악한 후에도, 노이즈 필터링을 위해 호출어를 발화하도록 유도하는 안내 음성을 출력함으로써, 오인식 동작을 최소화할 수 있으며, 추가 서버비용 없이 상황에 적절한 다양한 호출어를 변경하여 적용할 수 있다.
본 발명의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 발명의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시 예와 같은 특정 실시 예는 단지 예시로 주어진 것으로 이해되어야 한다.
이상에서 실시예들에 설명된 특징, 구조, 효과 등은 본 발명의 적어도 하나의 실시예에 포함되며, 반드시 하나의 실시예에만 한정되는 것은 아니다. 나아가, 각 실시예에서 예시된 특징, 구조, 효과 등은 실시예들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시예들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.
또한, 이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (12)

  1. 본체를 주행시키는 주행부;
    상기 본체에 구비된 터치 스크린 및 카메라;
    사용자의 접근을 감지하도록 이루어진 센서;
    활성화 상태에서 음성을 수신하도록 형성된 음성 수신부; 및
    적어도 하나의 디지털 사이니지를 상기 터치 스크린에 디스플레이하는 제어부를 포함하고, 상기 제어부는,
    상기 센서를 통해 사용자의 접근이 감지된 것에 응답하여 상기 본체의 주행을 정지하고 상기 카메라를 활성화하며, 상기 카메라를 통해 감지된 상기 사용자의 얼굴 및 얼굴 각도에 기초하여 사용 의사 있음을 결정하고,
    상기 결정에 근거하여 상기 음성 수신부를 활성 상태로 하여 음성 대화 모드를 실행하고, 상기 음성 대화 모드의 실행에 따라 상기 디지털 사이니지의 디스플레이를 중단하고 사용 가이드 정보를 출력하는 안내 로봇.
  2. 제1항에 있어서,
    상기 사용 가이드 정보는 노이즈 필터를 위한 호출어 발화를 유도하는 가이드 정보를 포함하며, 상기 사용 가이드 정보는 상기 본체에 구비된 음성 출력부를 통해 출력되는 안내 로봇.
  3. 제2항에 있어서,
    상기 제어부는,
    상기 음성 수신부를 통해 상기 호출어를 발화하는 음성이 수신되면, 상기 음성 출력부를 통해 사용자 질의를 유도하는 음성을 출력하는 안내 로봇.
  4. 제2항에 있어서,
    상기 제어부는,
    미리설정된 시간 내에 상기 호출어를 발화하는 음성이 수신되지 않거나 또는 상기 음성 대화 모드의 실행 동안 상기 센서를 통해 사용자가 더 이상 감지되지 않는 것으로 결정되면, 상기 음성 대화 모드를 종료하고 상기 디지털 사이니지를 상기 터치 스크린에 디스플레이하는 안내 로봇.
  5. 제1항에 있어서,
    상기 제어부는, 상기 사용 가이드 정보를 상기 터치 스크린에 디스플레이하고, 상기 디스플레이된 사용 가이드 정보는 기설정된 메뉴화면이 포함되는 안내 로봇.
  6. 제1항에 있어서,
    상기 센서는, 카메라, 초음파 센서, 라이다 센서, ToF 센서 중 적어도 하나를 포함하며,
    상기 센서를 통해, 상기 본체를 기준으로 전방, 좌우, 높이 각각에 대응되는 사용자 감지범위가 미리설정되는 안내 로봇.
  7. 제6항에 있어서,
    상기 본체를 기준으로 높이에 대응되는 사용자 감지범위는,
    상기 본체를 기준으로 바닥면으로부터 일정거리 위로 이동한 위치가 사용자 높이감지범위의 원점으로 설정되는 안내 로봇.
  8. 제7항에 있어서,
    상기 제어부는,
    상기 센서를 통해 감지된 사용자가 제1 감지범위에서 상기 본체로 접근하는 것에 응답하여 상기 본체의 주행 속도를 감소하고,,
    상기 사용자가 제1 사용자 감지범위 보다 본체에 더 가까운 제2 감지범위에서 감지된 것에 응답하여 상기 본체의 주행을 정지하도록 상기 주행부를 제어하는안내 로봇.
  9. 제1항에 있어서,
    상기 제어부는,
    상기 카메라를 통해 상기 사용자의 얼굴을 인식하고, 미리설정된 시간 동안 인식된 얼굴 각도의 좌우 각도변화가 기설정된 범위 이내이면, 사용 의사 있음으로 결정하는 안내 로봇.
  10. 제9항에 있어서,
    상기 제어부는,
    상기 카메라를 통해 상기 사용자의 얼굴 인식에 실패하거나 또는 상기 인식된 얼굴 각도의 좌우 각도변화가 기설정된 범위를 벗어나면, 사용 의사 없음으로 결정하여 미리설정된 시간 동안 회피 주행을 수행하도록 상기 주행부를 제어하는 안내 로봇.
  11. 제10항에 있어서,
    상기 제어부는,
    상기 회피 주행 후, 상기 터치 스크린에 디지털 사이니지를 다시 디스플레이하는 안내 로봇.
  12. 안내 로봇의 동작방법으로서,
    안내 로봇의 본체에 구비된 터치 스크린에 적어도 하나의 디지털 사이니지를 디스플레이하는 단계;
    본체에 구비된 센서를 통해 사용자의 접근이 감지된 것에 응답하여 상기 본체의 주행을 정지하고 카메라를 활성화하는 단계;
    상기 카메라를 통해 감지된 상기 사용자의 얼굴 및 얼굴 각도에 기초하여 사용 의사 있음을 결정하는 단계;
    상기 결정에 근거하여 상기 본체의 주행을 중단하고 사용자의 음성을 수신하기 위한 음성 수신부를 활성화하여 음성 대화 모드를 실행하는 단계; 및
    상기 음성 대화 모드의 실행에 따라 상기 디지털 사이니지의 디스플레이를 중단하고 사용 가이드 정보를 출력하는 단계를 포함하는,
    안내 로봇의 동작방법.
KR1020210185221A 2021-12-22 2021-12-22 안내 로봇 및 그것의 동작 방법 KR20230095585A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210185221A KR20230095585A (ko) 2021-12-22 2021-12-22 안내 로봇 및 그것의 동작 방법
US17/940,763 US20230197073A1 (en) 2021-12-22 2022-09-08 Guide robot and operation method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210185221A KR20230095585A (ko) 2021-12-22 2021-12-22 안내 로봇 및 그것의 동작 방법

Publications (1)

Publication Number Publication Date
KR20230095585A true KR20230095585A (ko) 2023-06-29

Family

ID=86768706

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210185221A KR20230095585A (ko) 2021-12-22 2021-12-22 안내 로봇 및 그것의 동작 방법

Country Status (2)

Country Link
US (1) US20230197073A1 (ko)
KR (1) KR20230095585A (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11964398B2 (en) * 2021-01-28 2024-04-23 Micropharmacy Corporation Systems and methods for autonomous robot distributed processing

Also Published As

Publication number Publication date
US20230197073A1 (en) 2023-06-22

Similar Documents

Publication Publication Date Title
US11663516B2 (en) Artificial intelligence apparatus and method for updating artificial intelligence model
EP3509061B1 (en) Electronic device for voice recognition
KR102389041B1 (ko) 이동단말기 및 머신 러닝을 이용한 이동 단말기의 제어방법
US11577379B2 (en) Robot and method for recognizing wake-up word thereof
US11495214B2 (en) Artificial intelligence device for providing voice recognition service and method of operating the same
US11276399B2 (en) Guide robot and method for operating the same
US20200050842A1 (en) Artificial intelligence apparatus for recognizing user from image data and method for the same
US11217246B2 (en) Communication robot and method for operating the same
US11501794B1 (en) Multimodal sentiment detection
US11443747B2 (en) Artificial intelligence apparatus and method for recognizing speech of user in consideration of word usage frequency
CN112135553B (zh) 用于执行清洁操作的方法和设备
US11568239B2 (en) Artificial intelligence server and method for providing information to user
US11769508B2 (en) Artificial intelligence apparatus
US11607801B2 (en) Artificial intelligence robot for managing movement of object using artificial intelligence and method of operating the same
KR102339085B1 (ko) 사용자의 어플리케이션 사용 기록을 고려하여 사용자의 음성을 인식하는 인공 지능 장치 및 그 방법
US11450326B2 (en) Device for recognizing voice content, server connected thereto, and method for recognizing voice content
US20230197073A1 (en) Guide robot and operation method thereof
KR20190095194A (ko) 사용자의 동선을 결정하는 인공 지능 장치 및 그 방법
KR20210004173A (ko) 사용자 모니터링 방법 및 장치
US11641543B2 (en) Sound source localization for robot
US20210187739A1 (en) Robot and robot system
US11348585B2 (en) Artificial intelligence apparatus
KR102617740B1 (ko) Ai 기반의 스피커 시스템
KR20210097346A (ko) 끝점 검출을 위한 인공 지능 장치
KR20190095195A (ko) 사용자의 동선에 기초한 서비스를 제공하는 인공 지능 장치 및 그 방법