KR101019655B1 - 사용 유도 장치 및 방법 - Google Patents

사용 유도 장치 및 방법 Download PDF

Info

Publication number
KR101019655B1
KR101019655B1 KR1020090119987A KR20090119987A KR101019655B1 KR 101019655 B1 KR101019655 B1 KR 101019655B1 KR 1020090119987 A KR1020090119987 A KR 1020090119987A KR 20090119987 A KR20090119987 A KR 20090119987A KR 101019655 B1 KR101019655 B1 KR 101019655B1
Authority
KR
South Korea
Prior art keywords
event
user
unit
input
preset time
Prior art date
Application number
KR1020090119987A
Other languages
English (en)
Inventor
송세경
김현
Original Assignee
(주) 퓨처로봇
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 퓨처로봇 filed Critical (주) 퓨처로봇
Priority to KR1020090119987A priority Critical patent/KR101019655B1/ko
Priority to US13/513,679 priority patent/US20130014055A1/en
Priority to PCT/KR2010/008670 priority patent/WO2011068390A2/ko
Priority to EP10834805.3A priority patent/EP2509012A4/en
Application granted granted Critical
Publication of KR101019655B1 publication Critical patent/KR101019655B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

본 발명에 따른 사용 유도 장치는 사용자의 입력을 받는 입력부, 상기 사용자가 인식 가능한 복수의 이벤트가 저장되는 이벤트 저장부, 상기 입력부에서 상기 사용자의 입력이 감지되면 상기 이벤트 저장부에 저장된 이벤트 중 하나를 추출하는 이벤트 추출부, 상기 이벤트 추출부에서 추출된 이벤트를 상기 사용자에게 표시하는 이벤트 표현부를 포함함으로써, 사용자가 입력부를 흥미를 갖고 이용하도록 유도할 수 있다.
감정, 유도, 키오스크, 로봇, 거리, 사용자 외적 정보, 입력부, 시간

Description

사용 유도 장치 및 방법{APPARATUS AND METHOD HAVING A FUNCTION OF GUIDING USER'S CONTROLLING BEHAVIOR}
본 발명은 사용 유도 장치 및 방법에 관한 것으로서, 사용자가 소정 기기를 사용하도록 흥미와 관심을 유발하는 사용 유도 장치 및 방법에 관한 것이다.
현재 사용자의 명령이나 주위 환경, 그리고 센서 정보로부터 감정 모델을 구성하고, 이를 기반으로 하여 동작을 제어하는 감정 시스템에 관한 연구가 이루어지고 있다.
위와 같이 시각이나 청각, 촉각 센서와 같은 다양한 센서 정보를 이용하여 감정이나 행동을 생성하거나 선택하여 표현하는 시스템은 애완용 로봇이나 지능형 로봇 형태로 개발되어 있으며, 동물을 모사하거나 의인화된 감정을 기반으로 보다 자연스러운 행동을 표현하기 위해 감정 엔진이나 이와 관련된 시스템에 관한 기능 개선 연구도 꾸준히 진행되고 있다.
또한, 인간과 로봇의 자연스러운 상호작용을 위해 사용자의 입력과 상태 변화를 감지하기 위한 센서 장치의 기능 개선과 함께 이런 센서를 이용하여 사용자의 의도를 파악하기 위한 기술 개발이 시도되고 있으며, 로봇 구동 장치에 있어서도 자연스러운 행동을 표현하기 위해 구동기 기술에 대한 다양한 연구가 이루어지고 있다.
한편, 위와 같은 감정 정보를 기반으로 충실한 감정을 표현하기 위해서는 하드웨어적인 장치의 개발뿐만 아니라 이를 제어하는 내부 시스템에 대한 개발도 중요하다. 특히 특정된 로봇이나 시스템에 의존적인 구성이 아니라 독립적으로 운용 가능한 형태로의 개발이 필요하지만, 현재까지는 독립적으로 운용 가능한 형태의 감정 표현 시스템이 개발되어 있지는 않다.
따라서 하드웨어적인 구동 장치를 상황과 감정에 따라 자연스럽고 실감나게 구동하기 위해서는 물리적인 장치 및 이를 구동하고 운용하는 내부 시스템 간의 유기적인 제어를 통해 특정 로봇과 시스템에 관계없이 독립적으로 운용 가능한 형태의 감정 표현 시스템의 개발이 요구된다.
또한, 단순한 감정을 표현하는 것에서 더 나아가 감정 표현을 통해 사용자를 로봇이나 키오스크로 유도하여 로봇이나 키오스크에서 제공되는 기능을 이용하도록 유도하는 방안에 대한 연구도 이루어질 필요가 있다.
본 발명은 사용자와의 거리, 조작 시간 및 사용자 외적 정보에 따라 다양한 이벤트를 표현하도록 함으로써 사용자로 하여금 소정 기기를 사용하도록 유도하는 사용 유도 장치 및 방법을 제공하기 위한 것이다.
본 발명이 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기한 목적을 달성하기 위하여 본 발명에 따른 사용 유도 장치는 사용자의 입력을 받는 입력부, 상기 사용자가 인식 가능한 복수의 이벤트가 저장되는 이벤트 저장부, 상기 입력부에서 상기 사용자의 입력이 감지되면 상기 이벤트 저장부에 저장된 이벤트 중 하나를 추출하는 이벤트 추출부, 상기 이벤트 추출부에서 추출된 이벤트를 상기 사용자에게 표시하는 이벤트 표현부를 포함할 수 있다.
이때, 상기 이벤트 추출부는 상기 사용자의 입력 내용에 따라 상기 이벤트를 선택하여 추출할 수 있다.
또한, 상기 이벤트 추출부는 상기 사용자의 입력이 감지된 시점에서 상기 이벤트 표현부를 통해 표시 중인 이벤트와 다른 이벤트를 추출할 수 있다.
또한, 상기 이벤트 추출부는 상기 사용자의 입력이 감지된 이후 기설정 시간동안 추가적인 사용자의 입력이 감지되지 않으면 상기 기설정 시간 만료 시점에서 상기 이벤트 표현부를 통해 표시 중인 이벤트와 다른 이벤트를 추출할 수 있다. 여기서, 상기 사용자의 외적 정보를 감지하는 사용자 정보 감지부 및 상기 감지된 사용자 외적 정보에 따라 상기 기설정 시간을 설정하는 기준 시간 설정부를 더 포함 할 수 있다.
또한, 상기 이벤트 추출부는 상기 기설정 시간 만료 이후 제2 기설정 시간마다 상기 제2 기설정 시간 각각의 만료 시점에서 상기 이벤트 표현부를 통해 표시 중인 이벤트와 다른 이벤트를 추출할 수 있다. 이때, 상기 사용자의 외적 정보를 감지하는 사용자 정보 감지부 및 상기 감지된 사용자 외적 정보에 따라 상기 기설정 시간 또는 상기 제2 기설정 시간 중 적어도 하나를 설정하는 기준 시간 설정부를 더 포함할 수 있다.
또한, 상기 사용자의 외적 정보를 감지하는 사용자 정보 감지부 및 상기 감지된 사용자 외적 정보를 기반으로 상기 사용자의 반응을 추출하고 상기 사용자 반응이 임계값을 초과하는지 판단하는 임계 판단부를 더 포함하고, 상기 이벤트 추출부는 상기 사용자의 반응이 임계값을 초과한 경우 상기 사용자의 반응에 따라 반응 이벤트를 추출하고, 상기 이벤트 표현부는 상기 반응 이벤트를 제3 기설정 시간동안 표시할 수 있다.
또한, 상기 사용자와의 거리를 측정하는 거리 측정부 및 상기 거리 측정부에서 측정된 거리를 상기 사용자가 상기 입력부를 조작할 수 없는 거리 구간에 해당하는 유인 단계 구간과 상기 사용자가 상기 입력부를 조작할 수 있는 거리 구간에 해당하는 준비 단계 구간으로 구분하는 거리 구분부를 더 포함하고, 상기 이벤트 추출부는 상기 유인 단계 구간에서는 불특정 사용자를 상기 준비 단계 구간으로 유도할 수 있는 이벤트를 추출하고, 상기 준비 단계에서는 상기 사용자를 특정하고 상기 사용자가 상기 입력부를 사용하도록 유도할 수 있는 이벤트를 추출할 수 있 다. 여기서, 상기 준비 단계 구간에서 상기 사용자의 외적 정보를 감지하는 사용자 정보 감지부를 더 포함하고, 상기 이벤트 저장부는 상기 사용자가 인식 가능한 하나 이상의 이벤트를 상기 사용자의 외적 정보에 대응되는 복수의 이벤트군으로 분류하여 저장하고, 상기 이벤트 추출부는 상기 감지된 사용자의 외적 정보에 대응되는 이벤트군을 선택하고 상기 선택된 이벤트군에 저장된 이벤트를 추출할 수 있다. 또한, 상기 입력부가 목적으로 하는 내용 또는 상기 입력부의 사용 방법 중 적어도 하나를 표시하는 메뉴 표시부를 더 포함할 수 있다. 이때, 상기 메뉴 표시부는 상기 이벤트 표현부와 일체로 형성될 수 있다.
한편, 본 발명에 따른 사용 유도 방법은 기설정 거리 이상에 위치한 불특정 사용자에게 입력부로 접근하도록 유도하는 홍보 이벤트를 표시하는 유인 단계, 상기 기설정 거리 내에 위치한 사용자에게 상기 입력부를 사용하도록 유도하는 유도 이벤트를 표시하는 준비 단계 및 상기 사용자가 상기 입력부의 사용을 개시한 경우 상기 입력부를 사용할 때마다 상기 입력부의 감지 내용에 따라 이벤트 저장부에 저장되어 있는 이벤트를 추출하여 표시하는 액션 단계를 포함할 수 있다.
이때, 상기 액션 단계는 상기 사용자가 기설정 시간동안 추가 입력을 하지 않는 경우 현재 표시되는 이벤트와 다른 이벤트를 추출하여 표시할 수 있다.
또한, 상기 액션 단계 이후에, 상기 사용자가 비용을 지불하기 위해 결제 수단으로서 상기 입력부를 사용할 때마다 상기 입력부의 감지 내용에 따라 이벤트 저장부에 저장되어 있는 이벤트를 추출하여 표시하는 결제 단계를 더 포함할 수 있 다.
또한, 본 발명에 따른 사용 유도 방법은 a) 사용자의 입력이 감지되면 상기 감지된 내용에 따라 이벤트 저장부에 저장되어 있는 이벤트를 추출하여 표시하는 단계 및 b) 상기 사용자의 입력 이후 기설정 시간동안 상기 사용자의 추가 입력이 없는 경우 상기 표시 중인 이벤트와 다른 이벤트를 추출하여 표시하는 단계를 포함할 수 있다.
이때, 상기 b) 단계 이후에, 상기 기설정 시간 만료 이후 제2 기설정 시간마다 상기 제2 기설정 시간 각각의 만료 시점에서 상기 이벤트 표현부를 통해 표시 중인 이벤트와 다른 이벤트를 추출하여 표시하는 단계를 더 포함할 수 있다.
또한, 상기 a) 단계 이전에, 상기 사용자와의 거리를 측정하는 단계, 상기 측정된 거리가 유인 단계 구간인 경우 홍보 이벤트를 표시하는 단계 및 상기 측정된 거리가 준비 단계 구간인 경우 유도 이벤트를 표시하는 단계를 더 포함할 수 있다.
또한, 상기 b) 단계 이후에, 상기 사용자의 사용이 종료된 경우 상기 사용자의 입력 간의 시간 패턴을 분석하고 상기 분석 결과를 이용해 상기 기설정 시간을 설정하는 단계를 더 포함할 수 있다.
또한, 상기 제2 기설정 시간을 이용한 이벤트 표시 단계 이후에, 상기 사용자의 사용이 종료된 경우 상기 사용자의 입력 간의 시간 패턴을 분석하고 상기 분석 결과를 이용해 상기 기설정 시간 또는 상기 제2 기설정 시간 중 적어도 하나를 설정하는 단계를 더 포함할 수 있다.
이상에서 설명된 바와 같이 본 발명에 따른 사용 유도 장치 및 방법은 사용자와의 거리, 사용자의 입력부 조작 또는 사용자의 외적 정보에 따라 사용자에게 다양한 이벤트를 표시할 수 있다.
그 결과, 사용자를 사용 유도 장치에 마련된 입력부로 용이하게 유도할 수 있으며, 사용자가 입력부를 사용하는 중에 마음을 바꾸어 입력부 이용을 포기하는 경우를 줄일 수 있다.
이하, 본 발명과 관련된 사용 유도 장치 및 방법에 대하여 도면을 참조하여 보다 상세하게 설명한다.
도 1은 본 발명과 관련된 사용 유도 장치를 나타낸 블럭도이다.
도 1에 도시된 사용 유도 장치는 사용자의 입력을 받는 입력부(110), 상기 사용자가 인식 가능한 복수의 이벤트가 저장되는 이벤트 저장부(200), 상기 입력부에서 상기 사용자의 입력이 감지되면 상기 이벤트 저장부에 저장된 이벤트 중 하나를 추출하는 이벤트 추출부(120), 상기 이벤트 추출부에서 추출된 이벤트를 상기 사용자에게 표시하는 이벤트 표현부(130)를 포함하고 있다.
입력부(110)는 사용자의 입력을 받는 요소로, 키패드, 키보드, 터치 스크린 등 다양한 방식이 적용될 수 있다. 사용 유도 장치는 사용자로 하여금 입력부로 접 근하도록 유도함과 동시에 접근한 사용자가 입력부를 사용하도록 하는 것을 목적으로 한다. 사용자가 입력부를 사용할 때 입력부를 통해서 획득할 객체가 존재할 것이다. 이러한 객체에는 소정 상품 및 서비스에 대한 주문 메뉴 등이 해당된다. 따라서, 입력부는 일반적으로 주문 메뉴, 즉 소정 객체를 관리하는 객체 관리 시스템 등에 포함될 수 있다. 본 실시예에서 사용 유도 장치는 이와 같은 입력부의 출력 신호를 분기받아 사용자가 입력부를 사용하도록 유도하는데 이용한다. 사용 유도 장치는 객체 관리 시스템의 입력부만을 포함할 수 있으며, 객체 관리 시스템 전체를 포함할 수도 있다. 전자의 경우에는 입력부의 신호를 객체 관리 시스템으로 전송하는 통신 모듈이 구비될 수 있다.
이벤트 저장부(200)는 사용자가 인식 가능한 다양한 이벤트가 저장된다. 사용자를 입력부로 유도하고, 원하는 목적을 달성할 때까지 입력부를 사용하도록 유도하는 다양한 방안이 있을 수 있는데, 본 실시예에서는 이 중에서 감정 표현을 이용한다. 사용 유도 장치는 로봇이나 키오스크에 적용될 수 있는데, 로봇이나 키오스크로 인간과 같은 다양한 감정을 표현하도록 하는 것은 현실적으로 어렵다. 따라서, 사용 유도 장치가 장착될 로봇이나 키오스크의 출력 수단(이벤트 표현부에 해당)에 적합한 이벤트를 복수개로 정의하여 이벤트 저장부에 저장해두고 이용한다. 이벤트는 구체적으로 데이터의 형태로서 저장되며, 이벤트 표현부에서 분석/실행되어 사용자에게 표시된다. 이벤트를 외부로 표시할 때는 얼굴 표정, 감정 행위, 감정 음성, 감정 문자 등으로 표시된다. 얼굴 표정을 통해 기쁨, 슬픔, 웃김, 초조, 화남, 반가움 등의 감정을 표현할 수 있다. 감정 행위는 제스처가 해당되며, 환영을 나타내는 인사 등을 표현할 수 있다. 감정 행위에는 동작이 요구되므로 키오스크에서의 실현이 어렵고 로봇의 경우에 적용할 수 있다. 감정 음성은 소리로서 감정을 나타낸다. 구체적으로 웃음 소리, 울음 소리, 화난 소리, 공포를 느끼는 의성어 등을 통해 기쁨, 슬픔, 화남, 무서움 등의 감정을 표현할 수 있다. 또한 이외에도 '반가워요', '당신이 와서 기뻐요'와 같이 의성어가 아닌 언어를 통해서도 감정을 표현할 수 있다. 감정 문자는 LED 등의 디스플레이부를 통해 문자로서 감정을 표현하게 된다. 또한, 이벤트는 사용자에게 제공되는 정보일 수 있다. 구체적으로 '메뉴1을 선택하셨습니다'와 같은 정보 문자 또는 정보 음성을 포함할 수 있다.
이벤트 추출부(120)는 입력부에서 사용자의 입력이 감지되면 이벤트 저장부에 저장된 이벤트 중 하나를 추출하게 된다. 다시 말해서 사용자가 입력부를 조작할 때마다 이벤트를 추출한다. 이때 추출되는 하나의 이벤트는 기쁨을 표현하는 웃는 표정, 웃는 소리, 웃음때문에 어깨를 들썩거리는 제스처 중 어느 하나를 의미하는 것이 아님을 주의해야 한다. 여기서 하나의 이벤트란 "하나의 감정"을 표현하는데 사용되는 복수의 이벤트 모두를 의미한다. 하나의 감정을 표현하는데 사용되는 이벤트의 개수는 이벤트 표현부에 의해 결정된다. 예를 들어 키오스크의 경우 기쁨을 표시하는 방안으로 디스플레이부를 통한 얼굴 표정 출력과 스피커를 통한 웃음 소리 출력이 가능하나, 제스처와 같은 감정 행위의 표현은 불가능하다. 물론, 디스플레이부에 인체를 표시하고 이를 통해 제스처를 표시할 수 있으나, 이와 같은 경우는 얼굴 표정과 감정 문자에 포함되는 것으로 볼 수 있으므로 기기 자체가 동작하는 제스처와 구별하도록 한다. 따라서 키오스크의 경우 하나의 이벤트는 기쁨을 나타내는 얼굴 표정과 웃음 소리 두 개가 된다. 로봇의 경우에는 여기에 제스처가 포함될 수 있을 것이다.
이벤트 추출부는 사용자가 입력부를 조작할 때마다 이벤트를 추출하는데, 이때 추출되는 이벤트는 이미 이벤트 표현부에서 표시 중인 이벤트와 동일할 수 있다. 이와 같은 경우 사용자의 입장에서는 입력부를 조작해도 계속 같은 이벤트가 표시되는 것으로 보이므로 흥미가 줄어들 수 있다. 일반적으로 입력부가 눌려질 때마다 다른 감정이 표현되면 사용자는 다음 조작에서는 어떤 이벤트가 표시될지 궁금해 할 것이다. 이를 이용하면 사용자는 입력부 조작을 지속하고픈 욕구를 가지게 될 것이다. 이를 고려하여 이벤트 추출부는 사용자의 입력이 감지된 시점에서 이벤트 표현부를 통해 표시 중인 이벤트와 다른 이벤트를 추출할 수 있다. 이에 따르면 입력부를 조작할 때마다 매번 다른 이벤트가 표시되므로 사용자가 입력부를 조작하는 것에 지속적인 흥미를 느끼도록 할 수 있다.
한편, 입력부는 사용자로 하여금 소정 메뉴를 선택하도록 강요하는 구성을 취할 수 없다. 식당을 예로 들어 설명하면 입력부는 사용자가 메뉴를 선택한 경우라 하더라도 사용자의 선택에 의해 다시 취소할 수 있는 수단이 마련되어야 한다. 이와 같이 선택한 메뉴를 취소하는 등의 사용 유도 목적과 반대되는 행위를 사용자가 자발적으로 하지 않도록 유도하는데 이벤트를 이용할 수 있다. 이를 위해 이벤트 추출부는 사용자의 입력 내용에 따라 이벤트를 선택하여 추출할 수 있다. 예를 들어 사용자의 입력 내용이 메뉴를 취소하는 내용인 경우 슬픔이나 아쉬움을 표시함으로써 사용자가 스스로 메뉴를 취소하지 않도록 유도할 수 있다. 사용자가 점진 적으로 소정 메뉴의 선택으로 입력부를 조작해 나갈 경우에는 기쁨, 부드러움, 매우 기쁨과 같은 이벤트를 표시함으로써 사용자의 메뉴 선택을 장려할 수 있다. 이를 위해 현재의 입력 내용을 분석할 수 있어야 하며, 이전의 입력된 내용과 현재 입력된 내용을 비교하여 사용 유도 목적에 적합한 행위인지 반대되는 행위인지 판단할 수 있어야 하며, 판단이 이루어진 각각의 경우에 표시할 이벤트를 미리 설정해 놓아야 한다. 각각의 경우에 표시할 이벤트는 실험에 의해 획득된 자료를 기반으로 할 수 있으며, 갱신 또한 가능하도록 할 수 있다.
이벤트 표현부(130)는 이벤트 추출부에서 추출된 이벤트를 분석하고 다양한 수단을 통해서 표현한다. 이를 위해 이벤트 표현부는 이벤트 추출부에서 전송된 이벤트를 분석하는 수단을 포함하며 또한 분석된 이벤트를 표시할 디스플레이부, 스피커, 팔, 다리, 바퀴, 얼굴 등을 포함한다. 눈, 코, 입과 안면 구조가 형성되어 있는 로봇의 경우에는 눈과 입을 변형시켜 이벤트 중 얼굴 표정을 표현할 수 있다. 만약, 키오스크 또는 얼굴 형태 대신 디스플레이부나 LED가 얼굴로서 형성된 로봇의 경우에는 디스플레이부 또는 LED를 통해 얼굴 표정을 표현할 수 있다. 또한, 팔과 다리가 형성되어 있는 로봇의 경우에는 팔 또는 다리의 동작으로 감정과 관련된 동작을 수행하도록 할 수 있다. 구체적으로 하트 모양을 형성한다던지 손입술 키스 동작을 취한다던지 등의 제스처를 취할 수 있다. 또한, 스피커를 통해 슬픔, 기쁨을 나타내는 울음소리, 웃음소리, 비웃음 소리 또는 사용자가 인식 가능한 뜻소리 등을 표현할 수도 있다. 앞에서 이벤트 추출부에서 추출되는 하나의 이벤트에 대해 설명한 바 있는데, 이에 따라 이벤트 추출부에서 추출된 이벤트를 사용자에게 표시하는 이벤트 표현부는 얼굴 표정, 감정 행위, 감정 음성, 감정 문자 모두 또는 일부를 동시에 표현할 수 있다.
한편, 상기 이벤트 추출부는 사용자의 입력이 감지된 이후 기설정 시간동안 추가적인 사용자의 입력이 감지되지 않으면 기설정 시간 만료 시점에서 상기 이벤트 표현부를 통해 표시 중인 이벤트와 다른 이벤트를 추출할 수 있다. 사용자가 입력부를 조작함에 있어 조작과 조작 사이에서 시간을 소비하는 경우가 있을 수 있다. 입력부에 대한 조작이 익숙하지 않거나 조작 중에 고민을 하는 경우가 여기에 해당될 수 있다. 이와 같은 경우 추가적으로 입력부가 조작되기 전까지 동일한 이벤트를 표시하게 되면 사용자의 흥미가 반감될 수 있다. 따라서, 입력부 조작 이후 다음 조작이 기설정 시간동안 이루어지지 않는 경우 현재 표시 중인 이벤트와 다른 이벤트를 표시하는 것이 바람직하다. 이에 따르면 사용자를 무료하지 않게 할 수 있을 뿐만 아니라 새롭게 표시되는 이벤트를 이용해 고민 중인 사용자가 신속하게 다음 조작을 수행하도록 독촉할 수도 있다. 이때의 기설정 시간은 사용 유도 장치의 설비자 또는 공장 출하시에 설정된 시간값일 수 있다.
이와 다르게 입력부를 사용하는 사용자에 따라 기설정 시간을 다르게 설정할 수 있다. 예를 들어 노인과 같은 경우 일반적으로 입력부의 조작이 느릴 수밖에 없는데, 이와 같이 사용자의 연령, 키, 성별, 얼굴 표정, 음성, 제스처와 같은 사용자의 외적 정보 중 적어도 하나를 이용해 기설정 시간을 설정할 수 있다. 이를 위해 사용자의 외적 정보를 감지하는 사용자 정보 감지부(140) 및 감지된 사용자 외적 정보에 따라 기설정 시간을 설정하는 기준 시간 설정부(150)를 더 포함할 수 있 다. 사용자 정보 감지부는 사용자 외적 정보를 감지하기 위해 카메라, 마이크 등의 입력 수단과 상기 입력 수단의 출력 신호를 분석하는 정보 분석 수단을 포함할 수 있다.
이상에서 기설정 시간동안 추가적으로 입력이 이루어지지 않는 경우에 현재 표시 중인 이벤트와 다른 이벤트를 표시하는 방안에 대해서 설명하였는데, 이때 후자의 이벤트 또한 계속 표시될 경우 현재 표시 중인 이벤트가 계속 표시될 때와 같은 문제가 발생하게 된다. 이를 방지하기 위해 이벤트 추출부는 기설정 시간 만료 이후 제2 기설정 시간마다 제2 기설정 시간 각각의 만료 시점에서 이벤트 표현부를 통해 표시 중인 이벤트와 다른 이벤트를 추출할 수 있다. 예를 들어 기설정 시간이 30초이고, 제2 기설정 시간이 10초인 경우 사용자가 입력부 조작 후 30초동안 추가적인 입력을 수행하지 않으면 현재 표시중인 이벤트와 다른 이벤트가 추출되어 표시된다. 그 후에도 10초가 경과하도록 추가적인 입력이 없으면 또다른 이벤트가 추출되어 표시되고, 그 후에도 이와 같은 과정이 반복된다. 이에 따라 사용자는 지속적으로 변하는 이벤트를 보거나 듣게 된다. 제2 기설정 시간 또한 기설정 시간과 같이 사용자의 외적 정보에 따라 설정될 수 있다. 구체적으로 기설정 시간과 제2 기설정 시간이 모두 이용되는 실시예에서 기준 시간 설정부(150)는 사용 정보 감지부(140)에서 감지된 사용자 외적 정보에 따라 기설정 시간 또는 제2 기설정 시간 중 적어도 하나를 설정할 수 있다.
한편, 사용자의 외적 정보를 다르게도 사용할 수 있다. 예를 들어 입력부 조작 중에 사용자가 화를 내거나 울거나 할 때는 입력부의 조작 또는 기설정 시간 등 에 따라 이벤트를 추출하는 것보다 사용자의 감정에 대응되는 이벤트를 표시하는 것이 바람직할 수 있다. 이를 위해 우선, 사용자 정보 감지부(140)를 통해 사용자의 외적 정보를 감지하고, 감지된 사용자 외적 정보를 기반으로 사용자의 반응을 추출한다. 사용자의 반응은 음성, 제스처, 얼굴 표정 등을 통해 파악되는 사용자의 감정 판단 결과일 수 있다. 사용자가 일반적으로 사회에서 허용되는 범위의 반응, 예를 들어 일반적인 가벼운 웃음, 침울 등의 가벼운 반응을 보일 때는 입력부의 조작 또는 기설정 시간 등에 따라 이벤트를 표시하는 것이 맞을 것이다. 따라서, 일반적으로 허용되는 범위, 즉 임계값을 초과하는 사용자 반응이 감지된 경우에 이벤트 추출부는 사용자의 반응에 따라 반응 이벤트를 추출한다. 임계값을 초과하는 경우는 예를 들면 사용자의 손의 위치가 일정 범위를 벗어나 이동하는 경우(주먹을 휘두르는 행위로 판단 가능), 얼굴의 입술에 특이점을 부여한 후 상기 특이점이 일정 범위를 벗어나 이동한 경우(우는 상태로 판단 가능)가 있을 수 있다. 반응 이벤트는 사용자의 반응에 따라 추출되는 이벤트로 사용자가 화난 경우를 예로 들면 화를 가라앉힐 수 있는 이벤트가 반응 이벤트에 해당한다. 한편, 반응 이벤트 표시 등의 요인에 의해 사용자의 반응이 임계값 이하로 내려간 경우에도 반응 이벤트가 표시되는 것은 부적절하므로, 이벤트 표현부는 반응 이벤트를 제3 기설정 시간 동안만 표시할 수 있다. 제3 기설정 시간 이후에는 입력부의 조작과 기설정 시간에 따라 이벤트가 추출되고 표시된다. 이상에서 사용자 외적 정보를 기반으로 사용자의 반응을 추출하고 추출된 사용자 반응이 임계값을 초과하는지의 판단은 임계 판단부(160)에 의해서 수행된다.
한편, 기설정 시간 또는 제2 기설정 시간은 입력된 내용에 따라 다르게 적용할 수도 있다. 예를 들어 동일화면에서 이루어지는 입력 간에는 비교적 짧은 시간이 소요되나 화면 넘김 입력에 의해 화면이 변경될 경우 적절한 입력키를 찾는 과정이 필요하므로 화면 넘김 입력 이후 추가 입력 간에는 비교적 긴 시간이 소요된다. 따라서 각 입력간에 동일한 기설정 시간 또는 동일한 제2 기설정 시간을 적용하는 것이 부적절할 수 있다. 이에 따라 이벤트 추출부는 사용자에 의한 입력부 조작이 완료되면 사용자의 입력부 조작간의 시간 패턴을 분석하여 기설정 시간 또는 제2 기설정 시간을 조정할 수 있다.
이상에서는 사용자가 입력부에 대한 조작을 개시한 경우를 중심으로 하여 설명하였다. 이에 따르면 이벤트를 적절하게 표시함으로써 사용자로 하여금 입력부 조작을 지속적으로 수행하도록 유도할 수 있다. 이를 위해서는 사용자를 입력부의 위치로 유도한 후 최초 입력을 수행하도록 할 필요가 있는데, 이를 위해 도 1의 거리 측정부(170)와 거리 구분부(180)가 이용된다.
거리 측정부(170)는 사용자와의 거리를 측정한다. 사용자와의 거리 측정은 카메라, 적외선 센서 및 다양한 측정 방식을 통해 수행될 수 있다.
거리 구분부(180)는 거리 측정부에서 측정된 거리를 유인 단계 구간과 준비 단계 구간으로 구분한다. 유인 단계 구간은 사용자가 입력부를 조작할 수 없는 거리 구간을 지칭하며, 준비 단계 구간은 입력부를 조작할 수 있는 거리 구간을 지칭한다. 준비 단계 구간은 일반적인 사용자가 손을 사용해 입력부를 조작할 수 있는 0.5m 이내가 될 수 있다.
거리 구분부에서 유인 단계 구간과 준비 단계 구간으로 구분한 것은 유인 단계 구간의 목적과 준비 단계 구간의 목적이 다르기 때문이다.
유인 단계 구간의 목적은 불특정 사용자를 준비 단계 구간으로 접근하도록 유도하는 것이다. 따라서, 이벤트 추출부는 사용자가 유인 단계 구간에 위치하는 경우에 소리를 지른다던지 제스처를 크게 취한다던지 하는 이벤트(홍보 이벤트)를 추출하여 사용자에게 자신의 존재를 알리고 관심을 갖도록 한다.
준비 단계 구간의 목적은 준비 단계 구간에 있는 사용자가 입력부 조작을 개시하도록 유도하는 것이다. 따라서, 이 경우 이벤트 추출부는 입력부를 조작하도록 유도하는 안내 음성, 인사 동작 등의 이벤트(유도 이벤트)를 추출하는 것이 바람직하다. 한편, 준비 단계 구간에 복수의 사용자가 위치할 수 있는데, 이와 같은 경우 한 사용자를 특정하여 특정된 사용자에 대해서만 이벤트를 표시하는 것이 바람직하다.
유인 단계 구간과 준비 단계 구간 각각에서 표시될 수 있는 이벤트가 복수인 경우 사용자가 일정 시간 동안 반응을 보이지 않으면 다른 이벤트를 표시할 수 있다. 예를 들어 유인 단계 구간인 경우 감정 1을 표시하고 준비 단계 구간으로 접근하는 사용자가 없으면 일예로 30초마다 감정 1과 다른 감정 2, 3,.. 등을 표시할 수 있다. 사용자가 준비 단계 구간으로 진입하면 감정 a를 표시하고 입력부에 대한 조작이 이루어지지 않으면 일예로 20초마다 감정 a와 다른 감정 b, c,... 등을 표시할 수 있다.
이상에 따르면 사용자를 구분하지 않고 이벤트를 표시하게 되는데, 사용자가 남성일 때와 여성일 때 또는 노약자일 때와 어린이일 때를 구분하여 적절한 이벤트를 표시할 수 있다. 이를 위해 먼저 사용자의 외적 정보를 감지해야 한다. 유인 단계에서는 거리가 멀고 또한 사용자가 특정되지 않았으므로 사용자의 외적 정보 감지가 어렵고 또한 무의미하다. 따라서 상기 준비 단계 구간에서 사용자 정보 감지부(140)를 통해 사용자의 외적 정보를 감지하는 것이 바람직하다.
이때, 이벤트 저장부는 사용자가 인식 가능한 하나 이상의 이벤트를 사용자의 외적 정보에 대응되는 복수의 이벤트군으로 분류하여 저장한다. 예를 들어 어린이에 대응되는 이벤트군에는 익살스럽고 앙증맞은 이벤트들을 저장하고, 남성에 대응되는 이벤트군에는 여성 같은 느낌의 이벤트를 저장하고, 여성에 대응되는 이벤트군에는 남성 같은 느낌의 이벤트를 저장할 수 있다.
이벤트 추출부에서는 사용자 정보 감지부에서 현재 감지된 사용자의 외적 정보를 판단하고, 대응되는 이벤트군을 선택한다. 그 후 선택된 이벤트군에서 이벤트를 추출하여 이벤트 표현부를 통해 표시하게 된다.
한편, 입력부가 목적으로 하는 내용(객체) 또는 상기 입력부의 사용 방법을 표시함으로써 사용자의 접근과 입력부 사용을 유도할 수 있다. 이때의 표시 내용은 이벤트 표현부로 표현하기에 부적절할 수 있으므로, 입력부의 목적 객체 또는 입력부의 사용 방법 중 적어도 하나를 표시하는 메뉴 표시부(190)를 더 포함할 수 있다. 메뉴 표시부는 일반적으로 각종 문자 등의 표시가 가능한 디스플레이부일 수 있는데, 만약 이벤트 표현부가 디스플레이부를 포함하는 경우 메뉴 표시부와 이벤트 표현부가 일체로 형성될 수 있다.
도 2는 이상에서 살펴본 사용 유도 장치의 동작을 나타낸 개략도이다. 살펴보면, 기설정 거리 이상에 위치한 불특정 사용자에게 입력부로 접근하도록 유도하는 홍보 이벤트를 표시하는 유인 단계, 상기 기설정 거리 내에 위치한 사용자에게 상기 입력부를 사용하도록 유도하는 유도 이벤트를 표시하는 준비 단계 및 상기 사용자가 상기 입력부의 사용을 개시한 경우 상기 입력부를 사용할 때마다 상기 입력부의 감지 내용에 따라 이벤트 저장부에 저장되어 있는 이벤트를 추출하여 표시하는 액션 단계를 포함하고 있다.
유인 단계는 사용자가 유인 단계 구간에 위치할 경우에 수행되는 단계로 도 2에서는 예로서 1m 범위 내에 사용자가 없는 경우로 나타내었다. 이때는 홍보 이벤트를 랜덤하게 추출하여 표시할 수 있다. 홍보 이벤트는 일정 거리 밖의 사용자를 대상으로 하므로 얼굴 표정과 제스처를 크게 하거나, 감정 음성을 크게 표현하는 이벤트일 수 있다. 구체적으로 도 3을 참조하여 살펴보면, 이벤트 표현부(130)로서 바퀴(구동 엔진 포함), 얼굴 디스플레이부, 팔, 허리가 구성되어 있다. 얼굴 디스플레이부에는 얼굴 표정을 나타낼 수 있는 캐릭터가 표시된다. 이외에 팔에 의해 지지되는 형태로 메뉴 표시부(190)가 구성되어 있다. 메뉴 표시부에는 사용자가 선택할 수 있는 메뉴 UI가 표시된다.
유인 단계에서 바퀴를 구동하여 2m 이내에서 천천히 움직이고, 얼굴 디스플레이부 및 허리를 크게 움직인다. 감정 음성을 크게 출력하는 경우 소음에 해당할 수 있으므로, 감정 음성은 표시하지 않는다. 제스처로서 사용자의 접근을 유도하므로 얼굴 표정은 엷은 미소로 한다. 이와 같은 동작에 의하면 매장에 들어온 고객은 로봇을 인식하고 로봇 쪽으로 접근하게 된다.
준비 단계는 사용자가 준비 단계 구간에 위치할 경우에 수행되는 단계이다. 도 2에서는 동일한 이벤트가 표현되는 것으로 나타내었으나, 일정 시간마다 이벤트를 변경할 수 있다. 또한, 준비 단계 구간에서는 사용자의 외적 정보를 파악(고객 정보 센싱)할 수 있으므로, 사용자 외적 정보를 기반으로 추출된 사용자의 반응이 임계값을 초과하는 경우 등에 따라 다른 이벤트를 표현할 수 있다. 이 경우 앞에서 설명된 임계 판단부가 이용될 수 있다. 구체적인 예로서 도 4를 살펴보면 고객의 접근함에 따라 바퀴 구동을 중지한다. 필요한 경우 고객을 바라보도록 회전할 수 있다. 고객을 향해 허리를 숙여 인사하고 '어서 오세요. 고객님. 오늘 정말 멋지시네요'와 같은 감정 음성을 표시하고 메뉴 표시부로는 감정 음성의 내용을 문자로서 출력한다. 이와 같이 메뉴 표시부는 이벤트 표현부로서도 이용될 수 있다. 얼굴 표정은 환한 미소를 표시하여 기쁨을 나타낸다. 인사 후에 고객이 입력부(본 실시에에서는 메뉴 표시부을 터치 스크린 겸용으로 하여 입력부와 일체화 시킴)를 사용하도록 메뉴 표시부를 고객 쪽으로 내밀 수 있다.
액션 단계는 준비 단계에서 사용자가 입력부를 최초 조작한 시점부터 이루어지는 단계이다. 도 2의 액션 단계에 표시된 검은 점이 사용자가 입력부를 조작한 시점을 나타낸다. 도 2에 따르면 최초 입력부 조작시에 이벤트 c가 표시되고, 다음 입력부 조작시에 이벤트 d가 표시되는 식으로 단계가 진행되고 있다. 터치(입력부가 터치 스크린의 경우)와 터치 사이의 시간이 기설정 시간을 초과한 경우에 다른 이벤트가 출력될 수 있다. 예를 들어 최초 터치로 이벤트 c가 표시되는 중 기설정 시간 동안 다음 터치가 이루어지지 않으면 현재 표시 중인 이벤트 c와 다른 이벤트 c'가 추출되어 표시될 수 있다. 또한, 사용자 정보 감지부, 기준 시간 설정부, 임계 판단부를 이용해 사용자의 외적 정보 및 반응을 표시되는 이벤트에 피드백할 수 있다. 이에 대해서는 앞에서 설명한 바와 동일하므로 자세한 설명은 생략한다. 구체적인 예로서 도 5를 살펴보면 얼굴 디스플레이부는 고객을 트랙킹(tracking)하여 고객으로 하여금 자신을 바라보고 있다는 느낌을 준다. 고객이 입력부를 터치할 때마다 감정 음성(경쾌한 기계음)을 표시하며 이때의 기계음은 터치마다 다를 수 있다. 또한, 엷은 미소 대신 터치할 때마다 다른 얼굴 표정을 표시할 수도 있다.
액션 단계 이후에, 결제 단계가 더 포함될 수 있다. 만약 입력부가 결제를 지원하지 않는 경우에 이벤트의 표시는 액션 단계로 종료되고, 다시 유인 단계로 돌아가게 된다. 결제를 지원하지 않는 경우 사용자는 입력부를 통해 메뉴 등을 선택한 후 입력부에서 벗어나기 때문이다.
만약, 입력부가 결제 수단으로서 사용될 수 있는 경우가 있는데, 이 경우의 동작은 액션 단계와 유사하다. 즉, 사용자가 비용을 지불하기 위해 결제 수단으로서 입력부를 사용할 때마다 입력부의 감지 내용에 따라 이벤트 저장부에 저장되어 있는 이벤트를 추출하여 표시할 수 있다. 이 경우에 있어서도 기설정 시간, 제2 기설정 시간을 적용할 수 있고, 사용자의 외적 정보와 반응을 피드백받아 이벤트 표시에 이용할 수도 있다. 구체적인 예를 도 5에 나타내었는데, 표시되는 이벤트는 도 4의 경우와 유사하다.
도 7 및 8은 본 발명과 관련된 사용 유도 방법을 나타낸 흐름도이다.
먼저, a) 사용자의 입력이 감지되면 상기 감지된 내용에 따라 이벤트 저장부에 저장되어 있는 이벤트(제3 이벤트)를 추출하여 표시하고(S 590)(S 640), b) 사용자의 입력 이후 기설정 시간동안 사용자의 추가 입력이 없는 경우(S 600) 표시 중인 이벤트와 다른 이벤트(제2 이벤트)를 추출하여 표시한다(S 610). S 590의 이벤트는 준비 단계에서 최초의 입력부 조작이 이루어질 때 추출되는 이벤트이고, S 640의 이벤트는 액션 단계에서 입력부의 추가 조작이 이루어질 때 추출되는 이벤트이다.
이에 따르면 사용자로 하여금 지속적으로 입력부를 조작하도록 동기를 유발할 수 있다. 여기에 부가적인 내용들은 다음과 같다.
b) 단계 이후에, 기설정 시간 만료 이후 제2 기설정 시간마다(S 620) 상기 제2 기설정 시간 각각의 만료 시점에서 이벤트 표현부를 통해 표시 중인 이벤트와 다른 이벤트(제2 이벤트)를 추출하여 표시한다(S 600). 제2 이벤트는 기설정 시간 또는 제2 기설정 시간에 의해 추출되는 현재 표시 중인 이벤트와 다른 이벤트를 의미하며, 제3 이벤트는 사용자의 추가 입력에 의해 현재 표시 중인 이벤트와 다른 이벤트를 의미한다. 제3 이벤트의 경우에는 현재 표시 중인 이벤트와 동일한 이벤트일 수도 있다.
이상의 과정은 액션 단계에서 수행되는 것으로, 유인 단계와 준비 단계를 위해 다음과 같은 과정이 추가될 수 있다.
a) 단계 이전에, 상기 사용자와의 거리를 측정하고(S 510), 상기 측정된 거리가 유인 단계 구간인 경우(S 520) 홍보 이벤트를 표시한다(S 530).
상기 측정된 거리가 준비 단계 구간인 경우(S 520) 유도 이벤트를 표시한다(S 550). 한편, 준비 단계 이후에 이루어지는 이벤트는 사용자의 외적 정보를 반영할 수 있다. 앞에서 사용자의 외적 정보에 대응되는 이벤트군에 대해서 설명하였는데, 이를 적용하기 위해 측정된 거리가 준비 단계 구간으로 판단한 이후 사용자의 외적 정보를 감지하고 이에 따라 대응되는 이벤트군을 선택할 수 있다(S 540).
준비 단계 구간에서 사용자가 입력부 조작을 개시하지 않고 있는 경우 사용자의 입력부 조작을 유도하기 위해 표시되는 유도 이벤트를 변경할 수 있다. 이를 위해 제1 기준 시간과 제2 기준 시간을 설정하고, 제1 기준 시간 내에 입력이 없으면(S 560) 현재 표시 중인 유도 이벤트와 다른 제2 유도 이벤트를 표시한다(S 570). 또한 제1 기준 시간 만료 후에 제2 기준 시간 경과시에도(S 580) 제2 유도 이벤트를 표시한다(S 570). 제2 유도 이벤트는 현재 표시 중인 유도 이벤트와 다른 유도 이벤트를 의미하므로 사용자 입력이 개시되기 전까지 제2 기준 시간마다 기존과 다른 유도 이벤트가 표시된다.
한편, b) 단계 이후에, 사용자의 사용이 종료된 경우 상기 사용자의 입력 간의 시간 패턴을 분석하고 상기 분석 결과를 이용해 상기 기설정 시간을 설정할 수 있다(S 660). 만약, b) 단계 이후에, 제2 기설정 시간을 이용한 이벤트 표시 단계가 존재하는 경우에는 그 단계 이후에, 사용자의 사용이 종료된 경우 상기 사용자의 입력간의 시간 패턴을 분석하고 상기 분석 결과를 이용해 상기 기설정 시간 또는 상기 제2 기설정 시간 중 적어도 하나를 설정할 수 있다(S 660).
사용이 종료되는 경우는 입력부를 통해 주문을 완료하거나 결재를 요청한(S 630) 경우이거나, 사용자가 정상적으로 종료하지 않고 입력부를 벗어난 경우를 대비하여 사용자가 일정 시간 이상 입력을 수행하지 않는 경우일 수 있다. 이때 부가적으로 감사 인사 등의 종료 이벤트를 표시할 수 있다(S 650).
본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
메뉴 주문과 같은 소정 목적을 달성하기 위해 사용자의 접근을 유도하고, 입력부를 통해 메뉴를 선택하도록 유도하는 장치에 적용될 수 있다.
구체적으로 식당, 편의점 등과 같이 사용자의 방문을 요구하는 업종에 설비된 로봇 또는 키오스크에 적용될 수 있다.
도 1은 본 발명과 관련된 사용 유도 장치를 나타낸 블럭도.
도 2는 본 발명과 관련된 사용 유도 장치의 동작을 나타낸 개략도.
도 3은 본 발명과 관련된 사용 유도 방법에서 유인 단계에서의 동작을 나타낸 개략도.
도 4는 본 발명과 관련된 사용 유도 방법에서 준비 단계에서의 동작을 나타낸 개략도.
도 5는 본 발명과 관련된 사용 유도 방법에서 액션 단계에서의 동작을 나타낸 개략도.
도 6은 본 발명과 관련된 사용 유도 방법에서 결제 단계에서의 동작을 나타낸 개략도.
도 7은 본 발명과 관련된 사용 유도 방법의 전반부를 나타낸 흐름도.
도 8은 본 발명과 곤련된 사용 유도 방법의 후반부를 나타낸 흐름도.
< 도면의 주요부분에 대한 부호의 설명 >
110...입력부 120...이벤트 추출부
130...이벤트 표현부 140...사용자 정보 감지부
150...기준 시간 설정부 160...임계 판단부
170...거리 측정부 180...거리 구분부
190...메뉴 표시부 200...이벤트 저장부

Claims (20)

  1. 사용자의 입력을 받는 입력부;
    상기 사용자가 인식 가능한 복수의 이벤트가 저장되는 이벤트 저장부;
    상기 입력부에서 상기 사용자의 입력이 감지되면 상기 이벤트 저장부에 저장된 이벤트 중 하나를 추출하는 이벤트 추출부;
    상기 이벤트 추출부에서 추출된 이벤트를 상기 사용자에게 표시하는 이벤트 표현부;
    를 포함하고, 상기 이벤트 추출부는 상기 사용자의 입력이 감지된 시점에서 상기 이벤트 표현부를 통해 표시 중인 이벤트와 다른 이벤트를 추출하는 것을 특징으로 하는 사용 유도 장치.
  2. 제 1 항에 있어서,
    상기 이벤트 추출부는 상기 사용자의 입력 내용에 따라 상기 이벤트를 선택하여 추출하는 사용 유도 장치.
  3. 삭제
  4. 제 1 항에 있어서,
    상기 이벤트 추출부는 상기 사용자의 입력이 감지된 이후 기설정 시간동안 추가적인 사용자의 입력이 감지되지 않으면 상기 기설정 시간 만료 시점에서 상기 이벤트 표현부를 통해 표시 중인 이벤트와 다른 이벤트를 추출하는 사용 유도 장치.
  5. 제 4 항에 있어서,
    상기 사용자의 외적 정보를 감지하는 사용자 정보 감지부; 및
    상기 감지된 사용자 외적 정보에 따라 상기 기설정 시간을 설정하는 기준 시간 설정부를 더 포함하는 사용 유도 장치.
  6. 제 4 항에 있어서,
    상기 이벤트 추출부는 상기 기설정 시간 만료 이후 제2 기설정 시간마다 상기 제2 기설정 시간 각각의 만료 시점에서 상기 이벤트 표현부를 통해 표시 중인 이벤트와 다른 이벤트를 추출하는 사용 유도 장치.
  7. 제 6 항에 있어서,
    상기 사용자의 외적 정보를 감지하는 사용자 정보 감지부; 및
    상기 감지된 사용자 외적 정보에 따라 상기 기설정 시간 또는 상기 제2 기설정 시간 중 적어도 하나를 설정하는 기준 시간 설정부를 더 포함하는 사용 유도 장치.
  8. 제 1 항, 제 2 항, 제 4 항 및 제 6 항 중 어느 한 항에 있어서,
    상기 사용자의 외적 정보를 감지하는 사용자 정보 감지부; 및
    상기 감지된 사용자 외적 정보를 기반으로 상기 사용자의 반응을 추출하고 상기 사용자 반응이 임계값을 초과하는지 판단하는 임계 판단부를 더 포함하고,
    상기 이벤트 추출부는 상기 사용자의 반응이 임계값을 초과한 경우 상기 사용자의 반응에 따라 반응 이벤트를 추출하고,
    상기 이벤트 표현부는 상기 반응 이벤트를 제3 기설정 시간동안 표시하는 사용 유도 장치.
  9. 제 1 항, 제 2 항, 제 4 항 및 제 6 항 중 어느 한 항에 있어서,
    상기 사용자와의 거리를 측정하는 거리 측정부; 및
    상기 거리 측정부에서 측정된 거리를 상기 사용자가 상기 입력부를 조작할 수 없는 거리 구간에 해당하는 유인 단계 구간과 상기 사용자가 상기 입력부를 조작할 수 있는 거리 구간에 해당하는 준비 단계 구간으로 구분하는 거리 구분부를 더 포함하고,
    상기 이벤트 추출부는 상기 유인 단계 구간에서는 불특정 사용자를 상기 준비 단계 구간으로 유도할 수 있는 이벤트를 추출하고, 상기 준비 단계에서는 상기 사용자를 특정하고 상기 사용자가 상기 입력부를 사용하도록 유도할 수 있는 이벤트를 추출하는 사용 유도 장치.
  10. 제 9 항에 있어서,
    상기 준비 단계 구간에서 상기 사용자의 외적 정보를 감지하는 사용자 정보 감지부를 더 포함하고,
    상기 이벤트 저장부는 상기 사용자가 인식 가능한 하나 이상의 이벤트를 상기 사용자의 외적 정보에 대응되는 복수의 이벤트군으로 분류하여 저장하고,
    상기 이벤트 추출부는 상기 감지된 사용자의 외적 정보에 대응되는 이벤트군을 선택하고 상기 선택된 이벤트군에 저장된 이벤트를 추출하는 사용 유도 장치.
  11. 제 9 항에 있어서,
    상기 입력부가 목적으로 하는 내용 또는 상기 입력부의 사용 방법 중 적어도 하나를 표시하는 메뉴 표시부를 더 포함하는 사용 유도 장치.
  12. 제 11 항에 있어서,
    상기 메뉴 표시부는 상기 이벤트 표현부와 일체로 형성되는 사용 유도 장치.
  13. 사용자로 하여금 소정 기기를 사용하도록 유도하는 이벤트가 자동으로 제공되는 사용 유도 방법에 있어서,
    기설정 거리 이상에 위치한 불특정 사용자를 입력부로 접근하도록 유도하는 홍보 이벤트가 이벤트 표현부에 표시되는 유인 단계;
    상기 기설정 거리 내에 위치한 사용자에게 상기 입력부를 사용하도록 유도하는 유도 이벤트가 상기 이벤트 표현부에 표시되는 준비 단계; 및
    상기 사용자가 상기 입력부의 사용을 개시한 경우 상기 입력부를 사용할 때마다 상기 입력부의 감지 내용에 따라 이벤트 저장부에 저장되어 있는 이벤트가 추출되어 상기 이벤트 표현부에 표시되는 액션 단계;
    를 포함하는 사용 유도 방법.
  14. 제 13 항에 있어서,
    상기 액션 단계는 상기 사용자가 기설정 시간동안 추가 입력을 하지 않는 경우 현재 표시되는 이벤트와 다른 이벤트가 추출되어 상기 이벤트 표현부에 표시되는 사용 유도 방법.
  15. 제 13 항에 있어서,
    상기 액션 단계 이후에,
    상기 사용자가 비용을 지불하기 위해 결제 수단으로서 상기 입력부를 사용할 때마다 상기 입력부의 감지 내용에 따라 상기 이벤트 저장부에 저장되어 있는 이벤트가 추출되어 상기 이벤트 표현부에 표시되는 결제 단계를 더 포함하는 사용 유도 방법.
  16. 사용자로 하여금 소정 기기를 사용하도록 유도하는 이벤트가 자동으로 제공되는 사용 유도 방법에 있어서,
    a) 사용자의 입력이 감지되면 상기 감지된 내용에 따라 이벤트 저장부에 저장되어 있는 이벤트가 추출되어 이벤트 표현부에 표시되는 단계; 및
    b) 상기 사용자의 입력 이후 기설정 시간동안 상기 사용자의 추가 입력이 없는 경우 상기 표시 중인 이벤트와 다른 이벤트가 추출되어 상기 이벤트 표현부에 표시되는 단계;
    를 포함하는 사용 유도 방법.
  17. 제 16 항에 있어서,
    상기 b) 단계 이후에,
    상기 기설정 시간 만료 이후 제2 기설정 시간마다 상기 제2 기설정 시간 각각의 만료 시점에서 상기 이벤트 표현부를 통해 표시 중인 이벤트와 다른 이벤트가 추출되어 상기 이벤트 표현부에 표시되는 단계를 더 포함하는 사용 유도 방법.
  18. 제 16 항에 있어서,
    상기 a) 단계 이전에,
    거리 측정부에 의해 상기 사용자와의 거리가 측정되는 단계; 및
    상기 측정된 거리가 유인 단계 구간인 경우에는 홍보 이벤트가 상기 이벤트 표현부에 표시되고, 상기 측정된 거리가 준비 단계 구간인 경우에는 유도 이벤트가 상기 이벤트 표현부에 표시되는 단계를 더 포함하는 사용 유도 방법.
  19. 제 16 항 또는 제 18 항에 있어서,
    상기 b) 단계 이후에,
    상기 사용자의 사용이 종료된 경우 기준 시간 설정부에 의해 상기 사용자의 입력 간의 시간 패턴이 분석되고 그 분석 결과에 따라 상기 기설정 시간이 설정되는 단계를 더 포함하는 사용 유도 방법.
  20. 제 17 항에 있어서,
    상기 제2 기설정 시간을 이용한 이벤트 표시 단계 이후에,
    상기 사용자의 사용이 종료된 경우 기준 시간 설정부에 의해 상기 사용자의 입력 간의 시간 패턴이 분석되고 그 분석 결과에 따라 상기 기설정 시간 또는 상기 제2 기설정 시간 중 적어도 하나가 설정되는 단계를 더 포함하는 사용 유도 방법.
KR1020090119987A 2009-12-04 2009-12-04 사용 유도 장치 및 방법 KR101019655B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020090119987A KR101019655B1 (ko) 2009-12-04 2009-12-04 사용 유도 장치 및 방법
US13/513,679 US20130014055A1 (en) 2009-12-04 2010-12-06 Device and method for inducing use
PCT/KR2010/008670 WO2011068390A2 (ko) 2009-12-04 2010-12-06 사용 유도 장치 및 방법
EP10834805.3A EP2509012A4 (en) 2009-12-04 2010-12-06 DEVICE AND METHOD FOR CREATING A BENEFIT

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090119987A KR101019655B1 (ko) 2009-12-04 2009-12-04 사용 유도 장치 및 방법

Publications (1)

Publication Number Publication Date
KR101019655B1 true KR101019655B1 (ko) 2011-03-07

Family

ID=43938443

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090119987A KR101019655B1 (ko) 2009-12-04 2009-12-04 사용 유도 장치 및 방법

Country Status (4)

Country Link
US (1) US20130014055A1 (ko)
EP (1) EP2509012A4 (ko)
KR (1) KR101019655B1 (ko)
WO (1) WO2011068390A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104571474A (zh) * 2013-10-17 2015-04-29 中国移动通信集团公司 一种对终端屏幕显示内容进行自适应调整的方法和装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109313935B (zh) * 2016-06-27 2023-10-20 索尼公司 信息处理系统、存储介质和信息处理方法
JP6989395B2 (ja) * 2018-01-10 2022-01-05 パナソニック株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050068525A (ko) * 2003-12-30 2005-07-05 (주)대산기획 여행안내 서비스 시스템 및 방법

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6043827A (en) * 1998-02-06 2000-03-28 Digital Equipment Corporation Technique for acknowledging multiple objects using a computer generated face
JP3125006B2 (ja) * 1998-04-07 2001-01-15 コナミ株式会社 キャラクタ画像の表示制御方法および装置、記録媒体
JP3009395B1 (ja) * 1998-09-22 2000-02-14 株式会社エイ・ティ・アール知能映像通信研究所 ユーザ誘導装置
US6347261B1 (en) * 1999-08-04 2002-02-12 Yamaha Hatsudoki Kabushiki Kaisha User-machine interface system for enhanced interaction
GB9925289D0 (en) * 1999-10-27 1999-12-29 Ibm Method and means for adjusting the timing of user-activity-dependent changes of operational state of an apparatus
US6976032B1 (en) * 1999-11-17 2005-12-13 Ricoh Company, Ltd. Networked peripheral for visitor greeting, identification, biographical lookup and tracking
US20020005865A1 (en) * 1999-12-17 2002-01-17 Barbara Hayes-Roth System, method, and device for authoring content for interactive agents
US20020149611A1 (en) * 2001-04-11 2002-10-17 May Julian S. Emoticons
US7174029B2 (en) * 2001-11-02 2007-02-06 Agostinelli John A Method and apparatus for automatic selection and presentation of information
US20070113181A1 (en) * 2003-03-03 2007-05-17 Blattner Patrick D Using avatars to communicate real-time information
JP4271193B2 (ja) * 2003-08-12 2009-06-03 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット用制御システム
JP2005193331A (ja) * 2004-01-06 2005-07-21 Sony Corp ロボット装置及びその情動表出方法
JP4834356B2 (ja) * 2005-08-31 2011-12-14 富士通フロンテック株式会社 移動式情報端末装置、移動式情報端末制御方法および移動式情報端末プログラム
US20070074114A1 (en) * 2005-09-29 2007-03-29 Conopco, Inc., D/B/A Unilever Automated dialogue interface
JP2008006551A (ja) * 2006-06-29 2008-01-17 National Univ Corp Shizuoka Univ 作動装置
KR20080008528A (ko) * 2006-07-20 2008-01-24 주식회사 유진로봇 고객 접대 기능을 가지는 서빙 로봇
KR100850352B1 (ko) * 2006-09-26 2008-08-04 한국전자통신연구원 상태 정보를 이용하여 감성을 표현하기 위한 지능형 로봇의감성 표현 장치 및 그 방법
US20080158222A1 (en) * 2006-12-29 2008-07-03 Motorola, Inc. Apparatus and Methods for Selecting and Customizing Avatars for Interactive Kiosks
US20110004481A1 (en) * 2008-09-19 2011-01-06 Dell Products, L.P. System and method for communicating and interfacing between real and virtual environments

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050068525A (ko) * 2003-12-30 2005-07-05 (주)대산기획 여행안내 서비스 시스템 및 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104571474A (zh) * 2013-10-17 2015-04-29 中国移动通信集团公司 一种对终端屏幕显示内容进行自适应调整的方法和装置
CN104571474B (zh) * 2013-10-17 2018-02-23 中国移动通信集团公司 一种对终端屏幕显示内容进行自适应调整的方法和装置

Also Published As

Publication number Publication date
WO2011068390A3 (ko) 2011-11-03
US20130014055A1 (en) 2013-01-10
WO2011068390A2 (ko) 2011-06-09
EP2509012A4 (en) 2013-08-14
EP2509012A2 (en) 2012-10-10

Similar Documents

Publication Publication Date Title
McDuff et al. Designing emotionally sentient agents
McColl et al. A survey of autonomous human affect detection methods for social robots engaged in natural HRI
JP7022062B2 (ja) 統合化された物体認識および顔表情認識を伴うvpa
KR101604593B1 (ko) 이용자 명령에 기초하여 리프리젠테이션을 수정하기 위한 방법
KR101336641B1 (ko) 감성 교감 로봇 서비스 시스템 및 그 방법
Csapo et al. Multimodal conversational interaction with a humanoid robot
US9205557B2 (en) System and method for generating contextual behaviors of a mobile robot
US20070074114A1 (en) Automated dialogue interface
KR102595790B1 (ko) 전자 장치 및 그의 제어방법
CN107408387A (zh) 虚拟助理激活
US20230305801A1 (en) Electronic device and control method thereof
KR20210008089A (ko) 자동화된 어시스턴트를 호출하기 위한 다이내믹 및/또는 컨텍스트 특정 핫워드
CN110598576A (zh) 一种手语交互方法、装置及计算机介质
CN106502382B (zh) 用于智能机器人的主动交互方法和系统
KR20190105403A (ko) 전자 장치, 전자 장치와 결합 가능한 외부 디바이스 및 이의 디스플레이 방법
CN110737335B (zh) 机器人的交互方法、装置、电子设备及存储介质
JP2022095768A (ja) インテリジェントキャビン用の対話方法、装置、機器および媒体
KR20200143764A (ko) 감성 교감 서비스 시스템 및 그 방법
KR20200059112A (ko) 로봇 상호작용 시스템 및 그를 위한 프로그램
KR101019655B1 (ko) 사용 유도 장치 및 방법
WO2016206645A1 (zh) 为机器装置加载控制数据的方法及装置
Castellano et al. Multimodal affect recognition for naturalistic human-computer and human-robot interactions
KR101567154B1 (ko) 다중 사용자 기반의 대화 처리 방법 및 이를 수행하는 장치
KR20110009614A (ko) 멀티 모달 정보를 이용하는 사용자 의도 추론 장치 및 방법
JP2017182261A (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140225

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150213

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160225

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180323

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20190225

Year of fee payment: 9

R401 Registration of restoration