KR101008085B1 - 로봇 시스템, 로봇 장치 및 그 제어 방법 - Google Patents

로봇 시스템, 로봇 장치 및 그 제어 방법 Download PDF

Info

Publication number
KR101008085B1
KR101008085B1 KR1020037009040A KR20037009040A KR101008085B1 KR 101008085 B1 KR101008085 B1 KR 101008085B1 KR 1020037009040 A KR1020037009040 A KR 1020037009040A KR 20037009040 A KR20037009040 A KR 20037009040A KR 101008085 B1 KR101008085 B1 KR 101008085B1
Authority
KR
South Korea
Prior art keywords
robot
wireless communication
utterance
communicator
screen
Prior art date
Application number
KR1020037009040A
Other languages
English (en)
Other versions
KR20040054600A (ko
Inventor
사또루 가모또
스스무 오이까와
가즈유끼 이이지마
가즈오 이시이
유꼬 이이지마
노리유끼 후꾸시마
세이이찌 다까무라
준 히로이
노조무 이께다
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20040054600A publication Critical patent/KR20040054600A/ko
Application granted granted Critical
Publication of KR101008085B1 publication Critical patent/KR101008085B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • A63H11/18Figure toys which perform a realistic walking motion
    • A63H11/20Figure toys which perform a realistic walking motion with pairs of legs, e.g. horses
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

본 발명은, 보다 한층 엔터테인먼트성을 향상시키는 것을 목적으로 한다. 복수의 로봇 장치가 자율적으로 행동하는 로봇 시스템에 있어서, 각 로봇 장치는 무선 통신 수단을 포함하고, 로봇 장치끼리 회화할 때, 해당 회화의 내용을 커맨드 및/또는 시맨틱스로서 쌍방의 무선 통신 수단을 통하여 로봇 장치로 송수신하도록 하였다.
무선 통신 수단, 로봇 장치, 커맨드, 시맨틱스, 회화

Description

로봇 시스템, 로봇 장치 및 그 제어 방법{ROBOT SYSTEM AND ROBOT APPARATUS CONTROL METHOD}
본 발명은 로봇 시스템, 로봇 장치 및 그 제어 방법에 관한 것으로, 예를 들면 로봇을 무선 원격 조작할 수 있도록 이루어진 로봇 시스템, 로봇 장치 및 그 제어 방법에 적용하기에 적합한 것이다.
최근, 본원 특허 출원인에 의해 4발 보행형 로봇이 개발되어, 상품화되고 있다. 이러한 로봇은, 일반 가정에서 페트로서 사육되는 개나 고양이와 닮은 외관 형상을 가지며, 사용자로부터의 명령이나 주위의 상황 등에 대응하여 자율적으로 행동할 수 있도록 이루어진 것이다.
그런데, 최근에는, 이동형 로봇을 무선 등에 의해 원격 조작할 수 있도록 된 로봇 시스템이 많이 보이고 있다. 그리고 이러한 로봇 시스템 중에는, 원격 조작용 소프트웨어를 인스톨한 원격 조작용 단말기를 이용하여, 단순히 로봇을 원격 조작할 뿐만 아니라, 로봇(1)끼리 회화를 성립시키거나, 로봇(1)끼리 동작 및 행동 패턴을 동기시킬 수 있으면 매우 바람직하다.
<발명의 개시>
본 발명은 이상의 점을 고려하여 이루어진 것으로, 보다 한층 엔터테인먼트 성을 향상시킬 수 있는 로봇 시스템, 로봇 장치 및 그 제어 방법을 제안하려는 것이다.
이러한 과제를 해결하기 위해 본 발명에서는, 복수의 로봇 장치가 자율적으로 행동하는 로봇 시스템에 있어서, 각 로봇 장치는 무선 통신 수단을 포함하고, 로봇 장치끼리 회화할 때, 해당 회화의 내용을 커맨드 및/또는 시맨틱스(semantics)로서 쌍방의 무선 통신 수단을 통하여 로봇 장치로 송수신하도록 하였다.
그 결과, 이 로봇 시스템에서는, 로봇 장치끼리 회화 내용을 커맨드 및/또는 시맨틱스로서 서로 송신함으로써, 로봇 장치끼리 마치 인간 관계와 같은 커뮤니케이션을 행할 수 있다.
또한 본 발명에서는, 복수의 로봇 장치 중 선택된 로봇 장치를 무선 통신에 의해 원격 조작하는 원격 조작 장치를 갖고, 원격 조작 장치는 조작 대상인 각 로봇 장치로부터 송신되는 회화 내용을 화면 표시하도록 하였다.
그 결과, 이 로봇 시스템에서는, 로봇 장치끼리의 회화 내용을 사용자가 눈으로 확인할 수 있어, 로봇 장치끼리의 대화에 사용자를 참석시키는 등의 의의가 있는 커뮤니케이션을 실현할 수 있다.
또한 본 발명에서는, 자율적으로 행동하는 로봇 장치의 제어 방법에서, 로봇 장치끼리 회화할 때, 해당 회화의 내용을 커맨드 및/또는 시맨틱스로서 무선 통신을 통해 쌍방의 로봇 장치로 송수신하도록 하였다.
그 결과, 이 로봇 장치의 제어 방법에서는, 로봇 장치끼리 회화 내용을 커맨 드 및/또는 시맨틱스로서 서로 송신함으로써, 로봇 장치끼리 마치 인간 관계와 같은 커뮤니케이션을 행할 수 있다.
또한 본 발명에서는, 로봇 장치로부터 송신되는 회화 내용을, 해당 로봇 장치를 무선 통신에 의해 원격 조작하는 원격 조작 장치에 화면 표시시키도록 하였다.
그 결과, 이 로봇의 제어 방법에서는, 로봇 장치끼리의 회화 내용을 사용자가 눈으로 확인할 수 있어, 로봇 장치끼리의 대화에 사용자를 참석시킨 의의가 있는 커뮤니케이션을 실현할 수 있다.
또한 본 발명에서는, 자율적으로 행동을 발현하는 복수의 로봇 장치 사이에서 소정의 무선 통신 규격에 기초한 무선 통신을 행하는 로봇 시스템에 있어서, 각 로봇 장치는 무선 통신 규격에 기초한 무선 통신을 행하기 위한 단말기 수단을 마련하고, 어느 하나의 로봇 장치의 단말기 수단이, 소정의 시간 타이밍에서 접속 요구를 발신하고, 해당 접속 요구를 수신한 다른 로봇 장치의 단말기 수단이 응답을 회신했을 때, 쌍방의 로봇 장치의 단말기 수단은 무선 통신의 접속을 확립한 후, 서로 로봇 장치에 고유의 명함 정보를 송수신하도록 하였다. 또한 무선 통신 규격에 기초한 무선 통신을 행하기 위한 단말기 수단을 포함하는 무선 단말 장치를 형성한 경우도, 무선 통신의 접속을 확립한 후, 무선 단말 장치의 단말기 수단은 해당 무선 단말 장치에 고유의 명함 정보를 로봇 장치의 단말기 수단으로 송신하는 한편, 로봇 장치의 단말기 수단은 해당 로봇 장치에 고유의 명함 정보를 무선 단말 장치의 단말기 수단으로 송신하도록 하였다.
그 결과, 이 로봇 시스템에서는, 통신 가능 범위에 존재하는 로봇 장치끼리나 로봇 장치 및 무선 단말 장치에 대하여, 사용자의 조작을 전혀 필요로 하지 않고 용이하면서 자연스럽게 명함 정보를 교환할 수 있다.
또한 본 발명에서는, 자율적으로 행동을 발현하는 로봇 장치와 무선 단말 장치와의 사이에서 소정의 무선 통신 규격에 기초한 무선 통신을 행하는 로봇 시스템에 있어서, 로봇 장치는 무선 통신 규격에 기초한 무선 통신을 행하기 위한 단말기 수단과, 발화 내용을 나타내는 문자 데이터를 단말기 수단을 통하여 외부 출력하는 발화 출력 수단을 마련하여, 무선 단말 장치는 무선 통신 규격에 기초한 무선 통신을 행하기 위한 단말기 수단과, 해당 단말기 수단을 통하여 얻어진 문자 데이터에 기초한 로봇 장치의 발화 내용을 표시하는 표시 수단을 마련하도록 하였다.
그 결과, 이 로봇 시스템에서는, 무선 단말 장치를 사용하는 사용자는, 로봇 장치와 용이하게 커뮤니케이션을 취하여 친근감을 향상시킬 수 있다.
또한 본 발명에서는 로봇 장치는 외부 상황에서의 사용자의 존재를 검지하는 센서 수단을 마련하고, 무선 단말 장치의 단말기 수단과 로봇 장치의 단말기 수단과의 사이에서 무선 통신의 접속을 확립하고 있는 동안에, 센서 수단이 사용자를 검지한 경우에는, 발화 출력 수단은 발화 내용을 나타내는 문자 데이터를 단말기 수단을 통하여 외부 출력하도록 하였다.
그 결과, 이 로봇 시스템에서는 사용자는 마치 인간이 자신에게 질문을 하고 있는 듯한 놀라움과 즐거움을 얻을 수 있거나, 사용자와 로봇 장치와의 인터랙션을 더 향상시킬 수 있다.
또한 본 발명에서는, 로봇 장치는 센서 수단의 검지 결과에 기초하여, 단말기 수단에 의한 무선 통신의 접속의 절단 또는 재개를 제어하는 제어 수단을 마련하고, 무선 단말 장치의 단말기 수단과 로봇 장치의 단말기 수단과의 사이에서 무선 통신의 접속을 확립하고 있는 동안에, 소정 시간 내에 센서 수단이 사용자를 검지하지 않는 경우에는, 제어 수단은 소정의 시간 간격으로 무선 통신의 접속의 절단 또는 재개를 반복하도록 하였다.
그 결과, 이 로봇 시스템에서는, 사용자의 의사를 존중하면서 무선 단말 장치의 배터리의 소비량을 적극적으로 저감시킬 수 있다.
또한 본 발명에서는, 로봇 장치는 물리적, 광학적이거나 음향적인 동작을 발현하기 위한 동작 발현 수단을 마련하고, 동작 발현 수단은 발화 출력 수단이 출력하는 문자 데이터에 기초한 발화 내용에 맞는 동작을 발현하도록 하였다.
그 결과, 이 로봇 시스템에서는, 무선 단말 장치를 사용하는 사용자에 의해 표시된 발화 내용을 눈으로 확인할 뿐만 아니라, 로봇 장치의 동작을 체감시킬 수 있으며, 보다 한층 로봇 장치에 대하여 만족감 및 친근감을 제공할 수 있다.
또한 본 발명에서는, 로봇 장치의 발화 출력 수단은 외부 및/또는 내부의 상황에 대응하여 생성한 로봇 장치의 행동 상태에 대응하여 다음 출력 행동을 결정하기 위한 규정으로 이루어지는 행동 결정 정보에 따라, 문자 데이터에 기초한 발화 내용을 설정하도록 하였다.
그 결과, 이 로봇 시스템에서는, 발화 내용을 로봇 장치의 행동에 맞춤으로써, 보다 리얼한 생물처럼 로봇 장치를 표현시킬 수 있어, 사용자에게 만족감을 제 공할 수 있다.
또한 본 발명에서는, 자율적으로 행동을 발현하는 복수의 로봇 장치 사이에서 소정의 무선 통신 규격에 기초한 무선 통신을 행하는 로봇 시스템에서, 각 로봇 장치는 무선 통신 규격에 기초한 무선 통신을 행하기 위한 단말기 수단과, 발화 내용을 나타내는 문자 데이터를 단말기 수단을 통하여 외부 출력하는 발화 출력 수단을 마련하고, 무선 단말 장치는 무선 통신 규격에 기초한 무선 통신을 행하기 위한 단말기 수단과, 해당 단말기 수단을 통하여 얻어진 문자 데이터에 기초한 로봇 장치의 발화 내용을 표시하는 표시 수단을 마련하고, 로봇 장치의 단말기 수단 사이에서 무선 통신의 접속을 확립하고 있는 동안, 무선 단말 장치의 표시 수단은 쌍방의 로봇 장치의 발화 출력 수단으로부터 출력되는 문자 데이터에 기초한 발화 내용을 표시하도록 하였다.
그 결과, 이 로봇 시스템에서는, 무선 단말 장치를 사용하는 사용자는 로봇 장치끼리의 세계를 엿보는 듯한 즐거움을 얻을 수 있다.
또한 본 발명에서는, 자율적으로 행동을 발현하는 로봇 장치와 무선 단말 장치와의 사이에서 소정의 무선 통신 규격에 기초한 무선 통신을 행하는 로봇 시스템에서, 로봇 장치에 물리적인 활동 작용을 행하면서 무선 단말 장치를 등록하도록 하였다.
그 결과, 이 로봇 시스템에서는, 무선 단말 장치에 대한 조작 상의 시큐러티나 무선 통신 접속의 용이함을 확보할 수 있다.
또한 본 발명에서는, 자율적으로 행동을 발현하고, 무선 단말 장치와의 사이 에서 소정의 무선 통신 규격에 기초한 무선 통신을 행하는 로봇 장치에서, 무선 통신 규격에 기초한 무선 통신을 행하기 위한 단말기 수단과, 발화 내용을 나타내는 문자 데이터를 단말기 수단을 통하여 외부 출력하는 발화 출력 수단을 마련하도록 하였다.
그 결과, 이 로봇 장치에서는, 무선 단말 장치를 사용하는 사용자는, 해당 로봇 장치와 용이하게 커뮤니케이션을 취하여 친근감을 향상시킬 수 있다.
또한 본 발명에서는, 외부 상황에서의 사용자의 존재를 검지하는 센서 수단을 마련하고, 무선 단말 장치의 단말기 수단과 로봇 장치의 단말기 수단과의 사이에서 무선 통신의 접속을 확립하고 있는 동안에, 센서 수단이 사용자를 검지한 경우에는 발화 출력 수단은 발화 내용을 나타내는 문자 데이터를 단말기 수단을 통하여 외부 출력하도록 하였다.
그 결과, 이 로봇 장치에서는, 사용자는 마치 인간이 자신에게 질문을 하고 있는 듯한 놀라움과 즐거움을 얻을 수 있거나, 사용자와 로봇 장치와의 인터랙션을더 향상시킬 수 있다.
또한 본 발명에서는, 센서 수단의 검지 결과에 기초하여, 단말기 수단에 의한 무선 통신의 접속의 절단 또는 재개를 제어하는 제어 수단을 마련하고, 무선 단말 장치의 단말기 수단과 로봇 장치의 단말기 수단과의 사이에서 무선 통신의 접속을 확립하고 있는 동안에, 소정 시간 내에 센서 수단이 사용자를 검지하지 않는 경우에는, 제어 수단은 소정의 시간 간격으로 무선 통신의 접속의 절단 또는 재개를 반복하도록 하였다.
그 결과, 이 로봇 장치에서는, 사용자의 의사를 존중하면서 무선 단말 장치의 배터리의 소비량을 적극적으로 저감시킬 수 있다.
또한 본 발명에서는, 물리적, 광학적이거나 음향적인 동작을 발현하기 위한 동작 발현 수단을 마련하고, 동작 발현 수단은, 발화 출력 수단이 출력하는 문자 데이터에 기초한 발화 내용에 맞는 동작을 발현하도록 하였다.
그 결과, 이 로봇 장치에서는, 무선 단말 장치를 사용하는 사용자에 의해 표시된 발화 내용을 눈으로 확인할 뿐만아니라, 로봇 장치의 동작을 체감할 수 있어, 보다 한층 로봇 장치에 대하여 만족감 및 친근감을 제공할 수 있다.
또한 본 발명에서는, 발화 출력 수단은 외부 및/또는 내부의 상황에 대응하여 생성한 로봇 장치의 행동 상태에 대응하여 다음의 출력 행동을 결정하기 위한 규정으로 이루어지는 행동 결정 정보에 따라, 문자 데이터에 기초한 발화 내용을 설정하도록 하였다.
그 결과, 이 로봇 장치에서는, 발화 내용을 로봇 장치의 행동에 맞춤으로써, 보다 리얼한 생물처럼 로봇 장치를 표현시킬 수 있고, 사용자에게 만족감을 제공할 수 있다.
또한 본 발명에서는, 자율적으로 행동을 발현하고, 무선 단말 장치와의 사이에서 소정의 무선 통신 규격에 기초한 무선 통신을 행하는 로봇 장치에서, 외부 상황을 검지하는 센서 수단과, 센서 수단의 검지 요구를 나타내는 문자 데이터를 무선 단말 장치로 송신하는 발화 출력 수단을 마련하고, 센서 수단의 검지 결과에 기초하여 무선 단말 장치를 등록하도록 하였다.
그 결과, 이 로봇 장치에서는, 무선 단말 장치에 대한 조작 상의 시큐러티나 무선 통신 접속의 용이함을 확보할 수 있다.
또한 본 발명에서는, 자율적으로 행동을 발현하는 복수의 로봇 장치 사이에서 소정의 무선 통신 규격에 기초한 무선 통신을 행하는 로봇 장치의 제어 방법에서, 어느 하나의 로봇 장치가, 소정의 시간 타이밍에서 접속 요구를 발신하고, 해당 접속 요구를 수신한 다른 로봇 장치가 응답을 회신했을 때, 쌍방의 로봇 장치는, 무선 통신의 접속을 확립한 후, 서로 로봇 장치로 고유의 명함 정보를 송수신하도록 하였다. 또한 무선 단말 장치는 무선 통신의 접속을 확립한 후, 해당 무선 단말 장치에 고유의 명함 정보를 로봇 장치로 송신하는 한편, 로봇 장치는 해당 로봇 장치에 고유의 명함 정보를 무선 단말 장치로 송신하도록 하였다.
그 결과, 이 로봇의 제어 방법에서는, 통신 가능 범위에 존재하는 로봇 장치끼리나 로봇 장치 및 무선 단말 장치에 대하여, 사용자의 조작을 전혀 필요로 하지 않고 용이하면서 자연스럽게 명함 정보를 교환할 수 있다.
또한 본 발명에서는, 자율적으로 행동을 발현하는 로봇 장치와 무선 단말 장치와의 사이에서 소정의 무선 통신 규격에 기초한 무선 통신을 행하는 로봇 장치의 제어 방법에서, 로봇 장치는, 발화 내용을 나타내는 문자 데이터를 무선 단말 장치로 송신하는 제1 단계와, 무선 단말 장치는 로봇 장치로부터 얻어진 문자 데이터에 기초한 해당 로봇 장치의 발화 내용을 표시하는 제2 단계를 마련하도록 하였다.
그 결과, 이 로봇의 제어 방법에서는, 무선 단말 장치를 사용하는 사용자는 로봇 장치와 용이하게 커뮤니케이션을 취하여 친근감을 향상시킬 수 있다.
또한 본 발명에서는, 무선 단말 장치와 로봇 장치와의 사이에서 무선 통신의 접속을 확립하고 있는 동안에, 로봇 장치가 외부 상황에서의 사용자의 존재를 검지한 경우에는, 해당 로봇 장치는 발화 내용을 나타내는 문자 데이터를 무선 단말 장치로 송신하도록 하였다.
그 결과, 이 로봇의 제어 방법에서는, 사용자는 마치 인간이 자신에게 질문을 하는 듯한 놀라움과 즐거움을 얻을 수 있거나, 사용자와 로봇 장치와의 인터랙션을 더 향상시킬 수 있다.
또한 본 발명에서는, 무선 단말 장치와 로봇 장치와의 사이에서 무선 통신의 접속을 확립하고 있는 동안에, 로봇 장치가 소정 시간 내에 사용자를 검지하지 않는 경우에는, 로봇 장치는 무선 단말 장치에 대하여 소정의 시간 간격으로 무선 통신의 접속의 절단 또는 재개를 반복하도록 하였다.
그 결과, 이 로봇의 제어 방법에서는, 사용자의 의사를 존중하면서 무선 단말 장치의 배터리의 소비량을 적극적으로 저감시킬 수 있다.
또한 본 발명에서는, 로봇 장치는 문자 데이터에 기초한 발화 내용을 맞춘 물리적, 광학적이거나 음향적인 동작을 발현하도록 하였다.
그 결과, 이 로봇의 제어 방법에서는, 무선 단말 장치를 사용하는 사용자에 의해 표시된 발화 내용을 눈으로 확인할 뿐만 아니라, 로봇 장치의 동작을 체감할 수 있어, 보다 한층 로봇 장치에 대하여 만족감 및 친근감을 제공할 수 있다.
또한 본 발명에서는, 로봇 장치는 외부 및/또는 내부의 상황에 대응하여 생성한 로봇 장치의 행동 상태에 대응하여 다음의 출력 행동을 결정하기 위한 규정으 로 이루어지는 행동 결정 정보에 따라, 문자 데이터에 기초한 발화 내용을 설정하도록 하였다.
그 결과, 이 로봇의 제어 방법에서는, 발화 내용을 로봇 장치의 행동에 맞춤으로써, 보다 리얼한 생물처럼 로봇 장치를 표현시킬 수 있어, 사용자에게 만족감을 제공할 수 있다.
또한 본 발명에서는, 자율적으로 행동을 발현하는 복수의 로봇 장치 사이에서 소정의 무선 통신 규격에 기초한 무선 통신을 행하는 로봇 장치의 제어 방법에서, 로봇 장치 사이에서 무선 통신의 접속을 확립하고 있는 동안, 무선 단말 장치는 쌍방의 로봇 장치로부터 출력되는 문자 데이터에 기초한 발화 내용을 표시하도록 하였다.
그 결과, 이 로봇의 제어 방법에서는, 무선 단말 장치를 사용하는 사용자는 로봇 장치끼리의 세계를 엿보는 듯한 즐거움을 얻을 수 있다.
또한 본 발명에서는, 자율적으로 행동을 발현하는 로봇 장치와 무선 단말 장치와의 사이에서 소정의 무선 통신 규격에 기초한 무선 통신을 행하는 로봇 장치의 제어 방법에 있어서, 로봇 장치에 물리적인 활동 작용을 행하면서 무선 단말 장치를 등록하도록 하였다.
그 결과, 이 로봇의 제어 방법에서는, 무선 단말 장치에 대한 조작 상의 시큐러티나 무선 통신 접속의 용이함을 확보할 수 있다.
도 1은 본 실시예에 의한 로봇의 구성을 도시한 사시도.
도 2는 로봇의 내부 구성을 도시한 블록도.
도 3은 본 실시예에 의한 로봇 시스템의 구성을 도시한 개략선도.
도 4는 퍼스널 컴퓨터의 구성을 간략적으로 도시한 블록도.
도 5는 커뮤니케이터의 외관 구성을 도시한 대략적인 평면도.
도 6은 커뮤니케이터의 내부 구성을 도시한 블록도.
도 7은 컨트롤러 처리의 설명에 부합되는 블록도.
도 8은 확립 오토맨의 설명에 부합되는 개념도.
도 9는 상태 천이표를 도시한 개념도.
도 10은 혼잣말 발화의 커맨드 포맷의 설명에 부합되는 개략선도.
도 11은 센텐스 발화의 커맨드 포맷의 설명에 부합되는 개략선도.
도 12는 시나리오 발화의 커맨드 포맷의 설명에 부합되는 개략선도.
도 13은 메뉴용 발화의 커맨드 포맷의 설명에 부합되는 개략선도.
도 14는 커뮤니케이터의 표시 화면의 천이 상태의 설명에 부합되는 블록도.
도 15는 명함 화면으로의 천이 상태의 설명에 부합되는 평면도.
도 16은 각 표시 화면의 스크롤 가능 범위를 나타내는 대략적인 평면도.
도 17은 터미널 모드 화면으로의 천이 상태의 설명에 부합되는 평면도.
도 18은 커뮤니케이터 설정 화면으로의 천이 상태의 설명에 부합되는 평면도.
도 19는 각 표시 화면의 스크롤 가능 범위를 나타내는 대략적인 평면도.
도 20은 문자 입력 화면의 설명에 부합되는 대략적인 평면도.
도 21∼도 23은 커뮤니케이터 설정 화면으로의 천이 상태의 설명에 부합되는 평면도.
도 24는 커뮤니케이터 등록시에 화면의 천이 상태의 설명에 부합되는 평면도.
도 25는 커뮤니케이터 삭제시에 화면의 천이 상태의 설명에 부합되는 평면도.
도 26∼도 28은 명함 작성시에 화면의 천이 상태의 설명에 부합되는 평면도.
도 29∼도 31은 기본 설정시에 화면의 천이 상태의 설명에 부합되는 평면도.
도 32는 기본 설정시에 화면의 천이 상태의 설명에 부합되는 평면도.
도 33∼도 36은 로봇의 제어시에 화면의 천이 상태의 설명에 부합되는 평면도.
도 37 및 도 38은 모드 설정시에 화면의 천이 상태의 설명에 부합되는 평면도.
도 39 및 도 40은 성장 설정시에 화면의 천이 상태의 설명에 부합되는 평면도.
도 41은 감정 및/또는 본능과 표시 내용의 관계의 설명에 부합되는 대략적인 평면도.
도 42는 동기 확립 페이즈의 설명에 부합되는 타이밍차트.
도 43은 통신 접속 페이즈의 설명에 부합되는 타이밍차트.
도 44는 코넥트 시퀀스의 설명에 부합되는 타이밍차트.
도 45는 로봇 사이의 회화 시퀀스의 설명에 부합되는 타이밍차트.
도 46은 배터리세이브 처리 절차의 설명에 부합되는 흐름도.
도 47은 커뮤니케이션 실행의 설명에 부합되는 개략선도.
도 48 및 도 49는 커뮤니케이션의 실행의 설명에 부합되는 개략선도.
<발명을 실시하기 위한 최량의 형태>
이하 도면에 대하여, 본 발명의 일 실시예를 상세히 설명한다.
(1) 로봇(1)의 구성
도 1에서, 참조 부호 1은 전체적으로 본 실시예에 의한 로봇을 도시하고, 동체부 유닛(2)의 전후 좌우에 각각 다리부 유닛(3A∼3D)이 연결됨과 함께, 동체부 유닛(2)의 전단부에 머리부 유닛(4)이 연결됨으로써 구성되어 있다.
이 경우 동체부 유닛(2)에는, 도 2에 도시한 바와 같이 이 로봇(1) 전체의 동작을 제어하는 컨트롤러(10)와, 이 로봇(1)의 동력원으로서의 배터리(11)와, 배터리 센서(12) 및 가속도 센서(13) 등의 각종 센서 등이 수납됨과 함께, 몇개의 터치 센서(14)(14A∼14D) 및 LED(Light Emitting Diode)(15)(15A∼15D)와, 전용 메모리 카드 및 PC(Personal Computer) 카드용 각 슬롯(도시하지 않음) 등이 각각 동체부 유닛(2)의 소정 위치에 각각 배치되어 있다.
또한 머리부 유닛(4)에는, 이 로봇(1)의 「귀」에 해당하는 마이크로폰(16), 「눈」에 해당하는 CCD(Charge Coupled Device) 카메라(17), 거리 센서(18), 페이스 터치 센서(19) 및 헤드 터치 센서(20) 등의 각종 센서와, 「입」에 해당하는 스피커(21) 등이 각각 소정 위치에 배치됨과 함께, 정상부에 리트렉터블 헤드라이트(22)가 돌출되거나 수납 가능하게 배치되고, 또한 중단부의 주위를 따라 일정 간격으로 복수의 LED(23)가 배치되어 있다.
또한 각 다리부 유닛(3A∼3D)의 무릎 관절이나, 각 다리부 유닛(3A∼3D) 및 동체부 유닛(2)을 각각 연결하는 각 어깨 관절, 머리부 유닛(4) 및 동체부 유닛(2)을 연결하는 목 관절, 및 리트렉터블 헤드라이트(22)의 개폐 구동부(도시하지 않음) 등에는 각각 자유도 수분이나 필요 수의 액추에이터(241∼24n) 및 이들 액추에이터(241∼24n)와 각각 쌍을 이루는 전위차계(251∼25n)가 배치되어 있다.
그리고 머리부 유닛(4)의 마이크로폰(16)은 사용자로부터 제공되는 「걸어」, 「엎드려」 또는 「볼을 좇아」 등의 음성 입력이나, 그 밖의 음성 및 기타 다양한 소리를 집음하고, 얻어진 음성 신호 S1을 컨트롤러(10)로 송출한다. 또한 CCD 카메라(17)는 주위를 촬상하여, 얻어진 화상 신호 S2를 컨트롤러(10)로 송출하고, 거리 센서(18)는 전방의 장해물까지의 거리를 측정하여, 측정 결과를 거리 측정 신호 S3으로서 컨트롤러(10)로 송출한다.
또한 페이스 터치 센서(19)는 사용자의 가압 조작을 검출하여, 검출 결과를 조작 검출 신호 S4로 하여 컨트롤러(10)로 송출한다. 또한 헤드 터치 센서(20)는 도 1에서 분명히 알 수 있듯이, 머리부 유닛(4)의 우측에 요동 가능하게 배치된 레버가 전후 방향(화살표 x 방향 또는 이것과 역방향)으로 쓰러졌을 때에 이것을 검출하여, 검출 결과를 조작 검출 신호 S4로 하여 컨트롤러(10)로 송출한다.
한편, 동체부 유닛(2)의 배터리 센서(12)는 배터리(11)의 에너지 잔량을 검 출하고, 검출 결과를 배터리 잔량 검출 신호 S5로 하여 컨트롤러(10)로 송출한다. 또한 가속도 센서(13)는, 도 1에서의 로봇(1)의 화살표 x 방향, y 방향 및 z 방향의 가속도를 검출하고, 검출 결과를 가속도 검출 신호 S6으로 하여 컨트롤러(10)로 송출한다.
또한 동체부 유닛(2)에 배치된 각 터치 센서(14)(14A∼14D)는 각각 사용자의 가압 조작을 검출하고, 검출 결과를 조작 검출 신호 S7로 하여 컨트롤러(10)로 송출한다.
또한 각 전위차계(251∼25n)는 각각 대응하는 액추에이터(241∼24n )의 출력축의 회전 각도를 검출하고, 각각 검출 결과를 각도 검출 신호 S81∼S8n로서 컨트롤러(10)로 송출한다.
컨트롤러(10)는 CPU(Central Processing Unit), ROM(Read Only Memory) 및 RAM(Random Access Memory)을 포함하는 마이크로 컴퓨터 구성으로 이루어지고, 미리 장전된 외부 메모리에 저장되어 있는 제어 프로그램이나, 후술하는 각종 모션 파일, 음성 파일 및 LED 파일 등의 제어 데이터에 따라 이 로봇(1)의 동작을 제어한다.
실제적으로, 컨트롤러(10)는, 예를 들면 자율 모드용 제어 데이터가 저장된 외부 메모리(26)(이하, 자율 모드용 메모리(26A))가 장전되어 있는 경우, 마이크로폰(16)으로부터의 음성 신호 S1, CCD 카메라(17)로부터의 화상 신호 S2 및 거리 센서(18)로부터의 거리 측정 신호 S3, 및 페이스 터치 센서(19) 및 헤드 터치 센서(20)로부터의 조작 검출 신호 S4(이하, 적절하게 이들을 통합하여 외부 정보 신호라고 함)와, 배터리 센서(12)로부터의 배터리 잔량 신호 S5, 가속도 센서(13)로부터의 가속도 검출 신호 S6 및 각 전위차계(251∼25n)로부터의 각도 검출 신호 S81∼S8n(이하, 적절하게 이들을 통합하여 내부 정보 신호라고 함)에 기초하여, 외부 및/또는 내부의 상태나 사용자로부터의 명령 및 활동 작용의 유무 등을 판단한다.
그리고 컨트롤러(10)는 이 판단 결과와, 자율 모드용 메모리 카드(26A)에 저장되어 있는 제어 프로그램과 기초하여 계속되는 행동을 결정하고, 해당 결정 결과에 기초하여 필요에 대응하여, 자율 모드용 메모리 카드(26A)에 저장된 각종 동작 패턴마다의 제어 데이터로 이루어지는 모션 파일 중에서 대응하는 모션 파일을 재생하고, 그 결과 얻어진 제어 데이터에 기초하여 대응하는 액추에이터(241∼24n)에 구동 신호 S91∼S9n을 송출하여 이것을 구동시킴에 따라, 머리부 유닛(4)을 상하 좌우로 흔들리게 하거나, 리트렉터블 헤드라이트(22)를 돌출시켜 이것을 점등시키거나, 각 다리부 유닛(3A∼3D)을 구동하여 보행시키는 등의 각종 동작이나, 일련의 동작으로 이루어지는 각종 행동을 행하게 한다.
또한 이 때 컨트롤러(10)는, 필요에 대응하여 자율 모드용 메모리 카드(26A)에 저장되어 있는 각종 음성 파일 중에서 대응하는 음성 파일을 재생하고, 그 결과 얻어진 음성 신호 S10을 스피커(21)로 제공함으로써 해당 음성 신호 S10에 기초한 음성을 외부로 출력시킨다. 마찬가지로, 이 때 컨트롤러(10)는 필요에 대응하여 자율 모드용 메모리 카드(26A)에 저장되어 있는 동체부 유닛(2)의 각 LED(15)나 머리부 유닛(4)의 각 LED(23)의 각종 점멸 패턴마다의 LED 파일 중에서 대응하는 LED 파일을 재생하고, 그 결과 얻어진 제어 데이터에 기초하여 LED(15, 23)를 대응하는 패턴으로 점멸 구동한다.
이와 같이 하여 이 로봇(1)에서는 컨트롤러(10)의 제어하에, 장전된 외부 메모리 카드(26)에 저장된 제어 프로그램이나 각종 데이터 파일에 대응한 동작이나 행동을 행할 수 있도록 되어 있다.
또 이 로봇(1)인 경우, 각 다리부 유닛(3A∼3D) 및 머리부 유닛(4)에서는, 각각 규격화된 도시하지 않은 소정 형태의 커넥터를 통하여 동체부 유닛(2)에 물리적이거나 전기적으로 접속되어 있고, 그 결과 이들 각 다리부 유닛(3A∼3D) 및 머리부 유닛(4)을 각각 이러한 커넥트를 갖는 다른 형태의 것과 유닛 단위로 가능하게 교환할 수 있도록 되어 있다.
이 경우, 이와 같이 다리부 유닛(3A∼3D) 및 머리부 유닛(4)을 교환 가능하게 할 때에는, 다리부 유닛(3A∼3D)이나 머리부 유닛(4)의 형태마다 모멘트나 관절각의 디폴트값 등이 상이해지기 때문에, 로봇(1)에 동일한 동작을 발현시키는 경우에도 동체부 유닛(2)에 부착된 다리부 유닛(3A∼3D)이나 머리부 유닛(4)의 형태에 대응하여, 그 형태에 적합한 제어가 필요하게 된다.
그래서 이 실시예인 경우, 다리부 유닛(3A∼3D) 및 머리부 유닛(4)의 내부에는, 각각 그 다리부 유닛(3A∼3D) 또는 머리부 유닛(4)이 어떤 형태의 것인지 나타내는 식별 데이터가 기억된 메모리(도시하지 않음)가 수납됨과 함께, 자율 모드용 메모리(26A)에는 각종 다리부 유닛(3A∼3D) 및 머리부 유닛(4)에 대하여, 컨트롤러(10)가 그 형태에 대응한 제어를 행하기 위한 형태마다의 보정 데이터가 그 형태의 식별 데이터와 대응하여 저장되어 있다.
이에 따라 이 로봇(1)에서는, 동체부 유닛(2)에 부착된 머리부 유닛(4)이나 다리부 유닛(3A∼3D)의 종별과 관계없이, 그 머리부 유닛(4)이나 다리부 유닛(3A∼3D) 내의 메모리에 저장된 식별 데이터와, 자율 모드용 메모리 카드(26A)에 저장된 각종 보정 데이터에 기초하여, 컨트롤러(10)가 그 때의 로봇(1)의 형태에 대응한 적절한 제어를 행할 수 있도록 되어 있다.
(2) 본 실시예에 의한 로봇 시스템의 구성
여기서 도 3은, 상술한 로봇(1)과, 해당 로봇(1)의 사용자가 소유하는 퍼스널 컴퓨터(31)로 구성되는 본 실시예에 의한 로봇 시스템(30)을 도시하는 것으로, 퍼스널 컴퓨터(31)를 이용하여 이러한 로봇(1)을 무선 원격 조작할 수 있도록 되어 있다.
이 경우 퍼스널 컴퓨터(31)로서는, 도 4에 도시한 바와 같이 CPU(32), ROM(33), RAM(34), PC 카드 슬롯(35), 하드디스크 장치(36), 화상 표시 처리부(37) 및 모니터(38) 등을 갖는 범용의 것이 이용된다.
그리고 이 퍼스널 컴퓨터(31)에는, 예를 들면 CD(Compact Disc)-ROM(39)(도 3)에 기록되어 제공되는, 이 로봇 시스템(30) 전체적으로 이러한 기능을 발휘시키기 위한 어플리케이션 소프트웨어(이하, 이것을 PC용 원격 조작 소프트라고 함)가 인스톨됨과 함께, 예를 들면 블루투스(Bluetooth) 등의 소정의 무선 통신 규격에 대응한 무선 LAN 카드(40)가 장착된다.
또한 로봇(1)에는, 해당 로봇(1)을 무선 원격 조작할 수 있도록 하기 위한 원격 조작 모드용 소프트웨어(이하, 이것을 로봇용 원격 조작 소프트라고 함)나, 필요한 동작이나 행동을 로봇(1)에 발현시키기 위한 제어 프로그램 및 각종 모션 파일, 음성 파일 및 LED 파일 등이 저장된 외부 메모리(26)(이하, 이것을 원격 조작 모드용 메모리(26B)라고 함)와, 퍼스널 컴퓨터(31)의 무선 LAN 카드(40)와 쌍을 이루는 무선 LAN 카드(41)가 장착된다.
그리고 로봇(1)은, 원격 조작 모드용 메모리(26B)가 장전된 후 전원이 투입되면, 해당 원격 조작 모드용 메모리(26B)로부터 로봇용 원격 조작 소프트를 판독하고, 이것을 내부 메모리(10A)(도 2)로 전개함으로써 원격 조작 모드로 기동한다.
또한 로봇(1)은, 이 원격 조작 모드시, 마이크로폰(16)(도 2)으로부터의 음성 신호 S1에 기초한 음성 정보, CCD 카메라(17)(도 2)로부터의 화상 신호 S2에 기초한 화상 정보, 거리 센서(18)(도 2)로부터의 거리 측정 신호 S3에 기초한 거리 측정 정보, 및 각 터치 센서(14)(14A∼14D), 참조 부호 19, 20(도 2)으로부터의 조작 검출 신호 S7, S4에 기초한 조작 검출 정보 등의 외부 센서 정보와, 배터리 센서(12)(도 2)로부터의 배터리 잔량 신호 S5에 기초한 배터리 잔량 정보, 가속도 센서(13)(도 2)로부터의 가속도 검출 신호 S6에 기초한 가속도 검출 정보 및 각 전위차계(251∼25n)(도 2)로부터의 각도 검출 신호 S81∼S8n에 기초한 각도 검출 정보 등의 내부 센서 정보와, 이들 외부 센서 정보 및 내부 센서 정보(이하, 적절하게 이 들을 통합하여 센서 정보라고 함)에 기초하여 그 때 로봇(1)이 인식하고 있는 각종 인식 정보 중, 퍼스널 컴퓨터(31)로부터 요구가 있던 것을 무선 LAN 카드(41)를 통하여 순차적으로 퍼스널 컴퓨터(31)로 송신한다.
한편, 퍼스널 컴퓨터(31)는 PC용 원격 조작 소프트의 기동시, 해당 PC용 원격 조작 소프트와, 로봇(1)으로부터 순차적으로 송신되는 각종 정보에 기초한 소정의 GUI(Graphical User Interface)로 되는 컨트롤 패널을 모니터(38) 상에 표시한다.
그 결과, 사용자는, 이 컨트롤 패널을 이용하여, 마우스, 키보드 또는 조이스틱 등을 조작함으로써 로봇(1)에 행해야되는 각종 동작을 지정할 수 있다.
그리고 퍼스널 컴퓨터(31)는, 컨트롤 패널 상의 소정 동작이나 소정 행동과 대응된 버튼 등이 조작되면, 이것에 대응한 커맨드를 무선 LAN 카드(40)를 통하여 로봇(1)으로 송신한다.
이 때 로봇(1)은 퍼스널 컴퓨터(31)로부터의 커맨드 등을 무선 LAN 카드(41)를 통하여 수신하면, 로봇용 원격 조작 소프트에 기초하여, 필요에 대응하는 모션 파일, 음성 파일 및 LED 파일을 재생함으로써 그 커맨드에 대응하는 동작을 발현한다.
이와 같이 하여 이 로봇 시스템(30)에서는, 사용자가 퍼스널 컴퓨터(31)를 이용하여 로봇(1)을 원격 조작할 수 있으며, 이에 의해 로봇(1)의 오락성을 더 향상시킬 수 있도록 되어 있다.
(3) 커뮤니케이터(50)의 구성
이러한 구성 외에, 도 3에 도시한 로봇 시스템에서는, 로봇(1)을 퍼스널 컴퓨터(31)를 이용하여 무선 원격 조작할 뿐만 아니라, 도 5에 도시한 바와 같은 휴대형 커뮤니케이터(또는 「뷰어」라고도 함 : 50)를 이용하여 로봇(1)을 무선 원격 조작하도록 되어 있다.
이 커뮤니케이터(50)는, 전체적으로 평판 형상의 직방체로 되는 본체부(50A)를 갖고, 표면에는 상측에 화상이나 문자 등을 표시하는 표시부(51)가 형성되고, 해당 표시부(51)의 하측에는 각종 기능이 할당된 가압식의 버튼군으로 이루어지는 조작부(52)가 형성되어 있다.
이 조작부(52)에서는, 버튼군으로서, 중앙 부분에 각종 설정 상태를 결정하기 위한 결정 키(52A)가 배치되고, 해당 결정 키(52A)를 상하 좌우로 둘러싸도록 커서 키(52B)가 독립하여 배치되어 있다. 해당 커서 키(52B)의 좌우 상단에는 소정 기능이 할당된 리저브 키(52C, 52D)가 각각 배치되고, 해당 커서 키(52B)의 중앙 상단에는 메인 메뉴 또는 직전의 표시 화면으로 전환하기 위한 전환키(52E)가 배치되고, 해당 커서 키(52B)의 우측 하단에는 전원을 온 또는 오프 상태로 하기 위한 전원 키(52F)가 배치되어 있다.
또한 본체부(50A)의 하단면에는, 소위 USB(Universal Serial Bus)용 커넥터(53)가 형성되고, USB 케이블(도시하지 않음)을 통하여 퍼스널 컴퓨터(31)(도 3)와 접속할 수 있도록 되어 있다.
또한 본체부(50A)의 이면에는, 스피커의 방음용 개구(50AH)가 형성됨과 함께, 배터리를 장전 또는 분리하기 위한 배터리 커버(50AC)가 착탈 가능하게 부착되 어 있다.
도 9에 커뮤니케이터(50)의 내부 구성을 도시한다. 커뮤니케이터(50)는 액정 화면을 갖는 표시부(51)와, 해당 표시부(51)와 버스(55)를 통하여 접속된 플래시 메모리(56)와, 프로그램용 ROM 및 RAM(57)과, CPU(58)와, 스피커(59)와, 송수신부(60)와, USB 드라이버(61)로 이루어지는데, 예를 들면 버튼 전지 등으로 이루어지는 배터리(62)가 구동원으로서 내장되어 있다.
CPU(58)는 로봇(1)이나 퍼스널 컴퓨터(31)로부터의 데이터 입력 또는 조작부(52)의 입력 조작에 대응하여, 플래시 메모리(56) 내에 저장되어 있는 각종 프로그램 중에서 대응하는 프로그램을 판독하여 이것을 프로그램용 ROM 및 RAM(57)으로 전개하여, 이 프로그램에 따라 각종 제어 처리를 실행한다.
또한 송수신부(60)는, 예를 들면 블루투스(Bluetooth) 등의 무선 LAN 방식으로 각종 데이터를 주고받는 LAN 제어부(60A)와, CPU(58)의 제어 하에 버스를 통하여 LAN 제어부(60A)로 전송되는 데이터를 송수신하는 안테나 단자(60B)로 이루어진다.
(4) 컨트롤러(10)의 처리
이어서 이 로봇(1)에서의 컨트롤러(10)(도 2)의 구체적인 처리에 대하여 설명한다.
컨트롤러(10)는 메모리(10A)에 저장된 제어 프로그램에 따라 상술한 바와 같은 각종 처리를 실행한다. 그리고 이러한 컨트롤러(10)의 처리 내용을 기능적으로 분류하면, 도 7에 도시한 바와 같이 외부 및/또는 내부의 상태를 인식하는 상태 인 식부(70)와, 상태 인식부(70)의 인식 결과에 기초하여 감정 및/또는 본능의 상태를 결정하는 본능 감정부(71)와, 상태 인식부(70)의 인식 결과 및 본능 감정부(71)의 출력에 기초하여 계속되는 행동을 결정하는 행동 선택부(72)와, 행동 선택부(72)의 결정 결과에 기초하여 다음 회로부터의 각종 행동의 발현 확률을 상승시키거나 또는 저하시키는 학습 성장부(73)와, 행동 선택부(72)의 결정 결과에 대응한 행동을 선택하여 로봇(1) 및 커뮤니케이터(50)에 반영시키는 커맨드 변환부(74)와, 커맨드 변환부(74) 및 상태 인식부(70)의 출력에 기초하여 회화 콘텐츠의 출력을 행하는 회화 관리부(75)로 나눌 수 있다.
이하, 이들 상태 인식부(70), 본능 감정부(71), 행동 선택부(72), 학습 성장부(73), 커맨드 변환부(74) 및 회화 관리부(75)에 대하여 상세히 설명한다.
(4-1) 상태 인식부(70)의 구성
상태 인식부(70)는, 도 2에서 상술한 외부 정보 신호 S1∼S4와 내부 정보 신호 S5, S6, S81∼S8n에 기초하여 특정한 상태를 인식하고, 인식 결과를 상태 인식 정보 S20으로서 본능 감정부(71) 및 행동 선택부(72)로 통지한다.
실제적으로, 상태 인식부(70)는 CCD 카메라(17)(도 2)로부터 제공되는 화상 신호 S2를 항상 감시하고, 해당 화상 신호 S2에 기초한 화상 내에 예를 들면 「빨갛고 둥근 것」이나, 「수직의 평면」을 검출했을 때에는 「볼이 있다」, 「벽이 있다」라고 인식하고, 인식 결과를 본능 감정부(71) 및 행동 선택부(72)로 통지한다.
또한 상태 인식부(70)는 마이크로폰(16)(도 2)으로부터 제공되는 음성 신호 S1을 항상 감시하고, 해당 음성 신호 S1에 기초하여 「걸어」, 「엎드려」, 「볼을 좇아」 등의 명령음이 입력된 것을 인식하면, 이러한 인식 결과를 본능 감정부(71) 및 행동 선택부(72) 또한 회화 관리부(75)로 통지한다.
또한 상태 인식부(70)는, 페이스 터치 센서(19), 헤드 터치 센서(20) 및 각 터치 센서(14)(14A∼14D)(도 2)로부터 제공되는 조작 검출 신호 S4, S7을 항상 감시하고, 해당 조작 검출 신호 S4, S7에 기초하여 소정의 임계값 이상의 또한 단시간(예를 들면 2초 미만)의 압력을 검출했을 때에는 「맞았음(야단맞았음)」이라고 인식하고, 소정의 임계값 미만의 또한 장시간(예를 들면 2초 이상)의 압력을 검출했을 때에는 「어루만져짐(칭찬받았음)」이라고 인식하고, 인식 결과를 본능 감정부(71) 및 행동 선택부(72)로 통지한다.
(4-2) 본능 감정부(71)의 구성
본능 감정부(71)는 「기쁨」, 「슬픔」, 「놀라움」, 「공포」, 「혐오」 및 「분노」의 합계 6개의 정서에 대하여, 각 정서마다 그 정서의 강함을 나타내는 파라미터를 보유하고 있다. 그리고 본능 감정부(71)는, 이들 각 정서의 파라미터값을 각각 상태 인식부(70)로부터 상태 인식 정보 S20으로서 제공되는 「맞았음」 및 「어루만져졌음」 등의 특정한 인식 결과와, 후술한 바와 같이 행동 선택부(72)로부터 제공되는 결정된 출력 행동을 나타내는 행동 결정 정보 S21과, 경과 시간 등에 기초하여 순차적으로 갱신한다.
구체적으로 본능 감정부(71)는 상태 인식 정보 S20에 기초하여 얻어지는 인 식 결과 및 행동 결정 정보 S21에 기초한 출력 행동이 그 정서에 대하여 작용하는 정도(미리 설정되어 있음)와, 다른 정서로부터 받는 억제 및 자극의 정도와, 경과 시간 등에 기초하여 소정의 연산식에 의해 산출되는 그 정서의 변화량을 ΔE〔t〕, 현재의 그 정서의 파라미터값을 E〔t〕, 인식 결과 등에 대응하여 그 정서를 변화시키는 비율을 나타내는 계수를 ke로 하여, 소정 주기에서 다음식
Figure 112003024437210-pct00001
을 이용하여 다음 주기에서의 그 정서의 파라미터값 E〔t+1〕을 산출한다.
그리고 본능 감정부(71)는 이 연산 결과를 현재의 그 정서의 파라미터값 E〔t〕로 치환하도록 하여 그 정서의 파라미터값을 갱신한다. 또 각 인식 결과나 각 출력 행동에 대하여 어떤 정서의 파라미터값을 갱신할지 미리 정해져 있으며, 예를 들면 「맞았음」이라고 한 인식 결과가 제공된 경우에는 「분노」의 정서의 파라미터값이 올라감과 함께 「기쁨」의 정서의 파라미터가 내려가고, 「어루만져졌음」이라는 인식 결과가 제공된 경우에는 「기쁨」의 정서의 파라미터값이 올라감과 함께 「슬픔」의 정서의 파라미터값이 내려간다.
이와 마찬가지로 하여, 본능 감정부(71)는 「운동욕」, 「애정욕」, 「식욕」 및 「호기심」의 상호 독립된 4개의 욕구에 대하여, 이들 욕구마다 그 욕구의 강도를 나타내는 파라미터를 보유하고 있다. 그리고 본능 감정부(71)는, 이들 욕구의 파라미터값을 각각 상태 인식부(70)로부터의 인식 결과나, 경과 시간 및 행동 선택부(72)로부터의 통지 등에 기초하여 순차적으로 갱신한다.
구체적으로 본능 감정부(71)는 「운동욕」, 「애정욕」 및 「호기심」에 대해서는, 로봇(1)의 출력 행동, 경과 시간 및 인식 결과 등에 기초하여 소정의 연산식에 의해 산출되는 그 욕구의 변동량을 ΔI〔k〕, 감산의 그 욕구의 파라미터값을 I〔k〕, 그 욕구의 감도를 나타내는 계수를 ki로 하여, 소정 주기로 다음식
Figure 112003024437210-pct00002
을 이용하여 다음 주기에서의 그 욕구의 파라미터값 I〔k+1〕를 산출하고, 이 연산 결과를 현재의 그 욕구의 파라미터값 I〔k〕로 치환하도록 하여 그 욕구의 파라미터값을 갱신한다. 또 출력 행동이나 인식 결과 등에 대하여 어떤 욕구의 파라미터값을 변화시킬지 미리 정해져 있으며, 예를 들면 행동 선택부(72)로부터 어떠한 행동을 행했는지의 통지가 있었을 때에는 「운동욕」의 파라미터값이 내려간다.
또한 본능 감정부(71)는 「식욕」에 대해서는, 상태 인식부(70)를 통하여 제공되는 배터리 잔량 검출 신호 S5(도 2)에 기초하여, 배터리 잔량을 B1로 하여 소정 주기로 다음식
Figure 112003024437210-pct00003
에 의해 「식욕」의 파라미터값 I〔k+1〕를 산출하고, 이 연산 결과를 현재 의 식욕의 파라미터값 I〔k〕로 치환하도록 하여 해당 「식욕」의 파라미터값을 갱신한다.
또 본 실시예에서는, 각 정서 및 각 욕구의 파라미터값이 각각 0부터 100까지의 범위에서 변동하도록 규제되어 있고, 또한 계수 ke, ki의 값도 각 정서 및 각 욕구마다 개별로 설정되어 있다.
(4-3) 행동 선택부(72)의 구성
행동 선택부(72)는, 상태 인식부(70)로부터 제공되는 상태 인식 정보 S20과, 본능 감정부(71)에서의 각 정서 및 각 욕구의 파라미터값과, 미리 메모리(10A)에 저장된 행동 모델과, 시간 경과 등에 기초하여 다음 행동을 결정하고, 결정 결과를 본능 감정부(71), 학습 성장부(73) 및 커맨드 변환부(74)로 출력한다.
이 경우, 행동 선택부(72)는 다음 행동을 결정할 방법으로서, 도 8에 도시한 바와 같은 하나의 노드(상태) NODE0으로부터 동일하거나 또는 다른 어떤 노드 NODE0∼NODEn로 천이할지 각 노드 NODE0∼NODEn 사이를 접속하는 아크 ARCp∼ARCn에 대하여 각각 설정된 천이 확률 P0∼Pn에 기초하여 확률적으로 결정하는 확률 오토마튼이라는 알고리즘을 이용한다.
보다 구체적으로 설명하면, 메모리(10A)에는 행동 모델로서, 각 노드 NODE0∼NODEn 마다의 도 9에 도시한 바와 같은 상태 천이표(76)가 저장되어 있고, 행동 선택부(72)가 이 상태 천이표(76)에 기초하여 다음의 행동을 결정하도록 되어 있 다.
여기서 상태 천이표(76)에서는, 그 노드 NODE0∼NODEn에서 천이 조건으로 하는 입력 이벤트(상태 인식부(70)의 인식 결과)가 「입력 이벤트」 행에 우선순으로 열기되고, 그 조건에 대한 구체적 조건이 「데이터명」 및 「데이터 범위」의 행에서의 대응하는 열에 기술되어 있다.
따라서 도 7의 상태 천이표(76)에서 정의된 노드 NODE100에서는 「볼을 검출하였음(BALL)」이라는 인식 결과가 제공된 경우에, 해당 인식 결과와 함께 제공되는 그 볼의 「크기(SIZE)」가 「0부터 1000의 범위(0, 1000)」인 것이나, 「장해물을 검출(OBSTACLE)」이라는 인식 결과가 제공된 경우에, 해당 인식 결과와 함께 제공되는 그 장해물까지의 「거리(DISTANCE)」가 「0부터 1000의 범위(0, 1000)」인 것이 자기 또는 다른 노드로 천이하기 위한 조건으로 되어 있다.
또한 이 노드 NODE100에서는 인식 결과의 입력이 없는 경우에도, 행동 선택부(72)가 주기적으로 참조하는 본능 감정부(71)의 각 정서 및 각 욕구의 파라미터값 중 「기쁨(JOY)」, 「놀라움(SUPRISE)」 또는 「슬픔(SADNESS)」 중 어느 한 정서의 파라미터값이 「50부터 100의 범위(50, 100)」일 때에는 자기 또는 다른 노드로 천이할 수 있다.
또한 상태 천이표(76)에서는, 「다른 노드로의 천이 확률」의 란에서의 「천이처 노드」의 열에 그 노드 NODE0∼NODEn으로부터 천이할 수 있는 노드명이 열기됨과 함께, 「입력 이벤트명」, 「데이터값」 및 「데이터의 범위」의 각 행에 기술 된 모든 조건이 갖추어진 경우의 그 노드 NODE0∼NODEn에의 천이 확률이 「다른 노드로의 천이 확률」의 란에서의 그 노드 NODE0∼NODEn의 행에 기술되고, 이 때 출력되는 행동 또는 동작이 「출력 행동」의 행에 기술된다. 또 「다른 노드로의 천이 확률」의 란에서의 각 행의 천이 확률의 합은 100〔%〕로 되어 있다.
따라서 이 예의 노드 NODE100에서는, 예를 들면 「볼을 검출(BALL)」하여, 그 볼의 「크기(SIZE)」가 「0부터 1000의 범위(0, 1000)」라는 인식 결과가 제공된 경우에는 「30〔%〕」의 확률로 「노드 NODE120(node 120)」으로 천이할 수 있고, 그 때 「ACTION 1」의 행동 또는 동작이 출력되게 된다.
그리고 행동 모델은 이러한 상태 천이표(76)로서 기술된 노드 NODE0∼NODEn이 몇개나 연결되도록 하여 구성되어 있다.
그 결과, 행동 선택부(72)는 상태 인식부(70)로부터 상태 인식 정보 S20이 제공되었을 때나, 마지막으로 행동을 발현하고나서 일정 시간이 경과했을 때 등에, 메모리(10A)에 저장되어 있는 행동 모델 중 대응하는 노드 NODE0∼NODEn의 상태 천이표(76)를 이용하여 다음 행동이나 동작(「출력 행동」의 행에 기술된 행동 또는 동작)을 확률적으로 결정한다.
그 때, 행동 선택부(72)는 결정한 행동 또는 동작을, 대중소의 3개의 계층으로 분류되어 각 계층마다 의미가 부여된 추상적인 커맨드(이하, 이것을 LMS 커맨드라고 함)로서, 본능 감정부(71) 및 커맨드 변환부(74)로 출력한다.
이 LMS 커맨드에서는 행동 선택부(72)에서 결정한 행동이 예를 들면 「손으로 접촉함」인 경우, 상위층이 「사용자에의 접촉」을, 중위층이 「외쪽 앞발의 동작」을, 하위층이 「소정 위치에서의 보유」를 각각 나타내고, 해당 행동에 대응하여 적어도 1 종류 이상의 발화 내용을 나타내는 발화 텍스트가 부가적으로 기술되어 있다.
실제적으로, LMS 커맨드는 상술한 상태 천이표(76)에 기초하여, 행동 선택부(72)에서 선택 가능한 복수의 행동 또는 동작에 대하여 그 종류마다 복수의 패턴(이하, 이것을 행동 패턴이라고 함)이 설정되고, 해당 각 행동 패턴이 파일화되어 컨트롤러(10)의 메모리(10A)에 저장되어 있다. 예를 들면 상술한 「손으로 접촉함」 행동인 경우에는 좌우 어느 앞다리를 어느 위치에서 사용자에게 내밀지, 복수의 행동 패턴으로서 설정되어 있다.
또한 상술한 상태 천이표(76)에서는, 각 노드 NODE0∼NODEn마다 시튜에이션(situation)ID가 할당되어 있다. 행동 선택부(72)는 현재의 노드를 나타내는 시튜에이션 ID와, 해당 시튜에이션 ID에 대응하는 적어도 1 종류 이상의 발화 내용을 나타내는 발화 텍스트와, 해당 발화 내용에 대응하여 적절히 설정된 음색을 나타내는 음색 파라미터 번호를 갖는 커맨드(이하, 이것을 센텐스 커맨드라고 함)를 필요에 대응하여 LMS 커맨드와 동시에 커맨드 변환부(74)로 송신하도록 되어 있다.
또한 행동 선택부(72)는 상술한 센텐스 커맨드를 대신하여, 회화 관리부(75) 로부터 회화 요구를 나타내는 시나리오 ID가 부여될 수 있으면, 상태 천이표(76) 중 현재의 노드 및 다음으로 천이하는 노드의 2개의 노드 번호와, 다음 행동 또는 동작을 나타내는 「출력 행동」의 기재를 갖는 커맨드(이하, 이것을 시나리오 커맨드라고 함)를 필요에 대응하여 LMS 커맨드와 동시에 커맨드 변환부(74)로 송신하도록 되어 있다.
(4-4) 학습 성장부(73)의 구성
학습 성장부(73)는 행동 선택부(72)로부터 제공되는 LMS 커맨드에 기초하여, 행동 결정 결과 중 「맞았음」이나 「어루만져졌음」 등의 사용자로부터의 활동 작용으로서 받은 교시의 인식 결과를 입력한다.
그리고 학습 성장부(73)는, 이 인식 결과와, 커뮤니케이터(50)와 주고 받는 이력과, 자기의 행동 및 동작 이력과, 초기 기동시부터 현 시점까지의 가동 경과일수 및 누적 가동 시간에 대응하여, 마치 진짜 동물이 「성장」하는 것처럼 행동이나 동작을 변화시키도록 되어 있다.
구체적으로 설명하면, 성장 과정으로서 예를 들면 「탄생기」, 「유년기」, 「소년기」, 「청년기」 및 「성인기」 5개의 「성장 단계」가 마련되어 있고, 컨트롤러(10)의 메모리(10A)에는 이들 각 「성장 단계」마다 「보행 상태」, 「모션(움직임)」, 「행동」 및 「사운드(발화, 울음 소리)」의 4개 항목에 관한 행동 및 동작의 기초가 되는 각 제어 파라미터 및 제어 프로그램 등으로 이루어지는 행동 및 동작 모델이 미리 저장되어 있다.
그리고 학습 성장부(73)는 「성장 단계」를 올릴 때, 「성장」에 관여하는 복수 요소의 누적 횟수에 기초하여 다음 「성장 단계」 내의 각 행동 및 동작 모델 중에서 하나의 행동 및 동작 모델을 선택하여, 사용하는 행동 및 동작 모델을 해당 선택한 행동 및 동작 모델로 변경한 후, 해당 변경 결과를 변경 명령 정보 S22로서 행동 선택부(72)로 송출한다.
그 결과 학습 성장부(73)는 필요에 대응하여 「성장 단계」를 변화시키면서, 해당 「성장 단계」 내에서 선택한 행동 및 동작 모델을 행동 선택부(72)에서의 행동 결정에 반영시킬 수 있다.
(4-4) 커맨드 변환부(74)의 처리
상술한 행동 선택부(72)에서 선택 가능한 복수의 행동 또는 동작의 종류마다 설정된 복수의 행동 패턴에는 로봇(1)의 하드웨어(액추에이터(241∼24n), 스피커(21) 및 LED(15, 23) 등)마다 ID(I-dentity)가 할당되고, 컨트롤러(10)의 메모리(10A)에서 맵핑되어 있다.
예를 들면, 본 실시예인 경우, 로봇(1)은 4발 보행형이고, 하드웨어로서의 액추에이터(241∼24n)는 각 다리부 유닛(3A∼3D)에 의존한 구동을 행하지만, 차형 로봇인 경우에는 액추에이터는 복수의 차륜에 의존한 회전 구동을 행하기 때문에, 커맨드 변환부(74)는 행동 선택부(72)에서 선택된 행동 패턴이 동일해도 로봇(1)의 하드웨어에 대응한 ID를 지정하여, 이것을 MW(middleware) 커맨드 ID로서 출력 콘텐츠 관리부(57)로 송출한다.
출력 콘텐츠 관리부(77)는 커맨드 변환부(74)로부터 부여된 MW 커맨드 ID에 기초하여, 커맨드 데이터베이스(78)에 저장된 로봇(1)의 하드웨어에 대응하는 각종 제어 데이터를 판독한 후, 모션 재생부(81), 사운드 재생부(80) 및 LED 재생부(79)로 각각 공급한다.
그 결과 모션 재생부(81)는 구동 신호 S91∼S9n에 기초하여 필요한 액추에이터(241∼24n)를 소정 상태로 구동시키거나, 사운드 재생부(80)는 음성 신호 S10에 기초한 음성을 스피커(21)로부터 출력시키거나, LED 재생부(79)는 제어 데이터에 기초한 점멸 패턴으로 각 LED(15, 23)를 점멸시킨다.
한편, 커맨드 변환부(74)는 행동 선택부(72)로부터 받은 LMS 커맨드를 그대로 회화 관리부(75)로 송출한다. 또 커맨드 변환부(74)는 LMS 커맨드와 함께 센텐스 커맨드 또는 시나리오 커맨드를 받은 경우에는 해당 센텐스 커맨드만 또는 시나리오 커맨드만을 회화 관리부(75)로 송출하도록 되어 있다.
(4-5) 회화 관리부(75)의 처리
회화 관리부(75)는 행동 선택부(72)로부터 커맨드 변환부(74)를 통하여 LMS 커맨드가 제공되면, 해당 LMS 커맨드에 부가되어 있는 발화 텍스트를 추출하고, 해당 발화 텍스트에 기초한 발화 내용에 대응하는 텍스트 데이터를 회화 데이터부(82)로부터 판독한다.
그 때, 회화 관리부(75)는 발화 텍스트에 기초한 발화 내용이 복수 종류 있는 경우에는 랜덤하게 선택한 발화 내용에 대응하는 텍스트 데이터를 회화 데이터부(82)로부터 판독한다.
이 후, 회화 관리부(75)는 발화 텍스트에 대응하는 텍스트 데이터를, 세션 서비스부(83) 및 계속되는 무선 통신 제어부(84)를 통하여 무선 데이터로 변환하여 커뮤니케이터(50)로 송신한다. 그 결과, 커뮤니케이터(50)의 표시 화면에는 로봇(1)의 행동에 맞추어, 텍스트 데이터에 기초한 발화 내용이 예를 들면 XML(eXtensible Markup Language) 등의 문서 데이터 포맷으로 표시된다.
그 때, 회화 관리부(75)는 시간적인 필터 기능을 갖고, LMS 커맨드가 예를 들면 5초 이내에 복수 공급된 경우에는, 카운트 개시시(또는 카운트 종료시)의 발화 텍스트만 LMS 커맨드로부터 추출함으로써, 5초 이내에 복수의 발화 내용이 커뮤니케이터(50)의 표시 화면에 표시되는 것을 미연에 방지할 수 있도록 되어 있다.
한편, 회화 관리부(75)는 행동 선택부(72)로부터 커맨드 변환부(74)를 통하여 센텐스 커맨드를 받은 경우에는, 해당 센텐스 커맨드로부터 추출한 발화 텍스트의 발화 내용에 기초한 텍스트 데이터를 회화 데이터부(82)로부터 판독함과 함께, 해당 센텐스 커맨드로부터 추출한 음색 파라미터 번호와 텍스트 데이터의 데이터량에 기초하여 MIDI(Musical Instruments Digital Interface) 데이터 파일을 생성한다.
그리고 회화 관리부(75)는 텍스트 데이터에 기초한 무선 데이터를 커뮤니케이터(50)로 송신함과 동시에, MIDI 데이터 파일을 사운드 재생부(79)로 송출함으로써, 커뮤니케이터(50)의 표시 화면에 텍스트 데이터에 기초한 발화 내용을 로봇(1)의 행동 천이 상황에 대응하여 표시시키면서, 해당 로봇(1)으로부터 MIDI 데이터 파일에 기초한 발성음을 출력시킬 수 있으며, 그 결과, 자연스럽게 커뮤니케이터(50)를 사용하는 사용자에게 주의를 모을 수 있다.
한편, 회화 관리부(75)는 행동 선택부(72)에 시나리오 ID를 송출하여, 해당 행동 선택부(72)로부터 커맨드 변환부(74)를 통하여 시나리오 커맨드를 받은 경우, 또는 상태 인식부(70)로부터 인식 결과를 받은 경우에는 지식 정보부(85)를 이용하여 해당 시나리오 커맨드 또는 인식 결과에 기초하여 특정한 발화 내용을 포함하는 시나리오 데이터를 생성하고, 해당 시나리오 데이터에 기초한 시나리오를 커뮤니케이터(50)의 표시 화면에 표시시키도록 되어 있다.
또 회화 관리부(75)는 커뮤니케이터(50)의 표시부(51)에 표시시키는 메뉴용 발화 데이터를, 시나리오 데이터와 동일한 문서 데이터 포맷(예를 들면 XML)으로 커뮤니케이터(50)로 송신함으로써, 해당 커뮤니케이터(50)의 표시부(51)에 메뉴용 발화 데이터에 기초한 메뉴를 표시시킬 수 있다. 이와 같이 인터랙션이 발생하는 시나리오 발화와 메뉴와의 선택을 동일한 문서 데이터 포맷 형식으로 함으로써, 시나리오 데이터의 관리를 용이하게 할 수 있다.
(5) 커뮤니케이터(50)를 이용한 로봇(1)과의 대화
실제로 커뮤니케이터(50)에서는, 로봇(1)의 상술한 컨트롤러(10)의 처리에서, 도 7에 도시한 회화 관리부(75)가 행동 선택부(72)로부터 LMS 커맨드, 센텐스 커맨드 또는 시나리오 커맨드 중 어느 하나를 수취함으로써, 「혼잣말 발화」, 「센텐스 발화」 및 「시나리오 발화」의 3가지의 발화 내용을 표시부(51)에 화면 표시하도록 되어 있다.
(5-1) 혼잣말 발화
우선 혼잣말 발화는 로봇(1)이 자율 동작하고 있는 상황을 설명하는 발화로서, 로봇(1)의 행동에 맞추어 해당 행동에 대응하여 설정되어 있는 발화 내용을 커뮤니케이터(50)의 표시부에 표시시키는 것이다.
구체적으로 설명하면, 상술한 LMS 커맨드는 도 10에 도시한 바와 같이, 커맨드와 발화 텍스트로 구성된 포맷으로서, 로봇(1)의 행동이 예를 들면 「손으로 접촉함」인 경우, 커맨드는 개시 문자 「L」부터 「CONTACT(사용자에의 접촉)」, 「FLEFT(왼쪽 앞다리의 동작)」 및 「HOLD(소정 위치에서의 보유)」에서 종료 문자「B」와 같이 표시되고, 발화 텍스트는 해당 커맨드에 이어서 「"손으로 접촉해라"」와 같이 표시된다.
이 때 동일한 커맨드에 대하여 복수의 발화 텍스트(「"손으로 만지자"」 및 「"악수하자"」)가 부가되어 있는 경우에는, 하나의 발화 텍스트를 랜덤하게 선택하도록 함으로써, 로봇(1)의 행동이 반복하여 행해지는 경우가 있어도, 그 때마다 다른 발화 내용을 커뮤니케이터(50)에게 제공할 수 있고, 그 결과, 사용자에게 싫증을 느끼게 하지 않아도 되는 이점이 있다.
그 외에도, 예를 들면 로봇(1)의 행동이 「드러누움」인 경우, 커맨드는 개시 문자 「L」부터 「CHGPOS(자세를 바꿈)」, 「LIE(엎드려 누움)」 및 「NORMAL(통상의 자세)」로 종료 문자「B」 등으로 표시되고, 발화 텍스트는 해당 커맨드에 이어서 「"영차"」와 같이 표시된다.
또 상술한 바와 같이, 혼잣말 발언은 예를 들면 5초 이내에 복수의 발화 텍스트가 공급된 경우에는 카운트 개시시(또는 카운트 종료시)의 발화 텍스트만을 커 뮤니케이터(50)의 표시부(51)에 표시시킴에 따라, 5초 이내에 복수의 발화 내용이 연속하여 커뮤니케이터(50)로 제공됨으로써 사용자가 눈으로 확인하기 곤란한 상태가 되는 것을 미연에 방지할 수 있다.
(5-2) 센텐스 발화
이어서 센텐스 발화는 도 9에 도시한 상태 천이표(76)에 커맨드로서 발화를 매립해 두고, 해당 상태 천이표(76)의 상황에 대응한 발화를 생성하여 커뮤니케이터(50)의 표시부(51)에 표시시키는 것이다.
구체적으로 설명하면, 상술한 센텐스 커맨드는, 도 11에 도시한 바와 같이 시튜에이션 ID, 서브(sub) ID, 텍스트 및 음색 파라미터 번호(ttm-index)로 구성된 포맷으로 이루어진다.
도 11(A)에 도시한 바와 같이 로봇(1)의 행동이 예를 들면 「전도 복귀」인 경우, 시튜에이션 ID가 「0×00410001」, 서브 ID가 「1」이고, 텍스트가 「"굴렀음"」과 같이 표시된다.
이 때 동일한 시튜에이션 ID「0×00410001」에 대하여 복수의 서브 ID「2」∼「10」이 부가되어 있는 경우에는, 각각 텍스트가 「"도와줘요∼"」, 「"우와!"」, 「"다리가 꼬였다"」, 「"한눈을 팔았다"」, 「"큰일 날뻔 했다!"」, 「"걸을 수 없어요"」, 「"넘어졌다"」, 「"발이 미끄러졌다"」 및 「"발에 쥐가 났다"」와 같이 표시되지만, 서브 ID가 직접 지정되었을 때에는 대응하는 텍스트가 그대로 선택되지만, 시튜에이션 ID만이 지정되었을 때에는 하나의 서브 ID에 대응하는 텍스트를 랜덤하게 선택하도록 함으로써, 로봇(1)의 행동이 반복하여 행해지는 경우가 있어도, 그 때마다 서로 다른 발화 내용을 커뮤니케이터(50)에 제공할 수 있으며, 그 결과, 사용자에게 싫증을 느끼게 하지 않아도 되는 이점이 있다.
또 도 11(B)에 도시한 바와 같이 로봇(1)의 행동이 예를 들면 「반응」인 경우, 시튜에이션 ID가 「0×00700010」, 서브 ID가 「1」이고, 텍스트가 「"괜찮아요"」와 같이 표시되고, 이것에 계속해서 음색 파라미터 번호가 「10」과 같이 표시되어 있을 때, 미리 설정되어 있는 복수의 음색 중 10번째의 음색이 선택되어, 해당 음색에 대응한 발성음을 로봇(1)으로부터 발성시키도록 되어 있다.
이러한 음색 파라미터 번호는 발화에 맞추어 이야기하는 것 같은 소리를 재생할 때의 음색 번호로서, 성장의 세대나 감정 레벨에 대응하여 번호가 설정되도록 되어 있으며, 무지정일 때에는 「0」이다.
(5-3) 시나리오 발화
이어서 시나리오 발화는, 시나리오로서 복수의 연결된 발화를 시켰을 때, 로봇(1) 사이의 결정된 시나리오를 실행시킬 때에 이용하고, 해당 시나리오에 대응한 발화를 순차적으로 커뮤니케이터(50)의 표시부에 표시시키는 것이다.
구체적으로 설명하면, 상술한 시나리오 커맨드 또는 상태 인식 결과에 기초하여 지식 정보부(85)(도 7)에서 생성되는 시나리오 데이터는 도 12에 도시한 바와 같이 노드 번호, 조건식, 커뮤니케이터(50)의 동작 모드, 텍스트, 동작 커맨드 및 다음 천이 노드 번호로 구성된 포맷으로 된다.
구체적으로 설명하면, 텍스트 데이터는 예를 들면 노드 번호가 「0」, 조건식이 「커뮤니케이터명""에 대하여 현재의 시간이 5시보다 전일 때」, 커뮤니케이 터(50)의 동작 모드가 「터미널 모드」, 텍스트가 「"안녕하십니까!"」, 동작 커맨드가 「"인사"」, 다음 천이 노드 번호가 「100」과 같이 표시된다. 이 중 조건식의 %로 된 것은 변수(지식 정보)를 나타내고 있으며, 예를 들면 「%HOUR%」는 현재 시간을 나타내고 있다.
즉 이 시나리오 데이터에 기초한 시나리오는 커뮤니케이터명 "(미정의)"의 사람과 현재의 시간이 5시 전에 만났을 때, 「안녕하십니까!」의 발화 내용을 커뮤니케이터(50)에 제공함과 함께 로봇 자신은 「인사」에 대응한 동작을 실행하는 것을 나타내고 있다.
(5-4) 메뉴용 발화
상술한 3가지의 발화 내용 외에, 커뮤니케이터(50)의 표시부에 표시시키는 메뉴용 발화 데이터를, 시나리오 데이터와 동일한 문서 데이터 포맷(예를 들면 XML)으로 커뮤니케이터(50)로 송신함으로써, 시나리오 데이터의 관리를 용이하게 할 수 있다는 이점이 있다.
예를 들면 도 13(A)에 도시하는 기술 내용의 문서 데이터 포맷으로 이루어지는 발화 데이터는 커뮤니케이터(50)의 표시부에서는 도 13(B)와 같이 표시된다.
(6) 커뮤니케이터 등록에 의한 시큐러티 대책
복수의 로봇(1)과 복수의 커뮤니케이터(50)와의 사이의 무선 통신에서는, 이 중 하나의 로봇(1)을 마스터(주)로서, 해당 로봇(1) 이외의 로봇(1) 및 모든 커뮤니케이터(50)를 슬레이브(종)로 했을 때, 슬레이브끼리는 통신이 불가하며, 각 슬레이브는 모두 마스터를 통하여 통신을 행하도록 되어 있다.
그 때, 특정한 커뮤니케이터(50)를 특정한 로봇(1)에 등록해 두지 않으면, 커뮤니케이터(50)에 대한 조작 상의 시큐러티나 무선 통신 접속의 용이함을 확보할 수 없게 되는 우려가 있었다.
이 때문에 1대의 로봇(1)과 1대의 커뮤니케이터(50)가 쌍을 이루도록, 미리 로봇(1)에 대하여 커뮤니케이터(50)를 등록해 둠으로써, 커뮤니케이터(50)의 조작 상의 시큐러티나 무선 통신 접속의 용이함을 확보할 수 있다.
예를 들면 로봇(1)을 조작하는 경우, 등록한 커뮤니케이터(50) 이외의 커뮤니케이터(50)에서는 메뉴계의 조작을 행해도 해당 로봇(1)은 전혀 반응하지 않기 때문에, 조작 상의 시큐러티를 확보할 수 있다.
또한 로봇(1)이 혼잣말을 나타내는 텍스트 데이터를 발신해도, 등록한 커뮤니케이터(50) 이외의 커뮤니케이터(50)에서는 해당 텍스트 데이터에 기초한 혼잣말을 표시시킬 수 없기 때문에, 무선 통신 접속의 용이함을 확보할 수 있다.
(7) 커뮤니케이터(50)의 표시 화면의 천이 상태
실제로 커뮤니케이터(50)에서는 로봇(1)끼리 또는 로봇(1) 및 커뮤니케이터(50)와의 사이의 교환에 필요한 다양한 설정 기능마다, 각각 대응하는 표시 내용을 프로그램용 ROM 및 RAM(57)으로부터 판독하거나 또는 그 때마다 해당하는 로봇(1)으로부터 취득하여, 해당 각 표시 내용에 대응한 화면을 표시 화면으로서 순차적으로 천이시키면서 표시부(51)에 표시하도록 되어 있다.
그 때, 커뮤니케이터(50)는 로봇(1)과의 사이에서 통신 상태에 있는지의 여부에 의해, 표시부(51)에서 천이하는 표시 화면의 종류 및 내용이 서로 다르다. 즉, 커뮤니케이터(50)는 도 14에 도시한 바와 같이 로봇(1)과의 통신 상태가 오프 라인 상태(대기 상태)에 있을 때, 커뮤니케이터(50)는 표시 화면을 메인 메뉴 화면 F1로부터, 통신 가능한 로봇(1)으로부터 명함 정보를 취득하기 위한 명함 화면 F2와, 해당 명함 정보가 미취득인 경우에 로봇(1)으로부터 명함 정보를 취득하기 위한 명함 취득 대기 화면 F3과, 커뮤니케이터(50) 자체의 각종 내용을 설정하기 위한 커뮤니케이터 설정 화면 F4와, 통신 가능한 로봇(1)과 접속 중인 것을 나타내기 위한 접속 대기 화면 F5와, 필요에 대응하여 통신 가능한 로봇(1)을 탐색하기 위한 탐색 화면 F6으로 각각 천이시키도록 되어 있다.
이것에 대하여 커뮤니케이터(50)는, 로봇(1)과의 통신 상태가 온라인 상태(접속 상태)에 있을 때, 표시 화면을 상술한 메인 메뉴 화면 F1로부터, 접속 대기 화면 F5를 통하여 통신 가능한 로봇(1)과 접속하여 리얼타임으로 채팅을 행하기 위한 터미널 모드 화면 F7로 천이한 후, 해당 메인 메뉴 화면 F1과 유사한 접속 시의 메인 메뉴 화면(이하, 이것을 접속 메인 메뉴 화면이라고 함) F8로 천이한다.
그리고 커뮤니케이터(50)는 표시 화면을 이 접속 메인 메뉴 화면 F8로부터 명함 정보를 이미 취득한 로봇(1)을 대상으로 하는 명함 화면 F9와, 해당 명함 정보가 취득 불가인 취지를 표시하기 위한 명함 취득 불가 화면 F10으로 각각 천이시킴과 함께, 오프 라인 상태인 경우와 마찬가지로 명함 취득 대기 화면 F3, 커뮤니케이터 설정 화면 F4 및 접속 대기 화면 F5로 각각 천이시킨다.
또한 커뮤니케이터(50)는 채팅 실행 시에 표시되는 터미널 모드 화면 F7에서, 로봇(1)측의 어플리케이션에 대응하여 로봇 메뉴 화면 F11로 천이시키는 경우 가 있으며, 또한 터미널 모드 화면 F7의 표시 내용을 로그(시스템의 동작 기록)로서 오프 라인 상태에서도 표시시킬 수 있도록 되어 있다.
(7-1) 메인 메뉴 화면 F1
우선 커뮤니케이터(50)는, 조작부(52)의 전원 키(52F)(도 5)가 가압 조작되어 전원이 온 상태로 설정되면, 도 15에 도시한 바와 같이, 소정의 초기 화면 F0을 거쳐 후술하는 탐색 화면 F6을 표시부(51)에 표시하고, 해당 탐색 화면 F6을 표시한 상태에서 자기 로봇(1) 주위에서 통신 가능한 로봇(1)을 탐색한다. 이윽고 커뮤니케이터(50)는 소정 시간 경과 후에 해당 탐색 결과를 얻으면, 표시 화면을 탐색 화면 F6으로부터 메인 메뉴 화면 F1로 천이시킨다.
이 메인 메뉴 화면 F1에는 도 16(A)에 도시한 바와 같이, 타이틀 바로서 「메인 메뉴」가 표시되고, 메뉴 항목으로서 「로봇 리스트」, 「커뮤니케이터 리스트」 및 「메뉴」가 순차적으로 리스트 표시되어 있다.
이 메인 메뉴 화면 F1의 최하단에는, 좌우에 상술한 리저브 키(53C, 53D)(도 5)가 할당된 「탐색」 및 「명함」을 나타내는 마크가 표시되고, 그 사이에는 통신의 접속 또는 절단을 나타내는 마크, 배터리 잔량을 나타내는 인디케이터 및 스크롤 버튼이 각각 GUI 표시되어 있다.
그리고 이러한 메뉴 항목 중 「로봇 리스트」는 로봇(1)의 탐색 결과에 대응하여 표시 내용이 상이하며, 통신 가능한 로봇(1)이 탐색된 경우로서, 명함 정보가 취득 완료된 로봇(1)이면 로봇(1)의 이름으로서 그 이름이 리스트 표시되는 한편, 명함 정보가 미취득의 로봇(1)이면 로봇(1)의 이름으로서 「미등록 로봇」이 표시 된다. 한편, 통신 가능한 로봇(1)이 전혀 탐색되지 않은 경우에는 도 16(B)과 같이 예를 들면 「로봇을 찾을 수 없습니다.」와 같은 메시지가 표시된다.
또한 「커뮤니케이터 리스트」에는, 로봇(1)과 쌍을 이루는 커뮤니케이터(50)에 붙여진 이름이 표시되고, 통신 가능한 로봇(1)이 탐색된 경우로서, 명함 정보가 취득 완료된 로봇(1)이면 커뮤니케이터(50)의 이름으로서 그 이름이 리스트표시되는 한편, 명함 정보가 미취득의 로봇(1)이면 커뮤니케이터(50)의 이름으로서「미등록 커뮤니케이터」가 표시된다.
또한 「메뉴」에는, 커뮤니케이터(50)에 대하여 각종 내용을 설정 변경하기 위한 「커뮤니케이터 설정」과, 최하단 좌측의 「탐색」에 대응하는 리저브 키(52C)와 동일 기능을 실행하기 위한 「(A) 로봇(1)을 찾음」이 리스트 표시되어 있다.
이 메인 메뉴 화면 F1 내에서 원하는 리스트 항목을 지정하여 해당 리스트 항목에 대응한 화면에 표시 화면을 천이시키기 위해서는, 사용자가 조작부(52)의 커서 키(52B)를 상하 방향으로 가압 조작하여, 해당 원하는 리스트 항목에 커서를 위치 정렬한 후, 계속해서 결정 키(52A)를 가압 조작함으로써 행할 수 있도록 되어 있다.
(7-1-1) 명함 화면
또한 커뮤니케이터(50)에서는 메인 메뉴 화면 F1이 표시된 상태에서, 「로봇 리스트」 중 원하는 로봇명이 커서로 지정되고, 계속해서 「명함」에 대응한 리저브 키(52D)가 가압 조작되면, 해당 로봇명에 대응한 명함 정보를 취득하는 경우에 는, 표시 화면을 메인 메뉴 화면 F1로부터 명함 화면 F2로 천이시킨다.
이 명함 화면 F2에는, 도 16(C)에 도시한 바와 같이 타이틀 바로서 「로봇의 명함」이 표시되고, 메뉴 항목으로서 「로봇의 이름」, 「오너의 이름」, 「로봇 어드레스」, 「로봇의 종류」, 「부속 소프트웨어명」 및 「정보」가 순차적으로 리스트 표시되어 있다.
이러한 명함 화면 F2의 최하단의 좌측에는 「탐색」을 나타내는 마크 대신에 앞 화면으로 천이시키기 위한 「리턴」을 나타내는 마크가 표시되는 한편, 우측의 「명함」을 나타내는 마크가 소거되어 있고, 해당 「리턴」을 나타내는 마크에 대응하는 리저브 키(52C)에는 표시 화면을 해당 명함 화면 F2로부터 메인 메뉴 화면 F1로 천이시키기 위한 기능이 할당되어 있다.
이것에 대하여 지정된 로봇명에 대응한 명함 정보를 취득하지 않는 경우에는, 표시 화면을 메인 메뉴 화면 F1부터 「로봇으로부터 명함을 받았습니다.」의 취지의 메시지가 표시된 명함 취득 대기 화면 F3으로 천이시킨다. 이 명함 취득 대기 화면 F3을 표시한 상태에서, 커뮤니케이터(50)는 해당하는 로봇(1)으로부터 명함 정보를 모두 취득한 시점에서, 표시 화면을 원래의 명함 화면 F2로 천이시킨다.
또 명함 취득 대기 화면 F3의 메시지 표시의 하단에는, 상술한 결정 키(52A)가 할당된 「중지」를 나타내는 마크가 표시되고, 해당 결정 키(52A)가 가압 조작되었을 때, 명함 정보의 취득 동작을 중단하도록 되어 있다.
(7-1-2) 탐색 화면(F6)
또한 커뮤니케이터(50)에서는 전원 온 상태일 때에 초기 화면 F0으로부터 메인 메뉴 화면 F1로 이행할 때뿐만 아니라, 해당 메인 메뉴 화면 F1이 표시된 상태에서, 사용자에 의해 최하단의 좌측의 「탐색」에 대응하는 리저브 키(52C)가 가압 조작된 경우도, 도 15에 도시한 바와 같이 표시 화면을 「로봇을 찾고 있습니다.」의 취지가 메시지 표시된 탐색 화면 F6으로 천이시키도록 되어 있다.
이 탐색 화면 F6을 표시한 상태에서, 커뮤니케이터(50)는 자기 로봇(1) 주위에서 통신 가능한 로봇(1)을 탐색하고, 소정 시간 경과 후에 해당 탐색 결과를 얻으면, 원래의 메인 메뉴 화면 F1로 천이시킨다.
또 탐색 화면 F6의 중앙에는, 결정 키(52A)에 대응한 「중지」를 나타내는 마크가 표시되고, 해당 결정 키(52A)가 가압 조작되었을 때, 로봇(1)의 탐색 동작을 중단하도록 되어 있다.
(7-1-3) 터미널 모드 화면 F7
또한 커뮤니케이터(50)에서는 메인 메뉴 화면 F1이 표시된 상태에서, 「로봇 리스트」 중 원하는 로봇명이 커서로 지정되고, 계속해서 결정 키(52A)가 가압 조작되면, 표시 화면을 메인 메뉴 화면 F1로부터 「로봇을 접속하고 있습니다.」의 취지의 메시지가 표시된 접속 대기 화면 F5로 천이시킨다.
이 접속 대기 화면 F5를 표시한 상태에서, 커뮤니케이터(50)는 지정된 로봇명에 대응한 로봇(1)과의 사이에서 통신 접속하고, 접속 상태가 된 시점에서 표시 화면을 터미널 모드 화면 F7로 천이시킨다.
또 접속 대기 화면 F5의 메시지 표시의 하단에는, 상술한 결정 키(52A)가 할 당된 「중단」을 나타내는 마크가 표시되고, 해당 결정 키(52A)가 가압 조작되었을 때, 로봇(1)과의 접속 동작을 중단하도록 되어 있다.
도 17에서, 이 터미널 모드 화면 F7은, 자기 로봇(1)을 포함하는 각 로봇(1)마다, 리얼타임으로 순차적으로 메시지를 서로 송신함으로써 각 로봇(1)과의 사이에서의 회화를 성립시키기 위한 화면이며, 접속 상태에 있는 각 로봇(1)측의 어플리케이션에 의존한 표시 내용이 표시되도록 되어 있다.
이 터미널 모드 화면 F7에서는, 타이틀 바로서 「로봇 채팅」이 표시되고, 각 로봇(1)마다 순차적으로 얻어진 채팅문이 선두에 식별용 그림 문자(아이콘)를 붙여 표시된다.
이러한 터미널 모드 화면 F7의 최하단의 좌우에는, 메인 메뉴 화면 F1에서의 「탐색」 및 「명함」을 나타내는 마크를 대신하여, 각각 「○」 및 「×」를 나타내는 마크가 표시되고, 이 때 대응하는 리저브 키(52C, 52D)에는 자기 로봇(1)에 대하여 「칭찬함」 및 「꾸짖음」에 대응한 인식 결과를 제공하기 위한 기능이 할당되어 있다.
한편, 커뮤니케이터(50)에서는 상술된 바와 같이 결정 키(52A)가 가압 조작된 경우 외에도, 통신 접속된 로봇(1)으로부터의 지시 내용이 제공됐을 때, 표시 화면을 메인 메뉴 화면 F1부터 터미널 모드 화면 F7로 천이시키도록 되어 있다.
이 터미널 모드 화면 F7이 표시된 상태에서, 전환 키(52E)가 가압 조작되면, 표시 화면을 상술한 오프 라인 상태에서의 메인 메뉴 화면 F1부터 온라인 상태에서의 접속 메인 메뉴 화면 F8로 천이시킨다.
이 접속 메인 메뉴 화면 F8은, 오프 라인 시의 메인 메뉴 화면 F1과 상이하며, 최하단의 좌측의 「탐색」을 나타내는 마크가 소거됨과 함께, 메뉴 항목 중 「로봇 리스트」에 리스트 표시된 로봇명의 선두에는 터미널 모드 화면 F7에서 표시된 식별용 그림 문자와 동일한 그림 문자가 표시되도록 되어 있다.
즉 접속 메인 메뉴 화면 F8에서, 「로봇 리스트」에 리스트 표시되어 있는 로봇명 중 채팅에 참가하고 있는 로봇(1)만 해당 로봇명의 선두에 식별용 그림 문자가 표시된다.
커뮤니케이터(50)는 이 접속 메인 메뉴 화면 F8이 표시된 상태에서, 「로봇 리스트」중 원하는 로봇명이 커서로 지정되고, 계속해서 「명함」에 응답한 리저브 키(52D)가 가압 조작되면, 해당 로봇명에 대응한 명함 정보를 취득하고 있는 경우에는 표시 화면을 접속 메인 메뉴 화면 F8부터 명함 화면 F2로 천이시킨다.
이것에 대하여 지정된 로봇명에 대응한 명함 정보를 취득하지 않는 경우에는, 표시 화면을 접속 메인 메뉴 화면 F8부터 「다마의 명함은 받지 않아서 볼 수 없습니다.」의 취지의 메시지가 표시된 명함 취득 불가 화면 F10으로 천이시킨다.
또 명함 취득 불가 화면 F10의 메시지 표시의 하단에는, 상술한 결정 키(52A)가 할당된 「OK」를 나타내는 마크가 표시되고, 해당 결정 키(52A)가 가압 조작되었을 때, 사용자에 의한 명함 정보가 취득 불가였다는 확인이 종료되었다고 해도 원래의 접속 메인 메뉴 화면 F8로 천이되도록 되어 있다.
또한 커뮤니케이터(50)는 터미널 모드 화면 F7이 표시된 상태에서, 자기 로봇(1)으로부터의 지시 내용이 제공됐을 때, 표시 화면을 터미널 모드 화면 F7로부 터 후술하는 로봇 메뉴 화면 F11로 천이시키도록 되어 있다.
또한 커뮤니케이터(50)는 통신 가능한 로봇(1)과의 접속을 자발적 또는 로봇(1)으로부터의 지시에 의해 종료했을 때, 이러한 채팅문의 이력 결과를 표시 화면에 표시하도록 되어, 오프 라인 상태에서도 필요에 대응하여 해당하는 로봇(1)과의 대화 내용을 눈으로 확인할 수 있도록 되어 있다.
(7-1-4) 커뮤니케이터 설정 화면 F4
또한 커뮤니케이터(50)에서는, 오프 라인 시의 메인 메뉴 화면 F1 또는 온라인 시의 접속 메인 메뉴 화면 F8이 표시된 상태에서, 메뉴 항목 중 「메뉴」 내의 「커뮤니케이터 설정」이 지정되면, 도 18에 도시한 바와 같이, 표시 화면을 해당 메인 메뉴 화면 F1 또는 접속 메인 메뉴 화면 F8로부터 커뮤니케이터 설정 화면 F4로 천이시킨다.
이 커뮤니케이터 설정 화면 F4에는, 도 19(A)에 도시한 바와 같이, 타이틀 바로서 「커뮤니케이터 설정」이 표시되고, 메뉴 항목으로서 「버저」, 「커뮤니케이터명 변경」, 「액정 콘트라스트」, 「폰트」, 「언어」, 「블루투스 정보」, 「버전 정보」 및 「설정 리세트」가 순차적으로 리스트 표시되어 있다.
이 커뮤니케이터 설정 화면 F4의 최하단의 좌측에는 「탐색」을 나타내는 마크를 대신하거나 새롭게 「리턴」을 나타내는 마크가 표시되는 한편, 우측의 「명함」을 나타내는 마크가 소거되고, 해당 「리턴」을 나타내는 마크에 대응하는 리저브 키(52C)에는 표시 화면을 해당 커뮤니케이터 설정 화면 F4로부터 메인 메뉴 화면 F1 또는 접속 메인 메뉴 화면 F8로 천이시키기 위한 기능이 할당되어 있다.
이하에서, 커뮤니케이터 설정 화면 F4의 메뉴 항목의 각 내용을 순서대로 설명한다. 우선 커뮤니케이터 설정 화면 F4의 메뉴 항목 중 「버저」가 지정되면, 표시 화면이 해당 커뮤니케이터 설정 화면 F4로부터 버저 설정 화면 F4A로 천이된다.
이 버저 설정 화면 F4A에서는, 타이틀 바로서 「버저」가 표시되고, 메뉴 항목으로서 비프음을 발생시키는지의 여부를 나타내는 「버저 ON」 및 「버저 OFF」의 2가지의 선택지가 표시되어 있다. 이 버저 설정 화면 F4A에서의 최하단의 표시 내용은 커뮤니케이터 설정 화면 F4와 마찬가지이다.
이 버저 설정 화면 F4A에서, 예를 들면 「버저 ON」이 선택되면, 중단의 메뉴 항목을 대신하여, 「버저를 ON으로 하였습니다.」의 취지의 메시지가 표시됨과 함께, 그 아래에 결정 키(52A)가 할당된 「OK」를 나타내는 마크가 표시되는 한편, 하단의 「리턴」을 나타내는 마크의 표시가 소거된다(버저 설정 화면 F4B). 이것과 함께 커뮤니케이터(50)에서 비프음이 온 상태로 설정 변경된다.
그 결과 버저 설정 화면 F4B에서, 사용자의 선택에 의해 비프음의 온 상태 또는 오프 상태가 설정된 후, 「OK」에 대응하는 결정 키(52A)가 가압 조작되면, 표시 화면이 해당 버저 설정 화면 F4B로부터 원래의 커뮤니케이터 설정 화면 F4로 천이된다.
실제로 커뮤니케이터(50)에서 비프음이 온 상태로 설정되면, 해당 커뮤니케이터(50) 자체에서는 타이밍 부정의 통신 이벤트, 사용자에의 주의 환기 및 입력 확인할 때에 또한 로봇(1)으로부터의 요구가 있었을 때에, 각각 각종 비프음을 스 피커(21)(도 2)를 통하여 출력하도록 되어 있다.
또 커뮤니케이터(50)의 스피커(21)로부터 출력되는 비프음의 종류로는, 예를 들면 범용 비프음(삐-)을 나타내는 「Info」와, 입력 리미트에 도달했을 때 등의 경고음(삐삐)을 나타내는 「Warning」과, 에러음(삐-삐-삐-)을 나타내는 「Error」와, 알람음(삐삐삐삐)을 나타내는 「Alarm」과, 결정 등의 소리(삐)를 나타내는 「Click」과, 로봇(1)이 지정한 타이밍에서 울리는 소리를 나타내는 「Melody」가 있다.
또한 커뮤니케이터 설정 화면 F4의 메뉴 항목 중 「커뮤니케이터명 변경」이 지정되면, 표시 화면이 해당 커뮤니케이터 설정 화면 F4로부터 커뮤니케이터명 변경 화면 F4C로 천이된다.
이 커뮤니케이터명 변경 화면 F4C에서는, 타이틀 바로서 「커뮤니케이터명 변경」이 표시되고, 그 아래에는 「커뮤니케이터(50)의 이름」을 문자 입력하기 위한 입력 필드와, 결정 키가 할당된 「결정」을 나타내는 마크가 표시되어 있다. 이 커뮤니케이터명 변경 화면 F4C에서의 최하단의 표시 내용은 커뮤니케이터 설정 화면 F4와 마찬가지이다.
이 입력 필드에는, 사용자의 조작에 대응하여 선택된 언어로 원하는 문자가 입력될 수 있도록 되며, 선두 위치에 커서가 맞추어지면, 표시 화면이 커뮤니케이터명 변경 화면 F4C로부터 도 20에 도시한 바와 같은 문자 입력 화면 F4CA로 천이되도록 되어 있다.
이 문자 입력 화면 F4CA는 일본어 입력인 경우, 상단에 입력 필드가 표시되 고, 중단에 「히라가나」, 「가타카나」, 「영숫자 기호」 및 「기호」의 4 종류의 입력 모드에 대응한 문자군(이하, 이것을 입력 문자군이라고 함)이 스크롤 가능한 상태에서 선택적으로 표시되고, 하단에는 좌측의 「리턴」을 나타내는 마크를 대신하여 「한글자 소거」를 나타내는 마크가 표시되고, 우측에는 새롭게 「″°」를 나타내는 마크가 표시되어 있다.
이 입력 문자군은, 입력 모드로서 예를 들면 「히라가나」가 선택된 경우, 50개의 음 등의 문자군이 소정의 배열 패턴으로 표시되고, 해당 배열 패턴을 사이에 두는 상측 및 하측에는 「결정」이 리스트 표시되고, 하측의 「결정」 아래에는 「공백」, 「가타카나」, 「영숫자 기호」, 「기호」 및 「중지」가 순서대로 리스트 표시되어 있다.
또한 커뮤니케이터(50)에서의 커서 키(52B)에는, 이러한 문자군의 배열 패턴상에서 커서를 소망 방향으로 이동시킴과 함께 각 리스트 항목을 상하로 이동시키기 위한 기능이 할당되어 있고, 결정 키(52A)에는 커서가 맞추어진 문자를 지정하여 입력 필드 내에 입력하기 위한 기능이 할당되어 있다. 또한 문자 입력 화면에서 「한 글자 소거」 및 「″°」를 나타내는 마크에 대응하는 리저브 키(52C, 52D)에는 각각 입력된 문자를 한 글자 소거하기 위한 기능과, 입력된 문자를 청음, 탁음 및 반탁음의 순으로 반복하여 전환하기 위한 기능이 할당되어 있다.
상술한 문자 입력 화면 F4CA에서 표시된 각 리스트 항목은, 사용자에 의해 커서가 맞추어진 후, 계속해서 결정 키(52A)가 가압 조작됨으로써, 해당 키에 할당된 기능이 실행되도록 되어 있다.
이 중 상측 및 하측의 「결정」은 쌍방 모두 문자군 중에서 결정 키(52A)를 이용하여 지정된 문자를 입력 필드 내에서 결정하기 위한 리스트 항목이고, 또한 「공백」은 문자 이외에 공백을 넣기 위한 리스트 항목이다.
또한 「가타카나」, 「영숫자 기호」 및 「기호」는 현재의 「히라가나」를 나타내는 입력 모드로부터 다른 입력 모드로 천이시키기 위한 리스트 항목, 즉 표시 화면을 해당 선택된 입력 모드에 대응한 문자 입력 화면 F4CA로 천이시키기 위한 리스트 항목이다.
또한 「중지」는 표시 화면을 문자 입력 화면 F4CA로부터 원래의 커뮤니케이터명 변경 화면 F4C로 천이시키기 위한 리스트 항목이다.
또, 입력 모드로서 「가타카나」, 「영숫자 기호」 및 「기호」가 선택된 경우, 입력 문자군은 도 20에 도시한 각각 문자 및 기호 등이 소정의 배열 패턴으로 표시되고, 그 외에는 「히라가나」인 경우와 거의 마찬가지의 표시 내용이다.
이윽고 문자 입력 화면 F4CA에서 커뮤니케이터(50)의 이름이 결정된 후, 원래의 커뮤니케이터명 변경 화면 F4C가 표시된 상태에서, 결정 키(52A)가 가압 조작되면, 중단의 입력 필드 및 「결정」을 나타내는 마크를 대신하여 「커뮤니케이터명을 변경하였습니다.」의 취지의 메시지와 「OK」를 나타내는 마크가 표시됨과 함께, 하단의 「리턴」을 나타내는 마크의 표시가 소거된다.
그 결과 커뮤니케이터명 변경 화면 F4C에서, 사용자의 조작에 의해 커뮤니케이터(50)의 이름이 변경된 후, 「OK」에 대응하는 결정 키가 가압 조작되면, 표시 화면이 해당 커뮤니케이터 이름 변경 화면 F4C로부터 원래의 커뮤니케이터 설정 화 면 F4로 천이된다.
또한 커뮤니케이터 설정 화면 F4의 메뉴 항목 중 「액정 콘트라스트」가 지정되면, 도 21에 도시한 바와 같이, 표시 화면이 해당 커뮤니케이터 설정 화면 F4로부터 액정 콘트라스트 조정 화면 F4E로 천이된다.
이 액정 콘트라스트 조정 화면 F4E에서는 도 19(B)에 도시한 바와 같이, 타이틀 바로서 「액정 콘트라스트」가 표시되고, 중단에는 액정 콘트라스트의 농도가 「진하게」, 「약간 진하게」, 「보통」 및 「약간 흐리게」와 같이 4 단계의 설정 레벨로서 리스트 표시되어 있다. 이 액정 콘트라스트 조정 화면 F4E에서의 최하단의 표시 내용은 커뮤니케이터 설정 화면 F4와 마찬가지이다.
이 액정 콘트라스트 조정 화면 F4E에서, 예를 들면 「약간 진하게」가 선택되면, 중단의 리스트 항목을 대신하여, 「콘트라스트를 약간 진하게 하였습니다.」 취지의 메시지가 표시됨과 함께, 그 아래에 결정 키가 할당된 「OK」를 나타내는 마크가 표시되는 한편, 하단의 「리턴」을 나타내는 마크의 표시가 소거된다(액정 콘트라스트 조정 화면 F4F). 이와 함께 커뮤니케이터(50)의 표시부(51)에서 「약간 진하게」에 대응한 설정 레벨로 콘트라스트가 설정 변경된다.
그 결과 액정 콘트라스트 조정 화면 F4E에서, 사용자의 선택에 의해 액정 콘트라스트가 원하는 설정 레벨로 조정된 후, 「OK」에 대응하는 결정 키(52A)가 가압 조작되면, 표시 화면이 해당 액정 콘트라스트 조정 화면 F4E로부터 원래의 커뮤니케이터 설정 화면 F4로 천이된다.
또한 커뮤니케이터 설정 화면 F4의 메뉴 항목 중 「폰트」가 지정되면, 표시 화면이 해당 커뮤니케이터 설정 화면 F4로부터 폰트 설정 화면 F4G로 천이된다.
이 폰트 설정 화면 F4G에서는 타이틀 바로서 「폰트」가 표시되고, 중단에는 폰트의 표시 사이즈를 나타내는 「큼」 및 「작음」의 2가지의 선택지가 표시되어 있다. 이 폰트 설정 화면 F4G에서의 최하단의 표시 내용은 커뮤니케이터 설정 화면 F4와 마찬가지이다.
이 폰트 설정 화면 F4G에서, 예를 들면 「큼」이 선택되면, 중단의 선택지를 대신하여, 「폰트를 크게 하였습니다.」 취지의 메시지가 표시됨과 함께, 그 아래에 결정 키(52A)가 할당된 「OK」를 나타내는 마크가 표시되는 한편, 하단의 「리턴」을 나타내는 마크의 표시가 소거된다(폰트 설정 화면 F4H). 이와 함께 커뮤니케이터(50)의 표시부(51)에서 폰트가 「큼」에 대응한 표시 사이즈로 설정 변경된다.
그 결과 폰트 설정 화면 F4F에서, 사용자의 선택에 의해 폰트가 원하는 표시 사이즈로 설정된 후, 「OK」에 대응하는 결정 키가 가압 조작되면, 표시 화면이 해당 폰트 설정 화면으로부터 원래의 커뮤니케이터 설정 화면으로 천이된다.
또한 커뮤니케이터 설정 화면 F4의 메뉴 항목 중 「언어」가 지정되면, 도 22에 도시한 바와 같이, 표시 화면이 해당 커뮤니케이터 설정 화면 F4로부터 언어 변경 화면 F4I로 천이된다.
이 언어 변경 화면 F4I에서는, 타이틀 바로서 「언어」가 표시되고, 중단에는 언어의 종류를 나타내는 「일본어」 및 「영어」의 2가지의 선택지가 표시되어 있다. 이 언어 변경 화면 F4I에서의 최하단의 표시 내용은 커뮤니케이터 설정 화 면 F4와 마찬가지이다.
이 언어 변경 화면 F4I에서, 예를 들면 「일본어」가 선택되면, 중단의 선택지를 대신하여, 「일본어로 변경하였습니다.」 취지의 메시지가 표시됨과 함께, 그 아래에 결정 키(52A)가 할당된 「OK」를 나타내는 마크가 표시되는 한편, 하단의 「리턴」을 나타내는 마크의 표시가 소거된다(언어 변경 화면 F4J). 이와 함께 커뮤니케이터(50)의 표시부(51)에서 「일본어」에 대응한 표시 내용으로 설정 변경된다.
그 결과 언어 변경 화면 F4J에서, 사용자의 선택에 의해 표시 내용이 원하는 언어로 변경된 후, 「OK」에 대응하는 결정 키(52A)가 가압 조작되면, 표시 화면이 해당 언어 변경 화면 F4J로부터 원래의 커뮤니케이터 설정 화면으로 천이된다.
또한 커뮤니케이터 설정 화면 F4의 메뉴 항목 중 「블루투스 정보」가 지정되면, 표시 화면이 해당 커뮤니케이터 설정 화면 F4E로부터 블루투스 정보 표시 화면 F4K로 천이된다.
이 블루투스 정보 표시 화면 F4K에서는, 타이틀 바로서 「블루투스 정보」가 표시되고, 중단에는 「BT 어드레스」를 나타내는 블루투스의 어드레스 번호가 예를 들면 「1234567890AB」와 같이 표시됨과 함께, 그 아래에 결정 키(52A)가 할당된 「OK」를 나타내는 마크가 표시되어 있다. 이 블루투스 정보 표시 화면 F4K에서의 최하단의 표시 내용은 커뮤니케이터 설정 화면 F4와 마찬가지이다.
그 결과 블루투스 정보 표시 화면 F4K에서, 사용자의 조작에 의해 블루투스 정보가 표시된 후, 「OK」에 대응하는 결정 키(52A)가 가압 조작되면, 표시 화면이 해당 블루투스 정보 표시 화면 F4K로부터 원래의 커뮤니케이터 설정 화면 F4로 천이된다.
또한 커뮤니케이터 설정 화면 F4의 메뉴 항목 중 「버전 정보」가 지정되면, 도 23에 도시한 바와 같이, 표시 화면이 해당 커뮤니케이터 설정 화면 F4로부터 버전 정보 표시 화면 F4L로 천이된다.
이 버전 정보 표시 화면 F4L에서는, 도 19(C)에 도시한 바와 같이 타이틀 바로서 「버전 정보」가 표시되고, 중단에는 「커뮤니케이터」를 나타내는 기종 번호(예를 들면 ERA-300 N1)와, 「BT Farm」을 나타내는 버전 번호(예를 들면 Ver1.0)에, 「어플리케이션 Farm」을 나타내는 버전 번호(예를 들면 Ver1.0)가 표시됨과 함께, 그 아래에 결정 키(52A)가 할당된 「OK」를 나타내는 마크가 표시되어 있다. 이 버전 정보 표시 화면 F4L로부터의 최하단의 표시 내용은 커뮤니케이터 설정 화면 F4와 마찬가지이다.
그 결과 버전 정보 표시 화면 F4L에서, 사용자의 조작에 의해 다양한 버전 정보가 표시된 후, 「OK」에 대응하는 결정 키(52A)가 가압 조작되면, 표시 화면이 해당 버전 정보 표시 화면 F4L로부터 원래의 커뮤니케이터 설정 화면 F4로 천이된다.
또한 커뮤니케이터 설정 화면 F4의 메뉴 항목 중 「설정 리세트」가 지정되면, 표시 화면이 해당 커뮤니케이터 설정 화면 F4로부터 설정 리세트 화면 F4M로 천이된다.
이 설정 리세트 화면 F4M에서는 타이틀 바로서 「설정 리세트」가 표시되고, 중단에는 「커뮤니케이터(50)의 설정값을 출하 시의 상태로 복귀합니다.」의 취지의 메시지가 표시됨과 함께, 그 아래에 결정 키가 할당된 「OK」를 나타내는 마크가 표시되어 있다. 이 설정 리세트 화면에서의 최하단의 표시 내용은 커뮤니케이터 설정 화면과 마찬가지이다.
이윽고 설정 리세트 화면 F4M에서, 결정 키(52A)가 가압 조작되면, 중단의 메시지 표시를 대신하여 「설정을 리세트하였습니다.」의 취지의 메시지가 표시됨과 함께, 하단의 「리턴」을 나타내는 마크의 표시가 소거된다(설정 리세트 화면 F4N). 이와 함께 커뮤니케이터(50)의 CPU(58)에서 각종 설정 내용이 출하 시의 상태로 리세트된다.
계속해서 설정 리세트 화면 F4N에서, 사용자의 조작에 의해「OK」에 대응하는 결정 키(52A)가 가압 조작되면, 표시 화면이 해당 설정 리세트 화면 F4L로부터 원래의 커뮤니케이터 설정 화면 F4로 천이된다.
(8) 로봇 메뉴 화면
(8-1) 커뮤니케이터 등록 또는 삭제
또 커뮤니케이터(50)는 표시부(51)에 메인 메뉴 화면 F1을 표시한 상태에서, 메뉴 항목 중 「로봇 리스트」 내에서 원하는 로봇명이 지정되어 해당 로봇(1)과의 사이에서 통신 상태(온라인 상태)가 되면, 접속 대기 화면 F5로 천이하여, 해당 로봇명에 대응한 로봇(1)에 커뮤니케이터(50)가 등록되어 있는지의 여부를 판단한다.
그 결과, 도 24에 도시한 바와 같이, 해당 로봇(1)에 커뮤니케이터(50)가 등록되어 있지 않은 경우, 커뮤니케이터(50)는 표시 화면을 접속 대기 화면 F5를 통 하여 커뮤니케이터 등록 화면 F12로 천이시킨다. 이 커뮤니케이터 등록 화면 F12는 타이틀 바로서 「메뉴」가 표시되고, 메뉴 항목으로서 「커뮤니케이터 등록」만이 리스트 표시되어 있다.
이 커뮤니케이터 등록 화면 F12의 최하단의 좌측에는, 메인 메뉴 화면 F1과 달리, 「탐색」을 나타내는 마크를 대신하여 「종료」를 나타내는 마크가 표시되는 한편, 우측의 「명함」의 마크는 소거되어 있고, 해당 「종료」를 나타내는 마크에 대응하는 리저브 키(52C)에는 표시 화면을 해당 로봇 메뉴 화면 F11로부터 원래의 메인 메뉴 화면 F1로 천이시키기 위한 기능이 할당되어 있다.
이 커뮤니케이터 등록 화면 F12에서, 「커뮤니케이터 등록」이 지정되면, 해당 메뉴 항목을 대신하여, 「확인하겠습니다. 로봇(1)의 우측 앞발의 볼록살을 눌러 주십시오.」의 취지를 나타내는 메시지가 표시되어, 최하단의 좌측에는 「종료」를 나타내는 마크를 대신하여, 대응하는 리저브 키(52C)에 할당된 기능이 동일한 「중지」를 나타내는 마크가 표시된다(커뮤니케이터 등록 화면 F12A).
이윽고 커뮤니케이터(50)는 이 커뮤니케이터 등록 화면 F12A가 표시된 상태에서, 사용자에 의해 로봇(1)의 우측 앞발의 볼록살에 대응한 터치 센서(14)의 유효한 검지 결과가 해당 로봇(1)으로부터 얻어지면, 계속해서 해당 커뮤니케이터 등록 화면의 중단의 표시 내용을 「로봇(1)의 왼쪽 앞발의 볼록살을 눌러 주십시오.」의 취지의 메시지를 대신한 화면 F12B로 천이시킨다.
이러한 커뮤니케이터 등록 화면 F12B가 표시된 상태에서, 사용자에 의해 로봇(1)의 왼쪽 앞발의 볼록살에 대응한 터치 센서(14)의 유효한 검지 결과가 해당 로봇(1)으로부터 얻어지면, 계속해서 해당 커뮤니케이터 등록 화면 F12B의 중단의 표시 내용을 「커뮤니케이터 등록할 수 있었습니다.」의 취지의 메시지와 결정 키가 할당된 「OK」를 나타내는 마크를 대신한 화면 F12C로 천이시킨다.
이와 같이 하여 사용자는 자기의 커뮤니케이터(50)를 이용하여, 통신 상태에 있는 로봇(1)으로부터 제공되는 지시에 대응한 조작을 실행함으로써, 해당 로봇(1)에 자기의 커뮤니케이터(50)를 등록할 수 있다.
그 결과 커뮤니케이터 등록 화면 F12C에서, 통신 상태에 있는 로봇(1)에 자기의 커뮤니케이터(50)가 등록된 후, 「OK」에 대응하는 결정 키(52A)가 가압 조작되면, 표시 화면이 해당 커뮤니케이터 등록 화면 F12C로부터 후술하는 로봇 메뉴 화면 F11로 천이된다.
이것에 대하여 통신 상태에 있는 로봇(1)에 이미 커뮤니케이터(50)가 등록되어 있는 경우, 커뮤니케이터(50)는 도 25에 도시한 바와 같이, 표시 화면을 접속 대기 화면 F5를 통하여 로봇 메뉴 화면 F11로 천이시킨다.
이 로봇 메뉴 화면 F11에는, 타이틀 바로서 「메뉴」가 표시되고, 메뉴 항목으로서 「커뮤니케이터 삭제」, 「명함 작성」, 「기본 설정」, 「제어」, 「모드 선택」 및 「성장 설정」이 순차적으로 리스트 표시되어 있다.
이 로봇 메뉴 화면 F11의 최하단의 좌측에는 메인 메뉴 화면 F1과 달리, 「탐색」을 나타내는 마크를 대신하여 「종료」를 나타내는 마크가 표시되는 한편, 우측의 「명함」의 마크는 소거되어 있고, 해당 「종료」를 나타내는 마크에 대응하는 리저브 키(52C)에는 표시 화면을 해당 로봇 메뉴 화면 F11로부터 원래의 메인 메뉴 화면 F1로 천이시키기 위한 기능이 할당되어 있다.
이 로봇 메뉴 화면 F11에서, 메뉴 항목 중 「커뮤니케이터 삭제」가 지정되면, 표시 화면을 해당 로봇 메뉴 화면 F11로부터 커뮤니케이터 삭제 화면 F11A1로 천이시킨다.
이 커뮤니케이터 삭제 화면 F11A1에는, 타이틀 바로서 「커뮤니케이터 삭제」가 표시되고, 중단에 예를 들면 「히로시」, 「알파」 및 「피닌파리」와 같이, 통신 상태에 있는 로봇(1)에 현재 등록되어 있는 모든 커뮤니케이터(50)의 이름이 리스트 표시되어 있다.
또한 커뮤니케이터 삭제 화면 F11A1의 리스트 항목 중 예를 들면 「히로시」를 나타내는 커뮤니케이터(50)가 지정되면, 해당 커뮤니케이터 삭제 화면 F11A1의 중단의 표시 내용을 「히로시를 삭제하였습니다.」의 취지의 메시지와 결정 키가 할당된 「OK」를 나타내는 마크를 대신한 화면 F11A2로 천이시킨다.
이와 같이 하여 사용자는 자기의 커뮤니케이터(50)를 이용하여, 통신 상태에 있는 로봇(1)에 현재 등록되어 있는 커뮤니케이터(50) 중 원하는 커뮤니케이터(50)의 등록을 필요에 대응하여 삭제할 수 있다.
그 결과 커뮤니케이터 삭제 화면 F11A2에서, 통신 상태에 있는 로봇(1)에 현재 등록되어 있는 커뮤니케이터(50) 중 지정된 커뮤니케이터(50)의 등록이 삭제된 후, 「OK」에 대응하는 결정 키(52A)가 가압 조작되면, 표시 화면이 해당 커뮤니케이터 삭제 화면 F11A2로부터 원래의 로봇 메뉴 화면 F11로 천이된다.
(8-2) 명함 작성
또한 커뮤니케이터(50)는 이미 등록이 행해진 로봇(1)과 통신 상태에 있을 때, 표시부(51)에 로봇 메뉴 화면 F11을 표시한 상태에서, 메뉴 항목 중 「명함 작성」이 지정되면, 도 26에 도시한 바와 같이, 표시 화면을 해당 로봇 메뉴 화면 F11로부터 명함 작성 화면 F11B1로 천이시킨다.
이 명함 작성 화면 F11B1에서는, 타이틀 바로서 「명함 작성」이 표시되고, 중단에는 「등록·변경」 및 「삭제」의 2가지의 선택지가 표시되고, 최하단의 좌측에는 「종료」를 나타내는 마크를 대신하여, 대응하는 리저브 키(52C)에 할당된 기능이 동일한 「리턴」을 나타내는 마크가 표시된다.
이 명함 작성 화면 F11B1에서, 「등록·변경」이 선택되면, 표시 화면이 등록·변경 화면 F11B2로 천이된다. 이 등록·변경 화면 F11B2에서는, 타이틀 바로서 「등록·변경」이 표시되고, 중단에 「콜 네임」, 「아이콘」 및 「코멘트」가 순서대로 리스트 표시되어 있다. 이 등록·변경 화면 F11B2에서의 최하단의 표시 내용은 명함 작성 화면 F11B1과 마찬가지이다.
이하에서, 등록·변경 화면 F11B2의 메뉴 항목의 각 내용을 순서대로 설명한다. 우선 등록·변경 화면 F11B2의 메뉴 항목 중 로봇명을 나타내는 「콜 네임」이 지정되면, 중단의 리스트 항목을 대신하여, 「콜 네임」을 문자 입력하기 위한 입력 필드와, 결정 키(52A)가 할당된 「OK」를 나타내는 마크가 표시된다(등록·변경 화면 F11B3). 이 입력 필드 내의 선두 위치에 커서가 맞추어지면, 표시 화면이 상술한 문자 입력 화면 F4CA(도 20)로 천이된다.
이윽고 문자 입력 화면 F4CA에서, 예를 들면 「알파」와 같이 로봇명인 콜 네임이 결정된 후, 원래의 등록·변경 화면 F11B3이 표시된 상태에서, 결정 키(52A)가 가압 조작되면, 중단의 입력 필드를 대신하여, 「콜 네임을 등록·변경하였습니다.」 취지의 메시지가 표시되는 한편, 하단의 「리턴」을 나타내는 마크의 표시가 소거된다(등록·변경 화면 F11B4).
그 결과 등록·변경 화면 F11B4에서, 사용자의 선택에 의해 로봇명으로서 콜 네임이 등록되거나 변경된 후, 「OK」에 대응하는 결정 키(52A)가 가압 조작되면, 표시 화면이 최초로 표시된 등록·변경 화면 F11B2로 천이된다.
한편, 상술한 명함 작성 화면 F11B1에서, 「삭제」가 선택되면, 표시 화면이 삭제 화면 F11B5로 천이된다. 이 삭제 화면 F11B5에서는, 타이틀 바로서 「삭제」가 표시되고, 중단에는 「삭제하겠습니다.」의 취지의 메시지가 표시되고, 그 아래에는 커서 키(52B) 및 결정 키(52A)가 할당된 「No」 및 「Yes」를 나타내는 마크가 표시되는 한편, 하단의 「리턴」을 나타내는 마크의 표시가 소거된다.
이윽고 삭제 화면 F11B5에서, 커서 키(52B)를 좌측 방향으로 기울면서 결정 키(52A)가 가압 조작되면, 콜 네임, 아이콘 및 코멘트를 삭제하지 않고, 원래의 로봇 메뉴 화면 F11로 천이되는 한편, 커서 키(52B)를 우측 방향으로 기울면서 결정 키(52A)가 가압 조작되면, 콜 네임, 아이콘 및 코멘트를 삭제한 후, 원래의 로봇 메뉴 화면 F11로 천이된다.
또 상술한 명함 작성 화면 F11B1 및 등록·변경 화면 F11B2에서, 「리턴」에 대응하는 리저브 키(52C)가 가압 조작되면, 표시 화면이 원래의 로봇 메뉴 화면 F11로 천이된다.
계속해서 도 27에 도시한 바와 같이, 최초로 표시된 등록·변경 화면 F11B2에서, 「아이콘」이 지정되면, 중단의 리스트 항목을 대신하여, 「아이콘」을 선택하기 위한 선택 필드와, 결정 키(52A)가 할당된 「OK」를 나타내는 마크가 표시된다. 이 선택 필드 내의 선두 위치에 커서가 맞추어지면, 표시 화면이 아이콘 선택 화면 F11B7로 천이된다(등록·변경 화면 F11B6).
이 아이콘 선택 화면 F11B7에서는, 타이틀 바로서 「아이콘의 선택」이 표시되고, 중단에 선택 가능한 복수 종류의 그림 문자가 그 명칭(예를 들면 로봇(1) 마크 1∼4)과 함께 리스트 표시되어 있다.
이윽고 아이콘 선택 화면 F11B7에서, 아이콘으로서 원하는 그림 문자와 그 명칭이 선택된 후, 원래의 등록·변경 화면 F11B6이 표시된 상태에서, 결정 키(52A)가 가압 조작되면, 중단의 선택 필드를 대신하여, 「아이콘을 등록·변경하였습니다.」의 취지의 메시지가 표시되는 한편, 하단의 「리턴」을 나타내는 마크의 표시가 소거된다(등록·변경 화면 F11B8).
그 결과 등록·변경 화면 F11B8에서, 사용자의 선택에 의해 로봇(1)에 고유의 그림 문자 및 그 명칭으로서 아이콘이 등록되거나 변경된 후, 「OK」에 대응하는 결정 키(52A)가 가압 조작되면, 표시 화면이 최초로 표시된 등록·변경 화면 F11B2로 천이된다.
또한 도 28에 도시한 바와 같이, 최초로 표시된 등록·변경 화면 F11B2에서, 「코멘트」가 지정되면, 중단의 리스트 항목을 대신하여, 「코멘트」를 문자 입력하기 위한 입력 필드와, 결정 키(52A)가 할당된 「OK」를 나타내는 마크가 표시된 다(등록·변경 화면 F11B9). 이 입력 필드 내의 선두 위치에 커서가 맞추어지면, 표시 화면이 상술한 문자 입력 화면 F4CA로 천이된다. 이 때 문자 입력 화면에서는 「히라가나」를 나타내는 입력 모드로 설정되어 있다.
이윽고 문자 입력 화면 F4CA에서, 예를 들면 「불타는 집단」과 같이 코멘트가 결정된 후, 원래의 등록·변경 화면 F11B9가 표시된 상태에서, 결정 키(52A)가 가압 조작되면, 중단의 입력 필드를 대신하여, 「코멘트를 등록·변경하였습니다.」의 취지의 메시지가 표시되는 한편, 하단의 「리턴」을 나타내는 마크의 표시가 소거된다(등록·변경 화면 F11B10).
그 결과 등록·변경 화면 F11B10에서, 사용자의 선택에 의해 코멘트가 등록되거나 변경된 후, 「OK」에 대응하는 결정 키(52A)가 가압 조작되면, 표시 화면이 최초로 표시된 등록·변경 화면 F11B2로 천이된다.
(8-3) 기본 설정
또한 커뮤니케이터(50)는, 이미 등록이 행해진 로봇(1)과 통신 상태에 있을 때, 도 29에 도시한 바와 같이 표시부(51)에 로봇 메뉴 화면 F11을 표시한 상태에서, 메뉴 항목 중 「기본 설정」이 지정되면, 표시 화면을 해당 로봇 메뉴 화면으로부터 기본 설정 화면 F11C1로 천이시킨다.
이 기본 설정 화면 F11C1에서는, 타이틀 바로서 「기본 설정」이 표시되고, 중단에는 「음량 설정」 및 「시계 설정」이 리스트 표시되고, 최하단의 좌측에는 「종료」를 나타내는 마크를 대신하여, 대응하는 리저브 키(52C)에 할당된 기능이 동일한 「리턴」을 나타내는 마크가 표시된다.
이 기본 설정 화면 F11C1에서, 「음량 설정」이 선택되면, 표시 화면이 음량 설정 화면 F11C2로 천이된다. 이 음량 설정 화면 F11C2에서는 타이틀 바로서 「음량 설정」이 표시되고, 중단에 「음 소거」, 「소음」, 「중음」 및 「대음」과 같이 4 단계의 설정 레벨이 리스트 표시되어 있다. 이 음량 설정 화면 F11C2에서의 최하단의 표시 내용은 기본 설정 화면 F11C1과 마찬가지이다.
이 음량 설정 화면 F11C2에서, 예를 들면 「중음」이 선택되면, 중단의 리스트 항목을 대신하여, 「음량을 중음으로 설정하였습니다.」의 취지의 메시지가 표시됨과 함께, 그 아래에 결정 키(52A)가 할당된 「OK」를 나타내는 마크가 표시되는 한편, 하단의 「리턴」을 나타내는 마크의 표시가 소거된다(음량 설정 화면 F11C 3). 이와 함께 로봇(1)에서 해당 로봇(1)이 발성하는 음성의 음량을 「중음」에 대응한 설정 레벨로 설정 변경된다.
그 결과 음량 설정 화면 F11C3에서, 사용자의 선택에 의해 로봇(1)의 발성 음량이 소망 레벨로 설정된 후, 「OK」에 대응하는 결정 키(52A)가 가압 조작되면, 표시 화면이 해당 음량 설정 화면 F11C3부터 원래의 기본 설정 화면 F11C1로 천이된다.
한편, 도 30에 도시한 바와 같이, 기본 설정 화면 F11C1에서, 「시계 설정」이 선택되면, 표시 화면이 시계 설정 화면 F11C4로 천이된다. 이 시계 설정 화면 F11C4에서는, 타이틀 바로서 「시계 설정」이 표시되고, 중단에 「년·월·일」, 「시분」 및 「UTC(Universal Time Count)」와 같이 3 종류의 시계 설정 내용이 리스트 표시되어 있다. 이 시계 설정 화면 F11C4에서의 최하단의 표시 내용은 기본 설정 화면 F11C1과 마찬가지이다.
이 시계 설정 화면 F11C4에서, 예를 들면 「년·월·일」이 선택되면, 중단의 리스트 항목을 대신하여, 년, 월 및 일의 3 종류의 시계 설정 내용을 입력하기 위한 입력 필드와, 결정 키(52A)가 할당된 「OK」를 나타내는 마크가 표시된다(시계 설정 화면 F11C5). 이들 각 입력 필드 내의 선두 위치에 커서가 맞추어지면, 표시 화면이 상술한 문자 입력 화면 F4CA로 천이된다. 이 때 문자 입력 화면 F4CA에서는 「영숫자 기호」를 나타내는 입력 모드로 설정되어 있다.
이윽고 문자 입력 화면 F4CA에서, 년, 월 및 일에 대하여 현재의 날짜가 입력된 후, 원래의 시계 설정 화면 F11C5가 표시된 상태에서, 결정 키(52A)가 가압 조작되면, 중단의 3 종류의 입력 필드를 대신하여, 「년·월·일을 설정하였습니다.」의 취지의 메시지가 표시되는 한편, 하단의 「리턴」을 나타내는 마크의 표시가 소거된다(시계 설정 화면 F11C6).
그 결과 시계 설정 화면 F11C6에서, 사용자의 선택에 의해 년, 월 및 일의 날짜가 설정된 후, 「OK」에 대응하는 결정 키(52A)가 가압 조작되면, 표시 화면이 최초로 표시된 시계 설정 화면 F11C4로 천이된다.
계속해서 도 31에 도시한 바와 같이, 최초로 표시된 시계 설정 화면 F11C4에서, 「시간·분」이 지정되면, 중단의 리스트 항목을 대신하여, 시 및 분의 2 종류의 시계 설정 내용을 입력하기 위한 입력 필드와, 결정 키(52A)가 할당된 「OK」를 나타내는 마크가 표시된다(시계 설정 화면 F11C7). 이들 각 입력 필드 내의 선두 위치에 커서가 맞추어지면, 표시 화면이 상술한 문자 입력 화면 F4CA로 천이된다. 이 때 문자 입력 화면 F4CA에서는 「영숫자 기호」를 나타내는 입력 모드로 설정되어 있다.
이윽고 문자 입력 화면 F4CA에서, 시 및 분에 대하여 현재의 시각이 입력된 후, 원래의 시계 설정 화면 F11C7이 표시된 상태에서, 결정 키(52A)가 가압 조작되면, 중단의 3 종류의 입력 필드를 대신하여, 「시·분을 설정하였습니다.」의 취지의 메시지가 표시되는 한편, 하단의 「리턴」을 나타내는 마크의 표시가 소거된다(시계 설정 화면 F11C8).
그 결과 시계 설정 화면 F11C8에서, 사용자의 선택에 의해 년, 시 및 분의 시각이 설정된 후, 「OK」에 대응하는 결정 키(52A)가 가압 조작되면, 표시 화면이 최초로 표시된 시계 설정 화면 F11C4로 천이된다.
또한 도 32에 도시한 바와 같이, 최초로 표시된 시계 설정 화면 F11C4에서, 「UTC」가 지정되면, 중단의 리스트 항목을 대신하여, UTC 즉 만국 표준시(그리니치 표준시)에 대한 시차를 입력하기 위한 입력 필드와, 결정 키(52A)가 할당된 「OK」를 나타내는 마크가 표시된다(시계 설정 화면 F11C9). 이 입력 필드 내의 선두 위치에 커서가 맞추어지면, 표시 화면이 상술한 문자 입력 화면 F4CA로 천이된다. 이 때 문자 입력 화면 F4CA에서는 「영숫자 기호」를 나타내는 입력 모드로 설정되어 있다.
이윽고 문자 입력 화면 F4CA에서, 만국 표준시에 대한 시차(예를 들면 일본이면 「+9」)가 입력된 후, 원래의 시계 설정 화면 F11C9가 표시된 상태에서, 결정 키(52A)가 가압 조작되면, 중단의 UTC의 입력 필드를 대신하여, 「UTC를 설정하였 습니다.」의 취지의 메시지가 표시되는 한편, 하단의 「리턴」을 나타내는 마크의 표시가 소거된다(시계 설정 화면 F11C10).
그 결과 시계 설정 화면 F11C10에서, 사용자의 선택에 의해 만국 표준시에 대한 시차가 설정된 후, 「OK」에 대응하는 결정 키(52A)가 가압 조작되면, 표시 화면이 최초로 표시된 시계 설정 화면 F11C4로 천이된다.
(8-4) 로봇의 제어
또한 커뮤니케이터(50)는, 이미 등록이 행해진 로봇(1)과 통신 상태에 있을 때, 표시부(51)에 로봇 메뉴 화면 F11을 표시한 상태에서, 메뉴 항목 중 「제어」가 지정되면, 표시 화면을 해당 로봇 메뉴 화면 F11로부터 제어 화면 F11D1로 천이시킨다.
이 제어 화면 F11D1에서는, 도 33에 도시한 바와 같이, 타이틀 바로서 「제어」가 표시되고, 중단에는 「움직여」, 「알려줘」, 「놀자」 및 「사진」의 4 종류의 제어 내용이 리스트 표시되고, 최하단의 좌측에는 「종료」를 나타내는 마크를 대신하여, 대응하는 리저브 키(52C)에 할당된 기능이 동일한 「리턴」을 나타내는 마크가 표시된다.
이 제어 화면 F11D1에서, 「움직여」가 선택되면, 표시 화면이 움직임 선택 화면 F11D2로 천이된다. 이 움직임 선택 화면 F11D2에서는, 타이틀 바로서 「움직여」가 표시되고, 중단에 「전진」, 「후퇴」, 「오른쪽」, 「왼쪽」, 「앉아」, 「일어나」 및 「엎드려」와 같이 7 종류의 움직임 내용이 리스트 표시되어 있다. 이 움직임 선택 화면 F11D2에서의 최하단의 표시 내용은 제어 화면 F11D1과 마찬가 지이다.
이 움직임 선택 화면 F11D2에서, 예를 들면 「전진」이 선택되면, 표시 화면은 천이하지 않고 그대로이며, 커뮤니케이터(50)는 로봇(1)을 전진 동작을 실행시키기 위한 제어 신호를 해당 로봇(1)으로 송신한다.
그 결과 움직임 선택 화면 F11D2에서, 사용자의 선택에 의해 로봇(1)에 대하여 다양한 움직임을 실행시킨 후, 「리턴」에 대응하는 리저브 키(52C)가 가압 조작되면, 표시 화면이 해당 움직임 선택 화면 F11D2로부터 앞 화면의 제어 화면 F11로 천이된다.
계속해서 도 34에 도시한 바와 같이, 제어 화면 F11D1에서, 「알려줘」가 지정되면, 표시 화면이 질문 선택 화면 F11D3으로 천이된다. 이 질문 선택 화면 F11D3에서는, 타이틀 바로서 「알려줘」가 표시되고, 중단에 「몇살?」, 「심심해?」, 「괜찮아?」, 「졸려?」 및 「배고파?」와 같이 5 종류의 질문 내용이 리스트 표시되어 있다. 이 움직임 선택 화면 F11D3에서의 최하단의 표시 내용은, 제어 화면 F11D1과 마찬가지이다.
이 질문 선택 화면 FllD3에서, 예를 들면 「몇살?」이 선택되면, 커뮤니케이터(50)는 해당 질문에 대응한 제어 신호를 로봇(1)으로 송신하고, 해당 로봇(1)으로부터 대답(예를 들면 청년기)이 얻어졌을 때, 중단의 리스트 항목를 대신하여, 선두의 로봇(1)에 대응한 아이콘에 이어서 예를 들면 청년기를 나타내는 「지금 펑키 스테이지이다, 재밌다.」의 취지의 메시지가 표시되는 한편, 하단의 「리턴」을 나타내는 마크의 표시가 소거된다(질문 선택 화면 F11D4).
그 결과 질문 선택 화면 F11D3에서, 사용자의 선택에 의해 로봇(1)에 대하여 다양한 질문을 던져 그 대답을 받은 후, 「OK」에 대응하는 결정 키(52A)가 가압 조작되면, 표시 화면이 해당 질문 선택 화면 F11D3부터 원래의 로봇 메뉴 화면 F11로 천이된다.
또한 도 35에 도시한 바와 같이, 제어 화면 F11D1에서, 「놀자」가 지정되면, 표시 화면이 놀이 선택 화면 F11D5로 천이된다. 이 놀이 선택 화면 F11D5에서는, 타이틀바로서 「놀자」가 표시되고, 중단에 「춤춰라」, 「미디어 링크」 및 「끝」과 같이 3 종류의 질문 내용이 리스트 표시되어 있다. 이 놀이 선택 화면 F11D5에서의 최하단의 표시 내용은 제어 화면 F11D1과 마찬가지이다.
이 놀이 선택 화면 F11D5에서, 예를 들면 「춤춰라」가 선택되면, 커뮤니케이터(50)는 해당 요구에 대응한 제어 신호를 로봇(1)으로 송신한 후, 표시 화면이 해당 놀이 선택 화면 F11D5로부터 원래의 로봇 메뉴 화면 F11로 천이된다.
또한 도 36에 도시한 바와 같이, 제어 화면 F11D1에서, 「사진」이 지정되면, 표시 화면이 사진 화면 F11D6로 천이된다. 이 사진 화면 F11D6에서는, 타이틀 바로서 「사진」이 표시되고, 중단에 「사진 찍어라」의 취지의 메시지가 표시되어 있다. 이 사진 화면 F11D6에서의 최하단의 표시 내용은 제어 화면 F11D1과 마찬가지이다.
이 사진 화면 F11D6에서, 「사진 찍어라」가 지정되면, 커뮤니케이터(50)는 해당 요구에 대응한 제어 신호를 로봇(1)으로 송신한 후, 중단의 메시지를 대신하여, 선두의 로봇(1)에 대응한 아이콘에 이어서 예를 들면 「네, 치즈」의 취지의 메시지를 표시시키는 한편, 하단의 「리턴」을 나타내는 마크의 표시를 소거시킨다(사진 화면 F11D7).
이 때 로봇(1)은, 커뮤니케이터(50)를 소유하는 사용자의 얼굴에 초점을 맞춰 촬영한 후, 해당 촬영 결과를 커뮤니케이터(50)로 회신한다. 그 결과, 커뮤니케이터(50)는 사진 화면 F11D7 중단의 메시지를 대신하여, 로봇(1)으로부터 얻어진 촬영 화상을 표시시킨다(사진 화면 F11D8).
그 결과 사진 화면 F11D8에서, 사용자에 의해 「OK」에 대응하는 결정 키(52A)가 가압 조작되면, 표시 화면이 원래의 로봇 메뉴 화면 F11로 천이된다.
(8-5) 동작 모드의 변경
또한 커뮤니케이터(50)는 이미 등록이 행해진 로봇(1)과 통신 상태에 있을 때, 표시부(51)에 로봇 메뉴 화면 F11을 표시한 상태에서, 메뉴 항목 중 「모드 선택」이 지정되면, 표시 화면을 해당 로봇 메뉴 화면 F11부터 모드 선택 화면 F11E1로 천이시킨다.
이 모드 선택 화면 F11E1에서는, 도 37에 도시한 바와 같이, 타이틀 바로서 「모드 선택」이 표시되고, 중단에는 「휴식」, 「자율」 및 「슬립」의 3 종류의 모드가 리스트 표시되고, 최하단의 좌측에는 「종료」를 나타내는 마크를 대신하여, 대응하는 리저브 키(52C)에 할당된 기능이 동일한 「리턴」을 나타내는 마크가 표시된다.
이러한 모드 선택 화면 F11E1에서, 리스트 표시된 「휴식」「자율」 및 「슬립」의 3 종류의 모드 중, 현재 상태에 해당하는 모드에는 선두에 「※」를 나타내 는 마크가 부가되고, 사용자가 현재의 모드를 용이하게 눈으로 확인할 수 있도록 되어 있다(모드 선택 화면 F11E2).
이 모드 선택 화면 F11E1에서, 「휴식」이 선택되면, 커뮤니케이터(50)는 해당 요구에 대응한 제어 신호를 로봇(1)으로 송신한 후, 표시 화면이 휴식 모드 확인 화면 F11E2로 천이된다.
이 휴식 모드 확인 화면 F11E2에서는, 타이틀 바로서 「휴식」이 표시되고, 중단에 「휴식 모드로 설정하였습니다.」의 취지의 메시지가 표시되고, 그 아래에 결정 키(52A)가 할당된 「OK」를 나타내는 마크가 표시되는 한편, 하단의 「리턴」을 나타내는 마크의 표시가 소거된다.
그 결과 휴식 모드 확인 화면 F11E2에서, 사용자에 의해 「OK」에 대응하는 결정 키(52A)가 가압 조작되면, 표시 화면이 원래의 로봇 메뉴 화면 F11로 천이된다.
또한 도 38에 도시한 바와 같이, 모드 선택 화면 F11E1에서, 「슬립」이 선택되면, 커뮤니케이터(50)는 해당 요구에 대응한 제어 신호를 로봇(1)으로 송신한 후, 표시 화면이 슬립 모드 확인 화면 F11E3으로 천이된다.
이 슬립 모드 확인 화면 F11E3에서는, 타이틀 바로서 「슬립」이 표시되고, 중단에 「슬립 모드로 설정하였습니다. 안녕히 주무세요.」의 취지의 메시지가 표시되고, 하단의 「리턴」을 나타내는 마크의 표시가 소거된다.
그 결과 슬립 모드 확인 화면 F11E3에서, 소정의 시간표를 표시한 후, 자동적으로 표시 화면이 원래의 로봇 메뉴 화면 F11로 천이된다.
또 로봇(1)은, 해당 로봇(1)에 전용 배터리 충전 장치(이하, 이것을 스테이션이라고 함)에 탑재되어 있는 경우에는, 소정의 자세로 보유되어 있기 때문에, 상술한 동작 모드 중 슬립 모드만 선택할 수 있도록 되어 있다.
또한 로봇(1)은, 사용자에게 안아 올려지는 동안에는, 4개의 다리부 유닛(3A∼3D)이 접지하지 않기 때문에, 자율 모드 및 슬립 모드만 선택할 수 있도록 되어 있다.
(8-6) 성장 설정
또한 커뮤니케이터(50)는, 이미 등록이 행해진 로봇(1)과 통신 상태에 있을 때, 표시부(51)에 로봇 메뉴 화면 F11을 표시한 상태에서, 메뉴 항목 중 「성장 설정」이 지정되면, 표시 화면을 해당 로봇 메뉴 화면 F11로부터 성장 설정 화면 F11F1로 천이시킨다.
이 성장 설정 화면 F11F1에서는, 도 39에 도시한 바와 같이, 타이틀 바로서 「성장 설정」이 표시되고, 중단에는 「성장 스피드」 및 「성장 리세트」의 2가지의 선택지가 표시되고, 최하단의 좌측에는 「종료」를 나타내는 마크를 대신하여, 대응하는 리저브 키(52C)에 할당된 기능이 동일하게 되는 「리턴」을 나타내는 마크가 표시된다.
이 성장 설정 화면 F11F1에서, 「성장 스피드」가 선택되면, 표시 화면이 성장 스피드 화면 F11F2로 천이된다. 이 성장 스피드 화면 F11F2에서는 타이틀 바로서 「성장 스피드」가 표시되고, 중단에는 「보통」, 「빠름」, 「느림」 및 「스톱」의 4 단계의 속도 레벨이 리스트 표시되어 있다. 이 성장 스피드 화면 F11F2 에서의 최하단의 표시 내용은 성장 설정 화면 F11F1과 마찬가지이다.
이들 속도 레벨은 「보통」을 통상의 성장 속도로 한 경우, 「빠름」은 「보통」의 3배의 속도로 설정되고, 「느림」은 「보통」의 3배의 느림으로 설정되어 있다. 또한 「스톱」은, 성장하지 않는 것을 나타내고, 이 경우 가로 방향 성장(타입 변화)도 하지 않도록 설정되어 있다.
이 성장 스피드 화면 F11F2에서, 예를 들면 「빠름」이 선택되면, 커뮤니케이터(50)는 해당 속도 레벨에 대응한 제어 신호를 로봇(1)으로 송신한 후, 표시 화면을 중단의 리스트 표시를 대신하여, 「변경해도 됩니다.」의 취지의 메시지를 표시하고, 그 아래에는 커서 키(52B) 및 결정 키(52A)가 할당된 「No」 및 「Yes」를 나타내는 마크를 표시하는 한편, 하단의 「리턴」을 나타내는 마크의 표시를 소거한다(성장 스피드 화면 F11F3).
이윽고 성장 스피드 화면 F11F3에서, 커서 키(52B)를 좌측 방향으로 기울이면서 결정 키(52A)가 가압 조작되면, 중단의 메시지를 대신하여, 「안녕히 주무세요. 다음에 일어났을 때 변경되어 있을 것입니다.」의 취지의 메시지가 표시되는 한편, 「No」 및 「Yes」를 나타내는 마크가 소거된다(성장 스피드 화면 F11F4).
이 경우, 로봇(1)은 성장 속도를 커뮤니케이터(50)로부터 선택된 속도로 변경한 후, 일단 해당 커뮤니케이터(50)와 통신을 셧 다운하고, 그 후 재기동 후부터 해당 변경한 성장 속도를 반영시키도록 되어 있다.
이것에 대하여 커서 키(52B)를 우측 방향으로 기울이면서 결정 키(52A)가 가압 조작되면, 성장 스피드의 변경을 하지 않는다고 판단되어, 그대로 원래의 로봇 메뉴 화면 F11로 천이된다.
이 성장 설정 화면 F11F1에서, 도 40에 도시한 바와 같이, 「성장 리세트」가 선택되면, 표시 화면이 성장 리세트 화면 F11F5로 천이된다. 이 성장 리세트 화면 F11F5에서는 타이틀 바로서 「성장 리세트」가 표시되고, 중단에는 「리세트 전에 커뮤니케이터(50)를 확인하겠습니다.」의 취지의 메시지가 표시되고, 그 아래에 결정 키(52A)가 할당된 「OK」를 나타내는 마크가 표시되는 한편, 최하단의 좌측에는 「리턴」을 나타내는 마크를 대신하여, 대응하는 리저브 키(52C)에 할당된 기능이 동일하게 되는 「중지」를 나타내는 마크가 표시된다.
이 성장 리세트 화면 F11F5에서, 결정 키(52A)가 가압 조작되면, 중단의 메시지를 대신하여, 「로봇(1)의 우측 앞발의 볼록살을 눌러 주십시오.」의 취지를 나타내는 메시지가 표시된다(성장 리세트 화면 F11F6).
이윽고 커뮤니케이터(50)는, 이 성장 리세트 화면 F11F6이 표시된 상태에서, 사용자에 의해 로봇(1)의 우측 앞발의 볼록살에 대응한 터치 센서의 유효한 검지 결과가 해당 로봇(1)으로부터 얻어지면, 계속해서 해당 성장 리세트 화면의 중단의 표시 내용을 「로봇(1)의 왼쪽 앞발의 볼록살을 눌러 주십시오.」의 취지의 메시지를 대신한 화면 F11F7로 천이시킨다.
이러한 성장 리세트 화면 F11F7이 표시된 상태에서, 사용자에 의해 로봇(1)의 왼쪽 앞발의 볼록살에 대응한 터치 센서(14)의 유효한 검지 결과가 해당 로봇(1)으로부터 얻어지면, 계속해서 해당 성장 리세트 화면 F11F7의 중단의 표시 내용을, 선두의 로봇(1)에 대응한 아이콘에 이어서 「지금까지 키워주셔서 고맙습 니다. 이것으로 정말 이별이군요. 여러 일이 있었죠. 이제 헤어지게 되었으니, 좋아하던 춤을 출께요.」의 취지의 메시지와, 결정 키(52A)가 할당된 「OK」를 나타내는 마크를 대신하는 화면 F11F8로 천이시킨다.
그리고 로봇(1)이 특정한 댄스를 추기 시작함과 함께, 이 성장 리세트 화면 F11F8에서 결정 키(52A)가 가압 조작되면, 중단의 메시지를 대신하여, 「리세트해도되겠지요.」의 취지를 나타내는 메시지가 표시되고, 그 아래에는 커서 키 및 결정 키(52A)가 할당된 「No」 및 「Yes」를 나타내는 마크가 표시되는 한편, 하단의 「리턴」을 나타내는 마크의 표시가 소거된다(성장 리세트 화면 F11F9).
이윽고 성장 스피드 화면 F11F9에서, 커서 키(52B)를 좌측 방향으로 기울이면서 결정 키(52A)가 가압 조작되면, 중단의 메시지 대신에, 「안녕. 다음에 일어났을 때에는, 리세트되어 있을 것입니다.」의 취지의 메시지가 표시되는 한편, 「No」 및 「Yes」를 나타내는 마크가 소거된다(성장 스피드 화면 F11F10).
이 경우, 로봇(1)은 춤을 정지한 후, 해당 커뮤니케이터(50)와 통신을 셧 다운함과 함께, 각종 데이터 내용을 리세트하고, 그 후 사용자에 의해 재기동되었을 때, 새로운 성장 과정(성장 단계의 「탄생기」)으로부터 성장을 개시하도록 되어 있다.
그 때, 로봇(1)이 리세트하는 데이터 내용에는, 성장 결과, 학습 결과, 감정·본능값, 명함 정보 등이 있으며, 리세트하지 않은 데이터 내용에는, 사진에 의한 촬영 결과, 커뮤니케이터 등록 등이 있다.
이것에 대하여 커서 키(52B)를 우측 방향으로 기울이면서 결정 키(52A)가 가 압 조작되면, 성장 리세트를 행하지 않는다고 판단되어, 로봇(1)이 춤을 정지함과 함께, 그대로 원래의 로봇 메뉴 화면 F11로 천이된다.
(9) 감정 및/또는 본능과 커뮤니케이터(50)의 표시 내용과의 관계
이어서 이 로봇(1)에서의 감정 및/또는 본능 표현과, 커뮤니케이터(50)의 표시부(51)에 표시되는 그림 문자 P1(도 41(B))의 내용과의 관계에 대하여 설명한다.
이 커뮤니케이터(50)에서는, 100 종류 정도의 독자의 그림 문자를 나타내는 그림 문자 데이터가 프로그램용 ROM 및 RAM(57)에 미리 저장되어 있고, 로봇(1)으로부터 송신되는 행동 결정 정보 S21(도 7)에 기초하여, 대응하는 최적의 그림 문자 P1에 대응하는 그림 문자 데이터를 선택적으로 판독하고, 해당 그림 문자 데이터에 기초한 그림 문자를 표시부(51)의 표시 화면에 표시하도록 되어 있다.
즉 이 로봇(1)에서는, 상술한 바와 같이 컨트롤러(10)의 기능 중 하나인 행동 선택부(72)에서, 대응하는 상태 천이표(76)(도 9)에 기초하여 계속되는 행동이나 동작을 결정한다.
이 행동 선택부(72)는, 상태 인식부(70)로부터 「어루만져졌음(PAT)」이라는 인식 결과가 제공된 경우에는, 상술한 바와 같이 대응하는 상태 천이표(76)를 이용하여 확률적으로 다음 행동이나 동작을 결정하고, 결정한 행동이나 동작을 행동 결정 정보 S21로서 커맨드 변환부(74)로 출력하는 한편, 이와 함께 본능 감정부(71)에서의 「기쁨」의 파라미터의 값을 판독하고, 이것을 커맨드 변환부(74)에 통지하도록 되어 있다.
그 결과 이 때 커맨드 변환부(74)는, 행동 선택부(72)로부터 제공되는 행동 결정 정보 S21에 기초하여, 필요한 액추에이터(241∼24n)(도 2)를 간접적으로 구동함으로써 지정된 「기쁨」을 표현하는 행동을 행하게 하는 한편, 커뮤니케이터(50)에 해당 행동 결정 정보 S21을 송신함으로써, 해당 커뮤니케이터(50)에서 표시부에 「기쁨」에 대응한 웃는 얼굴을 나타내는 그림 문자 P1을 표시시킨다. 이에 의해 커뮤니케이터(50)는, 로봇(1)이 마치 웃고 있는 것처럼, 「기쁨」의 감정을 표정으로서 표현하는 것에 수반하여, 해당 「기쁨」의 감정을 표시부에 표시시킬 수 있다.
또한 행동 선택부(72)는, 상태 인식부(70)로부터 「맞았음(HIT)」이라는 인식 결과가 제공되는 경우에는, 대응하는 상태 천이표(55)를 이용하여 확률적으로 다음 행동이나 동작을 결정하고, 결정한 행동이나 동작을 행동 결정 정보 S21로서 커맨드 변환부(74)로 출력하는 한편, 이와 함께 본능 감정부(71)에서의 「분노」의 파라미터의 값을 판독하고, 이것을 커맨드 변환부(74)에 통지하게 되어 있다.
그 결과 이 때 커맨드 변환부(74)는, 행동 선택부(72)로부터 제공되는 행동 결정 정보 S21에 기초하여, 필요한 액추에이터(241∼24n)를 간접적으로 구동함으로써, 지정된 「분노」를 나타내는 행동을 행하게 하는 한편, 커뮤니케이터(50)에 해당 행동 결정 정보 S21을 송신함으로써, 해당 커뮤니케이터(50)에서 표시부(51)에 「분노」에 대응한 무서운 얼굴을 나타내는 그림 문자 P1을 표시시킨다. 이에 의해 커뮤니케이터(50)는 로봇(1)이 마치 화나 있는 것처럼, 「분노」의 감정을 표정으로서 표현하는 것에 수반하여, 해당 「분노」의 감정을 표시부(51)에 표시시킬 수 있다.
이와 같이 하여 이 커뮤니케이터(50)에서는, 로봇(1)이 「어루만져졌음」에 대한 「기쁨」의 감정이나, 「맞았음」에 대한 「분노」의 감정을 행동이나 동작으로 행하는 것에 수반하여, 해당 「기쁨」이나 「분노」의 감정을 대응하는 최적의 그림 문자로 표시부(51)의 표시 화면에 표시시킬 수 있도록 되어 있다.
또 상술한 실시예에서는 커뮤니케이터(50)의 표시부에, 「기쁨」 및 「분노」의 2개의 감정(정서)에 대응한 그림 문자 P1을 화면 표시시키도록 한 경우에 대해 설명했지만, 본 발명은 이것에 한하지 않고, 이들의 감정 외에 또는 이들 감정을 대신하여 「슬픔」, 「놀라움」, 「공포」 및 「혐오」 등의 다른 감정(정서)을 대응하는 최적의 그림 문자로 화면 표시시키도록 해도 되며, 또한 「운동욕」, 「애정욕」, 「식욕」 및 「호기심」 등의 본능을 대응하는 최적의 그림 문자 P1로 화면 표시시키도록 해도 된다.
(10)명함 정보의 교환
로봇(1) 사이 또는 로봇(1) 및 커뮤니케이터(50)와의 사이의 무선 통신에 있어서, 예를 들면 블루투스(Bluetooth) 등의 근거리 무선 통신을 이용하는 경우, 로봇(1)끼리 또는 로봇(1) 및 커뮤니케이터(50)와의 사이에서 명함 정보를 주고 받는 방법에 대하여 설명한다.
예를 들면 로봇(1) 및 커뮤니케이터(50)와의 사이의 무선 통신에서는 마스터(주)로 되는 로봇(1)이 슬레이브(종)가 되는 커뮤니케이터(50)와의 사이에서, 블루투스의 접속 절차에 따르는 동기 확립 페이즈 및 통신 접속 페이즈의 각 단계를 거쳐, 코넥트 시퀀스로서 명함 정보를 교환할 수 있도록 되어 있다.
우선 동기 확립 페이즈에서는, 도 42에 도시한 바와 같이 마스터가 되는 로봇(1)은 상대를 특정하지 않고 IQ(inquiry) 패킷을 발신한다. 그리고 슬레이브가 되는 커뮤니케이터(50)가 이 IQ 패킷을 수신했을 때, 해당 슬레이브의 속성 통지로서 FHS(frequency hopping sequence) 패킷을 마스터가 되는 로봇(1)으로 송신한다.
마스터가 되는 로봇(1)은 FHS 패킷을 수신했을 때, 해당 슬레이브가 되는 커뮤니케이터(50)를 특정하도록 확인용 ID 패킷을 송신한다.
그 결과, 슬레이브가 되는 커뮤니케이터(50)로부터 그 응답으로서 ID 패킷이 송신되면, 마스터가 되는 로봇(1)은 해당 마스터의 속성 통지로서 FHS 패킷을 슬레이브가 되는 커뮤니케이터(50)로 송신한다.
그리고 마스터가 되는 로봇(1)은, 슬레이브가 되는 커뮤니케이터(50)로부터 그 응답으로 된 ID 패킷을 수신하면, 해당 슬레이브가 되는 커뮤니케이터(50)와의 사이에서, 블루투스로 채용되고 있는 스펙트럼 확산 방식에 대하여 주파수 호핑의 변화 타이밍을 동기시키는, 소위 동기 확립을 실현할 수 있다.
계속해서 통신 접속 페이즈에서는, 도 43에 도시한 바와 같이, 마스터가 되는 로봇(1)은 슬레이브가 되는 커뮤니케이터(50)와의 사이에서, 소정의 인증 절차에 따라 서로 접속 인증을 행하고, 인증 가능한 경우에는 소정의 암호화 절차에 따라 서로 암호화를 행하는 한편, 인증 불가능한 경우에는 대기하여 페이즈로 이행한다.
그리고 암호화를 행한 후, 마스터가 되는 로봇(1)은 슬레이브가 되는 커뮤니 케이터(50)와의 사이에서 데이터 전송 가능한 상태로 되며, 도 44에 도시한 바와 같은 코넥트 시퀀스를 명함 정보의 교환을 중심으로 실행한다.
이러한 코넥트 시퀀스에서는, 우선 마스터가 되는 로봇(1)은 슬레이브가 되는 커뮤니케이터(50)에 서비스 리스트(즉 제공 가능한 기능의 리스트)의 검색 또는 요구를 행하고, 해당 슬레이브가 되는 커뮤니케이터(50)로부터 제공 가능한 서비스의 리스트가 그 응답으로서 통지되는 것을 기다린다.
계속해서 마스터가 되는 로봇(1)은 슬레이브가 되는 커뮤니케이터(50)로부터 얻어진 서비스 리스트 중 원하는 서비스를 선택하여, 해당 서비스의 제공의 요구를 슬레이브가 되는 커뮤니케이터(50)로 송신한다. 슬레이브가 되는 커뮤니케이터(50)는 마스터가 되는 로봇(1)으로부터의 요구에 대응하여, 해당 서비스의 제공이 가능한지의 여부의 응답을 돌려준다.
이 후, 마스터가 되는 로봇(1)은 슬레이브가 되는 커뮤니케이터(50)와의 사이에서 로봇의 명함 정보의 교환을 행한다.
이 명함 정보는, 시스템층에서의 접속이나 관리를 위한 정보가 바이너리(Binary)로 기술된 SCARD와, 어플리케이션마다 정의된 로봇(1)의 명함 내용이 텍스트 형식(XML)으로 기술된 ACARD로 이루어진다.
구체적으로 SCARD에는, 「BtDeviceCategory」로 표시되는 블루투스의 디바이스 카테고리와, 「BtAddress」로 표시되는 블루투스의 어드레스 번호와, 「Btname」로 표시되는 이름과, 「iconID」로 표시되는 아이콘의 종류와, 「BtLang」로 표시되는 언어가 바이너리로 기술되어 있다. 또한 ACARD에는 로봇(1)의 종류를 나타 내는 「ERF-310AW10」과, 정보를 나타내는 「갓태어난 로봇」과, 코멘트를 나타내는 「귀여운 라테입니다.」가 텍스트 형식으로 기술되어 있다.
실제로 마스터가 되는 로봇(1)은, 자신의 SCARD를 슬레이브가 되는 커뮤니케이터(50)로 송신하여, 해당 슬레이브가 되는 커뮤니케이터(50)로부터 수신한 취지의 응답이 송신되는 것을 기다린다.
계속해서 마스터가 되는 로봇(1)은, 슬레이브가 되는 커뮤니케이터(50)에 대하여 해당 커뮤니케이터(50)가 갖는 SCARD의 요구를 행하고, 해당 커뮤니케이터(50)로부터 SCARD가 송신되는 것을 기다린다.
또한 마스터가 되는 로봇(1)은, 자신의 ACARD를 슬레이브가 되는 커뮤니케이터(50)로 송신하여, 해당 슬레이브가 되는 커뮤니케이터(50)로부터 수신한 취지의 응답이 송신되는 것을 기다린다.
계속해서 마스터가 되는 로봇(1)은, 슬레이브가 되는 커뮤니케이터(50)에 대하여 해당 커뮤니케이터(50)가 갖는 ACARD의 요구를 행하고, 해당 커뮤니케이터(50)로부터 ACARD가 송신되는 것을 기다린다.
이와 같이 명함 정보의 교환을 한 후, 마스터가 되는 로봇(1)은 슬레이브가 되는 커뮤니케이터(50)와의 사이에서, 각종 어플리케이션에 대응한 데이터 통신을 행하고, 이윽고 도 43으로 되돌아가, 통신을 종료하려고 할 때에는 해당 슬레이브가 되는 커뮤니케이터(50)와의 사이에서 통신을 절단한다.
(11) 로봇(1) 사이 회화의 시퀀스
도 45에서, 로봇(1)은, 일정 주기(예를 들면 30초마다)에 다른 로봇(1)이나 커뮤니케이터(50)가 주위에 있는지의 여부를 IQ 패킷을 발신함으로써 확인하고 있다. IQ 패킷에 응답한 로봇(1)이나 커뮤니케이터(50)가 존재했을 때, 마스터가 되는 로봇은, 해당 로봇(1)이나 커뮤니케이터(50)를 슬레이브로서 동기 확립을 행한다.
이어서 마스터가 되는 로봇(1)은 슬레이브가 되는 로봇(1)이나 커뮤니케이터(50)와 접속 인증 및 계속되는 암호화를 행한 후, 명함 정보의 교환을 포함하는 코넥트 시퀀스를 실행한다.
그리고 마스터가 되는 로봇(1)은 회화 요구를 나타내는 시나리오 ID를 슬레이브가 되는 로봇(1)에게만(커뮤니케이터(50)는 제외함) 조회한다. 이러한 슬레이브가 되는 로봇(1)은 마스터가 되는 로봇(1)으로부터 얻어지는 시나리오 ID에 대하여, 대답이 가능한지의 여부를 자기의 시나리오 데이터베이스(상술한 도 7에 도시한 지식 정보부(85))로부터 검색하고, 가능하면 OK 응답을 한다.
이윽고 마스터가 되는 로봇(1)은, 예를 들면 「발화1」의 시나리오를 텍스트 데이터로서 슬레이브가 되는 로봇(1)으로 송신함과 동시에, 슬레이브가 되는 커뮤니케이터(50)가 통신 접속되어 있으면 해당 커뮤니케이터(50)에도 송신한다.
슬레이브가 되는 로봇(1)이나 커뮤니케이터(50)는 마스터가 되는 로봇(1)으로부터 제공된 텍스트 데이터에 기초한 「발화1」에 대하여 시나리오를 따라 「발화2」를 선택하고, 해당 「발화2」를 텍스트 데이터로서 마스터가 되는 로봇(1)으로 송신한다.
마스터가 되는 로봇(1)은, 받은 텍스트 데이터에 기초한 「발화2」를, 슬레 이브가 되는 커뮤니케이터(50)가 통신 접속되어 있으면 해당 커뮤니케이터(50)로 송신한다. 이 후, 마스터가 되는 로봇(1)은 슬레이브가 되는 로봇(1)에 대하여 시나리오에 의한 회화의 종료 요구를 송신함으로써, 해당 슬레이브가 되는 로봇(1)으로부터 응답이 얻어졌을 때, 현재의 코넥트 시퀀스를 종료한다.
이와 같이 로봇(1)끼리 통신 접속되고 또한 시나리오에 의한 회화 시퀀스가 가능한 상태로 되었을 때, 해당 로봇(1)끼리 접속되어 있는 커뮤니케이터(50)가 존재하는 경우에는, 이 커뮤니케이터(50)는 마스터가 되는 로봇으로부터 시나리오에 의한 회화 내용을 수신하여 표시부에 표시시킬 수 있다.
(12) 음성 인식에 의한 시나리오 발동
마스터가 되는 로봇(1)이 자율적으로 다른 슬레이브가 되는 로봇(1)이나 커뮤니케이터(50)와 접속하여 통신할 때에는, 해당 마스터가 되는 로봇(1)이 사용자에 의한 커뮤니케이터(50)의 조작 결과나, 사용자가 발한 음성의 인식 결과 또는 사용자의 얼굴의 인식 결과 등에 기초하여, 슬레이브가 되는 로봇(1)이나 커뮤니케이터(50)에 대하여 시나리오의 발동이나 통신 접속을 행함으로써, 커뮤니케이터(50)를 사용하는 사용자와 로봇(1)과의 인터랙션(상호 작용)성을 더 향상시킬 수 있도록 되어 있다.
(12-1) 로봇(1) 사이의 시나리오의 발동
우선 2대의 로봇(1)이 통신 접속한 경우에는, 마스터가 되는 로봇(1)이 슬레이브가 되는 로봇(1)에 대하여 인사 등의 시나리오를 발동한 후, 자율적으로 외부의 상황에 대응하여 적절하게 시나리오를 발동한다.
그 때, 사용자가 로봇(1)끼리의 회화 시나리오를 커뮤니케이터(50)를 이용하여 눈으로 확인하는 것을 소망하여 「친구」라는 말을 발성하면, 마스터가 되는 로봇(1)은 마이크로폰(16)을 통하여 집음한 해당 음성에 기초하여, 슬레이브가 되는 로봇(1)에 대하여 자발적으로 시나리오의 발동을 개시함으로써, 사용자의 커뮤니케이터(50)의 표시부(51)에 시나리오를 표시시킬 수 있다.
이것에 대하여, 로봇(1) 사이의 통신이 비접속 상태일 때에 사용자로부터 「친구」라는 말이 발생하면, 마스터가 되는 로봇(1)은 IQ 패킷을 발신하여 다른 슬레이브가 되는 로봇(1)을 주위에서 탐색하고, 일정 기간(예를 들면 30초) 내에 탐색할 수 없게 된 경우에는 그 결과를 알리기 위한 동작을 행하여 사용자에게 알린다.
이와 같이 하여 사용자는 로봇(1) 사이의 시나리오 회화를 보려는 경우에는 특정한 말을 발하는 것만으로, 마스터가 되는 로봇(1)에게 자발적으로 시나리오를 발동시켜 그 시나리오를 자기의 커뮤니케이터(50)의 표시부에서 눈으로 확인할 수 있다. 또한 사용자는 로봇(1) 사이의 통신이 비접속인 경우라도 마스터가 되는 로봇(1)이 그 취지를 나타내는 동작을 함으로써, 미통신 상태인 것을 용이하게 인식할 수 있다.
실제로, 마스터가 되는 로봇(1)에서는, 상술한 도 7에서 다른 로봇과의 통신 접속 시에 컨트롤러(10) 내의 상태 인식부(70)가 「친구」라는 명령음을 인식하여 해당 인식 결과를 회화 관리부(75)에 제공하면, 해당 회화 관리부(75)가 지식 정보부(85)를 이용하여 해당 인식 결과에 기초한 시나리오 데이터를 생성함으로써, 시 나리오의 발동을 개시시킨다.
그리고 회화 관리부(75)는 해당 시나리오 데이터를 세션 서비스 관리부(83) 및 무선 통신 제어부(84)를 통하여 커뮤니케이터(50)로 송신함으로써, 해당 커뮤니케이터(50)에서 시나리오 데이터에 기초한 시나리오를 표시 화면에 표시시킬 수 있다.
이것에 대하여 마스터가 되는 로봇(1)에서는, 다른 로봇(1)과 비통신 접속시에는, 컨트롤러(10) 내의 상태 인식부(70)가 「친구」라는 명령음을 인식하여 해당 인식 결과를 회화 관리부(75)에 제공하고, 해당 회화 관리부(75)가 IQ 패킷을 세션 서비스 관리부(83) 및 계속되는 무선 통신 제어부(84)를 통하여 외부로 발신시킨다.
그리고 소정 시간 경과해도 통신 접속 결과가 상태 인식부(70)로부터 얻어지지 않을 때에는, 회화 관리부(75)는 행동 선택부(72)에 그 취지를 통지함으로써, 해당 행동 선택부(72)는 비통신 접속인 취지를 나타내는 소정의 행동 또는 동작을 결정하여, 로봇 자신에게 해당 행동 또는 동작을 발현시킬 수 있다.
(12-2) 인터랙션 시나리오의 발동
커뮤니케이터(50)를 사용하고 있는 사용자에 대하여 로봇(1)으로부터 「괜찮니?<YES><NO>」 등으로 질문하는 시나리오를 인터랙션 시나리오라고 한다. 이러한 인터랙션 시나리오를 로봇(1)으로부터 발동시키는 트리거로서는, 사용자가 존재할 가능성이 높은 경우가 바람직하기 때문에, 사용자가 발한 음성을 인식한 경우, 사용자의 얼굴 화상을 인식한 경우, 또는 사용자의 손을 센서 검지한 경우, 그 위에 커뮤니케이터(50)로부터의 입력이 있던 경우 등이 생각되어진다.
특히 음성 인식에 의해 인터랙션 시나리오를 발동시키는 경우에는, 사용자가 발하는 음성을 「이야기하자」 등의 특정한 언어로 정해 두면, 보다 한층 사용자가 의식적으로 이용하기 쉬워져 편리하다.
실제적으로, 로봇(1)에서는 상술한 도 7에서, 컨트롤러(10) 내의 상태 인식부가 「이야기하자」라는 명령음을 인식하여 해당 인식 결과를 회화 관리부(75)에 제공하면, 해당 회화 관리부(75)가 지식 정보부(85)를 이용하여 해당 인식 결과에 기초하여 인터랙션 시나리오를 나타내는 시나리오 데이터를 생성함으로써, 인터랙션 시나리오의 발동을 개시시킨다.
그리고 회화 관리부(75)는, 해당 시나리오 데이터를 세션 서비스 관리부(83) 및 무선 통신 제어부(84)를 통하여 커뮤니케이터(50)로 송신함으로써, 해당 커뮤니케이터(50)에서 시나리오 데이터에 기초한 인터랙션 시나리오를 표시 화면에 표시시킬 수 있다.
(12-3) 커뮤니케이터에의 접속
로봇(1)이 자율적으로 동작하고 있을 때, 사용자가 로봇(1)에 대하여 자신의 커뮤니케이터(50)에 접속하여, 로봇(1)이 발하는 혼잣말을 표시해 주길 원할 때가 있다. 이 때문에 사용자가 「로봇 채팅」이라고 음성을 발했을 때에, 로봇(1)이 해당 음성을 인식했을 때, 커뮤니케이터(50)와 통신 접속을 확립함과 함께 해당 커뮤니케이터(50)의 표시부에 로봇(1)이 발하는 혼잣말을 표시시킴에 따라, 사용자가 로봇(1)과 용이하게 커뮤니케이션을 취하여 친근감을 향상시킬 수 있다.
실제적으로, 로봇(1)에서는 상술한 도 7에서, 컨트롤러(10) 내의 상태 인식부가 「로봇 채팅」이라는 명령음을 인식하여 해당 인식 결과를 회화 관리부(75)에 제공하면, 해당 회화 관리부(75)가 LMS 커맨드에 부가된 발화 텍스트에 대응하는 텍스트 데이터를 세션 서비스 관리부(83) 및 무선 통신 제어부(84)를 통하여 커뮤니케이터(50)로 송신함으로써, 해당 커뮤니케이터(50)에서 텍스트 데이터에 기초한 발화 텍스트의 발화 내용을 표시 화면에 표시시킬 수 있다.
(13) 배터리 세이브
커뮤니케이터(50)는 휴대 기기로서, 항상 접속하고 있으면 배터리의 충전량이 곧 소비되기 때문에, 사용자가 내버려두는 경우, 예를 들면 5분간 사용자로부터의 조작이 전혀 없었을 때에 자동적으로 로봇(1)과의 통신 접속을 절단하는 것이라고 생각되어진다.
그러나 사용자는 그 동안 로봇(1)을 눈으로만 확인하는 경우로, 단순히 사용자가 소정 시간 전혀 커뮤니케이터(50)를 조작하지 않는다고 하여 로봇(1)과의 통신 접속을 일방적으로 절단하는 것은, 사용자의 의사에 반한 사용이 되어 바람직하지 못하다.
그 때문에 로봇(1)의 컨트롤러(10)는, 도 46에 도시한 배터리 세이브 처리 절차 RT1을 실행함으로써, 통신 접속 상태에 있는 커뮤니케이터(50)의 배터리의 소비량을 적극적으로 저감시키면서 사용자의 의사에 반하지 않도록 대처할 수 있다.
구체적으로 배터리세이브 처리 절차 RT1에서, 로봇(1)의 컨트롤러(10)는 커뮤니케이터(50)와의 통신 접속시에 또한 사용자에 의한 커뮤니케이터(50)의 조작이 종료한 시점부터 단계 SP0에 포함되고, 계속되는 단계 SP1에서 최초의 10분간의 접속이 계속되는 것을 기다린다.
계속해서 콘트롤러는 단계 SP2로 진행하여, 상술한 인터랙션 시나리오를 발동시켜 「심심해?<YES><NO>」와 같은 발화 내용을 커뮤니케이터(50)의 표시부(51)에 표시시킨 후, 단계 SP3으로 진행한다.
이 단계 SP3에서, 컨트롤러(10)는 커뮤니케이터(50)로부터 어떠한 응답이 있는지의 여부를 판단하고, 해당 판단 결과가 부정적이면 단계 SP4로 진행하여, 커뮤니케이터(50)와의 통신 접속을 2분간 절단한 후, 다시 접속시킨다.
이것에 대하여 단계 SP3에서 긍정 결과를 얻으면, 컨트롤러(10)는 사용자로부터의 응답이 있었다고 판단하여, 그대로 5분간 접속을 연장시키면서, 재차 단계 SP2로 되돌아가 마찬가지의 처리를 반복하게 한다.
계속해서 단계 SP6에서, 컨트롤러(10)는 재접속한 직후에 커뮤니케이터(50)의 표시부에 상술한 인터랙션 시나리오에 기초한 발화 내용을 표시시킨 후, 단계 SP7로 진행한다.
이 단계 SP7에서, 컨트롤러(10)는 커뮤니케이터(50)로부터 어떠한 응답이 있는지의 여부를 판단하여, 해당 판단 결과가 부정적이면 단계 SP8로 진행하고, 커뮤니케이터(50)와의 통신 접속을 4분간 절단한 후, 다시 접속시킨다.
이것에 대하여 단계 SP7에서 긍정 결과를 얻으면, 컨트롤러(10)는 사용자로부터의 응답이 있었다고 판단하여, 그대로 5분간 접속을 연장시키면서, 재차 단계 SP2로 되돌아가 마찬가지의 처리를 반복하게 한다.
이어서 단계 SP10에서, 컨트롤러(10)는 재접속한 직후에 커뮤니케이터(50)로부터 어떠한 응답이 있는지의 여부를 판단하고, 해당 판단 결과가 부정적이면 단계 SP11로 진행하여, 커뮤니케이터(50)와의 통신 접속을 6분간 절단한 후, 다시 접속시킨다.
이것에 대하여 단계 SP10에서 긍정 결과를 얻으면, 컨트롤러(10)는 사용자로부터의 응답이 있었다고 판단하여, 그대로 5분간 접속을 연장시키면서, 재차 단계 SP2로 되돌아가 마찬가지의 처리를 반복하게 한다.
계속해서 단계 SP12에서, 컨트롤러(10)는 재접속한 직후에 커뮤니케이터(50)의 표시부에 상술한 인터랙션 시나리오에 기초한 발화 내용을 표시시킨 후, 단계 SP13으로 진행한다.
이 단계 SP13에서, 컨트롤러(10)는 커뮤니케이터(50)로부터 어떠한 응답이 있는지의 여부를 판단하고, 해당 판단 결과가 부정적이면 재차 단계 SP11로 되돌아가, 해당 단계 SP11-SP12-SP13의 루프를 단계 SP13에서 긍정 결과를 얻기까지 반복한다.
실제적으로, 커뮤니케이터(50)는 5분간 전혀 조작되지 않았던 경우에는, 자동적으로 전원이 절단되도록 미리 설정되어 있고, 상술한 단계 SP11에서 로봇(1)이 커뮤니케이터(50)와의 통신 접속을 6분간 절단하면 그 시점에서 처리는 종료하게 된다.
단, 로봇(1)이 커뮤니케이터(50)와 통신 접속을 절단하고 있는 동안에, 사용자가 커뮤니케이터(50)의 표시 화면을 원하는 경우에는, 상술한 바와 같은 사용자 가「로봇 채팅」이라고 음성을 발했을 때에는, 로봇(1)과 커뮤니케이터(50)와의 통신 접속이 확립된다.
이와 같이 하면, 커뮤니케이터(50)가 로봇(1)과 통신 접속 상태에 있어도, 해당 로봇(1)으로부터의 질문에 기초하여, 사용자의 의사를 존중하면서 배터리의 소비량을 적극적으로 저감시킬 수 있다.
(14) 로봇간 무선 통신
(14-1) 무선 통신 시의 통신 상대 방향 특정 방법
로봇(1)끼리 무선 통신을 행할 때, 한쪽 또는 쌍방의 로봇(1)이 지향성을 갖지 않는 안테나 단자를 사용하고 있는 경우 등에는 통신 상대가 어느 방향에 있는지 특정하는 것이 곤란하게 된다. 또한, 무선 통신을 행해도, 제삼자가 본 경우, 교신 중인지의 여부를 판별하는 것이 곤란하다.
그래서, 통신을 확립한 후에, 교신 상황에서 주위로부터 얻어지는 소리나 적외선 등을 받도록 하면, 통신 상대가 있는 방향을 특정할 수 있고, 그 방향으로 머리를 돌릴 수 있다. 예를 들면, 통신 상대가 있는 소리를 발하고 있는 상태에서, 자기의 목을 돌리도록 하여 마이크로폰(16)(도 2)의 집음 상태로 변화를 갖게 하도록 한다.
(14-2) 무선 통신 시의 통신 상대까지의 거리 특정 방법
또, 로봇(1)끼리 무선 통신을 행할 때, 교신 상황에서 한쪽 로봇(1)이 소정의 소리를 실용상 충분한 강도로 발생시킴으로써, 상대방의 로봇(1)이 해당 소리의 도달 시간의 느림이나 소리의 감쇠량 등을 계측하여, 소정의 연산 처리를 실행함으 로써, 해당 로봇(1) 사이의 거리를 특정할 수 있다.
(14-3) 다언어간 커뮤니케이션
또한, 로봇(1) 사이의 통신에 있어서, 통신 내용으로서 미리 의미가 부여된 커맨드 및/또는 시맨틱스(semantics)를 나타내는 공통 데이터를 통신 상대에게 송신하도록 하여, 해당 데이터를 수신한 로봇(1)은 데이터에 기초하여 상대방의 송신 내용을 인식한다.
이와 같이 로봇(1) 사이에서는, 단순한 음성의 교환과는 달리, 언어에 의존하지 않는 커맨드나 시맨틱스를 나타내는 공통 데이터를 서로 송신함으로써, 상이한 언어 사이(즉 다국 언어의)의 커뮤니케이션을 성립시키도록 보이게 할 수 있다.
(14-4) 로봇간 회화의 인식 방법
또한 로봇(1)끼리 회화를 행하는 경우, 그 회화 내용을 쌍방의 로봇(1)의 사용자에게 알리도록, 무선 통신뿐만 아니라, 일상 언어에 의한 음성의 발성도 동시에 행하도록 한다.
즉 실제의 로봇(1) 사이에서의 회화는 해당 회화 내용을 나타내는 텍스트 데이터나, 상술한 커맨드 및/또는 시맨틱스를 나타내는 공통 데이터, 또한 감정 및/또는 본능을 나타내는 행동 결정 정보 S21(도 5)을, 쌍방의 로봇(1)이 갖는 무선 통신 수단(무선 LAN 카드(41))을 이용하여 서로 송신함으로써 행하지만, 해당 각 데이터를 송수신하는 타이밍으로 동기하여, 각 로봇(1)에서는 머리부 유닛(4)의 스피커(21)(도 2)로부터 임의의 소리를 발성시키거나, 머리부 유닛(4)이나 동체부 유닛(2)의 각 LED(15, 23)(도 2)를 소망 패턴으로 발광시키거나, 머리부 유닛(4)이나 각 다리부 유닛(3A∼3D)을 소망 패턴으로 가동시키도록 한다.
이 때 로봇(1) 사이에서는 회화의 인식에 음성 정보는 이용하지 않고, 무선 통신에 의한 데이터에 기초하여 회화 내용을 이해하도록 하고, 음성 그 밖의 정보는 사용자로의 통지에 이용한다.
(14-5) 무선 통신에 의한 모션 데이터 수신
로봇(1) 사이에서 무선 통신을 행할 때, 자기 로봇(1)이 갖고 있지 않은 동작 패턴이나 행동 패턴을 나타내는 모션 파일을 통신 상대의 로봇(1)이 가지고 있는 경우에는, 해당 모션 파일을 해당 통신 상대의 로봇(1)으로부터 송신받음으로써, 해당 모션 파일을 자율 모드용 메모리 카드(26A)(도 2)에 저장하면, 이러한 모션 파일에 기초한 동작 패턴이나 행동 패턴을 자신의 모션으로서 그 후 항상 사용할 수 있다.
즉 복수 로봇(1) 사이에서, 특정한 시나리오에 따른 회화를 행할 때, 회화 상대의 로봇(1)이 해당하는 시나리오, 모션을 갖고 있지 않은 경우, 무선 통신으로 회화 개시 전에 시나리오와 모션을 상대방에게 건네도록 한다. 그 결과, 로봇(1) 사이에서 시나리오 및 모션을 교환함으로써, 복수의 로봇(1)으로 구성하는 그룹 내에서, 유행어, 교사와 학생과의 관계, 커뮤니케이션 결과에 의한 성장 등을 시뮬레이트할 수 있다.
여기서, 상술한 시나리오는, 복수의 로봇(1)이 교신 상황에서, 장면의 순서, 대사 및 동작 등을 기록한 대본이나 각본으로서, 회화 인원수에 따라 회화 내용이 미리 설정되어 있는 것이다.
(14-6) 로봇 사이에서의 명함 교환
또, 로봇(1)끼리 회화를 행하는 경우, 각 로봇(1)이 개체별로 식별하는 구조가 필요해지기 때문에, 회화의 전단층으로서, 로봇(1) 사이에서 무선 통신을 통한 교신 가능 상태로 되었을 때, 로봇(1) 사이에서 자기 로봇(1)의 이름이나 특징 및 오너의 이름 등이 기술된 명함 정보를 교환함으로써, 첫대면인지 자주 만나는지(친구)를 알 수 있음과 함께, 로봇(1) 사이의 커뮤니케이션에 변화를 줄 수 있다.
(15) 로봇과 무선 단말 장치의 통신
(15-1) 오너 인식
로봇(1) 사이의 무선 통신에 있어서, 예를 들면 블루투스(Bluetooth) 등의 근 거리 무선 통신을 이용하는 경우, 로봇(1)끼리 통신이 확립되면, 해당 로봇(1)에 대응하는 커뮤니케이터(50)가 주위에 존재하는 것을 알 수 있음과 함께, 해당 커뮤니케이터(50)를 소유하는 사용자(이하, 이것을 오너라고 함)를 특정할 수 있다.
따라서 각 로봇(1)에서는, 일정 기간 내에서 가장 빈번하면서 장시간 액세스하는 커뮤니케이터(50)를 그 오너의 이름과 함께 기억해 두고, 다음 회부터 교신할 때마다 오너를 자동적으로 인식하는 학습 효과를 갖게 하도록 하면, 보다 한층 인간 관계에 가까운 커뮤니케이션을 도모할 수 있게 된다.
구체적으로 설명하면, 로봇(1)은 오너가 접근하면 기뻐하는 동작을 행하는 한편, 모르는 제삼자가 접근하면 조금 부끄러워하는 동작을 행하거나 흥미있어 하는 동작을 행함으로써, 진짜 동물처럼 로봇(1)이 오너를 특별한 존재로서 의식해 주는 것이 가능해짐과 함께, 오너와의 관계를 강화시킬 수 있다.
(15-2) 오너 등록
미리 등록한 커뮤니케이터(50)만 대응하는 로봇(1)을 제어할 수 있는 환경에서, 커뮤니케이터(50)로부터 패스워드를 입력하여 오너를 등록하는 방식에서는, 패스워드가 누설된 경우, 사용 권한이 없는 제삼자에 의한 위법적인 등록을 방지하는 것이 매우 곤란하게 된다.
그 결과, 로봇(1)에 있어서, 등록자가 로봇(1)에 작용하는 임의의 동작을 지시 내용으로서 커뮤니케이터(50)로 송신하고, 해당 커뮤니케이터(50)의 표시부(51)에 화면 표시한다. 등록자는 커뮤니케이터(50)에 표시된 지시 내용에 대응하고, 대응하는 리액션을 로봇(1)에 작용하도록 하며, 바른 리액션이 실행된 취지가 로봇(1)으로부터 커뮤니케이터(50)로 송신된 경우에만, 해당 커뮤니케이터(50)의 등록자를 오너로서 정식으로 등록한다.
예를 들면 로봇(1)으로부터 터치 센서(14, 19, 20)(도 2)에의 터치의 지시, 또는 음성 커맨드의 지시를 지시 내용으로서 커뮤니케이터(50)로 송신하면, 등록자는 로봇(1)에 곧 접근하여 해당 로봇(1)에 터치하거나 또는 음성 커맨드에 기초한 음성을 판독함으로써, 로봇(1)으로부터 옳은 리액션이 실행된 취지가 커뮤니케이터(50)로 송신되어, 오너로서 정식으로 등록된다.
그 결과, 오너 등록을 행하는 사용자는 항상 로봇(1)에 접촉 가능한 거리까지 접근하지 않으면 등록할 수 없으며, 위법의 제삼자에 의한 등록을 미연에 방지할 수 있다. 또한 로봇(1)으로부터 커뮤니케이터(50)로 송신되는 지시 내용을 정 기적으로 변화시킴에 따라, 일단 오너로서 정규로 등록된 경우라도, 필요에 대응하여 갱신 등록해야하며, 보다 한층 방범성을 향상시킬 수 있다.
(15-3) 로봇간 회화 표시 장치
로봇(1) 사이에서 무선 통신에 의해 회화(정보 교환)를 행한 경우, 그 회화 내용을 외부로부터 물어서 알 수 있는 것은 매우 곤란하다. 이 때문에, 회화의 내용을 사용자가 휴대하는 커뮤니케이터(50)에 판독 가능성이 있는 텍스트 데이터로서 로봇(1) 사이의 정보 교환의 타이밍에 동기하여 화면 표시시킴에 따라, 로봇(1) 사이의 회화 내용을 사용자가 커뮤니케이터(50)를 이용하여 인식할 수 있다.
(16) 퍼스널 컴퓨터를 이용한 로봇(1)과의 통신
(16-1) 복수체의 로봇의 동작을 동기시키는 방법
우선 사용자가 소유하는 퍼스널 컴퓨터(31)(도 3)를 이용하여, 무선 통신을 통하여 복수의 로봇(1)에 각각 동작 시퀀스를 전송해 둔다. 이러한 동작 시퀀스에는 소정의 동기 신호를 수신한 후의 동작 및 해당 동작을 행하는 타이밍이 기술되어 있다.
계속해서 퍼스널 컴퓨터(31)는 임의의 음악을 울리는 타이밍에 맞춰, 해당 동기 신호를 각 로봇(1)에 무선 통신을 통하여 송신하면, 이 동기 신호를 수신한 각 로봇(1)은 동작 시퀀스에 기초한 동작을 소정 타이밍으로 실행함으로써, 복수의 로봇(1)을 상호 동기시켜 동작시킬 수 있다.
또, 다른 방법으로서, 복수의 로봇(1)이 무선 통신이 가능한 상황에서, 하나의 로봇(1)이 주위 로봇(1)에, 임의의 음악을 울리는 타이밍에 맞춰, 해당 동기 신 호를 해당 주위에 있는 로봇(1)에 무선 통신을 통하여 송신하면, 이 동기 신호를 수신한 각 로봇(1)은 송신원의 로봇(1)과 마찬가지로 동작 시퀀스에 기초한 동작을 소정 타이밍으로 실행함으로써, 복수의 로봇(1)을 상호 동기시켜 동작시킬 수 있다.
(16-2) 로봇과 퍼스널 컴퓨터를 동기시켜 나레이션을 행하는 방법
우선, 사용자가 소유하는 퍼스널 컴퓨터(31)(도 3)를 이용하여, 무선 통신을 통하여 복수의 로봇(1)에 각각 나레이션을 나타내는 음성 데이터를 전송해 둔다. 이러한 음성 데이터에 기초한 나레이션은, 일반적인 회화 내용이나 울음 소리 등의 음성 정보로 이루어진다.
계속해서 퍼스널 컴퓨터(31)는, 로봇(1)이 출력하는 것과 동일한 음성을 출력함과 동시에, 로봇(1)에 동기 신호를 송출하여, 해당 로봇(1)으로부터도 음성을 출력시킨다. 그 결과, 퍼스널 컴퓨터(31)는 로봇(1)이 출력하는 음성을 직접 마이크로폰을 통하여 집음하는 경우와 비교하여, 로봇(1)의 동작 노이즈가 혼입되지 않는 만큼, 로봇(1)이 출력하는 음성과 동일한 음성을 매우 높은 음질로 출력할 수 있다.
(16-3) 로봇에 있어서의 모드 통지
로봇(1)이 복수의 동작 모드를 갖는 경우, 사용자가 퍼스널 컴퓨터(31)를 통하여 임의의 동작 모드를 선택할 수 있다. 그 때, 로봇(1)은 퍼스널 컴퓨터(31)로부터 무선 통신을 통하여 로봇(1)으로 송신된 동작 모드의 데이터를 음성 데이터로 변화하여 해당 음성 데이터에 기초한 음성을 출력함으로써, 퍼스널 컴퓨터(31)를 소유하는 사용자에게 해당 동작 모드를 수신한 취지를 통지할 수 있다.
그 결과, 퍼스널 컴퓨터(31)를 소유하는 사용자는, 해당 퍼스널 컴퓨터(31)에 동작 모드 표시 기능이 존재하지 않는 경우나 표시 능력이 낮은 경우라도, 로봇(1)으로부터 발생하는 음성에 의해, 자신이 선택한 동작 모드가 로봇(1)으로 전해진 취지를 확인할 수 있다.
(16-4) 복수 로봇에 의한 화상이 있는 채팅 방법
복수의 로봇(1)이 각각 CCD 카메라(17)(도 2)를 갖고 있으며, 이들 복수의 로봇(1)과 퍼스널 컴퓨터(31)(도 3)가 네트워크를 통하여 서로 접속되어 있는 경우, 퍼스널 컴퓨터(31)에는 표시 화면 상에 각 로봇(1)이 보고 있는 촬상 화상을 화면 표시할 수 있다. 또 퍼스널 컴퓨터(31)로부터 키보드나 마우스 등을 통하여 원하는 회화문을 입력할 수 있으며, 상술한 로봇(1)끼리의 채팅을 촬상 화상과 함께 실행할 수 있다.
(17) 본 실시예에 의한 동작 및 효과
이상의 구성에서, 로봇(1)에 대응하여 상술한 바와 같은 원격 조작용 커뮤니케이터(50)를 형성하고, 해당 커뮤니케이터(50) 및 로봇(1) 사이를 예를 들면 블루투스 등의 근거리 무선 통신으로 접속 가능하게 해 둔다.
복수의 로봇(1)이 교신 가능한 상황에서 상호 회화를 행하는 경우, 어느 한 로봇(1)이 다른 로봇(1)에 회화 내용으로서 커맨드 및/또는 시맨틱스를 나타내는 공통 데이터를 송신함으로써, 해당 데이터를 수신한 로봇(1)은 데이터에 기초하여 상대방의 송신 내용을 인식할 수 있으며, 일상 언어에 의한 음성을 집음하여 언어 해석을 행하는 경우와 비교하여, 용이하게 회화 내용을 교환할 수 있음과 함께, 서로 다른 언어 사이라도 커뮤니케이션을 확립시킬 수 있다.
실제로 복수의 로봇(1)이 커뮤니케이션을 실행하는 경우, 도 47(A)∼도 49에 도시한 바와 같이, 중심으로 되는 (예를 들면 의장으로 되는) 로봇(1)이 주위에 있는 교신 가능한 로봇(1) 및 커뮤니케이터(50)를 찾는다(도 47(A)). 그리고 의장으로 되는 로봇(1)은 교신 가능한 로봇(1) 및 커뮤니케이터(50)의 명함(오너의 이름 및 로봇(1) 자신의 이름이나 특징 등)을 모은다(도 47(B)). 그 후, 의장으로 되는 로봇(1)이 명함을 리스트로 통합하여, 회화에 참가하고 있는 멤버가 되는 로봇(1) 및 커뮤니케이터(50)에 해당 리스트를 배포한다(도 48(A)). 그 후, 의장으로 되는 로봇(1)은 멤버로 되는 로봇(1) 및 커뮤니케이터(50)와 회화를 개시한다(도 48(B)). 또, 의장으로 되는 로봇(1)은 필요에 대응하여 회화의 순서를 정할 수 있다(도 49). 예를 들면, 순서대로 소정의 시간 간격으로 자신과 회화하고 싶은지의 여부를 물을 수 있다.
이와 같이 하면, 로봇(1)끼리, 잡담을 즐기거나, 오너가 커뮤니케이터(50)를 이용하여 로봇(1)의 생각이나 하는 행동을 이해할 수 있는, 자연스러운 커뮤니케이션을 도모할 수 있다.
또한 복수의 로봇(1)으로, 오너의 친구끼리 자기 로봇(1)을 가지고 모이거나, 많은 오너와 친구가 되면, 커뮤니티 만들기를 즐길 수 있다.
또한 로봇(1)에 의한 표현을 오너가 소유하는 커뮤니케이터(50)에 화면 표시시키도록 함으로써, 음성에 의한 표현인 경우와 비교하여 각별하게 많은 바리에이 션을 갖게 할 수 있다. 이 경우, 로봇(1) 자체가 혼잣말이나 조르거나, 오너에게 푸념을 발하거나, 오너의 행동에 대한 대답을 하거나, 퀴즈나 수수께끼, 점, 오늘의 한 마디 등을 발하거나 하는 것이 가능하게 된다.
또한 로봇(1)끼리 회화를 행하는 경우, 회화 내용을 상술한 커맨드 및/또는 시맨틱스뿐만 아니라 텍스트 데이터로서 무선 통신을 통하여 송수신함과 함께, 그것에 동기한 감정 및/또는 본능을 나타내는 행동 결정 정보도 송수신함으로써, 대응하는 커뮤니케이터(50)에서는, 회화 내용을 텍스트문으로 화면 표시할 수 있음과 함께, 감정 및/또는 본능에 대응한 정도를 그림 문자로서 화면 표시할 수 있다.
또한 로봇(1)끼리 교신 가능한 상황에서는, 한쪽의 로봇(1)이 갖는 동작 패턴이나 행동 패턴을 나타내는 모션 파일을 다른 쪽의 로봇(1)에 동기하여 무선 통신을 통하여 송신함으로써, 해당 로봇(1)은 항상 모션 파일에 기초한 동작 패턴이나 행동 패턴을 자신의 모션으로서 사용할 수 있다. 그 결과, 복수의 로봇(1)으로 댄스나 흉내내기 등의 협조 동작을 실행하는 것이 가능하게 된다.
또한 로봇(1) 사이 또는 로봇(1) 및 커뮤니케이터(50) 사이의 무선 통신에 있어서, 예를 들면 블루투스 등의 근거리 무선 통신을 이용하는 경우, 마스터가 되는 로봇(1)이 슬레이브가 되는 로봇(1) 또는 커뮤니케이터(50)와의 사이에서, 블루투스의 접속 절차에 따르는 동기 확립 페이즈 및 통신 접속 페이즈의 각 단계를 거쳐, 코넥터 시퀀스로서 명함 정보를 교환함으로써, 통신 가능 범위에 존재하는 로봇(1)끼리나 로봇(1) 및 커뮤니케이터(50)에 대하여, 사용자의 조작을 전혀 필요로 하지 않고 용이하면서 자연스럽게 명함 정보를 교환할 수 있다.
또한 로봇(1)끼리 통신 접속되고 또한 시나리오에 의한 회화 시퀀스가 가능한 상태로 되었을 때, 해당 로봇(1)끼리 접속되어 있는 커뮤니케이터(50)가 존재하는 경우에는, 이 커뮤니케이터(50)는 마스터가 되는 로봇으로부터 시나리오에 의한 회화 내용을 수신하여 표시부에 표시시키도록 함으로써, 로봇(1)끼리의 세계를 엿보는 듯한 즐거움을 얻을 수 있다.
또한 마스터가 되는 로봇(1)이 자율적으로 다른 슬레이브가 되는 로봇(1)이나 커뮤니케이터(50)와 접속하여 통신할 때에는, 해당 마스터가 되는 로봇(1)이 사용자에 의한 커뮤니케이터(50)의 조작 결과나, 사용자가 발한 음성의 인식 결과 또는 사용자 얼굴의 인식 결과 등에 기초하여, 슬레이브가 되는 로봇(1)이나 커뮤니케이터(50)에 대하여 시나리오의 발동이나 통신 접속을 행하도록 함으로써, 커뮤니케이터(50)를 사용하는 사용자와 로봇(1)과의 인터랙션(상호 작용)성을 더 향상시킬 수 있다.
예를 들면 사용자는, 로봇(1) 사이의 시나리오 회화를 보고 싶은 경우에는, 특정한 말을 발하는 것만으로, 마스터가 되는 로봇(1)에 자발적으로 시나리오를 발동시켜 그 시나리오를 자기의 커뮤니케이터(50)의 표시부에 표시시키도록 함으로써, 사용자는 자기의 의사로 좋아할 때에 용이하게 로봇(1)끼리의 세계를 엿볼 수 있는 즐거움을 얻을 수 있다.
또한 로봇(1)이 사용자의 얼굴 화상이나 음성, 손의 접촉, 커뮤니케이터로부터의 입력 등의 인식 결과에 기초하여, 사용자의 존재를 인식한 경우에, 해당 사용자가 사용하고 있는 커뮤니케이터(50)에 대하여, 로봇(1)으로부터 인터랙션 시나리 오를 표시시키도록 함으로써, 사용자는 마치 인간이 자신에게 질문하는 듯한 놀라움과 즐거움을 얻을 수 있다.
또한 로봇(1)이 자율적으로 동작하고 있을 때에, 사용자가 소정음의 발성이나 커뮤니케이터(50)의 조작 등의 활동 작용에 의해 해당 로봇(1)에 대하여 자신의 커뮤니케이터(50)를 접속시키고, 로봇(1)이 발하는 혼잣말을 커뮤니케이터(50)에 표시시키도록 함으로써, 사용자가 로봇(1)과 용이하게 커뮤니케이션을 취하여 친근감을 향상시킬 수 있다.
로봇(1)이 커뮤니케이터(50)에 발화 내용의 텍스트 데이터를 송신할 때에, 해당 텍스트 데이터에 관련된 음성 데이터에 기초하여, 스스로 스피커(21)를 통하여 발화 내용에 맞는 음성을 발하면, 커뮤니케이터(50)를 갖는 사용자에 의해 표시부(51)에 표시된 발화 내용을 눈으로 확인할 뿐만 아니라, 로봇(1)이 발하는 음성을 들을 수 있어, 보다 한층 로봇(1)에 대하여 만족감 및 친근감을 줄 수 있다.
또한 커뮤니케이터(50)와 통신 접속 상태에 있는 로봇(1)이, 해당 커뮤니케이터(50)의 조작 상황을 소정의 시간 간격으로 접속의 절단 또는 재개를 반복하여, 순차적으로 그 취지를 커뮤니케이터(50)에 표시시키도록 함으로써, 사용자의 의사를 존중하면서 커뮤니케이터(50)의 배터리의 소비량을 적극적으로 저감시킬 수 있다.
또한 단일 로봇(1)에 단일 커뮤니케이터(50)를 등록하도록 함으로써, 커뮤니케이터(50)에 대한 조작 상의 시큐러티나 무선 통신 접속의 용이함을 확보할 수 있다.
또한 로봇(1)이 발화 텍스트를 통신 상태에 있는 커뮤니케이터(50)에 표시시키는데 있어서, 로봇(1)이 자율 동작하고 있는 상황을 설명하는 발화인 「혼잣말 발화」와, 로봇(1)의 상태 천이의 상황에 대응한 발화인 「센텐스 발화」와, 미리 설정된 시나리오에 기초한 복수의 연결된 발화인 「시나리오 발화」라는 3가지의 발화를 로봇(1)의 행동에 행하도록 함으로써, 발화 내용을 로봇(1)의 행동에 맞도록 하면, 보다 리얼한 생물과 같이 로봇(1)을 표현시킬 수 있어, 사용자에게 만족감을 줄 수 있다.
그 때, 로봇(1) 내의 커뮤니케이터(10)에 있어서, 로봇(1)의 행동을 선택하기 위해 이용되는 상태 천이표(76)에 따라 발화 내용을 설정하여 커맨드를 생성하도록 함으로써, 복잡한 하드웨어를 새롭게 형성하지 않고, 용이하게 로봇(1)의 행동에 대응한 발화 내용을 커뮤니케이터(50)에 제공시킬 수 있다.
또한 로봇(1)의 행동에 대응한 발화 내용을 복수개 준비해 두고, 해당 발화 내용의 하나를 랜덤하게 선택하도록 함으로써, 로봇(1)의 동일 행동이 반복 행해지는 경우가 있어도 그 때마다 서로 다른 발화 내용을 커뮤니케이터(50)에 제공할 수 있어, 그 결과, 사용자에게 싫증을 느끼게 하지 않을 수 있다.
이상의 구성에 의하면, 로봇(1) 시스템에서 로봇(1)에 대응하여 원격 조작용 커뮤니케이터(50)를 형성하고, 복수의 로봇(1)끼리 무선 통신을 통한 교신 가능한 상황에서, 커맨드 및/또는 시맨틱스에 의한 회화 내용을 서로 송수신함과 함께, 쌍방에서 동작 및 행동의 모션을 주고 받아 혼자서 실행 가능하게 할 수 있도록 하고, 또한 교신 내용을 필요에 대응하여 커뮤니케이터(50)로 표현하도록 함으로써, 로봇(1)끼리 마치 인간 관계와 같은 커뮤니케이션을 행할 수 있고, 보다 한층 엔터테인먼트성을 향상시킬 수 있다.
(18) 다른 실시예
또 상술한 실시예에서는, 본 발명을 도 1과 같이 구성된 로봇(1) 및 이것을 포함하는 도 3과 같은 로봇 시스템(30)에 적용하도록 한 경우에 대해 설명했지만, 본 발명은 이것에 한하지 않고, 이 외 다양한 형태의 로봇 장치 및 그 로봇 장치를 포함하는 로봇 시스템에 널리 적용할 수 있다.
또한 상술한 실시예에서는, 로봇(1)을 원격 조작하기 위한 원격 조작 장치, 또한 로봇(1)과의 사이에서 소정의 무선 통신 규격에 기초한 무선 통신을 행하는 무선 단말 장치로서 도 5 및 도 6에 도시한 커뮤니케이터(50)를 적용하도록 한 경우에 대해 설명했지만, 본 발명은 이것에 한하지 않고, 이 외 다양한 형태의 원격 조작 장치 또는 무선 단말 장치를 널리 적용할 수 있다. 이 경우에 있어서, 원격 조작 장치 또는 무선 단말 장치는 전용품이어도 된다.
이 경우, 원격 조작 장치 또는 무선 단말 장치는 로봇 장치와 일대일로 대응시키도록 했지만, 이것에 한하지 않고, 단일 원격 조작 장치 또는 무선 단말 장치에 대하여 원격 조작 대상 또는 무선 통신 대상으로 되는 로봇 장치를 복수로 설정하도록 해도 된다. 또한 복수의 원격 조작 장치 또는 무선 단말 장치를 이용하여, 단일 로봇 장치를 동시 또는 우선 순위를 붙여 원격 조작 또는 무선 통신시키도록 해도 된다.
또한 상술한 실시예에서는, 로봇(로봇 장치 : 1)과 커뮤니케이터(무선 단말 장치 : 50)와의 사이에서 무선 통신을 행할 때의 무선 통신 규격으로서, 블루투스(Bluetooth) 규격에 기초한 무선 LAN 방식에 의한 무선 통신 규격을 적용하도록 한 경우에 대해 설명했지만, 본 발명은 이것에 한하지 않고, 로봇(1)과 커뮤니케이터(50)를 실용적으로 충분한 거리를 유지하여 무선 통신시킬 수 있으면, 이 외 다양한 무선 통신 규격을 널리 적용하도록 해도 된다.
또한 상술한 실시예에서는, 로봇(1)에서는, 무선 통신 규격에 기초한 무선 통신을 행하기 위한 단말기 수단으로서, 원격 조작용 모드용 메모리(26B)(도 3)를 적용하고, 발화 내용을 나타내는 문자 데이터를 해당 단말기 수단을 통하여 외부 출력하는 발화 출력 수단으로서, 컨트롤러(10)(회화 관리부(75), 세션 서비스 관리부(83) 및 무선 통신 제어부(84)(도 7))를 적용하도록 한 경우에 대해 설명하였지만, 본 발명은 이것에 한하지 않고, 이 다양한 구성의 것에 널리 적용하도록 해도 된다.
또한 상술한 실시예에서는 커뮤니케이터(무선 단말 장치 : 50)에서는, 무선 통신 규격에 기초한 무선 통신을 행하기 위한 단말기 수단으로서, 송수신부(60)(도 6)를 적용하고, 해당 단말기 수단을 통하여 얻어진 문자 데이터에 기초한 로봇(1)의 발화 내용을 표시하는 표시 수단으로서 표시부(51)를 적용하도록 한 경우에 대해 설명했지만, 본 발명은 이것에 한하지 않고, 이 외 다양한 구성의 것에 널리 적용하도록 해도 된다.
또한 상술한 실시예에서는, 로봇(1)은 외부 상황에서의 사용자의 존재를 검지하는 센서 수단으로서, 로봇(1)에 탑재된 각종 센서군(13, 14, 19, 20)이나 CCD 카메라(17) 및 마이크로폰(16) 등을 적용한 경우에 대해 설명했지만, 본 발명은 이것에 한하지 않고, 요는 로봇(1)이 사용자의 존재를 검지할 수 있으면, 이 외 다양한 센서 수단을 널리 적용하도록 해도 된다.
또한 상술한 실시예에서는, 커뮤니케이터(50)와 로봇(1)과의 사이에서 무선 통신의 접속을 확립하고 있는 동안에, 로봇(1)의 각종 센서군(센서 수단)이 사용자를 검지한 경우에는, 로봇(1) 내의 컨트롤러(10)는, 발화 내용을 나타내는 텍스트 데이터(문자 데이터)를 송신하도록 한 경우에 대해 설명했지만, 본 발명은 이것에 한하지 않고, 이 외 사용자를 검지한 경우에 발화 내용을 송신할 수 있으면, 이 외 다양한 구성의 것을 널리 적용하도록 해도 된다.
또한 상술한 실시예에서는, 로봇(1)은 로봇(1)의 각종 센서군(센서 수단)의 검지 결과에 기초하여, 제어 수단으로서의 컨트롤러(10)가 무선 통신의 접속의 절단 또는 재개를 제어하도록 한 경우에 대해 설명했지만, 본 발명은 이것에 한하지 않고, 요는 커뮤니케이터(50)와 로봇(1)과의 사이에서 무선 통신의 접속을 확립하고 있는 동안에, 소정 시간 내에 커뮤니케이터(50)의 사용자의 존재를 검지하지 않는 경우에, 소정의 시간 간격으로 무선 통신의 접속의 절단 또는 재개를 반복할 수 있으면, 이 외 다양한 구성의 것을 적용하도록 해도 된다.
또한 상술한 실시예에서는, 로봇(1)에서는 물리적, 광학적이거나 음향적인 동작을 발현하기 위한 동작 발현 수단(컨트롤러(10) 중 행동 제어부(72), 커맨드 변환부(74), 출력 콘텐츠 관리부(77), 사운드 재생부(79), LED 재생부(80) 및 모션 재생부(81))이 발화 출력 수단(컨트롤러(10) 중 회화 관리부(75), 세션 서비스 관 리부(83) 및 무선 통신 제어부(84))가 출력하는 텍스트 데이터(문자 데이터)에 기초한 발화 내용에 맞는 동작을 발현하도록 한 경우에 대해 설명했지만, 본 발명은 이것에 한하지 않고, 로봇(1)이 발화 내용에 맞는 동작을 발현할 수 있으면, 이 외 다양한 구성의 것에 널리 적용하도록 해도 된다.
또한 상술한 실시예에서는, 로봇(1)의 컨트롤러(발화 출력 수단 : 10)는 외부 및/또는 내부의 상황에 대응하여 생성한 로봇(1)의 행동 상태에 대응하여 다음의 출력 행동을 결정하기 위한 규정으로 이루어지는 행동 결정 정보에 따라, 텍스트 데이터(문자 데이터)에 기초한 발화 내용을 설정하도록 하고, 해당 행동 결정 정보로서 메모리(10A)에 저장되어 있는 상태 천이표(76)(도 9)를 적용하도록 한 경우에 대해 설명했지만, 본 발명은 이것에 한하지 않고, 행동 결정과 발화 내용을 간이하게 결부시킬 수 있으면, 이 외 다양한 방법으로 발화 내용을 설정하도록 해도 된다.
이 경우, 텍스트 데이터(문자 데이터)에 기초한 발화 내용은, 로봇(1)이 자율 동작하고 있는 상황을 설명하는 발화 내용인 「혼잣말 발화」와, 로봇(1)의 행동의 상태 천이에 대응한 발화 내용인 「센텐스 발화」와, 미리 설정된 시나리오에 기초한 복수의 연결된 발화 내용인 「시나리오 발화」라는 3가지가 있으며, 이들 3가지의 발화 내용을 컨트롤러(10)(도 7)에서 모두 실행할 수 있도록 한 경우에 대해 설명했지만, 본 발명은 이것에 한하지 않고, 이들 3가지의 발화 내용을 사용자의 선택이나 장면 상황 등에 대응하여, 선택적으로 1가지의 발화 내용에 순차적으로 전환하도록 해도 된다.
또한 상술한 실시예에서는, 자율적으로 행동을 발현하는 로봇(1)(로봇 장치)과 커뮤니케이터(무선 단말 장치 : 50)와의 사이에서 소정의 무선 통신 규격에 기초한 무선 통신을 행할 때에, 로봇(1)에 물리적인 활동 작용을 행하면서 커뮤니케이터(50)를 일대일의 대응으로 등록하도록 한 경우에 대해 설명했지만, 본 발명은 이것에 한하지 않고, 무선 통신일 때에 사용자의 조작 상의 시큐러티가 확보되는 것이면, 한대의 로봇(1)에 무선 통신 규격의 범위 내(블루투스이면 최대 8대까지)에서 복수대의 커뮤니케이터(50)를 등록하도록 해도 된다.
상술한 바와 같이 본 발명에 따르면, 복수의 로봇 장치가 자율적으로 행동하는 로봇 시스템에 있어서, 각 로봇 장치는 무선 통신 수단을 포함하고, 로봇 장치끼리 회화할 때, 해당 회화의 내용을 커맨드 및/또는 시맨틱스로서 쌍방의 무선 통신 수단을 통하여 로봇 장치로 송수신하도록 함으로써, 로봇 장치끼리 마치 인간 관계와 같은 커뮤니케이션을 행할 수 있으며, 그 결과, 보다 한층 엔터테인먼트성을 향상시킬 수 있는 로봇 시스템을 실현할 수 있다.
또한 본 발명에 따르면, 자율적으로 행동하는 로봇 장치의 제어 방법에 있어서, 로봇 장치끼리 회화할 때, 해당 회화의 내용을 커맨드 및/또는 시맨틱스로서 무선 통신을 통하여 쌍방의 로봇 장치로 송수신하도록 함으로써, 로봇 장치끼리 마치 인간 관계와 같은 커뮤니케이션을 행할 수 있으며, 그 결과, 보다 한층 엔터테인먼트성을 향상시킬 수 있는 로봇 장치의 제어 방법을 실현할 수 있다.
또한 본 발명에 따르면, 자율적으로 행동을 발현하는 복수의 로봇 장치 사이에서 소정의 무선 통신 규격에 기초한 무선 통신을 행하는 로봇 시스템 및 로봇 장 치의 제어 방법에 있어서, 어느 하나의 로봇 장치가 소정의 시간 타이밍에서 접속 요구를 발신하고, 해당 접속 요구를 수신한 다른 로봇 장치가 응답을 회신했을 때, 쌍방의 로봇 장치는, 무선 통신의 접속을 확립한 후, 서로 로봇 장치에 고유의 명함 정보를 송수신하도록 하고, 또한 무선 단말 장치는 무선 통신의 접속을 확립한 후, 해당 무선 단말 장치에 고유의 명함 정보를 로봇 장치로 송신하는 한편, 로봇 장치는 해당 로봇 장치에 고유의 명함 정보를 무선 단말 장치로 송신하도록 함으로써, 통신 가능 범위에 존재하는 로봇 장치끼리나 로봇 장치 및 무선 단말 장치에 대하여, 사용자의 조작을 전혀 필요로 하지 않고 용이하면서 자연스럽게 명함 정보를 교환할 수 있으며, 그 결과, 보다 한층 엔터테인먼트성을 향상시킬 수 있는 로봇 시스템 및 로봇 장치의 제어 방법을 실현할 수 있다.
또한 본 발명에 따르면, 자율적으로 행동을 발현하는 로봇 장치와 무선 단말 장치와의 사이에서 소정의 무선 통신 규격에 기초한 무선 통신을 행하는 로봇 시스템 및 로봇 장치의 제어 방법에 있어서, 로봇 장치는 발화 내용을 나타내는 문자 데이터를 무선 단말 장치로 송신한 후, 무선 단말 장치는 로봇 장치로부터 얻어진 문자 데이터에 기초한 해당 로봇 장치의 발화 내용을 표시하도록 함으로써, 무선 단말 장치를 사용하는 사용자는 로봇 장치와 용이하게 커뮤니케이션을 취하여 친근감을 향상시킬 수 있으며, 그 결과, 보다 한층 엔터테인먼트성을 향상시킬 수 있는 로봇 시스템 및 로봇 장치의 제어 방법을 실현할 수 있다.
또한 본 발명에 따르면, 무선 단말 장치와 로봇 장치와의 사이에서 무선 통신의 접속을 확립하고 있는 동안에, 로봇 장치가 외부 상황에서의 사용자의 존재를 검지한 경우에는, 해당 로봇 장치는 발화 내용을 나타내는 문자 데이터를 무선 단말 장치로 송신하도록 함으로써, 사용자는 마치 인간이 자신에게 질문하는 듯한 놀라움과 즐거움을 얻을 수 있거나, 사용자와 로봇 장치와의 인터랙션을 더 향상시킬 수 있으며, 그 결과, 보다 한층 엔터테인먼트성을 향상시킬 수 있는 로봇 시스템 및 로봇 장치의 제어 방법을 실현할 수 있다.
또한 본 발명에 따르면, 무선 단말 장치와 로봇 장치와의 사이에서 무선 통신의 접속을 확립하고 있는 동안에, 로봇 장치가 소정 시간 내에 사용자를 검지하지 않는 경우에는, 로봇 장치는 무선 단말 장치에 대하여 소정의 시간 간격으로 무선 통신의 접속의 절단 또는 재개를 반복하도록 함으로써, 사용자의 의사를 존중하면서 무선 단말 장치의 배터리의 소비량을 적극적으로 저감시킬 수 있으며, 그 결과, 보다 한층 엔터테인먼트성을 향상시킬 수 있는 로봇 시스템 및 로봇 장치의 제어 방법을 실현할 수 있다.
또한 본 발명에 따르면, 로봇 장치는, 문자 데이터에 기초한 발화 내용을 맞춘 물리적, 광학적이거나 음향적인 동작을 발현하도록 함으로써, 무선 단말 장치를 사용하는 사용자에 의해 표시된 발화 내용을 눈으로 확인할 뿐만 아니라, 로봇 장치의 동작을 체감할 수 있으며, 보다 한층 로봇 장치에 대하여 만족감 및 친근감을 줄 수 있으며, 그 결과, 보다 한층 엔터테인먼트성을 향상시킬 수 있는 로봇 시스템 및 로봇 장치의 제어 방법을 실현할 수 있다.
또한 본 발명에 따르면, 로봇 장치는 외부 및/또는 내부의 상황에 대응하여 생성한 로봇 장치의 행동 상태에 대응하여 다음 출력 행동을 결정하기 위한 규정으 로 이루어지는 행동 결정 정보에 따라, 문자 데이터에 기초한 발화 내용을 설정하도록 함으로써, 발화 내용을 로봇 장치의 행동에 맞춤으로써, 보다 리얼한 생물과 같이 로봇 장치를 표현시킬 수 있고, 사용자에게 만족감을 제공할 수 있으며, 그 결과, 보다 한층 엔터테인먼트성을 향상시킬 수 있는 로봇 시스템 및 로봇 장치의 제어 방법을 실현할 수 있다.
또한 본 발명에 따르면, 자율적으로 행동을 발현하는 복수의 로봇 장치 사이에서 소정의 무선 통신 규격에 기초한 무선 통신을 행하는 로봇 시스템 및 로봇 장치의 제어 방법에 있어서, 로봇 장치 사이에서 무선 통신의 접속을 확립하고 있는 동안, 무선 단말 장치는 쌍방의 로봇 장치로부터 출력되는 문자 데이터에 기초한 발화 내용을 표시하도록 함으로써, 무선 단말 장치를 사용하는 사용자는 로봇 장치끼리의 세계를 엿보는 듯한 즐거움을 얻을 수 있으며, 그 결과, 보다 한층 엔터테인먼트성을 향상시킬 수 있는 로봇 시스템 및 로봇 장치의 제어 방법을 실현할 수 있다.
또한 본 발명에 따르면, 자율적으로 행동을 발현하는 로봇 장치와 무선 단말 장치와의 사이에서 소정의 무선 통신 규격에 기초한 무선 통신을 행하는 로봇 시스템 및 로봇 장치의 제어 방법에 있어서, 로봇 장치에 물리적인 활동 작용을 행하면서 무선 단말 장치를 등록하도록 함으로써, 무선 단말 장치에 대한 조작 상의 시큐러티나 무선 통신 접속의 용이함을 확보할 수 있으며, 그 결과, 보다 한층 엔터테인먼트성을 향상시킬 수 있는 로봇 시스템 및 로봇 장치의 제어 방법을 실현할 수 있다.
본 발명은, 로봇 시스템 및 로봇 장치의 제어 방법에 있어서, 오락 로봇 시스템 등의 각종 로봇 시스템에 적용할 수 있다.

Claims (69)

  1. 복수의 로봇 장치가 자율적으로 행동하는 로봇 시스템에 있어서,
    상기 각 로봇 장치는 무선 통신 수단을 포함하고, 상기 로봇 장치끼리 회화할 때, 해당 회화의 내용을 커맨드 및 시맨틱스 중 적어도 어느 하나로서 쌍방의 상기 무선 통신 수단을 통하여 상기 로봇 장치로 송수신하고,
    상기 로봇 시스템은 상기 복수의 로봇 장치 중 선택된 로봇 장치를 무선 통신에 의해 원격 조작하는 원격 조작 장치를 갖고,
    상기 원격 조작 장치는, 상기 각 로봇 장치의 상기 무선 통신 수단으로부터 송신된 상기 회화의 내용을 수신하기 위한 수신기 및 조작 대상인 상기 각 로봇 장치로부터 송신되는 상기 회화 내용을 화면 표시하기 위한 표시 수단을 포함하며,
    상기 각 로봇 장치는, 외부의 상황 및 외부로부터의 입력 중 적어도 어느 하나를 검출하는 센서 수단과, 해당 검출 결과에 기초하여, 미리 보유하고 있는 감정을 모델화한 감정 모델 및 본능을 모델화한 본능 모델 중 적어도 어느 하나를 갱신하는 갱신 수단과, 해당 갱신한 감정 모델 및 본능 모델 중 적어도 어느 하나에 기초하여 감정 및 본능 중 적어도 어느 하나를 결정하는 결정 수단을 포함하며, 해당 결정 수단에 의한 결정 결과를 상기 무선 통신 수단을 통하여 상기 원격 조작 장치로 송신하고,
    상기 원격 조작 장치는, 대응하는 상기 로봇 장치로부터 송신되는 상기 결정 결과가 나타내는 감정 및 본능 중 적어도 어느 하나에 기초하여, 미리 보유하고 있는 복수의 그림 문자 데이터 중에서 해당하는 그림 문자 데이터를 선택하고, 해당 선택한 그림 문자 데이터에 기초한 그림 문자를 상기 표시 수단에 화면 표시시키며,
    상기 원격 조작 장치는, 상기 로봇 장치상에 위치한 각 LED의 각 점멸 패턴(flash pattern)에 대한 LED 파일을 재생하고, 상기 원격 조작 장치에 의한 조작을 위해 메모리에 상기 각 점멸 패턴을 저장하는 것을 특징으로 하는 로봇 시스템.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서,
    상기 원격 조작 장치는,
    대응하는 상기 로봇 장치로부터 송신되는 상기 결정 결과가 나타내는 감정 및 본능 중 적어도 어느 하나에 기초하여 선택한 그림 문자 데이터에 기초한 그림 문자를, 상기 회화 내용에 동기시켜, 상기 표시 수단에 화면 표시하는 것을 특징으로 하는 로봇 시스템.
  5. 제1항에 있어서,
    상기 각 로봇 장치는, 소리를 출력하는 스피커 및 해당 소리를 집음하는 마이크로폰을 갖고,
    상기 로봇 장치 사이에서 쌍방의 상기 무선 통신 수단을 통하여 교신 상태로 되었을 때, 한쪽의 상기 로봇 장치는 다른 쪽의 상기 로봇 장치가 상기 스피커를 통하여 출력하는 소정음을 상기 마이크로폰을 통하여 집음하고, 해당 집음 결과에 기초하여, 상기 소정음을 출력한 로봇 장치가 존재하는 방향을 특정하는 것을 특징으로 하는 로봇 시스템.
  6. 제1항에 있어서,
    상기 각 로봇 장치는, 소정의 동작 및 행동 패턴을 나타내는 모션 데이터를 기억하는 메모리 수단을 포함하고,
    상기 로봇 장치 사이에서 쌍방의 상기 무선 통신 수단을 통하여 교신 상태로 되었을 때, 한쪽의 상기 로봇 장치는, 상기 메모리 수단으로부터 상기 모션 데이터를 판독하여 다른 쪽의 상기 로봇 장치로 송신하는 것을 특징으로 하는 로봇 시스템.
  7. 제1항에 있어서,
    상기 로봇 장치끼리 회화할 때, 중심으로 되는 상기 로봇 장치는, 상기 무선 통신 수단을 통하여 주위의 상기 로봇 장치 중 교신 가능한 로봇 장치를 찾은 후, 해당 각 로봇 장치로부터 고유 정보를 수집하고, 해당 수집 결과를 상기 각 로봇 장치로 송신한 후, 원하는 순서로 상기 각 로봇 장치와 회화를 행하는 것을 특징으로 하는 로봇 시스템.
  8. 제7항에 있어서,
    상기 각 로봇 장치를 무선 통신에 의해 원격 조작하는 원격 조작 장치도, 상 기 중심으로 되는 로봇 장치의 교신 대상으로 하는 것을 특징으로 하는 로봇 시스템.
  9. 자율적으로 행동하는 로봇 장치의 제어 방법에 있어서,
    상기 로봇 장치끼리 회화할 때, 해당 회화의 내용을 커맨드 및 시맨틱스 중 적어도 어느 하나로서 무선 통신을 통하여 상기 로봇 장치로 송수신하고,
    무선 통신에 의해 상기 로봇 장치를 원격 조작하는 원격 조작 장치가, 상기 각 로봇 장치의 무선 통신 수단으로부터 송신된 상기 회화 내용을 수신하고, 상기 로봇 장치로부터 송신된 상기 회화의 내용을 화면 표시하며,
    상기 로봇 장치의 제어 방법은,
    상기 로봇 장치가, 외부의 상황 및 외부로부터의 입력 중 적어도 어느 하나의 검출 결과에 기초하여, 미리 보유하고 있는 감정을 모델화한 감정 모델 및 본능을 모델화한 본능 모델 중 적어도 어느 하나를 갱신하고, 해당 갱신한 감정 모델 및 본능 모델 중 적어도 어느 하나에 기초하여 감정 및 본능 중 적어도 어느 하나를 결정하고, 해당 결정 결과를 무선 통신을 통하여 상기 원격 조작 장치로 송신하는 제1 단계와,
    상기 원격 조작 장치가, 대응하는 상기 로봇 장치로부터 송신된 상기 결정 결과가 나타내는 감정 및 본능 중 적어도 어느 하나에 기초하여, 미리 보유하고 있는 복수의 그림 문자 데이터 중에서 해당하는 그림 문자 데이터를 선택하고, 해당 선택한 그림 문자 데이터에 기초한 그림 문자를 표시 수단에 화면 표시시키는 제2 단계를 포함하며,
    상기 원격 조작 장치는, 상기 로봇 장치상에 위치한 각 LED의 각 점멸 패턴(flash pattern)에 대한 LED 파일을 재생하고, 상기 원격 조작 장치에 의한 조작을 위해 메모리에 상기 각 점멸 패턴을 저장하는 것을 특징으로 하는 로봇 장치의 제어 방법.
  10. 삭제
  11. 삭제
  12. 제9항에 있어서,
    상기 제2 단계에서는,
    상기 원격 조작 장치는 대응하는 상기 로봇 장치로부터 송신되는 상기 결정 결과가 나타내는 감정 및 본능 중 적어도 어느 하나에 기초하여 선택한 그림 문자 데이터에 기초한 그림 문자를, 상기 회화 내용에 동기시켜, 상기 표시 수단에 화면 표시하는 것을 특징으로 하는 로봇 장치의 제어 방법.
  13. 제9항에 있어서,
    상기 로봇 장치 사이에서 쌍방의 무선 통신 수단을 통하여 교신 상태로 되었을 때, 한쪽의 상기 로봇 장치는, 다른 쪽의 상기 로봇 장치가 스피커를 통하여 출력하는 소정음을 마이크로폰을 통하여 집음하고, 해당 집음 결과에 기초하여, 상기 소정음을 출력한 로봇 장치가 존재하는 방향을 특정하는 것을 특징으로 하는 로봇 장치의 제어 방법.
  14. 제9항에 있어서,
    상기 각 로봇 장치는, 소정의 동작 및 행동 패턴을 나타내는 모션 데이터를 기억하는 메모리 수단을 포함하고,
    상기 로봇 장치 사이에서 쌍방의 상기 무선 통신 수단을 통하여 교신 상태로 되었을 때, 한쪽의 상기 로봇 장치는, 상기 메모리 수단으로부터 소정의 동작 및 행동 패턴을 나타내는 상기 모션 데이터를 판독하여 다른 쪽의 상기 로봇 장치로 송신하는 것을 특징으로 하는 로봇 장치의 제어 방법.
  15. 제9항에 있어서,
    상기 로봇 장치끼리 회화할 때, 중심으로 되는 상기 로봇 장치는, 무선 통신 수단을 통하여 주위의 상기 로봇 장치 중 교신 가능한 로봇 장치를 찾은 후, 해당 각 로봇 장치로부터 고유 정보를 수집하고, 해당 수집 결과를 상기 각 로봇 장치로 송신한 후, 원하는 순서로 상기 각 로봇 장치와 회화를 행하는 것을 특징으로 하는 로봇 장치의 제어 방법.
  16. 제15항에 있어서,
    상기 각 로봇 장치를 무선 통신에 의해 원격 조작하는 원격 조작 장치도, 상기 중심으로 되는 로봇 장치의 교신 대상으로 하는 것을 특징으로 하는 로봇 장치의 제어 방법.
  17. 삭제
  18. 삭제
  19. 자율적으로 행동을 발현하는 로봇 장치와 무선 단말 장치와의 사이에서 소정의 무선 통신 규격에 기초한 무선 통신을 행하는 로봇 시스템에 있어서,
    상기 로봇 장치는, 상기 무선 통신 규격에 기초한 무선 통신을 행하기 위한 단말기 수단과, 발화 내용을 나타내는 문자 데이터를 상기 로봇 장치의 상기 단말기 수단을 통하여 외부 출력하는 발화 출력 수단을 포함하고,
    상기 무선 단말 장치는, 상기 무선 통신 규격에 기초한 무선 통신을 행하기 위한 단말기 수단과, 상기 무선 단말 장치의 상기 단말기 수단을 통하여 얻어진 상기 문자 데이터에 기초하여 상기 로봇 장치의 상기 발화 내용을 표시하는 표시 수단을 포함하고,
    상기 로봇 장치는, 외부 상황에 있어서의 사용자의 존재를 검지하는 센서 수단을 포함하고,
    상기 무선 단말 장치의 단말기 수단과 상기 로봇 장치의 단말기 수단과의 사이에서 상기 무선 통신의 접속을 확립하고 있는 동안에, 상기 센서 수단이 사용자를 검지한 경우에는, 상기 발화 출력 수단은, 상기 발화 내용을 나타내는 문자 데이터를 상기 로봇 장치의 상기 단말기 수단을 통하여 외부 출력하며,
    원격 조작 장치가, 상기 로봇 장치상에 위치한 각 LED의 각 점멸 패턴(flash pattern)에 대한 LED 파일을 재생하고, 상기 원격 조작 장치에 의한 조작을 위해 메모리에 상기 각 점멸 패턴을 저장하는 것을 특징으로 하는 로봇 시스템.
  20. 삭제
  21. 제19항에 있어서,
    상기 로봇 장치는, 상기 센서 수단의 검지 결과에 기초하여, 상기 로봇 장치의 상기 단말기 수단에 의한 상기 무선 통신의 접속의 절단 또는 재개를 제어하는 제어 수단을 포함하고,
    상기 무선 단말 장치의 단말기 수단과 상기 로봇 장치의 단말기 수단과의 사이에서 상기 무선 통신의 접속을 확립하고 있는 동안에, 소정 시간 내에 상기 센서 수단이 사용자를 검지하지 않는 경우에는, 상기 제어 수단은 소정의 시간 간격으로 상기 무선 통신의 접속의 절단 또는 재개를 반복하는 것을 특징으로 하는 로봇 시스템.
  22. 제21항에 있어서,
    상기 로봇 장치는 물리적, 광학적이거나 음향적인 동작을 발현하기 위한 동작 발현 수단을 포함하고,
    상기 동작 발현 수단은, 상기 발화 출력 수단이 출력하는 상기 문자 데이터에 기초한 발화 내용에 맞는 상기 동작을 발현하는 것을 특징으로 하는 로봇 시스템.
  23. 제19항에 있어서,
    상기 로봇 장치의 상기 발화 출력 수단은,
    외부의 상황 및 내부의 상황 중 적어도 어느 하나에 대응하여 생성한 상기 로봇 장치의 행동 상태에 대응하여 다음의 출력 행동을 결정하기 위한 규정으로 이루어지는 행동 결정 정보에 따라, 상기 문자 데이터에 기초한 발화 내용을 설정하는 것을 특징으로 하는 로봇 시스템.
  24. 제23항에 있어서,
    상기 문자 데이터에 기초한 발화 내용은, 상기 로봇 장치가 자율 동작하고 있는 상황을 설명하는 발화 내용인 것을 특징으로 하는 로봇 시스템.
  25. 제23항에 있어서,
    상기 문자 데이터에 기초한 발화 내용은, 상기 로봇 장치의 행동의 상태 천이에 대응한 발화 내용인 것을 특징으로 하는 로봇 시스템.
  26. 제23항에 있어서,
    상기 문자 데이터에 기초한 발화 내용은, 미리 설정된 시나리오에 기초한 복수의 연결된 발화 내용인 것을 특징으로 하는 로봇 시스템.
  27. 제23항에 있어서,
    상기 문자 데이터에 기초한 발화 내용은, 상기 로봇 장치가 자율 동작하고 있는 상황을 설명하는 발화 내용과, 상기 로봇 장치의 행동의 상태 천이에 대응한 발화 내용과, 미리 설정된 시나리오에 기초한 복수의 연결된 발화 내용 중 어느 하나를 선택한 것인 것을 특징으로 하는 로봇 시스템.
  28. 제23항에 있어서,
    상기 로봇 장치에서는,
    상기 발화 출력 수단은, 상기 행동 결정 정보로 결정되는 다음의 출력 행동에 대하여, 상기 문자 데이터에 기초한 발화 내용을 복수개 설정해 두고, 해당 발화 내용 중 하나를 랜덤하게 선택하도록 한 것을 특징으로 하는 로봇 시스템.
  29. 자율적으로 행동을 발현하는 복수의 로봇 장치 사이에서 소정의 무선 통신 규격에 기초한 무선 통신을 행하는 로봇 시스템에 있어서,
    상기 로봇 장치는, 상기 무선 통신 규격에 기초한 무선 통신을 행하기 위한 단말기 수단과, 발화 내용을 나타내는 문자 데이터를 상기 단말기 수단을 통하여 외부 출력하는 발화 출력 수단을 포함하고,
    상기 로봇 시스템은 사용자에 의해 사용되는 무선 단말기 장치를 포함하고, 상기 무선 단말 장치는, 상기 무선 통신 규격에 기초한 무선 통신을 행하기 위한 단말기 수단과, 해당 단말기 수단을 통하여 얻어진 상기 문자 데이터에 기초한 상기 로봇 장치의 상기 발화 내용을 표시하는 표시 수단을 포함하고,
    상기 로봇 장치의 상기 단말기 수단 사이에서 상기 무선 통신의 접속을 확립하고 있는 동안, 상기 무선 단말 장치의 상기 표시 수단은, 쌍방의 상기 로봇 장치의 상기 발화 출력 수단으로부터 출력되는 상기 문자 데이터에 기초한 상기 발화 내용을 표시하며,
    원격 조작 장치가, 상기 로봇 장치상에 위치한 각 LED의 각 점멸 패턴(flash pattern)에 대한 LED 파일을 재생하고, 상기 원격 조작 장치에 의한 조작을 위해 메모리에 상기 각 점멸 패턴을 저장하는 것을 특징으로 하는 로봇 시스템.
  30. 제29항에 있어서,
    상기 로봇 장치는, 물리적, 광학적이거나 음향적인 동작을 발현하기 위한 동 작 발현 수단을 포함하며,
    상기 동작 발현 수단은, 상기 발화 출력 수단이 출력하는 상기 문자 데이터에 기초한 발화 내용에 맞춘 상기 동작을 발현하는 것을 특징으로 하는 로봇 시스템.
  31. 제29항에 있어서,
    상기 로봇 장치의 상기 발화 출력 수단은,
    외부의 상황 및 내부의 상황 중 적어도 어느 하나에 대응하여 생성한 상기 로봇 장치의 행동 상태에 대응하여 다음 출력 행동을 결정하기 위한 규정으로 이루어지는 행동 결정 정보에 따라, 상기 문자 데이터에 기초한 발화 내용을 설정하는 것을 특징으로 하는 로봇 시스템.
  32. 제31항에 있어서,
    상기 문자 데이터에 기초한 발화 내용은, 상기 로봇 장치가 자율 동작하고 있는 상황을 설명하는 발화 내용인 것을 특징으로 하는 로봇 시스템.
  33. 제31항에 있어서,
    상기 문자 데이터에 기초한 발화 내용은, 상기 로봇 장치의 행동의 상태 천이에 대응한 발화 내용인 것을 특징으로 하는 로봇 시스템.
  34. 제31항에 있어서,
    상기 문자 데이터에 기초한 발화 내용은 미리 설정된 시나리오에 기초한 복수의 연결된 발화 내용인 것을 특징으로 하는 로봇 시스템.
  35. 제31항에 있어서,
    상기 문자 데이터에 기초한 발화 내용은, 상기 로봇 장치가 자율 동작하고 있는 상황을 설명하는 발화 내용과, 상기 로봇 장치의 행동의 상태 천이에 대응한 발화 내용과, 미리 설정된 시나리오에 기초한 복수의 연결된 발화 내용 중 어느 하나를 선택한 것인 것을 특징으로 하는 로봇 시스템.
  36. 제31항에 있어서,
    상기 로봇 장치에서는, 상기 발화 출력 수단은, 상기 행동 결정 정보로 결정되는 다음의 출력 행동에 대하여, 상기 문자 데이터에 기초한 발화 내용을 복수개 설정해 두고, 해당 발화 내용의 하나를 랜덤하게 선택하도록 한 것을 특징으로 하는 로봇 시스템.
  37. 제29항에 있어서,
    상기 로봇 장치에 물리적인 활동 작용을 행하면서 상기 무선 단말 장치를 등록하는 것을 특징으로 하는 로봇 시스템.
  38. 자율적으로 행동을 발현하고, 무선 단말 장치와의 사이에서 소정의 무선 통신 규격에 기초한 무선 통신을 행하는 로봇 장치에 있어서,
    상기 무선 통신 규격에 기초한 무선 통신을 행하기 위한 단말기 수단과,
    발화 내용을 나타내는 문자 데이터를 상기 단말기 수단을 통하여 외부 출력하는 발화 출력 수단과,
    외부 상황에 있어서의 사용자의 존재를 검지하는 센서 수단을 포함하고,
    상기 무선 단말 장치의 단말기 수단과 상기 로봇 장치의 단말기 수단과의 사이에서 상기 무선 통신의 접속을 확립하고 있는 동안에, 상기 센서 수단이 사용자를 검지한 경우에는, 상기 발화 출력 수단은, 상기 발화 내용을 나타내는 문자 데이터를 상기 로봇 장치의 상기 단말기 수단을 통하여 외부 출력하며,
    원격 조작 장치가, 상기 로봇 장치상에 위치한 각 LED의 각 점멸 패턴(flash pattern)에 대한 LED 파일을 재생하고, 상기 원격 조작 장치에 의한 조작을 위해 메모리에 상기 각 점멸 패턴을 저장하는 것을 특징으로 하는 로봇 장치.
  39. 삭제
  40. 제38항에 있어서,
    상기 센서 수단의 검지 결과에 기초하여, 상기 로봇 장치의 상기 단말기 수단에 의한 상기 무선 통신의 접속의 절단 또는 재개를 제어하는 제어 수단을 포함하고,
    상기 무선 단말 장치의 단말기 수단과 상기 로봇 장치의 단말기 수단과의 사이에서 상기 무선 통신의 접속을 확립하고 있는 동안에, 소정 시간 내에 상기 센서 수단이 사용자를 검지하지 않는 경우에는, 상기 제어 수단은, 소정의 시간 간격으로 상기 무선 통신의 접속의 절단 또는 재개를 반복하는 것을 특징으로 하는 로봇 장치.
  41. 제38항에 있어서,
    물리적, 광학적이거나 음향적인 동작을 발현하기 위한 동작 발현 수단을 포함하고,
    상기 동작 발현 수단은, 상기 발화 출력 수단이 출력하는 상기 문자 데이터에 기초한 발화 내용에 맞춘 상기 동작을 발현하는 것을 특징으로 하는 로봇 장치.
  42. 제38항에 있어서,
    상기 발화 출력 수단은,
    외부의 상황 및 내부의 상황 중 적어도 어느 하나에 대응하여 생성한 상기 로봇 장치의 행동 상태에 대응하여 다음 출력 행동을 결정하기 위한 규정으로 이루어지는 행동 결정 정보에 따라, 상기 문자 데이터에 기초한 발화 내용을 설정하는 것을 특징으로 하는 로봇 장치.
  43. 제42항에 있어서,
    상기 문자 데이터에 기초한 발화 내용은, 상기 로봇 장치가 자율 동작하고 있는 상황을 설명하는 발화 내용인 것을 특징으로 하는 로봇 장치.
  44. 제42항에 있어서,
    상기 문자 데이터에 기초한 발화 내용은, 상기 로봇 장치의 행동의 상태 천이에 대응한 발화 내용인 것을 특징으로 하는 로봇 장치.
  45. 제42항에 있어서,
    상기 문자 데이터에 기초한 발화 내용은, 미리 설정된 시나리오에 기초한 복수의 연결된 발화 내용인 것을 특징으로 하는 로봇 장치.
  46. 제42항에 있어서,
    상기 문자 데이터에 기초한 발화 내용은, 상기 로봇 장치가 자율 동작하고 있는 상황을 설명하는 발화 내용과, 상기 로봇 장치의 행동의 상태 천이에 응답한 발화 내용과, 미리 설정된 시나리오에 기초한 복수의 연결된 발화 내용 중 어느 하나를 선택한 것인 것을 특징으로 하는 로봇 장치.
  47. 제42항에 있어서,
    상기 발화 출력 수단은, 상기 행동 결정 정보로 결정된 다음의 출력 행동에 대하여, 상기 문자 데이터에 기초한 발화 내용을 복수개 설정해 두고, 해당 발화 내용 중 하나를 랜덤하게 선택하도록 한 것을 특징으로 하는 로봇 장치.
  48. 삭제
  49. 삭제
  50. 삭제
  51. 자율적으로 행동을 발현하는 로봇 장치와 무선 단말 장치와의 사이에서 소정의 무선 통신 규격에 기초한 무선 통신을 행하는 로봇 장치의 제어 방법에 있어서,
    상기 로봇 장치가 발화 내용을 나타내는 문자 데이터를 상기 무선 단말 장치로 송신하는 제1 단계와,
    상기 무선 단말 장치가, 상기 로봇 장치로부터 얻어진 상기 문자 데이터에 기초한 해당 로봇 장치의 상기 발화 내용을 표시하는 제2 단계를 포함하고,
    상기 제1 단계에서는,
    상기 무선 단말 장치와 상기 로봇 장치와의 사이에서 상기 무선 통신의 접속을 확립하고 있는 동안에, 외부 상황에서의 사용자의 존재를 검지한 경우에는, 발화 출력 수단은, 상기 발화 내용을 나타내는 문자 데이터를 상기 무선 단말 장치로 송신하며,
    원격 조작 장치가, 상기 로봇 장치상에 위치한 각 LED의 각 점멸 패턴(flash pattern)에 대한 LED 파일을 재생하고, 상기 원격 조작 장치에 의한 조작을 위해 메모리에 상기 각 점멸 패턴을 저장하는 것을 특징으로 하는 로봇 장치의 제어 방법.
  52. 삭제
  53. 제51항에 있어서,
    상기 제1 단계에서는,
    상기 무선 단말 장치와 상기 로봇 장치 사이에서 상기 무선 통신의 접속을 확립하고 있는 동안에, 소정 시간 내에 사용자를 검지하지 않는 경우에는, 소정의 시간 간격으로 상기 무선 통신의 접속의 절단 또는 재개를 반복하는 것을 특징으로 하는 로봇 장치의 제어 방법.
  54. 제51항에 있어서,
    상기 제1 단계에서는, 상기 문자 데이터에 기초한 발화 내용에 맞춘 물리적, 광학적이거나 음향적인 동작을 발현하는 것을 특징으로 하는 로봇 장치의 제어 방법.
  55. 제51항에 있어서,
    상기 로봇 장치는 외부의 상황 및 내부의 상황 중 적어도 어느 하나에 대응하여 생성한 상기 로봇 장치의 행동 상태에 대응하여 다음의 출력 행동을 결정하기 위한 규정으로 이루어지는 행동 결정 정보에 따라, 상기 문자 데이터에 기초한 발화 내용을 설정하는 것을 특징으로 하는 로봇 장치의 제어 방법.
  56. 제55항에 있어서,
    상기 문자 데이터에 기초한 발화 내용은, 상기 로봇 장치가 자율 동작하고 있는 상황을 설명하는 발화 내용인 것을 특징으로 하는 로봇 장치의 제어 방법.
  57. 제55항에 있어서,
    상기 문자 데이터에 기초한 발화 내용은, 상기 로봇 장치의 행동의 상태 천이에 대응한 발화 내용인 것을 특징으로 하는 로봇 장치의 제어 방법.
  58. 제55항에 있어서,
    상기 문자 데이터에 기초한 발화 내용은, 미리 설정된 시나리오에 기초한 복수의 연결된 발화 내용인 것을 특징으로 하는 로봇 장치의 제어 방법.
  59. 제55항에 있어서,
    상기 문자 데이터에 기초한 발화 내용은, 상기 로봇 장치가 자율 동작하고 있는 상황을 설명하는 발화 내용과, 상기 로봇 장치의 행동의 상태 천이에 대응한 발화 내용과, 미리 설정된 시나리오에 기초한 복수의 연결된 발화 내용 중 어느 하나를 선택한 것인 것을 특징으로 하는 로봇 장치의 제어 방법.
  60. 제55항에 있어서,
    상기 로봇 장치에서는,
    상기 발화 출력 수단은, 상기 행동 결정 정보로 결정된 다음의 출력 행동에 대하여, 상기 문자 데이터에 기초한 발화 내용을 복수 설정해 두고, 해당 발화 내용 중 하나를 랜덤하게 선택하도록 한 것을 특징으로 하는 로봇 장치의 제어 방법.
  61. 제51항에 있어서,
    어느 하나의 상기 로봇 장치가 소정의 시간 타이밍에서 접속 요구를 발신하고, 해당 접속 요구를 수신한 다른 상기 로봇 장치가 응답을 회신했을 때, 쌍방의 상기 로봇 장치는, 상기 무선 통신의 접속을 확립한 후, 서로 상기 로봇 장치에 고유한 명함 정보를 송수신하는 것을 특징으로 하는 로봇 장치의 제어 방법.
  62. 제61항에 있어서,
    상기 로봇 장치로부터 발신되는 상기 접속 요구를 수신하여 응답을 회신한 무선 단말 장치는, 해당 로봇 장치와 상기 무선 통신의 접속을 확립한 후, 상기 무선 단말 장치는 해당 무선 단말 장치에 고유한 명함 정보를 상기 로봇 장치로 송신하는 한편, 상기 로봇 장치는 해당 로봇 장치에 고유한 명함 정보를 상기 무선 단말 장치로 송신하는 것을 특징으로 하는 로봇 장치의 제어 방법.
  63. 제19항에 있어서,
    어느 하나의 상기 로봇 장치의 단말기 수단이, 소정의 시간 타이밍에서 접속 요구를 발신하고, 해당 접속 요구를 수신한 다른 상기 로봇 장치의 단말기 수단이 응답을 회신했을 때, 쌍방의 상기 로봇 장치의 단말기 수단은, 상기 무선 통신의 접속을 확립한 후, 서로 상기 로봇 장치에 고유한 명함 정보를 송수신하는 것을 특징으로 하는 로봇 시스템.
  64. 제63항에 있어서,
    상기 무선 단말 장치는, 상기 로봇 장치의 단말기 수단으로부터 발신되는 상기 접속 요구를 수신하여 응답을 회신한 경우에는, 상기 무선 통신의 접속을 확립한 후, 상기 단말기 수단은 상기 무선 단말 장치에 고유한 명함 정보를 상기 로봇 장치의 단말기 수단으로 송신하는 한편, 상기 로봇 장치의 단말기 수단은 해당 로봇 장치에 고유한 명함 정보를 상기 무선 단말 장치의 단말기 수단으로 송신하는 것을 특징으로 하는 로봇 시스템.
  65. 삭제
  66. 삭제
  67. 삭제
  68. 삭제
  69. 삭제
KR1020037009040A 2001-11-07 2002-11-07 로봇 시스템, 로봇 장치 및 그 제어 방법 KR101008085B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2001342459 2001-11-07
JPJP-P-2001-00342459 2001-11-07
JP2002136327A JP2003205483A (ja) 2001-11-07 2002-05-10 ロボットシステム及びロボット装置の制御方法
JPJP-P-2002-00136327 2002-05-10
PCT/JP2002/011603 WO2003039818A2 (fr) 2001-11-07 2002-11-07 Systeme de robot et technique de commande de dispositif robotise

Publications (2)

Publication Number Publication Date
KR20040054600A KR20040054600A (ko) 2004-06-25
KR101008085B1 true KR101008085B1 (ko) 2011-01-13

Family

ID=26624400

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020037009040A KR101008085B1 (ko) 2001-11-07 2002-11-07 로봇 시스템, 로봇 장치 및 그 제어 방법

Country Status (5)

Country Link
US (1) US7139642B2 (ko)
JP (1) JP2003205483A (ko)
KR (1) KR101008085B1 (ko)
CN (1) CN100467236C (ko)
WO (1) WO2003039818A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11200787B2 (en) 2016-07-04 2021-12-14 Sony Corporation Robot, robot system, and storage medium

Families Citing this family (155)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002054184A2 (en) 2001-01-04 2002-07-11 Roy-G-Biv Corporation Systems and methods for transmitting motion control data
US7904194B2 (en) * 2001-02-09 2011-03-08 Roy-G-Biv Corporation Event management systems and methods for motion control systems
JP2002283261A (ja) * 2001-03-27 2002-10-03 Sony Corp ロボット装置及びその制御方法、並びに記憶媒体
TW542739B (en) * 2001-05-25 2003-07-21 Interlego Ag System for transmitting and receiving information about the orientation of a robot and information about the distance between the system and a robot
CN1529838A (zh) * 2001-05-25 2004-09-15 玩具机器人的程序设计
US6925357B2 (en) 2002-07-25 2005-08-02 Intouch Health, Inc. Medical tele-robotic system
US20040162637A1 (en) 2002-07-25 2004-08-19 Yulun Wang Medical tele-robotic system with a master remote station with an arbitrator
JP3963162B2 (ja) * 2003-08-28 2007-08-22 ソニー株式会社 ロボット装置及びロボット装置の制御方法ロボット装置
JP2005117621A (ja) * 2003-09-16 2005-04-28 Honda Motor Co Ltd 画像配信システム
US8027349B2 (en) 2003-09-25 2011-09-27 Roy-G-Biv Corporation Database event driven motion systems
US7813836B2 (en) 2003-12-09 2010-10-12 Intouch Technologies, Inc. Protocol for a remotely controlled videoconferencing robot
JP4556425B2 (ja) * 2003-12-11 2010-10-06 ソニー株式会社 コンテンツ再生システム、コンテンツ再生方法、コンテンツ再生装置
US7454469B2 (en) * 2003-12-22 2008-11-18 International Business Machines Corporation Method and system for instant messaging Bots specification using state transition methodology and XML
JP4303602B2 (ja) * 2004-01-09 2009-07-29 本田技研工業株式会社 顔面像取得システム
US20050204438A1 (en) * 2004-02-26 2005-09-15 Yulun Wang Graphical interface for a remote presence system
EP1571584A1 (en) * 2004-03-03 2005-09-07 Honda Research Institute Europe GmbH Integrating visual and object information in a pervasive computing environment
JP2005267000A (ja) 2004-03-17 2005-09-29 Sony Corp 電子機器および機能割り当て方法
US8077963B2 (en) 2004-07-13 2011-12-13 Yulun Wang Mobile robot with a head-based movement mapping scheme
US8000837B2 (en) 2004-10-05 2011-08-16 J&L Group International, Llc Programmable load forming system, components thereof, and methods of use
KR100902662B1 (ko) * 2004-12-30 2009-06-15 삼성전자주식회사 단말용 데이터 포맷을 이용한 통신 제어 시스템 및 그 방법
KR20070091685A (ko) * 2005-01-26 2007-09-11 가부시키가이샤 야스카와덴키 로봇 시스템
KR100636270B1 (ko) * 2005-02-04 2006-10-19 삼성전자주식회사 홈 네트워크 시스템 및 그 제어방법
JP4624825B2 (ja) * 2005-03-08 2011-02-02 日産自動車株式会社 音声対話装置および音声対話方法
JP4423562B2 (ja) * 2005-05-09 2010-03-03 ソニー株式会社 処理実行装置、処理実行方法及び処理実行プログラム
JP4247213B2 (ja) * 2005-07-20 2009-04-02 ファナック株式会社 複数のロボット制御装置を備えるロボットシステム及びロボット制御装置
EP1909936A2 (en) * 2005-07-25 2008-04-16 Koninklijke Philips Electronics N.V. Method and system of interfacing to add-on devices
JP2007050490A (ja) * 2005-08-19 2007-03-01 Hitachi Ltd 遠隔操作ロボットシステム
US9198728B2 (en) 2005-09-30 2015-12-01 Intouch Technologies, Inc. Multi-camera mobile teleconferencing platform
US20070166004A1 (en) * 2006-01-10 2007-07-19 Io.Tek Co., Ltd Robot system using menu selection card having printed menu codes and pictorial symbols
KR20070087354A (ko) * 2006-02-23 2007-08-28 삼성전자주식회사 질의응답형 화면제공장치 및 방법
US8849679B2 (en) 2006-06-15 2014-09-30 Intouch Technologies, Inc. Remote controlled robot system that provides medical images
US20080046121A1 (en) * 2006-08-17 2008-02-21 Innovati, Inc. Developing system of re-configurable modularized robot
KR100833270B1 (ko) * 2006-10-02 2008-05-29 한국전자통신연구원 이동 가능한 자동 사진 촬영 방법 및 장치
US20120264095A1 (en) * 2006-12-29 2012-10-18 Industrial Technology Research Institute Emotion abreaction device and using method of emotion abreaction device
KR100866212B1 (ko) * 2007-02-08 2008-10-30 삼성전자주식회사 유전자 로봇 플랫폼 및 유전자 로봇 행동 발현 방법
US8265793B2 (en) 2007-03-20 2012-09-11 Irobot Corporation Mobile robot for telecommunication
US9160783B2 (en) 2007-05-09 2015-10-13 Intouch Technologies, Inc. Robot system that operates through a network firewall
JP2009025658A (ja) * 2007-07-20 2009-02-05 Oki Electric Ind Co Ltd 音声合成装置、音声合成システム
US20090248200A1 (en) * 2007-10-22 2009-10-01 North End Technologies Method & apparatus for remotely operating a robotic device linked to a communications network
KR20090065212A (ko) * 2007-12-17 2009-06-22 한국전자통신연구원 로봇 채팅 시스템 및 방법
CN101493903A (zh) * 2008-01-24 2009-07-29 鸿富锦精密工业(深圳)有限公司 有性格特征的类生物装置及其展现方法
US10875182B2 (en) 2008-03-20 2020-12-29 Teladoc Health, Inc. Remote presence system mounted to operating room hardware
US8179418B2 (en) 2008-04-14 2012-05-15 Intouch Technologies, Inc. Robotic based health care system
US8170241B2 (en) 2008-04-17 2012-05-01 Intouch Technologies, Inc. Mobile tele-presence system with a microphone system
US9193065B2 (en) 2008-07-10 2015-11-24 Intouch Technologies, Inc. Docking system for a tele-presence robot
US9842192B2 (en) 2008-07-11 2017-12-12 Intouch Technologies, Inc. Tele-presence robot system with multi-cast features
JP5404781B2 (ja) * 2008-07-18 2014-02-05 ハイドレイ リミテッド 対話式玩具
US8340819B2 (en) 2008-09-18 2012-12-25 Intouch Technologies, Inc. Mobile videoconferencing robot system with network adaptive driving
TWI392983B (zh) * 2008-10-06 2013-04-11 Sonix Technology Co Ltd 利用音調的自動控制方法及其裝置
US8996165B2 (en) 2008-10-21 2015-03-31 Intouch Technologies, Inc. Telepresence robot with a camera boom
US9138891B2 (en) 2008-11-25 2015-09-22 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US8463435B2 (en) 2008-11-25 2013-06-11 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US8849680B2 (en) 2009-01-29 2014-09-30 Intouch Technologies, Inc. Documentation through a remote presence robot
US8285413B1 (en) * 2009-03-29 2012-10-09 International Training Institute for the Sheet Metal and Air Conditioning Industry Sheet metal fabrication system
US8897920B2 (en) 2009-04-17 2014-11-25 Intouch Technologies, Inc. Tele-presence robot system with software modularity, projector and laser pointer
US11399153B2 (en) 2009-08-26 2022-07-26 Teladoc Health, Inc. Portable telepresence apparatus
US8384755B2 (en) 2009-08-26 2013-02-26 Intouch Technologies, Inc. Portable remote presence robot
JP5244082B2 (ja) * 2009-12-10 2013-07-24 株式会社日立製作所 リアルタイム分散制御システム、リアルタイム分散制御方法、およびロボット
CN102103707B (zh) * 2009-12-16 2014-06-11 群联电子股份有限公司 情感引擎、情感引擎系统及电子装置的控制方法
US8644438B2 (en) * 2010-01-30 2014-02-04 Robert Welland Method and apparatus for providing a synthetic system
US11154981B2 (en) 2010-02-04 2021-10-26 Teladoc Health, Inc. Robot user interface for telepresence robot system
US8670017B2 (en) 2010-03-04 2014-03-11 Intouch Technologies, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
US9400503B2 (en) 2010-05-20 2016-07-26 Irobot Corporation Mobile human interface robot
US8918213B2 (en) * 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
US9014848B2 (en) 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
US8935005B2 (en) 2010-05-20 2015-01-13 Irobot Corporation Operating a mobile robot
US10343283B2 (en) 2010-05-24 2019-07-09 Intouch Technologies, Inc. Telepresence robot system that can be accessed by a cellular phone
US10808882B2 (en) 2010-05-26 2020-10-20 Intouch Technologies, Inc. Tele-robotic system with a robot face placed on a chair
US9906838B2 (en) 2010-07-12 2018-02-27 Time Warner Cable Enterprises Llc Apparatus and methods for content delivery and message exchange across multiple content delivery networks
US9264664B2 (en) 2010-12-03 2016-02-16 Intouch Technologies, Inc. Systems and methods for dynamic bandwidth allocation
US8930019B2 (en) 2010-12-30 2015-01-06 Irobot Corporation Mobile human interface robot
US8818556B2 (en) * 2011-01-13 2014-08-26 Microsoft Corporation Multi-state model for robot and user interaction
US9431027B2 (en) * 2011-01-26 2016-08-30 Honda Motor Co., Ltd. Synchronized gesture and speech production for humanoid robots using random numbers
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US8718837B2 (en) 2011-01-28 2014-05-06 Intouch Technologies Interfacing with a mobile telepresence robot
JP5783758B2 (ja) * 2011-02-28 2015-09-24 株式会社デジタルリンク ロボット端末及びロボットシステム
US10769739B2 (en) 2011-04-25 2020-09-08 Intouch Technologies, Inc. Systems and methods for management of information among medical providers and facilities
US8452451B1 (en) * 2011-05-06 2013-05-28 Google Inc. Methods and systems for robotic command language
US20140139616A1 (en) 2012-01-27 2014-05-22 Intouch Technologies, Inc. Enhanced Diagnostics for a Telepresence Robot
US9098611B2 (en) 2012-11-26 2015-08-04 Intouch Technologies, Inc. Enhanced video interaction for a user interface of a telepresence network
JP5800616B2 (ja) * 2011-07-15 2015-10-28 オリンパス株式会社 マニピュレータシステム
KR101356161B1 (ko) * 2011-09-07 2014-01-24 엘지전자 주식회사 로봇 청소기, 및 로봇 청소기의 원격 제어 시스템 및 방법
US9037296B2 (en) 2011-09-07 2015-05-19 Lg Electronics Inc. Robot cleaner, and system and method for remotely controlling the same
US8836751B2 (en) 2011-11-08 2014-09-16 Intouch Technologies, Inc. Tele-presence system with a user interface that displays different communication links
JP2013111737A (ja) * 2011-12-01 2013-06-10 Sony Corp ロボット装置及びその制御方法、並びにコンピューター・プログラム
US10846497B2 (en) 2011-12-05 2020-11-24 Adasa Inc. Holonomic RFID reader
US11093722B2 (en) 2011-12-05 2021-08-17 Adasa Inc. Holonomic RFID reader
KR20130087881A (ko) * 2012-01-30 2013-08-07 한국전자통신연구원 원격 관제 시스템을 이용한 무인 감시 장치 및 방법, 무인 감시를 위한 로봇 제어 단말
US20150138333A1 (en) * 2012-02-28 2015-05-21 Google Inc. Agent Interfaces for Interactive Electronics that Support Social Cues
US9251313B2 (en) 2012-04-11 2016-02-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US8902278B2 (en) 2012-04-11 2014-12-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
EP2852475A4 (en) 2012-05-22 2016-01-20 Intouch Technologies Inc SOCIAL BEHAVIOR OF A MEDICAL TELEPRESCENT ROBOT
US9361021B2 (en) 2012-05-22 2016-06-07 Irobot Corporation Graphical user interfaces including touchpad driving interfaces for telemedicine devices
US9753453B2 (en) 2012-07-09 2017-09-05 Deep Learning Robotics Ltd. Natural machine interface system
KR101190660B1 (ko) * 2012-07-23 2012-10-15 (주) 퓨처로봇 로봇 제어 시나리오 생성 방법 및 장치
US9186793B1 (en) 2012-08-31 2015-11-17 Brain Corporation Apparatus and methods for controlling attention of a robot
US9443515B1 (en) * 2012-09-05 2016-09-13 Paul G. Boyce Personality designer system for a detachably attachable remote audio object
JP6076100B2 (ja) * 2013-01-18 2017-02-08 株式会社アイエイアイ ロボットゲームシステム
US8868241B2 (en) * 2013-03-14 2014-10-21 GM Global Technology Operations LLC Robot task commander with extensible programming environment
CN103439924A (zh) * 2013-07-15 2013-12-11 上海华兴数字科技有限公司 一种变频器的远程操控系统
CN104385273B (zh) * 2013-11-22 2016-06-22 嘉兴市德宝威微电子有限公司 机器人系统及其同时表演控制方法
CN104698996A (zh) * 2013-12-05 2015-06-10 上海能感物联网有限公司 汉语文本现场控制的机器人系统
US9987743B2 (en) 2014-03-13 2018-06-05 Brain Corporation Trainable modular robotic apparatus and methods
US9364950B2 (en) * 2014-03-13 2016-06-14 Brain Corporation Trainable modular robotic methods
US9533413B2 (en) 2014-03-13 2017-01-03 Brain Corporation Trainable modular robotic apparatus and methods
US9630317B2 (en) * 2014-04-03 2017-04-25 Brain Corporation Learning apparatus and methods for control of robotic devices via spoofing
US9613308B2 (en) * 2014-04-03 2017-04-04 Brain Corporation Spoofing remote control apparatus and methods
WO2015155977A1 (ja) 2014-04-07 2015-10-15 日本電気株式会社 連携システム、装置、方法、および記録媒体
US20150312113A1 (en) * 2014-04-28 2015-10-29 Qualcomm Incorporated AllJoyn Messaging Anonymous Targets Based on Association
JP5737641B2 (ja) * 2014-05-24 2015-06-17 洋彰 宮崎 自律型思考パターン生成機
US9860077B2 (en) * 2014-09-17 2018-01-02 Brain Corporation Home animation apparatus and methods
US9579790B2 (en) 2014-09-17 2017-02-28 Brain Corporation Apparatus and methods for removal of learned behaviors in robots
US9849588B2 (en) * 2014-09-17 2017-12-26 Brain Corporation Apparatus and methods for remotely controlling robotic devices
US9821470B2 (en) 2014-09-17 2017-11-21 Brain Corporation Apparatus and methods for context determination using real time sensor data
CN104407583A (zh) * 2014-11-07 2015-03-11 惠州市德宝威敏通科技有限公司 多电子实体协作系统
JP2018008316A (ja) * 2014-11-21 2018-01-18 ヴイストン株式会社 学習型ロボット、学習型ロボットシステム、及び学習型ロボット用プログラム
US9426946B2 (en) 2014-12-02 2016-08-30 Brain Corporation Computerized learning landscaping apparatus and methods
JP6467710B2 (ja) * 2015-04-06 2019-02-13 信太郎 本多 環境に適応する、汎用性を意識した人工知能システム
US9868421B2 (en) 2015-06-17 2018-01-16 Ample, Inc. Robot assisted modular battery interchanging system
US9840003B2 (en) 2015-06-24 2017-12-12 Brain Corporation Apparatus and methods for safe navigation of robotic devices
US10265863B2 (en) * 2015-09-09 2019-04-23 Carbon Robotics, Inc. Reconfigurable robotic system and methods
CN105353670A (zh) * 2015-09-22 2016-02-24 长春工业大学 基于嵌入式的仿人机器人运动控制器
KR20170052976A (ko) * 2015-11-05 2017-05-15 삼성전자주식회사 모션을 수행하는 전자 장치 및 그 제어 방법
CN105345821A (zh) * 2015-12-15 2016-02-24 南京工程学院 一种可实现机器自控和人工遥控的救援清障机器人
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
US10295972B2 (en) 2016-04-29 2019-05-21 Brain Corporation Systems and methods to operate controllable devices with gestures and/or noises
JP6667855B2 (ja) * 2016-05-20 2020-03-18 日本電信電話株式会社 取得方法、生成方法、それらのシステム、及びプログラム
WO2017200074A1 (ja) * 2016-05-20 2017-11-23 日本電信電話株式会社 対話方法、対話システム、対話装置、及びプログラム
JP6680125B2 (ja) * 2016-07-25 2020-04-15 トヨタ自動車株式会社 ロボットおよび音声対話方法
EP3495028B1 (en) * 2016-08-04 2021-01-13 Sony Interactive Entertainment Inc. Information processing device, information processing method, and information medium
CN106371455B (zh) * 2016-08-29 2019-01-25 马登山 一种智能交互方法和系统
DE112017004554B4 (de) * 2016-09-09 2020-12-03 Groove X, Inc. Autonom handelnder Roboter, der einen Gast akzeptiert
CN107870896B (zh) * 2016-09-23 2021-06-25 深圳市云网万店电子商务有限公司 一种对话分析方法及装置
CN106406328B (zh) * 2016-11-05 2020-04-03 杭州畅动智能科技有限公司 一种基于机器人开发平台的运动控制方法
CN106774832A (zh) * 2016-11-15 2017-05-31 北京光年无限科技有限公司 一种用于智能机器人的人机交互方法及装置
CN106933344A (zh) * 2017-01-18 2017-07-07 北京光年无限科技有限公司 实现智能机器人之间多模态交互的方法及装置
US11862302B2 (en) 2017-04-24 2024-01-02 Teladoc Health, Inc. Automated transcription and documentation of tele-health encounters
US10483007B2 (en) 2017-07-25 2019-11-19 Intouch Technologies, Inc. Modular telehealth cart with thermal imaging and touch screen user interface
US11636944B2 (en) 2017-08-25 2023-04-25 Teladoc Health, Inc. Connectivity infrastructure for a telehealth platform
USD916160S1 (en) * 2017-10-31 2021-04-13 Sony Corporation Robot
JP1622874S (ja) 2017-12-29 2019-01-28 ロボット
US11267121B2 (en) * 2018-02-13 2022-03-08 Casio Computer Co., Ltd. Conversation output system, conversation output method, and non-transitory recording medium
US10617299B2 (en) 2018-04-27 2020-04-14 Intouch Technologies, Inc. Telehealth cart that supports a removable tablet with seamless audio/video switching
WO2019216053A1 (ja) * 2018-05-11 2019-11-14 株式会社Nttドコモ 対話装置
JP7155676B2 (ja) * 2018-07-05 2022-10-19 カシオ計算機株式会社 名付け支援装置、ロボット、名付け支援方法およびプログラム
CN110870210A (zh) * 2018-08-24 2020-03-06 深圳市大疆创新科技有限公司 机器人通信方法、装置及系统
CN109756946B (zh) * 2018-12-19 2021-03-19 北京交通大学 一种多智能体协同调控编队方法
JP2022051982A (ja) * 2019-02-15 2022-04-04 ソニーグループ株式会社 情報処理装置および情報処理方法
JP7273566B2 (ja) * 2019-03-19 2023-05-15 パナソニックホールディングス株式会社 ロボット、ロボットの制御方法及びプログラム
KR20210020312A (ko) * 2019-08-14 2021-02-24 엘지전자 주식회사 로봇 및 그의 제어 방법
KR102295836B1 (ko) * 2020-11-20 2021-08-31 오로라월드 주식회사 성장형 스마트 토이 장치 및 스마트 토이 시스템
CN112579762B (zh) * 2021-02-24 2021-06-08 之江实验室 一种基于语义、情感惯性和情感共性的对话情感分析方法
JP7192905B2 (ja) * 2021-03-16 2022-12-20 カシオ計算機株式会社 制御装置、制御方法及びプログラム
USD985645S1 (en) * 2021-04-16 2023-05-09 Macroact Inc. Companion robot
EP4268915A1 (de) * 2022-04-28 2023-11-01 Geobra Brandstätter Stiftung & Co. KG Kommunikative spielzeugfigur

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188787A (ja) 1999-12-28 2001-07-10 Sony Corp 会話処理装置および方法、並びに記録媒体
JP2001212782A (ja) * 2000-01-31 2001-08-07 Sony Corp ロボット装置及びロボット装置の制御方法
JP2001224867A (ja) * 1999-05-13 2001-08-21 Masanobu Kujirada 擬似ペット
JP2001306048A (ja) * 2000-04-19 2001-11-02 Aikomu International:Kk ディスプレイ装置

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5805807A (en) * 1990-05-25 1998-09-08 Norand Corporation Multilevel data communication system including local and host systems
JP2502914B2 (ja) * 1992-07-31 1996-05-29 インターナショナル・ビジネス・マシーンズ・コーポレイション デ―タ転送方法及び装置
US5666530A (en) * 1992-12-02 1997-09-09 Compaq Computer Corporation System for automatic synchronization of common file between portable computer and host computer via communication channel selected from a plurality of usable channels there between
US5724521A (en) * 1994-11-03 1998-03-03 Intel Corporation Method and apparatus for providing electronic advertisements to end users in a consumer best-fit pricing manner
US5802292A (en) * 1995-04-28 1998-09-01 Digital Equipment Corporation Method for predictive prefetching of information over a communications network
US5850517A (en) * 1995-08-31 1998-12-15 Oracle Corporation Communication link for client-server having agent which sends plurality of requests independent of client and receives information from the server independent of the server
US5768511A (en) * 1995-09-18 1998-06-16 International Business Machines Corporation Method and system for managing objects in networked computer system with action performed in the server and object updated in the client
US5884323A (en) * 1995-10-13 1999-03-16 3Com Corporation Extendible method and apparatus for synchronizing files on two different computer systems
US5727202A (en) * 1995-10-18 1998-03-10 Palm Computing, Inc. Method and apparatus for synchronizing information on two different computer systems
US5794210A (en) * 1995-12-11 1998-08-11 Cybergold, Inc. Attention brokerage
US5732074A (en) * 1996-01-16 1998-03-24 Cellport Labs, Inc. Mobile portable wireless communication system
US5754774A (en) * 1996-02-15 1998-05-19 International Business Machine Corp. Client/server communication system
US5727159A (en) * 1996-04-10 1998-03-10 Kikinis; Dan System in which a Proxy-Server translates information received from the Internet into a form/format readily usable by low power portable computers
US5809242A (en) * 1996-04-19 1998-09-15 Juno Online Services, L.P. Electronic mail system for displaying advertisement at local computer received from remote system while the local computer is off-line the remote system
US5881234A (en) * 1996-04-26 1999-03-09 Schwob; Pierre R. Method and system to provide internet access to users via non-home service providers
US5848396A (en) * 1996-04-26 1998-12-08 Freedom Of Information, Inc. Method and apparatus for determining behavioral profile of a computer user
US5918013A (en) * 1996-06-03 1999-06-29 Webtv Networks, Inc. Method of transcoding documents in a network environment using a proxy server
US5727129A (en) * 1996-06-04 1998-03-10 International Business Machines Corporation Network system for profiling and actively facilitating user activities
US5813007A (en) * 1996-06-20 1998-09-22 Sun Microsystems, Inc. Automatic updates of bookmarks in a client computer
US5862346A (en) * 1996-06-28 1999-01-19 Metadigm Distributed group activity data network system and corresponding method
US5906657A (en) * 1996-07-01 1999-05-25 Sun Microsystems, Inc. System using position detector to determine location and orientation between computers to select information to be transferred via wireless medium
US5862339A (en) * 1996-07-09 1999-01-19 Webtv Networks, Inc. Client connects to an internet access provider using algorithm downloaded from a central server based upon client's desired criteria after disconnected from the server
US5922045A (en) * 1996-07-16 1999-07-13 At&T Corp. Method and apparatus for providing bookmarks when listening to previously recorded audio programs
US5919247A (en) * 1996-07-24 1999-07-06 Marimba, Inc. Method for the distribution of code and data updates
US5794259A (en) * 1996-07-25 1998-08-11 Lextron Systems, Inc Apparatus and methods to enhance web browsing on the internet
US5799063A (en) * 1996-08-15 1998-08-25 Talk Web Inc. Communication system and method of providing access to pre-recorded audio messages via the Internet
US5918237A (en) * 1996-09-30 1999-06-29 At&T Corp. System and method for providing multimedia bookmarks for hypertext markup language files
US5864676A (en) * 1996-11-14 1999-01-26 Triteal Corporation URL login
US5896502A (en) * 1996-12-10 1999-04-20 International Business Machines Corporation Internet data transfer control via a client system to reduce delay
US5873100A (en) * 1996-12-20 1999-02-16 Intel Corporation Internet browser that includes an enhanced cache for user-controlled document retention
US5790977A (en) * 1997-02-06 1998-08-04 Hewlett-Packard Company Data acquisition from a remote instrument via the internet
JP3044116U (ja) * 1997-03-18 1997-12-16 株式会社バンダイ 仮想生命体の育成シミュレーション装置
US5890158A (en) * 1997-03-31 1999-03-30 International Business Machines Corporation Method, apparatus, and program storage device for sharing objects with a network server and a database server using a common object model
US5895471A (en) * 1997-07-11 1999-04-20 Unwired Planet, Inc. Providing a directory of frequently used hyperlinks on a remote server
US5877766A (en) * 1997-08-15 1999-03-02 International Business Machines Corporation Multi-node user interface component and method thereof for use in accessing a plurality of linked records
JPH11126017A (ja) * 1997-08-22 1999-05-11 Sony Corp 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム
US5917491A (en) * 1997-08-29 1999-06-29 Netscape Communications Corporation Page proxy
JP3178393B2 (ja) * 1997-11-11 2001-06-18 オムロン株式会社 行動生成装置、行動生成方法及び行動生成プログラム記録媒体
JPH11192384A (ja) * 1997-12-26 1999-07-21 Bandai Co Ltd ネットワークを利用した育成シミュレーション装置
US6249780B1 (en) * 1998-08-06 2001-06-19 Yamaha Hatsudoki Kabushiki Kaisha Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object
US6374155B1 (en) * 1999-11-24 2002-04-16 Personal Robotics, Inc. Autonomous multi-platform robot system
JP2001191283A (ja) * 1999-12-31 2001-07-17 Sony Corp ロボット装置及びその制御方法
EP1182610A1 (en) * 2000-02-09 2002-02-27 Sony Corporation Information processing device and method, data holding device, and program
US6684127B2 (en) * 2000-02-14 2004-01-27 Sony Corporation Method of controlling behaviors of pet robots
JP2002000963A (ja) * 2000-06-19 2002-01-08 Uizu:Kk 通信手段を備えるぬいぐるみ玩具
TWI236610B (en) * 2000-12-06 2005-07-21 Sony Corp Robotic creature device
US6438456B1 (en) * 2001-04-24 2002-08-20 Sandia Corporation Portable control device for networked mobile robots
US6507773B2 (en) * 2001-06-14 2003-01-14 Sharper Image Corporation Multi-functional robot with remote and video system
JP3673192B2 (ja) * 2001-07-17 2005-07-20 コナミ株式会社 遠隔操作システムに使用する送信機

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001224867A (ja) * 1999-05-13 2001-08-21 Masanobu Kujirada 擬似ペット
JP2001188787A (ja) 1999-12-28 2001-07-10 Sony Corp 会話処理装置および方法、並びに記録媒体
JP2001212782A (ja) * 2000-01-31 2001-08-07 Sony Corp ロボット装置及びロボット装置の制御方法
JP2001306048A (ja) * 2000-04-19 2001-11-02 Aikomu International:Kk ディスプレイ装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11200787B2 (en) 2016-07-04 2021-12-14 Sony Corporation Robot, robot system, and storage medium
US11837064B2 (en) 2016-07-04 2023-12-05 Sony Group Corporation Robot, robot system, and storage medium

Also Published As

Publication number Publication date
US7139642B2 (en) 2006-11-21
WO2003039818A2 (fr) 2003-05-15
US20040153211A1 (en) 2004-08-05
WO2003039818A3 (fr) 2004-07-29
JP2003205483A (ja) 2003-07-22
KR20040054600A (ko) 2004-06-25
CN100467236C (zh) 2009-03-11
CN1553845A (zh) 2004-12-08

Similar Documents

Publication Publication Date Title
KR101008085B1 (ko) 로봇 시스템, 로봇 장치 및 그 제어 방법
KR100617525B1 (ko) 로봇장치 및 정보처리시스템
DK2744579T3 (en) CONNECTED MULTIFUNCTIONAL SYSTEM AND METHOD OF APPLICATION
US10086302B2 (en) Doll companion integrating child self-directed execution of applications with cell phone communication, education, entertainment, alert and monitoring systems
US8121653B2 (en) Methods and apparatus for autonomously managing communications using an intelligent intermediary
US8135128B2 (en) Animatronic creatures that act as intermediaries between human users and a telephone system
KR101053875B1 (ko) 휴대 단말기와 동기화된 로봇의 이벤트 실행 방법 및 그시스템
US20020081937A1 (en) Electronic toy
CN103877727B (zh) 一种由手机控制并通过手机进行交互的电子宠物
WO2002076687A1 (en) Robot device and control method therefor, and storage medium
US20040103222A1 (en) Interactive three-dimensional multimedia i/o device for a computer
WO2001058649A1 (fr) Systeme robotique, dispositif robotise et procede de controle d&#39;un tel systeme et dispositif et procede de traitement de donnees
JP2003071763A (ja) 脚式移動ロボット
KR20200120394A (ko) 안드로이드기반의다용도로봇플랫폼장치
US20140011423A1 (en) Communication system, method and device for toys
US20210187402A1 (en) Systems and Methods for Interactive Communication Between an Object and a Smart Device
US10537812B2 (en) Systems and methods for interactive communication between an object and a smart device
EP3576075A1 (en) Operating a toy for speech and language assessment and therapy
KR100556151B1 (ko) 원격에서 로봇 장치를 제어하는 방법 및 장치
KR20060057733A (ko) 반응형 완구
JP2003190650A (ja) 疑似生物機器

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
B701 Decision to grant
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee