KR100843822B1 - 로봇 장치, 로봇 장치의 동작 제어 방법 및 로봇 장치의동작 제어 시스템 - Google Patents

로봇 장치, 로봇 장치의 동작 제어 방법 및 로봇 장치의동작 제어 시스템 Download PDF

Info

Publication number
KR100843822B1
KR100843822B1 KR1020027010064A KR20027010064A KR100843822B1 KR 100843822 B1 KR100843822 B1 KR 100843822B1 KR 1020027010064 A KR1020027010064 A KR 1020027010064A KR 20027010064 A KR20027010064 A KR 20027010064A KR 100843822 B1 KR100843822 B1 KR 100843822B1
Authority
KR
South Korea
Prior art keywords
motion
output
robot
delete delete
robot device
Prior art date
Application number
KR1020027010064A
Other languages
English (en)
Other versions
KR20020080407A (ko
Inventor
고따로 사베
가즈오 이시이
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Publication of KR20020080407A publication Critical patent/KR20020080407A/ko
Application granted granted Critical
Publication of KR100843822B1 publication Critical patent/KR100843822B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/28Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99951File or database maintenance
    • Y10S707/99952Coherency, e.g. same view to multiple users
    • Y10S707/99953Recoverability
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99951File or database maintenance
    • Y10S707/99952Coherency, e.g. same view to multiple users
    • Y10S707/99955Archiving or backup

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

주로봇 장치는, 커맨드 발생 상태(ST2)에서, 음계 커맨드를 발생시키고, 종로봇 장치는 반응 대기 상태(ST3)로 들어간다. 주로봇 장치가 발한 음계 커맨드에 반응하여 종로봇 장치가 감정 표현음을 출력한 경우, 주로봇 장치는 이 감정 표현음을 인식하여, 동일한 감정 표현음을 출력한다. 그리고, 주로봇 장치는 반응 동작 상태(ST4)에서, 반응 횟수를 계수한 변수 NmnResponse의 값에 따라 동작 action(NumResponse)을 선택하여, 그 동작을 출현시킨다.
Figure R1020027010064
감정 표현음, 주로봇 장치, 종로봇 장치, 커맨드 발생 상태, 음계 커맨드

Description

로봇 장치, 로봇 장치의 동작 제어 방법 및 로봇 장치의 동작 제어 시스템{ROBOT DEVICE, METHOD FOR CONTROLLING MOTION OF ROBOT DEVICE, AND SYSTEM FOR CONTROLLING MOTION OF ROBOT DEVICE}
본 발명은, 로봇 장치, 로봇 장치의 동작을 제어하는 로봇 장치의 동작 제어 방법, 및 복수의 로봇 장치의 동작을 제어하는 로봇 장치의 동작 제어 시스템에 관한 것으로, 자율 동작에 적합한 로봇 장치, 그와 같은 로봇 장치의 동작성 제어 방법, 및 그와 같은 로봇 장치의 동작 제어 시스템에 관한 것이다.
최근, 외관 형상이 개나 고양이 등의 동물을 모방하여 형성된 로봇 장치가 제공되고 있다. 그와 같은 로봇 장치에는, 외부로부터의 정보나 내부의 상태에 따라 자율적으로 동작하는 것이 있다. 예를 들면, 로봇 장치는, 외부로부터의 정보가 되는 사용자로부터의 명령에 의해 동작하거나, 내부의 상태를 나타내는 감정 레벨에 따라 동작하도록 이루어져 있다.
예를 들면, 내부 상태를 나타내는 감정 레벨에 따라 동작하는 로봇 장치의 기능으로는, 다음과 같은 것이 있다.
로봇 장치는, 예를 들면 도 1에 도시한 바와 같이, 다양한 상태 A, 상태 B, 상태 C 및 상태 D 등을 갖고 있으며, 소정의 조건 혹은 타이밍으로 각 상태 사이를 천이하도록 이루어져 있다. 여기서, 상태 A, 상태 B, 상태 C 및 상태 D는, 실행되는 자세나 동작에 의해 정의되고 있다.
이에 따라, 예를 들면 로봇 장치는 상태 A에서 감정이 「화나 있음」일 때에는 그에 대응하여 「피로리로리」 등으로 발음하거나, 혹은 상태 B에서 감정이 「행복」일 때에는 그것에 대응하여 「피포파」라고 발음한다.
또한, 사용자로부터의 명령에 의해 동작하는 로봇 장치의 기능에 의해, 예를 들면, 로봇 장치와 사용자 사이의 대화(인터랙션)가 실현되며, 이 기능으로는, 예를 들면 사용자 등에 의한 외부로부터의 접촉에 따라 반응하는 기능이나 외부 커맨드에 의해 동작하는 기능을 들 수 있다.
예를 들면, 로봇 장치에 외부의 접촉을 검출하는 접촉 센서를 갖춤으로써, 그 접촉 센서의 접촉에 따라 로봇 장치를 동작시킴으로써, 사용자 등에 의한 외부로부터의 접촉에 따라 로봇 장치가 반응하는 기능이 실현된다. 예를 들면, 접촉 센서는 로봇 장치의 정수리 부분에 설치되어 있다.
한편, 외부 커맨드에 의해 동작하는 기능에 대해서는, 다음과 같은 기법을 들 수 있다.
예를 들면, 외부 커맨드로서의 음계 커맨드를 출력하는 기기를 이용한 것을 들 수 있다. 음계 커맨드는, 예를 들면 음계음으로 로봇 장치에 소정의 동작시키기 위한 커맨드를 형성하는 것으로, 로봇 장치는 외부 제어 기기로부터 출력된 음계 커맨드를 인식하고, 그 음계 커맨드에 따른 동작을 표출하도록 이루어진다. 예를 들면, 이러한 음계 커맨드를 출력하는 외부 제어 기기로서는, 소위 사운드 커맨 더를 예로 들 수 있다. 또, 이러한 음계 커맨드를 이용한 장치의 제어 시스템에 대한 기술이 최근 확립되고 있다.
이러한 외부로부터의 정보가 되는 접촉이나 음계 커맨드에 의해, 예를 들면 로봇 장치는, 도 2에 도시한 바와 같이 대기 상태에서, 정수리 부분의 접촉 센서의 접촉에 의해 「두드림(Pat)」을 검출하거나, 접촉 센서가 강하게 두드려 맞는 것으로 「때림(Hit)」을 검출한다. 로봇 장치는, 그 반응으로서, 「두드림(Pat)」을 검출함으로써, 분노를 나타내는 음으로서 예를 들면, 「피포파」라는 발음을 하거나, 「때림(Hit)」을 검출함으로써, 슬픔을 나타내는 음으로서 예를 들면, 「피로리로리」라는 발음을 한다. 또한, 로봇 장치는 음계 커맨드(예를 들면, 음계 언어)에 의한 경우에는, 그 음계 커맨드의 인식에 대응하는 동작으로서, 예를 들면, 「피로리」라는 발음을 한다.
이상과 같이, 접촉에 의한 외부 자극이나 음계 커맨드 등에 의해, 로봇 장치의 동작에 영향을 줌으로써, 사용자와 로봇 장치 사이의 대화가 가능하게 된다.
그런데, 상술한 바와 같이, 종래의 로봇 장치의 동작은 자기의 감정이나 사용자등에 의해 제공되는 정보 등에 의해 결정되는 것에 지나지 않는다. 만약 로봇 장치끼리 대화(의사의 소통)하는 것, 즉 로봇 장치끼리 상대에게 반응하여 동작할 수 있으면, 로봇 장치의 오락성은 더 향상한다.
또한, 그와 같이 로봇 장치 사이에서 대화가 가능하도록 하는 경우에는, 로봇 장치끼리 동일 기종이 아닌 경우까지 고려해야한다. 즉 예를 들면, 선발 모델의 로봇 장치와 후발 모델의 로봇 장치 등의 관계나, 다른 제조자로부터 각각 로봇 장치가 제공되는 관계 등의 경우이다. 이 경우, 예를 들면, 그와 같은 로봇 장치끼리 반응하는 것이 곤란하다.
예를 들면, 후발 모델의 로봇 장치에는 선발 모델의 로봇 장치의 기능을 부가할 수 있는 것이 통상적이다. 즉, 선발 모델의 로봇 장치는, 후발 모델의 로봇 장치가 갖는 기능을 가지지 않은 경우가 있다는 것이다. 이러한 이유로, 대화 기능을 갖게 하는 경우라도, 동일기종의 로봇 장치 사이로 한정되는 경우가 생긴다.
그러나, 그와 같은 대화 기능이 다른 로봇 장치 사이에서 대화를 실현시킬 수 있으면, 오락성이 더 증가한다. 또한, 그 밖에 그와 같은 다양한 로봇 장치 사이에서 대화를 가능하게 하는 것은, 자원으로서 로봇 장치를 유효하게 이용할 수 있도록 하는 것이다.
<발명의 개시>
본 발명은, 상술한 실정에 감안하여 이루어진 것으로, 로봇 장치끼리 대화할 수 있는 로봇 장치, 로봇 장치의 동작 제어 방법 및 로봇 장치의 제어 시스템을 제공하는 것을 목적으로 하고 있다.
본 발명에 따른 로봇 장치는, 상술한 과제를 해결하기 위해, 동작부를 구비하는 이동 로봇 장치에서, 다른 로봇 장치가 출력하는 동작에 포함되는 정보를 검출하는 동작 검출 수단과, 상기 동작 검출 수단에 의해 검출된 정보에 기초하여 상기 동작부를 제어하는 동작부 제어 수단과, 상기 동작부에 의해 출력된 동작에 기초한 다른 로봇 장치의 반응 횟수를 계측하는 반응 횟수 계측 수단을 포함하고, 상기 동작부 제어 수단은 상기 다른 로봇 장치의 반응 횟수에 따라 상기 동작부에 의 해 동작을 출력한다.
이러한 구성을 구비하는 로봇 장치는, 다른 로봇 장치가 출력하는 동작에 포함되는 정보를 동작 검출 수단에 의해 검출하고, 동작 검출 수단이 검출한 정보에 기초하여 동작부 제어 수단에 의해 동작부를 제어하여 동작을 출력한다. 그 때, 동작부 제어 수단은, 반응 횟수 계측 수단에 의해 계측된 다른 로봇 장치의 반응 횟수에 따라 동작부를 제어한다. 이에 따라, 로봇 장치는, 다른 로봇 장치의 동작에 반응하여 동작하도록 이루어진다.
또한, 본 발명에 따른 로봇 장치는, 상술한 과제를 해결하기 위해, 다른 로봇 장치가 출력하는 동작에 포함되는 정보를 검출하는 동작 검출 수단과, 동작 검출 수단이 검출한 정보에 대응한 동작을 출력하는 동작 출력 수단을 포함한다.
이러한 구성을 구비한 로봇 장치는, 다른 로봇 장치가 출력하는 동작에 포함되는 정보를 동작 검출 수단에 의해 검출하고, 동작 검출 수단이 검출한 정보에 대응한 동작을 동작 출력 수단에 의해 출력한다. 이에 따라, 로봇 장치는 다른 로봇 장치의 동작에 반응하여 동작하도록 이루어진다.
또한, 본 발명에 따른 로봇 장치의 동작 제어 방법은, 상술한 과제를 해결하기 위해, 동작부를 구비하는 이동 로봇 장치의 동작 제어 방법으로서, 다른 로봇 장치가 출력하는 동작에 포함되는 정보를 검출하는 동작 검출 공정과, 상기 동작 검출 공정에서 검출된 정보에 기초하여 상기 동작부를 제어하는 동작부 제어 공정과, 상기 동작부에 의해 출력된 동작에 기초한 다른 로봇 장치의 반응 횟수를 계측하는 반응 횟수 계측 공정을 포함하며, 상기 동작부 제어 공정에서는, 상기 다른 로봇 장치의 반응 횟수에 따라, 상기 동작부에 의해 동작이 출력된다. 이에 따라, 로봇 장치는, 다른 로봇 장치의 동작에 반응하여 동작하게 된다.
또한, 본 발명에 따른 로봇 장치의 동작 제어 방법은, 상술한 과제를 해결하기 위해, 다른 로봇 장치가 출력하는 동작에 포함되는 정보를 검출하는 동작 검출 공정과, 동작 검출 공정에서 검출한 정보에 대응한 동작을 하나의 로봇 장치에 출력시키는 동작 출력 공정을 포함한다. 이러한 로봇 장치의 동작 제어 방법에 의해, 하나의 로봇 장치는 다른 로봇 장치의 동작에 반응하여 동작하게 된다.
또한, 본 발명에 따른 로봇 장치의 동작 제어 시스템은, 상술한 과제를 해결하기 위해, 상대 로봇 장치가 출력하는 동작에 포함되는 정보를 검출하는 동작 검출 수단과, 동작 검출 수단이 검출한 정보에 대응한 동작을 출력하는 동작 출력 수단을 포함하는 로봇 장치를 복수개 구비한다.
이러한 로봇 장치의 동작 제어 시스템에 있어서, 로봇 장치는, 상대 로봇 장치가 출력하는 동작에 포함되는 정보를 동작 검출 수단에 의해 검출하고, 동작 검출 수단이 검출한 정보에 대응한 동작을 동작 출력 수단에 의해 출력한다. 이에 따라, 로봇 장치의 동작 제어 시스템에 있어서, 로봇 장치는, 상대 로봇 장치의 동작에 반응하여 동작하게 된다.
또한, 본 발명에 따른 로봇 장치의 동작 제어 방법은, 상술한 과제를 해결하기 위해 하나의 로봇 장치가, 소정의 상태로 되었을 때에, 소정의 동작을 출력하는 동작 출력 공정과, 다른 로봇 장치가 하나의 로봇 장치가 출력한 상기 소정의 동작에 대응한 동작을 출력하는 반응 동작 출력 공정을 포함한다. 이러한 로봇 장치의 동작 제어 방법에 의해, 로봇 장치는 상대 로봇 장치의 동작에 반응하여 동작하게 된다.
본 발명의 또 다른 목적, 본 발명에 의해 얻어지는 구체적인 이점은, 이하에 설명되는 실시예의 설명으로부터 한층 분명해질 것이다.
도 1은 감정에 따라 발음을 변화시키는 종래의 로봇 장치를 설명하기 위해 사용한 도면.
도 2는 음계 커맨드 등에 의해 동작이 제어되는 종래의 로봇 장치를 설명하기 위해 사용한 도면.
도 3은 본 발명의 실시 형태인 로봇 장치의 외관 구성을 도시한 사시도.
도 4는 상술한 로봇 장치의 회로 구성을 도시한 블록도.
도 5는 상술한 로봇 장치의 소프트웨어 구성을 도시한 블록도.
도 6은 상술한 로봇 장치의 소프트웨어 구성에서의 미들 웨어층의 구성을 도시한 블록도.
도 7은 상술한 로봇 장치의 소프트웨어 구성에서의 어플리케이션층의 구성을 도시한 블록도.
도 8은 상술한 어플리케이션층의 행동 모델 라이브러리의 구성을 도시한 블록도.
도 9는 로봇 장치의 행동 결정을 위한 정보가 되는 유한 확률 오토마톤을 설명하기 위해 사용한 도면.
도 10은 유한 확률 오토마톤의 각 노드에 준비된 상태 천이표를 도시한 도면.
도 11은, 대화 기능이 다른 로봇 장치 사이에서 대화를 가능하게 하는 로봇 장치를 설명하기 위해 사용한 도면.
도 12는 로봇 장치가 구비하는 음계 커맨드의 데이터베이스의 구성예를 도시한 도면.
도 13은 동일한 대화 기능에 의해 대화를 행하는 로봇 장치를 설명하기 위해 사용한 도면.
도 14는 마스터 및 수신측 로봇 장치가 모두 기뻐하고 있을 때의 대화의 교환을 도시한 도면.
도 15는 마스터의 로봇 장치가 화나 있는 상태에서, 수신측 로봇 장치가 야단맞는 경우의 교환을 도시한 도면.
도 16은 마스터의 로봇 장치가 명령을 내리고, 수신측 로봇 장치가 그 명령에 대응하여 동작하는 경우의 대화의 교환을 도시한 도면.
<발명을 실시하기 위한 최량의 형태>
이하, 본 발명의 실시 형태에 대하여 도면을 이용하여 자세히 설명한다. 이 실시 형태는, 외부의 정보 혹은 주위의 환경(혹은 외적 요인)이나 내부의 상태(혹은 내적 요인)에 따라 자율적으로 행동하는 자율형 로봇 장치이다.
실시 형태에서는, 우선 로봇 장치의 구성에 대하여 설명하고, 그 후 로봇 장치에서의 본 발명의 적용 부분에 대하여 상세히 설명한다.
(1) 본 실시의 형태에 따른 로봇 장치의 구성
도 3에 도시한 바와 같이, 예를 들면 「개」를 모방한 형상의 소위 페트형 로봇이 되고, 동체 유닛(2)의 전후 좌우로 각각 다리 유닛(3A, 3B, 3C, 3D)이 연결됨과 함께, 동체 유닛(2)의 전단부 및 후단부에 각각 머리 유닛(4) 및 꼬리 유닛(5)이 연결되어 구성되어 있다.
동체 유닛(2)에는, 도 4에 도시한 바와 같이 CPU(Central Processing Unit : 10), DRAM(Dynamic Random Access Memory : 11), 플래시 ROM(Read Only Memory : 12), PC(Personal Computer) 카드 인터페이스 회로(13) 및 신호 처리 회로(14)가 내부 버스(15)를 통해 서로 접속됨으로써 형성된 컨트롤부(16)와, 이 로봇 장치(1)의 동력원으로서의 배터리(17)가 수납되어 있다. 또한, 동체 유닛(2)에는, 로봇 장치(1)의 방향이나 움직임의 가속도를 검출하기 위한 각속도 센서(18) 및 가속도 센서(19)등도 수납되어 있다.
또한, 머리 유닛(4)에는 외부의 상황을 촬상하기 위한 CCD(Charge Coupled Device) 카메라(20)와, 사용자로부터의 「어루만짐」이나 「두드림」이라는 물리적인 행위에 의해 받은 압력을 검출하기 위한 터치 센서(21)와, 전방에 위치하는 물체까지의 거리를 측정하기 위한 거리 센서(22)와, 외부음을 집음하기 위한 마이크로폰(23)과, 울음 소리 등의 음성을 출력하기 위한 스피커(24)와, 로봇 장치(1)의 「눈」에 상당하는 LED(Light Emitting Diode)(도시하지 않음) 등이 각각 소정 위치에 배치되어 있다.
또한, 각 다리 유닛(3A∼3D)의 관절 부분이나 각 다리 유닛(3A∼3D) 및 동체 유닛(2)의 각 연결 부분, 머리 유닛(4) 및 동체 유닛(2)의 연결 부분, 및 꼬리 유닛(5)의 꼬리(5A)의 연결 부분 등에는 각각 자유도 수분의 액튜에이터(251∼25n) 및 전위차계(261∼26n)가 배치되어 있다. 예를 들면, 액튜에이터(251∼25 n)는 서보 모터를 구성으로서 갖고 있다. 서보 모터의 구동에 의해, 다리 유닛(3A∼3D)이 제어되어, 목표의 자세 혹은 동작으로 천이한다.
그리고, 이들 각속도 센서(18), 가속도 센서(19), 터치 센서(21), 거리 센서(22), 마이크로폰(23), 스피커(24) 및 각 전위차계(261∼26n) 등의 각종 센서 및 LED 및 각 액튜에이터(251∼25n)는 각각 대응하는 허브(271∼27n )를 통해 컨트롤부(16)의 신호 처리 회로(14)와 접속되고, CCD 카메라(20) 및 배터리(17)는 각각 신호 처리 회로(14)와 직접 접속되어 있다.
신호 처리 회로(14)는 상술한 각 센서로부터 공급되는 센서 데이터나 화상 데이터 및 음성 데이터를 순차적으로 입력받고, 이들을 각각 내부 버스(15)를 통해 DRAM(11) 내의 소정 위치에 순차적으로 저장한다. 또한 신호 처리 회로(14)는, 이것과 함께 배터리(17)로부터 공급되는 배터리 잔량을 나타내는 배터리 잔량 데이터를 순차적으로 입력받고, 이것을 DRAM(11) 내의 소정 위치에 저장한다.
이와 같이 하여 DRAM(11)에 저장된 각 센서 데이터, 화상 데이터, 음성 데이터 및 배터리 잔량 데이터는, 이 후 CPU(10)가 이 로봇 장치(1)의 동작 제어를 행할 때에 이용된다.
실제로 CPU(10)는, 로봇 장치(1)의 전원이 투입된 초기에, 동체 유닛(2)의 도시하지 않은 PC 카드 슬롯에 장착된 메모리 카드(28) 또는 플래시 ROM(12)에 저장된 제어 프로그램을 PC 카드 인터페이스 회로(13)를 통해 또는 직접 판독하여, 이것을 DRAM(11)에 저장한다.
또한, CPU(10)는 이 후 상술된 바와 같이 신호 처리 회로(14)로부터 DRAM(11)로 순차적으로 저장되는 각 센서 데이터, 화상 데이터, 음성 데이터 및 배터리 잔량 데이터에 기초하여 자기 및 주위의 상황이나, 사용자로부터의 지시 및 행위의 유무 등을 판단한다.
또한, CPU(10)는 이 판단 결과 및 DRAM(11)에 저장한 제어 프로그램에 기초하여 계속되는 행동을 결정함과 함께, 해당 결정 결과에 기초하여 필요한 액튜에이터(251∼25n)를 구동시킴으로써, 머리 유닛(4)을 상하 좌우로 흔들거나, 꼬리 유닛(5)의 꼬리(5A)를 움직이거나, 각 다리 유닛(3A∼3D)을 구동시켜 보행시키는 등의 행동을 행하게 한다.
또한, 이 때 CPU(10)는, 필요에 따라 음성 데이터를 생성하고, 이것을 신호 처리 회로(14)를 통해 음성 신호로서 스피커(24)로 제공함에 따라 해당 음성 신호에 기초한 음성을 외부에 출력시키거나, 상술한 LED를 점등, 소등 또는 점멸시킨다.
이와 같이 함으로써 이 로봇 장치(1)는 자기 및 주위의 상황이나, 사용자로부터의 지시 및 행위에 따라 자율적으로 행동할 수 있게 되어 있다.
(2) 제어 프로그램의 소프트웨어 구성
여기서, 로봇 장치(1)에서의 상술한 제어 프로그램의 소프트웨어 구성은, 도 5에 도시된 바와 같다. 이 도 5에서, 디바이스 드라이버층(30)은, 이 제어 프로그램의 최하위층에 위치하고, 복수의 디바이스 드라이버로 이루어지는 디바이스 드라이버 세트(31)로 구성되어 있다. 이 경우, 각 디바이스 드라이버는, CCD 카메라(20)(도 4)나 타이머 등의 통상의 컴퓨터에서 이용되는 하드웨어에 직접 액세스하는 것을 허용하는 오브젝트로서, 대응하는 하드웨어로부터의 인터럽트를 받아 처리한다.
또한, 로보틱 서버 오브젝트(32)는 디바이스 드라이버층(30)의 최하위층에 위치하는데, 예를 들면 상술한 각종 센서나 액튜에이터(251∼25n) 등의 하드웨어에 액세스하기 위한 인터페이스를 제공하는 소프트웨어군으로 이루어지는 버츄얼 로봇(33)과, 전원의 전환 등을 관리하는 소프트웨어군으로 이루어지는 파워 매니저(34)와, 다른 다양한 디바이스 드라이버를 관리하는 소프트웨어군으로 이루어지는 디바이스 드라이버 매니저(35)와, 로봇 장치(1)의 기구를 관리하는 소프트웨어군으로 이루어지는 디자인된 로봇(36)으로 구성되어 있다.
매니저 오브젝트(37)는, 오브젝트 매니저(38) 및 서비스 매니저(39)로 구성되어 있다. 오브젝트 매니저(38)는, 로보틱 서버 오브젝트(32), 미들 웨어층(40), 및 어플리케이션층(41)에 포함되는 각 소프트웨어군의 기동이나 종료를 관리하는 소프트웨어군이고, 서비스 매니저(39)는 메모리 카드(28)(도 4)에 저장된 커넥션 파일에 기술되어 있는 각 오브젝트 사이의 접속 정보에 기초하여 각 오브젝트의 접 속을 관리하는 소프트웨어군이다.
미들 웨어층(40)은 로보틱 서버 오브젝트(32)의 상위층에 위치하고, 화상 처리나 음성 처리 등의 이 로봇 장치(1)의 기본적인 기능을 제공하는 소프트웨어군으로 구성되어 있다. 또한, 어플리케이션층(41)은, 미들 웨어층(40)의 상위층에 위치하고, 해당 미들 웨어층(40)을 구성하는 각 소프트웨어군에 의해 처리된 처리 결과에 기초하여 로봇 장치(1)의 행동을 결정하기 위한 소프트웨어군으로 구성되어 있다.
또, 미들 웨어층(40) 및 어플리케이션층(41)의 구체적인 소프트웨어 구성을 각각 도 6에 도시한다.
미들 웨어층(40)은, 도 6에 도시한 바와 같이 소음 검출용, 온도 검출용, 밝기 검출용, 음계 인식용, 거리 검출용, 자세 검출용, 터치 센서용, 움직임 검출용 및 색 인식용의 각 신호 처리 모듈(50∼58) 및 입력 세만틱스 컨버터 모듈(59) 등을 갖는 인식계(60)와, 출력 세만틱스 컨버터 모듈(68) 및 자세 관리용, 트랙킹용, 모션 재생용, 보행용, 전도(顚倒) 복귀용, LED 점등용 및 음 재생용의 각 신호 처리 모듈(61∼67) 등을 갖는 출력계(69)로 구성되어 있다.
인식계(60)의 각 신호 처리 모듈(50∼58)은 로보틱 서버 오브젝트(32)의 버츄얼 로봇(33)에 의해 DRAM(11)(도 4)으로부터 판독되는 각 센서 데이터나 화상 데이터 및 음성 데이터 중 대응하는 데이터를 입력받고, 해당 데이터에 기초하여 소정의 처리를 실시하여, 처리 결과를 입력 세만틱스 컨버터 모듈(59)에 제공한다. 여기서, 예를 들면 버츄얼 로봇(33)은 소정의 통신 규약에 의해 신호의 수수 혹은 변환을 하는 부분으로서 구성되어 있다.
입력 세만틱스 컨버터 모듈(59)은, 이들 각 신호 처리 모듈(50∼58)로부터 공급되는 처리 결과에 기초하여, 「시끄러움」, 「더움」,「밝음」, 「볼을 검출함」, 「전도를 검출함」, 「어루만짐」, 「두드림」, 「도미솔의 음계가 들렸음」, 「움직이는 물체를 검출하였음」 또는 「장해물을 검출하였음」 등의 자기 및 주위의 상황이나, 사용자로부터의 명령 및 행위를 인식하고, 인식 결과를 어플리케이션층(41)(도 4)에 출력한다.
어플리케이션층(41)은, 도 7에 도시한 바와 같이 행동 모델 라이브러리(70), 행동 전환 모듈(71), 학습 모듈(72), 감정 모델(73) 및 본능 모델(74)의 5개의 모듈로 구성되어 있다.
행동 모델 라이브러리(70)에는, 도 8에 도시한 바와 같이 「배터리 잔량이 적어진 경우」, 「전도 복귀함」, 「장해물을 회피하는 경우」, 「감정을 표현하는 경우」, 「볼을 검출한 경우」 등의 사전에 선택된 몇개의 조건 항목에 각각 대응시켜, 각각 독립한 행동 모델(701∼70n)이 설정되어 있다.
그리고, 이들 행동 모델(701∼70n)은, 각각 입력 세만틱스 컨버터 모듈(59)로부터 인식 결과가 제공되었을 때나, 최후의 인식 결과가 제공되고나서 일정 시간이 경과했을 때 등에, 필요에 따라 후술한 바와 같이 감정 모델(73)에 보유되어 있는 대응하는 정적·동적의 파라미터값이나, 본능 모델(74)에 보유되어 있는 대응하는 욕구의 파라미터값을 참조하면서 계속되는 행동을 각각 결정하고, 결정 결과를 행 동 전환 모듈(71)로 출력한다.
또, 이 실시 형태의 경우, 각 행동 모델(701∼70n)은 다음 행동을 결정하는 기법으로서, 도 9에 도시한 바와 같은 하나의 노드(상태) NODEo∼NODEn로부터 다른 어떤 노드 NODEo∼NODEn로 천이하는지 각 노드 NODEo∼NODEn 사이를 접속하는 아크 ARC1∼ARCn에 대하여 각각 설정된 천이 확률 P1∼Pn에 기초하여 확률적으로 결정하는 유한 확률 오토마톤이라고 하는 알고리즘을 이용한다.
구체적으로, 각 행동 모델(701∼70n)은 각각 자기의 행동 모델(701∼70 n)을 형성하는 노드 NODEo∼NODEn에 각각 대응시켜, 이들 노드 NODEo∼NODEn 마다 도 10에 도시한 바와 같은 상태 천이표(80)를 갖는다.
이 상태 천이표(80)에서는, 그 노드 NODEo∼NODEn에서 천이 조건으로 하는 입력 이벤트(인식 결과)가 「입력 이벤트명」의 열에 우선순으로 열기(列記)되고, 그 천이 조건에 대한 또다른 조건이 「데이터명」 및 「데이터 범위」의 열의 대응하는 행에 기술되어 있다.
따라서, 도 10의 상태 천이표(80)로 나타낸 노드 NODE100에서는, 「볼을 검출(BALL)」이라는 인식 결과가 제공된 경우에, 해당 인식 결과와 함께 제공된 그 볼의 「크기(SIZE)」가 「0부터 1000」의 범위인 것이나, 「장해물 검출(OBSTACLE)」이라는 인식 결과가 제공된 경우에, 해당 인식 결과와 함께 제공되는 그 장해물까지의 「거리(DISTANCE)」가 「0부터 100」의 범위인 것이 다른 노드로 천이하기 위한 조건으로 되어 있다.
또한, 이 노드 NODE100에서는, 인식 결과의 입력이 없는 경우에도, 행동 모델(701∼70n)이 주기적으로 참조하는 감정 모델(73) 및 본능 모델(74)에 각각 보유된 각 정적·동적 및 각 욕구의 파라미터값 중, 감정 모델(73)에 보유된 「기쁨(JOY)」, 「놀라움(SURPRISE)」 혹은 「슬픔(SADNESS)」 중 어느 한 파라미터값이 「50부터 100」의 범위일 때에는 다른 노드로 천이할 수 있게 되어 있다.
또한, 상태 천이표(80)에서는 「다른 노드로의 천이 확률」의 란에서의 「천이처 노드」의 행에 그 노드 NODEo∼NODEn로부터 천이할 수 있는 노드명이 열기되어 있음과 함께, 「입력 이벤트명」, 「데이터값」 및 「데이터의 범위」의 열에 기술된 모든 조건이 갖추어졌을 때에 천이할 수 있는 다른 각 노드 NODEo∼NODEn 으로의 천이 확률이 「다른 노드로의 천이 확률」란 내의 대응하는 위치에 각각 기술되고, 그 노드 NODEo∼NODEn으로 천이할 때에 출력해야 할 행동이 「다른 노드로의 천이 확률」의 란에서의 「출력 행동」의 행에 기술되어 있다. 또, 「다른 노드로의 천이 확률」의 란에서의 각 행의 확률의 합은 100[%]로 되어 있다.
따라서, 도 10의 상태 천이표(80)로 나타내는 노드 NODE100에서는, 예를 들면 「볼을 검출(BALL)」하고, 그 볼의 「SIZE (크기)」가 「0부터 1000」의 범위라고 하는 인식 결과가 제공된 경우에는, 「30[%]」의 확률로 「노드 NODE120(node 120)」으로 천이할 수 있고, 그 때 「ACTION1」의 행동이 출력되게 된다.
각 행동 모델(701∼70n)은, 각각 이러한 상태 천이표(80)로서 기술된 노드 NODEo∼NODEn이 여러개 연결되도록 하여 구성되어 있고, 입력 세만틱스 컨버터 모듈(59)로부터 인식 결과가 제공되었을 때 등에, 대응하는 노드 NODEo∼NODEn의 상태 천이표를 이용하여 확률적으로 다음 행동을 결정하고, 결정 결과를 행동 전환 모듈(71)로 출력하도록 이루어져 있다.
도 7에 도시한 행동 전환 모듈(71)은, 행동 모델 라이브러리(70)의 각 행동 모델(701∼70n)로부터 각각 출력되는 행동 중, 사전에 정해진 우선 순위가 높은 행동 모델(701∼70n)로부터 출력된 행동을 선택하고, 해당 행동을 실행할 취지의 커맨드(이하, 이것을 행동 커맨드라고 함)를 미들 웨어층(40)의 출력 세만틱스 컨버터 모듈(68)로 송출한다. 또, 이 실시 형태에서는, 도 8에서 하측에 표기된 행동 모델(701∼70n)일수록 우선 순위가 높게 설정되어 있다.
또한, 행동 전환 모듈(71)은 행동 완료 후에 출력 세만틱스 컨버터 모듈(68)로부터 제공되는 행동 완료 정보에 기초하여, 그 행동이 완료된 것을 학습 모듈(72), 감정 모델(73) 및 본능 모델(74)에 통지한다.
한편, 학습 모듈(72)은 입력 세만틱스 컨버터 모듈(59)로부터 제공되는 인식 결과 중에서 「두드림」이나 「어루만짐」등, 사용자로부터의 행위로서 받은 교시의 인식 결과를 입력한다.
그리고, 학습 모듈(72)은, 이 인식 결과 및 행동 전환 모듈(71)로부터의 통 지에 기초하여, 「두드림(꾸중 들음)」일 때에는 그 행동의 발현 확률을 저하시키고, 「어루만짐(칭찬받음)」일 때에는 그 행동의 발현 확률을 상승시키도록, 행동 모델 라이브러리(70)에서의 대응하는 행동 모델(701∼70n)의 대응하는 천이 확률을 변경한다.
한편, 감정 모델(73)은 「기쁨(joy)」, 「슬픔(sadness)」, 「분노(anger)」, 「놀람(surprise)」, 「혐오(disgust)」 및 「두려움(fear)」의 합계 6개의 정적·동적에 대하여, 각 정적·동적마다 그 정적·동적의 강함을 나타내는 파라미터를 유지하고 있다. 그리고, 감정 모델(73)은, 이들 각 정적·동적의 파라미터값을, 각각 입력 세만틱스 컨버터 모듈(59)로부터 제공되는 「두드림」 및 「어루만짐」 등의 특정한 인식 결과와, 경과 시간 및 행동 전환 모듈(71)로부터의 통지 등에 기초하여 주기적으로 갱신한다.
구체적으로 설명하면, 감정 모델(73)은 입력 세만틱스 컨버터 모듈(59)로부터 제공되는 인식 결과와, 그 때의 로봇 장치(1)의 행동과, 전회 갱신하고나서의 경과 시간 등에 기초하여 소정의 연산식에 의해 산출되는 그 때의 그 정적·동적의 변동량을 ΔE[t], 현재의 그 정적·동적의 파라미터값을 E[t], 그 정적·동적의 감도를 나타내는 계수를 ke로 하고, 수학식 1에 의해 다음 주기에서의 그 정적·동적의 파라미터값 E[t+1]를 산출하고, 이것을 현재의 그 정적·동적의 파라미터값 E[t]로 치환하도록 하여 그 정적·동적의 파라미터값을 갱신한다. 또한, 감정 모델(73)은 이것과 마찬가지로 모든 정적·동적의 파라미터값을 갱신한다.
Figure 112002025193927-pct00001
또, 각 인식 결과나 출력 세만틱스 컨버터 모듈(68)로부터의 통지가 각 정적·동적의 파라미터값의 변동량 ΔE[t]에 어느 정도의 영향을 줄지는 사전에 결정되어 있고, 예를 들면 「두드림」이라는 인식 결과는 「분노」의 정적·동적의 파라미터값의 변동량 ΔE[t]에 큰 영향을 주고, 「어루만짐」이라는 인식 결과는 「기쁨」의 정적·동적의 파라미터값의 변동량 ΔE[t]에 큰 영향을 주게 되어 있다.
여기서, 출력 세만틱스 컨버터 모듈(68)로부터의 통지는, 소위 행동의 피드백 정보(행동 완료 정보)이고, 행동의 출현 결과의 정보이고, 감정 모델(73)은, 이러한 정보에 의해서도 감정을 변화시킨다. 이것은, 예를 들면, 「짖음」이라는 행동에 의해 분노의 감정 레벨이 저하하는 것 등이다. 또, 출력 세만틱스 컨버터 모듈(68)로부터의 통지는, 상술한 학습 모듈(72)에도 입력되어 있고, 학습 모듈(72)은 그 통지에 기초하여 행동 모델(701∼70n)의 대응하는 천이 확률을 변경한다.
또, 행동 결과의 피드백은, 행동 전환 모듈(71)의 출력(감정이 부가된 행동)에 의해 이루어져도 된다.
한편, 본능 모델(74)은, 「운동욕(exercise)」, 「애정욕(affection)」,「식욕(appetite)」 및 「호기심(curiosity)」의 상호 독립된 4개의 욕구에 대하여, 이들 욕구마다 그 욕구의 강함을 나타내는 파라미터를 보유하고 있다. 그리고, 본능 모델(74)은, 이들 욕구의 파라미터값을, 각각 입력 세만틱스 컨버터 모듈(59)로부 터 제공되는 인식 결과나, 경과 시간 및 행동 전환 모듈(71)로부터의 통지 등에 기초하여 주기적으로 갱신한다.
구체적으로 설명하면, 본능 모델(74)은 「운동욕」, 「애정욕」 및 「호기심」에 대해서는, 인식 결과, 경과 시간 및 출력 세만틱스 컨버터 모듈(68)로부터의 통지 등에 기초하여 소정의 연산식에 의해 산출되는 그 때의 그 욕구의 변동량을 ΔI[k], 현재의 그 욕구의 파라미터값을 I[k], 그 욕구의 감도를 나타내는 계수 ki로서, 소정 주기로 수학식 2를 이용하여 다음 주기에서의 그 욕구의 파라미터값 I[k+1]를 산출하고, 이 연산 결과를 현재의 그 욕구의 파라미터값 I[k]로 치환하도록 하여 그 욕구의 파라미터값을 갱신한다. 또한, 본능 모델(74)은 이것과 마찬가지로 하여 「식욕」을 제외한 각 욕구의 파라미터값을 갱신한다.
Figure 112002025193927-pct00002
또, 인식 결과 및 출력 세만틱스 컨버터 모듈(68)로부터의 통지 등이 각 욕구의 파라미터값의 변동량 ΔI[k]에 어느 정도의 영향을 줄지는 사전에 결정되어 있는데, 예를 들면 출력 세만틱스 컨버터 모듈(68)로부터의 통지는 「피곤함」의 파라미터값의 변동량 Δ[k]에 큰 영향을 주게 되어 있다.
또, 본 실시의 형태에서는, 각 정적·동적 및 각 욕구(본능)의 파라미터값이 각각 0에서 100까지의 범위에서 변동하도록 규제되어 있고, 또한 계수 ke, ki의 값도 각 정적·동적 및 각 욕구마다 개별로 설정되어 있다.
한편, 미들 웨어층(40)의 출력 세만틱스 컨버터 모듈(68)은, 도 6에 도시한 바와 같이, 상술된 바와 같이 하여 어플리케이션층(41)의 행동 전환 모듈(71)로부터 제공되는 「전진」, 「기뻐함」, 「움」 또는 「트랙킹(볼을 쫓아감)」이라는 추상적인 행동 커맨드를 출력계(69)의 대응하는 신호 처리 모듈(61∼67)에 제공한다.
그리고 이들 신호 처리 모듈(61∼67)은, 행동 커맨드가 제공되면 해당 행동 커맨드에 기초하여, 그 행동을 행하기 위해 대응하는 액튜에이터(251∼25n)(도 4)에 제공될 서보 명령값이나, 스피커(24)(도 4)로부터 출력되는 음의 음성 데이터 및/또는 「눈」의 LED에 제공되는 구동 데이터를 생성하고, 이들 데이터를 로보틱 서버 오브젝트(32)의 버츄얼 로봇(33) 및 신호 처리 회로(14)(도 4)를 순차적으로 통하여 대응하는 액튜에이터(251∼25n), 스피커(24) 또는 LED에 순차적으로 송출한다.
이와 같이 함으로써 로봇 장치(1)에서는, 제어 프로그램에 기초하여, 자기(내부) 및 주위(외부)의 상황이나, 사용자로부터의 지시 및 행위에 따른 자율적인 행동을 행할 수 있도록 이루어져 있다.
(3) 본 발명의 적용에 의해 실현되는 구성 등
상술한 바와 같은 구성을 구비한 로봇 장치는, 본 발명의 적용에 의해, 다른 로봇 장치에 동작의 반응하여 동작할 수 있다. 이에 따라, 로봇 장치 사이의 대화가 가능해진다. 또한, 로봇 장치는, 그 대화 기능이 다른 로봇 장치 사이에서의 대화도 가능하게 한다. 우선, 대화 기능이 다른 로봇 장치 사이에서 대화를 할 수 있는 본 발명이 적용된 로봇 장치에 대하여 설명하고, 그 후 동일한 대화 기능에 기초하여 대화를 하는 본 발명이 적용된 로봇 장치에 대하여 설명한다.
(3-1) 대화 기능이 다른 로봇 장치 사이에서 대화를 행하는 로봇 장치
본 발명이 적용된 로봇 장치는, 대화 기능이 다른 로봇 장치 사이에서 대화하는 것이 가능하게 되어 있다.
대화 기능이 다른 로봇 장치로서는, 기종이 다른 로봇 장치나, 다른 제조자로부터 제공되는 다른 로봇 장치, 혹은 제조자는 동일하지만 형번 혹은 모델이 다른 로봇 장치 등을 예로 들 수 있다. 실시 형태에서는, 대화 기능으로서 음계 커맨드에 의해 제어되는 구성으로 이루어져 있는 다른 로봇 장치 사이에서 대화하는 경우에 대해 설명한다. 즉, 대화 상대가 되는 다른 로봇 장치가, 상술한 도 2를 이용하여 상술한 바와 같이, 대기 중에 음계음으로 이루어지는 음계 커맨드의 인식에 의해 소정의 동작으로서 예를 들면 「피로린」이라는 발음을 하는 로봇 장치인 경우이다.
본 발명의 실시 형태의 로봇 장치가, 이러한 음계 커맨드의 출력 기능을 갖고, 또한 그와 같은 음계 커맨드에 의해 동작이 제어되는 로봇 장치의 동작에 대해서도 자기도 반응 동작(예를 들면, 동기 동작)함으로써, 사용자는 그와 같은 로봇 장치 서로가 반응하여 출현하는 동작을 로봇 장치끼리 행하는 대화로서 감상할 수 있게 된다.
본 발명의 실시 형태의 로봇 장치는, 다른 로봇 장치 사이에서의 대화를 이하에 설명하는 바와 같이 실현하고 있다. 또, 설명에서, 본 발명의 실시 형태의 로봇 장치를 주로봇 장치라고 하고, 주로봇 장치와 다른 대화 기능을 갖는 로봇 장치를 종로봇 장치라고 한다.
주로봇 장치는, 다른 로봇 장치인 종로봇 장치가 출력하는 동작에 포함되는 정보를 검출하는 동작 검출 수단과, 동작 검출 수단이 검출한 정보에 대응한 동작을 출력하는 동작 출력 수단을 포함하고 있다. 구체적으로는, 주로봇 장치는, 상술한 바와 같이 CPU(10)를 구비하고 있고, 이 CPU(10)에 의해 종로봇 장치가 출력하는 동작에 포함되는 정보를 검출하는 동작 검출 기능과, 동작 검출 기능에 의해 검출한 정보에 대응한 동작을 출력하는 동작 출력 기능으로서 이것을 실현하고 있다. 즉, CPU(10)는 각종 신호 처리 모듈 등에 의해, 그와 같은 기능을 실현한다.
또한, 주로봇 장치는, 종로봇 장치와의 사이에서 정보를 송수신하는 통신 수단을 포함하고 있다. 여기서 말하는 정보는, 음계음에 의한 정보로서, 이러한 것으로부터, 통신 수단은 그와 같은 음계음에 의한 정보의 송수신을 스피커(24)에 의해 실현하는 것이다. 또한, 여기서, 정보는 동작의 의미를 나타내는 의미 정보이다. 예를 들면, 동작 그 자체의 의미나 동작에 포함되는 감정 등의 정보이다.
이러한 구성을 구비하는 주로봇 장치는, 종로봇 장치와의 사이에서 행하는 대화 기능을, 예를 들면 소위 대화 모드 등의 일련의 처리 수속에서 실현하고 있다. 구체적으로 설명하면, 주로봇 장치는 도 8에 도시한 바와 같은 행동 모델의 하나, 예를 들면 대화의 행동 모델로서 실현한다.
이러한 기능을 갖는 주로봇 장치는, 도 11에 도시한 바와 같이 아이들링 상태 ST1에서 임의의 타이밍으로 종로봇 장치가 발한 음신호인 「감정 표현음(예를 들면, 「피로리」등)」을 인식한다. 이에 따라, 주로봇 장치는 종로봇 장치의 존재를 검출하여, 종로봇 장치가 가까이에 있는 것을 알 수 있다. 이러한 인식은, 주로봇 장치가 소정의 상태로 된 것을 나타내며, 대화 기능(예를 들면, 대화의 행동 모델)을 개시 혹은 발화하기 위한 소정의 상태로 된 것을 나타내는 트리거가 된다.
여기서, 아이들링 상태 ST1은, 주로봇 장치가 자율 동작을 하고 있는 상태이다. 즉, 예를 들면, 외부 환경이나 자기의 감정 상태에 따라 로봇 장치가 자율적으로 동작하는 경우이다.
주로봇 장치는, 종로봇 장치의 발한 감정 표현음을 인식하면, 예를 들면 「앉음」 자세로, 자세를 천이한다. 또, 주로봇 장치는, 「앉음」의 자세로 천이하는 것으로 한정되지는 않으며, 다른 자세나 그대로 자율 동작을 계속 실행해도 무방하다.
그리고, 주로봇 장치는 커맨드 발생 상태 ST2로 천이하여, 음계음으로 이루어지는 음계 커맨드를 발생한다. 예를 들면, 주로봇 장치는 랜덤하게 음계 커맨드를 발생한다.
구체적으로 설명하면, 주로봇 장치는 다양한 음계 커맨드로 이루어지는 데이터베이스를 갖고 있다. 여기서, 다양한 음계 커맨드는, 종로봇 장치에 시키는 동작 내용이 각각 다른 것으로 되어 있고, 음명과 조합이 다른 음계음으로 되어 있다. 이 주로봇 장치가 갖게 되는 데이터베이스를 구성하는 음계 커맨드는, 예를 들면 종로봇 장치를 제어하기 위해 소위 사운드 커맨더가 구비하고 있는 음계 커맨 드이다.
예를 들면, 주로봇 장치는 도 12에 도시한 바와 같이 음계 커맨드의 음계음의 패턴과 그 커맨드 내용 등으로 구성된 데이터베이스를 갖고 있다. 여기서, 커맨드 내용은, 종로봇 장치가, 대응하는 음계 패턴의 인식에 의해 출현하는 발음 동작 등의 동작 내용이 된다. 또, 음계 커맨드에 의해 실현되는 커맨드는, 발성 동작뿐 아니라, 자세를 변화시키는 등의 동작이어도 무방하다.
또한, 이와 같이 주로봇 장치가 갖는 음계 커맨드에 대해서는, 제조시 등록되어도 되지만, 나중에 신규로 혹은 갱신하여 등록할 수 있도록 해도 된다. 주로봇 장치는, 이러한 데이터베이스 등으로서 갖고 있는 음계 커맨드를 랜덤하게 선택하고, 선택한 음계 커맨드를 출력한다.
또한, 주로봇 장치는 이러한 음계 커맨드의 출력을, 동작에 대응시켜 행할 수도 있다. 통상, 음계 커맨드는 로봇 장치의 제어용 신호 패턴으로 되어, 로봇 장치에서는 의미가 있는 것으로서 취급되지만, 인간측에서 본 경우에는 아무런 의미를 가지고 있지 않다. 따라서, 음계 커맨드의 의미에 대응되는 동작을 주로봇 장치로 출력함에 따라, 사용자도 음계 커맨드의 내용을 이해할 수 있게 된다.
주로봇 장치는, 음계 커맨드를 출력하면, 종로봇 장치의 반응 대기 상태 ST3에 들어간다. 예를 들면, 주로봇 장치는 반응 대기 상태 ST3을 소정 시간 유지한다.
예를 들면, 종로봇 장치는 주로봇 장치가 발한 음계 커맨드를 인식한 경우, 그 음계 커맨드에 따라 감정 표현음을 출력하게 된다. 그러나, 음계 커맨드에 종 로봇 장치가 반드시 반응을 나타내는지는 불명확하다. 이것은, 예를 들면, 종로봇 장치가 자율 동작에 의해 어딘가로 이동하고 있는 경우나, 종로봇 장치가 주위의 노이즈 등에 의해 음계 커맨드를 검출할 수 없는 경우가 있기 때문이다. 이것에 대응하여, 주로봇 장치는, 종로봇 장치의 반응에 따라 다양한 동작을 준비하고 있다.
주로봇 장치가 발한 음계 커맨드에 반응하여 종로봇 장치가 감정 표현음을 출력한 경우, 주로봇 장치는, 이 감정 표현음을 인식하고, 동일한 감정 표현음을 출력한다. 예를 들면, 주로봇 장치는, 데이터베이스로서 사전에 보유하고 있는 종로봇 장치의 감정 표현음을 판독하여, 이것을 출력한다.
이러한 주로봇 장치와 종로봇 장치 사이에서 이루어지는 동작을, 사용자는, 로봇 장치 사이의 대화로서 감상할 수 있다.
그리고, 주로봇 장치는, 감정 표현음(음계 반응음)을 인식하고, 변수 NumResponse에 1 가산하고, 또한 변수 NumTimup를 0으로 한다. 여기서, 변수 NumResponse는, 종로봇 장치가 반응한 반응 횟수를 나타내는 변수이다. 또한, 이 변수 NumResponse는, 이러한 대화 기능의 처리에 들어갈 때(혹은 모드)에 초기값으로서 0이 제공된다. 또한, 변수 NumTimup는, 주로봇 장치가 발한 음계 커맨드에 대하여 반응이 없던 횟수(이하, 비반응 횟수라고 함)를 나타내는 값이다. 예를 들면, 종로봇 장치의 반응이 없던 것은, 종로봇 장치에서 소정 시간 반응이 없던 것으로부터 판별한다. 또한, 이 변수 NumTimup에 대해서도 마찬가지로, 대화 기능의 처리(혹은 모드)에 들어갈 때에 초기값으로서 0이 제공된다.
종로봇 장치의 감정 인식은, 예를 들면 사전에 음계 반응음과 그것에 대응하는 감정의 테이블을 갖고, 검출한 음계 반응음 등을 테이블로 참조함으로써 행한다. 또, 테이블을 사전에 갖지 않고, 검출한 음계 반응음 등의 피치, 파워 등을 해석하여 감정을 인식하도록 해도 무방하다.
주로봇 장치는, 종로봇 장치가 반응한 경우, 계속되는 반응 동작으로서 소정의 동작을 출현시킨다.
여기서, 주로봇 장치는 상술한 변수 NumResponse의 값에 따라 동작을 출현한다. 주로봇 장치는, 이 변수 NumResponse를 동작 action의 결정을 위한 변수로서 이용하고, 구체적으로는 주로봇 장치는 다양한 동작을 action(1), action(2), action(3), …이라는 것으로 갖고 있으며, action(NumResponse)에 의해 종로봇 장치에 대한 동작으로서 결정하고 있다.
그리고, 변수 NumResponse는, 상술한 바와 같이 주로봇 장치가 인식한 종로봇 장치의 반응 횟수를 나타내는 것이기 때문에, 그 수가 많을수록, 종로봇 장치의 반응 횟수가 많다는 것을 나타내게 된다. 일반적으로는, 인간도 그렇지만, 자기의 기쁜 상태를 표출한 동작에 대하여 반응이 있는 경우에는 기쁜 것이다. 이러한 것으로부터, action(1), action(2), actjon(3), …의 각 동작을, 그 순서대로 「기쁨」을 나타내는 동작이 점차로 커지도록 정의하고 있다.
반응 동작 상태 ST4에서는, 주로봇 장치는 상술한 바와 같이 정의되어 있는 동작으로부터 그 때의 변수 NumResponse에 따라 동작 action(NumResponse)을 선택하고, 그 동작을 출현시킨다. 즉, 주로봇 장치는 변수 NumResponse가 1∼5인 경 우, 그것에 대응되는 동작 action(NumResponse)을 출현하고, 다시 커맨드 발생 상태 ST2로 천이하여, 음계 커맨드를 랜덤하게 선택하고, 선택한 음계 커맨드를 출력한다. 그리고, 주로봇 장치는 반응 대기 상태 ST3에서, 종로봇 장치의 반응을 대기한다. 여기서, 종로봇 장치의 반응이 있으면, 다시 상술한 바와 같이 그 종로봇 장치가 한 반응 동작에 따라 소정의 동작을 출현하고, 변수 NumResponse에 1을 가산하는 등의 처리를 행한다. 그리고, 주로봇 장치는 단지 1이 가산된 변수 NumResponse에 따라 커진 기쁨을 나타내는 동작을 출현한다.
그리고, 주로봇 장치는 변수 NumResponse가 5를 초과한 경우에는, 동작 action(6)으로서 「만세」의 동작을 출현하고, 아이들링 상태 ST1로 복귀한다. 즉, 주로봇 장치는, 종로봇 장치와의 대화를 위한 처리(혹은 모드)를 종료하고, 다시 자율 동작 상태로 되돌아간다.
이와 같이, 주로봇 장치는 종로봇 장치의 반응에 따라, 그 반응 횟수에 따라 다양한 동작을 출현하며, 이에 따라 주로봇 장치와 종로봇 장치 사이에서 이루어지는 동작을, 사용자는 로봇 장치 사이의 대화로서 감상할 수 있게 된다.
또한, 주로봇 장치는, 종로봇 장치의 반응 횟수에 따라 「기쁨」을 나타내는 동작을 점차로 크게 하고 있지만, 이것은 소위 동작의 변조로서 파악되어야 할 것이다.
한편, 반응 대기 상태 ST3에서 종로봇 장치의 반응을 소정 시간 내에 인식할 수 없는 경우, 주로봇 장치는 「슬픔」을 나타내는 동작을 출현한다. 그리고, 로봇 장치는, 비반응 횟수를 나타내는 변수 NumTimup에 1을 가산한다. 여기서, 종로 봇 장치의 반응이 없는 경우는, 예를 들면 종로봇 장치가 자율 동작에 의해 어딘가로 이동하는 경우나, 종로봇 장치가 주위의 노이즈 등에 의해 음계 커맨드를 검출할 수 없는 경우 등이다.
또, 종로봇 장치가 반응을 나타내지 않는 경우에도, 종로봇 장치는 「슬픔」을 나타내는 동작을 출현하며, 이것은 주로봇 장치가 종로봇 장치가 동작하지 않는 것을 반응 동작으로서 인식한다고도 할 수 있다.
주로봇 장치는 종로봇 장치가 반응이 없는 경우에, 상술한 바와 같은 동작을 출현하고, 다시 커맨드 발생 상태 ST2에서, 음계 커맨드를 랜덤하게 선택하고, 선택한 음계 커맨드를 출력하고, 다시 반응 대기 상태 ST3에서 종로봇 장치의 반응을 대기한다. 주로봇 장치는 이 반응 대기 상태 ST3에서 연속하여 소정의 횟수, 종로봇 장치의 반응을 인식할 수 없는 경우, 즉 비반응 횟수가 소정의 값이 된 경우에는, 또한 슬픈 동작을 출현한다. 본 예에서는, 종로봇 장치의 반응을 연속하여 4회 인식할 수 없는 경우, 즉 비반응 횟수를 나타내는 변수 NumTimup가 3을 초과하는 경우, 주로봇 장치는 동작으로서 「매우 슬픔」을 나타내는 동작을 출현하고, 아이들링 상태 ST1로 되돌아간다.
이와 같이, 주로봇 장치는 종로봇 장치의 반응이 없는 경우에도, 그 반응하지 않은 횟수에 따라 다양한 동작을 출현하고 있으며, 이에 따라 주로봇 장치와 종로봇 장치 사이에서 이루어지는 동작을, 사용자는 로봇 장치 사이의 대화로서 감상할 수 있다.
또, 본 실시의 형태에서는, 상술한 바와 같은 반응 대기 상태 ST3부터 「매 우 슬픔」 동작을 출현시키는 경우에는, 복수회 이행한 반응 대기 상태 ST3에서, 종로봇 장치의 반응을 연속하여 검출할 수 없는 경우로 하고 있다. 즉, 반응 대기 상태 ST3에서, 종로봇 장치의 반응이 있는 경우에는, 비반응 횟수를 나타내는 변수 NumTimup을 0으로 초기화하기 때문이다. 예를 들면, 주로봇 장치는 종로봇 장치의 반응이 없는 경우라도, 후발 동작의 출력에 대하여 종로봇 장치가 반응했을 때에는, 「기쁨」을 나타내는 동작을 출현함과 함께, 비반응 횟수를 나타내는 변수 NumTimup를 0으로 초기화하고 있다.
또한, 이와 같이 처리되는 것에 한정되지 않는 것은 물론이고, 예를 들면 종로봇 장치의 반응이 있었던 것에 대응하여 변수 NumTimup를 0으로 하는 것이 아닌, 즉 반응이 있었던 것에 관계없이, 그대로 반응이 없었던 횟수를 계수할 수도 있다.
이상과 같이, 주로봇 장치는 자기의 행한 동작에 대한 종로봇 장치의 반응 동작(여기서는, 반응을 하지 않는 동작도 포함함)과, 그리고 그 반응 횟수(혹은 비 반응 횟수)에 따라 다양한 동작을 출현할 수 있게 된다. 이에 따라, 사용자는 그와 같은 로봇 장치 사이에서 반응하여 출현하는 동작을 로봇 장치끼리 행하고 있는 대화로서 감상할 수 있게 된다.
그리고, 이러한 대화를, 주로봇 장치는, 그와 같은 음계 커맨드 등의 외부 제어 커맨드에 의해 동작이 제어되는 선발 모델 혹은 타사의 로봇 장치 등을 자기의 동작에 동기시켜 제어함으로써 실현하고 있다. 따라서, 사용자는 다른 모델이나 타사의 로봇 장치끼리의 반응 동작을 로봇 장치 사이의 대화로서 감상할 수 있게 된다.
(3-2) 동일한 대화 기능에 의해 대화를 행하는 로봇 장치
본 발명이 적용된 2대의 로봇 장치 사이에서 대화 기능에 기초하여 행하는 대화에 대하여 설명한다. 여기서 설명하는 로봇 장치는, 서로가 동일한 대화 기능을 갖고 있고, 이에 따라 상대 로봇 장치와의 대화를 실현하고 있다.
로봇 장치는, 모두 상대 로봇 장치가 출력하는 동작에 포함되는 정보를 검출하는 동작 검출 수단과, 동작 검출 수단이 검출한 정보에 대응한 동작을 출력하는 동작 출력 수단을 포함하고 있다. 구체적으로는, 주로봇 장치는 CPU(10)에 의해 상대 로봇 장치가 출력하는 동작에 포함되는 정보를 검출하는 동작 검출 기능과, 동작 검출 기능에 의해 검출된 정보에 대응한 동작을 출력하는 동작 출력 기능으로서, 이것을 실현하고 있다. 즉, CPU(10)는 각종 신호 처리 모듈 등에 의해, 그와 같은 기능을 실현한다.
또한, 로봇 장치는 모두, 소정의 상태로 되었을 때에, 소정의 동작을 출력하도록 이루어져 있다. 이에 따라, 하나의 로봇 장치가, 소정의 상태로 되었을 때에, 소정의 동작을 동작 출력 기능에 의해 출력하고, 다른 로봇 장치는 하나의 로봇 장치가 출력한 소정의 동작에 대응한 동작을 출력하도록 이루어진다.
이상과 같이, 로봇 장치는 각각이 마찬가지의 구성을 구비하고 있고, 상대 로봇 장치와의 대화를 실현하고 있다. 이하에, 도 13을 이용하여, 로봇 장치 사이에서 행하는 대화에 대하여 설명한다.
로봇 장치는 모두, 도 13에 도시한 바와 같이, 아이들링 상태 ST11, ST21에 있다. 그리고, 한쪽의 로봇 장치가 소정의 상태로 되었을 때에, 동작을 출현함에 따라, 로봇 장치 사이의 대화가 개시된다. 여기서, 소정의 상태로 되었을 때는, 예를 들면, 확률이나 감정 레벨이 어떤 값이 되었을 때, 혹은 다른 로봇 장치의 존재를 인식했을 때 등이다. 감정 레벨이란, 예를 들면 상술한 정적·동적의 파라미터값이다. 예를 들면, 이러한 소정의 상태로 된 것의 검출은, 소정의 샘플링 간격으로 감시하여 행하고, 그와 같은 샘플링 타이밍에서 소정의 상태를 검출할 수 없으면, 시간 마감으로서, 아이들링 상태 ST11로 되돌아가도록 해도 된다. 이하, 소정의 상태가 되어 대화를 위한 동작을 최초로 출현시킨 로봇 장치를 「마스터」라고 하고, 다른 로봇 장치를 「수신측」이라고 한다.
또, 상술한 바와 같이, 로봇 장치는 모두 소정의 상태로 되었을 때에, 소정의 동작을 출력하도록 이루어져 있다. 따라서, 소정의 상태로 되는 타이밍 여하에 따라서는, 상술한 바와 같은 「다른 로봇 장치」측이 「마스터」가 되고, 「하나의 로봇 장치」가 「수신측」이 된다. 즉, 로봇 장치는 모두 그 상황에 따라 「마스터」가 될 수도 있고, 「수신측」이 될 수도 있다.
이와 같이 최초로 소정의 상태에서 대화 기능을 기동하거나 발화시켜 마스터가 된 로봇 장치는, 동작 ST12로서 「야호」 및 「음계음(1)」을 발성한다. 여기서, 「야호」는 언어로서의 발성이고, 「음계음(1)」은, 예를 들면 「피포파」등의 음계음으로서, 단순한 음 열이다. 또, 이후의 설명에서, 음계음으로서, 음계음(2), 음계음(3), 음계음(4) … 등을 예로 들어 설명하며, 각각은 다른 음계 패턴으로 이루어진다. 또한, 이러한 음계음(1), 음계음(2), 음계음(3), …은 음계 커맨드 등으로서, 종래에 확립되어 있는 기술이다.
또, 여기서 「야호」 등의 발화에 대응시켜 음계음도 출력하는 것은, 그 발화 동작으로서의 「야호」라는 말을, 대화 상대인 수신측 로봇 장치가 의미가 있는 것으로서 인식할 수 없는 경우이다. 그 발화 동작으로서의 「야호」라는 말을 로봇 장치가 인식할 수 있는 것이면 그럴 필요가 없어진다. 따라서, 음계음을 동작과 함께 출력하는 경우는, 동작을, 의미가 있는 것으로서 상대가 인식할 수 없는 경우 로서, 예를 들면 동작으로서의 발화가 긴 문장인 경우이다. 이러한 경우에 있어서, 음계음은 유효한 대화 수단으로서 로봇 장치 사이에서 작용한다.
수신측은, 마스터의 이러한 발성을 인식하여, 아이들링 상태 ST21로부터 그 반응 동작 ST22로 천이한다. 즉, 수신측은 마스터의 발성을 트리거로 하여, 대화 기능을 기동한다.
수신측은, 그 반응 동작 ST22로서, 「야호」 및 「음계음(2)」을 발성한다. 여기서, 수신측은 마스터가 발성한 「야호」 및 「음계음(1)」 중 「음계음(1)」에 의해 마스터가 한 발성을 인식한다.
음계음은, 상술한 바와 같이 종래의 로봇 장치 등에서 음계 커맨드 등으로서 확립되어 있는 기술이며, 그와 같은 확립되어 있는 음계음의 인식 시스템을 적용함으로써, 로봇 장치는 음계음의 음계 패턴을 통해 커맨드를 정확하게 인식한다.
마스터는, 이 수신측의 「음계음(2)」의 발성을 인식하고, 그 반응 동작 ST13으로서, 「해피」 및 「음계음(3)」을 발성한다. 그리고, 이러한 상대의 동작에 대한 반응 동작을, 그 내용을 변화시켜 반복한다.
즉, 수신측은 다시 그와 같은 마스터의 「음계음(3)」의 발성을 인식하고, 그 반응 동작 ST23으로서, 「평정」 및 「음계음(4)」을 발성한다. 여기서, 「평정」은, 예를 들면 「조용히」라는 내용을 나타내는 발화이다. 그리고, 마스터는 이 수신측의 「음계음(4)」의 발성을 인식하여, 그 반응 동작 ST14로서, 「해피!!」 및 「음계음(5)」을 발성한다. 여기서, 「해피!!」는, 예를 들면 「해피」를 단순히 강조한 발성이다. 그리고 또, 수신측은, 이 마스터의 「음계음(5)」의 발성을 인식하여, 그 반응 동작 ST24로서, 「해피」 및 「음계음(6)」을 발성한다. 이것에 대하여, 마스터는 이 수신측의 「음계음(6)」의 발성을 인식하고, 대화 동작의 최종 동작으로서, 「만족함」을 발성한다. 수신측은, 이것에 대응하여, 예를 들면 그와 같은 마스터의 발성에 동기하여, 마찬가지로 「만족함」을 발성한다.
이상과 같이, 마스터 및 수신측이 된 2대의 로봇 장치는, 상대가 한 동작에 대하여 반응 동작을 나타낼 수 있다. 이에 따라, 사용자는 그와 같은 로봇 장치 사이에서 반응하여 출현하는 동작을 로봇 장치끼리의 대화로서 감상할 수 있게 된다.
또, 상술한 바와 같이, 기술로서 확립되어 있는 음계음의 인식 시스템을 이용함으로써, 상대의 반응 동작을 인식하지만, 이것에 한정되는 것이 아니며, 「야호」 등의 로봇 장치가 발하는 의미가 있는 언어를 그대로 인식하여, 반응 동작을 할 수 있는 것은 물론이다. 이에 따라, 사용자는 로봇 장치에 의해 이루어지는 대화가 보다 현실적인 것으로서 파악할 수 있게 된다.
또한, 상대 로봇 장치로부터의 반응이 소정 시간 내에 없는 경우에는, 시간 마감으로서 다시 아이들링 상태로 되돌아가도록 해도 된다.
도 14 내지 도 16에는, 이러한 대화 기능에 의해 실현되는 로봇 장치사이(마스터와 수신측 사이)의 반응 동작을 시계열 상에서 도시하고 있다.
도 14는 마스터 및 수신측이 함께 기뻐하고 있는 경우의 대화의 교환을 도시하고 있으며, 또한 도 15는 마스터는 화를 내고, 수신측은 야단맞고 있는 경우의 교환을 도시하고 있으며, 그리고 도 16은 마스터가 명령을 내리고, 수신측이 그 명령에 대응하여 동작하는 경우의 대화의 교환을 도시하고 있다. 예를 들면, 이러한 각종 대화 기능은, 행동 모델로서 실현되고 있다.
구체적으로는, 도 14에 도시한 바와 같이 마스터는 「야호」라는 발성을 하면, 수신측은 그 반응 동작으로서, 「야호」라고 발성한다. 또, 이러한 발성의 인식이 비교적 용이해진 경우에는, 음계음을 출력하지 않아도 된다. 즉, 「야호」 등를 용이하게 인식할 수 있는 경우에는, 마스터는 도 14에 도시한 바와 같이, 음계음을 대응하여 출력하지 않고, 「야호」만을 발성하며, 상대 로봇 장치도 그 「야호」를 인식하도록 한다.
마스터는, 수신측의 「야호」의 발성에 대하여, 「해피(Happy)」 및 「음계음(음계 커맨드)」를 발성하고, 수신측은 그와 같은 마스터의 「해피」 및 「음계음」의 발성에 대하여, 「음계음」의 발성을 인식하고, 「평정(calm)」 및 「음계음」을 발성한다. 그리고, 다시 마스터는 수신측의 「평정(calm)」 및 「음계음」의 발성에 대하여, 「음계음」의 발성을 인식하고, 「해피!!(또 해피)」 및 「음계음」을 발성하고, 수신측은 그와 같은 마스터의 「해피!!」 및 「음계음」의 발성에 대하여, 「음계음」을 인식하고, 「해피」 및 「음계음」을 발성한다. 그리고, 마스터는 수신측의 「해피」 및 「음계음」의 발성에 대하여, 대화의 최종적인 동작으로서, 「쾌적(comfort)」을 발성한다. 이것에 동기하여, 수신측도 대화의 최종적인 동작으로서 「쾌적(comfort)」을 발성한다.
또한, 도 15에 도시한 바와 같이, 마스터가 화내고, 수신측이 야단맞는 경우의 교환은, 우선 마스터는 「야호」 라는 발성을 하면, 수신측은 그 반응 동작으로서, 「야호」라고 발성한다. 그리고, 마스터는 수신측의 「야호」의 발성에 대하여, 「화남(anger)」 및 「음계음(음계 커맨드)」을 발성하고, 수신측은 그와 같은 마스터의 「화남(anger)」 및 「음계음」의 발성에 대하여, 「음계음」의 발성을 인식하고, 「평정(calm)」 및 「음계음」을 발성한다. 그리고, 다시 마스터는, 수신측의 「평정」 및 「음계음」의 발성에 대하여, 「음계음」의 발성을 인식하고, 「화나 있음」 및 「음계음」을 발성하고, 수신측은, 그와 같은 마스터의 「화나 있음」 및 「음계음」의 발성에 대하여, 「음계음」을 인식하고, 「슬픔(sad)」 및 「음계음」을 발성한다. 그리고, 마스터는 수신측의 「슬픔」 및 「음계음」의 발성에 대하여, 대화가 최종적인 동작으로서, 「화나 있음」을 발성한다. 이것에 동기하여, 수신측은 대화의 최종적인 동작으로서 「슬픔」을 발성한다.
또한, 도 16에 도시한 바와 같이, 마스터가 명령을 내리고, 수신측이 그 명령에 대응하여 동작하는 경우의 교환에 있어서, 우선 마스터가 「야호」라고 발성을 하면, 수신측은 그 반응 동작으로서 「야호」라고 발성한다. 마스터는, 수신측의 「야호」의 발성에 대하여, 오른손(우측 앞다리)을 드는 동작을 함과 함께 「음계음(음계 커맨드)」을 발성하고, 수신측은 그와 같은 마스터의 오른손(우측 앞다 리)을 드는 동작 및 「음계음(음계 커맨드)」에 대하여, 「음계음」의 발성을 인식하고, 몸을 우회전하는 동작을 한다.
또, 수신측은 그와 같은 동작의 종료를 음계음에 의해 마스터에 알릴 수 있지만, 예를 들면 마스터측이 시간 관리를 함으로써, 마스터가 수신측의 동작의 종료를 검출함으로써도 실현할 수 있다. 즉, 예를 들면, 마스터가 수신측의 우회전이 동작의 실행 시간을 보유해 둠으로써, 오른손을 들고나서(혹은 음계음을 발성시키고나서)의 경과 시간을 계측하고, 보유하고 있는 우회전 동작의 실행 시간을 비교함으로써, 마스터는, 수신측이 실제로 행하고 있는 우회전 동작의 종료를 알 수 있다.
그리고, 마스터는, 또한 이와 같이 함으로써 수신측의 우회전 동작의 종료를 검출한 후, 이번은 왼손(좌측 앞다리)을 드는 동작을 함과 함께 「음계음(음계 커맨드)」을 발성하고, 수신측은, 그와 같은 마스터의 왼손(좌측 앞다리)을 드는 동작 및 「음계음(음계 커맨드)」에 대하여, 「음계음」의 발성을 인식하고, 몸을 좌회전시키는 동작을 한다. 그리고, 마스터는 상술한 바와 같이, 예를 들면 왼손을 들고나서(혹은 음계음을 발성시키고나서)의 경과 시간을 계측하고, 보유하고 있는 좌회전 동작의 실행 시간을 비교함으로써, 수신측이 실제로 행하고 있는 좌회전 동작의 종료를 알 수 있다.
또한, 마스터는 이와 같이 함으로써 수신측의 좌회전 동작의 종료를 검출한 후, 이번은 양손(양측 앞다리)을 드는 동작을 함과 함께 「음계음(음계 커맨드)」을 발성하고, 수신측은 그와 같은 마스터의 양손(양측 앞다리)을 드는 동작 및 「 음계음(음계 커맨드)」에 대하여, 「음계음」의 발성을 인식하고, 전진 동작을 한다.
이와 같이, 마스터가 명령을 내리고, 수신측이 그 명령에 대응하여 동작하는 경우의 교환이 이루어진다.
이상, 도 14 내지 도 16을 이용하여 설명한 바와 같이, 로봇 장치는 상대 로봇 장치와의 사이에서 다양한 대화를 실현할 수 있다.
또, 상술한 실시 형태에서는, 로봇 장치 사이에서 행하는 통신이 음계음에 의해 이루어지는 경우에 대해 설명하였다. 그러나, 이것에 한정되는 것이 아니고, 예를 들면 적외선에 의해 로봇 장치 사이에서 정보의 송수신을 할 수도 있다.
또한, 상술한 실시 형태에서는 로봇 장치 사이의 동작에 의한 대화를 주로 음성 출력 동작(혹은 발화 동작)에 의해 이루어지는 경우에 대해 설명하였다. 그러나, 이것에 한정되는 것이 아니고, 다리 등의 가동부를 동작시켜, 대화를 행할 수도 있다. 이 경우, 로봇 장치는, 상대의 동작을 CCD 카메라(20) 등의 화상 인식 수단에 의해 인식하도록 한다. 로봇 장치의 움직임을 인식하는 것이 비교적 곤란하게 되는 경우에는, 음계음 등을 그 움직임 동작에 대응하여 출력함으로써, 그와 같은 움직임 동작의 의미를 음계음에 의해 인식할 수 있게 되어, 로봇 장치 사이의 대화를 확실하게 실현할 수 있게 된다.
또한, 로봇 장치가, 자율적으로 문장을 생성하여 말을 발하게 되면, 그와 같은 문장의 이해가 복잡해도, 상술한 바와 같이 동시에 그 내용 정보를 음계음으로서 출력함으로써, 상대 로봇 장치는 그와 같은 복잡한 문장에 대응하는 반응을 확 실하게 할 수 있게 된다.
상술한 바와 같은 본 발명을 이용함으로써, 로봇 장치는, 다른 로봇 장치가 출력하는 동작에 포함되는 정보를 동작 검출 수단에 의해 검출하고, 동작 검출 수단이 검출한 정보에 대응한 동작을 동작 출력 수단에 의해 출력할 수 있다. 이에 따라, 로봇 장치는 다른 로봇 장치의 동작에 반응하여 동작할 수 있게 되어, 오락성이 향상한다.

Claims (57)

  1. 삭제
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 삭제
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
  23. 삭제
  24. 삭제
  25. 삭제
  26. 삭제
  27. 삭제
  28. 삭제
  29. 삭제
  30. 삭제
  31. 삭제
  32. 삭제
  33. 삭제
  34. 삭제
  35. 삭제
  36. 삭제
  37. 삭제
  38. 삭제
  39. 삭제
  40. 삭제
  41. 로봇 장치에 있어서,
    다른 로봇 장치에 의한 동작 출력에 포함되는 정보를 검출하는 동작 검출 수단;
    상기 동작 검출 수단에 의해 검출된 상기 정보에 대응하는 동작을 출력하는 동작 출력 수단;
    상기 다른 로봇 장치와 상기 정보를 송수신하는 통신 수단 - 상기 통신 수단은 상기 동작 출력 수단에 의한 상기 동작 출력에 관련된 상기 동작의 의미 정보를 송신하고, 상기 로봇 장치는 상기 다른 로봇 장치에 의해 검출 가능한 상기 의미 정보를 데이터베이스로서 보유함 - ; 및
    상기 동작 출력에 대응하는 상기 다른 로봇 장치의 반응 회수를 측정하는 수단 - 상기 동작 출력 수단은 상기 다른 로봇 장치의 반응 회수에 좌우되어 동작을 출력함 -
    을 포함하는 로봇 장치.
  42. 로봇 장치에 있어서,
    다른 로봇 장치에 의한 동작 출력에 포함되는 정보를 검출하는 동작 검출 수단;
    상기 동작 검출 수단에 의해 검출된 상기 정보에 대응하는 동작을 출력하는 동작 출력 수단;
    상기 다른 로봇 장치와 상기 정보를 송수신하는 통신 수단 - 상기 로봇 장치는, 상기 다른 로봇 장치에 의한 동작 출력과 관련하여, 상기 다른 로봇 장치에 의해 송신되는 상기 동작의 의미 정보를 상기 통신 수단에 의해 수신하고, 상기 동작 검출 수단은 상기 통신 수단에 의해 수신된 상기 의미 정보를 상기 동작에 포함된 상기 정보로서 검출함 - ; 및
    상기 동작 출력에 대응하는 상기 다른 로봇 장치의 반응 회수를 측정하는 수단 - 상기 동작 출력 수단은 상기 다른 로봇 장치의 반응 회수에 좌우되어 동작을 출력함 -
    을 포함하는 로봇 장치.
  43. 제42항에 있어서,
    상기 로봇 장치는 상기 다른 로봇 장치에 의해 송신된 상기 의미 정보를 데이터베이스로서 보유하고,
    상기 동작 검출 수단은, 상기 통신 수단에 의해 수신된 신호로부터 상기 데이터베이스에 기초하여 상기 의미 정보를 판독하고 상기 판독한 의미 정보를 상기 동작에 포함되는 정보로서 검출하는 로봇 장치.
  44. 로봇 장치에 있어서,
    다른 로봇 장치에 의한 동작 출력에 포함되는 정보를 검출하는 동작 검출 수단;
    상기 동작 검출 수단에 의해 검출된 상기 정보에 대응하는 동작을 출력하는 동작 출력 수단;
    상기 다른 로봇 장치와 상기 정보를 송수신하는 통신 수단 - 상기 통신 수단은 음계음(scale sound)에 의해 통신을 실행함 - ; 및
    상기 동작 출력에 대응하는 상기 다른 로봇 장치의 반응 회수를 측정하는 수단 - 상기 동작 출력 수단은 상기 다른 로봇 장치의 반응 회수에 좌우되어 동작을 출력함 -
    을 포함하는 로봇 장치.
  45. 로봇 장치에 있어서,
    다른 로봇 장치에 의한 동작 출력에 포함되는 정보를 검출하는 동작 검출 수단; 및
    상기 동작 검출 수단에 의해 검출된 상기 정보에 대응하는 동작을 출력하는 동작 출력 수단 - 상기 동작 출력 수단은 소정 상태에 있을 때 소정 동작을 출력하고, 상기 다른 로봇 장치의 존재가 상기 소정 상태로서 검출되었을 때 상기 소정 동작이 출력됨 - ; 및
    상기 동작 출력에 대응하는 상기 다른 로봇 장치의 반응 회수를 측정하는 수단 - 상기 동작 출력 수단은 상기 다른 로봇 장치의 반응 회수에 좌우되어 동작을 출력함 -
    을 포함하는 로봇 장치.
  46. 로봇 장치에 있어서,
    다른 로봇 장치에 의한 동작 출력에 포함되는 정보를 검출하는 동작 검출 수단;
    상기 동작 검출 수단에 의해 검출된 상기 정보에 대응하는 동작을 출력하는 동작 출력 수단 - 상기 동작 검출 수단은 상기 다른 로봇 장치가 소정 상태일 때, 상기 동작 출력에 포함된 상기 정보를 검출함 - ; 및
    상기 동작 출력에 대응하는 상기 다른 로봇 장치의 반응 회수를 측정하는 수단 - 상기 동작 출력 수단은 상기 다른 로봇 장치의 반응 회수에 좌우되어 동작을 출력함 -
    을 포함하는 로봇 장치.
  47. 로봇 장치에 있어서,
    다른 로봇 장치에 의한 동작 출력에 포함되는 정보를 검출하는 동작 검출 수단; 및
    상기 동작 검출 수단에 의해 검출된 상기 정보에 대응하는 동작을 출력하는 동작 출력 수단 - 상기 동작 출력 수단은 상기 동작 검출 수단에 의해 검출된 상기 정보에 응답하여, 상기 동작 검출 수단에 의해 검출된 상기 정보와 관련된, 상기 다른 로봇 장치의 동작을 발생시킨 선행의 동작을 변조하고, 상기 변조된 선행 동작을 출력함 - ; 및
    상기 동작 출력에 대응하는 상기 다른 로봇 장치의 반응 회수를 측정하는 수단 - 상기 동작 출력 수단은 상기 다른 로봇 장치의 반응 회수에 좌우되어 동작을 출력함 -
    을 포함하는 로봇 장치.
  48. 제47항에 있어서,
    상기 선행 동작은 음계음을 출력하는 동작이며,
    상기 동작 출력 수단은 상기 음계음을 변조하고, 변조된 음계음을 출력하는 로봇 장치.
  49. 로봇 장치의 동작을 제어하는 방법에 있어서,
    다른 로봇 장치에 의한 동작 출력에 포함되는 정보를 검출하는 동작 검출 단계;
    상기 동작 검출 단계에 의해 검출된 상기 정보에 대응하는 동작을 상기 로봇 장치 중 하나가 출력하도록 하는 동작 출력 단계; 및
    상기 다른 로봇 장치에 의한 동작 출력과 관련하여 상기 다른 로봇 장치에 의해 송신된 상기 동작의 의미 정보를 수신하는 수신 단계 - 상기 동작 검출 단계는 상기 수신 단계에서 수신된 상기 의미 정보를 상기 동작에 포함되는 정보로서 검출하는 로봇 장치의 동작을 제어함 - ; 및
    상기 동작 출력에 대응하는 상기 다른 로봇 장치의 반응 회수를 측정하는 단계 - 상기 동작 출력 단계는 상기 다른 로봇 장치의 반응 회수에 좌우되어 동작을 출력함 -
    를 포함하는 방법.
  50. 상대 로봇 장치의 동작에 대응하는 동작을 수행하는 복수의 로봇 장치의 동작 제어 시스템에 있어서,
    상기 대응하는 로봇 장치에 의한 동작 출력에 포함되는 정보를 검출하는 동작 검출 수단을 포함하는 복수의 로봇 장치;
    상기 동작 검출 수단에 의해 검출된 상기 정보에 대응하는 동작을 출력하는 동작 출력 수단 ; 및
    상기 동작 출력에 대응하는 상기 상대 로봇 장치의 반응 회수를 측정하는 수단 - 상기 동작 출력 수단은 상기 상대 로봇 장치의 반응 회수에 좌우되어 동작을 출력함 -
    을 포함하고,
    상기 동작 출력 수단이 소정 상태일 때 상기 동작 출력 수단은 소정 동작을 출력하고,
    상기 로봇 장치 중 하나는 소정 상태일 때 상기 동작 출력 수단에 의해 소정 동작을 출력하고,
    상기 다른 로봇 장치는, 상기 하나의 로봇 장치에 의한 상기 소정 동작 출력에 대응하는 동작을 출력하는
    로봇 장치의 동작 제어 시스템.
  51. 제50항에 있어서,
    상기 로봇 장치는 외부 환경 및 내부 상태 중 적어도 어느 하나에 기초하여 감정을 변화시키고,
    상기 동작 출력 수단은, 상기 소정 상태로서 상기 감정의 소정 레벨이 되었을 때 상기 감정을 동작에 표출시켜 그 결과적인 동작을 출력하는 로봇 장치의 동작 제어 시스템.
  52. 제50항에 있어서,
    상기 다른 로봇 장치의 존재가 상기 소정 상태로서 검출될 때 상기 소정 동작이 출력되는 로봇 장치의 동작 제어 시스템.
  53. 상대 로봇 장치의 동작에 대응하는 동작을 수행하는 복수의 로봇 장치의 동작 제어 시스템에 있어서,
    상기 대응하는 로봇 장치에 의한 동작 출력에 포함되는 정보를 검출하는 동작 검출 수단을 포함하는 복수의 로봇 장치;
    상기 동작 검출 수단에 의해 검출된 상기 정보에 대응하는 동작을 출력하는 동작 출력 수단 - 상기 동작 출력 수단은 상기 동작 검출 수단에 의해 검출된 상기 정보와 관련된, 상기 상대 로봇 장치의 동작을 발생시킨 선행의 동작을 변조하고, 상기 변조된 선행 동작을 출력함 - ; 및
    상기 동작 출력에 대응하는 상기 상대 로봇 장치의 반응 회수를 측정하는 수단 - 상기 동작 출력 수단은 상기 상대 로봇 장치의 반응 회수에 좌우되어 동작을 출력함 -
    을 포함하는 로봇 장치의 동작 제어 시스템.
  54. 상대 로봇 장치의 동작에 대응하는 동작을 수행하는 복수의 로봇 장치의 동작 제어 시스템에 있어서,
    상기 대응하는 로봇 장치에 의한 동작 출력에 포함되는 정보를 검출하는 동작 검출 수단을 포함하는 복수의 로봇 장치;
    상기 동작 검출 수단에 의해 검출된 상기 정보에 대응하는 동작을 출력하는 동작 출력 수단 ; 및
    상기 동작 출력에 대응하는 상기 상대 로봇 장치의 반응 회수를 측정하는 수단 - 상기 동작 출력 수단은 상기 상대 로봇 장치의 반응 회수에 좌우되어 동작을 출력함 -
    을 포함하고,
    상기 로봇 장치는 대응하는 로봇 장치와 상기 정보를 송수신하는 통신 수단을 포함하고,
    상기 로봇 장치 중 하나는, 상기 동작 출력 수단에 의해 출력된 동작과 관련하여, 상기 통신 수단에 의해 상기 동작의 의미 정보를 송신하고,
    상기 다른 로봇 장치는 상기 통신 수단에 의해 상기 의미 정보를 수신하고 상기 동작 검출 수단에 의해 상기 의미 정보를 상기 동작에 포함된 정보로서 검출하고, 상기 통신 수단은 음계음으로 통신을 수행하는
    로봇 장치의 동작 제어 시스템.
  55. 상대 로봇 장치의 동작에 대응하여 로봇 장치의 동작을 제어하는 방법에 있어서,
    상기 로봇 장치 중 하나가 소정 상태일 때 상기 로봇 장치 중 하나가 소정 동작을 출력하는 동작 출력 단계;
    상기 다른 로봇 장치가 상기 하나의 로봇 장치에 의해 출력된 상기 소정 동작에 대응하는 동작을 출력하는 반응 동작 출력 단계; 및
    상기 동작 출력에 대응하는 상기 상대 로봇 장치의 반응 회수를 측정하는 단계 - 상기 동작 출력 단계는 상기 상대 로봇 장치의 반응 회수에 좌우되어 동작을 출력함 -
    를 포함하는 로봇 장치의 동작 제어 방법.
  56. 제55항에 있어서,
    상기 각각의 동작은 각각의 동작의 의미 정보를 포함하는 로봇 장치의 동작 제어 방법.
  57. 제55항에 있어서,
    상기 하나의 로봇 장치는 외부 환경 및 내부 상태 중 적어도 어느 하나에 기초하여 감정을 변화시키며,
    상기 하나의 로봇 장치는, 상기 소정 상태인 상기 감정의 소정 레벨일 때 상기 감정을 동작에 표출시켜 그 결과적인 동작을 출력하는 로봇 장치의 동작 제어 방법.
KR1020027010064A 2000-12-06 2001-12-06 로봇 장치, 로봇 장치의 동작 제어 방법 및 로봇 장치의동작 제어 시스템 KR100843822B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2000-00372092 2000-12-06
JP2000372092 2000-12-06

Publications (2)

Publication Number Publication Date
KR20020080407A KR20020080407A (ko) 2002-10-23
KR100843822B1 true KR100843822B1 (ko) 2008-07-04

Family

ID=18841690

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020027010064A KR100843822B1 (ko) 2000-12-06 2001-12-06 로봇 장치, 로봇 장치의 동작 제어 방법 및 로봇 장치의동작 제어 시스템

Country Status (5)

Country Link
US (2) US6889117B2 (ko)
KR (1) KR100843822B1 (ko)
CN (1) CN1309535C (ko)
TW (1) TWI236610B (ko)
WO (1) WO2002045916A1 (ko)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7089218B1 (en) * 2004-01-06 2006-08-08 Neuric Technologies, Llc Method for inclusion of psychological temperament in an electronic emulation of the human brain
US7925492B2 (en) 2004-01-06 2011-04-12 Neuric Technologies, L.L.C. Method for determining relationships through use of an ordered list between processing nodes in an emulated human brain
US20070156625A1 (en) * 2004-01-06 2007-07-05 Neuric Technologies, Llc Method for movie animation
EP1315087A4 (en) * 2000-08-28 2006-07-26 Sony Corp COMMUNICATION DEVICE AND METHOD, NETWORK SYSTEM, AND ROBOTIC DEVICE
JP2002283261A (ja) * 2001-03-27 2002-10-03 Sony Corp ロボット装置及びその制御方法、並びに記憶媒体
JP2003205483A (ja) * 2001-11-07 2003-07-22 Sony Corp ロボットシステム及びロボット装置の制御方法
US20040002790A1 (en) * 2002-06-28 2004-01-01 Paul Senn Sensitive devices and sensitive applications
CN100351789C (zh) * 2003-03-28 2007-11-28 索尼株式会社 信息提供设备、方法和信息提供系统
US20050105769A1 (en) * 2003-11-19 2005-05-19 Sloan Alan D. Toy having image comprehension
JP2006074207A (ja) * 2004-08-31 2006-03-16 Toshiba Corp 移動型情報装置とこの移動方法、及び情報システムと位置推定方法
EP1637945B1 (de) * 2004-09-16 2008-08-20 Siemens Aktiengesellschaft Automatisierungssystem mit affektiver Steuerung
US8473449B2 (en) * 2005-01-06 2013-06-25 Neuric Technologies, Llc Process of dialogue and discussion
JP2006277120A (ja) * 2005-03-28 2006-10-12 Toshiba Corp オブジェクト管理装置、オブジェクト管理方法およびオブジェクト管理プログラム
US8588970B2 (en) * 2006-10-13 2013-11-19 Honeywell International Inc. Robotic system with distributed integrated modular avionics across system segments
JP4550849B2 (ja) * 2007-03-22 2010-09-22 株式会社東芝 アーム搭載移動ロボット
CN101493903A (zh) * 2008-01-24 2009-07-29 鸿富锦精密工业(深圳)有限公司 有性格特征的类生物装置及其展现方法
US20090210476A1 (en) * 2008-02-19 2009-08-20 Joseph Arie Levy System and method for providing tangible feedback according to a context and personality state
CN101650553B (zh) * 2008-08-11 2013-04-24 悠进机器人股份公司 控制智能机器人和制作机器人内容的制作工具的应用方法
TWI447660B (zh) * 2009-12-16 2014-08-01 Univ Nat Chiao Tung Robot autonomous emotion expression device and the method of expressing the robot's own emotion
JP5612971B2 (ja) * 2010-09-07 2014-10-22 オリンパス株式会社 マスタスレーブマニピュレータ
KR20120047577A (ko) * 2010-11-04 2012-05-14 주식회사 케이티 대화형 행동모델을 이용한 로봇 인터랙션 서비스 제공 장치 및 방법
US9079313B2 (en) * 2011-03-15 2015-07-14 Microsoft Technology Licensing, Llc Natural human to robot remote control
US9753453B2 (en) 2012-07-09 2017-09-05 Deep Learning Robotics Ltd. Natural machine interface system
US9211645B2 (en) * 2012-12-13 2015-12-15 Korea Institute Of Industrial Technology Apparatus and method for selecting lasting feeling of machine
US9324245B2 (en) * 2012-12-13 2016-04-26 Korea Institute Of Industrial Technology Apparatus and method for creating artificial feelings
CN104385273B (zh) * 2013-11-22 2016-06-22 嘉兴市德宝威微电子有限公司 机器人系统及其同时表演控制方法
WO2015174172A1 (ja) * 2014-05-13 2015-11-19 シャープ株式会社 制御装置およびメッセージ出力制御システム
WO2016002673A1 (ja) * 2014-07-01 2016-01-07 シャープ株式会社 姿勢制御装置、ロボット、およびプログラム
CN106325113B (zh) * 2015-06-26 2019-03-19 北京贝虎机器人技术有限公司 机器人控制引擎及系统
CN105785821B (zh) * 2016-03-31 2019-10-22 海尔优家智能科技(北京)有限公司 机器人动作同步方法及装置
CN106371455B (zh) * 2016-08-29 2019-01-25 马登山 一种智能交互方法和系统
US10272349B2 (en) * 2016-09-07 2019-04-30 Isaac Davenport Dialog simulation
CN106346475A (zh) * 2016-11-01 2017-01-25 上海木爷机器人技术有限公司 机器人和机器人控制方法
CN106406328B (zh) * 2016-11-05 2020-04-03 杭州畅动智能科技有限公司 一种基于机器人开发平台的运动控制方法
CN106648614B (zh) * 2016-11-05 2021-05-18 杭州畅动智能科技有限公司 基于模块化平台的机器人开发系统架构及其主控单元
WO2018094272A1 (en) 2016-11-18 2018-05-24 Robert Bosch Start-Up Platform North America, LLC, Series 1 Robotic creature and method of operation
JP6673276B2 (ja) * 2017-03-28 2020-03-25 カシオ計算機株式会社 音声検出装置、音声検出方法、及びプログラム
US11633863B2 (en) * 2018-04-06 2023-04-25 Digital Dream Labs, Llc Condition-based robot audio techniques

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000032361A1 (fr) * 1998-11-30 2000-06-08 Sony Corporation Robot, procede de commande de robot et support d'enregistrement de programme
JP2000233386A (ja) * 1999-02-10 2000-08-29 Sony Corp ロボット装置及びその制御方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337552B1 (en) * 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
JPH11126017A (ja) * 1997-08-22 1999-05-11 Sony Corp 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム
US6505097B1 (en) * 1999-01-13 2003-01-07 Sony Corporation Arithmetic processing device, inter-object communication method, and robot
JP3424631B2 (ja) * 1999-01-13 2003-07-07 ソニー株式会社 ロボット装置及びソフトウエアの更新方法
EP1103352A1 (en) * 1999-01-18 2001-05-30 Sony Corporation Robot, main unit of robot, and coupling unit of robot
JP4366617B2 (ja) * 1999-01-25 2009-11-18 ソニー株式会社 ロボット装置
JP2000218065A (ja) 1999-01-28 2000-08-08 Sony Corp 情報処理装置及び情報処理方法
JP4512963B2 (ja) * 1999-05-10 2010-07-28 ソニー株式会社 ロボット装置及びその制御方法
JP3555107B2 (ja) * 1999-11-24 2004-08-18 ソニー株式会社 脚式移動ロボット及び脚式移動ロボットの動作制御方法
JP2001157983A (ja) 1999-11-30 2001-06-12 Sony Corp ロボット装置及びロボット装置の性格判別方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000032361A1 (fr) * 1998-11-30 2000-06-08 Sony Corporation Robot, procede de commande de robot et support d'enregistrement de programme
JP2000233386A (ja) * 1999-02-10 2000-08-29 Sony Corp ロボット装置及びその制御方法

Also Published As

Publication number Publication date
CN1416381A (zh) 2003-05-07
KR20020080407A (ko) 2002-10-23
CN1309535C (zh) 2007-04-11
TWI236610B (en) 2005-07-21
US20050090935A1 (en) 2005-04-28
US6889117B2 (en) 2005-05-03
US7076334B2 (en) 2006-07-11
WO2002045916A1 (fr) 2002-06-13
US20040093118A1 (en) 2004-05-13

Similar Documents

Publication Publication Date Title
KR100843822B1 (ko) 로봇 장치, 로봇 장치의 동작 제어 방법 및 로봇 장치의동작 제어 시스템
US7251606B2 (en) Robot device with changing dialogue and control method therefor and storage medium
JP4150198B2 (ja) 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置
EP1256931A1 (en) Method and apparatus for voice synthesis and robot apparatus
KR100940630B1 (ko) 로봇 장치와, 문자 인식 장치 및 문자 인식 방법과, 제어프로그램 및 기록 매체
KR100864339B1 (ko) 로봇 장치 및 로봇 장치의 행동 제어 방법
US9205557B2 (en) System and method for generating contextual behaviors of a mobile robot
JP2003039363A (ja) ロボット装置、ロボット装置の行動学習方法、ロボット装置の行動学習プログラム、及びプログラム記録媒体
EP1508409A1 (en) Robot device and robot control method
KR20030074473A (ko) 스피치 합성 방법 및 장치, 프로그램, 기록 매체, 억제정보 생성 방법 및 장치, 및 로봇 장치
JP2002351305A (ja) 語学研修用ロボット
WO2002076686A1 (fr) Appareil d&#39;apprentissage d&#39;actions et procede d&#39;apprentissage d&#39;actions pour systeme robotique, et support de memoire
JP4687936B2 (ja) 音声出力装置および音声出力方法、並びにプログラムおよび記録媒体
KR20020067694A (ko) 로봇 장치 및 로봇 장치의 동작 제어 방법
JP2002219677A (ja) ロボット装置及びロボット装置の行動制御方法
JP2003340760A (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP2002307349A (ja) ロボット装置、情報学習方法、プログラム及び記録媒体
JP2002239962A (ja) ロボット装置、ロボット装置の動作制御方法及びロボット装置の動作制御システム
JP2003271172A (ja) 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置
JP2003044080A (ja) ロボット装置、文字認識装置及び文字認識方法、並びに、制御プログラム及び記録媒体
JP2002258886A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体
JP2002311981A (ja) 自然言語処理装置および自然言語処理方法、並びにプログラムおよび記録媒体
JP2002175091A (ja) 音声合成方法及び装置、並びにロボット装置
WO2023037608A1 (ja) 自律移動体、情報処理方法、及び、プログラム
JP2002304187A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120619

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee