JP2002239962A - Robot device, and action control method and system of robot device - Google Patents

Robot device, and action control method and system of robot device

Info

Publication number
JP2002239962A
JP2002239962A JP2001373188A JP2001373188A JP2002239962A JP 2002239962 A JP2002239962 A JP 2002239962A JP 2001373188 A JP2001373188 A JP 2001373188A JP 2001373188 A JP2001373188 A JP 2001373188A JP 2002239962 A JP2002239962 A JP 2002239962A
Authority
JP
Japan
Prior art keywords
robot
robot device
output
robot apparatus
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001373188A
Other languages
Japanese (ja)
Inventor
Kotaro Sabe
浩太郎 佐部
Kazuo Ishii
和夫 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001373188A priority Critical patent/JP2002239962A/en
Publication of JP2002239962A publication Critical patent/JP2002239962A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Toys (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable a conversation between robot devices. SOLUTION: A main robot device generates a scale command in a command generation state ST2 and enters into a waiting state of a reaction of a slave robot device. When the slave robot device outputs a feeling expression sound in responding to the sound command issued by the main robot device, the main robot device recognizes the feeling expression sound so as to output the same feeling expression sound. In a reaction acting state ST4, the main robot selects an action (NumResponse) according to a value of a variable NumResponse obtained by counting the response frequency and expresses the action.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ロボット装置、ロ
ボット装置の動作を制御するロボット装置の動作制御方
法、及び複数のロボット装置の動作を制御するロボット
装置の動作制御システムに関し、自律動作に好適なロボ
ット装置、そのようなロボット装置の動作性制御方法、
及びそのようなロボット装置の動作制御システムに関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot apparatus, an operation control method of the robot apparatus for controlling the operation of the robot apparatus, and an operation control system of the robot apparatus for controlling the operations of a plurality of robot apparatuses, which is suitable for autonomous operation. Robot device, method for controlling the operation of such a robot device,
And an operation control system for such a robot device.

【0002】[0002]

【従来の技術】近年、外観形状が犬や猫等の動物に模し
て形成されたロボット装置が提供されている。そのよう
なロボット装置には、外部からの情報や内部の状態に応
じて自律的に動作するものがある。例えば、ロボット装
置は、外部からの情報とされるユーザーからの命令によ
り動作したり、内部の状態を示す感情レベルに応じて動
作するようになされている。
2. Description of the Related Art In recent years, there has been provided a robot device whose external shape is formed by imitating an animal such as a dog or a cat. Some of such robot devices operate autonomously according to external information or internal conditions. For example, the robot device operates according to a command from a user as information from the outside, or operates according to an emotion level indicating an internal state.

【0003】例えば、内部状態を示す感情レベルに応じ
て動作するロボット装置の機能としては、次のようなも
のがある。
For example, the functions of a robot apparatus that operates according to the emotion level indicating the internal state include the following.

【0004】ロボット装置は、例えば、図15に示すよ
うに、種々の状態A、状態B、状態C及び状態D等を有
しており、所定の条件或いはタイミングで各状態間を遷
移するようになされている。ここで、状態A、状態B、
状態C及び状態Dは、そこで実行される姿勢や動作によ
って定義されている。
A robot apparatus has various states A, B, C and D, for example, as shown in FIG. 15, and transitions between the states under predetermined conditions or timing. It has been done. Here, state A, state B,
The state C and the state D are defined by a posture and an operation performed there.

【0005】これにより、例えば、ロボット装置は、状
態Aにおいて感情が「怒っている」のときにはそれに対
応して「ピロリロリー」等と発音し、或いは、状態Bに
おいて感情が「幸せ」のときにはそれに対応して「ピポ
パー」と発音する。
[0005] Thus, for example, when the emotion is "angry" in the state A, the robot apparatus pronounces "pyrroli lolly" or the like, or in the state B, the emotion is "happy". And pronounce "pipopa".

【0006】また、ユーザーからの命令により動作する
ロボット装置の機能により、例えば、ロボット装置とユ
ーザーとの間の対話(インタラクション)が実現される
が、この機能としては、例えば、ユーザー等による外部
からの接触に応じて反応する機能や外部コマンドにより
動作する機能が挙げられる。
Further, the function of the robot device operated according to a command from the user realizes, for example, a dialogue (interaction) between the robot device and the user. And a function that operates in response to an external command.

【0007】例えば、ロボット装置に外部の接触を検出
する接触センサーを備えることで、その接触センサーの
接触に応じてロボット装置を動作させることで、ユーザ
ー等による外部からの接触に応じてロボット装置が反応
する機能が実現される。例えば、接触センサーは、ロボ
ット装置の頭頂部等に設置されている。
For example, by providing the robot device with a contact sensor for detecting an external contact, the robot device is operated in accordance with the contact of the contact sensor. A responsive function is realized. For example, the contact sensor is installed on the top of the robot device or the like.

【0008】一方、外部コマンドにより動作する機能に
ついては、次のような手法が挙げられる。
On the other hand, the following method can be used for a function operated by an external command.

【0009】例えば、外部コマンドとしての音階コマン
ドを出力する機器を利用したものが挙げられる。音階コ
マンドは、例えば、音階音でロボット装置に所定の動作
をさせるためのコマンドを形成するものであり、ロボッ
ト装置は、外部制御機器から出力された音階コマンドを
認識して、その音階コマンドに応じた動作を表出するよ
うになる。例えば、このような音階コマンドを出力する
外部制御機器としては、いわゆるサウンドコマンダーが
挙げられる。なお、このような音階コマンドを利用した
装置の制御システムについては、その技術は近年確立さ
れてきている。
For example, there is a device using a device that outputs a scale command as an external command. The scale command forms, for example, a command for causing the robot apparatus to perform a predetermined operation with a scale sound.The robot apparatus recognizes a scale command output from an external control device and responds to the scale command. Will be able to express the action. For example, an external control device that outputs such a scale command includes a so-called sound commander. The technology of the control system of the device using such a scale command has been established in recent years.

【0010】このような外部からの情報とされる接触や
音階コマンドにより、例えば、ロボット装置は、図16
に示すように、待機状態において、頭頂部の接触センサ
ーの接触により「叩かれた(Pat)」ことを検出した
り、接触センサーが強く叩かれたことにより「殴られた
(Hit)」ことを検出する。ロボット装置は、その反応
として、「叩かれた(Pat)」ことの検出により、怒り
を示す音として例えば、「ピポパー」といった発音をし
たり、「殴られた(Hit)」ことの検出により、悲しみ
を示す音として例えば、「ピロリロリー」といった発音
をしたりする。また、ロボット装置は、音階コマンド
(例えば、音階言語)による場合には、その音階コマン
ドの認識により対応する動作として、例えば、「ピロ
リ」といった発音をする。
By such a contact or a musical scale command as information from the outside, for example, the robot apparatus
As shown in the figure, in the standby state, it is detected that "hit (Pat)" has been detected by the contact of the contact sensor on the top of the head, or "hit (Hit)" has been detected due to the strong hit of the contact sensor. To detect. As a reaction, the robot device detects, for example, “pipoper” as a sound indicating anger by detecting “hit” (Pat), or detects “hit” (Hit). For example, as a sound indicating sadness, a pronunciation such as "Pirori Rory" is given. Further, in the case of using a musical scale command (for example, musical scale language), the robot apparatus generates a sound such as “pirori” as a corresponding operation by recognizing the musical scale command.

【0011】以上のように、接触による外部刺激や音階
コマンド等により、ロボット装置の動作に影響を与える
ことにより、ユーザーとロボット装置との間の対話が可
能とされていた。
As described above, the interaction between the user and the robot device has been made possible by affecting the operation of the robot device by the external stimulus or the musical scale command due to the contact.

【0012】[0012]

【発明が解決しようとする課題】ところで、上述したよ
うに、従来のロボット装置の動作は、自己の感情やユー
ザー等によって与えられる情報等によって決定されるこ
とに留まっていた。ロボット装置同士が対話(意思の疎
通)すること、すなわち、ロボット装置同士が相手に反
応して動作することができれば、ロボット装置の娯楽性
がさらに向上する。
By the way, as described above, the operation of the conventional robot apparatus is determined only by its own emotion, information given by a user or the like. If the robot apparatuses can communicate (communicate with each other), that is, if the robot apparatuses can operate in response to each other, the entertainment of the robot apparatuses is further improved.

【0013】さらに、そのようにロボット装置間で対話
をさせたい場合でも、ロボット装置同士が同一機種でな
い場合も考えられる。すなわち例えば、先発モデルのロ
ボット装置と後発モデルのロボット装置等といった関係
や、異なる製造者からそれぞれロボット装置が提供され
ているような関係にある場合である。この場合、例え
ば、そのようなロボット装置同士で反応することが困難
である。
[0013] Further, even when it is desired to have a dialogue between the robot devices, the robot devices may not be of the same model. That is, for example, there is a relationship such as a first model robot device and a second model robot device, or a relationship in which different manufacturers provide robot devices. In this case, for example, it is difficult for such robot devices to react with each other.

【0014】例えば、後発モデルのロボット装置には、
通常、先発モデルのロボット装置の機能を付加すること
ができる。換言すれば、先発モデルのロボット装置は、
後発モデルのロボット装置が有する機能を持っていない
場合があるということである。このようなことから、対
話機能を持たせる場合でも、同一機種のロボット装置間
のものに限定されてしまう場合が生じる。
For example, in a later model robot apparatus,
Usually, the function of the robot device of the starting model can be added. In other words, the starting model robot device is
This means that there are cases where the functions of the later model robot device are not provided. For this reason, even in the case where the interactive function is provided, there is a case in which the interactive function is limited to that between robot apparatuses of the same model.

【0015】しかし、そのような対話機能が異なるよう
なロボット装置間で対話をすることが実現できれば、娯
楽性がさらに増す。また、それに加え、そのような種々
のロボット装置間で対話を可能とすることは、資源とし
てのロボット装置の有効利用に繋がると言える。
[0015] However, if it is possible to realize a dialogue between the robot apparatuses having such different dialogue functions, the entertainment will be further enhanced. In addition, it can be said that enabling interaction between such various robot devices leads to effective use of the robot devices as resources.

【0016】本発明は、上述の実情に鑑みてなされたも
のであり、ロボット装置同士で対話することができるロ
ボット装置、ロボット装置の動作制御方法及びロボット
装置の制御システムを提供することを目的としている。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and has as its object to provide a robot, a method of controlling the operation of a robot, and a control system of the robot, which allow the robots to interact with each other. I have.

【0017】[0017]

【課題を解決するための手段】上述した目的を達成する
ために、本発明に係るロボット装置は、動作部を備える
移動ロボット装置において、他のロボット装置が出力す
る動作に含まれる情報を検出する動作検出手段と、上記
動作検出手段によって検出された情報に基づいて上記動
作部を制御する動作部制御手段と、上記動作部によって
出力された動作に基づく他のロボット装置の反応回数を
計測する反応回数計測手段とを備え、上記動作部制御手
段は、上記他のロボット装置の反応回数に応じて、上記
動作部によって動作を出力する。
In order to achieve the above object, a robot apparatus according to the present invention detects, in a mobile robot apparatus having an operation section, information included in an operation output by another robot apparatus. A motion detection unit, an operation unit control unit that controls the operation unit based on the information detected by the operation detection unit, and a reaction that counts the number of reactions of another robot device based on the operation output by the operation unit. The operation unit control unit outputs an operation by the operation unit according to the number of times of reaction of the another robot device.

【0018】このような構成を備えるロボット装置は、
他のロボット装置が出力する動作に含まれる情報を動作
検出手段により検出し、動作検出手段が検出した情報に
基づいて動作部制御手段により動作部を制御して動作を
出力する。その際、動作部制御手段は、反応回数計測手
段により計測された他のロボット装置の反応回数に応じ
て動作部を制御する。これにより、ロボット装置は、他
のロボット装置の動作に反応して動作するようになる。
A robot apparatus having such a configuration is as follows.
The information included in the operation output by the other robot device is detected by the operation detection unit, and the operation unit is controlled by the operation unit control unit based on the information detected by the operation detection unit to output the operation. At this time, the operation unit control means controls the operation unit according to the number of reactions of the other robot device measured by the number-of-reactions measurement means. Thus, the robot device operates in response to the operation of another robot device.

【0019】また、上述の課題を解決するために、本発
明に係るロボット装置は、他のロボット装置が出力する
動作に含まれる情報を検出する動作検出手段と、動作検
出手段が検出した情報に対応した動作を出力する動作出
力手段とを備える。
According to another aspect of the present invention, there is provided a robot apparatus comprising: an operation detecting unit configured to detect information included in an operation output by another robot unit; Operation output means for outputting a corresponding operation.

【0020】このような構成を備えるロボット装置は、
他のロボット装置が出力する動作に含まれる情報を動作
検出手段により検出し、動作検出手段が検出した情報に
対応した動作を動作出力手段により出力する。これによ
り、ロボット装置は、他のロボット装置の動作に反応し
て動作するようになる。
The robot device having such a configuration is as follows.
The information included in the operation output by the other robot device is detected by the operation detection unit, and the operation corresponding to the information detected by the operation detection unit is output by the operation output unit. Thus, the robot device operates in response to the operation of another robot device.

【0021】また、上述の課題を解決するために、本発
明に係るロボット装置の動作制御方法は、動作部を備え
る移動ロボット装置の動作制御方法であって、他のロボ
ット装置が出力する動作に含まれる情報を検出する動作
検出工程と、上記動作検出工程にて検出された情報に基
づいて上記動作部を制御する動作部制御工程と、上記動
作部によって出力された動作に基づく他のロボット装置
の反応回数を計測する反応回数計測工程とを有し、上記
動作部制御工程では、上記他のロボット装置の反応回数
に応じて、上記動作部によって動作が出力される。これ
により、ロボット装置は、他のロボット装置の動作に反
応して動作するようになる。
According to another aspect of the present invention, there is provided an operation control method for a mobile robot device having an operation unit, the method comprising controlling an operation output by another robot device. An operation detecting step of detecting contained information, an operating section controlling step of controlling the operating section based on the information detected in the operation detecting step, and another robot apparatus based on the operation output by the operating section And a reaction number measuring step of measuring the number of times of the reaction. In the operation section control step, an operation is output by the operation section according to the number of reactions of the other robot device. Thus, the robot device operates in response to the operation of another robot device.

【0022】また、上述の課題を解決するために、本発
明に係るロボット装置の動作制御方法は、他のロボット
装置が出力する動作に含まれる情報を検出する動作検出
工程と、動作検出工程にて検出した情報に対応した動作
を一のロボット装置に出力させる動作出力工程とを有す
る。このようなロボット装置の動作制御方法により、一
のロボット装置は、他のロボット装置の動作に反応して
動作するようになる。
According to another aspect of the present invention, there is provided an operation control method for a robot apparatus, comprising: an operation detection step of detecting information included in an operation output by another robot apparatus; And outputting an operation corresponding to the detected information to one robot device. According to such an operation control method for a robot device, one robot device operates in response to the operation of another robot device.

【0023】また、上述の課題を解決するために、本発
明に係るロボット装置の動作制御システムは、相手のロ
ボット装置が出力する動作に含まれる情報を検出する動
作検出手段と、動作検出手段が検出した情報に対応した
動作を出力する動作出力手段とを備えるロボット装置を
複数備える。
According to another aspect of the present invention, there is provided a motion control system for a robot apparatus according to the present invention, wherein the motion detection means detects information included in a motion output by a partner robot apparatus, and the motion detection means comprises: A plurality of robot apparatuses each including an operation output unit that outputs an operation corresponding to the detected information.

【0024】このようなロボット装置の動作制御システ
ムにおいて、ロボット装置は、相手のロボット装置が出
力する動作に含まれる情報を動作検出手段により検出
し、動作検出手段が検出した情報に対応した動作を動作
出力手段により出力する。これにより、ロボット装置の
動作制御システムにおいて、ロボット装置は、相手のロ
ボット装置の動作に反応して動作するようになる。
In such an operation control system for a robot device, the robot device detects information included in the operation output by the other robot device by the operation detection means, and performs an operation corresponding to the information detected by the operation detection means. Output by the operation output means. Accordingly, in the operation control system of the robot device, the robot device operates in response to the operation of the other robot device.

【0025】また、上述の課題を解決するために、本発
明に係るロボット装置の動作制御方法は、一のロボット
装置が、所定の状態になったときに、所定の動作を出力
する動作出力工程と、他のロボット装置が、一のロボッ
ト装置が出力した上記所定の動作に対応した動作を出力
する反応動作出力工程とを有する。このようなロボット
装置の動作制御方法により、ロボット装置は、相手のロ
ボット装置の動作に反応して動作するようになる。
According to another aspect of the present invention, there is provided an operation control method for a robot apparatus, comprising the steps of: outputting a predetermined operation when one robot apparatus enters a predetermined state; And a reaction operation output step in which another robot device outputs an operation corresponding to the predetermined operation output by one robot device. According to the operation control method of the robot device, the robot device operates in response to the operation of the other robot device.

【0026】[0026]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を用いて詳しく説明する。この実施の形態は、外
部の情報或いは周囲の環境(或いは外的要因)や内部の
状態(或いは内的要因)に応じて自律的に行動をする自
律型のロボット装置である。
Embodiments of the present invention will be described below in detail with reference to the drawings. This embodiment is an autonomous robot apparatus that acts autonomously in accordance with external information, a surrounding environment (or an external factor), or an internal state (or an internal factor).

【0027】実施の形態では、先ず、ロボット装置の構
成について説明して、その後、ロボット装置における本
発明の適用部分について詳細に説明する。
In the embodiment, first, the configuration of the robot device will be described, and thereafter, the application portion of the present invention in the robot device will be described in detail.

【0028】(1)本実施の形態によるロボット装置の
構成 図1に示すように、例えば「犬」を模した形状のいわゆ
るペット型ロボットとされ、胴体部ユニット2の前後左
右にそれぞれ脚部ユニット3A,3B,3C,3Dが連
結されると共に、胴体部ユニット2の前端部及び後端部
にそれぞれ頭部ユニット4及び尻尾部ユニット5が連結
されて構成されている。
(1) Configuration of Robot Apparatus According to the Present Embodiment As shown in FIG. 1, a so-called pet-type robot having a shape imitating, for example, a "dog" is provided. 3A, 3B, 3C, and 3D are connected, and a head unit 4 and a tail unit 5 are connected to a front end and a rear end of the body unit 2, respectively.

【0029】胴体部ユニット2には、図2に示すよう
に、CPU(Central Processing Unit)10、DRA
M(Dynamic Random Access Memory)11、フラッシュ
ROM(Read 0nly Memory)12、PC(Personal Co
mputer)カードインターフェース回路13及び信号処理
回路14が内部バス15を介して相互に接続されること
により形成されたコントロール部16と、このロボット
装置1の動力源としてのバッテリ17とが収納されてい
る。また、胴体部ユニット2には、ロボット装置1の向
きや動きの加速度を検出するための角速度センサ18及
び加速度センサ19なども収納されている。
As shown in FIG. 2, a CPU (Central Processing Unit) 10 and a DRA
M (Dynamic Random Access Memory) 11, Flash ROM (Read 0nly Memory) 12, PC (Personal Co.)
A controller 16 formed by interconnecting a card interface circuit 13 and a signal processing circuit 14 via an internal bus 15 and a battery 17 as a power source of the robot apparatus 1 are housed therein. . The body unit 2 also houses an angular velocity sensor 18 and an acceleration sensor 19 for detecting the acceleration of the direction and movement of the robot device 1.

【0030】また、頭部ユニット4には、外部の状況を
撮像するためのCCD(Charge Coupled Device)カメ
ラ20と、使用者からの「撫でる」や「叩く」といった
物理的な働きかけにより受けた圧力を検出するためのタ
ッチセンサ21と、前方に位置する物体までの距離を測
定するための距離センサ22と、外部音を集音するため
のマイクロホン23と、鳴き声等の音声を出力するため
のスピーカ24と、ロボット装置1の「目」に相当する
LED(Light Emitting Diode)(図示せず)などがそ
れぞれ所定位置に配置されている。
The head unit 4 has a CCD (Charge Coupled Device) camera 20 for capturing an image of an external situation, and a pressure applied by a physical action such as "stroke" or "hit" from a user. , A distance sensor 22 for measuring a distance to an object located ahead, a microphone 23 for collecting external sounds, and a speaker for outputting a sound such as a cry 24 and LEDs (Light Emitting Diodes (not shown)) corresponding to the “eyes” of the robot apparatus 1 are arranged at predetermined positions.

【0031】さらに、各脚部ユニット3A〜3Dの関節
部分や各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、頭部ユニット4及び胴体部ユニット2の
連結部分、並びに尻尾部ユニット5の尻尾5Aの連結部
分などにはそれぞれ自由度数分のアクチュエータ25
〜25及びポテンショメータ26〜26が配設さ
れている。例えば、アクチュエータ25〜25はサ
ーボモータを構成として有している。サーボモータの駆
動により、脚部ユニット3A〜3Dが制御されて、目標
の姿勢或いは動作に遷移する。
Further, the joints of the leg units 3A to 3D, the leg units 3A to 3D, and the trunk unit 2
The actuators 25 1 for the degrees of freedom are respectively provided at the connection portions of the head unit 4 and the trunk unit 2, and at the connection portion of the tail 5 A of the tail unit 5.
To 25 n and potentiometers 26 1 to 26 n are provided. For example, each of the actuators 25 1 to 25 n has a servomotor. By driving the servo motor, the leg units 3A to 3D are controlled, and transition to a target posture or operation is made.

【0032】そして、これら角速度センサ18、加速度
センサ19、タッチセンサ21、距離センサ22、マイ
クロホン23、スピーカ24及び各ポテンショメータ2
〜26などの各種センサ並びにLED及び各アク
チュエータ25 〜25は、それぞれ対応するハブ
27〜27を介してコントロール部16の信号処理
回路14と接続され、CCDカメラ20及びバッテリ1
7は、それぞれ信号処理回路14と直接接続されてい
る。
The angular velocity sensor 18, acceleration sensor 19, touch sensor 21, distance sensor 22, microphone 23, speaker 24 and each potentiometer 2
6 1-26 various sensors and LED and the actuator 25 1 to 25 n, such as n is connected to the signal processing circuit 14 of the control unit 16 via a corresponding hub 27 1 ~ 27 n, CCD camera 20 and the battery 1
7 are directly connected to the signal processing circuit 14, respectively.

【0033】信号処理回路l4は、上述の各センサから
供給されるセンサデータや画像データ及び音声データを
順次取り込み、これらをそれぞれ内部バス15を介して
DRAM11内の所定位置に順次格納する。また信号処
理回路14は、これと共にバッテリ17から供給される
バッテリ残量を表すバッテリ残量データを順次取り込
み、これをDRAM11内の所定位置に格納する。
The signal processing circuit 14 sequentially takes in the sensor data, image data and audio data supplied from each of the above-described sensors, and sequentially stores them at predetermined positions in the DRAM 11 via the internal bus 15. In addition, the signal processing circuit 14 sequentially takes in remaining battery power data indicating the remaining battery power supplied from the battery 17 and stores the data at a predetermined position in the DRAM 11.

【0034】このようにしてDRAM11に格納された
各センサデータ、画像データ、音声データ及びバッテリ
残量データは、この後CPU10がこのロボット装置1
の動作制御を行う際に利用される。
The sensor data, image data, audio data, and remaining battery data stored in the DRAM 11 in this manner are thereafter transmitted to the robot device 1 by the CPU 10.
It is used when controlling the operation of.

【0035】実際上CPU10は、ロボット装置1の電
源が投入された初期時、胴体部ユニット2の図示しない
PCカードスロットに装填されたメモリカード28又は
フラッシュROM12に格納された制御プログラムをP
Cカードインターフェース回路13を介して又は直接読
み出し、これをDRAM11に格納する。
Actually, at the initial stage when the power of the robot apparatus 1 is turned on, the CPU 10 executes the control program stored in the memory card 28 or the flash ROM 12 inserted in the PC card slot (not shown) of the body unit 2 into a P program.
The data is read out via the C card interface circuit 13 or directly and stored in the DRAM 11.

【0036】また、CPU10は、この後上述のように
信号処理回路14よりDRAM11に順次格納される各
センサデータ、画像データ、音声データ及びバッテリ残
量データに基づいて自己及び周囲の状況や、使用者から
の指示及び働きかけの有無などを判断する。
The CPU 10 then determines the status of itself and its surroundings and the usage based on the sensor data, image data, audio data, and remaining battery data sequentially stored in the DRAM 11 from the signal processing circuit 14 as described above. Judge the instruction from the person and the presence or absence of the action.

【0037】さらに、CPU10は、この判断結果及び
DRAM11に格納した制御プログラムに基づいて続く
行動を決定すると共に、当該決定結果に基づいて必要な
アクチュエータ25〜25を駆動させることによ
り、頭部ユニット4を上下左右に振らせたり、尻尾部ユ
ニット5の尻尾5Aを動かせたり、各脚部ユニット3A
〜3Dを駆動させて歩行させるなどの行動を行わせる。
Furthermore, CPU 10 is configured to determine a subsequent action based on the control program stored in the determination result and DRAM 11, by driving the actuator 25 1 to 25 n required based on the determination result, the head The unit 4 can be swung up and down, left and right, the tail 5A of the tail unit 5 can be moved, and each leg unit 3A can be moved.
3D is driven to perform an action such as walking.

【0038】また、この際CPU10は、必要に応じて
音声データを生成し、これを信号処理回路14を介して
音声信号としてスピーカ24に与えることにより当該音
声信号に基づく音声を外部に出力させたり、上述のLE
Dを点灯、消灯又は点滅させる。
At this time, the CPU 10 generates audio data as necessary, and supplies the generated audio data to the speaker 24 as an audio signal via the signal processing circuit 14, thereby outputting an audio based on the audio signal to the outside. LE above
D is turned on, off or blinked.

【0039】このようにしてこのロボット装置1におい
ては、自己及び周囲の状況や、使用者からの指示及び働
きかけに応じて自律的に行動し得るようになされてい
る。
In this way, the robot apparatus 1 can autonomously act in accordance with the situation of itself and the surroundings, and instructions and actions from the user.

【0040】(2)制御プログラムのソフトウェア構成 ここで、ロボット装置1における上述の制御プログラム
のソフトウェア構成は、図3に示すようになる。この図
3において、デバイス・ドライバ・レイヤ30は、この
制御プログラムの最下位層に位置し、複数のデバイス・
ドライバからなるデバイス・ドライバ・セット31から
構成されている。この場合、各デバイス・ドライバは、
CCDカメラ20(図2)やタイマ等の通常のコンピュ
ータで用いられるハードウェアに直接アクセスすること
を許されたオブジェクトであり、対応するハードウェア
からの割り込みを受けて処理を行う。
(2) Software Configuration of Control Program Here, the software configuration of the above-described control program in the robot apparatus 1 is as shown in FIG. In FIG. 3, a device driver layer 30 is located at the lowest layer of the control program, and includes a plurality of device drivers.
It comprises a device driver set 31 composed of drivers. In this case, each device driver
An object that is allowed to directly access hardware used in a normal computer, such as a CCD camera 20 (FIG. 2) and a timer, and performs processing in response to an interrupt from the corresponding hardware.

【0041】また、ロボティック・サーバ・オブジェク
ト32は、デバイス・ドライバ・レイヤ30の最下位層
に位置し、例えば上述の各種センサやアクチュエータ2
〜25等のハードウェアにアクセスするためのイ
ンターフェースを提供するソフトウェア群でなるバーチ
ャル・ロボット33と、電源の切換えなどを管理するソ
フトウェア群でなるバワーマネージャ34と、他の種々
のデバイス・ドライバを管理するソフトウェア群でなる
デバイス・ドライバ・マネージャ35と、ロボット装置
1の機構を管理するソフトウェア群でなるデザインド・
ロボット36とから構成されている。
The robotic server object 32 is located at the lowest layer of the device driver layer 30 and includes, for example, the various sensors and actuators 2 described above.
A virtual robot 33 comprising a software group that provides a 5 to 253 interface for accessing hardware such as n, a bus word manager 34 made of a software suite for managing the power supply switching, the other various device A device driver manager 35, which is a group of software for managing drivers, and a designed driver, which is a group of software for managing the mechanism of the robot device 1,
And a robot 36.

【0042】マネージャ・オブジェクト37は、オブジ
ェクト・マネージャ38及びサービス・マネージャ39
から構成されている。オブジェクト・マネージャ38
は、ロボティック・サーバ・オブジェクト32、ミドル
・ウェア・レイヤ40、及びアプリケーション・レイヤ
41に含まれる各ソフトウェア群の起動や終了を管理す
るソフトウェア群であり、サービス・マネージャ39
は、メモリカード28(図2)に格納されたコネクショ
ンファイルに記述されている各オブジェクト間の接続情
報に基づいて各オブジェクトの接続を管理するソフトウ
ェア群である。
The manager object 37 includes an object manager 38 and a service manager 39.
It is composed of Object Manager 38
Is a software group that manages activation and termination of each software group included in the robotic server object 32, the middleware layer 40, and the application layer 41, and includes a service manager 39.
Are a group of software for managing the connection of each object based on the connection information between the objects described in the connection file stored in the memory card 28 (FIG. 2).

【0043】ミドル・ウェア・レイヤ40は、ロボティ
ック・サーバ・オブジェクト32の上位層に位置し、画
像処理や音声処理などのこのロボット装置1の基本的な
機能を提供するソフトウェア群から構成されている。ま
た、アプリケーション・レイヤ41は、ミドル・ウェア
・レイヤ40の上位層に位置し、当該ミドル・ウェア・
レイヤ40を構成する各ソフトウェア群によって処理さ
れた処理結果に基づいてロボット装置1の行動を決定す
るためのソフトウェア群から構成されている。
The middleware layer 40 is located on the upper layer of the robotic server object 32 and is composed of a group of software for providing basic functions of the robot apparatus 1 such as image processing and sound processing. I have. Further, the application layer 41 is located above the middleware layer 40, and
It is composed of a software group for determining an action of the robot apparatus 1 based on a processing result processed by each software group constituting the layer 40.

【0044】なお、ミドル・ウェア・レイヤ40及びア
プリケーション・レイヤ41の具体なソフトウェア構成
をそれぞれ図4に示す。
FIG. 4 shows specific software configurations of the middleware layer 40 and the application layer 41, respectively.

【0045】ミドル・ウェア・レイヤ40は、図4に示
すように、騒音検出用、温度検出用、明るさ検出用、音
階認識用、距離検出用、姿勢検出用、タッチセンサ用、
動き検出用及び色認識用の各信号処理モジュール50〜
58並びに入力セマンティクスコンバータモジュール5
9などを有する認識系60と、出力セマンティクスコン
バータモジュール68並びに姿勢管理用、トラッキング
用、モーション再生用、歩行用、転倒復帰用、LED点
灯用及び音再生用の各信号処理モジュール61〜67な
どを有する出力系69とから構成されている。
As shown in FIG. 4, the middle wear layer 40 includes noise detection, temperature detection, brightness detection, scale recognition, distance detection, posture detection, touch sensor,
Each signal processing module 50 for motion detection and color recognition
58 and input semantics converter module 5
9 and an output semantics converter module 68 and signal processing modules 61 to 67 for attitude management, tracking, motion reproduction, walking, fallback recovery, LED lighting and sound reproduction. And an output system 69.

【0046】認識系60の各信号処理モジュール50〜
58は、ロボティック・サーバ・オブジェクト32のバ
ーチャル・ロボット33によりDRAM11(図2)か
ら読み出される各センサデータや画像データ及び音声デ
ータのうちの対応するデータを取り込み、当該データに
基づいて所定の処理を施して、処理結果を入力セマンテ
ィクスコンバータモジュール59に与える。ここで、例
えば、バーチャル・ロボット33は、所定の通信規約に
よって、信号の授受或いは変換をする部分として構成さ
れている。
Each signal processing module 50 to 50 of the recognition system 60
Numeral 58 fetches corresponding data among the sensor data, image data, and audio data read from the DRAM 11 (FIG. 2) by the virtual robot 33 of the robotic server object 32, and performs predetermined processing based on the data. Is given to the input semantics converter module 59. Here, for example, the virtual robot 33 is configured as a part that exchanges or converts signals according to a predetermined communication protocol.

【0047】入力セマンティクスコンバータモジュール
59は、これら各信号処理モジュール50〜58から与
えられる処理結果に基づいて、「うるさい」、「暑
い」、「明るい」、「ボールを検出した」、「転倒を検
出した」、「撫でられた」、「叩かれた」、「ドミソの
音階が聞こえた」、「動く物体を検出した」又は「障害
物を検出した」などの自己及び周囲の状況や、使用者か
らの指令及び働きかけを認識し、認識結果をアプリケー
ション・レイヤ41(図2)に出力する。
The input semantics converter module 59 detects "noisy", "hot", "bright", "ball detected", and "fallover" based on the processing results given from each of the signal processing modules 50 to 58. Self and surrounding conditions such as `` has been stroked '', `` stroked '', `` hitted '', `` he heard the domes '', `` detected a moving object '' or `` detected an obstacle '', and the user , And outputs the recognition result to the application layer 41 (FIG. 2).

【0048】アプリケーション・レイヤ4lは、図5に
示すように、行動モデルライブラリ70、行動切換モジ
ュール71、学習モジュール72、感情モデル73及び
本能モデル74の5つのモジュールから構成されてい
る。
As shown in FIG. 5, the application layer 41 comprises five modules: a behavior model library 70, a behavior switching module 71, a learning module 72, an emotion model 73, and an instinct model 74.

【0049】行動モデルライブラリ70には、図6に示
すように、「バッテリ残量が少なくなった場合」、「転
倒復帰する」、「障害物を回避する場合」、「感情を表
現する場合」、「ボールを検出した場合」などの予め選
択されたいくつかの条件項目にそれぞれ対応させて、そ
れぞれ独立した行動モデル70〜70が設けられて
いる。
As shown in FIG. 6, the behavior model library 70 includes “when the battery level is low”, “returns to fall”, “when avoiding obstacles”, and “when expressing emotions”. , And independent action models 70 1 to 70 n are respectively provided corresponding to some pre-selected condition items such as “when a ball is detected”.

【0050】そして、これら行動モデル70〜70
は、それぞれ入力セマンティクスコンバータモジュール
59から認識結果が与えられたときや、最後の認識結果
が与えられてから一定時間が経過したときなどに、必要
に応じて後述のように感情モデル73に保持されている
対応する情動のパラメータ値や、本能モデル74に保持
されている対応する欲求のパラメータ値を参照しながら
続く行動をそれぞれ決定し、決定結果を行動切換モジュ
ール71に出力する。
The behavior models 70 1 to 70 n
Are stored in the emotion model 73 as described later, as necessary, when a recognition result is given from the input semantics converter module 59 or when a certain period of time has passed since the last recognition result was given. The next action is determined with reference to the corresponding emotion parameter value and the corresponding desire parameter value held in the instinct model 74, and the determination result is output to the action switching module 71.

【0051】なお、この実施の形態の場合、各行動モデ
ル70〜70は、次の行動を決定する手法として、
図7に示すような1つのノード(状態)NODE〜N
ODEから他のどのノードNODE〜NODE
遷移するかを各ノードNODE〜NODEに間を接
続するアークARC〜ARCに対してそれぞれ設定
された遷移確率P〜Pに基づいて確率的に決定する
有限確率オートマトンと呼ばれるアルゴリズムを用い
る。
In the case of this embodiment, each of the behavior models 70 1 to 70 n uses the following method to determine the next behavior.
One node (state) NODE 0 to N as shown in FIG.
The transition probability P 1 to P n which is set respectively arc ARC 1 ~ARC n connecting between whether to transition from ODE n to any other node NODE 0 ~NODE n each node NODE 0 ~NODE n An algorithm called a finite stochastic automaton that determines stochastically on the basis is used.

【0052】具体的に、各行動モデル70〜70
は、それぞれ自己の行動モデル70〜70を形成
するノードNODE〜NODEにそれぞれ対応させ
て、これらノードNODE〜NODEごとに図8に
示すような状態遷移表80を有している。
More specifically, each of the behavior models 70 1 to 70 1
n has a state transition table 80 as shown in FIG. 8 for each of the nodes NODE 0 to NODE n corresponding to the nodes NODE 0 to NODE n forming their own behavior models 70 1 to 70 n , respectively. ing.

【0053】この状態遷移表80では、そのノードNO
DE〜NODEにおいて遷移条件とする入力イベン
ト(認識結果)が「入力イベント名」の列に優先順に列
記され、その遷移条件についてのさらなる条件が「デー
タ名」及び「データ範囲」の列における対応する行に記
述されている。
In this state transition table 80, the node NO
Input events (recognition results) as transition conditions in DE 0 to NODE n are listed in order of priority in the column of “input event name”, and further conditions for the transition conditions are listed in the columns of “data name” and “data range”. It is described in the corresponding line.

【0054】したがって、図8の状態遷移表80で表さ
れるノードNODE100では、「ボールを検出(BA
LL)」という認識結果が与えられた場合に、当該認識
結果と共に与えられるそのボールの「大きさ(SIZ
E)」が「0から1000」の範囲であることや、「障害物
を検出(OBSTACLE)」という認識結果が与えら
れた場合に、当該認識結果と共に与えられるその障害物
までの「距離(DISTANCE)」が「0から100」の
範囲であることが他のノードに遷移するための条件とな
っている。
Therefore, in the node NODE 100 represented by the state transition table 80 in FIG.
LL) ”, the“ size (SIZ) of the ball given together with the recognition result is given.
E) is in the range of “0 to 1000”, or when a recognition result of “obstacle detected (OBSTACLE)” is given, the “distance (DISTANCE)” to the obstacle given together with the recognition result is given. )) Is in the range of “0 to 100”, which is a condition for transitioning to another node.

【0055】また、このノードNODE100では、認
識結果の入力がない場合においても、行動モデル70
〜70が周期的に参照する感情モデル73及び本能モ
デル74にそれぞれ保持された各情動及び各欲求のパラ
メータ値のうち、感情モデル73に保持された「喜び
(JOY)」、「驚き(SURPRISE)」若しくは
「悲しみ(SUDNESS)」のいずれかのパラメータ
値が「50から100」の範囲であるときには他のノードに
遷移することができるようになっている。
In the node NODE 100 , even when the recognition result is not input, the behavior model 70 1
Of the parameter values of each emotion and each desire held in the emotion model 73 and the instinct model 74 which are periodically referred to by the n- 70n, “joy” and “surprise” held in the emotion model 73 are stored. )) Or "Sadness (SUDNESS)" when the parameter value is in the range of "50 to 100", it is possible to transition to another node.

【0056】また、状態遷移表80では、「他のノード
ヘの遷移確率」の欄における「遷移先ノード」の行にそ
のノードNODE〜 NODEから遷移できるノー
ド名が列記されていると共に、「入力イベント名」、
「データ値」及び「データの範囲」の列に記述された全
ての条件が揃ったときに遷移できる他の各ノードNOD
〜NODEへの遷移確率が「他のノードヘの遷移
確率」の欄内の対応する箇所にそれぞれ記述され、その
ノードNODE〜NODEに遷移する際に出力すべ
き行動が「他のノードヘの遷移確率」の欄における「出
力行動」の行に記述されている。なお、「他のノードヘ
の遷移確率」の欄における各行の確率の和は100
[%]となっている。
In the state transition table 80, the names of nodes that can transition from the nodes NODE 0 to NODE n are listed in the row of “transition destination node” in the column of “transition probability to another node”. Input event name ",
Other nodes NOD that can transition when all the conditions described in the columns of "data value" and "data range" are met
The transition probabilities from E 0 to NODE n are respectively described in corresponding portions in the column of “transition probability to other nodes”, and the action to be output when transitioning to that node NODE 0 to NODE n is “other It is described in the row of “output action” in the column of “transition probability to node”. Note that the sum of the probabilities of each row in the column of “transition probability to another node” is 100
[%].

【0057】したがって、図8の状態遷移表80で表さ
れるノードNODE100では、例えば「ボールを検出
(BALL)」し、そのボールの「SIZE(大き
さ)」が「0から1000」の範囲であるという認識結果が
与えられた場合には、「30[%]」の確率で「ノードN
ODE120(node 120)」に遷移でき、そのとき「A
CTION1」の行動が出力されることとなる。
Therefore, in the node NODE 100 represented by the state transition table 80 in FIG. 8, for example, “ball is detected (BALL)”, and “SIZE” of the ball is in the range of “0 to 1000”. Is given, the probability of “30 [%]” and “node N
ODE 120 (node 120) "and then" A
The action of “CTION1” is output.

【0058】各行動モデル70〜70は、それぞれ
このような状態遷移表80として記述されたノードNO
DE〜 NODEがいくつも繋がるようにして構成
されており、入力セマンティクスコンバータモジュール
59から認識結果が与えられたときなどに、対応するノ
ードNODE〜NODEの状態遷移表を利用して確
率的に次の行動を決定し、決定結果を行動切換モジュー
ル71に出力するようになされている。
Each of the behavior models 70 1 to 70 n has the node NO described in the state transition table 80 as described above.
DE 0 to NODE n are connected to each other, and when a recognition result is given from the input semantics converter module 59 or the like, the probability is calculated using the state transition table of the corresponding nodes NODE 0 to NODE n. The next action is determined, and the determination result is output to the action switching module 71.

【0059】図5に示す行動切換モジュール71は、行
動モデルライブラリ70の各行動モデル70〜70
からそれぞれ出力される行動のうち、予め定められた優
先順位の高い行動モデル70〜70から出力された
行動を選択し、当該行動を実行すべき旨のコマンド(以
下、これを行動コマンドという。)をミドル・ウェア・
レイヤ40の出力セマンティクスコンバータモジュール
68に送出する。なお、この実施の形態においては、図
6において下側に表記された行動モデル70〜70
ほど優先順位が高く設定されている。
The action switching module 71 shown in FIG. 5 includes the action models 70 1 to 70 n of the action model library 70.
Among the actions which are output from, select an action that is output from a predetermined higher priority behavior model 70 1 to 70 n, the command to the effect that execute the action (hereinafter, referred to as an action command )) Middleware
The output is sent to the output semantics converter module 68 of the layer 40. Incidentally, in this embodiment, the behavior model, labeled on the lower side in FIG. 6 70 1 to 70 n
The higher the priority, the higher the priority.

【0060】また、行動切換モジュール71は、行動完
了後に出力セマンティクスコンバータモジュール68か
ら与えられる行動完了情報に基づいて、その行動が完了
したことを学習モジュール72、感情モデル73及び本
能モデル74に通知する。
The action switching module 71 notifies the learning module 72, the emotion model 73, and the instinct model 74 of the completion of the action based on the action completion information provided from the output semantics converter module 68 after the action is completed. .

【0061】一方、学習モジュール72は、入力セマン
ティクスコンバータモジュール59から与えられる認識
結果のうち、「叩かれた」や「撫でられた」など、使用
者からの働きかけとして受けた教示の認識結果を入力す
る。
On the other hand, the learning module 72 inputs the recognition result of the teaching received from the user, such as “hit” or “stroke”, among the recognition results given from the input semantics converter module 59. I do.

【0062】そして、学習モジュール72は、この認識
結果及び行動切換モジュール71からの通知に基づい
て、「叩かれた(叱られた)」ときにはその行動の発現
確率を低下させ、「撫でられた(誉められた)」ときに
はその行動の発現確率を上昇させるように、行動モデル
ライブラリ70における対応する行動モデル70〜7
の対応する遷移確率を変更する。
Then, based on the recognition result and the notification from the action switching module 71, the learning module 72 lowers the probability of occurrence of the action when "beaten (scolded)" and "strokes ( praised obtained) "sometimes to increase the expression probability of that action, behavior model 70 1-7 corresponding in behavioral model library 70
Change the corresponding transition probabilities of 0 n .

【0063】他方、感情モデル73は、「喜び(jo
y)」、「悲しみ(sadness)」、「怒り(anger)」、
「驚き(surprise)」、「嫌悪(disgust)」及び「恐
れ(fear)」の合計6つの情動について、各情動ごとに
その情動の強さを表すパラメータを保持している。そし
て、感情モデル73は、これら各情動のパラメータ値
を、それぞれ入力セマンティクスコンバータモジュール
59から与えられる「叩かれた」及び「撫でられた」な
どの特定の認識結果と、経過時間及び行動切換モジュー
ル71からの通知などに基づいて周期的に更新する。
On the other hand, the emotion model 73 indicates “joy (jo
y) "," sadness "," anger ",
For a total of six emotions, “surprise”, “disgust”, and “fear”, a parameter indicating the strength of the emotion is stored for each emotion. Then, the emotion model 73 converts the parameter values of each of these emotions into specific recognition results such as “hit” and “stroke” given from the input semantics converter module 59 and the elapsed time and action switching module 71. Update periodically based on notification from

【0064】具体的には、感情モデル73は、入力セマ
ンティクスコンバータモジュール59から与えられる認
識結果と、そのときのロボット装置1の行動と、前回更
新してからの経過時間などに基づいて所定の演算式によ
り算出されるそのときのその情動の変動量を△E
[t]、現在のその情動のパラメータ値をE[t]、そ
の情動の感度を表す係数をkとして、(1)式によっ
て次の周期におけるその情動のパラメータ値E[t+
1]を算出し、これを現在のその情動のパラメータ値E
[t]と置き換えるようにしてその情動のパラメータ値
を更新する。また、感情モデル73は、これと同様にし
て全ての情動のパラメータ値を更新する。
More specifically, the emotion model 73 is a predetermined calculation based on the recognition result given from the input semantics converter module 59, the behavior of the robot device 1 at that time, the elapsed time since the last update, and the like. The amount of change of the emotion at that time calculated by the equation is expressed by △ E
[T], E [t] of the current parameter value of the emotion, the coefficient representing the sensitivity of the emotion as k e, (1) the parameter value of the emotion in a next period by equation E [t +
1] is calculated, and the current parameter value E of the emotion is calculated.
The parameter value of the emotion is updated by replacing it with [t]. The emotion model 73 updates the parameter values of all emotions in the same manner.

【0065】[0065]

【数1】 (Equation 1)

【0066】なお、各認識結果や出力セマンティクスコ
ンバータモジュール68からの通知が各情動のパラメー
タ値の変動量△E[t]にどの程度の影響を与えるかは
予め決められており、例えば「叩かれた」といった認識
結果は「怒り」の情動のパラメータ値の変動量△E
[t]に大きな影響を与え、「撫でられた」といった認
識結果は「喜び」の情動のパラメータ値の変動量△E
[t]に大きな影響を与えるようになっている。
The degree to which each recognition result and the notification from the output semantics converter module 68 affect the variation ΔE [t] of the parameter value of each emotion is determined in advance. Is the amount of change in the parameter value of the emotion of “anger” △ E
[T] is greatly affected, and the recognition result such as “stroke” is the variation amount of the parameter value of the emotion of “joy” 喜 び E
[T] is greatly affected.

【0067】ここで、出力セマンティクスコンバータモ
ジュール68からの通知とは、いわゆる行動のフィード
バック情報(行動完了情報)であり、行動の出現結果の
情報であり、感情モデル73は、このような情報によっ
ても感情を変化させる。これは、例えば、「吠える」と
いった行動により怒りの感情レベルが下がるといったよ
うなことである。なお、出力セマンティクスコンバータ
モジュール68からの通知は、上述した学習モジュール
72にも入力されており、学習モジュール72は、その
通知に基づいて行動モデル70〜70の対応する遷
移確率を変更する。
Here, the notification from the output semantics converter module 68 is so-called action feedback information (action completion information), information on the appearance result of the action, and the emotion model 73 also uses such information. Change emotions. This is, for example, a behavior such as "barking" that lowers the emotional level of anger. The notification from the output semantics converter module 68 is also input to the learning module 72 described above, the learning module 72 changes the corresponding transition probability of the behavioral models 70 1 to 70 n based on the notification.

【0068】なお、行動結果のフィードバックは、行動
切換モジュール71の出力(感情が付加された行動)に
よりなされるものであってもよい。
The feedback of the action result may be made by the output of the action switching module 71 (the action to which the emotion is added).

【0069】一方、本能モデル74は、「運動欲(exer
cise)」、「愛情欲(affection)」、「食欲(appetit
e)」及び「好奇心(curiosity)」の互いに独立した4
つの欲求について、これら欲求ごとにその欲求の強さを
表すパラメータを保持している。そして、本能モデル7
4は、これらの欲求のパラメータ値を、それぞれ入力セ
マンティクスコンバータモジュール59から与えられる
認識結果や、経過時間及び行動切換モジュール71から
の通知などに基づいて周期的に更新する。
On the other hand, the instinct model 74 is “exercise greed (exer
cise) "," affection "," appetite "
e) ”and“ curiosity ”4
For each of the desires, a parameter indicating the strength of the desire is stored for each of the desires. And instinct model 7
4 periodically updates the parameter values of these desires based on the recognition result given from the input semantics converter module 59, the elapsed time, the notification from the action switching module 71, and the like.

【0070】具体的には、本能モデル74は、「運動
欲」、「愛情欲」及び「好奇心」については、認識結
果、経過時間及び出力セマンティクスコンバータモジュ
ール68からの通知などに基づいて所定の演算式により
算出されるそのときのその欲求の変動量をΔI[k]、
現在のその欲求のパラメータ値をI[k]、その欲求の
感度を表す係数kとして、所定周期で(2)式を用い
て次の周期におけるその欲求のパラメータ値I[k+
1]を算出し、この演算結果を現在のその欲求のパラメ
ータ値I[k]と置き換えるようにしてその欲求のパラ
メータ値を更新する。また、本能モデル74は、これと
同様にして「食欲」を除く各欲求のパラメータ値を更新
する。
More specifically, the instinct model 74 determines, based on the recognition result, the elapsed time, the notification from the output semantics converter module 68, and the like, for “exercise desire”, “affection desire”, and “curiosity”. The change amount of the desire at that time calculated by the arithmetic expression is ΔI [k],
Assuming that the parameter value of the current desire is I [k] and the coefficient k i representing the sensitivity of the desire is a parameter value I [k +
1] is calculated, and the calculation result is replaced with the current parameter value I [k] of the desire to update the parameter value of the desire. Similarly, the instinct model 74 updates the parameter values of each desire except “appetite”.

【0071】[0071]

【数2】 (Equation 2)

【0072】なお、認識結果及び出力セマンティクスコ
ンバータモジュール68からの通知などが各欲求のパラ
メータ値の変動量△I[k]にどの程度の影響を与える
かは予め決められており、例えば出力セマンティクスコ
ンバータモジュール68からの通知は、「疲れ」のパラ
メータ値の変動量△I[k]に大きな影響を与えるよう
になっている。
The degree to which the recognition result and the notification from the output semantics converter module 68 affect the variation ΔI [k] of the parameter value of each desire is determined in advance. For example, the output semantics converter The notification from the module 68 has a large effect on the variation ΔI [k] of the parameter value of “fatigue”.

【0073】なお、本実施の形態においては、各情動及
び各欲求(本能)のパラメータ値がそれぞれ0から100ま
での範囲で変動するように規制されており、また係数k
、kの値も各情動及び各欲求ごとに個別に設定され
ている。
In the present embodiment, the parameter values of each emotion and each desire (instinct) are regulated so as to fluctuate in the range of 0 to 100, respectively.
e, the value of k i is also set individually for each emotion and each desire.

【0074】一方、ミドル・ウェア・レイヤ40の出力
セマンティクスコンバータモジュール68は、図4に示
すように、上述のようにしてアプリケーション・レイヤ
41の行動切換モジュール71から与えられる「前
進」、「喜ぶ」、「鳴く」又は「トラッキング(ボール
を追いかける)」といった抽象的な行動コマンドを出力
系69の対応する信号処理モジュール61〜67に与え
る。
On the other hand, as shown in FIG. 4, the output semantics converter module 68 of the middleware layer 40 is “forward” and “pleased” given from the action switching module 71 of the application layer 41 as described above. , "Sound" or "tracking (follow the ball)" is given to the corresponding signal processing modules 61 to 67 of the output system 69.

【0075】そしてこれら信号処理モジュール61〜6
7は、行動コマンドが与えられると当該行動コマンドに
基づいて、その行動を行うために対応するアクチュエー
タ25〜25(図2)に与えるべきサーボ指令値
や、スピーカ24(図2)から出力する音の音声データ
及び又は「目」のLEDに与える駆動データを生成し、
これらのデータをロボティック・サーバ・オブジェクト
32のバーチャル・ロボット33及び信号処理回路14
(図2)を順次介して対応するアクチュエータ25
25又はスピーカ24又はLEDに順次送出する。
The signal processing modules 61 to 6
7, given the behavior command based on the action command, and servo command value to be applied to the actuator 25 1 to 25 n (Fig. 2) corresponding to perform that action, the output from the speaker 24 (FIG. 2) Generating sound data of the sound to be played and / or driving data to be given to the LED of the “eye”,
These data are transferred to the virtual robot 33 of the robotic server object 32 and the signal processing circuit 14.
The corresponding actuators 25 1 to 25 1 through (FIG. 2)
25n or the speaker 24 or the LED.

【0076】このようにしてロボット装置1において
は、制御プログラムに基づいて、自己(内部)及び周囲
(外部)の状況や、使用者からの指示及び働きかけに応
じた自律的な行動を行うことができるようになされてい
る。
In this way, the robot apparatus 1 can perform autonomous actions according to its own (internal) and surrounding (external) conditions and instructions and actions from the user based on the control program. It has been made possible.

【0077】(3)本発明の適用により実現される構成
等 上述のような構成を備えたロボット装置は、本発明の適
用により、他のロボット装置に動作に反応して動作する
ことができれる。これにより、ロボット装置間での対話
が可能になる。さらに、ロボット装置は、その対話機能
が異なるロボット装置との間での対話も可能としてい
る。先ず、対話機能が異なるロボット装置との間で対話
をすることができる本発明が適用されたロボット装置に
ついて説明し、その後、同一の対話機能に基づいて対話
をする本発明が適用されたロボット装置について説明す
る。
(3) Configurations and the Like Achieved by Applying the Present Invention A robot device having the above-described configuration can operate in response to an operation of another robot device by applying the present invention. . Thereby, conversation between the robot devices becomes possible. Further, the robot device can also perform a dialog with a robot device having a different interactive function. First, a description will be given of a robot apparatus to which the present invention is applied, which is capable of interacting with a robot apparatus having a different interactive function, and thereafter, a robot apparatus to which the present invention is applied, which performs an interaction based on the same interactive function. Will be described.

【0078】(3−1)対話機能が異なるロボット装置
との間で対話を行うロボット装置 本発明が適用されたロボット装置は、対話機能の異なる
他のロボット装置との間で対話することが可能とされて
いる。
(3-1) Robot Apparatus Conversing with Robot Apparatus with Different Dialog Function The robot apparatus to which the present invention is applied can communicate with another robot apparatus having a different conversation function. It has been.

【0079】対話機能が異なるロボット装置としては、
別機種のロボット装置や、他のロボット装置が異なる製
造者から提供されているロボット装置、或いは製造者が
同一であるが、型番或いはモデルが異なるロボット装置
等が挙げられる。実施の形態では、対話機能として音階
コマンドによって制御される構成となされている他のロ
ボット装置との間で対話する場合について説明する。す
なわち、対話相手となる他のロボット装置が、上述の図
16を用いて上述したように、待機中において音階音か
らなる音階コマンドの認識により所定の動作として例え
ば「ピロリン」といった発音をするようなロボット装置
の場合である。
As the robot apparatus having different interactive functions,
A robot device of a different model, a robot device in which another robot device is provided by a different manufacturer, or a robot device of the same manufacturer but a different model number or model may be used. In the embodiment, a case will be described in which the user interacts with another robot apparatus configured to be controlled by a musical scale command as an interactive function. That is, as described above with reference to FIG. 16 described above, another robot apparatus to be a conversation partner generates a predetermined action, such as “pyrroline”, as a predetermined operation by recognizing a scale command including a scale sound during standby. This is the case of a robot device.

【0080】本発明の実施の形態のロボット装置が、こ
のような音階コマンドの出力機能を有して、かつ、その
ような音階コマンドにより動作が制御されるロボット装
置の動作に対しても自己も反応動作(例えば、同期動
作)することにより、ユーザーは、そのようなロボット
装置間が反応して出現させる動作をロボット装置同士の
行っている対話として鑑賞することができるようにな
る。
The robot apparatus according to the embodiment of the present invention has such a scale command output function, and the robot apparatus of which the operation is controlled by such a scale command has its own function. By performing a reaction operation (for example, a synchronous operation), the user can appreciate such an operation in which the robot apparatuses react and appear as a dialog between the robot apparatuses.

【0081】本発明の実施の形態のロボット装置は、他
のロボット装置との間で対話を以下に説明するように実
現している。なお、説明において、本発明の実施の形態
のロボット装置を主ロボット装置といい、主ロボット装
置と異なる対話機能を有するロボット装置を従ロボット
装置という。
The robot apparatus according to the embodiment of the present invention realizes a dialog with another robot apparatus as described below. In the description, the robot device according to the embodiment of the present invention is referred to as a master robot device, and a robot device having an interactive function different from that of the master robot device is referred to as a slave robot device.

【0082】主ロボット装置は、他のロボット装置であ
る従ロボット装置が出力する動作に含まれる情報を検出
する動作検出手段と、動作検出手段が検出した情報に対
応した動作を出力する動作出力手段とを備えている。具
体的には、主ロボット装置は、上述したように、CPU
10を備えており、このCPU10により、従ロボット
装置が出力する動作に含まれる情報を検出する動作検出
機能と、動作検出機能により検出した情報に対応した動
作を出力する動作出力機能としてこれを実現している。
すなわち、CPU10は、各種信号処理モジュール等に
より、そのような機能を実現する。
The main robot unit includes an operation detecting unit for detecting information included in an operation output by the slave robot unit as another robot unit, and an operation output unit for outputting an operation corresponding to the information detected by the operation detecting unit. And Specifically, as described above, the main robot device has a CPU
The CPU 10 realizes an operation detection function for detecting information included in an operation output by the slave robot device and an operation output function for outputting an operation corresponding to the information detected by the operation detection function. are doing.
That is, the CPU 10 realizes such a function by various signal processing modules and the like.

【0083】また、主ロボット装置は、従ロボット装置
との間で情報を送受信する通信手段を備えている。ここ
でいう情報は、音階音による情報であり、このようなこ
とから、通信手段は、そのような音階音による情報の送
受信をスピーカ24によって実現するものである。ま
た、ここで、情報は、動作の意味を示す意味情報であ
る。例えば、動作そのものの意味や動作に含まれる感情
等の情報である。
The master robot device has communication means for transmitting and receiving information to and from the slave robot device. The information referred to here is information based on chromatic sounds, and the communication means realizes transmission and reception of information using such chromatic sounds by the speaker 24. Here, the information is semantic information indicating the meaning of the operation. For example, it is information such as the meaning of the motion itself and the emotion included in the motion.

【0084】このような構成を備える主ロボット装置
は、従ロボット装置との間で行う対話機能を、例えば、
いわゆる対話モード等といった一連の処理手続きにおい
て実現している。具体的には、主ロボット装置は、図6
に示したような行動モデルの一つ、例えば対話の行動モ
デルとして実現する。
The master robot device having the above-described structure has an interactive function performed with the slave robot device.
This is realized in a series of processing procedures such as a so-called interactive mode. Specifically, the main robot device is shown in FIG.
This is realized as one of the behavior models shown in FIG.

【0085】このような機能を有する主ロボット装置
は、図9に示すように、アイドリング状態ST1におい
てあるタイミングにおいて従ロボット装置が発した音信
号である「感情表現音(例えば、「ピロリー」等)」を
認識する。これにより、主ロボット装置は、従ロボット
装置の存在を検出し、従ロボット装置が近くにいること
を知る。この認識は、主ロボット装置が所定の状態にな
ったことを示し、対話機能(例えば、対話の行動モデ
ル)を開始或いは発火するための所定の状態になったこ
とを示すトリガーになる。
As shown in FIG. 9, the main robot device having such a function, as shown in FIG. 9, is a sound signal generated by the slave robot device at a certain timing in the idling state ST1 such as "emotional expression sound (for example," pyrory "). Recognize. Thereby, the master robot device detects the presence of the slave robot device and knows that the slave robot device is nearby. This recognition indicates that the main robot apparatus has entered a predetermined state, and serves as a trigger indicating that the main robot apparatus has entered a predetermined state for starting or firing an interactive function (for example, an interaction behavior model).

【0086】ここで、アイドリング状態ST1とは、主
ロボット装置が自律動作をしている状態である。すなわ
ち、例えば、外部環境や自己の感情状態に応じてロボッ
ト装置が自律的に動作している場合である。
Here, the idling state ST1 is a state in which the main robot device is operating autonomously. That is, for example, a case where the robot apparatus is operating autonomously according to the external environment or its own emotional state.

【0087】主ロボット装置は、従ロボット装置の発し
た感情表現音を認識すると、例えば、「お座り」姿勢
に、姿勢を遷移させる。なお、主ロボット装置は、「お
座り」の姿勢に遷移することに限定されるものではな
く、他の姿勢やそのまま自律動作を実行し続けてもよ
い。
When recognizing the emotional expression sound emitted by the slave robot device, the master robot device changes the posture to, for example, the “sitting” posture. In addition, the main robot device is not limited to the transition to the “sitting” posture, and may continue to perform the autonomous operation in another posture or as it is.

【0088】そして、主ロボット装置は、コマンド発生
状態ST2に遷移させて、音階音からなる音階コマンド
を発生させる。例えば、主ロボット装置は、ランダムと
して音階コマンドを発生させる。
Then, the main robot device transitions to the command generation state ST2, and generates a scale command composed of scale sounds. For example, the main robot device randomly generates a scale command.

【0089】具体的には、主ロボット装置は、種々の音
階コマンドからなるデータベースを有している。ここ
で、種々の音階コマンドは、従ロボット装置にさせる動
作内容がそれぞれ異なるものとされており、音名と組み
合わせが異なる音階音とされている。この主ロボット装
置が有することになるデータベースを構成する音階コマ
ンドは、例えば従ロボット装置を制御するためにいわゆ
るサウンドコマンダーが備えていた音階コマンドであ
る。
Specifically, the main robot device has a database including various scale commands. Here, the various scale commands have different operation contents to be performed by the slave robot device, and have different scale names and combinations of scale sounds. The scale commands constituting the database that the master robot device has are, for example, scale commands provided in a so-called sound commander for controlling the slave robot device.

【0090】例えば、主ロボット装置は、図10に示す
ように、音階コマンドの音階音のパターンとそのコマン
ド内容等とから構成されたデータベースを有している。
ここで、コマンド内容は、従ロボット装置が、対応する
音階パターンの認識により出現する発音動作等の動作内
容になる。なお、音階コマンドによって実現されるコマ
ンドは、発声動作に限定されるものではなく、姿勢を変
化させる等の動作であっても良い。
For example, as shown in FIG. 10, the main robot device has a database composed of a scale sound pattern of a scale command and the contents of the command.
Here, the command content is an operation content such as a sounding operation that appears when the slave robot device recognizes the corresponding scale pattern. The command realized by the scale command is not limited to the utterance operation, but may be an operation such as changing the posture.

【0091】また、このように主ロボット装置が有する
音階コマンドについては、製造時に登録されていてもよ
いが、後で新規に或いは更新して登録することができる
ようにしてもよい。主ロボット装置は、このようなデー
タベース等として有している音階コマンドをランダムに
選択し、選択した音階コマンドを出力する。
The musical scale command of the main robot device may be registered at the time of manufacture, or may be newly registered or updated later. The main robot device randomly selects a scale command included in such a database or the like, and outputs the selected scale command.

【0092】さらに、主ロボット装置は、このような音
階コマンドの出力を、動作に対応させて行うこともでき
る。通常、音階コマンドは、ロボット装置の制御用の信
号パターンとされ、ロボット装置においては意味のある
ものとして扱われるが、人間からみた場合には何ら意味
を持っていない。よって、音階コマンドの意味に対応さ
れるような動作を主ロボット装置に出力させることによ
り、ユーザーも音階コマンドの内容を理解することがで
きるようになる。
Further, the main robot device can output such a musical scale command in accordance with the operation. Normally, the scale command is a signal pattern for controlling the robot apparatus, and is treated as meaningful in the robot apparatus, but has no meaning from the viewpoint of a human. Accordingly, by causing the main robot apparatus to output an operation corresponding to the meaning of the scale command, the user can also understand the contents of the scale command.

【0093】主ロボット装置は、音階コマンドを出力す
ると、従ロボット装置の反応待ち状態ST3に入る。例
えば、主ロボット装置は、反応待ち状態ST3を所定時
間維持する。
When the master robot device outputs the musical scale command, the master robot device enters a reaction waiting state ST3 of the slave robot device. For example, the main robot device maintains the reaction waiting state ST3 for a predetermined time.

【0094】例えば、従ロボット装置は、主ロボット装
置が発した音階コマンドを認識した場合、その音階コマ
ンドに応じて感情表現音を出力することになる。しか
し、音階コマンドに従ロボット装置が必ず反応を示すか
否かは不明である。これは、例えば、従ロボット装置が
自律動作によりどこかに移動してしまっているような場
合や、従ロボット装置が周囲のノイズ等により音階コマ
ンドを検出できない場合があるからである。これに対応
して、主ロボット装置は、従ロボット装置の反応に応じ
て種々の動作を用意している。
For example, when the slave robot device recognizes the scale command issued by the master robot device, it outputs an emotion expression sound in accordance with the scale command. However, it is unknown whether the robot device always responds to the musical scale command. This is because, for example, the slave robot device may have moved somewhere due to autonomous operation, or the slave robot device may not be able to detect a scale command due to ambient noise or the like. Correspondingly, the master robot device prepares various operations according to the reaction of the slave robot device.

【0095】主ロボット装置が発した音階コマンドに反
応して従ロボット装置が感情表現音を出力した場合、主
ロボット装置は、この感情表現音を認識して、同一の感
情表現音を出力する。例えば、主ロボット装置は、デー
タベースとして予め保持している従ロボット装置の感情
表現音を読み出し、これを出力する。
When the slave robot device outputs the emotion expression sound in response to the scale command issued by the master robot device, the master robot device recognizes the emotion expression sound and outputs the same emotion expression sound. For example, the master robot device reads out the emotional expression sound of the slave robot device, which is stored in advance as a database, and outputs this.

【0096】このような主ロボット装置と従ロボット装
置との間でなされる動作を、ユーザーは、ロボット装置
間の対話として鑑賞することができる。
The user can watch the operation performed between the master robot device and the slave robot device as a dialogue between the robot devices.

【0097】そして、主ロボット装置は、感情表現音
(音階反応音)を認識して、変数NumResponseに1加算
し、また、変数NumTimupを0にする。ここで、変数NumR
esponseは、従ロボット装置が反応した反応回数を示す
変数である。また、この変数NumResponseは、このよう
な対話機能の処理に入る際(或いはモード)に初期値と
して0が与えられている。また、変数NumTimupは、主ロ
ボット装置が発した音階コマンドに対して反応がなかっ
た回数(以下、非反応回数という。)を示す値である。
例えば、従ロボット装置の反応がなかったことは、従ロ
ボット装置から所定時間反応がなかったことにより判別
する。また、この変数NumTimupについても同様に、対話
機能の処理(或いはモード)に入る際に初期値として0
が与えられる。
The main robot device recognizes the emotion expression sound (scale response sound), adds 1 to the variable NumResponse, and sets the variable NumTimup to 0. Where the variable NumR
“esponse” is a variable indicating the number of times the slave robot device has reacted. The variable NumResponse is given an initial value of 0 when entering such interactive function processing (or mode). Further, the variable NumTimup is a value indicating the number of times no response has been made to the scale command issued by the main robot apparatus (hereinafter referred to as the number of non-reactions).
For example, the absence of a response from the slave robot device is determined by the absence of a response from the slave robot device for a predetermined time. Similarly, the variable NumTimup is initialized to 0 when entering the process (or mode) of the interactive function.
Is given.

【0098】従ロボット装置の感情認識は、例えば、予
め音階反応音とそれに対応する感情のテーブルを持って
おき、検出した音階反応音等をテーブルと参照すること
で行う。なお、テーブルを予め持たず、検出した音階反
応音等のピッチ、パワー等を解析して感情を認識するよ
うにしても構わない。
The emotion recognition of the slave robot device is performed by, for example, having a table of scale reaction sounds and corresponding emotions in advance, and referring to the detected scale reaction sounds and the like as a table. Note that the emotion may be recognized by analyzing the pitch, power, or the like of the detected scale reaction sound or the like without having a table in advance.

【0099】主ロボット装置は、従ロボット装置が反応
した場合、続く反応動作として所定の動作を出現させ
る。
When the slave robot device reacts, the master robot device causes a predetermined operation to appear as a subsequent reaction operation.

【0100】ここで、主ロボット装置は、上述の変数Nu
mResponseの値に応じて動作を出現させる。主ロボット
装置は、この変数NumResponseを動作actionの決定のた
めの変数として用いており、具体的には、主ロボット装
置は、種々の動作をaction(1),action(2),acti
on(3),・・・といったものとして有しており、acti
on(NumResponse)により従ロボット装置に対する動作
として決定している。
[0100] Here, the main robot apparatus determines the above-mentioned variable Nu.
Make the action appear according to the value of mResponse. The main robot device uses this variable NumResponse as a variable for determining the action action. Specifically, the main robot device performs various actions by action (1), action (2), and acti.
on (3), ...
On (NumResponse) is determined as the operation for the slave robot device.

【0101】そして、変数NumResponseは、上述したよ
うに、主ロボット装置が認識した従ロボット装置の反応
回数を示すものであることから、その数が多い程、従ロ
ボット装置の反応回数が多かったことを示すものとな
る。一般的には、人間でもそうであるが、自己のうれし
い状態を表出した動作に対して反応があった場合には、
うれしいものである。このようなことから、action
(1),action(2),action(3),・・・の各動作
を、その順序で、「うれしさ」を示す動作が次第に派手
になるように定義している。
Since the variable NumResponse indicates the number of reactions of the slave robot device recognized by the master robot device as described above, the larger the number, the greater the number of reactions of the slave robot device. Is shown. In general, as with humans, if a person responds to a movement that expresses their happy state,
It is nice. Because of this, action
The actions (1), action (2), action (3),... Are defined in this order so that the action indicating “joy” gradually becomes more flashy.

【0102】反応動作状態ST4においては、主ロボッ
ト装置は、上述のように定義されている動作からそのと
きの変数NumResponseに応じて動作action(NumRespons
e)を選択して、その動作を出現させる。すなわち、主
ロボット装置は、変数NumResponseが1〜5である場
合、それに対応される動作action(NumResponse)を出
現させて、再びコマンド発生状態ST2に遷移して、音
階コマンドをランダムに選択し、選択した音階コマンド
を出力する。そして、主ロボット装置は、反応待ち状態
ST3において、従ロボット装置の反応を待つ。ここ
で、従ロボット装置の反応があれば、再び上述したよう
に、その従ロボット装置がした反応動作に応じて所定の
動作を出現させて、変数NumResponseに1を加算するな
どの処理を行う。そして、主ロボット装置は、1だけ加
算された変数NumResponseに応じて派手になったうれし
さを示す動作を出現させる。
In the reaction operation state ST4, the main robot apparatus performs an operation action (NumRespons) according to the variable NumResponse at that time from the operation defined as described above.
Select e) to make the action appear. That is, when the variable NumResponse is 1 to 5, the main robot device causes the action (NumResponse) corresponding thereto to appear, transits to the command generation state ST2 again, randomly selects a scale command, and selects the scale command. Output scale command. Then, in the reaction waiting state ST3, the master robot device waits for a reaction of the slave robot device. Here, if there is a response from the slave robot device, a process such as adding a 1 to the variable NumResponse is performed, as described above, by causing a predetermined operation to appear according to the reaction operation performed by the slave robot device. Then, the main robot device causes an operation to show the joy of being flashy according to the variable NumResponse added by one.

【0103】そして、主ロボット装置は、変数NumRespo
nseが5を超えた場合には、動作action(6)として
「バンザイ」の動作を出現させ、アイドリング状態ST
1に戻る。すなわち、主ロボット装置は、従ロボット装
置との対話のための処理(或いはモード)を終了して、
再び自律動作状態に戻る。
Then, the main robot apparatus sets the variable NumRespo
If nse exceeds 5, an operation of "Banzai" appears as an action action (6), and the idling state ST
Return to 1. That is, the master robot device ends the process (or mode) for dialogue with the slave robot device,
It returns to the autonomous operation state again.

【0104】このように、主ロボット装置は、従ロボッ
ト装置の反応に応じ、その反応回数に応じて種々の動作
を出現しており、これにより、主ロボット装置と従ロボ
ット装置との間でなされる動作を、ユーザーは、ロボッ
ト装置間の対話として鑑賞することができるようにな
る。
As described above, the master robot device has various actions in response to the reaction of the slave robot device and the number of times of the reaction, whereby the master robot device and the slave robot device perform the operations. The user can appreciate the operation as a conversation between the robot devices.

【0105】また、主ロボット装置は、従ロボット装置
の反応回数に応じて「うれしさ」を示す動作を次第に派
手にしていっているが、これは、いわゆる動作の変調と
して把握されるものである。
Further, the master robot device gradually makes the operation showing “joy” in response to the number of reactions of the slave robot device, but this is grasped as a so-called modulation of the operation.

【0106】一方、反応待ち状態ST3において従ロボ
ット装置の反応を所定時間内に認識できない場合、主ロ
ボット装置は、「悲しい」を示す動作を出現させる。そ
して、ロボット装置は、非反応回数を示す変数NumTimup
に1を加算する。ここで、従ロボット装置の反応がない
場合とは、例えば、従ロボット装置が自律動作によりど
こかに移動してしまっているような場合や、従ロボット
装置が周囲のノイズ等により音階コマンドを検出するこ
とができない場合などである。
On the other hand, when the reaction of the slave robot device cannot be recognized within the predetermined time in the reaction waiting state ST3, the master robot device makes an operation indicating "sad" appear. Then, the robot apparatus sets a variable NumTimup indicating the number of non-reactions.
Is added to. Here, the case where there is no response from the slave robot device is, for example, a case where the slave robot device has moved somewhere due to autonomous operation, or a case where the slave robot device detects a musical scale command due to ambient noise or the like. For example, when it is not possible.

【0107】なお、従ロボット装置が反応を示さない場
合にも、従ロボット装置は、「悲しい」を示す動作を出
現させており、これは、主ロボット装置が、従ロボット
装置の動作しないことを、反応動作として認識している
ともいえる。
Note that, even when the slave robot device does not respond, the slave robot device makes an operation indicating “sad”, which means that the master robot device does not operate the slave robot device. It can be said that it is recognized as a reaction operation.

【0108】主ロボット装置は、従ロボット装置が反応
がない場合に、上述したような動作を出現させて、再び
コマンド発生状態ST2において、音階コマンドをラン
ダムに選択し、選択した音階コマンドを出力して、再
び、反応待ち状態ST3において、従ロボット装置の反
応を待つ。主ロボット装置は、この反応待ち状態ST3
において連続して所定の回数、従ロボット装置の反応を
認識することができなかった場合、すなわち、非反応回
数が所定の値になった場合には、さらに悲しい動作を出
現させる。本例では、従ロボット装置の反応を連続して
4回認識することができなかった場合、すなわち、非反
応回数を示す変数NumTimupが3を超えた場合、主ロボッ
ト装置は、動作として「非常に悲しい」を示す動作を出
現させて、アイドリング状態ST1に戻る。
When the slave robot device does not respond, the master robot device makes the above-described operation appear, again selects a scale command in the command generation state ST2, and outputs the selected scale command. Then, in the reaction waiting state ST3 again, the slave robot device waits for a reaction. The main robot device waits for this reaction ST3.
If it is not possible to recognize the reaction of the slave robot device a predetermined number of times in succession, that is, if the number of non-reactions has reached a predetermined value, a more sad operation appears. In this example, when the response of the slave robot device cannot be recognized four times consecutively, that is, when the variable NumTimup indicating the number of times of non-reaction exceeds 3, the master robot device determines that the operation is “very”. An operation indicating "sad" appears, and the process returns to the idling state ST1.

【0109】このように、主ロボット装置は、従ロボッ
ト装置の反応がない場合も、その反応しない回数に応じ
て種々の動作を出現しており、これにより、主ロボット
装置と従ロボット装置との間でなされる動作を、ユーザ
ーはロボット装置間の対話として鑑賞することができ
る。
As described above, even when there is no response from the slave robot device, the master robot device performs various operations according to the number of times that the slave robot device does not react. The user can watch the operation performed between the robot devices as a dialogue between the robot devices.

【0110】なお、本実施の形態では、上述したような
反応待ち状態ST3から「非常に悲しい」動作を出現さ
せる場合は、複数回移行した反応待ち状態ST3におい
て、従ロボット装置の反応を連続して検出できなかった
場合としている。すなわち、反応待ち状態ST3におい
て、従ロボット装置の反応があった場合には、非反応回
数を示す変数NumTimupが0に初期化しているからであ
る。例えば、主ロボット装置は、従ロボット装置の反応
がない場合でも、後発の動作の出力に対して従ロボット
装置が反応したときには、「うれしい」を示す動作を出
現するとともに、非反応回数を示す変数NumTimupを0に
初期化している。
In the present embodiment, when a “very sad” operation appears from the above-described reaction waiting state ST3, the reaction of the slave robot device is continuously performed in the reaction waiting state ST3 to which a plurality of transitions are made. And could not be detected. That is, in the reaction waiting state ST3, when there is a reaction of the slave robot device, the variable NumTimup indicating the number of times of non-reaction has been initialized to zero. For example, even when there is no response from the slave robot device, when the slave robot device responds to the output of the subsequent operation, the master robot device produces an operation indicating “happy” and a variable indicating the number of non-reactions. NumTimup is initialized to 0.

【0111】また、このように処理されることに限定さ
れないことはいうまでもなく、例えば、従ロボット装置
からの反応があっことに対応して変数NumTimupを0にす
ることなく、すなわち反応があったことに関係なく、そ
のまま反応がなかった回数を計数していくこともでき
る。
It is needless to say that the processing is not limited to the above-described processing. For example, the variable NumTimup is not set to 0 in response to the response from the slave robot device, that is, the response is not performed. Irrespective of this, the number of times there is no reaction can be counted as it is.

【0112】以上のように、主ロボット装置は、自己の
行った動作に対する従ロボット装置の反応動作(ここで
は、反応をしない動作も含む。)と、そしてその反応回
数(或いは非反応回数)に応じて種々の動作を出現させ
ることができるようになる。これにより、ユーザーは、
そのようなロボット装置間で反応して出現させる動作を
ロボット装置同士の行っている対話として鑑賞すること
ができるようになる。
As described above, the master robot device determines the reaction operation of the slave robot device to the operation performed by the slave robot device (including an operation that does not react here) and the number of times of reaction (or the number of times of non-reaction). Various operations can appear accordingly. This allows users to
It is possible to apprehend such an action of causing the robot apparatuses to react and appear as a conversation between the robot apparatuses.

【0113】そして、このような対話を、主ロボット装
置は、そのような音階コマンド等の外部制御コマンドに
よって動作が制御される先発モデル或いは他社のロボッ
ト装置等を自己の動作に同期させて制御することにより
実現している。よって、ユーザーは、異なるモデルや他
社のロボット装置同士の反応動作をロボット装置間の対
話として鑑賞することができるようになる。
The main robot device controls such a dialogue in synchronization with its own operation of a starting model whose operation is controlled by an external control command such as a scale command or a robot device of another company. This is achieved by: Therefore, the user can appreciate the reaction operation between the robot devices of different models or other companies as a dialogue between the robot devices.

【0114】(3−2)同一の対話機能により対話を行
うロボット装置 本発明が適用された2台のロボット装置間で対話機能に
基づいて行う対話について説明する。ここで説明するロ
ボット装置は、お互いが同一の対話機能を有しており、
これにより相手のロボット装置との対話を実現してい
る。
(3-2) Robot Device Performing a Dialogue with the Same Dialogue Function A dialogue between two robot devices to which the present invention is applied based on the dialogue function will be described. The robot devices described here have the same interactive function with each other,
This realizes a dialog with the other robot device.

【0115】ロボット装置は、ともに、相手のロボット
装置が出力する動作に含まれる情報を検出する動作検出
手段と、動作検出手段が検出した情報に対応した動作を
出力する動作出力手段とを備えている。具体的には、主
ロボット装置は、CPU10により、相手のロボット装
置が出力する動作に含まれる情報を検出する動作検出機
能と、動作検出機能により検出した情報に対応した動作
を出力する動作出力機能として、これを実現している。
すなわち、CPU10は、各種信号処理モジュール等に
より、そのような機能を実現する。
Each of the robot apparatuses includes an operation detecting means for detecting information included in an operation output from the other robot apparatus, and an operation output means for outputting an operation corresponding to the information detected by the operation detecting means. I have. Specifically, the main robot device has an operation detection function of detecting information included in an operation output by the other robot device by the CPU 10 and an operation output function of outputting an operation corresponding to the information detected by the operation detection function. This has been achieved.
That is, the CPU 10 realizes such a function by various signal processing modules and the like.

【0116】また、ロボット装置はともに、所定の状態
になったときに、所定の動作を出力するようになされて
いる。これにより、一のロボット装置が、所定の状態に
なったときに、所定の動作を動作出力機能により出力
し、他のロボット装置は、一のロボット装置が出力した
所定の動作に対応した動作を出力するようになる。
Further, both the robot devices output a predetermined operation when a predetermined state is attained. Thus, when one robot device enters a predetermined state, a predetermined operation is output by the operation output function, and the other robot device performs an operation corresponding to the predetermined operation output by the one robot device. Output.

【0117】以上のように、ロボット装置はそれぞれが
同様な構成を備えており、相手のロボット装置との対話
を実現している。以下に、図11を用いて、ロボット装
置間で行う対話について説明する。
As described above, each of the robot devices has a similar configuration, and realizes a dialog with the other robot device. Hereinafter, a dialog performed between the robot devices will be described with reference to FIG.

【0118】ロボット装置はともに、図11に示すよう
に、アイドリング状態ST11、ST21にある。そし
て、一方のロボット装置が所定の状態になったときに、
動作を出現させることにより、ロボット装置間の対話が
開始される。ここで、所定の状態になったときとは、例
えば、確率や感情レベルがある値になったとき、或いは
他のロボット装置の存在を認識したとき等である。感情
レベルとは、例えば、上述した情動のパラメータ値であ
る。例えば、このような所定の状態になったことの検出
は、所定のサンプリング間隔で監視して行い、そのよう
なサンプリングタイミングにおいて所定の状態が検出で
きないようであれば、時間切れとして、アイドリング状
態ST11に戻るようにしてもよい。以下、所定の状態
となり対話のための動作を最初に出現させたロボット装
置を「マスター」といい、他のロボット装置を「受け
手」という。
As shown in FIG. 11, both of the robot devices are in the idling states ST11 and ST21. Then, when one of the robot devices is in a predetermined state,
The appearance of the action initiates a dialog between the robotic devices. Here, the predetermined state is when, for example, the probability or the emotion level reaches a certain value, or when the presence of another robot device is recognized. The emotion level is, for example, the parameter value of the emotion described above. For example, the detection of such a predetermined state is performed by monitoring at a predetermined sampling interval. If the predetermined state cannot be detected at such a sampling timing, the idle state ST11 is set as time out. May be returned. Hereinafter, a robot device which has been brought into a predetermined state and an action for dialogue first appears is referred to as a “master”, and the other robot devices are referred to as a “recipient”.

【0119】なお、上述したように、ロボット装置はと
もに、所定の状態になったときに、所定の動作を出力す
るようになされている。よって、所定の状態になるタイ
ミングの如何によっては、上述でいう「他のロボット装
置」側が「マスター」になり、「一のロボット装置」が
「受け手」になる。すなわち、ロボット装置はともに、
その状況によって、「マスター」にもなり得るし、「受
け手」にもなり得る。
As described above, both of the robot devices are configured to output a predetermined operation when a predetermined state is attained. Therefore, depending on the timing of the predetermined state, the “other robot device” side described above becomes the “master” and the “one robot device” becomes the “recipient”. That is, both robot devices
Depending on the situation, it can be a “master” or a “recipient”.

【0120】このように最初に所定の状態になり対話機
能を起動或いは発火させてマスターとされたロボット装
置は、動作ST12として、「ヤッホー」及び「音階音
(1)」を発声する。ここで、ここで、「ヤッホー」は
言語としての発声であり、「音階音(1)」は、例え
ば、「ピポパー」等の音階音であり、単なる音列であ
る。なお、以降の説明において、音階音として、音階音
(2)、音階音(3)、音階音(4)・・・等を挙げて
説明するが、それぞれ異なる音階パターンからなる。ま
た、このような音階音(1)、音階音(2)、音階音
(3)、・・・は、音階コマンド等として、従来におい
て確立されている技術である。
As described above, the robot apparatus which is initially set to the predetermined state and which activates or fires the interactive function and is set as the master utters "Yah-ho" and "tone scale (1)" in operation ST12. Here, “Yahoo” is an utterance as a language, and “scale note (1)” is a scale note such as “pipopa”, for example, and is merely a sound sequence. In the following description, the scale sounds (2), (3), (4), etc. will be described as the scale sounds, but each of them has a different scale pattern. Further, such scale note (1), scale note (2), scale note (3),... Are conventionally established techniques as scale commands and the like.

【0121】なお、ここで、「ヤッホー」等の発話に対
応させて音階音も出力しているのは、その発話動作とし
ての「ヤッホー」の言葉を、対話相手の受け手のロボッ
ト装置が意味のあるものとして認識することができるな
いような場合である。その発話動作としての「ヤッホ
ー」の言葉をロボット装置が認識できるのであればその
必要がなくなる。よって、音階音を動作と一緒に出力す
る場合は、動作を相手が意味のあるものとして認識でき
ないような場合であって、例えば、動作としての発話が
長文であるような場合である。このような場合におい
て、音階音が有効な対話手段としてロボット装置間で作
用する。
Here, the reason why the scale sound is also output in correspondence with the utterance such as “Yah-ho” is that the word “Yah-ho” as the utterance action is interpreted by the robot apparatus of the receiver of the conversation partner. This is the case when it cannot be recognized as being. If the robot device can recognize the word "Yahoo" as the utterance operation, this is not necessary. Therefore, the case where the scale sound is output together with the operation is a case where the other party cannot recognize the operation as meaningful, for example, a case where the utterance as the operation is a long sentence. In such a case, the scale sound acts between the robot devices as an effective dialogue means.

【0122】受け手は、マスターのこのような発声を認
識して、アイドリング状態ST21からその反応動作S
T22に遷移する。すなわち、受け手は、マスターの発
声をトリガーとして、対話機能を起動する。
The receiver recognizes such a utterance of the master, and changes its reaction operation S from the idling state ST21.
Transition to T22. That is, the receiver activates the interactive function with the utterance of the master as a trigger.

【0123】受け手は、その反応動作ST22として、
「ヤッホー」及び「音階音(2)」を発声する。ここ
で、受け手は、マスターが発声した「ヤッホー」及び
「音階音(1)」のうちの「音階音(1)」によりマス
ターがした発声を認識する。
The recipient performs the reaction operation ST22 as follows:
"Yaho" and "scale tone (2)" are uttered. Here, the receiver recognizes the utterance made by the master based on the “scale sound (1)” of the “yahoo” and the “scale sound (1)” uttered by the master.

【0124】音階音は、上述したように、従来のロボッ
ト装置等において音階コマンド等として確立されている
技術であり、そのような確立されている音階音の認識シ
ステムを適用することにより、ロボット装置は、音階音
の音階パターンを介してコマンドを的確に認識する。
As described above, the scale sound is a technique established as a scale command or the like in a conventional robot device or the like, and by applying such an established scale sound recognition system, Accurately recognizes a command via a scale pattern of a scale sound.

【0125】マスターは、この受け手の「音階音
(2)」の発声を認識して、その反応動作ST13とし
て、「ハッピー」及び「音階音(3)」を発声する。そ
して、このような相手の動作に対する反応動作を、その
内容を変化させて繰り返していく。
The master recognizes the utterance of the "scale tone (2)" of the recipient, and utters "happy" and "scale scale (3)" as the reaction operation ST13. Then, such a reaction operation to the operation of the other party is repeated while changing its content.

【0126】すなわち、受け手は、再び、そのようなマ
スターの「音階音(3)」の発声を認識して、その反応
動作ST23として、「平静」及び「音階音(4)」を
発声する。ここで、「平静」は、例えば、「静かに」と
いった内容を示す発話である。そして、マスターは、こ
の受け手の「音階音(4)」の発声を認識して、その反
応動作ST14として、「ハッピー!!」及び「音階音
(5)」を発声する。ここで、「ハッピー!!」は、例
えば、「ハッピー」を単に強調した発声である。そして
また、受け手は、このマスターの「音階音(5)」の発
声を認識して、その反応動作ST24として、「ハッピ
ー」及び「音階音(6)」を発声する。これに対して、
マスターは、この受け手の「音階音(6)」の発声を認
識して、対話動作の最終動作として、「満足」を発声す
る。受け手は、これに対応して、例えば、そのようなマ
スターの発声に同期して、同じく「満足」を発声する。
That is, the receiver recognizes the utterance of the "scale tone (3)" of such a master again, and utters "calmness" and "scale tone (4)" as the reaction operation ST23. Here, “calm” is an utterance indicating a content such as “quietly”. Then, the master recognizes the utterance of the “scale tone (4)” of the recipient, and utters “happy!” And “scale tone (5)” as the reaction operation ST14. Here, “happy!” Is, for example, an utterance that simply emphasizes “happy”. Further, the receiver recognizes the utterance of the "scale note (5)" of the master, and utters "happy" and "scale note (6)" as the reaction operation ST24. On the contrary,
The master recognizes the utterance of the "scale note (6)" of the receiver, and utters "satisfaction" as the final operation of the interactive operation. The recipient correspondingly also utters “satisfaction”, for example, in synchronization with the utterance of such a master.

【0127】以上のように、マスター及び受け手とされ
た2台のロボット装置は、相手のした動作に対して反応
動作を示すことができる。これにより、ユーザーは、そ
のようなロボット装置間で反応して出現させる動作をロ
ボット装置同士の対話として鑑賞することができるよう
になる。
As described above, the two robot apparatuses, the master and the receiver, can exhibit a reaction operation to the operation performed by the other party. Accordingly, the user can appreciate the action that appears in such a way that the robot apparatuses react and appear as a dialog between the robot apparatuses.

【0128】なお、上述したように、技術として確立さ
れている音階音の認識システムを利用することにより、
相手の反応動作を認識するようにしているが、これに限
定されるものではなく、「ヤッホー」等のロボット装置
が発する意味のある言語をそのまま認識して、反応動作
をすることができることはいうまでもない。これによ
り、ユーザーは、ロボット装置によってなされる対話が
より現実的なものとして把握することができるようにな
る。
As described above, by utilizing the scale sound recognition system established as a technology,
Although the reaction action of the other party is recognized, the present invention is not limited to this, and it is possible to recognize a meaningful language spoken by a robot device such as "Yahoo" as it is and perform the reaction action. Not even. Thereby, the user can grasp that the dialog performed by the robot device is more realistic.

【0129】また、相手のロボット装置からのリアクシ
ョンが所定時間内にない場合には、時間切れとして再び
アイドリング状態に戻るようにしてもよい。
When the reaction from the other robot device is not within the predetermined time, the time may be expired and the operation may return to the idling state again.

【0130】図12乃至図14には、このような対話機
能によって実現されるロボット装置間(マスターと受け
手との間)の反応動作を時系列上において示している。
FIG. 12 to FIG. 14 show, in chronological order, reaction operations between the robot devices (between the master and the receiver) realized by such an interactive function.

【0131】図12は、マスター及び受け手が共に喜ん
でいる場合の対話のやりとりを示しており、また、図1
3は、マスターが怒っており、受け手が怒られている場
合のやりとりを示しており、そして、図14は、マスタ
ーが命令を出して、受け手がその命令に対応して動作す
る場合の対話のやりとりを示している。例えば、このよ
うな各種の対話機能は、行動モデルとして実現されてい
る。
FIG. 12 shows a dialogue exchange when the master and the receiver are both happy.
3 shows the interaction when the master is angry and the recipient is angry, and FIG. 14 shows the dialogue when the master issues a command and the recipient acts in response to the command. Indicates an exchange. For example, such various interactive functions are realized as a behavior model.

【0132】具体的には、図12に示すように、マスタ
ーは、「ヤッホー」といった発声をすると、受け手は、
その反応動作として、「ヤッホー」と発声する。なお、
このような発声の認識が比較的容易とされるような場合
には、音階音を出力しなくてもよい。すなわち、「ヤッ
ホー」等を容易に認識できるような場合には、マスター
は、図12に示すように、音階音を対応して出力せず、
「ヤッホー」のみを発声し、相手のロボット装置も、そ
の「ヤッホー」を認識するようにする。
More specifically, as shown in FIG. 12, when the master utters “Yahoo!”, the receiver receives
As the reaction operation, "Yah-ho" is uttered. In addition,
When it is relatively easy to recognize such utterance, it is not necessary to output the scale sound. In other words, in a case where “Yahoo” or the like can be easily recognized, as shown in FIG. 12, the master does not output the scale sound correspondingly,
Only "Yahoo" is uttered, and the other robot device also recognizes the "Yahoo".

【0133】マスターは、受け手の「ヤッホー」の発声
に対して、「ハッピー(Happy)」及び「音階音(音階
コマンド)」を発声し、これに対して、受け手は、その
ようなマスターの「ハッピー」及び「音階音」の発声に
対して、「音階音」の発声を認識して、「平静(cal
m)」及び「音階音」を発声する。そして、再び、マス
ターは、受け手の「平静(calm)」及び「音階音」の発
声に対して、「音階音」の発声を認識して、「ハッピー
!!(さらにハッピー)」及び「音階音」を発声し、こ
れに対して、受け手は、そのようなマスターの「ハッピ
ー!!」及び「音階音」の発声に対して、「音階音」を
認識して、「ハッピー」及び「音階音」を発声する。そ
して、マスターは、受け手の「ハッピー」及び「音階
音」の発声に対して、対話の最終的な動作として、「快
適(comfort)」を発声する。これに同期して、受け手
も、対話の最終的な動作として、「快適(comfort)」
を発声する。
The master utters “Happy” and “scale note (scale command)” in response to the utterance of “Yahoo” of the recipient, whereas the recipient utters “Master”. In response to the utterances of "happy" and "scale", the utterance of "scale" is recognized and
m) ”and“ scale ”. Then, again, the master recognizes the utterance of "scale note" for the utterance of "calm (calm)" and "scale note" of the receiver, and "happy! (Further happy)" and "scale note". , While the recipient recognizes the "scale tone" for such a master's "happy!" And "scale tone" utterances, and "happy" and "scale tone". ". Then, the master utters “comfort” as the final action of the dialog with respect to the utterance of “happy” and “scale” of the receiver. In sync with this, the recipient also sees the "comfort"
Utter.

【0134】また、図13に示すように、マスターが怒
り、受け手が怒られるような場合のやりとりは、先ず、
マスターは、「ヤッホー」といった発声をすると、受け
手は、その反応動作として、「ヤッホー」と発声する。
そして、マスターは、受け手の「ヤッホー」の発声に対
して、「怒る(anger)」及び「音階音(音階コマン
ド)」を発声し、これに対して、受け手は、そのような
マスターの「怒っている(anger)」及び「音階音」の
発声に対して、「音階音」の発声を認識して、「平静
(calm)」及び「音階音」を発声する。そして、再び、
マスターは、受け手の「平静」及び「音階音」の発声に
対して、「音階音」の発声を認識して、「怒っている」
及び「音階音」を発声し、これに対して、受け手は、そ
のようなマスターの「怒っている」及び「音階音」の発
声に対して、「音階音」を認識して、「悲しい(sa
d)」及び「音階音」を発声する。そして、マスター
は、受け手の「悲しい」及び「音階音」の発声に対し
て、対話の最終的な動作として、「怒っている」を発声
する。これに同期して、受け手は、対話の最終的な動作
として、「悲しい」を発声する。
As shown in FIG. 13, when the master gets angry and the recipient gets angry, first,
When the master utters “Yahoo”, the receiver utters “Yahoo” as a reaction.
Then, the master utters “anger” and “scale note (scale command)” in response to the utterance of “yahoo” of the recipient, whereas the recipient utters “anger” of such master. With respect to the utterances of "anger" and "scale note", the utterance of "scale note" is recognized, and "calm" and "scale note" are uttered. And again,
The master recognizes the utterance of the "scale sound" with respect to the utterance of the "calm" and "scale tone" of the receiver, and "gets angry"
And the utterance of "scale", while the recipient recognizes the "scale" for such master's "angry" and "scale" utterances and "sad ( sa
d) ”and“ scale ”. Then, the master utters “angry” as the final action of the dialog with respect to the utterance of “sad” and “scale” of the receiver. Synchronously, the recipient speaks "sad" as the final action of the dialogue.

【0135】また、図14に示すように、マスターが命
令を出して、受け手がその命令に対応して動作する場合
のやりとりは、先ず、マスターは、「ヤッホー」といっ
た発声をすると、受け手は、その反応動作として、「ヤ
ッホー」と発声する。マスターは、受け手の「ヤッホ
ー」の発声に対して、右手(右前脚)を挙げる動作をす
るとともに「音階音(音階コマンド)」を発声し、これ
に対して、受け手は、そのようなマスターの右手(右前
脚)を挙げる動作及び「音階音(音階コマンド)」に対
して、「音階音」の発声を認識して、体を右回転させる
動作をする。
As shown in FIG. 14, when the master issues a command and the receiver operates in response to the command, first, the master makes an utterance such as "Yahoo!" As the reaction operation, "Yah-ho" is uttered. The master raises the right hand (right front leg) and utters a "scale note (scale command)" in response to the utterance of "yahoo" of the receiver, and the receiver responds to such master's In response to the action of raising the right hand (right front leg) and the "scale note (scale command)", the utterance of the "scale note" is recognized, and the body is rotated right.

【0136】なお、受け手は、そのような動作の終了を
音階音によってマスターに知らせることができるが、例
えば、マスター側が時間管理をすることにより、マスタ
ーが受け手の動作の終了を検出することでも実現でき
る。すなわち、例えば、マスターが受け手の右回転動作
の実行時間を保持しておくことにより、右手を挙げてか
ら(或いは音階音を発声させてから)の経過時間を計測
して、保持している右回転動作の実行時間とを比較する
ことで、マスターは、受け手が実際に行っている右回転
動作の終了を知る。
Note that the receiver can notify the master of the end of such an operation by using a scale tone. For example, the master can manage the time so that the master detects the end of the operation of the receiver. it can. That is, for example, the master holds the execution time of the clockwise rotation operation of the receiver, thereby measuring the elapsed time since raising the right hand (or after uttering the scale sound) and holding the right time. By comparing the execution time of the rotation operation, the master knows the end of the clockwise rotation operation actually performed by the receiver.

【0137】そして、マスターは、さらに、このように
して受け手の右回転動作の終了を検出した後、今度は左
手(左前脚)を挙げる動作をするとともに「音階音(音
階コマンド)」を発声し、これに対して、受け手は、そ
のようなマスターの左手(左前脚)を挙げる動作及び
「音階音(音階コマンド)」に対して、「音階音」の発
声を認識して、体を左回転させる動作をする。そして、
マスターは、上述したように、例えば、左手を挙げてか
ら(或いは音階音を発声させてから)の経過時間を計測
して、保持している左回転動作の実行時間とを比較する
ことで、受け手が実際に行っている左回転動作の終了を
知る。
After detecting the end of the clockwise movement of the receiver in this way, the master performs the operation of raising the left hand (left front leg) and utters a "scale note (scale command)". On the other hand, in response to the operation of raising the left hand (left front leg) of such a master and the "scale note (scale command)", the receiver recognizes the utterance of "scale note" and turns the body to the left. Perform the action of And
As described above, the master measures, for example, the elapsed time after raising the left hand (or after emitting the scale sound), and comparing the measured elapsed time with the held execution time of the left rotation operation. It knows the end of the counterclockwise rotation operation actually performed by the receiver.

【0138】さらにまた、マスターは、このようにして
受け手の左回転動作の終了を検出した後、今度は両手
(両前脚)を挙げる動作をするとともに「音階音(音階
コマンド)」を発声し、これに対して、受け手は、その
ようなマスターの両手(両前脚)を挙げる動作及び「音
階音(音階コマンド)」に対して、「音階音」の発声を
認識して、前進動作をする。
Further, after detecting the end of the counterclockwise movement of the receiver in this manner, the master raises both hands (both front legs) and utters a "scale note (scale command)". On the other hand, in response to the operation of raising both hands (both front legs) of the master and the "scale sound (scale command)", the receiver recognizes the utterance of the "scale sound" and moves forward.

【0139】このように、マスターが命令を出して、受
け手がその命令に対応して動作する場合のやりとりがな
される。
As described above, the exchange is performed when the master issues a command and the receiver operates according to the command.

【0140】以上、図12乃至図14を用いて説明した
ように、ロボット装置は、相手のロボット装置との間で
種々の対話を実現することができる。
As described above with reference to FIGS. 12 to 14, the robot device can realize various conversations with the other robot device.

【0141】なお、上述の実施の形態では、ロボット装
置間で行う通信が音階音によってなされる場合について
説明した。しかし、これに限定されるものではなく、例
えば、赤外線によりロボット装置間で情報の送受信をす
ることもできる。
In the above-described embodiment, a case has been described in which communication between the robot devices is performed by using scale sounds. However, the present invention is not limited to this. For example, information can be transmitted and received between robot devices by infrared rays.

【0142】また、上述の実施の形態では、ロボット装
置間の動作による対話を主に音声出力動作(或いは発話
動作)によってなされる場合について説明した。しか
し、これに限定されるものではなく、脚等の可動部を動
作させて、対話を行うこともできる。この場合、ロボッ
ト装置は、相手の動作をCCDカメラ20等の画像認識
手段により認識するようにする。ロボット装置の動きを
認識することは比較的困難とされるような場合には、音
階音等をその動き動作に対応して出力することにより、
そのような動き動作の意味を音階音により認識ができる
ようになり、ロボット装置間の対話を確実に実現するこ
とができるようになる。
Further, in the above-described embodiment, the case where the dialogue by the operation between the robot devices is mainly performed by the voice output operation (or the utterance operation) has been described. However, the present invention is not limited to this, and it is also possible to interact by operating a movable part such as a leg. In this case, the robot device recognizes the movement of the other party by image recognition means such as the CCD camera 20. When it is relatively difficult to recognize the motion of the robot device, by outputting a scale sound or the like corresponding to the motion,
The meaning of such a motion action can be recognized by the scale sound, and the dialogue between the robot devices can be reliably realized.

【0143】また、ロボット装置が、自律的に文章を生
成して言葉を発するようになれば、そのような文章の理
解が複雑であっても、上述したように、同時にその内容
情報を音階音として出力することにより、相手のロボッ
ト装置は、そのような複雑な文章に対応する反応を確実
にすることができるようになる。
If the robot device autonomously generates a sentence and emits a word, even if the understanding of such a sentence is complicated, as described above, the content information is simultaneously transmitted to the chromatic note. As a result, the partner robot apparatus can ensure a reaction corresponding to such a complicated sentence.

【0144】[0144]

【発明の効果】以上詳細に説明したように本発明に係る
ロボット装置は、動作部を備える移動ロボット装置にお
いて、他のロボット装置が出力する動作に含まれる情報
を検出する動作検出手段と、上記動作検出手段によって
検出された情報に基づいて上記動作部を制御する動作部
制御手段と、上記動作部によって出力された動作に基づ
く他のロボット装置の反応回数を計測する反応回数計測
手段とを備えており、上記動作部制御手段は、上記他の
ロボット装置の反応回数に応じて、上記動作部によって
動作を出力することができる。これにより、ロボット装
置は、他のロボット装置の動作に反応して動作すること
ができるようになる。
As described in detail above, the robot apparatus according to the present invention is a mobile robot apparatus having an operation unit, wherein the operation detecting means for detecting information included in the operation output by another robot apparatus; An operation unit control unit that controls the operation unit based on information detected by the operation detection unit; and a reaction number measurement unit that counts the number of reactions of another robot device based on the operation output by the operation unit. The operating unit control means can output an operation by the operating unit according to the number of times of reaction of the other robot device. Accordingly, the robot device can operate in response to the operation of another robot device.

【0145】また、本発明に係るロボット装置は、他の
ロボット装置が出力する動作に含まれる情報を検出する
動作検出手段と、動作検出手段が検出した情報に対応し
た動作を出力する動作出力手段とを備えることにより、
他のロボット装置が出力する動作に含まれる情報を動作
検出手段により検出し、動作検出手段が検出した情報に
対応した動作を動作出力手段により出力することができ
る。これにより、ロボット装置は、他のロボット装置の
動作に反応して動作することができるようになる。
Further, the robot apparatus according to the present invention has an operation detecting means for detecting information included in an operation output from another robot apparatus, and an operation output means for outputting an operation corresponding to the information detected by the operation detecting means. By having
The information included in the operation output by the other robot device can be detected by the operation detection unit, and the operation corresponding to the information detected by the operation detection unit can be output by the operation output unit. Accordingly, the robot device can operate in response to the operation of another robot device.

【0146】また、本発明に係るロボット装置の動作制
御方法は、動作部を備える移動ロボット装置の動作制御
方法であって、他のロボット装置が出力する動作に含ま
れる情報を検出する動作検出工程と、上記動作検出工程
にて検出された情報に基づいて上記動作部を制御する動
作部制御工程と、上記動作部によって出力された動作に
基づく他のロボット装置の反応回数を計測する反応回数
計測工程とを有し、上記動作部制御工程では、上記他の
ロボット装置の反応回数に応じて、上記動作部によって
動作が出力されることにより、ロボット装置は、他のロ
ボット装置の動作に反応して動作することができるよう
になる。
An operation control method for a robot apparatus according to the present invention is a method for controlling an operation of a mobile robot apparatus having an operation section, wherein an operation detecting step for detecting information included in an operation output by another robot apparatus. And an operation part control step of controlling the operation part based on the information detected in the operation detection step, and a reaction number measurement for measuring the number of reactions of another robot device based on the operation output by the operation part In the operating part control step, the operation is output by the operating part in accordance with the number of times the other robot apparatus has reacted, whereby the robot apparatus reacts to the operation of the other robot apparatus. Can work.

【0147】また、本発明に係るロボット装置の動作制
御方法は、他のロボット装置が出力する動作に含まれる
情報を検出する動作検出工程と、動作検出工程にて検出
した情報に対応した動作を一のロボット装置に出力させ
る動作出力工程とを有することにより、一のロボット装
置は、他のロボット装置の動作に反応して動作すること
ができるようになる。
Further, the operation control method for a robot device according to the present invention includes an operation detecting step for detecting information included in an operation output from another robot device, and an operation corresponding to the information detected in the operation detecting step. With the operation output step of causing one robot device to output, one robot device can operate in response to the operation of another robot device.

【0148】また、本発明に係るロボット装置の動作制
御システムは、相手のロボット装置が出力する動作に含
まれる情報を検出する動作検出手段と、動作検出手段が
検出した情報に対応した動作を出力する動作出力手段と
を備えるロボット装置を複数備えることにより、ロボッ
ト装置は、相手のロボット装置が出力する動作に含まれ
る情報を動作検出手段により検出し、動作検出手段が検
出した情報に対応した動作を動作出力手段により出力す
ることができる。これにより、ロボット装置の動作制御
システムにおいて、ロボット装置は、相手のロボット装
置の動作に反応して動作することができるようになる。
Further, the operation control system for a robot device according to the present invention includes an operation detecting means for detecting information included in an operation output from the other robot device, and an operation corresponding to the information detected by the operation detecting means. A plurality of robot devices each including an operation output unit that performs the operation, the robot device detects information included in the operation output by the other robot device by the operation detection unit, and performs an operation corresponding to the information detected by the operation detection unit. Can be output by the operation output means. Accordingly, in the operation control system of the robot device, the robot device can operate in response to the operation of the partner robot device.

【0149】また、本発明に係るロボット装置の動作制
御方法は、一のロボット装置が、所定の状態になったと
きに、所定の動作を出力する動作出力工程と、他のロボ
ット装置が、上記一のロボット装置が出力した上記所定
の動作に対応した動作を出力する反応動作出力工程とを
有することにより、ロボット装置は、相手のロボット装
置の動作に反応して動作することができるようになる。
Further, in the operation control method for a robot apparatus according to the present invention, the operation output step of outputting a predetermined operation when one robot apparatus enters a predetermined state; A reaction operation output step of outputting an operation corresponding to the predetermined operation output by the one robot device, whereby the robot device can operate in response to the operation of the other robot device .

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態であるロボット装置の外観
構成を示す斜視図である。
FIG. 1 is a perspective view illustrating an external configuration of a robot device according to an embodiment of the present invention.

【図2】上述のロボット装置の回路構成を示すブロック
図である。
FIG. 2 is a block diagram showing a circuit configuration of the robot device described above.

【図3】上述のロボット装置のソフトウェア構成を示す
ブロック図である。
FIG. 3 is a block diagram illustrating a software configuration of the robot device described above.

【図4】上述のロボット装置のソフトウェア構成におけ
るミドル・ウェア・レイヤの構成を示すブロック図であ
る。
FIG. 4 is a block diagram illustrating a configuration of a middleware layer in a software configuration of the robot device described above.

【図5】上述のロボット装置のソフトウェア構成におけ
るアプリケーション・レイヤの構成を示すブロック図で
ある。
FIG. 5 is a block diagram showing a configuration of an application layer in the software configuration of the robot device described above.

【図6】上述のアプリケーション・レイヤの行動モデル
ライブラリの構成を示すブロック図である。
FIG. 6 is a block diagram showing a configuration of the behavior model library of the application layer.

【図7】ロボット装置の行動決定のための情報となる有
限確率オートマトンを説明するために使用した図であ
る。
FIG. 7 is a diagram used to explain a finite probability automaton that is information for determining an action of the robot apparatus.

【図8】有限確率オートマトンの各ノードに用意された
状態遷移表を示す図である。
FIG. 8 is a diagram showing a state transition table prepared for each node of the finite probability automaton.

【図9】対話機能の異なるロボット装置との間で対話を
可能にするロボット装置を説明するために使用した図で
ある。
FIG. 9 is a diagram used to describe a robot device that enables a dialogue with robot devices having different interactive functions.

【図10】ロボット装置が備える音階コマンドのデータ
ベースの構成例を示す図である。
FIG. 10 is a diagram illustrating a configuration example of a musical scale command database provided in the robot apparatus.

【図11】同一の対話機能により対話を行うロボット装
置を説明するために使用した図である。
FIG. 11 is a diagram used to explain a robot device that has a dialogue with the same dialogue function.

【図12】マスター及び受け手のロボット装置が共に喜
んでいる場合の対話のやりとりを示す図である。
FIG. 12 is a diagram showing an exchange of dialogue when both the master and the recipient robot apparatuses are happy.

【図13】マスターのロボット装置が怒っており、受け
手のロボット装置が怒られている場合のやりとりを示す
図である。
FIG. 13 is a diagram illustrating an exchange when the master robot apparatus is angry and the receiver robot apparatus is angry.

【図14】マスターのロボット装置が命令を出して、受
け手のロボット装置がその命令に対応して動作する場合
の対話のやりとりを示す図である。
FIG. 14 is a diagram showing exchange of dialogues when a master robot device issues a command and a receiving robot device operates in response to the command.

【図15】感情に応じて発音を変化させる従来のロボッ
ト装置を説明するために使用した図である。
FIG. 15 is a diagram used to explain a conventional robot device that changes pronunciation according to emotion.

【図16】音階コマンド等により動作が制御される従来
のロボット装置を説明するために使用した図である。
FIG. 16 is a diagram used to explain a conventional robot device whose operation is controlled by a scale command or the like.

【符号の説明】[Explanation of symbols]

1 ロボット装置、10 CPU、14 信号処理回
路、24 スピーカ
1 robot device, 10 CPU, 14 signal processing circuit, 24 speakers

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) A63H 30/02 A63H 30/02 C B25J 5/00 B25J 5/00 C G10L 13/00 G10L 3/00 Q Fターム(参考) 2C150 CA02 DA05 DC28 DF04 DF08 DF33 DG01 DG13 DJ04 DK10 ED42 ED56 EE02 EE07 EF16 EF23 EF30 EF34 FA03 3C007 AS36 CS08 KS13 KT01 MT14 WA04 WA14 WB20 WB25 5D045 AB11 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification code FI Theme coat ゛ (Reference) A63H 30/02 A63H 30/02 C B25J 5/00 B25J 5/00 C G10L 13/00 G10L 3/00 Q F term (reference) 2C150 CA02 DA05 DC28 DF04 DF08 DF33 DG01 DG13 DJ04 DK10 ED42 ED56 EE02 EE07 EF16 EF23 EF30 EF34 FA03 3C007 AS36 CS08 KS13 KT01 MT14 WA04 WA14 WB20 WB25 5D045 AB11

Claims (40)

【特許請求の範囲】[Claims] 【請求項1】 動作部を備える移動ロボット装置におい
て、 他のロボット装置が出力する動作に含まれる情報を検出
する動作検出手段と、 上記動作検出手段によって検出された情報に基づいて上
記動作部を制御する動作部制御手段と、 上記動作部によって出力された動作に基づく他のロボッ
ト装置の反応回数を計測する反応回数計測手段とを備
え、 上記動作部制御手段は、上記他のロボット装置の反応回
数に応じて、上記動作部によって動作を出力することを
特徴とするロボット装置。
1. A mobile robot device having an operation unit, wherein: an operation detection unit for detecting information included in an operation output by another robot device; and the operation unit based on the information detected by the operation detection unit. Operating part control means for controlling; and reaction number measuring means for measuring the number of reactions of another robot device based on the operation output by the operation part. A robot device, wherein an operation is output by the operation unit according to the number of times.
【請求項2】 上記情報は、上記他のロボット装置の感
情情報であることを特徴とする請求項1記載のロボット
装置。
2. The robot apparatus according to claim 1, wherein the information is emotion information of the other robot apparatus.
【請求項3】 他のロボット装置が出力する動作に含ま
れる情報を検出する動作検出手段と、 上記動作検出手段が検出した上記情報に対応した動作を
出力する動作出力手段とを備えることを特徴とするロボ
ット装置。
3. An operation detecting means for detecting information included in an operation output by another robot device, and an operation output means for outputting an operation corresponding to the information detected by the operation detecting means. Robot device.
【請求項4】 上記情報が、上記動作の意味情報である
ことを特徴とする請求項3記載のロボット装置。
4. The robot apparatus according to claim 3, wherein the information is semantic information of the operation.
【請求項5】 上記出力される動作が、音信号の出力動
作であることを特徴とする請求項3記載のロボット装
置。
5. The robot apparatus according to claim 3, wherein the output operation is an output operation of a sound signal.
【請求項6】 外部環境及び/又は内部状態に基づいて
感情を変化させ、上記感情に基づいて自律動作をするこ
とを特徴とする請求項3記載のロボット装置。
6. The robot apparatus according to claim 3, wherein an emotion is changed based on an external environment and / or an internal state, and the robot apparatus performs an autonomous operation based on the emotion.
【請求項7】 上記他のロボット装置が、外部環境及び
/又は内部状態に基づいて感情を変化させ、自己の感情
を上記動作に表出させて出力しており、 上記動作検出手段は、上記動作に表出される感情を上記
情報として検出することを特徴とする請求項3記載のロ
ボット装置。
7. The another robot apparatus changes an emotion based on an external environment and / or an internal state, and expresses and outputs its own emotion in the operation. 4. The robot apparatus according to claim 3, wherein an emotion expressed in the motion is detected as the information.
【請求項8】 上記他のロボット装置との間で情報を送
受信する通信手段を備えることを特徴とする請求項3記
載のロボット装置。
8. The robot apparatus according to claim 3, further comprising communication means for transmitting and receiving information to and from the other robot apparatus.
【請求項9】 上記通信手段により、上記動作出力手段
が出力する動作に対応して、上記動作の意味情報を送信
することを特徴とする請求項8記載のロボット装置。
9. The robot apparatus according to claim 8, wherein the communication means transmits semantic information of the operation in response to the operation output by the operation output means.
【請求項10】 上記他のロボット装置が検出可能な上
記意味情報をデータベースとして保持しており、 上記通信手段により、上記意味情報を、上記動作出力手
段が出力する動作に対応させて送信することを特徴とす
る請求項9記載のロボット装置。
10. The method according to claim 1, wherein the semantic information that can be detected by the other robot device is stored as a database, and the semantic information is transmitted by the communication unit in correspondence with the operation output by the operation output unit. The robot device according to claim 9, wherein:
【請求項11】 上記他のロボット装置が出力する動作
に対応して、上記他のロボット装置が送信する上記動作
の意味情報を上記通信手段により受信して、上記動作検
出手段は、上記通信手段が受信した上記意味情報を、上
記動作に含まれる情報として検出することを特徴とする
請求項8記載のロボット装置。
11. The communication means receives, by the communication means, semantic information of the operation transmitted by the other robot apparatus in response to the operation output by the other robot apparatus. The robot apparatus according to claim 8, wherein the semantic information received by the is detected as information included in the operation.
【請求項12】 上記他のロボット装置が送信する上記
意味情報をデータベースとして保持しており、 上記動作検出手段は、上記通信手段が受信した信号から
上記データベースに基づいて上記意味内容を選択し、選
択した意味情報を上記動作に含まれる情報として検出す
ることを特徴とする請求項11記載のロボット装置。
12. The semantic information transmitted by the other robot device is stored as a database, and the operation detecting means selects the semantic content from the signal received by the communication means based on the database, The robot apparatus according to claim 11, wherein the selected semantic information is detected as information included in the operation.
【請求項13】 上記通信手段は、音階音により通信を
行うことを特徴とする請求項8記載のロボット装置。
13. The robot apparatus according to claim 8, wherein said communication means performs communication using scale sounds.
【請求項14】 上記通信手段は、赤外線信号により通
信を行うことを特徴とする請求項8記載のロボット装
置。
14. The robot apparatus according to claim 8, wherein said communication means performs communication by an infrared signal.
【請求項15】 上記動作出力手段は、所定の状態にな
ったときに、所定の動作を出力することを特徴とする請
求項3記載のロボット装置。
15. The robot apparatus according to claim 3, wherein said operation output means outputs a predetermined operation when a predetermined state is reached.
【請求項16】 外部環境及び/又は内部状態に基づい
て感情を変化させており、 上記動作出力手段は、上記所定の状態とされる所定の感
情レベルになったとき、その感情を動作に表出させて出
力することを特徴とする請求項15記載のロボット装
置。
16. The apparatus according to claim 1, wherein the emotion is changed based on an external environment and / or an internal state, and the operation output means displays the emotion in the operation when the predetermined emotion level is reached. 16. The robot apparatus according to claim 15, wherein the robot apparatus outputs the output.
【請求項17】 上記所定の状態として上記他のロボッ
ト装置の存在を検出したときに、上記所定の動作を出力
することを特徴とする請求項15記載のロボット装置。
17. The robot device according to claim 15, wherein the predetermined operation is output when the presence of the other robot device is detected as the predetermined state.
【請求項18】 上記動作検出手段は、上記他のロボッ
ト装置が所定の状態になったときに出力する動作に含ま
れる情報を検出することを特徴とする請求項3記載のロ
ボット装置。
18. The robot apparatus according to claim 3, wherein the operation detecting means detects information included in an operation output when the other robot apparatus enters a predetermined state.
【請求項19】 上記動作出力手段は、上記動作検出手
段が検出した上記情報に対応して、上記他のロボット装
置に動作を発生させた先行の動作を変調して出力するこ
とを特徴とする請求項3記載のロボット装置。
19. The motion output means according to the information detected by the motion detection means, modulates and outputs a preceding motion that has caused the other robot device to perform a motion. The robot device according to claim 3.
【請求項20】 上記先行する動作が、音階音の出力動
作であり、 上記動作出力手段は、上記音階音を変調して出力するこ
とを特徴とする請求項19記載のロボット装置。
20. The robot apparatus according to claim 19, wherein the preceding operation is an operation of outputting a scale sound, and the operation output means modulates and outputs the scale sound.
【請求項21】 動作部を備える移動ロボット装置の動
作制御方法であって、 他のロボット装置が出力する動作に含まれる情報を検出
する動作検出工程と、 上記動作検出工程にて検出された情報に基づいて上記動
作部を制御する動作部制御工程と、 上記動作部によって出力された動作に基づく他のロボッ
ト装置の反応回数を計測する反応回数計測工程とを有
し、 上記動作部制御工程では、上記他のロボット装置の反応
回数に応じて、上記動作部によって動作が出力されるこ
とを特徴とするロボット装置の動作制御方法。
21. An operation control method for a mobile robot device having an operation unit, comprising: an operation detection step of detecting information included in an operation output by another robot apparatus; and information detected in the operation detection step. An operation part control step of controlling the operation part based on the operation part, and a reaction number measurement step of measuring the number of times of reaction of another robot device based on the operation output by the operation part, wherein the operation part control step An operation control method for a robot device, wherein an operation is output by the operation unit according to the number of times of reaction of the other robot device.
【請求項22】 上記情報は、上記他のロボット装置の
感情情報であることを特徴とする請求項21記載のロボ
ット装置の動作制御方法。
22. The method according to claim 21, wherein the information is emotion information of the other robot device.
【請求項23】 他のロボット装置が出力する動作に含
まれる情報を検出する動作検出工程と、 上記動作検出工程にて検出した上記情報に対応した動作
を一のロボット装置に出力させる動作出力工程とを有す
ることを特徴とするロボット装置の動作制御方法。
23. An operation detecting step of detecting information included in an operation output by another robot apparatus, and an operation output step of outputting an operation corresponding to the information detected in the operation detecting step to one robot apparatus. An operation control method for a robot apparatus, comprising:
【請求項24】 上記情報が、上記動作の意味情報であ
ることを特徴とする請求項23記載のロボット装置の動
作制御方法。
24. The method according to claim 23, wherein the information is semantic information of the operation.
【請求項25】 上記出力される動作が、音信号の出力
動作であることを特徴とする請求項23記載のロボット
装置の動作制御方法。
25. The operation control method for a robot device according to claim 23, wherein the output operation is an output operation of a sound signal.
【請求項26】 上記動作出力工程にて出力する動作に
対応して、上記動作の意味情報を送信する送信工程を有
することを特徴とする請求項23記載のロボット装置の
動作制御方法。
26. The method according to claim 23, further comprising a transmitting step of transmitting semantic information of the operation corresponding to the operation output in the operation output step.
【請求項27】 上記他のロボット装置が出力する動作
に対応して、上記他のロボット装置が送信する上記動作
の意味情報を受信する受信工程を有し、 上記動作検出工程では、上記受信工程にて受信した上記
意味情報を、上記動作に含まれる情報として検出するこ
とを特徴とする請求項23記載のロボット装置の動作制
御方法。
27. A receiving step of receiving the semantic information of the operation transmitted by the other robot apparatus in response to the operation output by the other robot apparatus. 24. The operation control method for a robot device according to claim 23, wherein the semantic information received in step (a) is detected as information included in the operation.
【請求項28】 相手のロボット装置の動作に対応した
動作を示す複数のロボット装置の動作制御システムであ
って、 上記相手のロボット装置が出力する動作に含まれる情報
を検出する動作検出手段と、 上記動作検出手段が検出した上記情報に対応した動作を
出力する動作出力手段とを備えるロボット装置を複数備
えることを特徴とするロボット装置の動作制御システ
ム。
28. An operation control system for a plurality of robotic devices, which shows an operation corresponding to an operation of a partner robotic device, comprising: an operation detecting means for detecting information included in the operation output by the partner robotic device; An operation control system for a robot device, comprising: a plurality of robot devices each including an operation output unit that outputs an operation corresponding to the information detected by the operation detection unit.
【請求項29】 上記情報が、上記動作の意味情報であ
ることを特徴とする請求項28記載のロボット装置の動
作制御システム。
29. The operation control system according to claim 28, wherein the information is semantic information of the operation.
【請求項30】 上記動作出力手段は、所定の状態にな
ったときに、所定の動作を出力しており、 一のロボット装置が、所定の状態になったときに、所定
の動作を上記動作出力手段により出力し、 他のロボット装置が、上記一のロボット装置が出力した
上記所定の動作に対応した動作を出力することを特徴と
する請求項28記載のロボット装置の動作制御システ
ム。
30. The operation output means outputs a predetermined operation when the robot enters a predetermined state, and executes a predetermined operation when one robot apparatus enters a predetermined state. 29. The operation control system for a robot device according to claim 28, wherein the output is performed by an output unit, and another robot device outputs an operation corresponding to the predetermined operation output by the one robot device.
【請求項31】 上記ロボット装置が、外部環境及び/
又は内部状態に基づいて感情を変化させており、 上記動作出力手段は、上記所定の状態とされる所定の感
情レベルになったとき、その感情を動作に表出させて出
力することを特徴とする請求項30記載のロボット装置
の動作制御システム。
31. The method according to claim 31, wherein the robot device is provided in an external environment and / or
Or, the emotion is changed based on the internal state, and the operation output means, when the predetermined emotion level is set to the predetermined state, expresses the emotion in an operation and outputs the motion. 31. The operation control system for a robot device according to claim 30, wherein
【請求項32】 上記所定の状態として他のロボット装
置の存在を検出したときに、上記所定の動作を出力する
ことを特徴とする請求項30記載のロボット装置の動作
制御システム。
32. The operation control system for a robot device according to claim 30, wherein when the presence of another robot device is detected as the predetermined state, the predetermined operation is output.
【請求項33】 上記動作が、音信号の出力動作である
ことを特徴とする請求項28記載のロボット装置の動作
制御システム。
33. The operation control system according to claim 28, wherein the operation is a sound signal output operation.
【請求項34】 上記動作出力手段は、上記動作検出手
段が検出した上記情報に対応して、上記相手のロボット
装置に動作を発生させた先行の動作を変調して出力する
ことを特徴とする請求項28記載のロボット装置の動作
制御システム。
34. The motion output means according to the information detected by the motion detection means, modulates and outputs a preceding motion that caused the other robot device to perform a motion. An operation control system for a robot device according to claim 28.
【請求項35】 上記ロボット装置が、相手のロボット
装置との間で情報を送受信する通信手段を備えており、 一のロボット装置が、上記通信手段により、上記動作出
力手段が出力する動作に対応して、上記動作の意味情報
を送信し、 他のロボット装置が、上記通信手段により上記意味情報
を受信して、上記動作検出手段により、上記意味情報
を、上記動作に含まれる情報として検出することを特徴
とする請求項28記載のロボット装置の動作制御システ
ム。
35. The robot apparatus further comprises communication means for transmitting / receiving information to / from a partner robot apparatus, wherein one robot apparatus responds to the operation output from the operation output means by the communication means. Then, the semantic information of the operation is transmitted, and the other robot device receives the semantic information by the communication unit, and detects the semantic information as information included in the operation by the operation detecting unit. 29. The operation control system for a robot device according to claim 28, wherein:
【請求項36】 上記通信手段は、音階音により通信を
行うことを特徴とする請求項35記載のロボット装置の
動作制御システム。
36. The operation control system for a robot device according to claim 35, wherein said communication means performs communication by using scale sounds.
【請求項37】 上記通信手段は、赤外線信号により通
信を行うことを特徴とする請求項35記載のロボット装
置の動作制御システム。
37. The operation control system for a robot device according to claim 35, wherein said communication means performs communication by an infrared signal.
【請求項38】 相手のロボット装置の動作に対応して
ロボット装置の動作を制御するロボット装置の動作制御
方法であって、 一のロボット装置が、所定の状態になったときに、所定
の動作を出力する動作出力工程と、 他のロボット装置が、上記一のロボット装置が出力した
上記所定の動作に対応した動作を出力する反応動作出力
工程とを有することを特徴とするロボット装置の動作制
御方法。
38. A method of controlling the operation of a robot apparatus in accordance with the operation of a partner robot apparatus, the method comprising the steps of: performing a predetermined operation when one robot apparatus enters a predetermined state; An operation output step of outputting a motion corresponding to the predetermined operation output by the one robot apparatus. Method.
【請求項39】 上記情報が、上記動作の意味情報であ
ることを特徴とする請求項38記載のロボット装置の動
作制御方法。
39. The method according to claim 38, wherein the information is semantic information of the operation.
【請求項40】 上記一のロボット装置が、外部環境及
び/又は内部状態に基づいて感情を変化させており、 上記一のロボット装置が、上記所定の状態とされる所定
の感情レベルになったとき、その感情を動作に表出させ
て出力することを特徴とする請求項38記載のロボット
装置の動作制御方法。
40. The one robot apparatus changes an emotion based on an external environment and / or an internal state, and the one robot apparatus reaches a predetermined emotion level in the predetermined state. 39. The operation control method for a robot device according to claim 38, wherein at that time, the emotion is expressed as an operation and output.
JP2001373188A 2000-12-06 2001-12-06 Robot device, and action control method and system of robot device Withdrawn JP2002239962A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001373188A JP2002239962A (en) 2000-12-06 2001-12-06 Robot device, and action control method and system of robot device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000372092 2000-12-06
JP2000-372092 2000-12-06
JP2001373188A JP2002239962A (en) 2000-12-06 2001-12-06 Robot device, and action control method and system of robot device

Publications (1)

Publication Number Publication Date
JP2002239962A true JP2002239962A (en) 2002-08-28

Family

ID=26605381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001373188A Withdrawn JP2002239962A (en) 2000-12-06 2001-12-06 Robot device, and action control method and system of robot device

Country Status (1)

Country Link
JP (1) JP2002239962A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006110707A (en) * 2004-09-14 2006-04-27 Sony Corp Robot device
US7689322B2 (en) 2004-06-07 2010-03-30 Sony Corporation Robot apparatus and method of controlling the motion thereof
WO2018088002A1 (en) * 2016-11-08 2018-05-17 シャープ株式会社 Audio adjusting device, control program, electronic apparatus, and method for controlling audio adjusting device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7689322B2 (en) 2004-06-07 2010-03-30 Sony Corporation Robot apparatus and method of controlling the motion thereof
JP2006110707A (en) * 2004-09-14 2006-04-27 Sony Corp Robot device
WO2018088002A1 (en) * 2016-11-08 2018-05-17 シャープ株式会社 Audio adjusting device, control program, electronic apparatus, and method for controlling audio adjusting device
CN109891501A (en) * 2016-11-08 2019-06-14 夏普株式会社 Voice adjusts the control method of device, control program, electronic equipment and voice adjustment device

Similar Documents

Publication Publication Date Title
KR100843822B1 (en) Robot device, method for controlling motion of robot device, and system for controlling motion of robot device
US7251606B2 (en) Robot device with changing dialogue and control method therefor and storage medium
JP4048492B2 (en) Spoken dialogue apparatus and method, and robot apparatus
JP4150198B2 (en) Speech synthesis method, speech synthesis apparatus, program and recording medium, and robot apparatus
KR100906136B1 (en) Information processing robot
US7216082B2 (en) Action teaching apparatus and action teaching method for robot system, and storage medium
WO2002091356A1 (en) Obot device, character recognizing apparatus and character reading method, and control program and recording medium
JP2003039363A (en) Robot device, action learning method therefor, action learning program thereof, and program recording medium
JP2003036090A (en) Method and apparatus for synthesizing voice, and robot apparatus
JP2003271174A (en) Speech synthesis method, speech synthesis device, program, recording medium, method and apparatus for generating constraint information and robot apparatus
JP2002351305A (en) Robot for language training
Kibria Speech recognition for robotic control
JP4433273B2 (en) Robot apparatus and control method of robot apparatus
JP2002219677A (en) Robot system, and method of controlling behavior of robot system
KR20020067694A (en) Robot apparatus and robot apparatus motion control method
JP2002239962A (en) Robot device, and action control method and system of robot device
JP2002307349A (en) Robot device, information learning method, and program and recording medium
JP2004283927A (en) Robot control device, and method, recording medium and program
JP2003271172A (en) Method and apparatus for voice synthesis, program, recording medium and robot apparatus
JP7156300B2 (en) Information processing device, information processing method, and program
JP2002175091A (en) Speech synthesis method and apparatus and robot apparatus
JP2002187083A (en) Robot device and method for controlling operation thereof
JP2002331481A (en) Robot device, operation preparation device and method, control program and recording medium
JP2002269530A (en) Robot, behavior control method of the robot, program and storage medium
CN117953902A (en) Man-machine interaction method, device and equipment

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050301