JP2001191279A - Behavior control system, behavior controlling method, and robot device - Google Patents

Behavior control system, behavior controlling method, and robot device

Info

Publication number
JP2001191279A
JP2001191279A JP37535299A JP37535299A JP2001191279A JP 2001191279 A JP2001191279 A JP 2001191279A JP 37535299 A JP37535299 A JP 37535299A JP 37535299 A JP37535299 A JP 37535299A JP 2001191279 A JP2001191279 A JP 2001191279A
Authority
JP
Japan
Prior art keywords
robot
command
action
behavior
robot device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP37535299A
Other languages
Japanese (ja)
Inventor
Kotaro Sabe
浩太郎 佐部
Rika Hasegawa
里香 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP37535299A priority Critical patent/JP2001191279A/en
Publication of JP2001191279A publication Critical patent/JP2001191279A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To easily realize cooperative behaviors of a plurality of robot devices. SOLUTION: This behavior control system is provided with a plurality of robot devices 1a, 1b, 1c deciding their behavior independently and a personal computer 33 serving as an external client for controlling behavior of the robot devices 1a, 1b, 1c. The personal computer 33 sends commands synchronously to the robot devices 1a, 1b, 1c respectively.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、複数のロボット装
置の行動を管理する行動管理システム及び行動管理方
法、並びに自主的に行動を決定する自律型のロボット装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a behavior management system and a behavior management method for managing the behaviors of a plurality of robots, and to an autonomous robot that autonomously determines the behavior.

【0002】[0002]

【従来の技術】従来、ユーザからの指令や周囲の環境に
応じて自主的に行動を決定する自律型のロボット装置の
提案及び開発がなされている。例えば、この種のロボッ
ト装置は、犬や猫のように多関節の四足動物によく似た
形状とされ、行動するための行動パターンに基づいて自
律的に自己が行動を決定している。具体的には、ロボッ
ト装置は、ユーザから「ふせ」という音声命令を受け取
ると「伏せ」の姿勢を取ったり、自分の口の前にユーザ
が手を差し出す動作に応じて「お手」をするようになさ
れている。
2. Description of the Related Art Conventionally, there has been proposed and developed an autonomous robot apparatus which autonomously determines an action in response to a command from a user or a surrounding environment. For example, this type of robot device has a shape very similar to a multi-articulated quadruped such as a dog or a cat, and determines its own action autonomously based on an action pattern for action. Specifically, when the robot apparatus receives a voice command “push” from the user, the robot apparatus takes a “down” posture or “hands” in accordance with an operation in which the user puts his hand in front of his / her mouth. It has been made like that.

【0003】[0003]

【発明が解決しようとする課題】ところで、近年、コマ
ンド装置(リモートコントローラ)により、任意の命令
の実行が可能なロボット装置が提案されている。例え
ば、コマンド装置から出力される音階コマンドに応じて
所定の動作をするようなロボット装置がある。これによ
り、ユーザは、自律型のロボット装置として遊ぶ以外に
も自律行動の際には発現しない面白い行動を音階コマン
ドによって呼び出して鑑賞することができる。このよう
に、からくり人形のようにプリプログラムされた行動を
呼び出して鑑賞して楽しむというニーズが存在してお
り、そのような技術の提案及び開発がなされている。
Recently, there has been proposed a robot device capable of executing an arbitrary command by using a command device (remote controller). For example, there is a robot device that performs a predetermined operation according to a scale command output from a command device. Thus, the user can call and enjoy an interesting action that does not appear during the autonomous action other than playing as an autonomous robot apparatus by using the musical scale command. As described above, there is a need to call, watch, and enjoy a preprogrammed action like a karakuri doll, and such techniques have been proposed and developed.

【0004】さらに、複数のロボット装置に協調行動さ
せたいとするニーズもある。複数のロボット装置の協調
行動により、1つのロボット装置が1つの行動(芸)を
する場合とは異なり、複数のロボット装置があたかも連
動しているかのように見せることができる。このような
複数のロボット装置による協調行動は、ユーザの鑑賞の
楽しみを広げるといえる。
[0004] Further, there is a need to make a plurality of robot apparatuses cooperate. Unlike the case where one robot device performs one action (trick), the cooperative behavior of a plurality of robot devices can make it appear as if the plurality of robot devices are linked. It can be said that such a cooperative action by a plurality of robot devices broadens the enjoyment of appreciation of the user.

【0005】このような複数のロボット装置による協調
行動は、各ロボット装置毎に予めプリプログラムし、異
なる一連の行動パターンを複数のロボット装置で連動さ
せることにより可能になるが、以下のような問題が発生
する。
[0005] Such a cooperative action by a plurality of robot devices can be realized by pre-programming each robot device in advance and linking a series of different action patterns by the plurality of robot devices. Occurs.

【0006】綿密な時間計画を立てた上に同時に行動を
開始する必要がある。すなわち、各行動に要する時間を
知らなくてはいけない上に同期させるためのタイムテー
ブルを綿密に計画しなくてはならない。
[0006] It is necessary to set a careful time plan and start the action at the same time. That is, it is necessary to know the time required for each action, and to carefully plan a timetable for synchronizing.

【0007】多関節のロボット装置の場合、異なる行動
パターンをとるということは異なる姿勢を経なければな
らない。複数のロボット装置にある行動を同時に発現さ
せたい場合には、直前の姿勢によってその行動を起こせ
る姿勢まで推移する必要があるが、当然その推移に要す
る時間も知らなくてはならなく、行動計画の設計も複雑
になる。
In the case of a multi-joint robot device, different behavior patterns require different postures. If it is desired to cause a plurality of robot devices to simultaneously exhibit an action, it is necessary to change the posture to the position where the action can be performed according to the immediately preceding posture. The design is also complicated.

【0008】また、多種の協調行動(多種の行動パター
ン)をさせたい場合、その分だけ各行動パターン毎にロ
ボット装置のプログラム或いはデータを変更する作業が
必要になる。
Further, when it is desired to perform various kinds of cooperative actions (various action patterns), it is necessary to change the program or data of the robot apparatus for each action pattern.

【0009】また、協調行動の開始時間を揃えるのも困
難であるが、一旦開始した後に何らかの要因で行動がず
れてしまった時には最後までずれたままになってしま
う。
[0009] It is also difficult to make the start times of the cooperative actions uniform, but if the actions are shifted for some reason after starting once, they will remain shifted to the end.

【0010】そこで、本発明は、上述の実情に鑑みてな
されたものであり、複数のロボット装置の協調行動を容
易に実行させることが可能な行動管理システム、行動管
理方法及びロボット装置の提供を目的としている。
The present invention has been made in view of the above circumstances, and provides a behavior management system, a behavior management method, and a robot device capable of easily executing a cooperative behavior of a plurality of robot devices. The purpose is.

【0011】[0011]

【課題を解決するための手段】本発明に係る行動管理シ
ステムは、上述の課題を解決するために、自主的に行動
を決定する自律型のロボット装置に、外部から入力され
てくるコマンドにより行動を決定する機能を備えて、こ
の自律型のロボット装置の行動を管理する行動管理シス
テムであって、複数のロボット装置に、コマンドを同期
して送出する行動管理手段を備える。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, an action management system according to the present invention provides an autonomous robot apparatus which independently determines an action by using an externally input command. And a behavior management system that manages the behavior of the autonomous robot device and has a behavior management unit that synchronously sends commands to a plurality of robot devices.

【0012】このような構成を備えた行動管理システム
により、複数のロボット装置は、同期した送られてきた
コマンドを実行するので、結果として、複数のロボット
装置の行動が協調行動となる。
According to the behavior management system having such a configuration, a plurality of robot devices execute a synchronously transmitted command, and as a result, the behavior of the plurality of robot devices becomes a cooperative behavior.

【0013】また、本発明に係る行動管理方法は、上述
の課題を解決するために、自主的に行動を決定する自律
型のロボット装置に、外部から入力されてくるコマンド
により行動を決定する機能を備えて、この自律型のロボ
ット装置の行動を管理する行動管理方法であって、複数
の上記ロボット装置に、コマンドを同期して送出する。
Further, in order to solve the above-mentioned problems, the behavior management method according to the present invention has a function of determining an action by a command input from the outside to an autonomous robot apparatus which independently determines an action. A behavior management method for managing the behavior of the autonomous robot device, wherein the command is synchronously transmitted to the plurality of robot devices.

【0014】この行動管理方法により、複数のロボット
装置は、同期した送られてきたコマンドを実行するの
で、結果として、複数のロボット装置の行動が協調行動
となる。
According to this behavior management method, a plurality of robot devices execute a synchronously transmitted command, and as a result, the behavior of the plurality of robot devices becomes a cooperative behavior.

【0015】また、本発明に係るロボット装置は、上述
の課題を解決するために、自主的に行動を決定する自律
型のロボット装置であって、他の複数のロボット装置
に、コマンドを同期して送出する行動管理手段を備え
る。
Further, a robot apparatus according to the present invention is an autonomous robot apparatus for autonomously determining an action in order to solve the above-mentioned problem, and synchronizes a command with another plurality of robot apparatuses. And a behavior management means for sending out.

【0016】このような構成を備えたロボット装置によ
り、他の複数のロボット装置は、同期した送られてきた
コマンドを実行するので、結果として、複数のロボット
装置の行動が協調行動となる。
With the robot device having such a configuration, the other plurality of robot devices execute the synchronously transmitted command, and as a result, the actions of the plurality of robot devices become cooperative actions.

【0017】[0017]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を用いて詳しく説明する。この実施の形態は、本
発明を、自主的に行動を決定する自律型のロボット装置
装置の行動を管理する行動管理システムに適用したもの
である。この行動管理システムは、複数のロボット装置
に協調行動をさせることができるように構成されてい
る。
Embodiments of the present invention will be described below in detail with reference to the drawings. In this embodiment, the present invention is applied to a behavior management system that manages the behavior of an autonomous robot apparatus that determines behavior independently. This behavior management system is configured to allow a plurality of robot devices to perform cooperative behavior.

【0018】この行動管理システムにより行動が管理さ
れるロボット装置は、図1に示すように、移動のため駆
動される脚部2a,2b,2c,2d、CCD(Charge
Coupled Device)ビデオカメラなどが収容された頭部3
及び胴体4等から構成されている。また、このロボット
装置1は、内部回路として、図2に示すように、少なく
とも、制御手段であるCPU15、各種情報を記憶する
データ記憶部13を備えている。データ記憶部13とし
ては、例えば、DRAM(Dynamic Random Access Memor
y)、フラッシュROM(Read Only Memory)或いはいわゆ
るメモリースティック等の情報記憶手段が挙げられる。
さらに、ロボット装置1は、図1及び図2に示すよう
に、データを記憶しておくためのメモリカードやデータ
を無線により送受信するため無線LANカード等である
PCカード200を装着するためのPCカードスロット
(PCカードI/F)14を備えている。
As shown in FIG. 1, the robot device whose behavior is managed by this behavior management system has legs 2a, 2b, 2c, 2d driven for movement and a CCD (Charge).
Coupled Device) Head 3 with video camera etc.
And the body 4 and the like. As shown in FIG. 2, the robot apparatus 1 includes at least a CPU 15 as a control unit and a data storage unit 13 for storing various information, as shown in FIG. The data storage unit 13 includes, for example, a dynamic random access memory (DRAM).
y), information storage means such as a flash ROM (Read Only Memory) or a so-called memory stick.
Further, as shown in FIGS. 1 and 2, the robot apparatus 1 has a PC for mounting a PC card 200 such as a memory card for storing data or a wireless LAN card for transmitting and receiving data wirelessly. A card slot (PC card I / F) 14 is provided.

【0019】このロボット装置1は、外的要因又は内的
要因に基づいて、自身の行動を決定するプログラムによ
り、行動し、感情を変化させることができる。ここで、
自身の行動を決定するプログラムは、行動モデルや感情
モデルにより構築されている。具体的には、ロボット装
置1は、各種センサからの入力に対応して、自身の行動
を決定するプログラムに基づいて、自律的に行動するよ
うになされている。例えば、ロボット装置1は、図3に
示すように、ユーザが「おて」というと、前脚2aをユ
ーザの手300にのせる「お手」の動作をする。
The robot device 1 can act and change emotions by a program that determines its own behavior based on an external factor or an internal factor. here,
A program for determining one's own behavior is constructed by a behavior model and an emotion model. Specifically, the robot apparatus 1 is configured to act autonomously based on a program for determining its own action in response to inputs from various sensors. For example, as shown in FIG. 3, the robot apparatus 1 performs a “hand” operation of placing the front leg 2 a on the user's hand 300 when the user says “hand”.

【0020】また、ロボット装置1は、PCカードスロ
ット14に装着されたPCカード(メモリカード)20
0に所定のデータを書き込むことができる。また、ロボ
ット装置1は、無線通信用のPCカード(無線LANカ
ード)200により、外部機器であるパーソナルコンピ
ュータ等との間でデータ通信を行うことができる。ロボ
ット装置1は、このような無線通信機能により外部クラ
イアントとされるパーソナルコンピュータとの間でデー
タ通信を行い、他のロボット装置と同期して協調行動を
することができる。
The robot apparatus 1 includes a PC card (memory card) 20 inserted in the PC card slot 14.
Predetermined data can be written to 0. The robot device 1 can perform data communication with an external device such as a personal computer using a PC card (wireless LAN card) 200 for wireless communication. The robot apparatus 1 performs data communication with a personal computer, which is an external client, by such a wireless communication function, and can perform a cooperative action in synchronization with another robot apparatus.

【0021】このように構成されたロボット装置1は、
次のように、行動管理システム上においてその行動が管
理されている。
The robot apparatus 1 configured as described above has
The behavior is managed on the behavior management system as follows.

【0022】行動管理システムは、図4に示すように、
第1乃至第3のロボット装置1a,1b,1cの行動を
管理するパーソナルコンピュータと、パーソナルコンピ
ュータ33と複数のロボット装置1a,1b,1cとの
間のデータ通信を可能にする中継器34とを備えてい
る。
The behavior management system, as shown in FIG.
A personal computer that manages the behavior of the first to third robot devices 1a, 1b, 1c, and a relay device 34 that enables data communication between the personal computer 33 and the plurality of robot devices 1a, 1b, 1c. Have.

【0023】パーソナルコンピュータ33と中継器34
とは、ローカルエリアネットワーク(LAN)に接続さ
れており、例えば、中継器34はいわゆるアクセスポイ
ントをなす。なお、ローカルエリアネットワークには、
他の機器として、例えば、ワークステーション(WS)
が接続されていてもよい。
Personal computer 33 and repeater 34
Is connected to a local area network (LAN). For example, the repeater 34 forms a so-called access point. The local area network has
As other devices, for example, a workstation (WS)
May be connected.

【0024】また、ローカルエリアネットワークにおけ
るロボット装置1a,1b,1cとのデータ通信プロト
コルは、パーソナルコンピュータ33と図示しないワー
クステーションとの間のネットワーク通信に使用され、
インターネット通信に一般的に使用されているTCP/
IP(Transmission Control Protocol/Internet Proro
col)を用いるものとする。すなわち、行動管理システ
ムでは、既存のネットワーク通信方式を採用して、複数
のロボット装置1a,1b,1cの行動を管理するよう
に構築されている。
The data communication protocol with the robot devices 1a, 1b, 1c in the local area network is used for network communication between the personal computer 33 and a workstation (not shown).
TCP / commonly used for Internet communications
IP (Transmission Control Protocol / Internet Proro
col) shall be used. That is, the behavior management system employs an existing network communication method and is configured to manage the behavior of the plurality of robot devices 1a, 1b, 1c.

【0025】図4に示す行動管理システムでは、第1乃
至第3のロボット装置1a,1b,1cの3台の行動が
管理される場合について述べているが、これに限定され
るものではない。すなわち、本発明が適用された行動管
理システムは、少なくとも2台のロボット装置の行動を
管理することができる。
Although the behavior management system shown in FIG. 4 describes a case where three behaviors of the first to third robot apparatuses 1a, 1b, 1c are managed, the present invention is not limited to this. That is, the behavior management system to which the present invention is applied can manage the behavior of at least two robot devices.

【0026】このような行動管理システムにより、中継
器34を介して送られてくるパーソナルコンピュータ3
3からの同期して送られてくるコマンドに基づいて、各
ロボット装置1a,1b,1cが行動を起こす。よっ
て、複数のロボット装置1a,1b,1cには、同時期
にパーソナルコンピュータ33からコマンドが送られて
くることから、ロボット装置1a,1b,1cの全体と
しての行動は協調行動として発現される。
With such an action management system, the personal computer 3 sent via the repeater 34
Each of the robot devices 1a, 1b, and 1c performs an action based on a command transmitted in synchronization with the robot device 1. Therefore, since commands are sent from the personal computer 33 to the plurality of robot devices 1a, 1b, 1c at the same time, the overall behavior of the robot devices 1a, 1b, 1c is expressed as a cooperative behavior.

【0027】このように行動管理システムは、複数のロ
ボット装置1a,1b,1cに対してコマンドを同期し
て送出することだけで当該ロボット装置1a,1b,1
cが協調行動をするようになることから、各ロボット装
置の行動の時間管理を意識することなく、そのような協
調行動が実現されたことになる。
As described above, the behavior management system merely transmits commands to the plurality of robot devices 1a, 1b, 1c in synchronization with each other, and only transmits the commands to the robot devices 1a, 1b, 1c.
Since c performs cooperative action, such cooperative action is realized without being conscious of time management of the action of each robot device.

【0028】また、例えば、パーソナルコンピュータ3
3からのコマンドの内容(動作の内容)は各ロボット装
置毎に異なるものでもよく、同一のものでもよい。これ
により、各ロボット装置1a,1b,1cは、それぞれ
同じ動作により協調行動を起こさせたり、それぞれ異な
る動作により協調行動を起こさせたりすることができ
る。また、複数のロボット装置1a,1b,1cの行動
を一括制御する外部クライアントが共通のパーソナルコ
ンピュータ33であることから、行動パターンを1台の
パーソナルコンピュータ33で編集できる。また、外部
クライアントにより複数のロボット装置1a,1b,1
cの行動を管理していることから、行動が管理される複
数のロボット装置1a,1b,1c間ではプログラムや
データをまったく同じにしながら、協調行動を可能にす
ることができる。
Further, for example, the personal computer 3
The content of the command (the content of the operation) from 3 may be different for each robot device or may be the same. Thereby, each of the robot devices 1a, 1b, and 1c can cause a cooperative action by the same operation or cause a cooperative action by a different operation. Further, since the external client that collectively controls the actions of the plurality of robot apparatuses 1a, 1b, and 1c is the common personal computer 33, the action pattern can be edited by one personal computer 33. In addition, a plurality of robot apparatuses 1a, 1b, 1
Since the behavior of c is managed, a cooperative behavior can be enabled between the plurality of robot apparatuses 1a, 1b, and 1c whose behaviors are managed, while making the programs and data identical.

【0029】次に、複数のロボット装置1a,1b,1
cが、行動管理システムにおいてその行動の同期がとら
れて、全体として協調行動を行う場合について具体的に
説明する。
Next, a plurality of robot apparatuses 1a, 1b, 1
A specific description will be given of a case where the action c is synchronized in the action management system and performs a cooperative action as a whole.

【0030】パーソナルコンピュータ33は、中継器3
4を介してコマンドを各ロボット装置1a,1b,1c
に同期して送信して当該各ロボット装置1a,1b,1
cに協調行動をさせているが、具体的には、コマンド
は、パーソナルコンピュータ33が保持するロボット制
御スクリプト(台本)RS内に各ロボット装置に対応さ
れて書き込まれている。具体的には、パーソナルコンピ
ュータ33は、所定の規定により作製されたロボット制
御スクリプトRSによりコマンドを対応されるロボット
装置に送っている。ロボット制御スクリプトRSは、各
ロボット装置1a,1b,1cへのコマンドの送出タイ
ミングの制御や、各ロボット装置の行動の終了タイミン
グを検出可能とするような情報から構成されている。
The personal computer 33 includes the repeater 3
4 through the robot device 1a, 1b, 1c.
Is transmitted in synchronization with the robot device 1a, 1b, 1
Although c is acting cooperatively, specifically, the command is written in the robot control script (script) RS held by the personal computer 33 in correspondence with each robot device. Specifically, the personal computer 33 sends a command to a corresponding robot device by a robot control script RS created according to a predetermined rule. The robot control script RS is configured from information that can control the timing of sending commands to the robot devices 1a, 1b, and 1c and detect the end timing of the action of each robot device.

【0031】ロボット制御スクリプトRSの形態につい
ては、例えば、図5に示すように、コマンド情報等から
構成された複数のデータ列D1,D2,D3からなる。第
1のデータ列D1は第1のロボット装置1aに対応さ
れ、第2のデータ列D2は第2のロボット装置1bに対
応され、第3のデータ列D1は、第3のロボット装置1
cに対応されている。本実施の形態では、ロボット装置
が3台であることから、このデータ列もそれに応じて3
列とされ、行動管理システムにおいて行動を管理するロ
ボット装置に応じてロボット制御スクリプトRSのデー
タ列が用意される。
The form of the robot control script RS includes, for example, a plurality of data strings D 1 , D 2 and D 3 composed of command information and the like as shown in FIG. The first data sequence D 1 corresponds to the first robot device 1a, the second data sequence D 2 corresponds to the second robot device 1b, and the third data sequence D 1 corresponds to the third robot device 1a. 1
c. In the present embodiment, since there are three robot devices, this data sequence
The data sequence of the robot control script RS is prepared according to the robot device that manages the behavior in the behavior management system.

【0032】具体的には、ロボット制御スクリプトRS
内には、制御したいネットワーク上のロボット装置の数
が記述されている。そして、各データ列D1,D2,D3
毎に、個々のIPアドレスやそのサーバのポート番号の
情報、ロボット装置に送信する抽象コマンド、ロボット
装置1a,1b,1cの間で同期タイミングをとるため
のコマンド等が記述されている。ここで、IPアドレス
は、上述したように、本実施の形態においてパーソナル
コンピュータ33とロボット装置1a,1b,1cとの
データ通信をTCP/IPを採用していることから、ネ
ットワーク上におかるロボット装置の識別情報をなす。
例えば、ロボット装置1の有するデータ記憶手段に予め
IPアドレスが書き込まれている。
Specifically, the robot control script RS
In the figure, the number of robot devices on the network to be controlled is described. Then, each data string D 1 , D 2 , D 3
In each case, information on individual IP addresses and port numbers of the servers, abstract commands to be transmitted to the robot devices, commands for obtaining synchronization timing among the robot devices 1a, 1b, and 1c are described. Here, as described above, since the TCP / IP is used for the data communication between the personal computer 33 and the robot devices 1a, 1b, and 1c in the present embodiment, the IP address is assigned to the robot device on the network. Of the identification information.
For example, an IP address is written in advance in a data storage unit of the robot device 1.

【0033】そして、これらコマンドは、例えば、各デ
ータ列D1,D2,D3において実行順に上から下に並ん
で記述されている。
These commands are described in the order of execution in the data strings D 1 , D 2 , and D 3 , for example, from top to bottom.

【0034】このようなロボット制御スクリプトRSに
基づいて、パーソナルコンピュータ33は、次のように
各ロボット装置1a,1b,1cにコマンドを送出して
その行動を制御している。
Based on such a robot control script RS, the personal computer 33 sends a command to each of the robot devices 1a, 1b, 1c as follows to control its behavior.

【0035】パーソナルコンピュータ33は、ロボット
装置1a,1b,1cとの間で通信を開始するのに先立
ち、メインプログラムPG1によりロボット装置の数だ
け通信用のスレッド28a,28b,28cを生成す
る。第1乃至第3の通信用スレッド28a,28b,2
8cは、行動を管理する第1乃至第3のロボット装置1
a,1b,1cと対応づけされて、対応されるロボット
装置1a,1b,1cとの間でデータ通信を行うための
ものである。
The personal computer 33, prior to initiating communication between the robot apparatus 1a, 1b, and 1c, the thread 28a of the communication by the number of the robotic device by the main program PG 1, 28b, generates the 28c. First to third communication threads 28a, 28b, 2
8c is the first to third robot devices 1 for managing behavior
a, 1b, and 1c for data communication with the corresponding robot devices 1a, 1b, and 1c.

【0036】そして、パーソナルコンピュータ33は、
このようにデータ通信の開始に先立ち生成した第1乃至
第3の各通信用スレッド28a,28b,28cに、対
応されるロボット制御スクリプトRS上の第1乃至第3
のデータ列D1,D2,D3をそれぞれ渡す。各通信用ス
レッド28a,28b,28cでは、渡された情報(デ
ータ列)からIPアドレスとポート番号を取り出して、
クライアントとして各ロボット装置に接続し、これによ
り、通信用スレッド28a,28b,28cと各ロボッ
ト装置1a,1b,1cとのデータ通信経路が確立され
る。
Then, the personal computer 33
The first to third communication threads 28a, 28b, and 28c generated prior to the start of the data communication as described above are assigned to the first to third communication threads RS corresponding to the robot control script RS.
Passing the data stream D 1, D 2, D 3, respectively. Each communication thread 28a, 28b, 28c extracts the IP address and port number from the passed information (data string),
As a client, each robot device is connected, whereby a data communication path between the communication threads 28a, 28b, 28c and each of the robot devices 1a, 1b, 1c is established.

【0037】それから、各通信用スレッド28a,28
b,28cは、引き渡されたデータ列D1,D2,D3
記述されているコマンドを、各通信用スレッド28a,
28b,28cの間で同期して発信する。
Then, each communication thread 28a, 28
b and 28c transmit the commands described in the delivered data strings D 1 , D 2 and D 3 to the respective communication threads 28a and 28c.
The transmission is performed synchronously between 28b and 28c.

【0038】ロボット装置1a,1b,1cは、対応さ
れる通信用スレッド28a,28b,28cから発信さ
れたコマンドをそれぞれ受信する。各ロボット装置1
a,1b,1cは、受信したコマンドを実行する。
The robot devices 1a, 1b, 1c receive commands transmitted from the corresponding communication threads 28a, 28b, 28c, respectively. Each robot device 1
a, 1b, and 1c execute the received command.

【0039】これにより、各通信用スレッド28a,2
8b,28cによるコマンドの送出タイミングについて
は同期がとられていることから、各ロボット装置1a,
1b,1cの行動は、全体として協調行動によるものと
なる。
Thus, each communication thread 28a, 2
8b and 28c, the timing of sending commands is synchronized.
The actions 1b and 1c are based on cooperative actions as a whole.

【0040】次に、図6に示すように記述されているロ
ボット制御スクリプトRSを用いて具体的に説明する。
この図6に示すロボット制御スクリプトは、複数のロボ
ット装置1a,1b,1cにより、いわゆる「ウエイ
ブ」の行動をさせるためのものである。複数のロボット
装置1a,1b,1cによる「ウエイブ」の行動とは、
経時変化を示す図7中(A)から(C)への変化のよう
に、整列している複数のロボット装置1a,1b,1c
が、「お座り」の姿勢において、「ばんざい」の行動を
それぞれが順番にしていくことにより発現される協調行
動である。
Next, a specific description will be given using a robot control script RS described as shown in FIG.
The robot control script shown in FIG. 6 is for causing a plurality of robot apparatuses 1a, 1b, and 1c to perform a so-called "wave" action. The action of “wave” by the plurality of robot devices 1a, 1b, 1c is as follows.
A plurality of robot apparatuses 1a, 1b, 1c aligned as shown in a change from (A) to (C) in FIG.
However, in the posture of "sitting down," the coordinating behaviors are expressed by performing the actions of "banzai" in order.

【0041】図6に示すロボット制御スクリプトRS
は、1行目に、行動管理システムに接続されるロボット
装置の台数が記述されている。具体的には、1列目にメ
ニューとして「NUMBER」と記述して、2列目に接続する
ロボット装置の台数が記述されている。本実施の形態の
ように、3台のロボット装置1a,1b,1cにより協
調行動を行う場合には、台数の欄は「3」となる。
The robot control script RS shown in FIG.
In the first line, the number of robot devices connected to the behavior management system is described. Specifically, the first column describes “NUMBER” as a menu, and the second column describes the number of connected robot apparatuses. In the case where the three robot apparatuses 1a, 1b, and 1c perform a cooperative action as in the present embodiment, the number column is "3".

【0042】そして、2行目以降に、各通信用スレッド
28a,28b,28cと各ロボット装置1a,1b,
1cとの間で通信を行うための情報や、コマンド等が記
述されている。具体的には、1列目にはメニューが書き
込まれ、2列目、3列目、4列目に、各通信用スレッド
28a,28b,28cが、対応されるロボット装置1
a,1b,1cの行動を制御するための情報が記述され
ている。
From the second line onward, each communication thread 28a, 28b, 28c and each robot device 1a, 1b,
Information, commands, etc., for communicating with the device 1c are described. Specifically, the menu is written in the first column, and the communication threads 28a, 28b, and 28c correspond to the corresponding robot devices 1 in the second, third, and fourth columns.
Information for controlling the actions of a, 1b, and 1c is described.

【0043】2行目において、1列目に「IP_ADDRESS」
と書いて、各列に対応されるサーバーのIPアドレスを
記述する。或いは、1列目に「HOSTNAME」と書いて、各
ロボット装置のサーバのネットワークホスト名を記述す
るようにしてもよい。
In the second row, in the first column, "IP_ADDRESS"
And write the IP address of the server corresponding to each column. Alternatively, "HOSTNAME" may be written in the first column to describe the network host name of the server of each robot device.

【0044】3行目において、各ホストのポート番号を
記述する。本実施の形態では、デフォルトとして「1000
0」を記述する。
The third line describes the port number of each host. In the present embodiment, “1000
Write "0".

【0045】4行目以降において、各ロボット装置に対
応される各列に、コマンド等のロボット装置の行動を制
御するための情報が記述されている。
In the fourth and subsequent rows, information for controlling the behavior of the robot device, such as commands, is described in each column corresponding to each robot device.

【0046】コマンドは、具体的には、大別して同期コ
マンドと抽象コマンドとがある。通信用スレッドがこれ
ら同期コマンド、抽象コマンドの順序で送出するように
記述されている。ここで、抽象コマンドは、ロボット装
置に送信されて、実際の行動をさせるためのコマンドで
あり、同期コマンドは、そのような抽象コマンドによる
各ロボット装置の行動が、ロボット装置全体として協調
行動となるようにするものである。具体的には、同期コ
マンドは、コマンド送出タイミングについて同期をとる
ためのSYNC命令、各ロボット装置の行動始期について同
期をとるためのWAIT命令の二つがある。
The commands are roughly classified into a synchronous command and an abstract command. It is described that the communication thread sends out the synchronous command and the abstract command in this order. Here, the abstract command is a command transmitted to the robot apparatus to cause the robot apparatus to perform an actual action, and the synchronous command is a cooperative action in which the action of each robot apparatus by such an abstract command is performed as a whole of the robot apparatus. Is to do so. Specifically, there are two synchronization commands, a SYNC instruction for synchronizing the command transmission timing and a WAIT instruction for synchronizing the beginning of the action of each robot device.

【0047】SYNC命令は引数としてID番号と指数(以
下、同期達成指数という。)が与えられている。ID番
号は、SYNC命令についての識別情報となるものであり、
他のSYNC命令との識別情報となる。このID番号により
SYNC命令を識別することにより、他のSYNC命令と混同す
ることなく、適切な処理を行うことができるようにな
る。また、同期達成指数は、各ロボット装置1a,1
b,1cにそれぞれある値が与えられており、それらの
合計が所定の値になるように設定されている。本実施の
形態では、合計が「100」になるように設定されてい
る。なお、同期達成指数については、「100」に設定
することに限定されるものではない。すなわち、本発明
の適用に応じて、同期達成指数を決定する。
The SYNC instruction is provided with an ID number and an exponent (hereinafter referred to as a synchronization achievement exponent) as arguments. The ID number serves as identification information for the SYNC instruction.
It becomes identification information with other SYNC instructions. By this ID number
By identifying a SYNC instruction, appropriate processing can be performed without being confused with another SYNC instruction. The synchronization achievement index is calculated for each robot device 1a, 1
A certain value is given to each of b and 1c, and the sum thereof is set to a predetermined value. In the present embodiment, the total is set to “100”. Note that the synchronization achievement index is not limited to being set to “100”. That is, the synchronization achievement index is determined according to the application of the present invention.

【0048】そして、この同期達成指数は、ロボット装
置1a,1b,1cが次の行動に移れる状態にあるとき
加算される。換言すれば、ある行動をしていたロボット
装置が当該行動を終了したときに加算される。具体的に
は、次のような手順により同期達成指数の加算がなされ
る。
This synchronization achievement index is added when the robot devices 1a, 1b, 1c are in a state where they can move to the next action. In other words, it is added when the robot device that has performed a certain action ends the action. Specifically, the synchronization achievement index is added by the following procedure.

【0049】例えば、第1のロボット装置1aは、対応
される第1の通信用スレッド28aから送られてきたコ
マンドに応じた行動を終了したとき、或いは次の行動に
移れる状態であるとき、その旨の情報(以下、待機情報
という。)を発信する。対応される第1の通信用スレッ
ド28aでは、第1のロボット装置1aが発信した待機
情報を受信すると、例えば同期制御用グローバルメモリ
GM上のID番号が一致する領域に同期達成指数を加え
る(足し込む)。このとき、他の通信用スレッドは、こ
の領域にアクセスできないよう排他制御を行う。すなわ
ち、他のロボット装置(ここでは、第2のロボット装置
1b或いは第3のロボット装置1cの一方若しくは両
方)が既にID番号に対応されるSYNC命令の実行が可能
な状態になった場合には、ID番号が一致する当該他の
ロボット装置の同期達成指数に、いま送られてきた同期
達成指数を同期制御用グローバルメモリGMにて加算す
る。そして、全てのロボット装置1a,1b,1cの次
の行動に移れる状態になると、同期達成指数の合計値が
所定の値、本例では「100」になる。
For example, when the first robot device 1a completes the action corresponding to the command sent from the corresponding first communication thread 28a or is ready to move to the next action, Information (hereinafter referred to as standby information). When the corresponding first communication thread 28a receives the standby information transmitted by the first robot device 1a, the first communication thread 28a adds the synchronization achievement index to, for example, an area of the synchronization control global memory GM where the ID number matches (addition). In). At this time, the other communication threads perform exclusive control so as not to access this area. That is, when another robot device (here, one or both of the second robot device 1b and the third robot device 1c) is already in a state where the SYNC command corresponding to the ID number can be executed. Then, the synchronization achievement index that has just been sent is added to the synchronization achievement index of the other robot apparatus having the same ID number in the synchronization control global memory GM. Then, when it becomes possible to move to the next action of all the robot devices 1a, 1b, 1c, the total value of the synchronization achievement index becomes a predetermined value, in this example, "100".

【0050】このような処理により、各通信用スレッド
28a,28b,28cは、同期制御用グローバルメモ
リGMを監視し、同期達成指数の合計値が所定の値
(「100」)に達しない限り次のコマンドの読み出し
を行わないことになる。よって、次の行動に移れるロボ
ット装置であっても、次の行動を起こすことなく待機状
態が維持される。
By such processing, each of the communication threads 28a, 28b, 28c monitors the synchronization control global memory GM, and unless the total value of the synchronization achievement index reaches a predetermined value ("100"), Will not be read. Therefore, even if the robot apparatus can move to the next action, the standby state is maintained without causing the next action.

【0051】そして、複数のロボット装置1a,1b,
1cの行動を管理するパーソナルコンピュータ33は、
このような同期達成指数の合計値が所定の値になったこ
とを確認することにより、ID番号に対応されるSYNC命
令を全てのロボット装置1a,1b,1cにおいて終了
し、ロボット装置1a,1b,1cが次の行動に移れる
状態であることを知ることができる。これにより、パー
ソナルコンピュータ33は、同期達成指数の合計値が所
定の値になったときには、各通信用スレッド28a,2
8b,28cにより次のコマンドを発信する。
The plurality of robot devices 1a, 1b,
The personal computer 33 that manages the behavior of 1c is
By confirming that the total value of the synchronization achievement index has reached a predetermined value, the SYNC instruction corresponding to the ID number is completed in all the robot apparatuses 1a, 1b, 1c, and the robot apparatuses 1a, 1b. , 1c are ready for the next action. Thus, when the total value of the synchronization achievement index reaches a predetermined value, the personal computer 33 sets each communication thread 28a, 2
The next command is transmitted by 8b and 28c.

【0052】次にコマンドは、図6に示すロボット制御
スクリプトRSでは、WAIT命令が発信される。
Next, in the command, a WAIT command is transmitted in the robot control script RS shown in FIG.

【0053】このWAIT命令は、時間(ms)を引数に取
っており、WAIT命令を受け取ったロボット装置は指定さ
れた時間だけ待ってから次のコマンドヘ移行するような
情報をなす。
The WAIT command takes time (ms) as an argument, and the robot apparatus that has received the WAIT command forms information that waits for a specified time and then proceeds to the next command.

【0054】WAIT命令の引数がそれぞれ「0」、「100
0」、「2000」となっている実施の形態では、引数が
「0」のWAIT命令を受信した第1のロボット装置1a
は、続いて送られてきているコマンドを直ちに実行し
て、引数が「1000」のWAIT命令を受信した第2のロボッ
ト装置1bは、続いて送られてきているコマンドを1秒
待って実行して、引数が「2000」のWAIT命令を受信した
第3のロボット装置1cは、続いて送られてきているコ
マンドを2秒待って実行する。すなわち、例えば第1乃
至第3のロボット装置1a,1b,1cの受け取ったWA
IT命令の引数が全て「0」である場合には、第1乃至第
3のロボット装置1a,1b,1cは次に送られてきて
いるコマンド内容を同時に実行する。
The arguments of the WAIT instruction are “0” and “100”, respectively.
In the embodiment having “0” and “2000”, the first robot device 1a that has received the WAIT command whose argument is “0”
Immediately executes the subsequently sent command, and upon receiving the WAIT command with the argument “1000”, the second robotic device 1b waits for one second for the subsequently sent command and executes it. Then, the third robot apparatus 1c that has received the WAIT command whose argument is “2000” waits for 2 seconds for the subsequently transmitted command and executes it. That is, for example, the WA received by the first to third robot devices 1a, 1b, 1c.
If the arguments of the IT command are all "0", the first to third robot apparatuses 1a, 1b, 1c simultaneously execute the contents of the command sent next.

【0055】そして、本実施の形態では、このWAIT命令
の次に送出されるコマンドは、「BANZAI_SIT」のコマン
ドとなっている。「BANZAI_SIT」コマンドは、ロボット
装置に「お座り」の姿勢において、「ばんざい」の動作
をさせるためのコマンドである。
In the present embodiment, the command transmitted after the WAIT instruction is a “BANZAI_SIT” command. The “BANZAI_SIT” command is a command for causing the robot apparatus to perform the “Banzai” operation in the “sitting” posture.

【0056】このようなWAIT命令が送出され、続いて
「BANZAI_SIT」コマンドが送出されてくることにより、
第1のロボット装置1aは、上述のように同期達成指数
の合計値が所定の値になった直後に「BANZAI_SIT」のコ
マンドを開始し、第2のロボット装置1bは、それから
1秒後に「BANZAI_SIT」のコマンドを開始し、第3のロ
ボット装置1cは、それから2秒後に「BANZAI_SIT」の
コマンドを開始する。
When such a WAIT instruction is transmitted, and subsequently, a “BANZAI_SIT” command is transmitted,
The first robot device 1a starts the command of "BANZAI_SIT" immediately after the total value of the synchronization achievement index reaches the predetermined value as described above, and the second robot device 1b starts the command of "BANZAI_SIT" one second after that. ", And the third robot apparatus 1c starts the command of" BANZAI_SIT "two seconds after that.

【0057】以上のようにSYNC命令やWAIT命令等が規定
された図6に示すロボット制御スクリプトRSにより概
略として以下のような処理がなされる。
The following processing is roughly performed by the robot control script RS shown in FIG. 6 in which the SYNC command, the WAIT command, and the like are specified as described above.

【0058】1番最初(5行目)のSYNC命令により、各
ロボット装置1a,1b,1cが次の状態に移れる状態
になると、ID=1で同期達成指数が発効される。ID
=1の同期達成指数の合計が「100」になることによ
り、各通信用スレッド28a,28b,28cからWAIT
命令及び「BANZAI_SIT」のコマンドが発信される。
When the robot apparatus 1a, 1b, 1c is ready to move to the next state by the first SYNC instruction (the fifth line), the synchronization achievement index is activated with ID = 1. ID
When the sum of the synchronization achievement indexes of “= 1” becomes “100”, the communication threads 28 a, 28 b, and 28 c
A command and a command of “BANZAI_SIT” are transmitted.

【0059】第1のデータ列(第1のロボット装置1a
(IPアドレスが11.22.33.44)に対応されるデータ
列)D1のWAIT命令には0秒(「0」)が入っているの
で、第1のロボット装置1aはすぐに「BANZAI_SIT」コ
マンドを実行し、図7中(A)に示すように、「座り」
姿勢において「バンザイ」動作をする。
First data string (first robot apparatus 1a)
Since the WAIT instruction data string) D 1, which is corresponding to the (IP address 11.22.33.44) containing the 0 second ( "0"), the first robot apparatus 1a immediately "BANZAI_SIT Command, and as shown in FIG.
Perform the “Banzai” motion in the posture.

【0060】また、第2のデータ列(第2のロボット装
置1b(IPアドレスが11.22.33.45)に対応される
データ列)D2のWAIT命令には1秒(「1000」)が入っ
ているので、第2のロボット装置1bは、第1のロボッ
ト装置1aがコマンドを実行してから1秒後に「BANZAI
_SIT」コマンドを実行し、図7中(B)に示すように、
「座り」姿勢において「バンザイ」動作をする。同様に
第3のデータ列(第3のロボット装置1c(IPアドレ
スが11.22.33.46)に対応されるデータ列)D3のWAI
T命令には2秒(「2000」)が入っているので、第3の
ロボット装置1cは、第1のロボット装置1aがコマン
ドを実行してから2秒後に「BANZAI_SIT」コマンドを実
行し、図7中(C)に示すように、「座り」姿勢におい
て「バンザイ」動作をする。
[0060] Further, the WAIT instruction D 2 (data string is corresponding to the second robotic device 1b (IP address 11.22.33.45)) to the second data string second ( "1000") , The second robotic device 1b executes the command “BANZAI” one second after the first robotic device 1a executes the command.
_SIT ”command, and as shown in FIG.
Perform the “Banzai” operation in the “sitting” posture. Similarly third data string (data string is corresponding to the third robotic apparatus 1c (IP address 11.22.33.46)) D 3 of WAI
Since two seconds ("2000") are included in the T command, the third robot device 1c executes the "BANZAI_SIT" command two seconds after the first robot device 1a executes the command. As shown in (C) of FIG. 7, the "banzai" operation is performed in the "sitting" posture.

【0061】「BANZAI_SIT」のコマンドの実行が終了す
ると、またSYNC命令があり、再び各ロボット装置1a,
1b,1cが次の行動に移れる状態であることの検出が
なされる。これにより、先に実行を開始した第1のロボ
ット装置1aから待ち状態に入り、行動達成指数の合計
が「100」になることにより、各ロボット装置1a,
1b,1cは、再び各通信用スレッド28a,28b,
28cから同期した発信されるWAIT命令及び2回目の
「BANZAI_SIT」のコマンドにより上述したような行動を
再び実行する。
When the execution of the command of “BANZAI_SIT” is completed, there is another SYNC instruction, and each robot device 1a,
It is detected that 1b and 1c are ready for the next action. As a result, the first robot apparatus 1a that has started executing first enters a waiting state, and the total of the action achievement indexes becomes “100”, so that each robot apparatus 1a,
1b and 1c are again the communication threads 28a, 28b,
The action as described above is executed again by the WAIT command and the second "BANZAI_SIT" command transmitted synchronously from 28c.

【0062】図6に示すロボット制御スクリプトRSに
よる以上のような処理により、行動管理システムは、図
7中(A)から(C)に変化するように、3台のロボッ
ト装置1a,1b,1cを1秒ずつ時間をずらして、バ
ンザイを実行させ、2度の「ウェイブ」の協調行動が発
現させる。
By the above processing by the robot control script RS shown in FIG. 6, the behavior management system changes the three robot apparatuses 1a, 1b, 1c so as to change from (A) to (C) in FIG. Is shifted one second at a time to execute banzai, and cooperative action of two “waves” is developed.

【0063】以上のように、行動管理システムは、同期
してコマンドを送出することにより、複数のロボット装
置1a,1b,1cによる協調行動を容易に実現するこ
とができる。このような複数のロボット装置1a,1
b,1cによる協調行動は、ユーザの鑑賞の楽しさを、
ロボット装置の自立的に起こした行動による楽しさに加
え、さらに広げるものとなる。
As described above, the behavior management system can easily realize the cooperative behavior by the plurality of robot apparatuses 1a, 1b, 1c by transmitting the command synchronously. Such a plurality of robot apparatuses 1a, 1
The cooperative actions by b and 1c increase the enjoyment of the appreciation of the user,
In addition to the pleasure of the robot device's autonomous action, it can be further expanded.

【0064】また、行動管理システムにおいて、複数の
ロボット装置1a,1b,1cの行動を、共通のパーソ
ナルコンピュータにより管理しているので、ロボット装
置のプログラムを共通化することができる。一方、1台
のパーソナルコンピュータ33により各ロボット装置1
a,1b,1cの行動を管理することは、各ロボット装
置1a,1b,1cをネットワーク上の計算機として把
握することと同様である。これにより、行動管理システ
ムでは、複数のロボット装置1a,1b,1cの行動管
理を容易にしつつ、行動パターンの作成・編集を容易に
して、例えばこれにより行動パターンの作成・編集実行
までのターンアラウンドを格段に短くすることができ
る。
In the action management system, the actions of the plurality of robot devices 1a, 1b, 1c are managed by a common personal computer, so that the programs of the robot devices can be shared. On the other hand, each robot device 1 is controlled by one personal computer 33.
Managing the actions of a, 1b, and 1c is the same as grasping each robot device 1a, 1b, and 1c as a computer on the network. Thereby, in the behavior management system, the behavior management of the plurality of robot apparatuses 1a, 1b, 1c is facilitated, and the creation / editing of the behavior pattern is facilitated. Can be significantly shortened.

【0065】次に、上述したロボット装置の具体的な構
成について説明する。ロボット装置1の電気的な回路構
成については、例えば図8に示すようになる。
Next, a specific configuration of the above-described robot device will be described. The electrical circuit configuration of the robot device 1 is, for example, as shown in FIG.

【0066】CCDビデオカメラ11で撮像された画像
データは、信号処理部12に供給される。信号処理部1
2は、CCDビデオカメラ11より供給された画像デー
タに所定の処理を施し、その画像データを内部バス18
を介して、記憶手段であるDRAM(Dynamic Random Ac
cess Memory)16に記憶させる。
The image data picked up by the CCD video camera 11 is supplied to a signal processing unit 12. Signal processing unit 1
2 performs predetermined processing on the image data supplied from the CCD video camera 11 and transfers the image data to the internal bus 18.
Through a DRAM (Dynamic Random Ac
cess Memory) 16.

【0067】また、ロボット装置1は、ROMインター
フェース30に接続されたメモリースティックインター
フェース29を備えており、これによりいわゆるメモリ
ースティック210に対するデータの記録及び再生をす
ることができる。
The robot apparatus 1 has a memory stick interface 29 connected to a ROM interface 30 so that data can be recorded on and reproduced from a so-called memory stick 210.

【0068】さらに、ロボット装置1は、PCカードス
ロット(PCカードI/F)14を備えている。これに
より、PCカード200が無線LANカードである場合
には、外部機器(例えば、中継器34)との間でのデー
タ通信が可能となり、PCカードがメモリカードである
場合には、メモリカードに対するデータの記録や再生が
可能になる。
Further, the robot apparatus 1 has a PC card slot (PC card I / F) 14. Accordingly, when the PC card 200 is a wireless LAN card, data communication with an external device (for example, the repeater 34) becomes possible, and when the PC card is a memory card, communication with the memory card is performed. Data can be recorded and reproduced.

【0069】そして、CPU(Central Processing Uni
t)15は、フラッシュROM(Read Only Memory)17に
記憶されている動作プログラムを、ROMインターフェ
ース30及び内部バス18を介して読み出し、システム
全体の制御を行う。また、フラッシュROM17に記憶
されているCPU11の動作プログラムは、信号処理部
12に接続される外部のパーソナルコンピュータ(Perso
nal Computer、PC)31によって作成及び変更が可能
とされている。
Then, the CPU (Central Processing Uni
t) 15 reads an operation program stored in a flash ROM (Read Only Memory) 17 via the ROM interface 30 and the internal bus 18 and controls the entire system. The operation program of the CPU 11 stored in the flash ROM 17 is stored in an external personal computer (Perso
nal Computer (PC) 31.

【0070】外部の状態を検出する検出手段を構成する
ポテンショメータ19a,19b,19c、タッチセン
サ20及びマイクロホン21が検出した信号は、分岐部
24a,24b,24c,24d,24eを介して信号
処理部12に供給される。信号処理部12は、分岐部2
4a〜24eから供給された信号を、内部バス18を介
してCPU15に供給する。CPU15は、供給された
信号に基づいてアクチュエータ22a,22b,22
c,22d(例えば、それによって駆動される図1の脚
部2a〜2dや頭部3)の動作を制御する。また、CP
U15は、スピーカ23から出力される音声を制御す
る。
The signals detected by the potentiometers 19a, 19b, 19c, the touch sensor 20, and the microphone 21 constituting the detecting means for detecting the external state are transmitted to the signal processing unit via the branching units 24a, 24b, 24c, 24d, 24e. 12 is supplied. The signal processing unit 12 includes the branch unit 2
The signals supplied from 4a to 24e are supplied to CPU 15 via internal bus 18. The CPU 15 controls the actuators 22a, 22b, 22 based on the supplied signals.
c, 22d (for example, the operation of the legs 2a to 2d and the head 3 of FIG. 1 driven thereby). Also, CP
U15 controls the sound output from the speaker 23.

【0071】また、赤外線検出部(IrDA)26を備
えている。赤外線検出部(IrDA)26は、ユーザの
操作により図示しないリモートコントローラから出力さ
れた命令情報を、分岐部24eを介して信号処理部12
に供給する。信号処理部12は、内部バス18を介して
CPU15に供給し、CPU15では、供給された信号
に基づいてアクチュエータ22a,22b,22c,2
2dの動作を制御して、ユーザの命令に応じた行動をロ
ボット装置1に出力させる。
Further, an infrared detector (IrDA) 26 is provided. The infrared detection unit (IrDA) 26 receives the command information output from the remote controller (not shown) by the operation of the user and transmits the command information to the signal processing unit 12 via the branching unit 24e.
To supply. The signal processing unit 12 supplies the signals to the CPU 15 via the internal bus 18, and the CPU 15 controls the actuators 22 a, 22 b, 22 c, 2 based on the supplied signals.
The operation of 2d is controlled to cause the robot device 1 to output an action according to the user's command.

【0072】ここで、ポテンショメータ19a〜19
c、タッチセンサ20、マイクロホン21、アクチュエ
ータ22a〜22d、スピーカ23及び赤外線検出部2
6等は、ロボット装置1の足や耳、口等を構成するもの
であり、これらをまとめてCPC(Configurable Physic
al Component)デバイスと呼ぶ。CPCデバイスは、こ
れに限定されるものではなく、例えば、距離センサ、加
速度センサ、或いはジャイロ等の計測手段であってもよ
い。
Here, the potentiometers 19a to 19
c, touch sensor 20, microphone 21, actuators 22a to 22d, speaker 23, and infrared detector 2
6 and the like constitute the feet, ears, mouth, etc. of the robot apparatus 1, and collectively constitute a CPC (Configurable Physic).
al Component) device. The CPC device is not limited to this, and may be, for example, a measuring unit such as a distance sensor, an acceleration sensor, or a gyro.

【0073】図9には、信号処理部12の構成例を示し
ている。DRAMインタフェース41、ホストインタフ
ェース42は、それぞれDRAM16、CPU15に接
続されるとともに、外部バス44にも接続されている。
バスコントローラ45は、外部バス44の制御を行う。
バスアービタ46は、外部バス44と内部バス47のア
ービトレーションを行う。
FIG. 9 shows a configuration example of the signal processing unit 12. The DRAM interface 41 and the host interface 42 are connected to the DRAM 16 and the CPU 15, respectively, and are also connected to an external bus 44.
The bus controller 45 controls the external bus 44.
The bus arbiter 46 arbitrates the external bus 44 and the internal bus 47.

【0074】パラレルポート48及びシリアルポート5
0には、例えば、外部の開発環境としてのパーソナルコ
ンピュータ(PC)31が接続されている。バッテリマ
ネージャ49は、バッテリ27の残量の管理等を行う。
パラレルポート48、バッテリーマネージャ49及びシ
リアルポート50は、それぞれペリフェラルインタフェ
ース53を介して内部バス47に接続されている。
Parallel port 48 and serial port 5
0 is connected to a personal computer (PC) 31 as an external development environment, for example. The battery manager 49 manages the remaining amount of the battery 27 and the like.
The parallel port 48, the battery manager 49, and the serial port 50 are connected to the internal bus 47 via the peripheral interface 53, respectively.

【0075】CCDビデオカメラ11は、撮像した画像
データをFBK(Filter Bank)56に供給する。FBK
56は、供給された画像データに対して間引き処理を行
い、種々の解像度の画像データを作成する。その画像デ
ータは、内部バス47を介してDMA(Direct Memory A
ccess)コントローラ51に供給される。DMAコントロ
ーラ51は、供給された画像データをDRAM16に転
送し、記憶させる。
The CCD video camera 11 supplies the captured image data to an FBK (Filter Bank) 56. FBK
Reference numeral 56 performs a thinning process on the supplied image data to create image data of various resolutions. The image data is transferred to the DMA (Direct Memory A
ccess) Supplied to the controller 51. The DMA controller 51 transfers the supplied image data to the DRAM 16 and stores it.

【0076】また、DMAコントローラ51は、DRA
M16に記憶されている画像データを適宜読み出し、I
PE(Inner Product Engine)55に供給する。IPE5
5は、供給された画像データを使用して所定の演算を行
う。この演算結果は、DMAコントローラ51の指示に
従って、DRAM16に転送され、記憶される。
Further, the DMA controller 51
The image data stored in M16 is read out as appropriate,
It is supplied to PE (Inner Product Engine) 55. IPE5
5 performs a predetermined operation using the supplied image data. The calculation result is transferred to the DRAM 16 and stored in accordance with an instruction from the DMA controller 51.

【0077】シリアルバスホストコントローラ57に
は、CPCデバイス25が接続される。CPCデバイス
25は、例えば、上述したポテンショメータ19a〜1
9c、タッチセンサ20、マイクロホン21、アクチュ
エータ22a〜22d、スピーカ23及び赤外線検出部
26等から構成されている。CPCデバイス25から供
給された音声データは、シリアルバスホストコントロー
ラ57を介してDSP(Digital Signal Processor)52
に供給される。DSP52は、供給された音声データに
対して所定の処理を行う。USBインタフェース58に
は、外部の開発環境としてのパーソナルコンピュータ
(PC)32等が接続される。タイマ54は、時間情報
を内部バス47を介して各部に供給する。
The CPC device 25 is connected to the serial bus host controller 57. The CPC device 25 includes, for example, the potentiometers 19a to 1 described above.
9c, a touch sensor 20, a microphone 21, actuators 22a to 22d, a speaker 23, an infrared detector 26, and the like. The audio data supplied from the CPC device 25 is transmitted to a DSP (Digital Signal Processor) 52 through a serial bus host controller 57.
Supplied to The DSP 52 performs a predetermined process on the supplied audio data. A personal computer (PC) 32 or the like as an external development environment is connected to the USB interface 58. The timer 54 supplies time information to each unit via the internal bus 47.

【0078】そして、ロボット装置1は、上述したよう
な協調行動を行うため等にパーソナルコンピュータ33
との間でデータ通信をするための無線通信関連の構造と
して、図10に示すように、デバイスドライバ77、T
CP/ IPプロトコルスタック78等を有している。
The robot apparatus 1 is provided with a personal computer 33 for performing the cooperative action as described above.
As a structure related to wireless communication for performing data communication with the device driver 77, as shown in FIG.
It has a CP / IP protocol stack 78 and the like.

【0079】デバイスドライバ77は、ソフトウェア層
であって、PCカード(無線LANカード)200の上
位として当該PCカードを直接管理してデータの受け渡
しを行う。
The device driver 77 is a software layer, and directly manages the PC card (wireless LAN card) 200 as an upper layer of the PC card (wireless LAN card) 200 to exchange data.

【0080】TCP/ IPプロトコルスタック78
は、ソフトウェア層にあって、TCP/ IPのサービ
スをサポートし、デバイスドライバ77とセマンティク
スコマンドサーバとの間でデータの受け渡しをする。な
お、ロボット装置1には内部のフラッシュROM等に予
めこのローカルエリアネットワークの内部でユニークな
IPアドレス(例えば、上述したIPアドレス11.22.
33.44等)が書き込まれいる。
The TCP / IP protocol stack 78
Is in the software layer, supports TCP / IP services, and exchanges data between the device driver 77 and the semantics command server. The robot apparatus 1 has a unique IP address (for example, the IP address 11.22.
33.44 etc.) are written.

【0081】このTCP/ IPプロトコルスタック7
3の上位にはセマンティクスコマンドサーバ79といっ
たソフトウェアモジュールがある。セマンティクスコマ
ンドサーバ79は、上述したように文字列として与えら
れるコマンドを受け付けることが可能な上位サーバとし
て構成されている。
This TCP / IP protocol stack 7
A software module such as a semantics command server 79 is above the third. The semantics command server 79 is configured as a higher-level server that can receive a command given as a character string as described above.

【0082】セマンティクスコマンドサーバ79では、
ロボット装置1が起動するとTCP/ IPのサービス
の予め決められたポート番号(例えば10000)を使って
コマンドを受信するサーバを立ち上げて、ローカルエリ
アネットワーク上のパーソナルコンピュータ33からの
接続要求を待つ。接続要求は、IPアドレスとポート番
号(例えば、11.22.33.44:10000)を指定して発信す
ることにより行う。
In the semantics command server 79,
When the robot apparatus 1 is started, a server that receives a command is started using a predetermined port number (for example, 10000) of the TCP / IP service, and waits for a connection request from the personal computer 33 on the local area network. The connection request is made by specifying the IP address and the port number (for example, 11.22.33.34:10000) and transmitting the request.

【0083】そして、外部クライアント(パーソナルコ
ンピュータ33)との間で接続が確立されたセマンティ
クスコマンドサーバ79では、パーソナルコンピュータ
33からのコマンドのを受け付けを開始し、受信したコ
マンドをミドルウェア層74の出カセマンティクスコン
バータ101に送り、コマンド内容の行動を実行させ
る。出カセマンティクスコンバータ101は、具体的に
は、コマンド名を文字列のまま認識することができるも
ので、これにより、出力セマンティクスコンバータ10
1は、文字列からなるコマンドの内容に応じて、下位の
ソフトウェアモジュール(オブジェクト)を制御する。
Then, the semantics command server 79, which has established a connection with the external client (personal computer 33), starts accepting a command from the personal computer 33 and outputs the received command to the middleware layer 74. The command is sent to the semantics converter 101 to execute the action of the command content. The output semantics converter 101 can specifically recognize a command name as a character string, and thereby, the output semantics converter 10
1 controls a lower-order software module (object) according to the content of a command consisting of a character string.

【0084】ミドルウエア層80は、ロボット装置1の
基本的な機能を提供するソフトウェア郡であり、その構
成はロボット装置1のデバイスや形状が考慮されて設定
されている。このミドルウェア層80は、具体的には、
図11に示すように構成されており、認識系(入力系)
のミドルウェア層90と出力系のミドルウェア層100
とに大別され、例えば、オブジェクト群により構成され
ている。
The middleware layer 80 is a software group that provides basic functions of the robot device 1, and its configuration is set in consideration of the device and shape of the robot device 1. This middleware layer 80 is, specifically,
The recognition system (input system) is configured as shown in FIG.
Middleware layer 90 and output middleware layer 100
And is composed of, for example, an object group.

【0085】認識系のミドルウェア層90では、外部か
ら入力された情報を認識する。これによりロボット装置
1は、外部から入力された情報に応じて自律的に行動を
決定すること等ができるようになる。例えば、認識系の
ミドルウェア層90は、画像データやセンサーデータ、
音データなどのデバイスの生データを処理し、認識結果
を出力するオブジェクト群により構成されている。
The middleware layer 90 of the recognition system recognizes information input from outside. As a result, the robot device 1 can autonomously determine an action according to information input from the outside. For example, the middleware layer 90 of the recognition system includes image data, sensor data,
It is composed of an object group that processes raw data of a device such as sound data and outputs a recognition result.

【0086】デバイスのデータを処理するオブジェクト
としては、例えば、距離検出部92、タッチセンサー部
93、色認識部94、音階認識部95、姿勢検出部9
6、動き検出部97等が挙げられる。ここで、例えば、
距離検出部92により「障害物がある」が認識され、タ
ッチセンサー部93により「なでられた」及び「叩かれ
た」が認識され、色認識部94により「ボールが赤い」
が認識され、姿勢検出部96により「転倒した」が認識
され、動き検出部97により「ボールが動いている」が
認識される。
The objects for processing device data include, for example, a distance detecting unit 92, a touch sensor unit 93, a color recognizing unit 94, a scale recognizing unit 95, and a posture detecting unit 9.
6, a motion detection unit 97, and the like. Where, for example,
The distance detector 92 recognizes “there is an obstacle”, the touch sensor 93 recognizes “stroke” and “hit”, and the color recognizer 94 recognizes “the ball is red”.
Is recognized by the posture detecting unit 96, and “the ball is moving” is recognized by the motion detecting unit 97.

【0087】そして、入力系のミドルウェア層90で
は、入力センティクスコンバータ91により上述したよ
うなオブジェクトによる認識情報の上位であるセマンテ
ィクスコマンドサーバ79に渡される。
Then, in the input middleware layer 90, the input sentiment converter 91 passes the recognition information of the object as described above to the semantics command server 79 which is a higher order.

【0088】一方、出力系のミドルウェア層100によ
り、セマンティクスコマンドサーバ79から渡された情
報に基づいてデバイスの制御が行われる。セマンティク
スコマンドサーバ79から渡される情報としては、例え
ば、入力セマンティクスコマバータ91におけるデバイ
スの認識結果等の内的情報に基づくコマンドであった
り、行動管理システムにおいてパーソナルコンピュータ
33から送られてきた外的情報とされるコマンド等が挙
げられる。内的情報としては、例えば、バッテリー残量
が挙げられる。そして、出力系のミドルウェア層100
は、このようなコマンドに基づいて、例えばロボット装
置の動作機能毎に構成されているオブジェクト群により
各部を動作させる。
On the other hand, the output middleware layer 100 controls the device based on the information passed from the semantics command server 79. The information passed from the semantics command server 79 is, for example, a command based on internal information such as a device recognition result in the input semantics commander 91, or external information sent from the personal computer 33 in the behavior management system. Command and the like. The internal information includes, for example, the remaining battery power. The output middleware layer 100
Operates each unit by an object group configured for each operation function of the robot device, based on such a command.

【0089】オブジェクトとしては、姿勢制御部10
2、モーション再生部105、転倒復帰部106、トラ
ッキング部107、歩行モジュール部108、LED点
灯部103、音再生部104等が挙げられる。ここで、
例えば、モーション再生部105により「動き再生」に
関する制御がなされ、転倒復帰106により「転倒復
帰」に関する制御がなされ、トラッキング101により
「対象物の追従動作」に関する制御がなされ、歩行モジ
ュール部108により「歩行」に関する制御がなされ
る。なお、「トラッキング」とは、動く対象物を見続け
るような動作、具体的には、動く対象物に頭を向け続け
るような動作である。例えば、このような動作を行う場
合、色認識部94及び動き検出部97の認識情報がその
「トラッキング」の際の情報として直接使用される。ま
た、これらの制御は、ロボット装置1の姿勢の変化を伴
うことから姿勢管理102により姿勢の情報についての
管理がなされる。また、音出力部104により「音」に
関する制御がなされ、LED点灯部103により「目
(LED)の点灯」に関する制御がなされる。
As the object, the posture control unit 10
2, a motion reproducing unit 105, a fall return unit 106, a tracking unit 107, a walking module unit 108, an LED lighting unit 103, a sound reproducing unit 104, and the like. here,
For example, control relating to “motion reproduction” is performed by the motion reproducing unit 105, control relating to “return to fall” is performed by the fall return 106, control relating to “target following operation” is performed by the tracking 101, and “ The control relating to “walking” is performed. Note that “tracking” is an operation in which the user keeps looking at the moving object, specifically, an operation in which the user keeps turning his / her head toward the moving object. For example, when performing such an operation, the recognition information of the color recognition unit 94 and the motion detection unit 97 is directly used as information at the time of “tracking”. In addition, since these controls involve a change in the posture of the robot apparatus 1, the posture information is managed by the posture management 102. The sound output unit 104 controls the sound, and the LED lighting unit 103 controls the lighting of the eyes (LED).

【0090】出力系のミドルウェア層100では、この
ように動作を制御するためのオブジェクト群の上位に位
置される出力セマンティクスコンバータ101によりコ
マンドの内容が解釈されて、その内容に応じて上述した
ようなモーション再生部105等のオブジェクトがデバ
イスの制御を行う。具体的には、機能毎にロボット装置
1の各ジョイントのサーボ指令値や出力音、出力光(目
のLED)を生成して出力する。例えば、上述したよう
な抽象的な行動コマンドとして「BANZAI_SIT」(「バン
ザイ」)のコマンドが送られてきた場合、その行動に必
要なオブジェクトが、そのようなコマンド内容の行動に
必要なデバイスに制御信号を出力し、「バンザイ」の行
動を起こさせる。なお、抽象的な行動コマンドとしては
これに限定されるものではなく、「前進」、「後退」、
「喜ぶ」、「吼える」、「寝る」、「体操する」、「驚
く」、「トラッキング」等の動物が発現する行動のコマ
ンドも挙げられる。
In the output middleware layer 100, the contents of the command are interpreted by the output semantics converter 101 positioned above the object group for controlling the operation as described above, and the command is interpreted as described above according to the content. An object such as the motion reproduction unit 105 controls the device. Specifically, it generates and outputs a servo command value, output sound, and output light (eye LED) of each joint of the robot device 1 for each function. For example, if the command of "BANZAI_SIT"("Banzai") is sent as an abstract action command as described above, the object necessary for the action is controlled by the device necessary for the action of such command content. A signal is output to cause the action of "Banzai". Note that the abstract action command is not limited to this, but includes “forward”, “retreat”,
There are also commands such as "pleasure", "bark", "sleep", "exercise", "surprise", and "tracking", which are actions of animals.

【0091】そして、出力系のミドルウェア層100で
は、行動によるデバイスの動作状況(例えばデバイスの
動作終了結果)を検出して、出カセマンティクスコンバ
ータ101が、その行動の状況をセマンティクスコマン
ドサーバ79に返す。ここで、動作が無事終了した旨の
情報は、ロボット装置が次の行動に移れることの情報に
なる。
Then, the output middleware layer 100 detects the operation status of the device due to the action (for example, a result of the device operation end), and the output semantics converter 101 returns the action status to the semantics command server 79. . Here, the information indicating that the operation has been successfully completed is information indicating that the robot apparatus can move to the next action.

【0092】このような出力系のミドルウェア層100
によりコマンドに基づいて各デバイスの制御がなされる
ことで、ロボット装置1がコマンドに応じた行動を発現
することができるようになる。
The output middleware layer 100 as described above
By controlling each device based on the command, the robot apparatus 1 can express an action according to the command.

【0093】セマンティクスコマンドサーバ79では、
上述したような出力系のミドルウェア層100の実行の
終了の情報をPCカード200を介して、パーソナルコ
ンピュータ33(外部クライアント)に発信する。そし
て、パーソナルコンピュータ33では、そのようなロボ
ット装置1の実行の終了の通知に応じて、上述したよう
に、ロボット装置1が次の行動に移れるか否かを判別し
て、その判別結果に応じて次のコマンドを発信する処理
等を行う。
In the semantics command server 79,
Information about the end of execution of the output middleware layer 100 as described above is transmitted to the personal computer 33 (external client) via the PC card 200. Then, the personal computer 33 determines whether or not the robot apparatus 1 can move to the next action, as described above, in response to the notification of the end of the execution of the robot apparatus 1, and according to the determination result. To send the next command.

【0094】以上述べたような構成により、ロボット装
置1は、パーソナルコンピュータ33からのコマンドを
受け取って、その内容に応じた行動を起こすことができ
る。そして、コマンドの終了結果、すなわち次の行動に
移れる状態であることの情報をパーソナルコンピュータ
33に返すことができる。
With the above-described configuration, the robot apparatus 1 can receive a command from the personal computer 33 and take action according to the content. Then, the end result of the command, that is, information indicating that it is possible to move to the next action, can be returned to the personal computer 33.

【0095】なお、例えば、上述したような抽象的なコ
マンド(例えば、「バンザイ」のコマンド)は、複数の
基本コマンド、例えばモーションコマンド、サウンドコ
マンド、LED出力コマンドの組み合わせにより実現さ
れている。そして、ロボット装置1は、そのような抽象
的なコマンドとそれらの基本コマンドとの対応関係を記
憶手段、例えばメモリースティックに記憶しておくこと
により、抽象的なコマンドの内容を実行することが可能
とされている。さらに、そのような対応関係の情報を編
集可能なファイルとして記憶手段に記憶しておくことに
より、ユーザが好みにあわせて抽象的なコマンドにより
実行される各部の動作を変更することもできるになされ
ている。
Note that, for example, the above-described abstract command (for example, a “Banzai” command) is realized by a combination of a plurality of basic commands, for example, a motion command, a sound command, and an LED output command. The robot apparatus 1 can execute the contents of the abstract command by storing the correspondence between such an abstract command and the basic command in a storage unit, for example, a memory stick. Have been. Further, by storing such correspondence information in the storage means as an editable file, it is possible for the user to change the operation of each unit executed by the abstract command according to his / her preference. ing.

【0096】また、ロボット装置1のソフトウェア層に
ついては、例えば図12に示すように構成されている。
ソフトウェア層は、大別して、アプリケーション層12
0、ミドルウエア層80、マネージャオブジェクト層1
30、ロボットサーバオブジェクト層140及びデバイ
スドライバ層150から構成されている。さらに、マネ
ージャオブジェクト130については、オブジェクトマ
ネージャ131及びサービスマネージャ132を有して
いる。また、ロボットサーバオブジェクトについては、
デザインロボット141、パワーマネージャ142、バ
ーチャルロボット143及びデバイスドライバマネージ
ャ144を有している。これらは、概略以下のように機
能する。
The software layer of the robot device 1 is configured as shown in FIG. 12, for example.
The software layer is roughly divided into the application layer 12
0, middleware layer 80, manager object layer 1
30; a robot server object layer 140; and a device driver layer 150. Further, the manager object 130 has an object manager 131 and a service manager 132. For the robot server object,
It has a design robot 141, a power manager 142, a virtual robot 143, and a device driver manager 144. These function roughly as follows.

【0097】マネージャオブジェクト層130におい
て、オブジェクトマネージャ131は、アプリケーショ
ン層120及びミドルウェア層80の起動、消滅を管理
し、サービスマネージャ132は、コネクションファイ
ルに記述されたオブジェクト間の接続情報を元に各オブ
ジェクトに接続を促すシステムオブジェクトとして機能
する。
In the manager object layer 130, an object manager 131 manages activation and destruction of the application layer 120 and the middleware layer 80. A service manager 132 manages each object based on connection information between objects described in a connection file. Functions as a system object that prompts a connection.

【0098】また、デバイスドライバ層150は、デバ
イスドライバセット151(例えば上述したCPCデバ
イス25等のハードウェア層)に直接アクセスすること
を許されたオブジェクトである。すなわち、ハードウェ
ア層のデバイスを制御する直上の制御部を構成してい
る。このデバイスドライバ層150はハードウェアの割
り込みを受けて処理を行う。
The device driver layer 150 is an object that is allowed to directly access the device driver set 151 (for example, the above-mentioned hardware layer of the CPC device 25 or the like). That is, it constitutes a control unit immediately above which controls devices in the hardware layer. The device driver layer 150 performs processing in response to a hardware interrupt.

【0099】また、ロボットサーバオブジェクト層14
0において、デザインドロボット141は、ロボット装
置1の構成等を管理し、パワーマネージャ142は、電
源管理をし、デバイスドライバマネージャ144は、外
部接続等されている機器、例えば、パーソナルコンピュ
ータやPCカードのアクセスを管理している。
The robot server object layer 14
0, the designed robot 141 manages the configuration and the like of the robot apparatus 1, the power manager 142 manages the power supply, and the device driver manager 144 controls the externally connected devices such as a personal computer and a PC card. Manage access to.

【0100】そして、ロボットサーバオブジェクト層1
40においてバーチャルロボット143は、ミドルウェ
ア層80と各種デバイスドライバとの間での情報の受け
渡しを各オブジェクト間の通信規約の下で行う部分をな
す。
Then, the robot server object layer 1
In 40, the virtual robot 143 forms a part that exchanges information between the middleware layer 80 and various device drivers under the communication protocol between the objects.

【0101】上述したように、出力系のミドルウェア層
100は下位のデバイスドライバに制御信号を出力して
各デバイスを実際に制御している。また、上述した認識
系のミドルウェア層90については下位のデバイスから
の情報に基づいて外部情報を認識している。このような
出力系のミドルウェア層100による各デバイスの制御
や、認識系のミドルウェア層90における各デバイスの
状況の認識については、具体的には、図11に示すよう
に、このバーチャルロボット110を介して行われてい
る。
As described above, the output middleware layer 100 outputs a control signal to a lower device driver to actually control each device. Also, the above-described middleware layer 90 of the recognition system recognizes external information based on information from lower-level devices. The control of each device by the middleware layer 100 of the output system and the recognition of the status of each device by the middleware layer 90 of the recognition system are specifically performed through the virtual robot 110 as shown in FIG. Has been done.

【0102】バーチャルロボット110は、認識系のミ
ドルウェア層90及び出力系のミドルウェア層100と
外部に対しての入出力系を構成するデバイスドライバと
のデータの受け渡しをするものであって、各種デバイス
ドライバとオブジェクト間通信規約に基づいて動作する
オブジェクトとの橋渡しをするオブジェクトとして機能
するものである。このバーチャルロボット110によ
り、認識系のミドルウェア層90及び出力系のミドルウ
ェア層100と各種デバイスドライバーとの間での情報
の受け渡しが各オブジェクト間の通信規約の下でなされ
ることになる。
The virtual robot 110 exchanges data between the middleware layer 90 of the recognition system and the middleware layer 100 of the output system, and device drivers constituting an input / output system to the outside. It functions as an object for bridging the object and an object operating based on the inter-object communication protocol. With the virtual robot 110, information is exchanged between the recognition middleware layer 90 and the output middleware layer 100 and the various device drivers under the communication rules between the objects.

【0103】次に、ロボット装置1が自主的に行動を決
定するための機能について説明する。ロボット装置1
は、自主的行動の実現するために、行動モデルや感情モ
デルを有している。行動モデルや感情モデルは外的要因
又は内的要因に基づいて変化し、これにより、ロボット
装置は、行動モデルや感情モデルの出力に応じて動作
し、自律型のロボット装置として構成されている。行動
モデル及び感情モデルは、図12に示したソフトウェア
層におけるアプリケーション層120において構築され
ている。感情モデル64は、例えば図13に示すように
構築されている。
Next, a function for the robot apparatus 1 to independently determine an action will be described. Robot device 1
Has an action model and an emotion model in order to realize a voluntary action. The behavior model and the emotion model change based on an external factor or an internal factor, whereby the robot device operates according to the output of the behavior model or the emotion model, and is configured as an autonomous robot device. The behavior model and the emotion model are constructed in the application layer 120 in the software layer shown in FIG. The emotion model 64 is constructed, for example, as shown in FIG.

【0104】第1乃至第3のセンサ61,62,63
は、ユーザ、さらには環境などの外部から与えられる刺
激を検知し、電気信号に変換して出力する。この電気信
号は、第1及び第2の入力評価部71,72に供給され
る。ここで、第1乃至第3のセンサ61,62,63
は、ポテンショメータ19a〜19c、タッチセンサ2
0、マイクロホン21などの他、図示しない音声認識セ
ンサや画像色認識センサ等であり、ユーザがロボット装
置1の世話をするために行った操作や、発した音声を、
電気信号に変換して出力する。第1乃至第3のセンサ6
1,62,63の出力は、第1及び第2の入力評価部7
1,72に供給される。
First to third sensors 61, 62, 63
Detects a stimulus given from the outside of the user or the environment, converts the stimulus into an electric signal, and outputs the electric signal. This electric signal is supplied to the first and second input evaluation units 71 and 72. Here, the first to third sensors 61, 62, 63
Are potentiometers 19a to 19c, touch sensor 2
0, a microphone 21, and the like, a voice recognition sensor, an image color recognition sensor, and the like (not shown) that perform operations performed by the user to take care of the robot device 1 and voices emitted.
Converts to electrical signals and outputs. First to third sensors 6
The outputs of the first, second and first input evaluators 7
1,72.

【0105】第1の入力評価部71は、第1乃至第3の
センサ61,62,63から供給される電気信号を評価
し、所定の感情を検出する。ここでいう所定の感情と
は、例えば喜びの感情である。第1の入力評価部71
は、検出した感情の評価値を第1の感情モジュール73
に供給する。第1の感情モジュール73には、所定の感
情が割り当てられており、第1の入力評価部71から供
給される感情の評価値に基づいて、感情のパラメータが
増減する。例えば、所定の感情に「喜び」が割り当てら
れている場合には、第1の入力評価部71から供給され
る感情の評価値に基づいて、「喜び」の感情のパラメー
タが増減することになる。第1の感情モジュール73
は、感情パラメータを出力選択部75に供給する。
The first input evaluator 71 evaluates the electric signals supplied from the first to third sensors 61, 62, 63 and detects a predetermined emotion. The predetermined emotion here is, for example, a feeling of joy. First input evaluation unit 71
Converts the detected emotion evaluation value into the first emotion module 73
To supply. Predetermined emotions are assigned to the first emotion module 73, and the emotion parameters increase or decrease based on the emotion evaluation values supplied from the first input evaluation unit 71. For example, when “joy” is assigned to a predetermined emotion, the parameter of the emotion of “joy” increases or decreases based on the evaluation value of the emotion supplied from the first input evaluation unit 71. . First emotion module 73
Supplies the emotion parameter to the output selection unit 75.

【0106】同様に、第2の入力評価部72も、第1乃
至第3のセンサ61,62,63から供給される電気信
号を評価し、所定の感情を検出する。ここでいう所定の
感情とは、例えば怒りの感情である。第2の入力評価部
72は、検出した感情の評価値を第2の感情モジュール
74に供給する。第2の感情モジュール74には、所定
の感情が割り当てられており、第2の入力評価部72か
ら供給される感情の評価値に基づいて、感情のパラメー
タが増減する。例えば、所定の感情に「怒り」が割り当
てられている場合には、第2の入力評価部72から供給
される感情の評価値に基づいて、「怒り」感情のパラメ
ータが増減することになる。第2の感情モジュール74
は、感情パラメータを出力選択部75に供給する。
Similarly, the second input evaluator 72 evaluates the electric signals supplied from the first to third sensors 61, 62, 63 and detects a predetermined emotion. The predetermined emotion here is, for example, an angry emotion. The second input evaluation section 72 supplies the detected emotion evaluation value to the second emotion module 74. A predetermined emotion is assigned to the second emotion module 74, and the parameter of the emotion increases or decreases based on the evaluation value of the emotion supplied from the second input evaluation unit 72. For example, when “anger” is assigned to a predetermined emotion, the parameter of the “anger” emotion increases or decreases based on the evaluation value of the emotion supplied from the second input evaluation unit 72. Second emotion module 74
Supplies the emotion parameter to the output selection unit 75.

【0107】出力選択部75は、第1及び第2の感情モ
ジュール73,74から供給される感情パラメータが所
定の閾値を越えているか否かを判定し、閾値を越えてい
る感情パラメータを出力する。また、出力選択部75
は、第1及び第2の感情モジュール73,74からの2
つの感情パラメータがいずれも閾値を越えている場合に
は、感情パラメータが大きい方を選択し、出力する。
The output selector 75 determines whether the emotion parameters supplied from the first and second emotion modules 73 and 74 exceed a predetermined threshold, and outputs the emotion parameters exceeding the threshold. . Also, the output selection unit 75
Are the two from the first and second emotion modules 73 and 74.
If any one of the emotion parameters exceeds the threshold value, the one with the larger emotion parameter is selected and output.

【0108】行動生成部65は、出力選択部75から供
給される感情を、具体的な行動を指示する命令に変換
し、出力部66に供給するとともに、出力評価部76に
フィードバックさせる。
The action generation section 65 converts the emotion supplied from the output selection section 75 into a command for instructing a specific action, supplies the command to the output section 66, and feeds it back to the output evaluation section 76.

【0109】出力評価部76は、行動生成部65から供
給される行動を評価し、その行動が行われた場合、その
行動に対応する感情パラメータを減少させるように制御
する。
The output evaluator 76 evaluates the action supplied from the action generator 65, and when the action is performed, controls to reduce the emotion parameter corresponding to the action.

【0110】出力部66は、行動生成部65からの行動
命令に従った出力を行う。出力部66は、ロボット装置
1の出力であり、これにより、ロボット装置1は、行動
生成部65からの行動命令に従い行動する。すなわち例
えば、出力部66は、脚部2a〜2d、頭部3、胴体4
などに相当する部材を駆動するアクチュエータ22a〜
22dや、スピーカ23などでなり、例えば、所定のア
クチュエータを駆動して頭部3を回転させたり、鳴き声
等を出力したりする。
The output section 66 outputs according to the action command from the action generation section 65. The output unit 66 is an output of the robot device 1, whereby the robot device 1 acts according to the action command from the action generation unit 65. That is, for example, the output unit 66 includes the legs 2a to 2d, the head 3, the body 4
Actuators 22a to drive members corresponding to
22d, a speaker 23, and the like. For example, a predetermined actuator is driven to rotate the head 3 or output a cry.

【0111】このようにロボット装置1は、感情モデル
の感情パラメータに基づいて感情表現を示す動作をする
が、さらに感情パラメータに基づいて所定のデータを記
憶手段に書き込むこともできる。ロボット装置1は、例
えば、そのような感情を示す動作をした際に、外部の状
態として周囲の画像や周囲の音声を記憶手段に書き込
む。ここで、画像は、外部の状態を検出する検出手段の
一部をなす外部入力手段とされるCCDビデオカメラ1
1により取り込み、音声は、外部入力手段とされるマイ
クロホン21により取り込む。
As described above, the robot apparatus 1 operates to indicate an emotional expression based on the emotional parameters of the emotional model. However, it is also possible to write predetermined data into the storage means based on the emotional parameters. For example, when the robot apparatus 1 performs an operation indicating such an emotion, the robot apparatus 1 writes a surrounding image or a surrounding voice as an external state in the storage unit. Here, the image is captured by a CCD video camera 1 serving as an external input unit that forms a part of a detection unit that detects an external state.
1, and voice is captured by a microphone 21 which is an external input means.

【0112】以上のような処理について、具体的に、第
1の感情モジュール73に「喜び」、第2の感情モジュ
ール74に「怒り」が割り当てられている場合について
説明する。なお、ここで、第1のセンサ61を画像色認
識センサとし、第2のセンサ62を音声認識センサと
し、第3のセンサ63をタッチセンサ20として以下を
説明する。
The above-described processing will be specifically described for the case where “joy” is assigned to the first emotion module 73 and “anger” is assigned to the second emotion module 74. Here, the following description will be made with the first sensor 61 as an image color recognition sensor, the second sensor 62 as a voice recognition sensor, and the third sensor 63 as a touch sensor 20.

【0113】第1の入力評価部71は、画像色認識セン
サ(第1のセンサ)61から「黄色」に対応する電気信
号、音声認識センサ(第2のセンサ)62から所定の周
波数(例えば、「レ」)に対応する電気信号、また、タ
ッチセンサ(第3のセンサ)63から「なでている状
態」に対応する電気信号が供給されると、それぞれの信
号を評価し、「喜び」の評価値を決定する。第1の入力
評価部71は、「喜び」の評価値を第1の感情モジュー
ル73に供給する。感情モジュール73は、「喜び」の
評価値に基づいて、感情のパラメータを増加させる。感
情のパラメータは、出力選択部75に供給される。
The first input evaluation section 71 receives an electric signal corresponding to “yellow” from the image color recognition sensor (first sensor) 61 and a predetermined frequency (for example, from the voice recognition sensor (second sensor) 62). When an electric signal corresponding to “レ”) and an electric signal corresponding to “stroking state” are supplied from the touch sensor (third sensor) 63, the respective signals are evaluated and “joy” is provided. Is determined. The first input evaluation unit 71 supplies the evaluation value of “joy” to the first emotion module 73. The emotion module 73 increases an emotion parameter based on the evaluation value of “joy”. The emotion parameters are supplied to the output selection unit 75.

【0114】一方、第2の入力評価部72は、画像色認
識センサ61から「赤色」に対応する電気信号、音声認
識センサ62から所定の周波数(例えば、「ファ」)に
対応する電気信号、また、タッチセンサ63から「たた
いている状態」に対応する電気信号が供給されると、そ
れぞれの信号を評価し、「怒り」の評価値を決定する。
第2の入力評価部72は、「怒り」の評価値を第2の感
情モジュール74に供給する。第2の感情モジュール7
4は、「怒り」の評価値に基づいて、感情のパラメータ
を増加させる。感情のパラメータは、出力選択部75に
供給される。
On the other hand, the second input evaluator 72 outputs an electric signal corresponding to “red” from the image color recognition sensor 61, an electric signal corresponding to a predetermined frequency (for example, “fa”) from the voice recognition sensor 62, When an electric signal corresponding to the “hitting state” is supplied from the touch sensor 63, each signal is evaluated, and an evaluation value of “anger” is determined.
The second input evaluation unit 72 supplies the evaluation value of “anger” to the second emotion module 74. Second emotion module 7
No. 4 increases the emotion parameter based on the evaluation value of “anger”. The emotion parameters are supplied to the output selection unit 75.

【0115】出力選択部75は、第1及び第2の感情モ
ジュール73,74から供給される感情パラメータが所
定の閾値を越えているか否かを判定する。ここでは、
「怒り」の感情パラメータが閾値を越えているものとす
る。
The output selection section 75 determines whether or not the emotion parameters supplied from the first and second emotion modules 73 and 74 exceed a predetermined threshold. here,
It is assumed that the emotion parameter of “anger” exceeds the threshold.

【0116】行動生成部65は、出力選択部75から供
給される「怒り」の感情パラメータを具体的な行動(吠
える)を指示する命令に変換し、出力部66に供給する
とともに、出力評価部76にフィードバックさせる。
The action generation section 65 converts the emotion parameter of “anger” supplied from the output selection section 75 into a command for instructing a specific action (barking), supplies the command to the output section 66, and outputs the command to the output evaluation section. 76 is fed back.

【0117】出力部66は、行動生成部65からの行動
命令(吠える)に従った出力を行う。すなわち、スピー
カ23から、対応する音声が出力される。ロボット装置
1が吠えることで、その「怒り」が発散され、「怒り」
の感情が抑制される。このことを考慮して、出力評価部
76は、第2の感情モジュール74の感情パラメータを
減少させる。
The output section 66 outputs according to the action command (barking) from the action generation section 65. That is, the corresponding sound is output from the speaker 23. When the robot apparatus 1 barks, the “anger” is released, and the “anger” is released.
Is suppressed. In consideration of this, the output evaluation unit 76 reduces the emotion parameter of the second emotion module 74.

【0118】以上がロボット装置1の有する感情モデル
である。次に、各種情報に基づいてロボット装置1の行
動を決定するための行動モデルについて図14を用いて
説明する。
The emotion model of the robot device 1 has been described above. Next, an action model for determining an action of the robot device 1 based on various information will be described with reference to FIG.

【0119】行動モデルは、図14に示すように、セン
サ入力によりロボット装置1に動作させるための行動出
力を決定している。ここで、センサ入力は、CPCデバ
イス25のうちのポテンショメータ19a〜19c等の
外部情報を取得するためのセンサからの入力である。具
体的には、CPCデバイス25から認識情報を得た入力
セマンティクスコンバータ91からの情報とされる。
As shown in FIG. 14, the behavior model determines a behavior output for causing the robot apparatus 1 to operate based on a sensor input. Here, the sensor input is an input from a sensor for acquiring external information such as the potentiometers 19a to 19c in the CPC device 25. Specifically, the information is information from the input semantics converter 91 that has obtained recognition information from the CPC device 25.

【0120】この行動モデルM3は、異なる行動目的を
もった複数の遷移状態表をサブシステムとして有してい
る。具体的には、サブシステムは、図15に示すよう
に、システム管理を行動目的とするシステム管理F1
姿勢を管理することを行動目的とする姿勢管理F2、障
害物を回避することを行動目的とする障害物回避F3
反射動作を行動目的とする反射F4、感情表現を行動目
的とする感情表現F5、自律行動一般の動作を行動目的
とする自律行動一般F6、ゲームの実行を行動目的とす
るゲームF7、パフォーマンスの実行を行動目的とする
パフォーマンスF8、サッカーの動作を行動目的とする
サッカーF9、データの保存を行動目的とする記録F10
等の状態遷移表を有しており、行動モデルM3は、この
ような状態遷移表に基づいて現在の状態から目的とする
状態に遷移するような行動出力を決定している。
This behavior model M 3 has a plurality of transition state tables having different behavior purposes as subsystems. More specifically, as shown in FIG. 15, the subsystems include system management F 1 ,
Posture management F 2 , which aims to manage posture, obstacle avoidance F 3 , which aims to avoid obstacles,
Reflection F 4 to the reflection behavior and action purposes, game F 7 to emotional expression F 5, the autonomous behavior in general F 6, the action purpose execution of the game to the autonomous action action action purpose of general and action aimed at emotional expression , A performance F 8 for the purpose of executing the performance, a soccer F 9 for the purpose of soccer operation, and a record F 10 for the purpose of storing data.
Has a state transition table etc., the behavior model M 3, and determines the action output with the transition from the current state on the basis of such a state transition table to the state of interest.

【0121】例えば、状態遷移表には、それぞれに優先
度が付してあり、重要度の高い行動が優先的に実行され
るように関係付けられている。本例では、記録F10、サ
ッカーF9、パフォーマンスF8、ゲームF7、自律行動
一般F6、感情表現F5、反射F4、障害物回避F3、姿勢
管理F2及びシステム管理F1の順序で優先度が高くなっ
ており、これにより、CPCデバイス25からのセンサ
入力に対して、システム管理F1、姿勢管理F2、障害物
回避F3、反射F4、感情表現F5、自律行動一般F6、ゲ
ームF7、パフォーマンスF8、サッカーF9及び記録F
10の順序で優先的に実行されるようになる。
For example, priorities are assigned to the state transition tables, and the status transition tables are associated with each other so that actions having high importance are executed with priority. In this example, the record F 10 , the soccer F 9 , the performance F 8 , the game F 7 , the general autonomous behavior F 6 , the emotion expression F 5 , the reflection F 4 , the obstacle avoidance F 3 , the posture management F 2, and the system management F 1. In this order, the priorities are higher in order of the system management F 1 , the posture management F 2 , the obstacle avoidance F 3 , the reflection F 4 , the emotion expression F 5 , and the sensor input from the CPC device 25. autonomous behavior general F 6, game F 7, performance F 8, soccer F 9 and recording F
It will be executed in priority order of 10 .

【0122】例えば、状態遷移表については、遷移確率
に基づいて確率的に遷移する状態を決定する確率オート
マンの呼ばれるアルゴリズムの原理を用いている。
For example, for the state transition table, the principle of an algorithm called a probabilistic automan that determines a state to transition stochastically based on the transition probability is used.

【0123】確率オートマンは、図16に示すように、
n(nは整数。)個の状態をノードNODE0〜NOD
nとして表現した場合、1つのノードNODE0から他
のノードNODE1〜NODEnに遷移するかを、各ノ
ードNODE0〜NODEnの間を接続するアークARC
1〜ARCnに対してそれぞれ設定された遷移確率P1
至Pnに基づいて確率的により決定するアルゴリズムで
ある。ここで、アークとは、装置(ロボット装置1)に
実現される状態を予め定義し、装置の動作を、定義した
各状態間で遷移させるために、各状態間を遷移する際の
装置の動作を示すものである。
The probability automan is, as shown in FIG.
n (n is an integer) states are represented by nodes NODE 0 to NOD.
When expressed as E n, the arc ARC of whether to transition from one node NODE 0 to other nodes NODE 1 ~NODEn, connecting each node NODE 0 ~NODE n
Is an algorithm determined by probabilistic based on the set transition probability P 1 to P n respectively 1 ~ARC n. Here, the arc is defined as a state realized in the device (robot device 1) in advance, and the operation of the device when transitioning between the states in order to transition the operation of the device between the defined states. It shows.

【0124】このような確率オートマンのアルゴリズム
を状態遷移表に適用することにより、現在が第1のノー
ドNODE0にある場合において、現在の状態やCPC
デバイス25のセンサ入力等の状態遷移のための情報に
基づいて次のノードが決定される。
By applying the Stochastic Automan algorithm to the state transition table, when the current state is at the first node NODE 0 , the current state and the CPC
The next node is determined based on information for state transition such as a sensor input of the device 25.

【0125】なお、行動モデルについては、上述したよ
うに、状態遷移表に基づいて行動出力を行うことに限定
されるものでなく、これ以外の手段を採ることもでき
る。例えば、神経回路網における情報処理メカニズムを
参照してなるニューラルネットワークを用いて行動モデ
ルを構築することもできる。
As described above, the action model is not limited to the action output based on the state transition table, and other means can be adopted. For example, a behavior model can be constructed using a neural network that refers to an information processing mechanism in a neural network.

【0126】また、行動モデルを構成するサブシステム
は、以上のようなものに限定されないことはいうまでも
ない。
It is needless to say that the subsystems constituting the behavior model are not limited to those described above.

【0127】また、行動モデルM3は、行動出力に際
し、図14に示すように、感情モデルの出力信号である
感情値(感情パラメータ)及び本能モデルの出力信号で
ある本能値(本能パラメータ)を参照している。
In addition, when the action model M 3 outputs an action, as shown in FIG. 14, an emotion value (emotion parameter) which is an output signal of the emotion model and an instinct value (instinct parameter) which is an output signal of the instinct model are output. Is referring.

【0128】感情モデルM1では、感情パラメータが、
上述したようにCPCデバイス25からのセンサ入力に
基づく入力評価値に応じて増減するとともに、行動を起
こした場合に得られる出力評価値に応じて増減する。す
なわち、感情モデルM1は、入力評価及び出力評価によ
り感情パラメータが更新される。なお、感情モデルM1
は、外界からの入力に反応によるもの、内部状態による
もの、又は時間の経過により変化するものなどで、上述
した怒りや喜びの他に、悲しみ、恐怖、驚き、嫌悪等に
基づくものである。
In the emotion model M 1 , the emotion parameter is
As described above, the value increases and decreases according to the input evaluation value based on the sensor input from the CPC device 25, and increases and decreases according to the output evaluation value obtained when an action is taken. In other words, the emotion model M 1 is emotion parameters are updated by the input evaluation and output evaluation. The emotion model M 1
Is based on a response, an internal state, or a change over time in response to an input from the outside world, and is based on sadness, fear, surprise, disgust, etc. in addition to the above-mentioned anger and joy.

【0129】同様に、本能モデルM2では、本能パラメ
ータが、CPCデバイス25からのセンサ入力に基づく
入力評価値に応じて増減するとともに、行動を起こした
場合に得られる出力評価値に応じて増減する。すなわ
ち、本能モデルM2についても、入力評価及び出力評価
により本能パラメータが更新される。なお、本能モデル
2とは、主に内部状態を要因とし、徐々に変化してい
くもので、例えば、食欲、運動欲、休息欲、愛情欲、知
識欲、性欲等の主に欲求に基づくモデルである。例え
ば、「食欲」の本能モデルは、バッテリー残量を参照し
て得ることができる。
Similarly, in the instinct model M 2 , the instinct parameter increases and decreases according to an input evaluation value based on a sensor input from the CPC device 25 and increases and decreases according to an output evaluation value obtained when an action is taken. I do. That is, for even instinct model M 2, instinct parameters are updated by the input evaluation and output evaluation. Note that the instinct model M 2, primarily the internal state as a factor, as it gradually changes, based for example, appetite, movement desire, rest greed, affection greed, thirst for knowledge, mainly to desire such libido Model It is. For example, the instinct model of “appetite” can be obtained by referring to the remaining battery power.

【0130】さらに、行動モデルM3は、図14に示す
ように、学習モジュールM4により行動選択確率更新が
なされるようになっている。
Further, as shown in FIG. 14, the action model M 3 is updated by the learning module M 4 to update the action selection probability.

【0131】学習モジュールM4は、過去の情報を将来
の行動等に反映させるためのモジュールであって、例え
ば過去の行動を学習するものである。例えば、学習モジ
ュールM4は、学習結果に基づいて、行動モデルM3を構
成するサブシステム(状態遷移表)の優先度(行動選択
確率)を変化させる。これにより、過去の情報が反映さ
れたサブシステムの選択がなされるようになる。
The learning module M 4 is a module for reflecting past information in future actions and the like, and learns past actions, for example. For example, the learning module M 4 based on the learning result, changing the priority of the sub-systems in the behavioral model M 3 (the state transition table) (action selection probability). As a result, a subsystem in which past information is reflected is selected.

【0132】以上のように、行動モデルM3は、入力評
価値及び出力評価値により変化する感情パラメータを示
す感情値や本能パラメータを示す本能値を参照して、さ
らには学習モジュールM4により優先度が変化されるサ
ブシステムにより、最終的な行動出力をなす。
As described above, the behavior model M 3 refers to the emotion value indicating the emotion parameter and the instinct value indicating the instinct parameter which change according to the input evaluation value and the output evaluation value, and furthermore, the learning module M 4 The final action output is made by the subsystem whose degree is changed.

【0133】行動選択モジュール160は、行動モデル
3の行動出力により行動目的に応じた動作となるよう
に、CPCデバイス25を制御して、例えば手足、頭、
尻尾等を動作させ、目的とされる行動を完了させる。そ
して、この動作が上述した出力評価値とされて上述した
感情モデル及びM1本能モデルM2にフィードバックされ
る。なお、CPCデバイス25と行動モジュールとの間
の情報の受け渡しについては、具体的には、上述の出力
セマンティクスコンバータ101を介して行われる。
[0133] behavior selection module 160, so that the operation corresponding to the behavioral model M 3 of the action output by the behavior object, and controls the CPC device 25, for example limbs, head,
The tail or the like is moved to complete the intended action. Then, the operation is fed back to the feeling model and M 1 instinct model M 2 described above is an output evaluation value described above. Note that the transfer of information between the CPC device 25 and the behavior module is specifically performed via the output semantics converter 101 described above.

【0134】以上のように、ロボット装置1の感情及び
行動を規定する部分が構成されている。ロボット装置1
は、上述したように構築されている行動モデルや感情モ
デルにより、外部の状態に起因する外的要因や内部の状
態に起因する内的要因の変化に応じて行動を決定して、
実際の動作を起こす。すなわち、ロボット装置は、外的
要因又は内的要因に応じて自主的に行動を決定する自律
型のロボット装置として構成されている。
As described above, the part that defines the emotion and behavior of the robot device 1 is configured. Robot device 1
According to the behavior model and the emotion model constructed as described above, the behavior is determined according to the change of the external factor caused by the external state or the internal factor caused by the internal state,
Cause the actual action. That is, the robot device is configured as an autonomous robot device that autonomously determines an action according to an external factor or an internal factor.

【0135】そして、行動管理システムにおいて、この
自律型のロボット装置1は、同期されて送られてきたコ
マンドの受信により、他のロボット装置と協調行動を行
うようになされている。これにより、ユーザの鑑賞の楽
しさが広がる。
In the behavior management system, the autonomous robot device 1 performs a cooperative behavior with another robot device by receiving a command transmitted in synchronization. Thereby, the enjoyment of appreciation of the user is expanded.

【0136】なお、上述の実施の形態では、複数のロボ
ット装置の行動の管理をパーソナルコンピュータにより
行っている場合について述べた。しかし、これに限定さ
れるものではなく、図17に示すように、ロボット装置
1aが他の複数のロボット装置1bの行動を管理するこ
ともできる。すなわち、複数のロボット装置の間だけで
閉じたローカルエリアネットワークを形成する。これに
より、一のロボット装置1aにより、他のロボット装置
の行動を管理することができるようになる。この場合、
複数のロボット装置の行動を管理するためにパーソナル
コンピュータ33が有している構成をロボット装置1a
に備える。
In the above-described embodiment, a case has been described where the actions of a plurality of robot devices are managed by a personal computer. However, the present invention is not limited to this. As shown in FIG. 17, the robot device 1a can manage the actions of the other plurality of robot devices 1b. That is, a closed local area network is formed only between a plurality of robot devices. As a result, the behavior of another robot device can be managed by one robot device 1a. in this case,
The configuration of the personal computer 33 for managing the actions of a plurality of robot devices is the same as that of the robot device 1a.
Prepare for.

【0137】また、上述の実施の形態では、複数のロボ
ット装置に実行させる協調行動として「ウェイブ」をさ
せた場合について述べた。しかし、これに限定されるも
のではなく、音声、動作等の発現可能な行動について協
調行動をさせることができる。また、行動管理するロボ
ット装置の台数も上述のように3台に限定されるもので
はない。具体的には、他に、以下のような協調行動をさ
せることができる。
Further, in the above-described embodiment, a case has been described in which “wave” is performed as a cooperative action to be executed by a plurality of robot apparatuses. However, the present invention is not limited to this, and it is possible to cause a cooperative action with respect to actions that can be expressed, such as voice and motion. Further, the number of robot devices for behavior management is not limited to three as described above. More specifically, the following cooperative actions can be performed.

【0138】各ロボット装置にそれぞれ単音を発しさせ
る。これにより、複数のロボット装置の協調行動によ
り、和音が発生される。また、同時に各ロボット装置に
お辞儀をするようにしてもよい。これにより、お辞儀を
する複数のロボット装置が和音を発生するような協調行
動となる。
Each robot device emits a single sound. Thereby, a chord is generated by the cooperative action of the plurality of robot devices. Further, the robot devices may be bowed at the same time. As a result, a plurality of bowing robot devices perform cooperative actions such as generating a chord.

【0139】また、「発声練習」の協調行動をさせるこ
ともできる。具体的には、1台のロボット装置(他のロ
ボット装置の行動管理をできるロボット装置)が指揮者
で、整列している複数のロボット装置を順番に腕で指
す。指されたロボット装置が腕を振りながら発声をす
る。指揮者のロボット装置が順番にロボット装置を指し
ていくとそれに合わせて順に発声する。そして、最後に
指揮者のロボット装置の合図で全員が発声する。
Further, a cooperative action of "vocalization practice" can be performed. More specifically, one robot device (a robot device capable of managing the behavior of another robot device) is a conductor, and a plurality of aligned robot devices are sequentially pointed by an arm. The pointed robot device utters while waving its arm. When the conductor's robot device sequentially points at the robot device, it utters in sequence accordingly. Finally, all the members utter at the signal of the conductor's robot device.

【0140】また、「輪唱」の協調行動をさせることも
できる。この場合、「発声練習」の場合と同様に指揮者
のロボット装置の指すタイミングにあわせてずらしなが
ら、輪唱を行うようにする。
Further, a cooperative action of "ringing" can be performed. In this case, as in the case of the “vocalization practice”, the singing is performed while shifting the timing according to the timing pointed by the robot device of the conductor.

【0141】また、「体操」の協調行動をさせることも
できる。具体的には、例えば、インストラクターのロボ
ット装置(他のロボット装置の行動を管理するロボット
装置)の指示に合わせてロボット装置が体操をする。言
うことを聞かないロボット装置がいる場合、インストラ
クターのロボット装置は全体に対する指示を止めて、指
示を聞かないロボット装置のみを叱る。例えば、吼えて
叱る。叱られたロボット装置は謝り、インストラクター
のロボット装置は再び指示を出す。そして、今度は全員
で同時に体操を行うようにする。
Further, it is also possible to cause a cooperative action of “gymnastics”. Specifically, for example, the robot device performs gymnastics in accordance with an instruction from a robot device of the instructor (a robot device that manages the behavior of another robot device). When there is a robot device that does not hear what is said, the robot device of the instructor stops the instruction to the whole and scolds only the robot device that does not listen to the instruction. For example, howling and scolding. The scolded robot device apologizes, and the instructor robot device gives instructions again. And this time, everyone will do gymnastics at the same time.

【0142】以上のような協調行動は、スクリプト(台
本)を編集することにより可能となっているので、容易
に上述のような種々の内容に協調行動の内容を変更する
こともできる。
Since the cooperative action as described above is made possible by editing a script (script), the content of the cooperative action can be easily changed to the various contents described above.

【0143】また、上述の実施の形態では、行動管理す
るパーソナルコンピュータ33により、1つのグループ
を構成する複数のロボット装置に協調行動させる場合に
ついて述べた。しかし、これに限定されるものではな
く、行動管理システムは、複数のグループについての協
調行動を管理することもできる。具体的には、3台のロ
ボット装置からなる第1のグループにある協調行動をさ
せ、他の4台のロボット装置からなる第2のグループに
第1のグループとは異なる協調行動を同時的にさせる。
これにより、ユーザの鑑賞の楽しみがされに広がる。
Further, in the above-described embodiment, a case has been described in which a plurality of robot apparatuses constituting one group are caused to cooperate by the personal computer 33 for managing the action. However, the present invention is not limited to this, and the behavior management system can also manage cooperative behavior for a plurality of groups. Specifically, a first group of three robots is caused to perform a certain cooperative action, and a second group of four other robots is simultaneously subjected to a different cooperative action different from the first group. Let it.
Thereby, the enjoyment of the user's appreciation is widened.

【0144】また、上述の実施の形態では、ロボット装
置1が感情モデルや本能モデルにより自主的に行動を決
定する場合について述べた。しかし、これに限定される
ものではなく、他のプログラム、或いは他のアルゴリズ
ムにより、行動を決定するものとすることもできる。
In the above-described embodiment, a case has been described where the robot apparatus 1 voluntarily determines an action based on an emotion model or an instinct model. However, the present invention is not limited to this, and the action may be determined by another program or another algorithm.

【0145】また、上述の実施の形態では、ロボット装
置1の外観が図1に示されるような形態について述べ
た。しかし、これに限定されるものではなく、図18に
示すように、より「犬」に近いような外観とすることも
できる。
Further, in the above embodiment, the appearance of the robot apparatus 1 as shown in FIG. 1 has been described. However, the present invention is not limited to this. As shown in FIG. 18, the appearance may be closer to a "dog".

【0146】また、上述の実施の形態では、ロボット装
置を「犬」の形状について述べた。しかし、これに限定
されるものではなく、例えば、他の4脚歩行の動物や、
人型のロボット装置にも適用することもできる。
In the above-described embodiment, the robot device has been described as having the shape of a "dog". However, the present invention is not limited to this. For example, other four-legged animals,
It can also be applied to a humanoid robot device.

【0147】[0147]

【発明の効果】本発明に係る行動管理システムは、自主
的に行動を決定する自律型のロボット装置に、外部から
入力されてくるコマンドにより行動を決定する機能を備
えて、この自律型のロボット装置の行動を管理する行動
管理システムであって、複数のロボット装置に、コマン
ドを同期して送出する行動管理手段を備えることによ
り、複数のロボット装置に協調行動をさせることができ
る。
The behavior management system according to the present invention comprises an autonomous robot device for autonomously determining an action, and a function for determining an action by a command input from the outside. An action management system that manages the action of an apparatus, wherein a plurality of robot apparatuses are provided with an action management unit that transmits a command in synchronization, so that a plurality of robot apparatuses can perform cooperative actions.

【0148】また、本発明に係る行動管理方法は、自主
的に行動を決定する自律型のロボット装置に外部から入
力されてくるコマンドにより行動を決定する機能を備
え、この自律型のロボット装置の行動を管理する行動管
理方法であって、複数のロボット装置に、コマンドを同
期して送出することにより、複数のロボット装置に協調
行動をさせることができる。
Further, the action management method according to the present invention has a function of determining an action by a command input from the outside to an autonomous robot apparatus for autonomously determining an action. An action management method for managing an action, in which a command is synchronously transmitted to a plurality of robot apparatuses so that a plurality of robot apparatuses can perform a cooperative action.

【0149】また、本発明に係るロボット装置は、自主
的に行動を決定する自律型のロボット装置であって、他
の複数のロボット装置に、コマンドを同期して送出する
行動管理手段を備えることにより、ロボット装置の行動
管理により、複数のロボット装置に協調行動させること
ができる。
Further, the robot apparatus according to the present invention is an autonomous robot apparatus which determines an action autonomously, and includes an action management means for synchronously sending a command to another plurality of robot apparatuses. Thereby, the plurality of robot devices can be caused to cooperate by the behavior management of the robot devices.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態の行動管理システムにおい
て、行動が管理されるロボット装置の外観構成を示す図
である。
FIG. 1 is a diagram illustrating an external configuration of a robot device whose behavior is managed in a behavior management system according to an embodiment of the present invention.

【図2】上述のロボット装置の回路構成を示すブロック
図である。
FIG. 2 is a block diagram showing a circuit configuration of the robot device described above.

【図3】自律的に「お手」をしたときの上述のロボット
装置を示す斜視図である。
FIG. 3 is a perspective view showing the above-described robot device when the user automatically “hands”.

【図4】本発明の実施の形態の行動管理システムを示す
ブロック図である。
FIG. 4 is a block diagram showing a behavior management system according to the embodiment of the present invention.

【図5】上述の行動管理システムにおいて、ロボット装
置の行動を管理するパーソナルコンピュータ内のソフト
ウェア等の構成を示す図である。
FIG. 5 is a diagram showing a configuration of software and the like in a personal computer for managing the behavior of the robot device in the behavior management system described above.

【図6】複数のロボット装置の行動を制御するためのロ
ボット制御スクリプトの具体例を示す図である。
FIG. 6 is a diagram showing a specific example of a robot control script for controlling actions of a plurality of robot devices.

【図7】複数のロボット装置の協調行動による「ウェイ
ブ」動作を示す図である。
FIG. 7 is a diagram illustrating a “wave” operation by a cooperative action of a plurality of robot devices.

【図8】上述のロボット装置の具体的な回路構成を示す
ブロック図である。
FIG. 8 is a block diagram showing a specific circuit configuration of the robot device described above.

【図9】上述のロボット装置の信号処理部を示すブロッ
ク図である。
FIG. 9 is a block diagram illustrating a signal processing unit of the robot device described above.

【図10】上述のロボット装置における無線通信機能を
可能にする部分を示すブロック図である。
FIG. 10 is a block diagram illustrating a portion that enables a wireless communication function in the robot device described above.

【図11】上述のロボット装置のソフトウェア層のミド
ルウェア層を示すブロック図である。
FIG. 11 is a block diagram showing a middleware layer of a software layer of the robot device described above.

【図12】上述のロボット装置のソフトウェア層の構成
例を示すブロック図である。
FIG. 12 is a block diagram illustrating a configuration example of a software layer of the robot device described above.

【図13】上述のロボット装置の感情モデルを構成する
部分を示すブロック図である。
FIG. 13 is a block diagram showing a part constituting an emotion model of the robot device described above.

【図14】上述のロボット装置の行動モデルを構成する
部分を示すブロック図である。
FIG. 14 is a block diagram showing a part constituting a behavior model of the above-described robot apparatus.

【図15】上述の行動モデルの具体例を示す図である。FIG. 15 is a diagram showing a specific example of the behavior model described above.

【図16】上述の行動モデルにおいて、状態の遷移を決
定するアルゴリズムである確率オートマンを説明するた
めに使用した図である。
FIG. 16 is a diagram used to explain a probabilistic automan which is an algorithm for determining a state transition in the above-described behavior model.

【図17】他のロボット装置の行動を管理するロボット
装置を説明するために使用した図である。
FIG. 17 is a diagram used to describe a robot device that manages the behavior of another robot device.

【図18】ロボット装置の具体的な外観を示す斜視図で
ある。
FIG. 18 is a perspective view showing a specific appearance of the robot device.

【符号の説明】[Explanation of symbols]

1 ロボット装置、15 CPU、16 データ記憶
部、33 パーソナルコンピュータ、34 中継器
1 robot apparatus, 15 CPU, 16 data storage unit, 33 personal computer, 34 repeater

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C150 AA14 BA06 CA02 DA05 DA24 DA26 DA27 DA28 3F059 AA00 BA00 BB06 BC06 FC01 5B089 GA23 GB02 HA11 JA35 JB10 KA13 KB04 KB06  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 2C150 AA14 BA06 CA02 DA05 DA24 DA26 DA27 DA28 3F059 AA00 BA00 BB06 BC06 FC01 5B089 GA23 GB02 HA11 JA35 JB10 KA13 KB04 KB06

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 自主的に行動を決定する自律型のロボッ
ト装置に、外部から入力されてくるコマンドにより行動
を決定する機能を備えて、この自律型のロボット装置の
行動を管理する行動管理システムであって、 複数の上記ロボット装置に、コマンドを同期して送出す
る行動管理手段を備えたことを特徴とする行動管理シス
テム。
1. An action management system for autonomously determining an action, comprising a function of determining an action by a command input from the outside, and managing the action of the autonomous robot apparatus. A behavior management system, comprising: behavior management means for synchronously sending a command to the plurality of robot devices.
【請求項2】 上記行動管理手段は、各ロボット装置の
状態を監視しており、 上記行動管理手段は、各ロボット装置が次の行動に移れ
る状態であることを検出して、上記コマンドを同期して
送出することを特徴とする請求項1記載の行動管理シス
テム。
2. The behavior management means monitors the state of each robot device. The behavior management means detects that each robot device is ready for the next behavior, and synchronizes the command. 2. The behavior management system according to claim 1, wherein the action management system sends the information.
【請求項3】 各コマンドには識別情報が付されてお
り、 上記行動管理手段は、各ロボット装置の状態を上記識別
情報に基づいて監視しており、 上記行動管理手段は、同じ識別情報のコマンドが送出さ
れる各ロボット装置が次の行動に移れる状態であること
を検出して、上記コマンドを同期して送出することを特
徴とする請求項2記載の行動管理システム。
3. Each command is provided with identification information. The action management means monitors the state of each robot device based on the identification information. 3. The behavior management system according to claim 2, wherein each of the robot devices to which the command is sent is detected to be ready for the next action, and the command is sent synchronously.
【請求項4】 各コマンドには、当該各コマンドが送出
される各ロボット装置に対応されて合計が所定量となる
ような指数が付されており、 上記行動管理手段は、ロボット装置が次の状態に移れる
状態になっとき当該ロボット装置に送出されるコマンド
に付されている上記指数を加算し、その合計が上記所定
量となったとき上記コマンドを同期して送出することを
特徴とする請求項2記載の行動管理システム。
4. Each command is provided with an index corresponding to each robot device to which each command is transmitted, so that the sum becomes a predetermined amount. Adding the index attached to the command sent to the robot device when the robot is ready to move to the state, and synchronously sending the command when the sum reaches the predetermined amount. Item 4. The behavior management system according to Item 2.
【請求項5】 自主的に行動を決定する自律型のロボッ
ト装置に、外部から入力されてくるコマンドにより行動
を決定する機能を備えて、この自律型のロボット装置の
行動を管理する行動管理方法であって、 複数の上記ロボット装置に、コマンドを同期して送出す
ることを特徴とする行動管理方法。
5. An action management method for autonomously determining an action, comprising a function of determining an action by a command input from the outside, and managing the action of the autonomous robot apparatus. A behavior management method, wherein a command is synchronously transmitted to a plurality of the robot devices.
【請求項6】 各ロボット装置の状態を監視し、 各ロボット装置が次の行動に移れる状態であることを検
出して、上記コマンドを同期して送出することを特徴と
する請求項5記載の行動管理方法。
6. The apparatus according to claim 5, wherein the status of each robot device is monitored, and it is detected that each robot device is ready to move to the next action, and the command is transmitted synchronously. Behavior management method.
【請求項7】 自主的に行動を決定する自律型のロボッ
ト装置であって、 他の複数のロボット装置に、コマンドを同期して送出す
る行動管理手段を備えたことを特徴とするロボット装
置。
7. An autonomous robot apparatus for autonomously determining an action, comprising: a behavior management means for transmitting a command to another plurality of robot apparatuses in a synchronized manner.
【請求項8】 上記行動管理手段は、上記他の各ロボッ
ト装置の状態を監視しており、 上記行動管理手段は、上記他の各ロボット装置が次の行
動に移れる状態であることを検出して、上記コマンドを
同期して送出することを特徴とする請求項7記載のロボ
ット装置。
8. The behavior management means monitors the state of each of the other robot devices, and the behavior management means detects that the other robot devices are ready for the next behavior. 8. The robot apparatus according to claim 7, wherein said command is transmitted synchronously.
【請求項9】 各コマンドには識別情報が付されてお
り、 上記行動管理手段は、上記他の各ロボット装置の状態を
上記識別情報に基づいて監視しており、 上記行動管理手段は、上記識別情報に基づいて、同じ識
別情報のコマンドが送出される上記他の各ロボット装置
が次の行動に移れる状態であることを検出して、上記コ
マンドを同期して送出することを特徴とする請求項8記
載のロボット装置。
9. Each command is provided with identification information, wherein the behavior management means monitors the status of each of the other robot devices based on the identification information. Detecting, based on the identification information, that each of the other robot devices to which a command having the same identification information is transmitted is ready for the next action, and transmitting the command synchronously; Item 9. The robot device according to item 8.
【請求項10】 各コマンドには、当該各コマンドが送
出される上記他の各ロボット装置に対応されて合計が所
定量となるような指数が付されており、 上記行動管理手段は、上記他のロボット装置が次の状態
に移れる状態にあるとき当該ロボット装置に送出するコ
マンドに付されている上記指数を加算し、その合計が上
記所定量となったとき上記コマンドを同期して送出する
ことを特徴とする請求項8記載のロボット装置。
10. Each command is provided with an index corresponding to each of the other robot devices to which the command is transmitted, so that the sum becomes a predetermined amount. When the robot device is ready to move to the next state, add the index attached to the command to be sent to the robot device and, when the sum reaches the predetermined amount, send the command synchronously. The robot device according to claim 8, wherein:
JP37535299A 1999-12-28 1999-12-28 Behavior control system, behavior controlling method, and robot device Pending JP2001191279A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP37535299A JP2001191279A (en) 1999-12-28 1999-12-28 Behavior control system, behavior controlling method, and robot device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP37535299A JP2001191279A (en) 1999-12-28 1999-12-28 Behavior control system, behavior controlling method, and robot device

Publications (1)

Publication Number Publication Date
JP2001191279A true JP2001191279A (en) 2001-07-17

Family

ID=18505388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP37535299A Pending JP2001191279A (en) 1999-12-28 1999-12-28 Behavior control system, behavior controlling method, and robot device

Country Status (1)

Country Link
JP (1) JP2001191279A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004089579A1 (en) 2003-04-01 2004-10-21 Sony Corporation Robot device, information processing method, and program
JP2005046926A (en) * 2003-07-30 2005-02-24 Toshiba Corp Service robot system, main robot and follower robot
JP2005324278A (en) * 2004-05-13 2005-11-24 Honda Motor Co Ltd Robot control device
US7421313B2 (en) 2003-02-19 2008-09-02 Sony Corporation Robot apparatus and control method thereof
JP2012196381A (en) * 2011-03-23 2012-10-18 Nec Corp Robot control system and robot control method
WO2021157515A1 (en) * 2020-02-05 2021-08-12 ファナック株式会社 Machine learning device, computer device, control system, and machine learning method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61229107A (en) * 1985-04-04 1986-10-13 Omron Tateisi Electronics Co System for cooperatively operating automated machine group
JPH05119835A (en) * 1991-10-29 1993-05-18 Kawasaki Heavy Ind Ltd Robot device
JPH05233059A (en) * 1992-02-25 1993-09-10 Toshiba Corp Decentralized work robot system
JPH07191727A (en) * 1993-12-24 1995-07-28 Olympus Optical Co Ltd Synchronizing system for distributed control system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61229107A (en) * 1985-04-04 1986-10-13 Omron Tateisi Electronics Co System for cooperatively operating automated machine group
JPH05119835A (en) * 1991-10-29 1993-05-18 Kawasaki Heavy Ind Ltd Robot device
JPH05233059A (en) * 1992-02-25 1993-09-10 Toshiba Corp Decentralized work robot system
JPH07191727A (en) * 1993-12-24 1995-07-28 Olympus Optical Co Ltd Synchronizing system for distributed control system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7421313B2 (en) 2003-02-19 2008-09-02 Sony Corporation Robot apparatus and control method thereof
WO2004089579A1 (en) 2003-04-01 2004-10-21 Sony Corporation Robot device, information processing method, and program
JP2005046926A (en) * 2003-07-30 2005-02-24 Toshiba Corp Service robot system, main robot and follower robot
JP2005324278A (en) * 2004-05-13 2005-11-24 Honda Motor Co Ltd Robot control device
US7765028B2 (en) 2004-05-13 2010-07-27 Honda Motor Co., Ltd. Robot control apparatus
JP2012196381A (en) * 2011-03-23 2012-10-18 Nec Corp Robot control system and robot control method
WO2021157515A1 (en) * 2020-02-05 2021-08-12 ファナック株式会社 Machine learning device, computer device, control system, and machine learning method
JP7364699B2 (en) 2020-02-05 2023-10-18 ファナック株式会社 Machine learning device, computer device, control system, and machine learning method

Similar Documents

Publication Publication Date Title
US6889117B2 (en) Robot apparatus and method and system for controlling the action of the robot apparatus
JP4985805B2 (en) Robot apparatus and operation control method
JP2001212782A (en) Robot device and control method for robot device
US7251606B2 (en) Robot device with changing dialogue and control method therefor and storage medium
US6539283B2 (en) Robot and action deciding method for robot
JP7260221B2 (en) Robot interaction method and device
JP7400923B2 (en) Information processing device and information processing method
KR20010052699A (en) Robot, method of robot control, and program recording medium
US6362589B1 (en) Robot apparatus
JP4239635B2 (en) Robot device, operation control method thereof, and program
WO2000066239A1 (en) Electronic pet system, network system, robot, and storage medium
JP2003266351A (en) Robot device and motion control method therefor
KR20060079832A (en) Humanoid robot using emotion expression based on the embedded system
WO2021003471A1 (en) System and method for adaptive dialogue management across real and augmented reality
CN112204563A (en) System and method for visual scene construction based on user communication
US6697708B2 (en) Robot apparatus and robot apparatus motion control method
JP2001191279A (en) Behavior control system, behavior controlling method, and robot device
JP2004298975A (en) Robot device and obstacle searching method
JP2002086378A (en) System and method for teaching movement to leg type robot
JP2003111981A (en) Robot device and its controlling method, information providing system and information providing method for robot and storing media
JP4556425B2 (en) Content reproduction system, content reproduction method, and content reproduction apparatus
JP2001191274A (en) Data holding device, robot device, modification device and modification method
JP2001157982A (en) Robot device and control method thereof
JP2001157981A (en) Robot device and control method thereof
JP2004209599A (en) Robot device, action learning method for robot device and action preparation method for robot device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071030

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071228

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080603