JP2001157979A - Robot device, and control method thereof - Google Patents

Robot device, and control method thereof

Info

Publication number
JP2001157979A
JP2001157979A JP34120899A JP34120899A JP2001157979A JP 2001157979 A JP2001157979 A JP 2001157979A JP 34120899 A JP34120899 A JP 34120899A JP 34120899 A JP34120899 A JP 34120899A JP 2001157979 A JP2001157979 A JP 2001157979A
Authority
JP
Japan
Prior art keywords
node
action
new
model
transition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP34120899A
Other languages
Japanese (ja)
Inventor
Kotaro Sabe
浩太郎 佐部
Takeshi Takagi
剛 高木
Masahiro Fujita
雅博 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP34120899A priority Critical patent/JP2001157979A/en
Publication of JP2001157979A publication Critical patent/JP2001157979A/en
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a robot device, and a control method capable of improving entertainment performance. SOLUTION: In this robot device to determine an output action based on an action model comprising a probability condition transition model, a condition space generating means is provided to generate a new condition by determining various setting items respectively at random, and generate a new condition space comprising the condition. In this control method for a robot device to determine an output action based on an action model comprising a probability condition transition model, a first step to generate a new condition by determining various setting items respectively at random, and generate a new condition space comprising the condition, and a second step to let the robot device to take an action in accordance with the generated new condition space are provided.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明はロボット装置及びそ
の制御方法に関し、例えばペットロボットに適用して好
適なものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot apparatus and a control method therefor, and is suitably applied to, for example, a pet robot.

【0002】[0002]

【従来の技術】近年、本願特許請求人により4足歩行型
のペットロボットが提案及び開発されている。かかるペ
ットロボットは、一般家庭において飼育される犬や猫に
似た形状を有し、「叩く」や「撫でる」といったユーザ
からの働きかけや、周囲の環境等に応じて自律的に行動
し得るようになされたものである。
2. Description of the Related Art In recent years, a pet robot of a four-legged walking type has been proposed and developed by the present applicant. Such a pet robot has a shape similar to a dog or cat bred in a general household, and can act autonomously in response to a user's action such as "hitting" or "patting" or the surrounding environment. It was done in.

【0003】[0003]

【発明が解決しようとする課題】ところでかかるペット
ロボットにおいては、上述のように自律的に行動すると
はいえ、結局のところ発現される行動パターンは開発者
により作成された行動パターンの中から選択されたもの
であり、当該ペットロボットが全く新しい行動パターン
を生成しているわけではない。
However, in such a pet robot, although it behaves autonomously as described above, the behavior pattern that is ultimately expressed is selected from the behavior patterns created by the developer. Therefore, the pet robot does not generate a completely new behavior pattern.

【0004】このためかかるペットロボットにおいて
は、長い期間でみると出力される行動パターンが同じ行
動パターンの繰り返しとなり、ユーザに飽きを感じさせ
るおそれがあった。
[0004] For this reason, in such a pet robot, the behavior pattern output over a long period of time becomes a repetition of the same behavior pattern, and there is a possibility that the user may feel bored.

【0005】かかる問題を解決するための1つの手法と
して、ペットロボットが発現する行動パターンの数を増
大させる方法も考えられるものの、この方法によると行
動パターンを増やせば増やすほど行動モデルの作成に時
間を要する問題があり、また行動パターンを保存してお
くメモリとして大容量のものを必要とする問題もある。
As one method for solving such a problem, a method of increasing the number of behavior patterns expressed by a pet robot is conceivable. However, according to this method, the more the number of behavior patterns, the longer the time required to create a behavior model. In addition, there is a problem that requires a large-capacity memory for storing the behavior pattern.

【0006】従って上述のペットロボットにおいて、例
えば行動パターンを自己生成する機能をもたせることが
できれば、かかる問題を一挙に解決してエンターテイメ
ント性をより向上させ得るものと考えられる。
[0006] Therefore, if the above-mentioned pet robot can be provided with, for example, a function of self-generating a behavior pattern, it is considered that such a problem can be solved at once and the entertainment property can be further improved.

【0007】本発明は以上の点を考慮してなされたもの
で、エンターテイメント性を向上させ得るロボット装置
及びその制御方法を提案しようとするものである。
The present invention has been made in view of the above points, and an object of the present invention is to propose a robot apparatus capable of improving entertainment characteristics and a control method thereof.

【0008】[0008]

【課題を解決するための手段】かかる課題を解決するた
め本発明においては、確率状態遷移モデルでなる行動モ
デルに基づいて出力行動を決定するロボット装置におい
て、各種設定事項をランダムに決定するようにして新た
な状態を生成すると共に、当該状態からなる新たな状態
空間を生成する状態空間生成手段を設けるようにした。
この結果このロボット装置では、新たな状態空間の生成
に伴って新たな行動パターンを自己生成することができ
る。
According to the present invention, there is provided a robot apparatus for determining an output action based on an action model which is a stochastic state transition model, wherein various setting items are determined at random. And a state space generating means for generating a new state space consisting of the state.
As a result, this robot device can self-generate a new behavior pattern with the generation of a new state space.

【0009】また本発明においては、確率状態遷移モデ
ルでなる行動モデルに基づいて出力行動を決定するロボ
ット装置の制御方法において、各種設定事項をランダム
に決定するようにして新たな状態を生成すると共に、当
該状態からなる新たな状態空間を生成する第1のステッ
プと、生成された新たな状態空間に応じた行動をロボッ
ト装置に発現させる第2のステップとを設けるようにし
た。この結果このロボット装置の制御方法によれば、新
たな状態空間の生成に伴って新たな行動パターンを自己
生成することができる。
According to the present invention, in a control method of a robot apparatus for determining an output action based on an action model comprising a stochastic state transition model, a new state is generated by randomly determining various setting items. The first step of generating a new state space including the state and the second step of causing the robot device to exhibit an action according to the generated new state space are provided. As a result, according to the control method of the robot device, a new behavior pattern can be generated by the generation of a new state space.

【0010】[0010]

【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings.

【0011】(1)第1の実施の形態 (1−1)第1の実施の形態によるペットロボットの構
成 図1において、1は全体として第1の実施の形態による
ペットロボットを示し、胴体部ユニット2の前後左右に
それぞれ脚部ユニット3A〜3Dが連結されると共に、
胴体部ユニット2の前端部及び後端部にそれぞれ頭部ユ
ニット4及び尻尾部ユニット5が連結されることにより
構成されている。
(1) First Embodiment (1-1) Configuration of Pet Robot According to First Embodiment In FIG. 1, reference numeral 1 denotes a pet robot according to the first embodiment as a whole, The leg units 3A to 3D are connected to the front, rear, left and right of the unit 2, respectively.
The head unit 4 and the tail unit 5 are connected to the front end and the rear end of the body unit 2, respectively.

【0012】胴体部ユニット2には、図2に示すよう
に、CPU(Central Processing Unit )10、DRA
M(Dynamic Random Access Memory)11、フラッシュ
ROM(Read Only Memory)12、PC(Personal Com
puter )カードインターフェース回路13及び信号処理
回路14が内部バス15を介して相互に接続されること
により形成されたコントロール部16と、このペットロ
ボット1の動力源としてのバッテリ17とが収納されて
いる。また胴体部ユニット2には、ペットロボット1の
向きや動きの加速度を検出するための角速度センサ18
及び加速度センサ19なども収納されている。
As shown in FIG. 2, a CPU (Central Processing Unit) 10 and a DRA
M (Dynamic Random Access Memory) 11, Flash ROM (Read Only Memory) 12, PC (Personal Com
puter) A control unit 16 formed by connecting a card interface circuit 13 and a signal processing circuit 14 to each other via an internal bus 15 and a battery 17 as a power source of the pet robot 1 are housed therein. . The body unit 2 has an angular velocity sensor 18 for detecting the direction and the acceleration of the movement of the pet robot 1.
And an acceleration sensor 19 are also stored.

【0013】また頭部ユニット4には、外部の状況を撮
像するためのCCD(Charge Coupled Device )カメラ
20と、ユーザからの「撫でる」や「叩く」といった物
理的な働きかけにより受けた圧力を検出するためのタッ
チセンサ21と、前方に位置する物体までの距離を測定
するための距離センサ22と、外部音を集音するための
マイクロホン23と、鳴き声等の音声を出力するための
スピーカ24と、ペットロボット1の「目」に相当する
LED(Light Emitting Diode)(図示せず)となどが
それぞれ所定位置に配設されている。
The head unit 4 also detects a charge coupled device (CCD) camera 20 for capturing an image of an external situation, and a pressure received by a physical action such as "stroke" or "hit" from the user. A touch sensor 21, a distance sensor 22 for measuring a distance to an object located ahead, a microphone 23 for collecting external sound, and a speaker 24 for outputting a sound such as a cry. , An LED (Light Emitting Diode) (not shown) corresponding to the “eyes” of the pet robot 1 and the like are arranged at predetermined positions.

【0014】さらに各脚部ユニット3A〜3Dの関節部
分や、各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、頭部ユニット4及び胴体部ユニット2の
連結部分、並びに尻尾部ユニット5の尻尾5Aの連結部
分などにはそれぞれ自由度数分のアクチュエータ251
〜25n 及びポテンショメータ261 〜26n が配設さ
れている。
Further, the joints of the leg units 3A to 3D, the leg units 3A to 3D and the trunk unit 2
Each coupling portion of the head unit 4 and body unit connecting portion 2, and the tail unit actuator 25 1, respectively, etc. The consolidated portion of the tail 5A of freedom minutes 5
To 25 n and potentiometers 26 1 to 26 n are provided.

【0015】そしてこれら角速度センサ18、加速度セ
ンサ19、タッチセンサ21、距離センサ22、マイク
ロホン23、スピーカ24及び各ポテンショメータ26
1 〜26n などの各種センサ並びにLED及び各アクチ
ュエータ251 〜25n は、それぞれ対応するハブ27
1 〜27N を介してコントロール部16の信号処理回路
14と接続され、CCDカメラ20及びバッテリ17
は、それぞれ信号処理回路14と直接接続されている。
The angular velocity sensor 18, acceleration sensor 19, touch sensor 21, distance sensor 22, microphone 23, speaker 24 and potentiometer 26
Various sensors such as 1 to 26 n , LEDs and actuators 25 1 to 25 n are respectively connected to the corresponding hubs 27.
The CCD camera 20 and the battery 17 are connected to the signal processing circuit 14 of the control unit 16 through 1 to 27 N.
Are directly connected to the signal processing circuit 14, respectively.

【0016】このとき信号処理回路14は、上述の各セ
ンサから供給されるセンサデータや画像データ及び音声
データを順次取り込み、これらをそれぞれ内部バス15
を介してDRAM11内の所定位置に順次格納する。ま
た信号処理回路14は、これと共にバッテリ17から供
給されるバッテリ残量を表すバッテリ残量データを順次
取り込み、これをDRAM11内の所定位置に格納す
る。
At this time, the signal processing circuit 14 sequentially takes in the sensor data, image data, and audio data supplied from each of the above-described sensors, and receives these sequentially into the internal bus 15.
, And sequentially stored in a predetermined position in the DRAM 11. In addition, the signal processing circuit 14 sequentially takes in remaining battery power data indicating the remaining battery power supplied from the battery 17 and stores the data at a predetermined position in the DRAM 11.

【0017】そしてこのようにしてDRAM11に格納
された各センサデータ、画像データ、音声データ及びバ
ッテリ残量データは、この後CPU10がこのペットロ
ボット1の動作制御を行う際に利用される。
The sensor data, image data, audio data and remaining battery data stored in the DRAM 11 in this manner are used when the CPU 10 controls the operation of the pet robot 1 thereafter.

【0018】実際上CPU10は、ペットロボット1の
電源が投入された初期時、胴体部ユニット2の図示しな
いPCカードスロットに装填されたメモリカード28又
はフラッシュROM12に格納された制御プログラムを
PCカードインターフェース回路13を介して又は直接
読み出し、これをDRAM11に格納する。
In practice, when the power of the pet robot 1 is turned on, the CPU 10 executes the control program stored in the memory card 28 or the flash ROM 12 inserted in the PC card slot (not shown) of the body unit 2 into the PC card interface. The data is read out via the circuit 13 or directly and stored in the DRAM 11.

【0019】またCPU10は、この後上述のように信
号処理回路14よりDRAM11に順次格納される各セ
ンサデータ、画像データ、音声データ及びバッテリ残量
データに基づいて自己及び周囲の状況や、ユーザからの
指示及び働きかけの有無などを判断する。
Further, the CPU 10 thereafter, based on the sensor data, image data, audio data, and remaining battery power data sequentially stored in the DRAM 11 from the signal processing circuit 14 as described above, and from the user and the surroundings. Judge whether or not there is an instruction for and action.

【0020】さらにCPU10は、この判断結果及びD
RAM11に格納した制御プログラムに基づいて続く行
動を決定すると共に、当該決定結果に基づいて必要なア
クチュエータ251 〜25n を駆動させることにより、
頭部ユニット4を上下左右に振らせたり、尻尾部ユニッ
ト5の尻尾5Aを動かせたり、各脚部ユニット3A〜3
Dを駆動させて歩行させるなどの行動を行わせる。
Further, the CPU 10 determines the result of this determination and D
And it determines a subsequent action based on the control program stored in the RAM 11, by driving the actuator 25 1 to 25 n required based on the determination result,
The head unit 4 can be swung up and down, left and right, the tail 5A of the tail unit 5 can be moved, and each of the leg units 3A to 3A.
D is driven to perform an action such as walking.

【0021】またこの際CPU10は、必要に応じて音
声データを生成し、これを信号処理回路14を介して音
声信号としてスピーカ24に与えることにより当該音声
信号に基づく音声を外部に出力させたり、上述のLED
を点灯、消灯又は点滅させる。
At this time, the CPU 10 generates audio data as required and supplies the generated audio data to the speaker 24 as an audio signal via the signal processing circuit 14, thereby outputting an audio based on the audio signal to the outside. LED above
Is turned on, off or blinking.

【0022】このようにしてこのペットロボット1にお
いては、自己及び周囲の状況や、ユーザからの指示及び
働きかけに応じて自律的に行動し得るようになされてい
る。
As described above, the pet robot 1 is capable of acting autonomously in accordance with its own and surrounding conditions, instructions and actions from the user.

【0023】(1−2)制御プログラムのソフトウェア
構成 ここでペットロボット1における上述の制御プログラム
のソフトウェア構成を図3に示す。この図3において、
デバイス・ドライバ・レイヤ30は、この制御プログラ
ムの最下位層に位置し、複数のデバイス・ドライバから
なるデバイス・ドライバ・セット31から構成されてい
る。この場合各デバイス・ドライバは、CCDカメラ2
0(図2)やタイマ等の通常のコンピュータで用いられ
るハードウェアに直接アクセスすることを許されたオブ
ジェクトであり、対応するハードウェアからの割り込み
を受けて処理を行う。
(1-2) Software Configuration of Control Program The software configuration of the above-described control program in the pet robot 1 is shown in FIG. In FIG.
The device driver layer 30 is located at the lowest layer of the control program, and includes a device driver set 31 including a plurality of device drivers. In this case, each device driver is a CCD camera 2
0 (FIG. 2), an object such as a timer, which is allowed to directly access hardware used in a normal computer, and performs processing in response to an interrupt from the corresponding hardware.

【0024】またロボティック・サーバ・オブジェクト
32は、デバイス・ドライバ・レイヤ30の上位層に位
置し、例えば上述の各種センサやアクチュエータ251
〜25n 等のハードウェアにアクセスするためのインタ
ーフェースを提供するソフトウェア群でなるバーチャル
・ロボット33と、電源の切換えなどを管理するソフト
ウェア群でなるパワーマネージャ34と、他の種々のデ
バイス・ドライバを管理するソフトウェア群でなるデバ
イス・ドライバ・マネージャ35と、ペットロボット1
の機構を管理するソフトウェア群でなるデザインド・ロ
ボット36とから構成されている。
The robotic server object 32 is located above the device driver layer 30 and includes, for example, the various sensors and actuators 25 1 described above.
A virtual robot 33 comprising a software group that provides an interface for accessing the hardware, such as to 25 n, the power manager 34 made of a software suite for managing the power supply switching, the other various device drivers Device driver manager 35, which is a group of software to be managed, and pet robot 1
And a designed robot 36 which is a software group for managing the mechanism.

【0025】マネージャ・オブジェクト37は、オブジ
ェクト・マネージャ38及びサービス・マネージャ39
から構成されている。この場合オブジェクト・マネージ
ャ38は、ロボティック・サーバ・オブジェクト32、
ミドル・ウェア・レイヤ40、及びアプリケーション・
レイヤ41に含まれる各ソフトウェア群の起動や終了を
管理するソフトウェア群であり、サービス・マネージャ
39は、メモリカード28(図2)に格納されたコネク
ションファイルに記述されている各オブジェクト間の接
続情報に基づいて各オブジェクトの接続を管理するソフ
トウェア群である。
The manager object 37 includes an object manager 38 and a service manager 39
It is composed of In this case, the object manager 38 has the robotic server object 32,
Middleware layer 40 and application
The service manager 39 is a software group that manages activation and termination of each software group included in the layer 41. The service manager 39 stores connection information between objects described in a connection file stored in the memory card 28 (FIG. 2). Is a group of software that manages the connection of each object based on.

【0026】ミドル・ウェア・レイヤ40は、ロボティ
ック・サーバ・オブジェクト32の上位層に位置し、画
像処理や音声処理などのこのペットロボット1の基本的
な機能を提供するソフトウェア群から構成されている。
またアプリケーション・レイヤ41は、ミドル・ウェア
・レイヤ40の上位層に位置し、当該ミドル・ウェア・
レイヤ40を構成する各ソフトウェア群によって処理さ
れた処理結果に基づいてペットロボット1の行動を決定
するためのソフトウェア群から構成されている。
The middleware layer 40 is located on the upper layer of the robotic server object 32 and is composed of a group of software for providing basic functions of the pet robot 1 such as image processing and sound processing. I have.
Further, the application layer 41 is located in a layer above the middleware layer 40, and
It is composed of a software group for determining the behavior of the pet robot 1 based on the processing result processed by each software group constituting the layer 40.

【0027】なおミドル・ウェア・レイヤ40及びアプ
リケーション・レイヤ41の具体なソフトウェア構成を
それぞれ図4及び図5に示す。
FIGS. 4 and 5 show specific software configurations of the middleware layer 40 and the application layer 41, respectively.

【0028】ミドル・ウェア・レイヤ40においては、
図4からも明らかなように、音階認識用、距離検出用、
姿勢検出用、タッチセンサ用、動き検出用及び色認識用
の各信号処理モジュール50〜55並びに入力セマンテ
ィクスコンバータモジュール56などを有する認識系5
7と、出力セマンティクスコンバータモジュール57並
びに姿勢管理用、トラッキング用、モーション再生用、
歩行用、転倒復帰、LED点灯用及び音再生用の各信号
処理モジュール58〜64などを有する出力系65とか
ら構成されている。
In the middleware layer 40,
As is clear from FIG. 4, for scale recognition, for distance detection,
Recognition system 5 including signal processing modules 50 to 55 for posture detection, touch sensor, motion detection, and color recognition, input semantics converter module 56, and the like.
7 and the output semantics converter module 57 and for attitude management, tracking, motion playback,
An output system 65 includes signal processing modules 58 to 64 for walking, falling back, turning on LEDs, and reproducing sounds.

【0029】この場合認識系57の各信号処理モジュー
ル50〜55は、ロボティック・サーバ・オブジェクト
32のバーチャル・ロボット33によりDRAM11
(図2)から読み出される各センサデータや画像データ
及び音声データのうちの対応するデータを取り込み、当
該データに基づいて所定の処理を施して、処理結果を入
力セマンティクスコンバータモジュール56に与える。
In this case, each of the signal processing modules 50 to 55 of the recognition system 57 is provided by the virtual robot 33 of the robotic server object 32 to the DRAM 11.
The corresponding data among the sensor data, image data, and audio data read out from FIG. 2 (FIG. 2) is fetched, predetermined processing is performed based on the data, and the processing result is provided to the input semantics converter module 56.

【0030】入力セマンティクスコンバータモジュール
56は、これら各信号処理モジュール50〜55から与
えられる処理結果に基づいて、「ボールを検出した」、
「転倒を検出した」、「撫でられた」、「叩かれた」、
「ドミソの音階が聞こえた」、「動く物体を検出した」
又は「障害物を検出した」などの自己及び周囲の状況
や、ユーザからの指令及び働きかけを認識し、認識結果
をアプリケーション・レイヤ41(図2)に出力する。
The input semantics converter module 56, based on the processing results given from each of the signal processing modules 50 to 55, "detects a ball"
"Detected fall,""stroke,""beaten,"
"I heard the domeso scale,""Detected a moving object."
Alternatively, it recognizes the situation of itself and surroundings, such as "detected an obstacle", and commands and actions from the user, and outputs the recognition result to the application layer 41 (FIG. 2).

【0031】アプリケーション・レイヤ41において
は、図5に示すように、行動モデルライブラリ70、行
動切換えモジュール71、学習モジュール72、感情モ
デル73及び本能モデル74の5つのモジュールから構
成されている。
As shown in FIG. 5, the application layer 41 includes five modules: a behavior model library 70, a behavior switching module 71, a learning module 72, an emotion model 73, and an instinct model 74.

【0032】この場合行動モデルライブラリ70には、
図6に示すように、「バッテリ残量が少なくなった場
合」、「転倒復帰する場合」、「障害物を回避する場
合」、「感情を表現する場合」、「ボールを検出した場
合」などの予め選択されたいくつかの条件項目にそれぞ
れ対応させて、それぞれ独立した行動モデル701 〜7
n が設けられている。
In this case, the behavior model library 70 includes
As shown in FIG. 6, "when the battery level is low", "when the vehicle returns to the fall", "when avoiding obstacles", "when expressing emotion", "when the ball is detected", and the like. Respectively correspond to several pre-selected condition items, and independent behavior models 70 1 to 7 respectively.
0 n is provided.

【0033】そしてこれら行動モデル701 〜70
n は、それぞれ入力セマンティクスコンバータモジュー
ル56から認識結果が与えられたときや、最後の認識結
果が与えられてから一定時間が経過したときなどに、必
要に応じて後述のように感情モデル73に保持されてい
る対応する情動のパラメータ値や、本能モデル74に保
持されている対応する欲求のパラメータ値を参照しなが
ら続く行動をそれぞれ決定し、決定結果を行動切換えモ
ジュール71に出力する。
These behavior models 70 1 to 70
n is stored in the emotion model 73 as described later as necessary when a recognition result is given from the input semantics converter module 56 or when a certain time has elapsed since the last recognition result was given. The next action is determined with reference to the corresponding emotion parameter value and the corresponding desire parameter value held in the instinct model 74, and the determination result is output to the action switching module 71.

【0034】なおこの実施の形態の場合、各行動モデル
701 〜70n は、次の行動を決定する手法として、図
7に示すような1つのノード(状態)NODE0 〜NO
DEn から他のどのノードNODE0 〜NODEn に遷
移するかを各ノードNODE0 〜NODEn 間を接続す
るアークARC1 〜ARCn1に対してそれぞれ設定され
た遷移確率P1 〜Pn に基づいて確率的に決定する確率
オートマトンと呼ばれるアルゴリズムを用いる。
In this embodiment, each of the behavior models 70 1 to 70 n uses one node (state) NODE 0 to NO as shown in FIG.
Based whether to transition from DE n to any other node NODE 0 ~NODE n the transition probability P 1 to P n which is set respectively arc ARC 1 ~ARC n1 to connect each node NODE 0 ~NODE n An algorithm called a probabilistic automaton that determines stochastically is used.

【0035】具体的に、各行動モデル701 〜70
n は、それぞれ自己の行動モデル701〜70n を形成
する各ノードNODE0 〜NODEn にそれぞれ対応さ
せて、これらノードNODE0 〜NODEn ごとの図8
に示すような状態遷移表80を有している。
Specifically, each of the behavior models 70 1 to 70
n corresponds to each of the nodes NODE 0 to NODE n forming their own behavior models 70 1 to 70 n , respectively, and FIG. 8 for each of these nodes NODE 0 to NODE n
Has a state transition table 80 as shown in FIG.

【0036】この状態遷移表80では、そのノードNO
DE0 〜NODEn において遷移条件とする入力イベン
ト(認識結果)が「入力イベント名」の行に優先順に列
記され、その遷移条件についてのさらなる条件が「デー
タ名」及び「データ範囲」の行における対応する列に記
述されている。
In the state transition table 80, the node NO
Input events (recognition results) as transition conditions in DE 0 to NODE n are listed in order of priority in the row of “input event name”, and further conditions for the transition conditions are described in the rows of “data name” and “data range”. It is described in the corresponding column.

【0037】従って図8の状態遷移表80で表されるノ
ードNODE100 では、「ボールを検出(BALL)」
という認識結果が与えられた場合に、当該認識結果と共
に与えられるそのボールの「大きさ(SIZE)」が
「0から1000」の範囲であることや、「障害物を検出
(OBSTACLE)」という認識結果が与えられた場
合に、当該認識結果と共に与えられるその障害物までの
「距離(DISTANCE)」が「0から100 」の範囲
であることが他のノードに遷移するための条件となって
いる。
Therefore, in the node NODE 100 represented by the state transition table 80 of FIG. 8, "ball detected (BALL)"
When the recognition result is given, the "size (SIZE)" of the ball given together with the recognition result is in the range of "0 to 1000", or the recognition of "obstacle detected (OBSTACE)" is given. When the result is given, the condition for transition to another node is that the "distance" to the obstacle given together with the recognition result is in the range of "0 to 100". .

【0038】またこのノードNODE100 では、認識結
果の入力がない場合においても、行動モデル701 〜7
n が周期的に参照する感情モデル73及び本能モデル
74にそれそれ保持された各情動及び各欲求のパラメー
タ値のうち、感情モデル73に保持された「喜び(JO
Y)」、「驚き(SURPRISE)」若しくは「悲し
み(SUDNESS)」のいずれかのパラメータ値が
「50から100 」の範囲であるときには他のノードに遷移
することができるようになっている。
In the node NODE 100 , even when the recognition result is not input, the behavior models 70 1 to 70
0 n of the parameter values of each emotion and each desire held in the emotion model 73 and the instinct model 74 that are periodically referred to, the “joy (JO)” held in the emotion model 73.
When the parameter value of any of "Y)", "Surprise", or "Sadness" is in the range of "50 to 100", it is possible to make a transition to another node.

【0039】また状態遷移表80では、「他のノードへ
の遷移確率」の欄における「遷移先ノード」の列にその
ノードNODE0 〜NODEn から遷移できるノード名
が列記されると共に、「入力イベント名」、「データ
値」及び「データの範囲」の行に記述された全ての条件
が揃ったときに遷移できる他の各ノードNODE0 〜N
ODEn への遷移確率が「他のノードへの遷移確率」の
欄内の対応する箇所にそれぞれ記述され、そのノードN
ODE0 〜NODEn に遷移する際に出力すべき行動が
「他のノードへの遷移確率」の欄における「出力行動」
の行に記述されている。なお「他のノードへの遷移確
率」の欄における各行の確率の和は100 〔%〕となって
いる。
Further in the state transition table 80, with the node name that can transition from the node NODE 0 ~NODE n in the column of "transition destination node" in the column of "probability of transition to another node" is listed, the "input Other nodes NODE 0 to N that can transition when all the conditions described in the rows of “event name”, “data value”, and “data range” are met
The transition probability to ODE n is described in a corresponding part in the column of “transition probability to another node”, and the node N
The action to be output when transitioning from ODE 0 to NODE n is “output action” in the column of “transition probability to another node”.
Is described in the line. Note that the sum of the probabilities of the respective rows in the column of “transition probability to another node” is 100 [%].

【0040】従って図8の状態遷移表80で表されるノ
ードNODE100 では、例えば「ボールを検出(BAL
L)」し、そのボールの「SIZE(大きさ)」が「0
から1000」の範囲であるという認識結果が与えられた場
合には、「30〔%〕」の確率で「ノードNODE
120 (node 120)」に遷移でき、そのとき「ACTIO
N1」の行動が出力されることとなる。
Therefore, in the node NODE 100 represented by the state transition table 80 in FIG.
L) "and the" SIZE "of the ball is" 0 ".
Is given in the range of “node NODE” with a probability of “30 [%]”.
120 (node 120) ”, and then“ ACTIO ”
The action of "N1" will be output.

【0041】そして各行動モデル701 〜70n は、そ
れぞれこのような状態遷移表80として記述されたノー
ドNODE0 〜NODEn がいくつも繋がるようにして
構成されており、入力セマンティクスコンバータモジュ
ール56から認識結果が与えられたときなどに、対応す
るノードNODE0 〜NODEn の状態遷移表80を利
用して確率的に次の行動を決定し、決定結果を行動切換
えモジュール71に出力するようになされている。
Each of the behavior models 70 1 to 70 n is configured such that a number of nodes NODE 0 to NODE n described as such a state transition table 80 are connected, and the input semantics converter module 56 For example, when a recognition result is given, the next action is stochastically determined using the state transition table 80 of the corresponding nodes NODE 0 to NODE n , and the determination result is output to the action switching module 71. ing.

【0042】行動切換えモジュール71は、行動モデル
ライブラリ70の各行動モデル701 〜70n からそれ
ぞれ出力される行動のうち、予め定められた優先順位の
高い行動モデル701 〜70n から出力された行動を選
択し、当該行動を実行すべき旨のコマンド(以下、これ
を行動コマンドと呼ぶ)をミドル・ウェア・レイヤ40
の出力セマンティクスコンバータ57に送出する。なお
この実施の形態においては、図6において下側に表記さ
れた行動モデル701 〜70n ほど優先順位が高く設定
されている。
The action switching module 71, among the actions respectively output from the behavior model 70 1 to 70 n of the action model library 70, output from the predetermined high priority behavior model 70 1 to 70 n A command for selecting an action and executing the action (hereinafter, referred to as an action command) is transmitted to the middleware layer 40.
To the output semantics converter 57. Incidentally in this embodiment, is denoted behavioral models 70 1 more to 70 n priority lower is set higher in FIG.

【0043】また行動切換えモジュール71は、行動完
了後に出力セマンティクスコンバータ57から与えられ
る行動完了情報に基づいて、その行動が完了したことを
学習モジュール72、感情モデル73及び本能モデル7
4に通知する。
Further, the action switching module 71, based on the action completion information provided from the output semantics converter 57 after the action is completed, notifies the learning module 72, the emotion model 73, and the instinct model 7 that the action has been completed.
Notify 4.

【0044】一方、学習モジュール72は、入力セマン
ティクスコンバータ56から与えられる認識結果のう
ち、「叩かれた」や「撫でられた」など、ユーザからの
働きかけとして受けた教示の認識結果を入力する。
On the other hand, the learning module 72 inputs the recognition result of the teaching received from the user, such as “hit” or “stroke”, among the recognition results given from the input semantics converter 56.

【0045】そして学習モジュール72は、この認識結
果及び行動切換えモジュール71からの通知に基づい
て、「叩かれた(叱られた)」ときにはその行動の発現
確率を低下させ、「撫でられた(誉められた)」ときに
はその行動の発現確率を上昇させるように、行動モデル
ライブラリ70における対応する行動モデル701 〜7
n の対応する遷移確率を変更する。
Then, based on the recognition result and the notification from the action switching module 71, the learning module 72 lowers the probability of occurrence of the action when "beaten (scolded)" and "strokes (praise)". was) "sometimes to increase the expression probability of that action, behavior model 70 1-7 corresponding in behavioral model library 70
Change the corresponding transition probability of 0 n .

【0046】他方、感情モデル73は、「喜び(joy
)」、「悲しみ(sadness )」、「怒り(anger
)」、「驚き(surprise)」、「嫌悪(disgust )」
及び「恐れ(fear)」の合計6つの情動について、各情
動ごとにその情動の強さを表すパラメータを保持してい
る。そして感情モデル73は、これら各情動のパラメー
タ値を、それぞれ入力セマンティクスコンバータモジュ
ール56から与えられる「叩かれた」及び「撫でられ
た」などの特定の認識結果と、経過時間及び行動切換え
モジュール71からの通知となどに基づいて順次更新す
るようになされている。
On the other hand, the emotion model 73 indicates "joy (joy)
) "," Sadness "," anger "
) "," Surprise "," disgust "
For a total of six emotions of “fear” and “fear”, a parameter indicating the strength of the emotion is stored for each emotion. Then, the emotion model 73 converts the parameter values of each of these emotions from the specific recognition results such as “hit” and “stroke” given from the input semantics converter module 56 and the elapsed time and action switching module 71, respectively. The notification is sequentially updated based on the notification and the like.

【0047】具体的に感情モデル73は、入力セマンテ
ィクスコンバータ56からの認識結果及びそのときのペ
ットロボット1の行動がその情動に対して作用する度合
い(予め設定されている)と、本能モデル74が保持し
ている各欲求のパラメータ値及びそのときのペットロボ
ット1の行動がその情動に対して作用する度合い(予め
設定されている)と、他の情動から受ける抑制及び刺激
の度合いと、経過時間となどに基づいて所定の演算式に
より算出されるその情動の変動量をΔE〔t〕、現在の
その情動のパラメータ値をE〔t〕、認識結果等に応じ
てその情動を変化させる割合(以下、これを感度と呼
ぶ)を表す係数をke として、所定周期で次式
Specifically, the emotion model 73 includes a recognition result from the input semantics converter 56 and a degree (preset) at which the behavior of the pet robot 1 acts on the emotion at that time. The held parameter values of each desire and the degree at which the behavior of the pet robot 1 acts on the emotion (preset), the degree of suppression and stimulation received from other emotions, the elapsed time ΔE [t], the current parameter value of the emotion E [t], and the rate of change of the emotion according to the recognition result, etc. hereinafter, the coefficient representing the same is referred to as sensitivity) as k e, the following expression in a predetermined cycle

【0048】[0048]

【数1】 (Equation 1)

【0049】を用いて次の周期におけるその情動のパラ
メータ値E〔t+1〕を算出する。
Is used to calculate the parameter value E [t + 1] of the emotion in the next cycle.

【0050】そして感情モデル73は、この演算結果を
現在のその情動のパラメータ値E〔t〕と置き換えるよ
うにしてその情動のパラメータ値を更新する。なお各認
識結果や行動切換えモジュール71からの通知に対して
どの情動のパラメータ値を更新するかは予め決められて
おり、例えば「叩かれた」といった認識結果が与えられ
た場合には「怒り」の情動のパラメータ値が上がり、
「撫でられた」といった認識結果が与えられた場合には
「喜び」の情動のパラメータ値が上がる。
The emotion model 73 updates the parameter value of the emotion by replacing the calculation result with the parameter value E [t] of the emotion. It is to be noted that the parameter value of the emotion to be updated in response to each recognition result or the notification from the action switching module 71 is determined in advance. For example, when a recognition result such as “hit” is given, “anger” is given. The emotion parameter value has increased,
When a recognition result such as “stroke” is given, the parameter value of the emotion of “joy” increases.

【0051】これに対して本能モデル74は、「運動欲
(exersise)」、「愛情欲(afection)」、「食欲(ap
petite)」及び「好奇心(curiocity )」の互いに独立
した4つの欲求について、これら欲求ごとにその欲求の
強さを表すパラメータを保持している。そして本能モデ
ル74は、これら欲求のパラメータ値を、それぞれ入力
セマンティクスコンバータモジュール56から与えられ
る認識結果や、経過時間及び行動切換えモジュール71
からの通知などに基づいて順次更新するようになされて
いる。
On the other hand, the instinct model 74 includes “exercise (exersise)”, “affection (afection)”, and “appetite (ap
For each of the four independent desires "petite" and "curiocity", a parameter indicating the strength of the desire is held for each of the desires. Then, the instinct model 74 converts the parameter values of the desire into the recognition result given from the input semantics converter module 56, the elapsed time and the action switching module 71, respectively.
The information is sequentially updated based on a notification or the like.

【0052】具体的に本能モデル74は、「運動欲」、
「愛情欲」及び「好奇心」については、ペットロボット
1の行動出力、経過時間及び認識結果などに基づいて所
定の演算式により算出されるその欲求の変動量をΔI
〔k〕、現在のその欲求のパラメータ値をI〔k〕、そ
の欲求の感度を表す係数をki として、所定周期で次式
More specifically, the instinct model 74 is “exercise desire”,
Regarding “affection desire” and “curiosity”, the change amount of the desire calculated by a predetermined arithmetic expression based on the action output, elapsed time, and recognition result of the pet robot 1 is ΔI
[K], I [k] of the current parameter value of the desire, the coefficient representing the sensitivity of the desire as k i, the following expression in a predetermined cycle

【0053】[0053]

【数2】 (Equation 2)

【0054】を用いて次の周期におけるその欲求のパラ
メータ値I〔k+1〕を算出し、この演算結果を現在の
その欲求のパラメータ値I〔k〕と置き換えるようにし
てその欲求のパラメータ値を更新する。なお行動出力や
認識結果等に対してどの欲求のパラメータ値を変化させ
るかは予め決められており、例えば行動切換えモジュー
ル71からの通知(行動を行ったとの通知)があったと
きには「運動欲」のパラメータ値が下がる。
Is used to calculate the parameter value I [k + 1] of the desire in the next cycle, and replaces the result of this operation with the current parameter value I [k] of the desire to update the parameter value of the desire. I do. It is to be noted that the parameter value of the desire to be changed with respect to the behavior output, the recognition result, and the like is determined in advance. Parameter value decreases.

【0055】また本能モデル74は、「食欲」について
は、入力セマンティクスコンバータモジュール56を介
して与えられるバッテリ残量データに基づいて、バッテ
リ残量をBL として、所定周期で次式
In the instinct model 74, the “appetite” is calculated based on the battery remaining amount data provided through the input semantics converter module 56 as the battery remaining amount as B L at a predetermined cycle.

【0056】[0056]

【数3】 (Equation 3)

【0057】により「食欲」のパラメータ値I〔k〕を
算出し、この演算結果を現在の食欲のパラメータ値I
〔k〕と置き換えるようにして当該「食欲」のパラメー
タ値を更新する。
The parameter value I [k] of "appetite" is calculated by the
The parameter value of the “appetite” is updated by replacing with [k].

【0058】なお本実施の形態においては、各情動及び
各欲求のパラメータ値がそれぞれ0から100 までの範囲
で変動するように規制されており、また係数ke 、ki
の値も各情動及び各欲求ごとに個別に設定されている。
In the present embodiment, the parameter values of each emotion and each desire are regulated so as to fluctuate in the range of 0 to 100, and the coefficients k e and k i
Is also set individually for each emotion and each desire.

【0059】一方、ミドル・ウェア・レイヤ40の出力
セマンティクスコンバータモジュール57は、図4に示
すように、上述のようにしてアプリケーション・レイヤ
41の行動切換えモジュール71から与えられる「前
進」、「喜ぶ」、「鳴く」又は「トラッキング(ボール
を追いかける)」といった抽象的な行動コマンドを出力
系65の対応する信号処理モジュール58〜64に与え
る。
On the other hand, as shown in FIG. 4, the output semantics converter module 57 of the middleware layer 40 is "forward" and "pleased" given from the action switching module 71 of the application layer 41 as described above. , "Sound" or "tracking (follow the ball)" to the corresponding signal processing modules 58 to 64 of the output system 65.

【0060】そしてこれら信号処理モジュール58〜6
4は、行動コマンドが与えられると当該行動コマンドに
基づいて、その行動を行うために対応するアクチュエー
タ251 〜25n (図2)に与えるべきサーボ指令値
や、スピーカ24(図2)から出力する音の音声データ
及び又は「目」のLEDに与える駆動データを生成し、
これらのデータをロボティック・サーバ・オブジェクト
32のバーチャルロボット33及び信号処理回路14
(図2)を順次介して対応するアクチュエータ251
25n 、スピーカ24又はLEDに順次送出する。
The signal processing modules 58 to 6
4, given the behavior command based on the action command, and servo command value to be applied to the actuator 25 1 to 25 n (Fig. 2) corresponding to perform that action, the output from the speaker 24 (FIG. 2) Generating sound data of the sound to be played and / or driving data to be given to the LED of the “eye”,
These data are transferred to the virtual robot 33 of the robotic server object 32 and the signal processing circuit 14.
The corresponding actuators 25 1 to 25 1 through (FIG. 2)
25 n , sequentially to the speaker 24 or the LED.

【0061】このようにしてこのペットロボット1にお
いては、制御プログラムに基づいて、自己及び周囲の状
況や、ユーザからの指示及び働きかけに応じた自律的な
行動を行うことができるようになされている。
As described above, the pet robot 1 can perform an autonomous action in accordance with the self and surrounding conditions, and instructions and actions from the user, based on the control program. .

【0062】(1−3)行動パターン自己生成機能 かかる構成に加えてこのペットロボット1の場合、行動
パターン(一連の行動)を自己生成すると共に、当該生
成した行動パターンをユーザの好みに合わせて変化させ
てゆくことができるようになされている。
(1-3) Behavior Pattern Self-Generation Function In addition to the above configuration, in the case of the pet robot 1, the behavior pattern (a series of behaviors) is self-generated and the generated behavior pattern is matched to the user's preference. It is designed to be able to change.

【0063】すなわちこのペットロボット1において
は、行動モデルライブラリ70の各行動モデル701
70n のうち、ボール対応行動モデル70n 及び感情表
現行動モデルn-1 などの特定の行動モデル(以下、これ
らを特定行動モデル70k(1)と呼ぶ)内には、図9に示
すように、自己生成する行動パターンの起点となるノー
ド(以下、これを起点ノードと呼ぶ)NODEstが複数
箇所に設けられている。
That is, in the pet robot 1, each of the behavior models 70 1 to 70 1 to
70 out of n, the specific behavior model, such as a ball corresponding behavior model 70 n and emotion behavior model n-1 (hereinafter, referred to as specific behavior model 70 k (1)) In the so shown in FIG. 9 In addition, a plurality of nodes (hereinafter, referred to as starting nodes) NODE st serving as a starting point of a self-generated action pattern are provided.

【0064】そして各特定行動モデル70k(1)は、この
起点ノードNODEstに遷移すると、ある確率で、ラン
ダムないくつかの新たなノード(以下、これを新規生成
ノードと呼ぶ)NODEnew(1)〜NODEnew(3)を生成
すると共に、これら新規生成ノードNODEnew(1)〜N
ODEnew(3)からなる図10に示すようなシーケンシャ
ルに出力行動を決定してゆくノード列90を生成するよ
うになされている。
When the specific behavior model 70 k (1) transits to the origin node NODE st , at a certain probability, a random number of new nodes (hereinafter, referred to as newly generated nodes) NODE new ( 1) to NODE new (3) , and these newly generated nodes NODE new (1) to N
A node sequence 90 for sequentially determining output actions as shown in FIG. 10 composed of ODE new (3) is generated.

【0065】この場合、各新規生成ノードNODE
new(1)〜NODEnew(3)の生成は、図8について上述し
た状態遷移表80を新たに生成することにより行われ
る。この際ノード名や、遷移条件(「入力イベント
名」、「データ名」及び「データの範囲」の行に記述さ
れる事項)、遷移先、遷移条件の優先順位、出力行動及
び遷移確率等の各種設定事項は、乱数等を用いてランダ
ムに選択及び決定される。
In this case, each newly created node NODE
The generation of new (1) to NODE new (3) is performed by newly generating the state transition table 80 described above with reference to FIG. At this time, node names, transition conditions (items described in the lines of “input event name”, “data name”, and “data range”), transition destinations, priority of transition conditions, output actions, transition probabilities, etc. Various setting items are randomly selected and determined using a random number or the like.

【0066】またこの際その新規生成ノードNODE
new(1)〜NODEnew(3)から次の新規生成ノードNOD
new(2)、NODEnew(3)に遷移するときの出力行動と
して複数種類(この実施の形態においては4種類とす
る)の行動が任意に選択され、これら各行動に対してそ
れぞれ遷移確率が割り当てられる。さらに各新規生成ノ
ードNODEnew(1)〜NODEnew(3)の遷移先には必ず
起点ノードNODEstも含まれ、起点ノードNODEst
への遷移に対しても遷移確率及び出力行動が割り当てら
れる。
At this time, the newly created node NODE
From new (1) to NODE new (3) , the next newly created node NOD
A plurality of types (four types in this embodiment) of actions are arbitrarily selected as output actions when transitioning to E new (2) and NODE new (3) , and the transition probabilities are respectively selected for these actions. Is assigned. Moreover always includes origin node NODE st is the transition destination of each new generation node NODE new (1) ~NODE new ( 3), the origin node NODE st
The transition probability and the output action are also assigned to the transition to.

【0067】さらにこのとき起点ノードNODEstにつ
いては、遷移先としてノード列90における最初の新規
生成ノードNODEnew(2)が追加されると共に、当該新
規生成ノードNODEnew(2)に遷移するときの出力行動
として4種類の行動が選択され、これら各行動に対して
それぞれ遷移確率がランダムに割り当てられる。このた
め起点ノードNODEstについては、状態遷移表80の
各行の遷移確率の和が100 〔%〕となるように、必要な
箇所の遷移確率が適当な値に変更される。
[0067] Furthermore the origin node NODE st this time, along with the first new generation node NODE new (2) is added at node column 90 as a transition destination, when transitioning to the new generation node NODE new (2) Four types of actions are selected as output actions, and a transition probability is randomly assigned to each of these actions. For this reason, for the origin node NODE st , the transition probabilities at necessary locations are changed to appropriate values so that the sum of the transition probabilities of each row of the state transition table 80 becomes 100 [%].

【0068】そして特別行動モデル70k(1)は、このよ
うにして生成したノード列90に従って、起点ノードN
ODEstから新規生成ノードNODEnew(1)へ、また新
規生成ノードNODEnew(1)〜NODEnew(3)から次の
新規生成ノードNODEnew(2)、NODEnew(3)又は起
点ノードNODEstへというように、ノードを順次遷移
させてゆくことによりペットロボット1の出力行動を確
率的に順次決定し、決定結果を順次行動切換えモジュー
ル71(図5)に出力する。
Then, the special behavior model 70 k (1) follows the origin node N according to the node sequence 90 thus generated.
From ODE st to new generation node NODE new (1), also newly generated node NODE new (1) ~NODE new ( 3) from the next newly generated node NODE new (2), NODE new (3) or the source node NODE st Then, the output behavior of the pet robot 1 is determined stochastically sequentially by sequentially transitioning the nodes, and the determination result is sequentially output to the behavior switching module 71 (FIG. 5).

【0069】この結果この特別行動モデル70k(1)の出
力に基づいて、新たに生成された行動パターンがペット
ロボット1により発現される。このようにしてこのペッ
トロボット1は、新たな行動パターンを生成し、発現す
る。
As a result, a newly generated action pattern is expressed by the pet robot 1 based on the output of the special action model 70 k (1) . Thus, the pet robot 1 generates and expresses a new behavior pattern.

【0070】またこのペットロボット1では、上述のよ
うにして生成したノード列90に基づく行動パターンを
発現しているときに、ユーザが「撫でる」又は「叩く」
といった働きかけ(以下、これを教示と呼ぶ)を与えた
場合、上述のように学習モジュール70(図5)の働き
によってその直前のいくつかの行動に対応する遷移確率
が増加又は減少する。
Further, in the pet robot 1, when the behavior pattern based on the node sequence 90 generated as described above is expressed, the user “strokes” or “hits”.
(Hereinafter, referred to as teaching), the transition probability corresponding to some actions immediately before that increases or decreases by the action of the learning module 70 (FIG. 5) as described above.

【0071】この結果このペットロボット1において
は、上述のノード列90に基づく行動パターンを繰り返
すうちに、それぞれユーザにより「撫でられた(誉めら
れた)」ことによって発現確率が高くなった行動が発現
され易くなり、かかる行動パターンがこれらの行動が組
み合わされたパターンへと変化してゆくこととなる。
As a result, in the pet robot 1, while repeating the behavior pattern based on the above-described node sequence 90, the behavior whose appearance probability has been increased by the user being “patched (praised)” by each user appears. The behavior pattern is likely to change to a pattern in which these behaviors are combined.

【0072】ただし、このままでは起点ノードNODE
stから次の新規生成ノードNODEnew(1)に遷移する際
や、新規生成ノードNODEnew(1)〜NODEnew(3)
ら次の新規生成ノードNODEnew(2)、NODEnew(3)
又は起点ノードNODEstに遷移する際に初期時にそれ
ぞれ選択された4種類の行動の中のいずれかの行動しか
発現されない。
However, in this state, the starting node NODE
When transitioning from st to the next newly created node NODE new (1) or from the newly created nodes NODE new (1) to NODE new (3) , the next newly created nodes NODE new (2) and NODE new (3)
Alternatively, when transiting to the origin node NODE st , only one of the four types of behaviors selected at the initial stage is expressed.

【0073】このため各特別行動モデル70k(1)におい
ては、各新規生成ノードNODEnew(1)〜NODE
new(3)について、所定周期で状態遷移表80内の遷移確
率の低い行動を新たな行動と入れ換えると共に各行動に
対する遷移確率を再びランダムに設定するようになされ
ている。
Therefore, in each special behavior model 70 k (1) , each newly created node NODE new (1) to NODE
With regard to new (3) , an action having a low transition probability in the state transition table 80 is replaced with a new action at a predetermined cycle, and the transition probability for each action is set again randomly.

【0074】かくしてこのペットロボット1において
は、このような行動の入れ換え及び新たなノード列90
に基づく行動パターンの発現を繰り返すうちに、ユーザ
から与えられる教示に応じて、発現される行動パターン
がユーザの好むパターンに変化してゆく。
Thus, in the pet robot 1, such an action exchange and a new node sequence 90 are performed.
While repeating the expression of the action pattern based on, the action pattern to be expressed changes to the pattern preferred by the user according to the instruction given by the user.

【0075】このようにしてこのペットロボット1にお
いては、行動パターンを自己生成すると共に、当該生成
した行動パターンをユーザの好みに合わせて変化させる
ことができるようになされている。
As described above, in the pet robot 1, the behavior pattern can be generated by itself, and the generated behavior pattern can be changed according to the user's preference.

【0076】(1−4)本実施の形態の動作及び効果 以上の構成において、ペットロボット1は、複数の新規
生成ノードNODEnew(1)〜NODEnew(3)からなるノ
ード列90を生成すると共に、当該ノード列90に従っ
て出力行動を確率的に順次決定し、決定結果に基づいて
行動パターンを発現する。
(1-4) Operation and Effect of the Present Embodiment In the above configuration, the pet robot 1 generates a node sequence 90 including a plurality of newly generated nodes NODE new (1) to NODE new (3). At the same time, the output behavior is stochastically and sequentially determined according to the node sequence 90, and the behavior pattern is expressed based on the determination result.

【0077】またペットロボット1は、このときユーザ
から与えられる教示に基づいて出力行動の発現確率を増
減させる一方、発現確率の低い行動については新たな行
動と入れ換え、各行動に対する発現確率を再定義するよ
うにしてノード列90に基づき生成される行動パターン
を順次変化させる。
At this time, the pet robot 1 increases or decreases the occurrence probability of the output action based on the instruction given by the user at this time, replaces the action with a low occurrence probability with a new action, and redefines the occurrence probability for each action. Thus, the action pattern generated based on the node sequence 90 is sequentially changed.

【0078】従ってこのペットロボット1では、まった
く新しい行動パターンを自己生成し、しかもこの行動パ
ターンをユーザの好みに合わせて順次変化してゆくこと
ができるため、行動パターンの単調化を回避できる。
Therefore, the pet robot 1 can generate a completely new behavior pattern by itself and change this behavior pattern sequentially according to the user's preference, so that the behavior pattern can be prevented from being monotonous.

【0079】またこのペットロボット1では、このよう
にして生成した行動パターンをユーザの好みに合わせて
順次変化させてゆくため、ユーザに「育てる」楽しみを
与えることができる。
Further, in the pet robot 1, since the action patterns generated in this manner are sequentially changed according to the user's preference, it is possible to provide the user with the fun of “fostering”.

【0080】以上の構成によれば、複数の新規生成ノー
ドNODEnew(1)〜NODEnew(3)からなるノード列9
0を生成すると共に、当該ノード列90に従って出力行
動を確率的に順次決定し、決定結果に基づいて一連の行
動を発現するようにしたことにより、行動パターンの単
調化を回避でき、かくしてアミューズメント性を向上さ
せ得るペットロボットを実現できる。
According to the above configuration, a node sequence 9 including a plurality of newly created nodes NODE new (1) to NODE new (3)
0 and stochastically determine output actions sequentially in accordance with the node sequence 90 and express a series of actions based on the determination result, thereby avoiding monotonicity of the action pattern and thus amusement performance. Can be realized.

【0081】(2)第2の実施の形態 (2−1)第2の実施の形態による行動パターン自己生
成機能 図1において、100は全体として第2の実施の形態に
よるペットロボットを示し、特定行動モデル70k(2)
おける行動パターンの生成手法が異なる点を除いて第1
の実施の形態によるペットロボット1と同様に構成され
ている。
(2) Second Embodiment (2-1) Action Pattern Self-Generation Function According to Second Embodiment In FIG. 1, reference numeral 100 denotes a pet robot according to the second embodiment as a whole, Except that the method of generating the behavior pattern in the behavior model 70 k (2) is different,
It is configured similarly to the pet robot 1 according to the embodiment.

【0082】すなわちこのペットロボットの場合、特定
行動モデル70k(2)(図9)は、起点ノードNODEst
に遷移した状態において、「障害物を検出した」や「ボ
ールを検出した」といった付随情報を伴う特定の認識結
果が与えられると、当該認識結果に応じて図11に示す
ような起点ノードNODEstを起点とする付随情報数分
の階層を有するツリー構造のノード列101を上述の第
1の実施の形態のノード列90(図10)と同様にして
生成すると共に、このノード列101における各分岐箇
所に対して認識結果に応じた特定の分岐条件を与えるよ
うになされている。
[0082] That is, in the case of this pet robot, a specific behavior model 70 k (2) (Fig. 9) is the origin node NODE st
When a specific recognition result accompanied by incidental information such as “detected an obstacle” or “detected a ball” is given in a state where the state has changed to the starting node NODE st as shown in FIG. Is generated in the same manner as the node sequence 90 (FIG. 10) of the first embodiment described above, and each branch in the node sequence 101 is generated. A specific branch condition according to the recognition result is given to the location.

【0083】例えば「障害物を検出した」といった認識
結果には、その障害物までの「距離」の情報と、その障
害物の「方向」の情報(首部分のヨー方向のポテンショ
メータから出力される角度情報)が付随して与えられ
る。そこで特定行動モデル70k(2)は、「障害物を検出
した」といった認識結果が与えられた場合には、図11
のように起点ノードNODEstを起点として「距離」用
及び「方向」用の2回の分岐を有するノード列101を
生成すると共に、「距離」用の分岐箇所に対して「距
離」がランダムに設定した第1の閾値S1 よりも大きい
か否かの分岐条件を与え、「方向」用の分岐箇所に対し
て「方向」(角度)が適当に設定した第2の閾値S2
りも大きいか否かの分岐条件を与える。
For example, in the recognition result such as “detected an obstacle”, information on “distance” to the obstacle and information on “direction” of the obstacle (output from a yaw direction potentiometer at the neck) are output. Angle information). Therefore, when a specific behavior model 70 k (2) is given a recognition result such as “detected an obstacle,” FIG.
, The node sequence 101 having two branches for “distance” and “direction” is generated with the origin node NODE st as a starting point, and the “distance” is randomly set for the “distance” branch point. A branch condition for determining whether or not the direction is larger than the set first threshold value S 1 is given, and the “direction” (angle) of the “direction” branch point is larger than the appropriately set second threshold value S 2. Is given.

【0084】そして特定行動モデル70k(2)は、この後
このようにして生成したノード列101に従って、起点
ノードNODEstから新規生成ノードNODE(1) 又は
新規生成ノードNODE(2) へ、新規生成ノードNOD
(1) 又は新規生成ノードNODE(2) から新規生成ノ
ードNODE(3) 若しくは新規生成ノードNODE(4)
又は新規生成ノードNODE(5) 若しくは新規生成ノー
ドNODE(6) へ、さらに新規生成ノードNODE(3)
〜新規生成ノードNODE(5) から起点ノードNODE
stへというように、ノードを順次遷移させてゆくことに
よりペットロボット100の出力行動を確率的に順次決
定し、決定結果を順次行動切換えモジュール71(図
5)に出力する。
Then, the specific behavior model 70 k (2) is thereafter changed from the origin node NODE st to the newly created node NODE (1) or the newly created node NODE (2) according to the node sequence 101 thus created. Generation node NOD
E (1) or newly created node NODE (2) to newly created node NODE (3) or newly created node NODE (4)
Or, to the newly created node NODE (5) or the newly created node NODE (6) , and further to the newly created node NODE (3)
~ Newly generated node NODE (5) to start node NODE
The output behavior of the pet robot 100 is determined stochastically sequentially by sequentially transitioning the nodes, such as to st , and the determination result is sequentially output to the behavior switching module 71 (FIG. 5).

【0085】この結果この特別行動モデル70k(2)の出
力に基づいて、新たに生成された行動パターンがペット
ロボット100により発現される。このようにしてこの
ペットロボット100は、新たな行動パターンを生成
し、発現する。
As a result, a newly generated action pattern is expressed by the pet robot 100 based on the output of the special action model 70 k (2) . In this manner, the pet robot 100 generates and expresses a new behavior pattern.

【0086】またこのペットロボット100では、上述
のようにして生成したノード列101に基づく行動パタ
ーンを発現しているときに、ユーザが教示を与えた場合
には、上述のように学習モジュール70(図5)の働き
によって直前のいくつかの行動と対応する各遷移確率が
増加又は減少する。また学習モジュール70は、これに
加えてその特定行動モデル70k(2)における上述のノー
ド列101の直前のいくつかの分岐箇所の閾値(第1及
び第2の閾値S1 、S2 )の値をも増減させる。
In the pet robot 100, when the user gives a teaching while expressing the action pattern based on the node sequence 101 generated as described above, as described above, the learning module 70 ( By the operation of FIG. 5), the respective transition probabilities corresponding to some previous actions increase or decrease. In addition, the learning module 70 also determines the thresholds (first and second thresholds S 1 , S 2 ) of some branch locations immediately before the node sequence 101 in the specific behavior model 70 k (2) . Increase or decrease the value.

【0087】この結果このペットロボット100におい
ては、上述のノード列101に基づく行動パターンを繰
り返すうちに、それぞれユーザに「撫でられた(誉めら
れた)」ことによって発現確率が高くなった行動が発現
され易くなり、かつ第1及び第2の閾値S1 、S2 もユ
ーザに「撫でられた(誉められた)」ことによって変化
してゆくこととなる。
As a result, in the pet robot 100, while repeating the behavior pattern based on the above-described node sequence 101, the behavior whose probability of occurrence has been increased by the user being “stroked (praised)” by each user appears. And the first and second thresholds S 1 and S 2 are also changed by being “stroked (praised)” by the user.

【0088】ただし、このままでは起点ノードNODE
stからノードNODE(1) 又はノードNODE(2) に遷
移する際や、新規生成ノードNODE(1) 又は新規生成
ノードNODE(2) から新規生成ノードNODE(3)
しくは新規生成ノードNODE(4) 又は新規生成ノード
NODE(5) 若しくは新規生成ノードNODE(6) に遷
移する際、及び新規生成ノードNODE(3) 〜新規生成
ノードNODE(5) から起点ノードNODEstに遷移す
る際に初期時に選択された行動の中のいずれかの行動し
か発現されない。
However, in this case, the starting node NODE
When transitioning from st to node NODE (1) or node NODE (2) , or from newly created node NODE (1) or newly created node NODE (2), to newly created node NODE (3) or newly created node NODE (4) Alternatively, initially selected when transitioning to the newly created node NODE (5) or the newly created node NODE (6) , and when transitioning from the newly created node NODE (3) to the newly created node NODE (5) to the start node NODE st Only one of the actions performed is expressed.

【0089】そこで各特別行動モデル70k(2)において
は、各新規生成ノードNODE(1)〜NODE(6) につ
いて、所定周期で状態遷移表80内の遷移確率の低い行
動を新たな行動と入れ換えると共に各行動に対する遷移
確率を再びランダムに設定する。
Therefore, in each of the special behavior models 70 k (2) , for each of the newly created nodes NODE (1) to NODE (6) , an action having a low transition probability in the state transition table 80 at a predetermined cycle is regarded as a new action. At the same time, the transition probability for each action is randomly set again.

【0090】かくしてこのペットロボット100におい
ては、このような行動の入れ換え及び新たなノード列1
01に基づく一連の行動の発現を繰り返すうちに、ユー
ザから与えられる教示に応じて、発現される行動パター
ンが徐々に付随情報に基づいて最適な判断をしたときの
行動パターンとなってゆく。
Thus, in the pet robot 100, such an action exchange and a new node sequence 1 are performed.
While repeating a series of actions based on 01, the action pattern to be developed gradually becomes an action pattern when an optimal decision is made based on the accompanying information in accordance with the instruction given by the user.

【0091】このようにしてこのペットロボット100
においては、判断を伴う行動パターンをも自己生成し、
これをユーザから与えられる教示に基づいて行動パター
ンを変化させてゆくことができるようになされている。
In this manner, the pet robot 100
In, self-generating behavior patterns with judgment,
The behavior pattern can be changed based on the instruction given by the user.

【0092】(2−2)本実施の形態の動作及び効果 以上の構成において、特定行動モデル70k(2)は、特定
の認識結果が与えられると、当該認識結果に応じて起点
ノードNODEstを起点とする付随情報数分の階層を有
するツリー構造のノード列101を生成すると共に、こ
のノード列10における各分岐箇所に対して認識結果に
応じた特定の分岐条件を与え、かくして得られたノード
列101に基づいて行動パターンを生成する。
(2-2) Operation and Effect of the Present Embodiment In the above configuration, when a specific recognition result is given, the specific behavior model 70 k (2) determines the starting node NODE st according to the recognition result. , A node sequence 101 having a tree structure having a number of layers corresponding to the number of incidental information items is generated, and a specific branch condition according to the recognition result is given to each branch position in the node sequence 10, thus obtained. An action pattern is generated based on the node sequence 101.

【0093】またペットロボット100は、このときユ
ーザから与えられる教示に基づいて出力行動の発現確率
や、ノード列101における各分岐箇所に対して設定し
た分岐条件を順次変化させる一方、発現確率の低い行動
については新たな行動と入れ換え、各行動に対する発現
確率を再定義するようにしてノード列101に基づき生
成される行動パターンを順次変化させる。
At this time, the pet robot 100 sequentially changes the occurrence probability of the output action and the branch condition set for each branch point in the node sequence 101 based on the teaching given by the user at this time. The action is replaced with a new action, and the action pattern generated based on the node sequence 101 is sequentially changed by redefining the occurrence probability for each action.

【0094】従ってこのペットロボット100では、こ
のような特定行動モデル70k(2)の処理によって、まっ
たく新しい行動パターンを自己生成し、しかもこの行動
パターンを認識結果に付随する付随情報に基づいて最適
な判断をしたときの行動パターンに順次変化させてゆく
ことができるため、行動パターンの単調化の回避に加え
て、状況に応じた最適な行動パターンを生成することが
できる。
Therefore, the pet robot 100 generates a completely new behavior pattern by the processing of the specific behavior model 70 k (2) , and optimizes the behavior pattern based on the accompanying information accompanying the recognition result. Since it is possible to sequentially change the behavior pattern when making an appropriate decision, in addition to avoiding the monotony of the behavior pattern, it is possible to generate an optimal behavior pattern according to the situation.

【0095】以上の構成によれば、複数の新規生成ノー
ドNODEnew(1)〜NODEnew(6)からなるツリー構造
のノード列101を生成すると共に、当該ノード列10
1の各分岐箇所にそれぞれ所定の分岐条件を与え、当該
ノード列101に従って出力行動を確率的に順次決定
し、決定結果に基づいて一連の行動を発現するようにし
たことにより、行動パターンの単調化回避に加えて状況
に応じた最適な行動パターンの生成を行い得るようにす
ることができ、かくしてアミューズメント性を向上させ
得るペットロボットを実現できる。
According to the above configuration, the node sequence 101 having a tree structure composed of a plurality of newly created nodes NODE new (1) to NODE new (6) is generated, and the node sequence 10 is generated.
1, a predetermined branch condition is given to each branch point, output actions are determined stochastically sequentially according to the node sequence 101, and a series of actions are expressed based on the determination result. It is possible to generate an optimal behavior pattern according to the situation in addition to avoiding the occurrence of a pet, and thus a pet robot that can improve amusement properties can be realized.

【0096】(3)他の実施の形態 なお上述の第1及び第2の実施の形態においては、本発
明を4足歩行型のペットロボットに適用するようにした
場合について述べたが、本発明はこれに限らず、この他
種々の形態のロボット装置に広く適用することができ
る。
(3) Other Embodiments In the first and second embodiments described above, a case has been described in which the present invention is applied to a four-legged walking type pet robot. The present invention is not limited to this, and can be widely applied to various other types of robot devices.

【0097】また上述の第1及び第2の実施の形態にお
いては、新たな状態(新規生成ノードNODEnew(1)
NODEnew(6))を形成すると共に、当該新たな状態か
らなる新たな状態空間(ノード列90、101)を生成
する状態空間生成手段としての特定行動モデル7
k(1)、70k(2)(及びCPU10)が図10や図11
のような形態の空間状態を生成するようにした場合につ
いて述べたが、本発明はこれに限らず、特定行動モデル
70k(1)、70k(2)が生成する新たな空間状態の形態と
しては、この他種々の形態を広く適用することができ
る。
In the first and second embodiments described above, a new state (a newly created node NODE new (1) to
NODE new (6) ), and a specific action model 7 as a state space generating means for generating a new state space (node trains 90 and 101) including the new state.
0 k (1) and 70 k (2) (and CPU 10) are shown in FIGS.
However, the present invention is not limited to this, and a new spatial state generated by the specific behavior models 70 k (1) and 70 k (2) is described. In addition, various other forms can be widely applied.

【0098】さらに上述の第2の実施の形態において
は、図11のようなノード列101を生成するようにし
た場合について述べたが、本発明はこれに限らず、図1
2に示すように、ノード列101にツリー構造のもう1
つのノード102をリンクさせるようにしてノード列1
03を生成し、例えばノードNODEnew(5)に達したと
きには起点ノードNODEstに戻らずに後段のノード列
102の起点ノードであるNODEnew(6)に進むように
しても良い。このようにすることによって判断及び行動
のサイクルを2回行わせることができ、その分より複雑
な行動パターンを学ばせるようにすることができる。
Further, in the above-described second embodiment, a case has been described in which the node sequence 101 as shown in FIG. 11 is generated. However, the present invention is not limited to this, and FIG.
As shown in FIG. 2, the node column 101 has another tree structure.
Node string 1 by linking two nodes 102
03 generates, may proceed to NODE new (6) is a starting node of the subsequent node column 102 without returning to the starting point node NODE st when it reaches the example node NODE new (5). By doing so, the cycle of judgment and action can be performed twice, and a more complicated action pattern can be learned accordingly.

【0099】[0099]

【発明の効果】上述のように本発明によれば、確率状態
遷移モデルでなる行動モデルに基づいて出力行動を決定
するロボット装置において、各種設定事項をそれぞれラ
ンダムに決定するようにして新たな状態を生成すると共
に、当該状態からなる新たな状態空間を生成する状態空
間生成手段を設けるようにしたことにより、新たな状態
空間の生成に伴って新たな行動パターンを自己生成する
ことができ、かくしてアミューズメント性を向上させ得
るロボット装置を実現できる。
As described above, according to the present invention, in a robot apparatus for determining an output action based on an action model comprising a stochastic state transition model, a new state is determined by randomly determining various setting items. Is generated, and a state space generating means for generating a new state space including the state is provided, whereby a new action pattern can be self-generated along with the generation of a new state space. A robot device capable of improving amusement can be realized.

【0100】また上述の実施の形態においては、確率状
態遷移モデルでなる行動モデルに基づいて出力行動を決
定するロボット装置の制御方法において、各種設定事項
をそれぞれランダムに決定するようにして新たな状態を
生成すると共に、当該状態からなる新たな状態空間を生
成する第1のステップと、生成された新たな状態空間に
応じた行動をロボット装置に発現させる第2のステップ
とを設けるようにしたことにより、ロボット装置に新た
な行動パターンを自己生成させてこれを出現させるよう
にすることができ、かくしてアミューズメント性を向上
させ得るロボット装置を実現できる。
Further, in the above-described embodiment, in the control method of the robot apparatus for determining the output action based on the action model which is the stochastic state transition model, various setting items are respectively determined at random and a new state is determined. And a first step of generating a new state space including the state, and a second step of causing the robot apparatus to exhibit an action corresponding to the generated new state space. Accordingly, a new behavior pattern can be generated by the robot device by itself, and the new behavior pattern can appear, thereby realizing a robot device capable of improving amusement properties.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1及び第2の実施の形態によるペットロボッ
トの外観構成を示す斜視図である。
FIG. 1 is a perspective view illustrating an external configuration of a pet robot according to first and second embodiments.

【図2】ペットロボットの回路構成を示すブロック図で
ある。
FIG. 2 is a block diagram illustrating a circuit configuration of the pet robot.

【図3】制御プログラムのソフトウェア構成を示す概念
図である。
FIG. 3 is a conceptual diagram showing a software configuration of a control program.

【図4】ミドル・ウェア・レイヤのソフトウェア構成を
示す概念図である。
FIG. 4 is a conceptual diagram showing a software configuration of a middleware layer.

【図5】アプリケーション・レイヤのソフトウェア構成
を示す概念図である。
FIG. 5 is a conceptual diagram showing a software configuration of an application layer.

【図6】行動モデルライブラリの説明に供する概念図で
ある。
FIG. 6 is a conceptual diagram serving to explain an action model library.

【図7】確率オートマトンを示す略線図である。FIG. 7 is a schematic diagram illustrating a stochastic automaton.

【図8】状態遷移表を示す図表である。FIG. 8 is a table showing a state transition table.

【図9】特定行動モデルの構成の説明に供する概念図で
ある。
FIG. 9 is a conceptual diagram serving to explain the configuration of a specific behavior model.

【図10】第1の実施の形態において生成されるノード
列の説明に供する概念図である。
FIG. 10 is a conceptual diagram explaining a node sequence generated in the first embodiment;

【図11】第2の実施の形態において生成されるノード
列の説明に供する概念図である。
FIG. 11 is a conceptual diagram serving to explain a node sequence generated in the second embodiment.

【図12】他の実施の形態の説明に供する概念図であ
る。
FIG. 12 is a conceptual diagram for explaining another embodiment.

【符号の説明】[Explanation of symbols]

1、100……ペットロボット、10……CPU、16
……コントロール部33……バーチャルロボット、40
……ミドル・ウェア・レイヤ、41、100……アプリ
ケーション・ウェア、70……行動モデルライブラリ、
701 〜70n ……行動モデル、70k(1)、70k(2)
……特定行動モデル、90、101〜103……ノード
列、NODEst……起点ノード、NODEnew(1)〜NO
DEnew(6)……新規生成ノード。
1, 100 ... pet robot, 10 ... CPU, 16
…… Control unit 33 …… Virtual robot, 40
... Middleware layer, 41, 100 Applicationware, 70 Behavior model library,
70 1 to 70 n ... action model, 70 k (1) , 70 k (2) ,
…… Specific action model, 90, 101-103 …… Node sequence, NODE st …… Start point node, NODE new (1) -NO
DE new (6) …… New generation node.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 藤田 雅博 東京都品川区北品川6丁目7番35号ソニー 株式会社内 Fターム(参考) 3F059 AA00 BA02 BB06 CA05 DA05 DA09 DB02 DC01 DD01 DD11 FA03 FA05 FB01 FC02 FC03 FC14 FC15 3F060 AA00 CA14 GA05 GA13 GB06 GB25 GD12 GD14 GD15 5B049 BB07 DD00 DD03 EE03 EE07 EE41 FF00 FF06 FF07 FF08 5H004 GA26 GB16 HA07 HB07 HB08 HB09 HB15 JA03 JA05 JB06 JB08 KD52 KD55 KD56 KD62 MA05 MA06 MA29 MA32 9A001 GG05 HH19 KK45 KK62  ────────────────────────────────────────────────── ─── Continued on the front page (72) Inventor Masahiro Fujita 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo F-term within Sony Corporation (reference) 3F059 AA00 BA02 BB06 CA05 DA05 DA09 DB02 DC01 DD01 DD11 FA03 FA05 FB01 FC02 FC03 FC14 FC15 3F060 AA00 CA14 GA05 GA13 GB06 GB25 GD12 GD14 GD15 5B049 BB07 DD00 DD03 EE03 EE07 EE41 FF00 FF06 FF07 FF08 5H004 GA26 GB16 HA07 HB07 HB08 HB09 HB15 HB15 JA03 JA05 JB06 MAB05 KD52 MA06 KD52

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】確率状態遷移モデルでなる行動モデルを有
し、当該行動モデルに基づいて出力行動を決定するロボ
ット装置において、 各種設定事項をランダムに決定するようにして新たな状
態を生成すると共に、当該状態からなる新たな状態空間
を生成する状態空間生成手段を具えることを特徴とする
ロボット装置。
1. A robot apparatus having an action model comprising a stochastic state transition model and determining an output action based on the action model, wherein a new state is generated by randomly determining various setting items. And a state space generating means for generating a new state space including the state.
【請求項2】上記設定事項は、 遷移先、遷移条件、遷移確率及び上記出力行動であるこ
とを特徴とする請求項1に記載のロボット装置。
2. The robot apparatus according to claim 1, wherein the setting items are a transition destination, a transition condition, a transition probability, and the output action.
【請求項3】上記状態空間生成手段は、 所定の外部入力に応じて、上記状態空間における対応す
る上記遷移確率を変化させることを特徴とする請求項1
に記載のロボット装置。
3. The state space generating means changes a corresponding transition probability in the state space according to a predetermined external input.
The robot device according to item 1.
【請求項4】上記状態空間は、 各分岐箇所にそれぞれ所定の分岐条件が与えられたツリ
ー構造でなり、 上記状態空間生成手段は、 上記所定の外部入力に応じて、対応する上記分岐条件を
変化させることを特徴とする請求項3に記載のロボット
装置。
4. The state space has a tree structure in which a predetermined branch condition is given to each branch point, and the state space generating means determines the corresponding branch condition in response to the predetermined external input. The robot device according to claim 3, wherein the robot device is changed.
【請求項5】確率状態遷移モデルでなる行動モデルを有
し、当該行動モデルに基づいて出力行動を決定するロボ
ット装置の制御方法において、 各種設定事項をランダムに決定するようにして新たな状
態を生成すると共に、当該状態からなる新たな状態空間
を生成する第1のステップと、 生成された上記新たな状態空間に応じた行動を上記ロボ
ット装置に発現させる第2のステップとを具えることを
特徴とするロボット装置の制御方法。
5. A control method for a robot apparatus having an action model comprising a stochastic state transition model and determining an output action based on the action model, wherein a new state is determined by randomly determining various setting items. A first step of generating and generating a new state space including the state, and a second step of causing the robot apparatus to express an action according to the generated new state space. A method for controlling a robot device.
【請求項6】上記設定事項は、 遷移先、遷移条件、遷移確率及び上記出力行動であるこ
とを特徴とする請求項5に記載のロボット装置の制御方
法。
6. The method according to claim 5, wherein the setting items are a transition destination, a transition condition, a transition probability, and the output action.
【請求項7】所定の外部入力に応じて、上記新たな状態
空間における対応する上記遷移確率を変化させる第3の
ステップを具えることを特徴とする請求項5に記載のロ
ボット装置の制御方法。
7. The method according to claim 5, further comprising a third step of changing the corresponding transition probability in the new state space according to a predetermined external input. .
【請求項8】上記状態空間は、 各分岐箇所にそれぞれ所定の分岐条件が与えられたツリ
ー構造でなり、 上記第3のステップでは、 上記所定の外部入力に応じて、対応する上記分岐条件を
変化させることを特徴とする請求項7に記載のロボット
装置の制御方法。
8. The state space has a tree structure in which a predetermined branch condition is given to each branch point. In the third step, the corresponding branch condition is determined according to the predetermined external input. The control method for a robot device according to claim 7, wherein the change is performed.
JP34120899A 1999-11-30 1999-11-30 Robot device, and control method thereof Pending JP2001157979A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34120899A JP2001157979A (en) 1999-11-30 1999-11-30 Robot device, and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34120899A JP2001157979A (en) 1999-11-30 1999-11-30 Robot device, and control method thereof

Publications (1)

Publication Number Publication Date
JP2001157979A true JP2001157979A (en) 2001-06-12

Family

ID=18344224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34120899A Pending JP2001157979A (en) 1999-11-30 1999-11-30 Robot device, and control method thereof

Country Status (1)

Country Link
JP (1) JP2001157979A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005520259A (en) * 2001-08-31 2005-07-07 インテュイーション インテリジェンス インコーポレイテッド Processing device with intuitive learning ability
EP1698440A1 (en) * 2003-11-27 2006-09-06 HONDA MOTOR CO., Ltd. Control device for mobile body
JP2009500746A (en) * 2005-07-08 2009-01-08 本田技研工業株式会社 Building housework plans from distributed knowledge
US7725418B2 (en) 2005-01-28 2010-05-25 Honda Motor Co., Ltd. Responding to situations using multidimensional semantic net and Bayes inference
US8019713B2 (en) 2005-07-08 2011-09-13 Honda Motor Co., Ltd. Commonsense reasoning about task instructions
JP2012130430A (en) * 2010-12-20 2012-07-12 Square Enix Co Ltd Artificial intelligence for game

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005520259A (en) * 2001-08-31 2005-07-07 インテュイーション インテリジェンス インコーポレイテッド Processing device with intuitive learning ability
EP1698440A1 (en) * 2003-11-27 2006-09-06 HONDA MOTOR CO., Ltd. Control device for mobile body
EP1698439A2 (en) * 2003-11-27 2006-09-06 HONDA MOTOR CO., Ltd. Control device for mobile body
EP1698440A4 (en) * 2003-11-27 2009-11-04 Honda Motor Co Ltd Control device for mobile body
EP1698439A4 (en) * 2003-11-27 2009-11-11 Honda Motor Co Ltd Control device for mobile body
US7725418B2 (en) 2005-01-28 2010-05-25 Honda Motor Co., Ltd. Responding to situations using multidimensional semantic net and Bayes inference
JP2009500746A (en) * 2005-07-08 2009-01-08 本田技研工業株式会社 Building housework plans from distributed knowledge
US8019713B2 (en) 2005-07-08 2011-09-13 Honda Motor Co., Ltd. Commonsense reasoning about task instructions
JP2012130430A (en) * 2010-12-20 2012-07-12 Square Enix Co Ltd Artificial intelligence for game

Similar Documents

Publication Publication Date Title
US7117190B2 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
JP4696361B2 (en) Robot apparatus and operation control method
US6889117B2 (en) Robot apparatus and method and system for controlling the action of the robot apparatus
TW581959B (en) Robotic (animal) device and motion control method for robotic (animal) device
JP2003039363A (en) Robot device, action learning method therefor, action learning program thereof, and program recording medium
KR20010053481A (en) Robot device and method for controlling the same
US20080058988A1 (en) Robots with autonomous behavior
JP2001191281A (en) Editing device, editing method, and storage medium
JP2001212782A (en) Robot device and control method for robot device
JP3277500B2 (en) Robot device
JP2003159674A (en) Robot system, external force detecting method and program for the system, and calibration method and program for the system
JP2004298975A (en) Robot device and obstacle searching method
JP2001157979A (en) Robot device, and control method thereof
JP2001154707A (en) Robot device and its controlling method
JP2004130427A (en) Robot device and method for controling operation of robot device
JP2001157980A (en) Robot device, and control method thereof
JP2002239952A (en) Robot device, action control method for robot device, program, and recording medium
JP2001157982A (en) Robot device and control method thereof
JP2002205289A (en) Action control method for robot device, program, recording medium and robot device
JP2001157981A (en) Robot device and control method thereof
JP2005169567A (en) Content reproducing system, content reproducing method and content reproducing device
JP4379052B2 (en) Moving object detection apparatus, moving object detection method, and robot apparatus
JP2003136439A (en) Robot device, and method and program for controlling gait of robot device
JP2003136451A (en) Robot device and control method thereof
JP2002264057A (en) Robot device, action control method for robot device, program and recording medium