JP2001334482A - Robot device and method of determining action of robot device - Google Patents

Robot device and method of determining action of robot device

Info

Publication number
JP2001334482A
JP2001334482A JP2001088725A JP2001088725A JP2001334482A JP 2001334482 A JP2001334482 A JP 2001334482A JP 2001088725 A JP2001088725 A JP 2001088725A JP 2001088725 A JP2001088725 A JP 2001088725A JP 2001334482 A JP2001334482 A JP 2001334482A
Authority
JP
Japan
Prior art keywords
action
behavior
tendency
appearance
causal factor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001088725A
Other languages
Japanese (ja)
Inventor
Takeshi Takagi
剛 高木
Masahiro Fujita
雅博 藤田
Rika Hasegawa
里香 長谷川
Kotaro Sabe
浩太郎 佐部
Craig Ronald Arkin
クレッグ アーキン ロナルド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001088725A priority Critical patent/JP2001334482A/en
Publication of JP2001334482A publication Critical patent/JP2001334482A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Toys (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a robot device having improved a feeling of a living thing for performing animal-like action. SOLUTION: An action determining system 70 comprises a perception information acquisition part 90 and a motivation information acquisition part 81 as external or internal information detected by a CCD camera 20, a distance sensor 22, a microphone 23, etc., for acquiring factors as information which gives influence to action and acquiring tendencies to development of actions influenced by the factors in accordance with the acquired factors, an action selection arithmetic part 82 for comparing the tendencies to development corresponding to two or more actions acquired by the perception information acquisition part 90 and the motivation information acquisition part 81, as the tendencies to development in the same group, and selecting one of the actions in accordance with the comparison result of the tendencies, and an output semantics converter module 68 for controlling an operation part in accordance with the action selected by the action selection arithmetic part 82 to make the selected action develop.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、自律的に行動する
ロボット装置及びそのようなロボット装置の行動を決定
するロボット装置の行動決定方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot device that behaves autonomously and a method for determining the behavior of a robot device that determines the behavior of such a robot device.

【0002】[0002]

【従来の技術】近年、動物を模した形状とされたロボッ
ト装置、いわゆるペットロボットが提案されている。こ
のようなロボット装置は、一般家庭において飼育される
犬や猫に似た形状を有し、ユーザ(飼い主)からの「叩
く」や「撫でる」といった働きかけや、周囲の環境等に
応じて自律的に行動する。例えば、自律的な行動とし
て、実際の動物と同様に、「吠える」、「寝る」等とい
った行動をする。
2. Description of the Related Art In recent years, a robot device having a shape imitating an animal, that is, a so-called pet robot has been proposed. Such a robot device has a shape similar to a dog or a cat bred in an ordinary household, and is autonomous in response to a user's (owner's) action such as "slapping" or "stroking", and the surrounding environment. To act on. For example, as an autonomous action, an action such as “barking” or “sleeping” is performed in the same manner as an actual animal.

【0003】ところで、ロボット装置が実際の動物のよ
うな行動に、より近づくことができれば、ロボット装置
の生物感が一層増し、ユーザ(飼い主)は、ロボット装
置に一層の親近感や満足感を感じる。これにより、ロボ
ット装置のアミューズメント性が向上する。
By the way, if the robot device can approach the behavior of an actual animal more, the biological feeling of the robot device is further increased, and the user (owner) feels a greater sense of closeness and satisfaction with the robot device. . Thereby, the amusement of the robot device is improved.

【0004】例えば、実際の動物のような行動に行動を
させるものとして、動物行動学的なアプローチからロボ
ット装置の行動決定をするようなことが考えられる。
[0004] For example, it is conceivable to determine the behavior of a robot device from an ethological approach in order to make a behavior like an actual animal behave.

【0005】動物行動的なアプローチからなされた行動
研究の成果として、例えば、物行動学者のSibly,Mcfarl
andらが動機付け空間表象の状態を1975年に論文で発表
している(“動物コミュニケーション”西村書店)。ま
た、Ludlowは1976年に行動の競合モデルについて発表し
ている。そして、これらの成果をBruce Mitchell Blumb
erg(Bruce of Arts,Amherst College,1977,Master of S
iencs,Sloan School ofManagement,MIT,1981)が「Old T
ricks,New Dogs:Ethology and Interactive Creature
s」(1997年4月)において検証している。Bruce Mitch
ell Blumbergは、3DのCG(コンピュータグラフィ
ク)の犬に対して上述した理論を適用し、行動選択メカ
ニズムとして検証している。
[0005] The results of behavioral studies made from an animal behavioral approach include, for example, the behaviorist Sibly, Mcfarl.
and et al. published a paper on the state of motivational spatial representation in 1975 ("Animal Communication", Nishimura Shoten). Ludlow also announced a competing model of behavior in 1976. And these achievements are Bruce Mitchell Blumb
erg (Bruce of Arts, Amherst College, 1977, Master of S
iencs, Sloan School of Management, MIT, 1981)
ricks, New Dogs: Ethology and Interactive Creature
s "(April 1997). Bruce Mitch
ell Blumberg applies the above-mentioned theory to 3D CG (computer graphic) dogs and verifies it as a behavior selection mechanism.

【0006】[0006]

【発明が解決しようとする課題】ところで、Bruce Mitc
hell Blumbergは、CGモデルにて動物の行動選択メカ
ニズムについて検証しており、実世界で存在するロボッ
ト装置に適応したものではない。
[Problems to be solved by the invention] By the way, Bruce Mitc
Hell Blumberg has verified the behavior selection mechanism of animals with a CG model, and is not adapted to robotic devices existing in the real world.

【0007】CGなどのコンピュータシステムのディス
プレイ等に表示される仮想生物では、行動選択と行動実
現とを直接結びつけること(行動選択=行動実現)が可
能であるため、行動の選択による動機へのフィードバッ
クが可能であるが、実際のロボットでは、行動選択と行
動実現とを直接結びつけることができるとは限らない
(すなわち、行動選択=行動実現となるとは限らな
い)。これは、以下のようなことが理由として挙げられ
る。
In a virtual creature displayed on a display of a computer system such as a computer graphics (CG), it is possible to directly connect action selection and action realization (action selection = action realization). However, in an actual robot, action selection and action realization cannot always be directly linked (that is, action selection = action realization is not always possible). This is because of the following reasons.

【0008】反射行動などの計画された行動とは無関係
に実行される行動によって、打ち消される可能性があ
る。
[0008] Actions that are performed independently of planned actions, such as reflex actions, can be counteracted.

【0009】センサからの入力のフィードバックを使用
しないと、行動が真の意味で実現できたか分からない場
合がある。
[0009] Unless feedback from input from a sensor is used, there is a case where it is impossible to know whether the action has been realized in a true sense.

【0010】このような理由において後者の具体的な例
としては“足でボールを蹴る"の行動を、ボールとの距
離が蹴ることが可能な距離に到達した時点で行動が選択
され、行動命令が出力されたとしても、ボールが置かれ
ているところに傾斜があったりすると、蹴れない場合が
存在する。“足でボールを蹴る"の行動結果としての"ボ
ールを蹴れた”を認識するためには、ボールとロボット
装置が接触し、ボールが前方に進んだことを認識して、
初めて“蹴れた”とできるのである。すなわち、ロボッ
ト装置が有するセンサのセンサ情報を使用して行動に対
する評価を行い、ロボット装置の内部状態を変化させる
ことが必要になる。
[0010] For the above reason, as a specific example of the latter, the action of "kicking the ball with the foot" is selected when the distance from the ball reaches a distance at which the ball can be kicked. Even if is output, there is a case where the ball is not kicked if the ball is placed on a slope or the like. In order to recognize "the ball was kicked" as a result of the action of "kicking the ball with the foot", the ball and the robot device came into contact, recognizing that the ball advanced forward,
It is possible for the first time to be "kicked". That is, it is necessary to evaluate the behavior using the sensor information of the sensor of the robot device and change the internal state of the robot device.

【0011】このように、上述したようなBruce Mitche
ll Blumbergが提唱する技術だけでは、実世界での存在
であるロボット装置の行動を決定することは不可能であ
る。
Thus, Bruce Mitche as described above
The technology proposed by ll Blumberg alone cannot determine the behavior of robotic devices that exist in the real world.

【0012】そこで、本発明は、上述の実情に鑑みてな
されたものであり、より生物感が向上されたロボット装
置及びロボット装置の行動決定方法の提供を目的として
いる。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and has as its object to provide a robot apparatus having a more improved biological feeling and a method of determining the behavior of the robot apparatus.

【0013】[0013]

【課題を解決するための手段】本発明に係るロボット装
置は、上述の課題を解決するために、動作部を制御して
行動を出現させるロボット装置であって、外部又は内部
情報を検出する検出手段と、検出手段が検出した外部又
は内部情報であって、行動に影響する情報とされる原因
因子を取得する原因因子取得手段と、原因因子取得手段
が取得した原因因子に基づいて、当該原因因子に影響さ
れる行動の出現傾向を取得する出現傾向取得手段と、出
現傾向取得手段が取得した2つ以上の行動に対応する出
現傾向であって、同一グループとされる出現傾向を比較
する出現傾向比較手段と、出現傾向比較手段による出現
傾向の比較結果に基づいて、一の行動を選択する行動選
択手段と、行動選択手段が選択した行動に基づいて、動
作部を制御して、当該選択された行動を出現させる動作
部制御手段とを備え、行動選択手段が選択した一の行動
の出現傾向が、当該行動の実際の出現により変化する原
因因子に応じて変化する。
SUMMARY OF THE INVENTION A robot apparatus according to the present invention is a robot apparatus for controlling an operating unit to cause an action to appear, and for detecting external or internal information. Means, external or internal information detected by the detecting means, a causal factor obtaining means for obtaining a causal factor which is information affecting behavior, and a causal factor based on the causal factor obtained by the causal factor obtaining means. Appearance tendency acquisition means for acquiring the appearance tendency of an action affected by a factor, and appearance tendency corresponding to two or more actions acquired by the appearance tendency acquisition means, wherein the appearance tendency is regarded as being in the same group. Based on the comparison result of the tendency of appearance by the tendency comparison means and the appearance tendency comparison means, an action selection means for selecting one action, and controlling the operation unit based on the action selected by the action selection means, And a operation section control means for the appearance of the selected action, the appearance tends one behavioral action selection means has selected changes according to the causative factors that change the actual appearance of the action.

【0014】このような構成を備えたロボット装置は、
外部又は内部情報を検出手段により検出し、検出手段が
検出した外部又は内部情報であって、行動に影響する情
報とされる原因因子を原因因子取得手段により取得し、
原因因子取得手段が取得した原因因子に基づいて、当該
原因因子に影響される行動の出現傾向を出現傾向取得手
段により取得する。
A robot device having such a configuration is as follows.
The external or internal information is detected by the detecting means, and the external or internal information detected by the detecting means is acquired by the causal factor acquiring means as a causal factor which is information affecting behavior,
Based on the causal factors acquired by the causal factor acquiring means, the appearance tendency of the behavior affected by the causal factors is acquired by the appearance tendency acquiring means.

【0015】そして、ロボット装置は、出現傾向取得手
段が取得した2つ以上の行動に対応する出現傾向であっ
て、同一グループとされる出現傾向を出現傾向比較手段
により比較し、出現傾向比較手段による出現傾向の比較
結果に基づいて、一の行動を行動選択手段により選択
し、行動選択手段が選択した行動に基づいて、動作部を
動作部制御手段により制御して、当該選択された行動を
出現させる。そして、行動選択手段が選択した一の行動
の出現傾向は、当該行動の実際の出現により変化する原
因因子に応じて変化する。
The robot apparatus compares the appearance trends corresponding to the two or more actions acquired by the appearance tendency acquisition unit, which are considered to be in the same group, by the appearance tendency comparison unit. Based on the comparison result of the appearance tendency according to the above, one action is selected by the action selecting means, and based on the action selected by the action selecting means, the operation section is controlled by the operation section control means, and the selected action is Let it appear. Then, the appearance tendency of one action selected by the action selection means changes according to the causal factor that changes due to the actual appearance of the action.

【0016】このようなロボット装置は、原因因子に影
響されて決定される出現傾向について比較することで、
一の行動を選択しており、動物行動学的なアプローチと
しての行動を出現するようになる。
[0016] Such a robot apparatus compares the appearance tendencies determined by the causal factors,
One behavior has been selected, and the behavior emerges as an ethological approach.

【0017】また、本発明に係るロボット装置の行動決
定方法は、上述の課題を解決するために、ロボット装置
の外部又は内部情報を検出手段により検出する情報検出
工程と、情報検出工程にて検出した外部又は内部情報の
ロボット装置の行動に影響する情報とされる原因因子を
取得する原因因子取得工程と、原因因子取得工程にて取
得した原因因子に基づいて、当該原因因子に影響される
行動の出現傾向を取得する出現傾向取得工程と、出現傾
向取得工程にて取得した2つ以上の行動に対応する出現
傾向であって、同一グループとされる出現傾向を比較す
る出現傾向比較工程と、出現傾向比較工程における出現
傾向の比較結果に基づいて、一の行動を選択する行動選
択工程と、行動選択工程にて選択された行動に基づい
て、ロボット装置の動作部を制御して、当該ロボット装
置に選択された行動を出現させる動作部制御工程とを有
し、行動選択工程にて選択された一の行動の出現傾向
が、当該行動の実際の出現により変化する原因因子に応
じて変化する。
In order to solve the above-mentioned problems, a method for determining an action of a robot apparatus according to the present invention includes an information detecting step of detecting external or internal information of the robot apparatus by a detecting means, and detecting the information by an information detecting step. A causal factor acquiring step for acquiring causal factors which are information affecting the behavior of the robot device of the external or internal information, and an action affected by the causal factor based on the causal factors acquired in the causal factor acquiring step. An appearance tendency acquisition step of acquiring the appearance tendency of the two, and an appearance tendency comparison step of comparing the appearance tendency corresponding to two or more actions acquired in the appearance tendency acquisition step, which are considered to be in the same group; An action selection step of selecting one action based on the comparison result of the appearance trends in the appearance tendency comparison step, and a robot apparatus based on the action selected in the action selection step. Controlling the working unit to cause the robot device to cause the selected action to appear, and the action tendency of the one action selected in the action selecting step is determined by the actual appearance of the action. It changes according to changing causal factors.

【0018】このようなロボット装置の行動決定方法
は、ロボット装置の外部又は内部の情報とされる外部又
は内部情報を情報検出工程にて検出手段により検出し、
情報検出工程にて検出した外部又は内部情報のロボット
装置の行動に影響する情報とされる原因因子を原因因子
取得工程にて取得し、原因因子取得工程にて取得した原
因因子に基づいて、当該原因因子に影響される行動の出
現傾向を出現傾向取得工程にて取得する。
[0018] In such a method for determining the behavior of a robot device, the detection means detects external or internal information, which is information external or internal to the robot device, in an information detecting step,
In the causal factor acquisition step, a causal factor that is information that affects the behavior of the robot device of the external or internal information detected in the information detection step is acquired, and based on the causal factor acquired in the causal factor acquisition step, The appearance tendency of the behavior affected by the causal factor is acquired in the appearance tendency acquisition step.

【0019】そして、ロボット装置の行動決定方法は、
出現傾向取得工程にて取得した2つ以上の行動に対応す
る出現傾向であって、同一グループとされる出現傾向を
出現傾向比較工程にて比較し、出現傾向比較工程におけ
る出現傾向の比較結果に基づいて、一の行動を行動選択
工程にて選択し、行動選択工程にて選択された行動に基
づいて、ロボット装置の動作部を動作部制御工程にて制
御して、当該ロボット装置に選択された行動を出現させ
る。そして、行動選択工程にて選択された一の行動の出
現傾向は、当該行動の実際の出現により変化する原因因
子に応じて変化する。
The method for determining the action of the robot apparatus is as follows.
Appearance tendencies corresponding to two or more actions acquired in the appearance tendency acquisition step, which are in the same group, are compared in the appearance tendency comparison step, and the results of the appearance tendency comparison in the appearance tendency comparison step are compared. Based on the action selected in the action selecting step, based on the action selected in the action selecting step, the operating unit of the robot device is controlled in the operating unit control step, and the selected action is selected by the robot apparatus. Make the action appear. Then, the appearance tendency of one action selected in the action selection step changes according to the causal factor that changes due to the actual appearance of the action.

【0020】このようなロボット装置の行動決定方法に
より、ロボット装置は、原因因子に影響されて決定され
る出現傾向について比較することで、一の行動を選択し
ており、動物行動学的なアプローチとしての行動を出現
するようになる。
According to such a method for determining the behavior of a robot device, the robot device selects one behavior by comparing the appearance tendency determined by being influenced by the causal factors. As a behavior comes to appear.

【0021】[0021]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を用いて詳しく説明する。この実施の形態は、本
発明を、外的要因及び内的要因に基づいて本能及び感情
の状態を変化させて、この本能及び感情の状態に応じて
行動をするロボット装置に適用したものである。
Embodiments of the present invention will be described below in detail with reference to the drawings. In this embodiment, the present invention is applied to a robot apparatus that changes the state of instinct and emotion based on external factors and internal factors, and acts according to the state of instinct and emotion. .

【0022】実施の形態では、先ず、ロボット装置の構
成について説明して、その後、ロボット装置における本
発明の適用部分について詳細に説明する。
In the embodiment, first, the configuration of the robot device will be described, and thereafter, the application portion of the present invention in the robot device will be described in detail.

【0023】(1)本実施の形態によるロボット装置の
構成 図1に示すように、「犬」を模した形状のいわゆるペッ
トロボットとされ、胴体部ユニット2の前後左右にそれ
ぞれ脚部ユニット3A,3B,3C,3Dが連結される
と共に、胴体部ユニット2の前端部及び後端部にそれぞ
れ頭部ユニット4及び尻尾部ユニット5が連結されて構
成されている。
(1) Configuration of Robot Apparatus According to the Present Embodiment As shown in FIG. 1, a so-called pet robot having a shape imitating a "dog" is provided, and leg units 3A, 3A, 3B, 3C, and 3D are connected, and a head unit 4 and a tail unit 5 are connected to the front end and the rear end of the body unit 2, respectively.

【0024】胴体部ユニット2には、図2に示すよう
に、CPU(Central Processing Unit)10、DRA
M(Dynamic Random Access Memory)11、フラッシュ
ROM(Read 0nly Memory)12、PC(Personal Co
mputer)カードインターフェース回路13及び信号処理
回路14が内部バス15を介して相互に接続されること
により形成されたコントロール部16と、このロボット
装置1の動力源としてのバッテリ17とが収納されてい
る。また胴体部ユニット2には、ロボット装置1の向き
や動きの加速度を検出するための角速度センサ18及び
加速度センサ19なども収納されている。
As shown in FIG. 2, a CPU (Central Processing Unit) 10 and a DRA
M (Dynamic Random Access Memory) 11, Flash ROM (Read 0nly Memory) 12, PC (Personal Co.)
A controller 16 formed by interconnecting a card interface circuit 13 and a signal processing circuit 14 via an internal bus 15 and a battery 17 as a power source of the robot apparatus 1 are housed therein. . The body unit 2 also houses an angular velocity sensor 18 and an acceleration sensor 19 for detecting the acceleration of the direction and movement of the robot device 1.

【0025】また、頭部ユニット4には、外部の状況を
撮像するためのCCD(Charge Coupled Device)カメ
ラ20と、ユーザからの「撫でる」や「叩く」といった
物理的な働きかけにより受けた圧力を検出するためのタ
ッチセンサ21と、前方に位置する物体までの距離を測
定するための距離センサ22と、外部音を集音するため
のマイクロホン23と、鳴き声等の音声を出力するため
のスピーカ24と、ロボット装置1の「目」に相当する
LED(Light Emitting Diode)(図示せず)となどが
それぞれ所定位置に配置されている。
Also, the head unit 4 receives a charge (CCD) camera 20 for capturing an image of an external situation and a pressure applied by a physical action such as "stroke" or "hit" from the user. A touch sensor 21 for detection, a distance sensor 22 for measuring a distance to an object located ahead, a microphone 23 for collecting external sounds, and a speaker 24 for outputting a sound such as a squeal And an LED (Light Emitting Diode) (not shown) corresponding to an “eye” of the robot apparatus 1 are arranged at predetermined positions.

【0026】さらに、各脚部ユニット3A〜3Dの関節
部分や各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、頭部ユニット4及び胴体部ユニット2の
連結部分、並びに尻尾部ユニット5の尻尾5Aの連結部
分などにはそれぞれ自由度数分のアクチュエータ2
,25,・・・及びポテンショメータ26,26
,・・・が配設されている。例えば、アクチュエータ
25,25,・・・はサーボモータを構成として有し
ている。サーボモータの駆動により、脚部ユニット3A
〜3Dが制御されて、目標の姿勢或いは動作に遷移す
る。
Further, the joints of the leg units 3A to 3D, the leg units 3A to 3D, and the trunk unit 2
, The connecting portion of the head unit 4 and the body unit 2 and the connecting portion of the tail 5A of the tail unit 5, etc.
5 1, 25 2, ..., and the potentiometer 26 1, 26
2 ,... Are provided. For example, each of the actuators 25 1 , 25 2 ,... Has a servomotor. By driving the servo motor, the leg unit 3A
3D is controlled to transit to a desired posture or motion.

【0027】そして、これら角速度センサ18、加速度
センサ19、タッチセンサ21、距離センサ22、マイ
クロホン23、スピーカ24及び各ポテンショメータ2
,26,・・・などの各種センサ並びにLED及び
各アクチュエータ25,25,・・・は、それぞれ対
応するハブ27〜27を介してコントロール部16
の信号処理回路14と接続され、CCDカメラ20及び
バッテリ17は、それぞれ信号処理回路14と直接接続
されている。
The angular velocity sensor 18, acceleration sensor 19, touch sensor 21, distance sensor 22, microphone 23, speaker 24 and each potentiometer 2
The various sensors such as 6 1 , 26 2 ,... And the LEDs and the actuators 25 1 , 25 2 ,... Are connected to the control unit 16 via the corresponding hubs 27 1 to 27 n.
, And the CCD camera 20 and the battery 17 are directly connected to the signal processing circuit 14, respectively.

【0028】信号処理回路l4は、上述の各センサから
供給されるセンサデータや画像データ及び音声データを
順次取り込み、これらをそれぞれ内部バス15を介して
DRAM11内の所定位置に順次格納する。また信号処
理回路14は、これと共にバッテリ17から供給される
バッテリ残量を表すバッテリ残量データを順次取り込
み、これをDRAM11内の所定位置に格納する。
The signal processing circuit 14 sequentially takes in the sensor data, image data and audio data supplied from each of the above-described sensors, and sequentially stores them at predetermined positions in the DRAM 11 via the internal bus 15. In addition, the signal processing circuit 14 sequentially takes in remaining battery power data indicating the remaining battery power supplied from the battery 17 and stores the data at a predetermined position in the DRAM 11.

【0029】このようにしてDRAM11に格納された
各センサデータ、画像データ、音声データ及びバッテリ
残量データは、この後CPU10がこのロボット装置1
の動作制御を行う際に利用される。
The sensor data, image data, audio data, and remaining battery data stored in the DRAM 11 in this manner are thereafter transmitted to the robot apparatus 1 by the CPU 10.
It is used when controlling the operation of.

【0030】実際上CPU10は、ロボット装置1の電
源が投入された初期時、胴体部ユニット2の図示しない
PCカードスロットに装填されたメモリカード28又は
フラッシュROM12に格納された制御プログラムをP
Cカードインターフェース回路13を介して又は直接読
み出し、これをDRAM11に格納する。
Actually, at the initial stage when the power of the robot apparatus 1 is turned on, the CPU 10 executes the control program stored in the memory card 28 or the flash ROM 12 inserted in the PC card slot (not shown) of the body unit 2 into a P program.
The data is read out via the C card interface circuit 13 or directly and stored in the DRAM 11.

【0031】また、CPU10は、この後上述のように
信号処理回路14よりDRAM11に順次格納される各
センサデータ、画像データ、音声データ及びバッテリ残
量データに基づいて自己及び周囲の状況や、ユーザから
の指示及び働きかけの有無などを判断する。
The CPU 10 then determines the status of itself and its surroundings and the user based on the sensor data, image data, audio data, and remaining battery data sequentially stored in the DRAM 11 from the signal processing circuit 14 as described above. Judgment of the instruction from the person and the presence or absence of the action.

【0032】さらに、CPU10は、この判断結果及び
DRAM11に格納しだ制御プログラムに基づいて続く
行動を決定すると共に、当該決定結果に基づいて必要な
アクチュエータ25,25,・・・を駆動させること
により、頭部ユニット4を上下左右に振らせたり、尻尾
部ユニット5の尻尾5Aを動かせたり、各脚部ユニット
3A〜3Dを駆動させて歩行させるなどの行動を行わせ
る。
Further, the CPU 10 determines a subsequent action based on the determination result and the control program stored in the DRAM 11, and drives the necessary actuators 25 1 , 25 2 ,... Based on the determination result. Thereby, actions such as swinging the head unit 4 up, down, left, and right, moving the tail 5A of the tail unit 5, and driving and walking each leg unit 3A to 3D are performed.

【0033】またこの際CPU10は、必要に応じて音
声データを生成し、これを信号処理回路14を介して音
声信号としてスピーカ24に与えることにより当該音声
信号に基づく音声を外部に出力させたり、上述のLED
を点灯、消灯又は点滅させる。
At this time, the CPU 10 generates audio data as necessary, and supplies the generated audio data to the speaker 24 as an audio signal via the signal processing circuit 14, thereby outputting an audio based on the audio signal to the outside. LED above
Is turned on, off or blinking.

【0034】このようにしてこのロボット装置1におい
ては、自己及び周囲の状況や、ユーザからの指示及び働
きかけに応じて自律的に行動し得るようになされてい
る。
In this way, the robot device 1 is capable of acting autonomously in accordance with the situation of itself and the surroundings, and instructions and actions from the user.

【0035】(2)制御プログラムのソフトウェア構成 ここでロボット装置1における上述の制御プログラムの
ソフトウェア構成は、図3に示すようになる。この図3
において、デバイス・ドライバ・レイヤ30は、この制
御プログラムの最下位層に位置し、複数のデバイス・ド
ライバからなるデバイス・ドライバ・セット31から構
成されている。この場合各デバイス・ドライバは、CC
Dカメラ20(図2)やタイマ等の通常のコンピュータ
で用いられるハードウェアに直接アクセスするごとを許
されたオブジェクトであり、対応するハードウェアから
の割り込みを受けて処理を行う。
(2) Software Configuration of Control Program The software configuration of the above-described control program in the robot device 1 is as shown in FIG. This figure 3
, The device driver layer 30 is located at the lowest layer of the control program and includes a device driver set 31 including a plurality of device drivers. In this case, each device driver is CC
An object that is allowed to directly access hardware used in a normal computer, such as the D camera 20 (FIG. 2) and a timer, and performs processing in response to an interrupt from the corresponding hardware.

【0036】また、ロボティック・サーバ・オブジェク
ト32は、デバイス・ドライバ・レイヤ30の最下位層
に位置し、例えば上述の各種センサやアクチュエータ2
,25,・・・等のハードウェアにアクセスするた
めのインターフェースを提供するソフトウェア群でなる
バーチャル・ロボット33と、電源の切り換えなどを管
理するソフトウェア群でなるバワーマネージャ34と、
他の種々のデバイス・ドライバを管理するソフトウェア
群でなるデバイス・ドライバ・マネージャ35と、ロボ
ット装置1の機構を管理するソフトウェア群でなるデザ
インド・ロボット36とから構成されている。
The robotic server object 32 is located at the lowest layer of the device driver layer 30 and includes, for example, the various sensors and actuators 2 described above.
5 1, 25 2, the virtual robot 33 comprising a software group that provides an interface for accessing the hardware, such as ..., and Ba word manager 34 made of a software suite for managing the switching of power supply,
It is composed of a device driver manager 35 which is a software group for managing various other device drivers, and a designed robot 36 which is a software group for managing the mechanism of the robot apparatus 1.

【0037】マネージャ・オブジェクト37は、オブジ
ェクト・マネージャ38及びサービス・マネージャ39
から構成されている。この場合オブジェクト・マネージ
ャ38は、ロボティック・サーバ・オブジェクト32、
ミドル・ウェア・レイヤ40、及びアプリケーション・
レイヤ41に含まれる各ソフトウェア群の起動や終了を
管理するソフトウェア群であり、サービス・マネージャ
39は、メモリカード28(図2)に格納されたコネク
ションファイルに記述されている各オブジェクト間の接
続情報に基づいて各オブジェクトの接続を管理するソフ
トウェア群である。
The manager object 37 includes an object manager 38 and a service manager 39.
It is composed of In this case, the object manager 38 has the robotic server object 32,
Middleware layer 40 and application
The service manager 39 is a software group that manages activation and termination of each software group included in the layer 41. The service manager 39 stores connection information between objects described in a connection file stored in the memory card 28 (FIG. 2). Is a group of software that manages the connection of each object based on.

【0038】ミドル・ウェア・レイヤ40は、ロボティ
ック・サーバ・オブジェクト32の上位層に位置し、画
像処理や音声処理などのこのロボット装置1の基本的な
機能を提供するソフトウェア群から構成されている。ま
た、アプリケーション・レイヤ41は、ミドル・ウェア
・レイヤ40の上位層に位置し、当該ミドル・ウェア・
レイヤ40を構成する各ソフトウェア群によって処理さ
れた処理結果に基づいてロボット装置1の行動を決定す
るためのソフトウェア群から構成されている。
The middleware layer 40 is located on the upper layer of the robotic server object 32 and is composed of a group of software for providing basic functions of the robot apparatus 1 such as image processing and sound processing. I have. Further, the application layer 41 is located above the middleware layer 40, and
It is composed of a software group for determining an action of the robot apparatus 1 based on a processing result processed by each software group constituting the layer 40.

【0039】なおミドル・ウェア・レイヤ40及びアプ
リケーション・レイヤ41の具体なソフトウェア構成を
それぞれ図4に示す。
FIG. 4 shows a specific software configuration of the middleware layer 40 and the application layer 41, respectively.

【0040】ミドル・ウェア・レイヤ40においては、
図4に示すように、騒音検出用、温度検出用、明るさ検
出用、音階認識用、距離検出用、姿勢検出用、タッチセ
ンサ用、動き検出用及び色認識用の各信号処理モジュー
ル50〜58並びに入力セマンティクスコンバータモジ
ュール59などを有する認識系60と、出力セマンティ
クスコンバータモジュール68並びに姿勢管理用、トラ
ッキング用、モーション再生用、歩行用、転倒復帰用、
LED点灯用及び音再生用の各信号処理モジュール61
〜67などを有する認識系60とから構成されている。
In the middleware layer 40,
As shown in FIG. 4, each signal processing module 50 for noise detection, temperature detection, brightness detection, scale recognition, distance detection, attitude detection, touch sensor, motion detection, and color recognition A recognition system 60 having an input semantics converter module 58 and an input semantics converter module 59; and an output semantics converter module 68 and an attitude management, tracking, motion reproduction, walking, fall recovery,
Each signal processing module 61 for LED lighting and sound reproduction
And a recognition system 60 having -67 and the like.

【0041】認識系60の各信号処理モジュール50〜
58は、ロボティック・サーバ・オブジェクト32のバ
ーチャル・ロボット33によりDRAM11(図2)か
ら読み出される各センサデータや画像データ及び音声デ
ータのうちの対応するデータを取り込み、当該データに
基づいて所定の処理を施して、処理結果を入力セマンテ
ィクスコンバータモジュール59に与える。ここで、例
えば、バーチャル・ロボット33は、所定の通信規約に
よって、信号の授受或いは変換をする部分として構成さ
れている。
Each of the signal processing modules 50 to 50 of the recognition system 60
Numeral 58 fetches corresponding data among the sensor data, image data, and audio data read from the DRAM 11 (FIG. 2) by the virtual robot 33 of the robotic server object 32, and performs predetermined processing based on the data. Is given to the input semantics converter module 59. Here, for example, the virtual robot 33 is configured as a part that exchanges or converts signals according to a predetermined communication protocol.

【0042】入力セマンティクスコンパータモジュール
59は、これら各信号処理モジュール50〜58から与
えられる処理結果に基づいて、「うるさい」、「暑
い」、「明るい」、「ボールを検出した」、「転倒を検
出した」、「撫でられた」、「叩かれた」、「ドミソの
音階が聞こえた」、「動く物体を検出した」又は「障害
物を検出した」などの自己及び周囲の状況や、ユーザか
らの指令及び働きかけを認識し、認識結果をアプリケー
ション・レイヤ41(図2)に出力する。なお、アプリ
ケーション・レイヤ41には、後述する行動決定のため
の行動決定システムが構築されている。
The input semantics converter module 59 determines "noisy", "hot", "bright", "ball detected", "fall" based on the processing results given from each of the signal processing modules 50-58. Self and surrounding conditions such as "detected", "stroked", "hitted", "hearing the scale of Domiso", "detected moving object" or "detected obstacle", and the user , And outputs the recognition result to the application layer 41 (FIG. 2). In the application layer 41, an action determination system for action determination to be described later is constructed.

【0043】一方、出力系69では、出力セマンティク
スコンバータモジュール68が、行動情報に基づいて、
各信号処理モジュール61〜67を制御する。すなわ
ち、例えば、認識系60の認識結果に応じて、「うるさ
い」、「暑い」、「明るい」、「ボールを検出した」、
「転倒を検出した」、「撫でられた」、「叩かれた」、
「ドミソの音階が聞こえた」、「動く物体を検出した」
又は「障害物を検出した」などの自己及び周囲の状況
や、ユーザからの指令及び働きかけなどに対応して制御
情報(コマンド)を各信号処理モジュール61〜67に
出力する。
On the other hand, in the output system 69, the output semantics converter module 68 outputs
Each of the signal processing modules 61 to 67 is controlled. That is, for example, according to the recognition result of the recognition system 60, “noisy”, “hot”, “bright”, “ball detected”,
"Detected fall,""stroke,""beaten,"
"I heard the domeso scale,""Detected a moving object."
Or, it outputs control information (commands) to each of the signal processing modules 61 to 67 in response to the self and surrounding conditions such as “detected an obstacle”, commands and actions from the user, and the like.

【0044】出力セマンティクスコンバータモジュール
68に入力される行動情報は、「前進」、「喜ぶ」、
「鳴く」又は「トラッキング(ボールを追いかける)」
といった抽象的な行動コマンドであって、出力セマンテ
ィクスコンバータモジュール68は、それらの行動コマ
ンドを対応する各信号処理モジュール61〜67に与え
る。そして、出力セマンティクスコンバータモジュール
68に入力される行動情報は、上位の情報処理部とされ
る行動決定システムからのものであるが、本発明に係る
要部であり、後で詳述するところである。
The behavior information input to the output semantics converter module 68 includes “forward”, “please”,
"Squeal" or "tracking (chasing the ball)"
And the output semantics converter module 68 gives the action commands to the corresponding signal processing modules 61 to 67. The behavior information input to the output semantics converter module 68 is from the behavior determination system that is the upper information processing unit, but is a main part according to the present invention, and will be described later in detail.

【0045】そして、各信号処理モジュール61〜67
は、出力セマンティクスコンバータモジュール68から
の行動コマンドに基づいて、各デバイスを制御する制御
信号を、バーチャル・ロボット33に出力する。具体的
には、信号処理モジュール61〜67は、行動コマンド
が与えられると当該行動コマンドに基づいて、その行動
を行うために対応するアクチュエータ25,25,・
・・(図2)に与えるべきサーボ指令値や、スピーカ2
4(図2)から出力する音の音声データ及び又は「目」
のLEDに与える駆動データを生成し、これらのデータ
をロボティック・サーバ・オブジェクト32のバーチャ
ルロボット33及び信号処理回路14(図2)を順次介
して対応するアクチュエータ25,25,・・・又は
スピーカ24又はLEDに順次送出する。
The signal processing modules 61 to 67
Outputs a control signal for controlling each device to the virtual robot 33 based on the action command from the output semantics converter module 68. Specifically, when an action command is given, the signal processing modules 61 to 67 perform the corresponding actuators 25 1 , 25 2 ,... To perform the action based on the action command.
..Servo command value to be given to (FIG. 2) or speaker 2
4 (Fig. 2) and / or "eye"
, And the corresponding actuators 25 1 , 25 2 ,... Sequentially through the virtual robot 33 of the robotic server object 32 and the signal processing circuit 14 (FIG. 2). Alternatively, the data is sequentially transmitted to the speaker 24 or the LED.

【0046】各デバイスがバーチャル・ロボット33か
らの信号(コマンド)に基づいて制御されることによ
り、ロボット装置1により、所定の行動の出現がなされ
るようになる。
Each device is controlled based on a signal (command) from the virtual robot 33, so that the robot apparatus 1 makes a predetermined action appear.

【0047】次に、入力セマンティクスコンバータモジ
ュール59からの認識結果に基づいて次の行動(遷移す
る行動或いは目的の行動)を決定し、当該決定した行動
の情報を出力セマンティクスコンバータモジュール68
に出力する行動決定システムについて説明する。
Next, the next action (transition action or target action) is determined based on the recognition result from the input semantics converter module 59, and information on the determined action is output to the output semantics converter module 68.
Will be described.

【0048】(3)ロボット装置の行動決定システムの
構成 ロボット装置1は、図5に示すような行動決定システム
70により行動を決定している。行動決定システム70
は、入力セマンティクスコンバータモジュール59から
の認識結果に基づいて行動を決定し、その行動を出力セ
マンティクスコンバータモジュール68に出力してい
る。具体的には、ロボット装置1は、行動選択部80、
内的状態モデル部71及びモジュレータ72を備えてい
る。
(3) Configuration of Behavior Determination System of Robot Device The robot device 1 determines a behavior by a behavior determination system 70 as shown in FIG. Action decision system 70
Determines an action based on the recognition result from the input semantics converter module 59, and outputs the action to the output semantics converter module 68. Specifically, the robot device 1 includes an action selecting unit 80,
An internal state model unit 71 and a modulator 72 are provided.

【0049】行動選択部80は、複数の行動から所望の
行動を選択する。具体的には、行動選択部80は、入力
セマンティクスコンバータモジュール59の認識結果に
基づいて所望の行動を選択する。例えば、行動選択部8
0は、知覚情報取得部90、動機情報取得部81及び行
動選択演算部82を備え、行動の選択をする。
The action selecting section 80 selects a desired action from a plurality of actions. Specifically, the action selecting unit 80 selects a desired action based on the recognition result of the input semantics converter module 59. For example, the action selection unit 8
Numeral 0 includes a perception information acquisition unit 90, a motive information acquisition unit 81, and an action selection calculation unit 82, and selects an action.

【0050】このような行動決定システム70におい
て、知覚情報取得部90及び動機情報取得部81は、C
CDカメラ20、距離センサ22、マイクロホン23等
の外部又は内部情報を検出する検出手段が検出した外部
又は内部情報であって、行動に影響する情報とされる原
因因子を取得する原因因子取得手段及び原因因子取得手
段として取得した原因因子に基づいて、当該原因因子に
影響される行動の出現傾向を取得する出現傾向取得手段
を構成し、行動選択演算部82は、知覚情報取得部90
及び動機情報取得部81が取得した2つ以上の行動に対
応する出現傾向であって、同一グループとされる出現傾
向を比較する出現傾向比較手段及び出現傾向比較手段に
よる出現傾向の比較結果に基づいて、一の行動を選択す
る行動選択手段を構成し、出力セマンティクスコンバー
タモジュール68は、行動選択演算部82が選択した行
動に基づいて、動作部を制御して、当該選択された行動
を出現させる動作部制御手段を構成する。
In such an action determination system 70, the perceptual information acquiring unit 90 and the motive information acquiring unit 81
Causal factor obtaining means for obtaining external or internal information detected by the detecting means for detecting external or internal information, such as the CD camera 20, the distance sensor 22, the microphone 23, etc., and which is assumed to be information affecting behavior; and Based on the causal factor acquired as the causal factor acquiring unit, an appearance tendency acquiring unit configured to acquire an appearance tendency of an action affected by the causal factor is configured.
And an appearance tendency corresponding to two or more actions acquired by the motivation information acquisition unit 81, based on an appearance tendency comparison unit that compares the appearance trends included in the same group and an appearance tendency comparison result by the appearance tendency comparison unit. The output semantics converter module 68 controls the operation unit based on the action selected by the action selection calculation unit 82 to cause the selected action to appear. An operation unit control means is configured.

【0051】ここで、行動選択部80は、知覚情報取得
部90が認識結果から取得した知覚情報と、動機情報取
得部81が内的状態モデル部71からの内的状態情報か
ら取得した動機情報とに基づいて、行動選択演算部82
において行動を選択する。この行動選択部80について
は、後で詳述する。
Here, the action selecting section 80 is configured such that the perceptual information acquired by the perceptual information acquiring section 90 from the recognition result and the motivation information acquired by the motivation information acquiring section 81 from the internal state information from the internal state model section 71. Based on the action selection operation unit 82
Select an action in. The action selecting section 80 will be described later in detail.

【0052】一方、内的状態モデル部71は、外的要因
や内的要因に応じてロボット装置1の本能及び感情の状
態(内的状態)を変化させる内部状態モデルを有してい
る。ここで、外的要因とは、例えば、叩かれた情報、撫
でられた情報、或いはユーザからの命令などである。ま
た、内的要因は、バッテリ残量が少ないや体温が上昇し
ているなどの情報である。
On the other hand, the internal state model unit 71 has an internal state model that changes the instinct and emotional state (internal state) of the robot apparatus 1 according to external factors and internal factors. Here, the external factor is, for example, information that is hit, information that is stroked, or a command from a user. Further, the internal factor is information such as a low battery level or a rise in body temperature.

【0053】具体的には、内的状態モデル部71は、入
力セマンティクスコンバータモジュール59の認識結果
に基づいて、内的状態を変化させており、内的状態の情
報を行動選択部80及びモジュレータ72に出力してい
る。
More specifically, the internal state model section 71 changes the internal state based on the recognition result of the input semantics converter module 59, and uses the information of the internal state as the action selecting section 80 and the modulator 72. Output to

【0054】動機情報取得部81では、この内的状態情
報に基づいて動機情報を取得する。これについては、後
で詳述する。
The motive information acquiring section 81 acquires motive information based on the internal state information. This will be described later in detail.

【0055】一方、モジュレータ72は、最終的に出現
させる行動情報(行動コマンド)を生成する部分であ
る。具体的には、モジュレータ72は、行動選択部80
にて選択された行動と、内的状態モデル部71からの内
的状態の情報とから最終的に出現させる行動情報を生成
し、出力セマンティクスコンバータモジュール68に出
力する。
On the other hand, the modulator 72 is a part for generating action information (action command) to be finally displayed. Specifically, the modulator 72 includes the action selection unit 80
The behavior information finally appearing is generated from the behavior selected in and the information on the internal state from the internal state model unit 71, and is output to the output semantics converter module 68.

【0056】このモジュレータ72により、行動選択部
80により決定(選択)された行動に、内的状態モデル
部71により得られる本能や感情の状態を付加させたも
のとして、ロボット装置1に行動を出現させることがで
きるようになる。すなわち、例えば、行動選択部80で
は認識結果等から次の行動として「リンゴを食べる」と
いった行動が選択され、一方、内的状態モデル部71で
は、認識結果により現在のロボット装置1の内的状態と
して例えば「怒っている」が取得される。そして、モジ
ュレータ72では、それらの情報に基づいて、「リンゴ
を食べる」の行動に「怒っている」の内的状態を付加さ
せて、「不機嫌にリンゴを食べる」の行動の情報を生成
して、その情報を出力セマンティクスコンバータモジュ
ール68に出力する。出力セマンティクスコンバータモ
ジュール68は、各信号処理モジュール61〜67に信
号を送り、各デバイスを制御して動作部を制御するの
で、これにより、ロボット装置1は、次の行動(目的の
行動)として不機嫌にリンゴを食べる行動を出現させる
ようになる。
The modulator 72 causes the behavior determined by the behavior selection unit 80 to be added to the instinct and emotional state obtained by the internal state model unit 71, so that the behavior appears in the robot apparatus 1. Will be able to do that. That is, for example, the action selecting unit 80 selects an action such as “eat an apple” as the next action from the recognition result or the like, while the internal state model unit 71 selects the current internal state of the robot device 1 based on the recognition result. For example, "angry" is acquired. Then, based on the information, the modulator 72 adds the internal state of “angry” to the action of “eat apple” to generate information of the action of “eat apple badly”. , And outputs the information to the output semantics converter module 68. The output semantics converter module 68 sends a signal to each of the signal processing modules 61 to 67 and controls each device to control the operation unit, so that the robot apparatus 1 is disgruntled as the next action (target action). The behavior of eating apples will appear.

【0057】また、内的状態モデル部71において生成
される本能や感情の状態を示す内的状態情報にあって
は、ロボット装置1が行動を決定(選択)する際の情報
としても使用され、さらに、決定された行動に対しても
表出される(付加される)かたちで使用されている。
The internal state information indicating the state of instinct and emotion generated by the internal state model unit 71 is also used as information when the robot apparatus 1 determines (selects) an action. In addition, it is used in a form that is expressed (added) to the determined action.

【0058】このように行動決定システム70は、認識
結果に基づいて行動を決定している。以下、この行動決
定システム70を構成する各部についてさらに詳しく説
明する。
As described above, the action determining system 70 determines an action based on the recognition result. Hereinafter, each unit constituting the action determination system 70 will be described in more detail.

【0059】(3−1)内的状態モデル部の構成 内的状態モデル部71は、外的要因及び内的要因に応じ
て本能及び感情といった内的状態を変化させている。そ
して、内的状態モデル部71によって得られる本能及び
感情の状態は、上述したように、ロボット装置1が行動
を決定する際の情報として使用され、さらに、決定され
た行動に対しても表出される(付加される)かたちでも
使用される。
(3-1) Configuration of Internal State Model Unit The internal state model unit 71 changes internal states such as instinct and emotion according to external factors and internal factors. The state of instinct and emotion obtained by the internal state model unit 71 is used as information when the robot apparatus 1 determines an action, as described above, and is further expressed for the determined action. Also used in the form of (added).

【0060】この内的状態モデル部71は、外的要因や
内的要因に応じて変化する本能(欲求)や性格に関わる
要素を複数有して構成されている。
The internal state model unit 71 has a plurality of elements related to instinct (desire) and personality that change according to external factors and internal factors.

【0061】具体的には、内的状態モデル部71は、疲
れ(fatigue)、熱或いは体内温度(temperature)、痛
み(pain)、食欲或いは飢え(hunger)、乾き(thirs
t)、愛情(affection)、好奇心(curiosity)、排泄
(elimination)及び性欲(sexual)等といった9個の
本能的要素と、幸せ(happiness)、悲しみ(sadnes
s)、怒り(anger)、驚き(surprise)、嫌悪(disgus
t)、恐れ(fear)、苛立ち(frustration)、退屈(bo
redom)、睡眠(somnolence)、社交性(gregariousnes
s)、根気(patience)、緊張(tense)、リラックス
(relaxed)、警戒(alertness)、罪(guilt)、悪意
(spite)、誠実さ(loyalty)、服従性(submission)
及び嫉妬(jealousy)等といった18個の情動的要素と
を有し、全体として27個の内的状態を示す要素を持っ
ている。
More specifically, the internal state model unit 71 includes: fatigue, heat or body temperature, pain, appetite or hunger, and dryness (thirs).
t), nine instinct factors such as affection, curiosity, elimination and sexuality, and happiness and sadness.
s), anger, surprise, disgus
t), fear, frustration, boring
redom), sleep (somnolence), sociability (gregariousnes)
s), patience, tension, relaxed, alertness, guilt, spite, spy, loyalty, submission
And 18 emotional elements such as jealousy, etc., and 27 elements indicating the internal state as a whole.

【0062】情動的要素は、各情動毎にその情動の強さ
を表すパラメータを保持している。そして、内的状態モ
デル部71では、これらの各要素のパラメータ値を、そ
れぞれ入力セマンティクスコンバータモジュール59か
ら与えられる「叩かれた」及び「撫でられた」などの特
定の認識結果と、経過時間などに基づいて周期的に変更
する。
The emotion element holds a parameter representing the intensity of the emotion for each emotion. Then, the internal state model unit 71 compares the parameter value of each of these elements with a specific recognition result such as “hit” or “stroke” given from the input semantics converter module 59 and elapsed time. Is changed periodically based on

【0063】具体的には、情動的要素は、入力セマンテ
ィクスコンバータモジュール59から与えられる認識結
果と、そのときのロボット装置1の行動と、前回更新し
てからの経過時間となどに基づいて所定の演算式により
算出されるそのときのその情動の変動量を△E[t]、
現在のその情動のパラメータ値をE[t]、その情動の
感度を表す係数をkとして、(1)式によって次の周
期におけるその情動のパラメータ値E[t+1]を算出
し、これを現在のその情動のパラメータ値E[t]と置
き換えるようにしてその情動のパラメータ値を更新す
る。
Specifically, the emotional element is determined based on the recognition result given from the input semantics converter module 59, the behavior of the robot device 1 at that time, the elapsed time since the last update, and the like. The amount of change of the emotion at that time calculated by the arithmetic expression is expressed as △ E [t],
E [t] of the current parameter value of the emotion, the coefficient representing the sensitivity of the emotion as k e, (1) to calculate the emotion parameter value E [t + 1] in the next cycle by formula, which currently Of the emotion is replaced with the parameter value E [t] of the emotion.

【0064】[0064]

【数1】 (Equation 1)

【0065】内的状態モデル部71は、このように示さ
れる(1)式により上述の「幸せ」などの全て情動のパ
ラメータ値を更新する。
The internal state model unit 71 updates the parameter values of all emotions such as the above-mentioned “happy” by the equation (1) shown above.

【0066】なお、各認識結果や出力セマンティクスコ
ンバータモジュール68からの通知が各情動のパラメー
タ値の変動量△E[t]にどの程度の影響を与えるかは
予め決められており、例えば「叩かれた」といった認識
結果は「怒り」の情動のパラメータ値の変動量△E
[t]に大きな影響を与え、「撫でられた」といった認
識結果は「喜び」の情動のパラメータ値の変動量△E
[t]に大きな影響を与えるようになっている。
The degree to which each recognition result and the notification from the output semantics converter module 68 affect the variation ΔE [t] of the parameter value of each emotion is determined in advance. Is the amount of change in the parameter value of the emotion of “anger” △ E
[T] is greatly affected, and the recognition result such as “stroke” is the variation amount of the parameter value of the emotion of “joy” 喜 び E
[T] is greatly affected.

【0067】ここで、出力セマンティクスコンバータモ
ジュール68からの通知とは、いわゆる行動のフィード
バック情報(行動完了情報)であり、行動の出現結果の
情報であり、内的状態モデル部71は、このような情報
によっても感情を変化させる。なお、内的状態モデル部
71は、同様に、後述する本能も変化させる。
Here, the notification from the output semantics converter module 68 is so-called action feedback information (action completion information), information on the appearance result of the action, and the internal state model unit 71 Change emotions with information. Note that the internal state model unit 71 also changes the instinct described later.

【0068】これは、例えば、「吠える」といった行動
により怒りの感情レベルが下がるといったようなことで
ある。なお、行動結果のフィードバックは、モジュレー
タ72の出力(感情が付加された行動)によりなされる
ものであってもよい。
This is, for example, such that the behavior of "barking" lowers the emotional level of anger. The feedback of the action result may be made by the output of the modulator 72 (the action to which the emotion is added).

【0069】一方、本能的要素は、欲求(本能)ごとに
その欲求の強さを表すパラメータを保持している。そし
て、本能的要素は、これら欲求のパラメータ値を、それ
ぞれ入力セマンティクスコンバータモジュール59から
与えられる認識結果や、経過時間及び出力セマンティク
スコンバータモジュール68からの通知などに基づいて
周期的に更新する。
On the other hand, the instinct element holds a parameter indicating the strength of the desire for each desire (instinct). Then, the instinct element periodically updates the parameter values of these desires based on the recognition result given from the input semantics converter module 59, the elapsed time, the notification from the output semantics converter module 68, and the like.

【0070】具体的に本能的要素は、「疲れ」、「愛
情」、及び、「好奇心」、「性欲」、「排泄」の認識結
果、経過時間及び出力セマンティクスコンバータモジュ
ール68からの通知などに基づいて所定の演算式により
算出されるそのときのその欲求の変動量を△I[k]、
現在のその欲求のパラメータ値をI[k]、その欲求の
感度を表す係数kとして、所定周期で(2)式を用い
て次の周期におけるその欲求のパラメータ値I[k+
1]を算出し、この演算結果を現在のその欲求のパラメ
ータ値I[k]と置き換えるようにしてその欲求のパラ
メータ値を更新する。
Specifically, the instinct factors include “tired”, “affection”, and the recognition results of “curiosity”, “libido”, and “excretion”, elapsed time, and notification from the output semantics converter module 68. The amount of change in the desire at that time calculated by a predetermined arithmetic expression based on
Assuming that the parameter value of the current desire is I [k] and the coefficient k i representing the sensitivity of the desire is a parameter value I [k +
1] is calculated, and the calculation result is replaced with the current parameter value I [k] of the desire to update the parameter value of the desire.

【0071】[0071]

【数2】 (Equation 2)

【0072】内的状態モデル部71は、この(2)式に
より上述の疲れなどの全て本能(欲求)のパラメータ値
を更新する。
The internal state model unit 71 updates the parameter values of all instinct (desirability) such as fatigue described above by using the equation (2).

【0073】なお、認識結果及び出力セマンティクスコ
ンバータモジュール68からの通知などが各本能的要素
の各欲求のパラメータ値の変動量△I[k]にどの程度
の影響を与えるかは予め決められており、例えば出力セ
マンティクスコンバータモジュール68からの通知は、
「疲れ」のパラメータ値の変動量△I[k]に大きな影
響を与えるようになっている。
The degree to which the recognition result and the notification from the output semantics converter module 68 affect the variation ΔI [k] of the parameter value of each desire of each instinct element is determined in advance. For example, the notification from the output semantics converter module 68 is
This greatly affects the amount of change ΔI [k] in the parameter value of “fatigue”.

【0074】また、以下に示すように、所定の欲求のパ
ラメータ値を決定することもできる。
As shown below, a parameter value of a predetermined desire can be determined.

【0075】本能的要素のうち、「痛み」については、
ミドル・ウェア・レイヤ40の姿勢検出用の信号処理モ
ジュール55と、入力セマンティクスコンバータモジュ
ール59を介して通知される異常姿勢の回数に基づい
て、回数をNとし、痛みの強さをKとし、痛みが減少
する速度の定数をKとし、(3)式により、「痛み」
のパラメータ値I[k]を算出し、この演算結果を現在
の痛みのパラメータ値I[k]と置き換えるようにして
当該「痛み」のパラメータ値を変更する。ただし、I
[k]<0のときはI[k]=0、t=0、N=0とす
る。
Of the instinct factors, “pain”
A signal processing module 55 for attitude detection of middleware layer 40, based on the number of times of abnormal posture notified via the input semantics converter module 59, the number is N, and the intensity of pain and K 1, the rate constant pain decreases and K 2, the equation (3), "pain"
Is calculated, and the parameter value of the “pain” is changed by replacing the calculation result with the parameter value I [k] of the current pain. Where I
When [k] <0, I [k] = 0, t = 0, and N = 0.

【0076】[0076]

【数3】 (Equation 3)

【0077】また、「熱」については、入力セマンティ
クスコンバータモジュール59を介して与えられる温度
検出用の信号処理モジュール51からの温度データに基
づいて、温度をTとし、外気温をTとし、温度上昇係
数Kとして、(4)式により、「熱」のパラメータ値
I[k]を算出し、この演算結果を現在の熱のパラメー
タ値I[k]と置き換えるようにして当該「熱」のパラ
メータ値を更新する。T−T<0のときには、I
[k]=0とする。
As for “heat”, the temperature is set to T, the outside air temperature is set to T 0, and the temperature is set to T 0 based on the temperature data from the signal processing module 51 for temperature detection supplied via the input semantics converter module 59. as an increase coefficient K 3, the equation (4), and calculates a parameter value I [k] of the "heat", of the "hot" and to replace the result of the calculation parameter value I of the current heat [k] and Update parameter values. When T−T 0 <0, I
[K] = 0.

【0078】[0078]

【数4】 (Equation 4)

【0079】また、「食欲」については、入力セマンテ
ィクスコンバータモジュール59を介して与えられるバ
ッテリ残量データ(図示しないバッテリ残量検出用のモ
ジュールが得た情報)に基づいて、バッテリ残量をB
として、所定周期で、(5)式により、「食欲」のパラ
メータ値I[k]を算出し、この演算結果を現在の食欲
パラメータ値I[k]と置き換えることにようにして当
該「食欲」のパラメータ値を更新する。
[0079] In addition, the "appetite", based on the remaining battery amount data supplied via the input semantics converter module 59 (information module was obtained for the battery remaining amount detecting not shown), a battery remaining amount B L
In a predetermined period, the parameter value I [k] of “appetite” is calculated by the equation (5), and the calculation result is replaced with the current appetite parameter value I [k]. Update the parameter value of.

【0080】[0080]

【数5】 (Equation 5)

【0081】また、「乾き」については、入力セマンテ
ィクスコンバータモジュール59を介して与えられるバ
ッテリ残量変化速度に基づいて、時刻tにおけるバッテ
リ残量をB(t)とし、今時刻tとtでバッテリ
残量データを取得したとすると、(6)式により、「乾
き」のパラメータ値I[k]を算出し、この演算結果を
現在の乾きパラメータ値I[k]と置き換えるようにし
て当該「乾き」のパラメータを更新する。
As for “dry”, the remaining battery level at time t is set to B L (t) based on the rate of change of the remaining battery level provided via the input semantics converter module 59, and the current times t 1 and t 1 Assuming that the remaining battery data is obtained in step 2 , the parameter value I [k] of “dry” is calculated by the equation (6), and this calculation result is replaced with the current dry parameter value I [k]. The parameter of “dry” is updated.

【0082】[0082]

【数6】 (Equation 6)

【0083】なお、本実施の形態においては、各情動及
び各欲求(本能)のパラメータ値がそれぞれ0から100ま
での範囲で変動するように規制されており、また係数k
、kの値も各情動及び各欲求ごとに個別に設定され
ている。
In the present embodiment, the parameter value of each emotion and each desire (instinct) is regulated to fluctuate in the range of 0 to 100, and the coefficient k
e, the value of k i is also set individually for each emotion and each desire.

【0084】以上述べたように内的状態モデル部71が
構成され、ロボット装置1は、この内的状態モデル部7
1により、自己及び周囲の状況や、ユーザからの指示及
び働きかけに応じて、本能(欲求)や感情の状態(パラ
メータ)を変化させて自律的な行動を行うことができる
ようになされている。
As described above, the internal state model unit 71 is configured, and the robot apparatus 1
According to 1, it is possible to perform an autonomous action by changing an instinct (desired) or an emotional state (parameter) in accordance with the situation of the user and the surroundings, and instructions and actions from the user.

【0085】(3−2)環境に応じた本能及び感情の変
化 かかる構成に加えてこのロボット装置1の場合、例え
ば、周囲が「明るい」ときには陽気になり、これに対し
て周囲が「暗い」ときには物静かになるなど、周囲の環
境のうちの「騒音」、「温度」及び「照度」の3つの条
件(以下、環境条件という。)の度合いに応じて感情・
本能を変化させるようになされている。
(3-2) Change of instinct and emotion according to environment In addition to the above configuration, in the case of the robot apparatus 1, for example, when the surroundings are "bright", the surroundings become cheerful, whereas the surroundings are "dark". Depending on the degree of the three conditions (hereinafter, referred to as environmental conditions) of “noise”, “temperature”, and “illuminance” in the surrounding environment, such as sometimes being quiet,
It is designed to change your instinct.

【0086】すなわち、このロボット装置1には、周囲
の状況を検出するための外部センサとして、上述したC
CDカメラ20、距離センサ22、タッチセンサ21及
びマイクロホン23などに加えて周囲の温度を検出する
ための温度センサ(図示せず)が所定位置に設けられて
いる。対応する構成として、ミドル・ウェア・レイヤ4
0の認識系60には、騒音検出用、温度検出用及び明る
さ検出用の各信号処理モジュール50〜52が設けられ
ている。
That is, the robot apparatus 1 has the above-described C as an external sensor for detecting the surrounding situation.
In addition to the CD camera 20, the distance sensor 22, the touch sensor 21, the microphone 23, and the like, a temperature sensor (not shown) for detecting an ambient temperature is provided at a predetermined position. The corresponding configuration is middleware layer 4
The 0 recognition system 60 is provided with signal processing modules 50 to 52 for noise detection, temperature detection, and brightness detection.

【0087】そして、騒音検出用の信号処理モジュール
50は、ロボティック・サーバ・オブジェクト32のバ
ーチャル・ロボット33を介して与えられるマイクロホ
ン23(図2)からの音声データに基づいて周囲の騒音
レベルを検出し、検出結果を入力セマンティクスコンバ
ータモジュール59に出力するようになされている。
The noise detection signal processing module 50 determines the ambient noise level based on the sound data from the microphone 23 (FIG. 2) given via the virtual robot 33 of the robotic server object 32. It is configured to detect and output the detection result to the input semantics converter module 59.

【0088】また、温度検出用の信号処理モジュール5
1は、バーチャル・ロボット33を介して与えられる温
度センサからのセンサデータに基づいて周囲の温度を検
出し、検出結果を入力セマンティクスコンバータモジュ
ール59に出力する。
The signal processing module 5 for temperature detection
1 detects the ambient temperature based on the sensor data from the temperature sensor provided via the virtual robot 33 and outputs the detection result to the input semantics converter module 59.

【0089】さらに、明るさ検出用の信号処理モジュー
ル52は、バーチャル・ロボット33を介して与えられ
るCCDカメラ20(図2)からの画像データに基づい
て周囲の照度を検出し、検出結果を入力セマンティクス
コンバータモジュール59に出力する。
Further, the signal processing module 52 for detecting brightness detects surrounding illuminance based on the image data from the CCD camera 20 (FIG. 2) given through the virtual robot 33, and inputs the detection result. Output to the semantics converter module 59.

【0090】入力セマンティクスコンバータモジュール
59は、これら各信号処理モジュール50〜52の出力
に基づいて周囲の「騒音」、「温度」及び「照度」の度
合いを認識し、当該認識結果を上述のようにアプリケー
ション・モジュール41(図5)の内的状態モデル部7
1に出力する。
The input semantics converter module 59 recognizes the degree of “noise”, “temperature” and “illuminance” of the surroundings based on the output of each of the signal processing modules 50 to 52, and determines the recognition result as described above. Internal state model part 7 of application module 41 (FIG. 5)
Output to 1.

【0091】具体的に、入力セマンティクスコンバータ
モジュール59は、騒音検出用の信号処理モジュール5
0の出力に基づいて周囲の「騒音」の度合いを認識し、
「うるさい」又は「静か」といった認識結果を内的状態
モデル部71に出力する。
More specifically, the input semantics converter module 59 includes a signal processing module 5 for noise detection.
Recognizing the degree of surrounding “noise” based on the output of 0,
The recognition result such as “noisy” or “quiet” is output to the internal state model unit 71.

【0092】また、入力セマンティクスコンバータモジ
ュール59は、温度検出用の信号処理モジュール51の
出力に基づいて周囲の「温度」の度合いを認識し、「暑
い」又は「寒い」といった認識結果を内的状態モデル部
71及び知覚情報取得部90に出力する。
The input semantics converter module 59 recognizes the degree of surrounding "temperature" based on the output of the temperature detection signal processing module 51, and outputs the recognition result such as "hot" or "cold" to the internal state. Output to the model unit 71 and the perceptual information acquisition unit 90.

【0093】さらに、入力セマンティクスコンバータモ
ジュール59は、明るさ検出用の信号処理モジュール5
2の出力に基づいて周囲の「照度」の度合いを認識し、
「明るい」又は「暗い」といった認識結果を、内的状態
モデル部71等に出力する。
Further, the input semantics converter module 59 includes a signal processing module 5 for detecting brightness.
2. Recognize the degree of "illuminance" around based on the output of 2,
The recognition result such as “bright” or “dark” is output to the internal state model unit 71 or the like.

【0094】内的状態モデル部71は、上述のように、
入力セマンティクスコンバータモジュール59から与え
られる各種認識結果に基づき(1)式に従って各パラメ
ータ値を周期的に変更する。
As described above, the internal state model unit 71
Based on the various recognition results provided from the input semantics converter module 59, each parameter value is periodically changed according to equation (1).

【0095】そして、内的状態モデル部71は、入力セ
マンティクスコンバータモジュール59から与えられる
「騒音」、「温度」及び「照度」についての認識結果に
基づいて、予め定められた対応する情動についての
(1)式の係数kの値を増減させる。
Then, based on the recognition results of “noise”, “temperature”, and “illuminance” given from the input semantics converter module 59, the internal state model unit 71 calculates a predetermined corresponding emotion ( 1) increase or decrease the value of the coefficient k e of expression.

【0096】具体的には、内的状態モデル部71は、例
えば「うるさい」といった認識結果が与えられた場合に
は「怒り」の情動に対する係数kの値を所定数増加さ
せ、これに対して「静か」といった認識結果が与えられ
た場合には「怒り」の情動に対する係数kの値を所定
数減少させる。これにより、周囲の「騒音」に影響され
て「怒り」のパラメータ値が変化することになる。
[0096] Specifically, internal state model unit 71, for example, emotion values of the coefficient k e is increased by a predetermined number with respect to the "noisy" when such recognition result is given "anger", whereas reducing the predetermined number of values of the coefficient k e for the emotion "angry" when the recognition result such as "quiet" is given Te. As a result, the parameter value of “anger” changes due to the influence of the surrounding “noise”.

【0097】また、内的状態モデル部71は、「暑い」
といった認識結果が与えられた場合には「喜び」の情動
に対する係数kの値を所定数減少させ、これに対して
「寒い」といった認識結果が与えられた場合には「悲し
み」の情動に対する係数kの値を所定数増加させる。
これにより、周囲の「温度」に影響されて「悲しみ」の
パラメータ値が変化することになる。
Further, the internal state model unit 71 indicates “hot”
For recognition when the result is given reduces a predetermined number of values of the coefficient k e for emotion "joy", the emotion of "sadness" when the recognition result such as "cold" is given to this such the value of the coefficient k e is increased by a predetermined number.
As a result, the parameter value of “sadness” changes due to the influence of the surrounding “temperature”.

【0098】さらに、内的状態モデル部71は、「明る
い」といった認識結果が与えられた場合には「喜び」の
情動に対する係数kの値を所定数増加させ、これに対
して[暗い」といった認識結果が与えられた場合には
「恐れ」の情動に対する係数k の値を所定数増加させ
る。これにより、周囲の「照度」に影響されて「恐れ」
のパラメータ値が変化することになる。
Further, the internal state model unit 71 sets
If a recognition result such as
Coefficient k for emotioneIs increased by a predetermined number.
Then, if a recognition result such as [dark] is given,
Coefficient k for emotion of "fear" eIncrease the value of
You. As a result, "fear" is affected by the surrounding "illuminance"
Will change.

【0099】これと同様にして、内的状態モデル部71
は、上述のように、入力セマンティクスコンバータモジ
ュール59から与えられる各種認識結果等に基づき
(2)式〜(6)式に従って各欲求のパラメータ値を周
期的に変更する。
Similarly, the internal state model 71
, As described above, periodically changes the parameter values of each desire in accordance with the equations (2) to (6) based on the various recognition results and the like provided from the input semantics converter module 59.

【0100】また、内的状態モデル部71は、入力セマ
ンティクスコンバータモジュール59から与えられる
「騒音」、「温度」及び「照度」の度合いについての認
識結果に基づいて、予め定められた対応する欲求の
(2)式の係数kの値を増減させる。
Further, based on the recognition result of the degree of “noise”, “temperature” and “illuminance” given from the input semantics converter module 59, the internal state model unit 71 determines a predetermined corresponding desire. (2) increasing or decreasing the value of the coefficient k i of expression.

【0101】具体的に内的状態モデル部71は、例えば
「うるさい」や「明るい」といった認識結果が与えられ
た場合には、「疲れ」に対する係数kの値を所定数減
少させ、これに対して「静か」や「暗い」といった認識
結果が与えられた場合には「疲れ」に対する係数k
値を所定数増加させる。また、内的状態モデル部71
は、「暑い」又は「寒い」といった認識結果が与えられ
た場合には「疲れ」に対する係数kの値を所定数増加
させる。
[0102] Specifically internally state model unit 71, for example, when the recognition result such as "noisy" or "bright" is given, the value of the coefficient k i for "tired" is decreased a predetermined number, to "quiet" or when the recognition result such as "dark" is given to increase the predetermined number of values of the coefficient k i for "tired" against. Also, the internal state model unit 71
Increases the value of the coefficient k i for “fatigue” by a predetermined number when a recognition result such as “hot” or “cold” is given.

【0102】この結果このロボット装置1においては、
例えば周囲が「うるさい」ときには、「怒り」のパラメ
ータ値が増加しやすく、「疲れ」のパラメータ値が減少
しやすくなるために、全体として行動が「いらいら」し
たような行動となり、これに対して周囲が「静か」なと
きには、「怒り」のパラメータ値が減少しやすく、「疲
れ」のパラメータ値が増加しやすくなるために、全体と
して行動が「おちついた」行動となる。
As a result, in this robot device 1,
For example, when the surroundings are "noisy", the parameter value of "anger" tends to increase, and the parameter value of "tired" tends to decrease. When the surroundings are “quiet”, the parameter value of “anger” tends to decrease, and the parameter value of “tired” tends to increase, so that the behavior is “settled” as a whole.

【0103】また、周囲が「暑い」ときには、「喜び」
のパラメータ値が減少しやすく、「疲れ」のパラメータ
値が増加しやすくなるために、全体として行動が「だら
けた」ような行動となり、これに対して周囲が「寒い」
ときには、「悲しみ」のパラメータ値が増加しやすく、
「疲れ」のパラメータ値が増加しやすくなるために、全
体として行動が「寒がっている」行動となる。
When the surroundings are “hot”, “joy”
Parameter values tend to decrease, and the parameter value for “fatigue” tends to increase.
Sometimes the parameter value for "sadness" tends to increase,
Since the parameter value of “tired” is likely to increase, the behavior is “cool” behavior as a whole.

【0104】また、周囲が「明るい」ときには、「喜
び」のパラメータ値が増加しやすく、「疲れ」のパラメ
ータ値が減少しやすくなるために、全体として行動が
「陽気」な行動となり、これに対して周囲が「暗い」と
きには、「喜び」のパラメータ値が増加しやすく、「疲
れ」のパラメータ値が増加しやすくなるために、全体と
して行動が「物静か」な行動となる。
When the surroundings are "bright", the parameter value of "joy" tends to increase and the parameter value of "tired" tends to decrease, so that the behavior becomes "cheerful" as a whole. On the other hand, when the surroundings are "dark", the parameter value of "joy" tends to increase, and the parameter value of "tired" tends to increase, so that the behavior becomes a "quiet" behavior as a whole.

【0105】このようにしてロボット装置1は、内的状
態モデル部71により、環境(外的要因や内的要因)に
応じて本能及び感情の状態を変化させることができ、こ
の本能や感情を行動に表出させることができる。さら
に、内的状態モデル部71によって得られる本能及び感
情の状態は、行動選択部80において行動を選択するた
めの情報としても使用される。
As described above, the robot apparatus 1 can change the state of instinct and emotion according to the environment (external factors and internal factors) by the internal state model unit 71. Can be expressed in actions. Further, the state of instinct and emotion obtained by the internal state model unit 71 is also used as information for selecting an action in the action selection unit 80.

【0106】(3−3)行動選択部の構成 行動選択部80は、予め用意されている複数の行動から
一の行動を選択する。この行動選択部80は、動物行動
学的なアプローチにより行動選択(決定)をするように
構築されている。
(3-3) Configuration of Action Selector The action selector 80 selects one action from a plurality of actions prepared in advance. The behavior selection unit 80 is configured to select (determine) behavior by an ethological approach.

【0107】一般的には、動物は、行動に影響する複数
の外的原因因子及び内的原因因子(以下、まとめて原因
因子という。)に基づいて行動を決定していると考えら
れ、さらにはそれら因子が複雑に絡み合った状態におい
て行動を決定している。ロボット装置1は、そのような
一般的な動物の行動決定のメカニズムを取り入れて、そ
の行動を決定するようになされている。
In general, it is considered that an animal determines behavior based on a plurality of external causal factors and internal causal factors (hereinafter collectively referred to as causal factors) that affect behavior. Determines behavior in a state where these factors are intertwined in a complex manner. The robot apparatus 1 adopts such a general mechanism for determining the behavior of an animal to determine its behavior.

【0108】行動決定のメカニズムが動物行動学なアプ
ローチにより構築されたロボット装置1は、例えば、図
6中(A)に示すように、目の前に水たまりがあるとき
次のような手順により出現させる行動を決定する。
The robot device 1 in which the mechanism of behavior determination is constructed by an ethological approach, for example, as shown in FIG. 6A, appears when there is a puddle in front of the eyes by the following procedure. Decide what action to take.

【0109】ロボット装置1は、「水を発見」、「水ま
では10cm」という外的原因因子(外的知覚要素、例
えば、知覚に基づくもの)を知覚し認識する(評価す
る)。一方で、ロボット装置1は、例えば、内的原因因
子(内的動機要素、例えば、本能や感情にもとづくも
の)としての動機が「のどの乾きが高く」、「中程度に
怒っている」の状態にある。なお、動機は、上述した内
的状態モデル部71のパラメータ値を使用して取得され
るものである。これは、後で詳述する。
The robot apparatus 1 perceives and recognizes (evaluates) an external causal factor (external perceptual element, for example, based on perception) of “discover water” and “water is 10 cm”. On the other hand, for example, the motive as the internal causal factor (internal motivation element, for example, based on instinct or emotion) is “robbing throat dry” or “moderately angry”. In state. The motive is obtained using the parameter values of the internal state model unit 71 described above. This will be described in detail later.

【0110】ここで、動物行動学的なアプローチによれ
ばその行動決定において少なくとも次のような判断がな
される。
Here, according to the ethological approach, at least the following judgment is made in determining the behavior.

【0111】「のどの乾きが高い」の状態にあり、かつ
「水を発見」の場合にあっても、例えば、水への距離が
長いときには水をとる行動(摂水行動)を起こすとは限
らない。例えば、水までの距離が遠い場合には、体力も
それだけ消費することになり、のどが乾きがさらにひど
くなるといったことが本能的に処理されるからである。
Even in the case of “throat drying is high” and “find water”, for example, when the distance to the water is long, the action of taking water (water intake action) Not exclusively. For example, when the distance to the water is long, the physical strength is consumed correspondingly, and the instinct that the throat becomes more severe is dealt with.

【0112】逆に、「のどの乾きが低い」の状態にあ
り、かつ「水が目の前にある」のときは、摂水行動をす
ることもある。このように、「のどの乾き」といった内
的原因因子から一概に摂水行動がなされるか否かが判断
されるものではなく、「水がある」また「水が目の前に
ある」といった外的原因因子から行動決定の判断なされ
るものである。すなわち、行動は、複数の外的原因因子
及び内的原因因子に基づいて決定され、それら因子が複
雑に絡み合った状態において決定される。
On the other hand, when the state is "throat is low" and "the water is in front of the eyes", the water may be taken. In this way, it is not determined from the internal causal factors such as "throat dryness" whether or not water intake behavior is performed in a straightforward manner. The decision of the action decision is made from the external causal factors. That is, the behavior is determined based on a plurality of external causal factors and internal causal factors, and is determined in a state where those factors are intertwined in a complicated manner.

【0113】また、この際、他の行動と比較して、最終
的に行動が決定される。例えば、「水を飲みたい」かつ
「食物を食べたい」の状態にある場合には、「水を飲み
たい」の度合い或いはその実現可能性と、「食物を食べ
たい」の度合い或いはその実現可能性とを比較して、一
の行動として例えば、摂水行動を選択する。
At this time, the action is finally determined as compared with other actions. For example, in the state of "want to drink water" and "want to eat food", the degree of "want to drink water" or its feasibility and the degree of "want to eat food" or its feasibility By comparing gender, for example, a watering behavior is selected as one behavior.

【0114】このような動物行動学的なアプローチによ
り、ロボット装置1は最終的に行動を決定している。す
なわち、ロボット装置1は、「のどの乾きが高い」とい
った状況下の「水の発見」、さらには「水までは10c
m」とあること等の情報から総合的に判断し、「摂食行
動」等の他の行動を排除して、「摂水行動」を出現させ
る。
[0114] By such an ethological approach, the robot apparatus 1 finally determines the behavior. That is, the robot apparatus 1 performs the “water discovery” under the situation “the throat dries high”,
Comprehensively judge from information such as "m" and exclude other behaviors such as "feeding behavior" to make "watering behavior" appear.

【0115】また、ロボット装置1は、「中程度に怒っ
ている」の状態として、怒っている動作を伴い摂水行動
を出現させる。これは、上述したモジュレータ72によ
って実現されるものである。そして、例えば、ロボット
装置1は、内部状態として、水を発見したことにより、
その「怒り」のレベルを低下させる。これは、上述した
出力セマンティクスコンバータモジュール68から内的
状態モデル部71への行動完了情報のフィードバックに
より実現される。
Further, the robot apparatus 1 causes the user to take a water action with an angry action as the state of “medium angry”. This is realized by the modulator 72 described above. And, for example, the robot apparatus 1 detects water as an internal state,
Decrease the level of that "anger". This is realized by the feedback of the action completion information from the output semantics converter module 68 to the internal state model unit 71 described above.

【0116】図6中(B)には、上述したような動物行
動学的なアプローチにより、「摂水行動」の具体的な行
動として「前方へ歩く」を選択するまでの手順を示して
いる。
FIG. 6B shows a procedure up to selection of "walk forward" as a specific action of "water intake behavior" by the ethological approach as described above. .

【0117】先ず、ロボット装置1は、上述の図6中
(A)に示すような状態におかれた場合、複数の行動か
ら「摂取行動」を選択する。選択されなかった他の行動
としては、例えば、「闘争行動」、「探索行動」等が挙
げられる。例えば、ロボット装置1は、このような「摂
取行動」、「闘争行動」及び「探索行動」等が選択可能
な行動グループとされて、サブシステム(サブシステム
層)として保持している。
First, when the robot apparatus 1 is in the state shown in FIG. 6A, the robot apparatus 1 selects "ingestion behavior" from a plurality of behaviors. The other actions not selected include, for example, a “fighting action” and a “searching action”. For example, the robot apparatus 1 is set as an action group in which such “ingestion action”, “fighting action”, “searching action”, and the like can be selected, and is held as a subsystem (subsystem layer).

【0118】ここで、行動グループは、上位の行動を具
現化する複数の下位の行動群からなり、例えば、下位の
行動は、互いに抑制しあう関係にある。以下、同様であ
る。
Here, the action group is composed of a plurality of lower-level action groups that embody a higher-level action. For example, the lower-level actions have a relation of suppressing each other. Hereinafter, the same applies.

【0119】次に、ロボット装置1は、選択した摂取行
動内から一の行動として「摂水行動」を選択する。選択
されなかった他の摂取行動としては、例えば「摂食行
動」が挙げられる。例えば、ロボット装置1は、このよ
うな「摂水行動」や「摂食行動」等が選択可能な行動グ
ループとされて、モード(モード層)として保持してい
る。すなわち、「摂水行動」や「摂食行動」を行動グル
ープとし、「摂取行動」の下位行動として保持してい
る。
Next, the robot apparatus 1 selects “water intake behavior” as one of the selected intake behaviors. The other ingestion behavior not selected includes, for example, “eating behavior”. For example, the robot apparatus 1 is set as an action group in which such “water-feeding action”, “feeding action”, and the like can be selected, and holds it as a mode (mode layer). That is, “water intake behavior” and “feeding behavior” are set as behavior groups, and are held as lower behaviors of “intake behavior”.

【0120】次に、選択した摂水行動内から一の行動と
して「水に近づく」を選択する。他の摂水行動として
は、例えば「水を口に入れる」が挙げられる。例えば、
ロボット装置1は、このような「水に近づく」や「水を
口に入れる」等が選択可能なグループとされて、モジュ
ール(モジュール層)として保持している。
Next, “approaching water” is selected as one of the selected watering behaviors. As another water intake behavior, for example, "put water in the mouth" can be mentioned. For example,
The robot apparatus 1 is a group (selectable) of “approaching water” and “pour water”, and is held as a module (module layer).

【0121】次に、「水に近づく」の具体的行動として
「前進する」を選択して、実際の行動として出現させ
る。なお、選択されなかった他の「水に近づく」の行動
としては、例えば「後進する」、「右に曲がる」及び
「左に曲がる」が挙げられる。例えば、ロボット装置1
は、このような「前進する」、「後進する」、「右に曲
がる」及び「左に曲がる」等が選択可能なグループとさ
れて、モータコマンド(モータコマンド層)として保持
している。
Next, "go forward" is selected as a specific action of "approaching water" to appear as an actual action. Examples of the other actions of “approaching water” that are not selected include “go backward”, “turn right”, and “turn left”. For example, robot device 1
Are groups that can be selected from among such “forward”, “reverse”, “turn right”, “turn left”, and the like, and are held as motor commands (motor command layers).

【0122】このような手順により、ロボット装置1
は、動物行動学的なアプローチから「前方へ歩く」とい
った最下位層の行動を上位の行動を規定する「摂取行
動」の最終的な行動として出現させている。
According to such a procedure, the robot apparatus 1
Makes the behavior of the lowest layer, such as "walk forward" from the ethological approach, appear as the final behavior of "ingestion behavior" that defines the higher behavior.

【0123】図7には、ロボット装置1の有する行動決
定のために構築されている行動選択システムを示す。こ
の行動選択システムは、例えば、行動選択部80におい
て構築されている。
FIG. 7 shows an action selection system constructed for the action determination of the robot apparatus 1. This action selection system is constructed, for example, in the action selection unit 80.

【0124】行動選択システムは、複数の行動が階層構
造(ツリー構造)とされて構築されている。この階層構
造とされる行動選択システムでは、下位の行動が複数個
からなる行動グループが、上位を具現化する行動群から
構成されている。例えば、上位の行動が「闘争行動」と
いった場合には、下位の行動が「戦い・捕食行動」、
「防御・逃避行動」といった行動からなるようにであ
る。
The action selection system is constructed such that a plurality of actions have a hierarchical structure (tree structure). In the action selection system having the hierarchical structure, an action group including a plurality of lower actions is configured from an action group that embodies the upper action. For example, if the higher-level action is “fighting action”, the lower-level action is “fighting / predatory action”,
It seems to consist of actions such as "defense and flight behavior".

【0125】例えば、この行動選択システムは、各行動
の情報をデータ形態(例えば、データベース形態)とし
て保持することとしてもよく、オブジェクト指向として
設計されてもよい。例えば、オブジェクト指向として行
動選択部が設計された場合、行動選択システムは、各行
動が独立してオブジェクトの単位として構成され、各オ
ブジェクト単位で行動選択のための各種処理がなされる
ようになる。
For example, the action selection system may hold information on each action in a data form (for example, a database form) or may be designed as an object-oriented one. For example, when the action selection unit is designed as object-oriented, in the action selection system, each action is independently configured as a unit of an object, and various processes for action selection are performed for each object.

【0126】この図7に示すように複数の行動が階層構
造とされ構築されている行動選択システムでは、より上
位層の行動が願望のような抽象的な行動とされ、下位層
の行動がそのような願望を実現するための具体的な行動
とされている。
As shown in FIG. 7, in the action selection system in which a plurality of actions are constructed in a hierarchical structure, the action of the higher layer is an abstract action like a desire, and the action of the lower layer is the abstract action. It is a concrete action to fulfill such a desire.

【0127】このような行動選択システムでは、下位の
層に進みながら行動を選んでいき、すなわち、上位の行
動を実現化する行動を選んでいき、最終的な行動の選択
がなされる。すなわち、中間層における行動について言
えば、最上位の行動から最下位の行動が選択されるまで
の選択された経路上の情報を示すものとなる。
In such an action selection system, an action is selected while proceeding to a lower layer, that is, an action that realizes an upper action is selected, and a final action is selected. That is, regarding the actions in the middle class, the information on the selected route from the highest action to the lowest action is selected.

【0128】このように上位の層から下位の層に進むな
かで各層において行動の選択がなされていく際に、各層
では、上述したような外的原因因子や内的原因因子によ
って一の行動の選択がなされていくのである。
In this way, when the action is selected in each layer while proceeding from the upper layer to the lower layer, each layer performs one action by the external causal factor and the internal causal factor as described above. The choices are being made.

【0129】行動選択部80は、具体的には、図5に示
したように、知覚情報取得部90、動機情報取得部81
及び行動選択演算部82を有している。この行動選択部
80を構成する各部は、概略として、図8及び図9に示
すように機能する。
[0129] Specifically, as shown in FIG. 5, the behavior selecting section 80 includes a perceptual information obtaining section 90 and a motivation information obtaining section 81.
And an action selection calculation unit 82. Each unit constituting the action selecting unit 80 functions roughly as shown in FIGS. 8 and 9.

【0130】知覚情報取得部90は、行動ごとに、知覚
情報を取得する。例えば、知覚情報の取得として、後述
するリリースメカニズム(Release Mechanism)におけ
る知覚の評価を示すRM値を計算する。例えば、この知
覚情報取得部90により、水が発見され、水までの距離
が10cmであることの認識がなされる。これにより、
摂取行動(摂水行動)の値が高くなる、すなわち選択可
能性が高くなる。
[0130] The perceptual information acquisition section 90 acquires perceptual information for each action. For example, as acquisition of perceptual information, an RM value indicating evaluation of perception in a release mechanism (Release Mechanism) described later is calculated. For example, the perceptual information acquisition unit 90 finds water and recognizes that the distance to the water is 10 cm. This allows
The value of the ingestion behavior (watering behavior) increases, that is, the selectivity increases.

【0131】動機情報取得部81は、内的状態に基づい
て、行動ごとの動機情報を取得する。例えば、行動ごと
の動機情報の取得として、上述本能値、感情値に基づい
て、行動ごとの動機を計算する。具体的には、後述する
モチベーションクリエータにおける動機の状態を示すM
ot値を計算する。例えば、動機情報取得部81によ
り、のどが乾きの状態が取得される。これにより、摂食
行動の動機値が高くなり、摂食行動のうち、摂水行動が
さらに高くなる。
The motivation information acquisition section 81 acquires motivation information for each action based on the internal state. For example, as acquisition of motivation information for each action, a motivation for each action is calculated based on the instinct values and emotion values described above. Specifically, M indicates the state of the motive in the motivation creator described later.
Calculate the ot value. For example, the motivation information acquisition unit 81 acquires a dry throat state. As a result, the motivation value of the eating behavior is increased, and among the eating behaviors, the drinking behavior is further increased.

【0132】行動選択演算部82は、行動ごとに、動機
情報取得部81からの動機情報(動機値)と、知覚情報
取得部90からの知覚情報(値)とから、所望の行動を
選択する。そして、行動選択演算部82は、所望の行動
の選択の際に、同一グループ(行動グループ)内の他の
行動を排他的に制御する。例えば、この行動選択演算部
82により、サブシステム層では摂取行動が選択され、
さらに摂取行動内の摂水行動が選択される。
The action selection calculation unit 82 selects a desired action from the motive information (motivation value) from the motive information acquisition unit 81 and the perception information (value) from the perception information acquisition unit 90 for each behavior. . Then, when selecting a desired action, the action selection calculation unit 82 exclusively controls other actions in the same group (action group). For example, the behavior selection operation unit 82 selects an intake behavior in the subsystem layer,
In addition, the water intake behavior in the intake behavior is selected.

【0133】また、行動選択演算部82は、選択された
行動に基づいて、実際の動作群の計画をする。例えば、
「前方へ移動(Move-forward)」を選択する、といった
ようにである。
Further, the action selection calculating section 82 plans an actual action group based on the selected action. For example,
"Move-forward" is selected, and so on.

【0134】なお、内的状態モデル部71は、上述した
ように、体内の本能や感情の状態等の内的状態について
の情報を取得する。例えば、内的状態の情報の取得とし
て、本能値や感情値を算出する。具体的には、上述した
本能(欲求)のパラメータ値や情動のパラメータ値、或
いは後述するIE値を算出する。例えば、この内的状態
モデル部71では、動いたため、のどが乾いているとい
った状態の情報が取得される。
As described above, the internal state model unit 71 acquires information on internal states such as instinct and emotional state in the body. For example, an instinct value and an emotion value are calculated as information on an internal state. Specifically, the parameter value of the instinct (desired) described above, the parameter value of the emotion, or the IE value described later is calculated. For example, the internal state model unit 71 acquires information on a state that the throat is dry because of movement.

【0135】また、出力セマンティクスコンバータモジ
ュール68は、図8に示すように、行動をロボット装置
1のタイプに応じた動作列に変換するモジュールであ
る。例えば、出力セマンティクスコンバータモジュール
68は、今、ロボット装置1のタイプが4足ロボットで
あることを認識し、入力されてくる行動及び感情状態に
応じて動作列に変換する。すなわち、出力セマンティク
スコンバータモジュール68は、上位の行動決定システ
ム70からの行動のコマンドから、対応する各信号処理
モジュール61〜67にコマンドを送る。
The output semantics converter module 68 is a module for converting an action into an operation sequence according to the type of the robot device 1, as shown in FIG. For example, the output semantics converter module 68 now recognizes that the type of the robot device 1 is a quadruped robot, and converts it into an action sequence according to the input behavior and emotional state. That is, the output semantics converter module 68 sends a command from the action command from the higher-level action determination system 70 to the corresponding signal processing modules 61 to 67.

【0136】なお、図9に示すようなモジュレータ7
2、姿勢管理モジュール等については、後で詳述する。
なお、図9において、「input」の欄は入力されるコマ
ンドの形態を示し、「output」の欄は出力されるコマン
ドの形態を示す。
The modulator 7 shown in FIG.
2. The posture management module will be described later in detail.
In FIG. 9, the “input” column indicates the form of the input command, and the “output” column indicates the form of the output command.

【0137】以上のように、行動選択部80が構成され
ている。次に、行動選択部80が行動選択のシステムと
して採用する動物行動学的なアプローチについてさらに
詳しく説明する。
As described above, the action selecting section 80 is configured. Next, the ethological approach adopted by the behavior selection unit 80 as a behavior selection system will be described in more detail.

【0138】(3−4)動物行動学的なアプローチによ
る行動選択 一般的には、動物の行動の決定(選択)は、上述のよう
に、複数の因子が複雑に絡み合ってなされるものであ
る。単純な例としては、図10に示すように、知覚と動
機とから行動が決定される。
(3-4) Behavior Selection by Ethological Approach Generally, the determination (selection) of the behavior of an animal is made by intricately intermingling a plurality of factors as described above. . As a simple example, as shown in FIG. 10, an action is determined from a perception and a motive.

【0139】ここで、知覚は、行動に影響する外部から
の情報であり、入力されてくる外界環境によって誘発若
しくは制約される条件と考えることができる。また、動
機は、「お腹がすいた」等の内部の情報であり、内的状
態を表現しており、その行動を起こしたいという内的意
図と考えることができる。このように、知覚や動機とい
ったものを原因として、その作用として行動の決定がな
されているとすることができる。
Here, the perception is information from the outside that affects the behavior, and can be considered as a condition induced or restricted by the input external environment. The motive is internal information such as “I am hungry” and expresses an internal state, and can be considered as an internal intention to want to take the action. As described above, it can be considered that a behavior is determined as an action due to a perception or a motive.

【0140】知覚及び動機に基づく行動決定は、具体的
には次のようにしてなされる。なお、次に説明する行動
決定(選択)のための原理は、SilbyとMcfarland(197
5)が提唱した状態空間アプローチによるものである。
The action decision based on the perception and the motivation is made specifically as follows. The principle of action decision (selection) described below is based on Silby and Mcfarland (197
This is based on the state space approach proposed in 5).

【0141】SilbyとMcfarland(1975)は、まず動物は
最も出現傾向の高い活動(行動)を遂行する、との仮定
から理論を出発している。出現傾向の配列をはっきりと
表す1つの方向としてベクトル空間がある。そこで、ベ
クトルの大きさは、ある共通性をもった指標に基づいた
いわゆる出現傾向の強さを示している。出現傾向とは、
例えば、摂食行動が出現される傾向(度合い)や摂水行
動が出現される傾向(度合い)等がある。そして、全て
の出現傾向の状態は、この出現傾向空間上の点として表
される。
[0141] Silby and Mcfarland (1975) start with a theory based on the assumption that animals perform activities (behaviors) that are most likely to occur. One direction that clearly shows the arrangement of the appearance tendency is a vector space. Therefore, the magnitude of the vector indicates the strength of the so-called appearance tendency based on an index having a certain commonality. The appearance tendency is
For example, there is a tendency (degree) in which eating behavior appears and a tendency (degree) in which watering behavior appears. All appearance states are represented as points on the appearance space.

【0142】そして、この空間は、出現傾向の最も高い
行動がどれかという領域毎に分けられ、その境界線が
「切り換え境界線(スイッチングライン、switching li
ne)」となる。
This space is divided into regions in which the behavior having the highest appearance tendency is, and the boundary line is defined as a “switching boundary line (switching line).
ne) ".

【0143】一方、出現傾向はさまざまな原因因子に依
存している。例えば、摂食傾向は、食物制限、摂食機
会、補食の可能性等に依存しているのである。これら全
ての原因因子をはっきりと表す方法は、もう1つのベク
トル空間を用いることである。原因因子から出現傾向を
決めるというのは、次のような表現と同義になる。すな
わち、原因因子の状態空間から出現傾向空間への写像が
あり、そこで原因因子のいかなる状態に対しても対応す
る出現傾向の状態空間が存在するようになっている。そ
して、どの行動が行われるかの決定ができるようになっ
ているというものである。原因因子と出現傾向との関連
性を図11を用いて説明する。
On the other hand, the appearance tendency depends on various causal factors. For example, eating habits depend on food restrictions, eating opportunities, the possibility of feeding, and the like. A clear way to express all these causal factors is to use another vector space. Determining the appearance tendency from the causal factor is synonymous with the following expression. In other words, there is a mapping from the state space of the causal factor to the appearance space, and there is a state space of the appearance tendency corresponding to any state of the causal factor. Then, it is possible to determine which action is to be performed. The relationship between the causal factor and the appearance tendency will be described with reference to FIG.

【0144】図11中(A)及び(C)は、原因因子の
状態を示す原因因子状態空間を示すものである。この原
因因子状態空間は、ある行動が導かれることに影響する
原因因子によって構成される。原因因子としては、上述
した「知覚」、「動機」が挙げられる。なお、この図1
1では、単純化のために2次元空間だけを検討したもの
であるが、実際には、行動の出現傾向の多くは、3次元
以上の原因因子状態空間によって決定されるものであ
る。
(A) and (C) of FIG. 11 show a causal factor state space indicating the state of the causal factor. This causal factor state space is constituted by causal factors that influence a certain action to be guided. The causal factors include the above-mentioned “perception” and “motivation”. Note that FIG.
In No. 1, only the two-dimensional space is considered for simplicity, but in reality, many of the appearance tendencies of actions are determined by the causal factor state space of three or more dimensions.

【0145】図11中(A)は、具体的には、摂食の行
動が出現される傾向、すなわち「摂食行動」の出現傾向
(以下、摂食傾向という。)を示すもので、原因因子と
される「動機」として「空腹」を横軸にとり、原因因子
とされる「知覚」として「おいしさ」を縦軸にとってい
る。また、図11中(C)は、摂水の行動が出現される
傾向、すなわち「摂水行動」の出現傾向(以下、摂水傾
向という。)を示すもので、「動機」として「のどのか
わき」を横軸にとり、「知覚」として「水への距離」を
縦軸にとっている。
FIG. 11A specifically shows the tendency of eating behavior to appear, that is, the tendency of “feeding behavior” to appear (hereinafter referred to as eating tendency). "Hunger" is taken on the horizontal axis as "motivation" as a factor, and "deliciousness" is taken on the vertical axis as "perception" as a causal factor. In FIG. 11, (C) shows the tendency of the appearance of the water intake behavior, that is, the appearance tendency of the “water intake behavior” (hereinafter referred to as the water intake tendency). The abscissa represents "kawaki" and the ordinate represents "distance to water" as "perception."

【0146】また、図11中(B)は、図11中(A)
及び(C)における原因因子の状態に基づく「摂食傾
向」及び「摂水傾向」の出現傾向の空間を示す。すなわ
ち、原因因子により影響される行動の出現傾向が写像さ
れ、これらの出現傾向の比較が可能とされる空間を示
す。
FIG. 11B is a diagram corresponding to FIG.
6C shows the appearance tendency space of “feeding tendency” and “water intake tendency” based on the state of the causal factor in (C). That is, the appearance tendency of the action affected by the causal factor is mapped, and the space in which the appearance tendency can be compared is shown.

【0147】先ず、原因因子状態空間について、図12
を用いて具体的に説明する。この図12に示す原因因子
状態空間は、上述の図11中(A)に示す「摂食行動」
の原因因子状態空間である。
First, regarding the causal factor state space, FIG.
This will be specifically described with reference to FIG. The causal factor state space shown in FIG. 12 corresponds to the “feeding behavior” shown in FIG.
Is the causal factor state space.

【0148】図12に示すように、すごくおいしいもの
があって(m状態)、でもそんなにお腹がすいていな
い状態(原因状態)にあるとき(n状態)、一方、も
のすごくお腹がすいているが(n(>n)状態)、
あまりおいしくない食物がある状態(原因状態)にある
とき(m(<m)状態)に、摂食行動が出現され
る。すなわち、一概に、動機とされる「空腹」にのみ依
存して摂食行動が出現されるのではなく、また、知覚と
される「おいしさ」にのみ依存して摂食行動が出現され
るものでもなく、「空腹」と「おいしさ」とが相互に作
用して、摂食行動が出現される。
[0148] As shown in FIG. 12, when it is in there is what really delicious (m 2 state), but not crowded so much stomach condition (cause state) (n 1 state), on the other hand, we are hungry is extremely stomach Is (n 2 (> n 1 ) state),
When there is some food that is not so delicious (cause state) (m 1 (<m 2 ) state), eating behavior appears. In other words, eating behavior does not appear to depend solely on motivation "hunger" but also depends only on perception "deliciousness". It is not a thing, but "hungry" and "deliciousness" interact, and eating behavior appears.

【0149】言い換えれば、「空腹」の程度が異なって
いる場合であっても、摂食行動は出現され、「空腹」と
「おいしさ」との状態によっては、原因因子状態空間内
に摂食行動が出現される度合いが同じ原因状態、すなわ
ち摂食傾向を同程度とする原因状態が複数点に存在す
る。例えば、空腹でないときにとてもおいしい食物を与
えたりしたときに、或いは非常に空腹であるときにあま
りおいしくない食物を与えたりしたときに、同程度の摂
食傾向が存在するということである。
In other words, even if the degree of “hunger” is different, the eating behavior appears, and depending on the state of “hunger” and “deliciousness”, the eating behavior is within the causal factor state space. There are causal states in which the degree of appearance of the action is the same, that is, causal states in which the eating tendency is the same. For example, there is a similar tendency to eat when feeding very good food when not hungry, or when feeding very bad food when very hungry.

【0150】例えば、摂食行動では、「空腹」と「おい
しさ」とを原因因子としてみた場合、その出現傾向が同
程度とされるには、「空腹」が高い(多い)ときには
「おいしさ」が低く(少なく)、また、「空腹」が低い
(少ない)ときには「おいしさ」が高い(多い)。よっ
て、摂食傾向を同程度とすることを考えた場合、「空
腹」と「おいしさ」とは反比例の関係となり、摂食傾向
が同程度とされる点を結ぶと、図12において例えばそ
れが曲線として示される。すなわち、図12に示すよう
に、摂食傾向のいわゆる強さ(ベクトルの強さ)yを同
程度とするような原因因子の状態が複数存在して、それ
らは原因因子状態空間において曲線として示される。
For example, in the eating behavior, when “hungry” and “deliciousness” are considered as causal factors, the appearance tendency is almost the same. Is low (less), and when "hunger" is low (less), "deliciousness" is high (many). Therefore, when considering that the eating tendency is the same, “hunger” and “deliciousness” have an inversely proportional relationship, and when the points where the eating tendency is the same are connected, for example, in FIG. Is shown as a curve. That is, as shown in FIG. 12, there are a plurality of causal factor states that make the so-called strength (vector strength) y of the eating tendency the same, and these are shown as curves in the causal factor state space. It is.

【0151】さらに、原因因子状態空間には、異なる複
数の摂食傾向の強さy,y,・・・が存在し、図1
2に示すように、それが摂食傾向の強さの分布として、
いわゆる等高線として示される。
Further, in the causal factor state space, there are a plurality of different feeding tendency intensities y 1 , y 2 ,.
As shown in Fig. 2, it is the distribution of the tendency of eating tendency.
This is shown as a so-called contour line.

【0152】なお、図12において、原因因子状態空間
における右上方向に行くほど、摂食の強さは強くなるこ
とを示す。これは、すごくお腹がすいており、さらに目
の前にはすごくおいしい食物があれば、誰しもが摂食行
動をとるようになる、といったようなことをいうもので
ある。
In FIG. 12, it is shown that the intensity of eating increases as going to the upper right in the causal factor state space. This means that if you are very hungry, and if you have very good food in front of you, everyone will eat.

【0153】このように、原因因子により摂食傾向の強
さを定義づけることができ、同様にして、摂水傾向の強
さを定義づけることができる。
As described above, the strength of the tendency to eat can be defined by the causal factors, and similarly, the strength of the tendency to drink water can be defined.

【0154】すなわち、摂水行動は、のどのかわきが激
しいときには水(水のある場所)への距離が遠くても出
現され、また、のどのかわきが少ないときでも水への距
離が近い場合に出現され、「のどのかわき」と「水への
距離」とが相互に作用して、摂水行動が出現される。
[0154] That is, the water intake behavior occurs when the throat is intense and appears even when the distance to the water (the place where the water is present) is long, and when the throat is small, the distance to the water is short. Appears, and “throat throat” and “distance to water” interact, and a water intake behavior appears.

【0155】言い換えれば、「のどのかわき」の程度が
異なっている場合であっても、摂水行動は出現され、
「のどのかわき」と「水への距離」との状態によって
は、原因因子状態空間内に摂水傾向を同程度とする原因
状態が複数点に存在する。例えば、水が欠乏していない
ときに水が目の前にあったり、或いは水が非常に欠乏し
ているときに水が遠くにあったりしたときに同程度とす
る摂水傾向が存在するということである。
In other words, even when the degree of “throat throat” is different, the water intake behavior appears,
Depending on the states of "throat throat" and "distance to water", there are causal states at a plurality of points in the causal factor state space that have the same tendency to water intake. For example, there is a tendency for water to be comparable when water is in front of you when water is not scarce, or when water is far away when water is very scarce. That is.

【0156】そして、摂水傾向を同程度とすることを考
えた場合、「のどのかわき」と「水への距離」とは反比
例の関係にあり、摂水傾向が同程度とされる点を結ぶ
と、例えば図11中(C)において原因因子状態空間内
において曲線として示される。すなわち、図11中
(C)に示すように、摂水傾向のいわゆる強さxが同程
度とされるような原因因子の状態が複数存在して、それ
らは原因因子状態空間において曲線として示される。そ
して、図11中(C)に示すように、原因因子状態空間
には、異なる摂水傾向の強さx,x,・・・が等高
線として示される。
When considering that the tendency of water intake is almost the same, “throat throat” and “distance to water” are inversely proportional, and the point that the tendency of water intake is the same is considered. When they are connected, for example, they are shown as curves in the causal factor state space in FIG. That is, as shown in FIG. 11 (C), there are a plurality of causal factor states in which the so-called strength x of the water intake tendency is substantially the same, and these are shown as curves in the causal factor state space. . Then, as shown in FIG. 11 (C), the strengths x 1 , x 2 ,... Of different water intake tendencies are shown as contour lines in the causal factor state space.

【0157】以上述べたように、「摂食傾向」の強さ
と、「摂水傾向」の強さとが、各原因因子の状態に基づ
いて求められ、これらの強さの基づいてその比較がなさ
れ、一の行動の決定(選択)がなされる。そして、その
ような出現傾向が比較されるのが、図11中(B)に示
す出現傾向空間においてである。出現傾向空間は、出現
可能な行動の傾向から構成されている。
As described above, the strength of “feeding tendency” and the strength of “water intake tendency” are obtained based on the state of each causal factor, and the comparison is made based on these strengths. , An action is determined (selected). Then, such an appearance tendency is compared in the appearance tendency space shown in FIG. The appearance tendency space is made up of behavior tendency that can appear.

【0158】例えば、ある原因状態において、ある摂食
傾向の強さyとある摂水傾向の強さxとが得られた
場合、図11中(B)に示すように、原因因子状態空間
から写像された摂食傾向の強さyと摂水傾向の強さx
とが出現傾向空間上において組み合わされて比較され
る。具体的には、次のようにして行動の選択がなされ
る。
[0158] For example, in some causes state, when the intensity of x 2 Strength y 1 phrase water consumption tendency of a feeding trend was obtained, as shown in FIG. 11 (B), the causative agent state the strength x of strength y 1 and the water consumption trend of eating trend that has been mapped from space
2 are combined and compared in the appearance tendency space. Specifically, the action is selected as follows.

【0159】図11中(B)に示すように、切り換え境
界線の設定によって、出現傾向空間が2つの領域に分割
される。y=0(摂水傾向を示すx軸)と切り換え境界
線とで囲まれる領域(以下、摂水行動選択領域とい
う。)と、x=0(摂食傾向を示すy軸)と切り換え境
界線とで囲まれる領域(以下、摂食行動選択領域とい
う。)とが形成される。
As shown in FIG. 11B, the appearance tendency space is divided into two regions by setting the switching boundary line. A region surrounded by y = 0 (x-axis indicating a tendency to water intake) and a switching boundary (hereinafter, referred to as a water-supplying action selection region), and x = 0 (y-axis indicating a tendency to eat) and a switching boundary. (Hereinafter, referred to as an eating behavior selection area).

【0160】このように出現傾向空間にて切り換え境界
線の設定により形成される各領域に、原因因子状態空間
から写像された値(x,y)の位置によって一の行動が
決定される。すなわち、値(x,y)が摂水行動選択領
域内にある場合には、摂水行動が選択され、また、値
(x,y)が摂食行動選択領域内にある場合には、摂食
行動が選択されるようになる。よって、図11中(C)
に示す例では、値(x,y)が摂水行動選択領域に
なることから摂水行動が選択されることになる。
As described above, in each area formed by setting the switching boundary line in the appearance tendency space, one action is determined by the position of the value (x, y) mapped from the causal factor state space. That is, when the value (x, y) is within the watering action selection area, the watering action is selected, and when the value (x, y) is within the watering action selection area, the watering action is selected. Eating behavior is selected. Therefore, (C) in FIG.
In the example shown in ( 1 ), since the value (x 2 , y 1 ) is in the watering action selection area, the watering action is selected.

【0161】なお、単純化のため、原因因子の状態空間
を、摂食と摂水それぞれに関与する状態変数(原因因
子)に分けて示しているが、実際には1つの状態変数は
複数の行動の出現傾向に影響を及ぼす。原因因子空間の
曲線は、特定の行動の出現傾向と同一のレベルをもたら
す状態につながっている。
For the sake of simplicity, the state space of the causal factor is shown by dividing it into state variables (causal factors) related to eating and drinking, respectively. Influences the appearance of behavior. The curves in the causal factor space lead to conditions that lead to the same level of propensity for certain behaviors.

【0162】また、最終的に選択された行動によって、
それに関わる原因因子やそれ以外の複数の原因因子に影
響を及ぼす可能性がある。このようなことから、情報の
排他処理がなされている。
Also, depending on the finally selected action,
It may affect the causal factor involved and several other causal factors. For this reason, information exclusion processing is performed.

【0163】以上のような動物行動学的なアプローチと
して、原因因子を用いた行動決定(選択)の手法は、例
えばSilbyとMcfarland(1975の論文)やLudlow(競合モ
デルとして)が提唱している。
As an ethological approach as described above, a method of action determination (selection) using causal factors has been proposed by, for example, Silby and Mcfarland (1975 paper) and Ludlow (as a competition model). .

【0164】(3−5)動物行動学的なアプローチによ
る行動決定を実現する計算式 上述したような行動決定への動物行動学的なアプローチ
はあくまでも理論であり、実際のロボット装置1に適用
するためには、上述した動物行動学的なアプローチをデ
ータベース等としての情報化、或いは数式化する必要が
ある。そこで、本発明を実現するために、上述した動物
行動学的なアプローチからの行動決定を次のように数式
化した。
(3-5) Formula for Realizing Behavior Decision by Ethological Approach The above-described ethological approach to behavior decision is only a theory, and is applied to the actual robot apparatus 1. For this purpose, it is necessary to convert the above ethological approach into information as a database or the like, or to make a mathematical expression. Therefore, in order to realize the present invention, the above-described behavioral determination based on the ethological approach is expressed by the following mathematical formula.

【0165】図13中(A)に示すように、「摂食行
動」の原因因子とされる「空腹」の状態(度合い)をM
ot[0]とおき、「おいしさ」の評価をRM[0]と
おく。そして、あるMot[0]及びRM[0]がある
値における摂食傾向(傾向の強さ)をBe[0]とお
く。
As shown in FIG. 13A, the state (degree) of “hunger” which is a causative factor of “feeding behavior” is represented by M
ot [0], and the evaluation of “deliciousness” is RM [0]. The feeding tendency (strength of the tendency) at a certain value of certain Moto [0] and RM [0] is set to Be [0].

【0166】同様に、図13中(B)に示すように、摂
水行動の原因因子とされる「のどのかわき」の状態(度
合い)をMot[1]とおき、「水への距離」の評価を
RM[1]とおく。そして、Mot[1]及びRM
[1]がある値における摂水傾向(傾向の強さ)をBe
[0]とおく。これらの関係は、次に示す表のようにな
る。
Similarly, as shown in FIG. 13 (B), the state (degree) of “throat throat”, which is a causative factor of water intake behavior, is set to Moto [1], and “distance to water” is set. Is set to RM [1]. And Mot [1] and RM
[1] The water intake tendency (strength of the tendency) at a certain value is expressed by Be.
[0]. These relationships are as shown in the following table.

【0167】[0167]

【表1】 [Table 1]

【0168】なお、本例では、比較する出現傾向が「摂
食行動」及び「摂水行動」の2つなので、知覚について
はRM[0]、RM[1]の2値とし、動機については
Mot[0]、Mot[1]の2値としているが、多く
の出現傾向についても比較することは可能である。この
ようなことから、知覚(外的知的要素)をRM[i]、
動機(内的動機要素)をMot[i]及び出現傾向をB
e[i]とし、ここでiを整数として、一般化する。以
下、特に出現される行動の種類を言及しないときには、
これら一般化したものを示す。
In this example, since the two appearance trends to be compared are “feeding behavior” and “water intake behavior”, the perception is represented by two values of RM [0] and RM [1], and the motivation is represented by RM. Although the two values, that is, [Mot [0]] and [Mot [1]], are used, it is possible to compare many appearance trends. From this, the perception (external intellectual element) is expressed as RM [i],
The motivation (internal motivation element) is Moto [i] and the appearance tendency is B
Let e [i], where i is an integer, generalized. In the following, when not specifically referring to the types of actions that appear,
These generalized versions are shown below.

【0169】なお、上述した例で、「摂食行動」につい
てみた場合、同程度の出現傾向は、「空腹」と「おいし
さ」とが反比例の関係の下で成立することについて述べ
ているが、同程度の出現傾向とされるためには、出現傾
向に作用する原因因子が必ず反比例の関係にあるとは限
らない。すなわち、Be[i]とRM[i]とMot
[i]とは(7)式のような関係として示すことができ
るが、RM[i]とMot[i]との関係が必ず反比例
の関係になるとは限らない。要は、出現傾向は、動機
(内的動機要素)にのみ影響を受けるのではなく、知覚
(外的知的要素)の影響をも受けるということである。
In the above-described example, in the case of "feeding behavior", a similar appearance tendency indicates that "hunger" and "deliciousness" are established in an inversely proportional relationship. However, in order to have the same appearance tendency, the causal factors affecting the appearance tendency are not necessarily in an inversely proportional relationship. That is, Be [i], RM [i], and Mot
Although [i] can be expressed as a relationship as shown in Expression (7), the relationship between RM [i] and Mot [i] is not always inversely proportional. The point is that the appearance tendency is not only affected by the motive (internal motive element) but also by the perception (external intellectual element).

【0170】[0170]

【数7】 (Equation 7)

【0171】また、「おいしさ」や「水への距離」とい
った知覚評価RM[i]は、知覚情報取得部90におい
て取得されるものであり、また、「空腹」や「のどのか
わき」といった動機Mot[i]は、動機情報取得部8
1において取得されるものである。知覚情報取得部90
及び動機情報取得部81におけるこれらの情報の取得の
ための具体的な処理等については、後で詳述する。
The perceptual evaluation RM [i] such as “deliciousness” and “distance to water” is acquired by the perceptual information acquiring unit 90, and includes “hungry” and “throat throat”. The motive Mot [i] is the motive information acquisition unit 8
1 is obtained. Perceptual information acquisition unit 90
Specific processing for acquiring these pieces of information in the motivation information acquisition section 81 will be described later in detail.

【0172】そして、上述したように知覚(外的知的要
素)と動機(内的動機要素)とから得られた摂食傾向及
び摂水傾向は、図14に示すような出現傾向空間上に示
される。
As described above, the eating tendency and the water tendency obtained from the perception (external intellectual element) and the motive (internal motive element) are shown in the appearance tendency space as shown in FIG. Is shown.

【0173】ここで、この図14に示す出現傾向空間
は、第1の切り換え境界線(y=αx)と第2の切り換
え境界線(y=βx)といった2本の切り換え境界線が
設定されている。すなわち、出現傾向空間が3つの領域
に分割されている。一方、上述の図11中(B)に示し
た出現傾向空間では、切り換え線が1本であった。これ
は次のような理由からである。
Here, in the appearance tendency space shown in FIG. 14, two switching boundary lines such as a first switching boundary line (y = αx) and a second switching boundary line (y = βx) are set. I have. That is, the appearance tendency space is divided into three regions. On the other hand, in the appearance tendency space shown in FIG. 11B, there was only one switching line. This is for the following reasons.

【0174】理論的には、上述したように、切り換え境
界線が1本でも異なる行動の間で選択は可能である。し
かし、実際のロボット装置1にそのような理論をそのま
ま適用した場合、各行動の出現傾向が設定した切り換え
境界線付近に存在すると、今選択した行動と他方の行動
との選択の切り替わりがせわしくなり、ロボット装置1
の行動に落ち着きがなくなる。このような現象は、行動
が選択されて実施された場合に当該行動の出現傾向が他
の行動に対して相対的に小さくなるといったことが前提
とされて発生する。すなわち、動機(願望)が達成され
れば、その動機の程度が小さくなり、結果としてその動
機に影響される行動の出現傾向が小さくなるというよう
なことからである。
Theoretically, as described above, it is possible to select between different actions even with one switching boundary. However, when such a theory is applied to the actual robot apparatus 1 as it is, if the appearance tendency of each action exists near the set switching boundary line, switching between the currently selected action and the other action becomes difficult. , Robot device 1
Calms in his actions. Such a phenomenon occurs on the premise that when an action is selected and performed, the appearance tendency of the action becomes relatively smaller than other actions. That is, if the motivation (aspiration) is achieved, the degree of the motivation is reduced, and as a result, the tendency of the behavior influenced by the motivation is reduced.

【0175】このように、2本の切り換え境界線により
領域を分割することで、「摂食行動」が選択される領域
(摂食行動選択領域)、「摂水行動」が選択される領域
(摂水行動選択領域)、「摂食行動」又は「摂水行動」
のいずれかが選択される領域(以下、摂食又は摂水行動
選択領域という。)の3つ行動選択の領域が形成され
る。これにより、ロボット装置1の行動に落ち着きがな
くなることを防止することができる。このように、2本
の切り換え境界線を設定することで、ロボット装置1の
行動に落ち着きがなくなることが防止される理由につい
ては、後で詳述する。
As described above, by dividing the area by the two switching boundaries, the area where the “feeding action” is selected (feeding action selection area) and the area where the “watering action” is selected ( Watering behavior selection area), "feeding behavior" or "watering behavior"
Are selected (hereinafter, referred to as eating or watering action selection areas). Thereby, it is possible to prevent the behavior of the robot apparatus 1 from becoming restless. The reason why the setting of the two switching boundaries prevents the behavior of the robot apparatus 1 from becoming restless will be described later in detail.

【0176】この図14に示す出現傾向空間において、
出現傾向の最も強い行動が次のような関係から選択され
る。
In the appearance tendency space shown in FIG.
The action with the strongest appearance tendency is selected from the following relationship.

【0177】図14に示す出現傾向空間は、摂食傾向B
e[0]をx軸におき、摂水傾向Be[1]をy軸にお
き、摂食傾向Be[0]と摂水傾向Be[1]とから構
成されている。そして、このような出現傾向空間におい
て、第1及び第2の切り換え境界線をそれぞれy=αx
及びy=βxとして設定する。例えば、傾き係数α,β
は、任意の値として決定し、例えば、ロボット装置1の
成長などに応じて決定することができる。
The appearance tendency space shown in FIG.
e [0] is set on the x-axis, and the water intake tendency Be [1] is set on the y-axis, and is composed of the eating tendency Be [0] and the water intake tendency Be [1]. Then, in such an appearance tendency space, the first and second switching boundaries are respectively defined as y = αx
And y = βx. For example, the slope coefficients α and β
Is determined as an arbitrary value, and can be determined according to, for example, the growth of the robot apparatus 1 or the like.

【0178】ここで、摂食傾向Be[0]は、図13中
(A)に示す「空腹」Mot[0]及び「おいしさ」R
M[0]により決定される値であり、摂水傾向Be
[1]は、図13中(B)に示す「のどのかわき」Mo
t[1]、「水への距離」RM[1]により決定される
値である。
Here, the feeding tendency Be [0] is represented by “Hungry” Moto [0] and “Taste” R shown in FIG.
It is a value determined by M [0], and the water intake tendency Be
[1] is the “Nodokadaki” Mo shown in FIG.
t [1], a value determined by “distance to water” RM [1].

【0179】このような出現傾向空間において、図14
に示すように、原因因子状態空間から写像された値
(a,a’)が摂食行動選択領域にある場合(点C)に
は、一の行動として摂食行動が選択され、一方、値
(a,a’)が摂水行動選択領域にある場合(点D)に
は、一の行動として摂水行動が選択される。
In such an appearance tendency space, FIG.
As shown in (1), when the value (a, a ′) mapped from the causal factor state space is in the eating action selection area (point C), the eating action is selected as one action, while the value When (a, a ′) is in the water-feeding action selection area (point D), the water-feeding action is selected as one action.

【0180】そして、値(a,a’)は、例えば、図1
3中(A)に示すように、「空腹」がMot[0]=n
、「おいしさ」がRM[0]=mの状態にあり、こ
のとき「摂食傾向」Be[0]がaとされ、さらに、図
13中(B)に示すように、「のどのかわき」がMot
[1]=n、「水への距離」がRM[1]=mの状
態にあり、このとき「摂水傾向」Be[1]がa’とさ
れた場合である。
The value (a, a ') is, for example, as shown in FIG.
As shown in (A) of FIG. 3, “Hunger” is Mot [0] = n
0 , “deliciousness” is in the state of RM [0] = m 0 , and at this time, the “feeding tendency” Be [0] is set to a, and further, as shown in FIG. Which one is Mot
[1] = n 1 , “distance to water” is RM [1] = m 1 , and the “water intake tendency” Be [1] is a ′.

【0181】以上のような行動の選択は、次のような数
式化により実現することができる。
The above action selection can be realized by the following mathematical expression.

【0182】先ず、a’/a(Be[1]/Be
[0])の値として考える。x=0と第2の切り換え境
界線(y=βx)とによって囲まれる摂水行動選択領域
に値(a,a’)が位置される条件は、∞>a’/a>
βである。また、y=0と第1の切り換え境界線(y=
αx)とによって囲まれる摂食行動選択領域に値(a,
a’)が位置される条件は、α>a’/a>0である。
First, a '/ a (Be [1] / Be
[0]). The condition that the value (a, a ′) is located in the water-supplying action selection area surrounded by x = 0 and the second switching boundary (y = βx) is as follows: ∞> a ′ / a>
β. Also, y = 0 and the first switching boundary line (y =
αx) and the value (a,
The condition where a ′) is located is α> a ′ / a> 0.

【0183】このような関係式から以下のような式が導
き出せる。α>a’/a>0の場合、すなわち値(a,
a’)が摂食行動選択領域にある場合には、図15中
(A)に示すようになり、(8)式及び(9)式が成り
立つ。
From the relational expression, the following expression can be derived. If α> a ′ / a> 0, that is, the value (a,
When a ′) is in the eating behavior selection area, the result is as shown in FIG. 15A, and the expressions (8) and (9) are satisfied.

【0184】[0184]

【数8】 (Equation 8)

【0185】[0185]

【数9】 (Equation 9)

【0186】ここで、第1の切り換え境界線の傾きαは
(10)式のような関係のα’として示すことができ
る。なお、α’は、後述するように、摂水傾向Be
[1]から摂食傾向Be[0]に対する排他制御ゲイン
(>1)となる。
Here, the inclination α of the first switching boundary line can be expressed as α ′ having a relationship as shown in equation (10). Note that α ′ is the water intake tendency Be, as described later.
The exclusive control gain (> 1) for the feeding tendency Be [0] is obtained from [1].

【0187】[0187]

【数10】 (Equation 10)

【0188】このような関係から、「摂食行動」が選択
されるための条件は(11)式を満たすものであること
が導き出される。
From such a relationship, it is derived that the condition for selecting the “feeding behavior” satisfies the expression (11).

【0189】[0189]

【数11】 [Equation 11]

【0190】次に、図15中(B)は摂水行動の場合を
示しており、第2の切り換え境界線の傾きβは(12)
式として与えられる。なお、βは、後述するように、摂
食傾向Be[0]から摂水傾向Be[1]に対する排他
制御ゲイン(>1)となる。
Next, (B) in FIG. 15 shows the case of the water intake behavior, and the slope β of the second switching boundary is (12)
Given as an expression. Β is an exclusive control gain (> 1) from the feeding tendency Be [0] to the water feeding tendency Be [1], as described later.

【0191】[0191]

【数12】 (Equation 12)

【0192】このような関係から、「摂水行動」が選択
されるための条件は(13)式を満たすものであること
が導き出される。
From such a relationship, it is derived that the condition for selecting the “water intake behavior” satisfies the expression (13).

【0193】[0193]

【数13】 (Equation 13)

【0194】なお、上述の条件を満たすのは、(14)
式かつ(15)式である場合である。したがって、摂食
行動をとるようになるときには、(14)式を満たし、
摂水行動をとるようになるときには、(15)式が満た
される。
The above condition is satisfied by (14)
Equation (15) and Equation (15). Therefore, when taking a feeding action, the expression (14) is satisfied,
When taking a water-supplying action, the expression (15) is satisfied.

【0195】[0195]

【数14】 [Equation 14]

【0196】[0196]

【数15】 (Equation 15)

【0197】ここで、上述のような(a−a’α’)及
び(a’−aβ)を行列として記述すると(16)式の
ようになる。
Here, when (a-a'α ') and (a'-aβ) as described above are described as a matrix, the expression (16) is obtained.

【0198】[0198]

【数16】 (Equation 16)

【0199】また、これを離散的に計算するものとする
と、時刻tにおける出現傾向Be[i]と時刻t−1
における出現傾向Be(t−1)[i]とを用いて記述
すると(17)式のようになる。
If this is calculated discretely, the appearance tendency Be t [i] at time t and the time t−1
(17) can be described by using the appearance tendency Be (t-1) [i].

【0200】[0200]

【数17】 [Equation 17]

【0201】ここで、α’は、摂水傾向Be[1]から
摂食傾向Be[0]に対する排他制御ゲイン(>1)
を示し、また、βは、摂食傾向Be[0]から摂水傾
向Be[1]に対する排他制御ゲイン(>1)を示す
ものとなる。例えば、イメージ的には、図16に示すよ
うに、α’が摂食傾向Be[0]に対する排他制御ゲ
インとして働き、また、βが摂食傾向Be[1]に対
する排他制御ゲインとして働く。
[0201] Here, α 'is, exclusive control gain for the feeding trend Be t [0] from the water consumption trend Be [1] (> 1)
Are shown, also, beta is as shown exclusive control gain (> 1) for feeding tends Be t [0] from the water consumption tends Be t [1]. For example, the image, as shown in FIG. 16, alpha 'serves as the exclusive control gain for feeding tends Be t [0], also, beta acts as the exclusive control gain for feeding tends Be t [1] .

【0202】このように、複数の行動についての出現傾
向を行列式として示すことができるようになる。そし
て、行列式の左辺における行列中に正となるBe
[i]があるとき、当該出現傾向Be[i]に対応
される行動が一の行動として選択される。
As described above, the appearance tendency of a plurality of actions can be represented as a determinant. The positive Be in the matrix on the left side of the determinant
When there is a t [i], actions to be corresponding to the occurrence tendency Be t [i] is selected as an action.

【0203】なお、上述のような行列式の場合には、一
方の出現傾向の値が負となっているので、負となってい
る当該出現傾向については、0を代入して、再帰的に計
算をする。
In the case of the above-described determinant, since the value of one of the appearance trends is negative, 0 is substituted for the negative appearance tendency, and recursively. Make a calculation.

【0204】上述の(17)式を用いて排他制御を再帰
的に行うことにより、図17に示すような行動の選択が
なされるようになる。
By performing the exclusive control recursively using the above equation (17), the action selection as shown in FIG. 17 can be made.

【0205】ここで、前提として、選択された一の行動
が実行されると、当該一の行動に対する原因因子の影響
が少なくなり、当該実行された一の行動の出現傾向が小
さくなるとする。すなわち、例えば、「摂食行動」が一
の行動として選択された場合、摂食行動が実現されて摂
食に対する動機等が満たされるので、当該「摂食行動」
に対する原因因子(動機)の影響が少なくなり、その結
果、摂食傾向が小さく(弱く)なるということである。
(17)式を用いて排他制御を再帰的に行うことにより
次のように行動の選択がなされる。
Here, it is assumed that when one selected action is executed, the influence of a causal factor on the one action is reduced, and the tendency of the executed one action is reduced. That is, for example, when the “feeding behavior” is selected as one action, the eating behavior is realized and the motive or the like for eating is satisfied.
Is less influenced by the causal factor (motivation), and consequently, the tendency to eat is reduced (weakened).
By performing the exclusive control recursively using the equation (17), the action is selected as follows.

【0206】図17に示すように、例えば、(摂食傾向
Be[0],摂水傾向[1])=(a,a’)が摂食行
動選択領域内(y=0とy=αxとで囲まれる領域)に
ある場合は、値(a,a’)が当該摂食行動選択領域に
ある限り、一の行動として摂食行動が選択される。ここ
で、値(a,a’)が摂食行動選択領域にある場合、上
述の(17)式の左辺の摂食傾向Be[0]は正を示
す。
As shown in FIG. 17, for example, (eating tendency Be [0], watering tendency [1]) = (a, a ′) is within the eating behavior selection region (y = 0 and y = αx In this case, the feeding behavior is selected as one action as long as the value (a, a ′) is in the eating behavior selection area. Here, the value (a, a ') be in a feeding behavior selection area, eating tendency Be t [0] of the left-hand side of the above equation (17) is a positive.

【0207】そして、摂食行動が選択され続けると、上
述したように当該摂食行動の実現により原因因子の影響
が小さくなることから摂食傾向Be[0]は小さく
(弱く)なっていく。摂食傾向Beが小さくなってい
くと、値(a,a’)は摂食又は摂水選択領域に至る。
すなわち、図17に示すグラフ中において矢印Pに示
すように値(a,a’)が変化する。
[0207] When the feeding behavior continues to be selected, feeding tends Be t [0] from the influence of the causative agent is reduced by implementation of the eating behavior as described above becomes smaller (weaker) . When eating tendency Be t becomes smaller, the value (a, a ') leads to fed or water consumption selection.
That is, as shown by the arrow P 1 in a graph shown in FIG. 17 value (a, a ') is changed.

【0208】摂食又は摂水行動選択領域では、摂食行動
が選択される。また、上述の(17)式にて左辺の摂食
傾向Be[0]も正を示す。そして、摂食行動が選択
され続けると、当該摂食行動の実現により原因因子の影
響が小さくなることから摂食傾向Be[0]は小さく
なっていく。そして、値(a,a’)は摂食又は摂水行
動選択領域から摂水領域(x=0とy=βxとで囲まれ
る領域)に至る。すなわち、図17に示すグラフ中にお
いて矢印Pに示すように値(a,a’)が変化する。
In the eating or watering action selection area, an eating action is selected. Further, feeding the tendency of the left side at the above (17) Be t [0] is also shown a positive. When the feeding behavior continues to be selected, eating trend since the influence of the causative agent by implementation of the eating behavior decreases Be t [0] becomes smaller. Then, the value (a, a ′) ranges from the eating or watering action selection area to the watering area (an area surrounded by x = 0 and y = βx). That is, as shown by the arrow P 2 in the graph shown in FIG. 17 value (a, a ') is changed.

【0209】摂水選択領域では、摂水行動が選択され
る。ここで、値(a,a’)が摂水行動選択領域にある
場合、上述の(17)式の左辺の摂水傾向Be[1]
が今度は正を示す。
[0209] In the water supply selection area, a water supply action is selected. Here, the value (a, a ') be in a water consumption behavior selection area, water consumption tends Be t [1] of the left-hand side of the above equation (17)
But this time shows positive.

【0210】そして、摂水行動が選択され続けると、当
該摂水行動選択領域では、当該摂水行動の実現により原
因因子の影響が小さくなることから摂水傾向Be
[1]は小さくなっていく。そして、値(a,a’)
は摂水行動選択領域から摂食又は摂水行動選択領域に至
る。摂食又は摂水行動選択領域では、摂水行動が選択さ
れ、上述の(17)式にて左辺の摂食傾向Be[1]
も正を示す。さらに、摂水行動が選択され続けると、摂
水傾向Be[1]は減少し、値(a,a’)は摂食又
は摂水行動選択領域から摂食行動選択領域に至る。摂食
行動選択領域では再び摂食行動が選択されるようにな
る。すなわち、摂水行動選択領域から摂食行動選択領域
への値(a,a’)の変化は、図17に示すグラフ中に
おいて矢印Pに示すようになる。そして、以後、この
ように行動が選択されて、行動が切り換えられていく。
[0210] Then, if the water intake behavior is continuously selected, in the water intake behavior selection area, the effect of the causal factor is reduced due to the realization of the water intake behavior.
t [1] becomes smaller. And the value (a, a ')
From the water intake behavior selection area to the eating or water intake behavior selection area. The feeding or water consumption behavior selection area, water consumption behavior is selected, feeding tendency of the left side at the above (17) Be t [1]
Also indicates positive. Furthermore, the water consumption behavior continues to be selected, water consumption tends Be t [1] decreases, the value (a, a ') leads to feeding behavior selected area from the feeding or water consumption behavior selection. In the eating behavior selection area, the eating behavior is selected again. That is, the change of the values from water consumption behavior selection area to eating behavior selection region (a, a ') is as shown by the arrow P 3 in the graph shown in FIG. 17. Thereafter, the action is selected in this manner, and the action is switched.

【0211】また、出現傾向空間において、2本の切り
換え境界線を設定することで、行動が頻繁に切り替わる
ことが防止されたものとなり、行動に落ち着きがなくな
ることが防止される。
Further, by setting two switching boundaries in the appearance tendency space, it is possible to prevent frequent switching of the behavior, and to prevent the behavior from becoming restless.

【0212】以上のように、摂食傾向Be[0]と摂
水傾向Be[1]とが変化することにより、それらの
値の関係から値(a,a’)=(Be[0],Be
[1])が出現傾向空間上に特定されて、一の行動が選
択される。そして、このとき、(17)式においては、
摂食傾向Be[0]、摂水傾向Be[1]の何れか
が正の値を示し、正を示した出現傾向が選択される一の
行動となる。このような行動決定を図5に示す決定選択
部71により行っている。
[0212] As described above, by the feeding tendency Be t [0] and water consumption tends Be t [1] is changed, the value from the relationship of these values (a, a ') = ( Be t [ 0], Be t
[1]) is specified on the appearance tendency space, and one action is selected. Then, at this time, in equation (17),
Feeding tendency Be t [0], it indicates the value of any positive water consumption tendency Be t [1], the one action appearing tendency showed a positive is selected. Such an action decision is made by the decision selecting unit 71 shown in FIG.

【0213】なお、上述した実施の形態では、摂食傾向
Be[0]及び摂水傾向Be[1]により摂食行動
及び摂水行動の2つの行動が切り換えられる場合につい
て説明した。しかし、実際にはさらに多くの行動(n個
の行動)を出現傾向空間上において比較して一の行動を
選択する。すなわちn次元によって示される出現傾向空
間により一の行動の選択がなされる。n個の行動から一
の行動を選択する場合については、(18)式に示すよ
うな行列式になる。
[0213] In the embodiment described above, if two actions feeding behavior and water consumption behavior are switched has been described by ingestion tends Be t [0] and water consumption tends Be t [1]. However, actually, more actions (n actions) are compared in the appearance tendency space to select one action. That is, one action is selected by the appearance tendency space indicated by n dimensions. When one action is selected from n actions, a determinant as shown in Expression (18) is obtained.

【0214】[0214]

【数18】 (Equation 18)

【0215】ここで、G[i][j]は、ある行動の出
現傾向Be[j]に対するある行動の出現傾向Be
[i]の排他制御ゲインとなる。
[0215] In this case, G [i] [j] is the emergence of behavior which is to a certain appearance tendency Be t [j] of the action tendency Be t
The exclusive control gain is [i].

【0216】以上のような数式化により、知覚や動機と
いった原因因子に基づいて各行動の出現傾向を求め、出
現傾向の強さ(大きさ)から一の行動の決定(或いは選
択)がなされるような動物行動学的なアプローチによる
行動決定が可能になる。
With the above mathematical formula, the appearance tendency of each action is obtained based on causal factors such as perception and motivation, and one action is determined (or selected) from the strength (magnitude) of the appearance tendency. Behavioral decisions can be made using such an ethological approach.

【0217】なお、例えば、上述の図17に示しように
行動が選択されていった場合には、最終的に出現傾向が
0、すなわち、摂食傾向Be[0]及び摂水傾向Be
[1]が0(原点)に収束してしまうようにも考えられ
る。これは、上述したように行動が実現されていくと、
そのままでは、当該行動に対しての原因因子(例えば、
動機)の影響が限りなく無に近づくからである。
For example, when an action is selected as shown in FIG. 17, the appearance tendency is finally 0, that is, the eating tendency Be [0] and the drinking tendency Be.
It is also conceivable that [1] converges to 0 (origin). This is because when the action is realized as described above,
As it is, causal factors (eg,
This is because the effect of (motivation) approaches endlessly.

【0218】しかし、選択された一の行動が実行されて
いる間に、選択されなかった他の行動に対しての原因因
子の影響が大きくなるので問題はないといえる。すなわ
ち、例えば、摂水行動が実行されている間に、選択され
ていない摂食行動についての原因因子である例えば「お
腹がすいた」の状態が変化して、これにより「空腹」の
評価が変化することで、摂食傾向が高くなるからであ
る。「寝る」或いは「歩く」ことなどにより、食欲が回
復するようにである。すなわち、選択された行動が実行
されている間に選択されなかった行動の出現傾向がいわ
ゆる回復され、これを図示すると、例えば、図18に示
すようになる。
However, it can be said that there is no problem because the influence of the causal factor on other unselected actions increases while the selected one action is being executed. That is, for example, while the watering action is being performed, the state of, for example, “hungry”, which is a causal factor for the unselected eating behavior, changes, and thus the evaluation of “hunger” is reduced. This is because the change increases the tendency to eat. Appetite seems to be restored by "sleeping" or "walking". That is, the appearance tendency of the action not selected while the selected action is being executed is so-called recovered. This is illustrated in, for example, FIG.

【0219】また、第1及び第2の切り換え境界線の傾
きα、βについては、任意に決定することができる。こ
れにより、例えば、成長段階に合わせて、或いは性格に
合わせて設定することにより、そのような行動を適切に
示すことができるようになる。
The inclinations α and β of the first and second switching boundaries can be arbitrarily determined. This makes it possible to appropriately indicate such behavior, for example, by setting according to the growth stage or according to the personality.

【0220】例えば、ロボット装置1は成長段階に応じ
て出現させる行動を変化させる成長行動モデルを備えて
おり、その成長モデルにおける成長段階が「幼児」のと
きには、第1の切り換え境界線の傾きαと第2の切り換
え境界線の傾きβとを近い値として、摂食又は摂水行動
選択領域を狭める。また、成長段階が「成人」のときに
は、摂食又は摂水行動選択領域が広くなるように、第1
の切り換え境界線の傾きαと第2の切り換え境界線の傾
きβとを設定する。
For example, the robot apparatus 1 is provided with a growth behavior model that changes the behavior to appear according to the growth stage. When the growth stage in the growth model is “infant”, the inclination α of the first switching boundary line is And the inclination β of the second switching boundary line are set to close values to narrow the eating or watering action selection area. In addition, when the growth stage is “adult”, the first step is to increase the feeding or watering behavior selection area.
Of the switching boundary line and the inclination β of the second switching boundary line are set.

【0221】これにより、ロボット装置1は、「幼児」
のときには、摂食行動と摂水行動との切り換えが頻繁に
行い、あまり落ち着きがない行動を出現するようにな
り、また、「成人」のときには、摂食行動と摂水行動と
の切り換えが適当な間隔で選択して、落ち着きのある行
動を出現するようになる。
As a result, the robot device 1 can be used as an “infant”
In the case of, switching between eating behavior and watering behavior is performed frequently, and behaviors that are less calm appear, and in the case of "adults," switching between eating behavior and watering behavior is appropriate. Choose at appropriate intervals to bring out calm behavior.

【0222】また、出現傾向のいわゆる回復速度といっ
たものを可変にすることもできる。例えば、成長レベル
が低いときには回復速度を早くし、成長レベルが高いと
きには回復速度を遅くするといったように成長レベルに
応じて回復速度を設定する。このように設定した場合に
は、「幼児」のときには、摂食行動と摂水行動との切り
換えが頻繁に行われるようになり、「成人」のときに
は、摂食行動と摂水行動との切り換えが適当になされる
ようになり、前述の例と同様な効果を得ることができ
る。
Further, the so-called recovery speed of the appearance tendency can be made variable. For example, the recovery speed is set according to the growth level such that the recovery speed is increased when the growth level is low, and the recovery speed is reduced when the growth level is high. With this setting, the switching between the eating behavior and the watering behavior is frequently performed in the case of "infant", and the switching between the eating behavior and the watering behavior is performed in the case of "adult". Is appropriately performed, and the same effect as in the above-described example can be obtained.

【0223】なお、上述したように、出現傾向の回復を
利用して収束しないようになされるが、これを計算上で
操作して同様に収束を防止することとしてもよい。
As described above, the convergence is prevented by using the recovery of the appearance tendency. However, the convergence may be similarly prevented by manipulating this in calculation.

【0224】以上、動物行動学的なアプローチによる行
動決定を現実のロボット装置1において実現するための
計算式について説明した。そして、行動選択部80がこ
のような計算式により行動の選択を行っている。
The calculation formulas for realizing the behavior determination by the ethological approach in the actual robot device 1 have been described. Then, the action selecting unit 80 selects an action using such a calculation formula.

【0225】(3−6)行動選択部における具体的な処
理 以下、行動選択部80における具体的な処理について説
明する。行動選択部80は、図19に示すように、知覚
情報(RM)を取得する知覚情報取得部(Release Mech
anism、リリースメカニズム)90と、動機情報(Mo
t)を取得する動機情報取得部(モーションクリエー
タ、Motivation Creater)81と、知覚情報(RM)と
動機情報(Mot)とに基づいて一の行動を選択する行
動選択演算部82を備えている。
(3-6) Specific Processing in Action Selection Unit Hereinafter, specific processing in the action selection unit 80 will be described. As shown in FIG. 19, the action selection unit 80 includes a perception information acquisition unit (Release Mech) for acquiring perception information (RM).
anism, release mechanism) 90 and motivation information (Mo)
A motivation information acquisition section (motion creator, Motivation Creater) 81 for acquiring t) and an action selection calculation section 82 for selecting one action based on perception information (RM) and motivation information (Mot) are provided.

【0226】(3−6−1)出現傾向の取得手順 知覚評価(知覚情報)RM[i]と動機状態(動機情
報)Mot[i]とに基づいて、出現傾向Be[i]
を求める手順について説明する。出現傾向Be[i]
を求める手順は、排他制御前の値の算出と、排他制御を
した値の算出とに大別される。すなわち、上述した(1
8)式の右辺の第1項の出現傾向Be[i]の算出
と、(18)式の左辺の出現傾向Be[i]の算出と
に大別される。
[0226] (3-6-1) on the basis of acquisition procedure perception evaluation of the appearance trend in the (perceptual information) RM [i] motivated state (motive information) Mot [i], the emergence tendency Be t [i]
Will be described. Appearance trend Be t [i]
Is roughly divided into calculation of a value before exclusive control and calculation of a value subjected to exclusive control. That is, (1)
8) the calculation of the occurrence tendency Be t [i] of the first term of the right side of the equation is classified roughly into a calculation of (18) in the left side of the appearing tendency Be t [i].

【0227】前者の計算と後者の計算について、3つの
異なる行動の出現傾向Be[i]を取得する場合を例
として説明する。3つの異なる行動は、同一行動グルー
プである。例えば、図20に示すように、3つの各行動
について、3つの第1乃至第3の知覚評価RM[0],
RM[1],RM[2]と、3つの第1乃至第3の動機
状態Mot[0],Mot[1],Mot[2]とか
ら、対応される第1乃至第3の出現傾向Be[0],
Be[1],Be[2]を取得するというような場
合である。
The calculation of the former and the calculation of the latter will be described by taking as an example a case where the appearance tendencies Be t [i] of three different actions are obtained. The three different actions are the same action group. For example, as shown in FIG. 20, for each of three actions, three first to third perceptual evaluations RM [0],
From the RM [1] and RM [2] and the three first to third motivation states Mot [0], Mot [1] and Mot [2], the corresponding first to third appearance trends Be. t [0],
Be t [1], a case such that acquires Be t [2].

【0228】例えば、比較対象となる3つの行動として
は、「摂食行動」、「摂水行動」及び「排泄行動」が挙
げられる。第1の行動とされる「摂食行動」について
は、第1の知覚評価RM[0]として「おいしさ」が挙
げられ、第1の動機状態Mot[0]として「空腹」が
挙げられる。また、第2の行動とされる「摂水行動」に
ついては、第2の知覚評価RM[1]として「水への距
離」が挙げられ、第2の動機状態Mot[1]として
「のどのかわき」が挙げられる。また、第3の行動とさ
れる「排泄行動」については、第3の知覚評価RM
[2]として「トイレへの距離」が挙げられ、第1の動
機状態Mot[2]として「糞又は尿がつまった」が挙
げられる。そして、出現傾向空間は、これら摂食傾向B
[0]、摂水傾向Be[1]、排泄傾向Be
[2]により構成される。
For example, the three actions to be compared include “feeding action”, “water feeding action”, and “excretion action”. Regarding the “feeding behavior” as the first behavior, “deliciousness” is given as the first perceptual evaluation RM [0], and “hunger” is given as the first motivation state Mot [0]. As for the “water intake behavior” as the second behavior, “distance to water” is given as the second perception evaluation RM [1], and “throat throat” is given as the second motive state Mot [1]. Kawaki ". Further, regarding the “excretion behavior” as the third behavior, the third perception evaluation RM
[2] includes “distance to toilet”, and first motivation state Mot [2] includes “feces or urine clogged”. The appearance tendency space is based on the eating tendency B.
e t [0], water consumption trend Be t [1], excretion tendency Be
t [2].

【0229】各知覚評価RM[i]及び動機状態Mot
[i]に基づく、「摂食行動」、「摂水行動」及び「排
泄行動」に対応される各出現傾向Be[i]の算出は
次のようになる。
Each perceptual evaluation RM [i] and motivation state Mot
[I] based on the calculation of the "feeding behavior", each occurrence tendency Be t is corresponding to the "water consumption behavior" and "excretion behavior" [i] is as follows.

【0230】知覚評価RM[i]と動機状態Mot
[i]とから、(19)式に示すように出現傾向Be
[i]を算出する。
Perception evaluation RM [i] and motivation state Mot
Since the [i], the emergence tendency Be t as shown in (19)
[I] is calculated.

【0231】[0231]

【数19】 [Equation 19]

【0232】ここで、知覚評価RM[i]と動機状態M
ot[i]との間に反比例の関係がある場合には、その
関係を例えば(20)式のように示すことができる。
Here, the perception evaluation RM [i] and the motive state M
If there is an inversely proportional relationship with ot [i], the relationship can be expressed, for example, as in equation (20).

【0233】[0233]

【数20】 (Equation 20)

【0234】この知覚評価RM[i]を、(19)式に
代入すると、A[i]がBe[i]として算出され
る。すなわち、知覚評価RM[i]と動機状態Mot
[i]との間に反比例の関係がある場合には、その係数
A[i]が出現傾向Be[i]として算出されるので
ある。
By substituting this perceptual evaluation RM [i] into equation (19), A [i] is calculated as Bet [i]. That is, the perception evaluation RM [i] and the motive state Mot
When a relationship of inverse proportion between the [i], the coefficients A [i] is than is calculated as the appearance tends Be t [i].

【0235】このような計算により、排他制御前の出現
傾向Be[i]を算出することができる。そして、排
他制御が考慮された出現傾向Be[i]については
(21)式により算出することができる。
[0235] can be calculated by such a calculation, exclusive control before the emergence tendency Be t [i]. And, for the exclusive control into account the emergence tendency Be t [i] can be calculated by equation (21).

【0236】[0236]

【数21】 (Equation 21)

【0237】イメージ的には、図21に示すように、排
他制御ゲインG[i][j](i=0,1,2、j=
0,1,2)により、第1乃至第3の行動の出現傾向B
[0],Be[1],Be[2]が排他制御と
して算出がなされる。
As an image, as shown in FIG. 21, the exclusive control gain G [i] [j] (i = 0, 1, 2, j =
0, 1, 2), the appearance tendency B of the first to third actions
e t [0], Be t [1], Be t [2] is calculated is performed as the exclusive control.

【0238】以上のように、排他制御前の出現傾向と、
その排他前の出現傾向を使用し、排他制御が考慮された
出現傾向との算出がなされる。
As described above, the appearance tendency before exclusive control and
Using the appearance tendency before the exclusion, an appearance tendency in which exclusive control is considered is calculated.

【0239】例えば、図22に示すような手順により、
これら一連の計算がなされる。
For example, according to the procedure shown in FIG.
These series of calculations are performed.

【0240】先ず、ステップS1に示すように、t=
0,Be(t−1)[i]=0として各値を初期化す
る。そして、ステップS2〜ステップS6において、B
[0]〜Bet[2]までの(21)式の右辺第1
項の値が算出される。すなわち、排他制御前の出現傾向
Be[i]が算出される。ステップS2〜ステップS
6の処理は具体的には次のようになる。
First, as shown in step S1, t =
0, Be (t-1) [i] = 0, and initializes each value. Then, in steps S2 to S6, B
e t [0] to Bet [2], the first on the right side of equation (21)
The value of the term is calculated. That is, exclusive control before the emergence tendency Be t [i] is calculated. Step S2 to step S
The processing of No. 6 is specifically as follows.

【0241】ステップS2では、i=0とされる。これ
により、Be[0]についての計算が開始される。
In step S2, i = 0. This starts the calculation for Bet [0].

【0242】続く、ステップS3にて、知覚評価RM
[0]と、動機状態Mot[0]とが算出される。すな
わち、例えば「おいしさ」の評価RM[0]を取得し、
「空腹」の状態Mot[1]を取得する。
Subsequently, in step S3, perception evaluation RM
[0] and the motive state Mot [0] are calculated. That is, for example, the evaluation RM [0] of “deliciousness” is obtained,
The state “Hungry” state Moto [1] is acquired.

【0243】続く、ステップS4では、(21)式の右
辺第1項の値として、「摂食行動」の出現傾向Be
[0]を算出する。
Subsequently, in step S4, the appearance tendency Be of “feeding behavior” is set as the value of the first term on the right side of the equation (21).
Calculate t [0].

【0244】そして、ステップS5において、i=3か
否かについての判別がなされる。すなわち、比較対象と
なる全ての出現傾向Be[0]〜Be[2]の値が
算出されたか否かの判別がなされる。
Then, in step S5, it is determined whether or not i = 3. That, is made discrimination value is whether the calculation of all occurrences tend Be t to be compared [0] ~Be t [2] .

【0245】ここで、i=3ではないとき、ステップS
6においてi=i+1とされ、再び、ステップS3から
の処理を開始する。
Here, if i = 3, step S
In step 6, i = i + 1, and the processing from step S3 is started again.

【0246】このようなステップS1〜ステップS6の
処理により、排他制御前の値として、摂食傾向Be
[0]に続いて、摂水行動傾向Bet[1]及び排泄
傾向Bet[2]が算出されるようになる。
By the processing in steps S1 to S6, the eating tendency Be is set as the value before exclusive control.
Following t [0], the water intake behavior tendency Bet [1] and the excretion tendency Bet [2] are calculated.

【0247】そして、ステップS5において、i=3と
されたとき、ステップS7の処理を実行する。ステップ
S7では、(21)式の左辺の出現傾向Be[i]
(i=0〜2)が算出される。すなわち、(21)式に
より、排他制御が考慮された出現傾向Be[i]が算
出される。
When i = 3 in step S5, the processing of step S7 is executed. In step S7, the appearance tendency Be t [i] on the left side of equation (21).
(I = 0 to 2) is calculated. That is, the (21) equation, the emergence exclusive control were considered trends Be t [i] is calculated.

【0248】続く、ステップS8において、Be
[i]の何れかが正の値となっているか否か判断がな
される。ここで、Be[i]の何れもが正の値となっ
ていない場合には、ステップS9においてt=t+1と
して、再びステップS1からの処理を実行する。これに
より、(21)式に示すような再帰的な計算がなされよ
うになる。すなわち、前処理により得られたBe
[i]がBe(t−1)[i]とされて計算がなされ
る。
Subsequently, in step S8, Be
It is determined whether any of t [i] is a positive value. Here, if none of Be t [i] is a positive value, in step S9, t = t + 1, and the processing from step S1 is executed again. As a result, a recursive calculation as shown in Expression (21) is performed. That is, the Be obtained by the pre-processing
The calculation is performed with t [i] being Be (t-1) [i].

【0249】一方、ここで、出現傾向Be[i]の何
れかが正の値となっている場合には、当該出現傾向Be
[i]に対応される行動を実際に出現させる一の行動
として選択して、行動の選択処理を終了する。
On the other hand, if any one of the appearance trends Be t [i] has a positive value, the appearance tendency Be t [i]
The action corresponding to t [i] is selected as one action to actually appear, and the action selection processing ends.

【0250】以上のように、知覚評価(知覚情報)RM
[i]と動機状態(動機情報)Mot[i]とに基づい
て、出現傾向Be[i]を求めることができる。
As described above, the perception evaluation (perception information) RM
[I] and on the basis of the motive state (motive information) Mot [i], it is possible to determine the appearance tends Be t [i].

【0251】(3−6−2)知覚情報取得部における処
理 次に、知覚評価RM[i]を取得する知覚情報取得部9
0と、動機状態Mot[i]を取得する動機情報取得部
81との具体的な構成について説明する。先ず、知覚情
報取得部90について説明する。
(3-6-2) Processing in the Perceptual Information Acquisition Unit Next, the perceptual information acquisition unit 9 for acquiring the perceptual evaluation RM [i]
A specific configuration of 0 and the motivation information acquisition unit 81 that acquires the motivation state Mot [i] will be described. First, the perceptual information acquisition unit 90 will be described.

【0252】知覚情報取得部90は、外部又は内部の情
報(認識結果)に応じて、行動の原因因子とされる知覚
情報(評価)を取得する。この知覚情報取得部90は、
図23に示すように、行動記憶器91、対象物名記憶器
92、対象物決定器93、対象物情報記憶器94及び知
覚情報演算器95を備えている。
The perceptual information acquisition section 90 acquires perceptual information (evaluation) as a causative factor of the action according to external or internal information (recognition result). This perceptual information acquisition unit 90
As shown in FIG. 23, an action memory 91, an object name memory 92, an object determiner 93, an object information memory 94, and a perceptual information calculator 95 are provided.

【0253】行動記憶器91は、選択可能とされる複数
の行動が記憶されている。例えば、複数の行動がデータ
ベースとして記憶されている。
The action storage device 91 stores a plurality of actions that can be selected. For example, a plurality of actions are stored as a database.

【0254】そして、この行動記憶器91は、行動グル
ープ番号(信号)が入力されることにより、比較対象と
される複数の行動を1つの行動グループとして対象物決
定器93に出力する。
The action storage unit 91 outputs a plurality of actions to be compared as one action group to the object determiner 93 by inputting an action group number (signal).

【0255】例えば、「リンゴを食べる(リンゴの摂食
行動)」について例を挙げると次のようになる。
For example, the example of “eating apples (eating behavior of apples)” is as follows.

【0256】「リンゴを食べる」の行動を具現化する行
動としては、例えば、「リンゴに近づく」、「リンゴの
においをかぐ」、「リンゴを口に入れる」、「リンゴに
触る」等が挙げられる。例えば、「近づく」は、対象物
との距離を短くする行動であり、また、「においをか
ぐ」は、対象物に対して例えば鼻を近づけるという行動
であり、「口に入れる」は、対象物を口の中に運ぶとい
う行動、「触る」は、対象物に手(脚)を接触させる行
動である。これら「近づく」、「においをかぐ」、「口
に入れる」及び「触る」等に対応する行動は、対象物一
般に適用可能な行動とされる。すなわち、対象物が「ミ
カン」の場合において、その距離を短くする行動は、
「ミカンに近づく」の行動になり、また、鼻を近づける
行動は、「ミカンのにおいをかぐ」の行動になり、口に
運ぶ行動は、「ミカンを口にいれる」の行動になり、ま
た、手を接触させる行動は、「ミカンに触る」の行動に
なる。
Examples of the action that embodies the action of “eating an apple” include “approaching an apple”, “smelling an apple”, “putting an apple in a mouth”, and “touching an apple”. Can be For example, “approaching” is an action of shortening the distance to the object, “smell” is an action of bringing the nose closer to the object, for example, and “putting in the mouth” is The action of bringing an object into the mouth, "touching", is an action of bringing a hand (leg) into contact with an object. The actions corresponding to “approach”, “smell”, “put in mouth”, “touch”, and the like are actions applicable to the general target object. That is, when the target object is "Mikan", the action of shortening the distance is:
The action of approaching oranges, the action of approaching the nose is the action of smelling oranges, the action of bringing to the mouth is the action of putting oranges into the mouth, The action of touching the hand is the action of “touching oranges”.

【0257】行動記憶器91は、このような「近づく」
等の対象物一般に適用可能な複数の行動情報を1つの行
動グループとして対象物決定器93に出力している。す
なわち、行動記憶器91は、このような「リンゴを食べ
る」等の上位の行動を具現化する下位の行動の対象物の
情報を抜いて規定された行動名情報を対象物決定器93
に出力している。そして、この行動記憶器91から出力
される行動名情報は、行動選択演算部82において出現
傾向が比較される行動に対応されるものである。よっ
て、互いに抑制する関係にある行動となる。
The action memory 91 stores such an “approaching”
A plurality of pieces of behavior information applicable to the general target object are output to the target object determiner 93 as one behavior group. In other words, the action storage unit 91 extracts the action name information defined by extracting the information of the object of the lower-level action that embodies the higher-level action such as “eating an apple” or the like.
Output to The action name information output from the action storage device 91 corresponds to the action whose appearance tendency is compared in the action selection calculation unit 82. Therefore, the behaviors have a relation of suppressing each other.

【0258】このように対象物一般に適用可能な情報と
しての行動名情報を保持しているのは、対象物が異なる
同じ動作について信号(コマンド)を複数定義する必要
をなくし、各対象物毎の行動を規定した場合の例えばデ
ータベース等のシステムの肥大を防止して、逆に同様な
行動を起こす場合に対象物毎に所作自体に大きな差異は
ないことによる。なお、特別の行動については、対象物
の情報を含めて改めて行動を規定すればよい。
As described above, holding action name information as information applicable to an object in general eliminates the need to define a plurality of signals (commands) for the same operation in which the object is different, and for each object. This is because, for example, a system such as a database is prevented from being enlarged when an action is specified, and conversely, when a similar action is performed, there is no large difference in the action itself for each object. As for a special action, the action may be defined again including the information of the target object.

【0259】一方、対象物名記憶器92には、対象物名
が記憶されている。この対象物名記憶器92に記憶され
る対象物名は、上位の行動において選択された対象物名
である。例えば、上位の行動として「リンゴを食べる
(リンゴの摂食行動)」が選択された場合には、ロボッ
ト装置1がリンゴの存在を認識した場合であり、この場
合、「リンゴ」が対象物名として対象物名記憶器92に
記憶される。そして、対象物名記憶器92は、対象物名
情報(対象物信号)を対象物決定器93に出力する。
On the other hand, the object name storage 92 stores the object names. The object name stored in the object name storage device 92 is the object name selected in the higher-level action. For example, when “eating an apple (eating behavior of an apple)” is selected as the top action, the robot apparatus 1 recognizes the presence of an apple. In this case, “apple” is the object name. Is stored in the object name storage device 92. Then, the object name storage 92 outputs the object name information (object signal) to the object determiner 93.

【0260】上述の行動記憶器91では、下位の行動に
ついて対象物一般に適用可能な行動情報を対象物決定器
93に出力しており、この対象物名記憶器92は、その
対象物名を対象物決定器93に出力するものである。よ
って、対象物決定器93では、行動記憶器91から出力
される情報(行動名信号)と対象物名記憶器92から出
力される情報(対象物信号)とから、比較対象とされる
複数の行動が完全な情報として形成される。
The above-mentioned action memory 91 outputs action information applicable to the object in general to the lower-order action to the object determiner 93. The object name storage 92 stores the object name in the object This is output to the object determiner 93. Therefore, the object determiner 93 uses the information (action name signal) output from the action memory 91 and the information (object signal) output from the object name memory 92 to generate a plurality of comparison targets. Actions are formed as complete information.

【0261】対象物決定器93は、そのように比較可能
な形態として複数の行動情報(行動グループ信号)を知
覚情報演算器95に出力する。すなわち、対象物決定器
93は、行動記憶器91により取得した行動名と、対象
物名記憶器92により取得した対象物名とを対応した形
(ペア)として知覚情報演算器95に出力する。
The object determiner 93 outputs a plurality of action information (action group signals) to the perceptual information calculator 95 in such a comparable form. That is, the object determiner 93 outputs the action name acquired by the action memory 91 and the object name acquired by the object name memory 92 to the perceptual information calculator 95 as a corresponding form (pair).

【0262】なお、比較対象となる複数の行動の全てが
対象物を必要とする行動であるとは限らない。このよう
な場合には、対象物名記憶器92からは、そのような行
動に対応して「対象物はない」といった情報を対象物決
定器93に出力するようにする。これにより、対象物決
定器93では、対象物がない行動の情報として、行動記
憶器91から出力された行動の情報を知覚情報演算器9
5に出力する。
It should be noted that not all of the plurality of actions to be compared are actions requiring an object. In such a case, information such as “there is no object” is output from the object name storage 92 to the object determiner 93 in response to such an action. As a result, the target object determiner 93 uses the behavior information output from the behavior storage unit 91 as the behavior information having no target object as the perceptual information computing unit 9.
5 is output.

【0263】このように構成されている行動記憶器9
1、対象物名記憶器92及び対象物決定器93は例えば
次のように処理をする。例えば、行動記憶器91は、行
動グループ番号”1”が入力されると、行動グループ”
1”を構成する”行動(Behavior)0”、”行動
1”、”行動2”、”行動3”を対象物決定器93に出
力する。一方、対象物名記憶器92は、”行動0”に対
応して”食物”を出力し、”行動1”に対応して”水”
を出力し、行動グループ”2”に対応して”対象物な
し”を出力し、”行動3”に対応して”対象物なし”を
出力する。例えば、このような例は、上位の行動が「摂
取行動」である場合であり、上述したように、上位の行
動が「リンゴを食べる」であれば、この対象物名記憶器
92からは”リンゴ”のみが出力される。そして、対象
物決定器93では、行動記憶器91から出力された各”
行動”と、対象物名記憶器92から出力された”対象物
名”とをペアとして、意味のある行動情報として、知覚
情報演算器95に出力する。
The behavior memory 9 configured as described above
1. The object name storage 92 and the object determiner 93 perform, for example, the following processing. For example, when the behavior group number “1” is input, the behavior memory 91 stores the behavior group “
The “Behavior 0”, “Behavior 0”, “Behavior 1”, “Behavior 2”, and “Behavior 3” that constitute “1” are output to the object determiner 93. On the other hand, the object name storage 92 stores “Behavior 0”. "Food" is output in response to "", and "Water" is output in response to "Action 1"
Is output, "no object" is output in response to the action group "2", and "no object" is output in response to "action 3". For example, such an example is a case where the higher-level action is “ingestion action”, and as described above, if the higher-level action is “eat apple”, “ Only "apples" are output. Then, in the object determiner 93, each "" output from the action memory 91 is output.
The "action" and the "object name" output from the object name storage unit 92 are output as a pair of meaningful action information to the perceptual information calculator 95.

【0264】入力セマンティクスコンバータモジュール
59は、対象物情報記憶器94に対して、ロボット装置
1に入力されてきた知覚に関する情報を出力しており、
対象物情報記憶器94では、入力セマンティクスコンバ
ータモジュール59から送られてくる知覚に関する情報
が記憶される。すなわち、例えば、対象物情報記憶器9
4には、対象物とされる「リンゴ」、「リンゴまでの距
離」、「リンゴのある方向」等といった、出現傾向の算
出に使用する知覚評価のためのパラメータが記憶され
る。
The input semantics converter module 59 outputs information relating to perception input to the robot apparatus 1 to the object information storage 94.
The object information storage 94 stores perception information sent from the input semantics converter module 59. That is, for example, the object information storage 9
4 stores parameters for perceptual evaluation used for calculating an appearance tendency, such as “apple”, “distance to apple”, and “direction with apple”, which are target objects.

【0265】知覚情報演算器95は、対象物情報記憶器
94からの対象物情報(対象物情報信号)と、対象物決
定器93からの行動グループ情報(行動グループ情報信
号)とに基づいて、行動選択演算部82において出現傾
向が比較される各行動に対応した知覚評価RM[i]を
取得する。すなわち、例えば、「リンゴまでの距離」を
用いて、「リンゴを食べる(リンゴの摂食行動)」につ
いての知覚評価をしたり、「リンゴに近づく」について
知覚評価をしたりする。
[0265] The perceptual information arithmetic unit 95 is based on the object information (object information signal) from the object information storage 94 and the action group information (action group information signal) from the object determiner 93. A perception evaluation RM [i] corresponding to each action whose appearance tendency is compared in the action selection calculation unit 82 is acquired. That is, for example, using "distance to an apple", a perceptual evaluation of "eating an apple (eating behavior of an apple)" or a perceptual evaluation of "approaching an apple" is performed.

【0266】そして、このように知覚情報演算器95に
より取得された知覚評価RM[i]が行動選択演算部8
2に出力される。例えば、知覚評価RM[i]は、図1
9に示すように、ベクトル量として知覚情報取得部90
から行動選択演算部82に出力される。
Then, the perceptual evaluation RM [i] obtained by the perceptual information calculator 95 in this way is used as the action selection calculator 8.
2 is output. For example, the perceptual evaluation RM [i] is shown in FIG.
As shown in FIG. 9, the perceptual information acquisition unit 90
Is output to the action selection calculation unit 82.

【0267】なお、対象物決定器93から同期信号を対
象物情報記憶器94に出力することもできる。同期信号
により対象物決定器93の出力と対象物情報記憶器94
の出力の同期を取ることができるようになり、これによ
り、知覚情報演算器95には、対象物決定器93からの
行動に対応されるパラメータが所定のタイミングで入力
させることができるようになる。
Note that a synchronization signal can be output from the object determinator 93 to the object information storage 94. The output of the object determiner 93 and the object information memory 94 are output by the synchronization signal.
Can be synchronized, thereby allowing the perceptual information calculator 95 to input a parameter corresponding to the action from the object determiner 93 at a predetermined timing. .

【0268】また、基本的には、ロボット装置1は、こ
の知覚情報取得部90を1つだけ備えるものである。し
かし、知覚情報取得部90を、各行動それぞれについて
それぞれに備えることもできる。このような場合には、
知覚情報取得部90が1つの行動で対象物一般に適用す
ることのみを考慮すればよいことになることから、行動
記憶器91を備える必要がなくなる。例えば、このよう
な例は、後述するような行動選択部を複数のオブジェク
トとして構成する場合である。
Basically, the robot apparatus 1 is provided with only one perceptual information acquisition unit 90. However, the perceptual information acquisition unit 90 can be provided for each action. In such a case,
It is only necessary to consider that the perceptual information acquisition unit 90 applies one action to the target object in general, so that it is not necessary to provide the action storage unit 91. For example, such an example is a case where an action selecting unit described later is configured as a plurality of objects.

【0269】この知覚情報取得部90における処理の手
順について図24を用いて説明する。
The procedure of the process performed by the perceptual information acquisition unit 90 will be described with reference to FIG.

【0270】先ず、ステップS11において、行動グル
ープ名の取得がなされる。行動グループ名の取得とは、
「リンゴを食べる」の下位行動である「リンゴに近づ
く」、「リンゴのにおいをかぐ」等を示す行動グループ
名の取得である。
First, in step S11, an action group name is obtained. Acquisition of an action group name means
An action group name indicating “approaching an apple”, “smell an apple” or the like, which is a lower action of “eat an apple”, is acquired.

【0271】続いて対象物選択ルーチンが実行される。
対象物選択ルーチンでは、ステップS12にて、計算す
る行動名群の取得がなされる。この行動名群の取得によ
り、行動記憶器91に複数の行動(対象物一般に適用可
能な形態の行動情報)が記憶される。例えば、「近づ
く」、「においをかぐ」等の行動名を規定する情報であ
る。
Subsequently, an object selection routine is executed.
In the target object selection routine, in step S12, an action name group to be calculated is obtained. By acquiring the behavior name group, a plurality of behaviors (behavior information in a form applicable to the general target object) are stored in the behavior memory 91. For example, it is information that defines an action name such as “approach” or “smell”.

【0272】また、ステップS13にて、対象物名の取
得がなされる。この対象物名の取得により、対象物名記
憶器92に上位の行動において取得された対象物名称が
記憶される。例えば、「リンゴ」等の対象物の情報であ
る。
At step S13, an object name is obtained. With the acquisition of the object name, the object name acquired in the higher-level action is stored in the object name storage 92. For example, it is information on an object such as “apple”.

【0273】このように対象物選択ルーチンにおいて、
行動名群の取得及び対象物名の取得がなされる。続くス
テップS14において、選択された全ての行動に対し
て、知覚情報演算器95における知覚評価RM[i]の
計算を行ったか否かの判別がなされる。選択された全て
の行動に対して知覚評価RM[i]の計算が終了してい
る場合には、当該処理を終了して、選択された全ての行
動に対して知覚評価RM[i]の計算が終了していない
場合には、知覚評価算出ルーチンが実行される。
Thus, in the object selection routine,
Acquisition of an action name group and acquisition of an object name are performed. In the subsequent step S14, it is determined whether or not the perceptual evaluation RM [i] has been calculated in the perceptual information calculator 95 for all the selected actions. If the calculation of the perceptual evaluation RM [i] has been completed for all the selected actions, the process is terminated, and the calculation of the perceptual evaluation RM [i] for all the selected actions has been completed. Is not completed, a perceptual evaluation calculation routine is executed.

【0274】知覚評価算出ルーチンは、知覚情報演算器
95において実行されるもので次のような処理からな
る。
The perceptual evaluation calculation routine is executed by the perceptual information computing unit 95 and comprises the following processing.

【0275】ステップS15において、対象物が存在す
るか否かについての判別がなされる。対象物が存在する
場合には、ステップS16に進み、対象物が存在しない
場合には、ステップS18に進む。
At step S15, it is determined whether or not the target exists. If the target exists, the process proceeds to step S16. If the target does not exist, the process proceeds to step S18.

【0276】ステップS16において、知覚情報演算器
95は、対象物情報記憶器94からの対象物についての
距離及び方向(知覚評価取得のためのパラメータ)を取
得して、ステップS17で知覚評価(Value)RM
[i]を算出する。すなわち、例えば、リンゴまでの距
離」から、「リンゴに近づく」の評価RM[i]を算出
する。なお、距離は距離センサ22により検出し、方向
はCCDカメラ20の撮像画像等を利用して検出する。
In step S16, the perceptual information computing unit 95 acquires the distance and direction (parameter for acquiring perceptual evaluation) of the object from the object information storage 94, and in step S17, perceptual evaluation (Value). ) RM
[I] is calculated. That is, for example, the evaluation RM [i] of “approaching an apple” is calculated from “distance to an apple”. Note that the distance is detected by the distance sensor 22 and the direction is detected using an image captured by the CCD camera 20 or the like.

【0277】一方、ステップS18において、知覚情報
取得器95は、対象物がない状態にて知覚評価(Valu
e)RM[i]を算出する。例えば、この処理は、知覚
評価をする行動が対象物を要しない場合に対応される。
On the other hand, in step S18, the perceptual information acquisition unit 95 performs the perceptual evaluation (Valu
e) RM [i] is calculated. For example, this process corresponds to the case where the action for perceptual evaluation does not require an object.

【0278】このような知覚評価算出ルーチンは、上述
のステップS14の判別処理において、比較対象とされ
る全ての行動(行動グループを構成する複数の行動)に
ついて、知覚評価RM[i]の計算を行ったと判断され
るまで実行される。すなわち、ステップS14の処理と
知覚評価算出ルーチンとで、行動グループ内の全ての行
動についての知覚評価RM[i]が算出される。
The perceptual evaluation calculation routine calculates the perceptual evaluation RM [i] for all the actions to be compared (a plurality of actions constituting the action group) in the above-described determination processing in step S14. It is executed until it is determined that it has been performed. That is, the perception evaluation RM [i] for all the actions in the action group is calculated by the processing in step S14 and the perception evaluation calculation routine.

【0279】ステップS14にて、行動グループ内の全
ての行動の知覚評価RM[i]が算出されたと判断され
ると、当該処理が終了する。
[0279] If it is determined in step S14 that the perceptual evaluation RM [i] of all actions in the action group has been calculated, the process ends.

【0280】以上のように知覚情報取得部90が構成さ
れており、この知覚情報取得部90により、行動グルー
プにおける比較対象の複数の行動についての知覚評価R
M[i]を取得することができる。
The perceptual information acquiring unit 90 is configured as described above, and the perceptual information acquiring unit 90 performs the perceptual evaluation R on a plurality of actions to be compared in the action group.
M [i] can be obtained.

【0281】(3−6−3)動機情報取得部における処
理 動機情報取得部81は、外部又は内部の情報(認識結
果)に応じて変化する本能及び感情の状態に基づいて、
行動の原因因子の1つである動機を取得する。この動機
情報取得部81は、図25に示すように、本能・感情パ
ラメータIE[p]を複個数(本能・感情パラメータ
群)を有し、これにより複数個の行動の動機Mot
[i]を取得している。具体的には、次のようにして行
動の動機を取得する。
(3-6-3) Processing in Motivation Information Acquisition Unit The motivation information acquisition unit 81 performs processing based on instinct and emotional states that change according to external or internal information (recognition results).
Acquire the motive which is one of the causal factors of the behavior. As shown in FIG. 25, the motivation information acquisition unit 81 has a plurality of instinct / emotional parameters IE [p] (instinct / emotional parameter group), and thereby has a plurality of motivation Mot for actions.
[I] has been obtained. Specifically, the motive of the action is acquired as follows.

【0282】本能・感情パラメータ群IE[p]は、本
能や感情に影響される情報によって構成されており、具
体的には、上述したような内的状態モデルによって決定
される複数のパラメータから構成されている。すなわ
ち、本能・感情パラメータとして、例えば、「疲れ」、
「体内温度」、「痛み」、「飢え」、「乾き」、「愛
情」、「服従性」、「好奇心」、「排泄」、「幸せ」、
「悲しみ」、「怒り」、「驚き」、「嫌悪」、「恐
れ」、「苛立ち」、「退屈」、「眠気」、「社交心」、
「根気」、「緊張・リラックス」、「警戒」、「罪」、
「悪意」、「誠実さ」、「性欲」、「嫉妬」等が挙げら
れる。
The instinct / emotional parameter group IE [p] is composed of information influenced by instinct and emotion, and is specifically composed of a plurality of parameters determined by the internal state model as described above. Have been. In other words, as instinct and emotion parameters, for example,
"Body temperature", "Pain", "Hunger", "Dry", "Affection", "Submission", "Curiosity", "Excretion", "Happiness",
"Sadness,""anger,""surprise,""disgust,""fear,""irritation,""boring,""sleepiness,""socialism,
"Patience", "Tension / Relax", "Vigilance", "Sin",
Examples include “malice”, “sincereness”, “libido”, and “jealousy”.

【0283】また、行動の動機群Mot[i]は、同一
の行動グループ内における複数の行動に対応される動機
群である。例えば、「摂食行動」についての「空腹」等
や「摂水行動」についての「のどのかわき」等である。
[0283] The action motivation group Mot [i] is a motivation group corresponding to a plurality of actions in the same action group. For example, "hunger" for "feeding behavior", "throat squirrel" for "watering behavior", and the like.

【0284】この動機情報取得部81は、このような本
能・感情パラメータIE[p]をマッピングして各行動
についての動機Mot[i]を算出する。具体的には、
(22)式により算出する。
The motivation information acquisition section 81 maps the instinct / emotional parameter IE [p] to calculate the motive Mot [i] for each action. In particular,
It is calculated by equation (22).

【0285】[0285]

【数22】 (Equation 22)

【0286】この(22)式により、本能・感情パラメ
ータIE[p]に係数K[i][p]を掛け合わせて、
線形和としてのマッピングにより各行動の動機Mot
[i]を算出する。このような行列式として算出された
動機動機Mot[i]は、図19に示すように、ベクト
ル量として動機情報取得部81から行動選択演算部82
に出力される。
According to the equation (22), the instinct / emotional parameter IE [p] is multiplied by a coefficient K [i] [p], and
Motivation Mot of each action by mapping as linear sum
[I] is calculated. The motivation Mot [i] calculated as such a determinant is, as shown in FIG. 19, a vector amount from the motivation information acquisition unit 81 to the action selection calculation unit 82.
Is output to

【0287】例えば、「探索」、「ねだる」、「休む」
の動機を例に挙げて具体的に説明する。「探索」の動機
Mot[0]、「ねだる」の動機Mot[1]及び「休
む」の動機Mot[2]は(23)式として与えられ
る。
[0287] For example, "search", "need", "rest"
The motivation will be described in detail as an example. The motive Mot [0] of “search”, the motive Mot [1] of “need”, and the motive Mot [2] of “rest” are given by Expression (23).

【0288】[0288]

【数23】 (Equation 23)

【0289】また、K[i][p]を(24)式に示す
ように与える。
Also, K [i] [p] is given as shown in equation (24).

【0290】[0290]

【数24】 (Equation 24)

【0291】また、本能・感情パラメータIE[p]は
(25)式に示すように与える。
The instinct / emotional parameter IE [p] is given as shown in equation (25).

【0292】[0292]

【数25】 (Equation 25)

【0293】このような関係から、「探索」、「ねだ
る」、「休む」の各動機は、(26)式のように示され
る。
From such a relationship, each of the motives of “search”, “sloppy”, and “rest” is expressed by equation (26).

【0294】[0294]

【数26】 (Equation 26)

【0295】この(26)式では、「探索」は、「疲
れ」がマイナス因子として作用し、「好奇心」がプラス
因子として作用する本能・感情パラメータの関数となる
ことを示す。また、「ねだる」は、「愛情欲」がプラス
因子として作用する本能・感情パラメータの関数となる
ことを示す。また、「休む」は、「疲れ」がプラス因子
として作用し、「好奇心」がマイナス因子として作用す
る本能・感情パラメータの関数となることを示す。
In the equation (26), “search” indicates that “fatigue” is a function of instinct / emotional parameters in which “curiosity” acts as a negative factor and “curiosity” acts as a positive factor. Further, “sneaking” indicates that “love and lust” is a function of instinct and emotion parameters acting as a positive factor. Also, “rest” indicates that “fatigue” is a function of instinct and emotion parameters in which “curiosity” acts as a negative factor.

【0296】ここで、第1の例として、本能・感情パラ
メータIE[p]が[10,50,20]の場合につい
て考えてみる。例えば、このようなような状態は、好奇
心が高い状態をいう。このような状態では、「探索」M
ot[0]が400(=−100+500+0)とな
り、「ねだる」Mot[1]が300(=0+0+30
0)となり、「休む」Mot[2]が−150(=10
0−250+0)となる。
Here, as a first example, consider the case where the instinct / emotional parameter IE [p] is [10, 50, 20]. For example, such a state refers to a state of high curiosity. In such a situation, the "search" M
ot [0] becomes 400 (= −100 + 500 + 0), and “wet” Mot [1] becomes 300 (= 0 + 0 + 30).
0), and the "rest" mot [2] is -150 (= 10
0-250 + 0).

【0297】第2の例として、本能・感情パラメータI
E[p]が[70,10,30]の場合について考えて
みる。例えば、このようなような状態は、探し疲れた状
態をいう。このような状態では、「探索」Mot[0]
が−600(=−700+100+0)となり、「ねだ
る」Mot[1]が450(=0+0+450)とな
り、「休む」Mot[2]が650(=700−50+
0)となる。
As a second example, instinct and emotion parameter I
Consider the case where E [p] is [70, 10, 30]. For example, such a state refers to a tired state. In such a state, the "search" Moto [0]
Becomes -600 (= -700 + 100 + 0), the "wet" Moto [1] becomes 450 (= 0 + 0 + 450), and the "rest" Moto [2] becomes 650 (= 700-50 +
0).

【0298】第3の例として、本能・感情パラメータI
E[p]が[30,20,60]の場合について考えて
みる。例えば、このようなような状態は、疲れがちょっ
と回復し、愛情欲が高い状態をいう。このような状態で
は、「探索」Mot[0]が−100(=−300+2
00+0)となり、「ねだる」Mot[1]が300
(=0+0+300)となり、「休む」Mot[2]が
200(=300−100+0)となる。
As a third example, instinct and emotion parameter I
Consider the case where E [p] is [30, 20, 60]. For example, such a state refers to a state in which tiredness is slightly recovered and affection is high. In such a state, the “search” Mot [0] is −100 (= −300 + 2).
00 + 0), and “Needle” Mot [1] is 300
(= 0 + 0 + 300), and the “rest” Moto [2] becomes 200 (= 300−100 + 0).

【0299】このようにして、本能・感情パラメータ群
IE[p]と係数K[i][m]とから、行動の動機M
ot[i]を取得することができる。そして、本能・感
情パラメータ群K[i][p]のマッピングを適切に設
定することにより、出現傾向RM[i]の取得のための
所望の動機Mot[i]を得ることができる。すなわ
ち、例えば、上述の例でいう「のどのかわき」、「空
腹」といった動機をも得ることができる。
In this way, from the instinct / emotional parameter group IE [p] and the coefficient K [i] [m], the motive M
ot [i] can be obtained. Then, by appropriately setting the mapping of the instinct / emotion parameter group K [i] [p], a desired motive Mot [i] for acquiring the appearance tendency RM [i] can be obtained. That is, for example, motivations such as “throat throat” and “hunger” in the above example can be obtained.

【0300】以上のように動機情報取得部81が構成さ
れており、この動機情報取得部81により、各行動につ
いての動機Mot[i]を取得することができる。この
動機情報取得部81により得られる動機は、本能や感情
のパラメータ値の変化に応じて変化するものであって、
結果として、選択された行動に反映される。例えば、上
述の例では次のように、動機が行動に反映されることと
なる。
[0300] The motive information obtaining unit 81 is configured as described above, and the motive Mot [i] for each action can be obtained by the motive information obtaining unit 81. The motivation obtained by the motivation information acquisition unit 81 changes according to a change in parameter values of instinct and emotion.
As a result, it is reflected in the selected action. For example, in the above example, the motive is reflected in the behavior as follows.

【0301】欲求は、基本的には、時間増加であるた
め、満たされないと増加する。好奇心が高くなると、ロ
ボット装置1は探索を始める(上述の第1の例)。探索
することで歩き回るため、歩いた分だけ疲れが蓄積され
る。また、好奇心自体も探索することによって減少して
くる。しばらく歩き回っても何も入力されないと、好奇
心が減少し、疲れが増大することによって、休む行動に
スイッチする(上述の第2の例)。しばらくして休むこ
とによって疲れが減少し、時間によって増加してきた愛
情欲によってロボット装置1の行動はねだるにスイッチ
される(上述の第3の例)。このように、動機が、選択
された行動に反映されることがわかる。
The desire is basically a time increase, and therefore increases if it is not satisfied. When the curiosity increases, the robot device 1 starts searching (the first example described above). As we walk around by searching, we get tired as much as we walk. Also, curiosity itself can be reduced by searching. If nothing is input even after walking for a while, the curiosity is reduced and the fatigue is increased, thereby switching to a resting behavior (the second example described above). By taking a rest after a while, fatigue is reduced, and the behavior of the robot apparatus 1 is randomly switched by the affection that has increased with time (the third example described above). Thus, it can be seen that the motivation is reflected in the selected action.

【0302】なお、上述した係数K[i][p]の値に
ついては、任意に設定することができる。例えば、任意
に設定することにより、動機Mot[i]の取得のため
の本能・感情パラメータIE[p]によるマッピングを
種々変化することができるようになる。これにより、係
数K[i][p]の設定によっては、ロボット装置1に
適用する動物の種類や成長レベル等に対応して、マッピ
ングすることができるようになる。
The value of the coefficient K [i] [p] can be set arbitrarily. For example, by setting it arbitrarily, it becomes possible to variously change the mapping based on the instinct and emotion parameter IE [p] for acquiring the motive Mot [i]. Thus, depending on the setting of the coefficient K [i] [p], mapping can be performed in accordance with the type of animal, the growth level, and the like applied to the robot device 1.

【0303】以上、知覚評価RM[i]を取得する知覚
情報取得部90及び動機状態Mot[i]を取得する動
機情報取得部81との具的な構成について説明した。以
上のような知覚情報取得部90及び動機情報取得部81
によって取得された知覚評価RM[i]及び動機状態M
ot[i]により、行動選択演算部82のおいて一の行
動の選択がなされる。
The specific configuration of the perceptual information acquiring unit 90 for acquiring the perceptual evaluation RM [i] and the motivation information acquiring unit 81 for acquiring the motivation state Mot [i] has been described. Perceptual information acquisition unit 90 and motivation information acquisition unit 81 as described above
Evaluation RM [i] and motivation state M obtained by
According to ot [i], one action is selected in the action selection calculation unit 82.

【0304】そして、このような行動の選択処理が、最
下位の行動層における行動の選択がなされるまで実行さ
れる。すなわち、上述の図7に示したように行動選択の
ためのシステムを階層構造として構築しており、最下位
の行動(実際に出力する行動)を決定するまで、各層に
おいて上述したように、知覚評価RM[i]と動機情報
Mot[i]とによる行動選択処理を実行する。すなわ
ち、図6中(B)に示すように、「摂取行動」はサブシ
ステム層においてした知覚評価RM[i]と動機情報M
ot[i]とに基づく行動選択の結果であり、「摂水行
動」は、さらに具現化した行動群からなるモード層にお
いてした知覚評価RM[i]と動機情報Mot[i]と
に基づく行動選択の結果であり、「水に近づく」は、ま
たさらに具現化した行動群からなるモジュール層におい
てした知覚評価RM[i]と動機情報Mot[i]とに
基づく行動選択の結果であり、「前進する」は、またさ
らに具現化した行動群からなるモータコマンド層におい
てした知覚評価RM[i]と動機情報Mot[i]とに
基づく行動選択の結果である。このような選択処理によ
り、抽象的な行動(願望としての行動)である「摂食行
動」が、「前進する」といった実際の行動によって実現
されることになる。
[0304] Such an action selection process is executed until an action is selected in the lowest action layer. That is, as shown in FIG. 7 described above, the system for action selection is constructed as a hierarchical structure, and the perceptual perception is performed in each layer until the lowest action (actually output action) is determined. An action selection process based on the evaluation RM [i] and the motive information Mot [i] is executed. That is, as shown in FIG. 6 (B), the “ingestion behavior” is the perception evaluation RM [i] and the motive information M
ot [i], which is a result of the action selection based on the perception evaluation RM [i] and the action based on the motivation information Mot [i] in the mode layer composed of a further embodied action group. The result of the selection, “approaching water” is the result of the action selection based on the perception evaluation RM [i] and the motive information Mot [i] in the module layer composed of the action group that is further embodied. “Go forward” is the result of the action selection based on the perceptual evaluation RM [i] and the motive information Mot [i] in the motor command layer including the action group that has been further embodied. By such a selection process, the “feeding behavior” that is an abstract behavior (behavior as a desire) is realized by an actual behavior such as “moving forward”.

【0305】なお、各層における行動の選択において、
上述したように、知覚や動機等の原因因子によってその
出現傾向が算出されて、それに基づいて一の行動が選択
されているが、出現傾向を算出する際に使用する動機情
報を全ての層において一律のものを使用してもよい。す
なわち、例えば、「摂取行動」が上位の行動とされてい
る場合には、その下位の行動は全て「摂取行動」を実現
するためのものであることを考えれば、当該下位の行動
は、「飢え(乾き)」の状態を満たすための行動とな
る。よって、「摂取行動」を実現するための下位の行動
は、「飢え(乾き)」の状態が動機の情報(原因因子)
となる。
[0305] In selecting an action in each layer,
As described above, the appearance tendency is calculated by causal factors such as perception and motivation, and one action is selected based on the tendency, but the motivation information used when calculating the appearance tendency is calculated in all layers. A uniform one may be used. That is, for example, when “ingestion behavior” is a higher-level action, considering that all lower-level actions are for realizing “intake behavior”, the lower-level action is “ It is an action to satisfy the condition of “hunger (dry)”. Therefore, the lower-level behavior for realizing the “ingestion behavior” is that the state of “hunger (dryness)” is the motive information (causal factor).
Becomes

【0306】なお、知覚については、必ずしもそのよう
な関係にはならない。「水に近づく」の知覚情報(外部
知的要素)として「水への距離」が挙げられるが、その
「水に近づく」の下位の「前進する」の知覚情報として
は、「水のある方向」が最適である場合もあるからであ
る。
Note that perception does not always have such a relationship. The perceived information (external intellectual factor) of “approaching water” includes “distance to water”, and the perceived information of “advancing” below “approaching water” includes “direction of water” Is sometimes optimal.

【0307】(3−7)モジュレータにおける処理 モジュレータ72及び後述する出力セマンティクスコン
バータモジュール68により、上述したように、行動選
択演算部82にて選択された一の行動を実際に出現する
ための処理がなされる。
(3-7) Processing in Modulator As described above, the processing for actually appearing one action selected by the action selection calculating unit 82 is performed by the modulator 72 and the output semantics converter module 68 described later. Done.

【0308】モジュレータ72は、行動選択部80にお
いて選択された一の行動と、内的状態モデル部71から
出力された代表感情情報(代表感情信号)とから最終的
に出現させる行動を決定する。
[0308] The modulator 72 determines an action to be finally caused to appear from the one action selected by the action selecting section 80 and the representative emotion information (representative emotion signal) output from the internal state model section 71.

【0309】ここで、内的感情モデル部71から出力さ
れる代表感情情報は、ロボット装置1の現在の感情状態
を示すものである。例えば、内的感情モデル部71は、
本能(欲求)又は感情のパラメータ値の一番大きい本能
又は感情を代表感情情報として出力する。
Here, the representative emotion information output from the internal emotion model unit 71 indicates the current emotional state of the robot device 1. For example, the internal emotion model unit 71
The instinct or emotion having the largest instinct (desire) or emotion parameter value is output as representative emotion information.

【0310】モジュレータ72は、このような代表感情
に基づいて、行動選択部80において選択された一の行
動をいわゆる変調するものである。すなわち、モジュレ
ータ72の処理により、行動において感情が表出される
ようになる。
The modulator 72 modulates one action selected by the action selecting section 80 based on such representative emotion. That is, by the processing of the modulator 72, the emotion is expressed in the action.

【0311】これにより、例えば、現在の感情をロボッ
ト装置1の行動として直接出現させる必要はないが、感
情表現を含ませて行動を出現させる場合に有効なものと
なる。すなわち、例えば、本当に怒っていない状態であ
るが、少し怒っているような場合に、行動選択部80に
より選択された行動に「不機嫌さ」を伴わせる(付加さ
せる)ような場合である。
Thus, for example, it is not necessary to cause the current emotion to appear directly as an action of the robot apparatus 1, but this is effective when an action is caused to appear including an emotional expression. That is, for example, when the user is not really angry but is a little angry, the action selected by the action selecting section 80 is accompanied (added) by “displeased”.

【0312】モジュレータ72は、上述のような感情に
より変調された選択された一の行動についての情報を、
出力セマンティクスコンバータモジュール68に出力す
る。例えば、モジュレータ72は、行動の情報を抽象的
な行動コマンドとして出力セマンティクスコンバータモ
ジュール68に出力する。
[0312] The modulator 72 outputs information on the selected one action modulated by the emotion as described above.
Output to the output semantics converter module 68. For example, the modulator 72 outputs behavior information to the output semantics converter module 68 as an abstract behavior command.

【0313】出力セマンティクスコンバータモジュール
68は、モジュレータ72からの行動情報に対応する出
力を信号処理モジュール61〜67に与える。これによ
り、ロボット装置1は、行動決定システム70において
決定された行動を実際のものとして出力する。
The output semantics converter module 68 gives an output corresponding to the behavior information from the modulator 72 to the signal processing modules 61 to 67. Thereby, the robot apparatus 1 outputs the action determined by the action determination system 70 as an actual action.

【0314】以上、行動決定システム70について説明
した。上述のような行動決定システム70により、入力
セマンティクスコンバータモジュール59における認識
結果に基づいて内的状態モデル部71では、ロボット装
置1の本能及び感情の状態などの内的状態を変化させる
ことができる。また、行動選択部80では、認識結果に
基づいて、複数の行動からロボット装置1が出現する一
の行動を選択することができる。
The behavior determination system 70 has been described above. By the action determination system 70 as described above, the internal state model unit 71 can change the internal state such as the instinct and the emotional state of the robot apparatus 1 based on the recognition result in the input semantics converter module 59. In addition, the action selection unit 80 can select one action in which the robot apparatus 1 appears from a plurality of actions based on the recognition result.

【0315】そして、モジュレータ72により、内的状
態モデル部71により得られた内的状態と行動選択部8
0により得られた一の行動とに基づいて、感情が付加さ
れた行動情報の生成がなされる。そしてモジュレータ7
2により、感情が付加された行動情報が出力セマンティ
クスコンバータモジュール68に出力される。
Then, the internal state obtained by the internal state model unit 71 and the action selecting unit 8 are output from the modulator 72.
On the basis of the one action obtained by 0, action information to which an emotion is added is generated. And modulator 7
According to 2, the action information to which the emotion is added is output to the output semantics converter module 68.

【0316】(4)出力セマンティクスコンバータモジ
ュールにおける処理 出力セマンティクスコンバータモジュール68は、ロボ
ット装置1のタイプ(例えば、二足歩行型や四足歩行型
等)や形状等の情報を保持しており、この情報に応じて
モジュレータ72からの行動情報を各信号処理モジュー
ル61〜67を制御する。例えば、4足により歩行する
本実施の形態のロボット装置1の場合には、出力セマン
ティクスコンバータモジュール68は、四足歩行型のロ
ボット装置1であることを把握していることから、「前
進する」といった行動情報がモジュレータ72から送ら
れてきたときには、その「前進する」を実現するために
4本の脚を制御する信号処理モジュールにコマンドを出
力する。ここで、出力セマンティクスコンバータモジュ
ール68は、モジュレータ72からの抽象的な行動コマ
ンドによりそのように対応される各信号処理モジュール
61〜67にコマンドを送る。
(4) Processing in Output Semantics Converter Module The output semantics converter module 68 holds information such as the type (for example, bipedal or quadrupedal type) and the shape of the robot apparatus 1. The signal processing modules 61 to 67 control the behavior information from the modulator 72 according to the information. For example, in the case of the robot device 1 of the present embodiment that walks on four legs, the output semantics converter module 68 knows that the robot device 1 is a four-legged robot device, and thus “goes forward”. When such behavior information is transmitted from the modulator 72, a command is output to a signal processing module that controls the four legs in order to realize the “forward”. Here, the output semantics converter module 68 sends commands to each of the corresponding signal processing modules 61-67 in response to the abstract action command from the modulator 72.

【0317】各信号処理モジュール61〜67は、出力
セマンティクスコンバータモジュール68からのコマン
ドに基づいて、対応するデバイスを制御する。これによ
り、上述のような行動決定システム70において決定
(選択)された行動が、実際のものとしてロボット装置
1の行動として出現されたことになる。
Each of the signal processing modules 61 to 67 controls a corresponding device based on a command from the output semantics converter module 68. Thus, the action determined (selected) in the action determination system 70 as described above has appeared as an actual action of the robot apparatus 1.

【0318】また、このようなロボット装置1の行動の
出現は、姿勢と動作の管理がされたもとにおいてなされ
ている。ロボット装置1の各部は原則的には独立として
動作することはできるが、姿勢と動作を管理することに
より所定の動作を独立して動作させることを禁止してい
る。
The appearance of such an action of the robot apparatus 1 is performed under the control of the posture and the action. Although each part of the robot apparatus 1 can operate independently in principle, it is prohibited to independently perform a predetermined operation by managing the posture and the operation.

【0319】ロボット装置1は、図1に示したように、
胴体部ユニット2に対して、脚部ユニット3A〜3D、
頭部ユニット4及び尻尾部ユニット5が連結されて構成
されている。これにより、基本的には、ロボット装置1
は、選択された行動に応じて、各信号処理モジュールが
個別に制御することで各部が独立して動作することがで
きるようになされている。しかし、場合によっては、各
ユニットの動作の干渉により、不適切な動作となる場合
もある。また、目的とする姿勢或いは動作への遷移が、
現在の姿勢から無理なときもある。
[0319] As shown in FIG.
For the body unit 2, the leg units 3A to 3D,
The head unit 4 and the tail unit 5 are connected to each other. Thereby, basically, the robot apparatus 1
Is configured such that each unit can operate independently by individually controlling each signal processing module according to the selected action. However, in some cases, the operation may be inappropriate due to interference between the operations of the units. Also, the transition to the desired posture or motion is
There are times when it is impossible from the current attitude.

【0320】そこで、ロボット装置1は、無理な姿勢
や、部位(各ユニット)同士の干渉が起こることを防止
すべく、各ユニット間の整合をとり、姿勢と動作の管理
をしている。ロボット装置1は、このような姿勢や動作
を、図4に示す姿勢管理モジュール61により管理して
いる。
Therefore, the robot apparatus 1 manages the posture and the operation by matching the units so as to prevent an unreasonable posture and interference between parts (units). The robot apparatus 1 manages such postures and movements by a posture management module 61 shown in FIG.

【0321】具体的には、姿勢管理モジュール61は、
ロボット装置1は座っている場合において、”前へ歩
け”というような命令を受信したときには、「座り状
態」から「歩く状態」への遷移させる姿勢遷移経路を探
索する。例えば、複数の姿勢や動作を経由して、「座り
状態」から「歩く状態」への遷移経路を探索する。そし
て、「座り状態」から「歩く状態」への遷移経路探索の
結果に基づいて、そのような遷移経路上にある姿勢や動
作を実行すべく、遷移させる経路の順番に応じて命令
を、各信号処理モジュールに出力する。これにより、ロ
ボット装置1は、無理な姿勢や、部位同士の干渉を防止
して、目的とする所望の姿勢や動作、すなわち、上述し
た行動決定システム70において決定された行動に到達
することができる。
Specifically, the posture management module 61
When a command such as “walk forward” is received while sitting, the robot apparatus 1 searches for a posture transition path for transition from the “sitting state” to the “walking state”. For example, a transition path from a “sitting state” to a “walking state” is searched for via a plurality of postures and actions. Then, based on the result of the search for the transition path from the “sitting state” to the “walking state”, in order to execute the posture and motion on such a transition path, an instruction is issued according to the order of the path to be transitioned. Output to the signal processing module. Thereby, the robot apparatus 1 can prevent an unreasonable posture and interference between parts and reach a desired desired posture and movement, that is, the behavior determined by the behavior determination system 70 described above. .

【0322】以上、ロボット装置1の構成及びその処理
について説明した。上述したような構成を備えることに
より、ロボット装置1は、動物行動学的なアプローチに
よって決定された行動を出現させることができるように
なる。これにより、ロボット装置1の生物感が一層増
し、ユーザ(飼い主)は、ロボット装置1に一層の親近
感や満足感を感じるようになる。
The configuration of the robot device 1 and its processing have been described above. With the above-described configuration, the robot apparatus 1 can cause the behavior determined by the ethological approach to appear. As a result, the biological feeling of the robot device 1 further increases, and the user (owner) feels a closer feeling and a more satisfying feeling with the robot device 1.

【0323】(4)他の実施の形態 以上、ロボット装置1について最良の実際の形態につい
て説明した。しかし、本発明は、次に述べるような他の
実施の形態としても実現することができる。
(4) Other Embodiments The best actual embodiment of the robot apparatus 1 has been described above. However, the present invention can be realized as another embodiment described below.

【0324】上述の実施の形態では、行動決定システム
70が最終段の行動の選択を、動機情報をも参照して決
定している。例えば、図6中(B)に示す例では、「前
進する」が動機情報が参照されて選択されているもので
ある。しかし、最終段の行動選択については、動機情報
を除いて決定してもよい。
[0324] In the above embodiment, the action determination system 70 determines the final action selection with reference to the motivation information. For example, in the example shown in FIG. 6B, “forward” is selected with reference to the motive information. However, the action selection at the last stage may be determined excluding the motivation information.

【0325】すなわち、例えば,図26中(A)及び
(B)に示すように、「摂取行動」の下位の行動(動
作)となる「水に近づく」さらには、その下位の行動
(動作)の「前進する」の選択を、動機情報を除いた情
報、例えば対象物までの距離等の知覚情報を参照して選
択するものとする。例えば、ある行動(例えば、漠然と
した行動)をしようとする場合には、動機がその行動選
択に大きく作用し、そして、したい行動をある程度絞り
込んだ後は、動機とは切り離して、行動の選択処理(選
択思考)がそのような行動を実現するためのものにスイ
ッチするようなものである。すなわち、最終的に選択さ
れる動作は、動機の影響を受けることなく決定される点
がポイントとなる。そして、そのような最終的に動作を
決定する場合に、例えば、知覚情報を使用するというこ
とである。なお、モード層の階層は0階層以上であり、
モジュール層の階層は1階層であるものとして定義して
も良い。
That is, for example, as shown in (A) and (B) of FIG. 26, “approach water”, which is a lower action (action) of “ingestion action”, and further, an action (operation) of the lower order Is selected with reference to information excluding the motive information, for example, perceptual information such as the distance to the object. For example, when trying to perform a certain action (for example, a vague action), the motive greatly affects the action selection, and after narrowing down the desired action to some extent, the action selection processing is separated from the motive. It is like (selective thinking) switching to one to achieve such behavior. That is, the point that the operation finally selected is determined without being influenced by the motive. Then, when finally determining such an operation, for example, perceptual information is used. In addition, the mode layer has 0 or more layers.
The module layer may be defined as one layer.

【0326】例えば、上述したような動機情報に基づく
ことなく動作を決定する部分として、例えば図27及び
図28に示すように、動作生成部100を備える。動作
生成部100は、行動選択演算部によって選択された行
動から、知覚情報等に基づいて、「水に近づく」やその
下位の動作とされる「前進」を行動を実現する動作の選
択をする。そして、動作生成部100は、選択した動作
を、モジュレータ72に出力する。モジュレータ72で
は、先に説明したように、内的状態モデル部71から送
られてくる感情により変調した行動を出力する。
For example, as shown in FIGS. 27 and 28, an operation generation unit 100 is provided as a part for determining an operation without being based on the above-mentioned motive information. The action generation unit 100 selects, from the action selected by the action selection calculation unit, an action that implements an action of “approaching water” or “downward” as an action based on perceptual information or the like. . Then, the operation generation unit 100 outputs the selected operation to the modulator 72. As described above, the modulator 72 outputs a behavior modulated by the emotion sent from the internal state model unit 71.

【0327】具体的には、動作生成部100は、図29
に示すように、知覚情報取得部90、行動選択演算部1
02を備えて構成する。例えば、出力セマンティクスコ
ンバータモジュール68からの各種情報が蓄積される対
象物情報記憶部94を利用して、行動選択演算部102
において動作の選択をする。これにより、動作生成部1
00は、例えば、「前進する」の際には、対象物情報記
憶器94に記憶されている情報である対象物まで距離
(例えば、対象物までの距離が10cmである情報)や
方向(例えば、対象物が右方向にある情報)の情報のみ
を利用して、行動選択演算部102において動作の選択
を行う。
Specifically, the operation generation unit 100
As shown in the figure, the perceptual information acquisition unit 90, the action selection calculation unit 1
02 is provided. For example, using the target information storage unit 94 in which various types of information from the output semantics converter module 68 are stored, the action selection calculation unit 102
Select the operation in. Thereby, the operation generation unit 1
00 is, for example, in the case of “moving forward”, the distance (for example, information in which the distance to the object is 10 cm) and the direction (for example, information in which the distance to the object is 10 cm) which is the information stored in the object information storage 94. The action selection operation unit 102 selects an action using only the information of (the information indicating that the object is in the right direction).

【0328】また、上述の実施の形態では、行動選択部
80によって複数の行動から一の行動を選択している場
合について説明した。例えば、行動選択部80では複数
の行動の情報を保持しており、これら行動のデータに基
づいて一の行動を決定している。しかし、これに限定さ
れるものではない。
In the above-described embodiment, the case where one action is selected from a plurality of actions by the action selecting section 80 has been described. For example, the action selecting unit 80 holds information on a plurality of actions, and determines one action based on the data of these actions. However, it is not limited to this.

【0329】例えば、行動決定システム70は、行動決
定する部分をオブジェクト指向により設計することがで
きる。なお、オブジェクト指向として行動決定するシス
テムを構築する場合でも、上位の行動と下位の行動とい
ったような階層構造としての関係はそのまま用いる。そ
して、行動の選択は、オブジェクト単位として構成され
る行動グループから当該オブジェクト単位で一の行動を
選択するようにする。具体的には、図30に示すよう
に、行動システムにおいて行動の選択を複数の行動選択
部(オブジェクト或いはスレッド)80,80,8
を階層構造として備えるようにする。
For example, the action determination system 70 can design a part for determining an action in an object-oriented manner. It should be noted that even when a system that determines an action as object-oriented is constructed, a hierarchical structure such as a higher-order action and a lower-order action is used as it is. The action is selected such that one action is selected for each object from an action group configured as an object. More specifically, as shown in FIG. 30, in the behavior system, a behavior is selected by a plurality of behavior selecting units (objects or threads) 80 1 , 80 2 , 8.
0 3 is provided as a hierarchical structure.

【0330】本例では、図30に示すように、オブジェ
クトとされる行動選択部が2階層とされてシステムが構
築されているが、これに限定されないことはいうまでも
ない。
In this example, as shown in FIG. 30, a system is constructed in which the action selecting section, which is an object, has two layers, but it goes without saying that the present invention is not limited to this.

【0331】各行動選択部80,80,80は、
上述した行動決定システム70が唯一として備える行動
選択部80と同様に、知覚情報取得部90、動機情報取
得部81及び行動選択演算部82を備える。
[0331] each action selection unit 80 1, 80 2, 80 3,
Like the above-described action selection unit 80 provided solely by the action determination system 70, the action determination system 70 includes a perceptual information acquisition unit 90, a motive information acquisition unit 81, and an action selection calculation unit 82.

【0332】このように構成した場合、上位の行動選択
部80が選択した行動に基づいて、下位の行動選択部
部80,80において行動の選択を行う。ここで、
上位の行動の選択は、下位層の一の行動選択部の選択と
なる。そして、選択された一の行動選択部は、更に下位
の行動の選択を行う。
[0332] With such a configuration, based on the action the action selecting section 80 1 of the upper selects, for selecting a behavior in the lower action selector section 80 2, 80 3. here,
The selection of the higher-level action is the selection of the lower-level one-action selection section. Then, the selected one action selecting unit selects a further lower action.

【0333】そして、このような複数の行動選択部80
,80,80からなるシステムの最下位に位置さ
れる行動選択部が、選択した行動の情報を、上述したよ
うな動作生成部100に引き渡す。
Then, the plurality of action selecting units 80
1, 80 2, 80 action selection unit which is located at the bottom of the system consisting of 3, the information of the selected action, passes the motion generating unit 100 as described above.

【0334】このような、オブジェクト指向として行動
決定のためのシステムを構築することにより、行動選択
のために常にシステム全体についての処理或いは把握を
する必要がなくなり、行動選択の処理負担が軽減される
ようになる。また、後に新たな行動を加える場合であっ
ても、そのような新たなオブジェクトを加えるだけで済
み、行動選択のためのデータを全て書き換えるといった
ような手間もかからない。例えば、新たな行動を加える
場合とは、学習によって新たな行動を取得した場合や、
成長レベルの変化により新たな行動が加わる場合をい
う。
By constructing such a system for determining an action as object-oriented, it is not necessary to always process or grasp the entire system for selecting an action, and the processing load of the action selection is reduced. Become like Further, even when a new action is added later, it is only necessary to add such a new object, and it is not necessary to rewrite all data for selecting an action. For example, a case where a new action is added means that a new action is acquired by learning,
This refers to the case where a new action is added due to a change in the growth level.

【0335】また、図6中(B)或いは図26中(B)
に示したサブシステム層(SUBSYSTEM)、モード層(MOD
E1,MODE2)、モジュール層(MODULE)における各行動
グループ構成の具体例は、図31及び図32に示すよう
になる。
Also, FIG. 6 (B) or FIG. 26 (B)
Subsystem layer (SUBSYSTEM) and mode layer (MOD
E1, MODE2) and specific examples of the configuration of each action group in the module layer (MODULE) are as shown in FIGS.

【0336】[0336]

【発明の効果】ロボット装置は、外部又は内部情報を検
出手段により検出し、検出手段が検出した外部又は内部
情報であって、行動に影響する情報とされる原因因子を
原因因子取得手段により取得し、原因因子取得手段が取
得した原因因子に基づいて、当該原因因子に影響される
行動の出現傾向を出現傾向取得手段により取得し、出現
傾向取得手段が取得した2つ以上の行動に対応する出現
傾向であって、同一グループとされる出現傾向を出現傾
向比較手段により比較し、出現傾向比較手段による出現
傾向の比較結果に基づいて、一の行動を行動選択手段に
より選択し、行動選択手段が選択した行動に基づいて、
動作部を動作部制御手段により制御して、当該選択され
た行動を出現させることにより、原因因子に影響されて
決定される出現傾向について比較することで、一の行動
を選択しており、動物行動学的なアプローチとしての行
動を出現するようになる。
The robot apparatus detects external or internal information by the detecting means, and obtains, by the causal factor obtaining means, the external or internal information detected by the detecting means, which is the information affecting the behavior. Then, based on the causal factor acquired by the causal factor acquiring means, the appearance tendency of the action affected by the causal factor is acquired by the appearance tendency acquiring means, and the appearance tendency acquiring means corresponds to the two or more behaviors acquired by the appearance tendency acquiring means. The appearance tendency, which is the same group, is compared by the appearance tendency comparison means, and one action is selected by the action selection means based on the comparison result of the appearance tendency by the appearance tendency comparison means. Based on the action you choose,
By controlling the operation unit by the operation unit control unit and causing the selected action to appear, by comparing the appearance tendency determined by being influenced by the causal factor, one action is selected, The behavior emerges as a behavioral approach.

【0337】このようなロボット装置の行動決定方法
は、ロボット装置の外部又は内部情報を情報検出工程に
て検出手段により検出し、情報検出工程にて検出した外
部又は内部情報のロボット装置の行動に影響する情報と
される原因因子を原因因子取得工程にて取得し、原因因
子取得工程にて取得した原因因子に基づいて、当該原因
因子に影響される行動の出現傾向を出現傾向取得工程に
て取得し、出現傾向取得工程にて取得した2つ以上の行
動に対応する出現傾向であって、同一グループとされる
出現傾向を出現傾向比較工程にて比較し、出現傾向比較
工程における出現傾向の比較結果に基づいて、一の行動
を行動選択工程にて選択し、行動選択工程にて選択され
た行動に基づいて、ロボット装置の動作部を動作部制御
工程にて制御して、当該ロボット装置に選択された行動
を出現させることにより、ロボット装置は、原因因子に
影響されて決定される出現傾向について比較すること
で、一の行動を選択しており、動物行動学的なアプロー
チとしての行動を出現するようになる。
In such a method for determining the behavior of a robot device, the external or internal information of the robot device is detected by a detecting means in an information detecting step, and the behavior of the robot device of the external or internal information detected in the information detecting step is detected. In the causal factor acquisition step, the causal factors that are considered to be the influential information are acquired, and based on the causal factors acquired in the causal factor acquisition step, the appearance tendency of the behavior affected by the causal factor is determined in the appearance tendency acquisition step The appearance tendency corresponding to two or more actions acquired in the appearance tendency acquisition step, and the appearance tendency in the same group is compared in the appearance tendency comparison step. Based on the comparison result, one action is selected in the action selection step, and based on the action selected in the action selection step, the operation unit of the robot device is controlled in the operation unit control step, By causing the selected behavior to appear in the robot apparatus, the robot apparatus selects one behavior by comparing the appearance trends determined by the causal factors, and the ethological approach As a behavior comes to appear.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態であるロボット装置の外観
構成を示す斜視図である。
FIG. 1 is a perspective view illustrating an external configuration of a robot device according to an embodiment of the present invention.

【図2】上述のロボット装置の回路構成を示すブロック
図である。
FIG. 2 is a block diagram showing a circuit configuration of the robot device described above.

【図3】上述のロボット装置のソフトウェア構造を示す
ブロック図である。
FIG. 3 is a block diagram showing a software structure of the robot device described above.

【図4】上述のロボット装置のソフトウェアのミドル・
ウェア・レイヤの構成を示すブロックである。
FIG. 4 shows the software of the above-mentioned robot device.
3 is a block diagram illustrating a configuration of a wear layer.

【図5】上行動決定システムの構成を示すブロック図で
ある。
FIG. 5 is a block diagram illustrating a configuration of an upper behavior determination system.

【図6】上記動物行動学的なアプローチによる行動決定
をするロボット装置を説明するために使用した図であ
る。
FIG. 6 is a diagram used to explain a robot device that determines an action by the ethological approach.

【図7】行動選択部における構築された、複数の行動が
階層構造とされた行動選システムを示す図である。
FIG. 7 is a diagram showing an action selection system constructed in the action selection unit and having a plurality of actions in a hierarchical structure.

【図8】上述の行動決定システムを構成する各部の機能
を説明するために使用した前半の図である。
FIG. 8 is a first half diagram used to explain the function of each unit constituting the above-described action determination system.

【図9】上述の行動決定システムを構成する各部の機能
を説明するために使用した後半の図である。
FIG. 9 is a second half diagram used to explain the function of each unit constituting the above-described action determination system.

【図10】動物行動学的なアプローチによって、知覚及
び動機により行動を決定する場合について説明するため
に使用したブロック図である。
FIG. 10 is a block diagram used to describe a case where behavior is determined by perception and motivation by an ethological approach.

【図11】原因因子によって構成される原因因子状態空
間と、原因因子状態空間により規定された行動の出現傾
向が写像される出現傾向空間とを示す特性図である。
FIG. 11 is a characteristic diagram showing a causal factor state space constituted by causal factors and an appearance tendency space in which an appearance tendency of an action defined by the causal factor state space is mapped.

【図12】原因因子状態空間を説明するために使用した
図である。
FIG. 12 is a diagram used to explain a causal factor state space.

【図13】動物行動学的なアプローチを数式化する説明
に使用した摂食行動及び摂水行動の原因因子状態空間を
示す特性図である。
FIG. 13 is a characteristic diagram showing a causal factor state space of eating behavior and water consumption behavior, which is used for describing an ethological approach as a mathematical expression.

【図14】動物行動学的なアプローチを数式化する説明
に使用した摂食傾向と摂食傾向とから構成される出現傾
向空間を示す特性図である。
FIG. 14 is a characteristic diagram showing an appearance tendency space composed of an eating tendency and an eating tendency used in the description of formulating the ethological approach.

【図15】原因因子状態空間から写像された値が摂食行
動選択領域にある場合(図中(A))と、原因因子状態
空間から写像された値が摂水行動選択領域にある場合
(図中(B))とを示す特性図である。
FIG. 15 shows a case where the value mapped from the causal factor state space is in the eating behavior selection region ((A) in the figure) and a case where the value mapped from the causal factor state space is in the watering behavior selection region ( (B) in the figure.

【図16】排他制御を説明するために使用した図であ
る。
FIG. 16 is a diagram used for explaining exclusive control.

【図17】動物行動学的なアプローチによる計算式によ
って実現される行動の選択を説明するために使用した出
現傾向空間を示す特性図である。
FIG. 17 is a characteristic diagram showing an appearance tendency space used for explaining selection of an action realized by a calculation formula based on an ethological approach.

【図18】ロボット装置の実際の処理による行動の選択
を説明するために使用した出現傾向空間を示す特性図で
ある。
FIG. 18 is a characteristic diagram illustrating an appearance tendency space used for describing selection of an action by an actual process of the robot apparatus.

【図19】行動選択部を構成する知覚情報取得部と、動
機情報取得部と、行動情報選択部との間の情報の流れを
示すブロック図である。
FIG. 19 is a block diagram illustrating a flow of information among a perceptual information acquisition unit, a motivation information acquisition unit, and a behavior information selection unit that constitute the behavior selection unit.

【図20】排他制御前の出現傾向の算出を説明するため
に使用した図である。
FIG. 20 is a diagram used to explain calculation of an appearance tendency before exclusive control.

【図21】排他制御によるの出現傾向の算出を説明する
ために使用した図である。
FIG. 21 is a diagram used to explain calculation of an appearance tendency by exclusive control.

【図22】出現傾向の算出手順を示すフローチャートで
ある。
FIG. 22 is a flowchart illustrating a procedure for calculating an appearance tendency.

【図23】知覚情報取得部の構成を示すブロック図であ
る。
FIG. 23 is a block diagram illustrating a configuration of a perceptual information acquisition unit.

【図24】上述の知覚情報取得部における処理手順を示
すフローチャートである。
FIG. 24 is a flowchart showing a processing procedure in the above-mentioned perceptual information acquisition unit.

【図25】動機情報取得部を説明するために使用した図
である。
FIG. 25 is a diagram used to explain a motivation information acquisition unit.

【図26】ロボット装置の他の実施の形態であって、階
層構造とされた行動選択システムにおいて下位層におけ
る行動の選択が動機によって影響されない場合を説明す
るために使用した図である。
FIG. 26 is a view showing another embodiment of the robot apparatus, which is used to describe a case where the action selection in the lower layer is not influenced by the motive in the action selection system having a hierarchical structure.

【図27】上述の他の実施の形態のロボット装置の行動
選択演算部及び動作生成部の機能を説明するために使用
した図である。
FIG. 27 is a diagram used to explain functions of a behavior selection calculation unit and a motion generation unit of the robot device according to the other embodiment described above.

【図28】上述の他の実際の形態のロボット装置の行動
決定システムの構成を示すブロック図である。
FIG. 28 is a block diagram showing a configuration of an action determination system for a robot device according to another actual embodiment described above.

【図29】動作生成部の構成を示すブロック図である。FIG. 29 is a block diagram illustrating a configuration of an operation generation unit.

【図30】オブジェクトとされた複数の行動選択部を示
すブロック図である。
FIG. 30 is a block diagram illustrating a plurality of action selection units that are set as objects.

【図31】サブシステム層、モード層、モジュール層に
おける各行動グループ構成の前半の具体例を示す図であ
る。
FIG. 31 is a diagram illustrating a specific example of the first half of each action group configuration in a subsystem layer, a mode layer, and a module layer.

【図32】サブシステム層、モード層、モジュール層に
おける各行動グループ構成の後半の具体例を示す図であ
る。
FIG. 32 is a diagram illustrating a specific example of the latter half of each action group configuration in the subsystem layer, the mode layer, and the module layer.

【符号の説明】 1 ロボット装置、70 行動決定システム、71 内
的状態モデル、72モジュレータ、80 行動選択部、
81 動機情報取得部、82 行動選択部、90 知覚
情報取得部
[Description of Signs] 1 robot apparatus, 70 action determination system, 71 internal state model, 72 modulator, 80 action selection unit,
81 motivation information acquisition section, 82 action selection section, 90 perception information acquisition section

───────────────────────────────────────────────────── フロントページの続き (72)発明者 長谷川 里香 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 佐部 浩太郎 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 ロナルド クレッグ アーキン アメリカ合衆国 ジョージア州 30332− 0280 アトランタ ジョージア工科大学内 ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Rika Hasegawa 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Kotaro Sabe 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo No. Sonny Corporation (72) Inventor Ronald Cleg Arkin 30332-0280 Atlanta Georgia Institute of Technology, Georgia USA

Claims (20)

【特許請求の範囲】[Claims] 【請求項1】 動作部を制御して行動を出現させるロボ
ット装置であって、 外部又は内部情報を検出する検出手段と、 上記検出手段が検出した外部又は内部情報であって、行
動に影響する情報とされる原因因子を取得する原因因子
取得手段と、 上記原因因子取得手段が取得した原因因子に基づいて、
当該原因因子に影響される行動の出現傾向を取得する出
現傾向取得手段と、 上記出現傾向取得手段が取得した2つ以上の行動に対応
する出現傾向であって、同一グループとされる出現傾向
を比較する出現傾向比較手段と、 上記出現傾向比較手段による出現傾向の比較結果に基づ
いて、一の行動を選択する行動選択手段と、 上記行動選択手段が選択した行動に基づいて、動作部を
制御して、当該選択された行動を出現させる動作部制御
手段とを備え、 上記行動選択手段が選択した一の行動の出現傾向は、当
該行動の実際の出現により変化する原因因子に応じて変
化することを特徴とするロボット装置。
1. A robot device for controlling a motion unit to cause an action to appear, wherein the detection means detects external or internal information, and the external or internal information detected by the detection means affects an action. A causal factor acquiring means for acquiring causal factors to be information, based on the causal factors acquired by the causal factor acquiring means,
An appearance tendency acquisition means for acquiring an appearance tendency of an action affected by the causal factor; and an appearance tendency corresponding to two or more actions acquired by the appearance tendency acquisition means, wherein An appearance tendency comparing means to be compared; an action selecting means for selecting one action based on the result of the appearance tendency comparison by the appearance tendency comparing means; and an operation section controlled based on the action selected by the action selecting means. And an operation unit control means for causing the selected action to appear, wherein the appearance tendency of the one action selected by the action selection means changes according to a causal factor which changes due to the actual appearance of the action. A robot device characterized by the above-mentioned.
【請求項2】 上記原因因子取得手段は、少なくとも知
覚に関する原因因子及び動機に関する原因因子を取得す
ることを特徴とする請求項1記載のロボット装置。
2. The robot apparatus according to claim 1, wherein the causal factor acquiring means acquires at least a causal factor related to perception and a causal factor related to motive.
【請求項3】 上記原因因子取得手段は、上記動機に関
する原因因子として、少なくとも本能的要素又は情動的
要素からなるものを取得することを特徴とする請求項2
記載のロボット装置。
3. The method according to claim 2, wherein the causal factor acquiring means acquires at least an instinct element or an emotional element as the causal factor relating to the motive.
The robot device as described.
【請求項4】 上記本能的要素が、疲れ(fatigue)、
熱或いは体内温度(temperature)、痛み(pain)、食
欲或いは飢え(hunger)、乾き(thirst)、愛情(affe
ction)、好奇心(curiosity)、排泄(elimination)
又は性欲(sexual)のうちの少なくとも1つであり、上
記情動的要素が、幸せ(happiness)、悲しみ(sadnes
s)、怒り(anger)、驚き(surprise)、嫌悪(disgus
t)、恐れ(fear)、苛立ち(frustration)、退屈(bo
redom)、睡眠(somnolence)、社交性(gregariousnes
s)、根気(patience)、緊張(tense)、リラックス
(relaxed)、警戒(alertness)、罪(guilt)、悪意
(spite)、誠実さ(loyalty)、服従性(submission)
又は嫉妬(jealousy)の内の少なくとも1つであること
を特徴とする請求項3記載のロボット装置。
4. The instinct element comprises: fatigue,
Fever or body temperature, pain, appetite or hunger, thirst, affection
ction), curiosity, elimination
Or at least one of sexuality, wherein the emotional element is happiness, sadness
s), anger, surprise, disgus
t), fear, frustration, boring
redom), sleep (somnolence), sociability (gregariousnes)
s), patience, tension, relaxed, alertness, guilt, spite, spy, loyalty, submission
4. The robot apparatus according to claim 3, wherein the robot apparatus is at least one of jealousy.
【請求項5】 出現可能とされる複数の行動が階層構造
として構築され、同一グループとされる複数の下位の行
動が上位の行動の具体的な行動を示す行動選択システム
を有し、 上記出現傾向比較手段は、上記上位の行動に対応される
グループ内の複数の下位の行動について出現傾向を比較
し、 上記行動選択手段は、上記出現傾向比較手段による出現
傾向の比較結果に基づいて、一の下位の行動を選択し、 上記動作部制御手段は、上記行動選択手段が選択した行
動が最下位の行動であるときに、当該最下位の行動に基
づいて、動作部を制御することを特徴とする請求項1記
載のロボット装置。
5. An action selection system, wherein a plurality of actions that can appear are constructed as a hierarchical structure, and a plurality of lower actions in the same group indicate specific actions of an upper action. The tendency comparing means compares the appearance tendency of a plurality of lower-level actions in the group corresponding to the higher-order behavior, and the action selecting means determines one based on the comparison result of the appearance tendency by the appearance tendency comparing means. The action unit control means controls the operation unit based on the lowest action when the action selected by the action selection means is the lowest action. The robot device according to claim 1, wherein
【請求項6】 上記原因因子取得手段は、知覚に関する
原因因子及び動機に関する原因因子を取得していき、 上記出現傾向取得手段は、少なくとも最下位層の行動に
ついては、上記知覚に関する原因因子に基づいて、当該
最下位層の行動の出現傾向を取得することを特徴とする
請求項5記載のロボット装置。
6. The causal factor acquiring means acquires a causal factor relating to perception and a causal factor relating to motivation, and the appearance tendency acquiring means, at least for the behavior of the lowest layer, is based on the causal factor relating to perception. The robot apparatus according to claim 5, wherein the tendency of appearance of the behavior of the lowest layer is obtained.
【請求項7】 各行動に対応して、行動選択のための複
数のオブジェクトを有しており、 上記原因因子取得手段、上記出現傾向取得手段及び上記
行動選択手段は、各オブジェクトにより実現しているこ
とを特徴とする請求項1記載のロボット装置。
7. It has a plurality of objects for action selection corresponding to each action, and the causal factor acquisition means, the appearance tendency acquisition means, and the action selection means are realized by each object. The robot apparatus according to claim 1, wherein
【請求項8】 上記出現傾向比較手段は、比較する行動
の出現傾向の間で排他処理をして、複数の出現傾向を比
較することを特徴とする請求項1記載のロボット装置。
8. The robot apparatus according to claim 1, wherein the appearance tendency comparison means performs an exclusion process between the appearance tendencies of the actions to be compared, and compares a plurality of appearance tendencies.
【請求項9】 上記検出手段はセンサであることを特徴
とする請求項1記載のロボット装置。
9. The robot apparatus according to claim 1, wherein said detecting means is a sensor.
【請求項10】 上記原因因子取得手段は、上記センサ
が検出した外部又は内部情報とされるセンサ情報から、
行動を評価するための原因因子を取得することを特徴と
する請求項9記載のロボット装置。
10. The causal factor acquiring means, based on sensor information that is external or internal information detected by the sensor,
The robot apparatus according to claim 9, wherein a causal factor for evaluating the behavior is acquired.
【請求項11】 ロボット装置の外部又は内部情報を検
出手段により検出する情報検出工程と、 上記情報検出工程にて検出した外部又は内部情報のロボ
ット装置の行動に影響する情報とされる原因因子を取得
する原因因子取得工程と、 上記原因因子取得工程にて取得した原因因子に基づい
て、当該原因因子に影響される行動の出現傾向を取得す
る出現傾向取得工程と、 上記出現傾向取得工程にて取得した2つ以上の行動に対
応する出現傾向であって、同一グループとされる出現傾
向を比較する出現傾向比較工程と、 上記出現傾向比較工程における出現傾向の比較結果に基
づいて、一の行動を選択する行動選択工程と、 上記行動選択工程にて選択された行動に基づいて、上記
ロボット装置の動作部を制御して、当該ロボット装置に
上記選択された行動を出現させる動作部制御工程とを有
し、 上記行動選択工程にて選択された一の行動の出現傾向
は、当該行動の実際の出現により変化する原因因子に応
じて変化することを特徴とするロボット装置の行動決定
方法。
11. An information detecting step of detecting external or internal information of the robot apparatus by a detecting means, and a causal factor which is information which affects the behavior of the robot apparatus of the external or internal information detected in the information detecting step. A causal factor acquiring step to acquire, an appearance tendency acquiring step of acquiring an appearance tendency of an action affected by the causal factor based on the causal factor acquired in the causal factor acquiring step, An appearance tendency comparison step of comparing the appearance trends corresponding to the two or more acquired behaviors, wherein the appearance tendency is compared with the same group; Selecting an action, and controlling the operating unit of the robot apparatus based on the action selected in the action selecting step, and And an operation unit control step of causing the action to appear, wherein an appearance tendency of the one action selected in the action selection step changes according to a causal factor that changes due to the actual appearance of the action. A method for determining the behavior of a robot device.
【請求項12】 上記原因因子取得工程では、少なくと
も知覚に関する原因因子及び動機に関する原因因子を取
得することを特徴とする請求項11記載のロボット装置
の行動決定方法。
12. The method according to claim 11, wherein the causal factor acquiring step acquires at least a causal factor related to perception and a causal factor related to motive.
【請求項13】 上記原因因子取得工程では、上記動機
に関する原因因子として、少なくとも本能的要素又は情
動的要素からなるものを取得することを特徴とする請求
項12記載のロボット装置の行動決定方法。
13. The method according to claim 12, wherein the causal factor acquiring step acquires at least one of an instinct element or an emotional element as the causal factor relating to the motive.
【請求項14】 上記本能的要素が、疲れ(fatigu
e)、熱或いは体内温度(temperature)、痛み(pai
n)、食欲或いは飢え(hunger)、乾き(thirst)、愛
情(affection)、好奇心(curiosity)、排泄(elimin
ation)又は性欲(sexual)のうちの少なくとも1つで
あり、上記情動的要素が、幸せ(happiness)、悲しみ
(sadness)、怒り(anger)、驚き(surprise)、嫌悪
(disgust)、恐れ(fear)、苛立ち(frustration)、
退屈(boredom)、睡眠(somnolence)、社交性(grega
riousness)、根気(patience)、緊張(tense)、リラ
ックス(relaxed)、警戒(alertness)、罪(guil
t)、悪意(spite)、誠実さ(loyalty)、服従性(sub
mission)又は嫉妬(jealousy)の内の少なくとも1つ
であることを特徴とする請求項13記載のロボット装置
の行動決定方法。
14. The instinct element may include fatigue
e) heat or body temperature, pain
n), appetite or hunger, thirst, affection, curiosity, excretion
ation) or at least one of sexuality, wherein the emotional element is happiness, sadness, anger, surprise, disgust, fear. ), Frustration,
Boredom, sleep (somnolence), sociability (grega)
riousness, patience, tension, relaxed, alertness, guil
t), spite, loyalty, obedience (sub)
14. The method according to claim 13, wherein the action is at least one of a mission and a jealousy.
【請求項15】 上記ロボット装置が、出現可能とされ
る複数の行動の情報を階層構造として構築され、同一グ
ループとされる複数の下位の行動が上位の行動の具体的
な行動を示す行動選択システムを有し、 上記出現傾向取得工程では、上記上位の行動に対応され
るグループ内の複数の下位の行動について出現傾向を比
較し、 上記行動選択工程では、下位の行動の出現傾向の比較結
果に基づいて、一の下位の行動を選択し、 上記動作部制御工程では、上記行動選択工程にて選択さ
れた行動が最下位の行動であるときに、当該最下位の行
動に基づいて、ロボット装置の動作部を制御することを
特徴とする請求項11記載のロボット装置の行動決定方
法。
15. The robot apparatus according to claim 1, wherein information of a plurality of actions that can appear is constructed in a hierarchical structure, and a plurality of lower actions in the same group indicate a specific action of the upper action. In the appearance tendency acquiring step, the appearance tendency is compared for a plurality of lower behaviors in the group corresponding to the upper behavior, and in the behavior selection step, the comparison result of the appearance tendency of the lower behavior is provided. In the operation unit control step, when the action selected in the action selection step is the lowest action, the robot based on the lowest action is selected. The method for determining an action of a robot device according to claim 11, wherein the operation unit of the device is controlled.
【請求項16】 上記原因因子取得工程では、知覚に関
する原因因子及び動機に関する原因因子を取得し、 上記出現傾向取得工程では、少なくとも最下位層の行動
については、上記知覚に関する原因因子に基づいて、当
該最下位層の行動の出現傾向を取得することを特徴とす
る請求項15記載のロボット装置の行動決定方法。
16. The causal factor acquiring step acquires a causal factor relating to perception and a causal factor relating to motivation. In the appearance tendency acquiring step, at least the behavior of the lowest layer is determined based on the causal factor relating to perception. 16. The method for determining an action of a robot device according to claim 15, wherein the appearance tendency of the action of the lowest layer is acquired.
【請求項17】 ロボット装置が、各行動に対応して、
行動選択のための複数のオブジェクトを有しており、 上記原因因子取得工程、上記出現傾向取得工程及び上記
行動選択工程は、各オブジェクトにより実行されること
を特徴とする請求項11記載のロボット装置の行動決定
方法。
17. The robot apparatus according to each of the actions,
The robot apparatus according to claim 11, further comprising a plurality of objects for selecting an action, wherein the causal factor obtaining step, the appearance tendency obtaining step, and the action selecting step are executed by each object. Action decision method.
【請求項18】 上記出現傾向比較工程では、比較する
行動の出現傾向の間で排他処理をして、複数の出現傾向
を比較することを特徴とする請求項11記載のロボット
装置の行動決定方法。
18. The method according to claim 11, wherein in the appearance tendency comparison step, a plurality of appearance tendencies are compared by performing an exclusion process between the appearance tendencies of the actions to be compared. .
【請求項19】 上記検出手段がセンサであることを特
徴とする請求項11記載のロボット装置の行動決定方
法。
19. The method according to claim 11, wherein said detecting means is a sensor.
【請求項20】 上記原因因子取得工程では、上記セン
サが検出した外部又は内部情報とされるセンサ情報か
ら、行動を評価するための原因因子を取得することを特
徴とする請求項19記載のロボット装置の行動決定方
法。
20. The robot according to claim 19, wherein in the causal factor acquiring step, a causal factor for evaluating behavior is acquired from sensor information detected as external or internal information detected by the sensor. How to determine the behavior of the device.
JP2001088725A 2000-03-24 2001-03-26 Robot device and method of determining action of robot device Withdrawn JP2001334482A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001088725A JP2001334482A (en) 2000-03-24 2001-03-26 Robot device and method of determining action of robot device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-88596 2000-03-24
JP2000088596 2000-03-24
JP2001088725A JP2001334482A (en) 2000-03-24 2001-03-26 Robot device and method of determining action of robot device

Publications (1)

Publication Number Publication Date
JP2001334482A true JP2001334482A (en) 2001-12-04

Family

ID=26588559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001088725A Withdrawn JP2001334482A (en) 2000-03-24 2001-03-26 Robot device and method of determining action of robot device

Country Status (1)

Country Link
JP (1) JP2001334482A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003078113A1 (en) * 2002-03-15 2003-09-25 Sony Corporation Robot behavior control system, behavior control method, and robot device
JP2004114285A (en) * 2002-09-02 2004-04-15 Sony Corp Robotic device and its behavior control method
WO2004080665A1 (en) * 2003-03-11 2004-09-23 Sony Corporation Robot device, behavior control method thereof, and program
US7415321B2 (en) 2002-12-12 2008-08-19 Matsushita Electric Industrial Co., Ltd. Robot controller
KR101049743B1 (en) 2008-12-18 2011-07-19 한양대학교 산학협력단 How to choose the behavior of the robot
CN114303365A (en) * 2019-10-16 2022-04-08 松下电器(美国)知识产权公司 Robot, control processing method, and control processing program
EP4342558A1 (en) 2022-09-21 2024-03-27 Casio Computer Co., Ltd. Apparatus, control method for apparatus, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003078113A1 (en) * 2002-03-15 2003-09-25 Sony Corporation Robot behavior control system, behavior control method, and robot device
US7813835B2 (en) 2002-03-15 2010-10-12 Sony Corporation Robot behavior control system, behavior control method, and robot device
JP2004114285A (en) * 2002-09-02 2004-04-15 Sony Corp Robotic device and its behavior control method
US7415321B2 (en) 2002-12-12 2008-08-19 Matsushita Electric Industrial Co., Ltd. Robot controller
WO2004080665A1 (en) * 2003-03-11 2004-09-23 Sony Corporation Robot device, behavior control method thereof, and program
US7853357B2 (en) 2003-03-11 2010-12-14 Sony Corporation Robot behavior control based on current and predictive internal, external condition and states with levels of activations
KR101049743B1 (en) 2008-12-18 2011-07-19 한양대학교 산학협력단 How to choose the behavior of the robot
CN114303365A (en) * 2019-10-16 2022-04-08 松下电器(美国)知识产权公司 Robot, control processing method, and control processing program
EP4342558A1 (en) 2022-09-21 2024-03-27 Casio Computer Co., Ltd. Apparatus, control method for apparatus, and program

Similar Documents

Publication Publication Date Title
KR20020026165A (en) Method for determining action of robot and robot
KR100864339B1 (en) Robot device and behavior control method for robot device
US7117190B2 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
JP4244812B2 (en) Action control system and action control method for robot apparatus
US8483873B2 (en) Autonomous robotic life form
US6362589B1 (en) Robot apparatus
JP2005193331A (en) Robot device and its emotional expression method
EP1508409A1 (en) Robot device and robot control method
WO2001072478A1 (en) Robot device, robot device action control method, external force detecting device and external force detecting method
KR20010031909A (en) Robot apparatus, method of controlling robot apparatus, method of display, and medium
JP5227362B2 (en) Emotion engine, emotion engine system, and electronic device control method
JP2001191281A (en) Editing device, editing method, and storage medium
JP2006110707A (en) Robot device
JP2002160185A (en) Robot device, behavior controlling method for robot device and device and method for detecting external force
JP3558222B2 (en) Robot behavior control system and behavior control method, and robot device
JP2022113701A (en) Equipment control device, equipment, and equipment control method and program
JP2001334482A (en) Robot device and method of determining action of robot device
JP4296736B2 (en) Robot device
JP2003340760A (en) Robot device and robot control method, recording medium and program
JP2002205289A (en) Action control method for robot device, program, recording medium and robot device
JP2002239952A (en) Robot device, action control method for robot device, program, and recording medium
JP2001157980A (en) Robot device, and control method thereof
JP2001157979A (en) Robot device, and control method thereof
JP2001157981A (en) Robot device and control method thereof
WO2022227290A1 (en) Method for controlling virtual pet and intelligent projection device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080603