JPH11143849A - Action generation device, action generation method and action generation program recording medium - Google Patents

Action generation device, action generation method and action generation program recording medium

Info

Publication number
JPH11143849A
JPH11143849A JP9308561A JP30856197A JPH11143849A JP H11143849 A JPH11143849 A JP H11143849A JP 9308561 A JP9308561 A JP 9308561A JP 30856197 A JP30856197 A JP 30856197A JP H11143849 A JPH11143849 A JP H11143849A
Authority
JP
Japan
Prior art keywords
action
external information
goal
target
acquisition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9308561A
Other languages
Japanese (ja)
Other versions
JP3178393B2 (en
Inventor
Hirohide Ushida
牛田  博英
Yuji Hirayama
裕司 平山
Hiroshi Nakajima
宏 中嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP30856197A priority Critical patent/JP3178393B2/en
Publication of JPH11143849A publication Critical patent/JPH11143849A/en
Application granted granted Critical
Publication of JP3178393B2 publication Critical patent/JP3178393B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate an action extremely approximate to the action of a real organism by generating an autonomous action to a condition on the basis of concepts of learning, oblivion and consciousness. SOLUTION: An artificial organism model 1 is composed of an external information detection part 2, a knowledge set storage part 3, a recognition evaluation part 4, a condition storage part 5, an action plan part 6, and an operation output part 7. The knowledge set storage part 3 stores a relationship between recognition result of the external information which the external information detection part 2 detects in a process in which the artificial organism model 1 acts and a priori action target stored in advance in the knowledge set storage part 3 together with the degree of association and the degree of storage. The recognition evaluation 4 refers to, recognizes and evaluates storage contents of the knowledge set storage part 3 with regard to each of the external information. The condition storage part 5 stores evaluation result in the recognition evaluation part 4. The action plan part 6 decides an action to be executed according to evaluation results stored in the condition storage part 5 and outputs to the action output part 7.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、ロボット等の模
擬生物、及び、コンピュータシステムのディスプレイ等
に表示される仮想生物等の人工生物モデルが実行すべき
自律的な行動を生成する行動生成装置、行動生成方法及
び行動生成プログラム記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a behavior generating apparatus for generating an autonomous behavior to be executed by a simulated creature such as a robot and an artificial creature model such as a virtual creature displayed on a display of a computer system. The present invention relates to an action generation method and an action generation program recording medium.

【0002】[0002]

【従来の技術】ロボット等の模擬生物やコンピュータシ
ステムのディスプレイ等に表示される仮想生物として、
従来より外部から入力された情報に応じて自律的に行動
するようにした人工生物モデルが存在する。従来より、
この種の人工生物モデルが実行する行動を、現実の生物
の行動にできるだけ近似させる試みが多くなされてい
る。
2. Description of the Related Art As simulated creatures such as robots and virtual creatures displayed on displays of computer systems, etc.
Conventionally, there is an artificial creature model that behaves autonomously according to information input from the outside. Conventionally,
Many attempts have been made to make the behavior performed by this type of artificial creature model as close as possible to the behavior of a real creature.

【0003】ここで、現実の生物は、経験に基づく学習
により知識を獲得し、獲得した知識を状況に応じて利用
することにより、反応としての行動を行うことができる
状況を次第に増やし、多様な行動パターンを自律的に生
成する。また、現実の生物は、特定の状況に長期間にわ
たって遭遇しない場合には、その状況に対する反応行動
を忘れ、状況に対する反応が遅れたり、全く反応できな
くなる等の忘却と呼ばれる現象を生じる。さらに、現実
の生物には、反応すべき事象が同時に複数存在する場合
に自分にとって反応する価値の最も高い事象のみに対し
て行動するといった意識が存在する。
[0003] Here, the real creatures acquire knowledge through learning based on experience, and by using the acquired knowledge according to the situation, gradually increase the number of situations in which they can act as a reaction, thereby increasing the variety of situations. Generate behavior patterns autonomously. In addition, when a real creature does not encounter a particular situation for a long period of time, it forgets to react to the situation, and a phenomenon called forgetting occurs such that the response to the situation is delayed or completely unresponsive. Furthermore, in a real creature, there is a consciousness that when there are a plurality of events to be responded at the same time, the creature acts only on the event having the highest value to respond to itself.

【0004】したがって、現実の生物の行動の生成には
学習、忘却及び意識が不可欠であり、人工生物モデルの
行動を現実の生物の行動に近似させるためには、状況に
対して行うべき行動の生成過程において学習、忘却及び
意識の概念が必要となる。
Accordingly, learning, forgetting, and consciousness are indispensable for generating the behavior of a real creature, and in order to approximate the behavior of an artificial creature model to the behavior of a real creature, the behavior to be performed with respect to the situation is required. The concept of learning, forgetting and consciousness is required in the generation process.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、従来の
人工生物モデルでは、刺激としての外部状況と出力とし
ての行動との関係が予め固定的に決定されており、状況
に応じた行動を経験に基づく学習によって知識として獲
得することができないものが一般的である。また、外部
刺激や内部状態の履歴に基づいて反応パターンとしての
行動を生成するようにしたものも提案されているが、こ
の場合にも予め想定されていない状況に対しては適当な
反応パターンを生成することができない。このような場
合に、起こりうる全ての状況を予め想定することは困難
であるとともに、多数の状況を想定して記憶しておくた
めには容量の大きな記憶手段が必要で現実的でない。
However, in the conventional artificial creature model, the relationship between the external situation as a stimulus and the action as an output is fixedly determined in advance, and the action according to the situation is based on experience. What cannot be acquired as knowledge by learning is common. In addition, there has been proposed a configuration in which an action as a response pattern is generated based on a history of an external stimulus or an internal state, but also in this case, an appropriate response pattern is set for a situation not assumed in advance. Cannot be generated. In such a case, it is difficult to anticipate all possible situations in advance, and a large-capacity storage means is required to presume and store many situations, which is not practical.

【0006】また、従来の人工生物モデルでは、過去の
刺激や内部状態の履歴に基づいて反応パターンを生成す
る際に、新しい履歴データの重み値を大きくするととも
に古い履歴データの重み値を小さくすることによって反
応パターンの生成に忘却の概念を取り入れるようにした
ものがあるが、このような反応パターンの生成方法で
は、個々の刺激や内部状態に関する履歴データを保存し
ておくために容量の大きな記憶手段が必要になる問題が
ある。
Further, in the conventional artificial creature model, when generating a reaction pattern based on the past stimuli and internal state histories, the weight value of new history data is increased and the weight value of old history data is decreased. In some cases, the concept of forgetting is incorporated into the generation of reaction patterns.However, in such a method of generating a reaction pattern, a large-capacity storage is used to store history data on individual stimuli and internal states. There is a problem that requires measures.

【0007】さらに、従来の人工生物モデルでは、意識
の概念を用いて刺激に対する反応行動を生成するように
したものがなく、反応すべき事象が同時に複数存在する
場合に、全ての事象に対して反応行動を生成しようとす
る結果、処理時間が長時間化して反応行動の実行が遅れ
たり、反応行動の優先順位を決定できずに所謂デッドロ
ック状態に陥る等の問題がある。
[0007] Further, in the conventional artificial creature model, there is no technique for generating a response action to a stimulus using the concept of consciousness. As a result of trying to generate a reaction action, there is a problem that the processing time is lengthened and the execution of the reaction action is delayed, or a so-called deadlock state occurs because the priority of the reaction action cannot be determined.

【0008】この発明の目的は、学習、忘却及び意識の
概念に基づいて状況に対して自律的な行動を生成するこ
とにより、現実の生物の行動に極めて近似した行動を生
成することができる行動生成装置、行動生成方法及び行
動生成プログラム記録媒体を提供することにある。
An object of the present invention is to generate an action that is very close to the action of a real creature by generating an autonomous action for a situation based on the concepts of learning, forgetting, and consciousness. An object of the present invention is to provide a generation device, an action generation method, and an action generation program recording medium.

【0009】[0009]

【課題を解決するための手段】請求項1、9及び17に
記載した発明は、外部情報を検出し、検出した外部情報
と予め定められた複数の基本行動目標のそれぞれとの関
係を獲得行動目標として記憶し、基本行動目標又は獲得
行動目標に基づいて外部情報に対して実行すべき行動を
決定することを特徴とする。
The invention according to claims 1, 9 and 17 detects external information and acquires a relationship between the detected external information and each of a plurality of predetermined basic action targets. It is characterized in that it is stored as a goal and an action to be performed on external information is determined based on a basic action goal or an acquired action goal.

【0010】請求項1、9及び17に記載した発明にお
いては、検出した外部情報と予め定められた基本行動目
標との関係から新たな行動目標を獲得行動目標として学
習し、学習した獲得行動目標を含めた行動目標に基づい
て外部情報に対して実行すべき行動が決定される。した
がって、外部情報に対して実行すべき行動を決定するた
めの行動目標が学習により補充され、行動目標との関係
が予め定められていない外部情報に対しても実行すべき
行動が自律的に決定される。
According to the invention described in claims 1, 9 and 17, a new action goal is learned from the relationship between the detected external information and a predetermined basic action goal as an acquisition action goal. The action to be performed on the external information is determined based on the action goal including Therefore, an action target for determining an action to be performed on external information is supplemented by learning, and an action to be performed on external information whose relationship with the action target is not predetermined is determined autonomously. Is done.

【0011】請求項2、10及び18に記載した発明
は、複数の外部情報のそれぞれについて獲得行動目標を
保存すべき期間を表す記憶度を記憶し、記憶度に基づい
て各獲得行動目標を個別に消去することを特徴とする。
The invention described in claims 2, 10 and 18 stores a degree of storage indicating a period in which the acquired action target is to be stored for each of the plurality of external information, and individually stores each acquired action target based on the stored degree. It is characterized by erasing.

【0012】請求項2、10及び18に記載した発明に
おいては、学習により獲得した新たな行動目標が記憶度
に基づいて個別に消去される。したがって、新たに獲得
した行動目標の一部が消去され、外部情報に対して実行
すべき行動を決定するための行動目標が過度に保存され
ることがない。
According to the second, tenth and eighteenth aspects of the present invention, new action targets acquired by learning are individually deleted based on the degree of memory. Therefore, a part of the newly acquired action goal is not erased, and the action goal for determining the action to be performed on the external information is not excessively stored.

【0013】請求項3、11及び19に記載した発明
は、前記記憶度のそれぞれを時間経過に伴って個別に減
少することを特徴とする。
The inventions described in claims 3, 11 and 19 are characterized in that each of the storage degrees is individually reduced with the passage of time.

【0014】請求項3、11及び19に記載した発明に
おいては、時間経過にともなって減少する記憶度にした
がって獲得行動目標が個別に消去される。したがって、
外部情報に対して実行すべき行動を決定する際に、現実
の生物に生じる忘却現象が再現される。
[0014] In the inventions set forth in claims 3, 11 and 19, the acquired action targets are individually deleted according to the degree of memory that decreases with the passage of time. Therefore,
When determining an action to be performed on external information, a forgetting phenomenon that occurs in a real creature is reproduced.

【0015】請求項4、12及び20に記載した発明
は、前記記憶度のそれぞれを各外部情報についての獲得
行動目標の使用状態に応じて個別に増減することを特徴
とする。
[0015] The invention described in claims 4, 12 and 20 is characterized in that each of the storage degrees is individually increased or decreased according to the use state of the acquisition action target for each external information.

【0016】請求項4、12及び20に記載した発明に
おいては、使用状態に応じて減少する記憶度にしたがっ
て獲得行動目標が個別に消去される。したがって、外部
情報に対して実行すべき行動を決定する際に、各外部情
報の出現頻度に応じて現実の生物に生じる忘却現象がよ
り忠実に再現される。
According to the fourth, twelfth and twentieth aspects of the present invention, the acquired action targets are individually deleted in accordance with the degree of memory that decreases in accordance with the state of use. Therefore, when an action to be performed on external information is determined, a forgetting phenomenon that occurs in a real creature according to the appearance frequency of each external information is more faithfully reproduced.

【0017】請求項5、13及び21に記載した発明
は、複数の基本行動目標のそれぞれの優先順位を表す重
要度を記憶することを特徴とする。
The inventions described in claims 5, 13 and 21 are characterized in that importance levels representing the priorities of a plurality of basic action goals are stored.

【0018】請求項5、13及び21に記載した発明に
おいては、複数の基本行動目標のそれぞれの優先順位が
重要度として表される。したがって、外部情報に対して
実行すべき行動を決定する際に、複数の基本行動目標の
それぞれに付与された重要度を参照することにより、検
出した外部情報が複数の基本行動目標に関係する場合に
も、その外部情報に対して単一の行動が決定される。
In the fifth, thirteenth, and twenty-first aspects of the invention, the priority of each of the plurality of basic action goals is represented as importance. Therefore, when determining the action to be performed on the external information, the detected external information is related to the plurality of basic action goals by referring to the importance assigned to each of the plurality of basic action goals. Also, a single action is determined for the external information.

【0019】請求項6、14及び22に記載した発明
は、複数の外部情報のそれぞれについて基本行動目標と
の関連度を記憶することを特徴とする。
The invention described in claims 6, 14 and 22 is characterized in that the relevance of each of the plurality of external information with the basic action goal is stored.

【0020】請求項6、14及び22に記載した発明に
おいては、各基本行動目標に関係する複数の外部情報の
それぞれについて、その基本行動目標との関連度が付与
される。したがって、外部情報に対して実行すべき行動
を決定する際に、外部情報のそれぞれに付与された関連
度を参照することにより、同一の基本行動目標に関係す
る複数の外部情報が同時に検出された場合にも、単一の
外部情報に対する単一の行動が決定される。
In the inventions described in claims 6, 14 and 22, each of a plurality of pieces of external information related to each basic action goal is assigned a degree of association with the basic action goal. Therefore, when determining the action to be performed on the external information, by referring to the degree of relevance given to each of the external information, a plurality of external information related to the same basic action goal was detected at the same time. In some cases, a single action for a single piece of external information is determined.

【0021】請求項7、15及び23に記載した発明
は、前記関連度のそれぞれを各外部情報についての獲得
行動目標の使用状態に応じて個別に増減することを特徴
とする。
The inventions described in claims 7, 15 and 23 are characterized in that the relevance is individually increased or decreased in accordance with the use state of the acquired action target for each external information.

【0022】請求項7、15及び23に記載した発明に
おいては、各外部情報に付与された関連度が、その外部
情報についての獲得行動目標の使用状態に応じて個別に
増減される。したがって、外部情報に対して実行すべき
行動を決定する際に、外部情報のそれぞれに付与された
関連度を参照することにより、同一の基本行動目標に関
係する複数の外部情報が同時に検出された場合にも、出
現頻度の最も高い単一の外部情報に対する単一の行動が
決定される。
In the inventions described in claims 7, 15 and 23, the degree of relevance given to each piece of external information is individually increased or decreased according to the use state of the acquired action target for the external information. Therefore, when determining the action to be performed on the external information, by referring to the degree of relevance given to each of the external information, a plurality of external information related to the same basic action goal was detected at the same time. Also in this case, a single action for a single piece of external information having the highest frequency of appearance is determined.

【0023】請求項8、16及び24に記載した発明
は、前記重要度、及び、前記関連度にしたがって、検出
した複数の外部情報のいずれかを選択し、選択した外部
情報について基本行動目標又は獲得行動目標に基づいて
実行すべき行動を決定することを特徴とする。
According to the present invention, any one of a plurality of detected external information is selected according to the degree of importance and the degree of association, and a basic action target or a basic action target is selected for the selected external information. The action to be executed is determined based on the acquired action goal.

【0024】請求項8、16及び24に記載した発明に
おいては、複数の外部情報が同時に検出された際に、前
記重要度、及び、前記関連度を参照して単一の外部情報
に対して実行すべき行動が決定される。したがって、外
部情報に対して実行すべき行動を決定する際に、現実の
生物に生じる意識的な選択が模擬的に再現される。
In the invention described in claims 8, 16 and 24, when a plurality of pieces of external information are detected simultaneously, a single piece of external information is referred to by referring to the importance and the relevance. The action to be performed is determined. Therefore, when deciding the action to be performed on the external information, the conscious choice that occurs in the real creature is simulated.

【0025】[0025]

【発明の実施の形態】図1は、この発明の実施形態に係
る行動生成装置が適用される人工生物モデルの構成を示
す図である。人工生物モデル1は、アクチュエータを介
して現実世界において行動するロボット等の模擬生物、
又は、コンピュータシステムを構成するディスプレイ内
の仮想世界において行動する仮想生物である。人工生物
モデル1は、外部情報検出部2、知識設定記憶部3、認
識評価部4、状態記憶部5、行動計画部6及び動作出力
部7によって構成されている。以下に人口生物モデル1
の各部の構成及び処理内容を、 1 外部情報検出部 2 知識設定記憶部 2−1 目標記憶部 2−2 経験知識記憶部 3 認識評価部 3−1 認識部 3−2 意識レベル計算部 3−3 評価部 4 状態記憶部 4−1 外部状態記憶部 4−2 内部状態記憶部 4−2−1 内部状態起因の抽出処理 4−2−2 内部状態の更新処理 5 行動計画部 6 動作出力部 6−1 歩行動作及び方向転換 6−2 顔表情合成 6−3 音声合成 7 人工生物モデルの処理手順 の順に説明する。
FIG. 1 is a diagram showing a configuration of an artificial creature model to which a behavior generating device according to an embodiment of the present invention is applied. The artificial creature model 1 is a simulated creature such as a robot that acts in the real world via an actuator,
Or, it is a virtual creature that acts in a virtual world in a display constituting a computer system. The artificial creature model 1 includes an external information detection unit 2, a knowledge setting storage unit 3, a recognition evaluation unit 4, a state storage unit 5, an action planning unit 6, and an operation output unit 7. The following is an artificial biological model 1
1 The external information detection unit 2 Knowledge setting storage unit 2-1 Target storage unit 2-2 Experience knowledge storage unit 3 Recognition evaluation unit 3-1 Recognition unit 3-2 Consciousness level calculation unit 3 3 Evaluation unit 4 State storage unit 4-1 External state storage unit 4-2 Internal state storage unit 4-2-1 Extraction processing due to internal state 4-2-2 Update processing of internal state 5 Action planning unit 6 Action output unit 6-1 Walking motion and direction change 6-2 Facial expression synthesis 6-3 Voice synthesis 7 Processing procedure of artificial creature model

【0026】1 外部情報検出部 外部情報検出部2は、人間等の他の生物を含む外部環境
から刺激としての外部情報を検出する。この外部情報検
出部2は、例えば、CCDカメラ、マイクロフォン、振
動センサ又はマウス等の入力装置によって構成される。
1 External Information Detecting Unit The external information detecting unit 2 detects external information as a stimulus from an external environment including other living things such as human beings. The external information detection unit 2 is configured by an input device such as a CCD camera, a microphone, a vibration sensor, or a mouse.

【0027】2 知識設定記憶部 知識設定記憶部3は、図2に示すように、先天的行動目
標を記憶する目標記憶部11、及び、後天的行動目標を
記憶する経験知識記憶部12によって構成されている。
2. Knowledge Setting Storage Unit The knowledge setting storage unit 3 includes, as shown in FIG. 2, a goal storage unit 11 for storing innate action goals and an empirical knowledge storage unit 12 for storing acquired action goals. Have been.

【0028】2−1 目標記憶部 目標記憶部11は、人工生物モデル1に生得的に備わっ
ている目標や欲求に疑似する行動目標を、この発明の基
本行動目標である先天的行動目標として記憶する。この
先天的行動目標は、人工生物モデル1の製造時に予め設
定されるとともに、飼い主であるユーザにおいて初期的
に設定するようにしてもよい。
2-1 Goal Storage Unit The goal storage unit 11 stores a goal inherently included in the artificial creature model 1 or an action goal that simulates a desire as an innate action goal which is a basic action goal of the present invention. I do. The innate behavior target may be set in advance when the artificial creature model 1 is manufactured, and may be initially set by the user who is the owner.

【0029】目標記憶部11に記憶される先天的行動目
標には、人工生物モデル1が特定の刺激や物体を取得し
ようとする取得行動目標と、人工生物モデル1が特定の
刺激や物体を避けようとする回避行動目標と、がある。
先天的行動目標としては、例えば、 目標1:「撫でられる触覚刺激を取得する」 目標2:「光刺激を取得する」 目標3:「叩かれる触覚刺激を回避する」 目標4:「飲食物を取得する」 目標5:「飼い主の喜びを取得する」 目標6:「飼い主の怒りを回避する」 目標7:「飼い主の悲しみを回避する」 があり、目標1、2、4、5が取得目標であり、目標
3、6、7が回避目標である。このように取得目標及び
回避目標を設定しておくことにより、取得目標が達成さ
れるか紛糾するかに応じて人工生物モデル1に喜び又は
怒りの表情を出力させることができ、回避目標が達成さ
れるか紛糾するかに応じて人工生物モデル1に安堵又は
嫌悪の表示を出力させることができる。
The innate behavioral goals stored in the goal storage unit 11 include an acquisition behavioral goal for the artificial creature model 1 to acquire a specific stimulus and an object, and an artificial behavioral model 1 for avoiding the specific stimulus and the object. There is an avoidance action goal to be attempted.
Examples of the innate behavioral goals are, for example, Goal 1: “Acquire a tactile stimulus that is stroked” Goal 2: “Acquire a light stimulus” Goal 3: “Avoid tactile stimuli that are hit” Goal 4: “Avoid food and drink Goal 5: Acquire the owner's joy Goal 6: Avoid the anger of the owner Goal 7: Avoid the sadness of the owner Goals 1, 2, 4, and 5 , And goals 3, 6, and 7 are avoidance goals. By setting the acquisition target and the avoidance target in this manner, the expression of joy or anger can be output to the artificial creature model 1 depending on whether the acquisition target is achieved or confused. The display of relief or disgust can be output to the artificial creature model 1 depending on whether it is done or disputed.

【0030】目標記憶部11は、先天的行動目標のそれ
ぞれについて重要度を記憶する。この重要度は、複数の
先天的行動目標の相互間の優先順位を定めたものであ
り、各先天的行動目標に固定的又は可変的に設定され
る。重要度の設定値を変化させる場合には、例えば、入
力を時間、出力を重要度とするsin関数等の周期関数
を用いて経時的に変化させることが考えられる。
The goal storage unit 11 stores the importance of each of the innate action goals. This importance defines a priority order among a plurality of innate action goals, and is fixedly or variably set for each of the innate action goals. When changing the set value of the importance, for example, it is conceivable to change the value over time using a periodic function such as a sine function in which the input is time and the output is the importance.

【0031】このように、各先天的行動目標の優先順位
を表す重要度を経時的に変化させることにより、同一の
刺激に対して人工生物モデル1が行う行動が時系列的に
変化し、現実の生物の行動に現れる「気紛れ」を再現す
ることができる。
As described above, by changing the importance indicating the priority of each innate action target over time, the action performed by the artificial creature model 1 with respect to the same stimulus changes in a time-series manner. It can reproduce the "freaky" that appears in the behavior of other living things.

【0032】2−2 経験知識記憶部 経験知識記憶部12は、図5に示すように、人工生物モ
デル1が行動する過程において外部情報検出部2が検出
した外部情報の認識結果と目標記憶部11に記憶されて
いる先天的行動目標との関係を、この発明の獲得行動目
標である後天的行動目標として記憶する。
2-2 Experience Knowledge Storage Unit The experience knowledge storage unit 12 stores the recognition result of the external information detected by the external information detection unit 2 and the target storage unit as shown in FIG. 11 is stored as an acquired behavior goal, which is the acquired behavior goal of the present invention.

【0033】経験知識記憶部12は、外部情報のそれぞ
れについて関連度及び記憶度を記憶する。関連度は、
“0”〜“1”の範囲の値をとり、各外部情報と先天的
行動目標との関連性を表し、正の関連度と負の関連度と
が存在する。
The experience knowledge storage unit 12 stores the degree of association and the degree of storage for each piece of external information. The relevance is
It takes a value in the range of “0” to “1” and represents the relevance between each piece of external information and the innate action goal, and has a positive relevance and a negative relevance.

【0034】正の関連度が付された外部情報は、先天的
行動目標の達成に貢献する。例えば、図5において、
「撫でられる触覚刺激を取得する」という先天的行動目
標1に対して色1には“0.7”の正の関連度が付与さ
れており、撫でられた時に人工生物モデル1が色1を検
出したことを示している。正の関連度は、各外部情報が
属する先天的行動目標が達成された際に同一の外部情報
が認識されている場合に“0.1”増加され、各外部情
報が属する先天的行動目標が達成された際に同一の外部
情報が認識されていない場合に“0.1”減少される。
External information with a positive degree of association contributes to achievement of the innate action goal. For example, in FIG.
The color 1 is given a positive relevance of “0.7” to the innate action goal 1 of “acquiring a tactile stimulus to be stroked”, and the artificial creature model 1 changes the color 1 when stroked. Indicates that detection was performed. The positive relevance is increased by “0.1” when the same external information is recognized when the innate action goal to which each piece of external information belongs is achieved, and the innate action goal to which each piece of external information belongs is increased. If the same external information is not recognized when it is achieved, “0.1” is reduced.

【0035】負の関連度が付された外部情報は、先天的
行動目標の達成を紛糾させる。例えば、図5において、
「叩かれる触覚刺激を回避する」という先天的行動目標
3に対して音3には“0.4”の負の関連度が付与され
ており、叩かれた時に人工生物モデル1が音3を検出し
たことを示している。負の関連度は、各外部情報が属す
る先天的行動目標が紛糾した際に同一の外部情報が認識
されている場合に“0.1”増加され、各外部情報が属
する先天的行動目標が紛糾した際に同一の外部情報が認
識されていない場合に“0.1”減少される。
External information to which a negative degree of relevance is attached confuses achievement of the innate action goal. For example, in FIG.
The sound 3 is given a negative relevance of “0.4” to the innate action target 3 of “avoiding the tactile stimulus being hit”, and the artificial creature model 1 generates the sound 3 when hit. Indicates that detection was performed. The negative relevance is increased by “0.1” when the same external information is recognized when the innate behavioral goal to which each piece of external information belongs is confused, and the innate behavioral goal to which each piece of external information belongs is intensified. If the same external information is not recognized at this time, the value is reduced by "0.1".

【0036】記憶度は、“0”〜“1”の範囲の値をと
り、各外部情報について先天的行動目標との関係を消去
すべき時期の決定に用いられる。即ち、外部情報が経験
知識記憶部12に新たに記憶された時の記憶度を“1”
として、時間経過にともなって減少させ、関連度の増加
にともなって増加させる。そして、記憶度の値が“0”
になった時に、その外部情報を経験知識記憶部12の記
憶内容から消去する。この記憶度は、現実の生物の行動
に現れる「忘却」を再現するために使用することができ
る。即ち、記憶度が大きい外部情報に対する反応を早く
し、記憶度が小さい外部情報に対する反応を遅くする。
また、記憶度が“0”になればその外部情報に対して反
応しなくなる。なお、記憶度により外部情報の保存期間
を定めることにより、記憶すべき外部情報の総数を削減
し、メモリの記憶容量を減少することができる。
The degree of storage takes a value in the range of "0" to "1", and is used to determine when to delete the relationship between each external information and the innate action target. That is, the storage degree when the external information is newly stored in the experience knowledge storage unit 12 is “1”.
As time elapses, it is decreased, and as the degree of association is increased, it is increased. Then, the value of the memory degree is “0”
, The external information is deleted from the stored contents of the experience knowledge storage unit 12. This memory can be used to reproduce the "forgetting" that appears in the behavior of real life creatures. That is, the response to the external information having a large memory is accelerated, and the response to the external information having a small memory is delayed.
Further, when the storage degree becomes "0", the memory does not respond to the external information. By determining the storage period of the external information based on the degree of storage, the total number of external information to be stored can be reduced, and the storage capacity of the memory can be reduced.

【0037】目標記憶部11及び経験知識記憶部12の
記憶内容は、後述する認識評価部4から状態記憶部5に
出力される評価出力リストに基づいて更新される。評価
出力リストは図8に示すように、目標、状態、対象、方
向、新規性、重要度、関連度、関連方向及び適合度の各
欄によって構成されている。
The contents stored in the target storage unit 11 and the experience knowledge storage unit 12 are updated based on an evaluation output list output from the recognition evaluation unit 4 to the state storage unit 5 described later. As shown in FIG. 8, the evaluation output list includes columns for a goal, a state, an object, a direction, novelty, importance, a degree of association, an associated direction, and a degree of conformity.

【0038】目標欄には、目標記憶部11に記憶されて
いるいずれかの先天的行動目標が記述される。状態欄に
は目標欄に記載された先天的行動目標が、達成した、紛
糾した、達成しそう、又は、紛糾しそうのいずれの状態
であるかが記述される。対象欄には、認識された単一又
は複数の外部情報の種類が記述される。方向欄には、外
部情報検出部3を構成するCCDカメラの撮像画面にお
ける外部情報の重心の座標値が記述される。
In the goal column, any of the innate action goals stored in the goal storage unit 11 is described. The status column describes whether the innate action goal described in the goal column is in an achieved, confused, likely to achieve, or confused state. In the target column, the type of recognized single or plural external information is described. In the direction column, the coordinate value of the center of gravity of the external information on the imaging screen of the CCD camera constituting the external information detection unit 3 is described.

【0039】新規性欄には、目標欄に記述されている先
天的行動目標と対象欄に記述されている外部情報との関
係が新規であるか否かが記述される。重要度欄には、目
標欄に記述されている先天的行動目標の重要度が記述さ
れる。関連度欄には、対象欄に記述されている外部情報
の関連度が記述され、新規な外部情報の場合には中間値
“0.5”が記述される。関連方向欄には、目標が達成
された場合には「正」が、目標が紛糾した場合には
「負」が記述される。適合度欄には、対象欄に記述され
ている外部情報の認識時の適合度が記述される。
The novelty column describes whether or not the relationship between the innate action goal described in the goal column and the external information described in the target column is new. The importance column describes the importance of the innate action goal described in the goal column. The relevance column describes the relevance of the external information described in the target column. In the case of new external information, an intermediate value “0.5” is described. In the related direction column, "positive" is described when the goal is achieved, and "negative" is described when the goal is confused. The relevance column describes the relevance at the time of recognizing the external information described in the target column.

【0040】図8に示す評価出力リストは、状態記憶部
5において保存される。経験知識記憶部12は、状態記
憶部5に保存されている評価出力リストを参照し、状態
欄の記述内容が「達成した」又は「紛糾した」である場
合に、目標欄に記述されている先天的行動目標に属する
記憶内容を更新する。
The evaluation output list shown in FIG. The experience knowledge storage unit 12 refers to the evaluation output list stored in the state storage unit 5 and, if the description content of the state column is “achieved” or “confused”, is described in the goal column. Update the memory contents belonging to the innate action goal.

【0041】即ち、新規性欄の記述内容が「YES」で
ある場合には関連度欄に記述されている“0.5”を付
して対象欄に記述されている外部情報を新たに記憶し、
新規性欄の記述内容が「NO」である場合には対象欄に
記述されている外部情報の関連度及び記憶度を“0.
1”増加する。また、目標欄に記述されている先天的行
動目標に属する外部情報のうち、対象欄に記述されてい
ない外部情報の関連度を“0.1”減少する。
That is, when the description content of the novelty column is "YES", the external information described in the target column is newly stored with "0.5" described in the relevance column. And
If the description content of the novelty column is “NO”, the relevance and storage of the external information described in the target column are set to “0.
In addition, among the external information belonging to the innate action goal described in the target column, the relevance of the external information not described in the target column is reduced by “0.1”.

【0042】3 認識評価部 認識評価部4は、図3に示すように、外部情報検出部2
が検出した外部情報を認識する認識部31、認識した外
部情報の関連度とその外部情報が属する先天的行動目標
の重要度とに基づいてその外部情報を無視するか否かを
判断するための意識度を算出する意識レベル計算部3
2、及び、算出した意識度に基づいて各外部情報を意識
するか否かの評価を行う評価部33によって構成され
る。
3. Recognition Evaluation Unit The recognition evaluation unit 4 includes, as shown in FIG.
A recognizing unit 31 for recognizing the detected external information, for determining whether to ignore the external information based on the relevance of the recognized external information and the importance of the innate action target to which the external information belongs. Awareness level calculator 3 that calculates the consciousness level
2, and an evaluation unit 33 for evaluating whether or not each external information is conscious based on the calculated consciousness level.

【0043】3−1 認識部 認識部31は、外部情報検出部2が検出した外部情報を
認識する。認識部31は、外部情報検出部2を構成する
入力装置に応じて、例えば、振動認識部、光認識部、色
認識部、個人顔認識部、飼い主感情認識部、音声認識
部、マウス操作認識部及び仮想世界認識部等によって構
成される。
3-1 Recognition Unit The recognition unit 31 recognizes the external information detected by the external information detection unit 2. The recognition unit 31 is, for example, a vibration recognition unit, a light recognition unit, a color recognition unit, an individual face recognition unit, an owner emotion recognition unit, a voice recognition unit, a mouse operation recognition, depending on the input device configuring the external information detection unit 2. And a virtual world recognition unit.

【0044】振動認識部は、外部情報検出部2の振動セ
ンサからの入力を用いて、飼い主が人工生物モデル1を
撫でているか、叩いているかを認識する。即ち、飼い主
が人工生物モデル1を撫でている場合には、振動センサ
が検出する振動の振幅は比較的小さく、単位時間当りの
信号回数が多くなる。また、飼い主が人工生物モデル1
を叩いている場合には、振動センサが検出する振動の振
幅は比較的大きく、単位時間当りの信号回数が少なくな
る。振動認識部は、振動センサから入力される振幅デー
タ及び周波数データに基づいて、例えば、図6に示すフ
ァジィルールを用いたファジィ推論により、飼い主が撫
でているか叩いているかの適合度を出力する。この外部
情報は、先天的行動目標と直接的に関係しており、撫で
られたと認識した場合には「撫でられる触覚刺激を取得
する」という先天的行動目標が達成され、叩かれた場合
には「叩かれる触覚刺激を回避する」という先天的行動
目標が紛糾したことになる。
The vibration recognizing unit uses the input from the vibration sensor of the external information detecting unit 2 to recognize whether the owner strokes or hits the artificial creature model 1. That is, when the owner strokes the artificial creature model 1, the amplitude of the vibration detected by the vibration sensor is relatively small, and the number of signals per unit time increases. The owner is an artificial creature model 1
Is hit, the amplitude of the vibration detected by the vibration sensor is relatively large, and the number of signals per unit time decreases. The vibration recognition unit outputs, based on the amplitude data and the frequency data input from the vibration sensor, for example, by fuzzy inference using a fuzzy rule shown in FIG. 6, whether or not the owner is stroking or hitting. This external information is directly related to the innate behavioral goal, and when the stroke is recognized, the innate behavioral goal of "obtaining a tactile stimulus to be stroked" is achieved, and when it is struck, The innate action goal of "avoiding the tactile stimulus being hit" has been confused.

【0045】光認識部は、外部情報検出部3のCCDカ
メラの視野内の画素のうち、所定数以上の画素によって
構成される画素集団の平均明度が閾値を越えるか否かを
判断する。光認識部は、この判断において平均明度が閾
値を越えている場合に、認識結果の適合度である画素集
団の画素数、及び、画素集団の座標値を出力する。この
外部情報は先天的行動目標と直接的に関係しており、光
認識部が光を認識した場合には、「光刺激を取得する」
という先天的行動目標が達成されたことになる。
The light recognizing unit determines whether or not the average brightness of a pixel group composed of a predetermined number or more of pixels in the field of view of the CCD camera of the external information detecting unit 3 exceeds a threshold value. When the average lightness exceeds the threshold value in this determination, the light recognition unit outputs the number of pixels of the pixel group and the coordinate value of the pixel group, which are the degrees of matching of the recognition results. This external information is directly related to the innate behavioral goal, and when the light recognition unit recognizes the light, "acquire a light stimulus"
That is to say, the innate action goal has been achieved.

【0046】色認識部は、いずれかの先天的行動目標が
達成又は紛糾した際に、外部情報検出部3のCCDカメ
ラが撮像している連続画像のうちの所定数のフレーム間
の差分を求め、差分の小さい部分を背景として除去す
る。また、画像中の肌色部分は人間の顔や腕と見做して
除去し、残りの部分を人間が着用している衣服と判断
し、この部分において画素数が最も多い色を検出し、検
出した色について加色混合の3原色であるRGBのそれ
ぞれの強度値を抽出する。
The color recognition section calculates a difference between a predetermined number of frames in a continuous image taken by the CCD camera of the external information detection section 3 when any of the innate action goals is achieved or confused. , A portion having a small difference is removed as a background. Also, the skin color portion in the image is removed by considering it as a human face or arm, and the remaining portion is determined as clothes worn by humans, and the color having the largest number of pixels in this portion is detected and detected. The intensity values of RGB, which are the three primary colors of the additive color mixture, are extracted for the extracted colors.

【0047】色認識部は、衣服の色から抽出したRGB
のそれぞれの強度値から、RGBのそれぞれについて、
例えば、図7に示す三角波関数であるメンバシップ関数
を作成して登録しておき、新たに検出した色から抽出し
たRGBのそれぞれの強度値について登録メンバシップ
関数における適合度を求め、得られた3つの適合度のう
ちの最小値が予め定められた閾値以上である場合にはそ
の適合度を出力し、閾値未満である場合には適合度とし
て“0”を出力する。また、新たにメンバシップ関数を
作成して登録する場合には適合度として“1”を出力す
る。色認識部は、適合度とともに衣服と判断した画像の
重心の座標値を出力する。
The color recognizing unit performs the RGB extraction from the color of the clothes.
From each intensity value of, for each of RGB
For example, a membership function, which is a triangular wave function shown in FIG. 7, is created and registered, and the fitness in the registered membership function is obtained for each of the RGB intensity values extracted from the newly detected color. When the minimum value of the three conformances is equal to or greater than a predetermined threshold, the conformity is output. When the minimum value is less than the threshold, “0” is output as the conformity. When a new membership function is created and registered, "1" is output as the matching degree. The color recognizing unit outputs the coordinates of the center of gravity of the image determined to be clothing, along with the degree of matching.

【0048】なお、色認識部は、RGBのそれぞれの強
度値が各メンバシップ関数の幅Mw内に含まれる複数の
色については類似色とし、中心値Mcを移動させること
により1組のメンバシップ関数を使用する。これによっ
て、登録するメンバシップ関数の数を削減して必要な記
憶容量を減少することができる。
Note that the color recognizing unit sets a plurality of colors whose RGB intensity values are within the width Mw of each membership function to be similar colors, and shifts the central value Mc to form one set of membership values. Use functions. As a result, the number of membership functions to be registered can be reduced, and the required storage capacity can be reduced.

【0049】この色認識部の処理により、外部情報の検
出結果の履歴に基づいて特定の色に対して反応する人工
生物モデル1を作成することができる。例えば、赤い衣
服を着用した人が人工生物モデル1を叩いた場合、「叩
かれる触覚刺激を回避する」という先天的行動目標が紛
糾したことになり、赤色を認識するためのメンバシップ
関数が作成される。また、「叩かれる触覚刺激を回避す
る」という先天的行動目標についての負の関連度が付与
された赤色の外部情報が経験知識記憶部12に記憶され
る。次に赤い衣服を着用した人が人工生物モデル1に近
づくと、色認識部において外部情報として赤色の衣服が
認識され、「叩かれる触覚刺激を回避する」という先天
的行動目標について赤色に付与された負の関連度に基づ
いて、人工生物モデル1が、恐怖の表情を示したり、遠
ざかる方向に移動する等の行動をとることができる。
By the processing of the color recognizing unit, the artificial creature model 1 reacting to a specific color can be created based on the history of the detection result of the external information. For example, if a person wearing red clothing hits the artificial creature model 1, the innate action goal of "avoiding the tactile stimulus being hit" was confused, and a membership function for recognizing red was created. Is done. In addition, the external knowledge storage unit 12 stores red external information to which a negative association degree with respect to the innate action goal of “avoiding a tactile stimulus being hit” is added. Next, when the person wearing the red clothing approaches the artificial creature model 1, the red clothing is recognized as external information in the color recognition unit, and is given to the red for the innate action goal of "avoid tactile stimulus being hit". Based on the negative degree of association, the artificial creature model 1 can take an action such as expressing a fear expression or moving in a direction away from the creature.

【0050】また、光刺激を受けようとして人工生物モ
デル1が光源方向に移動中に、人工生物モデル1と光源
との間に青い物体が割り込んで光源の光を遮った場合に
は、「光刺激を取得する」という先天的行動目標が青い
物体によって紛糾したことになり、青色を認識するため
のメンバシップ関数が作成されるとともに、「光刺激を
取得する」という先天的行動目標についての負の関連度
が付与された青色の外部情報が経験知識記憶部12に記
憶される。次に外部情報として青色が認識された場合に
は、「光刺激を取得する」という先天的行動目標につい
て青色に付与された負の関連度に基づいて、人工生物モ
デル1が、怒りの表情を示したり、攻撃する等の行動を
とることができる。
In the case where a blue object interrupts between the artificial creature model 1 and the light source while the artificial creature model 1 is moving in the direction of the light source to receive the light stimulus, the light of the light source is interrupted. The innate behavioral goal of "obtaining stimulus" was confused by the blue object, and a membership function for recognizing blue color was created. Is stored in the empirical knowledge storage unit 12. Next, when blue is recognized as external information, the artificial creature model 1 generates an expression of anger based on the negative degree of association given to blue for the innate action goal of “acquiring light stimulation”. It can take actions such as showing and attacking.

【0051】個人顔認識部は、先天的行動目標が達成又
は紛糾した際に、外部情報検出部3のCCDカメラの視
野内に存在する人間の個人顔を登録又は認識する。CC
Dカメラの撮像した画像から個人顔を抽出する方法とし
ては、例えば、「コンピュータによる顔の認識」(赤松
茂、電子情報通信学会論文誌、D-II,Vol.J80-D- II,No.
8,pp.2031-2046,1997)や「顔画像照合による解錠制御
システム」(土居元紀、陳謙、千原國宏他、電子情報通
信学会論文誌、D-II,Vol.J80-D- II, No.8,pp.2203-220
8,1997)等を用いることができる。
The personal face recognizing unit registers or recognizes a human personal face present in the field of view of the CCD camera of the external information detecting unit 3 when the innate behavioral goal is achieved or confused. CC
As a method of extracting a personal face from an image captured by a D-camera, for example, “face recognition by computer” (Shigeru Akamatsu, Transactions of the Institute of Electronics, Information and Communication Engineers, D-II, Vol.J80-D-II, No.
8, pp.2031-2046,1997) and "Unlocking Control System by Face Image Matching" (Genki Doi, Ken Chen, Kunihiro Chihara et al., IEICE Transactions, D-II, Vol.J80-D-II) , No.8, pp.2203-220
8,1997) can be used.

【0052】個人顔認識部は、認識結果の適合度を出力
し、認識した顔に適合する顔が登録されていない場合に
は適合度“0”を出力する。また、新たに登録する場合
の適合度は“1”とする。適合度が所定の閾値を越える
場合には、認識した個人顔のCCDカメラが撮像した画
面における座標値を出力する。
The individual face recognizing unit outputs the degree of conformity of the recognition result, and outputs a degree of conformity “0” when no face matching the recognized face is registered. Also, the degree of conformity when newly registering is “1”. If the fitness exceeds a predetermined threshold, the coordinate value of the recognized individual face on the screen captured by the CCD camera is output.

【0053】この個人顔識別部の処理により、外部情報
の検出結果の履歴に基づいて特定の個人顔に対して反応
する人工生物モデル1を作成することができる。例え
ば、外部情報検出部3のCCDカメラの視野内にいる人
が人工生物モデル1を撫でた場合、「撫でられる感覚刺
激を取得する」という先天的行動目標が達成されたこと
になり、その人の個人顔が抽出されて登録され、「撫で
られる感覚刺激を取得する」という先天的行動目標につ
いての正の関連度を付与した個人顔が経験知識記憶部1
2に記憶される。次にCCDカメラが撮像した画像から
同一の個人顔が抽出された場合には、「撫でられる感覚
刺激を取得する」という先天的行動目標についてその個
人顔に付与された正の関連度に基づいて、人工生物モデ
ル1が、喜びの表情を示したり、その人に近づく方向に
移動する等の行動をとることができる。
By the processing of the individual face identification unit, the artificial creature model 1 that responds to a specific individual face can be created based on the history of the detection result of the external information. For example, when a person in the field of view of the CCD camera of the external information detection unit 3 strokes the artificial creature model 1, the innate action goal of "acquiring a stroked sensory stimulus" has been achieved, and the person The personal face is extracted and registered, and the personal face to which a positive degree of relevance to the innate action goal of “acquiring a stroked sensory stimulus” is added to the experience knowledge storage unit 1
2 is stored. Next, when the same individual face is extracted from the image captured by the CCD camera, based on the positive degree of association given to the individual face with respect to the innate action target of “obtaining a stroked sensory stimulus” The artificial creature model 1 can take an action such as showing an expression of joy or moving in a direction approaching the person.

【0054】飼い主感情認識部は、飼い主の顔の表情や
声の調子に基づいて、飼い主の感情を認識し、認識され
た飼い主の感情、及び、適合度を出力する。飼い主感情
認識部の処理により、「飼い主の喜びを取得する」、
「飼い主の怒りを回避する」及び「飼い主の悲しみを回
避する」等の先天的行動目標が達成されたか、又は、紛
糾したかを認識することができ、人工生物モデル1は、
飼い主の近くに存在する物体や刺激が飼い主の感情に与
える影響を認識することができる。例えば、特定の物体
が存在する時に飼い主の喜びの感情を認識した場合、次
に飼い主の悲しみの感情を認識した際に、人工生物モデ
ル1がその物体を飼い主の近くに移動させる等の行動を
とることができる。
The owner's emotion recognition unit recognizes the owner's emotion based on the facial expression of the owner and the tone of the voice, and outputs the recognized owner's emotion and fitness. By the processing of the owner's emotion recognition unit, "acquire the owner's joy",
It is possible to recognize whether innate behavioral goals such as "avoid owner's anger" and "avoid owner's sadness" have been achieved or distracted, and the artificial creature model 1
It is possible to recognize the effects of objects and stimuli existing near the owner on the emotions of the owner. For example, if the owner recognizes the joy of the owner when the specific object is present, and then recognizes the sadness of the owner, the artificial creature model 1 performs an action such as moving the object closer to the owner. Can be taken.

【0055】なお、顔表情を認識する方法としては、例
えば、「連続出力確率密度分布を用いたHMMによる動
画像からの複数人物の表情認識」(大塚尚宏、大谷淳、
中津良平、電子情報通信学会論文誌、D-II,Vol.J80-D-I
I , No.8,pp.2129-2137,1997)等を用いることができ
る。また、人の音声から感情を認識する方法としては、
例えば、特開平5−12023号に開示されている感情
認識装置の構成等を用いることができる。さらに、顔表
情と音声とから感情を認識する方法としては、例えば、
「顔画像と音声を併用した対話者の心情抽出の検討」
(助川寛、岩野裕利、白井克彦、電子情報通信学会技術
報告、PRU94-109,1885)等を用いることができる。
As a method of recognizing facial expressions, for example, “Recognition of facial expressions of a plurality of persons from a moving image by HMM using continuous output probability density distribution” (Naohiro Otsuka, Jun Ohtani,
Ryohei Nakatsu, IEICE Transactions, D-II, Vol.J80-DI
I, No. 8, pp. 2129-2137, 1997) and the like. Also, as a method of recognizing emotion from human voice,
For example, the configuration of an emotion recognition device disclosed in Japanese Patent Application Laid-Open No. 5-12023 can be used. Further, as a method of recognizing emotions from facial expressions and voices, for example,
"Examination of emotions of interlocutor using face image and voice"
(Hiroshi Sukekawa, Hirotoshi Iwano, Katsuhiko Shirai, IEICE Technical Report, PRU94-109, 1885) can be used.

【0056】音声認識部は、先天的行動目標が達成又は
紛糾した際に外部情報検出部3のマイクロフォンから入
力される音声を認識及び登録する。音声認識の方法とし
て、線形予測分析により求められるLPCケプストラム
係数を音声特徴量として用いることができる。例えば、
20次の線形予測分析を行った場合の特徴量は20次元
ベクトルとなる。これらの特徴量に対するメンバシップ
関数を前述の色認識部の処理におけるメンバシップ関数
と同様にして作成する。
The voice recognition unit recognizes and registers the voice input from the microphone of the external information detection unit 3 when the innate action goal is achieved or confused. As a speech recognition method, an LPC cepstrum coefficient obtained by linear prediction analysis can be used as a speech feature amount. For example,
The feature value when the twentieth-order linear prediction analysis is performed is a 20-dimensional vector. A membership function for these features is created in the same manner as the membership function in the above-described processing of the color recognition unit.

【0057】音声認識部は、前述の色認識部と同様に、
閾値処理後の適合度を出力する。また、新たに登録され
る音声の適合度は“1”とする。この音声認識部は、2
本のマイクロフォンを備え、各マイクロフォンが集音し
た音声の強度の中心位置を求めることにより、音源の方
向を認識する。
The voice recognition unit, like the color recognition unit described above,
Output the fitness after the threshold processing. Also, the matching degree of newly registered voice is “1”. This voice recognition unit is
A microphone is provided, and the direction of the sound source is recognized by determining the center position of the intensity of the sound collected by each microphone.

【0058】この音声認識部の処理により、外部情報の
検出結果の履歴に基づいて特定の音声に対して反応する
人工生物モデル1を作成することができる。例えば、あ
る人が特定の音声を発声しながら人工生物モデル1を叩
いた場合、「叩かれる触覚刺激を回避する」という先天
的行動目標が紛糾したことになり、その音声を認識する
ためのメンバシップ関数が作成されるとともに、「叩か
れる触覚刺激を回避する」という先天的行動目標につい
ての負の関連度を付与した音声が外部情報として経験知
識記憶部12に記憶される。次に同じ音声を認識した場
合に、「叩かれる触覚刺激を回避する」という先天的行
動目標についてその音声に負の関連度が付与されている
ことから、人工生物モデル1が、怒りの表情を示した
り、音源から離れる方向に移動する等の行動をとること
ができる。
By the processing of the voice recognition unit, the artificial creature model 1 that responds to a specific voice can be created based on the history of the detection result of the external information. For example, if a person hits the artificial creature model 1 while uttering a specific sound, the innate action goal of "avoiding the tactile stimulus being hit" is confused, and the member for recognizing the sound is confused. A ship function is created, and a voice with a negative degree of association with the innate action goal of “avoiding a tactile stimulus being hit” is stored in the experience knowledge storage unit 12 as external information. Next, when the same voice is recognized, the artificial creature model 1 expresses the expression of anger because the voice has a negative association degree with respect to the innate action goal of “avoiding a tactile stimulus being hit”. It is possible to take an action such as indicating or moving away from the sound source.

【0059】マウス操作認識部は、コンピュータシステ
ムのディスプレイ画面内において画像によって表現され
た仮想世界で行動する人工生物モデルにおいて、飼い主
によるマウスの操作内容を認識する。例えば、マウスの
操作によりディスプレイ内のカーソルを人工生物モデル
1の表示位置に移動してマウスボタンをクリックするこ
とにより、人工生物モデル1を叩くという行為を表現す
ることができる。また、ディスプレイ内のカーソルを人
工生物モデル1の表示位置に移動した後、マウスボタン
をクリックしながらカーソルを複数回往復移動させるこ
とにより、人工生物モデル1を撫でるという行為を表現
することができる。
The mouse operation recognition unit recognizes the operation of the mouse by the owner in an artificial creature model that behaves in a virtual world represented by an image on the display screen of the computer system. For example, an act of hitting the artificial creature model 1 by operating the mouse to move the cursor in the display to the display position of the artificial creature model 1 and clicking the mouse button can be expressed. Further, after the cursor in the display is moved to the display position of the artificial creature model 1, the act of stroking the artificial creature model 1 can be expressed by reciprocating the cursor a plurality of times while clicking the mouse button.

【0060】マウス操作認識部は、マウスの操作によっ
て人工生物モデル1が撫でられたか、又は、叩かれたか
の適合度を出力し、いずれの操作もない場合には適合度
“0”を出力する。例えば、撫でるという行為について
は、10往復を最大値としてカーソルの往復移動回数を
計数し、“0”〜“1”の範囲で正規化した適合度を出
力する。また、叩くという行為については、10回を最
大値としてマウスボタンのクリック回数を計数し、
“0”〜“1”の範囲で正規化した適合度を出力する。
The mouse operation recognizing unit outputs the fitness of whether the artificial creature model 1 is stroked or hit by the operation of the mouse, and outputs the fitness “0” when there is no operation. For example, for the act of stroking, the number of reciprocating movements of the cursor is counted with the maximum value being 10 reciprocations, and the degree of conformity normalized in the range of “0” to “1” is output. For the act of tapping, the number of clicks of the mouse button is counted with the maximum value of 10 times,
The degree of conformity normalized in the range of “0” to “1” is output.

【0061】このマウス操作認識部の処理により、外部
情報の検出結果の履歴に基づいてマウスの操作に対して
反応する人工生物モデル1を作成することができる。例
えば、マウスの操作によって叩く行為が行われた場合に
は、「叩かれる触覚刺激を回避する」という先天的行動
目標が紛糾したことになり、「叩かれる触覚刺激を回避
する」という先天的行動目標についての負の関連度を付
与したマウス操作が経験知識記憶部12に記憶される。
次に、カーソルが人工生物モデル1に接近する方向に移
動した場合に、人工生物モデル1が、怒りの表情を示し
たり、カーソルから遠ざかる方向に移動する等の行動を
とることができる。
By the processing of the mouse operation recognition unit, it is possible to create the artificial creature model 1 that responds to mouse operation based on the history of the detection result of the external information. For example, if a tapping action is performed by operating a mouse, the innate action goal of "avoiding the tactile stimulus being hit" is confused, and the innate action of "avoiding the tactile stimulus being hit" is confused. The mouse operation provided with the negative degree of association with the target is stored in the experience knowledge storage unit 12.
Next, when the cursor moves in a direction approaching the artificial creature model 1, the artificial creature model 1 can take an action such as showing an expression of anger or moving in a direction away from the cursor.

【0062】仮想世界認識部は、コンピュータシステム
においてディスプレイの画面内等に構成される仮想世界
の物体を認識し、物体の形状等の適合度及び物体の座標
値を出力する。
The virtual world recognizing section recognizes an object in the virtual world formed in the screen of the display or the like in the computer system and outputs the degree of conformity of the shape of the object and the coordinate values of the object.

【0063】3−2 意識レベル計算部 意識レベル計算部32は、現実の生物が持つ意識という
概念を人工生物モデル1において疑似的に再現する。即
ち、現実の生物は、感覚器官から入力される全ての刺激
や物体を意識して行動するわけではなく、自分に直接関
係しない対象に対しては注意を向けない。これは、現実
の生物において脳の処理速度や短期記憶の容量には限界
があり、全ての対象に注意を向けていると生命に関わる
ような重要な対象に対する処理が遅れて生命の危険に瀕
する場合があるからである。
3-2 Consciousness Level Calculator The consciousness level calculator 32 simulates the concept of consciousness of a real creature in the artificial creature model 1. That is, a real creature does not behave consciously of all stimuli and objects input from sensory organs, and does not pay attention to objects not directly related to itself. This means that in real life, the processing speed of the brain and the capacity of short-term memory are limited, and if attention is paid to all objects, processing of important objects such as life-threatening will be delayed and endangered This is because there are cases.

【0064】人工生物モデル1においても、計算処理速
度や記憶容量には限界があり、認識部が認識した外部情
報の全てについて処理を行うこととすると、刺激に対す
る反応としての行動をとるまでに長時間を要する場合が
あり、また、複数の対象に対する処理のいずれを優先す
るかを決定できずにデッドロック状態に陥る場合があ
る。そこで、意識レベル計算部は、複数の外部情報のそ
れぞれが人工生物モデル1の行動目標にどの程度関連し
ているのかを計算し、複数の外部情報のそれぞれに優先
順位を定めることにより、反応行動をとるまでの時間を
短時間化するとともに、デッドロックを防止する。
In the artificial creature model 1 as well, there is a limit in the calculation processing speed and the storage capacity. If processing is performed for all the external information recognized by the recognition unit, it takes a long time to take an action as a response to a stimulus. It may take time, and it may not be possible to determine which of the processes for a plurality of targets has priority. Therefore, the consciousness level calculation unit calculates how much each of the plurality of external information is related to the action goal of the artificial creature model 1 and determines the priority order for each of the plurality of external information, thereby obtaining the reaction behavior. In addition to shortening the time taken to take a deadlock, a deadlock is prevented.

【0065】意識レベル計算部32は、認識部から入力
される複数の認識結果、及び、経験知識記憶部12の記
憶内容に基づいて、認識されたそれぞれの外部情報につ
いての意識レベルを、次式によって算出する。
The consciousness level calculation unit 32 calculates the consciousness level of each recognized external information based on the plurality of recognition results input from the recognition unit and the contents stored in the experience knowledge storage unit 12 as follows: Is calculated by

【0066】(意識レベル)=(適合度)×(関連度)
×(記憶度)×(重要度) ここに、適合度、関連度、記憶度及び重要度は、いずれ
も前述した処理において決定される。
(Consciousness level) = (degree of conformity) × (degree of association)
× (memory) × (importance) Here, the relevance, the relevance, the memory, and the importance are all determined in the above-described processing.

【0067】また、仮想物体についての意識レベルは、
次式によって算出する。
The consciousness level of the virtual object is
It is calculated by the following equation.

【0068】(意識レベル)=(人工生物モデルから仮
想物体までの距離)×(関連度)×(記憶度)×(重要
度) 但し、経験知識記憶部12に記憶されていない新たな刺
激(外部情報又は仮想物体)に対する意識レベルは
“1”とする。また、目標記憶部11に記憶されている
先天的行動目標に直接関連する刺激についての関連度及
び記憶度は“1”とする。さらに、1つの刺激が複数の
先天的行動目標に属する場合には、各先天的行動目標に
ついて意識レベルを算出し、算出した意識レベルの最大
値をその刺激の意識レベルとする。
(Consciousness level) = (distance from artificial creature model to virtual object) × (relevance) × (memory) × (importance) where new stimuli not stored in experience knowledge storage unit 12 ( The consciousness level for external information or a virtual object) is “1”. In addition, the degree of association and the degree of storage of the stimulus directly related to the innate behavioral goal stored in the goal storage unit 11 are “1”. Further, when one stimulus belongs to a plurality of innate action goals, the consciousness level is calculated for each of the innate action goals, and the maximum value of the calculated consciousness level is set as the consciousness level of the stimulus.

【0069】意識レベル計算部32は、認識された全て
の刺激についての意識レベルに対して閾値処理を行い、
所定の閾値以上の意識レベルを持つ刺激を意識上の対象
として出力する。
The consciousness level calculator 32 performs threshold processing on the consciousness levels of all recognized stimuli,
A stimulus having a consciousness level equal to or higher than a predetermined threshold is output as a conscious object.

【0070】3−3 評価部 評価部33は、意識レベル計算部32から出力された意
識上の対象がどの先天的行動目標に関連するかを評価
し、その評価結果を図8に示した評価出力リストとして
出力する。
3-3 Evaluation Unit The evaluation unit 33 evaluates which innate action goal the conscious object output from the consciousness level calculation unit 32 relates to, and evaluates the evaluation result as shown in FIG. Output as output list.

【0071】評価出力リストの出力方法は、意識上の対
象に応じて3種類の方法がある。即ち、意識上の対象
が、先天的行動目標と直接関係する対象である場合、既
に登録済の対象である場合、及び、未登録の対象である
場合のそれぞれにおいて、評価出力リストの出力方法が
異なる。
There are three types of output methods of the evaluation output list depending on the conscious object. That is, when the conscious target is a target directly related to the innate behavioral goal, an already registered target, and an unregistered target, the output method of the evaluation output list is different. different.

【0072】意識上の対象が先天的行動目標と直接関係
する対象である場合には、評価出力リストの目標欄には
意識上の対象が直接関係する先天的行動目標の番号、及
び、取得目標であるか回避目標であるかの種別が、状態
欄には目標を達成したか紛糾したかの種別が、それぞれ
記述される。また、対象欄には、先天的行動目標と直接
関係する対象が記述され、人工生物モデル1が現実世界
に存在するロボットである場合には振動1(撫でる)、
振動2(叩く)、光刺激又はユーザ感情のいずれかが記
述され、仮想世界に存在する仮想生物の場合にはさらに
飲食物が含まれる。方向欄には、対象欄の記述内容が光
刺激である場合における光源の座標値、仮想生物の場合
には物体の座標値が記述される。新規性欄には“NO”
が、重要度欄には目標欄の記述内容に対応した重要度
が、それぞれ記述される。また、関連度欄には“1”
が、関連方向欄には目標の達成/紛糾の別に応じて正/
負が、適合度欄には認識結果の適合度が、それぞれ記述
される。
When the conscious object is an object directly related to the innate action goal, the number of the innate action goal to which the conscious object is directly related, And the type of avoidance target, and the status column describes the type of achievement or confused. In the target column, a target directly related to the innate behavioral target is described. If the artificial creature model 1 is a robot existing in the real world, vibration 1 (stroke),
Either vibration 2 (slap), light stimulation or user emotion is described, and in the case of a virtual creature existing in the virtual world, food and drink are further included. In the direction column, the coordinate value of the light source when the description content of the target column is a light stimulus, and in the case of a virtual creature, the coordinate value of the object is described. "NO" in the novelty column
However, in the importance column, the importance corresponding to the content described in the target column is described. Also, "1" is displayed in the relevance column.
However, in the related direction column, the positive /
In the negative column, the relevance column describes the relevance of the recognition result.

【0073】意識上の対象が経験知識記憶部12に既に
登録されている対象である場合であって、目標と直接関
係する対象である場合には、評価出力リストの目標欄に
は意識上の対象が直接関係する先天的行動目標の番号、
及び、取得目標であるか回避目標であるかの種別が、状
態欄には目標を達成したか紛糾したかの種別が、それぞ
れ記述される。目標と直接関係する対象でない場合に
は、目標欄にはその対象が属する先天的行動目標の番
号、及び、取得目標であるか回避目標であるかの種別
が、状態欄には関連度の正/負に応じて「達成しそう」
/「紛糾しそう」が、それぞれ記述される。既に登録済
の対象である意識上の対象が複数の先天的行動目標に属
する場合には、関連度が最大の先天的行動目標について
記述され、複数の先天的行動目標についての関連度も等
しい場合には記憶度が最大の先天的行動目標について記
述され、複数の先天的行動目標についての記憶度も等し
い場合には目標の番号の小さい方の先天的行動目標につ
いて記述される。
When the conscious object is an object already registered in the experience knowledge storage unit 12 and is an object directly related to the target, the consciousness target is displayed in the target column of the evaluation output list. The number of the innate goal that the subject is directly related to,
In addition, the type of whether the target is the acquisition target or the avoidance target is described, and the type of whether the target is achieved or confused is described in the state column. If the target is not directly related to the target, the target column indicates the number of the innate action target to which the target belongs, and the type of whether the target is an acquisition target or an avoidance target, and the status column indicates whether the degree of association is positive. / "It seems to be achieved" according to negative
/ "Less likely to be confused" is described respectively. If the registered conscious object belongs to more than one congenital action goal, the most relevant congenital action goal is described, and the relevance for multiple congenital action goals is also equal. Describes the innate action goal with the greatest memory, and if the memories of a plurality of innate action goals are equal, the innate action goal with the smaller goal number is described.

【0074】一例として、先天的行動目標と直接関係す
る意識上の対象が存在し(例えば、叩かれた場合)、か
つ、別の意識上の対象として色1(図5参照)が存在す
る場合について説明すると、この場合、図5を参照すれ
ば、色1は先天的行動目標1(撫でられる触覚刺激を取
得)に関連するという知識は既にあるが、今回は、先天
的行動目標3(叩かれる触覚刺激を回避)に関連する外
部情報として認識されるため、評価出力リストの目標欄
には「3(回避)」が、状態欄には「紛糾した」が、対
象欄には「色1」が、方向欄には色1の重心座標値が、
新規性欄には「YES」が、重要度欄には先天的行動目
標3の重要度が、関連度欄には新たな外部情報の関連度
「0.5」が、関連方向欄には「負」が、適合度欄には
色1についての認識結果における適合度が、それぞれ記
述される。
As an example, when there is a conscious object directly related to the innate behavioral goal (for example, when struck) and when another conscious object is color 1 (see FIG. 5) In this case, referring to FIG. 5, there is already the knowledge that the color 1 is related to the innate action target 1 (obtains a tactile stimulus to be stroked). Of the evaluation output list, “3 (avoidance)” is displayed in the target column, “confused” in the status column, and “color 1” in the target column of the evaluation output list. ], The barycentric coordinate value of color 1 in the direction column,
"YES" is shown in the novelty column, the importance of the innate action goal 3 is shown in the importance column, the relevance "0.5" of the new external information is shown in the relevance column, and "relevance" is shown in the "relation direction" column. “Negative” is described in the relevance column as the relevance in the recognition result for color 1.

【0075】一方、先天的行動目標と直接関係する意識
上の対象が存在せず、意識上の対象として色1のみが存
在する場合、図5を参照すると色1は先天的行動目標1
(撫でられる触覚刺激を取得)に正の関連度を有するた
め、色1を認識したことは「先天的行動目標1を達成し
そうである」と解釈する。この解釈に基づき、評価出力
リストの目標欄には「1(取得)」が、状態欄には「達
成しそう」が、対象欄には「色1」が、方向欄には色1
の重心座標が、新規性欄には「NO」が、重要度欄には
先天的行動目標1の重要度(図5の例では0.8)が、
関連度欄には新たな外部情報の関連度(図5の例では
0.8)が、関連方向欄には「正」が、適合度欄には色
1についての認識結果における適合度が、それぞれ記述
される。
On the other hand, when there is no conscious object directly related to the innate action goal and only the color 1 exists as the conscious object, referring to FIG.
(Acquisition of a tactile stimulus to be stroked) has a positive relevance, so that recognizing color 1 is interpreted as "achieving congenital action goal 1". Based on this interpretation, “1 (acquisition)” is displayed in the target column of the evaluation output list, “achieved” in the status column, “color 1” in the target column, and color 1 in the direction column.
Of the center of gravity, "NO" in the novelty column, the importance of the innate action goal 1 (0.8 in the example of FIG. 5) in the importance column,
In the relevance column, the relevance of the new external information (0.8 in the example of FIG. 5), “positive” in the relevance direction column, and the relevance in the recognition result of color 1 in the relevance column, Each is described.

【0076】意識上の対象が未登録の対象である場合で
あって、その意識上の対象が直接関係する先天的行動目
標がある場合には、評価出力リストの目標欄にはその意
識上の対象が直接関係する先天的行動目標の番号及び種
別が、状態欄には達成/紛糾の別が、それぞれ記述され
る。対象欄には、今回認識された意識上の対象の種類と
整理番号が記述され、例えば、既に色5が登録されてい
る場合には色6が記述される。方向欄には今回認識され
た意識上の対象の座標値が、新規性欄には「YES」
が、重要度欄には目標欄に記述した先天的行動目標の重
要度が、関連度欄には新たな外部情報の関連度「0.
5」が、関連方向欄には状態欄に記述した達成/紛糾の
別に応じて「正」/「負」が、適合度欄には今回認識さ
れた意識上の対象についての認識結果における適合度
が、それぞれ記述される。
When the conscious object is an unregistered object and there is an innate action goal directly related to the conscious object, the target column of the evaluation output list contains the conscious object. The number and type of the innate action goal directly related to the target are described in the status column, and the status of achievement / conflict is described in the status column. In the target column, the type and reference number of the conscious target recognized this time are described. For example, if the color 5 is already registered, the color 6 is described. In the direction column, the coordinate value of the conscious object recognized this time, and in the novelty column, “YES”
However, in the importance column, the importance of the innate action goal described in the goal column is shown, and in the relevance column, the relevance “0.
"5", "positive" / "negative" in the relevant direction column according to the achievement / conflict described in the status column, and the relevance column in the recognition result of the conscious object recognized this time in the relevance column. Are described respectively.

【0077】なお、意識上の対象が未登録の対象である
場合であって、その意識上の対象が直接関係する先天的
行動目標がない場合には、評価出力リストは作成しな
い。
If the conscious object is an unregistered object and there is no innate action goal directly related to the conscious object, the evaluation output list is not created.

【0078】人工生物モデル1が仮想世界に存在する場
合には、評価部33とともに仮想世界評価部が設けられ
る。仮想世界評価部は、仮想世界の状態を評価し、図8
に示した評価出力リストを作成する。ここに、仮想世界
の状態とは、仮想世界に存在する仮想物体の状態、及
び、仮想世界の人工生物モデルの行動を意味し、例え
ば、「人工生物モデルBが自分に食料を譲った」(例
1)、「人工生物Cが自分を叩いた」(例2)、「人工
生物Cが自分に近づいた」(例3)等である。
When the artificial creature model 1 exists in the virtual world, a virtual world evaluation unit is provided together with the evaluation unit 33. The virtual world evaluation unit evaluates the state of the virtual world and
Create the evaluation output list shown in. Here, the state of the virtual world means the state of the virtual object existing in the virtual world and the behavior of the artificial creature model of the virtual world. For example, “the artificial creature model B has given food to itself” ( Example 1), "Artificial creature C hit himself" (Example 2), "Artificial creature C approaches himself" (Example 3), and the like.

【0079】以下に、例1〜3の場合に仮想世界評価部
が作成する評価出力リストについて説明する。
The evaluation output list created by the virtual world evaluation unit in the cases of Examples 1 to 3 will be described below.

【0080】例1の場合 「人工生物モデルBが自分に食料を譲った」ことを認識
すると、「飲食物を取得する」という先天的行動目標4
が達成されたと判断し、評価出力リストの目標欄には
「4(取得)」が、状態欄には「達成した」が、対象欄
には「人工生物モデルB」が、方向欄には人工生物モデ
ルBの座標値が、新規性欄には人工生物モデルBが未登
録か否かに応じて「YES」又は「NO」が、重要度欄
には目標欄の記述内容である先天的行動目標4の重要度
が、関連度欄には新規性欄の「YES」/「NO」に応
じて「0.5」又は経験知識記憶部12に記憶している
関連度が、関連方向欄には「正」が、適合度欄には
「1」が、それぞれ記述される。
In the case of Example 1, upon recognizing that “artificial creature model B has given food to itself”, the innate action target 4 of “obtaining food and drink” is obtained.
Is determined, “4 (acquired)” is displayed in the target column of the evaluation output list, “achieved” in the status column, “artificial creature model B” is displayed in the target column, and artificial The coordinate value of the biological model B, "YES" or "NO" in the novelty column according to whether or not the artificial biological model B has not been registered, and the innate behavior which is the description content of the target column in the importance column. The importance of the goal 4 is set to “0.5” according to “YES” / “NO” in the novelty column in the relevance column, or the relevance stored in the experience knowledge storage unit 12 is set in the relevant direction column. Is described as "correct", and "1" is described in the fitness column.

【0081】例2の場合 「人工生物Cが自分を叩いた」ことを認識すると、「叩
かれる触覚刺激を回避する」という先天的行動目標3が
紛糾したと判断し、評価出力リストの目標欄には「3
(回避)」が、状態欄には「紛糾した」が、対象欄には
「人工生物モデルC」が、方向欄には人工生物モデルC
の座標値が、新規性欄には人工生物モデルCが未登録か
否かに応じて「YES」又は「NO」が、重要度欄には
目標欄の記述内容である先天的行動目標3の重要度が、
関連度欄には新規性欄の「YES」/「NO」に応じて
「0.5」又は経験知識記憶部12に記憶している関連
度が、関連方向欄には「負」が、適合度欄には「1」
が、それぞれ記述される。
In the case of Example 2, upon recognizing that "artificial creature C hit itself", it is determined that the innate action goal 3 of "avoid touching tactile stimulation" has been confused, and the target column of the evaluation output list "3
(Avoidance) "," confused "in the status column," artificial creature model C "in the target column, and artificial creature model C in the direction column.
In the novelty column, “YES” or “NO” is displayed in the novelty column according to whether or not the artificial creature model C is not registered. In the importance column, the innate action target 3 which is the description content of the target column is displayed. The importance is
In the association degree column, "0.5" according to "YES" / "NO" in the novelty column or the association degree stored in the experience knowledge storage unit 12, and in the association direction column, "negative" matches. "1" in the degree column
Are described respectively.

【0082】例2の後に例3が生じた場合 「人工生物Cが自分を叩いた」ことを認識した後に「人
工生物Cが自分に近づいた」ことを認識すると、評価出
力リストの目標欄には「3(回避)」が、状態欄には
「紛糾しそう」が、対象欄には「人工生物モデルC」
が、方向欄には人工生物モデルCの座標値が、新規性欄
には「NO」が、重要度欄には先天的行動目標3の重要
度が、関連度欄には経験知識記憶部12に記憶している
関連度が、関連方向欄には「負」が、適合度欄には
「1」が、それぞれ記述される。このように記述された
評価出力リストに基づいて、人工生物モデル1は人工生
物モデルCに叩かれるのではないかという不安を生じた
り、人工生物モデルCから遠ざかる方向に移動する等の
行動をとる。
When Example 3 Occurs After Example 2 After recognizing that "artificial creature C hit yourself" after recognizing that "artificial creature C hit yourself", the target column of the evaluation output list is displayed. Is "3 (avoiding)", "Confuses" in the status column, and "artificial creature model C" in the target column.
In the direction column, the coordinate value of the artificial creature model C, in the novelty column, “NO”, in the importance column, the importance of the innate action goal 3, and in the relevance column, is stored the experience knowledge storage unit 12. Is described in the related direction column, and "1" is described in the matching degree column. Based on the evaluation output list described in this manner, the artificial creature model 1 takes an anxiety that the artificial creature model C will be hit by the artificial creature model C, or moves in a direction away from the artificial creature model C. .

【0083】4 状態記憶部 状態記憶部5は、図4に示すように、外部状態記憶部4
1及び内部状態記憶部42によって構成されている。
4. State Storage Unit The state storage unit 5, as shown in FIG.
1 and an internal state storage unit 42.

【0084】4−1 外部状態記憶部 外部状態記憶部41は、認識評価部4において作成され
た評価出力リストを一時的に格納する。外部状態記憶部
41に格納された評価出力リストは、内部状態記憶部4
2、知識設定記憶部3、行動計画部6及び動作出力部7
によって参照される。
4-1 External State Storage Unit The external state storage unit 41 temporarily stores the evaluation output list created by the recognition evaluation unit 4. The evaluation output list stored in the external state storage unit 41 is stored in the internal state storage unit 4.
2. Knowledge setting storage unit 3, action planning unit 6, and operation output unit 7.
Referenced by

【0085】4−2 内部状態記憶部 内部状態記憶部42は、現実の生物である人間の感情や
気分に相当する心情を、人工生物モデル1において模擬
的に再現する。即ち、喜び、怒り、悲しみ、嫌悪、恐怖
等の感情を再現する。ここで、感情とは高い覚醒レベル
における短期的な心の状態を言い、気分とは低い覚醒レ
ベルにおける長期的な心の状態を言う。感情の発生は、
人間がおかれている状況に依存して変化する。例えば、
「心の計算理論」(往住彰文著)によれば、喜びの感情
は目標が達成された時に発生し、悲しみの感情は目標が
紛糾した時に発生する。また、その他の感情も、目標や
嗜好その他の要因の状態に応じて発生し、変化する。気
分は、喜びや悲しみの状態が低い覚醒レベルで持続す
る。
4-2 Internal State Storage Unit The internal state storage unit 42 simulates, in the artificial creature model 1, emotions corresponding to the emotions and moods of human beings, which are real creatures. That is, emotions such as joy, anger, sadness, disgust, and fear are reproduced. Here, emotion refers to a short-term mental state at a high alertness level, and mood refers to a long-term mental state at a low alertness level. The generation of emotions
It changes depending on the situation where the human being is. For example,
According to Theory of Computational Theory (by Akira Fumi), emotions of pleasure occur when goals are achieved, and emotions of sadness occur when goals are confounded. Other emotions also occur and change depending on the state of goals, preferences, and other factors. Mood persists at low levels of alertness with joy and sadness.

【0086】このような考えに基づいて、内部状態記憶
部42は、認識評価部から出力された評価出力リストの
内容にしたがって、人工生物モデル1の感情の状態を、
内部状態起因の抽出処理、及び、内部状態の更新処理に
より、更新的に記憶する。
Based on this idea, the internal state storage unit 42 determines the state of the emotion of the artificial creature model 1 according to the contents of the evaluation output list output from the recognition evaluation unit.
It is updated and stored by the extraction process due to the internal state and the update process of the internal state.

【0087】4−2−1 内部状態起因の抽出処理 内部状態を更新するための起因として、目標の達成度、
紛糾度を設定する。また、目標が達成しそうな場合の期
待度、目標が紛糾しそうな場合の不安度を設定する。こ
れら、達成度、紛糾度、期待度及び不安度をファジィ推
論を用いて求める。このファジィ推論に用いるファジィ
ルールの一例を図9に示す。なお、期待度及び不安度に
ついては、1ステップ前のものをファジィ推論の入力と
して用いる。ファジィ推論に用いるファジィルール、メ
ンバシップ関数等のパラメータを個々に設定することに
より、人工生物モデルに個性を与えることができる。
4-2-1 Extraction Process Due to Internal State As a cause for updating the internal state, the degree of achievement of the target,
Set the degree of dispute. In addition, the degree of expectation when the goal is likely to be achieved and the degree of anxiety when the goal is likely to be confused are set. The degree of achievement, degree of dispute, degree of expectation, and degree of anxiety are determined using fuzzy inference. FIG. 9 shows an example of a fuzzy rule used for the fuzzy inference. As for the degree of expectation and the degree of anxiety, a value one step before is used as an input of fuzzy inference. Individuality can be given to the artificial creature model by individually setting parameters such as fuzzy rules and membership functions used for fuzzy inference.

【0088】4−2−2 内部状態の更新処理 内部状態は人間の感情や気分を模擬的に再現するもので
あるため、ファジィ推論により感情強度の増加量を算出
する。ファジィ推論に用いるファジィルールの一例を図
10に示す。ファジィルール及びメンバシップ関数等の
パラメータを個々に設定することにより、人工生物モデ
ルに個性を与えることができる。
4-2-2 Internal State Update Process Since the internal state is to simulate the emotions and moods of human beings, the amount of increase in the emotional intensity is calculated by fuzzy inference. FIG. 10 shows an example of fuzzy rules used for fuzzy inference. By individually setting parameters such as fuzzy rules and membership functions, individuality can be given to the artificial creature model.

【0089】それぞれの感情強度Eiは、次式により算
出することができる。
Each emotion intensity Ei can be calculated by the following equation.

【0090】[0090]

【数1】 (Equation 1)

【0091】減衰量γは、感情強度が“0”から正の値
になった時点で正の方向に増加し始め、感情強度が
“0”以下になった時点で“0”に戻る。感情強度が所
定の閾値以上である場合に、感情強度が最大の感情及び
強度を行動計画部22及び動作出力部6に出力する。
The attenuation amount γ starts to increase in the positive direction when the emotion intensity becomes a positive value from “0”, and returns to “0” when the emotion intensity becomes “0” or less. When the emotion intensity is equal to or higher than a predetermined threshold, the emotion and intensity having the maximum emotion intensity are output to the action planning unit 22 and the operation output unit 6.

【0092】算出した感情強度を、その値が減衰量γに
よって“0”になるまで、長期的な内部状態として保存
することにより、現実生物である人間の気分という心情
を人工生物モデル1において模擬的に再現する。なお、
影響度Wjを個々に設定することにより、人工生物モデ
ルに個性を与えることができる。
By storing the calculated emotion intensity as a long-term internal state until the value becomes “0” due to the attenuation γ, the feeling of human mood as a real creature is simulated in the artificial creature model 1. Reproduce it. In addition,
By individually setting the degree of influence Wj, individuality can be given to the artificial creature model.

【0093】5 行動計画部 行動計画部6は、知識設定記憶部3の記憶内容、評価出
力リスト、及び、感情に基づいて、人工生物モデル1が
実行すべき行動を計画する。行動を計画する際には、例
えば、図11に示す行動規則を参照する。複数の行動規
則が当てはまる場合には、重要度が最大である目標に関
する行動規則を選択する。行動計画部6の出力は、「近
づく」、「遠ざかる」、「威嚇する」等の行動名称と行
動の対象とからなる。
5 Action Planning Unit The action planning unit 6 plans an action to be executed by the artificial creature model 1 based on the contents stored in the knowledge setting storage unit 3, the evaluation output list, and the emotion. When planning an action, for example, the action rules shown in FIG. 11 are referred to. If a plurality of behavior rules apply, the behavior rule for the goal with the highest importance is selected. The output of the action plan unit 6 includes an action name such as “approach”, “away”, “intimidating”, and the action target.

【0094】6 動作出力部 動作出力部7は、行動計画部6の出力、及び、状態記憶
部5が記憶する評価出力リストと感情に基づいて、人工
生物モデル1の行動を出力する。動作出力部7が出力す
る行動としては、例えば、歩行動作、方向転換、顔表情
の合成、及び、音声合成等がある。
6 Action Output Unit The action output unit 7 outputs the action of the artificial creature model 1 based on the output of the action planning unit 6 and the evaluation output list and emotion stored in the state storage unit 5. The actions output by the action output unit 7 include, for example, a walking action, a change of direction, synthesis of facial expressions, and voice synthesis.

【0095】6−1 歩行動作及び方向転換 人工生物モデル1が現実世界に存在する模擬生物である
場合には、例えば、サーボモータを用いたアクチュエー
タによって歩行動作及び方向転換を実現する。歩行動作
の進行方向は、行動計画部6の出力と評価出力リストの
座標値とに基づいて決定する。例えば、行動計画が「対
象に近づく」であり、対象がCCDカメラの視野の左側
にある場合には進行方向を左側に変えて進み、対象がC
CDカメラの視野の右側にある場合には進行方向を右側
に変えて進むことにより、人工生物モデル1を対象に近
づけることができる。また、行動計画が「対象から逃げ
る」であり、対象がCCDカメラの視野の左側にある場
合には進行方向を右側に変えて進み、対象がCCDカメ
ラの視野の右側にある場合には進行方向を左側に変えて
進むことにより、人工生物モデル1を対象から遠ざける
ことができる。
6-1 Walking Motion and Direction Change When the artificial creature model 1 is a simulated creature existing in the real world, the walking motion and the direction change are realized by, for example, an actuator using a servomotor. The traveling direction of the walking motion is determined based on the output of the behavior planning unit 6 and the coordinate values of the evaluation output list. For example, when the action plan is “to approach the target” and the target is on the left side of the field of view of the CCD camera, the traveling direction is changed to the left side, and
When it is on the right side of the visual field of the CD camera, the artificial creature model 1 can be brought closer to the target by changing the traveling direction to the right and proceeding. When the action plan is “escape from the target”, the traveling direction is changed to the right when the target is on the left side of the field of view of the CCD camera, and the traveling direction is set when the target is on the right side of the field of view of the CCD camera. Is changed to the left, and the artificial creature model 1 can be kept away from the target.

【0096】対象が音源の場合にも、人工生物モデル1
が現在向いている方向に対して音源が左右いずれ側に存
在するかの情報に基づいて進行方向を決定する。また行
動計画が「威嚇する」である場合には、対象の方向に前
進と後退とを繰り返しながら、「怒り」の顔表情と音声
とを出力する。
When the target is a sound source, the artificial creature model 1
Determines the traveling direction based on information on whether the sound source is present on the left or right side of the current direction. When the action plan is “threatening”, the face expression and voice of “anger” are output while repeating forward and backward movements in the direction of the target.

【0097】方向転換は、左右のサーボモータの出力を
変化させることによって実現できる。即ち、左側に方向
転換する場合には右側のサーボモータの出力を左側のサ
ーボモータの出力よりも大きくし、右側に方向転換する
場合には左側のサーボモータの出力を右側のサーボモー
タの出力よりも大きくする。
The direction change can be realized by changing the outputs of the left and right servomotors. That is, when turning to the left, the output of the right servomotor is made larger than the output of the left servomotor, and when turning to the right, the output of the left servomotor is made higher than the output of the right servomotor. Also increase.

【0098】人工生物モデル1が仮想世界に存在する仮
想生物である場合には、例えば、コンピュータアニメー
ションのソフトウェアを用いて行動を表現し、ディスプ
レイ画面に表示する。
When the artificial creature model 1 is a virtual creature existing in a virtual world, the action is expressed using, for example, computer animation software and displayed on a display screen.

【0099】6−2 顔表情合成 顔表情は、行動計画部6からの出力、及び、状態記憶部
5が記憶する感情に基づいて合成される。また、感情強
度に応じて合成する表情の程度を調整する。例えば、行
動計画が「威嚇する」である場合には怒りの顔表情を合
成し、状態記憶部5において「喜び」の感情強度が所定
の閾値を越えた場合に喜びの顔表情を合成する。
6-2 Face Expression Synthesis Face expressions are synthesized based on the output from the action planning section 6 and the emotions stored in the state storage section 5. Also, the degree of facial expression to be synthesized is adjusted according to the emotion intensity. For example, when the action plan is “intimidating”, the facial expression of anger is synthesized, and when the emotion intensity of “joy” exceeds a predetermined threshold in the state storage unit 5, the facial expression of joy is synthesized.

【0100】人工生物モデル1が現実世界に存在する模
擬生物である場合には、例えば、「顔ロボット」(原文
雄、小林宏、丹下明、遠藤弘毅、日本機械学会大1会JS
MEロボメカ・シンポジア講演論文集、pp.77-84,1996 )
等により、アクチュエータの動作によって顔表情を作成
する。
When the artificial creature model 1 is a simulated creature existing in the real world, for example, a “face robot” (Fumio Hara, Hiroshi Kobayashi, Akira Tange, Hiroki Endo, Japan Society of Mechanical Engineers 1st JS)
ME Robotome Symposia Proceedings, pp.77-84, 1996)
Thus, a facial expression is created by the operation of the actuator.

【0101】人工生物モデル1が仮想世界に存在する仮
想生物である場合には、例えば、目、口、眉等の顔部品
画像を感情と感情強度とに応じて準備しておき、コンピ
ュータアニメーションのソフトウェアを用いて合成し、
ディスプレイ画面に表示する。
When the artificial creature model 1 is a virtual creature existing in the virtual world, for example, face part images such as eyes, mouths, eyebrows, etc. are prepared according to the emotion and the emotion intensity, and the computer animation is prepared. Synthesized using software,
Display on the display screen.

【0102】6−3 音声合成 音声は、行動計画部6からの出力、状態記憶部5が記憶
する感情に基づいて合成される。また、感情強度に応じ
て合成する音声の大きさを調整する。例えば、行動計画
が「逃げる」である場合には悲鳴を合成し、状態記憶部
5に記憶する「喜び」の感情強度が所定の閾値を越えた
際に喜びの音声を合成する。合成した音声はスピーカを
介して出力される。
6-3 Speech Synthesis Speech is synthesized based on the output from the action planning unit 6 and the emotion stored in the state storage unit 5. In addition, the volume of the synthesized voice is adjusted according to the emotion intensity. For example, when the action plan is “escape”, a scream is synthesized, and when the emotion intensity of “joy” stored in the state storage unit 5 exceeds a predetermined threshold, a voice of joy is synthesized. The synthesized voice is output via a speaker.

【0103】7 人工生物モデルの処理手順 以上のように構成された人工生物モデル1の処理手順
を、図12のフローチャートに示す。人工生物モデル1
は、外部情報検出部2が外部情報を検出するまで、行動
計画部6及び動作出力部7の動作によって移動及び停止
をランダムに繰り返す(s1,s2)。外部情報検出部
2が外部情報を検出すると、認識評価部4の認識部31
により外部情報検出部2が検出した外部情報を認識する
処理を行い(s3)、認識した外部情報について意識レ
ベル計算部32において意識レベルの計算を行う(s
4)。
7. Processing Procedure of Artificial Organism Model The processing procedure of the artificial creature model 1 configured as described above is shown in the flowchart of FIG. Artificial creature model 1
Until the external information detection unit 2 detects the external information, the movement and the stop are randomly repeated by the actions of the action planning unit 6 and the operation output unit 7 (s1, s2). When the external information detection unit 2 detects the external information, the recognition unit 31 of the recognition evaluation unit 4
Performs the process of recognizing the external information detected by the external information detection unit 2 (s3), and calculates the consciousness level in the consciousness level calculation unit 32 for the recognized external information (s3).
4).

【0104】次いで、認識された外部情報のうち意識レ
ベルが所定の閾値以上の外部情報を意識上の対象として
評価部33において抽出し(s5)、抽出した意識上の
対象について評価部33において評価出力リストを作成
する(s6)。さらに、作成された評価出力リストに基
づいて内部状態記憶部42が記憶する内部状態を更新す
るとともに(s7)、知識設定記憶部3の経験知識記憶
部12の記憶内容を更新する(s8)。
Next, of the recognized external information, external information whose consciousness level is equal to or higher than a predetermined threshold is extracted as a conscious object by the evaluation unit 33 (s5), and the extracted conscious object is evaluated by the evaluation unit 33. An output list is created (s6). Further, based on the created evaluation output list, the internal state stored in the internal state storage unit 42 is updated (s7), and the content stored in the experience knowledge storage unit 12 of the knowledge setting storage unit 3 is updated (s8).

【0105】この後、評価出力リスト及び経験知識記憶
部12の記憶内容に基づいて行動計画部6において行動
計画を作成し(s9)、作成された行動計画に基づいて
動作出力部7により動作を出力する(s10)。人工生
物モデル1は、電源がオンされている状態において上記
s1〜s10の処理を繰り返し実行する。
Thereafter, an action plan is created in the action plan section 6 based on the evaluation output list and the contents stored in the experience knowledge storage section 12 (s9), and the action is output by the action output section 7 based on the created action plan. Output (s10). The artificial creature model 1 repeatedly executes the processing of s1 to s10 while the power is on.

【0106】以上の処理により、この実施形態に係る人
工生物モデル1は、現実の生物における行動の生成過程
に用いられる学習、忘却及び意識の概念を模擬的に実行
し、外部情報に対して自律的な行動を生成し、現実の生
物の行動に極めて近似した行動を実行する。
By the above processing, the artificial creature model 1 according to this embodiment simulates the concepts of learning, forgetting, and consciousness used in the process of generating actions in a real creature, and autonomously executes the external information. And perform behaviors that closely resemble those of real living things.

【0107】なお、上述した人工生物モデル1におい
て、知識設定記憶部3、認識評価部4、状態記憶部5及
び行動計画部6は、メモリを備えたマイクロコンピュー
タ内に構成することができ、上記の人工生物モデル1の
処理手順は、CD−ROM等の記録媒体に記録された処
理プログラムとしてマイクロコンピュータに供給するこ
とができる。
In the artificial creature model 1 described above, the knowledge setting storage unit 3, the recognition evaluation unit 4, the state storage unit 5, and the action planning unit 6 can be configured in a microcomputer having a memory. Can be supplied to the microcomputer as a processing program recorded in a recording medium such as a CD-ROM.

【0108】[0108]

【発明の効果】請求項1、9及び17に記載した発明に
よれば、検出した外部情報と予め定められた基本行動目
標との関係から新たな行動目標を獲得行動目標として学
習し、学習した獲得行動目標を含めた行動目標に基づい
て外部情報に対して実行すべき行動を決定することによ
り、外部情報に対して実行すべき行動を決定するための
行動目標を学習により補充することができ、予想できな
い外部情報に対しても実行すべき行動を自律的に決定す
ることができるとともに、予め設定しておくべき行動目
標の数を削減することができる。
According to the first, ninth, and seventeenth aspects of the present invention, a new action goal is learned as an acquired action goal from the relationship between the detected external information and a predetermined basic action goal. By determining the action to be performed on external information based on the action goal including the acquired action goal, the action goal for determining the action to be performed on the external information can be supplemented by learning. In addition, it is possible to autonomously determine an action to be performed for unforeseeable external information, and to reduce the number of action targets to be set in advance.

【0109】請求項2、10及び18に記載した発明に
よれば、学習により獲得した新たな行動目標を記憶度に
基づいて個別に消去することにより、新たに獲得した行
動目標の一部を消去して外部情報に対して実行すべき行
動を決定するための行動目標を過度に保存することがな
く、行動の決定処理が煩雑化することを防止できるとと
もに、行動目標の記憶容量を削減することができる。
According to the second, tenth and eighteenth aspects of the present invention, a part of the newly acquired action goal is erased by individually erasing the new action goal acquired by learning based on the memory level. Without excessively storing an action goal for determining an action to be performed with respect to external information, thereby preventing the action determination process from becoming complicated and reducing the storage capacity of the action goal. Can be.

【0110】請求項3、11及び19に記載した発明に
よれば、時間経過にともなって減少する記憶度にしたが
って獲得行動目標を個別に消去することにより、外部情
報に対して実行すべき行動を決定する際に、現実の生物
に生じる忘却現象を再現することができ、現実の生物に
近似した行動を生成することができる。
According to the third, nineteenth, and nineteenth aspects of the present invention, the actions to be performed on the external information can be determined by individually deleting the acquired action targets in accordance with the degree of memory that decreases with time. When deciding, it is possible to reproduce a forgetting phenomenon that occurs in a real creature, and to generate an action similar to a real creature.

【0111】請求項4、12及び20に記載した発明に
よれば、使用状態に応じて減少する記憶度にしたがって
獲得行動目標を個別に消去することにより、外部情報に
対して実行すべき行動を決定する際に、各外部情報の出
現頻度に応じて現実の生物に生じる忘却現象をより忠実
に再現することができ、現実の生物により近似した行動
を生成することができる。
According to the fourth, twelfth and twentieth aspects of the present invention, the action to be performed on the external information can be determined by individually erasing the acquired action targets in accordance with the degree of memory decreasing according to the use state. At the time of the determination, the forgetting phenomenon that occurs in a real creature can be reproduced more faithfully according to the appearance frequency of each piece of external information, and an action closer to the real creature can be generated.

【0112】請求項5、13及び21に記載した発明に
よれば、外部情報に対して実行すべき行動を決定する際
に、複数の基本行動目標のそれぞれに付与された重要度
を参照することにより、検出した外部情報が複数の基本
行動目標に関係する場合にも、その外部情報に対して単
一の行動を決定することができ、相反する複数の行動が
決定されることによるデッドロック状態を確実に防止す
ることができる。
According to the fifth, thirteenth, and twenty-first aspects of the present invention, when deciding an action to be performed on external information, the importance assigned to each of the plurality of basic action goals is referred to. By this, even when the detected external information is related to a plurality of basic action goals, a single action can be determined for the external information, and a deadlock state due to a plurality of conflicting actions determined. Can be reliably prevented.

【0113】請求項6、14及び22に記載した発明に
よれば、外部情報に対して実行すべき行動を決定する際
に、外部情報のそれぞれに付与された関連度を参照する
ことにより、同一の基本行動目標に関係する複数の外部
情報が同時に検出された場合にも、単一の外部情報に対
する単一の行動を決定することができ、相反する複数の
行動が決定されることによるデッドロック状態を確実に
防止することができる。
According to the invention described in claims 6, 14 and 22, when deciding an action to be performed on external information, the relevance assigned to each of the external information is referred to to determine the same action. Even when multiple external information related to the basic action goal of the above is detected at the same time, it is possible to determine a single action for a single external information, and deadlock due to the determination of multiple conflicting actions The state can be reliably prevented.

【0114】請求項7、15及び23に記載した発明に
よれば、外部情報に対して実行すべき行動を決定する際
に、外部情報のそれぞれに付与された関連度を参照する
ことにより、同一の基本行動目標に関係する複数の外部
情報が同時に検出された場合にも、出現頻度の最も高い
単一の外部情報に対する単一の行動を決定することがで
き、相反する複数の行動が決定されることによるデッド
ロック状態を確実に防止することができる。
According to the seventh, fifteenth, and twenty-third aspects of the present invention, when determining an action to be performed on external information, the relevance assigned to each of the external information is referred to to determine the same. Even if multiple external information items related to the basic action goal are detected at the same time, a single action for the single external information item with the highest frequency of appearance can be determined, and multiple conflicting actions are determined. As a result, a deadlock state due to this can be reliably prevented.

【0115】請求項8、16及び24に記載した発明に
よれば、複数の外部情報が同時に検出された際に、前記
重要度、及び、前記関連度を参照して単一の外部情報に
対して実行すべき行動を決定することにより、外部情報
に対して実行すべき行動を決定する際に、現実の生物に
生じる意識的な選択を模擬的に再現することができ、現
実の生物に近似した行動を生成することができる。
According to the invention described in claims 8, 16 and 24, when a plurality of pieces of external information are detected simultaneously, a single piece of external information is referred to by referring to the importance and the relevance. By deciding the action to be performed in response to external information, it is possible to simulate conscious choices that occur in the real creature when deciding the action to be performed for external information, and to approximate the real creature. Action can be generated.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の実施形態に係る行動生成装置を適用
した人工生物モデルの構成を示す図である。
FIG. 1 is a diagram showing a configuration of an artificial creature model to which a behavior generation device according to an embodiment of the present invention is applied.

【図2】同人工生物モデルの知識設定記憶部の構成を示
す図である。
FIG. 2 is a diagram showing a configuration of a knowledge setting storage unit of the artificial creature model.

【図3】同人工生物モデルの認識評価部の構成を示す図
である。
FIG. 3 is a diagram showing a configuration of a recognition evaluation unit of the artificial creature model.

【図4】同人工生物モデルの状態記憶部の構成を示す図
である。
FIG. 4 is a diagram showing a configuration of a state storage unit of the artificial creature model.

【図5】同知識設定記憶部の記憶内容を示す図である。FIG. 5 is a diagram showing storage contents of the knowledge setting storage unit.

【図6】同認識評価部における振動認識のためのファジ
ィ推論に用いられるメンバシップ関数を示す図である。
FIG. 6 is a diagram showing a membership function used for fuzzy inference for vibration recognition in the recognition evaluation unit.

【図7】同認識評価部における色認識に用いられるメン
バシップ関数を示す図である。
FIG. 7 is a diagram showing a membership function used for color recognition in the recognition evaluation unit.

【図8】同認識評価部において作成される評価出力リス
トを示す図である。
FIG. 8 is a diagram showing an evaluation output list created by the recognition evaluation unit.

【図9】同状態記憶部の内部状態記憶部における内部状
態起因の抽出処理に用いられるファジィルールを示す図
である。
FIG. 9 is a diagram illustrating a fuzzy rule used in an internal state-based extraction process in an internal state storage unit of the state storage unit.

【図10】同状態記憶部の内部状態記憶部における内部
状態の更新処理に用いられるファジィルールを示す図で
ある。
FIG. 10 is a diagram showing a fuzzy rule used for an internal state update process in the internal state storage unit of the state storage unit.

【図11】同人工生物モデルの行動計画部における行動
計画の決定に用いられる行動規則を示す図である。
FIG. 11 is a diagram showing an action rule used for determining an action plan in an action planning unit of the artificial creature model.

【図12】同人工生物モデルにおける処理手順を示すフ
ローチャートである。
FIG. 12 is a flowchart showing a processing procedure in the artificial creature model.

【符号の説明】[Explanation of symbols]

1−人工生物モデル 2−外部情報検出部 3−知識設定記憶部 4−認識評価部 5−状態記憶部 6−行動計画部 7−動作出力部 11−目標記憶部 12−経験知識記憶部 31−認識部 32−意識レベル計算部 33−評価部 41−外部状態記憶部 42−内部状態記憶部 1-artificial creature model 2-external information detection unit 3-knowledge setting storage unit 4-recognition evaluation unit 5-state storage unit 6-action planning unit 7-action output unit 11-target storage unit 12-experience knowledge storage unit 31- Recognition unit 32-Awareness level calculation unit 33-Evaluation unit 41-External state storage unit 42-Internal state storage unit

Claims (24)

【特許請求の範囲】[Claims] 【請求項1】外部情報を検出する外部情報検出部と、予
め定められた複数の基本行動目標を記憶する基本行動目
標記憶部と、外部情報検出部が検出した外部情報と基本
行動目標記憶部が記憶している各基本行動目標との関係
を獲得行動目標として記憶する獲得行動目標記憶部と、
を設け、基本行動目標記憶部が記憶している基本行動目
標又は獲得行動目標記憶部が記憶している獲得行動目標
に基づいて外部情報検出部が検出した外部情報に対して
実行すべき行動を決定することを特徴とする行動生成装
置。
1. An external information detecting section for detecting external information, a basic action target storing section for storing a plurality of predetermined basic action goals, and an external information detected by the external information detecting section and a basic action target storing section. An acquisition action target storage unit that stores, as an acquisition action goal, a relationship with each basic action goal stored by
Provide an action to be performed on the external information detected by the external information detection unit based on the basic action goal stored in the basic action goal storage unit or the acquisition action goal stored in the acquisition action goal storage unit. An action generation device characterized by determining.
【請求項2】前記獲得行動目標記憶部が、複数の外部情
報のそれぞれについて、獲得行動目標を保存すべき期間
を表す記憶度を記憶する請求項1に記載の行動生成装
置。
2. The behavior generation device according to claim 1, wherein the acquisition behavior target storage unit stores, for each of the plurality of pieces of external information, a storage degree indicating a period in which the acquisition behavior target is to be stored.
【請求項3】前記獲得行動目標記憶部が、前記記憶度の
それぞれを時間経過に伴って個別に減少する請求項2に
記載の行動生成装置。
3. The behavior generating apparatus according to claim 2, wherein the acquired behavior target storage unit individually decreases each of the degrees of storage with time.
【請求項4】前記獲得行動目標記憶部が、前記記憶度の
それぞれを各外部情報についての獲得行動目標の使用状
態に応じて個別に増減する請求項2に記載の行動生成装
置。
4. The behavior generating apparatus according to claim 2, wherein the acquisition behavior target storage unit individually increases or decreases each of the degrees of storage according to a use state of the acquisition behavior target for each piece of external information.
【請求項5】前記基本行動目標記憶部が、複数の基本行
動目標のそれぞれの優先順位を表す重要度を記憶する請
求項1に記載の行動生成装置。
5. The action generation device according to claim 1, wherein the basic action goal storage unit stores importance indicating the priority of each of the plurality of basic action goals.
【請求項6】前記獲得行動目標記憶部が、複数の外部情
報のそれぞれについて基本行動目標との関連度を記憶す
る請求項1に記載の行動生成装置。
6. The behavior generating apparatus according to claim 1, wherein the acquired behavior target storage unit stores, for each of a plurality of pieces of external information, a degree of association with a basic behavior goal.
【請求項7】前記獲得行動目標記憶部が、前記関連度の
それぞれを各外部情報についての獲得行動目標の使用状
態に応じて個別に増減する請求項6に記載の行動生成装
置。
7. The behavior generating apparatus according to claim 6, wherein the acquisition behavior target storage unit individually increases or decreases each of the relevance in accordance with a use state of the acquisition behavior target for each piece of external information.
【請求項8】少なくとも前記基本行動目標記憶部に記憶
した重要度、及び、前記獲得行動目標記憶部に記憶した
関連度にしたがって、前記外部情報検出部が検出した複
数の外部情報のいずれかを選択し、選択した外部情報に
ついて基本行動目標又は獲得行動目標に基づいて実行す
べき行動を決定する請求項6又は7に記載の行動生成装
置。
8. At least one of a plurality of pieces of external information detected by the external information detection unit according to the importance stored in the basic action target storage unit and the relevance stored in the acquisition action target storage unit. The action generation device according to claim 6 or 7, wherein the action to be executed is determined based on the selected external information and the basic action goal or the acquired action goal.
【請求項9】外部情報を検出し、検出した外部情報と予
め定められた複数の基本行動目標のそれぞれとの関係を
獲得行動目標として記憶し、基本行動目標又は獲得行動
目標に基づいて外部情報に対して実行すべき行動を決定
することを特徴とする行動生成方法。
9. Detecting external information, storing a relationship between the detected external information and each of a plurality of predetermined basic action goals as an acquisition action goal, and storing the external information based on the basic action goal or the acquisition action goal. An action generation method characterized by determining an action to be performed on a program.
【請求項10】複数の外部情報のそれぞれについて獲得
行動目標を保存すべき期間を表す記憶度を記憶し、記憶
度に基づいて各獲得行動目標を個別に消去する請求項9
に記載の行動生成方法。
10. A storage degree indicating a period in which an acquisition action target is to be stored for each of a plurality of external information, and each acquisition action target is individually erased based on the storage degree.
The behavior generation method according to the above.
【請求項11】前記記憶度のそれぞれを時間経過に伴っ
て個別に減少する請求項10に記載の行動生成方法。
11. The action generation method according to claim 10, wherein each of the degrees of memory is individually reduced with time.
【請求項12】前記記憶度のそれぞれを各外部情報につ
いての獲得行動目標の使用状態に応じて個別に増減する
請求項10又は11に記載の行動生成方法。
12. The action generation method according to claim 10, wherein each of the storage degrees is individually increased or decreased according to the use state of the acquired action target for each piece of external information.
【請求項13】複数の基本行動目標のそれぞれの優先順
位を表す重要度を記憶する請求項9に記載の行動生成方
法。
13. The action generation method according to claim 9, wherein importance levels indicating priorities of the plurality of basic action goals are stored.
【請求項14】複数の外部情報のそれぞれについて基本
行動目標との関連度を記憶する請求項9に記載の行動生
成方法。
14. The action generation method according to claim 9, wherein the degree of association with the basic action goal is stored for each of the plurality of external information.
【請求項15】前記関連度のそれぞれを各外部情報につ
いての獲得行動目標の使用状態に応じて個別に増減する
請求項14に記載の行動生成方法。
15. The action generation method according to claim 14, wherein each of the degrees of association is individually increased or decreased according to the use state of the acquired action target for each piece of external information.
【請求項16】前記重要度、及び、前記関連度にしたが
って、検出した複数の外部情報のいずれかを選択し、選
択した外部情報について基本行動目標又は獲得行動目標
に基づいて実行すべき行動を決定する請求項14又は1
5に記載の行動生成方法。
16. A method for selecting one of a plurality of detected external information according to the importance and the relevance, and determining an action to be executed for the selected external information based on a basic action goal or an acquisition action goal. Claim 14 or 1 to be determined
6. The behavior generating method according to 5.
【請求項17】外部情報を検出する処理と、検出した外
部情報と予め定められた複数の基本行動目標のそれぞれ
との関係を獲得行動目標として記憶する処理と、基本行
動目標又は獲得行動目標に基づいて外部情報に対して実
行すべき行動を決定する処理と、からなるプログラムを
記録したことを特徴とする行動生成プログラム記録媒
体。
17. A process for detecting external information, a process for storing a relationship between the detected external information and each of a plurality of predetermined basic behavior goals as an acquisition behavior goal, and And a process of determining an action to be performed on the external information based on the action recording program.
【請求項18】複数の外部情報のそれぞれについて獲得
行動目標を保存すべき期間を表す記憶度を記憶する処理
と、記憶度に基づいて各獲得行動目標を個別に消去する
処理と、を含むプログラムを記録した請求項17に記載
の行動生成プログラム記録媒体。
18. A program comprising: a process of storing a storage degree indicating a period in which an acquisition action target is to be stored for each of a plurality of external information; and a process of individually deleting each acquisition action target based on the storage degree. The action generation program recording medium according to claim 17, wherein
【請求項19】前記記憶度のそれぞれを時間経過に伴っ
て個別に減少する処理を含むプログラムを記録した請求
項18に記載の行動生成プログラム記録媒体。
19. The action generation program recording medium according to claim 18, wherein a program including a process of individually decreasing each of the storage degrees with the passage of time is recorded.
【請求項20】前記記憶度のそれぞれを各外部情報につ
いての獲得行動目標の使用状態に応じて個別に増減する
処理を含むプログラムを記録した請求項18又は19に
記載の行動生成プログラム記録媒体。
20. An action generation program recording medium according to claim 18, wherein a program including a process for individually increasing or decreasing each of the storage degrees in accordance with the use state of the acquired action target for each piece of external information is recorded.
【請求項21】複数の基本行動目標のそれぞれの優先順
位を表す重要度を記憶する処理を含むプログラムを記録
した請求項17に記載の行動生成プログラム記録媒体。
21. The action generation program recording medium according to claim 17, wherein a program including a process of storing importance indicating respective priorities of a plurality of basic action goals is recorded.
【請求項22】複数の外部情報のそれぞれについて基本
行動目標との関連度を記憶する処理を含むプログラムを
記録した請求項17に記載の行動生成プログラム記録媒
体。
22. An action generation program recording medium according to claim 17, wherein a program including a process of storing a degree of association with a basic action goal for each of a plurality of pieces of external information is recorded.
【請求項23】前記関連度のそれぞれを各外部情報につ
いての獲得行動目標の使用状態に応じて個別に増減する
処理を含むプログラムを記録した請求項22に記載の行
動生成プログラム記録媒体。
23. The action generation program recording medium according to claim 22, wherein a program including a process of individually increasing or decreasing each of the relevance in accordance with the use state of the acquired action target for each piece of external information is recorded.
【請求項24】前記重要度、及び、前記関連度にしたが
って、検出した複数の外部情報のいずれかを選択する処
理と、選択した外部情報について基本行動目標又は獲得
行動目標に基づいて実行すべき行動を決定する処理と、
を含むプログラムを記録した請求項22又は23に記載
の行動生成プログラム記録媒体。
24. A process for selecting one of a plurality of detected external information according to the importance and the relevance, and executing the selected external information based on a basic action goal or an acquisition action goal. Processing to determine an action;
The action generating program recording medium according to claim 22, wherein the program includes a program including the following.
JP30856197A 1997-11-11 1997-11-11 Action generation device, action generation method, and action generation program recording medium Expired - Fee Related JP3178393B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30856197A JP3178393B2 (en) 1997-11-11 1997-11-11 Action generation device, action generation method, and action generation program recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30856197A JP3178393B2 (en) 1997-11-11 1997-11-11 Action generation device, action generation method, and action generation program recording medium

Publications (2)

Publication Number Publication Date
JPH11143849A true JPH11143849A (en) 1999-05-28
JP3178393B2 JP3178393B2 (en) 2001-06-18

Family

ID=17982516

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30856197A Expired - Fee Related JP3178393B2 (en) 1997-11-11 1997-11-11 Action generation device, action generation method, and action generation program recording medium

Country Status (1)

Country Link
JP (1) JP3178393B2 (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034305A (en) * 1999-07-26 2001-02-09 Seiko Epson Corp Controller of operation body
JP2001091289A (en) * 1999-09-17 2001-04-06 Data Tec:Kk Sensor unit
WO2001038050A1 (en) * 1999-11-20 2001-05-31 Bandai Co., Ltd. Insect robot
WO2001070468A1 (en) * 2000-03-24 2001-09-27 Sony Corporation Method for determining action of robot and robot
WO2001072478A1 (en) * 2000-03-31 2001-10-04 Sony Corporation Robot device, robot device action control method, external force detecting device and external force detecting method
JP2001353679A (en) * 2000-06-13 2001-12-25 Oki Electric Ind Co Ltd Robot for use as pet
WO2002030630A1 (en) * 2000-10-11 2002-04-18 Sony Corporation Robot apparatus and robot apparatus motion control method
WO2002032629A1 (en) * 2000-10-13 2002-04-25 Sony Corporation Robot device and behavior control method for robot device
WO2002044991A1 (en) * 2000-11-30 2002-06-06 Digital Agent, Inc. Method and system for emotion perception from text
JP2002229606A (en) * 2001-01-31 2002-08-16 Nec Corp State transition model executing device, state transition model executing method and program
WO2002074502A1 (en) * 2001-03-16 2002-09-26 Kabushiki Kaisha Bandai Robot control device and method thereof
JP2002307351A (en) * 2001-01-30 2002-10-23 Nec Corp Robot control device, control method and control program
WO2003039818A2 (en) * 2001-11-07 2003-05-15 Sony Corporation Robot system and robot apparatus control method
WO2003097308A1 (en) * 2002-05-20 2003-11-27 Sony Corporation Robot device and robot control method
JP2005254454A (en) * 2005-05-11 2005-09-22 Advanced Telecommunication Research Institute International Communication robot
WO2006030533A1 (en) * 2004-09-17 2006-03-23 National Institute Of Advanced Industrial Science And Technology Imitated animal having physiological stimulus saturation means
JP2007527556A (en) * 2003-03-25 2007-09-27 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー Behavior translator for objects
JP2008051516A (en) * 2006-08-22 2008-03-06 Olympus Corp Tactile sensor
US7421313B2 (en) 2003-02-19 2008-09-02 Sony Corporation Robot apparatus and control method thereof
JP2009072910A (en) * 2008-12-22 2009-04-09 Nec Corp Robot device and its control method
JP2017161637A (en) * 2016-03-08 2017-09-14 シャープ株式会社 Speech device, control method of speech device, control program, and record medium
JP2017226044A (en) * 2016-06-23 2017-12-28 カシオ計算機株式会社 Robot, control method, and program of the robot
WO2018006370A1 (en) * 2016-07-07 2018-01-11 深圳狗尾草智能科技有限公司 Interaction method and system for virtual 3d robot, and robot
JP2018134735A (en) * 2018-05-25 2018-08-30 カシオ計算機株式会社 Robot, control method, and program of the robot

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034305A (en) * 1999-07-26 2001-02-09 Seiko Epson Corp Controller of operation body
JP2001091289A (en) * 1999-09-17 2001-04-06 Data Tec:Kk Sensor unit
WO2001038050A1 (en) * 1999-11-20 2001-05-31 Bandai Co., Ltd. Insect robot
US6681150B1 (en) 1999-11-20 2004-01-20 Bandai Co., Ltd. Insect robot
WO2001070468A1 (en) * 2000-03-24 2001-09-27 Sony Corporation Method for determining action of robot and robot
US6650965B2 (en) 2000-03-24 2003-11-18 Sony Corporation Robot apparatus and behavior deciding method
JP2011115944A (en) * 2000-03-31 2011-06-16 Sony Corp Robot device, robot device action control method, and program
US6754560B2 (en) 2000-03-31 2004-06-22 Sony Corporation Robot device, robot device action control method, external force detecting device and external force detecting method
WO2001072478A1 (en) * 2000-03-31 2001-10-04 Sony Corporation Robot device, robot device action control method, external force detecting device and external force detecting method
JP2001353679A (en) * 2000-06-13 2001-12-25 Oki Electric Ind Co Ltd Robot for use as pet
WO2002030630A1 (en) * 2000-10-11 2002-04-18 Sony Corporation Robot apparatus and robot apparatus motion control method
US6697708B2 (en) 2000-10-11 2004-02-24 Sony Corporation Robot apparatus and robot apparatus motion control method
WO2002032629A1 (en) * 2000-10-13 2002-04-25 Sony Corporation Robot device and behavior control method for robot device
CN100445046C (en) * 2000-10-13 2008-12-24 索尼公司 Robot device and behavior control method for robot device
US6718232B2 (en) 2000-10-13 2004-04-06 Sony Corporation Robot device and behavior control method for robot device
WO2002044991A1 (en) * 2000-11-30 2002-06-06 Digital Agent, Inc. Method and system for emotion perception from text
JP2002307351A (en) * 2001-01-30 2002-10-23 Nec Corp Robot control device, control method and control program
JP2002229606A (en) * 2001-01-31 2002-08-16 Nec Corp State transition model executing device, state transition model executing method and program
WO2002074502A1 (en) * 2001-03-16 2002-09-26 Kabushiki Kaisha Bandai Robot control device and method thereof
WO2003039818A2 (en) * 2001-11-07 2003-05-15 Sony Corporation Robot system and robot apparatus control method
WO2003039818A3 (en) * 2001-11-07 2004-07-29 Sony Corp Robot system and robot apparatus control method
US7139642B2 (en) 2001-11-07 2006-11-21 Sony Corporation Robot system and robot apparatus control method
WO2003097308A1 (en) * 2002-05-20 2003-11-27 Sony Corporation Robot device and robot control method
US7421313B2 (en) 2003-02-19 2008-09-02 Sony Corporation Robot apparatus and control method thereof
US7574332B2 (en) 2003-03-25 2009-08-11 British Telecommunications Plc Apparatus and method for generating behaviour in an object
JP2007527556A (en) * 2003-03-25 2007-09-27 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー Behavior translator for objects
WO2006030533A1 (en) * 2004-09-17 2006-03-23 National Institute Of Advanced Industrial Science And Technology Imitated animal having physiological stimulus saturation means
JP2005254454A (en) * 2005-05-11 2005-09-22 Advanced Telecommunication Research Institute International Communication robot
JP2008051516A (en) * 2006-08-22 2008-03-06 Olympus Corp Tactile sensor
JP2009072910A (en) * 2008-12-22 2009-04-09 Nec Corp Robot device and its control method
JP2017161637A (en) * 2016-03-08 2017-09-14 シャープ株式会社 Speech device, control method of speech device, control program, and record medium
JP2017226044A (en) * 2016-06-23 2017-12-28 カシオ計算機株式会社 Robot, control method, and program of the robot
US10576618B2 (en) 2016-06-23 2020-03-03 Casio Computer Co., Ltd. Robot having communication with human, robot control method, and non-transitory recording medium
WO2018006370A1 (en) * 2016-07-07 2018-01-11 深圳狗尾草智能科技有限公司 Interaction method and system for virtual 3d robot, and robot
JP2018134735A (en) * 2018-05-25 2018-08-30 カシオ計算機株式会社 Robot, control method, and program of the robot

Also Published As

Publication number Publication date
JP3178393B2 (en) 2001-06-18

Similar Documents

Publication Publication Date Title
JP3178393B2 (en) Action generation device, action generation method, and action generation program recording medium
CN110569795B (en) Image identification method and device and related equipment
JP4244812B2 (en) Action control system and action control method for robot apparatus
US6714840B2 (en) User-machine interface system for enhanced interaction
Hudlicka Affective computing for game design
JP2011115944A (en) Robot device, robot device action control method, and program
KR101028814B1 (en) Software robot apparatus and method for expressing behavior of software robot
Szwoch et al. Emotion recognition for affect aware video games
JPWO2002099545A1 (en) Control method of man-machine interface unit, robot apparatus and action control method thereof
KR100752098B1 (en) Robot system based on neural network
Rázuri et al. Automatic emotion recognition through facial expression analysis in merged images based on an artificial neural network
JP2002157596A (en) Robot unit and face identifying method
CN112684881B (en) Avatar facial expression generation system and avatar facial expression generation method
US11648477B2 (en) Systems and methods for generating a model of a character from one or more images
CN110837294A (en) Facial expression control method and system based on eyeball tracking
JP2002160185A (en) Robot device, behavior controlling method for robot device and device and method for detecting external force
JP2022113701A (en) Equipment control device, equipment, and equipment control method and program
CN113760101A (en) Virtual character control method and device, computer equipment and storage medium
JP3558222B2 (en) Robot behavior control system and behavior control method, and robot device
Bogdanovych et al. Formalising believability and building believable virtual agents
JP2021135995A (en) Avatar facial expression generating system and avatar facial expression generating method
Zhong et al. From continuous affective space to continuous expression space: Non-verbal behaviour recognition and generation
CN108858201A (en) It is a kind of for nursing the robot and storage medium of children
JP7414735B2 (en) Method for controlling multiple robot effectors
JP2000155750A (en) Device and method for generating action and action generating program recording medium

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees