JP2002219677A - Robot system, and method of controlling behavior of robot system - Google Patents
Robot system, and method of controlling behavior of robot systemInfo
- Publication number
- JP2002219677A JP2002219677A JP2001317315A JP2001317315A JP2002219677A JP 2002219677 A JP2002219677 A JP 2002219677A JP 2001317315 A JP2001317315 A JP 2001317315A JP 2001317315 A JP2001317315 A JP 2001317315A JP 2002219677 A JP2002219677 A JP 2002219677A
- Authority
- JP
- Japan
- Prior art keywords
- action
- internal state
- behavior
- robot
- robot apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Abstract
Description
【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION
【0001】[0001]
【発明の属する技術分野】本発明は、ロボット装置やそ
のようなロボット装置の行動制御方法に関する。The present invention relates to a robot device and a method for controlling the behavior of such a robot device.
【0002】[0002]
【従来の技術】近年、外観形状が犬等の動物に模して形
成されたロボット装置が提供されている。このロボット
装置は、例えば、外部からの情報や内部の状態(例え
ば、感情状態)等に応じて、動物のように行動する。そ
して、このようなロボット装置には、ボールを蹴るなど
の行動をするものがある。さらに、このようなロボット
装置には、学習機能を備えているものもある。例えば、
学習機能としては、言語学習機能が挙げられる。2. Description of the Related Art In recent years, there has been provided a robot device whose external shape is formed by imitating an animal such as a dog. The robot device behaves like an animal in accordance with, for example, external information or an internal state (for example, an emotional state). Some of such robot devices take actions such as kicking a ball. Further, some of such robot devices have a learning function. For example,
The learning function includes a language learning function.
【0003】[0003]
【発明が解決しようとする課題】ところで、ペット型の
ロボット装置における1つの究極の目標はライフライク
(Life-like)なロボット装置を構成することである。
これは換言すれば、オープンエンディット(OPEN-ENDE
D)なシステムを構築することといえる。One ultimate goal of a pet-type robot device is to construct a life-like robot device.
This is, in other words, OPEN-ENDE
D) It can be said that a system is constructed.
【0004】従来は、いかに複雑度を増して見せるか、
ということでライフライク(life-like)なロボット装
置を構成するという目標に近づけている。その中には、
学習や成長といった要素も考慮されている。[0004] Conventionally, how to show complexity increases
So we are approaching the goal of constructing a life-like robot device. Among them,
Factors such as learning and growth are also considered.
【0005】しかし、その実装は行動生成のために固定
的に設定してある確率的ステートマシンの確率を強化学
習により変更或いはステートマシン全体の取り替えによ
り実現している。However, the implementation is realized by changing the probability of a stochastic state machine fixedly set for generating an action by reinforcement learning or replacing the entire state machine.
【0006】行動の生成頻度やそのパターンはユーザー
や外界とのインタラクションにより変化し、ロボット装
置がもつ複雑度を増してはいるものの、設計者(プログ
ラマー)が最初に想定した行動、反応を超えるものでは
ない。同じく、ロボット装置により認識可能とされる対
象物は限定的なものとされており、これにより、プログ
ラマーが設定した以外のものを認識することができな
い。これらは、未知刺激に対してどのように行動するか
を決定する能力を欠いていることを意味している。[0006] The generation frequency and pattern of the behavior change due to the interaction with the user and the outside world, and the complexity of the robot device is increased, but the behavior and reaction exceed the behavior and reaction initially assumed by the designer (programmer). is not. Similarly, the objects that can be recognized by the robot device are limited, so that it is not possible to recognize objects other than those set by the programmer. These imply a lack of ability to determine how to act on unknown stimuli.
【0007】設計者の設定を超えるオープンエンディッ
ト(OPEN-ENDED)なシステムを作るために必要なこと
は、以下のことである。 (1) 未知刺激を認識できる能力 (2) 新たな行動を創生する能力 (3) 未知刺激に対する適切な行動を選択する能力 さらに、ペット型のロボット装置であることを考慮した
場合、人間とインタラクションする能力は特に重要であ
る。様々な未知の事柄を学習する場合も、人間とのイン
タラクションを通じて学習することが多いのも事実であ
る。[0007] What is needed to create an open-ended system that exceeds the settings of the designer is as follows. (1) Ability to recognize unknown stimuli (2) Ability to create new behaviors (3) Ability to select appropriate behaviors for unknown stimuli Furthermore, considering that the robot is a pet type robot, The ability to interact is particularly important. It is also a fact that when learning various unknown things, they often learn through interaction with humans.
【0008】人間とのインタラクションにおいて最も重
要になるものが言語によるコミュニケーションである。
上述の(1)の未知刺激を認識する能力に関しては、適
切なカテゴライズとそのシンボル(Symbol)としての名
前を獲得することや、その行動の名前を獲得することが
その第1歩になると考えられる。これはいわゆる言語獲
得といわれる研究分野であるが、特にそれらのシンボル
は物理的に関連付け或いは接地(Ground)していること
が重要であることが指摘されている。[0008] The most important thing in the interaction with humans is communication by language.
Regarding the ability of (1) for recognizing an unknown stimulus, the first step is to acquire an appropriate categorization and the name of the symbol (Symbol) or to acquire the name of the action. . Although this is a research field called so-called language acquisition, it is pointed out that it is particularly important that those symbols are physically associated or grounded.
【0009】これ関しては、例えば、Kaplanによる報告
(Kaplan, F. Talking AIBO: Firstexperimentation of
verbal interactions with an autonomous four-legge
d robot. In proceedings of the CELE-Twente worksho
p on interacting agents,October, 2000、以下、文献
1という。)、Royらによる報告(Roy, D. and Pentlan
d A. Learning words from natural audio-visual inpu
t, in proceedings of International Conference on S
poken Language Processing, 1998、以下、文献2とい
う。)、或いはSteelsによる報告(Steels, L. Percept
ually GroundedMeaning Creation, In proceedings of
the International Conference on Multi-Agent System
s, 1996、以下、文献3という。)で挙げられている。Regarding this, for example, a report by Kaplan (Kaplan, F. Talking AIBO: Firstexperimentation of
verbal interactions with an autonomous four-legge
d robot.In proceedings of the CELE-Twente worksho
p on interacting agents, October, 2000, hereinafter referred to as Reference 1. ), Reported by Roy et al. (Roy, D. and Pentlan
d A. Learning words from natural audio-visual inpu
t, in proceedings of International Conference on S
poken Language Processing, 1998; ) Or reports by Steels (Steels, L. Percept
ually GroundedMeaning Creation, In proceedings of
the International Conference on Multi-Agent System
s, 1996; ).
【0010】また、上述の(2)の行動獲得に関して
は、イミテーション(imitation)によるもの、補強学
習(reinforcement learning)によるもの、Evolutiona
ry Computingによるものなどがある。[0010] The above-mentioned behavior acquisition (2) is based on imitation, reinforcement learning, and Evolutiona.
One by ry Computing.
【0011】これに関しては、Damasioによる報告(Dam
asio, A. Descartes' Error: Emotion, Reason, and th
e Human Brain, Putman Publishing Group, 1994、以
下、文献4という。)やMataricによる報告(Mataric,
M., Sensory-motor primitivesas a basis for imitati
on: Linking perception to action and biology to ro
botics, Imitation in Animals and Artifacts, C. Neh
niv and K. Dautenhalm(eds), The MIT Press, 2000、
以下、文献5という。)等に挙げられている。In this regard, a report by Damasio (Dam
asio, A. Descartes' Error: Emotion, Reason, and th
e Human Brain, Putman Publishing Group, 1994; ) And reports by Mataric (Mataric,
M., Sensory-motor primitivesas a basis for imitati
on: Linking perception to action and biology to ro
botics, Imitation in Animals and Artifacts, C. Neh
niv and K. Dautenhalm (eds), The MIT Press, 2000,
Hereinafter, this is referred to as Document 5. ).
【0012】しかしながら、上述の(3)の未知刺激に
対する適切な行動に関しては、実世界においては非常に
プリミティブなものが報告されているだけである。或い
は仮想的な世界でいくつかの関連するものがあるだけで
ある。However, as for the appropriate action to the unknown stimulus of the above (3), only very primitive ones have been reported in the real world. Or there are only a few related things in the virtual world.
【0013】この上述の(3)の意味するところは、そ
の物体がロボット装置に対してどのような意味を持つの
かをいかにして獲得するか、にある。例えばそれが食べ
物なのか、遊び道具なのか、怖いものなのか、等であ
る。そのためには認識対象物を物理的に関連付け或いは
接地(ground)するだけでなく、ロボット装置の内的状
態にどのように影響を及ぼすか、すなわち内的状態(例
えば、primary emotion、secondary emotion等)に関連
付け(ground)することが必要になる。The meaning of the above (3) lies in how to obtain the meaning of the object with respect to the robot apparatus. For example, is it food, play equipment, scary, etc. For this purpose, in addition to physically associating or grounding the recognition target, how to affect the internal state of the robot apparatus, that is, the internal state (for example, primary emotion, secondary emotion, etc.) Needs to be grounded.
【0014】そこで、本発明は、上述の実情に鑑みてな
されたものであり、よりライフライク(Life-like)に
近づけられたロボット装置及びそのようなロボット装置
の行動制御方法を提供することを目的としている。SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and has as its object to provide a robot apparatus that is closer to life-like and a method of controlling the behavior of such a robot apparatus. The purpose is.
【0015】[0015]
【課題を解決するための手段】本発明に係るロボット装
置は、上述の課題を解決するために、自律行動の一行動
として情報獲得行動をさせる行動制御手段を備える。こ
のような構成を備えるロボット装置は、自律行動の一行
動として情報獲得行動を表出する。In order to solve the above-mentioned problems, the robot apparatus according to the present invention includes a behavior control means for causing an information acquisition behavior as one of the autonomous behaviors. The robot device having such a configuration expresses the information acquisition behavior as one of the autonomous behaviors.
【0016】また、本発明に係るロボット装置の行動制
御方法は、上述の課題を解決するために、ロボット装置
の自律的行動の一行動として情報獲得行動をさせる。こ
のようなロボット装置の行動制御方法により、ロボット
装置は、自律的行動の一行動として情報獲得行動を表出
する。Further, in order to solve the above-mentioned problem, the behavior control method for a robot device according to the present invention causes an information acquisition behavior as one of autonomous behaviors of the robot device. With such a behavior control method for a robot device, the robot device expresses the information acquisition behavior as one of the autonomous behaviors.
【0017】また、本発明に係るロボット装置は、上述
の課題を解決するために、対象物の意味を獲得する意味
獲得手段を備える。このような構成を備えるロボット装
置は、対象物の意味を獲得する。Further, in order to solve the above-mentioned problems, the robot apparatus according to the present invention includes a meaning acquiring means for acquiring a meaning of the object. The robot device having such a configuration acquires the meaning of the target object.
【0018】また、本発明に係るロボット装置の行動制
御方法は、上述の課題を解決するために、内部状態に基
づいて行動をしているロボット装置が対象物に対する行
動をしたときの、内部状態の変化を当該対象物の意味と
して獲得する。According to another aspect of the present invention, there is provided a method for controlling a behavior of a robot apparatus, the method comprising: controlling an internal state when a robot apparatus acting based on the internal state acts on an object; Is obtained as the meaning of the object.
【0019】このようなロボット装置の行動制御方法に
より、ロボット装置は、内部状態に基づいて行動をし、
対象物に対する行動をしたときの内部状態の変化を当該
対象物の意味として獲得する。According to such a behavior control method for a robot device, the robot device behaves based on an internal state,
A change in the internal state when an action is taken on the object is acquired as the meaning of the object.
【0020】また、本発明に係るロボット装置は、上述
の課題を解決するために、音声入力手段と、発話した際
の単語系列の特徴量に基づいて区分けされた複数の単語
系列特徴モデルと、音声入力手段になされた発話入力
を、単語系列特徴モデルに基づいて評価する発話入力評
価手段と、発話入力評価手段の評価値に基づいて、発話
入力の単語系列を特定する単語系列特定手段とを備え
る。According to another aspect of the present invention, there is provided a robot apparatus comprising: a voice input unit; a plurality of word sequence feature models classified based on a feature amount of a word sequence when uttered; Utterance input evaluation means for evaluating the utterance input made by the voice input means based on the word sequence feature model; and word sequence identification means for identifying the utterance input word sequence based on the evaluation value of the utterance input evaluation means. Prepare.
【0021】このような構成を備えるロボット装置は、
音声入力手段になされた発話入力を、発話した際の単語
系列の特徴量に基づいて区分けされた複数の単語系列特
徴モデルに基づいて発話入力評価手段により評価し、発
話入力評価手段の評価値に基づいて、発話入力の単語系
列を単語系列特定手段により特定する。これにより、ロ
ボット装置は、入力された発話を最適な単語系列として
特定する。The robot device having such a configuration is as follows.
The utterance input made by the voice input means is evaluated by the utterance input evaluation means based on a plurality of word sequence feature models divided based on the feature amount of the word sequence at the time of utterance, and the evaluation value of the utterance input evaluation means is evaluated. Then, the word sequence of the utterance input is specified by the word sequence specifying means. Accordingly, the robot device specifies the input utterance as an optimal word sequence.
【0022】また、本発明に係るロボット装置の行動制
御方法は、上述の課題を解決するために、音声入力工程
と、音声入力工程にてなされた発話入力を、発話した際
の単語系列の特徴量に基づいて区分けされた複数の単語
系列特徴モデルに基づいて評価する発話入力評価工程
と、発話入力評価工程にて得た評価値に基づいて、発話
入力の単語系列を特定する単語系列特定工程とを有す
る。このようなロボット装置の行動制御方法により、ロ
ボット装置は、入力された発話を最適な単語系列として
特定する。Further, in order to solve the above-mentioned problems, the behavior control method of the robot apparatus according to the present invention is characterized in that a speech input step and a speech sequence input in the speech input step are characterized by the characteristics of a word sequence when the speech is made. An utterance input evaluation step of evaluating based on a plurality of word sequence feature models classified based on the amount, and a word sequence identification step of identifying a word sequence of the utterance input based on the evaluation value obtained in the utterance input evaluation step And With such a behavior control method for a robot device, the robot device specifies the input utterance as an optimal word sequence.
【0023】また、本発明に係るロボット装置は、上述
の課題を解決するために、自己の学習対象物を指し示す
行動制御をする制御手段を備える。このような構成を備
えたロボット装置は、自己の学習対象物を指し示す行動
をする。Further, in order to solve the above-mentioned problems, the robot apparatus according to the present invention is provided with control means for controlling the behavior of pointing to the subject to be learned. A robot device having such a configuration acts to point to its own learning target.
【0024】また、本発明に係るロボット装置の行動制
御方法は、上述の課題を解決するために、自律行動する
ロボット装置が自己の学習対象物を指し示すようにロボ
ット装置の行動を制御する。このようなロボット装置の
行動制御方法により、ロボット装置は、自己の学習対象
物を指し示す行動をする。Further, in order to solve the above-mentioned problems, the behavior control method for a robot device according to the present invention controls the behavior of the robot device so that the robot device that performs autonomous behavior points to its own learning target. According to such a behavior control method for a robot device, the robot device performs a behavior pointing to its own learning target.
【0025】また、本発明に係るロボット装置は、上述
の課題を解決するために、対象物を検出するセンサと、
センサからの入力信号を評価する知覚用評価部と、知覚
用評価部の評価結果が入力され、当該評価結果に基づい
て変化する擬似的内部状態を管理する内部状態管理部
と、対象物と当該対象物に基づく内部状態の変化との関
係を記憶する記憶手段とを備える。According to another aspect of the present invention, there is provided a robot apparatus comprising: a sensor for detecting an object;
A sensory evaluation unit that evaluates an input signal from the sensor, an internal state management unit that receives an evaluation result of the sensory evaluation unit, and manages a pseudo internal state that changes based on the evaluation result; Storage means for storing a relationship with a change in the internal state based on the object.
【0026】このような構成を備えるロボット装置は、
対象物が検出された際に、検出された対象物に基づく上
記内部状態の変化と上記対象物とを関連させて上記記憶
手段に記憶する。The robot device having such a configuration is as follows.
When an object is detected, the change in the internal state based on the detected object and the object are stored in the storage unit in association with each other.
【0027】また、本発明に係るロボット装置の行動制
御方法は、上述の課題を解決するために、対象物を検出
するセンサからの入力信号を評価する知覚評価工程と、
知覚評価工程における評価結果に基づいて変化する擬似
的内部状態を管理する内部状態管理工程と、対象物と当
該対象物に基づく内部状態の変化との関係を記憶手段に
記憶する記憶工程とを有する。このようなロボット装置
の行動制御方法により、ロボット装置は、対象物が検出
された際に、検出された対象物に基づく上記内部状態の
変化と上記対象物とを関連させて上記記憶手段に記憶す
る。Further, in order to solve the above-mentioned problems, a behavior control method for a robot apparatus according to the present invention includes a perceptual evaluation step of evaluating an input signal from a sensor for detecting an object;
It has an internal state management step of managing a pseudo internal state that changes based on the evaluation result in the perceptual evaluation step, and a storage step of storing the relationship between an object and a change in the internal state based on the object in storage means. . With such a behavior control method for a robot device, when a target object is detected, the robot device stores the change in the internal state based on the detected target object and the target object in the storage unit in association with each other. I do.
【0028】[0028]
【発明の実施の形態】以下、本発明の実施の形態につい
て図面を用いて詳しく説明する。この実施の形態は、周
囲環境(或いは外部刺激)や内部状態に応じて自律行動
をする自律型のロボット装置である。Embodiments of the present invention will be described below in detail with reference to the drawings. This embodiment is an autonomous robot device that performs an autonomous action according to the surrounding environment (or external stimulus) or the internal state.
【0029】実施の形態では、先ず、ロボット装置の構
成について説明して、その後、ロボット装置における本
発明の適用部分について詳細に説明する。In the embodiment, first, the configuration of the robot apparatus will be described, and thereafter, the application portion of the present invention in the robot apparatus will be described in detail.
【0030】(1)本実施の形態によるロボット装置の
構成 図1に示すように、「犬」等の動物を模した形状のいわ
ゆるペット型ロボットとされ、胴体部ユニット2の前後
左右にそれぞれ脚部ユニット3A,3B,3C,3Dが
連結されると共に、胴体部ユニット2の前端部及び後端
部にそれぞれ頭部ユニット4及び尻尾部ユニット5が連
結されて構成されている。(1) Configuration of Robot Apparatus According to the Present Embodiment As shown in FIG. 1, a so-called pet-type robot having a shape imitating an animal such as a "dog" is provided. The unit units 3A, 3B, 3C, and 3D are connected, and the head unit 4 and the tail unit 5 are connected to the front end and the rear end of the body unit 2, respectively.
【0031】胴体部ユニット2には、図2に示すよう
に、CPU(Central Processing Unit)10、DRA
M(Dynamic Random Access Memory)11、フラッシュ
ROM(Read 0nly Memory)12、PC(Personal Co
mputer)カードインターフェース回路13及び信号処理
回路14が内部バス15を介して相互に接続されること
により形成されたコントロール部16と、このロボット
装置1の動力源としてのバッテリ17とが収納されてい
る。また、胴体部ユニット2には、ロボット装置1の向
きや動きの加速度を検出するための角速度センサ18及
び加速度センサ19なども収納されている。As shown in FIG. 2, a CPU (Central Processing Unit) 10 and a DRA
M (Dynamic Random Access Memory) 11, Flash ROM (Read 0nly Memory) 12, PC (Personal Co.)
A controller 16 formed by interconnecting a card interface circuit 13 and a signal processing circuit 14 via an internal bus 15 and a battery 17 as a power source of the robot apparatus 1 are housed therein. . The body unit 2 also houses an angular velocity sensor 18 and an acceleration sensor 19 for detecting the acceleration of the direction and movement of the robot device 1.
【0032】また、頭部ユニット4には、外部の状況を
撮像するためのCCD(Charge Coupled Device)カメ
ラ20と、使用者からの「撫でる」や「叩く」といった
物理的な働きかけにより受けた圧力を検出するためのタ
ッチセンサ21と、前方に位置する物体までの距離を測
定するための距離センサ22と、外部音を集音するため
のマイクロホン23と、鳴き声等の音声を出力するため
のスピーカ24と、ロボット装置1の「目」に相当する
LED(Light Emitting Diode)(図示せず)などがそ
れぞれ所定位置に配置されている。The head unit 4 includes a CCD (Charge Coupled Device) camera 20 for capturing an image of an external situation, and a pressure applied by a physical action such as “stroke” or “hit” from the user. , A distance sensor 22 for measuring a distance to an object located ahead, a microphone 23 for collecting external sounds, and a speaker for outputting a sound such as a cry 24 and LEDs (Light Emitting Diodes (not shown)) corresponding to the “eyes” of the robot apparatus 1 are arranged at predetermined positions.
【0033】さらに、各脚部ユニット3A〜3Dの関節
部分や各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、頭部ユニット4及び胴体部ユニット2の
連結部分、並びに尻尾部ユニット5の尻尾5Aの連結部
分などにはそれぞれ自由度数分のアクチュエータ251
〜25n及びポテンショメータ261〜26nが配設さ
れている。例えば、アクチュエータ251〜25nはサ
ーボモータを構成として有している。サーボモータの駆
動により、脚部ユニット3A〜3Dが制御されて、目標
の姿勢或いは動作に遷移する。Further, the joints of the leg units 3A to 3D, the leg units 3A to 3D, and the trunk unit 2
The actuators 25 1 for the degrees of freedom are respectively provided at the connection portions of the head unit 4 and the trunk unit 2, and at the connection portion of the tail 5 A of the tail unit 5.
To 25 n and potentiometers 26 1 to 26 n are provided. For example, each of the actuators 25 1 to 25 n has a servomotor. By driving the servo motor, the leg units 3A to 3D are controlled, and transition to a target posture or operation is made.
【0034】そして、これら角速度センサ18、加速度
センサ19、タッチセンサ21、距離センサ22、マイ
クロホン23、スピーカ24及び各ポテンショメータ2
61〜26nなどの各種センサ並びにLED及び各アク
チュエータ251 〜25nは、それぞれ対応するハブ
271〜27nを介してコントロール部16の信号処理
回路14と接続され、CCDカメラ20及びバッテリ1
7は、それぞれ信号処理回路14と直接接続されてい
る。The angular velocity sensor 18, acceleration sensor 19, touch sensor 21, distance sensor 22, microphone 23, speaker 24 and each potentiometer 2
6 1-26 various sensors and LED and the actuator 25 1 to 25 n, such as n is connected to the signal processing circuit 14 of the control unit 16 via a corresponding hub 27 1 ~ 27 n, CCD camera 20 and the battery 1
7 are directly connected to the signal processing circuit 14, respectively.
【0035】信号処理回路l4は、上述の各センサから
供給されるセンサデータや画像データ及び音声データを
順次取り込み、これらをそれぞれ内部バス15を介して
DRAM11内の所定位置に順次格納する。また信号処
理回路14は、これと共にバッテリ17から供給される
バッテリ残量を表すバッテリ残量データを順次取り込
み、これをDRAM11内の所定位置に格納する。The signal processing circuit 14 sequentially takes in the sensor data, image data, and audio data supplied from each of the above-described sensors, and sequentially stores them at predetermined positions in the DRAM 11 via the internal bus 15. In addition, the signal processing circuit 14 sequentially takes in remaining battery power data indicating the remaining battery power supplied from the battery 17 and stores the data at a predetermined position in the DRAM 11.
【0036】このようにしてDRAM11に格納された
各センサデータ、画像データ、音声データ及びバッテリ
残量データは、この後CPU10がこのロボット装置1
の動作制御を行う際に利用される。The sensor data, image data, audio data, and remaining battery data stored in the DRAM 11 in this manner are thereafter transmitted to the robot apparatus 1 by the CPU 10.
It is used when controlling the operation of.
【0037】実際上CPU10は、ロボット装置1の電
源が投入された初期時、胴体部ユニット2の図示しない
PCカードスロットに装填されたメモリカード28又は
フラッシュROM12に格納された制御プログラムをP
Cカードインターフェース回路13を介して又は直接読
み出し、これをDRAM11に格納する。Actually, at the initial stage when the power of the robot apparatus 1 is turned on, the CPU 10 executes the control program stored in the memory card 28 or the flash ROM 12 inserted in the PC card slot (not shown) of the body unit 2 into a P program.
The data is read out via the C card interface circuit 13 or directly and stored in the DRAM 11.
【0038】また、CPU10は、この後上述のように
信号処理回路14よりDRAM11に順次格納される各
センサデータ、画像データ、音声データ及びバッテリ残
量データに基づいて自己及び周囲の状況や、使用者から
の指示及び働きかけの有無などを判断する。The CPU 10 then determines the status of itself and its surroundings and the usage based on the sensor data, image data, audio data, and remaining battery data sequentially stored in the DRAM 11 from the signal processing circuit 14 as described above. Judge the instruction from the person and the presence or absence of the action.
【0039】さらに、CPU10は、この判断結果及び
DRAM11に格納した制御プログラムに基づいて続く
行動を決定すると共に、当該決定結果に基づいて必要な
アクチュエータ251〜25nを駆動させることによ
り、頭部ユニット4を上下左右に振らせたり、尻尾部ユ
ニット5の尻尾5Aを動かせたり、各脚部ユニット3A
〜3Dを駆動させて歩行させるなどの行動を行わせる。[0039] In addition, CPU 10 is configured to determine a subsequent action based on the control program stored in the determination result and DRAM 11, by driving the actuator 25 1 to 25 n required based on the determination result, the head The unit 4 can be swung up and down, left and right, the tail 5A of the tail unit 5 can be moved, and each leg unit 3A can be moved.
3D is driven to perform an action such as walking.
【0040】また、この際CPU10は、必要に応じて
音声データを生成し、これを信号処理回路14を介して
音声信号としてスピーカ24に与えることにより当該音
声信号に基づく音声を外部に出力させたり、上述のLE
Dを点灯、消灯又は点滅させる。At this time, the CPU 10 generates audio data as required, and supplies the generated audio data to the speaker 24 as an audio signal via the signal processing circuit 14, thereby outputting an audio based on the audio signal to the outside. LE above
D is turned on, off or blinked.
【0041】このようにしてこのロボット装置1におい
ては、自己及び周囲の状況や、使用者からの指示及び働
きかけに応じて自律的に行動し得るようになされてい
る。In this way, the robot apparatus 1 can autonomously act in accordance with the situation of itself and the surroundings, and instructions and actions from the user.
【0042】(2)制御プログラムのソフトウェア構成 ここで、ロボット装置1における上述の制御プログラム
のソフトウェア構成は、図3に示すようになる。この図
3において、デバイス・ドライバ・レイヤ30は、この
制御プログラムの最下位層に位置し、複数のデバイス・
ドライバからなるデバイス・ドライバ・セット31から
構成されている。この場合、各デバイス・ドライバは、
CCDカメラ20(図2)やタイマ等の通常のコンピュ
ータで用いられるハードウェアに直接アクセスすること
を許されたオブジェクトであり、対応するハードウェア
からの割り込みを受けて処理を行う。(2) Software Configuration of Control Program Here, the software configuration of the above-described control program in the robot apparatus 1 is as shown in FIG. In FIG. 3, a device driver layer 30 is located at the lowest layer of the control program, and includes a plurality of device drivers.
It comprises a device driver set 31 composed of drivers. In this case, each device driver
An object that is allowed to directly access hardware used in a normal computer, such as a CCD camera 20 (FIG. 2) and a timer, and performs processing in response to an interrupt from the corresponding hardware.
【0043】また、ロボティック・サーバ・オブジェク
ト32は、デバイス・ドライバ・レイヤ30の最下位層
に位置し、例えば上述の各種センサやアクチュエータ2
51〜25n等のハードウェアにアクセスするためのイ
ンターフェースを提供するソフトウェア群でなるバーチ
ャル・ロボット33と、電源の切換えなどを管理するソ
フトウェア群でなるバワーマネージャ34と、他の種々
のデバイス・ドライバを管理するソフトウェア群でなる
デバイス・ドライバ・マネージャ35と、ロボット装置
1の機構を管理するソフトウェア群でなるデザインド・
ロボット36とから構成されている。The robotic server object 32 is located at the lowest layer of the device driver layer 30 and includes, for example, the various sensors and actuators 2 described above.
A virtual robot 33 comprising a software group that provides a 5 to 253 interface for accessing hardware such as n, a bus word manager 34 made of a software suite for managing the power supply switching, the other various device A device driver manager 35, which is a group of software for managing drivers, and a designed driver, which is a group of software for managing the mechanism of the robot device 1,
And a robot 36.
【0044】マネージャ・オブジェクト37は、オブジ
ェクト・マネージャ38及びサービス・マネージャ39
から構成されている。オブジェクト・マネージャ38
は、ロボティック・サーバ・オブジェクト32、ミドル
・ウェア・レイヤ40、及びアプリケーション・レイヤ
41に含まれる各ソフトウェア群の起動や終了を管理す
るソフトウェア群であり、サービス・マネージャ39
は、メモリカード28(図2)に格納されたコネクショ
ンファイルに記述されている各オブジェクト間の接続情
報に基づいて各オブジェクトの接続を管理するソフトウ
ェア群である。The manager object 37 includes an object manager 38 and a service manager 39.
It is composed of Object Manager 38
Is a software group that manages activation and termination of each software group included in the robotic server object 32, the middleware layer 40, and the application layer 41, and includes a service manager 39.
Are a group of software for managing the connection of each object based on the connection information between the objects described in the connection file stored in the memory card 28 (FIG. 2).
【0045】ミドル・ウェア・レイヤ40は、ロボティ
ック・サーバ・オブジェクト32の上位層に位置し、画
像処理や音声処理などのこのロボット装置1の基本的な
機能を提供するソフトウェア群から構成されている。ま
た、アプリケーション・レイヤ41は、ミドル・ウェア
・レイヤ40の上位層に位置し、当該ミドル・ウェア・
レイヤ40を構成する各ソフトウェア群によって処理さ
れた処理結果に基づいてロボット装置1の行動を決定す
るためのソフトウェア群から構成されている。The middleware layer 40 is located on the upper layer of the robotic server object 32 and is composed of a group of software for providing basic functions of the robot device 1 such as image processing and sound processing. I have. Further, the application layer 41 is located above the middleware layer 40, and
It is composed of a software group for determining an action of the robot apparatus 1 based on a processing result processed by each software group constituting the layer 40.
【0046】なお、ミドル・ウェア・レイヤ40及びア
プリケーション・レイヤ41の具体なソフトウェア構成
をそれぞれ図4に示す。FIG. 4 shows specific software configurations of the middleware layer 40 and the application layer 41.
【0047】ミドル・ウェア・レイヤ40は、図4に示
すように、騒音検出用、温度検出用、明るさ検出用、音
階認識用、距離検出用、姿勢検出用、タッチセンサ用、
動き検出用及び色認識用の各信号処理モジュール50〜
58並びに入力セマンティクスコンバータモジュール5
9などを有する認識系60と、出力セマンティクスコン
バータモジュール68並びに姿勢管理用、トラッキング
用、モーション再生用、歩行用、転倒復帰用、LED点
灯用及び音再生用の各信号処理モジュール61〜67な
どを有する出力系69とから構成されている。As shown in FIG. 4, the middle wear layer 40 includes noise detection, temperature detection, brightness detection, scale recognition, distance detection, posture detection, touch sensor,
Each signal processing module 50 for motion detection and color recognition
58 and input semantics converter module 5
9 and an output semantics converter module 68 and signal processing modules 61 to 67 for attitude management, tracking, motion reproduction, walking, fallback recovery, LED lighting and sound reproduction. And an output system 69.
【0048】認識系60の各信号処理モジュール50〜
58は、ロボティック・サーバ・オブジェクト32のバ
ーチャル・ロボット33によりDRAM11(図2)か
ら読み出される各センサデータや画像データ及び音声デ
ータのうちの対応するデータを取り込み、当該データに
基づいて所定の処理を施して、処理結果を入力セマンテ
ィクスコンバータモジュール59に与える。ここで、例
えば、バーチャル・ロボット33は、所定の通信規約に
よって、信号の授受或いは変換をする部分として構成さ
れている。Each signal processing module 50 to 50 of the recognition system 60
Numeral 58 fetches corresponding data among the sensor data, image data, and audio data read from the DRAM 11 (FIG. 2) by the virtual robot 33 of the robotic server object 32, and performs predetermined processing based on the data. Is given to the input semantics converter module 59. Here, for example, the virtual robot 33 is configured as a part that exchanges or converts signals according to a predetermined communication protocol.
【0049】入力セマンティクスコンバータモジュール
59は、これら各信号処理モジュール50〜58から与
えられる処理結果に基づいて、「うるさい」、「暑
い」、「明るい」、「ボールを検出した」、「転倒を検
出した」、「撫でられた」、「叩かれた」、「ドミソの
音階が聞こえた」、「動く物体を検出した」又は「障害
物を検出した」などの自己及び周囲の状況や、使用者か
らの指令及び働きかけを認識し、認識結果をアプリケー
ション・レイヤ41(図2)に出力する。The input semantics converter module 59 detects "noisy", "hot", "bright", "ball detected", and "fallover" based on the processing results given from each of the signal processing modules 50-58. Self and surrounding conditions such as `` has been stroked '', `` stroked '', `` hitted '', `` he heard the domes '', `` detected a moving object '' or `` detected an obstacle '', and the user , And outputs the recognition result to the application layer 41 (FIG. 2).
【0050】アプリケーション・レイヤ4lは、図5に
示すように、行動モデルライブラリ70、行動切換モジ
ュール71、学習モジュール72、感情モデル73及び
本能モデル74の5つのモジュールから構成されてい
る。As shown in FIG. 5, the application layer 41 includes five modules: a behavior model library 70, a behavior switching module 71, a learning module 72, an emotion model 73, and an instinct model 74.
【0051】行動モデルライブラリ70には、図6に示
すように、「バッテリ残量が少なくなった場合」、「転
倒復帰する」、「障害物を回避する場合」、「感情を表
現する場合」、「ボールを検出した場合」などの予め選
択されたいくつかの条件項目にそれぞれ対応させて、そ
れぞれ独立した行動モデル701〜70nが設けられて
いる。As shown in FIG. 6, the behavior model library 70 includes “when the remaining battery power is low”, “returns to fall”, “when avoiding obstacles”, and “when expressing emotions”. , And independent action models 70 1 to 70 n are respectively provided corresponding to some pre-selected condition items such as “when a ball is detected”.
【0052】そして、これら行動モデル701〜70n
は、それぞれ入力セマンティクスコンバータモジュール
59から認識結果が与えられたときや、最後の認識結果
が与えられてから一定時間が経過したときなどに、必要
に応じて後述のように感情モデル73に保持されている
対応する情動のパラメータ値や、本能モデル74に保持
されている対応する欲求のパラメータ値を参照しながら
続く行動をそれぞれ決定し、決定結果を行動切換モジュ
ール71に出力する。The behavior models 70 1 to 70 n
Are stored in the emotion model 73 as described later, as necessary, when a recognition result is given from the input semantics converter module 59 or when a certain period of time has passed since the last recognition result was given. The next action is determined with reference to the corresponding emotion parameter value and the corresponding desire parameter value held in the instinct model 74, and the determination result is output to the action switching module 71.
【0053】なお、この実施の形態の場合、各行動モデ
ル701〜70nは、次の行動を決定する手法として、
図7に示すような1つのノード(状態)NODE0〜N
ODEnから他のどのノードNODE0〜NODEnに
遷移するかを各ノードNODE0〜NODEnに間を接
続するアークARC1〜ARCnに対してそれぞれ設定
された遷移確率P1〜Pnに基づいて確率的に決定する
有限確率オートマトンと呼ばれるアルゴリズムを用い
る。In the case of this embodiment, each of the behavior models 70 1 to 70 n uses the following method to determine the next behavior.
One node (state) NODE 0 to N as shown in FIG.
The transition probability P 1 to P n which is set respectively arc ARC 1 ~ARC n connecting between whether to transition from ODE n to any other node NODE 0 ~NODE n each node NODE 0 ~NODE n An algorithm called a finite stochastic automaton that determines stochastically on the basis is used.
【0054】具体的に、各行動モデル701〜70
nは、それぞれ自己の行動モデル701〜70nを形成
するノードNODE0〜NODEnにそれぞれ対応させ
て、これらノードNODE0〜NODEnごとに図8に
示すような状態遷移表80を有している。Specifically, each of the behavior models 70 1 to 70 1
n has a state transition table 80 as shown in FIG. 8 for each of the nodes NODE 0 to NODE n corresponding to the nodes NODE 0 to NODE n forming their own behavior models 70 1 to 70 n , respectively. ing.
【0055】この状態遷移表80では、そのノードNO
DE0〜NODEnにおいて遷移条件とする入力イベン
ト(認識結果)が「入力イベント名」の列に優先順に列
記され、その遷移条件についてのさらなる条件が「デー
タ名」及び「データ範囲」の列における対応する行に記
述されている。In this state transition table 80, the node NO
Input events (recognition results) as transition conditions in DE 0 to NODE n are listed in order of priority in the column of “input event name”, and further conditions for the transition conditions are listed in the columns of “data name” and “data range”. It is described in the corresponding line.
【0056】したがって、図8の状態遷移表80で表さ
れるノードNODE100では、「ボールを検出(BA
LL)」という認識結果が与えられた場合に、当該認識
結果と共に与えられるそのボールの「大きさ(SIZ
E)」が「0から1000」の範囲であることや、「障害物
を検出(OBSTACLE)」という認識結果が与えら
れた場合に、当該認識結果と共に与えられるその障害物
までの「距離(DISTANCE)」が「0から100」の
範囲であることが他のノードに遷移するための条件とな
っている。Therefore, in the node NODE 100 represented by the state transition table 80 in FIG.
LL) ”, the“ size (SIZ) of the ball given together with the recognition result is given.
E) is in the range of “0 to 1000”, or when a recognition result of “obstacle detected (OBSTACLE)” is given, the “distance (DISTANCE)” to the obstacle given together with the recognition result is given. )) Is in the range of “0 to 100”, which is a condition for transitioning to another node.
【0057】また、このノードNODE100では、認
識結果の入力がない場合においても、行動モデル701
〜70nが周期的に参照する感情モデル73及び本能モ
デル74にそれぞれ保持された各情動及び各欲求のパラ
メータ値のうち、感情モデル73に保持された「喜び
(JOY)」、「驚き(SURPRISE)」若しくは
「悲しみ(SUDNESS)」のいずれかのパラメータ
値が「50から100」の範囲であるときには他のノードに
遷移することができるようになっている。In the node NODE 100 , even when the recognition result is not input, the behavior model 70 1
Of the parameter values of each emotion and each desire held in the emotion model 73 and the instinct model 74 which are periodically referred to by the n- 70n, “joy” and “surprise” held in the emotion model 73 are stored. )) Or "Sadness (SUDNESS)" when the parameter value is in the range of "50 to 100", it is possible to transition to another node.
【0058】また、状態遷移表80では、「他のノード
ヘの遷移確率」の欄における「遷移先ノード」の行にそ
のノードNODE0〜 NODEnから遷移できるノー
ド名が列記されていると共に、「入力イベント名」、
「データ値」及び「データの範囲」の列に記述された全
ての条件が揃ったときに遷移できる他の各ノードNOD
E0〜NODEnへの遷移確率が「他のノードヘの遷移
確率」の欄内の対応する箇所にそれぞれ記述され、その
ノードNODE0〜NODEnに遷移する際に出力すべ
き行動が「他のノードヘの遷移確率」の欄における「出
力行動」の行に記述されている。なお、「他のノードヘ
の遷移確率」の欄における各行の確率の和は100
[%]となっている。In the state transition table 80, the names of nodes that can transition from the nodes NODE 0 to NODE n are listed in the row of “transition destination node” in the column of “transition probability to another node”. Input event name ",
Other nodes NOD that can transition when all the conditions described in the columns of "data value" and "data range" are met
The transition probabilities from E 0 to NODE n are respectively described in corresponding portions in the column of “transition probability to other nodes”, and the action to be output when transitioning to that node NODE 0 to NODE n is “other It is described in the row of “output action” in the column of “transition probability to node”. Note that the sum of the probabilities of each row in the column of “transition probability to another node” is 100
[%].
【0059】したがって、図8の状態遷移表80で表さ
れるノードNODE100では、例えば「ボールを検出
(BALL)」し、そのボールの「SIZE(大き
さ)」が「0から1000」の範囲であるという認識結果が
与えられた場合には、「30[%]」の確率で「ノードN
ODE120(node 120)」に遷移でき、そのとき「A
CTION1」の行動が出力されることとなる。Therefore, in the node NODE 100 represented by the state transition table 80 in FIG. 8, for example, “ball is detected (BALL)”, and the “SIZE” of the ball is in the range of “0 to 1000”. Is given, the probability of “30 [%]” and “node N
ODE 120 (node 120) "and then" A
The action of “CTION1” is output.
【0060】各行動モデル701〜70nは、それぞれ
このような状態遷移表80として記述されたノードNO
DE0〜 NODEnがいくつも繋がるようにして構成
されており、入力セマンティクスコンバータモジュール
59から認識結果が与えられたときなどに、対応するノ
ードNODE0〜NODEnの状態遷移表を利用して確
率的に次の行動を決定し、決定結果を行動切換モジュー
ル71に出力するようになされている。Each of the behavior models 70 1 to 70 n has the node NO described in the state transition table 80 as described above.
DE 0 to NODE n are connected to each other, and when a recognition result is given from the input semantics converter module 59 or the like, the probability is calculated using the state transition table of the corresponding nodes NODE 0 to NODE n. The next action is determined, and the determination result is output to the action switching module 71.
【0061】図5に示す行動切換モジュール71は、行
動モデルライブラリ70の各行動モデル701〜70n
からそれぞれ出力される行動のうち、予め定められた優
先順位の高い行動モデル701〜70nから出力された
行動を選択し、当該行動を実行すべき旨のコマンド(以
下、これを行動コマンドという。)をミドル・ウェア・
レイヤ40の出力セマンティクスコンバータモジュール
68に送出する。なお、この実施の形態においては、図
6において下側に表記された行動モデル701〜70n
ほど優先順位が高く設定されている。The action switching module 71 shown in FIG. 5 includes the action models 70 1 to 70 n of the action model library 70.
Among the actions which are output from, select an action that is output from a predetermined higher priority behavior model 70 1 to 70 n, the command to the effect that execute the action (hereinafter, referred to as an action command )) Middleware
The output is sent to the output semantics converter module 68 of the layer 40. Incidentally, in this embodiment, the behavior model, labeled on the lower side in FIG. 6 70 1 to 70 n
The higher the priority, the higher the priority.
【0062】また、行動切換モジュール71は、行動完
了後に出力セマンティクスコンバータモジュール68か
ら与えられる行動完了情報に基づいて、その行動が完了
したことを学習モジュール72、感情モデル73及び本
能モデル74に通知する。The action switching module 71 notifies the learning module 72, the emotion model 73, and the instinct model 74 that the action has been completed, based on the action completion information provided from the output semantics converter module 68 after the action is completed. .
【0063】一方、学習モジュール72は、入力セマン
ティクスコンバータモジュール59から与えられる認識
結果のうち、「叩かれた」や「撫でられた」など、使用
者からの働きかけとして受けた教示の認識結果を入力す
る。On the other hand, the learning module 72 inputs the recognition result of the teaching received from the user, such as “hit” or “stroke”, among the recognition results given from the input semantics converter module 59. I do.
【0064】そして、学習モジュール72は、この認識
結果及び行動切換モジュール71からの通知に基づい
て、「叩かれた(叱られた)」ときにはその行動の発現
確率を低下させ、「撫でられた(誉められた)」ときに
はその行動の発現確率を上昇させるように、行動モデル
ライブラリ70における対応する行動モデル701〜7
0nの対応する遷移確率を変更する。Then, based on the recognition result and the notification from the action switching module 71, the learning module 72 lowers the probability of occurrence of the action when "beaten (scorched)" and "strokes ( praised obtained) "sometimes to increase the expression probability of that action, behavior model 70 1-7 corresponding in behavioral model library 70
Change the corresponding transition probabilities of 0 n .
【0065】他方、感情モデル73は、「喜び(jo
y)」、「悲しみ(sadness)」、「怒り(anger)」、
「驚き(surprise)」、「嫌悪(disgust)」及び「恐
れ(fear)」の合計6つの情動について、各情動ごとに
その情動の強さを表すパラメータを保持している。そし
て、感情モデル73は、これら各情動のパラメータ値
を、それぞれ入力セマンティクスコンバータモジュール
59から与えられる「叩かれた」及び「撫でられた」な
どの特定の認識結果と、経過時間及び行動切換モジュー
ル71からの通知などに基づいて周期的に更新する。On the other hand, the emotion model 73 indicates “joy (jo
y) "," sadness "," anger ",
For a total of six emotions, “surprise”, “disgust”, and “fear”, a parameter indicating the strength of the emotion is stored for each emotion. Then, the emotion model 73 converts the parameter values of each of these emotions into specific recognition results such as “hit” and “stroke” given from the input semantics converter module 59 and the elapsed time and action switching module 71. Update periodically based on notification from
【0066】具体的には、感情モデル73は、入力セマ
ンティクスコンバータモジュール59から与えられる認
識結果と、そのときのロボット装置1の行動と、前回更
新してからの経過時間などに基づいて所定の演算式によ
り算出されるそのときのその情動の変動量を△E
[t]、現在のその情動のパラメータ値をE[t]、そ
の情動の感度を表す係数をkeとして、(1)式によっ
て次の周期におけるその情動のパラメータ値E[t+
1]を算出し、これを現在のその情動のパラメータ値E
[t]と置き換えるようにしてその情動のパラメータ値
を更新する。また、感情モデル73は、これと同様にし
て全ての情動のパラメータ値を更新する。Specifically, the emotion model 73 is a predetermined calculation based on the recognition result given from the input semantics converter module 59, the behavior of the robot device 1 at that time, the elapsed time since the last update, and the like. The amount of change of the emotion at that time calculated by the equation is expressed by △ E
[T], E [t] of the current parameter value of the emotion, the coefficient representing the sensitivity of the emotion as k e, (1) the parameter value of the emotion in a next period by equation E [t +
1] is calculated, and the current parameter value E of the emotion is calculated.
The parameter value of the emotion is updated by replacing it with [t]. The emotion model 73 updates the parameter values of all emotions in the same manner.
【0067】[0067]
【数1】 (Equation 1)
【0068】なお、各認識結果や出力セマンティクスコ
ンバータモジュール68からの通知が各情動のパラメー
タ値の変動量△E[t]にどの程度の影響を与えるかは
予め決められており、例えば「叩かれた」といった認識
結果は「怒り」の情動のパラメータ値の変動量△E
[t]に大きな影響を与え、「撫でられた」といった認
識結果は「喜び」の情動のパラメータ値の変動量△E
[t]に大きな影響を与えるようになっている。The degree to which each recognition result and the notification from the output semantics converter module 68 affect the variation ΔE [t] of the parameter value of each emotion is determined in advance. Is the amount of change in the parameter value of the emotion of “anger” △ E
[T] is greatly affected, and the recognition result such as “stroke” is the variation amount of the parameter value of the emotion of “joy” 喜 び E
[T] is greatly affected.
【0069】ここで、出力セマンティクスコンバータモ
ジュール68からの通知とは、いわゆる行動のフィード
バック情報(行動完了情報)であり、行動の出現結果の
情報であり、感情モデル73は、このような情報によっ
ても感情を変化させる。これは、例えば、「吠える」と
いった行動により怒りの感情レベルが下がるといったよ
うなことである。なお、出力セマンティクスコンバータ
モジュール68からの通知は、上述した学習モジュール
72にも入力されており、学習モジュール72は、その
通知に基づいて行動モデル701〜70nの対応する遷
移確率を変更する。Here, the notification from the output semantics converter module 68 is so-called feedback information of the action (action completion information), information of the appearance result of the action, and the emotion model 73 also uses such information. Change emotions. This is, for example, a behavior such as "barking" that lowers the emotional level of anger. The notification from the output semantics converter module 68 is also input to the learning module 72 described above, the learning module 72 changes the corresponding transition probability of the behavioral models 70 1 to 70 n based on the notification.
【0070】なお、行動結果のフィードバックは、行動
切換モジュレータ71の出力(感情が付加された行動)
によりなされるものであってもよい。The feedback of the action result is output from the action switching modulator 71 (the action to which the emotion is added).
May be performed by
【0071】一方、本能モデル74は、「運動欲(exer
cise)」、「愛情欲(affection)」、「食欲(appetit
e)」及び「好奇心(curiosity)」の互いに独立した4
つの欲求について、これら欲求ごとにその欲求の強さを
表すパラメータを保持している。そして、本能モデル7
4は、これらの欲求のパラメータ値を、それぞれ入力セ
マンティクスコンバータモジュール59から与えられる
認識結果や、経過時間及び行動切換モジュール71から
の通知などに基づいて周期的に更新する。On the other hand, the instinct model 74 is “exercise greed (exer
cise) "," affection "," appetite "
e) ”and“ curiosity ”4
For each of the desires, a parameter indicating the strength of the desire is stored for each of the desires. And instinct model 7
4 periodically updates the parameter values of these desires based on the recognition result given from the input semantics converter module 59, the elapsed time, the notification from the action switching module 71, and the like.
【0072】具体的には、本能モデル74は、「運動
欲」、「愛情欲」及び「好奇心」については、認識結
果、経過時間及び出力セマンティクスコンバータモジュ
ール68からの通知などに基づいて所定の演算式により
算出されるそのときのその欲求の変動量をΔI[k]、
現在のその欲求のパラメータ値をI[k]、その欲求の
感度を表す係数kiとして、所定周期で(2)式を用い
て次の周期におけるその欲求のパラメータ値I[k+
1]を算出し、この演算結果を現在のその欲求のパラメ
ータ値I[k]と置き換えるようにしてその欲求のパラ
メータ値を更新する。また、本能モデル74は、これと
同様にして「食欲」を除く各欲求のパラメータ値を更新
する。More specifically, the instinct model 74 determines, based on the recognition result, the elapsed time, the notification from the output semantics converter module 68, and the like, for “exercise desire”, “affection desire”, and “curiosity”. The change amount of the desire at that time calculated by the arithmetic expression is ΔI [k],
Assuming that the parameter value of the current desire is I [k] and the coefficient k i representing the sensitivity of the desire is a parameter value I [k +
1] is calculated, and the calculation result is replaced with the current parameter value I [k] of the desire to update the parameter value of the desire. Similarly, the instinct model 74 updates the parameter values of each desire except “appetite”.
【0073】[0073]
【数2】 (Equation 2)
【0074】なお、認識結果及び出力セマンティクスコ
ンバータモジュール68からの通知などが各欲求のパラ
メータ値の変動量△I[k]にどの程度の影響を与える
かは予め決められており、例えば出力セマンティクスコ
ンバータモジュール68からの通知は、「疲れ」のパラ
メータ値の変動量△I[k]に大きな影響を与えるよう
になっている。The degree to which the recognition result and the notification from the output semantics converter module 68 affect the variation ΔI [k] of the parameter value of each desire is determined in advance. For example, the output semantics converter 68 The notification from the module 68 has a large effect on the variation ΔI [k] of the parameter value of “fatigue”.
【0075】なお、本実施の形態においては、各情動及
び各欲求(本能)のパラメータ値がそれぞれ0から100ま
での範囲で変動するように規制されており、また係数k
e、kiの値も各情動及び各欲求ごとに個別に設定され
ている。In the present embodiment, the parameter values of each emotion and each desire (instinct) are regulated so as to fluctuate in the range of 0 to 100, and the coefficient k
e, the value of k i is also set individually for each emotion and each desire.
【0076】一方、ミドル・ウェア・レイヤ40の出力
セマンティクスコンバータモジュール68は、図4に示
すように、上述のようにしてアプリケーション・レイヤ
41の行動切換モジュール71から与えられる「前
進」、「喜ぶ」、「鳴く」又は「トラッキング(ボール
を追いかける)」といった抽象的な行動コマンドを出力
系69の対応する信号処理モジュール61〜67に与え
る。On the other hand, as shown in FIG. 4, the output semantics converter module 68 of the middleware layer 40 provides “forward” and “pleased” provided by the action switching module 71 of the application layer 41 as described above. , "Sound" or "tracking (follow the ball)" is given to the corresponding signal processing modules 61 to 67 of the output system 69.
【0077】そしてこれら信号処理モジュール61〜6
7は、行動コマンドが与えられると当該行動コマンドに
基づいて、その行動を行うために対応するアクチュエー
タ251〜25n(図2)に与えるべきサーボ指令値
や、スピーカ24(図2)から出力する音の音声データ
及び又は「目」のLEDに与える駆動データを生成し、
これらのデータをロボティック・サーバ・オブジェクト
32のバーチャル・ロボット33及び信号処理回路14
(図2)を順次介して対応するアクチュエータ251〜
25n又はスピーカ24又はLEDに順次送出する。The signal processing modules 61 to 6
7, given the behavior command based on the action command, and servo command value to be applied to the actuator 25 1 to 25 n (Fig. 2) corresponding to perform that action, the output from the speaker 24 (FIG. 2) Generating sound data of the sound to be played and / or driving data to be given to the LED of the “eye”,
These data are transferred to the virtual robot 33 of the robotic server object 32 and the signal processing circuit 14.
The corresponding actuators 25 1 to 25 1 through (FIG. 2)
25n or the speaker 24 or the LED.
【0078】このようにしてロボット装置1において
は、制御プログラムに基づいて、自己(内部)及び周囲
(外部)の状況や、使用者からの指示及び働きかけに応
じた自律的な行動を行うことができるようになされてい
る。As described above, the robot apparatus 1 can perform autonomous actions according to its own (internal) and surrounding (external) conditions and instructions and actions from the user based on the control program. It has been made possible.
【0079】(3)ロボット装置への本発明の適用 ここで、説明する技術は、本発明をロボット装置に適用
するための原理となる技術である。(3) Application of the Present Invention to a Robot Apparatus The technique described here is a technique which is a principle for applying the present invention to a robot apparatus.
【0080】(3−1)システム構造の概要 先ず、情動関連シンボル獲得(Emotinally Gounded Sym
bol Acquisition)を実現するシステム構造の概要を説
明する。(3-1) Outline of System Structure First, acquisition of emotionally related symbols (Emotinally Gounded Sym)
The outline of the system structure that realizes bol acquisition is described.
【0081】ここで、先ず、システムを構築するにあた
り以下の問題を提起し、本発明を適用したシステムでは
これを解決し、従来において達成できなかった、ライフ
ライク(life-like)なロボット装置の実現を図ってい
る。 (Req-1)言語獲得行動をどのようにロボット装置1の
ような自律行動システムに埋め込むか。 (Req-2)情動関連シンボル(Emotionally Grounded S
ymbol)をどのようにして構成するか。 (Req-3)実世界における認識対象物をどのようにカテ
ゴライズするか。 (Req-4)ロボット装置1と人の間でどのようにして、
同じ対象物に注意をはらうか。すなわち、共同注意(Sh
ared Attention)の問題をどう解決するか。Here, first, the following problems are raised when constructing a system, and the system to which the present invention is applied solves this problem, and a system for a life-like robot apparatus which could not be achieved conventionally. We are trying to make it happen. (Req-1) How to embed language acquisition behavior in an autonomous behavior system such as the robot device 1. (Req-2) Emotionally Grounded S
ymbol). (Req-3) How to categorize objects in the real world. (Req-4) How is between the robot device 1 and a person
Do you pay attention to the same object? That is, joint attention (Sh
ared Attention).
【0082】以上のように先ず問題を提起した。先ず、
(Req-1)に対しては、動物行動学的モデル(Ethologi
cal Model)による自律行動生成と物理関連シンボル獲
得(Physically Grounded Symbol Acquisition)の方法
とを統合することで解決した。As described above, a problem was first raised. First,
For (Req-1), an ethological model (Ethologi
The problem was solved by integrating the autonomous behavior generation by the physical model and the method of physically grounded symbol acquisition (Physically Grounded Symbol Acquisition).
【0083】ここで、動物行動学的モデル(Ethologica
l Model)による自律行動生成は、例えばArkinらの報告
(Arkin, R.C., Fujita, M., Takagi, T., and Hasegaw
a,R. Ethological Model..., submitted to ICRA-200
1、以下、文献6という。)やBatesの報告(Bates, J.
The nature of character in interactive worlds and
the oz project. Technical Report CMU-CS-92-200, Ca
rnegie Mellon Unversity, Oct. 1992、以下、文献6と
いう。)において提唱されている技術である。Here, an ethological model (Ethologica
l Model), for example, is based on the report of Arkin et al. (Arkin, RC, Fujita, M., Takagi, T., and Hasegaw
a, R.Ethological Model ..., submitted to ICRA-200
1, hereinafter referred to as Reference 6. ) And Bates reports (Bates, J.
The nature of character in interactive worlds and
the oz project.Technical Report CMU-CS-92-200, Ca
rnegie Mellon Unversity, Oct. 1992; )).
【0084】また、物理関連シンボル獲得(Physically
Grounded Symbol Acquisition)の方法は、例えば、上
述の文献1、文献2及び文献3において提唱されている
技術である。Further, physically related symbol acquisition (Physically
The method of Grounded Symbol Acquisition) is, for example, a technique proposed in the above-mentioned Documents 1, 2, and 3.
【0085】特に、自律行動の1つとして情報に関する
飢餓感を満たすような行動としての情報獲得行動を定義
し、食物を食べる行動と同様なサブシステムとして、情
報を「食べる」といった情報獲得行動を実現している。
獲得対象とされる情報としては、対象物の呼び名や意味
である。In particular, as one of the autonomous actions, an information obtaining action is defined as an action that satisfies the hunger of information, and the information obtaining action such as “eating” information is defined as a subsystem similar to the action of eating food. Has been realized.
The information to be acquired is the name and meaning of the object.
【0086】ここで、サブシステムは、ロボット装置1
の行動を規定するシステムであって、ロボット装置1
は、このサブシステムを行動の種類に応じて複数種類も
っている。そして、サブシステムは、主に知覚や内部状
態によって決定するようになされている。Here, the subsystem is the robot device 1
A robot device 1
Has several types of this subsystem depending on the type of action. The subsystem is determined mainly based on perception and internal state.
【0087】さらに、上述の(Req-2)の情動関連シン
ボル(Emotionally Grounded Symbol)に関しては、そ
れらの行動の動機を生成している内部状態の変化とその
時の入力、行動とを関連付けることで解決する。具体的
には、入力のあったときの内部状態そのものではなく、
入力に対しての内部状態の変化を関連づけることで、そ
の対象物の個体への意味とその内部状態が満たされたと
きに情動想起との関連が可能にしている。Further, regarding the emotionally grounded symbols (Req-2) described above, a solution is obtained by associating the change of the internal state that generates the motive of the action with the input and action at that time. I do. Specifically, it is not the internal state itself when there is an input,
By associating the change of the internal state with the input, it is possible to associate the meaning of the object with the individual and the emotional recall when the internal state is satisfied.
【0088】また、(Req-3)に関しては、対象物を知
覚(Perception)で認識(Categorize)し、知覚として
検出した色等のカテゴライザー(Categorizer)として
統計的なモデル等を用いることで、実世界の認識対象物
を適切にカテゴライズしている。As for (Req-3), the object is recognized (Categorize) by perception (Perception), and a statistical model or the like is used as a categorizer (Categorizer) of colors and the like detected as perception. Appropriately categorizes real-world recognition objects.
【0089】例えば、コンピューター内に構築された仮
想的(Virtual)な世界で提案されているEl-Nasrらの報
告(El-Nasr,M., Loeger, T., and Yen, J., PETEEI: A
Pet with Evolving Emotionaly Intelligence, in pro
ceedings of InternationalConference on Autonomous
Agents, 2000、以下、文献8という。)のおいて提唱さ
れているSynthesis Creaturとの違いは、ロボット装置
が実世界で動作できなければならない点である。実世界
の物体においては、色や形状といったものがそれぞれの
特徴空間において連続的に分布している。さらに、それ
を見ただけでは現実にはどのような意味を持つものかを
あらかじめプログラムされていなければ知ることができ
ない。このようなことから、上述の(Req-3)に関して
は、知覚(Perception)のカテゴライザー(Categorize
r)として統計的なモデルなどを用いて解決した。For example, a report proposed by El-Nasr et al. (El-Nasr, M., Loeger, T., and Yen, J., PETEEI) proposed in a virtual world built in a computer: A
Pet with Evolving Emotionaly Intelligence, in pro
ceedings of InternationalConference on Autonomous
Agents, 2000, hereafter referred to as Reference 8. The difference from the Synthesis Creatur proposed in (2) is that the robotic device must be able to operate in the real world. In the real world, objects such as colors and shapes are continuously distributed in each feature space. Furthermore, just by looking at it, you cannot know what it actually means unless it is programmed in advance. Therefore, regarding the above (Req-3), the categorizer of perception (Categorize)
Solved using a statistical model as r).
【0090】上述の(Req-4)の共同注意の問題に関し
ては、この動物行動学的モデル(Ethological Model)
の行動選択の中に、ある対象物に注目した行動をとる、
という部分を利用して自然な形で実行することで解決し
ている。Regarding the above-mentioned joint attention problem of (Req-4), this ethological model (Ethological Model)
Take action focusing on a certain object in the action selection of
The problem is solved by executing in a natural form using the part.
【0091】実世界におけるシンボル獲得(Symbol Acq
uisition)で重要な機能にShared Attention(共同注
意)或いはJoint Attentionといわれるものがある。Bru
nerの報告(Bruner, J. Learning how to do things wi
th words, in J. Bruner andA. Garton (Eds.) Human g
rowth and development, Wolfson College Lectures,Cl
aredon Press, 1978、以下、文献9という。)において
は、共同注意(Shared Attention)は、幼児の学習過程
において重要な働きをすることが認知心理学などより指
摘されている。例えば、指をさした方向や視線の方向を
幼児が自然に見ることにより、教える側と教わる側が注
意をむける対象物を共有する、という能力である。Symbol acquisition in the real world (Symbol Acq
An important feature in uisition is what is called Shared Attention or Joint Attention. Bru
ner's report (Bruner, J. Learning how to do things wi
th words, in J. Bruner and A. Garton (Eds.) Human g
rowth and development, Wolfson College Lectures, Cl
aredon Press, 1978; In (1), cognitive psychology and others point out that shared attention plays an important role in the learning process of young children. For example, the ability of an infant to naturally look at the direction in which the finger is pointed or the direction of the line of sight, so that the instructor and the instructor can share the target object.
【0092】このような共同注意を、動物行動学的モデ
ル(Ethological Model)の行動選択の中に、ある対象
物に注目した行動をとる、という部分を利用して自然な
形で自律行動に取り入れている。[0092] Such joint attention is naturally incorporated into autonomous behavior by using the part of taking action focusing on a certain object in the behavior selection of the ethological model (Ethological Model). ing.
【0093】以下、まず最初に、動物行動学の研究(Et
hological Study)を考慮した行動制御(Behavior Cont
rol)に関して簡単に説明する。例えば、動物行動学の
動作制御の技術としては、上述の文献6が挙げられる。Hereinafter, ethological studies (Et.
Behavior control considering behavioral study (Behavior Cont)
rol). For example, the above-mentioned literature 6 is mentioned as a motion control technology of ethology.
【0094】ついで、構造全体といかに情報獲得行動を
自律型のロボット装置1のソフトウエアに統合するかに
関して述べ、共同注意に関しての解決方法について説明
する。Next, the whole structure and how to integrate the information acquisition behavior into the software of the autonomous robot device 1 will be described, and a solution method for joint attention will be described.
【0095】(3−2)外的刺激と内的状態との関連付
け(Fusion of External Stimuli and Internal Variab
les) 動物行動学的モデル(Ethological Model)における重
要点は、行動が内部状態及び外的刺激の両者によって選
択される、という点と、内部状態からのモチベーション
(Motivation)生成と外的刺激からの知覚刺激(Releas
e signal)はそれぞれ独立に評価され、行動評価値(Be
havior Value)生成時に関連づけ(fusion)される、と
いう点にある。これにより、内部状態をある範囲内に止
めるようなホメオスタシス行動を生成することができ
る。ここで、ホメスタシス行動とは、例えば内部状態を
一定に保つように表出される行動である。(3-2) Association between external stimulus and internal state (Fusion of External Stimuli and Internal Variab)
les) The important points in the ethological model are that behavior is selected by both internal states and external stimuli, and that motivation generation from internal states and motivation from external stimuli are important. Perceptual stimulus (Releas
e signal) are evaluated independently, and the action evaluation value (Be
havior Value) is associated (fusion) when it is generated. As a result, it is possible to generate a homeostasis behavior that stops the internal state within a certain range. Here, the homeostasis behavior is, for example, a behavior expressed so as to keep the internal state constant.
【0096】図9には、ある行動に対して、対応する内
部状態と外的刺激とを独立に評価するための構成を示し
ている。また、図10には、ホメスタシス行動を実現す
るための構成であって、具体的には、行動が体系的に構
成され、外部環境を解して外的刺激を得て、内部状態を
一定に保つ行動が選択されるための構成を示している。FIG. 9 shows a configuration for independently evaluating an internal state and an external stimulus corresponding to a certain action. FIG. 10 shows a configuration for realizing homeostasis behavior. Specifically, the behavior is systematically configured, the external environment is obtained to obtain an external stimulus, and the internal state is kept constant. 4 shows a configuration for selecting an action to be kept.
【0097】図9について、摂食行動(ingestive)の
場合を例に挙げて説明する。モチベーション生成部(Mo
tivation Creator)101は、空腹度等の内部状態から
摂食行動のモチベーション値(motivation value)を評
価して出力する。一方、リリースメカニズム(release
mechanism)102は、摂食行動に関係する外的刺激、
例えば、食物があればその摂食行動の知覚信号(releas
e signal)を評価して出力する。そして、モチベーショ
ン値(motivation value)とリリース信号或いは知覚信
号(release signal)とは独立に評価されている。FIG. 9 will be described by taking the case of ingestive behavior as an example. Motivation generator (Mo
The tivation creator) 101 evaluates and outputs a motivation value (motivation value) of a feeding behavior from an internal state such as the degree of hunger. On the other hand, the release mechanism (release
mechanism) 102 is an external stimulus related to eating behavior,
For example, if there is food, the perception signal of its eating behavior (releas
e signal) and output. Then, the motivation value and the release signal or the perception signal (release signal) are evaluated independently.
【0098】行動評価部(Behavior evaluator)103
では、モチベーション値(motivation value)とリリー
ス信号(release signal)とを評価して、この行動その
ものの評価値を行動評価値(behavior value)として出
力する。このような行動が複数存在し、それぞれが独立
に行動評価値(behavior value)を計算し、後述する行
動選択部(Action selection)に出力する。行動選択部
(Action selection)では、もっとも高い評価を与えた
行動を選択して、その行動を実行する。Behavior evaluation unit (Behavior evaluator) 103
Then, a motivation value (motivation value) and a release signal (release signal) are evaluated, and an evaluation value of the action itself is output as an action evaluation value (behavior value). There are a plurality of such actions, each of which independently calculates a behavior evaluation value (behavior value) and outputs it to an action selection unit (Action selection) described later. In the action selection unit (Action selection), the action with the highest evaluation is selected and executed.
【0099】ここで、モチベーション生成部(motivati
on creator)101を内部状態が適当な範囲からずれた
場合に、それをもとの範囲に戻すことが出来る行動にす
るように定義させることで、その行動の対象物が外界に
存在すればそれを獲得にいくという一般的な行動定義が
実現され、これによりホメオスタシス行動が実現される
ようになる。Here, the motivation generation section (motivati
On creator) 101 is defined to be an action that can return to the original range when the internal state deviates from an appropriate range, so that if the object of the action exists in the outside world, A general behavioral definition of acquiring is realized, thereby realizing homeostasis behavior.
【0100】(3−3)情動関連シンボル獲得の構築
(Emotionally Grounded Symbol Acquisition Architec
ture) 情動関連シンボル獲得(Emotionally Grounded Symbol
Acquisition)により、自律行動の一部としての未知の
対象物に対する情報獲得行動を実現している。情動関連
シンボル獲得(Emotionally Grounded Symbol Acquisit
ion)が自律行動の一部として実現される構成は、例え
ば図12に示すような構成になる。このシステム構築に
おけるポイントは以下のようになる。 (i)未知入力か既知入力かを判別できる各チャンネル
のカテゴライザー。 (ii)各チャンネルのカテゴライズの結果を内部状態の
変化するタイミングで記憶する連想記憶。 (iii)内部状態と外部刺激の動物行動学的モデル(Eth
ological Model)による統合。(3-3) Construction of Emotionally Grounded Symbol Acquisition Architec
ture) Emotionally Grounded Symbol
Acquisition) realizes information acquisition behavior for unknown objects as part of autonomous behavior. Emotionally Grounded Symbol Acquisit
ion) is realized as a part of the autonomous action, for example, as shown in FIG. The points in this system construction are as follows. (I) A categorizer for each channel that can determine whether the input is unknown or known. (Ii) Associative memory for storing the result of categorization of each channel at the timing when the internal state changes. (Iii) Ethological model of internal state and external stimulus (Eth
biological model).
【0101】以上がシステム構築におけるポイントにな
る。なお、外部刺激が既知の刺激であれば、通常の動物
行動学的(Ethological Model)によるホメオスタシス
行動を基本とする自律行動を起こすようにしている。The above is the point in the system construction. If the external stimulus is a known stimulus, an autonomous behavior based on a homeostasis behavior based on a normal ethological model is performed.
【0102】また、本発明を適用して実現した情動関連
シンボル獲得(Emotionally Grounded Symbol Acquisit
ion)では、その対象物が内部状態の何に対して重要で
あるかを記憶することも特徴であり、この点で、通常の
物理関連シンボル獲得(Physically Grounded Symbol A
cquisition)と大きく異なっている。Also, an emotionally grounded symbol acquisition (Emotionally Grounded Symbol Acquisit
ion) also has a feature of memorizing what the object is important to in the internal state. In this regard, in this point, a normal physically-related symbol acquisition (Physically Grounded Symbol A) is performed.
cquisition).
【0103】このように、情動関連シンボル獲得(Emot
ionally Grounded Symbol Acquisition)では、対象物
に情動関連(Emotionally Grounded)情報を関連付けて
おり、情報としており、このように対象物に情動を関連
付けることにより、新しい対象物に対しても、どの行動
(Action)をするべきかをリリースメカニズム(Releas
e Mechanism)で評価することを可能としている。As described above, the acquisition of emotion-related symbols (Emot
In ionally Grounded Symbol Acquisition, emotionally related (Emotionally Grounded) information is associated with the target object and the information is used as information. By associating the emotion with the target object in this way, any action (Action) can be performed for a new target object. Release mechanism (Releas)
e Mechanism).
【0104】また、内部状態の変化を対象物との関係に
おいて連想記憶として持つことで、学習済みの入力が提
示されたとき、連想記憶から2次情動(secondary emot
ion)に記憶してある内部状態(internal variables)
の変化を出力し、それにより2次情動の生成をすること
もできる。例えば、喜びや恐怖などを情動(emotion)
として作り出す。Further, by having the change of the internal state as the associative memory in relation to the object, when the learned input is presented, the secondary emotion (secondary emot) is obtained from the associative memory.
ion) internal state (internal variables)
Can be output to generate secondary emotions. For example, joy or fear, emotion
Produce as
【0105】これにより、対象物等を見たことに対応し
て、情動表出行動として表情をつくったり、行動選択に
影響を及ぼしたり、動作に変調を与えることができるよ
うになる。Thus, in response to seeing an object or the like, it becomes possible to create an expression as an emotional expression action, influence the action selection, or to modulate the action.
【0106】(3−4)情報獲得行動(Information Ea
ting Behavior) 自律行動の一部としての情報獲得行動を実現するため
に、内部状態を示すモデルとして、内部状態の因子とし
ての情報獲得欲求に関連する変数(以下、情報獲得変数
という。)を有したサブシステム(以下、情報獲得行動
サブシステムという。)を定義する。(3-4) Information acquisition behavior (Information Ea
ting Behavior) In order to realize the information acquisition behavior as a part of the autonomous behavior, there is a variable relating to the information acquisition desire as a factor of the internal state (hereinafter referred to as an information acquisition variable) as a model indicating the internal state. Defined subsystem (hereinafter referred to as an information acquisition behavior subsystem).
【0107】例えば、情報獲得行動サブシステムは、そ
の情報獲得変数が、連想記憶が未知の入力に対して学習
を行った場合に増加し、時間とともに減少するような内
部モデルとして定義する。この情報獲得行動サブシステ
ムは、情報獲得変数が欠乏状態になると、情報獲得行動
に対するモチベーション(Motivation)を生成する。For example, the information acquisition behavior subsystem is defined as an internal model in which the information acquisition variable increases when the associative memory learns an unknown input and decreases with time. The information acquisition behavior subsystem generates motivation for the information acquisition behavior when the information acquisition variable becomes deficient.
【0108】さらに、この場合において、リリースメカ
ニズム(Release Mechanism)は、入力(情報)が未知
のものであればリリース信号(release signal)を生成
するようにする。これにより、食物を食べるのと同じよ
うに、情報を獲得する行動を内部状態及び外部刺激の関
連付け(fusion)として生成することができるようにな
る。Further, in this case, the release mechanism generates a release signal if the input (information) is unknown. As a result, an action of acquiring information can be generated as an association (fusion) between an internal state and an external stimulus, as in the case of eating food.
【0109】情報獲得行動として表出される具体的な行
動としては、典型的なものとして、情報獲得欲が大きく
なると、未知の物体を探す行動を発生し、さらにそれに
対して“これは何?”などの質問行動をとること等が挙
げられる。そして、一般に、このような行動はユーザー
との間での対話として形成されるものである。As a specific action expressed as an information acquisition action, as a typical example, when the desire to acquire information increases, an action to search for an unknown object occurs, and further, "What is this?" And taking question behaviors. In general, such an action is formed as a dialogue with a user.
【0110】このようなシステムを構築することによ
り、好奇心をベースにした対話による情報獲得を実現す
ることができ、さらにそのような情報獲得行動が自律行
動の中に自然に埋め込むことができるようになる。すな
わち、ロボット装置1において自律行動として実現され
ているインタラクションの新しい要素として情報獲得行
動が実現される。By constructing such a system, it is possible to realize information acquisition by dialogue based on curiosity, and to embed such information acquisition behavior naturally in autonomous behavior. become. That is, the information acquisition behavior is realized as a new element of the interaction realized as an autonomous behavior in the robot device 1.
【0111】(3−5)共同注意(Shared Attention) システムの中にはShared Attention或いはJoint Attent
ionを自然なかたちとして埋め込まれている。システム
構造において、共同注意に基づく情報獲得(Informatio
n Eating)の行動は以下のように実行される。(3-5) Shared Attention Some systems include Shared Attention or Joint Attent.
Ion is embedded as a natural form. Information acquisition based on joint attention in the system structure (Informatio
n Eating) action is performed as follows.
【0112】上述のように内部状態と外部刺激との関連
づけ(fusion)により情報獲得行動が行動選択部(Acti
on selection)116により選択されたとする。As described above, the information acquisition behavior is determined by the association between the internal state and the external stimulus (fusion).
on selection) 116.
【0113】リリースメカニズム(Release Mechanis
m)102がリリース信号を出す起因となった対象物が
情報獲得を行うターゲットである。また、内部状態の飢
餓感だけからこの行動が選択されたとすれば、探索が行
われて、その結果として、ある対象物が情報獲得行動の
ターゲットになる。このように情報獲得を行うターゲッ
トが、共同注意(Shared Attention)のターゲットにな
る。[0113] Release mechanism
m) The object that caused the release signal 102 is the target for acquiring information. Further, if this action is selected only from the feeling of hunger in the internal state, a search is performed, and as a result, an object becomes a target of the information acquisition action. The target for acquiring information in this way is a target for shared attention.
【0114】ロボット中心の場合は、すなわち、内部状
態の飢餓感に起因する情報獲得行動の場合、ロボット装
置1は、そのターゲットに近づき、指をさし、“これは
何?”といった質問で人間の注意をその対象物に払って
もらうことにより共同注意(Shared Attention)が達成
される。In the case of the robot center, that is, in the case of the information acquisition behavior caused by the hunger of the internal state, the robot apparatus 1 approaches the target, points the finger, and asks the question “What is this?” Shared Attention is achieved by having the object pay attention to the object.
【0115】一方、ユーザが主導権を握っている場合、
すなわち、リリースメカニズム(Release Mechanism)
102が出したリリース信号を要因としてターゲットを
特定する場合、先ずロボット装置1は、音や対象物を動
かすことで、ユーザに注意を促すようにする。これに対
応して、ユーザーは例えば指でターゲットを指しなが
ら、“これは何?”と質問をすることが想定されるが、
ロボット装置1では、この指や質問により行動獲得行動
が選択された場合、指でさされた物をその対象物として
特定する。これにより、ユーザが主導権を握っている場
合においても、同じ対象物に対しての共同注意(Shared
Attention)が達成される。On the other hand, if the user holds the initiative,
In other words, release mechanism
When the target is specified based on the release signal output by the controller 102, the robot apparatus 1 firstly alerts the user by moving a sound or an object. In response to this, it is assumed that the user asks the question "What is this?"
When an action acquisition action is selected by the finger or the question, the robot apparatus 1 specifies the object pointed by the finger as the target object. This allows shared attention to the same object (Shared) even when the user is in the initiative.
Attention) is achieved.
【0116】このように、本発明では、システムに、注
意が内部状態として欲しているもの、或いは外部刺激の
強いものに対して払われる、という一般的な考え方の一
部として共同注意(Shared Attention)を取り込んでい
る。As described above, in the present invention, shared attention (shared attention) is part of the general idea that the system pays attention to what the internal state wants or the external stimulus is strong. ).
【0117】(3−5)内部状態変化と情動(INTERNAL
VARIABLES AND EMOTIONS) 図12に示すように、感情部(Emotion part)130
は、大きく分けて、知覚用内部状態部131、内部状態
部132及び情動部133とから構成されている。(3-5) Internal state change and emotion (INTERNAL
VARIABLES AND EMOTIONS) As shown in FIG.
Is roughly divided into a perceptual internal state unit 131, an internal state unit 132, and an emotion unit 133.
【0118】1つ目の内部状態部132は、内部状態そ
のもののダイナミクスを管理する部分である。ここでい
う内部状態には、後述するように栄養素、水分、疲労、
好奇心等が擬似的に変数として存在している(図2
3)。ただし、これらの内部状態は、上述した他に、生
物又は動物に見受けられる他の内部状態であってもよ
い。内部状態部132は、その個体保持に必要な状態を
モニターし、それが適切な値から外れることを検知す
る。さらに、内部状態部132は、その内部状態を一定
に保つため、すなわち、恒常性を保つために必要な行動
に対するモチベーション生成部(Motivation Creator)
に対して、内部状態を保持するために必要な行動を促す
信号を送信する部分である。The first internal state section 132 manages the dynamics of the internal state itself. Nutrients, water, fatigue,
Curiosity and the like exist as pseudo variables (see FIG. 2).
3). However, these internal states may be other internal states found in living things or animals in addition to those described above. The internal state unit 132 monitors the state necessary for holding the individual, and detects that it deviates from an appropriate value. Further, the internal state unit 132 is a motivation generation unit (Motivation Creator) for an action required to keep the internal state constant, that is, to maintain homeostasis.
This is a part for transmitting a signal prompting an action necessary for maintaining the internal state.
【0119】2つ目の知覚用内部状態部131は、内部
センサー或いは外部センサーからの入力を解析し、内部
状態管理部へ解析結果を入力する部分である。ここで、
センサー信号解析は、本来の動物であれば、血液中の糖
分の割合等から検出される食事に関する情報や疲労に関
する情報等にあたる。ロボット装置1においては、バッ
テリ残量解析等がそれにあたるが、ロボット装置1にお
いては、擬似的な食欲などを想定し、適当な行動(Acti
on)を行うことで擬似的に内部状態を一定に保つための
入力信号を作り出している。The second internal state unit 131 for perception analyzes input from an internal sensor or an external sensor and inputs the analysis result to the internal state management unit. here,
In the case of an original animal, the sensor signal analysis corresponds to information on a meal, information on fatigue, and the like, which are detected from the ratio of sugar in blood. In the robot apparatus 1, the remaining battery level analysis or the like corresponds to this. However, in the robot apparatus 1, appropriate behavior (Acti
On), an input signal for keeping the internal state constant is generated.
【0120】3つ目の情動部133は、内部状態の変化
より快、不快などを生成し、喜び、怒りなどに対応する
情動(emotions)を生成する部分である。この情動部1
33は、2次情動とも呼ばれ、内部情動(これを1次情
動という。)の満たされ具合により快、不快信号などを
発生する。さらに情動部133では、この快、不快信号
と覚醒度、確信度などからいわゆる喜び、悲しみ、怒り
などの情動を生成する。2次情動は、情動表出のための
動作、例えば顔の表情生成やそれに対応するLEDの光
パターン生成等に利用される。The third emotion part 133 is a part for generating pleasantness and discomfort from changes in the internal state, and generating emotions corresponding to joy, anger and the like. This emotion part 1
33 is also called a secondary emotion, and generates a pleasant or unpleasant signal depending on how the internal emotion (this is called a primary emotion) is satisfied. Further, the emotion unit 133 generates emotions such as so-called joy, sadness, and anger from the pleasant / unpleasant signals and the arousal level, the conviction level, and the like. The secondary emotion is used for an operation for expressing an emotion, for example, generation of a facial expression, generation of an LED light pattern corresponding thereto, and the like.
【0121】この内部状態の変化は、図12に示すよう
に、学習用メモリ(Associative Memory)140の学習
のタイミングに使用される。これは換言すれば、学習
は、内部状態が大きく変化したときに行うということで
ある。また、内部状態と情動状態とはそれぞれ行動(Be
havior)生成部のモチベーション生成部(Motivation C
reator)に入力され、それぞれの行動動機の起因として
利用される。This change in the internal state is used for the learning timing of the learning memory (associative memory) 140 as shown in FIG. In other words, learning is performed when the internal state changes significantly. In addition, the internal state and the emotional state are the actions (Be
havior) generation unit (Motivation C)
reator) and used as the cause of each behavioral motive.
【0122】(3−6)未知刺激の知覚(PERCEPTION F
OR UNKNOWN STIMULI) 実世界におけるロボット装置1の開発において「認識」
は大きな課題とされている。特に、実環境下における実
時間認識では、様々な要因で変化する入力を既に学習し
てある情報と同一視すべきか、それとも新規な刺激と判
断するかが大きな問題を生じる。(3-6) Perception of unknown stimulus (PERCEPTION F
OR UNKNOWN STIMULI) "Recognition" in the development of the robot device 1 in the real world
Has been a major challenge. In particular, in real-time recognition in a real environment, a major problem arises as to whether an input that changes due to various factors should be identified with already learned information or whether it is determined as a new stimulus.
【0123】近年、このような認識の分野において大き
な成果を得ている手法として、統計的パターン認識(St
atistical (or probabilistic) Pattern Classificatio
n)がある。これは、特徴空間に分布する入力サンプル
をリスク関数最小化を統計的問題として扱い、そのため
のパラメータを求める認識手法である。後述する発話認
識として現在主流とされているHidden-Markov-Model
(以下、HMMという。)もこの範疇の認識手法であ
り、また、画像認識においても代表的な認識手法であ
る。In recent years, statistical pattern recognition (St.
atistical (or probabilistic) Pattern Classificatio
n) there. This is a recognition method that treats input samples distributed in the feature space as minimizing a risk function as a statistical problem and obtains parameters for the statistical problem. Hidden-Markov-Model, which is currently the mainstream for speech recognition described later
(Hereinafter referred to as HMM) is also a recognition method in this category, and is also a typical recognition method in image recognition.
【0124】本システムでは、この統計的パターン認識
手法を用いて入力が未知のオブジェクトなのか、それと
も既知のオブジェクトなのかを判断している。In the present system, it is determined whether the input is an unknown object or a known object by using this statistical pattern recognition technique.
【0125】統計的パターン認識では、オブジェクトが
そのプロトタイプであるか否かを確率或いは尤度を与え
ており、この確率或いは尤度を用いて、オブジェクトが
未知刺激なのか既知の刺激なのかの識別を行っている。
さらに、あるセンサーチャンネルの特徴空間における距
離が近く、このチャンネルだけでの判別が困難な場合で
も、他のチャンネルを用いた場合、優位な差が観測さ
れ、もとの空間における識別パラメータの調節を行うこ
となどもできる。In the statistical pattern recognition, a probability or a likelihood is given as to whether or not an object is a prototype, and the probability or the likelihood is used to determine whether the object is an unknown stimulus or a known stimulus. It is carried out.
Furthermore, even if the distance in the feature space of a certain sensor channel is short and it is difficult to determine only with this channel, when using another channel, a significant difference is observed, and the adjustment of the discrimination parameter in the original space can be performed. You can do it.
【0126】(3−7)感情が記憶される学習用メモリ
(ASSOCIATIVE MEMORY WITH EMOTIONS) 学習用メモリ(Associative Memory)は、各知覚用チャ
ンネル(Perceptual Channel)の出力により内部状態が
変化したことをトリガーに学習を行うためのものであ
る。ここで、学習とは、具体的には、そのようにトリガ
ーとされた内部状態の変化と、内部状態を変化させた、
すなわち内部状態に影響を与えた対象物とを連想記憶す
ることである。(3-7) Learning Memory for Emotions (ASSOCIATIVE MEMORY WITH EMOTIONS) The learning memory (Associative Memory) is triggered by the change of the internal state by the output of each perceptual channel. This is for learning. Here, the learning means, specifically, the change of the internal state triggered as such and the change of the internal state,
That is, associative storage of the object that has affected the internal state is performed.
【0127】ここで、内部状態の変化は、例えば上述の
「(3−5)内部状態変化と情動(INTERNAL VARIABLES
AND EMOTIONS)」において述べた、センサー信号解析
において実際にセンスできる量(関節で消費される電流
等)と擬似的にセンスする量(擬似的な食べ物に対して
食べるという動作をしていることの検出)をもとに生じ
るものである。ここで、関節で消費される電流とは、例
えば動作された回数等により決定されるもので、例え
ば、「疲れ」の要因を構成する。Here, the change in the internal state can be determined, for example, by referring to “(3-5) Internal state change and emotion (INTERNAL VARIABLES)” described above.
AND EMOTIONS) ”, the amount that can be actually sensed in sensor signal analysis (current consumed by the joints, etc.) and the amount that can be simulated (eating for simulated food). Detection). Here, the current consumed by the joint is determined by, for example, the number of times of operation and the like, and constitutes, for example, a factor of “fatigue”.
【0128】連想としては、知覚チャンネル(Percepti
on Channel)から送られてくるプロトタイプ(prototyp
e)の番号とそのプロトタイプ(prototype)に属する確
率或いは尤度をもとに、同時に生じている事象の結び付
きを学習している。ここでいう事象の中には、行動生成
を介して送られてくる対象物に対する名称等のいわゆる
物理関連シンボル(Physically Grounded Symbol)も含
まれており、これも学習として獲得する。As an association, the perception channel (Percepti
on channel) prototype (prototyp)
Based on the number of e) and the probability or likelihood belonging to the prototype, the connection of simultaneously occurring events is learned. The phenomena here include so-called physically grounded symbols such as names of the objects sent through the action generation, and these are also acquired as learning.
【0129】さらに、同時に、トリガーとなる内部状態
の変化と対象物に対して行った行動を同じく連想記憶す
る。これにより、その対象物にどのような行動をとれ
ば、どのような内部状態の変化が起こるかが記憶された
ことになる。このような学習が情動関連シンボル(Emot
ionally Grounded Symbol)の獲得になる。Further, at the same time, the change of the internal state serving as a trigger and the action performed on the object are also stored in the associative memory. As a result, what kind of action is performed on the object and what kind of change in the internal state occurs is stored. Such learning is an emotion-related symbol (Emot
ionally Grounded Symbol).
【0130】ここで、情動(Emotion)とは、直接的に
は内部状態の変化であるため1次情動と称されるもので
あるが、1次情動の変化により2次情動を生じさせるこ
とができるため、恐怖などにも関連付け(Grounded)さ
れたシンボル(Symbol)である。Here, the emotion (Emotion) is directly referred to as a primary emotion because it is a change in the internal state. However, a secondary emotion can be caused by a change in the primary emotion. Because it is possible, it is a symbol (Symbol) that is related (grounded) to fear and the like.
【0131】(3−8)サブシステム及び行動(SUBSYS
TEMS AND BEHAVIORS) 行動は、図10に示すような分類可能な複数の行動群と
されるサブシステム(subsystem)1151〜115n
に基づいて制御されている。サブシステム1151〜1
15nは、階層構造でかつツリー構造をもつものであ
り、最上位層が実際のサブシステムになる。(3-8) Subsystem and action (SUBSYS
TEMS the AND Behaviors) behavior, subsystem (subsystem) 115 1 ~115 n being a plurality of behavioral groups capable classified as shown in FIG. 10
It is controlled based on. Subsystems 115 1 to 1
15n has a hierarchical structure and a tree structure, and the highest layer is an actual subsystem.
【0132】例えば、上述の文献6にてArkinらが報告
している動物行動学の研究において、canny behaviorと
して必要十分と思われるサブシステムを挙げている。文
献6にて報告されている技術の特徴は、図11に示すよ
うに、サブシステムの1つである摂食行動(Investigat
ive)を情報を食べる、という行動として定義している
ことである。例えば、摂食行動(ingestive)というサ
ブシステムは、食べ物(電気)を食べる、という行動と
して定義されている。これにより、理想的にはバッテリ
ー残量を内部状態として、それをある範囲内に保つよう
な行動を生成し、バッテリーが少なくなれば、充電場所
の探索、充電欲求、あるいは自動充電という行動を生成
するモチベーション(Motivation)を生成することが可
能とされている。For example, in the study of ethology reported by Arkin et al. In the above-mentioned reference 6, a subsystem considered to be necessary and sufficient as canny behavior is listed. The feature of the technology reported in Reference 6 is that, as shown in FIG. 11, one of the subsystems, feeding behavior (Investigat)
ive) is defined as the action of eating information. For example, the ingestive subsystem is defined as eating food (electricity). This ideally creates an action that keeps the battery remaining in an internal state and keeps it within a certain range, and when the battery runs low, creates an action of searching for a charging place, charging desire, or automatic charging It is possible to generate motivation.
【0133】本システムでは、このような考え方を情報
獲得のステップにおいて導入し、内部状態の項目として
“新規情報の学習量”に対応するものを設け、時間等の
因子により、減少するような内部状態のダイナミクスを
定義している。そして、このような内部状態のダイナミ
クスでは、バッテリの場合と同様に“学習量”に応じた
行動を生成するようにする。すなわち例えば、ロボット
装置1は、“学習量”をある範囲内に保つように行動
し、また、“学習量”が少なくなれば新規情報を獲得す
るために、未知対象物の探索、未知対象物が外的刺激と
して存在すれば、それに接近して、指をさし、"what is
this?(これは何?)”という行動をし、或いは人が発
話した名前を連想記憶で学習する、という行動を生成す
るようにする。ここで、学習量は、例えば、その学習対
象物の特徴に応じて決定されたり、また、学習量は経時
的に減少するようにする変化量である。In the present system, such a concept is introduced in the information acquisition step, and an item corresponding to “learning amount of new information” is provided as an item of the internal state. Defines state dynamics. Then, in the dynamics of such an internal state, an action corresponding to the “learning amount” is generated as in the case of the battery. That is, for example, the robot apparatus 1 acts so as to keep the “learning amount” within a certain range, and searches for an unknown object, obtains new information if the “learning amount” decreases, If is present as an external stimulus, approach it and point your finger at "what is
(What is this?) ", or to generate an action of learning the name spoken by a person using associative memory. Here, the learning amount is, for example, the learning amount of the learning object. The learning amount is a change amount that is determined according to the feature, and is reduced over time.
【0134】さらに、もし対象物の名前を学習したが、
それが内部状態に対してどのような意味があるかを獲得
する行動を定義することもできる。これは、その対象物
にある行動を試して、内部状態が変化したときにその行
動(action)と内部状態変化を連想学習する、というこ
とで実現することができる。Furthermore, if the name of the object was learned,
You can also define actions that capture what it means for the internal state. This can be realized by trying an action on the target object and associatively learning the action and the internal state change when the internal state changes.
【0135】(4)実際のロボット装置への適用(IMPL
EMENTATION) (4−1)4足歩行型のロボット装置の構造(Enhanced
Four-legged Robot Platform) 上述のシステムが実装された4足歩行型のロボット装置
1について説明する。図13には、ロボット装置1を構
成として備えたネットワークシステムの一例を示してい
る。(4) Application to an actual robot device (IMPL
(4-1) Structure of a four-legged walking robot device (Enhanced)
Four-legged Robot Platform) A four-legged robot device 1 on which the above-described system is mounted will be described. FIG. 13 illustrates an example of a network system including the robot device 1 as a configuration.
【0136】このネットワークシステムにおいて、ロボ
ット装置1は、無線LAN用カード(wireless LAN car
d)161を用いることにより、TCP/IP(Transmi
ssion Control Protocol/Internet Prorocol)のプロト
コルを用いてネットワークに接続している。In this network system, the robot apparatus 1 includes a wireless LAN card (wireless LAN card).
d) By using 161, TCP / IP (Transmi
ssion Control Protocol / Internet Protocol).
【0137】ロボット装置1は、例えば、MIPS R4XXXの
約100MIPSの特性を持つCPUと16MBのメインメ
モリーとを備えている。そして、このロボット装置1
は、出力としてprimitive behaviors(basic posture t
ransition, to search an object, to track an objec
t, to close to an object, to kick an object. to ea
tan object, etc)等の実行するソフトウエアと発音記
号列を入力とするSpeechのオブジェクト(object)とを
備えている。また、ロボット装置1は、目に対応するL
EDを用いていくつかの表情をつくるコマンドも用意さ
れている。The robot apparatus 1 includes, for example, a CPU having a characteristic of about 100 MIPS of MIPS R4XXX and a 16 MB main memory. And this robot device 1
Output primitive behaviors (basic posture t
ransition, to search an object, to track an objec
t, to close to an object, to kick an object.to ea
tan object, etc.) and a Speech object (object) to which a phonetic symbol string is input. In addition, the robot apparatus 1 has an L corresponding to the eye.
Commands for creating some expressions using the ED are also provided.
【0138】このようなロボット装置1において、上述
したようなシステムが構築されており、ロボット装置1
は、例えば、自律行動の一部として情報獲得行動が表出
する。In such a robot apparatus 1, the system as described above is constructed, and the robot apparatus 1
For example, information acquisition behavior is expressed as a part of autonomous behavior.
【0139】さらに、このようなロボット装置1が接続
されているネットワークシステムにより、ワークステー
ション163上においてもロボット装置1における処理
と同様な処理を実行することができる。例えば、これに
より、ワークステーション163上において、ロボット
装置1における動作確認をすることができるようにな
る。ワークステーション163上において処理を行う場
合については以下のようになされる。Further, the same processing as the processing in the robot apparatus 1 can be executed on the workstation 163 by the network system to which the robot apparatus 1 is connected. For example, this makes it possible to confirm the operation of the robot device 1 on the workstation 163. The processing performed on the workstation 163 is performed as follows.
【0140】ロボット装置1は、入力は画像信号をキャ
プチャー(capture)し、無線LAN用カード161に
よって、無線LAN(wireless LAN)を介して画像
をアクセスポイント162に送信する。そして、画像
は、アクセスポイント162からイーサネット(ethern
et)(登録商標)を介してワークステーション163に
転送される。The robot apparatus 1 captures an image signal as input, and transmits the image to the access point 162 via the wireless LAN (wireless LAN) by the wireless LAN card 161. Then, the image is transmitted from the access point 162 to the Ethernet (ethern).
et) (registered trademark) to the workstation 163.
【0141】また、このようなロボット装置1からワー
クステーション163へ画像を転送する場合と同様に、
ロボット装置1における関節角度検出やタッチセンサ
ー、加速度センサー等によるセンサー検出情報がワーク
ステーション163に転送される。また、例えば、この
ようにワークステーション163において処理する場合
には、音に関してはロボット装置1のマイクを使わず
に、ワークステーション163のマイクで入力すること
もできる。Further, similarly to the case of transferring an image from the robot apparatus 1 to the workstation 163,
Sensor detection information from the joint angle detection and the touch sensor, the acceleration sensor, and the like in the robot device 1 is transferred to the workstation 163. Further, for example, when processing is performed in the workstation 163 as described above, sound can be input using the microphone of the workstation 163 instead of using the microphone of the robot apparatus 1.
【0142】ワークステーション163上では、上述の
画像等の入力信号を用いて上述のPerception, Evaluati
on for internal variable, Behavior subsystem, acti
on selection等を実行する。これらの機能は、例えばLi
nux上に実装されたOPEN−R(ソニー株式会社が提
供するシステム)によりワークステーション上にもロボ
ット装置内と同じようにOPEN−Rオブジェクト(OP
EN-R objects)を設計し、それらをネットワーク上で自
由に結合することで実現される。例えば、現在はMatlab
プログラムとOPEN-R objects on Linuxの混在で動作を
している。On the workstation 163, the above-mentioned Perception, Evaluati
on for internal variable, Behavior subsystem, acti
Execute on selection etc. These features are, for example, Li
An OPEN-R (a system provided by Sony Corporation) mounted on nux allows an OPEN-R object (OP
This is achieved by designing EN-R objects and connecting them freely on a network. For example, currently Matlab
It works with a mixture of programs and OPEN-R objects on Linux.
【0143】(4−2)実機の機能と実験結果(Implem
ented Functions and ExperimentalResults) ロボット装置1は、本発明が適用されることにより、最
終的には、自律行動の一部としての共同注意による情報
獲得行動又は情動確認行動を表出するようになされてい
る。具体的には、ロボット装置1は、図14に示すよう
に、大別して、自律行動(ステップS1)、対象物の入
力(ステップS2)及び行動選択(ステップS3)に段
階を踏んで、最終的に、共同注意による情報獲得行動や
情報確認行動を表出させている(ステップS4)。そし
て、ロボット装置1は、このような各段階を自律行動の
一部として処理している。(4-2) Function of actual machine and experimental results (Implem
ented Functions and Experimental Results) By applying the present invention, the robot apparatus 1 is finally configured to express an information acquisition action or an emotion confirmation action by joint attention as a part of the autonomous action. . More specifically, as shown in FIG. 14, the robot apparatus 1 roughly divides the steps into an autonomous action (step S1), an input of an object (step S2), and an action selection (step S3). Then, an information acquisition action and an information confirmation action by joint attention are displayed (step S4). And the robot apparatus 1 processes such steps as part of the autonomous behavior.
【0144】(4−2−1)知覚部(Perception Par
t) 図10に示すように、知覚部111は、ロボット装置1
内に備えられている。具体的には、図12に示すよう
に、知覚部121は、画像を知覚するための色知覚部1
22及び型知覚部123と、接触を知覚する接触知覚部
(触覚部)124と、音を知覚する音声知覚部125と
を備えている。(4-2-1) Perception Par
t) As shown in FIG.
Is provided within. Specifically, as shown in FIG. 12, the perception unit 121 is a color perception unit 1 for perceiving an image.
22 and a pattern perception unit 123, a contact perception unit (tactile unit) 124 for perceiving contact, and a voice perception unit 125 for perceiving sound.
【0145】具体的には、色知覚部122は、対象物の
情報から後述の自動カラーセグメンテーションを行う部
分であり、型知覚部123は、画像情報に基づいて対象
物の型を分析を行う部分であり、また、音声知覚部12
5は、マイクからの発話入力に対して発話認識をする部
分である。以下の説明は、このような各知覚部において
なされる処理についての説明になる。More specifically, the color perception section 122 is a section for performing automatic color segmentation, which will be described later, based on information on the object, and the type perception section 123 is a section for analyzing the type of the object based on the image information. And the voice perception unit 12
Reference numeral 5 denotes an utterance recognition unit for utterance input from a microphone. The following description is about the processing performed in each of these perception units.
【0146】また、接触知覚部124は、例えば、ロボ
ット装置1の足裏に備えられたいわゆる肉球形状とされ
たいわゆる肉球センサからの信号によって対象物への接
触を検出する。The contact perception unit 124 detects contact with an object by a signal from a so-called meat ball sensor provided on the sole of the robot device 1, for example.
【0147】(4−2−1−1)自動カラーセグメンテ
ーション(Automatic Color Segmentation) 色を用いたカラーセグメンテーションが知覚刺激の入力
において先ず行われる。カラーセグメンテーションで
は、任意の単一色からなる複数のオブジェクトを切り分
けることが可能とされている。また、カラーセグメンテ
ーションでは教師なし学習によるクラスタリングアルゴ
リズムによるものを使用する。(4-2-1-1) Automatic Color Segmentation Color segmentation using colors is first performed when a perceptual stimulus is input. In the color segmentation, it is possible to separate a plurality of objects having an arbitrary single color. In the color segmentation, a method based on a clustering algorithm based on unsupervised learning is used.
【0148】図15には、人工的に塗ったオブジェクト
(図中A)と、そのカラーセグメンテーションの結果
(図中(B))を示している。また、図16には、人間
の手を含む自然画像、人の顔を含む自然画像(図中A)
とそのカラーセグメンテーションの結果(図中B)を示
している。FIG. 15 shows an artificially painted object (A in the figure) and the result of the color segmentation (B in the figure). FIG. 16 shows a natural image including a human hand and a natural image including a human face (A in the figure).
And the result of the color segmentation (B in the figure).
【0149】ここで、入力画像は、比較的狭い視野角(5
3 x 41 度)のカメラよりシステムへの入力時に既にLow
pass filterを通り88 x 60 pixelsに落とされたもので
ある。これを考慮に入れ、セグメンテーションは画素
(pixel)毎に独立した処理だけで行っている。このよ
うにすることで、図15中B及び図16中Bに示すよう
な良好な結果をほぼリアルタイムに得ることができる。Here, the input image has a relatively narrow viewing angle (5
(3 x 41 degrees) already low when input to the system from the camera
It has been reduced to 88 x 60 pixels through a pass filter. Taking this into account, segmentation is performed only by independent processing for each pixel. By doing so, good results as shown in B in FIG. 15 and B in FIG. 16 can be obtained almost in real time.
【0150】また、通常、カラーセグメンテーション
は、RGB或いは正規化したRGB空間で行うことが多
いが、カメラの信号がY,Cr,Cbフォーマットであ
ることから、(Nr, Nb) = (atan(Cr/Y) ,atan(Cb/Y))の
2次元空間を色空間とする。RGB空間に写像する際に
生じる計算量と量子化する際の誤差等を考慮すると非常
に効率的な処理である。In general, color segmentation is often performed in RGB or normalized RGB space. However, since the camera signal is in Y, Cr, Cb format, (Nr, Nb) = (atan (Cr / Y), atan (Cb / Y)) is defined as a color space. This is a very efficient process in consideration of the amount of calculation that occurs when mapping to the RGB space and errors during quantization.
【0151】なお、このようなカラーセグメンテーショ
ンは、形状解析のための初期処理として用いられる。Note that such color segmentation is used as an initial process for shape analysis.
【0152】以下に、上述のカラーセグメンテーション
におけるクラスタリングのアルゴリズムの処理ステップ
(i)〜(vi)の例を示す。Hereinafter, examples of the processing steps (i) to (vi) of the clustering algorithm in the above-described color segmentation will be described.
【0153】ステップ(i)では、適当な数のプロトタ
イプ(prototype)を一様に配置する。In step (i), an appropriate number of prototypes (prototypes) are uniformly arranged.
【0154】ステップ(ii)では、下記の(3)式を距
離としてすべての画素に対し最も近いプロトタイプ(pr
ototype)へのクラスラベルをつける。In step (ii), the closest prototype to all pixels (pr
ototype).
【0155】[0155]
【数3】 (Equation 3)
【0156】ここで、σhue,σsatは、図17に示すよ
うに、それぞれhueとsaturationに対応する分布であ
り、これらは予め適当なサンプル画像の分布より求めた
ものであり、一般にσhue<σsatである。すなわち、hu
e方向の誤差に重みを持たせた距離と考えることができ
る。Here, σhue and σsat are distributions corresponding to hue and saturation, respectively, as shown in FIG. 17 and are obtained in advance from the distribution of appropriate sample images. Generally, σhue <σsat is there. That is, hu
It can be considered as a distance in which the error in the e direction is weighted.
【0157】ステップ(iii)では、もしそのプロトタ
イプに属する画素が少ない場合はそのプロトタイプを変
更する。In step (iii), if the number of pixels belonging to the prototype is small, the prototype is changed.
【0158】ステップ(iv)では、同じクラスラベルの
ついた平均位置にそのプロトタイプを移動する。In step (iv), the prototype is moved to an average position with the same class label.
【0159】ステップ(v)では、もし2つ以上のプロ
トタイプがある距離以下の場合は1つにまとめる。In step (v), if two or more prototypes are less than a certain distance, they are combined into one.
【0160】ステップ(vi)では、プロトタイプの位置
の更新が少なくなってきたら、或いは適当な回数になっ
たら終了する。それ以外は上述のステップ(ii)に戻っ
て再び処理を開始する。In step (vi), the process is terminated when the number of updates of the prototype position has decreased or when the number of updates has reached an appropriate number. Otherwise, the process returns to the above step (ii) and starts the process again.
【0161】なお、図18には、入力画像に対するクラ
スタリングの様子を示している。図18に示す例では、
予め記憶してある肌色領域を分析し、指をさしている方
向の検出とその延長線上にある物体の剥き出しを行って
いる場合を示している。例えば、この情報は、後述の共
同注意(Shared Attention)において使用される。FIG. 18 shows a state of clustering for an input image. In the example shown in FIG.
This figure shows a case in which a skin color area stored in advance is analyzed to detect a direction in which a finger is pointing and to expose an object on an extension thereof. For example, this information is used in Shared Attention described below.
【0162】(4−2−1−2)型分析(Shape Analys
is) 型分析(Shape Analysis)は、大きさ、回転の普遍特徴
量であるフーリエ記述子(FD)を用い行っている。例
えば、この型分析において、カテゴライズは、Fourier
Descriptorの空間(64次元)でのL2ノルムを用いる。
入力された物体をFD空間であらわし、もっとも近いプ
ロトタイプとの距離を用いて新規プロトタイプとするか
どうかを決定する。なお、図19には、カラーセグメン
テーションで切り出された物体の形状分析の結果を示し
ている。(4-2-1-2) Type Analysis
is) Type analysis (Shape Analysis) is performed using a Fourier descriptor (FD), which is a universal feature of size and rotation. For example, in this type analysis, the categorization is Fourier
L2 norm in Descriptor space (64 dimensions) is used.
The input object is represented in the FD space, and it is determined whether a new prototype is to be used by using a distance from the closest prototype. FIG. 19 shows the result of shape analysis of an object cut out by color segmentation.
【0163】(4−2−1−3)発話認識(Speech Rec
ognition) 発話認識(Speech Recognition)としてHMMを用いた
連続発話認識を用いている。この技術としては、上述の
文献5において提唱する技術がある。(4-2-1-3) Speech Recognition (Speech Rec
ognition) Continuous speech recognition using an HMM is used as speech recognition (Speech Recognition). As this technique, there is a technique proposed in the above-mentioned Document 5.
【0164】このシステムは、図20に示すように、音
声入力部171、複数のHMMを備えたHMMレジスタ
172、未知語入力用HMM173及び比較部174を
備えている。As shown in FIG. 20, this system includes a voice input unit 171, an HMM register 172 having a plurality of HMMs, an HMM 173 for inputting unknown words, and a comparison unit 174.
【0165】HMMレジスタ172のHMMは、日本語
の音韻学習をしたHMMであって、予め必要な単語が登
録されている。また、HMMレジスタ172のHMMに
は、後発的に獲得された単語が学習されているものも含
まれている。ここで、例えば、登録されている或いは獲
得された単語としては、名詞及び動詞等が挙げられる。
入力された音韻系列は、このようなHMMレジスタ17
2のHMMにおいて確信度として評価される。The HMM in the HMM register 172 is an HMM that has learned Japanese phonemes, and necessary words are registered in advance. Further, the HMM in the HMM register 172 includes those for which words acquired later have been learned. Here, for example, the registered or acquired words include nouns and verbs.
The input phoneme sequence is stored in such an HMM register 17.
2 is evaluated as a certainty factor in the HMM.
【0166】未知語入力用HMM173は、未知語獲得
のためのHMMである。この未知語入力用HMM173
は、図21に示すように、全ての音韻モデルをステート
とし、全ての音韻ステートに結合している。例えば、未
知語入力用HMM173は、図21に示すように、“bo
uruu”という発話入力がなされた場合には、“booru”
として認識する。The unknown word input HMM 173 is an HMM for acquiring an unknown word. This unknown word input HMM 173
, As shown in FIG. 21, all phoneme models are states, and are connected to all phoneme states. For example, the HMM 173 for inputting an unknown word, as shown in FIG.
When the utterance input of “uruu” is made, “booru”
Recognize as
【0167】入力された音韻系列は、既に登録或いは獲
得された単語のHMMと、この未知語入力用HMM17
3とにおいて評価されるが、このとき、確信度(verifi
cation value)を用いて最大にマッチしたHMMとの距
離が比較部174において評価される。そして、確信度
(verification value)がある値以上であれば新規音韻
系列として新たなラベルをつけ、それがHMMレジスタ
172のHMMとして登録される。The input phoneme sequence includes the HMM of the word registered or acquired and the HMM 17 for inputting the unknown word.
3 and the confidence level (verifi
The comparison unit 174 evaluates the distance from the HMM that has the largest match using the cation value. If the certainty factor (verification value) is equal to or greater than a certain value, a new label is assigned as a new phoneme sequence, and the new label is registered as an HMM in the HMM register 172.
【0168】例として、HMMレジスタ172が、HM
Mとして、“tomare (stop)”と“kere (kick)”とい
う2つの単語が登録されているもののみを有する場合に
ついて説明する。図22には、このようなシステムを使
用した場合の結果を示している。As an example, the HMM register 172 stores the HM
A case will be described in which, as M, only those in which two words “tomare (stop)” and “kere (kick)” are registered. FIG. 22 shows the result when such a system is used.
【0169】図22において、右側には登録してある単
語に対する入力信号の確信度(verification)の値を示
している。なお、この確信度(verification)の値は低
いほど確信度が高い。In FIG. 22, the right side shows the value of the certainty factor (verification) of the input signal for the registered word. The lower the value of the certainty factor (verification), the higher the certainty factor.
【0170】例えば、“tomare”という発話に対して、
システムは、”tomoare”という音韻系列の入力である
と推定し、その確信度(verification)の値は0.136で
ある。For example, for the utterance “tomare”,
The system estimates that the input is a phonological sequence “tomoare”, and the value of the verification is 0.136.
【0171】一方、図22において上から3番目の”bo
oru (ball)”という未知語の入力に対しては、最もあう
モデルは“tomare”であり、その確信度(verificatio
n)は4.835と非常に大きいためunknown-1という新しい
シンボルが割り当てられて、登録される。これにより、
システムは、次回の発話入力である図22において上か
ら4番目に示す“booru (ball)”の発話入力に対して
は、unknown-1に対応するHMMが最も近く、その確信
度(verification)は0.41と小さい値をとり、正しくun
known-1により”booru(ball)”が獲得されるようにな
る。On the other hand, in FIG. 22, the third "bo
oru (ball) ”, the best matching model is“ tomare ”, and its confidence (verificatio
Since n) is so large as 4.835, a new symbol called unknown-1 is assigned and registered. This allows
For the next utterance input of “booru (ball)” shown in FIG. 22, which is the fourth utterance input, the HMM corresponding to unknown-1 is the closest, and its credibility (verification) is Take a small value of 0.41 and correctly un
"booru (ball)" will be acquired by known-1.
【0172】また、このシステムでは、HMMが連続発
話認識が可能なため、図22において上から7番目の発
話のように”booru kere”に対し、先に獲得した”boor
u”に対するラベルunknown-1に続き、kereというシンボ
ルを認識することが可能とされている。Also, in this system, since the HMM can recognize continuous utterances, the “boor kere” obtained in advance from “boru kere” as in the seventh utterance from the top in FIG.
Following the label unknown-1 for u ", it is possible to recognize the symbol kere.
【0173】このような発話認識のシステムによって、
例えば、けれ、とまれなどである。もし、“ボール”と
いう名詞を獲得すれば、“ボール けれ”という命令に
よりロボット装置1はボールをけることができるように
なる。With such an utterance recognition system,
For example, it is keel and rare. If the noun “ball” is acquired, the robot device 1 can kick the ball by the command “ball kick”.
【0174】(4−2−1−4)感情部(Emotion Par
t) 図23には、内部状態(Internal Variables)及びそれ
に関連する行動(subsystem)の関係を示している。(4-2-1-4) Emotion Par (Emotion Par)
t) FIG. 23 shows the relationship between internal states (Internal Variables) and actions (subsystems) related thereto.
【0175】この例では、摂食行動の生理学モデルなど
を参考にして、一般的な内部状態保持のために、仮想的
な体内栄養貯蔵バッファと排泄用バッファを想定し、そ
の貯蔵量を内部状態として定義している。それらは、例
えばEnergy-2(疑似食物、Fake Food)の量とFake 排泄
物(excrement)の量である。In this example, referring to a physiological model of eating behavior and the like, in order to maintain a general internal state, a virtual internal nutrition storage buffer and an excretion buffer are assumed, and the storage amounts are stored in the internal state. Is defined as They are, for example, the amount of Energy-2 (fake food) and the amount of Fake excrement.
【0176】例えば、図24に示すように、仮想的な胃
(体内栄養貯蔵バッファ)と仮想的な膀胱又は腸(排泄
用バッファ)とを関連付けることにより、仮想的な胃の
貯蔵量の減少が、仮想的な膀胱等の貯蔵量の増加をもた
らすようにしている。For example, as shown in FIG. 24, by associating a virtual stomach (intravital storage buffer) with a virtual bladder or intestine (excretion buffer), a decrease in the virtual stomach storage volume can be achieved. , To increase the amount of storage such as a virtual bladder.
【0177】図23に示すように、ある要因で増加或い
は減少するようなダイナミクスを持っている。モチベー
ション生成部(Motivation Creator)の基本的な動作
は、この内部状態変数をある許容範囲に保つために、対
応する行動群(subsystem)のモチベーション(Motivat
ion)を上げることになる。As shown in FIG. 23, there is a dynamic that increases or decreases by a certain factor. The basic operation of the motivation creator (Motivation Creator) is to keep the internal state variables within a certain allowable range by motivating the corresponding action group (subsystem).
ion).
【0178】また、擬似的(Fake)な食物や水は主とし
てロボット装置1の娯楽性(Entertainment)の目的に
実装されると考えられるが、その他に、本来の意味での
電気Energyや疲労に相当する内的状態変数も存在してい
る。これらも図23に示す増加、減少要因によりダイナ
ミクスを構成し、対応するサブシステム(subsystem)
のモチベーション生成部(motivation creator)はこれ
を一定に保つように行動の動機を与えるようになされて
いる。ただし、ロボット装置1がいわゆる充電装置に自
律行動として装着するような自動充電行動も考えられる
が、このような自動充電行動を備えていない場合には、
ロボット装置1は、充電に関してはそれを要求する行動
を出し、他者(人間)に充電してもらうようにする。[0178] Fake food and water are considered to be mainly implemented for the purpose of entertainment of the robot apparatus 1, but they also correspond to electric energy and fatigue in the original sense. Some internal state variables exist. These also compose the dynamics by the increase and decrease factors shown in FIG. 23, and the corresponding subsystems
The motivation creator is designed to motivate the behavior to keep this constant. However, although an automatic charging action in which the robot apparatus 1 is attached to a so-called charging device as an autonomous action is also conceivable, if the robot apparatus 1 does not have such an automatic charging action,
The robot apparatus 1 performs an action requesting the charging, and causes another person (human) to charge.
【0179】また、連想記憶に獲得される情報において
も同様な内部状態変数を用意する。連想記憶で仮想的な
意味の内部獲得情報量を計算し送られてくる。この場
合、忘却がなければ連想記憶の内部情報量は増加するの
みであるが、忘却を実装してなくても良い。適当な時間
範囲内の各情報量の積分を増加要因、時間的減少要因の
簡単なダイナミクスを構築して情報獲得行動サブシステ
ムの動機を構成している。Further, similar internal state variables are prepared for the information obtained in the associative memory. The amount of internally acquired information having a virtual meaning is calculated and transmitted by the associative memory. In this case, if there is no forgetting, the amount of internal information of the associative memory only increases, but forgetting may not be implemented. The motive of the information acquisition behavior subsystem is constructed by constructing simple dynamics of the integration factor of each information amount within an appropriate time range and the increase factor and the time decrease factor.
【0180】(4−2−1−5)学習用メモリ部(Asso
ciative Memory Part) 図25には、ロボット装置1が情報獲得に使用する学習
用メモリ(Associative Memory)140の具体的な構成
を示している。学習用メモリ140は、図25に示すよ
うに、短期用メモリ181、長期用メモリ182及び注
意対象用メモリ183を備えている。この学習用メモリ
140は、具体的には、図12に示すように備えられて
いる。(4-2-1-5) Learning Memory Unit (Asso
FIG. 25 shows a specific configuration of a learning memory (Associative Memory) 140 used by the robot apparatus 1 for acquiring information. As shown in FIG. 25, the learning memory 140 includes a short-term memory 181, a long-term memory 182, and an attention target memory 183. The learning memory 140 is specifically provided as shown in FIG.
【0181】学習用メモリ(Associative Memory)14
0は、このような構成により、ある色とある形で1つの
名前をもつ記憶部として機能し、さらに、そのものがロ
ボット装置1の内的状態に対してどのような意味を持つ
かの記憶部として機能する。Learning Memory (Associative Memory) 14
0 functions as a storage unit having a certain name with a certain color and a certain shape by such a configuration, and furthermore, a storage unit indicating what meaning itself has with respect to the internal state of the robot apparatus 1. Function as
【0182】短期記憶用メモリ(Short Term Memory、
STM)181において、画像内のID番号付けられた
物体の情報が貯蔵される。このとき物体の情報は、色の
プロトタイプ番号(CP-i)と形状のプロトタイプ番号
(SP-j)の情報である。また、短期用メモリ(Short Te
rm Memory)181には、音声処理から入力される1発
話分の単語系列が入力される。Short-term memory (Short Term Memory,
In (STM) 181, information on the ID numbered object in the image is stored. At this time, the information of the object is information of a color prototype number (CP-i) and a shape prototype number (SP-j). In addition, short-term memory (Short Te
rm Memory) 181 receives a word sequence for one utterance input from voice processing.
【0183】画像からのデータは、色のプロトタイプ番
号(CP-i)及び形状のプロトタイプ番号(SP-j)を入力
として、物体の名称(HMM-k)と内部状態への影響(Del
ta-I)を得て、これらをひとまとめとされて図12に示
すように、行動生成部(Behavior Generator)150に
送られる。もし、物体の名称(HMM-k)と内部状態への
影響(Delta-I)が得られない場合は、そこを空白(ni
l)情報をして送られる。発話データはそのまま行動生
成部(Behavior Generator)150に送られる。The data from the image is obtained by inputting the color prototype number (CP-i) and the shape prototype number (SP-j) and inputting the object name (HMM-k) and the effect on the internal state (Del).
ta-I) is obtained, and these are put together and sent to a behavior generator (Behavior Generator) 150 as shown in FIG. If the object name (HMM-k) and the effect on internal state (Delta-I) cannot be obtained, leave it blank (ni
l) Sent with information. The utterance data is sent to a behavior generator (Behavior Generator) 150 as it is.
【0184】一方、行動選択部(Action Selection)1
16において行動(Action)とその対象物体(Obj-ID)
が選択されるが、この情報は後述する行動ステートマシ
ン(Behavior State Machine)から学習用メモリ(Asso
ciative Memory)140に送られてくる。この対象物体
(Obj-ID)に対応する情報は、短期用メモリ(ShortTer
m Memory)181から注意対象用メモリ(Attention Ob
ject Memory、AOM)183に貯蔵される。なお、そ
のとき短期用メモリ(Short Term Memory)181に入
っている発話された単語系列はそのまま注意対象用メモ
リ(AttentionObject Memory)183に送られる。On the other hand, an action selection unit (Action Selection) 1
At 16, the action and its target object (Obj-ID)
Is selected, but this information is stored in a learning memory (Asso
ciative Memory) 140. The information corresponding to this target object (Obj-ID) is stored in the short-term memory (ShortTer
m Memory) 181 to Attention Ob
ject memory (AOM) 183. At this time, the uttered word sequence stored in the short term memory (Short Term Memory) 181 is sent to the attention target memory (AttentionObject Memory) 183 as it is.
【0185】注意対象用メモリ(Attention Object Mem
ory)183から本来の学習用メモリ(Associative Mem
ory)として機能する長期用メモリ(Long Term Memor
y)182に対する学習のタイミングは、内部状態変化
をトリガーとして行われる。これにより、ある対象物
(Object)に対するあるアクションをしている際に内部
状態が変化することにより、その対象物に関連付けて内
部状態変化が記憶される。Attention Object Mem (Attention Object Mem)
ory) 183 from the original learning memory (Associative Mem
ory) as long term memory (Long Term Memor)
y) The learning timing for 182 is triggered by an internal state change as a trigger. Thus, when an internal state changes when a certain action is performed on a certain object (Object), the internal state change is stored in association with the target object.
【0186】(4−2−1−6)行動生成部(Behavior
Generation Part) ここでは、ロボット装置1の行動を規定するサブシステ
ムのうちの情報獲得行動サブシステムについて説明す
る。図26に示すように、情報獲得行動サブシステム1
51nは、階層構造を有するものとして構成されてい
る。(4-2-1-6) Behavior generator (Behavior
Generation Part) Here, the information acquisition behavior subsystem among the subsystems that regulate the behavior of the robot device 1 will be described. As shown in FIG. 26, the information acquisition behavior subsystem 1
51 n is configured as having a hierarchical structure.
【0187】行動のサブシステム層に1つのソフトウェ
アオブジェクト(software object)が存在する。There is one software object at the behavior subsystem layer.
【0188】このソフトウェアオブジェクト(software
object)のモチベーション生成部(Motivation Creato
r)101は、上述の1次的内部記憶量が適当な範囲か
ら外れるとモチベーション値(motivation value)が出
力されるように構成されている。This software object (software
object) Motivation Creato
r) 101 is configured to output a motivation value when the above-mentioned primary internal storage amount is out of an appropriate range.
【0189】[0189]
【数4】 (Equation 4)
【0190】一方、リリースメカニズム(Release Mech
anism)102は、学習用メモリ(Associative Memor
y)140から送られてくる対象物(Object)を調べる
ことによってなされる。リリースメカニズム(Release
Mechanism)102では、現在未知のもの、と人間によ
る指さしに関する知覚(release)因子を考慮してい
る。ここで、例えば、知覚因子は、対象物(Object)の
名前(Obj:Name)、Colorの名前(Color:Name)、Shape
の名前(Shape:Name)、その対象物(Object)の内部状
態変化への影響(Act:Delta-I)である。On the other hand, the release mechanism (Release Mech
anism) 102 is a learning memory (Associative Memor)
y) This is done by checking the object sent from 140. Release mechanism (Release
Mechanism 102 considers what is currently unknown and the factors of perception (release) of human pointing. Here, for example, the perceptual factors are the name of the object (Object) (Obj: Name), the name of the Color (Color: Name), and the shape.
(Act: Delta-I) of the object (Object) and its influence on the internal state change of the object (Object).
【0191】リリースメカニズム(Release Mechanis
m)102は、知覚因子として得られたものに、情報の
定義がなされていなければリリース信号(Release sign
al)を創出する。そして、リリースメカニズム(Releas
e Mechanism)102が出力するリリース信号(release
signal)の値は、1つの対象物に対しての未定義の数
を累積したものとしてその物体に対応されて決定されて
いる。例えば、対象物の名前(Obj:Name)と内部状態変
化への影響(Act:Delta-I)のみを対象とすることもで
きる。Release mechanism (Release Mechanis
m) 102 is a release signal (Release sign
al). And the release mechanism (Releas
e Mechanism) 102 outputs a release signal (release
The value of signal) is determined corresponding to the object as an accumulation of an undefined number for one object. For example, only the name of the object (Obj: Name) and the effect on the internal state change (Act: Delta-I) can be targeted.
【0192】そして、リリースメカニズム(Release Me
chanism)102は、存在している対象物に対してリリ
ース信号(release signal)を評価し、その値が最も大
きな対象物を選択して、その選択した対象物(Obj)を
特定するIDとリリース信号(release signal)を出力す
る。The release mechanism (Release Me
chanism) 102 evaluates a release signal for an existing object, selects an object having the largest value, and specifies an ID and a release for identifying the selected object (Obj). Output a signal (release signal).
【0193】例えば、対象物としてリンゴが特定した場
合には、ロボット装置1には、上述したような型分析や
カラーセグメンテーションを使ってその型や色を分析し
て、知覚因子としてのColorの名前(Color:Name)、Sha
peの名前(Shape:Name)を評価する。リンゴが予め登録
されているような場合には、評価値が高いものもとして
得られ、これにより対象物がリンゴであることが認識さ
れる。そして、その選択した対象物とされるリンゴを特
定するIDとそのときのリリース信号(releasesignal)
が出力される。また、リンゴが予め登録されていない場
合には、未定義の数を累積し、これを、未知の対象物と
してのリンゴに対応させる。For example, when an apple is specified as an object, the robot apparatus 1 analyzes the type and color using the above-described type analysis and color segmentation, and obtains the name of Color as a perceptual factor. (Color: Name), Sha
Evaluates the name of the pe (Shape: Name). When an apple is registered in advance, a high evaluation value is obtained as a result, and it is recognized that the target object is an apple. Then, an ID for identifying the selected target apple and a release signal at that time (releasesignal)
Is output. If an apple is not registered in advance, an undefined number is accumulated, and this is made to correspond to an apple as an unknown object.
【0194】一方、リリースメカニズム(Release Mech
anism)102は、人間による指さしに関しては、さら
に大きなリリース信号(release signal)を生成するよ
うに設定されている。そして、リリースメカニズム(Re
lease Mechanism)102は、指差しによる物体検出が
なされた場合には、その物体が未知であるか既知である
かにかかわらずリリース信号(release signal)を生成
している。これは、指さしが明らかに人間から情報獲得
或いは情報確認の要求であり、内部状態に大きく依存せ
ずに情報獲得行動を誘引させたい、或いは既知のものに
対して確認行動をとらせる、という考えによるものであ
る。On the other hand, the release mechanism (Release Mech
anism) 102 is configured to generate a larger release signal for human pointing. And release mechanism (Re
The lease mechanism 102 generates a release signal when an object is detected by pointing, regardless of whether the object is unknown or known. The idea is that the pointing is clearly a request for information acquisition or information confirmation from a human, and the user wants to induce the information acquisition action without largely depending on the internal state, or to perform the confirmation action on a known thing. It is due to.
【0195】そして、情報獲得行動サブシステム151
nでは、このリリース信号(release signal)とモチベ
ーション値(motivation value)とを乗算したものを行
動評価値(behavior value)として得る。また、同様に
して、Eating等を規定する他の各サブシステム(subsys
tem)においても、情報獲得行動サブシステム151 n
に入力されたリリース信号(release signal)とモチベ
ーション値(motivation value)とを用いて、行動評価
値(behavior value)を得る。Then, the information acquisition behavior subsystem 151
nNow, this release signal and the mochibe
Multiplied by the motivation value
Obtained as a behavior evaluation value. Also,
Then, each other subsystem (subsys
tem), the information acquisition behavior subsystem 151 n
Release signal and mochibe input to
Behavior evaluation using the motivation value
Get the behavior value.
【0196】そして、行動選択部116において、各サ
ブシステム(subsystem)からの行動評価値(behavior
value)を比較し、最も大きな行動評価値(behavior va
lue)を持つサブシステム(subsystem)が実行するサブ
システムとして選択される。こここで説明では、このよ
うな評価値の比較により、情報獲得行動サブシステム1
51nにおける行動評価値(behavior value)が最大と
された場合となる。Then, in the action selecting section 116, the action evaluation value (behavior
value) and compare the largest behavioral evaluation value (behavior va
lue) is selected as the subsystem to be executed. In the description here, the information acquisition behavior subsystem 1 is obtained by comparing such evaluation values.
51n is the case where the behavior evaluation value (behavior value) is maximized.
【0197】なお、選択されたサブシステム(subsyste
m)は、しばらく選び続ける必要があるが、これは、例
えば、相互抑制や疲労要因(fatigue factor)などによ
って実現することができる。The selected subsystem (subsyste
m) needs to be selected for a while, but this can be achieved, for example, by mutual suppression or fatigue factor.
【0198】情報獲得行動サブシステム151nが選択
されると、図26に示すように、次にモード(Mode)M
Dと呼ばれる階層に進む。モード(Mode)MDでは、同
様に、情報の選択処理がなされるが、具体的には、モー
ド(Mode)では、上位層の選択が指さしによる物体か、
自ら選択した物体、すなわち未知の物体か、が区別され
る。このモード(Mode)MDにおいて、区別がなされる
と、図26に示すように、その下層とされるモジュール
(Module)MJといわれる層において、具体的な行動に
対する評価がなされる。この評価に基づいて、行動選択
部116において、具体的な行動の選択がなされる。When the information acquisition behavior subsystem 151 n is selected, as shown in FIG.
Proceed to a hierarchy called D. In the mode (Mode) MD, information selection processing is performed similarly. Specifically, in the mode (Mode), the selection of the upper layer is performed by pointing to an object by pointing,
An object selected by itself, that is, an unknown object is distinguished. In this Mode MD, when a distinction is made, as shown in FIG. 26, a specific behavior is evaluated in a layer called Module MJ which is a lower layer. Based on this evaluation, a specific action is selected in the action selecting unit 116.
【0199】これにより、ロボット装置1は、例えば、
対象物が既知のものであれば、その確認行動をとるよう
になり、対象物が未知のものであれば、獲得行動をとる
ようになる。例えば、情報獲得行動は、対象物の名前
(Obj:Name)と内部状態変化への影響(Act:Delta-In
t)とで2種類の情報獲得がなされた場合には、サブシ
ステム(subsystem)のところで最大値評価を与えた対
象物を調べどちらかが選択されるようにすることもでき
る。As a result, the robot apparatus 1
If the target object is known, the confirmation action is taken. If the target object is unknown, the acquisition action is taken. For example, the information acquisition behavior affects the name of the object (Obj: Name) and the effect on the internal state change (Act: Delta-In
When two types of information are obtained in t), the object having the maximum value evaluation in the subsystem may be examined and either one may be selected.
【0200】例えば、確認行動を実行する場合の処理と
しては、その確認行動に対応するステートマシンに命令
が送られ、その名前の確認行動が実行される。そして、
ロボット装置1は、人間が指でさした物体を視覚的なト
ラッキング(Visual Tracking)をしながら近づき、そ
れからその物体を指でさし、すなわち前脚でさし、“こ
れはXXですね?”等といったような行動を表出させる。
このような行動は、そのような行動を規定する行動シー
ケンスが記述されたステートマシンにより制御すること
により実現される。For example, as a process for executing the confirmation action, an instruction is sent to the state machine corresponding to the confirmation action, and the confirmation action of the name is executed. And
The robot apparatus 1 approaches the object pointed by the finger with the visual tracking, and then points the object with the finger, that is, the front leg, and says, "Is this XX?" Such actions are expressed.
Such an action is realized by controlling with a state machine in which an action sequence that defines such an action is described.
【0201】対象物の名前(Obj:Name)の獲得行動をす
る場合の処理としては、その出力が対応する対象物の名
前(Obj:Name)の獲得のためのステートマシンに送られ
る。対象物の名前(Obj:Name)の獲得行動においては、
その対象物に対して視覚的トラッキング(Visual Track
ing)をしながら接近し、指をさし、“これはなんとい
う名前?”等という行動を表出させる。また、このと
き、対象物との距離を用いて適切な行動制御がなされ
る。このような行動は、そのような行動を規定する行動
シーケンスが記述されたステートマシンにより制御する
ことにより実現される。As the processing for obtaining the object name (Obj: Name), the output is sent to the state machine for obtaining the corresponding object name (Obj: Name). In the acquisition of the name of the object (Obj: Name),
Visual tracking for the object
ing), approach, and point your finger at it, expressing an action such as "What is this name?" At this time, appropriate behavior control is performed using the distance to the target. Such an action is realized by controlling with a state machine in which an action sequence that defines such an action is described.
【0202】そして、“これはなんという名前?”に引
き続き、入力された発話認識部からの出力に有効なもの
があれば、その音韻系列を繰り返して確認するようなス
テートマシンを組み込むこともできる。After "What is this name?", If there is a valid output from the utterance recognition unit that has been input, it is possible to incorporate a state machine that repeatedly checks the phoneme sequence. .
【0203】一方、内部状態変化への影響(Act:Delta-
Int)による獲得行動、すなわち、内部状態変化に基づ
く未知の対象物に対する獲得行動が選択されると、その
対象物に対していくつかの行動をランダムに選択して実
行する。そして、そのときに生じる内部状態変化への影
響(Delta-Int)を連想記憶で評価する。これにより、
この対象物が内部状態に関連付け(Grounding)される
ので、新たな対象物に対する内部状態変化への影響が意
味獲得としてなされるようになる。On the other hand, the effect on the internal state change (Act: Delta-
When an acquisition action by Int), that is, an acquisition action on an unknown object based on a change in internal state is selected, some actions are randomly selected and executed on the object. Then, the effect on the internal state change (Delta-Int) that occurs at that time is evaluated by the associative memory. This allows
Since this object is associated with the internal state (grounding), the influence of the new object on the internal state change is obtained as meaning acquisition.
【0204】例えば、リンゴを見て、そのときに内部状
態が「快」に変化した場合には、その内部状態の変化
を、対象物であるリンゴに対応させてる。以後、ロボッ
ト装置1は、リンゴを快として意味解釈するようにな
り、これにより、リンゴの意味獲得がロボット装置1に
おいてなされたことになる。以上のように、ロボット装
置1は、本発明が適用されることにより、自律行動の一
部として情報獲得行動を表出させて、最適な挙動として
の共同注意を実行し、さらには、そのような情報獲得行
動において、内部状態の変化として得られる未知の対象
物の意味を獲得することができる。これにより、ロボッ
ト装置1は、よりライフライク(Life-like)に近づけ
られたものとなる。For example, if an internal state changes to "pleasant" at the time of looking at an apple, the change in the internal state is made to correspond to the apple as an object. Thereafter, the robot apparatus 1 interprets the apple as having a pleasant meaning, which means that the robot apparatus 1 has acquired the meaning of the apple. As described above, by applying the present invention, the robot apparatus 1 causes the information acquisition behavior to be expressed as a part of the autonomous behavior, executes the joint attention as the optimal behavior, and furthermore, In an information acquisition behavior, the meaning of an unknown object obtained as a change in the internal state can be acquired. Thereby, the robot device 1 becomes closer to life-like.
【0205】なお、上述したような、ロボット装置1へ
の本発明の適用は、例えばソフトウェアとよって実現可
能とされるものである。The application of the present invention to the robot device 1 as described above can be realized by, for example, software.
【0206】[0206]
【発明の効果】本発明に係るロボット装置は、自律行動
の一行動として情報獲得行動をさせる行動制御手段を備
えることにより、自律行動の一行動として情報獲得行動
を表出することができる。The robot apparatus according to the present invention can exhibit the information acquisition behavior as one action of the autonomous action by providing the action control means for causing the information acquisition action as one action of the autonomous action.
【0207】また、本発明に係るロボット装置の行動制
御方法は、ロボット装置の自律的行動の一行動として情
報獲得行動をさせることにより、ロボット装置は、自律
的行動の一行動として情報獲得行動を表出することがで
きる。Further, in the behavior control method for a robot apparatus according to the present invention, the robot apparatus performs the information acquisition behavior as one of the autonomous actions of the robot apparatus. Can be revealed.
【0208】また、本発明に係るロボット装置は、対象
物の意味を獲得する意味獲得手段を備えることにより、
対象物の意味を獲得することができるようになる。Further, the robot apparatus according to the present invention includes meaning obtaining means for obtaining the meaning of the object,
The meaning of the object can be acquired.
【0209】また、本発明に係るロボット装置の行動制
御方法は、内部状態に基づいて行動をしているロボット
装置が対象物に対する行動をしたときの、内部状態の変
化を当該対象物の意味として獲得することにより、ロボ
ット装置は、内部状態に基づいて行動をし、対象物に対
する行動をしたときの内部状態の変化を当該対象物の意
味として獲得することができる。In the behavior control method for a robot device according to the present invention, a change in the internal state as a meaning of the object when the robot device acting on the basis of the internal state acts on the object. By acquiring, the robot apparatus can act based on the internal state, and can acquire a change in the internal state when acting on the object as the meaning of the object.
【0210】また、本発明に係るロボット装置は、音声
入力手段と、発話した際の単語系列の特徴量に基づいて
区分けされた複数の単語系列特徴モデルと、音声入力手
段になされた発話入力を、単語系列特徴モデルに基づい
て評価する発話入力評価手段と、発話入力評価手段の評
価値に基づいて、発話入力の単語系列を特定する単語系
列特定手段とを備えることにより、音声入力手段になさ
れた発話入力を、発話した際の単語系列の特徴量に基づ
いて区分けされた複数の単語系列特徴モデルに基づいて
発話入力評価手段により評価し、発話入力評価手段の評
価値に基づいて、発話入力の単語系列を単語系列特定手
段により特定することができる。これにより、ロボット
装置は、入力された発話を最適な単語系列として特定す
ることができる。[0210] The robot apparatus according to the present invention also includes a speech input unit, a plurality of word sequence feature models classified based on the feature amount of the word sequence at the time of utterance, and a speech input performed by the speech input unit. By providing utterance input evaluation means for evaluating based on the word sequence feature model, and word sequence identification means for specifying the word sequence of the utterance input based on the evaluation value of the utterance input evaluation means, the speech input means The utterance input is evaluated by the utterance input evaluation means based on a plurality of word sequence feature models classified based on the feature amount of the word sequence at the time of the utterance, and the utterance input is performed based on the evaluation value of the utterance input evaluation means. Can be specified by the word sequence specifying means. Thereby, the robot device can specify the input utterance as an optimal word sequence.
【0211】また、本発明に係るロボット装置の行動制
御方法は、音声入力工程と、音声入力工程にてなされた
発話入力を、発話した際の単語系列の特徴量に基づいて
区分けされた複数の単語系列特徴モデルに基づいて評価
する発話入力評価工程と、発話入力評価工程にて得た評
価値に基づいて、発話入力の単語系列を特定する単語系
列特定工程とを有することにより、ロボット装置は、入
力された発話を最適な単語系列として特定することがで
きる。Further, the behavior control method of the robot apparatus according to the present invention is characterized in that a voice input step and a plurality of utterance inputs made in the voice input step are classified based on a feature amount of a word sequence at the time of the utterance. The robot apparatus has an utterance input evaluation step of evaluating based on the word sequence feature model, and a word sequence identification step of identifying a word sequence of the utterance input based on the evaluation value obtained in the utterance input evaluation step. The input utterance can be specified as an optimal word sequence.
【0212】また、本発明に係るロボット装置は、自己
の学習対象物を指し示す行動制御をする制御手段を備え
ることにより、自己の学習対象物を指し示す行動をする
ことができる。これにより、ロボット装置とユーザとの
間の共同注意が確実なものとされるようになる。Further, the robot apparatus according to the present invention is capable of performing an action pointing at its own learning target object by providing a control means for controlling an action pointing at its own learning target object. As a result, joint attention between the robot device and the user is ensured.
【0213】また、本発明に係るロボット装置の行動制
御方法は、自律行動するロボット装置が自己の学習対象
物を指し示すようにロボット装置の行動を制御すること
により、ロボット装置は、自己の学習対象物を指し示す
行動をすることができる。これにより、ロボット装置と
ユーザとの間の共同注意が確実なものとされるようにな
る。Further, the behavior control method for a robot device according to the present invention controls the behavior of the robot device so that the autonomously acting robot device points to the object to be learned by itself. Be able to point to things. As a result, joint attention between the robot device and the user is ensured.
【0214】また、本発明に係るロボット装置は、対象
物を検出するセンサと、センサからの入力信号を評価す
る知覚用評価部と、知覚用評価部の評価結果が入力さ
れ、当該評価結果に基づいて変化する擬似的内部状態を
管理する内部状態管理部と、対象物と当該対象物に基づ
く内部状態の変化との関係を記憶する記憶手段とを備え
ることにより、対象物が検出された際に、検出された対
象物に基づく上記内部状態の変化と上記対象物とを関連
させて上記記憶手段に記憶することができる。Further, in the robot apparatus according to the present invention, a sensor for detecting an object, a perceptual evaluation section for evaluating an input signal from the sensor, and an evaluation result of the perception evaluation section are input, and the evaluation result is input to the evaluation result. When an object is detected by providing an internal state management unit that manages a pseudo internal state that changes based on the object and a storage unit that stores a relationship between the object and a change in the internal state based on the object. In addition, the change in the internal state based on the detected object and the object can be stored in the storage unit in association with each other.
【0215】また、本発明に係るロボット装置の行動制
御方法は、対象物を検出するセンサからの入力信号を評
価する知覚評価工程と、知覚評価工程における評価結果
に基づいて変化する擬似的内部状態を管理する内部状態
管理工程と、対象物と当該対象物に基づく内部状態の変
化との関係を記憶手段に記憶する記憶工程とを有するこ
とにより、ロボット装置は、対象物が検出された際に、
検出された対象物に基づく上記内部状態の変化と上記対
象物とを関連させて上記記憶手段に記憶することができ
る。Further, the behavior control method of the robot apparatus according to the present invention includes a perceptual evaluation step of evaluating an input signal from a sensor for detecting an object, and a pseudo internal state which changes based on the evaluation result in the perceptual evaluation step. The robot apparatus has an internal state management step of managing the object and a storage step of storing the relationship between the target object and a change in the internal state based on the target object in a storage unit. ,
The change in the internal state based on the detected object can be stored in the storage unit in association with the object.
【図1】本発明の実施の形態であるロボット装置の外観
構成を示す斜視図である。FIG. 1 is a perspective view illustrating an external configuration of a robot device according to an embodiment of the present invention.
【図2】上述のロボット装置の回路構成を示すブロック
図である。FIG. 2 is a block diagram showing a circuit configuration of the robot device described above.
【図3】上述のロボット装置のソフトウェア構成を示す
ブロック図である。FIG. 3 is a block diagram illustrating a software configuration of the robot device described above.
【図4】上述のロボット装置のソフトウェア構成におけ
るミドル・ウェア・レイヤの構成を示すブロック図であ
る。FIG. 4 is a block diagram illustrating a configuration of a middleware layer in a software configuration of the robot device described above.
【図5】上述のロボット装置のソフトウェア構成におけ
るアプリケーション・レイヤの構成を示すブロック図で
ある。FIG. 5 is a block diagram showing a configuration of an application layer in the software configuration of the robot device described above.
【図6】上述のアプリケーション・レイヤの行動モデル
ライブラリの構成を示すブロック図である。FIG. 6 is a block diagram showing a configuration of the behavior model library of the application layer.
【図7】ロボット装置の行動決定のための情報となる有
限確率オートマトンを説明するために使用した図であ
る。FIG. 7 is a diagram used to explain a finite probability automaton that is information for determining an action of the robot apparatus.
【図8】有限確率オートマトンの各ノードに用意された
状態遷移表を示す図である。FIG. 8 is a diagram showing a state transition table prepared for each node of the finite probability automaton.
【図9】行動を選択する構成部を示すブロック図であ
る。FIG. 9 is a block diagram showing a component for selecting an action.
【図10】知覚によって行動を選択する構成部を示すブ
ロック図である。FIG. 10 is a block diagram showing a component for selecting an action by perception.
【図11】サブシステムの具体例を示す図である。FIG. 11 is a diagram illustrating a specific example of a subsystem.
【図12】行動を選択する構成のより具体的な構成部を
示すブロック図である。FIG. 12 is a block diagram showing a more specific component of a configuration for selecting an action.
【図13】ロボット装置が共同注意により、情報獲得行
動又は情報確認行動を表出するまでの一連の手順を示す
フローチャートである。FIG. 13 is a flowchart showing a series of procedures until the robot device expresses an information acquisition action or an information confirmation action by joint attention.
【図14】ロボット装置を含むネットワークシステムの
構成を示す図である。FIG. 14 is a diagram illustrating a configuration of a network system including a robot device.
【図15】任意の単一色からなる入力画像のカラーセグ
メンテーションについての説明に使用した図である。FIG. 15 is a diagram used for describing color segmentation of an input image composed of an arbitrary single color.
【図16】人間が含まれた入力画像のカラーセグメンテ
ーションについての説明に使用した図である。FIG. 16 is a diagram used for describing color segmentation of an input image including a human.
【図17】カラーセグメンテーションのクラスタリング
の説明に使用した図である。FIG. 17 is a diagram used for describing clustering of color segmentation.
【図18】入力画像のクラスタリングの様子を示す図で
ある。FIG. 18 is a diagram illustrating a state of clustering of an input image.
【図19】カラーセグメンテーションにより切り出され
た外形分析の結果を示す図である。FIG. 19 is a diagram showing a result of an outline analysis cut out by color segmentation.
【図20】発話認識を実現する構成部を示すブロック図
である。FIG. 20 is a block diagram showing components for realizing speech recognition.
【図21】未知語入力用HMMの構成例を示す図であ
る。FIG. 21 is a diagram illustrating a configuration example of an unknown word input HMM.
【図22】発話認識の結果を示す図である。FIG. 22 is a diagram illustrating a result of speech recognition.
【図23】内部状態に関する情報を示す図である。FIG. 23 is a diagram showing information on an internal state.
【図24】仮想的な胃と仮想的な膀胱等の関係を示す図
である。FIG. 24 is a diagram showing a relationship between a virtual stomach and a virtual bladder and the like.
【図25】学習用メモリの構成を示すブロック図であ
る。FIG. 25 is a block diagram illustrating a configuration of a learning memory.
【図26】外部刺激、内部状態に基づく情報から、共同
注意による情報獲得行動又は情報確認行動を表出するま
での処理を示す図である。FIG. 26 is a diagram showing a process from the information based on the external stimulus and the internal state until the information acquiring action or the information confirming action by joint attention is expressed.
1 ロボット装置、10 CPU、101 モチベーシ
ョン生成部、102リリースメカニズム、103 動作
評価部、111 知覚部、112 知覚用内部状態部、
113 内部状態部、114 情動部、115 サブシ
ステム、116 行動選択部、140 学習用メモリReference Signs List 1 robot apparatus, 10 CPU, 101 motivation generation unit, 102 release mechanism, 103 operation evaluation unit, 111 perception unit, 112 internal state unit for perception,
113 internal state unit, 114 emotion unit, 115 subsystem, 116 action selection unit, 140 learning memory
───────────────────────────────────────────────────── フロントページの続き (72)発明者 堀中 里香 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 横野 順 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 ガブリエル コスタ 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 下村 秀樹 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 南野 活樹 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 2C150 CA01 CA02 DA05 DA24 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED42 ED47 ED52 EF07 EF16 EF23 EF28 EF29 EF33 EF36 3C007 AS36 CS08 KS10 KS31 KS36 KS39 KT01 LW12 MT14 WA04 WA14 WB00 WB15 WB19 5D015 KK01 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Rika Horinaka 6-35-3 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Jun Jun-Yokono 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Gabriel Costa 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Sonny Corporation (72) Hideki Shimomura 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Soni -In-house (72) Inventor Kiki Minamino 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo F-term in Sony Corporation (reference) 2C150 CA01 CA02 DA05 DA24 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED42 ED07 ED52 EF07 EF16 EF23 EF28 EF29 EF33 EF36 3C007 AS36 CS08 KS10 KS31 KS36 KS39 KT01 LW12 MT14 WA04 WA14 WB00 WB15 WB19 5D015 KK01
Claims (31)
手段を備えたことを特徴とするロボット装置。1. A robot apparatus that performs an autonomous action, comprising: an action control unit that performs an information acquisition action as one action of the autonomous action.
獲得する言語獲得行動であることを特徴とする請求項1
記載のロボット装置。2. The information acquisition action according to claim 1, wherein the information acquisition action is a language acquisition action for acquiring a language as information.
The robot device as described.
をしており、 上記行動制御手段は、内部状態の恒常性に基づいて、上
記情報獲得行動をさせることを特徴とする請求項1記載
のロボット装置。3. The robot according to claim 1, wherein the robot performs an autonomous action based on at least an internal state, and the action control unit causes the information acquisition action based on a homeostasis of the internal state. apparatus.
得欲をパラメータとする情報獲得モデルを備えており、 上記行動制御手段は、上記情報獲得欲のパラメータが所
定の閾値になったとき、上記情報獲得行動を表出させる
ことを特徴とする請求項3記載のロボット装置。4. An information acquisition model in which the information acquisition desire as a change factor of the internal state is provided as a parameter, wherein the action control means is configured to perform the operation when the information acquisition desire parameter reaches a predetermined threshold value. 4. The robot apparatus according to claim 3, wherein the information acquisition action is expressed.
的に変化することを特徴とする請求項4記載のロボット
装置。5. The robot apparatus according to claim 4, wherein the parameter of the information acquisition desire changes with time.
の飢餓感を示すものであることを特徴とする請求項4記
載のロボット装置。6. The robot apparatus according to claim 4, wherein the parameter of the desire to acquire information indicates a feeling of hunger for learning.
得量であることを特徴とする請求項4記載のロボット装
置。7. The robot device according to claim 4, wherein the parameter of the information acquisition desire is an information acquisition amount.
報の学習量であることを特徴とする請求項4記載のロボ
ット装置。8. The robot apparatus according to claim 4, wherein the parameter of the desire to acquire information is a learning amount of new information.
であり、 上記行動制御手段は、上記学習量が所定の閾値を下回っ
たとき、上記情報獲得行動を表出させることを特徴とす
る請求項8記載のロボット装置。9. The learning amount is a learning amount decreasing with time, and the behavior control means causes the information acquisition behavior to be expressed when the learning amount falls below a predetermined threshold. The robot device according to claim 8, wherein
して情報獲得行動をさせることを特徴とするロボット装
置の行動制御方法。10. A behavior control method for a robot device, wherein an information acquisition behavior is performed as one of the autonomous behaviors of the robot device.
を備えたことを特徴とするロボット装置。11. A robot apparatus comprising a meaning obtaining means for obtaining a meaning of an object.
きの、上記内部状態の変化を当該対象物の意味として獲
得することを特徴とする請求項11記載のロボット装
置。12. An action based on an internal state, wherein the meaning obtaining means obtains a change in the internal state as a meaning of the object when the action on the object is performed. The robot device according to claim 11, wherein
手段を備えており、 上記意味獲得手段は、上記対象物に対する行動をしたと
きの、上記内部状態監視手段により検出された上記内部
状態の変化を当該対象物の意味として獲得することを特
徴とする請求項12記載のロボット装置。13. An internal state monitoring means for detecting the internal state, wherein the meaning obtaining means changes the internal state detected by the internal state monitoring means when the action on the object is performed. 13. The robot apparatus according to claim 12, wherein the robot acquires the meaning of the object.
物に関連づけて連想記憶しておく連想記憶手段を備えて
いることを特徴とする請求項11記載のロボット装置。14. The robot apparatus according to claim 11, further comprising associative storage means for associatively storing the meaning of the acquired object in association with the object.
ロボット装置が対象物に対する行動をしたときの、上記
内部状態の変化を当該対象物の意味として獲得すること
を特徴とするロボット装置の行動制御方法。15. The behavior of the robot device, wherein when the robot device acting based on the internal state acts on the object, the change in the internal state is acquired as the meaning of the object. Control method.
複数の単語系列特徴モデルと、 上記音声入力手段になされた発話入力を、上記単語系列
特徴モデルに基づいて評価する発話入力評価手段と、 上記発話入力評価手段の評価値に基づいて、上記発話入
力の単語系列を特定する単語系列特定手段とを備えたこ
と特徴とするロボット装置16. A speech input means, a plurality of word sequence feature models segmented based on a feature amount of a word sequence at the time of utterance, and an utterance input made by the speech input means are used as the word sequence feature model. A robot apparatus comprising: utterance input evaluation means for performing evaluation based on the utterance input evaluation means; and word sequence identification means for identifying a word sequence of the utterance input based on the evaluation value of the utterance input evaluation means.
力手段になされた発話入力の単語系列に関する特徴量を
検出する特徴量検出部と、上記特徴量検出部が検出した
発話入力の特徴量を、上記音声特徴モデルに基づいて評
価する評価部とを備えたことを特徴とする請求項16記
載のロボット装置。17. The utterance input evaluating means includes: a feature amount detecting unit that detects a feature amount related to a word sequence of the utterance input performed by the voice input unit; and a feature amount of the utterance input detected by the feature amount detecting unit. 17. The robot apparatus according to claim 16, further comprising: an evaluation unit that performs evaluation based on the voice feature model.
の特徴量の評価が低いときには、当該発話入力をその単
語系列の特徴量をもって新たな音声列特徴モデルとして
登録するモデル登録手段を備えたことを特徴とする請求
項17記載のロボット装置。18. A model registering means for registering the utterance input as a new speech sequence feature model using the feature amount of the word sequence when the feature amount of the utterance input detected by the feature amount detection unit is low. 18. The robot device according to claim 17, wherein:
により得た単語系列の特徴量を有していることを特徴と
する請求項16記載のロボット装置。19. The robot apparatus according to claim 16, wherein the word sequence feature model has a word sequence feature amount obtained by phonemic learning.
の単語系列の特徴量に基づいて区分けされた複数の単語
系列特徴モデルに基づいて評価する発話入力評価工程
と、 上記発話入力評価工程にて得た評価値に基づいて、上記
発話入力の単語系列を特定する単語系列特定工程とを有
すること特徴とするロボット装置の行動制御方法。20. A speech input step, and an utterance input for evaluating the utterance input made in the speech input step based on a plurality of word sequence feature models classified based on a feature amount of the word sequence at the time of the utterance. A behavior control method for a robot apparatus, comprising: an evaluation step; and a word sequence specifying step of specifying a word sequence of the utterance input based on the evaluation value obtained in the utterance input evaluation step.
て、 自己の学習対象物を指し示す行動制御をする制御手段を
備えたことを特徴とするロボット装置。21. A robot apparatus which performs an autonomous action, further comprising control means for performing action control indicating a self-learning object.
先して学習対象物として行動をさせる制御手段を備えた
ことを特徴とする請求項21記載のロボット装置。22. The robot apparatus according to claim 21, further comprising control means for giving priority to an object specified based on an external stimulus and causing the object to act as a learning object.
象物を指し示すことを特徴とする請求項21記載のロボ
ット装置。23. The robot apparatus according to claim 21, wherein the action indicating curiosity indicates the object to be learned.
外観形状に形成されており、 上記制御手段は、上記脚部により上記学習対象物を指し
示す行動制御をすることを特徴とする請求項21記載の
ロボット装置。24. The control device according to claim 21, wherein the control means controls the behavior of pointing to the learning object by the legs. The robot device as described.
習対象物を指し示すようにロボット装置の行動を制御す
ることを特徴とするロボット装置の行動制御方法。25. A behavior control method for a robot device, wherein the behavior of the robot device is controlled so that the robot device that behaves autonomously points to its own learning target.
に基づいて変化する擬似的内部状態を管理する内部状態
管理部と、 上記対象物と当該対象物に基づく上記内部状態の変化と
の関係を記憶する記憶手段とを備え、 対象物が検出された際に、検出された対象物に基づく上
記内部状態の変化と上記対象物とを関連させて上記記憶
手段に記憶することを特徴とするロボット装置。26. A robot device which autonomously behaves, comprising: a sensor for detecting an object; a perceptual evaluation unit for evaluating an input signal from the sensor; and an evaluation result of the perceptual evaluation unit. An internal state management unit that manages a pseudo internal state that changes based on the evaluation result; and a storage unit that stores a relationship between the object and a change in the internal state based on the object. The robot device stores the change in the internal state based on the detected object and the object when the operation is performed in the storage unit.
情動を生成する情動部をさらに備え、 上記対象物と当該対象物に基づく情動関連情報を上記記
憶手段に記憶することを特徴とする請求項26記載のロ
ボット装置。27. The apparatus according to claim 27, further comprising an emotion unit configured to generate a pseudo emotion based on the change in the internal state, wherein the object and emotion-related information based on the object are stored in the storage unit. Item 27. The robot device according to item 26.
うに上記内部状態を管理するとともに、上記恒常性が乱
れたときには、上記行動生成部に第1の信号を送信し、 上記行動生成部は、上記第1の信号に基づいて上記恒常
性を保つための行動を生成することを特徴とする請求項
26記載のロボット装置。28. The apparatus further comprising an action generation unit, wherein the internal state management unit manages the internal state so as to maintain the constancy of the internal state. 27. The robot apparatus according to claim 26, wherein a first signal is transmitted, and the action generation unit generates an action for maintaining the homeostasis based on the first signal.
つための行動とを上記記憶手段に連想記憶することを特
徴とする請求項28記載のロボット装置。29. The robot apparatus according to claim 28, wherein the change in the internal state and the action for maintaining the homeostasis are stored in the storage unit in association with each other.
変数を有し、当該情報獲得欲求変数の値に基づいて上記
行動生成部に第2の信号を送信し、 上記行動生成部は、上記第2の信号に基づいて情報獲得
行動を生成することを特徴とする請求項28記載のロボ
ット装置。30. The internal state management unit has an information acquisition desire variable, and transmits a second signal to the action generation unit based on a value of the information acquisition desire variable. 29. The robot apparatus according to claim 28, wherein the information acquisition behavior is generated based on the second signal.
方法であって、 対象物を検出するセンサからの入力信号を評価する知覚
評価工程と、 上記知覚評価工程における評価結果に基づいて変化する
擬似的内部状態を管理する内部状態管理工程と、 上記対象物と当該対象物に基づく上記内部状態の変化と
の関係を記憶手段に記憶する記憶工程とを有し、 対象物が検出された際に、検出された対象物に基づく上
記内部状態の変化と上記対象物とを関連させて上記記憶
手段に記憶することを特徴とするロボット装置の行動制
御方法。31. A behavior control method for a robot apparatus that performs an autonomous behavior, comprising: a perceptual evaluation step of evaluating an input signal from a sensor for detecting an object; and a pseudo-state changing based on an evaluation result in the perceptual evaluation step. An internal state management step of managing an internal state, and a storage step of storing the relationship between the object and a change in the internal state based on the object in a storage unit. A behavior control method for a robot apparatus, wherein a change in the internal state based on a detected object and the object are stored in the storage unit in association with each other.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001317315A JP4296736B2 (en) | 2000-10-13 | 2001-10-15 | Robot device |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000314524 | 2000-10-13 | ||
JP2000-314524 | 2000-10-13 | ||
JP2001317315A JP4296736B2 (en) | 2000-10-13 | 2001-10-15 | Robot device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002219677A true JP2002219677A (en) | 2002-08-06 |
JP4296736B2 JP4296736B2 (en) | 2009-07-15 |
Family
ID=26602109
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001317315A Expired - Fee Related JP4296736B2 (en) | 2000-10-13 | 2001-10-15 | Robot device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4296736B2 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003022131A (en) * | 2001-07-09 | 2003-01-24 | Kenzo Iwama | Word learning robot, learning motion controller for mobile body and its method |
WO2003075261A1 (en) * | 2002-03-06 | 2003-09-12 | Sony Corporation | Learning apparatus, learning method, and robot apparatus |
WO2004080665A1 (en) | 2003-03-11 | 2004-09-23 | Sony Corporation | Robot device, behavior control method thereof, and program |
US7152050B2 (en) | 2003-02-19 | 2006-12-19 | Sony Corporation | Learning system capable of performing additional learning and robot apparatus |
US7689322B2 (en) | 2004-06-07 | 2010-03-30 | Sony Corporation | Robot apparatus and method of controlling the motion thereof |
JP2013031897A (en) * | 2011-08-02 | 2013-02-14 | Sony Corp | Control unit, control method, program, and robot control system |
CN105945949A (en) * | 2016-06-01 | 2016-09-21 | 北京光年无限科技有限公司 | Information processing method and system for intelligent robot |
JP2016197386A (en) * | 2015-04-06 | 2016-11-24 | 信太郎 本多 | Versatility-aware artificial intelligence system adapted to environment |
CN109299240A (en) * | 2018-09-30 | 2019-02-01 | 北京小谛机器人科技有限公司 | Chat robots information interacting method and device |
WO2019163312A1 (en) | 2018-02-26 | 2019-08-29 | ソニー株式会社 | Information processing device, information processing method, and program |
US12122039B2 (en) | 2017-12-22 | 2024-10-22 | Sony Corporation | Information processing device and information processing method |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7081619B2 (en) * | 2020-03-25 | 2022-06-07 | カシオ計算機株式会社 | Device control device, device, device control method and program |
-
2001
- 2001-10-15 JP JP2001317315A patent/JP4296736B2/en not_active Expired - Fee Related
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003022131A (en) * | 2001-07-09 | 2003-01-24 | Kenzo Iwama | Word learning robot, learning motion controller for mobile body and its method |
WO2003075261A1 (en) * | 2002-03-06 | 2003-09-12 | Sony Corporation | Learning apparatus, learning method, and robot apparatus |
US7152050B2 (en) | 2003-02-19 | 2006-12-19 | Sony Corporation | Learning system capable of performing additional learning and robot apparatus |
WO2004080665A1 (en) | 2003-03-11 | 2004-09-23 | Sony Corporation | Robot device, behavior control method thereof, and program |
US7853357B2 (en) | 2003-03-11 | 2010-12-14 | Sony Corporation | Robot behavior control based on current and predictive internal, external condition and states with levels of activations |
US7689322B2 (en) | 2004-06-07 | 2010-03-30 | Sony Corporation | Robot apparatus and method of controlling the motion thereof |
US10890884B2 (en) | 2011-08-02 | 2021-01-12 | Sony Corporation | Control device, control method, computer program product, and robot control system |
US9766604B2 (en) | 2011-08-02 | 2017-09-19 | Sony Corporation | Control device, control method, computer program product, and robot control system |
JP2013031897A (en) * | 2011-08-02 | 2013-02-14 | Sony Corp | Control unit, control method, program, and robot control system |
JP2016197386A (en) * | 2015-04-06 | 2016-11-24 | 信太郎 本多 | Versatility-aware artificial intelligence system adapted to environment |
CN105945949A (en) * | 2016-06-01 | 2016-09-21 | 北京光年无限科技有限公司 | Information processing method and system for intelligent robot |
US12122039B2 (en) | 2017-12-22 | 2024-10-22 | Sony Corporation | Information processing device and information processing method |
WO2019163312A1 (en) | 2018-02-26 | 2019-08-29 | ソニー株式会社 | Information processing device, information processing method, and program |
US11409289B2 (en) | 2018-02-26 | 2022-08-09 | Sony Corporation | Information processing device, information processing method, and program |
US11899456B2 (en) | 2018-02-26 | 2024-02-13 | Sony Corporation | Information processing device, information processing method, and program |
CN109299240A (en) * | 2018-09-30 | 2019-02-01 | 北京小谛机器人科技有限公司 | Chat robots information interacting method and device |
Also Published As
Publication number | Publication date |
---|---|
JP4296736B2 (en) | 2009-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100864339B1 (en) | Robot device and behavior control method for robot device | |
US8145492B2 (en) | Robot behavior control system and method, and robot apparatus | |
Cangelosi et al. | Developmental robotics: From babies to robots | |
US7251606B2 (en) | Robot device with changing dialogue and control method therefor and storage medium | |
US7117190B2 (en) | Robot apparatus, control method thereof, and method for judging character of robot apparatus | |
JP2011115944A (en) | Robot device, robot device action control method, and program | |
JP2003039363A (en) | Robot device, action learning method therefor, action learning program thereof, and program recording medium | |
US6362589B1 (en) | Robot apparatus | |
Breazeal et al. | Toward teaching a robot ‘infant’using emotive communication acts | |
JP2005193331A (en) | Robot device and its emotional expression method | |
JP2023017880A (en) | Information processing device and information processing method | |
JP2002160185A (en) | Robot device, behavior controlling method for robot device and device and method for detecting external force | |
JP7363809B2 (en) | Information processing device, information processing method, and program | |
JP2006110707A (en) | Robot device | |
JP2002219677A (en) | Robot system, and method of controlling behavior of robot system | |
JP7156300B2 (en) | Information processing device, information processing method, and program | |
JP2002239952A (en) | Robot device, action control method for robot device, program, and recording medium | |
JP2007125629A (en) | Robot device and motion control method | |
JP2002205289A (en) | Action control method for robot device, program, recording medium and robot device | |
Fujita et al. | An autonomous robot that eats information via interaction with humans and environments | |
JP2002307349A (en) | Robot device, information learning method, and program and recording medium | |
JP2021523472A (en) | How to control multiple robot effectors | |
JP2002269530A (en) | Robot, behavior control method of the robot, program and storage medium | |
Richert et al. | Layered understanding for sporadic imitation in a multi-robot scenario | |
JP2002239962A (en) | Robot device, and action control method and system of robot device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040805 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080701 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080901 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090324 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090406 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4296736 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120424 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130424 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140424 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |