JP2002264057A - Robot device, action control method for robot device, program and recording medium - Google Patents

Robot device, action control method for robot device, program and recording medium

Info

Publication number
JP2002264057A
JP2002264057A JP2001069137A JP2001069137A JP2002264057A JP 2002264057 A JP2002264057 A JP 2002264057A JP 2001069137 A JP2001069137 A JP 2001069137A JP 2001069137 A JP2001069137 A JP 2001069137A JP 2002264057 A JP2002264057 A JP 2002264057A
Authority
JP
Japan
Prior art keywords
action
behavior
internal state
learning
robot apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001069137A
Other languages
Japanese (ja)
Inventor
Hiroaki Ogawa
浩明 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001069137A priority Critical patent/JP2002264057A/en
Publication of JP2002264057A publication Critical patent/JP2002264057A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To learn action and to connect an internal state to the learned action. SOLUTION: This robot device is provided with a learning part 1 for learning new action, and a corresponding part 2 for making the internal state such as emotion correspond to the action learned by the learning part 1. When put in a certain emotional state, the robot device can make the corresponding learned action appear or can change the corresponding emotional state according to the action when taking learned action.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、自律的に行動する
ロボット装置及びそのようなロボット装置の行動制御方
法、そのようなロボット装置の行動を制御するためのプ
ログラム、及びそのようなプログラムが記録された記録
媒体に関する。
The present invention relates to a robot apparatus that behaves autonomously, a method for controlling the action of such a robot apparatus, a program for controlling the action of such a robot apparatus, and a program for recording such a program. The recorded recording medium.

【0002】[0002]

【従来の技術】自律型のロボット装置のアプリケーショ
ンであるペット型のロボット装置等の自律型のエンター
テイメントロボット装置は、内的状態を示す感情モデル
や本能モデル等を持ち、感情モデルや本能モデルの出力
を動作に反映することで、より生物的な動作をすること
が可能とされている。ここで例えば、感情モデルとは、
感情の状態を数値或いはプログラムとしてモデル化した
もので、本能モデルとは、本能の状態を数値或いはプロ
グラムとしてモデル化したものである。
2. Description of the Related Art An autonomous entertainment robot apparatus such as a pet-type robot apparatus which is an application of an autonomous robot apparatus has an emotion model or an instinct model indicating an internal state, and outputs an emotion model or an instinct model. Is reflected in the movement, thereby making it possible to perform a more biological movement. Here, for example, the emotion model is
The state of emotion is modeled as a numerical value or a program, and the instinct model is a model of the state of the instinct as a numerical value or a program.

【0003】感情モデル等については、予め定められた
プログラムであり、ロボット装置は、予め規定された行
動の実行、経過時間、センサ入力(ユーザ入力を含む)
等を与えることで上述のような感情モデル等のパラメー
タを変更し、変更後のパラメータが所定の閾値を超えた
場合、所定の動作を出現するようになされている。
[0003] The emotion model and the like are predetermined programs, and the robot apparatus executes predetermined actions, elapsed time, sensor input (including user input).
By changing the parameters such as the emotion model as described above, the predetermined operation appears when the changed parameter exceeds a predetermined threshold.

【0004】また、ロボット装置は、複数の行動パター
ンデータ(或いは行動計画データ)を保持し或いは登録
がなされており、上述したような感情モデルに応じて一
の行動パターンデータを自動的に選択して、選択した行
動パターンデータを再生することにより、多彩な自律行
動を出現させている。
Further, the robot apparatus holds or registers a plurality of action pattern data (or action plan data), and automatically selects one action pattern data according to the emotion model as described above. Then, by reproducing the selected action pattern data, various autonomous actions appear.

【0005】一方、予め決定されている行動パターンデ
ータを再生するのではなく、周囲の環境や状況に応じた
行動をするロボット装置も提案されている。すなわち、
行動パターンデータを保持し、その行動パターンデータ
を利用して行動をするのではなく、外部環境等に応じて
その場限りの行動を出現させるロボット装置といったも
のがある。
On the other hand, there has been proposed a robot apparatus which does not reproduce predetermined action pattern data, but performs an action according to the surrounding environment and situation. That is,
There is a robot device that holds action pattern data and does not act using the action pattern data, but causes an ad hoc action to appear according to an external environment or the like.

【0006】具体的には、特開2000-122992号公報に
は、報酬(reward、リワード)を行動意欲の基準とする
ことで、外部環境等に応じて行動範囲を選ぶように自律
的に行動するロボット装置の技術が提案されている。
Specifically, Japanese Patent Application Laid-Open No. 2000-122992 discloses that a reward (reward) is used as a criterion of motivation to act autonomously so as to select a range of action according to an external environment or the like. There has been proposed a technology of a robot device that performs the following.

【0007】また、特開平11-126198号公報には、リカ
レント型ニューラルネットワーク(以下、RNNとい
う。)を用いて行動の学習を行う技術が提案されてい
る。この技術では、RNNを利用した行動の学習によ
り、一連の行動を分節化して獲得することが可能とされ
ており、更に一連の分節化された動作のシーケンスを分
節化したような上位の構造、さらにそのまた上位の構造
を階層的に獲得することが可能とされている。この技術
によれば、ロボット装置は、個々の学習状況に応じて、
例えば、「出口に向かい直進する」、「部屋から出
る」、「廊下を右に曲がる」或いは「廊下を直進する」
等の種々の動作を分節化し、それらの動作を組み合わせ
て行動するようになされている。
Japanese Patent Application Laid-Open No. H11-126198 proposes a technique for learning an action using a recurrent neural network (hereinafter, referred to as RNN). According to this technology, a series of actions can be segmented and acquired by learning actions using an RNN, and a higher-level structure such as a segmented sequence of a series of segmented actions can be obtained. In addition, it is possible to hierarchically acquire a higher-order structure. According to this technology, the robot device is adapted to each learning situation,
For example, "go straight to the exit", "get out of the room", "turn right in the corridor" or "go straight in the corridor"
And the like are segmented, and these actions are combined to act.

【0008】このように分節化して行動を学習すること
が可能とされたロボット装置は、使用者に応じて様々な
行動を学習により獲得することができるようになる。す
なわち、ロボット装置が学習する動作は、学習環境が異
なるので、動作環境に応じて様々な動作を獲得すること
ができるのである。つまり、使用者(例えば、飼い主)
によりロボット装置に教示する環境が異なるので、その
ような環境に応じて、ロボット装置は、様々な動作を獲
得することができる。
[0008] The robot device capable of segmenting and learning an action as described above can acquire various actions by learning according to the user. That is, since the learning operation of the robot apparatus has a different learning environment, various operations can be obtained according to the operating environment. That is, the user (eg, owner)
Therefore, the environment in which the robot apparatus is taught is different, and the robot apparatus can acquire various operations according to such an environment.

【0009】このようなロボット装置は、上述のように
行動パターンデータを再生することでしか行動できない
ロボット装置と比較して、自己の環境に則した行動を行
うようになるので、使用者から見て、さらに自然に自律
的な行動をするものとして鑑賞することができる。
Such a robot device behaves in accordance with its own environment, as compared with a robot device that can only act by reproducing the behavior pattern data as described above, so that the user can see Therefore, it can be appreciated as a more autonomous behavior.

【0010】[0010]

【発明が解決しようとする課題】ところで、上述したよ
うに、行動パターンデータを再生することでしか行動で
きないロボット装置は独自性があるとは言えない。すな
わち例えば、嬉しいときには万歳する行動しか出現させ
ることができない。
However, as described above, a robot device that can only act by reproducing the action pattern data cannot be said to be unique. In other words, for example, when you are happy, you can only make an action that will live forever.

【0011】また、行動パターンが予め決定されている
ことは、換言すれば自らの行動に対して感情モデルを変
化させることができるロボット装置の場合には、予め用
意された行動でしか感情モデルを変化させることができ
ない。
In addition, the fact that the behavior pattern is determined in advance means that, in other words, in the case of a robot apparatus that can change the emotion model with respect to its own behavior, the emotion model can be determined only by the behavior prepared in advance. It cannot be changed.

【0012】さらに、ロボット装置の内部状態(例え
ば、感情状態や本能状態)と学習状態とは直接の関係を
もっていなかった。例えば、そのため、行動を学習した
としても、その行動は、感情等の内部状態に結びついて
はいなかった。
Further, the internal state (for example, emotional state or instinct state) of the robot apparatus and the learning state have no direct relationship. For example, even if an action is learned, the action is not linked to an internal state such as an emotion.

【0013】そこで、本発明は、上述の実情に鑑みてな
されたものであり、行動を学習するとともに、その学習
した行動に内部状態を結びつけることができるロボット
装置、ロボット装置の行動制御方法、プログラム及び記
録媒体の提供を目的とする。
Accordingly, the present invention has been made in view of the above-mentioned circumstances, and has a robot apparatus, a behavior control method of a robot apparatus, and a program capable of learning an action and connecting an internal state to the learned action. And the provision of a recording medium.

【0014】[0014]

【課題を解決するための手段】本発明に係るロボット装
置は、入力情報に応じて内的状態を変化させ、内的状態
に基づいて行動をするロボット装置である。このロボッ
ト装置は、上述の課題を解決するために、入力情報に応
じて内的状態を変化させる内的状態変化手段と、新たな
行動の学習をする学習手段と、学習手段により学習した
行動に対して内的状態を対応付けする対応付け手段と、
行動の制御を内的状態に対応付けて行う行動制御手段と
を備える。
A robot device according to the present invention is a robot device that changes an internal state according to input information and performs an action based on the internal state. In order to solve the above-described problem, the robot apparatus includes an internal state changing unit that changes an internal state according to input information, a learning unit that learns a new behavior, and an action learned by the learning unit. Associating means for associating an internal state with the
Behavior control means for controlling the behavior in association with the internal state.

【0015】このような構成を備えるロボット装置は、
新たな行動の学習をする学習手段により学習した行動に
対して内的状態を対応付け手段により対応付けし、行動
制御手段により、行動の制御を内的状態に対応付けて行
う。そして、ロボット装置は、そのように対応付けされ
た内的状態を内的状態変化手段によって変化される。
[0015] The robot device having such a configuration is as follows.
The internal state is associated with the behavior learned by the learning means for learning a new behavior by the association means, and the behavior control is performed by the behavior control means in association with the internal state. Then, the robot apparatus changes the associated internal state by the internal state changing means.

【0016】これにより、ロボット装置は、行動を学習
するともに、その行動に感情を対応付けすることがで
き、例えば、内的状態手段により変化されて感情が所定
の状態になったとき学習した行動を出現させたり、学習
した行動により対応する感情を内的状態手段により変化
させたりする。
Thus, the robot device can learn the behavior and associate the emotion with the behavior. For example, the robot apparatus learns the behavior when the emotion is changed by the internal state means and the emotion reaches a predetermined state. Appear, or the emotion corresponding to the learned behavior is changed by the internal state means.

【0017】また、本発明に係るロボット装置の行動制
御方法は、入力情報に応じて内的状態を変化させ、内的
状態に基づいて行動をするロボット装置の行動を制御す
るロボット装置の行動制御方法である。このロボット装
置の行動制御方法は、上述の課題を解決するために、ロ
ボット装置が新たな行動の学習をする学習工程と、学習
工程にて学習した行動に対して、ロボット装置が内的状
態を対応付けする対応付け工程と、ロボット装置が行動
の制御を内的状態に対応付けて行う行動制御工程とを有
する。
Further, the behavior control method for a robot device according to the present invention is a behavior control method for a robot device that changes an internal state in accordance with input information and controls the behavior of the robot device acting based on the internal state. Is the way. In order to solve the above-described problem, the behavior control method of the robot device includes a learning step in which the robot device learns a new behavior, and the robot device changing an internal state with respect to the behavior learned in the learning process. There is an associating step of associating, and an action controlling step in which the robot apparatus performs action control in association with the internal state.

【0018】このようなロボット装置の行動制御方法に
より、ロボット装置は、行動を学習するともに、その行
動に感情を対応付けすることができ、例えば、内的状態
手段により変化されて感情が所定の状態になったとき学
習した行動を出現させたり、学習した行動により対応す
る感情を内的状態手段により変化させたりする。
According to such a behavior control method for a robot device, the robot device can learn the behavior and associate the behavior with the emotion. For example, the robot apparatus changes the emotion by the internal state means and the emotion is changed to a predetermined level. When the state is reached, the learned action is caused to appear, or the emotion corresponding to the learned action is changed by the internal state means.

【0019】また、本発明に係るプログラムは、入力情
報に応じて内的状態を変化させ、内的状態に基づいて行
動をするロボット装置の行動を制御するためのプログラ
ムである。このプログラムは、上述の課題を解決するた
めに、ロボット装置が新たな行動の学習をする学習工程
と、学習工程にて学習した行動に対して、ロボット装置
が内的状態を対応付けする対応付け工程と、ロボット装
置が行動の制御を内的状態に対応付けて行う行動制御工
程とを実行する。
Further, the program according to the present invention is a program for changing an internal state in accordance with input information and controlling an action of a robot apparatus which acts based on the internal state. In order to solve the above-described problem, the program includes a learning process in which the robot device learns a new behavior, and an association in which the robot device associates an internal state with the behavior learned in the learning process. And a behavior control step in which the robot device performs behavior control in association with the internal state.

【0020】このようなプログラムにより行動が制御さ
れるロボット装置は、行動を学習するともに、その行動
に感情を対応付けすることができ、例えば、内的状態手
段により変化されて感情が所定の状態になったとき学習
した行動を出現させたり、学習した行動により対応する
感情を内的状態手段により変化させたりする。
The robot device whose behavior is controlled by such a program can learn the behavior and associate the behavior with the emotion. For example, the robot apparatus changes the emotion by the internal state means so that the emotion is in a predetermined state. When it becomes, the learned behavior appears, or the emotion corresponding to the learned behavior is changed by the internal state means.

【0021】また、本発明に係る記録媒体は、入力情報
に応じて内的状態を変化させ、内的状態に基づいて行動
をするロボット装置の行動を制御するためのプログラム
である。この記録媒体は、上述の課題を解決するため
に、ロボット装置が新たな行動の学習をする学習工程
と、学習工程にて学習した行動に対して、ロボット装置
が内的状態を対応付けする対応付け工程と、ロボット装
置が行動の制御を内的状態に対応付けて行う行動制御工
程とを実行するプログラムが記録されている。
[0021] The recording medium according to the present invention is a program for changing an internal state according to input information and controlling the behavior of a robot device that acts based on the internal state. In order to solve the above-described problem, the recording medium has a learning process in which the robot device learns a new behavior, and a process in which the robot device associates an internal state with the behavior learned in the learning process. A program is recorded that executes an attaching step and an action control step in which the robot device performs action control in association with an internal state.

【0022】このような記録媒体に記録されたプログラ
ムにより行動が制御されるロボット装置は、行動を学習
するともに、その行動に感情を対応付けすることがで
き、例えば、内的状態手段により変化されて感情が所定
の状態になったとき学習した行動を出現させたり、学習
した行動により対応する感情を内的状態手段により変化
させたりする。
A robot apparatus whose behavior is controlled by a program recorded on such a recording medium can learn an action and associate an emotion with the action. Then, when the emotion reaches a predetermined state, the learned behavior appears, or the corresponding emotion is changed by the internal behavior by the learned behavior.

【0023】[0023]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を用いて説明する。この実施の形態は、本発明
を、自律的に行動するロボット装置に適用したものであ
る。
Embodiments of the present invention will be described below with reference to the drawings. In this embodiment, the present invention is applied to a robot device that acts autonomously.

【0024】本発明が適用されるロボット装置は、周囲
の環境や内部の状態に応じて自律的に行動をする自律型
のロボット装置である。そして、ロボット装置は、本発
明が適用されることにより、新たな行動を学習するとと
もに、学習した行動に、例えば、感情状態や本能状態等
の内部状態を連動させることができるようになされてい
る。
The robot device to which the present invention is applied is an autonomous robot device that behaves autonomously according to the surrounding environment and internal state. By applying the present invention, the robot device can learn a new behavior and can link an internal state such as an emotional state or an instinct state to the learned behavior. .

【0025】実施の形態の説明では、本発明の適用され
て実現されるロボット装置による行動の学習について先
ず説明して、その後、ロボット装置の具体的な構成につ
いて説明する。
In the description of the embodiment, learning of behavior by a robot device realized by applying the present invention will be described first, and then a specific configuration of the robot device will be described.

【0026】(1)行動の学習及び学習した行動への内
的状態の連動 行動の学習は、図1に示すように、学習部1及び対応付
け部2を有することにより実現されている。ここで、学
習部1は、新たな行動の学習をする学習手段であって、
対応付け部2は、学習部1により学習した行動に対して
感情等の内的状態を対応付けする対応付け手段である。
例えば、この学習部1及び対応付け部2は、ソフトウェ
アプログラムによって構成されるオブジェクトやモジュ
ールとして構成されている。
(1) Learning of an action and linking of the internal state to the learned action Learning of the action is realized by having a learning unit 1 and an associating unit 2 as shown in FIG. Here, the learning unit 1 is a learning means for learning a new behavior,
The associating unit 2 is an associating unit that associates an internal state such as an emotion with an action learned by the learning unit 1.
For example, the learning unit 1 and the association unit 2 are configured as objects or modules configured by a software program.

【0027】学習部1は、例えば、リカレント型ニュー
ラルネットワーク(以下、RNNという。)といった学
習モデルによって構成されている。ここで、RNNは、
学習対象とされる行動の情報が、入力層、中間層及び出
力層に向かって入力されるニューラルネットワークとさ
れている。このRNNにおける行動学習の際の処理につ
いては後で詳しく説明する。
The learning unit 1 is configured by a learning model such as a recurrent neural network (hereinafter, referred to as RNN). Here, RNN is
The information of the action to be learned is a neural network that is input toward the input layer, the intermediate layer, and the output layer. The processing at the time of action learning in the RNN will be described later in detail.

【0028】学習部1は、入力がなされることにより、
対応する出力をし、入力を学習対象として学習する。そ
して、入力は、時系列データとしてなされるものであ
る。例えば、行動を学習する際の入力としては、ロボッ
ト装置が行動することによって得られるセンサ入力やモ
ータ出力等が挙げられ、具体的には、センサ入力として
は撮像信号が挙げられる。また、学習部1に学習対象と
して入力される情報についてはこれに限定されるものは
なく、例えば行動に対応して内部的に生成される行動情
報であってもよい。
The learning unit 1 receives the input,
Output the corresponding output and learn with the input as the learning target. The input is made as time-series data. For example, examples of the input when learning an action include a sensor input and a motor output obtained by the action of the robot apparatus. Specifically, the sensor input includes an image signal. The information input as a learning target to the learning unit 1 is not limited to this, and may be, for example, behavior information generated internally corresponding to a behavior.

【0029】このような学習部1は、学習対象とされる
入力に対して、出力をするようになされている。ここ
で、学習部1の出力はいわゆる教示信号として把握され
るものである。この出力は、学習後では、同一の行動を
出現している限りにおいて、同様な値を示すようにな
る。
The learning section 1 outputs an input to be learned. Here, the output of the learning unit 1 is grasped as a so-called teaching signal. This output shows the same value after learning as long as the same action appears.

【0030】対応付け部2では、学習部1からの出力に
対して、感情の対応付け(或いは感情の連動)をする。
ここで、感情が対応付けについては、学習後の出力に対
して行っている。また、実施の形態では、学習部1から
の出力に対して感情を対応付けすることで、行動への感
情の対応付けをしているが、これに限定されるものでは
なく、学習した行動に感情を連動させることであれば良
い。また、実施の形態では、出力に感情を対応付けする
場合について説明しているが、これに限定されるもので
はなく、対応付けする対象を本能としてもよく、或いは
それ以外のロボット装置において行動に影響される内的
状態を対象とすることもできる。
The associating unit 2 associates emotions (or links emotions) with the output from the learning unit 1.
Here, the correspondence between emotions is performed on the output after learning. In the embodiment, the emotion is associated with the behavior by associating the emotion with the output from the learning unit 1. However, the present invention is not limited to this. All you have to do is link your emotions. Further, in the embodiment, the case where the emotion is associated with the output is described. However, the present invention is not limited to this, and the target to be associated may be an instinct, or the behavior may be performed in other robot devices. The affected internal state can also be targeted.

【0031】さらに、学習した行動に対応付けする感情
については様々考えることができる。学習した行動を、
感情から見た属性によって差別化できるようであれば、
学習した行動に最適な感情を対応付けすることができ
る。例えば、大きな動作を初めてするような場合には、
恐怖心が伴うものでもあり、よって、そのような行動に
対しては、「恐怖」の感情を対応付けするようにする。
その他に、人間に近づく行動に「喜び」の感情を対応付
けし、また、知らない人間に近づく行動に好奇心に結び
つく感情を対応づけることも挙げられる。さらに、学習
した行動に対して、ランダムに選択した感情を対応させ
ることもでき、この場合、学習した行動により豊かな感
情を表出することが可能になる。
Furthermore, various feelings can be considered for the emotions associated with the learned behavior. The learned behavior,
If you can differentiate by emotional attributes,
The most suitable emotion can be associated with the learned behavior. For example, if you are doing a big motion for the first time,
It is also accompanied by fear, so that such a behavior is associated with the feeling of “fear”.
In addition, it is also possible to associate an emotion of "joy" with an action approaching a human, and to associate an emotion leading to curiosity with an action approaching an unknown human. Furthermore, it is also possible to make a randomly selected emotion correspond to the learned behavior, and in this case, it is possible to express a richer emotion by the learned behavior.

【0032】このような学習部1及び対応付け部2によ
り、新たな行動を学習することができるようになり、さ
らに、学習した行動に所定の行動を対応付けすることが
できる。このようにすることで、ロボット装置は、ある
感情の状態になったとき、対応された学習した行動を出
現させることができる。これにより、例えば、同じ感情
の状態にある場合でも、ロボット装置毎、異なる行動を
出現させるようになる。
With the learning unit 1 and the associating unit 2, a new behavior can be learned, and a predetermined behavior can be associated with the learned behavior. By doing so, the robot device can cause the corresponding learned behavior to appear when a certain emotional state occurs. Thereby, for example, even when the robots are in the same emotional state, different actions appear for each robot device.

【0033】さらに、ロボット装置は、学習した行動を
出現させた際に、対応される感情の状態を変化させるこ
ともできる。例えば、学習した行動に、感情の変化量を
対応付けしておくことにより、行動した際に、対応した
感情の状態をその変化量だけ変化させることができる。
Further, the robot device can change the state of the corresponding emotion when the learned behavior appears. For example, by associating the amount of change in emotion with the learned behavior, the state of the corresponding emotion can be changed by the amount of change when the user acts.

【0034】また、ロボット装置は、使用者によって行
動をする環境が異なることから、学習する行動も異なっ
てくる。このようなことから、ロボット装置毎に異なっ
た行動を、それに感情を対応付けして学習する。よっ
て、各使用者は、ロボット装毎に独自性のある行動を鑑
賞することができるようになる。すなわち、ロボット装
置は、使用者によって行動の学習環境が異なるので、例
えば「怒り」の感情レベルが同じであっても、各ロボッ
ト装置は、使用者毎に異なる行動を出現させるようにな
る。
Further, in the robot apparatus, since the environment in which the user acts is different, the learning action is also different. For this reason, different behaviors for each robot device are learned by associating them with emotions. Therefore, each user can appreciate the unique behavior of each robot device. That is, since the learning environment of the behavior of the robot device differs depending on the user, even if, for example, the emotion level of “anger” is the same, each robot device causes a different behavior to appear for each user.

【0035】以上のように、ロボット装置は、行動を学
習し、その行動に対して感情等の内的状態を連動させる
ことにより、より生物的な表現を実現するものとなる。
As described above, the robot device realizes a more biological expression by learning an action and linking the action to an internal state such as an emotion.

【0036】(2)行動を学習するための具体的な構成 以上のように、感情の対応付けをして、行動を学習する
ことができる。行動を学習する技術としては、例えば、
特開平11-126198号公報に開示されている技術が挙げら
れる。本発明が適用されたロボット装置は、例えば、こ
の技術を採用して行動を学習している。ここでは、その
行動を学習する技術の概略について説明する。
(2) Specific Configuration for Learning Behavior As described above, behavior can be learned by associating emotions. As a technique for learning behavior, for example,
There is a technique disclosed in Japanese Patent Application Laid-Open No. H11-126198. The robot device to which the present invention is applied learns an action, for example, by adopting this technology. Here, an outline of a technique for learning the behavior will be described.

【0037】図2は、データ処理部の構成例を示してい
る。この図2に示す構成は、図1に示す学習部1の具体
的な構成になる。ロボット装置は、後で詳述するよう
に、障害物を検出するセンサと、ロボットを移動させる
ために駆動されるモータが備えており、それらの情報
が、このデータ処理部に学習対象として入力される。
FIG. 2 shows a configuration example of the data processing unit. The configuration shown in FIG. 2 is a specific configuration of the learning unit 1 shown in FIG. As will be described in detail later, the robot device includes a sensor that detects an obstacle and a motor that is driven to move the robot.The information is input to the data processing unit as a learning target. You.

【0038】n個のRNN1−1〜1−nには、センサ
とモータの状態に対応する入力xが入力されている。
RNN1−1は、図3に示すように構成されている。な
お、図示は省略するが、他のRNN1−2〜1−nも、
この図3に示すRNN1−1と同様に構成されている。
[0038] n-number of RNN1-1~1-n are input x t corresponding to the state of the sensor and the motor is input.
The RNN 1-1 is configured as shown in FIG. Although not shown, the other RNNs 1-2 to 1-n also
The configuration is the same as that of the RNN 1-1 shown in FIG.

【0039】この図3に示すように、RNN1−1は、
所定の数の入力層のニューロン31を有し、このニュー
ロン31に、センサの状態に対応する入力sと、モー
タの状態に対応する入力mが入力されている。ニュー
ロン31の出力は、中間層のニューロン32を介して、
出力層のニューロン33に供給されるようになされてい
る。そして、出力層のニューロン33からは、RNN1
−1のセンサの状態に対応する出力st+1と、モータ
の状態に対応する出力mt+1が出力されるようになさ
れている。また、出力の一部は、コンテキスト(contex
t)Cとして、入力層のニューロン31にフィードバ
ックされるようになされている。
As shown in FIG. 3, RNN1-1 is:
Has a neuronal 31 of a predetermined number of the input layer, the neuron 31, an input s t corresponding to the state of the sensor, the input m t corresponding to the state of the motor is input. The output of the neuron 31 is output through the neuron 32 in the hidden layer.
The signal is supplied to the neuron 33 in the output layer. From the neuron 33 in the output layer, RNN1
An output st + 1 corresponding to the state of the sensor of −1 and an output mt + 1 corresponding to the state of the motor are output. Also, part of the output is context (contex
As t) C t, it is adapted to be fed back to the neuron 31 in the input layer.

【0040】RNN1−1〜1−nの出力は、対応する
ゲート2−1〜2−nを介して合成回路3に入力され、
ここで合成され、予測出力yt+1が出力されるように
なされている。
Outputs of the RNNs 1-1 to 1-n are input to the synthesizing circuit 3 via the corresponding gates 2-1 to 2-n.
Here, they are synthesized and the predicted output yt + 1 is output.

【0041】学習時においては、教師信号としての目標
値y t+1と、各RNN1−1〜1−nの出力の誤
差が、対応するゲート2−1〜2−nの状態を制御する
ようになされている。
At the time of learning, the error between the target value y * t + 1 as the teacher signal and the output of each of the RNNs 1-1 to 1 -n controls the state of the corresponding gate 2-1 to 2-n. It has been done.

【0042】以上の下位のRNN1−1〜1−n、ゲー
ト2−1〜2−n、及び合成回路3と同様の構成が、よ
り上位の階層にも形成されている。すなわち、上位の階
層には、RNN11−1〜11−n、ゲート12−1〜
12−n、及び合成回路13が設けられている。そし
て、RNN11−1〜11−nには、下位の階層のゲー
ト2−1〜2−nの導通状態(開閉度)に対応するシー
ケンス(ゲートシーケンス)Gが入力されるようにな
されている。そして、各RNN11−1〜11−nから
は、出力G T+1乃至G T+1が出力され、合成
回路13からは、予測出力GT+1が出力されるように
なされている。また、学習時においては、教師信号とし
て、目標値G T+1が入力されている。なお、図2
には、2つの階層だけが示されているが、必要に応じ
て、さらに、より上位の階層を設けることも可能であ
る。
The same configuration as the above-described lower RNNs 1-1 to 1-n, gates 2-1 to 2-n, and synthesis circuit 3 is also formed in a higher hierarchy. That is, RNNs 11-1 to 11-n and gates 12-1 to 12-1 are located at higher levels.
12-n and a combining circuit 13 are provided. Then, the RNN11-1~11-n, are adapted sequence corresponding to the conduction state of the gate 2-1 to 2-n of the lower layer (closed degree) (gating sequence) G t is input . Then, outputs G 1 T + 1 to G n T + 1 are output from the RNNs 11-1 to 11 -n, and a prediction output G T + 1 is output from the combining circuit 13. At the time of learning, a target value G * T + 1 is input as a teacher signal. Note that FIG.
Shows only two hierarchies, but higher hierarchies can be provided if necessary.

【0043】図4は、上位の階層を構成する第1のRN
N11−1の構成を示している。なお、他のRNN11
−2〜11−nも、この図4に示すRNN11−1と同
様の構成とされている。
FIG. 4 is a diagram showing a first RN constituting a higher hierarchy.
The configuration of N11-1 is shown. Note that other RNNs 11
-2 to 11-n have the same configuration as the RNN 11-1 shown in FIG.

【0044】図4に示すように、上位の階層のRNN1
1−1は、基本的に、図3に示した下位の階層のRNN
1−1と同様に構成されており、入力層には複数のニュ
ーロン41が、中間層には複数のニューロン42が、そ
して出力層には複数のニューロン43が配置されてい
る。入力層には、ゲート2−1〜2−nの導通状態に対
応する信号g 乃至g が入力されるとともに、
ゲートの導通(開放)している周期(時間)Iが入力
される。出力層からは、これらの入力に対応して、出力
T+1乃至g T+1と、IT+1が出力され
る。また、出力層の出力の一部は、コンテキストC
して入力層にフィードバックされている。
As shown in FIG. 4, the upper layer RNN1
1-1 is basically the RNN of the lower hierarchy shown in FIG.
1-1, a plurality of neurons 41 are arranged in an input layer, a plurality of neurons 42 are arranged in an intermediate layer, and a plurality of neurons 43 are arranged in an output layer. Signals g 1 T to g n T corresponding to the conduction states of the gates 2-1 to 2-n are input to the input layer,
Period that the gate conduction (opening) (Time) I T is input. From the output layer, outputs g 1 T + 1 to g n T + 1 and IT + 1 are output corresponding to these inputs. Also, part of the output of the output layer is fed back to the input layer as a context C T.

【0045】ここで、RNN1−1〜1−nのアルゴリ
ズムについて説明する。ゲートの導通状態は、ソフトマ
ックス(soft-max)のアクティベーションファンクショ
ンを用いて、(1)式で示すように表される。
Here, the algorithm of the RNNs 1-1 to 1-n will be described. The conduction state of the gate is expressed as shown in equation (1) using a soft-max activation function.

【0046】[0046]

【数1】 (Equation 1)

【0047】ここで、gは、i番目のゲートの導通状
態に対応するゲート係数を表し、s は、i番目のゲー
トの導通状態の内部状態に対応する値を表している。従
って、合成回路3の出力yt+1は、(2)式で表され
る。
Here, giIs the conduction state of the i-th gate
Represents the gate coefficient corresponding to the state, s iIs the i-th game
The value corresponding to the internal state of the conduction state of the switch. Obedience
Thus, the output y of the synthesis circuit 3t + 1Is given by equation (2)
You.

【0048】[0048]

【数2】 (Equation 2)

【0049】ここで、予測学習時に最大の値となる
(3)式で示す尤度関数を定義する。
Here, a likelihood function represented by the equation (3), which becomes the maximum value during prediction learning, is defined.

【0050】[0050]

【数3】 (Equation 3)

【0051】なお、ここで、σは、スケーリングパラメ
ータを表している。
Here, σ represents a scaling parameter.

【0052】学習時、RNN1−1乃至1−nの重み係
数とゲート係数gは、尤度関数が最大となるように同時
に更新される。認識時においては、ゲート係数だけが更
新される。
At the time of learning, the weight coefficients and the gate coefficients g of RNNs 1-1 to 1-n are simultaneously updated so that the likelihood function is maximized. At the time of recognition, only the gate coefficient is updated.

【0053】これらの重み係数とゲート係数を更新する
ルールを確立するために、尤度関数の指数関数の内部変
数Sに関する傾きと、i番目のRNNの出力yに関
する傾きを(4)式及び(5)式のように求める。
In order to establish a rule for updating these weighting coefficients and gate coefficients, the slope of the likelihood function with respect to the internal variable S i of the exponential function and the slope of the i-th RNN output y i with the equation (4) And (5).

【0054】[0054]

【数4】 (Equation 4)

【0055】[0055]

【数5】 (Equation 5)

【0056】ここで、g(i|x,y t+1
は、i番目のRNNが入力xのとき、目標出力y
t+1を発生する事象後確率を意味し、(6)式で表さ
れる。
Here, g (i | x t , y * t + 1 )
When the i-th RNN is an input x t, the target output y *
It means the post-event probability of generating t + 1 and is expressed by equation (6).

【0057】[0057]

【数6】 (Equation 6)

【0058】ここで、||y t+1−y t+1||
は、現在の予測の自乗誤差を表している。
[0058] In this case, || y * t + 1 -y j t + 1 || 2
Represents the square error of the current prediction.

【0059】上記(4)式は、sを更新する方向を表
している。また、(5)式に示されるように、尤度関数
の指数関数のy t+1に関する傾きは、誤差条件y
+1−y t+1の誤差項を含んでいる。この誤
差項は、i番目のRNNの事象後確率により重み付けさ
れている。
[0059] Equation (4) represents a direction to update the s i. Also, (5) as shown in the formula, the tilt related to y i t + 1 of the exponential function of the likelihood function, the error condition y
* T +1 contains the error term of -y i t + 1. This error term is weighted by the i-th RNN post-event probability.

【0060】このように、RNN1−1〜1−nの重み
係数は、事象後確率にのみ比例して、i番目のRNNの
出力と目標値の誤差を補正するように調整される。これ
によりn個のRNNのうち、1つのエキスパートRNN
だけが、与えられたトレーニングパターン(学習パター
ン)を排他的に学習するようになされる。各RNNの誤
差は、(7)式で表される。
As described above, the weighting coefficients of the RNNs 1-1 to 1-n are adjusted so as to correct the error between the output of the i-th RNN and the target value in proportion to only the post-event probability. Thereby, one expert RNN out of n RNNs
Only the given training pattern (learning pattern) is exclusively learned. The error of each RNN is expressed by equation (7).

【0061】[0061]

【数7】 (Equation 7)

【0062】RNN1−1〜1−nの実際の学習は、上
記式で得られた誤差に基づいてバックプロパゲーション
法により実行される。
The actual learning of the RNNs 1-1 to 1-n is performed by the back propagation method based on the error obtained by the above equation.

【0063】これにより、RNN1−1乃至1−nは、
入力xのうち、それぞれ他と異なる所定の時系列パタ
ーンを識別することができるエキスパートとなるよう
に、学習が行われる。
Thus, RNNs 1-1 to 1-n are:
Of the input x t, so that each the experts can identify predetermined time series pattern which is different from the others, learning is performed.

【0064】以上のことは、上位の階層におけるRNN
11−1〜11−nにおいても同様である。ただし、こ
の場合における入力は、ゲートシーケンスGであり、
その出力は、G T+1となる。
The above is based on the fact that the RNN in the higher hierarchy
The same applies to 11-1 to 11-n. However, the input in this case is a gate sequence G T,
The output is G i T + 1 .

【0065】このような構成により、個別の動作をRN
N1−1〜1−nが個別に学習することができる。そし
て、RNN1−1〜1−nが学習し各動作の発現は、ゲ
ート2−1〜2−nで管理されており、このゲートの様
々な動作シーケンス(つまり様々な動作の順序の組み合
わせ)をRNN11−1〜11−nが学習している。す
なわち、このような情報の学習手法により、行動を文節
化して学習することができるようになる。
With such a configuration, individual operations can be performed by RN
N1-1 to 1-n can learn individually. The RNNs 1-1 to 1-n learn and the manifestation of each operation is managed by the gates 2-1 to 2-n, and various operation sequences of the gates (that is, combinations of various operation orders) are determined. RNNs 11-1 to 11-n are learning. That is, by using such an information learning method, the behavior can be segmented and learned.

【0066】このような複数のRNNによって構成され
た学習部1を有することで、ロボット装置は、図5に示
すような通路を構成する部屋を移動し、その移動の際に
行動を学習することができる。例えば、距離センサに基
づいた行動を学習をする。具体的には、ロボット装置
は、部屋を移動し、その間に学習部を構成する層を自己
組織化することにより、行動の学習をするのである。
By having such a learning unit 1 composed of a plurality of RNNs, the robot device can move in a room forming a passage as shown in FIG. 5 and learn an action during the movement. Can be. For example, the action based on the distance sensor is learned. Specifically, the robot device learns the behavior by moving in the room and self-organizing the layers constituting the learning unit during the movement.

【0067】以上のように概略を説明した学習手法の技
術が特開平11-126198号公報に開示されており、本発明
に係る実施の形態のロボット装置の学習部1は、このよ
うな学習手法を取り入れて構築することができる。本発
明の実施の形態に係るロボット装置は、このような学習
部1により、新たな行動を学習することができるように
なる。これにより、新たな行動として第k番目の行動
(分節化された行動)を学習した後において、その第k
番目の行動が選択された場合には、第k番目のRNN
(RNN11−k)によって学習した行動を出現するこ
とができるようになる。ここで、例えば、学習した行動
を含めた出現可能とされる行動から一の行動を出現させ
るための選択は、感情が現在の姿勢等の条件によって決
定されるものであり、例えば、行動切換え部によってな
される。行動切換え部については後で詳述する。また、
ここで、選択対象とされる行動群は、予め登録されてい
る行動と上述したような学習により得た行動とから構成
されている。
The technology of the learning method outlined above is disclosed in Japanese Patent Application Laid-Open No. H11-126198, and the learning unit 1 of the robot apparatus according to the embodiment of the present invention uses such a learning method. Can be built. The robot device according to the embodiment of the present invention can learn a new behavior by such a learning unit 1. As a result, after learning the k-th action (segmented action) as a new action,
If the action is selected, the k-th RNN
The behavior learned by (RNN11-k) can appear. Here, for example, the selection for causing one action to appear from the possible actions including the learned action is such that the emotion is determined by a condition such as the current posture. Done by The action switching unit will be described later in detail. Also,
Here, the action group to be selected includes actions registered in advance and actions obtained by learning as described above.

【0068】(3)本実施の形態によるロボット装置の
構成 次に、上述したような行動の学習をするロボット装置の
具体的な構成について説明する。
(3) Configuration of Robot Apparatus According to the Present Embodiment Next, a specific configuration of the robot apparatus that learns the above-described behavior will be described.

【0069】図6に示すように、「犬」を模した形状の
いわゆるペットロボットとされ、胴体部ユニット102
の前後左右にそれぞれ脚部ユニット103A,103
B,103C,103Dが連結されると共に、胴体部ユ
ニット102の前端部及び後端部にそれぞれ頭部ユニッ
ト104及び尻尾部ユニット105が連結されて構成さ
れている。
As shown in FIG. 6, a so-called pet robot imitating a “dog” is formed.
Leg units 103A, 103
B, 103C, and 103D are connected, and a head unit 104 and a tail unit 105 are connected to the front end and the rear end of the body unit 102, respectively.

【0070】胴体部ユニット102には、図7に示すよ
うに、CPU(Central ProcessingUnit)110、DR
AM(Dynamic Random Access Memory)111、フラッ
シュROM(Read 0nly Memory)112、PC(Perso
nal Computer)カードインターフェース回路113及び
信号処理回路114が内部バス115を介して相互に接
続されることにより形成されたコントロール部116
と、このロボット装置100の動力源としてのバッテリ
117とが収納されている。また、胴体部ユニット10
2には、ロボット装置100の向きや動きの加速度を検
出するための角速度センサ118及び加速度センサ11
9なども収納されている。
As shown in FIG. 7, a CPU (Central Processing Unit) 110 and a DR
AM (Dynamic Random Access Memory) 111, Flash ROM (Read 0nly Memory) 112, PC (Perso
control unit 116 formed by connecting a card interface circuit 113 and a signal processing circuit 114 to each other via an internal bus 115.
And a battery 117 as a power source of the robot device 100 are stored. The body unit 10
2 includes an angular velocity sensor 118 and an acceleration sensor 11 for detecting the acceleration of the direction and movement of the robot apparatus 100.
9 etc. are also stored.

【0071】また、頭部ユニット104には、外部の状
況を撮像するためのCCD(ChargeCoupled Device)カ
メラ120と、使用者からの「撫でる」や「叩く」とい
った物理的な働きかけにより受けた圧力を検出するため
のタッチセンサ121と、前方に位置する物体までの距
離を測定するための距離センサ122と、外部音を集音
するためのマイクロホン123と、鳴き声等の音声を出
力するためのスピーカ124と、ロボット装置100の
「目」に相当するLED(Light Emitting Diode)(図
示せず)となどがそれぞれ所定位置に配置されている。
Also, the head unit 104 receives a charge (CUP) camera 120 for capturing an image of an external situation and a pressure received by a physical action such as “stroke” or “hit” from the user. A touch sensor 121 for detection, a distance sensor 122 for measuring a distance to an object located ahead, a microphone 123 for collecting external sounds, and a speaker 124 for outputting a sound such as a squeal And an LED (Light Emitting Diode) (not shown) corresponding to the “eye” of the robot device 100 are arranged at predetermined positions.

【0072】さらに、各脚部ユニット103A〜103
Dの関節部分や各脚部ユニット103A〜103D及び
胴体部ユニット102の各連結部分、頭部ユニット10
4及び胴体部ユニット102の連結部分、並びに尻尾部
ユニット105の尻尾105Aの連結部分などにはそれ
ぞれ自由度数分のアクチュエータ125〜125
びポテンショメータ126〜126が配設されてい
る。例えば、アクチュエータ125〜125はサー
ボモータを構成として有している。サーボモータの駆動
により、脚部ユニット103A〜103Dが制御され
て、目標の姿勢或いは動作に遷移する。
Further, each leg unit 103A-103
D, joint portions of the leg units 103A to 103D and the trunk unit 102, the head unit 10
Actuators 125 1 to 125 n and potentiometers 126 1 to 126 n are provided for the number of degrees of freedom, respectively, at a connection portion between the body unit 4 and the body unit 102 and a connection portion at the tail 105 A of the tail unit 105. For example, each of the actuators 125 1 to 125 n has a servomotor. By driving the servo motor, the leg units 103A to 103D are controlled, and the state shifts to the target posture or operation.

【0073】そして、これら角速度センサ118、加速
度センサ119、タッチセンサ121、距離センサ12
2、マイクロホン123、スピーカ124及び各ポテン
ショメータ126〜126などの各種センサ並びに
LED及び各アクチュエータ125 〜125は、
それぞれ対応するハブ127〜127を介してコン
トロール部116の信号処理回路114と接続され、C
CDカメラ120及びバッテリ117は、それぞれ信号
処理回路114と直接接続されている。
The angular velocity sensor 118, the acceleration sensor 119, the touch sensor 121, and the distance sensor 12
2. Various sensors such as a microphone 123, a speaker 124, and each of the potentiometers 126 1 to 126 n , an LED, and each of the actuators 125 1 to 125 n are:
The hubs 127 1 to 127 n are connected to the signal processing circuit 114 of the control unit 116 via the corresponding hubs 127 1 to 127 n , respectively.
The CD camera 120 and the battery 117 are directly connected to the signal processing circuit 114, respectively.

【0074】信号処理回路1l4は、上述の各センサか
ら供給されるセンサデータや画像データ及び音声データ
を順次取り込み、これらをそれぞれ内部バス115を介
してDRAM111内の所定位置に順次格納する。また
信号処理回路114は、これと共にバッテリ117から
供給されるバッテリ残量を表すバッテリ残量データを順
次取り込み、これをDRAM111内の所定位置に格納
する。
The signal processing circuit 114 sequentially takes in the sensor data, image data, and audio data supplied from each of the sensors described above, and sequentially stores them at predetermined positions in the DRAM 111 via the internal bus 115. In addition, the signal processing circuit 114 sequentially takes in remaining battery power data indicating the remaining battery power supplied from the battery 117 and stores the data in a predetermined position in the DRAM 111.

【0075】このようにしてDRAM111に格納され
た各センサデータ、画像データ、音声データ及びバッテ
リ残量データは、この後CPU110がこのロボット装
置100の動作制御を行う際に利用される。
The sensor data, image data, audio data, and remaining battery data stored in the DRAM 111 as described above are used when the CPU 110 controls the operation of the robot device 100 thereafter.

【0076】実際上CPU110は、ロボット装置10
0の電源が投入された初期時、胴体部ユニット102の
図示しないPCカードスロットに装填されたメモリカー
ド128又はフラッシュROM112に格納された制御
プログラムをPCカードインターフェース回路113を
介して又は直接読み出し、これをDRAM111に格納
する。
In practice, the CPU 110
At the initial time when the power supply of the main unit 102 is turned on, the control program stored in the memory card 128 or the flash ROM 112 inserted in the PC card slot (not shown) of the body unit 102 is read out directly or directly through the PC card interface circuit 113. Is stored in the DRAM 111.

【0077】また、CPU110は、この後上述のよう
に信号処理回路114よりDRAM111に順次格納さ
れる各センサデータ、画像データ、音声データ及びバッ
テリ残量データに基づいて自己及び周囲の状況や、使用
者からの指示及び働きかけの有無などを判断する。
The CPU 110 then determines the status of itself and its surroundings and the usage status based on the sensor data, image data, audio data, and remaining battery data sequentially stored in the DRAM 111 from the signal processing circuit 114 as described above. Judge the instruction from the person and the presence or absence of the action.

【0078】さらに、CPU110は、この判断結果及
びDRAM111に格納しだ制御プログラムに基づいて
続く行動を決定すると共に、当該決定結果に基づいて必
要なアクチュエータ125〜125を駆動させるこ
とにより、頭部ユニット104を上下左右に振らせた
り、尻尾部ユニット105の尻尾105Aを動かせた
り、各脚部ユニット103A〜103Dを駆動させて歩
行させるなどの行動を行わせる。
[0078] Furthermore, CPU 110 is configured to determine a subsequent action based on the control program that is stored in the determination result and DRAM 111, by driving the actuator 125 1 to 125 n as required based on the determination result, the head Actions such as swinging the unit 104 up and down, left and right, moving the tail 105A of the tail unit 105, and driving and walking each leg unit 103A to 103D are performed.

【0079】また、この際CPU110は、必要に応じ
て音声データを生成し、これを信号処理回路114を介
して音声信号としてスピーカ124に与えることにより
当該音声信号に基づく音声を外部に出力させたり、上述
のLEDを点灯、消灯又は点滅させる。
At this time, the CPU 110 generates audio data as necessary, and supplies the generated audio data to the speaker 124 as an audio signal via the signal processing circuit 114 to output an audio based on the audio signal to the outside. The above-mentioned LED is turned on, turned off or blinked.

【0080】このようにしてこのロボット装置100に
おいては、自己及び周囲の状況や、使用者からの指示及
び働きかけに応じて自律的に行動し得るようになされて
いる。
In this way, the robot device 100 can behave autonomously in accordance with its own and surrounding conditions, and instructions and actions from the user.

【0081】(2)制御プログラムのソフトウェア構成 ここで、ロボット装置100における上述の制御プログ
ラムのソフトウェア構成は、図8に示すようになる。こ
の図8において、デバイス・ドライバ・レイヤ30は、
この制御プログラムの最下位層に位置し、複数のデバイ
ス・ドライバからなるデバイス・ドライバ・セット13
1から構成されている。この場合、各デバイス・ドライ
バは、CCDカメラ120(図7)やタイマ等の通常の
コンピュータで用いられるハードウェアに直接アクセス
するごとを許されたオブジェクトであり、対応するハー
ドウェアからの割り込みを受けて処理を行う。
(2) Software Configuration of Control Program Here, the software configuration of the above-described control program in the robot device 100 is as shown in FIG. In FIG. 8, the device driver layer 30 includes:
A device driver set 13 located at the lowest layer of the control program and including a plurality of device drivers
1 is comprised. In this case, each device driver is an object that is allowed to directly access hardware used in a normal computer, such as a CCD camera 120 (FIG. 7) and a timer, and receives an interrupt from the corresponding hardware. Perform processing.

【0082】また、ロボティック・サーバ・オブジェク
ト132は、デバイス・ドライバ・レイヤ130の最下
位層に位置し、例えば上述の各種センサやアクチュエー
タ125〜125等のハードウェアにアクセスする
ためのインターフェースを提供するソフトウェア群でな
るバーチャル・ロボット133と、電源の切換えなどを
管理するソフトウェア群でなるパワーマネージャ134
と、他の種々のデバイス・ドライバを管理するソフトウ
ェア群でなるデバイス・ドライバ・マネージャ135
と、ロボット装置100の機構を管理するソフトウェア
群でなるデザインド・ロボット136とから構成されて
いる。
The robotic server object 132 is located at the lowest layer of the device driver layer 130, and is an interface for accessing hardware such as the various sensors and actuators 125 1 to 125 n described above. Virtual robot 133, which is a software group that provides power, and a power manager 134, which is a software group that manages switching of power supply and the like.
And a device driver manager 135 which is a software group for managing various other device drivers.
And a designed robot 136 which is a software group for managing the mechanism of the robot apparatus 100.

【0083】マネージャ・オブジェクト137は、オブ
ジェクト・マネージャ138及びサービス・マネージャ
139から構成されている。オブジェクト・マネージャ
138は、ロボティック・サーバ・オブジェクト13
2、ミドル・ウェア・レイヤ140、及びアプリケーシ
ョン・レイヤ141に含まれる各ソフトウェア群の起動
や終了を管理するソフトウェア群であり、サービス・マ
ネージャ139は、メモリカード128(図7)に格納
されたコネクションファイルに記述されている各オブジ
ェクト間の接続情報に基づいて各オブジェクトの接続を
管理するソフトウェア群である。
The manager object 137 is composed of an object manager 138 and a service manager 139. The object manager 138 manages the robotic server object 13
2. A software group that manages the activation and termination of each software group included in the middleware layer 140 and the application layer 141. The service manager 139 connects the software stored in the memory card 128 (FIG. 7). A group of software that manages the connection of each object based on the connection information between the objects described in the file.

【0084】ミドル・ウェア・レイヤ140は、ロボテ
ィック・サーバ・オブジェクト132の上位層に位置
し、画像処理や音声処理などのこのロボット装置100
の基本的な機能を提供するソフトウェア群から構成され
ている。また、アプリケーション・レイヤ141は、ミ
ドル・ウェア・レイヤ140の上位層に位置し、当該ミ
ドル・ウェア・レイヤ140を構成する各ソフトウェア
群によって処理された処理結果に基づいてロボット装置
100の行動を決定するためのソフトウェア群から構成
されている。
The middleware layer 140 is located on the upper layer of the robotic server object 132.
It consists of a software group that provides the basic functions of. The application layer 141 is located above the middleware layer 140, and determines the behavior of the robot device 100 based on the processing result processed by each software group constituting the middleware layer 140. It consists of a group of software for performing

【0085】なお、ミドル・ウェア・レイヤ140及び
アプリケーション・レイヤ141の具体なソフトウェア
構成をそれぞれ図9に示す。
FIG. 9 shows specific software configurations of the middleware layer 140 and the application layer 141, respectively.

【0086】ミドル・ウェア・レイヤ140は、図9に
示すように、騒音検出用、温度検出用、明るさ検出用、
音階認識用、距離検出用、姿勢検出用、タッチセンサ
用、動き検出用及び色認識用の各信号処理モジュール1
50〜158並びに入力セマンティクスコンバータモジ
ュール159などを有する認識系160と、出力セマン
ティクスコンバータモジュール168並びに姿勢管理
用、トラッキング用、モーション再生用、歩行用、転倒
復帰用、LED点灯用及び音再生用の各信号処理モジュ
ール161〜167などを有する出力系69とから構成
されている。
As shown in FIG. 9, the middle wear layer 140 is used for noise detection, temperature detection, brightness detection,
Signal processing modules 1 for scale recognition, distance detection, posture detection, touch sensor, motion detection, and color recognition
50 to 158, a recognition system 160 having an input semantics converter module 159, etc., and an output semantics converter module 168 and each of posture management, tracking, motion reproduction, walking, fall return, LED lighting and sound reproduction. And an output system 69 having signal processing modules 161 to 167 and the like.

【0087】認識系160の各信号処理モジュール15
0〜158は、ロボティック・サーバ・オブジェクト1
32のバーチャル・ロボット133によりDRAM11
1(図7)から読み出される各センサデータや画像デー
タ及び音声データのうちの対応するデータを取り込み、
当該データに基づいて所定の処理を施して、処理結果を
入力セマンティクスコンバータモジュール159に与え
る。ここで、例えば、バーチャル・ロボット133は、
所定の通信規約によって、信号の授受或いは変換をする
部分として構成されている。
Each signal processing module 15 of the recognition system 160
0 to 158 are robotic server objects 1
DRAM 11 by 32 virtual robots 133
1 (FIG. 7), the corresponding data among the sensor data, the image data, and the audio data read from
A predetermined process is performed based on the data, and a processing result is provided to the input semantics converter module 159. Here, for example, the virtual robot 133
It is configured as a part that exchanges or converts signals according to a predetermined communication protocol.

【0088】入力セマンティクスコンバータモジュール
159は、これら各信号処理モジュール150〜158
から与えられる処理結果に基づいて、「うるさい」、
「暑い」、「明るい」、「ボールを検出した」、「転倒
を検出した」、「撫でられた」、「叩かれた」、「ドミ
ソの音階が聞こえた」、「動く物体を検出した」又は
「障害物を検出した」などの自己及び周囲の状況や、使
用者からの指令及び働きかけを認識し、認識結果をアプ
リケーション・レイヤ141(図7)に出力する。
The input semantics converter module 159 is provided for each of the signal processing modules 150 to 158.
"Noisy" based on the processing result given by
"Hot", "Bright", "Detected ball", "Detected fall", "Stroked", "Slapped", "Heared Domiso scale", "Detected moving object" Or, it recognizes the situation of itself and surroundings such as "detected an obstacle", and commands and actions from the user, and outputs the recognition result to the application layer 141 (FIG. 7).

【0089】アプリケーション・レイヤ14lは、図1
0に示すように、行動モデルライブラリ170、行動切
換えモジュール171、学習モジュール172、感情モ
デル173及び本能モデル174の5つのモジュールか
ら構成されている。
The application layer 141 is the one shown in FIG.
As shown in FIG. 0, it is composed of five modules: a behavior model library 170, a behavior switching module 171, a learning module 172, an emotion model 173, and an instinct model 174.

【0090】行動モデルライブラリ170には、図11
に示すように、「バッテリ残量が少なくなった場合」、
「転倒復帰する」、「障害物を回避する場合」、「感情
を表現する場合」、「ボールを検出した場合」などの予
め選択されたいくつかの条件項目にそれぞれ対応させ
て、それぞれ独立した行動モデル170〜170
設けられている。
The behavior model library 170 includes FIG.
As shown in, "When the battery level is low"
Independently corresponding to several pre-selected condition items such as "return to fall", "when avoiding obstacles", "when expressing emotion", "when ball is detected", etc. Behavior models 170 1 to 170 n are provided.

【0091】そして、これら行動モデル170〜17
は、それぞれ入力セマンティクスコンバータモジュ
ール159から認識結果が与えられたときや、最後の認
識結果が与えられてから一定時間が経過したときなど
に、必要に応じて後述のように感情モデル173に保持
されている対応する情動のパラメータ値や、本能モデル
174に保持されている対応する欲求のパラメータ値を
参照しながら続く行動をそれぞれ決定し、決定結果を行
動切換えモジュール171に出力する。
The behavior models 170 1 to 17 1
0 n are sent to the emotion model 173 as described later, as necessary, when a recognition result is given from the input semantics converter module 159 or when a certain period of time has passed since the last recognition result was given. The subsequent actions are determined with reference to the parameter values of the corresponding emotions held and the parameter values of the corresponding desires held in the instinct model 174, and the determination result is output to the action switching module 171.

【0092】なお、この実施の形態の場合、各行動モデ
ル170〜170は、次の行動を決定する手法とし
て、図12に示すような1つのノード(状態)NODE
〜NODEから他のどのノードNODE〜NOD
に遷移するかを各ノードNODE〜NODE
間を接続するアークARC〜ARCn1に対してそれ
ぞれ設定された遷移確率P〜Pに基づいて確率的に
決定する有限確率オートマトンと呼ばれるアルゴリズム
を用いる。
In the case of this embodiment, each of the behavior models 170 1 to 170 n uses one node (state) NODE as shown in FIG.
0 to NODE n to any other node NODE 0 to NOD
Finite probability automaton for determining probabilistically based on the transition probability P 1 to P n which is set respectively arc ARC 1 ~ARC n1 connecting between whether a transition to E n each node NODE 0 ~NODE n An algorithm called is used.

【0093】具体的に、各行動モデル170〜170
は、それぞれ自己の行動モデル170〜170
形成するノードNODE〜NODEにそれぞれ対応
させて、これらノードNODE〜NODEごとに図
13に示すような状態遷移表180を有している。
Specifically, each of the behavior models 170 1 to 170 1
n has a state transition table 180 as shown in FIG. 13 for each of the nodes NODE 0 to NODE n corresponding to the nodes NODE 0 to NODE n forming their own behavior models 170 1 to 170 n , respectively. ing.

【0094】この状態遷移表180では、そのノードN
ODE〜NODEにおいて遷移条件とする入力イベ
ント(認識結果)が「入力イベント名」の行に優先順に
列記され、その遷移条件についてのさらなる条件が「デ
ータ名」及び「データ範囲」の行における対応する列に
記述されている。
In this state transition table 180, the node N
Input events (recognition results) as transition conditions in ODE 0 to NODE n are listed in order of priority in the row of “input event name”, and further conditions for the transition conditions are described in the rows of “data name” and “data range”. It is described in the corresponding column.

【0095】したがって、図13の状態遷移表80で表
されるノードNODE100では、「ボールを検出(B
ALL)」という認識結果が与えられた場合に、当該認
識結果と共に与えられるそのボールの「大きさ(SIZ
E)」が「0から1000」の範囲であることや、「障害物
を検出(OBSTACLE)」という認識結果が与えら
れた場合に、当該認識結果と共に与えられるその障害物
までの「距離(DISTANCE)」が「0から100」の
範囲であることが他のノードに遷移するための条件とな
っている。
Therefore, in the node NODE 100 represented by the state transition table 80 in FIG.
ALL) ", the size of the ball (SIZ) given together with the recognition result is given.
E) is in the range of “0 to 1000”, or when a recognition result of “obstacle detected (OBSTABLE)” is given, the “distance (DISTANCE)” to the obstacle given together with the recognition result is given. )) Is in the range of “0 to 100”, which is a condition for transitioning to another node.

【0096】また、このノードNODE100では、認
識結果の入力がない場合においても、行動モデル170
〜170が周期的に参照する感情モデル173及び
本能モデル74にそれぞれ保持された各情動及び各欲求
のパラメータ値のうち、感情モデル73に保持された
「喜び(JOY)」、「驚き(SURPRISE)」若
しくは「悲しみ(SUDNESS)」のいずれかのパラ
メータ値が「50から100」の範囲であるときには他のノ
ードに遷移することができるようになっている。
In the node NODE 100 , even when no recognition result is input, the behavior model 170
1 to 170 n is out of the parameter values of the emotions and the desire held respectively in the emotion model 173 and the instinct model 74 refers periodically, held in the emotion model 73 "joy (JOY)", "surprise ( When the parameter value of either “SURPRISE” or “Sadness” is in the range of “50 to 100”, transition to another node can be made.

【0097】また、状態遷移表180では、「他のノー
ドヘの遷移確率」の欄における「遷移先ノード」の列に
そのノードNODE〜 NODEから遷移できるノ
ード名が列記されていると共に、「入力イベント名」、
「データ値」及び「データの範囲」の行に記述された全
ての条件が揃ったときに遷移できる他の各ノードNOD
〜NODEへの遷移確率が「他のノードヘの遷移
確率」の欄内の対応する箇所にそれぞれ記述され、その
ノードNODE〜NODEに遷移する際に出力すべ
き行動が「他のノードヘの遷移確率」の欄における「出
力行動」の行に記述されている。なお、「他のノードヘ
の遷移確率」の欄における各行の確率の和は100
[%]となっている。
In the state transition table 180, in the column of "transition destination node" in the column of "transition probability to another node", the names of nodes that can transition from the nodes NODE 0 to NODE n are listed. Input event name ",
Other nodes NOD that can transition when all the conditions described in the rows of “data value” and “data range” are met
The transition probabilities from E 0 to NODE n are respectively described in corresponding portions in the column of “transition probability to another node”, and the action to be output when transitioning to the node NODE 0 to NODE n is “other It is described in the row of “output action” in the column of “transition probability to node”. Note that the sum of the probabilities of each row in the column of “transition probability to another node” is 100
[%].

【0098】したがって、図13の状態遷移表180で
表されるノードNODE100では、例えば「ボールを
検出(BALL)」し、そのボールの「SIZE(大き
さ)」が「0から1000」の範囲であるという認識結果が
与えられた場合には、「30[%]」の確率で「ノードN
ODE120(node 120)」に遷移でき、そのとき「A
CTION1」の行動が出力されることとなる。
Therefore, in the node NODE 100 represented by the state transition table 180 in FIG. 13, for example, “ball is detected (BALL)”, and the “SIZE” of the ball is in the range of “0 to 1000”. Is given, the probability of “30 [%]” and “node N
ODE 120 (node 120) "and then" A
The action of “CTION1” is output.

【0099】また、本発明の適用によりロボット装置1
00は、先に説明したように、行動を学習して、そのよ
うな学習した行動に感情を対応付けすることができるよ
うになされているが、このような状態遷移表180にお
ける遷移先とされる他のノードにそのような学習した行
動(Action)を記述するとともに、対応される感情の値
を記述し、或いは予め記述してある行動(対応される感
情の値も既に決定されている)を実行可能状態(すなわ
ち、使用可能に解除)とすることにより、行動の学習と
行動への感情の対応付けが可能になる。
Further, the robot apparatus 1 according to the present invention is applied.
00, as described above, can learn the behavior and associate the emotion with the learned behavior. In addition, the learned action (Action) is described in another node, and the value of the corresponding emotion is described, or the action described in advance (the value of the corresponding emotion is already determined). Is made executable (that is, released to be usable), learning of the behavior and association of the emotion with the behavior become possible.

【0100】各行動モデル170〜170は、それ
ぞれこのような状態遷移表180として記述されたノー
ドNODE〜 NODEがいくつも繋がるようにし
て構成されており、入力セマンティクスコンバータモジ
ュール159から認識結果が与えられたときなどに、対
応するノードNODE〜NODEの状態遷移表を利
用して確率的に次の行動を決定し、決定結果を行動切換
えモジュール171に出力するようになされている。
Each of the behavior models 170 1 to 170 n is constituted by connecting a number of nodes NODE 0 to NODE n described as such a state transition table 180, and is recognized from the input semantics converter module 159. When a result is given, the next action is determined stochastically using the state transition table of the corresponding nodes NODE 0 to NODE n , and the determined result is output to the action switching module 171. .

【0101】図10に示す行動切換えモジュール171
は、行動モデルライブラリ170の各行動モデル170
〜170からそれぞれ出力される行動のうち、予め
定められた優先順位の高い行動モデル170〜170
から出力された行動を選択し、当該行動を実行すべき
旨のコマンド(以下、これを行動コマンドという。)を
ミドル・ウェア・レイヤ140の出力セマンティクスコ
ンバータモジュール168に送出する。なお、この実施
の形態においては、図11において下側に表記された行
動モデル170〜170ほど優先順位が高く設定さ
れている。
The action switching module 171 shown in FIG.
Is the behavior model 170 of the behavior model library 170
Among the behaviors output from 1 to 170 n, behavior models 170 1 to 170 having a predetermined high priority
n, and outputs a command to execute the action (hereinafter referred to as an action command) to the output semantics converter module 168 of the middleware layer 140. In this embodiment, the priority order is set higher for the behavior models 170 1 to 170 n shown on the lower side in FIG.

【0102】また、学習した行動を再現する際には、行
動切換えモジュール171は、指示された所望の行動を
選択して、その行動を実行すべきコマンドを、出力セマ
ンティクスコンバータモジュール168に送出する。こ
の行動切換えモジュール171からのコマンドにより、
ロボット装置100は、学習した行動を出力することが
できるようになる。
When reproducing the learned behavior, the behavior switching module 171 selects the designated desired behavior and sends a command to execute the behavior to the output semantics converter module 168. By the command from the action switching module 171,
The robot device 100 can output the learned behavior.

【0103】さらに、行動切換えモジュール171は、
行動完了後に出力セマンティクスコンバータモジュール
168から与えられる行動完了情報に基づいて、その行
動が完了したことを学習モジュール172、感情モデル
173及び本能モデル174に通知する。
Further, the action switching module 171 includes:
After the action is completed, the learning module 172, the emotion model 173, and the instinct model 174 are notified of the completion of the action based on the action completion information provided from the output semantics converter module 168.

【0104】一方、学習モジュール172は、入力セマ
ンティクスコンバータモジュール159から与えられる
認識結果のうち、「叩かれた」や「撫でられた」など、
使用者からの働きかけとして受けた教示の認識結果を入
力する。
On the other hand, the learning module 172 recognizes, among the recognition results given from the input semantics converter module 159, such as “hit” or “stroke”.
The recognition result of the instruction received as an action from the user is input.

【0105】そして、学習モジュール172は、この認
識結果及び行動切換えモジュール171からの通知に基
づいて、「叩かれた(叱られた)」ときにはその行動の
発現確率を低下させ、「撫でられた(誉められた)」と
きにはその行動の発現確率を上昇させるように、行動モ
デルライブラリ170における対応する行動モデル17
〜170の対応する遷移確率を変更する。
Then, based on the recognition result and the notification from the action switching module 171, the learning module 172 lowers the probability of occurrence of the action when “slapped (scolded)”, and “ In some cases, the corresponding behavior model 17 in the behavior model library 170 is increased so as to increase the probability of occurrence of the behavior.
Changing the 0 1 to 170 n corresponding transition probability.

【0106】例えば、上述したような学習部1は、実際
のロボット装置1においては、このような学習モジュー
ル172において構成され、実現されるものである。
For example, the learning section 1 as described above is configured and realized by such a learning module 172 in the actual robot apparatus 1.

【0107】他方、感情モデル173は、「喜び(jo
y)」、「悲しみ(sadness)」、「怒り(anger)」、
「驚き(surprise)」、「嫌悪(disgust)」及び「恐
れ(fear)」の合計6つの情動について、各情動ごとに
その情動の強さを表すパラメータを保持している。そし
て、感情モデル173は、これら各情動のパラメータ値
を、それぞれ入力セマンティクスコンバータモジュール
159から与えられる「叩かれた」及び「撫でられた」
などの特定の認識結果と、経過時間及び行動切換えモジ
ュール171からの通知となどに基づいて周期的に更新
する。
On the other hand, the emotion model 173 indicates “joy (jo
y) "," sadness "," anger ",
For a total of six emotions, “surprise”, “disgust” and “fear”, a parameter indicating the intensity of the emotion is stored for each emotion. Then, the emotion model 173 converts the parameter values of each of these emotions into “strapped” and “stroke” given from the input semantics converter module 159, respectively.
The update is periodically performed based on a specific recognition result such as, for example, an elapsed time and a notification from the action switching module 171.

【0108】具体的には、感情モデル173は、入力セ
マンティクスコンバータモジュール159から与えられ
る認識結果と、そのときのロボット装置100の行動
と、前回更新してからの経過時間となどに基づいて所定
の演算式により算出されるそのときのその情動の変動量
を△E[t]、現在のその情動のパラメータ値をE
[t]、その情動の感度を表す係数をkとして、
(8)式によって次の周期におけるその情動のパラメー
タ値E[t+1]を算出し、これを現在のその情動のパ
ラメータ値E[t]と置き換えるようにしてその情動の
パラメータ値を更新する。また、感情モデル173は、
これと同様にして全ての情動のパラメータ値を更新す
る。
Specifically, emotion model 173 is based on a recognition result given from input semantics converter module 159, the behavior of robot device 100 at that time, the elapsed time since the last update, and the like. The variation amount of the emotion at that time calculated by the arithmetic expression is ΔE [t], and the current parameter value of the emotion is E
[T], the coefficient representing the sensitivity of the emotion as k e,
The parameter value E [t + 1] of the emotion in the next cycle is calculated by the equation (8), and the parameter value of the emotion is updated by replacing the parameter value E [t] with the parameter value E [t] of the emotion. The emotion model 173 is
Similarly, the parameter values of all emotions are updated.

【0109】[0109]

【数8】 (Equation 8)

【0110】ここで、本発明が適用されることにより、
ロボット装置100は、学習した行動に感情を対応付け
することができるようになっているが、ここでは、それ
に対応する処理として、ロボット装置100の学習した
行動の行動結果をフィードバックさせて、情動のパラメ
ータ値を更新している。例えば、行動結果のフィードバ
ックは、行動切換えモジュール171の出力(感情が付
加された行動)によりなされる。また、行動結果のフィ
ードバックにより情動のパラメータ値を所定量変化させ
る必要があるが、例えば、適当に決定した変化量を、学
習した行動に予め対応付けしておくようにする。このよ
うにすることで、ロボット装置100が、RNNによっ
て学習した行動に相当する行動を起こすことによって、
それに対応される情動パラメータを変化させることがで
きるようになる。
Here, by applying the present invention,
The robot apparatus 100 is capable of associating the emotion with the learned behavior, but here, as a processing corresponding thereto, the behavior result of the behavior learned by the robot apparatus 100 is fed back, and the emotion Updating parameter values. For example, the feedback of the action result is performed by the output of the action switching module 171 (the action to which the emotion is added). In addition, it is necessary to change the parameter value of the emotion by a predetermined amount based on the feedback of the action result. For example, an appropriately determined change amount is previously associated with the learned action. By doing so, the robot apparatus 100 performs an action corresponding to the action learned by the RNN,
The corresponding emotion parameter can be changed.

【0111】なお、各認識結果や出力セマンティクスコ
ンバータモジュール168からの通知が各情動のパラメ
ータ値の変動量△E[t]にどの程度の影響を与えるか
は予め決められており、例えば「叩かれた」といった認
識結果は「怒り」の情動のパラメータ値の変動量△E
[t]に大きな影響を与え、「撫でられた」といった認
識結果は「喜び」の情動のパラメータ値の変動量△E
[t]に大きな影響を与えるようになっている。
It is determined in advance how much each recognition result and the notification from the output semantics converter module 168 affect the variation ΔE [t] of the parameter value of each emotion. Is the amount of change in the parameter value of the emotion of “anger” △ E
[T] is greatly affected, and the recognition result such as “stroke” is the variation amount of the parameter value of the emotion of “joy” 喜 び E
[T] is greatly affected.

【0112】ここで、出力セマンティクスコンバータモ
ジュール168からの通知とは、いわゆる行動のフィー
ドバック情報(行動完了情報)であり、行動の出現結果
の情報であり、感情モデル173は、このような情報に
よっても感情を変化させる。これは、例えば、「吠え
る」といった行動により怒りの感情レベルが下がるとい
ったようなことである。なお、出力セマンティクスコン
バータモジュール168からの通知は、上述した学習モ
ジュール172にも入力されており、学習モジュール1
72は、その通知に基づいて行動モデル170〜17
の対応する遷移確率を変更する。
Here, the notification from the output semantics converter module 168 is so-called action feedback information (action completion information), information on the appearance result of the action, and the emotion model 173 also uses such information. Change emotions. This is, for example, a behavior such as "barking" that lowers the emotional level of anger. Note that the notification from the output semantics converter module 168 is also input to the learning module 172 described above, and the learning module 1
72 is an action model 170 1 to 17 based on the notification.
Change the corresponding transition probabilities of 0 n .

【0113】一方、本能モデル174は、「運動欲(ex
ercise)」、「愛情欲(affection)」、「食欲(appet
ite)」及び「好奇心(curiosity)」の互いに独立した
4つの欲求について、これら欲求ごとにその欲求の強さ
を表すパラメータを保持している。そして、本能モデル
174は、これらの欲求のパラメータ値を、それぞれ入
力セマンティクスコンバータモジュール159から与え
られる認識結果や、経過時間及び行動切換えモジュール
171からの通知などに基づいて周期的に更新する。
On the other hand, the instinct model 174 indicates that “the desire to exercise (ex
ercise), “affection”, “appet”
ite) "and" curiosity ", each of which has a parameter indicating the strength of the desire for each of the four independent desires. Then, the instinct model 174 periodically updates these parameter values of the desire based on the recognition result given from the input semantics converter module 159, the elapsed time, the notification from the action switching module 171 and the like.

【0114】具体的には、本能モデル174は、「運動
欲」、「愛情欲」及び「好奇心」については、認識結
果、経過時間及び出力セマンティクスコンバータモジュ
ール168からの通知などに基づいて所定の演算式によ
り算出されるそのときのその欲求の変動量をΔI
[k]、現在のその欲求のパラメータ値をI[k]、そ
の欲求の感度を表す係数kとして、所定周期で(9)
式を用いて次の周期におけるその欲求のパラメータ値I
[k+1]を算出し、この演算結果を現在のその欲求の
パラメータ値I[k]と置き換えるようにしてその欲求
のパラメータ値を更新する。また、本能モデル174
は、これと同様にして「食欲」を除く各欲求のパラメー
タ値を更新する。
More specifically, the instinct model 174 determines, based on the recognition result, the elapsed time, the notification from the output semantics converter module 168, and the like, for “exercise desire”, “affection desire”, and “curiosity”. The change amount of the desire at that time calculated by the arithmetic expression is ΔI
[K], the current parameter value of the desire I [k], as the coefficient k i which represents the sensitivity of the desire, in a predetermined cycle (9)
Using the equation, the parameter value I of the desire in the next cycle
[K + 1] is calculated, and the calculation result is replaced with the current parameter value I [k] of the desire to update the parameter value of the desire. Instinct model 174
Updates the parameter values of each desire except “appetite” in the same manner.

【0115】[0115]

【数9】 (Equation 9)

【0116】ここで、本発明が適用されることにより、
ロボット装置100は、感情の場合と同様に、学習した
行動に本能を対応付けすることができるようになってい
るが、ここでは、それに対応する処理として、ロボット
装置100の学習した行動の行動結果をフィードバック
させて、欲求のパラメータ値を更新している。例えば、
行動結果のフィードバックは、行動切換えモジュール1
71の出力(感情が付加された行動)によりなされる。
また、行動結果のフィードバックにより欲求のパラメー
タ値を所定量変化させる必要があるが、例えば、適当に
決定した変化量を、学習した行動に予め対応付けしてお
くようにする。このようにすることで、ロボット装置
が、RNNによって学習した行動に相当する行動を起こ
すことによって、それに対応される欲求パラメータを変
化させることができるようになる。
Here, by applying the present invention,
The robot apparatus 100 is capable of associating the instinct with the learned behavior as in the case of the emotion, but here, as the processing corresponding thereto, the behavior result of the behavior learned by the robot apparatus 100 is described. To update the parameter value of desire. For example,
The action result feedback is sent to the action switching module 1
This is performed by the output of 71 (behavior to which an emotion is added).
In addition, it is necessary to change the parameter value of the desire by a predetermined amount based on the feedback of the action result. For example, an appropriately determined change amount is associated with the learned action in advance. By doing so, the robot device can change the desire parameter corresponding to the behavior by causing the behavior corresponding to the behavior learned by the RNN.

【0117】なお、認識結果及び出力セマンティクスコ
ンバータモジュール168からの通知などが各欲求のパ
ラメータ値の変動量△I[k]にどの程度の影響を与え
るかは予め決められており、例えば出力セマンティクス
コンバータモジュール168からの通知は、「疲れ」の
パラメータ値の変動量△I[k]に大きな影響を与える
ようになっている。
It is determined in advance how much the recognition result and the notification from the output semantics converter module 168 affect the variation ΔI [k] of the parameter value of each desire, for example, the output semantics converter. The notification from the module 168 has a large influence on the variation ΔI [k] of the parameter value of “fatigue”.

【0118】なお、本実施の形態においては、各情動及
び各欲求(本能)のパラメータ値がそれぞれ0から100ま
での範囲で変動するように規制されており、また係数k
、kの値も各情動及び各欲求ごとに個別に設定され
ている。
In the present embodiment, the parameter value of each emotion and each desire (instinct) is regulated to fluctuate in the range of 0 to 100, and the coefficient k
e, the value of k i is also set individually for each emotion and each desire.

【0119】一方、ミドル・ウェア・レイヤ40の出力
セマンティクスコンバータモジュール168は、図9に
示すように、上述のようにしてアプリケーション・レイ
ヤ141の行動切換えモジュール171から与えられる
「前進」、「喜ぶ」、「鳴く」又は「トラッキング(ボ
ールを追いかける)」といった抽象的な行動コマンドを
出力系169の対応する信号処理モジュール161〜1
67に与える。
On the other hand, the output semantics converter module 168 of the middleware layer 40 is, as shown in FIG. 9, "forward" and "pleased" given from the action switching module 171 of the application layer 141 as described above. , "Screaming" or "tracking (following the ball)" is output to the corresponding signal processing module 161-1 of the output system 169.
Give to 67.

【0120】そしてこれら信号処理モジュール161〜
167は、行動コマンドが与えられると当該行動コマン
ドに基づいて、その行動を行うために対応するアクチュ
エータ125〜125(図7)に与えるべきサーボ
指令値や、スピーカ124(図7)から出力する音の音
声データ及び又は「目」のLEDに与える駆動データを
生成し、これらのデータをロボティック・サーバ・オブ
ジェクト132のバーチャル・ロボット133及び信号
処理回路114(図7)を順次介して対応するアクチュ
エータ125〜125又はスピーカ124又はLE
Dに順次送出する。
The signal processing modules 161 to 161
167, given the behavior command based on the action command, and servo command value to be supplied to the actuator 125 1 to 125 n (FIG. 7) corresponding to perform that action, the output from the speaker 124 (FIG. 7) The sound data of the sound to be played and / or the driving data to be given to the LED of the "eye" are generated, and these data are sequentially processed via the virtual robot 133 of the robotic server object 132 and the signal processing circuit 114 (FIG. 7). Actuator 125 1 to 125 n or speaker 124 or LE
D.

【0121】このようにしてロボット装置100におい
ては、制御プログラムに基づいて、自己(内部)及び周
囲(外部)の状況や、使用者からの指示及び働きかけに
応じた自律的な行動を行うことができるようになされて
いる。
As described above, in the robot apparatus 100, based on the control program, it is possible to perform an autonomous action according to its own (internal) and surrounding (external) conditions, and instructions and actions from the user. It has been made possible.

【0122】以上が、具体的なロボット装置1の構成で
ある。なお、上述の実施の形態では、学習した行動に対
して感情を対応付けて、学習した行動と感情を連動して
変化させる場合について説明したが、これに限定される
ものではない。例えば、実際にした行動を学習した行動
と比較して、その比較結果に基づいて所定の感情を行動
に表出させたり、感情を変化させることもできる。例え
ば、学習により新たな環境における行動を学習すること
ができるのであるが、このような学習をした結果と比較
して、学習していない環境における行動をしときに所定
の感情にする。例えば、所定の感情として、「驚き」や
「恐怖」の感情を変化させる。これは、例えば、未知の
環境に行ったときや未知の入力があったときには、動物
の一般的な感情として「驚き」や「恐怖」が伴うからで
ある。
The specific configuration of the robot device 1 has been described above. In the above-described embodiment, the case where the learned behavior is associated with the emotion and the learned behavior and the emotion are changed in conjunction with each other has been described. However, the present invention is not limited to this. For example, an actual action can be compared with a learned action, and based on the comparison result, a predetermined emotion can be expressed in the action or the emotion can be changed. For example, a behavior in a new environment can be learned by learning. When a behavior in an environment where learning is not performed is compared with a result of such learning, a predetermined emotion is set. For example, the emotion of “surprise” or “fear” is changed as the predetermined emotion. This is because, for example, when the user goes to an unknown environment or receives an unknown input, “surprise” or “fear” is accompanied as a general emotion of the animal.

【0123】例えば、学習手法としてRNNを使用した
場合、学習後のRNNに対する新たな行動の入力(具体
的には、センサ入力)が、学習されていないものである
とき、出力は未知の値として出力される。つまり、RN
Nの出力するセンサの状態は実際のセンサの状態と大き
くくい違う。よって、その際の出力から、その行動或い
は環境が学習されていないことは判断できる。このよう
なことから、出力により判別した結果、学習した行動或
いは環境とは異なる行動或いは環境であるときには、例
えば「驚き」等の所定の感情を行動に表出させたり、そ
の感情レベルを変化させたりすることもできる。
For example, when RNN is used as a learning method, when an input of a new action (specifically, a sensor input) to the RNN after learning is not learned, the output is set to an unknown value. Is output. That is, RN
The state of the sensor that outputs N is very different from the actual state of the sensor. Therefore, it can be determined from the output at that time that the action or environment has not been learned. For this reason, as a result of the discrimination based on the output, when the action or environment is different from the learned action or environment, a predetermined emotion such as “surprise” is expressed in the action or the emotion level is changed. You can also.

【0124】[0124]

【発明の効果】本発明に係るロボット装置は、入力情報
に応じて内的状態を変化させる内的状態変化手段と、新
たな行動の学習をする学習手段と、学習手段により学習
した行動に対して内的状態を対応付けする対応付け手段
と、行動の制御を内的状態に対応付けて行う行動制御手
段とを備えることにより、行動を学習するともに、その
行動に感情を対応付けすることができ、例えば、内的状
態手段により変化されて感情が所定の状態になったと
き、学習した行動を出現させることができるようにな
り、また、学習した行動により対応する感情を内的状態
手段により変化させることができるようになる。
The robot apparatus according to the present invention comprises: an internal state changing means for changing an internal state according to input information; a learning means for learning a new action; Means for associating the internal state with the internal state, and behavior control means for performing the control of the behavior in association with the internal state, so that the behavior can be learned and the emotion can be associated with the behavior. For example, when the emotion is changed to a predetermined state by the internal state means, the learned behavior can be made to appear, and the emotion corresponding to the learned behavior can be expressed by the internal state means. Can be changed.

【0125】また、本発明に係るロボット装置の行動制
御方法は、ロボット装置が新たな行動の学習をする学習
工程と、学習工程にて学習した行動に対してロボット装
置が内的状態を対応付けする対応付け工程と、ロボット
装置が行動の制御を内的状態に対応付けて行う行動制御
工程とを有することにより、このようなロボット装置の
行動制御方法により制御されるロボット装置は、行動を
学習するともに、その行動に感情を対応付けすることが
でき、例えば、内的状態手段により変化されて感情が所
定の状態になったとき、学習した行動を出現させること
ができるようになり、また、学習した行動により対応す
る感情を内的状態手段により変化させることができるよ
うになる。
Further, in the behavior control method for a robot apparatus according to the present invention, the learning step in which the robot apparatus learns a new behavior and the robot apparatus associates the internal state with the behavior learned in the learning step. The robot device controlled by such a behavior control method of a robot device has an associating step of performing a behavior control process in which the behavior of the robot device is associated with an internal state. At the same time, emotions can be associated with the behavior, for example, when the emotion is changed to a predetermined state by the internal state means, the learned behavior can appear, The emotion corresponding to the learned behavior can be changed by the internal state means.

【0126】また、本発明に係るプログラムは、ロボッ
ト装置が新たな行動の学習をする学習工程と、学習工程
にて学習した行動に対して、ロボット装置が内的状態を
対応付けする対応付け工程と、ロボット装置が行動の制
御を内的状態に対応付けて行う行動制御工程とをロボッ
ト装置に実行させることにより、ロボット装置は、行動
を学習するともに、その行動に感情を対応付けすること
ができ、例えば、内的状態手段により変化されて感情が
所定の状態になったとき、学習した行動を出現させるこ
とができるようになり、また、学習した行動により対応
する感情を内的状態手段により変化させることができる
ようになる。
The program according to the present invention includes a learning step in which the robot device learns a new action, and an association step in which the robot device associates the internal state with the action learned in the learning step. And causing the robot device to execute a behavior control step in which the robot device controls the behavior in association with the internal state, so that the robot device can learn the behavior and associate the emotion with the behavior. For example, when the emotion is changed to a predetermined state by the internal state means, the learned behavior can be made to appear, and the emotion corresponding to the learned behavior can be expressed by the internal state means. Can be changed.

【0127】また、本発明に係る記録媒体は、ロボット
装置が新たな行動の学習をする学習工程と、学習工程に
て学習した行動に対して、ロボット装置が内的状態を対
応付けする対応付け工程と、ロボット装置が行動の制御
を内的状態に対応付けて行う行動制御工程とをロボット
装置に実行させるプログラムが記録されており、このよ
うな記録媒体に記録されたプログラムにより行動が制御
されるロボット装置は、行動を学習するともに、その行
動に感情を対応付けすることができ、例えば、内的状態
手段により変化されて感情が所定の状態になったとき、
学習した行動を出現させることができるようになり、ま
た、学習した行動により対応する感情を内的状態手段に
より変化させることができるようになる。
Further, the recording medium according to the present invention provides a learning step in which the robot device learns a new action, and an association in which the robot device associates the internal state with the action learned in the learning step. A program for causing the robot device to execute a process and a behavior control process in which the robot device performs behavior control in association with an internal state is recorded, and the behavior is controlled by the program recorded on such a recording medium. The robot device learns the behavior and can associate the behavior with the emotion. For example, when the emotion is changed to the predetermined state by the internal state means,
The learned behavior can appear, and the emotion corresponding to the learned behavior can be changed by the internal state means.

【図面の簡単な説明】[Brief description of the drawings]

【図1】実施の形態のロボット装置における発明を実現
する要部を示すブロック図である。
FIG. 1 is a block diagram showing a main part for realizing the invention in a robot device according to an embodiment.

【図2】上述の学習部の具体的な構成であって、複数の
RNNによって階層的に構成されているものを示す図で
ある。
FIG. 2 is a diagram showing a specific configuration of the above-described learning unit, which is hierarchically configured by a plurality of RNNs.

【図3】上述の階層構造として構成されている学習部の
下位層のRNNの構成を示す図である。
FIG. 3 is a diagram illustrating a configuration of an RNN in a lower layer of a learning unit configured as the above-described hierarchical structure.

【図4】上述の階層構造として構成されている学習部の
上位層のRNNの構成を示す図である。
FIG. 4 is a diagram illustrating a configuration of an RNN in an upper layer of a learning unit configured as the above-described hierarchical structure.

【図5】上述の学習部による行動学習を説明するために
使用した図である。
FIG. 5 is a diagram used to explain behavior learning by the learning unit described above.

【図6】実施の形態のロボット装置の外観構成を示す斜
視図である。
FIG. 6 is a perspective view illustrating an external configuration of the robot device according to the embodiment.

【図7】上述のロボット装置の回路構成を示すブロック
図である。
FIG. 7 is a block diagram illustrating a circuit configuration of the robot device described above.

【図8】上述のロボット装置のソフトウェア構成を示す
ブロック図である。
FIG. 8 is a block diagram showing a software configuration of the robot device described above.

【図9】上述のロボット装置のソフトウェア構成におけ
るミドル・ウェア・レイヤの構成を示すブロック図であ
る。
FIG. 9 is a block diagram showing a configuration of a middleware layer in the software configuration of the robot device described above.

【図10】上述のロボット装置のソフトウェア構成にお
けるアプリケーション・レイヤの構成を示すブロック図
である。
FIG. 10 is a block diagram showing a configuration of an application layer in the software configuration of the robot device described above.

【図11】上述のアプリケーション・レイヤの行動モデ
ルライブラリの構成を示すブロック図である。
FIG. 11 is a block diagram showing a configuration of an action model library of the application layer described above.

【図12】ロボット装置の行動決定のための情報となる
有限確率オートマトンを説明するために使用した図であ
る。
FIG. 12 is a diagram used for explaining a finite probability automaton that is information for determining an action of the robot apparatus.

【図13】有限確率オートマトンの各ノードに用意され
た状態遷移表を示す図である。
FIG. 13 is a diagram showing a state transition table prepared for each node of the finite probability automaton.

【符号の説明】[Explanation of symbols]

1 学習部、2 対応付け部、100 ロボット装置 1 learning unit, 2 association unit, 100 robot device

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 入力情報に応じて内的状態を変化させ、
内的状態に基づいて行動をするロボット装置であって、 入力情報に応じて上記内的状態を変化させる内的状態変
化手段と、 新たな行動の学習をする学習手段と、 上記学習手段により学習した行動に対して内的状態を対
応付けする対応付け手段と、 行動の制御を上記内的状態に対応付けて行う行動制御手
段とを備えることを特徴とするロボット装置。
1. An internal state is changed according to input information,
A robot device that acts based on an internal state, comprising: an internal state changing unit that changes the internal state according to input information; a learning unit that learns a new behavior; A robot apparatus, comprising: associating means for associating an internal state with an action performed; and action control means for controlling action in association with the internal state.
【請求項2】 上記入力情報が、外部、内部、行動結果
の情報の少なくとも1つの情報であることを特徴とする
請求項1記載のロボット装置。
2. The robot apparatus according to claim 1, wherein the input information is at least one of external, internal, and action result information.
【請求項3】 上記内的状態が、感情状態をパラメータ
としてモデル化された感情モデルであって、 上記内的状態変化手段は、上記入力情報に応じて上記感
情モデルの上記パラメータを変化させることを特徴とす
る請求項1記載のロボット装置。
3. An emotion model in which the internal state is modeled using an emotion state as a parameter, wherein the internal state changing means changes the parameter of the emotion model according to the input information. The robot device according to claim 1, wherein:
【請求項4】 上記内的状態が、本能状態をパラメータ
としてモデル化された本能モデルであって、 上記内的状態変化手段は、上記入力情報に応じて上記本
能モデルの上記パラメータを変化させることを特徴とす
る請求項1記載のロボット装置。
4. An instinct model in which the internal state is modeled using an instinct state as a parameter, wherein the internal state changing means changes the parameter of the instinct model in accordance with the input information. The robot device according to claim 1, wherein:
【請求項5】 行動データの登録がなされた記憶手段を
備え、 上記学習手段は、上記記憶手段に予め登録されている未
出現の行動データを出現可能とすることを、上記新たな
行動の学習とすることを特徴とする請求項1記載のロボ
ット装置。
5. A storage device in which the behavior data is registered, wherein the learning device performs the learning of the new behavior in order to make the non-appearing behavior data registered in the storage device appear in advance. The robot apparatus according to claim 1, wherein:
【請求項6】 上記行動制御手段は、上記内的状態の変
化に基づいて対応される行動を出現させることを特徴と
する請求項1記載のロボット装置。
6. The robot apparatus according to claim 1, wherein the action control means causes a corresponding action to appear based on the change in the internal state.
【請求項7】 上記学習手段は、新たな環境において行
動をする学習するものであって、 上記内的状態変化手段は、上記学習手段により学習して
いない環境における行動をするときに、上記内的状態を
変化させることを特徴とする請求項1記載のロボット装
置。
7. The learning means learns to act in a new environment, and the internal state changing means performs an action in an environment not learned by the learning means. The robot apparatus according to claim 1, wherein the target state is changed.
【請求項8】 上記学習手段は、学習対象とされる行動
の情報が、入力層、中間層及び出力層に向かって入力さ
れるニューラルネットワークにより学習をすることを特
徴とする請求項1記載のロボット装置。
8. The learning method according to claim 1, wherein the learning means learns by using a neural network in which information on an action to be learned is input to an input layer, an intermediate layer, and an output layer. Robotic device.
【請求項9】 入力情報に応じて内的状態を変化させ、
内的状態に基づいて行動をするロボット装置の行動を制
御するロボット装置の行動制御方法であって、 上記ロボット装置が新たな行動の学習をさせる学習工程
と、 上記学習工程にて学習した行動に対して、上記ロボット
装置が内的状態を対応付けする対応付け工程と、 上記ロボット装置が行動の制御を上記内的状態に対応付
けて行う行動制御工程とを有することを特徴とするロボ
ット装置の行動制御方法。
9. An internal state is changed according to input information,
A behavior control method for a robot device that controls the behavior of a robot device that acts based on an internal state, comprising: a learning step in which the robot device learns a new behavior; and a behavior learned in the learning process. On the other hand, an associating step in which the robot apparatus associates an internal state, and an action control step in which the robot apparatus performs action control in association with the internal state. Behavior control method.
【請求項10】 入力情報に応じて内的状態を変化さ
せ、内的状態に基づいて行動をするロボット装置の行動
を制御するためのプログラムであって、 上記ロボット装置が新たな行動の学習をする学習工程
と、 上記学習工程にて学習した行動に対して、上記ロボット
装置が内的状態を対応付けする対応付け工程と、 上記ロボット装置が行動の制御を上記内的状態に対応付
けて行う行動制御工程とをロボット装置に実行させるこ
とを特徴とするプログラム。
10. A program for changing an internal state in accordance with input information and controlling an action of a robot apparatus that acts based on the internal state, wherein the robot apparatus learns a new action. A learning step of performing, an associating step in which the robot apparatus associates an internal state with the behavior learned in the learning step, and the robot apparatus performs control of the behavior in association with the internal state. A program for causing a robot apparatus to execute an action control step.
【請求項11】 入力情報に応じて内的状態を変化さ
せ、内的状態に基づいて行動をするロボット装置の行動
を制御するためのプログラムであって、 上記ロボット装置が新たな行動の学習をする学習工程
と、 上記学習工程にて学習した行動に対して、上記ロボット
装置が内的状態を対応付けする対応付け工程と、 上記ロボット装置が行動の制御を上記内的状態に対応付
けて行う行動制御工程とをロボット装置に実行させるプ
ログラムが記録されることを特徴とする記録媒体。
11. A program for changing an internal state in accordance with input information and controlling an action of a robot apparatus that performs an action based on the internal state, wherein the robot apparatus learns a new action. A learning step of performing, an associating step in which the robot apparatus associates an internal state with the behavior learned in the learning step, and the robot apparatus performs control of the behavior in association with the internal state. A recording medium on which a program for causing a robot device to execute an action control step is recorded.
JP2001069137A 2001-03-12 2001-03-12 Robot device, action control method for robot device, program and recording medium Withdrawn JP2002264057A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001069137A JP2002264057A (en) 2001-03-12 2001-03-12 Robot device, action control method for robot device, program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001069137A JP2002264057A (en) 2001-03-12 2001-03-12 Robot device, action control method for robot device, program and recording medium

Publications (1)

Publication Number Publication Date
JP2002264057A true JP2002264057A (en) 2002-09-18

Family

ID=18927211

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001069137A Withdrawn JP2002264057A (en) 2001-03-12 2001-03-12 Robot device, action control method for robot device, program and recording medium

Country Status (1)

Country Link
JP (1) JP2002264057A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005300692A (en) * 2004-04-07 2005-10-27 Sony Corp Behavior control system of robot, behavior control method, and robot device
JP2011210265A (en) * 2010-03-29 2011-10-20 Intel Corp Power management based on automatic workload detection
CN112638596B (en) * 2018-08-23 2024-02-20 株式会社日立制作所 Autonomous learning robot device and method for generating operation of autonomous learning robot device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005300692A (en) * 2004-04-07 2005-10-27 Sony Corp Behavior control system of robot, behavior control method, and robot device
JP4661074B2 (en) * 2004-04-07 2011-03-30 ソニー株式会社 Information processing system, information processing method, and robot apparatus
US8145492B2 (en) 2004-04-07 2012-03-27 Sony Corporation Robot behavior control system and method, and robot apparatus
JP2011210265A (en) * 2010-03-29 2011-10-20 Intel Corp Power management based on automatic workload detection
US8335935B2 (en) 2010-03-29 2012-12-18 Intel Corporation Power management based on automatic workload detection
CN112638596B (en) * 2018-08-23 2024-02-20 株式会社日立制作所 Autonomous learning robot device and method for generating operation of autonomous learning robot device

Similar Documents

Publication Publication Date Title
US6539283B2 (en) Robot and action deciding method for robot
US6697711B2 (en) Operational control method, program, and recording media for robot device, and robot device
US6718232B2 (en) Robot device and behavior control method for robot device
US8145492B2 (en) Robot behavior control system and method, and robot apparatus
US7117190B2 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
US6889117B2 (en) Robot apparatus and method and system for controlling the action of the robot apparatus
JP2002301674A (en) Leg type moving robot, its motion teaching method and storage medium
JP2003039363A (en) Robot device, action learning method therefor, action learning program thereof, and program recording medium
US20080058988A1 (en) Robots with autonomous behavior
JP2006110707A (en) Robot device
JP2003159674A (en) Robot system, external force detecting method and program for the system, and calibration method and program for the system
JP4296736B2 (en) Robot device
JP2004298975A (en) Robot device and obstacle searching method
JP2003136456A (en) Robot device, brightness detection method of robot device, brightness detection program and recording medium
JP2002205289A (en) Action control method for robot device, program, recording medium and robot device
JP2002239952A (en) Robot device, action control method for robot device, program, and recording medium
JP2002264057A (en) Robot device, action control method for robot device, program and recording medium
JP2003271958A (en) Method and processor for processing image, program therefor, recording medium therefor, and robot system of type mounted with image processor
JP2002269530A (en) Robot, behavior control method of the robot, program and storage medium
JP2001157980A (en) Robot device, and control method thereof
JP2002120183A (en) Robot device and input information detecting method for robot device
JP2001154707A (en) Robot device and its controlling method
JP2001157979A (en) Robot device, and control method thereof
JP4379052B2 (en) Moving object detection apparatus, moving object detection method, and robot apparatus
JP2001157981A (en) Robot device and control method thereof

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080513