JP2006110707A - Robot device - Google Patents

Robot device Download PDF

Info

Publication number
JP2006110707A
JP2006110707A JP2005128642A JP2005128642A JP2006110707A JP 2006110707 A JP2006110707 A JP 2006110707A JP 2005128642 A JP2005128642 A JP 2005128642A JP 2005128642 A JP2005128642 A JP 2005128642A JP 2006110707 A JP2006110707 A JP 2006110707A
Authority
JP
Japan
Prior art keywords
action
behavior
situation
hierarchy
dependent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005128642A
Other languages
Japanese (ja)
Inventor
Takeshi Takagi
剛 高木
Masahiro Fujita
雅博 藤田
Yukiko Yoshiike
由紀子 吉池
Profio Ugo Di
ディ プロフィオ ウゴ
Takayuki Sakamoto
隆之 坂本
Tsutomu Sawada
務 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005128642A priority Critical patent/JP2006110707A/en
Publication of JP2006110707A publication Critical patent/JP2006110707A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To realize social interaction of an entertainment robot while harmonizing action controlling softwares made of a plurality of stories with each other. <P>SOLUTION: The status dependent action story selects an action in accordance with a status such as outside stimulation, a change of an inside state, etc. and the reflective action story reflectively acts in accordance with the outside stimulation. Additionally, the status dependent action story restrains practice of an action command manifested from the reflective action story in the case when the reflective action does not match an intention of an action in correspondence with the status by controlling the reflective action of the robot device as the outside stimulation. Alternatively, reversely, it excites the reflective action story in making the reflective action appear. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、自律的な動作を行ないユーザとのリアリスティックなコミュニケーションを実現するロボット装置に係り、特に、視覚や聴覚などの外部環境の認識結果や本能や感情などの内部状態などのロボットが置かれている状況を統合的に判断して適当な行動を選択するロボットのための行動制御システム及び行動制御方法、並びにロボット装置に関する。   The present invention relates to a robot apparatus that performs autonomous operation and realizes realistic communication with a user, and in particular, a robot such as a recognition result of an external environment such as vision or hearing, or an internal state such as instinct or emotion is placed. The present invention relates to a behavior control system, a behavior control method, and a robot apparatus for a robot that selects an appropriate behavior by comprehensively judging the situation.

電気的若しくは磁気的な作用を用いて人間の動作に似せた運動を行なう機械装置のことを「ロボット」という。ロボットの語源は、スラブ語の“ROBOTA(奴隷機械)”に由来すると言われている。わが国では、ロボットが普及し始めたのは1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化などを目的としたマニピュレータや搬送ロボットなどの産業用ロボット(industrial robot)であった。   A mechanical device that performs a movement resembling human movement using an electrical or magnetic action is called a “robot”. It is said that the word “robot” comes from the Slavic word “ROBOTA (slave machine)”. In Japan, robots started to spread from the end of the 1960s, but many of them are industrial robots such as manipulators and transfer robots for the purpose of automating and unmanned production operations in factories. Met.

最近では、イヌやネコ、クマのように4足歩行の動物の身体メカニズムやその動作を模したペット型ロボット、あるいは、ヒトやサルなどの2足直立歩行を行なう動物の身体メカニズムや動作を模した「人間形」若しくは「人間型」のロボット(humanoid robot)など、脚式移動ロボットの構造やその安定歩行制御に関する研究開発が進展し、実用化への期待も高まってきている。これら脚式移動ロボットは、クローラ式ロボットに比し不安定で姿勢制御や歩行制御が難しくなるが、階段の昇降や障害物の乗り越えなど、柔軟な歩行・走行動作を実現できるという点で優れている。   Recently, a pet-type robot that mimics the body mechanism and movement of a quadruped animal such as a dog, cat, or bear, or the body mechanism or movement of a biped upright animal such as a human or monkey. Research and development on the structure of a legged mobile robot and its stable walking control, such as the “humanoid” or “humanoid robot”, has been progressed, and the expectation for practical use is also increasing. These legged mobile robots are unstable compared to crawler robots, making posture control and walking control difficult, but they are superior in that they can realize flexible walking and running operations such as climbing stairs and climbing obstacles. Yes.

脚式移動ロボットの用途の1つとして、産業活動・生産活動等における各種の難作業の代行が挙げられる。例えば、原子力発電プラントや火力発電プラント、石油化学プラントにおけるメンテナンス作業、製造工場における部品の搬送・組立作業、高層ビルにおける清掃、火災現場その他における救助といったような危険作業・難作業の代行などである。   One of the uses of legged mobile robots is to perform various difficult operations in industrial activities and production activities. For example, maintenance work at nuclear power plants, thermal power plants, petrochemical plants, transportation and assembly work of parts at manufacturing plants, cleaning of high-rise buildings, substitution of dangerous work and difficult work such as rescue at fire sites etc. .

また、脚式移動ロボットの他の用途として、上述の作業支援というよりも、生活密着型、すなわち人間との「共生」あるいは「エンターティンメント」という用途が挙げられる。この種のロボットは、ヒトあるいはイヌ(ペット)、クマなどの比較的知性の高い脚式歩行動物の動作メカニズムや四肢を利用した豊かな感情表現を忠実に再現する。また、あらかじめ入力された動作パターンを単に忠実に実行するだけではなく、ユーザ(あるいは他のロボット)から受ける言葉や態度(「褒める」とか「叱る」、「叩く」など)に対して動的に対応した、生き生きとした応答表現を実現することも要求される。   Further, as other uses of the legged mobile robot, rather than the above-described work support, there is a life-contact type, that is, a “symbiosis” or “entertainment” with a human. This type of robot faithfully reproduces the rich emotional expression using the movement mechanism and limbs of relatively intelligent legged walking animals such as humans, dogs (pets), and bears. In addition, it does not simply execute a pre-input motion pattern faithfully, but dynamically responds to words and attitudes received from the user (or other robots) (such as “giving up”, “speaking”, “hitting”). It is also required to realize corresponding and vivid response expressions.

従来の玩具機械は、ユーザ操作と応答動作との関係が固定的であり、玩具の動作をユーザの好みに合わせて変更することはできない。この結果、ユーザは同じ動作しか繰り返さない玩具をやがては飽きてしまうことになる。これに対し、インテリジェントなロボットは、対話や機体動作などからなる行動を自律的に選択することから、より高度な知的レベルでリアリスティックなコミュニケーションを実現することが可能となる。この結果、ユーザはロボットに対して深い愛着や親しみを感じる。   In the conventional toy machine, the relationship between the user operation and the response operation is fixed, and the operation of the toy cannot be changed according to the user's preference. As a result, the user eventually gets bored with the toy that repeats only the same action. In contrast, an intelligent robot autonomously selects an action consisting of a dialogue, a body motion, and the like, so that realistic communication can be realized at a higher intelligent level. As a result, the user feels deep attachment and familiarity with the robot.

ロボットあるいはその他のリアリスティックな対話システムでは、視覚や聴覚など外部環境の変化に応じて逐次的に行動を選択していくのが一般的である。また、行動選択メカニズムの他の例として、本能や感情といった情動をモデル化してシステムの内部状態を管理して、内部状態の変化に応じて行動を選択するものを挙げることができる。勿論、システムの内部状態は、外部環境の変化によっても変化するし、選択された行動を発現することによっても変化する。   In a robot or other realistic dialogue system, it is common to select actions sequentially according to changes in the external environment such as vision and hearing. Another example of the action selection mechanism is to model emotions such as instinct and emotion, manage the internal state of the system, and select an action according to a change in the internal state. Of course, the internal state of the system changes depending on changes in the external environment, and also changes depending on the selected behavior.

しかしながら、これら外部環境や内部状態などのロボットが置かれている状況を統合的に判断して行動を選択するという、状況依存型の行動制御に関しては例が少ない。   However, there are few examples regarding the situation-dependent action control in which the action such as the external environment and the internal state is selected by judging the situation where the robot is placed.

ここで、内部状態には、例えば生体で言えば大脳辺縁系へのアクセスに相当する本能のような要素や、大脳新皮質へのアクセスに相当する内発的欲求や社会的欲求などのように動物行動学的モデルで捉えられる要素、さらには喜びや悲しみ、怒り、驚きなどのような感情と呼ばれる要素などで構成される。   Here, the internal state includes elements such as instinct that corresponds to access to the limbic system in the living body, and intrinsic and social desires that correspond to access to the cerebral neocortex. It consists of elements that can be captured by an animal behavioral model and elements called emotions such as joy, sadness, anger, and surprise.

従来のインテリジェント・ロボットやその他の自律対話型ロボットにおいては、本能や感情などさまざまな要因からなる内部状態をすべて「情動」としてまとめて1次元的に内部状態を管理していた。すなわち、内部状態を構成する各要素はそれぞれ並列に存在しており、明確な選択基準のないまま外界の状況や内部状態のみで行動が選択されていた。   In conventional intelligent robots and other autonomous interactive robots, the internal state consisting of various factors such as instinct and emotions are all collected as “emotional” to manage the internal state in one dimension. That is, the elements constituting the internal state exist in parallel, and the action is selected only in the external environment and the internal state without a clear selection criterion.

従来のシステムでは、その動作の選択及び発現は1次元の中にすべての行動が存在し、どれを選択するかを決定していた。このため、動作が多くなるにつれてその選択は煩雑になり、そのときの状況や内部状態を反映した行動選択を行なうことがより難しくなる。   In conventional systems, the selection and expression of the action has all the actions in one dimension and determines which one to select. For this reason, the selection becomes complicated as the number of operations increases, and it becomes more difficult to select an action that reflects the situation and the internal state at that time.

近時、本能や感情といった情動をモデル化してシステムの内部状態を管理し、内部状態の変化に応じて行動を選択するシステムが提案されているものの(例えば、非特許文献1を参照のこと)、内部状態と外部刺激に対して選択される行動は固定的なものが多く、ユーザや環境とのインタラクションを通じてそれを変えることは困難である。   Recently, a system has been proposed in which emotions such as instincts and emotions are modeled to manage the internal state of the system, and an action is selected according to changes in the internal state (see, for example, Non-Patent Document 1). The behavior selected for the internal state and the external stimulus is often fixed, and it is difficult to change it through interaction with the user or the environment.

ロボット装置が現在の状況に応じた最適な次の行動及び動作を予想して行なわせる機能や、過去の経験に基づいて次の行動及び動作を変化させる機能(以下では、「状況依存型の行動制御」とも呼ぶ)を搭載することができれば、より一層の親近感や満足感をユーザに与えて、ロボット装置としてのアミューズメント性をより向上させるとともに、ユーザとのインタラクションを円滑に行なうことができて便利である。   A function that the robot device predicts and performs the next action and action that is optimal for the current situation, and a function that changes the next action and action based on past experience (hereinafter referred to as “situation-dependent action”). Can also be used to provide a greater sense of familiarity and satisfaction, improve amusement as a robotic device, and facilitate interaction with the user. Convenient.

また、最近では、本脳や感情といった情動をモデル化しシステムの内部状態を管理して、この種の内部状態と、センサ入力などから得られる認識結果(タッチセンサのシーケンス入力や、カラー・ボールの認識、顔認識、音声認識など)すなわち外部刺激という2種類の入力に基づいて、状況依存行動を自発的に選択することができるエンタテインメント・ロボットが提案されている(例えば、特許文献1を参照のこと)。   Also, recently, emotions such as the brain and emotions are modeled and the internal state of the system is managed, and this type of internal state and the recognition results obtained from sensor inputs (such as touch sensor sequence input and color ball An entertainment robot has been proposed that can spontaneously select a situation-dependent action based on two types of inputs, i.e., recognition, face recognition, voice recognition, etc., i.e., external stimuli (see, for example, Patent Document 1). thing).

その一方で、自発的な状況依存行動の他に、センサ入力そのものをトリガとして反射的な行動を行なうことも、エンタテインメント・ロボットには重要である、と本発明者らは思料する。例えば、肩タッチセンサを押された、目の前に突然何か物体が現れた、大きな音が発生したなどの外部刺激に対して、反射行動である。この種の反射行動は基本的には内部状態とはほぼ無関係に行なわれる。このような場合、状況依存行動と反射行動という2種類の行動を調停することは困難である。   On the other hand, in addition to spontaneous situation-dependent behavior, the present inventors think that it is also important for entertainment robots to perform reflexive behavior using sensor input itself as a trigger. For example, it is a reflex action for an external stimulus such as a shoulder touch sensor being pressed, an object suddenly appearing in front of the eyes, or a loud sound. This kind of reflex behavior is basically performed independently of the internal state. In such a case, it is difficult to mediate two types of behaviors, that is, situation dependent behavior and reflex behavior.

特許第3,558,222号公報Japanese Patent No. 3,558,222 尾形哲也、菅野重樹共著「自己保存に基づくロボットの行動生成−方法論と機械モデルの実現化−」、日本ロボット学会誌、1997年、第15巻、第5号、p.710−721Co-authored by Tetsuya Ogata and Shigeki Kanno, “Robot Behavior Generation Based on Self-Preservation-Realization of Methodology and Machine Model-” The Journal of the Robotics Society of Japan, 1997, Vol. 15, No. 5, p. 710-721

本発明の目的は、自律的な動作を行ないリアリスティックなコミュニケーションを実現することができる、優れたロボット装置を提供することにある。   An object of the present invention is to provide an excellent robot apparatus capable of performing autonomous operation and realizing realistic communication.

本発明のさらなる目的は、視覚や聴覚などの外部環境の認識結果や本能や感情などの内部状態などのロボットが置かれている状況を統合的に判断して行動を選択することができる、優れたロボット装置を提供することにある。   A further object of the present invention is to be able to select an action by comprehensively judging the situation where the robot is placed such as the recognition result of the external environment such as vision and hearing, and the internal state such as instinct and emotion. It is to provide a robot apparatus.

本発明のさらなる目的は、情動についての存在意義をより明確にして、一定の秩序の下で外部刺激や内部状態に応じた行動を好適に選択し実行することができる、優れたロボット装置を提供することにある。   A further object of the present invention is to provide an excellent robot apparatus that can clarify the significance of the existence of emotions and can appropriately select and execute an action according to an external stimulus or an internal state under a certain order. There is to do.

本発明のさらなる目的は、視覚や聴覚などの外部環境の認識結果や本能や感情などの内部状態などのロボットが置かれている状況を統合的に判断して行動を選択することができる、優れたロボット装置を提供することにある。   A further object of the present invention is to be able to select an action by comprehensively judging the situation where the robot is placed such as the recognition result of the external environment such as vision and hearing, and the internal state such as instinct and emotion. It is to provide a robot apparatus.

本発明のさらなる目的は、複数の階層からなる行動制御ソフトウェア間の調和をとりながら、エンタテインメント・ロボットの社会的なインタラクションを実現することができる、優れたロボット装置を提供することにある。   It is a further object of the present invention to provide an excellent robot apparatus capable of realizing social interaction of entertainment robots while harmonizing behavior control software composed of a plurality of layers.

本発明のさらなる目的は、外部刺激や内部状態に応じた自発的な状況依存行動と、外部刺激に直接反応する反射行動という2種類の異なった行動を好適に発現することができる、優れたロボット装置を提供することにある。   A further object of the present invention is to provide an excellent robot capable of suitably expressing two different behaviors, a spontaneous situation-dependent behavior according to an external stimulus or an internal state, and a reflex behavior that reacts directly to the external stimulus. To provide an apparatus.

本発明のさらなる目的は、自発的な状況依存行動と反射行動という2種類の異なった行動を好適に調停することができる、優れたロボット装置を提供することにある。   A further object of the present invention is to provide an excellent robot apparatus that can suitably mediate two different types of behaviors, ie, spontaneous situation-dependent behavior and reflex behavior.

本発明は、上記課題を参酌してなされたものであり、内部状態又は外部入力に基づいて行動を生成するロボット装置において、
内部状態又は外部入力に基づいて行動を制御する複数の行動制御階層と、
前記ロボット装置の資源を管理し、各行動制御階層からの前記ロボット装置の駆動に関する動作コマンドの競合を解決する資源管理部と、
を具備することを特徴とするロボット装置である。
The present invention has been made in consideration of the above problems, and in a robot apparatus that generates an action based on an internal state or an external input,
A plurality of action control layers for controlling actions based on internal states or external inputs;
A resource management unit that manages resources of the robot device and resolves conflicts of operation commands related to driving of the robot device from each behavior control layer;
A robot apparatus comprising:

ここで、前記の各行動制御階層は、前記ロボットの行動を決定する1以上の行動モジュールで構成され、各行動モジュールは、内部状態又は外部入力に応じた前記ロボット装置の行動評価を出力する行動評価手段と、前記ロボット装置の行動命令を出力する行動命令出力手段とをそれぞれ備えている。そして、前記の各行動制御階層では、各行動モジュールの前記行動評価手段における行動評価に基いて、前記ロボット装置の行動を制御する動作コマンドを生成するようになっている。   Here, each of the behavior control layers is composed of one or more behavior modules that determine the behavior of the robot, and each behavior module outputs an behavior evaluation of the robot device according to an internal state or an external input. Evaluation means and action command output means for outputting an action command of the robot apparatus are provided. In each of the behavior control layers, an operation command for controlling the behavior of the robot apparatus is generated based on the behavior evaluation in the behavior evaluation unit of each behavior module.

各行動制御階層は、複数の行動モジュールがロボット装置の実現レベルに応じた木構造形式に構成することができる。この木構造は、動物行動学的(Ethological)な状況依存行動を数式化した行動モデルや、感情表現を実行するための枝など、複数の枝を含んでいる。例えば、ルート行動モジュールの直近下位の階層では、「探索する(Investigate)」、「食べる(Ingestive)」、「遊ぶ(Play)」という行動モジュールが配設される。そして、「探索する(Investigate)」の下位には、「InvestigativeLocomotion」、「HeadinAirSniffing」、「InvestigativeSniffing」というより具体的な探索行動を記述した行動モジュールが配設されている。同様に、行動モジュール「食べる(Ingestive)」の下位には「Eat」や「Drink」などのより具体的な飲食行動を記述した行動モジュールが配設され、行動モジュール「遊ぶ(Play)」の下位には「PlayBowing」、「PlayGreeting」、「PlayPawing」などのより具体的な遊ぶ行動を記述した行動モジュールが配設されている。   Each behavior control layer can be configured by a plurality of behavior modules in a tree structure according to the realization level of the robot apparatus. This tree structure includes a plurality of branches such as a behavior model obtained by formulating an animal behavioral (ethological) situation-dependent behavior and a branch for executing emotional expression. For example, in the hierarchy immediately below the root behavior module, behavior modules such as “Investigate”, “Estimate”, and “Play” are arranged. Then, below “Investigate”, behavior modules describing more specific search behaviors such as “Investigative Location”, “HeadinAirSniffing”, and “InvestigativeSniffing” are arranged. Similarly, a behavior module describing more specific eating and drinking behavior such as “Eat” and “Drink” is arranged below the behavior module “Ingestive”, and subordinate to the behavior module “Play”. Are arranged with behavior modules describing more specific playing behaviors such as “PlayBowing”, “PlayGreeting”, “PlayPawing” and the like.

したがって、前記の各行動制御階層では、このような階層構造の下位層の行動モジュールから上位層の行動モジュールへ出力される行動評価に基づいて行動モジュールを選択し、前記ロボット装置の行動を制御することができる。   Therefore, in each of the behavior control layers, the behavior module is selected based on the behavior evaluation output from the lower layer behavior module to the upper layer behavior module, and the behavior of the robot apparatus is controlled. be able to.

前記の各行動モジュールの行動命令出力手段は、前記ロボット装置において前記行動命令を実行する際に使用する前記ロボット装置のリソースを出力する。そして、前記の各行動制御階層では、前記階層構造の下位層の行動モジュールから上位層の行動モジュールへ出力される行動評価及び前記ロボット装置の使用リソースに基づいて、前記ロボット装置の行動を制御する。   The behavior command output means of each behavior module outputs the resource of the robot device used when the behavior command is executed in the robot device. In each of the behavior control layers, the behavior of the robot device is controlled based on the behavior evaluation output from the behavior module of the lower layer of the hierarchical structure to the behavior module of the upper layer and the use resources of the robot device. .

このような場合、前記行動評価部は該木構造の上から下に向かって複数の行動モジュールを同時並行的に評価することができる。また、外部入力やロボット装置自身の内部状態の変化に応答して、前記行動評価部による前記の各行動モジュールの評価を実行して、木構造を上から下に向かって評価結果としての実行許可を渡していくことにより、外部環境や内部状態の変化に応じた適当な行動を選択的に実行することができる。すなわち、状況依存の行動の評価並びに実行をConcurrentに行なうことができる。   In such a case, the behavior evaluation unit can evaluate a plurality of behavior modules simultaneously from the top to the bottom of the tree structure. Also, in response to external input or changes in the internal state of the robot apparatus itself, the behavior evaluation unit performs the evaluation of each of the behavior modules, and the execution permission as an evaluation result from the top to the bottom of the tree structure It is possible to selectively execute appropriate actions according to changes in the external environment and internal state. That is, the evaluation and execution of the situation-dependent behavior can be performed on the current.

ここで、本発明に係るロボット装置は、複数の行動制御階層として、例えば、外部入力の認識結果を直接受けて出力行動を直接決定する反射行動制御階層と、外部入力並びに前記ロボット装置の内部状態に基づいて前記ロボット装置が置かれている状況に即応した行動を制御する状況依存行動階層と、将来の状況を推論して比較的長期にわたる前記ロボット装置の行動を計画する熟考行動制御階層という3層からなる行動制御の階層構造を備えている。   Here, the robot apparatus according to the present invention includes, as a plurality of action control layers, for example, a reflex action control hierarchy that directly receives an external input recognition result and directly determines an output action, an external input, and an internal state of the robot apparatus. A situation-dependent action hierarchy that controls actions in response to the situation in which the robot apparatus is placed, and a contemplation action control hierarchy that infers future situations and plans the action of the robot apparatus over a relatively long period of time. It has a hierarchical structure of behavior control consisting of layers.

前記反射行動階層と前記状況依存行動階層による行動選択はそれぞれ独立して行なわれるので、互いに選択された行動モジュールをロボット装置上で実行するときには、ハードウェア・リソースが競合する場合がある。前記反射行動階層から発行されるコマンドは反射行動として生成するコマンドであるのに対し、前期状況依存行動階層から発行されるコマンドは、状況依存行動として生成するコマンドである。これらの行動階層は別プロセスとして、若しくは別スレッドとして生成するため、あらかじめ調停しておくことが困難である。   Since the action selection based on the reflection action hierarchy and the situation-dependent action hierarchy is performed independently, hardware resources may compete when executing action modules selected from each other on the robot apparatus. The command issued from the reflex behavior hierarchy is a command generated as a reflex action, whereas the command issued from the previous situation-dependent action hierarchy is a command generated as a situation dependence action. Since these behavior layers are generated as separate processes or as separate threads, it is difficult to mediate in advance.

そこで、本発明では、前記資源管理部は、前記反射行動階層と前記状況依存行動階層の動作コマンドの競合を調停するようにしている。   Therefore, in the present invention, the resource management unit arbitrates competition between operation commands of the reflex behavior hierarchy and the situation-dependent behavior hierarchy.

前記資源管理部は、前記反射行動階層並びに前記熟考行動階層からのコマンドの競合解決を行なうコマンド競合解決手段と、前記ロボット装置のハードウェア資源毎のコマンドの管理を行なうコンテンツ管理手段を備えている。そして、前記コマンド競合解決手段は、コマンドと、コマンドが使用する前記ロボット装置のハードウェア資源と、コマンドの活動度レベルを保持し、いずれかの行動制御階層から新しいコマンドが送信されたときには、現在実行中のコマンドが使用する前記ロボット装置のハードウェア資源と新しいコマンドが使用する前記ロボット装置のハードウェア資源が競合しているか否かを判定し、競合している場合には互いのコマンドに付随する活動度レベルの比較を行なうことによりコマンドの競合を解決することができる。   The resource management unit includes command conflict solution means for solving a conflict of commands from the reflection action hierarchy and the contemplation action hierarchy, and content management means for managing commands for each hardware resource of the robot apparatus. . The command conflict solution means holds the command, the hardware resource of the robot device used by the command, and the activity level of the command. When a new command is transmitted from any action control layer, It is determined whether or not the hardware resource of the robot device used by the command being executed conflicts with the hardware resource of the robot device used by the new command. Comparing command activity levels can resolve command conflicts.

したがって、現在実行中のコマンドの活動度レベルが新しいコマンドの活動度レベルよりも低い場合には、実行中のコマンドはキャンセルされ、新しいコマンドが実行される。他方、現在実行中のコマンドの活動度レベルが新しいコマンドの活動度レベルよりも高い場合には、新しいコマンドは実行中のコマンドの終了を待って実行されるか、若しくは新しいコマンドがキャンセル処理される。また、新しいコマンドの活動度レベルが前記資源管理部で待ち状態にあるコマンドの活動度レベルよりも大きい場合には、前記資源管理部で待ち状態にあるコマンドはキャンセルされる。   Therefore, if the activity level of the currently executing command is lower than the activity level of the new command, the executing command is canceled and the new command is executed. On the other hand, if the activity level of the currently executing command is higher than the activity level of the new command, the new command is executed waiting for the end of the executing command, or the new command is canceled. . When the activity level of a new command is higher than the activity level of a command waiting in the resource management unit, the command waiting in the resource management unit is canceled.

前記行動モジュール内の行動評価手段は、前記行動命令手段による行動命令の出力を誘発する評価値を活動度レベルとして求める行動誘発評価値演算手段と、活動度レベルに対するバイアスを意図レベルとして求めるバイアス演算手段と、前記行動命令手段による行動命令を実行したときに使用する前記ロボット装置のリソースを特定する使用リソース演算手段を備えている。上位の行動制御階層は、下位の行動制御階層に対し意図レベルを指示することにより、自階層の意図に反して動作するのを抑制したり、逆に自階層の意図に適うように励起したりすることができる。   The behavior evaluation unit in the behavior module includes a behavior induction evaluation value calculation unit that calculates an evaluation value that induces an output of a behavior command by the behavior command unit as an activity level, and a bias calculation that calculates a bias with respect to the activity level as an intention level And a use resource calculation means for specifying the resource of the robot device to be used when the action command by the action command means is executed. The higher behavior control layer instructs the lower behavior control layer to instruct the intention level, thereby suppressing the operation against the intention of the own layer, or conversely exciting it to meet the intention of the own layer. can do.

例えば、前記状況依存行動階層は、反射行動が状況依存行動の意図に適合するか否かに応じて反射行動を抑制又は励起する行動意図信号を前記反射行動階層に出力し、前記反射行動階層は、行動意図信号を管理する行動意図管理手段を備え、前記状況依存行動階層における行動意図に基づいて各行動モジュールにおける意図レベルを操作するようにする。これによって、状況依存行動の意図に反する反射行動を抑制し、又は状況依存行動の意図に適合する反射行動を励起することができる。   For example, the situation-dependent action hierarchy outputs an action intention signal that suppresses or excites a reflection action depending on whether the reflection action matches the intention of the situation-dependent action to the reflection action hierarchy, The behavior intention management means for managing the behavior intention signal is provided, and the intention level in each behavior module is operated based on the behavior intention in the situation-dependent behavior hierarchy. Thereby, reflex behavior contrary to the intention of the situation-dependent behavior can be suppressed, or the reflex behavior that matches the intention of the situation-dependent behavior can be excited.

反射行動制御階層は外部刺激の入力により直接動作するので、資源管理部による調停に頼っていたのでは、状況依存行動階層は反射行動を十分に抑制することができない。これに対し、状況依存行動階層は、意図レベルを反射行動制御階層に通知しておくことで、状況依存行動が意図しない反射行動を好適に抑制することができる。   Since the reflex behavior control hierarchy operates directly by the input of an external stimulus, the situation-dependent behavior hierarchy cannot sufficiently suppress the reflex behavior by relying on mediation by the resource management unit. On the other hand, the situation-dependent action hierarchy can suitably suppress the reflex action that the situation-dependent action is not intended by notifying the reflection action control hierarchy of the intention level.

また、前記熟考行動階層は、状況依存行動が熟考行動の意図に適合するか否かに応じて状況依存行動を抑制又は励起する行動意図信号を前記反射行動階層に出力し、前記状況依存行動階層は、行動意図信号を管理する行動意図管理手段を備え、前記熟考行動階層における行動意図に基づいて各行動モジュールにおける意図レベルを操作する。これによって、熟考行動の意図に反する行動モジュールを抑制し又は熟考行動の意図に適合する行動モジュールを励起することができる。   Further, the contemplation behavior layer outputs an action intention signal that suppresses or excites a situation-dependent behavior according to whether or not the situation-dependent behavior matches the intention of the contemplation behavior to the reflex behavior layer, and the situation-dependent behavior layer Comprises an action intention management means for managing an action intention signal, and operates an intention level in each action module based on the action intention in the contemplation action hierarchy. Thereby, it is possible to suppress a behavior module that is contrary to the intention of the contemplation behavior or to excite the behavior module that matches the intention of the contemplation behavior.

すなわち、熟考行動階層は、意図レベルを状況依存行動制御階層に通知しておくことで、熟考行動が意図しない状況依存行動を好適に抑制することができる。   That is, the contemplation action hierarchy can appropriately suppress the situation-dependent action that is not intended by the contemplation action by notifying the intention-dependent action control hierarchy of the intention level.

また、状況依存行動階層を構成する要素行動がすべて内部状態をある範囲に保つための行動すなわち「ホメオスタシス行動」である場合、すべての内部状態が十分満たされているときには各要素行動の欲求値は小さくなるため、行動価値(行動制御階層内で行動モジュールの競合解決を行なうための行動モジュールの活性度レベル)も小さく、状況依存行動が発現する機会は低下することになる。このような場合、外部刺激もなければ反射行動を起こさなくなるので、ロボット装置は何もしなくなり、エンタテイメント性を損なうという問題がある。そこで、ロボット装置の自発的な行動を発現する状況依存行動の構成要素として、ホメオスタシス的な目的を持たない「アイドル行動」をさらに組み込むようにしてもよい。   In addition, when all the elemental actions that make up the situation-dependent action hierarchy are actions to keep the internal state within a certain range, that is, “homeostasis action”, when all the internal states are sufficiently satisfied, the desire value of each elemental action is Since it becomes smaller, the action value (activity level of the action module for solving the competition of action modules in the action control hierarchy) is also reduced, and the opportunity for the situation-dependent action to occur is reduced. In such a case, since there is no reflex behavior if there is no external stimulus, there is a problem that the robot apparatus does nothing and impairs entertainment. Therefore, “idle behavior” having no homeostasis purpose may be further incorporated as a component of the situation-dependent behavior that expresses spontaneous behavior of the robot apparatus.

このように、自発行動としてアイドル行動を取り入れた場合には、状況依存行動階層内では、ホメオスタシス行動とアイドル行動のいずれを行動出力すべきかを調停しなければならなくなる。また、状況依存行動階層と反射行動階層の間では、それぞれから出力される自発行動と反射行動のいずれを行動すべきかを調停しなければならなくなる。   As described above, when the idle behavior is adopted as the self-issued motion, it is necessary to mediate whether the homeostasis behavior or the idle behavior should be output in the situation-dependent behavior hierarchy. In addition, between the situation-dependent action hierarchy and the reflex action hierarchy, it is necessary to mediate which of the self-issued movement and the reflex action output from each should be acted.

例えば、前記状況依存行動階層は、それぞれのホメオスタシス行動及びアイドル行動を行動出力する複数の要素行動で構成され、前記反射行動階層は、それぞれの反射行動を行動出力する複数の要素行動で構成される。要素行動は、上述した行動モジュールに相当する。そして、各要素行動の当該行動の実行優先度を示す行動価値を算出する行動価値算出手段をそれぞれ備える。前記行動価値算出手段は、前記ロボット装置の内部状態から欲求値を算出するとともに、内部状態と認識結果から予想満足値を算出し、該欲求値と該予想満足値からホメオスタシス行動の要素行動の行動価値を算出する。また、アイドル行動の要素行動の行動価値として一定値を与える。   For example, the situation-dependent action hierarchy is composed of a plurality of elemental actions for outputting each homeostasis action and idle action, and the reflex action hierarchy is composed of a plurality of elemental actions for outputting each reflex action. . Elemental behavior corresponds to the behavior module described above. And the action value calculation means which calculates the action value which shows the execution priority of the said action of each element action is each provided. The behavior value calculation means calculates a desire value from the internal state of the robot apparatus, calculates an expected satisfaction value from the internal state and the recognition result, and performs an action of an elementary action of homeostasis behavior from the desire value and the predicted satisfaction value Calculate value. Also, a certain value is given as the action value of the element action of the idle action.

このような場合、前記状況依存行動階層は、自発行動として行動出力すべき要素行動を行動価値に基づいて選択する行動選択手段を備え、ホメオスタシス行動とアイドル行動の調停を行なわせるようにすることができる。   In such a case, the situation-dependent action hierarchy includes action selection means for selecting an element action to be output as a self-issued action based on the action value, and allows mediation between homeostasis action and idle action. it can.

ホメオスタシス行動の行動価値が欲求値と予想満足値から算出される一方、アイドル行動に対しては一定の行動価値が与えられている。したがって、欲求値が上昇するとホメオスタシス行動の行動価値が高まるのでホメオスタシス行動を状況依存行動として選択される。逆に、すべての内部状態が十分に満たされているときにはすなわちホメオスタシス行動の行動価値が低下していき、アイドル行動の行動価値を下回るようになると、アイドル行動が選択されるようになる。   While the behavioral value of homeostasis behavior is calculated from the desire value and the expected satisfaction value, a certain behavioral value is given to idle behavior. Therefore, since the behavioral value of homeostasis behavior increases when the desire value increases, homeostasis behavior is selected as the situation-dependent behavior. On the contrary, when all the internal states are sufficiently satisfied, that is, when the action value of homeostasis action decreases and becomes lower than the action value of idle action, the idle action is selected.

アイドル行動はホメオスタシス的な目的を持たない、すなわち内部状態とは無関係であることから、その要素行動の行動価値は一定値が与えられている。そして、反射行動との競合を回避又は緩和する必要がある。   Since the idle behavior has no homeostasis purpose, that is, it has no relation to the internal state, the behavior value of the element behavior is given a constant value. And it is necessary to avoid or alleviate competition with reflex behavior.

そこで、本発明に係るロボット装置は、反射行動の要因となる外部入力イベントが発生する反射イベント密度を管理する反射イベント管理部をさらに備え、前記状況依存行動階層は、反射イベント密度に基づいてアイドル行動の各要素行動が選択される確率を求め、該確率に従って要素行動を選択するようにしている。反射イベント密度が高くなると、動作量の小さなアイドル行動あるいは反射行動が選ばれ易くなり、反射イベント密度が低くなると、動作量の大きなアイドル行動が選ばれ易く、あるいは反射行動が選ばれにくくなる。この結果、反射行動の要因となるイベントの種類や頻度から、アイドル行動を自発的に出力するタイミングやそのモーションの種類を調停することができる。   Therefore, the robot apparatus according to the present invention further includes a reflection event management unit that manages a reflection event density at which an external input event that causes a reflection action occurs, and the situation-dependent action hierarchy is idle based on the reflection event density. The probability that each elemental action is selected is obtained, and the elemental action is selected according to the probability. When the reflection event density is high, it is easy to select an idle action or a reflection action with a small amount of movement, and when the reflection event density is low, it is easy to select an idle action with a large amount of movement or it is difficult to select a reflection action. As a result, it is possible to arbitrate the timing for spontaneously outputting idle behavior and the type of motion based on the type and frequency of events that cause reflex behavior.

そして、本発明に係るロボット装置は、前記状況依存行動階層から出力される自発行動の要素運動と前記反射行動階層より出力される反射行動の要素運動とを調停する資源管理部をさらに備えている。前記状況依存行動階層及び前記反射行動階層はそれぞれ出力する要素行動にコマンドの強さ(資源管理部でコマンドの競合解決を行なうためのコマンドの活動度レベル)を与える。そして、前記資源管理部は、コマンドの強さに基づいて、ホメオスタシス行動と反射行動、又はアイドル行動と反射行動の間で調停を行なうことにより、2種類の異なった行動を好適に調停するようにしている。   The robot apparatus according to the present invention further includes a resource management unit that arbitrates between the elemental motion of the self-issued movement output from the situation-dependent behavioral hierarchy and the elemental motion of the reflective behavior output from the reflective behavior hierarchy. . The situation-dependent action hierarchy and the reflection action hierarchy give command strengths (command activity levels for performing command conflict resolution in the resource manager) to the element actions to be output. The resource management unit preferably mediates between two different behaviors by mediating between homeostasis behavior and reflex behavior or idle behavior and reflex behavior based on the strength of the command. ing.

ここで、前記状況依存行動階層は、ホメオスタシス行動の要素行動に対して行動価値に基づくコマンドの強さを与え、アイドル行動の各要素行動に対してそれぞれ固有のコマンドの強さを与えるようにする。また、前記反射行動階層は、すべての要素行動にコマンドの強さとして一定値を与えるようにする。   Here, the situation-dependent action hierarchy gives command strength based on action value to the elemental action of homeostasis action, and gives unique command strength to each elemental action of idle action. . Also, the reflex behavior hierarchy gives a constant value as the command strength to all element behaviors.

このような場合、ホメオスタシス行動の行動価値(欲求)が低い場合には、ロボット装置としては反射行動のトリガに反応し易くなるが、ホメオスタシス行動の行動価値が高い場合には、ロボット装置としては反射行動のトリガに反応しない(その行動に集中しているように見える)ことになる。   In such a case, when the action value (desire) of the homeostasis action is low, the robot apparatus easily reacts to the trigger of the reflex action, but when the action value of the homeostasis action is high, the robot apparatus reflects it. It does not respond to the trigger of the action (it seems to concentrate on the action).

また、欲求が低い場合にはホメオスタシス的でないアイドル行動が自発的行動として選択されるのは既に述べた通りであり、この場合、資源管理部はアイドル行動と反射行動とを調停することになる。アイドル行動は、反射行動の要因となるイベント(外部入力)の種類や頻度に応じてモーションの種類が決定される。そして、アイドル行動は、ユーザからの反射イベントが多く反射イベント密度が高い場合は、ロボット装置は反射行動のトリガに反応するようになる。他方、ユーザから放置されて反射イベント密度が低い場合には、ロボット装置は反射行動のトリガに反応しない(その行動に集中しているように見える)ことになる。   Further, as described above, when the desire is low, the idle behavior that is not homeostasis is selected as the spontaneous behavior, and in this case, the resource management unit mediates between the idle behavior and the reflex behavior. In the idle behavior, the type of motion is determined according to the type and frequency of the event (external input) that causes the reflective behavior. In the idle behavior, when there are many reflection events from the user and the reflection event density is high, the robot apparatus responds to the trigger of the reflection behavior. On the other hand, when the reflection event density is low due to being left by the user, the robot apparatus does not respond to the trigger of the reflection action (it seems to concentrate on the action).

本発明によれば、自律的な動作を行ないユーザとのリアリスティックなコミュニケーションを実現することができる、優れたロボット装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the outstanding robot apparatus which can perform realistic operation | movement and can realize realistic communication with a user can be provided.

また、本発明によれば、視覚や聴覚などの外部環境の認識結果や本能や感情などの内部状態などのロボットが置かれている状況を統合的に判断して行動を選択することができる、優れたロボット装置を提供することができる。   Further, according to the present invention, it is possible to select an action by comprehensively judging the situation where the robot is placed such as the recognition result of the external environment such as vision and hearing and the internal state such as instinct and emotion, An excellent robot apparatus can be provided.

また、本発明によれば、視覚や聴覚などの外部環境の認識結果や本能や感情などの内部状態などのロボットが置かれている状況を統合的に判断して行動を選択することができる、優れたロボット装置を提供することができる。   Further, according to the present invention, it is possible to select an action by comprehensively judging the situation where the robot is placed such as the recognition result of the external environment such as vision and hearing and the internal state such as instinct and emotion, An excellent robot apparatus can be provided.

また、本発明によれば、情動についての存在意義をより明確にして、一定の秩序の下で外部刺激や内部状態に応じた行動を好適に選択し実行することができる、優れたロボット装置を提供することができる。   Further, according to the present invention, an excellent robot apparatus capable of clarifying the existence significance of emotion and appropriately selecting and executing an action according to an external stimulus or an internal state under a certain order. Can be provided.

また、本発明によれば、複数の階層からなる行動制御ソフトウェア間の調和をとりながら、エンタテインメント・ロボットの社会的なインタラクションを実現することができる、優れたロボット装置を提供することができる。   Furthermore, according to the present invention, it is possible to provide an excellent robot apparatus capable of realizing social interaction of entertainment robots while harmonizing behavior control software composed of a plurality of layers.

また、本発明によれば、反射行動と状況依存行動と熟考行動が別のプロセスとし、そのための制御方法を構築することで、反射行動の反応時間が状況依存行動や熟考行動によって遅延することを避けられるため、反応の遅延を気にせず視覚や聴覚などの外部環境の認識結果や本能や感情などの内部状態などのロボットが置かれている状況の記述を充実させることができ、優れたロボット装置を提供することができる。   In addition, according to the present invention, the reflex action, the situation-dependent action, and the contemplation action are separate processes, and by constructing a control method therefor, the reaction time of the reflex action is delayed by the situation-dependent action and the contemplation action. Because it can be avoided, it is possible to enhance the description of the situation where the robot is placed such as the recognition result of external environment such as vision and hearing and the internal state such as instinct and emotion without worrying about the delay of reaction An apparatus can be provided.

本発明に係るロボット装置は、自発行動の行動価値で反射行動の出力を制御することにより、ホメオスタシス行動の集中度合いを表現することができる。   The robot apparatus according to the present invention can express the degree of concentration of homeostasis action by controlling the output of the reflex action by the action value of the self-issued movement.

また、本発明に係るロボット装置は、反射イベント密度に応じてアイドル行動のコマンドの強さによって反射行動の出力を制御することにより、アイドル行動の集中度合いを表現することができる。   In addition, the robot apparatus according to the present invention can express the concentration degree of the idle action by controlling the output of the reflection action according to the strength of the command of the idle action according to the reflection event density.

また、本発明に係るロボット装置は、反射イベント密度に応じてアイドル行動の種類を制御することにより、アイドル行動の集中度合いを表現することができる。   In addition, the robot apparatus according to the present invention can express the concentration level of idle behavior by controlling the type of idle behavior according to the reflection event density.

また、本発明に係るロボット装置は、反射イベントが多数あるときは、なるべく動作量の大きいモーションを出さないようにすることにより、動力学的に反射行動を出力し易くすることができる。   In addition, the robot apparatus according to the present invention can easily output the reflex action kinetically by preventing a motion with a large operation amount as much as possible when there are many reflex events.

また、本発明に係るロボット装置は、ユーザからより明示的に反射イベントがある場合は、反射イベント密度の増加分を増やすことができる。   Further, the robot apparatus according to the present invention can increase the increase in the reflection event density when there is an explicit reflection event from the user.

本発明のさらに他の目的、特徴や利点は、後述する本発明の実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。   Other objects, features, and advantages of the present invention will become apparent from more detailed description based on embodiments of the present invention described later and the accompanying drawings.

以下、図面を参照しながら本発明の実施形態について詳解する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

A.ロボット装置の構成
図1には、本発明に実施に供されるロボット装置1の機能構成を模式的に示している。同図に示すように、ロボット装置1は、全体の動作の統括的制御やその他のデータ処理を行なう制御ユニット20と、入出力部40と、駆動部50と、電源部60とで構成される。以下、各部について説明する。
A. Configuration of Robot Device FIG. 1 schematically shows a functional configuration of a robot device 1 used in the present invention. As shown in the figure, the robot apparatus 1 includes a control unit 20 that performs overall control of the entire operation and other data processing, an input / output unit 40, a drive unit 50, and a power supply unit 60. . Hereinafter, each part will be described.

入出力部40は、入力部としてロボット装置1の目に相当するCCD(Charge Coupled Device:電荷結合素子)カメラ15や、耳に相当するマイクロフォン16、頭部や背中などの部位に配設されてユーザの接触を感知するタッチセンサ18、あるいは五感に相当するその他の各種のセンサを含む。また、出力部として、口に相当するスピーカ17、あるいは点滅の組み合わせや点灯のタイミングにより顔の表情を形成するLEDインジケータ(目ランプ)19などを装備している。これら出力部は、音声やランプの点滅など、脚などによる機械運動パターン以外の形式でもロボット装置1からのユーザ・フィードバックを表現することができる。   The input / output unit 40 is disposed as an input unit at a part such as a CCD (Charge Coupled Device) camera 15 corresponding to the eyes of the robot apparatus 1, a microphone 16 corresponding to the ear, a head or a back. It includes a touch sensor 18 that senses a user's contact, or other various sensors corresponding to the five senses. Further, as an output unit, a speaker 17 corresponding to the mouth or an LED indicator (eye lamp) 19 for forming a facial expression by a combination of blinking and lighting timing is provided. These output units can express user feedback from the robot apparatus 1 in a format other than a mechanical motion pattern such as a leg or the like, such as sound or blinking of a lamp.

駆動部50は、制御部20が指令する所定の運動パターンに従ってロボット装置1の機体動作を実現する機能ブロックであり、行動制御による制御対象である。駆動部50は、ロボット装置1の各関節における自由度を実現するための機能モジュールであり、それぞれの関節におけるロール、ピッチ、ヨーなど各軸毎に設けられた複数の駆動ユニットで構成される。各駆動ユニットは、所定軸回りの回転動作を行なうモータ51と、モータ51の回転位置を検出するエンコーダ52と、エンコーダ52の出力に基づいてモータ51の回転位置や回転速度を適応的に制御するドライバ53の組み合わせで構成される。   The drive unit 50 is a functional block that realizes the body operation of the robot apparatus 1 in accordance with a predetermined motion pattern commanded by the control unit 20, and is a control target by behavior control. The drive unit 50 is a functional module for realizing the degree of freedom in each joint of the robot apparatus 1 and includes a plurality of drive units provided for each axis such as roll, pitch, and yaw in each joint. Each drive unit adaptively controls the rotational position and rotational speed of the motor 51 based on the output of the motor 51 that performs a rotational operation around a predetermined axis, the encoder 52 that detects the rotational position of the motor 51, and the encoder 52. A combination of drivers 53 is used.

駆動ユニットの組み合わせ方によって、ロボット装置1を例えば2足歩行又は4足歩行などの脚式移動ロボットとして構成することができる。   Depending on how the drive units are combined, the robot apparatus 1 can be configured as a legged mobile robot such as a bipedal walking or a quadrupedal walking.

電源部60は、その字義通り、ロボット装置1内の各電気回路などに対して給電を行なう機能モジュールである。本実施形態に係るロボット装置1は、バッテリを用いた自律駆動式であり、電源部60は、充電バッテリ61と、充電バッテリ61の充放電状態を管理する充放電制御部62とで構成される。充電バッテリ61は、例えば、複数本のリチウムイオン2次電池セルをカートリッジ式にパッケージ化した「バッテリ・パック」の形態で構成される。また、充放電制御部62は、バッテリ61の端子電圧や充電/放電電流量、バッテリ61の周囲温度などを測定することでバッテリ61の残存容量を把握し、充電の開始時期や終了時期などを決定する。充放電制御部62が決定する充電の開始及び終了時期は制御ユニット20に通知され、ロボット装置1が充電オペレーションを開始及び終了するためのトリガとなる。   The power supply unit 60 is a functional module that feeds power to each electrical circuit in the robot apparatus 1 as its meaning. The robot apparatus 1 according to the present embodiment is an autonomous drive type using a battery, and the power supply unit 60 includes a charging battery 61 and a charging / discharging control unit 62 that manages the charging / discharging state of the charging battery 61. . The rechargeable battery 61 is configured, for example, in the form of a “battery pack” in which a plurality of lithium ion secondary battery cells are packaged in a cartridge type. Further, the charge / discharge control unit 62 grasps the remaining capacity of the battery 61 by measuring the terminal voltage of the battery 61, the amount of charge / discharge current, the ambient temperature of the battery 61, etc., and determines the charging start timing and end timing. decide. The charging start / end timing determined by the charge / discharge control unit 62 is notified to the control unit 20 and serves as a trigger for the robot apparatus 1 to start and end the charging operation.

制御ユニット20は、「頭脳」に相当し、例えばロボット装置1の機体頭部あるいは胴体部に搭載されている。   The control unit 20 corresponds to a “brain”, and is mounted on, for example, the body head or the trunk of the robot apparatus 1.

図2には、制御ユニット20の構成をさらに詳細に図解している。同図に示すように、制御ユニット20は、メイン・コントローラとしてのCPU(Central Processing Unit)21が、メモリやその他の各回路コンポーネントや周辺機器とバス接続された構成となっている。バス27は、データ・バス、アドレス・バス、コントロール・バスなどを含む共通信号伝送路である。バス27上の各装置にはそれぞれに固有のアドレス(メモリ・アドレス又はI/Oアドレス)が割り当てられている。CPU21は、アドレスを指定することによってバス28上の特定の装置と通信することができる。   FIG. 2 illustrates the configuration of the control unit 20 in more detail. As shown in the figure, the control unit 20 has a configuration in which a CPU (Central Processing Unit) 21 as a main controller is connected to a memory and other circuit components and peripheral devices via a bus. The bus 27 is a common signal transmission path including a data bus, an address bus, a control bus, and the like. Each device on the bus 27 is assigned a unique address (memory address or I / O address). The CPU 21 can communicate with a specific device on the bus 28 by specifying an address.

RAM(Random Access Memory)22は、DRAM(Dynamic RAM)などの揮発性メモリで構成された書き込み可能メモリであり、CPU21が実行するプログラム・コードをロードしたり、実行プログラムによる作業データの一時的な保存したりするために使用される。また、ROM(Read Only Memory)23は、プログラムやデータを恒久的に格納する読み出し専用メモリである。ROM23に格納されるプログラム・コードには、ロボット装置1の電源投入時に実行する自己診断テスト・プログラムや、ロボット装置1の動作を規定する動作制御プログラムなどが挙げられる。   A RAM (Random Access Memory) 22 is a writable memory composed of a volatile memory such as a DRAM (Dynamic RAM), and loads a program code executed by the CPU 21 or temporarily stores work data by the execution program. Used to save. A ROM (Read Only Memory) 23 is a read-only memory that permanently stores programs and data. Examples of the program code stored in the ROM 23 include a self-diagnosis test program that is executed when the robot apparatus 1 is powered on, and an operation control program that defines the operation of the robot apparatus 1.

ロボット装置1の制御プログラムには、カメラ15やマイクロフォン16などのセンサ入力を処理してシンボルとして認識する「センサ入力・認識処理プログラム」、短期記憶や長期記憶などの記憶動作(後述)を司りながらセンサ入力と所定の行動制御モデルとに基づいてロボット装置1の行動を制御する「行動制御プログラム」、行動制御モデルに従って各関節モータの駆動やスピーカ17の音声出力などを制御する「駆動制御プログラム」などが含まれる。   The control program for the robot apparatus 1 is a “sensor input / recognition processing program” that processes sensor inputs such as the camera 15 and the microphone 16 and recognizes them as symbols, and performs storage operations (described later) such as short-term memory and long-term memory. A “behavior control program” for controlling the behavior of the robot apparatus 1 based on the sensor input and a predetermined behavior control model, and a “drive control program” for controlling the driving of each joint motor and the sound output of the speaker 17 according to the behavior control model. Etc. are included.

不揮発性メモリ24は、例えばEEPROM(Electrically Erasable and Programmable ROM)のように電気的に消去再書き込みが可能なメモリ素子で構成され、逐次更新すべきデータを不揮発的に保持するために使用される。逐次更新すべきデータには、暗号鍵やその他のセキュリティ情報、出荷後にインストールすべき装置制御プログラムなどが挙げられる。   The nonvolatile memory 24 is composed of a memory element that can be electrically erased and rewritten, such as an EEPROM (Electrically Erasable and Programmable ROM), and is used to hold data to be sequentially updated in a nonvolatile manner. Data to be updated sequentially includes an encryption key and other security information, a device control program to be installed after shipment, and the like.

インターフェース25は、制御ユニット20外の機器と相互接続し、データ交換を可能にするための装置である。インターフェース25は、例えば、カメラ15やマイクロフォン16、スピーカ17との間でデータ入出力を行なう。また、インターフェース25は、駆動部50内の各ドライバ53−1…との間でデータやコマンドの入出力を行なう。   The interface 25 is a device for interconnecting with devices outside the control unit 20 and enabling data exchange. The interface 25 performs data input / output with the camera 15, the microphone 16, and the speaker 17, for example. The interface 25 inputs and outputs data and commands to and from the drivers 53-1.

また、インターフェース25は、RS(Recommended Standard)−232Cなどのシリアル・インターフェース、IEEE(Institute of Electrical and Electronics Engineers)1284などのパラレル・インターフェース、USB(Universal Serial Bus)インターフェース、i−Link(IEEE1394)インターフェース、SCSI(Small Computer System Interface)インターフェース、PCカードやメモリ・スティックを受容するメモリ・カード・インターフェース(カード・スロット)などのような、コンピュータの周辺機器接続用の汎用インターフェースを備え、ローカル接続された外部機器との間でプログラムやデータの移動を行なうようにしてもよい。   In addition, the interface 25 includes a serial interface such as RS (Recommended Standard) -232C, a parallel interface such as IEEE (Institut of Electrical and Electronics Engineers) 1284, a USB (Universal Serial Bus) I interface 94, an E A general-purpose interface for connecting computer peripherals, such as a small computer system interface (SCSI) interface, a memory card interface (card slot) that accepts PC cards and memory sticks, etc. Between external devices It may be performed to move programs and data.

また、インターフェース25の他の例として、赤外線通信(IrDA)インターフェースを備え、外部機器と無線通信を行なうようにしてもよい。さらに、制御ユニット20は、無線通信インターフェース26やネットワーク・インターフェース・カード(NIC)27などを含み、Bluetoothのような近接無線データ通信や、IEEE 802.11bのような無線ネットワーク、あるいはインターネットなどの広域ネットワークを経由して、外部のさまざまなホスト・コンピュータとデータ通信を行なうことができる。   As another example of the interface 25, an infrared communication (IrDA) interface may be provided to perform wireless communication with an external device. Furthermore, the control unit 20 includes a wireless communication interface 26, a network interface card (NIC) 27, and the like, and is used for close proximity wireless data communication such as Bluetooth, a wireless network such as IEEE 802.11b, or a wide area such as the Internet. Data communication can be performed with various external host computers via the network.

このようなロボット装置1とホスト・コンピュータ間におけるデータ通信により、遠隔のコンピュータ資源を用いて、ロボット装置1の複雑な動作制御を演算したり、リモート・コントロールしたりすることができる。   By such data communication between the robot apparatus 1 and the host computer, complex operation control of the robot apparatus 1 can be calculated or remotely controlled using remote computer resources.

B.ロボット装置の行動制御システム
図3には、本発明の実施形態に係るロボット装置1の行動制御システム100の機能構成を模式的に示している。ロボット装置1は、外部刺激の認識結果や内部状態の変化に応じて行動制御を行なうことができる。さらには、長期記憶機能を備え、外部刺激から内部状態の変化を連想記憶することにより、外部刺激の認識結果や内部状態の変化に応じて行動制御を行なうことができる。
B. A behavior control system diagram 3 of the robot apparatus has a functional configuration of a behavior control system 100 of the robot apparatus 1 according to an embodiment of the present invention is schematically shown. The robot apparatus 1 can perform behavior control according to the recognition result of the external stimulus and the change in the internal state. Furthermore, by providing a long-term memory function and associatively storing a change in the internal state from an external stimulus, it is possible to perform action control according to the recognition result of the external stimulus and the change in the internal state.

図示の行動制御システム100にはオブジェクト指向プログラミングを採り入れて実装することができる。この場合、各ソフトウェアは、データとそのデータに対する処理手続きとを一体化させた「オブジェクト」というモジュール単位で扱われる。また、各オブジェクトは、メッセージ通信と共有メモリを使ったオブジェクト間通信方法によりデータの受け渡しとInvokeを行なうことができる。   The illustrated behavior control system 100 can adopt and implement object-oriented programming. In this case, each software is handled in units of modules called “objects” in which data and processing procedures for the data are integrated. In addition, each object can perform data transfer and invoke using message communication and an inter-object communication method using a shared memory.

行動制御システム100は、外部環境(Environments)を認識するために、視覚認識機能部101と、聴覚認識機能部102と、接触認識機能部103を備えている。   The behavior control system 100 includes a visual recognition function unit 101, an auditory recognition function unit 102, and a contact recognition function unit 103 in order to recognize an external environment (Environments).

視覚認識機能部(Video)51は、例えば、CCDカメラ15のような画像入力装置を介して入力された撮影画像を基に、顔認識や色認識などの画像認識処理や特徴抽出を行なう。視覚認識機能部51は、後述する“MultiColorTracker”、“FaceDetector”、“FaceIdentify”といった複数のオブジェクトで構成される。   The visual recognition function unit (Video) 51 performs image recognition processing such as face recognition and color recognition and feature extraction based on a photographed image input via an image input device such as the CCD camera 15, for example. The visual recognition function unit 51 includes a plurality of objects such as “MultiColorTracker”, “FaceDetector”, and “FaceIdentify” which will be described later.

聴覚認識機能部(Audio)52は、マイクなどの音声入力装置を介して入力される音声データを音声認識して、特徴抽出したり、単語セット(テキスト)認識を行ったりする。聴覚認識機能部52は、後述する“AudioRecog”や“AuthurDecoder”といった複数のオブジェクトで構成される。   The auditory recognition function unit (Audio) 52 performs voice recognition on voice data input through a voice input device such as a microphone, and performs feature extraction or word set (text) recognition. The auditory recognition function unit 52 includes a plurality of objects such as “AudioRecog” and “AuthorDecoder” described later.

接触認識機能部(Tactile)53は、例えば機体の頭部などに内蔵された接触センサによるセンサ信号を認識して、「なでられた」とか「叩かれた」という外部刺激を認識する。   The contact recognition function unit (Tactile) 53 recognizes an external stimulus such as “struck” or “struck” by recognizing a sensor signal from a contact sensor built in the head of the aircraft, for example.

内部状態管理部(ISM:Internal Status Manager)104は、本能や感情といった数種類の情動を数式モデル化して管理しており、上述の視覚認識機能部101と、聴覚認識機能部102と、接触認識機能部103によって認識された外部刺激(ES:ExternalStimula)に応じてロボット装置1の本能や情動といった内部状態を管理する。   An internal status management unit (ISM: Internal Status Manager) 104 manages several types of emotions such as instinct and emotion by modeling them, and includes the above-described visual recognition function unit 101, auditory recognition function unit 102, and contact recognition function. The internal state such as instinct and emotion of the robot apparatus 1 is managed according to an external stimulus (ES: External Stimula) recognized by the unit 103.

感情モデルと本能モデルは、それぞれ認識結果と行動履歴を入力に持ち、感情値と本能値を管理している。行動モデルは、これら感情値や本能値を参照することができる。   The emotion model and the instinct model have the recognition result and the action history as inputs, respectively, and manage the emotion value and the instinct value. The behavior model can refer to these emotion values and instinct values.

本実施形態では、情動についてその存在意義による複数階層で構成され、それぞれの階層で動作する。決定された複数の動作から、そのときの外部環境や内部状態によってどの動作を行なうかを決定するようになっている(後述)。また、それぞれの階層で行動は選択されるが、より低次の行動から優先的に動作を発現していくことにより、反射などの本能的行動や、記憶を用いた動作選択などの高次の行動を1つの個体上で矛盾なく発現することができる。   In the present embodiment, the emotion is composed of a plurality of hierarchies depending on the significance of existence, and operates in each hierarchy. From a plurality of determined operations, which operation is to be performed is determined according to the external environment and internal state at that time (described later). In addition, actions are selected at each level, but by expressing actions preferentially from lower-order actions, higher-order actions such as instinct actions such as reflexes and action selection using memory Behavior can be expressed consistently on one individual.

本実施形態に係るロボット装置1は、外部刺激の認識結果や内部状態の変化に応じて行動制御を行なうために、時間の経過とともに失われる短期的な記憶を行なう短期記憶部105と、情報を比較的長期間保持するための長期記憶部106を備えている。短期記憶と長期記憶という記憶メカニズムの分類は神経心理学に依拠する。   The robot apparatus 1 according to the present embodiment includes a short-term storage unit 105 that performs short-term storage that is lost over time, and information in order to perform behavior control according to the recognition result of the external stimulus and the change in the internal state. A long-term storage unit 106 for holding for a relatively long time is provided. The classification of memory mechanisms, short-term memory and long-term memory, relies on neuropsychology.

短期記憶部(ShortTermMemory)105は、上述の視覚認識機能部101と、聴覚認識機能部102と、接触認識機能部103によって外部環境から認識されたターゲットやイベントを短期間保持する機能モジュールである。例えば、カメラ15からの入力画像を約15秒程度の短い期間だけ記憶する。   A short-term memory unit (ShortTermMemory) 105 is a functional module that holds targets and events recognized from the external environment by the visual recognition function unit 101, the auditory recognition function unit 102, and the contact recognition function unit 103 for a short period of time. For example, the input image from the camera 15 is stored for a short period of about 15 seconds.

長期記憶部(LongTermMemory)106は、物の名前など学習により得られた情報を長期間保持するために使用される。長期記憶部106は、例えば、ある行動モジュールにおいて外部刺激から内部状態の変化を連想記憶することができる。   A long term memory unit (LongTermMemory) 106 is used to hold information obtained by learning such as the name of an object for a long period of time. For example, the long-term storage unit 106 can associatively store a change in the internal state from an external stimulus in a certain behavior module.

また、本実施形態に係るロボット装置1の行動制御は、反射行動部109によって実現される「反射行動」と、状況依存行動階層108によって実現される「状況依存行動」と、熟考行動階層107によって実現される「熟考行動」に大別される。   Also, the behavior control of the robot apparatus 1 according to the present embodiment is performed by the “reflection behavior” realized by the reflection behavior unit 109, the “situation dependence behavior” realized by the situation-dependent behavior hierarchy 108, and the contemplation behavior hierarchy 107. It can be roughly divided into "contemplation behavior" to be realized.

反射的行動部(ReflexiveSituatedBehaviorsLayer)109は、上述の視覚認識機能部101と、聴覚認識機能部102と、接触認識機能部103によって認識された外部刺激に応じて反射的な機体動作を実現する機能モジュールである。   A reflexive behavior unit (Reflective Situated Behaviors Layer) 109 is a functional module that realizes a reflective body operation in response to an external stimulus recognized by the visual recognition function unit 101, the auditory recognition function unit 102, and the contact recognition function unit 103 described above. It is.

反射行動とは、基本的に、センサ入力そのものをトリガとして行なう反射的な行動のことであり、すなわち、センサ入力された外部情報の認識結果を直接受けて、これを分類して、出力行動を直接決定する。例えば、人間の顔を追いかけたり、うなずいたりといった振る舞いは反射行動として実装することが好ましい。反射行動部109は、状況依存行動階層108に比べ、十分な速さで制御サイクルが実行される。   The reflex behavior is basically a reflex behavior that is triggered by the sensor input itself, that is, it receives the recognition result of the external information input from the sensor directly, classifies it, and outputs the behavior. Decide directly. For example, a behavior such as chasing a human face or nodding is preferably implemented as a reflex behavior. The reflex action unit 109 executes the control cycle at a sufficient speed as compared with the situation-dependent action layer 108.

状況依存行動階層(SituatedBehaviorsLayer)108は、短期記憶部105並びに長期記憶部106の記憶内容や、内部状態管理部104によって管理される内部状態を基に、ロボット装置1が現在置かれている状況に即応した行動を制御する。   The situation-dependent behavior hierarchy (Situated Behaviors Layer) 108 is based on the storage contents of the short-term storage unit 105 and the long-term storage unit 106 and the internal state managed by the internal state management unit 104. Control responsive behavior.

状況依存行動階層108は、行動毎にステートマシンを用意しており、それ以前の行動や状況に依存して、センサ入力された外部情報の認識結果を分類して、行動を機体上で発現する。また、状況依存行動階層108は、内部状態をある範囲に保つための行動(「ホメオスタシス行動」とも呼ぶ)も実現し、内部状態が指定した範囲内を越えた場合には、その内部状態を当該範囲内に戻すための行動が出現し易くなるようにその行動を活性化させる(実際には、内部状態と外部環境の両方を考慮した形で行動が選択される)。状況依存行動は、反射行動に比し、反応時間が遅い。   The situation-dependent action hierarchy 108 prepares a state machine for each action, classifies recognition results of external information input from the sensor, and expresses the action on the aircraft depending on the previous action and situation. . The situation-dependent action hierarchy 108 also realizes an action for keeping the internal state within a certain range (also referred to as “homeostasis action”). When the internal state exceeds the specified range, the internal state is The action is activated so that the action for returning to the range is likely to appear (actually, the action is selected in consideration of both the internal state and the external environment). Situation-dependent behavior has a slower response time than reflex behavior.

熟考行動階層(DeliberativeLayer)107は、短期記憶部105並びに長期記憶部106の記憶内容に基づいて、ロボット装置1の比較的長期にわたる行動計画などを行なう。一般に、ロボット装置が状況に即応した行動に適用すればするほど、全体としては刹那的な行動の集合に陥り易くなってしまう。本実施形態では、その状況に即応した行動を発現できるだけでなく、熟考行動階層107によって、その先の状況を先読み(すなわち推論)して行動の計画を立てるという熟考行動を制御する。熟考行動階層107の詳細については後述に譲る。   A deliberate action hierarchy (Deliberate Layer) 107 performs a relatively long-term action plan of the robot apparatus 1 based on the storage contents of the short-term storage unit 105 and the long-term storage unit 106. In general, the more the robot device is applied to a behavior that responds to the situation, the easier it is to fall into a set of momentary behavior as a whole. In the present embodiment, not only can the behavior immediately responding to the situation be expressed, but the contemplation behavior hierarchy 107 controls the contemplation behavior of pre-reading (ie, inferring) the situation ahead and planning the behavior. Details of the contemplation action hierarchy 107 will be described later.

ここで言う熟考行動とは、与えられた状況あるいは人間からの命令により、推論やそれを実現するための計画を立てて行なわれる行動のことである。例えば、ロボットの位置と目標の位置から経路を探索することは熟考行動に相当する。このような推論や計画は、ロボット装置1がインタラクションを保つための反応時間よりも処理時間や計算負荷を要する(すなわち処理時間がかかる)可能性があるので、上記の反射行動や状況依存行動がリアルタイムで反応を返しながら、熟考行動は推論や計画を行なう。   The pondering action mentioned here is an action that is performed based on a given situation or a command from human beings and making a plan for realizing it. For example, searching for a route from the position of the robot and the position of the target corresponds to a contemplation action. Such an inference or plan may require a processing time or a calculation load (that is, a processing time) rather than a reaction time for the robot apparatus 1 to maintain interaction. While responding in real time, the contemplation action makes inferences and plans.

熟考行動階層107や状況依存行動階層108、反射行動部109は、ロボット装置1のハードウェア構成に非依存の上位のアプリケーション・プログラムとして記述することができる。これに対し、ハードウェア依存層制御部(ConfigurationDependentActionsAndReactions)110は、これら上位アプリケーション(「スキーマ」と呼ばれる行動モジュール)からの命令に応じて、関節アクチュエータの駆動などの機体のハードウェア(外部環境)を直接操作する。   The contemplation behavior layer 107, the situation-dependent behavior layer 108, and the reflex behavior unit 109 can be described as higher-level application programs that are independent of the hardware configuration of the robot apparatus 1. On the other hand, the hardware dependent layer control unit (ConfigurationDependentActionsAndReactions) 110 performs hardware (external environment) such as joint actuator driving in accordance with commands from these higher-level applications (behavior modules called “schema”). Operate directly.

C.ロボット装置の記憶メカニズム
上述したように、本実施形態に係るロボット装置1は、短期記憶部105と長期記憶部106を備えているが、このような記憶メカニズムは、神経心理学に依拠する。
C. As storage mechanism described above of the robot apparatus, the robot apparatus 1 according to this embodiment is provided with the short-term memory unit 105 and the long-term memory unit 106, such storage mechanism relies on neuropsychological.

短期記憶は、字義通り短期的な記憶であり、時間の経過とともに失われる。短期記憶は、例えば、視覚や聴覚、接触など、外部環境から認識されたターゲットやイベントを短期間保持するために使用することができる。   Short-term memory is literally short-term memory and is lost over time. Short-term memory can be used to hold targets and events recognized from the external environment, such as vision, hearing, and touch, for a short period of time.

短期記憶は、さらに、感覚情報(すなわちセンサからの出力)をそのままの信号で1秒程度保持する「感覚記憶」と、感覚記憶をエンコードして限られた容量で短期的に記憶する「直接記憶」と、状況変化や文脈を数時間に渡って記憶する「作業記憶」に分類することができる。直接記憶は、神経心理学的な研究によれば7±2チャンクであると言われている。また、作業記憶は、短期記憶と長期記憶との対比で、「中間記憶」とも呼ばれる。   In short-term memory, “sensory memory” that holds sensory information (that is, output from the sensor) as it is for about 1 second, and “direct memory” that encodes sensory memory and stores it in a short time with a limited capacity. ”And“ working memory ”that memorizes situation changes and contexts over several hours. Direct memory is said to be 7 ± 2 chunks according to neuropsychological studies. The working memory is also referred to as “intermediate memory” in contrast to short-term memory and long-term memory.

また、長期記憶は、物の名前など学習により得られた情報を長期間保持するために使用される。同じパターンを統計的に処理して、ロバストな記憶にすることができる。   Long-term memory is used to hold information obtained by learning such as the name of an object for a long period of time. The same pattern can be statistically processed for robust storage.

長期記憶はさらに「宣言的知識記憶」と「手続的知識記憶」に分類される。宣言的知識記憶は、場面(例えば教えられたときのシーン)に関する記憶である「エピソード記憶」と、言葉の意味や常識といった記憶からなる「意味記憶」からなる。また、手続的知識記憶は、宣言的知識記憶をどのように使うかといった手順記憶であり、入力パターンに対する動作の獲得に用いることができる。   Long-term memory is further classified into “declarative knowledge memory” and “procedural knowledge memory”. The declarative knowledge memory is composed of “episode memory” that is a memory related to a scene (for example, a scene when taught) and “semantic memory” that includes memories such as the meaning and common sense of words. The procedural knowledge memory is a procedural memory such as how to use a declarative knowledge memory, and can be used to acquire an operation for an input pattern.

C−1.短期記憶部
短期記憶部105は、自分の周りに存在する物体、あるいはイベントを表現、記憶し、それに基づいてロボットが行動することを目的とした機能モジュールである。視覚や聴覚などのセンサ情報を基に物体やイベントの位置を自己中心座標系上に配置していくが、視野外の物体などを記憶し、それに対する行動などを生じさせることができる。
C-1. Short-term memory unit The short-term memory unit 105 is a functional module that expresses and stores objects or events that exist around itself, and is intended to allow a robot to act on the basis of it. The position of an object or event is arranged on the self-centered coordinate system based on sensor information such as vision and hearing, but an object outside the field of view can be stored and an action or the like can be generated.

例えば、ある人物Aと会話していて、別の人物Bに声をかられたとき、Aの位置や会話内容を保持しながらBとの会話を行ない、終了後Aとの会話に戻る場合などに短期記憶の機能が必要となる。但し、あまり複雑な処理による統合を行なわずに、時間と空間で近いセンサ情報を同じ物体からの信号とみなすといった時空間の簡単な近さによる統合を行なう。   For example, when talking to a person A and speaking to another person B, holding a position of A and the conversation contents, holding a conversation with B, and returning to a conversation with A after the end A short-term memory function is required. However, integration based on simple proximity in space and time, such as considering sensor information that is close in time and space as signals from the same object, without performing integration through very complicated processing.

また、ステレオ視覚などの技術を用いてパターン認識で判別可能な物体以外の物体の位置を記憶するために、自己中心座標系上に配置する。床面検出とともに利用して、障害物の位置を確率的に記憶するなどに利用することができる。   Moreover, in order to memorize | store the position of objects other than the object which can be discriminate | determined by pattern recognition using techniques, such as stereo vision, it arrange | positions on a self-centered coordinate system. It can be used together with floor surface detection to store the position of an obstacle stochastically.

本実施形態では、短期記憶部105は、上述した視覚認識機能部101、聴覚認識機能部102、接触認識機能部103などの複数の認識器の結果からなる外部刺激を時間的及び空間的に整合性を保つように統合して、外部環境下の各物体に関する知覚を短期間の記憶として状況依存行動階層(SBL)108などの行動制御モジュールに提供する。   In the present embodiment, the short-term storage unit 105 temporally and spatially aligns external stimuli formed by a plurality of recognizers such as the visual recognition function unit 101, the auditory recognition function unit 102, and the contact recognition function unit 103 described above. Integration is performed so as to maintain the sexuality, and a perception regarding each object in the external environment is provided as a short-term memory to a behavior control module such as the situation-dependent behavior hierarchy (SBL) 108.

したがって、上位モジュールとして構成される行動制御モジュール側では、外界からの複数の認識結果を統合して意味を持ったシンボル情報として扱い、高度な行動制御を行なうことができる。また、以前に観測された認識結果との対応問題などより複雑な認識結果を利用して、どの肌色領域が顔でどの人物に対応しているかや、この声がどの人物の声なのかなどを解くことができる。   Therefore, on the side of the behavior control module configured as a higher-level module, a plurality of recognition results from the outside world can be integrated and handled as meaningful symbol information, and advanced behavior control can be performed. Also, by using more complicated recognition results such as correspondence problems with previously observed recognition results, which skin color area corresponds to which person on the face, which person's voice is this voice, etc. Can be solved.

また、認識した観測結果に関する情報を記憶として短期記憶部55が保持しているので、自律行動する期間中に一時的に観測結果が来なかったりした場合であっても、機体の行動制御を行なうアプリケーションなどの上位モジュールからは常にそこに物体が知覚されているように見えるようにすることができる。例えば、センサの視野外の情報もすぐに忘れることなく保持しているので、ロボットが物体を一旦見失ったとしても、また後で探し出すことができる。この結果、認識器の間違いやセンサのノイズに強くなり、認識器の通知のタイミングに依存しない安定したシステムを実現することができる。また、認識器単体から見て情報が足りなくても、他の認識結果で補うことができる場合があるので、システム全体としての認識性能が向上する。   In addition, since the short-term storage unit 55 holds information about the recognized observation result as a memory, even if the observation result does not come temporarily during the autonomous action period, the aircraft's behavior control is performed. An upper module such as an application can always make an object appear to be perceived there. For example, information outside the field of view of the sensor is stored without forgetting, so that even if the robot loses sight of an object, it can be searched again later. As a result, it is possible to realize a stable system that is resistant to the error of the recognizer and the noise of the sensor and does not depend on the notification timing of the recognizer. In addition, even if there is not enough information when viewed from a single recognizer, it may be supplemented with other recognition results, so that the recognition performance of the entire system is improved.

また、関連する認識結果が結び付けられているので、アプリケーションなどの上位モジュールで関連する情報を使って行動判断することが可能である。例えば、ロボット装置は、呼び掛けられた声を基に、その人物の名前を引き出すことができる。この結果、挨拶の応答に「こんにちは、XXXさん。」のように答えるなどのリアクションが可能である。   In addition, since related recognition results are linked, it is possible to make a behavior determination using related information in an upper module such as an application. For example, the robot apparatus can extract the name of the person based on the called voice. As a result, it is possible to notes, such as answer such as "Hello, XXX-san." The response of the greeting.

図4には、図3に示した行動制御システム100における外部刺激に応じた状況依存行動制御のメカニズムを図解している。外部刺激は、認識系の機能モジュール101〜103によってシステムに取り込まれるとともに、短期記憶部(STM)105を介して状況依存行動階層(SBL)108に与えられる。図示の通り、認識系の各機能モジュール101〜103や、短期記憶部(STM)105、状況依存行動階層(SBL)108はオブジェクトとして構成されている。   FIG. 4 illustrates a mechanism of situation-dependent behavior control according to an external stimulus in the behavior control system 100 shown in FIG. The external stimulus is taken into the system by the function modules 101 to 103 of the recognition system and is given to the situation-dependent action hierarchy (SBL) 108 via the short-term memory unit (STM) 105. As illustrated, each function module 101 to 103 of the recognition system, the short-term storage unit (STM) 105, and the situation-dependent action hierarchy (SBL) 108 are configured as objects.

同図において、丸で表されているのが、「オブジェクト」又は「プロセス」と呼ばれるエンティティである。オブジェクト同士が非同期に通信し合うことで、システム全体が動作する。各オブジェクトはメッセージ通信と共有メモリを使ったオブジェクト間通信方法によりデータの受け渡しとInvokeを行なっている。以下に、各オブジェクトの機能について説明する。   In the figure, entities represented by circles are entities called “objects” or “processes”. The entire system operates as objects communicate asynchronously. Each object exchanges data and invokes using message communication and an inter-object communication method using a shared memory. The function of each object will be described below.

AudioRecog:
マイクなどの音声入力装置からの音声データを受け取って、特徴抽出と音声区間検出を行なうオブジェクトである。また、マイクがステレオである場合には、水平方向の音源方向推定を行なうことができる。音声区間であると判断されると、その区間の音声データの特徴量及び音源方向がArtherDecoder(後述)に送られる。
AudioRecog:
An object that receives voice data from a voice input device such as a microphone and performs feature extraction and voice section detection. Further, when the microphone is a stereo, the sound source direction in the horizontal direction can be estimated. If it is determined that it is a voice section, the feature amount and sound source direction of the voice data in that section are sent to ArterDecoder (described later).

SpeechRecog:
AudioRecogから受け取った音声特徴量と音声辞書及び構文辞書を使って音声認識を行なうオブジェクトである。認識された単語のセットは短期記憶部(ShortTermMemory)105に送られる。
SpeechRecog:
This is an object that performs speech recognition using the speech feature amount, the speech dictionary, and the syntax dictionary received from AudioRecog. The set of recognized words is sent to a short term memory (ShortTerm Memory) 105.

MultiColorTracker:
色認識を行なうオブジェクトであり、カメラなどの画像入力装置から画像データを受け取り、あらかじめ持っている複数のカラー・モデルに基づいて色領域を抽出し、連続した領域に分割する。分割された各領域の位置や大きさ、特徴量などの情報を出力して、短期記憶部(ShortTermMemory)105へ送る。
MultiColorTracker:
An object that performs color recognition, receives image data from an image input device such as a camera, extracts color areas based on a plurality of color models that are held in advance, and divides them into continuous areas. Information such as the position, size, and feature amount of each divided area is output and sent to the short-term storage unit (short term memory) 105.

FaceDetector:
画像フレーム中から顔領域を検出するオブジェクトであり、カメラなどの画像入力装置から画像データを受け取り、それを9段階のスケール画像に縮小変換する。このすべての画像の中から顔に相当する矩形領域を探索する。重なりあった候補領域を削減して最終的に顔と判断された領域に関する位置や大きさ、特徴量などの情報を出力して、FaceIdentify(後述)へ送る。
FaceDetector:
An object that detects a face area from an image frame, receives image data from an image input device such as a camera, and reduces and converts it into a nine-stage scale image. A rectangular area corresponding to the face is searched from all the images. The overlapped candidate areas are reduced, and information such as the position, size, and feature amount related to the area finally determined as a face is output and sent to FaceIdentify (described later).

FaceIdentify:
検出された顔画像を識別するオブジェクトであり、顔の領域を示す矩形領域画像をFaceDetectorから受け取り、この顔画像が手持ちの人物辞書のうちでどの人物に相当するかを比較して人物の識別を行なう。この場合、顔検出から顔画像を受け取り、顔画像領域の位置、大きさ情報とともに人物のID情報を出力する。
FaceIdentify:
An object for identifying a detected face image, a rectangular area image indicating a face area is received from FaceDetector, and a person is identified by comparing to which person in the person dictionary this face image corresponds. Do. In this case, the face image is received from the face detection, and the ID information of the person is output together with the position and size information of the face image area.

ShortTermMemory(短期記憶部):
ロボット1の外部環境に関する情報を比較的短い時間だけ保持するオブジェクトであり、SpeechRecogから音声認識結果(単語、音源方向、確信度)を受け取り、MultiColorTrackerから肌色の領域の位置、大きさと顔領域の位置、大きさを受け取り、FaceIdentifyから人物のID情報等を受け取る。また、ロボット1の機体上の各センサからロボットの首の方向(関節角)を受け取る。そして、これらの認識結果やセンサ出力を統合的に使って、現在どこにどの人物がいて、しゃべった言葉がどの人物のものであり、その人物とはこれまでにどんな対話を行なったのかという情報を保存する。こうした物体すなわちターゲットに関する物理情報と時間方向でみたイベント(履歴)を出力として、状況依存行動階層(SBL)などの上位モジュールに渡す。
ShortTermMemory (short term memory):
An object that holds information about the external environment of the robot 1 for a relatively short time, receives a speech recognition result (word, sound source direction, certainty factor) from the SpeechRecog, and receives the position, size, and face region position of the skin color region from the MultiColorTracker , Receiving the size and receiving the ID information of the person from FaceIdentify. Further, the direction (joint angle) of the robot's neck is received from each sensor on the body of the robot 1. Then, using these recognition results and sensor output in an integrated manner, it is possible to obtain information about where the person is currently, who the spoken word belongs to, and what kind of dialogue the person has spoken so far. save. The physical information related to such an object, that is, the target and the event (history) seen in the time direction are output to an upper module such as a situation-dependent action hierarchy (SBL).

SituatedBehaviorLayer(状況依存行動階層):
上述のShortTermMemory(短期記憶部)からの情報を基にロボット1の行動(状況に依存した行動)を決定するオブジェクトである。複数の行動を同時に評価したり、実行したりすることができる。また、行動を切り替えて機体をスリープ状態にしておき、別の行動を起動することができる。
Situated Behavior layer (situation-dependent behavior hierarchy):
This is an object that determines the behavior of the robot 1 (the behavior depending on the situation) based on the information from the above-mentioned ShortTerm Memory (short-term memory). Multiple actions can be evaluated and executed at the same time. In addition, the action can be switched to put the aircraft in the sleep state and another action can be activated.

ResourceManager:
出力用のコマンドに対してロボット1の各ハードウェアのリソース調停を行なうオブジェクトである。図4に示す例では、音声出力用のスピーカをコントロールするオブジェクトと首のモーション・コントロールするオブジェクトのリソース調停を行なう。また、本実施形態では、ResourceManagerは、ReflexiveSituatedBehaviorLayer(反射行動階層)とSituatedBehaviorLayer(状況依存行動階層)がそれぞれ発現する動作コマンドの調停を行なうが、この点については後に詳解する。
ResourceManager:
It is an object that performs resource arbitration of each hardware of the robot 1 in response to an output command. In the example shown in FIG. 4, resource arbitration is performed between an object that controls a speaker for audio output and an object that controls the motion of the neck. In this embodiment, the ResourceManager arbitrates operation commands that are expressed by the Reflexive Situated Behavior Layer (reflex action layer) and the Situated Behavior Layer (situation behavior layer), which will be described in detail later.

SoundPerformerTTS:
音声出力を行なうためのオブジェクトであり、ResourceManager経由でSituatedBehaviorLayerから与えられたテキスト・コマンドに応じて音声合成を行ない、ロボット1の機体上のスピーカから音声出力を行なう。
SoundPerformer TTS:
It is an object for performing voice output, performs voice synthesis in accordance with a text command given from the Situated BehaviorLayer via ResourceManager, and outputs voice from the speaker on the body of the robot 1.

HeadMotionGenerator:
ResourceManager経由でSituatedBehaviorLayerから首を動かすコマンドを受けたことに応答して、首の関節角を計算するオブジェクトである。「追跡」のコマンドを受けたときには、ShortTermMemoryから受け取った物体の位置情報を基に、その物体が存在する方向を向く首の関節角を計算して出力する。
HeadMotionGenerator:
This is an object that calculates the joint angle of the neck in response to receiving a command for moving the neck from the Situated Behavior Layer via the ResourceManager. When a “track” command is received, based on the position information of the object received from the ShortTermMemory, the joint angle of the neck facing the direction in which the object exists is calculated and output.

短期記憶部105は、ターゲット・メモリとイベント・メモリという2種類のメモリ・オブジェクトで構成される。   The short-term storage unit 105 includes two types of memory objects, a target memory and an event memory.

ターゲット・メモリは、各認識機能部101〜103からの情報を統合して、現在知覚している物体に関する情報すなわちターゲットを保持している。このため、対象物体がいなくなったり現れたりすることで、該当するターゲットを記憶領域から削除したり(GarbageCollector)、新たに生成したりする。また、1つのターゲットを複数の認識属性で表現することができる(TargetAssociate)。例えば、肌色で顔のパターンで声を発する物体(人間の顔)などである。   The target memory integrates information from each of the recognition function units 101 to 103, and holds information relating to the currently perceived object, that is, a target. For this reason, when the target object disappears or appears, the target is deleted from the storage area (GarbageCollector) or newly generated. One target can be expressed by a plurality of recognition attributes (Target Associate). For example, an object (human face) that emits a voice with a skin color and facial pattern.

ターゲット・メモリで保持される物体(ターゲット)の位置や姿勢情報は、それぞれの認識機能部51〜53において使用されるセンサ座標系ではなく、ロボット1の体幹などの機体上の特定の部位が所定の場所に固定されたワールド座標系で表現を行なうようにしている。このため、短期記憶部(STM)105では、ロボット1の各関節の現在値(センサ出力)を常に監視して、センサ座標系からこの固定座標系への変換を行なう。これにより、各認識機能部101〜103の情報を統合することが可能になる。例えば、ロボット100が首などを動かしてセンサの姿勢が変化しても、状況依存行動階層(SBL)などの行動制御モジュールから見た物体の位置は同じままであるので、ターゲットの取り扱いが容易になる。   The position and orientation information of the object (target) held in the target memory is not a sensor coordinate system used in each of the recognition function units 51 to 53, but a specific part on the body such as the trunk of the robot 1 Expression is performed in a world coordinate system fixed at a predetermined place. For this reason, the short-term memory unit (STM) 105 constantly monitors the current values (sensor outputs) of the joints of the robot 1 and performs conversion from the sensor coordinate system to the fixed coordinate system. Thereby, it becomes possible to integrate the information of each recognition function part 101-103. For example, even when the robot 100 moves its neck or the like and the posture of the sensor changes, the position of the object viewed from the behavior control module such as the situation-dependent behavior hierarchy (SBL) remains the same, so that the target can be handled easily. Become.

また、イベント・メモリは、外部環境下で発生した過去から現在までのイベントを時系列的に格納するオブジェクトである。イベント・メモリにおいて扱われるイベントとして、ターゲットの出現と消失、音声認識単語、自己の行動や姿勢の変化などの外界の状況の変化に関する情報を挙げることができる。   The event memory is an object that stores events from the past to the present that occurred in the external environment in time series. Examples of events handled in the event memory include information on changes in the external environment such as the appearance and disappearance of targets, speech recognition words, and changes in self behavior and posture.

イベントの中には、あるターゲットに関する状態変化が含まれている。このため、イベント情報として該当するターゲットのIDを含めることで、発生したイベントに関するより詳しい情報を、上述のターゲット・メモリから検索することも可能である。   Some events include state changes related to a target. For this reason, by including the ID of the corresponding target as the event information, it is possible to retrieve more detailed information regarding the generated event from the above-described target memory.

図5及び図6には、各認識機能部101〜103における認識結果に基づいて、短期記憶部105内のターゲット・メモリ及びイベント・メモリに入る情報の流れをそれぞれ示している。   5 and 6 show the flow of information entering the target memory and event memory in the short-term storage unit 105 based on the recognition results in the respective recognition function units 101 to 103, respectively.

図5に示すように、短期記憶部105(STMオブジェクト)内には、外部環境からターゲットを検出するターゲット検出器が設けられている。このターゲット検出器は、声認識結果や顔認識結果、色認識結果などの各認識機能部101〜103による認識結果を基に、新規ターゲットを追加したり、既存のターゲットを認識結果に反映するように更新したりする。検出されたターゲットは、ターゲット・メモリ内に保持される。   As shown in FIG. 5, a target detector for detecting a target from the external environment is provided in the short-term storage unit 105 (STM object). The target detector adds a new target or reflects an existing target in the recognition result based on the recognition result by each of the recognition function units 101 to 103 such as a voice recognition result, a face recognition result, and a color recognition result. Or update to The detected target is held in the target memory.

また、ターゲット・メモリには、もはや観測されなくなったターゲットを探して消去するガーベッジ・コレクタ(GarbageCollector)や、複数のターゲットの関連性を判別して同じターゲットに結び付けるターゲット・アソシエート(TargetAssociate)などの機能がある。ガーベッジ・コレクタは、時間の経過に従ってターゲットの確信度をデクリメントしていき、確信度が所定値を下回ったターゲットを削除(delete)することで実現される。また、ターゲット・アソシエートは、同じ属性(認識タイプ)の特徴量が近いターゲット間で空間的・時間的な近さを持つことで、同じターゲットを同定することができる。   In the target memory, functions such as a garbage collector (GarbageCollector) for searching for and erasing a target that is no longer observed, and a target associate (TargetAssociate) for determining the relevance of a plurality of targets and connecting them to the same target There is. The garbage collector is realized by decrementing the certainty of the target as time passes and deleting a target whose certainty falls below a predetermined value. Further, the target associate can identify the same target by having spatial and temporal closeness between the targets having the same feature (recognition type) feature amount.

前述した状況依存型行動階層(SBL)は、短期記憶部105のクライアント(STMクライアント)となるオブジェクトであり、ターゲット・メモリからは定期的に各ターゲットに関する情報の通知(Notify)を受け取る。本実施形態では、STMプロキシ・クラスが、短期記憶部105(STMオブジェクト)とは独立したクライアント・ローカルな作業領域にターゲットをコピーして、常に最新の情報を保持しておく。そして、ローカルなターゲット・リスト(Target of Interest)の中から所望のターゲットを外部刺激として読み出して、スキーマ(schema)すなわち行動モジュールを決定する(後述)。   The situation-dependent action hierarchy (SBL) described above is an object that becomes a client (STM client) of the short-term storage unit 105, and periodically receives notification (Notify) of information on each target from the target memory. In this embodiment, the STM proxy class copies the target to a client-local work area independent of the short-term storage unit 105 (STM object), and always holds the latest information. Then, a desired target is read out as an external stimulus from the local target list (Target of Interest), and a schema, that is, an action module is determined (described later).

また、図6に示すように、短期記憶部105(STMオブジェクト)内には、外部環境において発生するイベントを検出するイベント検出器が設けられている。このイベント検出器は、ターゲット検出器によるターゲットの生成や、ガーベッジ・コレクタによるターゲットの削除をイベントとして検出する。また、認識機能部101〜103による認識結果が音声認識である場合には、その発話内容がイベントになる。発生したイベントは、発生した時間順にイベント・メモリ内でイベント・リストとして格納される。   Further, as shown in FIG. 6, an event detector that detects an event that occurs in the external environment is provided in the short-term storage unit 105 (STM object). This event detector detects the generation of a target by the target detector and the deletion of the target by the garbage collector as events. Further, when the recognition result by the recognition function units 101 to 103 is voice recognition, the utterance content becomes an event. The events that have occurred are stored as an event list in the event memory in the order in which they occurred.

状況依存型行動階層(SBL)は、短期記憶部105のクライアント(STMクライアント)となるオブジェクトであり、イベント・メモリからは時々刻々とイベントの通知(Notify)を受け取る。本実施形態では、STMプロキシ・クラスが、短期記憶部105(STMオブジェクト)とは独立したクライアント・ローカルな作業領域にイベント・リストをコピーしておく。そして、ローカルなイベント・リストの中から所望のイベントを外部刺激として読み出して、スキーマ(schema)すなわち行動モジュールを決定する(後述)。実行された行動モジュールは新たなイベントとしてイベント検出器により検出される。また、古いイベントは、例えばFIFO(Fast In Fast Out)形式でイベント・リストから逐次的に廃棄される。   The context-dependent action hierarchy (SBL) is an object that becomes a client (STM client) of the short-term storage unit 105, and receives event notification (Notify) from the event memory. In this embodiment, the STM proxy class copies the event list to a client-local work area independent of the short-term storage unit 105 (STM object). Then, a desired event is read from the local event list as an external stimulus, and a schema, that is, a behavior module is determined (described later). The executed behavior module is detected as a new event by the event detector. Further, old events are sequentially discarded from the event list in, for example, a FIFO (Fast In Fast Out) format.

本実施形態に係る短期記憶メカニズムによれば、ロボット1は、外部刺激に関する複数の認識器の結果を時間的及び空間的に整合性を保つように統合して、意味を持ったシンボル情報として扱うようになっている。これによって、以前に観測された認識結果との対応問題などより複雑な認識結果を利用して、どの肌色領域が顔でどの人物に対応しているかや、この声がどの人物の声なのかなどを解くことを可能にしている。   According to the short-term memory mechanism according to this embodiment, the robot 1 integrates the results of a plurality of recognizers related to external stimuli so as to maintain temporal and spatial consistency, and handles them as meaningful symbol information. It is like that. This makes it possible to use more complex recognition results such as correspondence problems with previously observed recognition results, which skin color area corresponds to which person on the face, and which person's voice this voice is, etc. It is possible to solve.

以下では、図7〜図9を参照しながら、ロボット1によるユーザA及びBとの対話処理について説明する。   Hereinafter, the dialogue processing with the users A and B by the robot 1 will be described with reference to FIGS.

まず、図7に示すように、ユーザAが「まさひろ(ロボットの名前)くん!」と呼ぶと、各認識機能部51〜53により音方向検出、音声認識、及び顔識別が行なわれ、呼ばれた方向を向いて、ユーザAの顔をトラッキングしたり、ユーザAとの対話を開始するという状況依存の行動が行なわれる。   First, as shown in FIG. 7, when the user A calls “Masahiro (robot name) -kun!”, The recognition function units 51 to 53 perform sound direction detection, voice recognition, and face identification. A situation-dependent action is performed such as tracking the face of the user A or starting a dialogue with the user A.

次いで、図8に示すように、今度はユーザBが「まさひろ(ロボットの名前)くん!」と呼ぶと、各認識機能部101〜103により音方向検出、音声認識、及び顔識別が行なわれ、ユーザAとの対話を中断した後(但し、会話のコンテキストを保存する)、呼ばれた方向を向いて、ユーザBの顔をトラッキングしたり、ユーザBとの対話を開始したりするという状況依存の行動が行なわれる。これは、状況依存行動階層108が持つPreemption機能(後述)である。   Next, as shown in FIG. 8, when the user B calls “Masahiro (robot name) -kun!”, Sound direction detection, voice recognition, and face identification are performed by the respective recognition function units 101 to 103. Depends on the situation in which the conversation with the user A is interrupted (however, the context of the conversation is preserved), the face of the user B is tracked in the called direction, and the conversation with the user B is started. The action is performed. This is a preemption function (described later) of the situation-dependent action hierarchy 108.

次いで、図9に示すように、ユーザAが「おーい!」と叫んで、会話の継続を催促すると、今度は、ユーザBとの対話を中断した後(但し、会話のコンテキストを保存する)、呼ばれた方向を向いて、ユーザAの顔をトラッキングしたり、保存されているコンテキストに基づいてユーザAとの対話を再開するという状況依存の行動が行なわれる。このとき、状況依存行動階層108が持つReentrant機能(後述)により、ユーザAとの対話によってユーザBとの対話内容が破壊されずに済み、中断した時点から正確に対話を再開することができる。   Next, as shown in FIG. 9, when the user A yells “Oh!” And urges the continuation of the conversation, the conversation with the user B is interrupted (however, the context of the conversation is saved). A situation-dependent action is performed in which the face of the user A is tracked in the called direction or the dialogue with the user A is resumed based on the stored context. At this time, the Reentrant function (described later) of the situation-dependent action hierarchy 108 does not destroy the content of the dialogue with the user B due to the dialogue with the user A, and the dialogue can be accurately restarted from the point of interruption.

C−2.長期記憶部
長期記憶は、物の名前など学習により得られた情報を長期間保持するために使用される。同じパターンを統計的に処理して、ロバストな記憶にすることができる。
C-2. Long-term memory section Long-term memory is used to hold information obtained by learning such as the name of an object for a long period of time. The same pattern can be statistically processed for robust storage.

長期記憶はさらに「宣言的知識記憶」と「手続的知識記憶」に分類される。宣言的知識記憶は、場面(例えば教えられたときのシーン)に関する記憶である「エピソード記憶」と、言葉の意味や常識といった記憶からなる「意味記憶」からなる。また、手続的知識記憶は、宣言的知識記憶をどのように使うかといった手順記憶であり、入力パターンに対する動作の獲得に用いることができる。   Long-term memory is further classified into “declarative knowledge memory” and “procedural knowledge memory”. The declarative knowledge memory is composed of “episode memory” that is a memory related to a scene (for example, a scene when taught) and “semantic memory” that includes memories such as the meaning and common sense of words. The procedural knowledge memory is a procedural memory such as how to use a declarative knowledge memory, and can be used to acquire an operation for an input pattern.

エピソード記憶は、長期記憶の中でも、宣言的知識記憶(言明記憶とも言う)の一種である。例えば、自転車に乗ることを考えると、初めて自転車に乗った場面(時間・場所など)を覚えていることがエピソード記憶に相当する。その後、時間の経過によりそのエピソードに関する記憶が薄れる一方、その意味を記憶するのが意味記憶である。また、自転車の乗り方の手順を記憶するようになるが、これが手続的知識記憶に相当する。一般的に、手続的知識の記憶には時間を要する。宣言的知識記憶によって「言う」ことができるのに対して、手続的知識記憶は潜在的であり、動作の実行という形で表れる。   Episodic memory is a kind of declarative knowledge memory (also called statement memory) among long-term memories. For example, when considering riding a bicycle, remembering a scene (time, place, etc.) of riding a bicycle for the first time corresponds to episode memory. Thereafter, the memory about the episode fades with the passage of time, while the meaning memory stores the meaning. In addition, a procedure for riding a bicycle is stored, which corresponds to procedural knowledge storage. In general, it takes time to memorize procedural knowledge. Procedural knowledge memory is latent, while it can be “sayed” by declarative knowledge memory, and appears in the form of performing actions.

本実施形態に係る長期記憶部106は、視覚情報、聴覚情報などの物体に関するセンサ情報、及びその物体に対して行なった行動に対する結果としての内部状態が変化した結果などを記憶する連想記憶と、その1つの物体に関するフレーム記憶と、周囲の情景から構築されるマップ情報、あるいはデータとして与えられる地図情報、原因となる状況とそれに対する行動とその結果といったルールで構成される。   The long-term storage unit 106 according to the present embodiment stores associative memory that stores sensor information related to objects such as visual information and auditory information, and results of changes in internal state as a result of actions performed on the objects, It consists of a frame storage related to the one object, map information constructed from surrounding scenes, or map information given as data, a causal situation, an action for the situation, and a result thereof.

C−2−1.連想記憶
連想記憶とは、あらかじめ複数のシンボルからなる入力パターンを記憶パターンとして記憶しておき、その中のある1つのパターンに類似したパターンが想起される仕組みのことを言う。本実施形態に係る連想記憶は、競合型ニューラル・ネットワークを用いたモデルにより実現される。このような連想記憶メカニズムによれば、一部欠陥のあるパターンが入力されたとき、記憶されている複数のパターンの中で最も近い記憶パターンを出力することができる。これは、不完全なデータからなる外部刺激しか与えられなかったときであっても、該当するニューロンの発火によりあるオブジェクトの意味などを想起することができるからである。
C-2-1. Associative memory Associative memory refers to a mechanism in which an input pattern consisting of a plurality of symbols is stored in advance as a memory pattern, and a pattern similar to one of the patterns is recalled. The associative memory according to the present embodiment is realized by a model using a competitive neural network. According to such an associative memory mechanism, when a pattern having a partial defect is input, the closest stored pattern among a plurality of stored patterns can be output. This is because even when an external stimulus consisting of incomplete data is given, the meaning of an object can be recalled by the firing of the corresponding neuron.

連想記憶は、「自己想起型連想記憶」と「相互想起型連想記憶」に大別される。自己想起型とは記憶したパターンを直接キー・パターンで引き出すモデルであり、また、相互想起型とは入力パターンと出力パターンがある種の連合関係で結ばれているモデルである。本実施形態では、自己想起型連想記憶を採用するが、これは、従来のホップフィールドやアソシアトロンなどの記憶モデルに比し、追加学習が容易である、入力パターンの統計的な記憶が可能である、などのメリットがある。   Associative memory is broadly divided into “self-associative associative memory” and “mutual associative associative memory”. The self-recollection type is a model in which a stored pattern is directly extracted by a key pattern, and the mutual recollection type is a model in which an input pattern and an output pattern are connected by a certain association relationship. In the present embodiment, self-associative associative memory is adopted, but this is capable of statistical storage of input patterns, which is easier to learn than conventional memory models such as Hopfield and Associatron. There are merits such as.

追加学習によれば、新しいパターンを新たに記憶しても、過去の記憶が上書きされて消されることはない。また、統計的な学習によれば、同じものを多く見ればそれだけ記憶に残るし、また同じことを繰り返し実行すれば、忘れにくくなる。この場合、記憶過程において、毎回完全なパターンが入力されなくとも、繰り返し実行により、多く提示されたパターンに収束していく。   According to the additional learning, even if a new pattern is newly stored, the past storage is not overwritten and erased. Also, according to statistical learning, if you see many of the same thing, it will remain in memory, and if you repeat the same thing, it will be hard to forget. In this case, even if a complete pattern is not input every time in the storing process, it is converged to a pattern that is often presented by repeated execution.

C−2−2.連想記憶による意味記憶
ロボット装置1が覚えるパターンは、例えばロボット装置1への外部刺激と内部状態の組み合わせで構成される。
C-2-2. The pattern memorized by the semantic memory robot device 1 by associative memory is composed of, for example, a combination of an external stimulus to the robot device 1 and an internal state.

ここで、外的刺激とは、ロボット装置1がセンサ入力を認識して得られた知覚情報であり、例えば、カメラ15から入力された画像に対して処理された色情報、形情報、顔情報などであり、より具体的には、色、形、顔、3D一般物体、ハンドジェスチャー、動き、音声、接触、匂い、味などの構成要素からなる。
る。
Here, the external stimulus is perceptual information obtained by the robot apparatus 1 recognizing sensor input. For example, color information, shape information, and face information processed for an image input from the camera 15. More specifically, it is composed of components such as color, shape, face, 3D general object, hand gesture, movement, voice, contact, smell, and taste.
The

また、内的状態とは、例えば、ロボットの身体に基づいた本能や感情などの情動を指す。本能的要素は、例えば、疲れ(fatigue)、熱あるいは体内温度(temperature)、痛み(pain)、食欲あるいは飢え(hunger)、乾き(thirst)、愛情(affection)、好奇心(curiosity)、排泄(elimination)又は性欲(sexual)のうちの少なくとも1つである。また、情動的要素は、幸せ(happiness)、悲しみ(sadness)、怒り(anger)、驚き(surprise)、嫌悪(disgust)、恐れ(fear)、苛立ち(frustration)、退屈(boredom)、睡眠(somnolence)、社交性(gregariousness)、根気(patience)、緊張(tense)、リラックス(relaxed)、警戒(alertness)、罪(guilt)、悪意(spite)、誠実さ(loyalty)、服従性(submission)又は嫉妬(jealousy)のうちの少なくとも1つである。   The internal state refers to emotions such as instinct and emotion based on the robot body. Instinct factors include, for example, fatigue, heat or body temperature, pain, appetite or hunger, dryness, affection, curiosity, excretion ( at least one of elimination or sexual desire. Also, emotional elements are happiness, sadness, anger, surprise, disgust, fear, frustration, boredom, sleepiness. ), Sociality, patience, tense, relaxed, alertness, guilt, spite, honesty, submission or At least one of the heels.

本実施形態に係る競合型ニューラル・ネットワークを適用した連想記憶メカニズムでは、これら外部刺激や内部状態を構成する各要素に対して入力チャンネルを割り当てている。また、視覚認識機能部101や聴覚認識機能部102などの各知覚機能モジュールは、センサ出力となる生の信号を送るのではなく、センサ出力を認識した結果をシンボル化して、シンボルに相当するID情報(例えば、色プロトタイプID、形プロトタイプID、音声プロトタイプIDなど)を該当するチャンネルに送るようになっている。   In the associative memory mechanism to which the competitive neural network according to this embodiment is applied, an input channel is assigned to each element constituting these external stimuli and internal states. In addition, each perceptual function module such as the visual recognition function unit 101 and the auditory recognition function unit 102 does not send a raw signal as a sensor output, but converts the result of recognizing the sensor output into a symbol, and an ID corresponding to the symbol Information (for example, color prototype ID, shape prototype ID, voice prototype ID, etc.) is sent to the corresponding channel.

例えば、カラー・セグメンテーション・モジュールによりセグメンテーションされた各オブジェクトは、色プロトタイプIDを付加されて連想記憶システムに入力される。また、顔認識モジュールにより認識された顔のIDが連想記憶システムに入力される。また、物体認識モジュールにより認識された物体のIDが連想システムに入力される。また、音声認識モジュールからは、ユーザの発話により単語のプロトタイプIDが入力される。このとき、発話の音素記号列(Phoneme Sequence)も入力されるので、記憶・連想の処理で、ロボット装置1に発話させることが可能となる。また、本能に関しては、アナログ値を扱えるようになっており(後述)、例えば、本能のデルタ値を80で記憶しておけば、連想により80というアナログ値を得ることが可能である。   For example, each object segmented by the color segmentation module is added to the associative memory system with a color prototype ID. Further, the face ID recognized by the face recognition module is input to the associative memory system. The ID of the object recognized by the object recognition module is input to the associative system. Also, a prototype ID of a word is input from the speech recognition module by the user's utterance. At this time, since a phoneme symbol string of an utterance is also input, it is possible to cause the robot apparatus 1 to utter by a process of storage / association. As for the instinct, an analog value can be handled (described later). For example, if the instinct delta value is stored as 80, an analog value of 80 can be obtained by association.

したがって、本実施形態に係る連想記憶システムは、色、形、音声…などの外部刺激や内部状態を、各チャンネル毎のシンボル化されたIDの組み合わせからなる入力パターンとして記憶することができる。すなわち、連想記憶システムが記憶するのは、   Therefore, the associative memory system according to the present embodiment can store external stimuli such as color, shape, voice, and so on and an internal state as an input pattern composed of a combination of symbolized IDs for each channel. In other words, the associative memory system stores

[色ID 形ID 顔ID 音声ID…本能ID(値) 情動 ID]     [Color ID Shape ID Face ID Voice ID ... Instinct ID (Value) Emotion ID]

の組み合わせである。 It is a combination.

連想記憶には、記憶過程と想起過程がある。図10には、連想記憶の記憶過程の概念を示している。   Associative memory has a memory process and a recall process. FIG. 10 shows the concept of the storage process of associative memory.

連想記憶システムに入力される記憶パターンは、外部刺激や内部状態の各要素毎に割り当てられている複数のチャンネルで構成される(図示の例では入力1〜入力8の8チャンネルからなる)。そして、各チャンネルには、対応する外部刺激の認識結果や内部状態をシンボル化したID情報が送られてくる。図示の例では、各チャンネルの濃淡がID情報を表しているものとする。例えば、記憶パターン中のk番目のカラムが顔のチャンネルに割り当てられている場合、その色により顔のプロトタイプIDを表している。   A memory pattern input to the associative memory system is composed of a plurality of channels assigned to each element of the external stimulus and the internal state (in the illustrated example, it consists of 8 channels of input 1 to input 8). Each channel receives ID information obtained by symbolizing the recognition result of the corresponding external stimulus and the internal state. In the example shown in the figure, the shading of each channel represents ID information. For example, when the kth column in the storage pattern is assigned to the face channel, the face prototype ID is represented by the color.

図10に示す例では、連想記憶システムは既に1〜nの合計n個の記憶パターンを記憶しているものとする。ここで、2つの記憶パターン間での対応するチャンネルの色の相違は、同じチャンネル上で記憶している外部刺激又は内部状態のシンボルすなわちIDが当該記憶パターン間で異なることを意味する。   In the example shown in FIG. 10, it is assumed that the associative memory system has already stored a total of n storage patterns 1 to n. Here, the difference in the color of the corresponding channel between the two storage patterns means that the external stimulus or the internal state symbol or ID stored on the same channel is different between the storage patterns.

また、図11には、連想記憶の想起過程の概念を示している。上述したように、記憶過程で蓄えた入力パターンに似たパターンが入力されると、欠落していた情報を補うように完全な記憶パターンが出力される。   FIG. 11 shows the concept of the associative memory recall process. As described above, when a pattern similar to the input pattern stored in the storage process is input, a complete storage pattern is output so as to compensate for the missing information.

図11に示す例では、8チャンネルからなる記憶パターンのうち上位の3チャンネルしかIDが与えられていないパターンがキー・パターンとして入力される。このような場合、連想記憶システムでは、既に貯えられている記憶パターンの中で、これら上位の3チャンネルが最も近いパターン(図示の例では記憶パターン1)を見つけ出して、想起されたパターンとして出力することができる。すなわち、欠落していたチャンネル4〜8の情報を補うように、最も近い記憶パターンが出力される。   In the example shown in FIG. 11, a pattern in which IDs are given only to the upper three channels among the storage patterns of eight channels is input as a key pattern. In such a case, the associative memory system finds a pattern (stored pattern 1 in the illustrated example) that is closest to these upper three channels among the stored patterns, and outputs the pattern as a recalled pattern. be able to. That is, the closest stored pattern is output so as to compensate for the information of the missing channels 4 to 8.

したがって、連想記憶システムによれば、顔のIDのみから音声ID、つまり名前を連想したり、食べ物の名前だけから、“おいしい”や“おいしくない”などを想起したりすることができる。競合型ニューラル・ネットワークによる長期記憶アーキテクチャによれば、言葉の意味や常識などに関する意味記憶を、他の長期記憶と同じ工学モデルで実現することができる。   Therefore, according to the associative memory system, it is possible to associate a voice ID, that is, a name only from the face ID, or to recall “delicious” or “not delicious” from only the food name. According to the long-term memory architecture based on the competitive neural network, the semantic memory about the meaning of words and common sense can be realized with the same engineering model as other long-term memories.

C−2.競合型ニューラル・ネットワークによる連想学習
図12には、競合型ニューラル・ネットワークを適用した連想記憶システムの構成例を模式的に示している。同図に示すように、この競合型ニューラル・ネットワークは、入力層(input layer)と競合層(competitive layer)の2層からなる階層型ニューラル・ネットワークである。
C-2. Associative Learning by Competitive Neural Network FIG. 12 schematically shows a configuration example of an associative memory system to which a competitive neural network is applied. As shown in the figure, this competitive neural network is a hierarchical neural network composed of two layers: an input layer and a competitive layer.

この競合型ニューラル・ネットワークは、記憶モードと連想モードという2通りの動作モードを備えており、記憶モードでは入力パターンを競合的に記憶し、また、想起モードでは部分的に欠損した入力パターンから完全な記憶パターンを想起する。   This competitive neural network has two modes of operation: memory mode and associative mode. In the memory mode, the input pattern is memorized in a competitive manner, and in the recall mode, the input pattern is partially lost. Recalling a memory pattern.

入力層は、複数の入力ニューロンで構成される。各入力ニューロンには、外部刺激や内部状態を表す各要素に対して割り当てられたチャンネルから、外部刺激や内部状態の認識結果に相当するシンボルすなわちID情報が入力される。入力層では、色IDの個数+形IDの個数+音声IDの個数+本能の種類…に相当する個数のニューロンを用意する必要がある。   The input layer is composed of a plurality of input neurons. Each input neuron receives a symbol corresponding to the recognition result of the external stimulus or the internal state, that is, ID information, from a channel assigned to each element representing the external stimulus or the internal state. In the input layer, it is necessary to prepare a number of neurons corresponding to the number of color IDs + the number of shape IDs + the number of voice IDs + the type of instinct.

また、競合層は、複数の競合ニューロンで構成される。各競合ニューロンは、入力層側の各入力ニューロンとは、ある結合重みを持って結合されている。競合ニューロンは、それぞれのニューロンが記憶すべき1つのシンボルに相当する。言い換えれば、競合ニューロンの数は記憶可能なシンボルの個数に相当する。   The competitive layer is composed of a plurality of competitive neurons. Each competitive neuron is connected to each input neuron on the input layer side with a certain connection weight. A competitive neuron corresponds to one symbol that each neuron should memorize. In other words, the number of competing neurons corresponds to the number of symbols that can be stored.

ある入力パターンが入力層に与えられたとする。このとき、入力パターンは外部刺激や内部状態の各要素を表すチャンネルで構成されており、チャンネルから該当するIDが送られてきた入力ニューロンは発火する。   Assume that an input pattern is given to the input layer. At this time, the input pattern is composed of channels representing each element of the external stimulus and the internal state, and the input neuron that receives the corresponding ID from the channel is fired.

競合ニューロンは、各入力ニューロンからの出力をシナプスによる重み付けをして入力して、それら入力値の総和を計算する。そして、競合層で入力値の総和が最大となる競合ニューロンを選択して、勝ち抜いた競合ニューロンと入力ニューロンとの結合力を強めていくことで、学習を行なう。また、欠損のある入力パターンに対して、競合層で勝ち抜いた競合ニューロンを選択することにより、入力パターンに対応するシンボルを想起することができる。   The competing neuron inputs the output from each input neuron with synaptic weighting, and calculates the sum of those input values. Then, learning is performed by selecting a competitive neuron having the maximum sum of input values in the competitive layer and strengthening the binding power between the winning competitive neuron and the input neuron. Also, by selecting a competitive neuron that has won in the competitive layer for a defective input pattern, a symbol corresponding to the input pattern can be recalled.

記憶モード:
入力層と競合層の結合重みは、0から1の間の値をとるものとする。但し、初期結合重みはランダムに決定する。
Memory mode:
The connection weight between the input layer and the competitive layer takes a value between 0 and 1. However, the initial connection weight is determined randomly.

競合型ニューラル・ネットワークにおける記憶は、まず、記憶したい入力パターンに対して競合層で勝ち抜いた競合ニューロンを選択して、その競合ニューロンと各入力ニューロンとの結合力を強めることで行なう。   Storage in the competitive neural network is performed by first selecting a competitive neuron that has won in the competitive layer for the input pattern to be stored, and strengthening the coupling force between the competitive neuron and each input neuron.

ここで、入力パターン・ベクトル[x1,x2,…,xn]は、ニューロンが、色プロトタイプID1に対応し、ID1が認識されたら、ニューロンx1を発火させ、順次、形、音声もそのように発火させることとする。発火したニューロンは1の値をとり、発火しないニューロンは−1の値をとる。 Here, the input pattern vector [x 1, x 2, ... , x n] are neurons, corresponding to the color prototype ID1, When ID1 has been recognized, ignite neurons x 1, successively, form, also voice Let it fire like that. A fired neuron takes a value of 1, and a non-fired neuron takes a value of -1.

また、i番目の入力ニューロンとj番目の競合ニューロンとの結合力をwijとおくと、入力xiに対する競合ニューロンyjの値は、下式のように表される。 Further, if the connection force between the i-th input neuron and the j-th competitive neuron is set to w ij , the value of the competitive neuron y j for the input x i is expressed by the following equation.

Figure 2006110707
Figure 2006110707

したがって、競合に勝ち抜くニューロンは、下式により求めることができる。   Therefore, the neuron that wins the competition can be obtained by the following equation.

Figure 2006110707
Figure 2006110707

記憶は、競合層で勝ち抜いた競合ニューロン(winner neuron)と各入力ニューロンとの結合力を強めることで行なう。勝ち抜いたニューロン(winner neuron)と入力ニューロンとの結合の更新は、Kohonenの更新規則により、以下のように行なわれる。   Memorization is performed by strengthening the binding force between the competitive neuron (winner neuron) won in the competitive layer and each input neuron. The connection between the winning neuron and the input neuron is updated as follows according to the Kohonen update rule.

Figure 2006110707
Figure 2006110707

ここで、L2Normで正規化する。   Here, normalization is performed using L2 Norm.

Figure 2006110707
Figure 2006110707

この結合力がいわゆる記憶の強さを表し、記憶力になる。ここで、学習率αは、提示する回数と記憶の関係を表すパラメータである。学習率αが大きいほど、1回の記憶で重みを大きく変更する。例えば、α=0.5を用いると、一度記憶させれば、忘却することはなく、次回同じようなパターンを提示すれば、ほぼ間違いなく記憶したパターンを連想することができる。   This binding force represents the so-called memory strength and becomes the memory power. Here, the learning rate α is a parameter representing the relationship between the number of times of presentation and storage. The greater the learning rate α, the larger the weight is changed with one memory. For example, if α = 0.5 is used, once it is stored, it is not forgotten. If the same pattern is presented next time, the stored pattern can be almost certainly associated.

また、提示して記憶させればさせるほど、ネットワークの結合値(重み)が大きくなっていく。これは、同じパターンが何度も入力されるうちに、記憶が強くなることを示し、統計的な学習が可能であり、実環境下におけるノイズの影響の少ない長期記憶を実現することができる。   In addition, the network connection value (weight) increases as the information is presented and stored. This indicates that the memory becomes stronger as the same pattern is input many times, statistical learning is possible, and long-term memory with little influence of noise in a real environment can be realized.

また、新たなパターンが入力され、記憶しようとすれば、新たな競合層のニューロンが発火するため、その新しいニューロンとの結合が強まり、以前の記憶によるニューロンとの結合が弱まる訳ではない。言い換えれば、競合型ニューラル・ネットワークによる連想記憶では、追加学習が可能なのであり、「忘却」の問題から解放される。   In addition, if a new pattern is input and an attempt is made to memorize, a new competitive layer of neurons fires, so that the connection with the new neuron is strengthened and the connection with the neuron from the previous memory is not weakened. In other words, the associative memory by the competitive neural network allows additional learning and is freed from the problem of “forgetting”.

想起モード:
いま、以下に示すような入力パターン・ベクトルが図12に示す連想記憶システムに提示されたとする。入力パターンは、完全なものではなく一部が欠損していてもよい。
Recall mode:
Assume that an input pattern vector as shown below is presented to the associative memory system shown in FIG. The input pattern is not complete and may be partially missing.

Figure 2006110707
Figure 2006110707

このとき、入力ベクトルは、プロトタイプIDであっても、あるいはそのプロトタイプIDに対する尤度、確率であってもよい。出力ニューロンyjの値は、入力xiについて下式のように計算される。 At this time, the input vector may be a prototype ID, or may be a likelihood and a probability for the prototype ID. The value of the output neuron y j is calculated for the input x i as

Figure 2006110707
Figure 2006110707

上式は、各チャンネルの尤度に応じた競合ニューロンの発火値の尤度を表しているとも言える。ここで重要なことは、複数のチャンネルからの尤度入力に対して、それらをコネクションして全体的な尤度を求めることが可能である、という点である。本実施形態では、連想するものは唯一すなわち尤度が最大のものだけを選択することとし、競合に勝ち抜くニューロンを下式により求めることができる。   It can be said that the above expression represents the likelihood of the firing value of the competing neuron according to the likelihood of each channel. What is important here is that it is possible to obtain the overall likelihood by connecting the likelihood inputs from a plurality of channels. In the present embodiment, only one associated with the maximum likelihood, that is, the one with the maximum likelihood is selected, and the neuron that can win the competition can be obtained by the following equation.

Figure 2006110707
Figure 2006110707

求めた競合ニューロンYの番号が記憶したシンボルの番号に対応するので、下式のように、Wの逆行列演算により入力パターンXを想起することができる。   Since the obtained number of the competitive neuron Y corresponds to the stored symbol number, the input pattern X can be recalled by the inverse matrix operation of W as shown in the following equation.

Figure 2006110707
Figure 2006110707

さらに図12に示す競合型ニューラル・ネットワークの入力層ニューロンにエピソードや動作IDなどのシンボルを割り当てることにより、宣言的知識記憶や手続的知識記憶を連想記憶アーキテキチャにより実現することができる。   Further, declarative knowledge storage and procedural knowledge storage can be realized by an associative memory architecture by assigning symbols such as episodes and action IDs to the input layer neurons of the competitive neural network shown in FIG.

D.状況依存行動制御
本実施形態では、内部状態又はその変化と外部刺激に依存した行動選択を自律的に行なう状況依存行動階層108と、認識された外部刺激に応じて反射的・直接的な機体動作を実行する反射行動部109と、記憶内容に基づいて比較的長期にわたる行動計画を行なう熟考行動階層107を備え、これらの階層的な行動制御メカニズムにより、ロボットの行動が選択される。
D. Situation-dependent action control In this embodiment, a situation-dependent action hierarchy 108 that autonomously selects an action depending on the internal state or its change and an external stimulus, and reflexive / direct airframe action according to the recognized external stimulus And a contemplation action layer 107 that performs a relatively long-term action plan based on the stored contents, and the action of the robot is selected by these hierarchical action control mechanisms.

状況依存行動階層(SituatedBehaviorsLayer)108は、ロボット装置1が現在置かれている状況に即応した自発的な行動を制御する行動制御層であり、複数の要素行動で構成される。要素行動は、「スキーマ(schema)」と呼ばれる行動モジュールすなわちオブジェクトとして記述される。各々の要素行動は、内部状態、短期記憶部105や長期記憶部106に記憶されている認識結果などから定期的に行動価値を算出し、各要素行動が持つ行動価値(以下では、「AL値」とも呼ぶ)を基にいずれの要素行動を発現すべきかを行動選択して、行動出力する。   The situation-dependent action hierarchy (Situated BehaviorsLayer) 108 is an action control layer that controls a spontaneous action in response to a situation where the robot apparatus 1 is currently placed, and includes a plurality of element actions. Elemental actions are described as action modules or objects called “schema”. Each elemental action periodically calculates the action value from the internal state, the recognition result stored in the short-term memory unit 105 or the long-term memory unit 106, and the action value of each elemental action (hereinafter referred to as “AL value”). Based on the above, it is selected which of the elemental actions should be expressed, and the action is output.

D−1.状況依存行動階層の構成
本実施形態では、状況依存行動階層108は、行動モジュール毎にステートマシンを用意しており、それ以前の行動や状況に依存して、センサ入力された外部情報の認識結果を分類して、行動を機体上で発現する。行動モジュールは、外部刺激や内部状態の変化に応じた状況判断を行なうmonitor機能と、行動実行に伴う状態遷移(ステートマシン)を実現するaction機能とを備えたスキーマ(schema)として記述される。状況依存行動階層108は、複数のスキーマが階層的に連結された木構造として構成されている(後述)。
D-1. Configuration of Situation Dependent Action Hierarchy In this embodiment, the situation dependent action hierarchy 108 prepares a state machine for each action module, and the recognition result of the external information input by the sensor depending on the previous action and situation. Classify the behavior on the aircraft. The behavior module is described as a schema having a monitor function that makes a situation determination according to an external stimulus or a change in an internal state, and an action function that realizes a state transition (state machine) associated with behavior execution. The situation-dependent action hierarchy 108 is configured as a tree structure in which a plurality of schemas are hierarchically connected (described later).

また、状況依存行動階層108は、内部状態をある範囲に保つための行動(「ホメオスタシス行動」とも呼ぶ)も実現し、内部状態が指定した範囲内を越えた場合には、その内部状態を当該範囲内に戻すための行動が出易くなるようにその行動を活性化させる(実際には、内部状態と外部環境の両方を考慮した形で行動が選択される)。   The situation-dependent action hierarchy 108 also realizes an action for keeping the internal state within a certain range (also referred to as “homeostasis action”). When the internal state exceeds the specified range, the internal state is The action is activated so that the action for returning to the range can be easily performed (actually, the action is selected in consideration of both the internal state and the external environment).

図3に示したようなロボット1の行動制御システム100における各機能モジュールは、オブジェクトとして構成される。各オブジェクトは、メッセージ通信と共有メモリを使ったオブジェクト間通信方法によりデータの受け渡しとInvokeを行なうことができる。図13には、本実施形態に係る行動制御システム100のオブジェクト構成を模式的に示している。   Each functional module in the behavior control system 100 of the robot 1 as shown in FIG. 3 is configured as an object. Each object can perform data transfer and invoke by message communication and an inter-object communication method using a shared memory. FIG. 13 schematically shows the object configuration of the behavior control system 100 according to the present embodiment.

視覚認識機能部101は、“FaceDetector”、“MulitColotTracker”、“FaceIdentify”という3つのオブジェクトで構成される。   The visual recognition function unit 101 includes three objects, “FaceDetector”, “MultiColtTracker”, and “FaceIdentify”.

FaceDetectorは、画像フレーム中から顔領域を検出するオブジェクトであり、検出結果をFaceIdentifyに出力する。MulitColotTrackerは、色認識を行なうオブジェクトであり、認識結果をFaceIdentify及びShortTermMemory(短期記憶ブ105を構成するオブジェクト)に出力する。また、FaceIdentifyは、検出された顔画像を手持ちの人物辞書で検索するなどして人物の識別を行ない、顔画像領域の位置、大きさ情報とともに人物のID情報をShortTermMemoryに出力する。   FaceDetector is an object that detects a face area from an image frame, and outputs the detection result to FaceIdentify. The MultiClotTracker is an object that performs color recognition, and outputs the recognition result to FaceIdentify and ShortTermMemory (an object constituting the short-term memory 105). FaceIdentify also identifies a person by searching the detected face image in a hand-held person dictionary, and outputs the person ID information together with the position and size information of the face image area to ShortTermMemory.

聴覚認識機能部102は、“AudioRecog”と“SpeechRecog”という2つのオブジェクトで構成される。AudioRecogは、マイクなどの音声入力装置からの音声データを受け取って、特徴抽出と音声区間検出を行なうオブジェクトであり、音声区間の音声データの特徴量及び音源方向をSpeechRecogやShortTermMemoryに出力する。SpeechRecogは、AudioRecogから受け取った音声特徴量と音声辞書及び構文辞書を使って音声認識を行なうオブジェクトであり、認識された単語のセットをShortTermMemoryに出力する。   The auditory recognition function unit 102 includes two objects “AudioRecog” and “SpeechRecog”. AudioRecog is an object that receives audio data from an audio input device such as a microphone and performs feature extraction and audio segment detection, and outputs the feature amount and sound source direction of the audio data in the audio segment to SpeedRecog and ShortTermMemory. The SpeechRecog is an object that performs speech recognition using the speech feature amount, the speech dictionary, and the syntax dictionary received from the AudioRecog, and outputs a set of recognized words to the ShortTermMemory.

触覚認識記憶部103は、接触センサからのセンサ入力を認識する“TactileSensor”というオブジェクトで構成され、認識結果はShortTermMemoryや内部状態を管理するオブジェクトであるInternalStateModel(ISM)に出力する。   The tactile sensation recognition storage unit 103 includes an object called “TactileSensor” that recognizes a sensor input from a contact sensor, and outputs a recognition result to the ShortTermMemory and an internal state model (ISM) that manages an internal state.

ShortTermMemory(STM)は、短期記憶部105を構成するオブジェクトであり、上述の認識系の各オブジェクトによって外部環境から認識されたターゲットやイベントを短期間保持(例えばカメラ15からの入力画像を約15秒程度の短い期間だけ記憶する)する機能モジュールであり、STMクライアントであるSituatedBehaviorsLayerに対して外部刺激の通知(Notify)を定期的に行なう。   ShortTermMemory (STM) is an object constituting the short-term storage unit 105, and holds targets and events recognized from the external environment by each object of the recognition system described above (for example, an input image from the camera 15 is about 15 seconds). This is a functional module that stores only for a short period of time, and periodically notifies the Stimated BehaviorsLayer, which is an STM client, of external stimuli (Notify).

LongTermMemory(LTM)は、長期記憶部106を構成するオブジェクトであり、物の名前など学習により得られた情報を長期間保持するために使用される。LongTermMemoryは、例えば、ある行動モジュールにおいて外部刺激から内部状態の変化を連想記憶することができる。   LongTermMemory (LTM) is an object that constitutes the long-term storage unit 106 and is used to hold information obtained by learning such as the name of an object for a long period of time. For example, LongTermMemory can associatively store a change in internal state from an external stimulus in a certain behavior module.

InternalStatusManager(ISM)は、内部状態管理部104を構成するオブジェクトであり、本能や感情といった数種類の情動を数式モデル化して管理しており、上述の認識系の各オブジェクトによって認識された外部刺激(ES:ExternalStimula)に応じてロボット装置1の本能や情動といった内部状態を管理する。   The Internal Status Manager (ISM) is an object that constitutes the internal state management unit 104, manages several types of emotions such as instinct and emotion by modeling them, and external stimuli (ES that are recognized by each object of the recognition system described above. : Manages the internal state of the robot apparatus 1 such as instinct and emotion according to (ExternalStimula).

SituatedBehaviorslayer(SBL)は状況依存型行動階層108を構成するオブジェクトである。SBLは、ShorTermMemoryのクライアント(STMクライアント)となるオブジェクトであり、ShorTermMemoryからは定期的に外部刺激(ターゲットやイベント)に関する情報の通知(Notify)を受け取ると、スキーマ(schema)すなわち実行すべき行動モジュールを決定する(後述)。   Situated Behaviorslayer (SBL) is an object that constitutes the context-dependent action hierarchy 108. SBL is an object that becomes a client (STM client) of ShorTermMemory. When a notification (Notify) of information related to external stimuli (targets and events) is periodically received from ShorTermMemory, a schema (scheme), that is, an action module to be executed. Is determined (described later).

ReflexiveSituatedBehaviorsLayerは、反射的行動部109を構成するオブジェクトであり、上述した認識系の各オブジェクトによって認識された外部刺激に応じて反射的・直接的な機体動作を実行する。例えば、人間の顔を追いかけたり、うなずいたり、障害物の検出により咄嗟に避けたりといった振る舞いを行なう(後述)。   The Reflexive Situated BehaviorsLayer is an object that constitutes the reflexive action unit 109, and executes reflexive and direct body motion according to the external stimulus recognized by each object of the recognition system described above. For example, a behavior such as chasing a human face, nodding, or avoiding a trap by detecting an obstacle is performed (described later).

SituatedBehaviorslayer(状況依存行動階層)は外部刺激や内部状態の変化などの状況に応じて行動を選択する。これに対し、ReflexiveSituatedBehaviorsLayerは、外部刺激に応じて反射的を行動する。また、SituatedBehaviorslayerは、外部刺激としてロボット装置の反射行動の管理も行なうことにより、反射行動が状況に応じた行動の意図に合わない場合には、ReflexiveBehaviorLayer(反射行動階層)から発現される動作コマンドの実行を抑制する(後述)。あるいは逆に、反射行動を出現させたい場合には、ReflexiveBehaviorLayerを励起する。   The Situated Behaviors layer (situation-dependent action hierarchy) selects an action according to a situation such as an external stimulus or a change in an internal state. In contrast, Reflexive Situated BehaviorsLayer acts reflexively in response to external stimuli. In addition, the Situated Behavior layer also manages the reflex behavior of the robot device as an external stimulus, so that when the reflex behavior does not match the intention of the behavior according to the situation, the behavior command expressed from the Reflexive Behavior Layer (reflective behavior layer) Suppress execution (described later). Or conversely, when it is desired to make the reflex behavior appear, the Reflexive BehaviorLayer is excited.

ReflexiveSituatedBehaviorsLayerとSituatedBehaviorslayerという2つのオブジェクトによる行動選択は独立して行なわれるため、互いに選択された行動モジュール(スキーマ)を機体上で実行する場合に、ロボット1のハードウェア・リソースが競合して実現不可能なこともある。Resourcemanagerというオブジェクトは、SituatedBehaviorslayerとReflexiveSituatedBehaviorsLayerによる行動選択時のハードウェアの競合を調停する(後述)。そして、調停結果に基づいて機体動作を実現する各オブジェクトに通知することにより機体が駆動する。   Since the behavior selection by two objects of Refractive Situated Behaviors Layer and Situated Behavior Layer is performed independently, when the behavior modules (schema) selected from each other are executed on the aircraft, the hardware resources of the robot 1 are in conflict and cannot be realized. Sometimes it is. The ResourceManager object mediates hardware conflicts when selecting actions by the Situated Behaviorslayer and the Reflexive Situated Behaviors Layer (described later). Then, the airframe is driven by notifying each object that realizes the airframe motion based on the arbitration result.

SoundPerformer、MotionController、LedControllerは、機体動作を実現するオブジェクトである。SoundPerformerは、音声出力を行なうためのオブジェクトであり、ResourceManager経由でSituatedBehaviorLayerから与えられたテキスト・コマンドに応じて音声合成を行ない、ロボット1の機体上のスピーカから音声出力を行なう。また、MotionControllerは、機体上の各関節アクチュエータの動作を行なうためのオブジェクトであり、ResourceManager経由でSituatedBehaviorLayerから手や脚などを動かすコマンドを受けたことに応答して、該当する関節角を計算する。また、LedControllerは、LED19の点滅動作を行なうためのオブジェクトであり、ResourceManager経由でSituatedBehaviorLayerからコマンドを受けたことに応答してLED19の点滅駆動を行なう。   SoundPerformer, MotionController, and LedController are objects that realize the body operation. The SoundPerformer is an object for performing voice output, performs voice synthesis in accordance with a text command given from the SituatedBehaviorLayer via the ResourceManager, and outputs voice from the speaker on the body of the robot 1. The Motion Controller is an object for performing the operation of each joint actuator on the aircraft, and calculates a corresponding joint angle in response to receiving a command to move a hand, leg, or the like from the Situated BehaviorLayer via the ResourceManager. The LedController is an object for performing the blinking operation of the LED 19, and performs the blinking drive of the LED 19 in response to receiving a command from the Situated BehaviorLayer via the ResourceManager.

図14には、状況依存行動階層(SBL)108(但し、反射行動部109を含む)による状況依存行動制御の形態を模式的に示している。認識系101〜103による外部環境の認識結果は、外部刺激として状況依存行動階層108(反射行動部109を含む)に与えられる。また、認識系による外部環境の認識結果に応じた内部状態の変化も状況依存行動階層108に与えられる。そして、状況依存行動階層108では、外部刺激や内部状態の変化に応じて状況を判断して、行動選択を実現することができる。   FIG. 14 schematically shows a form of situation-dependent action control by the situation-dependent action hierarchy (SBL) 108 (however, including the reflex action unit 109). The recognition result of the external environment by the recognition systems 101 to 103 is given to the situation-dependent action hierarchy 108 (including the reflex action part 109) as an external stimulus. In addition, a change in the internal state according to the recognition result of the external environment by the recognition system is also given to the situation-dependent action hierarchy 108. In the situation-dependent action hierarchy 108, the situation can be determined according to an external stimulus or a change in the internal state, and action selection can be realized.

図15には、図14に示した状況依存行動階層108による行動制御の基本的な動作例を示している。同図に示すように、状況依存行動階層108(SBL)では、外部刺激や内部状態の変化によって各行動モジュール(スキーマ)の活動度レベルを算出して、活動度レベルの度合いに応じてスキーマを選択して行動を実行する。活動度レベルの算出には、例えばライブラリを利用することにより、すべてのスキーマについて統一的な計算処理を行なうことができる(以下、同様)。例えば、活動度レベルが最も高いスキーマを選択したり、所定の閾値を越えた2以上のスキーマを選択して並列的に行動実行したりするようにしてもよい(但し、並列実行するときは各スキーマどうしでハードウェア・リソースの競合がないことを前提とする)。   FIG. 15 shows a basic operation example of action control by the situation-dependent action hierarchy 108 shown in FIG. As shown in the figure, in the situation-dependent action hierarchy 108 (SBL), the activity level of each action module (schema) is calculated based on an external stimulus or a change in the internal state, and the schema is determined according to the degree of the activity level. Select and execute an action. For the calculation of the activity level, for example, by using a library, unified calculation processing can be performed for all schemas (the same applies hereinafter). For example, a schema with the highest activity level may be selected, or two or more schemas exceeding a predetermined threshold may be selected and actions may be executed in parallel. (Assuming there are no hardware resource conflicts between schemas).

また、図16には、図14に示した状況依存行動階層108により反射行動を行なう場合の動作例を示している。この場合、同図に示すように、状況依存行動階層108に含まれる反射行動部109(ReflexiveSBL)は、認識系の各オブジェクトによって認識された外部刺激を直接入力として活動度レベルを算出して、活動度レベルの度合いに応じてスキーマを選択して行動を実行する。この場合、内部状態の変化は、活動度レベルの計算には使用されない。   FIG. 16 shows an operation example in the case of performing a reflex action by the situation-dependent action hierarchy 108 shown in FIG. In this case, as shown in the figure, the reflexive action unit 109 (ReflexiveSBL) included in the situation-dependent action hierarchy 108 calculates the activity level by directly inputting the external stimulus recognized by each object of the recognition system, Select a schema according to the level of activity level and execute an action. In this case, the change in internal state is not used for the activity level calculation.

また、図17には、図14に示した状況依存行動階層108により感情表現を行なう場合の動作例を示している。内部状態管理部104では、本能や感情などの情動を数式モデルとして管理しており、情動パラメータの状態値が所定値に達したことに応答して、状況依存行動階層108に内部状態の変化を通知(Notify)する。状況依存行動階層108は、内部状態の変化を入力として活動度レベルを算出して、活動度レベルの度合いに応じてスキーマを選択して行動を実行する。この場合、認識系の各オブジェクトによって認識された外部刺激は、内部状態管理部104(ISM)における内部状態の管理・更新に利用されるが、スキーマの活動度レベルの算出には使用されない。   FIG. 17 shows an operation example in the case where emotion expression is performed by the situation-dependent action hierarchy 108 shown in FIG. The internal state management unit 104 manages emotions such as instinct and emotion as a mathematical model, and in response to the state value of the emotion parameter reaching a predetermined value, changes in the internal state are made to the situation-dependent action hierarchy 108. Notify. The situation-dependent behavior hierarchy 108 calculates an activity level using an internal state change as an input, selects a schema according to the level of the activity level, and executes an action. In this case, the external stimulus recognized by each object of the recognition system is used for management / update of the internal state in the internal state management unit 104 (ISM), but is not used for calculating the activity level of the schema.

D−2.スキーマ
状況依存行動階層108は、各行動モジュール毎にステートマシンを用意しており、それ以前の行動や状況に依存して、センサ入力された外部情報の認識結果を分類して、行動を機体上で発現する。行動モジュールは、機体動作を記述し行動実行に伴う状態遷移(ステートマシン)を実現するAction機能と、Action機能において記述された行動の実行を外部刺激や内部状態に応じて評価して状況判断を行なうMonitor機能とを備えたスキーマ(schema)として記述される。
D-2. The schema situation-dependent action hierarchy 108 prepares a state machine for each action module, and classifies the recognition results of external information input from the sensor depending on the action and situation before that, and the action is displayed on the aircraft. Expressed in The action module describes the action of the action described in the action function according to the external stimulus and the internal state, and describes the situation determination by describing the body motion and realizing the state transition (state machine) accompanying the action execution. It is described as a schema having a Monitor function to be performed.

図18には、状況依存行動階層108が複数のスキーマによって構成されている様子を模式的に示している。また、図13と図18では、SituatedBehaviorLayerとReflexiveSituatatedBehaviorLayerからの動作コマンドが、ロボット装置1のResourceManagement(資源管理)モジュールで競合解決されている様子が示されている(後述)。   FIG. 18 schematically shows that the situation-dependent action hierarchy 108 is composed of a plurality of schemas. FIGS. 13 and 18 show that the operation commands from the Situated Behavior Layer and the Reflexive Situated Behavior Layer are conflict-resolved in the Resource Management module of the robot apparatus 1 (described later).

状況依存行動階層108(より厳密には、状況依存行動階層108のうち、通常の状況依存行動を制御する階層)は、複数のスキーマが階層的に連結されたツリー構造として構成され、外部刺激や内部状態の変化に応じてより最適なスキーマを統合的に判断して行動制御を行なうようになっている。ツリーは、例えば動物行動学的(Ethological)な状況依存行動を数式化した行動モデルや、感情表現を実行するためのサブツリーなど、複数のサブツリー(又は枝)を含んでいる。   The situation-dependent action hierarchy 108 (more strictly speaking, the hierarchy that controls the normal situation-dependent action among the situation-dependent action hierarchy 108) is configured as a tree structure in which a plurality of schemas are hierarchically connected. In accordance with changes in the internal state, a more optimal schema is determined in an integrated manner to perform action control. The tree includes a plurality of subtrees (or branches) such as a behavior model obtained by formulating an ethological situation-dependent behavior and a subtree for executing emotion expression.

図19には、状況依存行動階層108におけるスキーマのツリー構造を模式的に示している。同図に示すように、状況依存行動階層108は、短期記憶部105から外部刺激の通知(Notify)を受けるルート・スキーマを先頭に、抽象的な行動カテゴリから具体的な行動カテゴリに向かうように、各階層毎にスキーマが配設されている。例えば、ルート・スキーマの直近下位の階層では、「探索する(Investigate)」、「食べる(Ingestive)」、「遊ぶ(Play)」というスキーマが配設される。そして、「探索する(Investigate)」の下位には、「InvestigativeLocomotion」、「HeadinAirSniffing」、「InvestigativeSniffing」というより具体的な探索行動を記述したスキーマが配設されている。同様に、スキーマ「食べる(Ingestive)」の下位には「Eat」や「Drink」などのより具体的な飲食行動を記述したスキーマが配設され、スキーマ「遊ぶ(Play)」の下位には「PlayBowing」、「PlayGreeting」、「PlayPawing」などのより具体的な遊ぶ行動を記述したスキーマが配設されている。   FIG. 19 schematically shows a schema tree structure in the situation-dependent action hierarchy 108. As shown in the figure, the situation-dependent action hierarchy 108 is directed from the abstract action category to the specific action category, starting with the root schema that receives the notification (Notify) of the external stimulus from the short-term storage unit 105. A schema is arranged for each hierarchy. For example, in the hierarchy immediately below the root schema, schemas “Search”, “Insert”, and “Play” are arranged. Then, below “Investigate”, a schema describing more specific search behaviors such as “Investigative Location”, “HeadinAirSniffing”, and “InvestigativeSniffing” is arranged. Similarly, a schema describing more specific eating and drinking behavior such as “Eat” and “Drink” is arranged below the schema “Ingestive”, and “Schema” is placed below the “Play”. Schemas describing more specific playing behaviors such as “PlayBowing”, “PlayGreeting”, and “PlayPawing” are arranged.

図示の通り、各スキーマは外部刺激と内部状態を入力している。また、各スキーマは、少なくともMonitor関数とAction関数を備えている。   As shown, each schema inputs an external stimulus and an internal state. Each schema has at least a Monitor function and an Action function.

図20には、スキーマの内部構成を模式的に示している。同図に示すように、スキーマは、状態遷移(ステートマシン)の形式で機体動作を記述したAction関数と、外部刺激や内部状態に応じてAction関数の各状態を評価して活動度レベル値として返すMonitor関数と、Action関数のステートマシンをREADY(準備完了)、ACTIVE(活動中),SLEEP(待機中)いずれかの状態としてスキーマの状態を記憶管理する状態管理部で構成されている。   FIG. 20 schematically shows the internal structure of the schema. As shown in the figure, the schema evaluates each state of the Action function according to the external function and the internal state as an activity level value by describing the action of the body in the form of state transition (state machine). The Monitor function to be returned and a state management unit that stores and manages the state of the schema as the READY (ready), ACTIVE (active), or SLEEP (standby) state machine of the Action function.

Monitor関数は、外部刺激と内部状態に応じて当該スキーマの活動度レベル(Activation Level:AL値)を算出する関数である。図19に示すようなツリー構造を構成する場合、上位(親)のスキーマは外部刺激と内部状態を引数として下位(子供)のスキーマのMonitor関数をコールすることができ、子供のスキーマはAL値を返り値とする。また、スキーマは自分のAL値を算出するために、さらに子供のスキーマのMonitor関数をコールすることができる。そして、ルートのスキーマには各サブツリーからのAL値が返されるので、外部刺激と内部状態の変化に応じた最適なスキーマすなわち行動を統合的に判断することができる。   The Monitor function is a function that calculates an activity level (Activation Level: AL value) of the schema in accordance with an external stimulus and an internal state. When the tree structure as shown in FIG. 19 is configured, the upper (parent) schema can call the Monitor function of the lower (child) schema with the external stimulus and the internal state as arguments, and the child schema has an AL value. Is the return value. The schema can also call the child's schema Monitor function to calculate its AL value. Since the AL value from each sub-tree is returned to the root schema, the optimum schema corresponding to the external stimulus and the change of the internal state, that is, the behavior can be determined in an integrated manner.

例えばAL値が最も高いスキーマを選択したり、AL値が所定の閾値を越えた2以上のスキーマを選択して並列的に行動実行したりするようにしてもよい(但し、並列実行するときは各スキーマ同士でハードウェア・リソースの競合がないことを前提とする)。   For example, a schema having the highest AL value may be selected, or two or more schemas having an AL value exceeding a predetermined threshold value may be selected and executed in parallel (however, when executing in parallel) (Assuming there is no hardware resource conflict between schemas).

図21には、Monitor関数の内部構成を模式的に示している。同図に示すように、Monitor関数は、当該スキーまで記述されている行動を誘発する評価値を活動度レベルとして算出する行動誘発評価値演算器と、活動度レベルにバイアスを意図レベル(IntentionLevel:IV値)として算出するバイアス演算器と、使用する期待リソースを特定する使用リソース演算器を備えている。   FIG. 21 schematically shows the internal configuration of the Monitor function. As shown in the figure, the Monitor function includes an action induction evaluation value calculator that calculates an evaluation value that induces the action described up to the ski as an activity level, and an intention level (Intention Level: (IV value) and a used resource calculator for specifying an expected resource to be used.

バイアス演算器で算出されるIV値は、例えば、状況依存行動を実行中に、ロボット装置1が状況依存行動の意図に反して動作するのを抑制する場合や、状況依存の意図に適うように励起する場合に用いられる。このIV値は、熟考行動階層(DeliberativeLayer)が状況依存行動の発現計画を立て、状況依存行動の発現する順序を管理する場合にも用いる。   The IV value calculated by the bias calculator is, for example, suitable for the case where the robot apparatus 1 is prevented from operating against the intention of the situation-dependent action during the execution of the situation-dependent action or the situation-dependent intention. Used for excitation. This IV value is also used when the contemplation action hierarchy (DeliverativeLayer) makes a situation-dependent action expression plan and manages the order in which the situation-dependent action occurs.

図20に示した例では、Monitor関数は、スキーマすなわち行動モジュールの管理を行なう行動状態制御部(仮称)からコールされると、Action関数のステートマシンを仮想実行して、活動度レベルと使用リソースを演算し、これを返すようになっている。   In the example shown in FIG. 20, when the Monitor function is called from a behavior state control unit (tentative name) that manages a schema, that is, a behavior module, it virtually executes the state machine of the Action function, and the activity level and the resource used Is calculated and returned.

また、Action関数は、スキーマ自身が持つ行動を記述したステートマシン(後述)を備えている。図19に示すようなツリー構造を構成する場合、親スキーマは、Action関数をコールして、子供スキーマの実行を開始したり中断させたりすることができる。本実施形態では、ActionのステートマシンはReadyにならないと初期化されない。言い換えれば、中断しても状態はリセットされず、スキーマが実行中の作業データを保存することから、中断再実行が可能である(後述)。   Further, the Action function includes a state machine (described later) that describes the behavior of the schema itself. When the tree structure shown in FIG. 19 is configured, the parent schema can call the Action function to start or interrupt the execution of the child schema. In the present embodiment, the action state machine is not initialized unless it becomes Ready. In other words, even if it is interrupted, the state is not reset, and the work data being executed by the schema is saved, so that it can be interrupted and reexecuted (described later).

図20で示す例では、スキーマすなわち行動モジュールの管理を行なう行動状態制御部(仮称)は、Monitor関数からの戻り値に基づいて、実行すべき行動を選択し、該当するスキーマのAction関数をコールし、あるいは状態管理部に記憶されているスキーマの状態の移行を指示する。例えば行動誘発評価値としての活動度レベルが最も高いスキーマを選択したり、リソースが競合しないように優先順位に従って複数のスキーマを選択したりする。また、行動状態制御部は、より優先順位の高いスキーマが起動し、リソースの競合が生じた場合、優先順位が下位のスキーマの状態をACTIVEからSLEEPに退避させ、競合状態が解かれるとACTIVEに回復するなど、スキーマの状態を制御する。   In the example shown in FIG. 20, a behavior state control unit (tentative name) that manages a schema, that is, a behavior module, selects an action to be executed based on a return value from the Monitor function, and calls an action function of the corresponding schema. Alternatively, the transition of the schema state stored in the state management unit is instructed. For example, the schema having the highest activity level as the action induction evaluation value is selected, or a plurality of schemas are selected according to the priority order so that resources do not compete. In addition, when a schema having a higher priority is activated and resource conflict occurs, the behavior state control unit saves the state of the schema having a lower priority from ACTIVE to SLEEP, and when the conflict state is solved, the behavior state control unit changes to ACTIVE. Control schema state, such as recovery.

行動状態制御部は、図22に示すように、状況依存行動階層108において1つだけ配設して、同階層108を構成するすべてのスキーマを一元的に集中管理するようにしてもよい。   As shown in FIG. 22, only one behavior state control unit may be provided in the situation-dependent behavior hierarchy 108 so that all schemas constituting the hierarchy 108 are centrally managed.

図示の例では、行動状態制御部は、行動評価部と、行動選択部と、行動実行部を備えている。行動評価部は、例えば所定の制御周期で各スキーマのMonitor関数をコールして、各々の活動度レベルと使用リソースを取得する。行動選択部は、各スキーマによる行動制御と機体リソースの管理を行なう。例えば、集計された活動度レベルの高い順にスキーマを選択するとともに、使用リソースが競合しないように2以上のスキーマを同時に選択する。行動実行部は、選択されたスキーマのAction関数に行動実行命令を発行したり、スキーマの状態(READY、ACTIVE,SLEEP)を管理して、スキーマの実行を制御する。例えば、より優先順位の高いスキーマが起動し、リソースの競合が生じた場合、優先順位が下位のスキーマの状態をACTIVEからSLEEPに退避させ、競合状態が解かれるとACTIVEに回復する。   In the illustrated example, the behavior state control unit includes a behavior evaluation unit, a behavior selection unit, and a behavior execution unit. For example, the behavior evaluation unit calls the Monitor function of each schema at a predetermined control cycle, and acquires each activity level and resource used. The action selection unit performs action control and aircraft resource management by each schema. For example, schemas are selected in descending order of activity level, and two or more schemas are simultaneously selected so that resources used do not conflict. The behavior execution unit issues a behavior execution command to the Action function of the selected schema, manages the schema status (READY, ACTIVE, SLEEP), and controls the execution of the schema. For example, when a schema with a higher priority is activated and a resource conflict occurs, the state of the schema with a lower priority is saved from ACTIVE to SLEEP, and when the conflict state is solved, it is restored to ACTIVE.

あるいは、このような行動状態制御部の機能を、状況依存行動階層108内のスキーマ毎に配置するようにしてもよい。例えば、図19に示したように,スキーマがツリー構造を形成している場合(図23を参照のこと)、上位(親)のスキーマの行動状態制御は、外部刺激と内部状態を引数として下位(子供)のスキーマのMonitor関数をコールし、子供のスキーマから活動度レベルと使用リソースを返り値として受け取る。また、子供のスキーマは、自分の活動度レベルと使用リソースを算出するために、さらに子供のスキーマのMonitor関数をコールする。そして、ルートのスキーマの行動状態制御部には、各サブツリーからの活動度レベルと使用リソースが返されるので、外部刺激と内部状態の変化に応じた最適なスキーマすなわち行動を統合的に判断して、Action関数をコールして、子供スキーマの実行を開始したり中断させたりする。   Or you may make it arrange | position the function of such an action state control part for every schema in the situation dependence action hierarchy 108. FIG. For example, as shown in FIG. 19, when the schema forms a tree structure (see FIG. 23), the behavioral state control of the higher-level (parent) schema is the lower-level with external stimulus and internal state as arguments. The Monitor function of the (child) schema is called, and the activity level and the used resource are received as return values from the child schema. In addition, the child schema further calls the Monitor function of the child schema in order to calculate its activity level and resource used. Then, the activity level control unit and the resources used from each sub-tree are returned to the action state control unit of the root schema, so that the optimum schema corresponding to the external stimulus and the change of the internal state, that is, the action is integrally determined. , Call the Action function to start or interrupt the execution of the child schema.

図24には、状況依存行動階層108において通常の状況依存行動を制御するためのメカニズムを模式的に示している。   FIG. 24 schematically shows a mechanism for controlling a normal situation-dependent action in the situation-dependent action hierarchy 108.

同図に示すように、状況依存行動階層108には、短期記憶部105から外部刺激が入力(Notify)されるとともに、内部状態管理部109から内部状態の変化が入力される。状況依存行動階層108は、例えば動物行動学的(Ethological)な状況依存行動を数式化した行動モデルや、感情表現を実行するためのサブツリーなど、複数のサブツリーで構成されており、ルート・スキーマは、外部刺激の通知(Notify)に応答して、各サブツリーのmonitor関数をコールし、その返り値としての活動度レベル(AL値)を参照して、統合的な行動選択を行ない、選択された行動を実現するサブツリーに対してaction関数をコールする。また、状況依存行動階層108において決定された状況依存行動は、リソース・マネージャにより反射行動部109による反射的行動とのハードウェア・リソースの競合の調停を経て、機体動作(MotionController)に適用される。   As shown in the figure, an external stimulus is input (Notify) from the short-term storage unit 105 and a change in the internal state is input from the internal state management unit 109 to the situation-dependent action hierarchy 108. The situation-dependent action hierarchy 108 is composed of a plurality of subtrees such as an action model obtained by formulating an animal behavioral (ethological) situation-dependent action, and a subtree for executing emotion expression. In response to the notification (Notify) of the external stimulus, the monitor function of each sub-tree is called, and the activity level (AL value) as the return value is referred to, and the integrated action selection is performed and the selected function is selected. Call the action function on the subtree that realizes the action. In addition, the situation-dependent action determined in the situation-dependent action hierarchy 108 is applied to the aircraft operation (Motion Controller) through the mediation of hardware resource competition with the reflex action by the reflex action unit 109 by the resource manager. .

また、状況依存行動層108のうち、反射的行動部109は、上述した認識系の各オブジェクトによって認識された外部刺激に応じて反射的・直接的な機体動作を実行する(例えば、障害物の検出により咄嗟に避ける)。このため、通常の状況依存行動を制御する場合(図19)とは相違し、認識系の各オブジェクトからの信号を直接入力する複数のスキーマが、階層化されずに並列的に配置されている。   Further, in the situation-dependent action layer 108, the reflexive action unit 109 executes reflexive and direct aircraft actions according to the external stimulus recognized by each object of the recognition system described above (for example, an obstacle Avoid by detection) For this reason, unlike the case where normal situation-dependent behavior is controlled (FIG. 19), a plurality of schemas for directly inputting signals from each object of the recognition system are arranged in parallel without being hierarchized. .

図25には、反射行動部109におけるスキーマの構成を模式的に示している。同図に示すように、反射行動部109には、聴覚系の認識結果に応答して動作するスキーマとして「AvoidBigSound」、「FacetoBigSound」及び「NoddingSound」、視覚系の認識結果に応答して動作するスキーマとして「FacetoMovingObject」及び「AvoidMovingObject」、並びに、触覚系の認識結果に応答して動作するスキーマとして「手を引っ込める」が、それぞれ対等な立場で(並列的に)配設されている。   FIG. 25 schematically shows a schema configuration in the reflex action unit 109. As shown in the figure, the reflex action unit 109 operates in response to the recognition result of the visual system, “AvoidBigSound”, “FacetoBigSound” and “NodingSound” as schemas that operate in response to the recognition result of the auditory system. “FacetoMovingObject” and “AvoidMovingObject” as schemas, and “retract hand” as schemas operating in response to the recognition result of the tactile system are arranged in an equal position (in parallel).

図示の通り、反射的行動を行なう各スキーマは外部刺激を入力に持つ。また、各スキーマは、少なくともmonitor関数とaction関数を備えている。monitor関数は、外部刺激に応じて当該スキーマのAL値を算出して、これに応じて該当する反射的行動を発現すべきかどうかが判断される。また、action関数は、スキーマ自身が持つ反射的行動を記述したステートマシン(後述)を備えており、コールされることにより、該当する反射的行動を発現するとともにactionの状態を遷移させていく。   As shown, each schema that performs reflex behavior has an external stimulus as input. Each schema has at least a monitor function and an action function. The monitor function calculates the AL value of the schema in accordance with the external stimulus, and determines whether or not the corresponding reflex behavior should be expressed according to the calculated AL value. The action function includes a state machine (described later) describing the reflexive behavior of the schema itself. When called, the action function expresses the corresponding reflexive behavior and changes the state of the action.

図26には、反射行動部109において反射的行動を制御するためのメカニズムを模式的に示している。   FIG. 26 schematically shows a mechanism for controlling the reflex behavior in the reflex behavior unit 109.

図25にも示したように、反射行動部109内には、反応行動を記述したスキーマや、即時的な応答行動を記述したスキーマが並列的に存在している。認識系のオブジェクトから認識結果が入力されると、対応する反射行動スキーマがmonitor関数によりAL値を算出し、その値に応じてactionを軌道すべきかどうかが判断される。そして、反射行動部109において起動が決定された反射的行動は、リソース・マネージャにより反射行動部109による反射的行動とのハードウェア・リソースの競合の調停を経て、機体動作(MotionController)に適用される。   As shown also in FIG. 25, in the reflex action part 109, the schema which described the reaction action and the schema which described the immediate response action exist in parallel. When a recognition result is input from a recognition system object, the corresponding reflex behavior schema calculates an AL value by the monitor function, and it is determined whether or not the action should be trajected according to the value. The reflex behavior determined to be activated by the reflex behavior unit 109 is applied to the aircraft operation (Motion Controller) through the mediation of hardware resource competition with the reflex behavior by the reflex behavior unit 109 by the resource manager. The

状況依存行動階層108(反射行動部109を含む)を構成するスキーマは、例えばC++言語ベースで記述される「クラス・オブジェクト」として記述することができる。図27には、状況依存行動階層108において使用されるスキーマのクラス定義を模式的に示している。同図に示されている各ブロックはそれぞれ1つのクラス・オブジェクトに相当する。 The schema constituting the situation-dependent action hierarchy 108 (including the reflex action part 109) can be described as, for example, a “class object” described in a C ++ language base. FIG. 27 schematically shows a schema class definition used in the situation-dependent behavior hierarchy 108. Each block shown in the figure corresponds to one class object.

図示の通り、状況依存行動階層(SBL)108は、1以上のスキーマと、SBLの入出力イベントに対してIDを割り振るEventDataHandler(EDH)と、SBL内のスキーマを管理するSchemaHandler(SH)と、外部オブジェクト(STMやLTM、リソース・マネージャ、認識系の各オブジェクトなど)からデータを受信する1以上のReceiveDataHandler(RDH)と、外部オブジェクトにデータを送信する1以上のSendDataHandler(SDH)とを備えている。   As shown in the figure, the situation-dependent behavior hierarchy (SBL) 108 includes one or more schemas, an EventDataHandler (EDH) that allocates an ID to an SBL input / output event, a SchemaHandler (SH) that manages the schema in the SBL, 1 or more ReceiveDataHandler (RDH) which receives data from external objects (STM, LTM, resource manager, each object of recognition system, etc.) and 1 or more SendDataHandler (SDH) which transmits data to an external object Yes.

EventDataHandler(EDH)は、SBLの入出力イベントに対してIDを割り振るためのクラス・オブジェクトであり、RDHやSDHから入出力イベントの通知を受ける。   EventDataHandler (EDH) is a class object for allocating IDs for SBL input / output events, and receives notification of input / output events from RDH and SDH.

SchemaHandlerは、状況依存行動階層(SBL)108や反射行動部109を構成する各スキーマやツリー構造などの情報(SBLのコンフィギュレーション情報)をファイルとして保管している。例えばシステムの起動時などに、SchemaHandlerは、このコンフィギュレーション情報ファイルを読み込んで、図19に示したような状況依存行動階層108のスキーマ構成を構築(再現)して、メモリ空間上に各スキーマのエンティティをマッピングする。   SchemaHandler stores information (SBL configuration information) such as each schema and tree structure constituting the situation-dependent action hierarchy (SBL) 108 and the reflex action part 109. For example, when the system is started up, SchemaHandler reads this configuration information file, constructs (reproduces) the schema structure of the situation-dependent action hierarchy 108 as shown in FIG. 19, and stores each schema in the memory space. Map entities.

各スキーマは、スキーマのベースとして位置付けられるOpenR_Guestを備えている。OpenR_Guestは、スキーマが外部にデータを送信するためのDsubject、並びに、スキーマが外部からデータを受信するためのDObjectというクラス・オブジェクトをそれぞれ1以上備えている。例えば、スキーマが、SBLの外部オブジェクト(STMやLTM、認識系の各オブジェクトなど)にデータを送るときには、DsubjectはSendDataHandlerに送信データを書き込む。また、DObjectは、SBLの外部オブジェクトから受信したデータをReceiveDataHandlerから読み取ることができる。   Each schema has OpenR_Guest positioned as the base of the schema. OpenR_Guest includes at least one class object called Dsub for the schema to transmit data to the outside and DO object for the schema to receive data from the outside. For example, when the schema sends data to an external object of SBL (STM, LTM, recognition system objects, etc.), Dsubject writes transmission data to SendDataHandler. In addition, DOObject can read data received from an external object of SBL from ReceiveDataHandler.

SchemaManager及びSchemaBaseは、ともにOpenR_Guestを継承したクラス・オブジェクトである。クラス継承は、元のクラスの定義を受け継ぐことであり、この場合、OpenR_Guestで定義されているDsubjectやDObjectなどのクラス・オブジェクトをSchemaManagerやSchemaBaseも備えていることを意味する(以下、同様)。例えば図19に示すように複数のスキーマがツリー構造になっている場合、SchemaManagerは、子供のスキーマのリストを管理するクラス・オブジェクトSchemaListを持ち(子供のスキーマへのポインタを持ち)、子供スキーマの関数をコールすることができる。また、SchemaBaseは、親スキーマへのポインタを持ち、親スキーマからコールされた関数の返り値を戻すことができる。   SchemaManager and SchemaBase are both class objects that inherit OpenR_Guest. Class inheritance is inheriting the definition of the original class. In this case, it means that SchemaManager and SchemaBase are also provided with class objects such as Dsubject and DOObject defined in OpenR_Guest (the same applies hereinafter). For example, as shown in FIG. 19, when a plurality of schemas have a tree structure, SchemaManager has a class object SchemaList (which has a pointer to a child schema) that manages a list of child schemas, and has a child schema. A function can be called. SchemaBase has a pointer to the parent schema and can return a return value of a function called from the parent schema.

SchemaBaseは、StateMachine及びPronomeという2つのクラス・オブジェクトを持つ。StateMachineは当該スキーマの行動(Action関数)についてのステートマシンを管理している。図28には、スキーマの行動(Action関数)についてのステートマシンを図解している。このステートマシンの状態間の遷移にそれぞれ行動(Action)が紐付けされている   SchemaBase has two class objects, StateMachine and Pronome. StateMachine manages a state machine for behavior (Action function) of the schema. FIG. 28 illustrates a state machine for schema behavior (Action function). Actions are associated with the transitions between the states of the state machine.

親スキーマは子供スキーマのAction関数のステートマシンを切り替える(状態遷移させる)ことができる。また、Pronomeには、当該スキーマが行動(Action関数)を実行又は適用するターゲットを代入する。後述するように、スキーマはPronomeに代入されたターゲットによって占有され、行動が終了(完結、異常終了など)するまでスキーマは解放されない。新規のターゲットのために同じ行動を実行するためには同じクラス定義のスキーマをメモリ空間上に生成する。この結果、同じスキーマをターゲット毎に独立して実行することができ(個々のスキーマの作業データが干渉し合うことはなく)、行動のReentrance性(後述)が確保される。   The parent schema can switch (change state) the state machine of the action function of the child schema. Further, a target to which the schema executes or applies an action (Action function) is substituted for Proname. As will be described later, the schema is occupied by the target assigned to Pronome, and the schema is not released until the action is completed (completed, abnormally terminated, etc.). In order to perform the same action for a new target, a schema with the same class definition is generated in the memory space. As a result, the same schema can be executed independently for each target (the work data of the individual schemas do not interfere with each other), and behavioral reentrance (described later) is ensured.

ParentSchemaBaseは、SchemaManager及びSchemaBaseを多重継承するクラス・オブジェクトであり、スキーマのツリー構造において、当該スキーマ自身についての親スキーマ及び子供スキーマすなわち親子関係を管理する。   ParentSchemaBase is a class object that inherits multiple of SchemaManager and SchemaBase, and manages a parent schema and a child schema, that is, a parent-child relationship for the schema itself in the tree structure of the schema.

IntermediaParentSchemaBaseは、ParentSchemaBaseを継承するクラス・オブジェクトであり、各クラスのためのインターフェース変換を実現する。また、IntermediaParentSchemaBaseは、SchemaStatusInfoを持つ。このSchemaStatusInfoは、当該スキーマ自身のステートマシンを管理するクラス・オブジェクトである。   IntermediaParentSchemaBase is a class object that inherits ParentSchemaBase and implements interface conversion for each class. In addition, IntermediaParentSchemaBase has SchemaStatusInfo. This SchemaStatusInfo is a class object that manages the state machine of the schema itself.

親スキーマは、子供スキーマのAction関数をコールすることによってそのステートマシンの状態を切り換えることができる。また、子供スキーマのAonitor関数をコールしてそのステートマシンの状態に応じたAL値を問うことができる。但し、スキーマのステートマシンは、前述したAction関数のステートマシンとは異なるということを留意されたい。   The parent schema can switch the state of its state machine by calling the action function of the child schema. Also, it is possible to ask the AL value corresponding to the state of the state machine by calling the Aonitor function of the child schema. However, it should be noted that the schema state machine is different from the action function state machine described above.

図29には、スキーマ自身すなわちAction関数によって記述されている行動についてのステートマシンを図解している。既に述べたように、スキーマ自身のステートマシンは、Action関数に寄って記述されている行動について、READY(準備完了)、ACTIVE(活動中),SLEEP(待機中)という3つの状態を規定している。より優先順位の高いスキーマが起動し、リソースの競合が生じた場合、優先順位が下位のスキーマの状態をACTIVEからSLEEPに退避させ、競合状態が解かれるとACTIVEに回復する。   FIG. 29 illustrates a state machine for actions described by a schema itself, that is, an Action function. As already mentioned, the state machine of the schema itself defines three states of READY (ready), ACTIVE (active), and SLEEP (standby) for actions described by the Action function. Yes. When a schema with a higher priority is activated and resource conflict occurs, the state of the schema with the lower priority is saved from ACTIVE to SLEEP, and when the conflict state is solved, it is restored to ACTIVE.

図29に示すように、ACTIVEからSLEEPへの状態遷移にACTIVE_TO_SLEEPが、SLEEPからACTIVEへの状態遷移にSLEEP_TO_ACTIVEがそれぞれ規定されている。本実施形態において特徴的なのは、   As shown in FIG. 29, ACTIVE_TO_SLEEP is defined for the state transition from ACTIVE to SLEEP, and SLEEP_TO_ACTIVE is defined for the state transition from SLEEP to ACTIVE. What is characteristic in this embodiment is

(1)ACTIVE_TO_SLEEPに、後にACTIVEに遷移して再開するために必要なデータ(コンテキスト)を保存するための処理と、SLEEPするために必要な行動が紐付けされている。
(2)SLEEP_TO_ACTIVEに、保存しておいたデータ(コンテキスト)を復元するための処理と、ACTIVEに戻るために必要な行動が紐付けされている。
(1) A process for saving data (context) necessary for resuming the transition to ACTIVE later and an action necessary for SLEEP are associated with ACTIVE_TO_SLEEP.
(2) SLEEP_TO_ACTIVE is associated with a process for restoring saved data (context) and an action necessary for returning to ACTIVE.

という点である。SLEEPするために必要な行動とは、例えば、話し相手に休止を告げる「ちょっと待っててね」などのセリフを言う行動(その他、身振り手振りが加わっていてもよい)である。また、ACTIVEに戻るために必要な行動とは、例えば、話し相手に謝意を表わす「お待たせ」などのセリフを言う行動(その他、身振り手振りが加わっていてもよい)である。 That is the point. The action necessary for the SLEEP is, for example, an action of saying a line such as “Please wait for a while” to tell the other party to pause (other gesture gestures may be added). The action required to return to ACTIVE is, for example, an action that says a line such as “send me a wait” that expresses gratitude to the other party (others may be gesture gestures added).

AndParentSchema、NumOrParentSchema、OrParentSchemaは、IntermediaParentSchemaBaseを継承するクラス・オブジェクトである。AndParentSchemaは、同時実行する複数の子供スキーマへのポインタを持つ。OrParentSchemaは、いずれか択一的に実行する複数の子供スキーマへのポインタを持つ。また、NumOrParentSchemaは、所定数のみを同時実行する複数の子供スキーマへのポインタを持つ。   AndParentSchema, NumOrParentSchema, and OrParentSchema are class objects that inherit from IntermediateMediaSchemaBase. AndAndParentSchema has pointers to multiple child schemas that are executed simultaneously. OrParentSchema has pointers to multiple child schemas to be executed alternatively. NumOrParentSchema has pointers to a plurality of child schemas that execute only a predetermined number at the same time.

ParentSchemaは、これらAndParentSchema、NumOrParentSchema、OrParentSchemaを多重継承するクラス・オブジェクトである。   ParentSchema is a class object that inherits these AndParentSchema, NumOrParentSchema, and OrParentSchema multiple times.

図30には、状況依存行動階層(SBL)108内のクラスの機能的構成を模式的に示している。   FIG. 30 schematically shows a functional configuration of classes in the situation-dependent action hierarchy (SBL) 108.

状況依存行動階層(SBL)108は、STMやLTM、リソース・マネージャ、認識系の各オブジェクトなど外部オブジェクトからデータを受信する1以上のReceiveDataHandler(RDH)と、外部オブジェクトにデータを送信する1以上のSendDataHandler(SDH)とを備えている。   The Situation Dependent Action Hierarchy (SBL) 108 includes one or more Receive Data Handlers (RDH) that receive data from external objects such as STM, LTM, resource manager, and recognition system objects, and one or more that transmit data to external objects. SendDataHandler (SDH).

EventDataHandler(EDH)は、SBLの入出力イベントに対してIDを割り振るためのクラス・オブジェクトであり、RDHやSDHから入出力イベントの通知を受ける。   EventDataHandler (EDH) is a class object for allocating IDs for SBL input / output events, and receives notification of input / output events from RDH and SDH.

SchemaHandlerは、スキーマを管理するためのクラス・オブジェクトであり、SBLを構成するスキーマのコンフィギュレーション情報をファイルとして保管している。例えばシステムの起動時などに、SchemaHandlerは、このコンフィギュレーション情報ファイルを読み込んで、SBL内のスキーマ構成を構築する。   The SchemaHandler is a class object for managing the schema, and stores configuration information of the schema constituting the SBL as a file. For example, when the system is started up, SchemaHandler reads this configuration information file and constructs a schema configuration in the SBL.

各スキーマは、図27に示したクラス定義に従って生成され、メモリ空間上にエンティティがマッピングされる。各スキーマは、OpenR_Guestをベースのクラス・オブジェクトとし、外部にデータ・アクセスするためのDSubjectやDObjectなどのクラス・オブジェクトを備えている。   Each schema is generated according to the class definition shown in FIG. 27, and entities are mapped on the memory space. Each schema uses OpenR_Guest as a base class object, and includes class objects such as DSubject and DOObject for data access to the outside.

スキーマが主に持つ関数とステートマシンを以下に示しておく。   The functions and state machines that the schema has are shown below.

ActivationMonitor():スキーマがReady時にActiveになるための評価関数。
Actions():Active時の実行用ステートマシン。
Goal():Active時にスキーマがGoalに達したかを評価する関数。
Goal():Active時にスキーマがfail状態かを判定する関数。
SleepActions():Sleep前に実行されるステートマシン。
SleepMonitor():Sleep時にResumeするための評価関数。
ResumeActions():Resume前にResumeするためのステートマシン。
DestroyMonitor():Sleep時にスキーマがfail状態か判定する評価関数。
MakePronome():ツリー全体のターゲットを決定する関数である。
ActivationMonitor (): an evaluation function for becoming active when the schema is ready.
Actions (): State machine for execution at the time of Active.
Goal (): A function that evaluates whether the schema has reached Goal at the time of Active.
Goal (): A function that determines whether the schema is in a fail state at the time of Active.
SleepActions (): State machine executed before Sleep.
SleepMonitor (): an evaluation function for Resume at the time of Sleep.
ResumeActions (): State machine for Resume before Resume.
DestroyMonitor (): an evaluation function that determines whether the schema is in a fail state during Sleep.
MakePronome (): A function that determines the target of the entire tree.

これらの関数は、SchemaBaseで記述されている。   These functions are described in SchemaBase.

図31には、MakePronome関数を実行する処理手順をフローチャートの形式で示している。   FIG. 31 shows a processing procedure for executing the MakePronome function in the form of a flowchart.

スキーマのMakePronome関数がコールされると、まず、スキーマ自信に子供スキーマが存在するかどうかを判別する(ステップS1)。   When the MakePronome function of a schema is called, it is first determined whether or not a child schema exists in the schema confidence (step S1).

子供スキーマが存在する場合には、同様にすべての子供スキーマのMakePronome関数を再帰的にコールする(ステップS2)。   If there is a child schema, the MakePronom function of all child schemas is similarly called recursively (step S2).

そして、スキーマ自身のMakePronomeを実行して、Pronomeオブジェクトにターゲットが代入される(ステップS3)。   Then, MakeProname of the schema itself is executed, and the target is assigned to the Pronome object (step S3).

この結果、自分以下のすべてのスキーマのPronomeに対して同じターゲットが代入され、行動が終了(完結、異常終了など)するまでスキーマは解放されない。新規のターゲットのために同じ行動を実行するためには同じクラス定義のスキーマをメモリ空間上に生成する。   As a result, the same target is assigned to Pronom of all the schemas below itself, and the schema is not released until the action ends (complete, abnormal end, etc.). In order to perform the same action for a new target, a schema with the same class definition is generated in the memory space.

図32には、Monitor関数を実行する処理手順をフローチャートの形式で示している。   FIG. 32 shows a processing procedure for executing the Monitor function in the form of a flowchart.

まず、評価フラグ(AssesssmentFlag)をオンに設定して(ステップS11)、スキーマ自身のActionを実行する(ステップS12)。このとき、子供スキーマの選定も行なう。そして、評価フラグをオフに戻す(ステップS13)。   First, the evaluation flag (AssessmentFlag) is set to ON (step S11), and the action of the schema itself is executed (step S12). At this time, the child schema is also selected. Then, the evaluation flag is turned off (step S13).

子供スキーマが存在する場合には(ステップS14)、ステップS12において選択した子供スキーマのMonitor関数を再帰的にコールする(ステップS15)。   If a child schema exists (step S14), the Monitor function of the child schema selected in step S12 is recursively called (step S15).

次いで、スキーマ自身のMonitor関数を実行して(ステップS16)、活動度レベルと行動実行に使用するリソースを算出して(ステップS17)、関数の戻り値とする。   Next, the Monitor function of the schema itself is executed (step S16), the activity level and the resource used for action execution are calculated (step S17), and set as the return value of the function.

図33及び図34には、Actions関数を実行する処理手順をフローチャートの形式で示している。   FIG. 33 and FIG. 34 show the processing procedure for executing the Actions function in the form of a flowchart.

まず、スキーマがSTOPPING状態かどうかをチェックし(ステップS21)、次いで、STOPPINGすべき状態かどうかをチェックする(ステップS22)。   First, it is checked whether or not the schema is in a STOPPING state (step S21), and then it is checked whether or not it is in a STOPPING state (step S22).

STOPPINGすべき状態である場合には、さらに子供スキーマがいるかどうかをチェックする(ステップS23)。そして、子供スキーマがいる場合にはこれをGO_TO_STOP状態に移行させてから(ステップS24)、HaveToStopFlagをオンにする(ステップS25)。   If it is a state to be stopped, it is further checked whether or not there is a child schema (step S23). If there is a child schema, it is shifted to the GO_TO_STOP state (step S24), and then the HaveToStopFlag is turned on (step S25).

また、STOPPINGすべき状態でない場合には、RUNNING状態かどうかをチェックする(ステップS26)。   If the state is not to be stopped, it is checked whether or not it is in the RUNNING state (step S26).

RUNNING状態でない場合には、さらに子供スキーマがいるかどうかをチェックする(ステップS27)。そして、子供スキーマがいる場合には、HaveToStopFlagをオンにする(ステップS28)。   If it is not in the RUNNING state, it is further checked whether or not there is a child schema (step S27). If there is a child schema, the HaveToStopFlag is turned on (step S28).

次いで、現在のシステム状態とHaveToRunFlagとHaveToStopFlagと子供スキーマの動作状態から次の自分自身の状態を決定する(ステップS29)。   Next, the next own state is determined from the current system state, HaveToRunFlag, HaveToStopFlag, and the operation state of the child schema (step S29).

次いで、スキーマ自身のAction関数を実行する(ステップS30)。   Next, the Action function of the schema itself is executed (step S30).

その後、スキーマ自身がGO_TO_STOP状態かどうかをチェックする(ステップS31)。GO_TO_STOP状態でない場合には、さらに子供スキーマがいるかどうかをチェックする(ステップS32)。そして、子供スキーマがいる場合には、GO_TO_STOP状態の子供スキーマがいるかどうかをチェックする(ステップS33)。   Thereafter, it is checked whether or not the schema itself is in a GO_TO_STOP state (step S31). If it is not in the GO_TO_STOP state, it is further checked whether there is a child schema (step S32). If there is a child schema, it is checked whether there is a child schema in the GO_TO_STOP state (step S33).

GO_TO_STOP状態の子供スキーマがいる場合には、これらのスキーマのAction関数を実行する(ステップS34)。   If there are child schemas in the GO_TO_STOP state, the Action function of these schemas is executed (step S34).

次いで、RUNNING中の子供スキーマがいるかどうかをチェックする(ステップS35)。RUNNING中の子供スキーマがいない場合には、停止中の子供スキーマがいるかどうかをチェックして(ステップS36)、停止中の子供スキーマのAction関数を実行する(ステップS37)。   Next, it is checked whether or not there is a child schema in RUNNING (step S35). If there is no child schema in RUNNING, it is checked whether there is a child schema that is stopped (step S36), and the action function of the stopped child schema is executed (step S37).

次いで、GO_TO_RUN状態の子供スキーマがいるかどうかをチェックする(ステップS38)。GO_TO_RUN状態の子供スキーマがいない場合には、GO_TO_STOP状態の子供スキーマがいるかどうかをチェックして(ステップS39)、いればこの子供スキーマのAction関数を実行する(ステップS40)。   Next, it is checked whether there is a child schema in the GO_TO_RUN state (step S38). If there is no child schema in the GO_TO_RUN state, it is checked whether there is a child schema in the GO_TO_STOP state (step S39). If so, the action function of this child schema is executed (step S40).

最後に、現在のシステム状態とHaveToRunFlagとHaveToStopFlagと子供の動作状態から自分自身の次の状態を決定して,本処理ルーチン全体を終了する(ステップS41)。   Finally, the next state of itself is determined from the current system state, HaveToRunFlag, HaveToStopFlag, and the child's operating state, and the entire processing routine is terminated (step S41).

D−3.状況依存行動階層の機能
状況依存行動階層(SituatedBehaviorsLayer)108は、短期記憶部105並びに長期記憶部106の記憶内容や、内部状態管理部104によって管理される内部状態を基に、ロボット装置1が現在置かれている状況に即応した行動を制御する。さらにIV値を考慮して、熟考行動の意図に適う状況依存行動を発現できるように制御する。
D-3. The function- dependent behavior hierarchy (situated behaviors layer) 108 of the situation-dependent behavior hierarchy is based on the storage contents of the short-term storage unit 105 and the long-term storage unit 106 and the internal state managed by the internal state management unit 104. Control behaviors that respond quickly to your situation. Further, in consideration of the IV value, control is performed so that a situation-dependent behavior suitable for the intention of the contemplation behavior can be expressed.

前項で述べたように、本実施形態に係る状況依存行動階層108は、スキーマのツリー構造(図19を参照のこと)で構成されている。各スキーマは、自分の子供と親の情報を知っている状態で独立性を保っている。このようなスキーマ構成により、状況依存行動階層108は、Concurrentな評価、Concurrentな実行、Preemption、Reentrantという主な特徴を持っている。以下、これらの特徴について詳解する。   As described in the previous section, the situation-dependent action hierarchy 108 according to the present embodiment is configured by a schema tree structure (see FIG. 19). Each schema is independent with knowledge of its child and parent information. With such a schema configuration, the situation-dependent behavior hierarchy 108 has the main characteristics of current evaluation, current execution, preemption, and reentrant. Hereinafter, these features will be described in detail.

(1)Concurrentな評価:
行動モジュールとしてのスキーマは外部刺激や内部状態の変化に応じた状況判断を行なうMonitor機能を備えていることは既に述べた。Monitor機能は、スキーマがクラス・オブジェクトSchemaBaseでMonitor関数を備えていることにより実装されている。Monitor関数とは、外部刺激と内部状態とIV値に応じて当該スキーマの活動度レベル(Activation Level:AL値)を算出する関数である。
(1) Current evaluation:
It has already been described that the schema as the behavior module has a Monitor function for judging the situation according to the external stimulus and the change of the internal state. The Monitor function is implemented by providing the Monitor function in the schema with the class object SchemaBase. The Monitor function is a function that calculates an activity level (Activation Level: AL value) of the schema in accordance with an external stimulus, an internal state, and an IV value.

図19に示すようなツリー構造を構成する場合、上位(親)のスキーマは外部刺激と内部状態を引数として下位(子供)のスキーマのMonitor関数をコールすることができ、子供のスキーマはAL値を返り値とする。また、スキーマは自分のAL値を算出するために、さらに子供のスキーマのMonitor関数をコールすることができる。そして、ルートのスキーマには各サブツリーからのAL値が返されるので、外部刺激と内部状態の変化に応じた最適なスキーマすなわち行動を統合的に判断することができる。   When the tree structure as shown in FIG. 19 is configured, the upper (parent) schema can call the Monitor function of the lower (child) schema with the external stimulus and the internal state as arguments, and the child schema has an AL value. Is the return value. The schema can also call the child's schema Monitor function to calculate its AL value. Since the AL value from each sub-tree is returned to the root schema, the optimum schema corresponding to the external stimulus and the change of the internal state, that is, the behavior can be determined in an integrated manner.

このようにツリー構造になっていることから、外部刺激と内部状態の変化による各スキーマの評価は、まずツリー構造の下から上に向かってConcurrentに行なわれる。図32のフローチャートでも示したように、スキーマに子供スキーマがある場合には(ステップS14)、選択した子供のMonitor関数をコールしてから(ステップS15)、自身のMonitor関数を実行する。   Since the tree structure is formed in this way, the evaluation of each schema based on the external stimulus and the change in the internal state is first performed to the current from the bottom to the top of the tree structure. As shown in the flowchart of FIG. 32, if the schema has a child schema (step S14), the selected child's Monitor function is called (step S15), and then the own Monitor function is executed.

次いで、ツリー構造の上から下に向かって評価結果としての実行許可を渡していく。評価と実行は、その行動が用いるリソースの競合を解きながら行なわれる。   Next, the execution permission as the evaluation result is passed from the top to the bottom of the tree structure. Evaluation and execution are performed while solving the competition of resources used by the action.

本実施形態に係る状況依存行動階層108は、スキーマのツリー構造を利用して、並列的に行動の評価を行なうことができるので、外部刺激や内部状態などの状況に対しての適応性がある。また、評価時には、ツリー全体に関しての評価を行ない、このとき算出される活動度レベル(AL)値によりツリーが変更されるので、スキーマすなわち実行する行動を動的にプライオリタイズすることができる。   Since the situation-dependent action hierarchy 108 according to the present embodiment can evaluate actions in parallel using the schema tree structure, it is adaptable to situations such as external stimuli and internal states. . Further, at the time of evaluation, the entire tree is evaluated, and the tree is changed by the activity level (AL) value calculated at this time, so that the schema, that is, the action to be executed can be dynamically prioritized.

(2)Concurrentな実行:
ルートのスキーマには各サブツリーからのAL値が返されるので、外部刺激と内部状態の変化に応じた最適なスキーマすなわち行動を統合的に判断することができる。例えばAL値が最も高いスキーマを選択したり、AL値が所定の閾値を越えた2以上のスキーマを選択して並列的に行動実行するようにしてもよい(但し、並列実行するときは各スキーマ同士でハードウェア・リソースの競合がないことを前提とする)。
(2) Current execution:
Since the AL value from each sub-tree is returned to the root schema, it is possible to integrally determine the optimal schema, that is, the behavior corresponding to the external stimulus and the change in the internal state. For example, a schema having the highest AL value may be selected, or two or more schemas having an AL value exceeding a predetermined threshold value may be selected and be executed in parallel (however, each schema is executed in parallel execution) (Assuming there is no hardware resource conflict between each other).

実行許可をもらったスキーマは実行される。すなわち、実際にそのスキーマはさらに詳細の外部刺激や内部状態の変化を観測して、コマンドを実行する。実行に関しては、ツリー構造の上から下に向かって順次すなわちConcurrentに行なわれる。図33及び図34のフローチャートでも示したように、スキーマに子供スキーマがある場合には、子供のActions関数を実行する。   Schemas that have permission to execute are executed. In other words, the schema actually executes the command by observing more detailed external stimuli and internal state changes. Regarding execution, it is performed sequentially from the top to the bottom of the tree structure, that is, to the current. As shown in the flowcharts of FIGS. 33 and 34, if the schema includes a child schema, the child Actions function is executed.

Action関数は、スキーマ自身が持つ行動を記述したステートマシン(後述)を備えている。図19に示すようなツリー構造を構成する場合、親スキーマは、Action関数をコールして、子供スキーマの実行を開始したり中断させたりすることができる。   The Action function includes a state machine (described later) that describes the behavior of the schema itself. When the tree structure shown in FIG. 19 is configured, the parent schema can call the Action function to start or interrupt the execution of the child schema.

本実施形態に係る状況依存行動階層108は、スキーマのツリー構造を利用して、リソースが競合しない場合には、余ったリソースを使う他のスキーマを同時に実行することができる。但し、Goalまでに使用するリソースに対して制限を加えないと、ちぐはぐな行動出現が起きる可能性がある。状況依存行動階層108において決定された状況依存行動は、リソース・マネージャにより反射行動部109による反射的行動とのハードウェア・リソースの競合の調停を経て、機体動作(MotionController)に適用される。   The context-dependent behavior hierarchy 108 according to the present embodiment can simultaneously execute other schemas that use surplus resources when resources do not compete using the schema tree structure. However, if there are no restrictions on the resources used before Goal, there is a possibility that a stupid behavior will occur. The situation-dependent action determined in the situation-dependent action hierarchy 108 is applied to the aircraft operation (Motion Controller) through the mediation of hardware resource competition with the reflex action by the reflex action unit 109 by the resource manager.

(3)Preemption:
1度実行に移されたスキーマであっても、それよりも重要な(優先度の高い)行動があれば、スキーマを中断してそちらに実行権を渡さなければならない。また、より重要な行動が終了(完結又は実行中止など)したら、元のスキーマを再開して実行を続けることも必要である。
(3) Preemption:
Even if the schema has been moved to once, if there is a more important (higher priority) action, the schema must be interrupted and the right to execute must be passed to it. It is also necessary to resume the original schema and continue execution when more important actions are completed (completion or execution stop, etc.).

このような優先度に応じたタスクの実行は、コンピュータの世界におけるOS(オペレーティング・システム)のPreemptionと呼ばれる機能に類似している。OSでは、スケジュールを考慮するタイミングで優先度のより高いタスクを順に実行していくという方針である。   The execution of tasks according to such priorities is similar to a function called Preemption of OS (Operating System) in the computer world. The OS has a policy of sequentially executing tasks with higher priorities at a timing considering the schedule.

これに対し、本実施形態に係るロボット1の行動制御システム100は、複数のオブジェクトにまたがるため、オブジェクト間での調停が必要になる。例えば反射行動を制御するオブジェクトであるReflexiveSBLは、上位の状況依存行動を制御するオブジェクトであるSBLの行動評価を気にせずに物を避けたり、バランスをとったりする必要がある。これは、実際に実行権を奪い取り実行を行なう訳であるが、上位の行動モジュール(SBL)に、実行権利が奪い取られたことを通知して、上位はその処理を行なうことによってPreemptiveな能力を保持する。   On the other hand, since the behavior control system 100 of the robot 1 according to the present embodiment spans a plurality of objects, arbitration between the objects is necessary. For example, Reflexive SBL, which is an object that controls reflex behavior, needs to avoid or balance things without worrying about the behavior evaluation of SBL, which is an object that controls higher-level situation-dependent behavior. This means that the execution right is actually taken and executed, but the higher-level action module (SBL) is notified that the execution right has been taken, and the higher-level preemptive ability is obtained by performing the processing. Hold.

また、状況依存行動層108内において、外部刺激と内部状態の変化に基づくAL値の評価の結果、あるスキーマに実行許可がなされたとする。さらに、その後の外部刺激と内部状態の変化に基づくAL値の評価により、別のスキーマの重要度の方がより高くなったとする。このような場合、実行中のスキーマのActions関数を利用してSleep状態にして中断することにより、Preemptiveな行動の切り替えを行なうことができる。   In the situation-dependent behavior layer 108, it is assumed that execution of a certain schema is permitted as a result of the evaluation of the AL value based on the external stimulus and the change in the internal state. Furthermore, it is assumed that the importance of another schema becomes higher due to the evaluation of the AL value based on the subsequent external stimulus and the change in the internal state. In such a case, it is possible to switch the preemptive behavior by using the Actions function of the schema being executed and suspending the sleep state.

実行中のスキーマのActions()の状態を保存して、異なるスキーマのActions()を実行する。また、異なるスキーマのActions()が終了した後、中断されたスキーマのActions()を再度実行することができる。   The state of Actions () of the schema being executed is saved, and Actions () of a different schema is executed. In addition, after the Actions () of the different schema ends, the Actions () of the interrupted schema can be executed again.

また、実行中のスキーマのActions()を中断して、異なるスキーマに実行権が移動する前に、SleepActions()を実行する。例えば、ロボット1は、対話中にサッカーボールを見つけると、「ちょっと待ってね」と言って、サッカーすることができる。   Further, the Actions () of the schema being executed is interrupted, and the SleepActions () is executed before the execution right is transferred to a different schema. For example, when the robot 1 finds a soccer ball during the conversation, it can say “Please wait a moment” and play soccer.

(4)Reentrant:
状況依存行動階層108を構成する各スキーマは、一種のサブルーチンである。スキーマは、複数の親からコールされた場合には、その内部状態を記憶するために、それぞれの親に対応した記憶空間を持つ必要がある。
(4) Reentrant:
Each schema constituting the situation-dependent action hierarchy 108 is a kind of subroutine. When a schema is called from a plurality of parents, it is necessary to have a storage space corresponding to each parent in order to store the internal state.

これは、コンピュータの世界では、OSが持つReentrant性に類似しており、本明細書ではスキーマのReentrant性と呼ぶ。図30を参照しながら説明したように、スキーマはクラス・オブジェクトで構成されており、クラス・オブジェクトのエンティティすなわちインスタンスをターゲット(Pronome)毎に生成することによりReentrant性が実現される。   This is similar to the Reentrant property of the OS in the computer world, and is referred to as schema Reentrant property in this specification. As described with reference to FIG. 30, the schema is composed of class objects, and the Reentrant property is realized by generating an entity, that is, an instance of the class object for each target (Pronome).

スキーマのReentrant性について、図35を参照しながらより具体的に説明する。   The Reentrant property of the schema will be described more specifically with reference to FIG.

SchemaHandlerは、スキーマを管理するためのクラス・オブジェクトであり、SBLを構成するスキーマのコンフィギュレーション情報をファイルとして保管している。システムの起動時に、SchemaHandlerは、このコンフィギュレーション情報ファイルを読み込んで、SBL内のスキーマ構成を構築する。図31に示す例では、EatやDialogなどの行動を規定するスキーマのエンティティがメモリ空間上にマッピングされているとする。   The SchemaHandler is a class object for managing the schema, and stores configuration information of the schema constituting the SBL as a file. At system startup, the SchemaHandler reads this configuration information file and builds a schema configuration in the SBL. In the example shown in FIG. 31, it is assumed that an entity of a schema that defines an action such as Eat or Dialog is mapped on the memory space.

ここで、外部刺激と内部状態の変化に基づく活動度レベルの評価により、スキーマDialogに対してAというターゲット(Pronome)が設定されて、Dialogが人物Aとの対話を実行するようになったとする。   Here, it is assumed that the target (Pronom) A is set for the schema Dialog by the evaluation of the activity level based on the external stimulus and the change in the internal state, and the Dialog starts to execute the dialogue with the person A. .

その後、人物Bがロボット1と人物Aとの対話に割り込み、外部刺激と内部状態の変化に基づく活動度レベルの評価を行なった結果、Bとの対話を行なうスキーマの方がより優先度が高くなったとする。   After that, the person B interrupts the conversation between the robot 1 and the person A and evaluates the activity level based on the external stimulus and the change in the internal state. As a result, the schema for the conversation with B has a higher priority. Suppose that

このような場合、SchemaHandlerは、Bとの対話を行なうためのクラス継承した別のDialogエンティティ(インスタンス)をメモリ空間上にマッピングする。別のDialogエンティティを使用して、先のDialogエンティティとは独立して、Bとの対話を行なうことから、Aとの対話内容は破壊されずに済む。したがって、Dialog Aはデータの一貫性を保持することができ、Bとの対話が終了すると、Aとの対話を中断した時点から再開することができる。   In such a case, SchemaHandler maps another Dialog entity (instance) that inherits the class for performing the interaction with B on the memory space. Since another Dialog entity is used and the dialogue with B is performed independently of the previous Dialog entity, the content of the dialogue with A is not destroyed. Therefore, Dialog A can maintain data consistency, and when the dialogue with B is finished, the dialogue with A can be resumed from the point at which it was interrupted.

Readyリスト内のスキーマは、その対象物(外部刺激)に応じて評価すなわちAL値の計算が行なわれ、実行権が引き渡される。その後、Readyリスト内に移動したスキーマのインスタンスを生成して、これ以外の対象物に対して評価を行なう。これにより、同一のスキーマをactive又はsleep状態にすることができる。   The schema in the Ready list is evaluated, that is, the AL value is calculated according to the object (external stimulus), and the execution right is handed over. Thereafter, an instance of the schema that has been moved into the Ready list is generated, and evaluation is performed on other objects. Thereby, the same schema can be set in the active or sleep state.

E.ロボットの内部状態管理
本実施形態に係るロボットの行動制御システム100では、状況依存行動階層108は内部状態と外部環境によって行動を決定する。
E. In the robot behavior control system 100 according to the present embodiment, the situation-dependent behavior hierarchy 108 determines the behavior according to the internal state and the external environment.

ロボット装置1の内部状態は、本能や感情といった数種類の情動で構成され、数式モデル化して扱われる。内部状態管理部(ISM:Internal Status Manager)104は、上述した各認識機能部101〜103によって認識された外部刺激(ES:ExternalStimula)と、時間的経過に基づいて、内部状態を管理する。   The internal state of the robot apparatus 1 is composed of several types of emotions such as instinct and emotion, and is handled as a mathematical model. An internal state management unit (ISM: Internal Status Manager) 104 manages an internal state based on an external stimulus (ES: External Stimula) recognized by each of the recognition function units 101 to 103 described above and a time course.

E−1.情動の階層化
本実施形態では、情動についてその存在意義による複数階層で構成され、それぞれの階層で動作する。決定された複数の動作から、そのときの外部環境や内部状態によってどの動作を行なうかを決定するようになっている(後述)。また、それぞれの階層で行動は選択されるが、より低次の行動から優先的に動作を発現していくことにより、反射などの本能的行動や、記憶を用いた動作選択などの高次の行動を1つの個体上で矛盾なく発現することができる。
E-1. Emotional Hierarchization In this embodiment, emotions are composed of a plurality of hierarchies depending on their significance and operate in each hierarchy. From a plurality of determined operations, which operation is to be performed is determined according to the external environment and internal state at that time (described later). In addition, actions are selected at each level, but by expressing actions preferentially from lower-order actions, higher-order actions such as instinct actions such as reflexes and action selection using memory Behavior can be expressed consistently on one individual.

図36には、本実施形態に係る内部状態管理部104の階層的構成を模式的に示している。   FIG. 36 schematically shows a hierarchical configuration of the internal state management unit 104 according to the present embodiment.

図示の通り、内部状態管理部104は、情動などの内部情報を、情動を本能や欲求などの個体存続に必要な1次情動と、この1次情動の満足度(過不足)によって変化する2次情動に大別する。また、1次情動は、個体存続においてより生理的なものから連想に至るものまで階層的に細分化されている。   As shown in the figure, the internal state management unit 104 changes the internal information such as emotions according to primary emotions necessary for individual survival such as instinct and desire, and satisfaction (over or shortage) of the primary emotions 2 Broadly divided into the following emotions. Further, primary emotions are hierarchically subdivided from those that are more physiological to those that are associated with the survival of the individual.

図示の例では、1次情動は、低次から高次に向かって、下位の1次情動、上位の1次情動、連想による1次情動に区分される。下位の1次情動は、大脳辺縁系へのアクセスに相当し、ホメオスタシス(個体維持)が保たれるように情動発生するとともに、ホメオスタシスが脅かされる場合には優先される。また、上位の1次情動は、大脳新皮質へのアクセスに相当し、内発的欲求や社会的欲求などの種族維持に関わる。上位の1次情動は、学習や環境に依って満足度が変化する(学習やコミュニケーションにより満足される)。   In the example shown in the figure, the primary emotion is divided into a lower primary emotion, an upper primary emotion, and an associated primary emotion from the lower order to the higher order. The lower primary emotion corresponds to access to the limbic system, and the emotion is generated so that homeostasis (individual maintenance) is maintained, and is given priority when homeostasis is threatened. The upper primary emotions correspond to access to the cerebral neocortex and are related to race maintenance such as intrinsic desires and social needs. The degree of satisfaction of the upper primary emotion varies depending on learning and environment (satisfied by learning and communication).

1次情動の各階層は、行動選択されたスキーマを実行することによる一時情動(本能)レベルの変化量ΔIを出力する。   Each level of the primary emotion outputs a change amount ΔI of a temporary emotion (instinct) level by executing the action-selected schema.

2次情動は、いわゆる感情(Emotion)に相当し、喜び(Joy)、悲しみ(Sad)、怒り(Anger)、驚き(Surprise)、嫌気(Disgust)、畏怖(Feer)などの要素からなる。1次情動の変化量ΔIに応じて2次情動の変化量(満足度)ΔEが決定される。   The secondary emotion corresponds to so-called emotion, and includes elements such as joy, sadness, anger, surprise, anxiety, and fear. A change amount (satisfaction) ΔE of the secondary emotion is determined according to the change amount ΔI of the primary emotion.

状況依存行動階層108では、主に1次情動を基に行動選択を行なうが、2次情動が強い場合には、2次情動に基づく行動選択を行なうこともできる。さらに、1次情動を基に選択された行動に対して2次情動により生成されたパラメータを使用してモジュレーションを行なうことも可能である。   In the situation-dependent action hierarchy 108, action selection is performed mainly based on the primary emotion, but when the secondary emotion is strong, action selection based on the secondary emotion can also be performed. Furthermore, it is also possible to modulate the action selected based on the primary emotion using the parameter generated by the secondary emotion.

個体存続のための情動階層は、生得的反射による行動がまず選択される。次いで、下位の1次情動を満たす行動を選択する。そして、上位の1次情動を満たす行動発生、連想による1次情動を満たす行動発生と、よりプリミティブな個体保持から実現する。   The emotional hierarchy for the survival of an individual is first selected for behavior by innate reflexes. Next, an action that satisfies the lower primary emotion is selected. Then, it is realized by the action generation satisfying the upper primary emotion, the action generation satisfying the primary emotion by the association, and the more primitive individual retention.

この際、各階層の1次情動は、直近の階層に対して圧力をかけることができる。自身で決定した行動を選択するための指標が強い場合、直近の階層で決定された行動を抑制して、自身の行動を発現することができる。   At this time, the primary emotion of each layer can apply pressure to the nearest layer. When the index for selecting the action determined by itself is strong, it is possible to suppress the action determined in the latest hierarchy and express its own action.

前項Dでも述べたように、状況依存行動階層108は、目標とする動作を持った複数のスキーマによって構成されている(図18、図19などを参照のこと)。状況依存行動階層108では、各スキーマが持つ活動度レベルを指標にしてスキーマすなわち行動を選択する。内部状態の活動度レベルと外部状況の活動度レベルによりスキーマ全体の活動度レベルが決定する。スキーマは、目標とする動作を実行するための途中経過毎に、活動度レベルを保持する。○○を満たす行動発生とは、○○を満たす行動が最終目標であるスキーマを実行することに相当する。   As described in the previous section D, the situation-dependent action hierarchy 108 is composed of a plurality of schemas having target actions (see FIGS. 18 and 19). In the situation-dependent action hierarchy 108, a schema, that is, an action is selected using an activity level of each schema as an index. The activity level of the entire schema is determined by the activity level of the internal state and the activity level of the external situation. The schema maintains an activity level for each halfway progress to execute a target action. The occurrence of an action satisfying OO corresponds to executing a schema in which an action satisfying OO is the final goal.

内部状態の活動度レベルは、スキーマを実行したときの1次情動における階層毎の変化量ΔIに基づく2次情動の満足度の変化ΔEの総和によって決定される。ここで、1次情動がL1,L2,L3の3階層からなり、スキーマ選択時の1次情動の各階層に由来する2次情動の変化をそれぞれΔEL1、ΔEL2、ΔEL3とすると、それぞれに重み因子w1、w2、w3を掛けて活動度レベルを算出する。下位の1次情動に対する重み因子をより大きくすることにより、下位の1次情動を満たす行動がより選択され易くなる。また、これら重み因子を調整することにより、各階層の1次情動が直近の階層に対して圧力をかける(Concentration:行動抑制)という作用を得ることができる。 The activity level of the internal state is determined by the sum of the change ΔE of the satisfaction level of the secondary emotion based on the change amount ΔI for each hierarchy in the primary emotion when the schema is executed. Here, when the primary emotion is composed of three layers L1, L2, and L3, and changes in the secondary emotion derived from each layer of the primary emotion at the time of schema selection are ΔE L1 , ΔE L2 , and ΔE L3 , respectively. Is multiplied by weight factors w 1 , w 2 , and w 3 to calculate the activity level. By increasing the weighting factor for the lower primary emotion, it becomes easier to select an action that satisfies the lower primary emotion. Further, by adjusting these weight factors, it is possible to obtain an effect that the primary emotion of each layer applies pressure to the nearest layer (concentration).

ここで、情動の階層化構造を利用した行動選択の実施例について説明する。但し、以下では下位の1次情動としてSleep(眠気)を、上位の1次情動としてCuriosity(好奇心)を扱う。   Here, an example of action selection using a hierarchical structure of emotion will be described. However, in the following, Sleep (drowsiness) is treated as the lower primary emotion, and Curiosity (curiosity) is treated as the upper primary emotion.

(1)下位の1次情動であるSleepが不足してきて、Sleepを満たすスキーマの活動度レベルが高まってきたとする。このとき、他のスキーマの活動度レベルが上がらなければ、Sleepを満たすスキーマは、Sleepが満たされるまで自身を実行する。 (1) Assume that the level of activity of schemas that satisfy Sleep has increased as Sleep, which is a lower-level primary emotion, has become insufficient. At this time, if the activity level of the other schema does not rise, the schema satisfying Sleep executes itself until Sleep is satisfied.

(2)Sleepが満たされる前に、上位の1次情動であるCuriosityが不足してきたとする。しかし、Sleepのほうが個体維持に直結するため、Sleepの活動度レベルが一定値以下になるまでは、Sleepを満たすスキーマが実行し続ける。そして、Sleepがある程度満たされたら、Curiosityを満たすスキーマを実行することができる。 (2) Suppose that the upper primary emotion, Curiosity, is insufficient before Sleep is satisfied. However, since Sleep is directly linked to individual maintenance, a schema that satisfies Sleep continues to be executed until the activity level of Sleep is below a certain value. When Sleep is satisfied to some extent, a schema that satisfies the Curiosity can be executed.

(3)Curiosityを満たすスキーマ実行中に手を勢いよくロボットの顔面に近づけたとする。これに応答して、ロボットは色認識と大きさ認識による突然肌色が近づいてきたことが判り、生得的な反射行動として手から顔を避ける、すなわち後ろに頭を引くという動作を反射的に行なう。この反射的な動作は動物の脊髄反射に相当する。反射は、最も下位にあるスキーマなので、反射スキーマがまず実行される。 (3) It is assumed that the hand is moved close to the face of the robot while executing the schema satisfying the Curiosity. In response to this, the robot knows that the skin color has suddenly approached due to color recognition and size recognition, and as an innate reflex action it avoids the face from the hand, that is, pulls the head behind it reflexively. . This reflexive movement corresponds to the animal's spinal reflex. Since reflection is the lowest schema, the reflection schema is executed first.

脊髄反射の後、それに伴う情動変化が起き、その変化幅と他のスキーマの活動度レベルから、続いて情動表出スキーマを行なうかどうかを決定する。情動表出スキーマが行なわれていない場合は、Curiosityを満たすスキーマが続行される。   After the spinal cord reflex, the accompanying emotional change occurs, and it is determined from the change width and the activity level of other schemas whether or not the emotional expression schema is subsequently performed. If the emotion expression schema has not been performed, the schema that satisfies the Curiosity is continued.

(4)あるスキーマ自身の下位にあるスキーマは通常自身より選択される可能性が高いが、自身の活動度レベルが極端に高いときに限り、下位のスキーマを抑制して(Concentration)、一定値まで自身を実行することが可能である。Sleepの不足が著しいときは、反射行動スキーマの行動を出したいときであっても、一定値に回復するまではSleepを満たすスキーマが優先的に実行される。 (4) A schema below a certain schema itself is usually more likely to be selected than itself, but only when the activity level of the schema itself is extremely high, the lower schema is suppressed (Concentration) and a constant value. It is possible to execute itself. When the sleep shortage is significant, even if it is time to take action of the reflex behavior schema, the schema that satisfies the sleep is preferentially executed until it is restored to a constant value.

E−2.他の機能モジュールとの連携
図37には、内部状態管理部104と他の機能モジュールとの通信経路を模式的に示している。
E-2. Cooperation with Other Functional Modules FIG. 37 schematically shows communication paths between the internal state management unit 104 and other functional modules.

短期記憶部105は、外部環境の変化を認識する各認識機能部101〜103からの認識結果を、内部状態管理部104と状況依存行動階層108に出力する。   The short-term storage unit 105 outputs recognition results from the recognition function units 101 to 103 that recognize changes in the external environment to the internal state management unit 104 and the situation-dependent action hierarchy 108.

内部状態管理部104は、状況依存行動階層108に内部状態を通知する。これに対し、状況依存行動階層108は、連想又は決定した本能や感情の情報を返す。   The internal state management unit 104 notifies the internal state to the situation-dependent action hierarchy 108. On the other hand, the situation-dependent action hierarchy 108 returns information on the instinct or emotion that is associated or determined.

また、状況依存行動階層108は、内部状態と外部環境から算出される活動度レベルを基に行動を選択するとともに、選択した行動の実行と完了を短期記憶部105経由で内部状態管理部104に通知する。   In addition, the situation-dependent action hierarchy 108 selects an action based on the activity level calculated from the internal state and the external environment, and executes and completes the selected action to the internal state management unit 104 via the short-term storage unit 105. Notice.

内部状態管理部104は、行動毎に内部状態を長期記憶部106に出力する。これに対し、長期記憶部106は、記憶情報を返す。   The internal state management unit 104 outputs the internal state to the long-term storage unit 106 for each action. In response to this, the long-term storage unit 106 returns stored information.

バイオリズム管理部は、バイオリズム情報を内部状態管理部104に供給する。   The biorhythm management unit supplies biorhythm information to the internal state management unit 104.

E−3.時間経過による内部状態の変化
内部状態の指標は時間経過により変化する。例えば、1次情動すなわち本能であるHunger(空腹感)、Fatigue(疲労)、Sleep(眠気)は、時間経過によりそれぞれ以下のように変化する。
E-3. Changes in internal state over time The internal state index changes over time. For example, primary emotions, that is, instincts such as Hunger (fatigue), Fatigue (fatigue), and Sleep (sleepiness) change as follows according to the passage of time.

Hunger:おなかが減る(仮想値又はバッテリ残量)
Fatigue:疲れがたまる
Sleep:眠気がたまる
Hunger: Reduced stomach (virtual value or battery level)
Fatigue: Sleepiness: Sleepiness

また、本実施形態では、ロボットの2次情動すなわち感情(Emotion)の要素としてPleasantness(満足度),Activation(活動度),Certainty(確信度)を定義しているが、時間経過によりそれぞれ以下のように変化する。   Further, in this embodiment, Pleasantness (satisfaction), Activation (activity), and Certality (definition) are defined as elements of secondary emotions of the robot, that is, emotions. To change.

Pleasantness:Neutral(中立)に向かって変化する
Activation:バイオリズムやSleep(眠気)に依存する
Certainty:Attentionに依存する
Pleasantness: Neutral changes: Activation: Biorhythms and Sleep (sleepiness) depend on Certification: Attentions

図38には、内部状態管理部104が時間変化に伴って内部状態を変化させるための仕組みを示している。   FIG. 38 shows a mechanism for the internal state management unit 104 to change the internal state with time.

図示のように、バイオリズム管理部は、一定の周期でバイオリズム情報を通知する。これに対し、内部状態管理部104は、バイオリズムにより1次情動の各要素の値を変更するとともに、2次情動であるActivation(活動度)を変動させる。そして、状況依存行動階層108は、バイオリズム管理部からの通知がある度に、内部状態管理部104から本能や感情など内部状態の指標値を受け取るので、内部状態を基に各スキーマの活動度レベルを算出することにより、状況に依存した行動(スキーマ)を選択することができる。   As shown in the figure, the biorhythm management section notifies the biorhythm information at a constant cycle. On the other hand, the internal state management unit 104 changes the value of each element of the primary emotion by biorhythm and changes the activation (activity) that is the secondary emotion. The situation-dependent behavior hierarchy 108 receives the index value of the internal state such as instinct and emotion from the internal state management unit 104 every time there is a notification from the biorhythm management unit, so the activity level of each schema based on the internal state By calculating, an action (schema) depending on the situation can be selected.

E−4.動作実行による内部状態の変化
内部状態は、ロボットが動作を実行することによっても変化する。
E-4. Change in internal state due to operation execution The internal state also changes when the robot executes an operation.

例えば、「眠る」という行動を行なうスキーマは、下位の1次情動としてのSleep(眠気)を満たす行動が最終目標としている。状況依存行動階層108では、1次情動としてのSleepと2次情動としてのActivationを基に各スキーマの活動度レベルを算出・比較して、「眠る」スキーマを選択し、この結果、眠るという行動が実現される。   For example, in a schema that performs an action of “sleeping”, an action that satisfies Sleep (sleepiness) as a lower primary emotion is a final goal. In the situation-dependent action hierarchy 108, the activity level of each schema is calculated and compared based on the sleep as the primary emotion and the activation as the secondary emotion, and the “sleep” schema is selected. Is realized.

一方、状況依存行動階層108は、眠るという行動の実行完了を短期記憶部105経由で内部状態管理部104に伝達する。これに対し、内部状態管理部104は、「眠る」行動の実行により、1次情動であるSleepの指標値を変更する。   On the other hand, the situation-dependent behavior hierarchy 108 transmits the completion of execution of the action of sleeping to the internal state management unit 104 via the short-term storage unit 105. On the other hand, the internal state management unit 104 changes the index value of Sleep, which is the primary emotion, by executing the “sleep” action.

そして、状況依存行動階層108では、Sleepが満たされた度合いと2次情動としてのActivationを基に各スキーマの活動度レベルを改めて算出・比較する。この結果、優先度が高くなった他のスキーマを選択し、眠るというスキーマから抜ける。   Then, in the situation-dependent action hierarchy 108, the activity level of each schema is calculated and compared anew based on the degree to which Sleep is satisfied and the activation as the secondary emotion. As a result, another schema having a higher priority is selected and the system leaves the schema of sleeping.

図39には、内部状態管理部104がロボットの動作実行により内部状態を変化させるための仕組みを示している。   FIG. 39 shows a mechanism for the internal state management unit 104 to change the internal state by executing the robot operation.

状況依存行動階層108は、状況依存型で選択された行動の実行開始及び実行終了、並びにAttention情報を、短期記憶部105経由で内部状態管理部104に通知する。   The situation-dependent action hierarchy 108 notifies the internal state management unit 104 of the execution start and execution end of the action selected in the context-dependent manner and the Attention information via the short-term storage unit 105.

内部状態管理部104は、選択された行動の実行完了情報が通知されると、Attention情報に則って、短期記憶部105から得た外部環境を確認して、1次情動としての本能(Sleep)の指標値を変更するとともに、これに伴って2次情動としての感情も変更する。そして、これら内部状態の更新データを、状況依存行動階層108並びに長期記憶部106に出力する。   When the execution completion information of the selected action is notified, the internal state management unit 104 confirms the external environment obtained from the short-term storage unit 105 according to the Attention information, and instinct (Sleep) as the primary emotion And the emotion as the secondary emotion are also changed accordingly. Then, the update data of the internal state is output to the situation dependent action hierarchy 108 and the long-term storage unit 106.

状況依存行動階層108では、新たに受け取った内部状態の指標値を基に、各スキーマの活動度レベルを算出して、状況に依存した次の行動(スキーマ)を選択する。   In the situation-dependent action hierarchy 108, the activity level of each schema is calculated based on the newly received index value of the internal state, and the next action (schema) depending on the situation is selected.

また、長期記憶部106は、内部状態の更新データを基に記憶情報を更新するとともに、更新内容を内部状態管理部104に通知する。内部状態管理部104では、外部環境に対する確信度と長期記憶部106の確信度により、2次情動としての確信度(Certainty)を決定する。   The long-term storage unit 106 updates the storage information based on the internal state update data, and notifies the internal state management unit 104 of the updated content. The internal state management unit 104 determines the certainty factor (Certainty) as the secondary emotion based on the certainty factor for the external environment and the certainty factor of the long-term storage unit 106.

E−5.センサ情報による内部状態の変化
ロボットが動作を実行したときのその動作程度は、各認識機能部101〜103によって認識され、短期記憶部105経由で内部状態管理部104に通知される。内部状態管理部104は、この動作程度を例えばFatigue(疲労)として1次情動の変化に反映させることができる。また、この1次情動の変化に応答して、2次情動も変化させることができる。
E-5. Change of internal state based on sensor information The degree of movement of the robot when the robot executes the movement is recognized by each of the recognition function units 101 to 103 and notified to the internal state management unit 104 via the short-term storage unit 105. The internal state management unit 104 can reflect this degree of operation as, for example, fatigue (fatigue) in the change of the primary emotion. Further, the secondary emotion can be changed in response to the change of the primary emotion.

図40には、内部状態管理部104が外部環境の認識結果により内部状態を変化させるための仕組みを示している。   FIG. 40 shows a mechanism for the internal state management unit 104 to change the internal state based on the recognition result of the external environment.

内部状態管理部104は、短期記憶部105経由で各認識機能部101〜103による認識結果を受け取ると、1次情動の指標値を変更するとともに、これに伴って2次情動としての感情も変更する。そして、これら内部状態の更新データを、状況依存行動階層108に出力する。   When the internal state management unit 104 receives the recognition results by the recognition function units 101 to 103 via the short-term storage unit 105, the internal state management unit 104 changes the index value of the primary emotion and changes the emotion as the secondary emotion accordingly. To do. Then, the update data of the internal state is output to the situation dependent action hierarchy 108.

状況依存行動階層108では、新たに受け取った内部状態の指標値を基に、各スキーマの活動度レベルを算出して、状況に依存した次の行動(スキーマ)を選択することができる。   In the situation dependent action hierarchy 108, the activity level of each schema can be calculated based on the newly received index value of the internal state, and the next action (schema) depending on the situation can be selected.

E−6.連想による内部状態の変化
既に述べたように、本実施形態に係るロボットは、長期記憶部106において連想記憶機能を備えている。この連想記憶は、あらかじめ複数のシンボルからなる入力パターンを記憶パターンとして記憶しておき、その中のある1つのパターンに類似したパターンが想起される仕組みのことであり、外部刺激から内部状態の変化を連想記憶することができる。
E-6. Changes in Internal State due to Association As described above, the robot according to this embodiment has an associative memory function in the long-term storage unit 106. This associative memory is a mechanism in which an input pattern consisting of a plurality of symbols is stored in advance as a memory pattern, and a pattern similar to one pattern is recalled. Associative memory.

例えば、りんごが見えた場合に「嬉しい」という情動の変化を起こす場合について考察してみる。   For example, consider the case where an emotional change of “happy” occurs when an apple is seen.

りんごが視覚認識機能部101において認識されると、短期記憶部105を経由して状況依存行動階層108に外部環境の変化として通知される。   When the apple is recognized by the visual recognition function unit 101, the situation-dependent behavior hierarchy 108 is notified as a change in the external environment via the short-term storage unit 105.

長期記憶部106では、「りんご」に関する連想記憶により、「(りんごを)食べる」という行動と、食べることにより1次情動(空腹感)が指標値で30だけ満たされるという内部状態の変化を想起することができる。   The long-term memory unit 106 recalls an action of “eating (apple)” and an internal state change in which the primary emotion (hunger) is satisfied by an index value of 30 by eating with an associative memory related to “apple”. can do.

状況依存行動階層108は、長期記憶部106から記憶情報を受け取ると、内部状態の変化ΔI=30を、内部状態管理部104に通知する。   When receiving the storage information from the long-term storage unit 106, the situation-dependent behavior hierarchy 108 notifies the internal state management unit 104 of the change ΔI = 30 in the internal state.

内部状態管理部104では、通知されたΔIを基に、2次情動の変化量ΔEを算出して、りんごを食べることによる2次情動Eの指標値を得ることができる。   The internal state management unit 104 can calculate the change amount ΔE of the secondary emotion based on the notified ΔI, and obtain an index value of the secondary emotion E by eating an apple.

図41には、内部状態管理部104が連想記憶により内部状態を変化させるための仕組みを示している。   FIG. 41 shows a mechanism for the internal state management unit 104 to change the internal state by associative memory.

外部環境が短期記憶部105を経由して状況依存行動階層108に通知される。長期記憶部106の連想記憶機能により、外部環境に応じた行動と、1次情動の変化ΔIを想起することができる。   The external environment is notified to the situation dependent action hierarchy 108 via the short-term storage unit 105. With the associative memory function of the long-term storage unit 106, it is possible to recall an action according to the external environment and a change ΔI of the primary emotion.

状況依存行動階層108は、この連想記憶により得られた記憶情報を基に行動を選択するとともに、1次情動の変化ΔIを内部状態管理部104に通知する。   The situation-dependent action hierarchy 108 selects an action based on the storage information obtained by the associative memory, and notifies the internal state management unit 104 of the change ΔI of the primary emotion.

内部状態管理部104では、通知を受けた1次情動の変化ΔIと、自身で管理している1次情動の指標値とを基に、2次情動の変化ΔEを算出して、2次情動を変化させる。そして、新たに生成された1次情動及び2次情動を、内部状態更新データとして状況依存行動階層108に出力する。   The internal state management unit 104 calculates the secondary emotion change ΔE based on the primary emotion change ΔI received and the primary emotion index value managed by the internal state management unit 104. To change. Then, the newly generated primary emotion and secondary emotion are output to the situation dependent behavior hierarchy 108 as internal state update data.

状況依存行動階層108では、新たに受け取った内部状態の指標値を基に、各スキーマの活動度レベルを算出して、状況に依存した次の行動(スキーマ)を選択することができる。   In the situation dependent action hierarchy 108, the activity level of each schema can be calculated based on the newly received index value of the internal state, and the next action (schema) depending on the situation can be selected.

E−7.生得的な行動による内部状態の変化
本実施形態に係るロボットが動作実行により内部状態を変化させることは既に述べた通りである(図39を参照のこと)。この場合、1次情動と2次情動からなる内部状態の指標値を基に行動が選択されるとともに、行動の実行完了により情動が満たされる。他方、本実施形態に係るロボットは、情動に依存しない、生得的な反射行動も規定されている。この場合、外部環境の変化に応じて反射行動が直接選択されることになり、通常の動作実行による内部変化とは異なる仕組みとなる。
E-7. Changes in Internal State due to Intrinsic Behavior As described above, the robot according to the present embodiment changes the internal state by executing an action (see FIG. 39). In this case, the action is selected based on the index value of the internal state composed of the primary emotion and the secondary emotion, and the emotion is satisfied when the execution of the action is completed. On the other hand, the robot according to the present embodiment also defines an innate reflex behavior that does not depend on emotion. In this case, the reflex behavior is directly selected according to the change in the external environment, and the mechanism is different from the internal change caused by normal operation execution.

例えば、大きなものが突然現れたときに生得的な反射行動をとる場合について考察してみる。   For example, consider the case of taking an innate reflex behavior when a large thing suddenly appears.

このような場合、例えば視覚的認識機能部101による「大きいもの」という認識結果(センサ情報)は、短期記憶部105を介さず、状況依存行動階層108に直接入力される。   In such a case, for example, the recognition result (sensor information) of “large” by the visual recognition function unit 101 is directly input to the situation-dependent action hierarchy 108 without passing through the short-term storage unit 105.

状況依存行動階層108では、「大きいもの」という外部刺激により各スキーマの活動度レベルを算出して、適当な行動を選択する(図15、図25及び図26を参照のこと)。この場合、状況依存行動階層108では、「よける」という脊髄反射的行動を選択するとともに、「驚く」という2次情動を決定して、これを内部状態管理部104に通知する。   In the situation-dependent action hierarchy 108, an activity level of each schema is calculated by an external stimulus “large”, and an appropriate action is selected (see FIGS. 15, 25, and 26). In this case, in the situation-dependent action hierarchy 108, the spinal reflex action “OK” is selected, the secondary emotion “surprise” is determined, and this is notified to the internal state management unit 104.

内部状態管理部104では、状況依存行動階層108から送られてきた2次情動を自身の感情として出力する。   The internal state management unit 104 outputs the secondary emotion sent from the situation-dependent action hierarchy 108 as its own emotion.

図42には、内部状態管理部104が生得的反射行動により内部状態を変化させるための仕組みを示している。   FIG. 42 shows a mechanism for the internal state management unit 104 to change the internal state by innate reflection behavior.

生得的な反射行動を行なう場合、各認識機能部101〜103による戦さ情報は、短期記憶部105を介さず、状況依存行動階層108に直接入力される。   When performing an innate reflex action, the fighting information by each recognition function part 101-103 is directly input into the situation dependence action hierarchy 108 not via the short-term memory | storage part 105. FIG.

状況依存行動階層108では、センサ情報として得た外部刺激により各スキーマの活動度レベルを算出して、適当な行動を選択するとともに、2次情動を決定して、これを内部状態管理部104に通知する。   In the situation-dependent action hierarchy 108, the activity level of each schema is calculated by an external stimulus obtained as sensor information, an appropriate action is selected, a secondary emotion is determined, and this is sent to the internal state management unit 104. Notice.

内部状態管理部104では、状況依存行動階層108から送られてきた2次情動を自身の感情として出力する。また、状況依存行動階層108からのActivationに対して、バイオリズムの高低によって最終的なActivationを決定する。   The internal state management unit 104 outputs the secondary emotion sent from the situation-dependent action hierarchy 108 as its own emotion. Further, the final activation is determined based on the level of biorhythm with respect to the activation from the situation-dependent behavior hierarchy 108.

状況依存行動階層108では、新たに受け取った内部状態の指標値を基に、各スキーマの活動度レベルを算出して、状況に依存した次の行動(スキーマ)を選択することができる。   In the situation dependent action hierarchy 108, the activity level of each schema can be calculated based on the newly received index value of the internal state, and the next action (schema) depending on the situation can be selected.

E−8.スキーマと内部状態管理部との関係
状況依存行動階層108は、複数のスキーマで構成され、各スキーマ毎に外部刺激や内部状態の変化によって活動度レベルを算出して、活動度レベルの度合いに応じてスキーマを選択して行動を実行する(図18、図19、図25を参照のこと)。
E-8. Relationship between schema and internal state management unit The situation-dependent behavior hierarchy 108 is composed of a plurality of schemas. For each schema, an activity level is calculated based on an external stimulus or a change in an internal state, and the activity level is determined according to the level of the activity level. The schema is selected and the action is executed (see FIGS. 18, 19, and 25).

図43には、スキーマと内部状態管理部との関係を模式的に示している。スキーマは、DSubjectやDObjectなどのプロキシを介して、短期記憶部105、長期記憶部106、内部状態管理部104などの外部オブジェクトと通信することができる(図30を参照のこと)。   FIG. 43 schematically shows the relationship between the schema and the internal state management unit. The schema can communicate with external objects such as the short-term storage unit 105, the long-term storage unit 106, and the internal state management unit 104 via a proxy such as DSubject or DOObject (see FIG. 30).

スキーマは、外部刺激や内部状態の変化によって活動度レベルを算出するクラス・オブジェクトを備えている。RM(Resource Management)オブジェクトは、プロキシを介して短期記憶部105に通信して、外部環境を取得して、外部環境に基づく活動度レベルを算出する。また、Motivation算出クラス・オブジェクトは、プロキシを介して長期記憶部106並びに内部状態管理部104と通信して、内部状態の変化量を取得して、内部状態に基づく活動度レベルすなわちMotivationを算出する。Motivationの算出方法に関しては後に詳解する。   The schema includes a class object that calculates an activity level according to an external stimulus or a change in an internal state. An RM (Resource Management) object communicates with the short-term storage unit 105 via a proxy, acquires an external environment, and calculates an activity level based on the external environment. In addition, the Motivation calculation class object communicates with the long-term storage unit 106 and the internal state management unit 104 via the proxy, acquires the amount of change in the internal state, and calculates the activity level based on the internal state, that is, the Motivation. . The calculation method of Motivation will be described in detail later.

内部状態管理部104は、既に述べたように、1次情動と2次情動とに段階的に階層化されている。また、1次情動に関しては、生得的反応による1次情動階層と、ホメオスタシスによる1次情動と、連想による1次情動とに次元的に階層化されている(図36を参照のこと)。また、2次情動としての感情は、P(Pleasantness)、A(Activity)、C(Concentration)の3要素にマッピングされている。   As described above, the internal state management unit 104 is layered in stages into primary emotions and secondary emotions. The primary emotions are dimensionally hierarchized into primary emotion layers based on innate reactions, primary emotions based on homeostasis, and primary emotions based on association (see FIG. 36). The emotion as the secondary emotion is mapped to three elements of P (Pleasantness), A (Activity), and C (Concentration).

1次情動の各階層における変化ΔIはすべて2次情動に入力されて、Pleasantnessの変化ΔPの算出に利用される。   All changes ΔI in each layer of the primary emotion are input to the secondary emotion and used to calculate the Pleasantness change ΔP.

Activityは、センサ入力、動作時間、バイオリズムなどの情報から統合的に判断される。   Activity is comprehensively determined from information such as sensor input, operation time, and biorhythm.

また、選択されたスキーマの確信度を、実際の2次情動階層における確信度として使用する。   Further, the certainty factor of the selected schema is used as the certainty factor in the actual secondary emotion hierarchy.

図44には、Motivation算出クラス・オブジェクトによるMotivation算出経路を模式的に示している。   FIG. 44 schematically shows the Motivation calculation path by the Motivation calculation class object.

RMクラス・オブジェクトは、プロキシ経由で短期記憶部105にアクセスして、センサ情報を取得し、認識された対象物の距離や大きさなどの刺激の強さに基づいて外部刺激による活動度レベルを評価する。   The RM class object accesses the short-term storage unit 105 via a proxy, acquires sensor information, and determines the activity level by an external stimulus based on the strength of the stimulus such as the distance and size of the recognized object. evaluate.

一方、Motivation算出クラス・オブジェクトは、プロキシ経由で短期記憶部105にアクセスして、対象物に関する特徴を取得して、さらにプロキシ経由で長期記憶部106の対象物の特徴を問い合わせて内部状態の変化を取得する。そして、プロキシ経由で内部状態管理部104にアクセスして、ロボット内部にある内部評価値を算出する。したがって、Motivationの算出は、外部刺激の強さには無関係である。   On the other hand, the Motivation calculation class / object accesses the short-term storage unit 105 via a proxy, acquires characteristics relating to the object, and further inquires about the characteristics of the object in the long-term storage unit 106 via the proxy to change the internal state. To get. Then, the internal state management unit 104 is accessed via a proxy to calculate an internal evaluation value inside the robot. Therefore, the calculation of Motivation is independent of the strength of the external stimulus.

本実施形態に係るロボットの行動制御システムが連想記憶を用いて外部刺激から内部状態の変化を想起することにより、2次情動を算出して行動選択を行なう、ということは既に述べた(図41を参照のこと)。さらに、連想記憶を用いることにより、対象物毎に異なる内部状態の変化を想起させることができる。これによって、同じ状況でもその行動の発現し易さを異ならせることができる。すなわち、外部の刺激や物理的状況、現在の内部状態に加え、ロボットの対象物ごとの記憶を考慮して行動を選択することができ、より多彩で多様化した対応を実現することができる。   As described above, the behavior control system of the robot according to the present embodiment uses the associative memory to recall the change of the internal state from the external stimulus, thereby calculating the secondary emotion and selecting the behavior (FIG. 41). checking). Furthermore, by using associative memory, it is possible to recall a change in the internal state that is different for each object. Thereby, even in the same situation, it is possible to vary the ease of expression of the action. That is, in addition to external stimuli, physical conditions, and the current internal state, an action can be selected in consideration of memory for each object of the robot, and more various and diversified responses can be realized.

例えば、「○○が見えているから××する」とか、「現在○○が不足だから(何に対しても)××する」などの外部環境又は内部状態によって決まった行動をするのではなく、「○○が見えても△△なので□□する」とか、「○○が見えているけど××なので■■する」など、対象物に関する内部状態の変化記憶を用いることにより、行動にバリエーションをつけることができる。   For example, instead of taking action determined by the external environment or internal state, such as “I do XX because I can see XX” or “I do XX because I do n’t have enough XX” , Even if you can see ○○, □□ because it is △△, or “you can see it because it is XX, but ■■■”, you can use it to change the internal state of the object. You can turn on.

図45には、対象物が存在するときのMotivation算出処理のメカニズムを模式的に示している。   FIG. 45 schematically shows the mechanism of the Motivation calculation process when an object is present.

まず、プロキシ経由で短期記憶部105にアクセスして、認識機能部101〜103により認識されたターゲットの特徴を尋ねる。   First, the short-term storage unit 105 is accessed via a proxy, and the target features recognized by the recognition function units 101 to 103 are inquired.

次いで、取り出した特徴を用いて、今度はプロキシ経由で長期記憶部106にアクセスして、その特徴の対象物がスキーマに関係した欲求をどのように変化させるか、すなわち1次情動の変化ΔIを獲得する。   Next, using the extracted feature, this time, the long-term storage unit 106 is accessed via the proxy, and how the feature object changes the desire related to the schema, that is, the primary emotion change ΔI is changed. To win.

次いで、プロキシ経由で内部状態管理部104にアクセスして、欲求の変化により快不快の値がどのように変化するか、すなわち2次情動の変化ΔPleasantを引き出す。   Next, the internal state management unit 104 is accessed via the proxy to extract how the pleasantness / discomfort value changes due to a change in desire, that is, a secondary emotion change ΔPleaant.

そして、2次情動の変化ΔPleasantと対象物の確信度を引数とする以下のMotivation算出関数gtarget-iにより、i番目のMotivationを算出する。 Then, the i-th motivation is calculated by the following motivation calculation function g target-i that uses the secondary emotion change ΔPleasant and the certainty of the object as arguments.

Figure 2006110707
Figure 2006110707

また、図46には、対象物が存在しないときのMotivation算出処理のメカニズムを模式的に示している。   FIG. 46 schematically shows the mechanism of the Motivation calculation process when there is no object.

この場合、まず、行動に対する記憶に対して、その行動による欲求の変化ΔIを尋ねる。   In this case, first, a change ΔI in desire due to the action is asked with respect to the memory for the action.

次いで、取得したΔIを用いて、内部状態管理部104により1次情動がΔIだけ変化したときの2次情動の変化ΔPleasantを引き出す。そして、この場合は、2次情動の変化ΔPleasantを引数とする以下のMotivation算出関数gnottarget-iにより、i番目のMotivationを算出する。 Next, using the acquired ΔI, the internal state management unit 104 derives a change ΔPleasant of the secondary emotion when the primary emotion changes by ΔI. In this case, the i-th motivation is calculated by the following motivation calculation function g nottarget-i using the secondary emotion change ΔPleasant as an argument.

Figure 2006110707
Figure 2006110707

E−9.2次情動の各要素の変更方法
図47には、2次情動のうちのPleasantnessを変更するためのメカニズムを図解している。
E-9 . Method for Changing Each Element of Secondary Emotion FIG. 47 illustrates a mechanism for changing the Pleasantness of the secondary emotion.

長期記憶部106は、記憶の量による1次情動の変化を内部状態管理部104に入力する。また、短期記憶部105は、認識機能部101〜103からのセンサ入力による1次情動の変化を内部状態管理部104に入力する。   The long-term storage unit 106 inputs changes in the primary emotion according to the amount of storage to the internal state management unit 104. In addition, the short-term storage unit 105 inputs changes in the primary emotion caused by sensor inputs from the recognition function units 101 to 103 to the internal state management unit 104.

また、スキーマは、スキーマ実行による1次情動の変化(Nourishment,Moisture,Sleep)や、スキーマの内容による1次情動の変化(Affection)を内部状態管理部104に入力する。   In addition, the schema inputs the primary emotion change (Nourishment, Moisture, Sleep) due to the schema execution and the primary emotion change (Affection) depending on the schema contents to the internal state management unit 104.

Pleasantnessは、1次情動の過不足の変化に応じて決定される。   Pleasantness is determined according to changes in excess or deficiency of the primary emotion.

また、図48には、2次情動のうちのActivityを変更するためのメカニズムを図解している。   FIG. 48 illustrates a mechanism for changing the activity of the secondary emotion.

Activityは、スキーマのSleep以外の時間の総和と、バイオリズムと、センサ入力を基に、統合的に判断される。   Activity is determined in an integrated manner based on the sum of times other than Sleep in the schema, biorhythm, and sensor input.

また、図49には、2次情動のうちのCertaintyを変更するためのメカニズムを図解している。   Further, FIG. 49 illustrates a mechanism for changing the Certificate of the secondary emotion.

長期記憶部106に対して対象物を尋ねると、Certaintyが返される。どの1次情動に着目するかは、そのスキーマの目標とする行動に依存する。そして、引き出されたCertaintyがそのまま内部状態管理部104の2次情動におけるCertaintyとなる。   When the long-term storage unit 106 is inquired about an object, Certificate is returned. Which primary emotion is focused depends on the target behavior of the schema. Then, the extracted Certificate becomes the Certificate in the secondary emotion of the internal state management unit 104 as it is.

図50には、Certaintyを求めるためのメカニズムを模式的に示している。   FIG. 50 schematically shows a mechanism for obtaining the certificate.

長期記憶部106では、対象物に関する認識結果や情動などの各項目の確からしさを、スキーマ毎に記憶している。   The long-term storage unit 106 stores the probability of each item such as the recognition result and emotion related to the object for each schema.

スキーマは、長期記憶部106に対して、スキーマと関係する記憶の対する確からしさの値を尋ねる。これに対し、長期記憶部106は、スキーマと関係する記憶の確からしさを対象物の確からしさとして与える。   The schema asks the long-term storage unit 106 for a certainty value for the storage related to the schema. In contrast, the long-term storage unit 106 gives the certainty of the storage related to the schema as the certainty of the object.

F.ResourceManagerでのコマンド管理
SituatedBehaviorslayerとReflexiveSituatedBehaviorsLayerから、ロボット装置1の資源管理(ResourceManager)モジュールに対し、ロボット装置1を動作させるためのコマンドが送信される。(図13並びに図18を参照のこと。)
F. Command management in ResourceManager A command for operating the robot apparatus 1 is transmitted to the resource management (ResourceManager) module of the robot apparatus 1 from the Situated Behaviorslayer and the Reflexive Situated Behaviors Layer. (See FIGS. 13 and 18)

ReflexiveSituatedBehaviorsLayerから発行されるコマンドは、反射行動として生成するコマンドである。また、SituatedBehaviorslayerから発行されるコマンドは、状況依存行動として生成するコマンドである。これらは別プロセスとして、若しくは別スレッドとして生成するため、あらかじめ調停しておくことが困難であり、あらかじめ発現しないようにするメカニズムである意図レベルによる制御は困難である(後述)。   A command issued from Reflexive Situated BehaviorsLayer is a command generated as a reflex action. A command issued from Situated Behaviorslayer is a command generated as a situation-dependent action. Since these are generated as separate processes or as separate threads, it is difficult to mediate in advance, and it is difficult to control by the intention level, which is a mechanism for preventing them from being expressed in advance (described later).

このため、ResourceManagerでは、この2つのコマンドをコマンドに付随する活動度レベルで調停する。図51には、ResourceManagerの構成を示している。図示のResourceManagerは、SituatedBehaviorslayer若しくはReflexiveSituatedBehaviorsLayerから送信されたコマンドの競合解決を行なうコマンド競合解決器と、ハードウェア・リソース毎のコマンドの管理を行なうコンテンツ管理器とで構成される。   For this reason, ResourceManager arbitrates these two commands at the activity level associated with the command. FIG. 51 shows the configuration of the ResourceManager. The illustrated ResourceManager is composed of a command contention resolver that performs contention resolution of commands transmitted from a Situated Behaviorslayer or Refractive Situated BehaviorsLayer, and a content manager that manages commands for each hardware resource.

コマンド競合解決器では、コマンドと、コマンドが使用するロボット装置1のハードウェアのリソースの情報と、コマンドの活動度レベルを保持する。そして、新しいコマンドがSituatedBehaviorslayer若しくはReflexiveSituatedBehaviorsLayerから送信された場合には、現在実行中のコマンドが使用しているロボット装置1のハードウェアのリソース情報と新しいコマンドのハードウェアのリソース情報と競合しているかを判定する。そして、競合している場合には、コマンドに付随する活動度レベルの比較を行ない、コマンドの競合解決を行なう。   The command conflict resolution unit holds a command, information on hardware resources of the robot apparatus 1 used by the command, and an activity level of the command. When a new command is transmitted from Situated Behaviors or Reflexive Situation Behaviors Layer, whether the currently executed command conflicts with the hardware resource information of the robot device 1 being used and the hardware resource information of the new command. judge. If there is a conflict, the activity levels associated with the command are compared to resolve the command conflict.

つまり、現在実行中のコマンドの活動度レベルが新しいコマンドの活動度レベルよりも低い場合には、実行中のコマンドはキャンセルされ、新しいコマンドが実行される。   That is, when the activity level of the command currently being executed is lower than the activity level of the new command, the command being executed is canceled and the new command is executed.

他方、現在実行中のコマンドの活動度レベルが新しいコマンドの活動度レベルよりも高い場合には、新しいコマンドは実行中のコマンドの終了を待って実行されるか、若しくは新しいコマンドがキャンセル処理される。   On the other hand, if the activity level of the currently executing command is higher than the activity level of the new command, the new command is executed waiting for the end of the executing command, or the new command is canceled. .

また、新しいコマンドの活動度レベルがResourceManagerで待ち状態にあるコマンドの活動度レベルよりも大きい場合には、ResourceManagerで待ち状態にあるコマンドは、キャンセルされる。   If the activity level of a new command is higher than the activity level of a command waiting in ResourceManager, the command waiting in ResourceManager is cancelled.

G.SituatedBehaviorlayerとDeliberativeLayerにおける意図レベルを用いた下位行動の制御
G−1.SituatedBehaviorlayerからReflexiveSituatedBehaviorsLayerへの意図レベル制御
SituatedBehaviorlayerの行動は、その行動中に反射行動が発生することを許容できない場合がある。例えば、SituatedBehaviorlayerに存在する対話行動は、ロボット装置1に顔をトラッキングさせたとする。
G. Control of subordinate actions using intention level in SituatedBehaviorlayer and DeliverableLayer
G-1. The intention level control SituatedBehaviorlayer from SituatedBehaviorlayer to ReflexiveSituatedBehaviorsLayer may not allow reflex behavior to occur during the behavior. For example, it is assumed that the interactive action existing in the Situated Behavior layer causes the robot apparatus 1 to track the face.

このときロボット装置1の動作スピードに比べ、人間の動作がすばやければ、顔が突然大きく観測されることがある。このとき、大きなものが突然現れたと考え、生得的な行動として、ReflexiveBehaviorlayerの行動が発現し、ロボット装置1は首をのけぞらせる(びっくりする)。これにより、顔のトラッキングのコマンドが上書きされ、ロボットのトラッキングは停止してしまう。これは対話中にはふさわしくない行動である。   At this time, if the human motion is quicker than the operation speed of the robot apparatus 1, the face may be suddenly observed larger. At this time, it is considered that a large thing suddenly appeared, and as a natural behavior, the behavior of Reflexive Behavior is manifested, and the robot apparatus 1 is dragged (surprised). As a result, the face tracking command is overwritten, and the robot tracking stops. This is an inappropriate behavior during a dialogue.

このような場合、SituatedBehaviorlayerの対話行動(スキーマ)は、Action関数の中で、意図レベルを反映させるReflexiveSituatedBehaviorsLayerの首をのけぞらせるスキーマと意図レベル情報をコマンドとしてReflexiveBehaviorlayerに送信する。   In such a case, the dialogue behavior (schema) of the Situated Behavior is transmitted to the Reflexive Behavior as a command with the schema and the intention level information for reflexive Behaviors Layer that reflects the intention level in the Action function.

図52には、SituatedBehaviorLayerからReflexiveBehaviorlayerへの制御を模式的に示している。ReflexiveBehaviorlayerの行動状態制御部の行動意図管理器は、意図レベル情報コマンドを管理し、意図レベルを反映させるスキーマ(首をのけぞらせる行動)のバイアス演算器に送信する(バイアス演算器については、図21を参照のこと)。バイアス演算器は、ReflexiveBehaviorlayerの意図レベルを反映させる。スキーマは、図21のようにMonitor関数での活動度レベルに反映させる。   FIG. 52 schematically shows control from the Situated Behavior Layer to the Reflexive Behavior Layer. The behavior intention manager of the behavioral state control unit of the Reflexive Behavior layer manages the intention level information command and transmits the command to a bias calculator of a schema (behavior to lift the neck) that reflects the intention level (for the bias calculator, see FIG. 21). checking). The bias calculator reflects the intention level of Reflexive Behavior. The schema is reflected in the activity level of the Monitor function as shown in FIG.

G−2.DeliberativeLayerからSituatedBehaviorlayerへの意図レベル制御
DeliberativeLayerは、本発明では、スキーマとして実装される。長期記憶や短期記憶を用いて、行動計画を行なう。このときの計画される行動は、SituatedBehaviorlayerのスキーマのシーケンスとして構成する。そのため、G−1の意図レベルと同じメカニズムで制御する。
G-2. Intent level control DeliverableLayer from DeliverableLayer to SituatedBehaviorlayer is implemented as a schema in the present invention. Use long-term and short-term memory to plan an action. The planned action at this time is configured as a sequence of the Situated Behavior layer schema. Therefore, it controls by the same mechanism as the intention level of G-1.

図53には、DeliberativeLayerからSituatedBehaviorLayerへの制御を模式的に示している。つまり、DeliberativeaLayerでは、計画されたシーケンスのスキーマを対象スキーマとして、意図レベル情報をコマンドとしてSituatedBehaviorLayerに送信する。   FIG. 53 schematically shows control from the Deliverable Layer to the Situated Behavior Layer. In other words, the DeliverativeLayerLayer transmits the planned sequence schema as the target schema and the intention level information as a command to the SituatedBehaviorLayer.

SituatedBehaviorLayerの行動状態制御部の行動意図管理部は、意図レベル情報コマンドを管理し、意図レベルを反映させるスキーマのバイアス演算器に送信する。(バイアス演算器は、図21を参照のこと)SituatedBehaviorLayerの意図レベルを反映させるスキーマは、図21のようにMonitor関数での活動度レベルに反映させ、励起されるため、状況依存ではなく、DeliberativeLayerからの支持で発現する。発現が終了すると、行動状態制御部の行動意図管理部は、終了情報をDeliberativeLayerに送信し、意図レベル情報をコマンドとして送信したスキーマに返信される。   The behavior intention management unit of the behavioral state control unit of the Situated Behavior Layer manages the intention level information command and transmits it to a bias calculator having a schema that reflects the intention level. (Refer to FIG. 21 for the bias calculator.) The schema reflecting the intention level of the Situated Behavior Layer is reflected in the activity level in the Monitor function as shown in FIG. 21 and excited, so it is not a situation dependent but a Deliverable Layer. Expressed with support from When the expression ends, the behavior intention management unit of the behavior state control unit transmits the termination information to the Deliverable Layer and returns the intention level information as a command to the schema that has been transmitted.

H.行動制御システムの他の構成例
D項では、状況依存行動階層を構成する要素行動はすべて、内部状態をある範囲に保つための行動すなわち「ホメオスタシス行動」である場合を前提にして場合について説明した。このような場合、すべての内部状態が十分満たされているときには各要素行動の欲求値は小さくなるため、行動価値も小さく、状況依存行動が発現する機会は低下する。加えて、外部刺激もなければ反射行動を起こさなくなるので、ロボット装置は何もしなくなる。しかしながら、自律的に何もしないロボットというのは、エンタテイメント性の点で問題があると考えられる。そこで、本発明者らは、ロボット装置の自発的な行動を発現する状況依存行動の構成要素として、ホメオスタシス的な目的を持たない「アイドル行動」をさらに組み込むことにした。この項では、ホメオスタシス行動とアイドル行動を要素行動として構成される状況依存行動階層のメカニズム、並びにこの場合のロボット装置の行動制御システム、自発行動と反射行動との調停方法について詳解する。
H. In the section D of the other configuration example of the behavior control system, the case has been described on the assumption that all the element behaviors constituting the situation-dependent behavior hierarchy are behaviors for keeping the internal state within a certain range, that is, “homeostasis behavior”. . In such a case, when all the internal states are sufficiently satisfied, the desire value of each element action becomes small, so the action value is also small, and the opportunity for the situation-dependent action to occur is reduced. In addition, since there will be no reflex behavior without external stimuli, the robotic device will do nothing. However, robots that do nothing autonomously are considered problematic in terms of entertainment. Therefore, the present inventors have decided to further incorporate “idle behavior” having no homeostasis purpose as a component of the situation-dependent behavior that expresses spontaneous behavior of the robot apparatus. In this section, the mechanism of the situation-dependent behavior hierarchy composed of homeostasis behavior and idle behavior as elemental behavior, the behavior control system of the robot device in this case, and the arbitration method between the self-issued motion and the reflex behavior will be explained in detail.

H−1.行動制御システム
図54には、ロボット装置1の行動制御システムの他の構成例を示している。但し、図3と同一の構成要素については同一の参照番号を付している。
H-1. Behavior Control System FIG. 54 shows another configuration example of the behavior control system of the robot apparatus 1. However, the same components as those in FIG. 3 are denoted by the same reference numerals.

当該システム100´は、視覚認識機能部101、聴覚認識機能部102、接触認識機能部103を通して外界の情報すなわち外部刺激を獲得する。これら認識機能部による認識結果は、短期記憶部105並びに長期記憶部106を通して状況依存行動階層108と反射行動部109、並びに反射イベント管理部110に伝達される。   The system 100 ′ acquires external information, that is, external stimulus through the visual recognition function unit 101, the auditory recognition function unit 102, and the contact recognition function unit 103. The recognition results by these recognition function units are transmitted to the situation-dependent behavior hierarchy 108, the reflex behavior unit 109, and the reflex event management unit 110 through the short-term storage unit 105 and the long-term storage unit 106.

状況依存行動階層108と反射行動部109はそれぞれ、「スキーマ」と呼ばれるオブジェクトとして記述される複数の行動モジュールすなわち要素行動で構成されている。状況依存行動階層108と反射行動部109はそれぞれ、認識結果すなわち外部刺激に基づいて行動を決定し、モーション・コマンドの強さが付加されたモーション・コマンドを資源管理部120に出力する。モーション・コマンドは、上述した行動価値すなわちAL値に相当し、スカラ値として表される。   Each of the situation-dependent action hierarchy 108 and the reflex action part 109 includes a plurality of action modules, that is, element actions described as objects called “schema”. Each of the situation-dependent action hierarchy 108 and the reflex action unit 109 determines an action based on a recognition result, that is, an external stimulus, and outputs a motion command to which the strength of the motion command is added to the resource management unit 120. The motion command corresponds to the action value, that is, the AL value described above, and is expressed as a scalar value.

また、反射イベント管理部110は、反射行動部109に入力されるイベントから反射イベント密度を算出する。反射イベント密度は、反射イベント密度は、反射行動の要因となるイベントすなわち外部刺激が入力される度合いを数値化したものである。ロボット装置がホメオスタシス的でないときに、アイドル行動の発生確率が反射イベント密度に基づいて制御される(後述)。   Further, the reflection event management unit 110 calculates the reflection event density from the event input to the reflection action unit 109. The reflection event density is obtained by quantifying the degree of input of an event that causes reflection behavior, that is, an external stimulus. When the robot apparatus is not homeostasis, the occurrence probability of idle behavior is controlled based on the reflection event density (described later).

資源管理部120は、状況依存行動階層108と反射行動部109からそれぞれ伝達された状況依存行動と反射行動のモーション・コマンドの強さを比較し、値が大きい方のモーションを外部環境に出力し、ロボット装置1が現実に行なう動作として発現させる。   The resource management unit 120 compares the strengths of the motion commands of the situation-dependent action and the reflex action transmitted from the situation-dependent action hierarchy 108 and the reflex action part 109, respectively, and outputs the motion with the larger value to the external environment. Then, the robot device 1 is caused to perform as an actual operation.

なお、反射行動部109は、状況依存行動階層108に比べ、十分な速さで制御サイクルが実行される。   Note that the reflex behavior unit 109 executes the control cycle at a sufficient speed compared to the situation-dependent behavior hierarchy 108.

H−2.状況依存行動階層
既に述べたように、状況依存行動階層108は複数の要素行動で構成される。各々の要素行動は、内部状態、短期記憶部105や長期記憶部106に記憶されている認識結果などから定期的に行動価値を算出し、行動選択された場合には、行動を出力する。本項で詳解する構成例では、状況依存行動階層108は、内部状態をある範囲に保つための行動すなわち「ホメオスタシス行動」の他に、ホメオスタシス的な目的を持たない「アイドル行動」を要素行動として備えている。
H-2. Situation-dependent action hierarchy As already described, the situation-dependent action hierarchy 108 is composed of a plurality of element actions. For each elemental action, an action value is periodically calculated from an internal state, a recognition result stored in the short-term storage unit 105 or the long-term storage unit 106, and the action is output when the action is selected. In the configuration example described in detail in this section, the situation-dependent action hierarchy 108 uses, as an elemental action, an “idle action” having no homeostasis purpose in addition to an action for keeping the internal state within a certain range, that is, “homeostasis action”. I have.

図55には、状況依存行動階層108の内部構成例を示している。同図に示す状況依存行動階層108では、内部状態管理部104から入力される情動データと、短期記憶部105や長期記憶部106から入力される外部刺激の認識結果に基づいて、各要素行動内の行動価値算出部220が行動価値としてのAL値をそれぞれ算出する。行動価値算出部220が行動価値算データベースを用いて行動価値を算出する場合、行動を発現した後の結果を基に学習して、要素行動内の行動価値算出データベースを更新する学習部240をさらに備えていてもよい。行動価値算出データベースの学習方法については、例えば本出願人に既に譲渡されている特願2004−68133号明細書に記載されている。   FIG. 55 illustrates an internal configuration example of the situation-dependent action hierarchy 108. In the situation-dependent action hierarchy 108 shown in the figure, each element action action is based on the emotion data input from the internal state management unit 104 and the external stimulus recognition result input from the short-term storage unit 105 or the long-term storage unit 106. The behavior value calculation unit 220 calculates the AL value as the behavior value. When the behavior value calculation unit 220 calculates the behavior value using the behavior value calculation database, the learning unit 240 further learns based on the result after the behavior is expressed and updates the behavior value calculation database in the elemental behavior. You may have. The learning method of the behavior value calculation database is described in, for example, Japanese Patent Application No. 2004-68133 already assigned to the present applicant.

そして、行動選択部230は、各要素行動のAL値に基づいて発現すべき要素行動を選択し、そのモーション・コマンドをそのコマンドの強さを付加して、資源管理部120に出力する。そして、資源管理部120は、モーション・コマンドの強さに応じて自発的な行動又は反射行動のいずれかのモーション・コマンドを出力する。行動選択された要素行動は、自身の行動を出力する。   Then, the action selection unit 230 selects an element action that should be expressed based on the AL value of each element action, adds the strength of the command to the motion command, and outputs the motion command to the resource management unit 120. Then, the resource management unit 120 outputs a motion command of either a spontaneous behavior or a reflex behavior according to the strength of the motion command. The selected elemental action outputs its own action.

図55に示す例では、状況依存行動階層108は、要素行動として、ホメオスタシス行動A、ホメオスタシス行動B、…、アイドル行動などを備えている。各要素行動は、スキーマと呼ばれるオブジェクトとして記述される。図示の例では、行動選択部230によって一元的に要素行動の選択が行なわれる構成となっているが、勿論、図19に示したように要素行動は階層構造を備えていてもよい。   In the example shown in FIG. 55, the situation-dependent action hierarchy 108 includes homeostasis action A, homeostasis action B,. Each element behavior is described as an object called a schema. In the illustrated example, the element selection is performed by the action selection unit 230 in a unified manner. However, as shown in FIG. 19, the element action may have a hierarchical structure.

ホメオスタシス行動の要素行動は、内部状態を満たすための行動(例えば、バッテリが少なくなったので充電行動をとる、疲れたので休むなど)として自発的に出力される。これらの要素行動は内部状態のみから欲求値を算出する。また、同時に内部状態と認識結果から予想満足値を算出し、欲求値と予想満足値から各要素行動の行動価値を算出する。行動価値の算出は各要素行動で行なわれる。欲求値が上昇するとホメオスタシス行動の行動価値が高まるので、行動選択部230ではホメオスタシス行動を選択して、そのモーション・コマンドを資源管理部120に対して出力する。その際、モーション・コマンドの強さとして算出された行動価値を付加する。   The elemental behavior of the homeostasis behavior is voluntarily output as an action for satisfying the internal state (for example, taking a charging action because the battery is low, resting because it is tired). For these elemental actions, the desire value is calculated only from the internal state. At the same time, an expected satisfaction value is calculated from the internal state and the recognition result, and an action value of each elemental action is calculated from the desire value and the expected satisfaction value. The behavior value is calculated for each elemental behavior. When the desire value increases, the behavioral value of the homeostasis behavior increases, so the behavior selection unit 230 selects the homeostasis behavior and outputs the motion command to the resource management unit 120. At that time, the action value calculated as the strength of the motion command is added.

また、すべての内部状態が十分満たされているときは各要素行動の欲求値は小さくなるため、行動価値も小さい。そのような場合は、ホメオスタシス的な目的を持たないアイドル行動がモーション・コマンド(例えば、なにもしない、首を傾げる、ゴルフパットの練習をする、横になってくつろぐなど)を出力する。アイドル行動の要素行動の行動価値は一定値である。したがって、すべての内部状態が十分に満たされているときには、ホメオスタシス的ではない、すなわちホメオスタシス行動の行動価値が低下していき、アイドル行動の行動価値を下回るようになると、行動選択部230はアイドル行動を選択するようになる。   Further, when all the internal states are sufficiently satisfied, the desire value of each elemental action is small, so the action value is also small. In such a case, an idle action having no homeostasis purpose outputs a motion command (for example, nothing, tilting the head, practicing a golf putt, relaxing lying down, etc.). The action value of the element action of the idol action is a constant value. Therefore, when all the internal states are sufficiently satisfied, when the behavioral value is not homeostasis, that is, the behavioral value of the homeostasis behavior decreases and falls below the behavioral value of the idle behavior, the behavior selection unit 230 performs idle behavior. Will come to choose.

本実施形態では、アイドル行動と反射行動との競合を回避又は緩和するために、反射イベント密度に応じた発生確率でアイドル行動を発現するようにしている。反射イベント密度は、反射行動の要因となるイベントすなわち外部刺激が入力される度合いを数値化したものである。アイドル行動のモーション・コマンド選択に関しては後に詳解する。   In the present embodiment, in order to avoid or alleviate the competition between the idle action and the reflex action, the idle action is expressed with a probability of occurrence according to the reflex event density. The reflex event density is a numerical value representing the degree of input of an event that causes reflex behavior, that is, an external stimulus. The motion command selection for idle action will be described in detail later.

H−3.ホメオスタシス行動の行動価値
ホメオスタシス行動の要素行動は内部状態のみから欲求値を算出する。また、同時に内部状態と認識結果から予想満足値を算出し、欲求値と予想満足値から各要素行動の行動価値を算出する。資源管理部120では、モーション・コマンドの強さを指標にしてモーションの選択を行なうが、ホメオスタシス行動のモーション・コマンドの強さは、その要素行動の行動価値を用いている。この項では、ホメオスタシス行動の行動価値の算出方法について詳解する。
H-3. Behavioral value of homeostasis behavior For the elemental behavior of homeostasis behavior, the desire value is calculated only from the internal state. At the same time, an expected satisfaction value is calculated from the internal state and the recognition result, and an action value of each elemental action is calculated from the desire value and the expected satisfaction value. The resource management unit 120 selects a motion using the strength of the motion command as an index, and the strength of the motion command of the homeostasis behavior uses the behavior value of the elemental behavior. In this section, the method of calculating the behavioral value of homeostasis behavior is explained in detail.

図55に示したように、ホメオスタシス行動の各要素行動は、自身に記述された行動に応じて所定の内部状態及び外部刺激が定義されている。外部刺激は、該当する対象物のプロパティとして扱われる。例えば、行動出力が「食べる」である要素行動Aは、外部刺激として対象物の種類(OBJECT_ID)、対象物の大きさ(OBJECT_SIZE)、対象物の距離(OBJECT_DISTANCE)などを扱い、内部状態として「NOURISHMENT」(「栄養状態」)、「FATIGUE」(「疲れ」)などを扱う。このように、要素行動毎に、扱う外部刺激及び内部状態の種類が定義され、該当する外部刺激及び内部状態に対応する行動(要素行動)に対する行動価値が算出される。なお、1つの内部状態、又は外部刺激は、1つの要素行動だけでなく、複数の要素行動に対応付けられていてもよいことは勿論である。   As shown in FIG. 55, for each elemental behavior of homeostasis behavior, a predetermined internal state and external stimulus are defined according to the behavior described in itself. External stimuli are treated as properties of the corresponding object. For example, the elemental action A whose action output is “eat” handles the type of the object (OBJECT_ID), the size of the object (OBJECT_SIZE), the distance of the object (OBJECT_DISTANCE), and the like as the internal state. “NOURISHMENT” (“nutrition”), “FATIGUE” (“fatigue”), etc. are handled. In this way, the types of external stimuli and internal states to be handled are defined for each elemental action, and the action value for the action (elemental action) corresponding to the corresponding external stimulus and internal state is calculated. Of course, one internal state or external stimulus may be associated with not only one elemental action but also a plurality of elemental actions.

また、内部状態管理部104は、外部刺激並びに例えば自身のバッテリの残量及びモータの回転角などの情報を入力とし、上述のような複数の内部状態に対応した内部状態の値(内部状態ベクトルIntV)を算出し、管理する。具体的には、例えば、内部状態「栄養状態」は、バッテリの残量を基に決定し、内部状態「疲れ」は、消費電力を基に決定することができる。   Further, the internal state management unit 104 receives external stimuli and information such as the remaining battery level of the own battery and the rotation angle of the motor, and receives internal state values (internal state vectors) corresponding to a plurality of internal states as described above. IntV) is calculated and managed. Specifically, for example, the internal state “nutrient state” can be determined based on the remaining amount of the battery, and the internal state “fatigue” can be determined based on the power consumption.

ホメオスタシス行動の行動価値ALは、その要素行動をロボット装置がどれくらいやりたいか(実行優先度)を示す。行動価値算出部220は、入力される外部刺激と、行動発現後に変化すると予想される予想内部状態変化が対応付けられた行動価値算出データベース221を参照し、ある時刻での外部刺激と内部状態とからその時刻での各要素行動A〜Dにおける行動価値ALをそれぞれ算出する。図55に示した例では行動価値算出部220は要素行動毎に個別に設けられているが、単一の行動価値算出部がすべての要素行動についての行動価値を算出するように構成してもよい。   The action value AL of homeostasis action indicates how much the robot apparatus wants to perform the element action (execution priority). The behavior value calculation unit 220 refers to the behavior value calculation database 221 in which the input external stimulus is associated with the expected internal state change expected to change after the behavior is expressed, and the external stimulus and the internal state at a certain time The action value AL for each element action A to D at that time is calculated. In the example shown in FIG. 55, the behavior value calculation unit 220 is provided for each elemental action. However, a single action value calculation unit may be configured to calculate the action values for all elemental actions. Good.

各ホメオスタシス行動の要素行動に対する行動価値ALは、現在の各内部状態に対応する各行動に対する欲求値と、現在の各内部状態に基づく満足度と、外部刺激により変化すると予想される内部状態の変化量、すなわち、外部刺激が入力され行動を発現した結果、変化すると予想される内部状態の変化量を示す予想内部状態変化に基づく予想満足度変化とに基づいて算出する。   The behavioral value AL for the elemental behavior of each homeostasis behavior is the desire value for each behavior corresponding to each current internal state, the satisfaction based on each current internal state, and the change in the internal state that is expected to change due to an external stimulus. The amount is calculated based on the expected satisfaction change based on the expected internal state change indicating the amount of change in the internal state that is expected to change as a result of the external stimulus being input and the behavior being expressed.

図56には、行動価値算出部220が内部状態及び外部刺激から行動価値ALを算出する処理の流れを示している。本実施形態では、要素行動毎に、1以上の内部状態の値を成分として有する内部状態ベクトルIntV(Internal Variable)が定義されており、内部状態管理部104から各要素行動に応じた内部状態ベクトルIntVを得る。すなわち、内部状態ベクトルIntVの各成分は、例えば上述した情動などを示す1つの内部状態の値(内部状態パラメータ)を示すもので、内部状態ベクトルIntVが有する各成分に応じた要素行動の行動価値算出に使用される。具体的には、上記行動出力「食べる」を有する要素行動Aは、例えば内部状態ベクトルIntV{IntV_NOURISHMENT「栄養状態」、IntV_FATIGUE「疲れ」}が定義されている。   FIG. 56 shows a flow of processing in which the behavior value calculation unit 220 calculates the behavior value AL from the internal state and the external stimulus. In the present embodiment, an internal state vector IntV (Internal Variable) having a value of one or more internal states as a component is defined for each element action, and the internal state vector corresponding to each element action from the internal state management unit 104 IntV is obtained. That is, each component of the internal state vector IntV indicates, for example, one internal state value (internal state parameter) indicating the emotion described above, and the action value of the elemental action corresponding to each component of the internal state vector IntV Used for calculation. Specifically, for the elemental action A having the action output “eat”, for example, an internal state vector IntV {IntV_NOURISHEMENT “nutrition state”, IntV_FATIGUE “fatigue”} is defined.

また、内部状態毎に、1以上の外部刺激の値を成分として有する外部刺激ベクトルExStml(External Stimulus)が定義されており、各記憶部105〜106から各要素行動に応じた外部刺激ベクトルExStmlを得る。外部刺激ベクトルExStmlの各成分は対象物の大きさ、対象物の種類、対象物までの距離などの認識情報を示すもので、外部刺激ベクトルExStmlが有する各成分に応じた内部状態値の算出に使用される。具体的には、内部状態IntV_NOURISHMENT「栄養状態」には、例えば、外部刺激ベクトルExStml{OBJECT_ID「対象物の種類」、OBJECT_SIZE「対象物の大きさ」}が定義され、内部状態IntV_FATIGUE「疲れ」には、例えば外部刺激ベクトルExStml{OBJECT_DISTANCE「対象物までの距離」}が定義されている。   Further, for each internal state, an external stimulus vector ExStml (External Stimulus) having one or more external stimulus values as components is defined, and the external stimulus vector ExStml corresponding to each elemental action is stored from each storage unit 105 to 106. obtain. Each component of the external stimulus vector ExStml indicates recognition information such as the size of the object, the type of the object, and the distance to the object, and is used to calculate the internal state value corresponding to each component of the external stimulus vector ExStml. used. Specifically, the internal state IntV_NOURISHMENT “nutrition state” defines, for example, an external stimulus vector ExStml {OBJECT_ID “object type”, OBJECT_SIZE “object size”}, and the internal state IntV_FATIGUE “fatigue” For example, an external stimulus vector ExStml {OBJECT_DISTANCE “distance to an object”} is defined.

行動価値算出部220は、この内部状態ベクトルIntV及び外部刺激ベクトルExStmlを入力とし、行動価値ALを算出する。具体的には、行動価値算出部220は、内部状態ベクトルIntVから、該当する要素行動について、どれだけやりたいかを示すモチベーション・ベクトル(MotivationVector)を求める第1の算出部MVと、内部状態ベクトルIntV及び外部刺激ベクトルExStmlから、該当する要素行動をやれるか否か示すリリーシング・ベクトル(ReleasingVector)を求める第2の算出部RVとを有備え、これら2つのベクトルから行動価値ALを算出する。   The behavior value calculation unit 220 receives the internal state vector IntV and the external stimulus vector ExStml as input, and calculates the behavior value AL. Specifically, the behavior value calculation unit 220 includes, from the internal state vector IntV, a first calculation unit MV that obtains a motivation vector (Motivation Vector) indicating how much the corresponding element behavior is desired, and the internal state vector IntV. And a second calculating unit RV that obtains a releasing vector indicating whether or not the corresponding element behavior can be performed from the external stimulus vector ExStml, and calculates an action value AL from these two vectors.

ホメオスタシス行動に関する行動価値ALの算出方法の詳細については、例えば、例えば本出願人に既に譲渡されている特願2004−68133号明細書を参照されたい。   For details of the method for calculating the behavioral value AL related to homeostasis behavior, see, for example, Japanese Patent Application No. 2004-68133 already assigned to the present applicant.

H−4.アイドル行動のモーション・コマンド選択とその強さ
アイドル行動はホメオスタシス的な目的を持たない、すなわち内部状態とは無関係であることから、その要素行動の行動価値は一定値が与えられている。そして、反射行動との競合を回避又は緩和するために、反射イベント密度に応じた発生確率に応じてアイドル行動が選択されるように、そのモーション・コマンドの強さを反射イベント密度に基づいて決定するようにしている。この項では、アイドル行動の行動価値の算出方法について詳解する。
H-4. Motion command selection and strength of idol action Since idol action has no homeostasis purpose, that is, it has no relation to the internal state, the action value of the element action is given a constant value. In order to avoid or alleviate competition with reflex behavior, the strength of the motion command is determined based on the reflex event density so that the idle behavior is selected according to the probability of occurrence according to the reflex event density. Like to do. In this section, the calculation method of the behavior value of idle behavior will be explained in detail.

反射イベント管理部110は、反射行動部109に入力されるイベントから反射イベント密度を算出する。アイドル行動の要素運動は、その値によって出力するモーション・コマンドの種類やその強さを決定する。   The reflection event management unit 110 calculates the reflection event density from the event input to the reflection action unit 109. The element motion of the idle action determines the type and strength of the motion command to be output depending on the value.

本実施形態では、以下の2式に示すように、反射イベントが入力される度に反射イベント密度RED(Reflexive Event Density)を増加させるとともに、時間減衰するようにしている。但し、IR(Increase Ratio)は反射イベント1回当たりの反射イベント密度REDの増加率であり(但し、0<IR<1)、REDmax=1.0とする。また、dTは経過時間、τは時間減衰の半減期である。 In the present embodiment, as shown in the following two formulas, every time a reflection event is input, the reflection event density RED (Reflexive Event Density) is increased and the time is attenuated. However, IR (Increase Ratio) is an increase rate of the reflection event density RED per reflection event (where 0 <IR <1), and RED max = 1.0. DT is the elapsed time, and τ is the half-life of time decay.

Figure 2006110707
Figure 2006110707

なお、増加率IRは、反射イベントの種類毎に設定するようにしてもよい。例えば、ユーザにより明示的な反射イベント(肩タッチセンサを押すなど)に関しては大きく、ノイズなどにより誤認識され易い反射イベント(クラップ音発生)に関しては小さく設定することが可能である。図57には、反射イベント密度REDが反射イベントの発生に応じて変化する様子を例示している。   The increase rate IR may be set for each type of reflection event. For example, it is possible to set a large value for an explicit reflection event (such as pressing a shoulder touch sensor) by the user, and a small value for a reflection event (generation of a crap sound) that is easily recognized by noise or the like. FIG. 57 illustrates a state in which the reflection event density RED changes according to the occurrence of the reflection event.

アイドル行動は、外部刺激に直接反応する必要のある反射行動と干渉しないことが好ましい。このため、本実施形態では、反射イベント密度に応じてアイドル行動のモーション・コマンドを決定するようにしている。   Idle behavior preferably does not interfere with reflex behavior that needs to react directly to external stimuli. For this reason, in this embodiment, the motion command for idle action is determined according to the reflection event density.

例えば、ユーザから反射イベントの入力が多数あり、反射イベント密度が高いときには、よりリアクティブに反応できるように、「何もしない」や、「首を傾ける」といった動作量のより小さいモーションを高い確率で出力する。逆に、ユーザに放置され反射イベントの入力があまりなく反射イベント密度が低いときには、静止してしまうことをなるべく避け、「ゴルフパットの練習をする」や、「横になってくつろぐ」といった動作量の大きいモーションを高い確率で出力する。   For example, when there is a large number of reflection event inputs from the user and the reflection event density is high, a high probability of a motion with a smaller amount of motion such as “do nothing” or “tilt” so that it can react more reactively To output. On the other hand, when the reflection event density is low because the user is left unattended and the reflection event density is low, the amount of movement such as “practice golf putting” or “lie down and relax” is avoided as much as possible. A large motion is output with high probability.

反射イベント密度からどのモーション(要素行動)を選ぶかは、以下のような仕組みで確率的に選択される。   Which motion (element behavior) is selected from the reflection event density is selected probabilistically by the following mechanism.

あるモーションmiが最もよく選択される反射イベント密度をREDmiとする。現在の反射イベント密度REDとの距離をDmi=|REDmi−RED|としたとき、i番目のモーションmiが選択される確率Pmiは次式で計算される。 Reflection event density in motion m i is best selected to REDm i. The distance between the current reflection event density RED D mi = | REDm i -RED | when the probability Pm i the i-th motion m i is selected is calculated as follows.

Figure 2006110707
Figure 2006110707

Tはボルツマン温度であり、大きい値を設定すると行動選択がよりランダムになる。逆に小さい値に設定すると選択に確率的要素がなくなり、反射イベント密度REDによってモーションが一意(REDが最も近いREDmiのモーション)に選択されるようになる。但し、この選択はモーション実行中には行なわない。 T is the Boltzmann temperature, and the action selection becomes more random when a large value is set. On the other hand, when the value is set to a small value, there is no stochastic element in the selection, and the motion is uniquely selected by the reflection event density RED (the motion of REDm i having the closest RED). However, this selection is not performed during motion execution.

図58には、反射イベント密度REDを用いてmiが選択される確率Pmiの例を示している。図示の例では、アイドル行動として「何もしない」、「首を傾ける」、「ゴルフパットの練習をする」、「横になってくつろぐ」という4種類のモーションが定義されており、それぞれについて最もよく選択される反射イベント密度REDm0〜REDm3が設定されている。上述したように、エンタテイメント性を高めつつアイドル行動の反射行動への干渉を抑制するために、動作量の大きなモーションには低い反射イベント密度が設定され、動作量の小さなモーションにはより高い反射イベント密度が設定されている。例えば、「何もしない」や「首を傾ける」といった動作量の小さいモーションは大きく、「ゴルフパットの練習をする」や「横になってくつろぐ」といった動作量の大きいモーションは小さく設定する。 Figure 58 shows an example of probability Pm i where m i is selected using the reflection event density RED. In the example shown in the figure, four types of motion are defined as idle actions: “do nothing”, “tilt”, “practice a golf pad”, and “lie down and relax”. Frequently selected reflection event densities RED m0 to RED m3 are set. As mentioned above, a low reflection event density is set for a motion with a large amount of motion, and a higher reflection event is set for a motion with a small amount of motion in order to suppress the interference of the idle behavior with the reflection behavior while enhancing entertainment properties. Density is set. For example, a motion with a small amount of motion such as “do nothing” or “tilt neck” is large, and a motion with a large amount of motion such as “practice a golf pad” or “sit down and relax” is set small.

そして、上式から求まる各モーションの発生確率をそれぞれのモーションについてのモーション・コマンドの強さとして用いる。これにより、資源管理部120での自発行動調停において、反射イベント密度が高くなると、動作量の小さなアイドル行動あるいは反射行動が選ばれ易くなり、反射イベント密度が低くなると、動作量の大きなアイドル行動が選ばれ易く、あるいは反射行動が選ばれにくくなる。この結果、反射行動の要因となるイベントの種類や頻度から、アイドル行動を自発的に出力するタイミングやそのモーションの種類を調停することができる。   Then, the occurrence probability of each motion obtained from the above equation is used as the strength of the motion command for each motion. Thereby, in the self-issued arbitration in the resource management unit 120, when the reflection event density is high, it becomes easy to select an idle action or a reflection action with a small operation amount, and when the reflection event density is low, an idle action with a large operation amount is selected. It is easy to be selected, or it becomes difficult to select reflex behavior. As a result, it is possible to arbitrate the timing for spontaneously outputting idle behavior and the type of motion based on the type and frequency of events that cause reflex behavior.

上述のようにして状況依存行動階層108内では、ホメオスタシス行動の各要素運動についての行動価値が算出されるとともに、反射行動の要因となるイベントの種類や頻度に応じてアイドル行動の要素運動が選択される。そして、行動選択部230が、ホメオスタシス行動及びアイドル行動の各要素運動の行動価値を比較し、いずれを自発行動として選択すべきかを最終的に決定する。   In the situation-dependent behavior hierarchy 108 as described above, the behavior value for each elemental motion of homeostasis behavior is calculated, and the elemental motion of idle behavior is selected according to the type and frequency of the event that causes reflex behavior Is done. And the action selection part 230 compares the action value of each element exercise | movement of homeostasis action and idle action, and finally determines which should be selected as self-issued movement.

ホメオスタシス行動の行動価値が欲求値と予想満足値から算出される一方、アイドル行動に対しては一定の行動価値が与えられている。したがって、欲求値が上昇するとホメオスタシス行動の行動価値が高まるので、行動選択部230ではホメオスタシス行動を状況依存行動として選択する。逆に、すべての内部状態が十分に満たされているときには、ホメオスタシス的ではない、すなわちホメオスタシス行動の行動価値が低下していき、アイドル行動の行動価値を下回るようになると、行動選択部230はアイドル行動を状況依存行動として選択するようになる。   While the behavioral value of homeostasis behavior is calculated from the desire value and the expected satisfaction value, a certain behavioral value is given to idle behavior. Accordingly, since the behavioral value of homeostasis behavior increases as the desire value increases, the behavior selection unit 230 selects the homeostasis behavior as the situation-dependent behavior. On the other hand, when all the internal states are sufficiently satisfied, when the behavioral value is not homeostasis, that is, when the behavioral value of the homeostasis behavior decreases and falls below the behavioral value of the idle behavior, the behavior selection unit 230 becomes idle. The action is selected as the situation dependent action.

H−5.自発行動と反射行動の調停
資源管理部120では、自発行動と反射行動の調停を行なう。具体的には、状況依存行動階層108と反射行動部109からそれぞれ伝達された状況依存行動と反射行動のモーション・コマンドの強さを比較し、値が大きい方のモーションを外部環境に出力し、ロボット装置1が現実に行なう動作として発現させる。
H-5. Self-issued movement and reflex behavior mediation resource management unit 120 mediates self-issued movement and reflex behavior. Specifically, the strengths of the motion commands of the situation-dependent action and the reflex action transmitted from the situation-dependent action hierarchy 108 and the reflex action unit 109 are compared, and the motion with the larger value is output to the external environment, It is expressed as an action that the robot apparatus 1 actually performs.

反射行動は、基本的に、センサ入力そのものをトリガとして行なう反射的な行動のことであるが、状況依存行動階層と同様に複数の要素行動で構成される。反射行動部109の要素行動は、視覚認識機能部101、聴覚認識機能部102、接触認識機能部103からイベントが発生する度に直接入力を得るため、即座の反応(反射)が可能となる。各要素行動は注目する入力(クラップが発生した、目の前に突然何か物体が現れた、肩タッチセンサを押されたなど)に対して特定のモーション・コマンド(音の方向を見る、後ろにたじろぐ、押されたタッチセンサの方向を見る)を資源管理部に出力する。その際、モーション・コマンドの強さは一定値を付加する。   The reflex action is basically a reflex action that is triggered by the sensor input itself, but is composed of a plurality of element actions as in the situation-dependent action hierarchy. The elemental behavior of the reflex behavior unit 109 is directly input every time an event occurs from the visual recognition function unit 101, the auditory recognition function unit 102, and the contact recognition function unit 103, so that an immediate reaction (reflection) is possible. Each elemental action is a specific motion command (see direction of sound, behind) for the input of interest (clapping occurred, something suddenly appeared in front of you, shoulder touch sensor pressed, etc.) (See the direction of the touch sensor pressed) is output to the resource management unit. At that time, a constant value is added to the strength of the motion command.

以下では、状況依存行動階層108による自発行動と反射行動部109による反射行動の調停方法について詳解する。   Below, the arbitration method of the self-issued movement by the situation-dependent action hierarchy 108 and the reflection action by the reflection action unit 109 will be described in detail.

ホメオスタシス行動の具体例として、バッテリチャージ行動を考える。バッテリチャージ行動は内部状態としてバッテリ残量に着目し、バッテリ残量が少なくなると行動価値が高くなる。コマンドの強さは行動価値の値とし、0から100までの間をとるものとする。   As a specific example of homeostasis behavior, consider battery charge behavior. The battery charging action focuses on the remaining battery level as an internal state, and the action value increases as the remaining battery level decreases. The strength of the command is a value of action value, and takes a value from 0 to 100.

また、アイドル行動として、「何もしない」、「首を傾ける」、「ゴルフパットの練習をする」、「横になってくつろぐ」という4種類を考える。これらの要素行動の行動価値として一定値20が一律に与えられる。また、{コマンドの強さ,そのモーションが最もよく選択される反射イベント密度}については、「何もしない」は{70,80}、「首を傾ける」は{75,60}、「ゴルフパットの練習をする」は{85,40}、「横になってくつろぐ」は{90,20}とする。   In addition, four types of idle actions are considered: “do nothing”, “tilt”, “practice a golf pad”, and “lie down and relax”. A constant value 20 is uniformly given as the action value of these element actions. As for {command strength, reflection event density at which the motion is best selected}, "do nothing" is {70, 80}, "tilt" is {75, 60}, "golf putt" "Practice of" is {85, 40}, and "Lie down and relax" is {90, 20}.

また、反射行動に関する要素行動の例として、クラップ反射行動、動作物体反射行動、タッチ反射行動を考える。クラップ反射行動は、手をパチンパチンと叩いたときの音を入力とし、その音源方向を向くモーション・コマンドを出力する。動作物体反射行動は物体が突然近づくことを入力とし、後ろにたじろぐモーション・コマンドを出力する。タッチ反射行動は、タッチセンサを入力とし、押されたタッチセンサの方向を見るコマンドを出力する。これら反射行動についての行動価値、すなわちモーション・コマンドの強さは一定値80とする。   In addition, as an example of elemental behavior related to reflex behavior, a clapp reflex behavior, a moving object reflex behavior, and a touch reflex behavior are considered. The clap reflex action receives a sound when a hand is slammed and outputs a motion command that points in the direction of the sound source. The moving object reflex action inputs a sudden approach of an object and outputs a motion command that sways back. The touch reflection action receives a touch sensor and outputs a command for viewing the direction of the pressed touch sensor. The action value of these reflection actions, that is, the strength of the motion command is set to a constant value 80.

自発的行動(ホメオスタシス行動、アイドル行動)と反射行動の調停例について以下に説明する。   Examples of mediation between spontaneous behavior (homeostasis behavior, idle behavior) and reflex behavior will be described below.

ホメオスタシス行動と反射行動の調停例:
図59には、バッテリ残量が中程度で、外界からクラップを認識したときの行動調停例を示している。
Mediation of homeostasis and reflex behavior:
FIG. 59 shows an example of behavior mediation when the remaining battery level is medium and a crap is recognized from the outside world.

このとき、状況依存行動階層108では、行動選択部230は、ホメオスタシス行動としてのバッテリチャージ行動の行動価値70と、アイドル行動の行動価値20を比較して、行動価値の大きいバッテリチャージ行動が選択される。このような場合、コマンドの強さとして行動価値70が与えられたバッテリチャージ行動のモーション・コマンドが、資源管理部110に対して出力される。   At this time, in the situation-dependent action hierarchy 108, the action selection unit 230 compares the action value 70 of the battery charge action as the homeostasis action with the action value 20 of the idle action, and the battery charge action having a large action value is selected. The In such a case, the motion command of the battery charge action given the action value 70 as the strength of the command is output to the resource management unit 110.

また、このとき、外部刺激としてクラップが検出されたとする。反射行動部109は、この外部刺激に即応するクラップ反射行動を選択すると、すべての反射行動に一律に与えられたコマンドの強さ80を付けて、資源管理部110に対してモーション・コマンドを出力する。   At this time, it is assumed that a crap is detected as an external stimulus. When the reflex action unit 109 selects the clap reflex action that responds immediately to the external stimulus, the reflex action unit 109 outputs a motion command to the resource management unit 110 with the command strength 80 given uniformly to all the reflex actions. To do.

そして、資源管理部110は、状況依存行動階層108及び反射行動部109からそれぞれ伝達されたモーション・コマンドの強さを比較し、値が大きい方のモーションを出力する。したがって、この場合は、コマンドの強さの大きい反射行動が選択されることになる。   Then, the resource management unit 110 compares the strengths of the motion commands transmitted from the situation-dependent behavior layer 108 and the reflex behavior unit 109, and outputs the motion having the larger value. Therefore, in this case, a reflex action with a high command strength is selected.

また、図60には、バッテリ残量が少程度で、クラップを認識したときの行動調停例を示している。   FIG. 60 shows an example of behavior arbitration when the remaining battery level is low and a crap is recognized.

このとき、状況依存行動階層108では、行動選択部230は、ホメオスタシス行動としてのバッテリチャージ行動の行動価値90と、アイドル行動の行動価値20を比較して、行動価値の大きいバッテリチャージ行動が選択される。このような場合、コマンドの強さとして行動価値90が与えられたバッテリチャージ行動のモーション・コマンドが、資源管理部110に対して出力される。   At this time, in the situation-dependent action hierarchy 108, the action selection unit 230 compares the action value 90 of the battery charge action as the homeostasis action with the action value 20 of the idle action, and the battery charge action having a large action value is selected. The In such a case, the motion command of the battery charge action given the action value 90 as the strength of the command is output to the resource management unit 110.

また、このとき、外部刺激としてクラップが検出されたとする。反射行動部109は、この外部刺激に即応するクラップ反射行動を選択すると、すべての反射行動に一律に与えられたコマンドの強さ80を付けて、資源管理部110に対してモーション・コマンドを出力する。   At this time, it is assumed that a crap is detected as an external stimulus. When the reflex action unit 109 selects the clap reflex action that responds immediately to the external stimulus, the reflex action unit 109 outputs a motion command to the resource management unit 110 with a command strength 80 given to all reflex actions uniformly To do.

そして、資源管理部110は、状況依存行動階層108及び反射行動部109からそれぞれ伝達されたモーション・コマンドの強さを比較し、その結果、コマンドの強さの大きいバッテリチャージ行動が選択される。   Then, the resource management unit 110 compares the strengths of the motion commands transmitted from the situation-dependent behavior layer 108 and the reflex behavior unit 109, and as a result, a battery charge behavior having a high command strength is selected.

つまり、ホメオスタシス行動の行動価値(欲求)が低い場合には、ロボット装置としては反射行動のトリガに反応し易くなるが、ホメオスタシス行動の行動価値が高い場合には、ロボット装置としては反射行動のトリガに反応しない(その行動に集中しているように見える)ことになる。   That is, when the action value (desire) of the homeostasis action is low, the robot apparatus easily reacts to the trigger of the reflex action, but when the action value of the homeostasis action is high, the robot apparatus triggers the reflex action. Will not respond to it (it appears to be focused on that action).

アイドル行動と反射行動の調停例:
図61並びに図62には、バッテリ残量が十分で、外界からクラップを認識したときの行動調停例を示している。
Example of mediation between idol behavior and reflex behavior:
61 and 62 show examples of behavior mediation when the remaining battery level is sufficient and the crap is recognized from the outside world.

この場合、内部状態が十分に満たされているので、ホメオスタシス行動としてのバッテリチャージ行動の欲求値は小さくなる、すなわち行動価値が低下するので、状況依存行動階層108はアイドル行動の要素運動がモーション・コマンドとして出力する。出力されるアイドル行動の種類は、そのときの反射イベント密度REDによって決定される(前述)。   In this case, since the internal state is sufficiently satisfied, the desire value of the battery charging action as the homeostasis action becomes small, that is, the action value decreases. Output as a command. The type of idle action to be output is determined by the reflection event density RED at that time (described above).

図61には、ユーザがロボット装置に対してぱちぱちと手を叩いて呼び掛け、反射イベント密度REDがある値から60程度まで上昇したときの行動調停例を示している。   FIG. 61 shows an example of behavior arbitration when the user calls the robot apparatus with a clapping hand and the reflection event density RED increases from a certain value to about 60.

このとき、状況依存行動階層108から出力されたアイドル行動の要素行動が「首を傾ける」であるとすると、そのモーション・コマンドの強さは75である。これに対し、反射行動のコマンドの強さは一定値80と大きいことから、資源管理部120は、コマンドの強さの大きい反射行動を選択する。   At this time, if the elemental action of the idle action output from the situation dependent action hierarchy 108 is “tilt”, the strength of the motion command is 75. On the other hand, since the strength of the command of the reflex action is as large as the constant value 80, the resource management unit 120 selects the reflex action having a large strength of the command.

また、図62には、ロボット装置がしばらく報知された結果、反射イベント密度が40程度に低下したときに、ユーザがロボット装置に対してぱちぱちと手を叩いて呼び掛けたときの行動調停例を示している。   FIG. 62 shows an example of behavior mediation when the user calls the robot device with a clapping hand when the reflection event density decreases to about 40 as a result of the robot device being notified for a while. ing.

このとき、状況依存行動階層108から出力されたアイドル行動の要素行動が「ゴルフパットの練習」であるとすると、そのモーション・コマンドの強さは85である。これに対し、反射行動のコマンドの強さは一定値80と小さいことから、資源管理部120は、コマンドの強さの大きいアイドル行動を選択する。   At this time, if the elemental behavior of the idle behavior output from the situation dependent behavior hierarchy 108 is “golf put practice”, the motion command strength is 85. On the other hand, since the strength of the reflex action command is as small as 80, the resource management unit 120 selects an idle action with a high command strength.

その後、さらにユーザがロボット装置に対してぱちぱちと手を叩いて呼び掛け続けると、反射イベント密度REDが上昇し、その結果、図61に示したように資源管理部120は反射行動を出力するようになる。   Thereafter, when the user continues to call the robot apparatus with a clapping hand, the reflection event density RED increases, and as a result, the resource management unit 120 outputs the reflection action as shown in FIG. Become.

つまり、アイドル行動は、ユーザからの反射イベントが多く反射イベント密度が高い場合は、ロボット装置は反射行動のトリガに反応するようになる。他方、ユーザから放置されて反射イベント密度が低い場合には、ロボット装置は反射行動のトリガに反応しない(その行動に集中しているように見える)ことになる。   That is, in the idle behavior, when there are many reflection events from the user and the reflection event density is high, the robot apparatus responds to the trigger of the reflection behavior. On the other hand, when the reflection event density is low due to being left by the user, the robot apparatus does not respond to the trigger of the reflection action (it seems to concentrate on the action).

以上、特定の実施形態を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。   The present invention has been described in detail above with reference to specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions of the embodiment without departing from the gist of the present invention.

本発明の要旨は、必ずしも「ロボット」と称される製品には限定されない。すなわち、電気的若しくは磁気的な作用を用いて人間の動作に似せた運動を行なう機械装置であるならば、例えば玩具等のような他の産業分野に属する製品であっても、同様に本発明を適用することができる。   The gist of the present invention is not necessarily limited to a product called a “robot”. That is, as long as it is a mechanical device that performs an exercise resembling human movement using an electrical or magnetic action, the present invention can be applied to products belonging to other industrial fields such as toys. Can be applied.

また、本発明に係る行動制御メカニズムは、ロボット装置だけでなく、自発行動と反射行動を行なう他の自律型のエージェントに対しても好適に適用することが可能である。   Further, the behavior control mechanism according to the present invention can be suitably applied not only to the robot apparatus but also to other autonomous agents that perform self-issued movement and reflex behavior.

要するに、例示という形態で本発明を開示してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本発明の要旨を判断するためには、特許請求の範囲を参酌すべきである。   In short, the present invention has been disclosed in the form of exemplification, and the description of the present specification should not be interpreted in a limited manner. In order to determine the gist of the present invention, the claims should be taken into consideration.

本発明に実施に供されるロボット装置1の機能構成を模式的に示した図である。It is the figure which showed typically the function structure of the robot apparatus 1 provided to implementation by this invention. 制御ユニット20の構成をさらに詳細に示した図である。FIG. 3 is a diagram showing the configuration of the control unit 20 in more detail. 本発明の実施形態に係るロボット装置1の行動制御システム100の機能構成を模式的に示した図である。It is the figure which showed typically the function structure of the action control system 100 of the robot apparatus 1 which concerns on embodiment of this invention. 図3に示した行動制御システム100を構成する各オブジェクトによる動作の流れを示した図である。It is the figure which showed the flow of operation | movement by each object which comprises the action control system 100 shown in FIG. 各認識機能部101〜103における認識結果に基づいて短期記憶部105内のターゲット・メモリに入る情報の流れを示した図である。It is the figure which showed the flow of the information which enters into the target memory in the short-term memory | storage part 105 based on the recognition result in each recognition function part 101-103. 各認識機能部101〜103における認識結果に基づいて短期記憶部105内のイベント・メモリに入る情報の流れを示した図である。It is the figure which showed the flow of the information which enters into the event memory in the short-term memory | storage part 105 based on the recognition result in each recognition function part 101-103. ロボット1によるユーザA及びBとの対話処理を説明するための図である。It is a figure for demonstrating the dialogue process with the user A and B by the robot. ロボット1によるユーザA及びBとの対話処理を説明するための図である。It is a figure for demonstrating the dialogue process with the user A and B by the robot. ロボット1によるユーザA及びBとの対話処理を説明するための図である。It is a figure for demonstrating the dialogue process with the user A and B by the robot. 本発明の一実施形態に係る連想記憶の記憶過程を概念的に示した図である。It is the figure which showed notionally the memory | storage process of the associative memory which concerns on one Embodiment of this invention. 本発明の一実施形態に係る連想記憶の想起過程を概念的に示した図である。It is the figure which showed notionally the recall process of the associative memory based on one Embodiment of this invention. 競合型ニューラル・ネットワークを適用した連想記憶システムの構成例を模式的に示した図である。It is the figure which showed typically the example of a structure of the associative memory system to which a competitive neural network was applied. 本発明の実施形態に係る行動制御システム100のオブジェクト構成を模式的に示した図である。It is the figure which showed typically the object structure of the action control system 100 which concerns on embodiment of this invention. 状況依存行動階層108による状況依存行動制御の形態を模式的に示した図である。It is the figure which showed typically the form of the situation dependence action control by the situation dependence action hierarchy. 図14に示した状況依存行動階層108による行動制御の基本的な動作例を示した図である。FIG. 15 is a diagram illustrating a basic operation example of behavior control by the situation-dependent behavior hierarchy illustrated in FIG. 14. 図14に示した状況依存行動階層108により反射行動を行なう場合の動作例を示した図である。It is the figure which showed the operation example in the case of performing reflex action by the situation dependence action hierarchy 108 shown in FIG. 図14に示した状況依存行動階層108により感情表現を行なう場合の動作例を示した図である。It is the figure which showed the operation example in the case of expressing an emotion by the situation dependence action hierarchy shown in FIG. 状況依存行動階層108が複数のスキーマによって構成されている様子を模式的に示した図である。It is the figure which showed typically a mode that the situation dependence action hierarchy 108 was comprised by the some schema. 状況依存行動階層108におけるスキーマのツリー構造を模式的に示した図である。It is the figure which showed typically the tree structure of the schema in the situation dependence action hierarchy. スキーマの内部構成を模式的に示している。The internal structure of a schema is schematically shown. Monitor関数の内部構成を模式的に示した図である。It is the figure which showed typically the internal structure of the Monitor function. 行動状態制御部の構成例を模式的に示した図である。It is the figure which showed the structural example of the action state control part typically. 行動状態制御部の他の構成例を模式的に示した図である。It is the figure which showed typically the example of another structure of the action state control part. 状況依存行動階層108において通常の状況依存行動を制御するためのメカニズムを模式的に示した図である。It is the figure which showed typically the mechanism for controlling the normal situation dependence action in the situation dependence action hierarchy 108. FIG. 反射行動部109におけるスキーマの構成を模式的に示した図である。It is the figure which showed the structure of the schema in the reflective action part 109 typically. 反射行動部109により反射的行動を制御するためのメカニズムを模式的に示した図である。It is the figure which showed typically the mechanism for controlling a reflective action by the reflective action part 109. FIG. 状況依存行動階層108において使用されるスキーマのクラス定義を模式的に示した図である。It is the figure which showed typically the class definition of the schema used in the situation dependence action hierarchy 108. スキーマのaction関数のステートマシンを示した図である。It is the figure which showed the state machine of the action function of schema. スキーマのステートマシンを示した図である。It is the figure which showed the state machine of the schema. 状況依存行動階層108内のクラスの機能的構成を模式的に示した図である。It is the figure which showed typically the functional structure of the class in the situation dependence action hierarchy. MakePronome関数を実行する処理手順を示したフローチャートである。It is the flowchart which showed the process sequence which performs the MakePronome function. Monitor関数を実行する処理手順を示したフローチャートである。It is the flowchart which showed the process sequence which performs a Monitor function. Actions関数を実行する処理手順を示したフローチャートである。It is the flowchart which showed the process sequence which performs Actions function. Actions関数を実行する処理手順を示したフローチャートである。It is the flowchart which showed the process sequence which performs Actions function. スキーマのReentrant性を説明するための図である。It is a figure for demonstrating Reentrant property of a schema. 本実施形態に係る内部状態管理部104の階層的構成を模式的に示した図である。It is the figure which showed typically the hierarchical structure of the internal state management part 104 which concerns on this embodiment. 内部状態管理部104と他の機能モジュールとの通信経路を模式的に示した図である。It is the figure which showed typically the communication path | route between the internal state management part 104 and another functional module. 内部状態管理部104が時間変化に伴って内部状態を変化させるための仕組みを示した図である。It is the figure which showed the mechanism for the internal state management part 104 to change an internal state with a time change. 内部状態管理部104がロボットの動作実行に伴って内部状態を変化させるための仕組みを示した図である。It is the figure which showed the mechanism for the internal state management part 104 to change an internal state with operation | movement execution of a robot. 内部状態管理部104が外部環境の認識結果により内部状態を変化させるための仕組みを示した図である。It is the figure which showed the mechanism for the internal state management part 104 to change an internal state by the recognition result of an external environment. 内部状態管理部104が連想記憶により内部状態を変化させるための仕組みを示した図である。It is the figure which showed the structure for the internal state management part 104 to change an internal state by associative memory. 内部状態管理部104が生得的反射行動により内部状態を変化させるための仕組みを示した図である。It is the figure which showed the mechanism for the internal state management part 104 to change an internal state by innate reflection behavior. スキーマと内部状態管理部との関係を模式的に示した図である。It is the figure which showed typically the relationship between a schema and an internal state management part. Motivation算出クラス・オブジェクトによるMotivation算出経路を模式的に示した図である。It is the figure which showed typically the Motivation calculation path | route by a Motivation calculation class object. 対象物が存在するときのMotivation算出処理のメカニズムを模式的に示した図である。It is the figure which showed typically the mechanism of the Motivation calculation process when a target object exists. 対象物が存在しないときのMotivation算出処理のメカニズムを模式的に示した図である。It is the figure which showed typically the mechanism of the Motivation calculation process when a target object does not exist. Pleasantnessの変更方法を示した図である。It is the figure which showed the change method of Pleasantness. Activityの変更方法を示した図である。It is the figure which showed the change method of Activity. Certaintyの変更方法を示した図である。It is the figure which showed the change method of Certificate. Certaintyを求めるためのメカニズムを示した図である。It is the figure which showed the mechanism for calculating | requiring Certificate. ResourceManagerの構成を示した図である。It is the figure which showed the structure of ResourceManager. SituatedBehaviorLayerからReflexiveBehaviorlayerへの制御を模式的に示した図である。It is the figure which showed typically the control from SituatedBehaviorLayer to ReflexiveBehaviorlayer. DeliberativeLayerからSituatedBehaviorLayerへの制御を模式的に示した図である。It is the figure which showed typically the control from DeliverativeLayer to SituatedBehaviorLayer. 図54は、ロボット装置1の行動制御システムの他の構成例を示した図である。FIG. 54 is a diagram illustrating another configuration example of the behavior control system of the robot apparatus 1. 図55は、状況依存行動階層108の内部構成例を示した図である。FIG. 55 is a diagram showing an example of the internal configuration of the situation-dependent action hierarchy 108. 図56は、行動価値算出部220が内部状態及び外部刺激から行動価値ALを算出する処理の流れを示した図である。FIG. 56 is a diagram showing a flow of processing in which the behavior value calculation unit 220 calculates the behavior value AL from the internal state and the external stimulus. 図57は、反射イベント密度REDが反射イベントの発生に応じて変化する様子を例示した図である。FIG. 57 is a diagram illustrating a state in which the reflection event density RED changes according to the occurrence of the reflection event. 図58は、反射イベント密度REDを用いてmiが選択される確率Pmiの例を示した図である。Figure 58 is a diagram m i is an example of a probability Pm i is selected by using the reflection event density RED. 図59は、バッテリ残量が中程度で、外界からクラップを認識したときの行動調停例を示した図である。FIG. 59 is a diagram illustrating an example of behavior arbitration when the remaining battery level is medium and a crap is recognized from the outside world. 図60は、バッテリ残量が少程度で、クラップを認識したときの行動調停例を示した図である。FIG. 60 is a diagram illustrating an example of behavior arbitration when the remaining battery level is low and a crap is recognized. 図61は、バッテリ残量が十分で、外界からクラップを認識したときの行動調停例を示した図である。FIG. 61 is a diagram illustrating an example of behavior arbitration when the remaining battery capacity is sufficient and a crap is recognized from the outside world. 図62は、バッテリ残量が十分で、外界からクラップを認識したときの行動調停例を示した図である。FIG. 62 is a diagram illustrating an example of behavior arbitration when the remaining battery level is sufficient and a crap is recognized from the outside world.

符号の説明Explanation of symbols

1…ロボット装置
15…CCDカメラ
16…マイクロフォン
17…スピーカ
18…タッチセンサ
19…LEDインジケータ
20…制御部
21…CPU
22…RAM
23…ROM
24…不揮発メモリ
25…インターフェース
26…無線通信インターフェース
27…ネットワーク・インターフェース・カード
28…バス
29…キーボード
40…入出力部
50…駆動部
51…モータ
52…エンコーダ
53…ドライバ
100…行動制御システム
101…視覚認識機能部
102…聴覚認識機能部
103…接触認識機能部
105…短期記憶部
106…長期記憶部
107…熟考行動階層
108…状況依存行動階層
109…反射行動部
220…行動価値算出部
230…行動選択部
240…学習部
DESCRIPTION OF SYMBOLS 1 ... Robot apparatus 15 ... CCD camera 16 ... Microphone 17 ... Speaker 18 ... Touch sensor 19 ... LED indicator 20 ... Control part 21 ... CPU
22 ... RAM
23 ... ROM
24 ... Non-volatile memory 25 ... Interface 26 ... Wireless communication interface 27 ... Network interface card 28 ... Bus 29 ... Keyboard 40 ... Input / output unit 50 ... Drive unit 51 ... Motor 52 ... Encoder 53 ... Driver 100 ... Action control system 101 ... Visual recognition function unit 102 ... Hearing recognition function unit 103 ... Contact recognition function unit 105 ... Short-term memory unit 106 ... Long-term memory unit 107 ... Contemplation action layer 108 ... Situation-dependent action layer 109 ... Reflection action unit 220 ... Action value calculation unit 230 ... Action selection unit 240 ... learning unit

Claims (21)

内部状態又は外部入力に基づいて行動を生成するロボット装置において、
内部状態又は外部入力に基づいて行動を制御する複数の行動制御階層と、
前記ロボット装置の資源を管理し、各行動制御階層からの前記ロボット装置の駆動に関する動作コマンドの競合を解決する資源管理部と、
を具備することを特徴とするロボット装置。
In a robot device that generates an action based on an internal state or an external input,
A plurality of action control layers for controlling actions based on internal states or external inputs;
A resource management unit that manages resources of the robot device and resolves conflicts of operation commands related to driving of the robot device from each behavior control layer;
A robot apparatus comprising:
前記の各行動制御階層は、前記ロボットの行動を決定する1以上の行動モジュールで構成され、
各行動モジュールは、内部状態又は外部入力に応じた前記ロボット装置の行動評価を出力する行動評価手段と、前記ロボット装置の行動命令を出力する行動命令出力手段とをそれぞれ備え、
前記の各行動制御階層では、各行動モジュールの前記行動評価手段における行動評価及び前記ロボット装置の使用リソースに基づいて、前記ロボット装置の行動を制御する動作コマンドを生成する、
ことを特徴とする請求項1に記載のロボット装置。
Each of the behavior control layers is composed of one or more behavior modules that determine the behavior of the robot.
Each behavior module includes a behavior evaluation unit that outputs a behavior evaluation of the robot device according to an internal state or an external input, and a behavior command output unit that outputs a behavior command of the robot device, respectively.
In each of the action control layers, an action command for controlling the action of the robot apparatus is generated based on the action evaluation in the action evaluation unit of each action module and the resource used by the robot apparatus.
The robot apparatus according to claim 1.
前記の各行動制御階層では、複数の行動モジュールはツリー状の階層構造をなし、前記階層構造の下位層の行動モジュールから上位層の行動モジュールへ出力される行動評価及び前記ロボット装置の使用リソースに基づいて行動モジュールを選択し、前記ロボット装置の行動を制御する、
ことを特徴とする請求項2に記載のロボット装置。
In each of the behavior control layers, the plurality of behavior modules have a tree-like hierarchical structure, and are used for behavior evaluation and output resources of the robot apparatus that are output from the behavior module in the lower layer to the behavior module in the upper layer. Selecting a behavior module based on and controlling the behavior of the robotic device;
The robot apparatus according to claim 2.
前記の各行動モジュールの行動命令出力手段は、前記ロボット装置において前記行動命令を実行する際に使用する前記ロボット装置のリソースを出力し、
前記の各行動制御階層では、前記階層構造の下位層の行動モジュールから上位層の行動モジュールへ出力される行動評価及び前記ロボット装置の使用リソースに基づいて、前記ロボット装置の行動を制御する、
ことを特徴とする請求項2に記載のロボット装置。
The action command output means of each of the action modules outputs resources of the robot apparatus used when executing the action instruction in the robot apparatus,
In each of the behavior control layers, the behavior of the robot device is controlled based on the behavior evaluation and the resource used by the robot device output from the behavior module of the lower layer of the hierarchical structure to the behavior module of the upper layer.
The robot apparatus according to claim 2.
前記の行動制御階層は、外部入力の認識結果を直接受けて出力行動を直接決定する反射行動制御階層と、外部入力並びに前記ロボット装置の内部状態に基づいて前記ロボット装置が置かれている状況に即応した行動を制御する状況依存行動階層と、将来の状況を推論して比較的長期にわたる前記ロボット装置の行動を計画する熟考行動制御階層を備える、
ことを特徴とする請求項2に記載のロボット装置。
The behavior control layer includes a reflection behavior control layer that directly receives an external input recognition result and directly determines an output behavior, and a situation in which the robot apparatus is placed based on an external input and an internal state of the robot apparatus. A situation-dependent action hierarchy that controls immediate action and a contemplation action control hierarchy that infers future situations and plans the behavior of the robotic device over a relatively long period of time,
The robot apparatus according to claim 2.
前記資源管理部は、前記反射行動階層と前記状況依存行動階層の動作コマンドの競合を調停する、
ことを特徴とする請求項5に記載のロボット装置。
The resource management unit mediates a conflict between operation commands of the reflex behavior layer and the situation-dependent behavior layer;
The robot apparatus according to claim 5.
前記資源管理部は、前記反射行動階層並びに前記熟考行動階層からのコマンドの競合解決を行なうコマンド競合解決手段と、前記ロボット装置のハードウェア資源毎のコマンドの管理を行なうコンテンツ管理手段を備える、
ことを特徴とする請求項5に記載のロボット装置。
The resource management unit includes command conflict solution means for solving a conflict of commands from the reflection action hierarchy and the contemplation action hierarchy, and content management means for managing a command for each hardware resource of the robot apparatus.
The robot apparatus according to claim 5.
前記コマンド競合解決手段は、
コマンドと、コマンドが使用する前記ロボット装置のハードウェア資源と、コマンドの活動度レベルを保持し、
いずれかの行動制御階層から新しいコマンドが送信されたときには、現在実行中のコマンドが使用する前記ロボット装置のハードウェア資源と新しいコマンドが使用する前記ロボット装置のハードウェア資源が競合しているか否かを判定し、競合している場合には互いのコマンドに付随する活動度レベルの比較を行なうことによりコマンドの競合を解決する、
ことを特徴とする請求項7に記載のロボット装置。
The command conflict solution means
Holding the command, the hardware resource of the robot device used by the command, and the activity level of the command;
When a new command is transmitted from any of the behavior control layers, whether or not the hardware resource of the robot device used by the currently executing command and the hardware resource of the robot device used by the new command are in conflict Resolving command conflicts by comparing the activity levels associated with each other's commands, if any
The robot apparatus according to claim 7.
前記行動モジュール内の行動評価手段は、前記行動命令手段による行動命令の出力を誘発する評価値を活動度レベルとして求める行動誘発評価値演算手段と、活動度レベルに対するバイアスを意図レベルとして求めるバイアス演算手段と、前記行動命令手段による行動命令を実行したときに使用する前記ロボット装置のリソースを特定する使用リソース演算手段を備える、
ことを特徴とする請求項5に記載のロボット装置。
The behavior evaluation unit in the behavior module includes a behavior induction evaluation value calculation unit that calculates an evaluation value that induces an output of a behavior command by the behavior command unit as an activity level, and a bias calculation that calculates a bias with respect to the activity level as an intention level And a use resource calculation means for specifying the resource of the robot device to be used when the action command by the action command means is executed.
The robot apparatus according to claim 5.
前記状況依存行動階層は、反射行動が状況依存行動の意図に適合するか否かに応じて反射行動を抑制又は励起する行動意図信号を前記反射行動階層に出力し、
前記反射行動階層は、行動意図信号を管理する行動意図管理手段を備え、前記状況依存行動階層における行動意図に基づいて各行動モジュールにおける意図レベルを操作することにより、状況依存行動の意図に反する行動モジュールを抑制し又は状況依存行動の意図に適合する行動モジュールを励起する、
ことを特徴とする請求項9に記載のロボット装置。
The situation-dependent action layer outputs an action intention signal that suppresses or excites a reflection action according to whether or not the reflection action matches the intention of the situation-dependent action to the reflection action layer,
The reflex behavior layer includes behavior intention management means for managing a behavior intention signal, and an action contrary to the intention of the situation-dependent behavior by manipulating the intention level in each behavior module based on the behavior intention in the situation-dependent behavior layer. Suppress the module or excite a behavior module that fits the intention of context-dependent behavior,
The robot apparatus according to claim 9.
前記熟考行動階層は、状況依存行動が熟考行動の意図に適合するか否かに応じて状況依存行動を抑制又は励起する行動意図信号を前記反射行動階層に出力し、
前記状況依存行動階層は、行動意図信号を管理する行動意図管理手段を備え、前記熟考行動階層における行動意図に基づいて各行動モジュールにおける意図レベルを操作することにより、熟考行動の意図に反する行動モジュールを抑制し又は熟考行動の意図に適合する行動モジュールを励起する、
ことを特徴とする請求項9に記載のロボット装置。
The contemplation action layer outputs an action intention signal that suppresses or excites a situation-dependent action depending on whether or not the situation-dependent action matches the intention of the contemplation action, to the reflex action layer,
The situation-dependent action hierarchy includes action intention management means for managing an action intention signal, and an action module contrary to the intention of the contemplation action by manipulating the intention level in each action module based on the action intention in the contemplation action hierarchy To suppress behavior or excite behavior modules that fit the intention of contemplation behavior,
The robot apparatus according to claim 9.
前記の行動制御階層は、内部状態をある範囲に保つためのホメオスタシス行動、及びホメオスタシス的な目的を持たないアイドル行動を自発的に発生させる状況依存行動階層と、外部入力の認識結果を直接受けて出力行動を直接決定する反射行動制御階層を含み、
前記状況依存行動階層から出力される自発行動と前記反射行動制御階層より出力される反射行動を調停する資源管理部をさらに備える、
ことを特徴とする請求項1に記載のロボット装置。
The behavior control layer directly receives a homeostasis behavior for keeping the internal state within a certain range, a situation-dependent behavior layer that spontaneously generates an idle behavior without a homeostasis purpose, and an external input recognition result. Includes a reflex behavior control hierarchy that directly determines output behavior,
A resource management unit that arbitrates between the self-issued movement output from the situation-dependent action hierarchy and the reflex action output from the reflex action control hierarchy;
The robot apparatus according to claim 1.
前記状況依存行動階層は、それぞれのホメオスタシス行動及びアイドル行動を行動出力する複数の要素行動で構成され、
前記反射行動階層は、それぞれの反射行動を行動出力する複数の要素行動で構成される、
ことを特徴とする請求項12に記載のロボット装置。
The situation-dependent behavior hierarchy is composed of a plurality of elemental behaviors that output the respective homeostasis behavior and idle behavior,
The reflex behavior hierarchy is composed of a plurality of elemental behaviors that behaviorally output each reflex behavior.
The robot apparatus according to claim 12, wherein:
各要素行動の実行優先度を示す行動価値を算出する行動価値算出手段をそれぞれ備え、
前記状況依存行動階層は、自発行動として行動出力すべき要素行動を行動価値に基づいて選択する行動選択手段をさらに備える、
ことを特徴とする請求項13に記載のロボット装置。
Each has an action value calculation means for calculating an action value indicating the execution priority of each element action,
The situation-dependent action hierarchy further includes an action selection means for selecting an element action to be output as a self-issued action based on an action value.
The robot apparatus according to claim 13.
前記行動価値算出手段は、
前記ロボット装置の内部状態から欲求値を算出するとともに、内部状態と認識結果から予想満足値を算出し、該欲求値と該予想満足値からホメオスタシス行動の要素行動の行動価値を算出し、
アイドル行動の要素行動の行動価値として一定値を与える、
ことを特徴とする請求項14に記載のロボット装置。
The behavior value calculating means includes
While calculating the desire value from the internal state of the robotic device, calculating the expected satisfaction value from the internal state and the recognition result, calculating the action value of the elementary action of homeostasis action from the desire value and the predicted satisfaction value,
Give a certain value as the action value of elemental action of idle action,
The robot apparatus according to claim 14.
前記状況依存行動階層から出力される自発行動の要素運動と前記反射行動階層より出力される反射行動の要素運動とを調停する資源管理部をさらに備える、
ことを特徴とする請求項15に記載のロボット装置。
A resource management unit that mediates between the element movement of the self-issued movement output from the situation-dependent action hierarchy and the element movement of the reflection action output from the reflection action hierarchy;
The robot apparatus according to claim 15.
前記状況依存行動階層及び前記反射行動階層はそれぞれ出力する要素行動にコマンドの強さを与え、
前記資源管理部は、コマンドの強さに基づいて、ホメオスタシス行動と反射行動、又はアイドル行動と反射行動の間で調停を行なう、
ことを特徴とする請求項16に記載のロボット装置。
The situation-dependent action hierarchy and the reflex action hierarchy each give command strength to the element action to be output,
The resource management unit mediates between homeostasis behavior and reflex behavior, or idle behavior and reflex behavior based on the strength of the command,
The robot apparatus according to claim 16.
前記状況依存行動階層は、ホメオスタシス行動の要素行動に対して行動価値に基づくコマンドの強さを与える、
ことを特徴とする請求項17に記載のロボット装置。
The context-dependent behavior hierarchy gives command strength based on behavior value to elemental behavior of homeostasis behavior,
The robot apparatus according to claim 17.
前記状況依存行動階層は、アイドル行動の各要素行動に対してそれぞれ固有のコマンドの強さを与える、
ことを特徴とする請求項17に記載のロボット装置。
The situation-dependent action hierarchy gives a unique command strength to each element action of the idle action,
The robot apparatus according to claim 17.
前記反射行動階層は、すべての要素行動にコマンドの強さとして一定値を与える、
ことを特徴とする請求項17に記載のロボット装置。
The reflex behavior hierarchy gives a constant value as command strength to all element behaviors,
The robot apparatus according to claim 17.
反射行動の要因となる外部入力イベントが発生する反射イベント密度を管理する反射イベント管理部を備える、
前記状況依存行動階層は、反射イベント密度に基づいてアイドル行動の各要素行動が選択される確率を求め、該確率に従って要素行動を選択する、
ことを特徴とする請求項13に記載のロボット装置。
A reflection event management unit that manages the reflection event density at which an external input event that causes reflection behavior occurs is provided.
The situation-dependent action hierarchy obtains a probability that each element action of the idle action is selected based on the reflection event density, and selects the element action according to the probability.
The robot apparatus according to claim 13.
JP2005128642A 2004-09-14 2005-04-26 Robot device Pending JP2006110707A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005128642A JP2006110707A (en) 2004-09-14 2005-04-26 Robot device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004267611 2004-09-14
JP2005128642A JP2006110707A (en) 2004-09-14 2005-04-26 Robot device

Publications (1)

Publication Number Publication Date
JP2006110707A true JP2006110707A (en) 2006-04-27

Family

ID=36379635

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005128642A Pending JP2006110707A (en) 2004-09-14 2005-04-26 Robot device

Country Status (1)

Country Link
JP (1) JP2006110707A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008307662A (en) * 2007-06-15 2008-12-25 Fujitsu Ltd Robot system, editor terminal and editor program
JP2009018411A (en) * 2007-07-13 2009-01-29 Honda Research Inst Europe Gmbh Method and device for controlling robot
JP2011083834A (en) * 2009-10-13 2011-04-28 Seiko Epson Corp Robot control system, and robot control method
JP2012111038A (en) * 2012-03-21 2012-06-14 Advanced Telecommunication Research Institute International Android control system
WO2013168280A1 (en) * 2012-05-11 2013-11-14 三菱電機株式会社 Control unit, control method, and control program
CN106794579A (en) * 2014-04-17 2017-05-31 软银机器人欧洲公司 Anthropomorphic robot with autonomous viability
WO2019064730A1 (en) * 2017-09-26 2019-04-04 ソニー株式会社 Information processing device, information processing method, and program
CN109753865A (en) * 2017-11-03 2019-05-14 丰田研究所股份有限公司 The associated system and method for subjects history
JP2019118991A (en) * 2017-12-28 2019-07-22 富士通株式会社 Control program, control method and information processing apparatus
JPWO2019088160A1 (en) * 2017-11-01 2020-11-12 Groove X株式会社 Autonomous behavioral robot capable of performing reflexes

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001116582A (en) * 1999-10-15 2001-04-27 Atr Media Integration & Communications Res Lab Round guide system
JP2002239962A (en) * 2000-12-06 2002-08-28 Sony Corp Robot device, and action control method and system of robot device
JP2003334785A (en) * 2002-03-15 2003-11-25 Sony Corp Robot behavior control system and behavior control method and robot device
JP2004237392A (en) * 2003-02-05 2004-08-26 Sony Corp Robotic device and expression method of robotic device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001116582A (en) * 1999-10-15 2001-04-27 Atr Media Integration & Communications Res Lab Round guide system
JP2002239962A (en) * 2000-12-06 2002-08-28 Sony Corp Robot device, and action control method and system of robot device
JP2003334785A (en) * 2002-03-15 2003-11-25 Sony Corp Robot behavior control system and behavior control method and robot device
JP2004237392A (en) * 2003-02-05 2004-08-26 Sony Corp Robotic device and expression method of robotic device

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008307662A (en) * 2007-06-15 2008-12-25 Fujitsu Ltd Robot system, editor terminal and editor program
JP2009018411A (en) * 2007-07-13 2009-01-29 Honda Research Inst Europe Gmbh Method and device for controlling robot
JP2011083834A (en) * 2009-10-13 2011-04-28 Seiko Epson Corp Robot control system, and robot control method
JP2012111038A (en) * 2012-03-21 2012-06-14 Advanced Telecommunication Research Institute International Android control system
WO2013168280A1 (en) * 2012-05-11 2013-11-14 三菱電機株式会社 Control unit, control method, and control program
TWI452455B (en) * 2012-05-11 2014-09-11 Mitsubishi Electric Corp Control apparatus, control method and computer product recorded with control program
CN104272203A (en) * 2012-05-11 2015-01-07 三菱电机株式会社 Control unit, control method, and control program
JP2017514709A (en) * 2014-04-17 2017-06-08 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe Humanoid robot with autonomous living ability
CN106794579A (en) * 2014-04-17 2017-05-31 软银机器人欧洲公司 Anthropomorphic robot with autonomous viability
US10583559B2 (en) 2014-04-17 2020-03-10 Softbank Robotics Europe Humanoid robot with an autonomous life capability
WO2019064730A1 (en) * 2017-09-26 2019-04-04 ソニー株式会社 Information processing device, information processing method, and program
JPWO2019064730A1 (en) * 2017-09-26 2020-09-03 ソニー株式会社 Information processing equipment, information processing methods, and programs
JP7163925B2 (en) 2017-09-26 2022-11-01 ソニーグループ株式会社 Information processing device, information processing method, and program
JPWO2019088160A1 (en) * 2017-11-01 2020-11-12 Groove X株式会社 Autonomous behavioral robot capable of performing reflexes
CN109753865A (en) * 2017-11-03 2019-05-14 丰田研究所股份有限公司 The associated system and method for subjects history
CN109753865B (en) * 2017-11-03 2023-12-26 丰田研究所股份有限公司 System and method for object history association
JP2019118991A (en) * 2017-12-28 2019-07-22 富士通株式会社 Control program, control method and information processing apparatus
JP7147167B2 (en) 2017-12-28 2022-10-05 富士通株式会社 Control program, control method and information processing device

Similar Documents

Publication Publication Date Title
KR101137205B1 (en) Robot behavior control system, behavior control method, and robot device
US7853357B2 (en) Robot behavior control based on current and predictive internal, external condition and states with levels of activations
US8145492B2 (en) Robot behavior control system and method, and robot apparatus
JP4244812B2 (en) Action control system and action control method for robot apparatus
US7515992B2 (en) Robot apparatus and emotion representing method therefor
KR100864339B1 (en) Robot device and behavior control method for robot device
JP2006110707A (en) Robot device
US20040210345A1 (en) Buffer mechanism and recording and/or reproducing apparatus
JP2011115944A (en) Robot device, robot device action control method, and program
JP3558222B2 (en) Robot behavior control system and behavior control method, and robot device
JP2002160185A (en) Robot device, behavior controlling method for robot device and device and method for detecting external force
JP2007125631A (en) Robot device and motion control method
JP2004283958A (en) Robot device, method of controlling its behavior and program thereof
JP4296736B2 (en) Robot device
JP2003111981A (en) Robot device and its controlling method, information providing system and information providing method for robot and storing media
JP2007125629A (en) Robot device and motion control method
JP4552465B2 (en) Information processing apparatus, action control method for robot apparatus, robot apparatus, and computer program
JP2004114285A (en) Robotic device and its behavior control method
JP2002205289A (en) Action control method for robot device, program, recording medium and robot device
JP4147960B2 (en) Robot apparatus and operation control method of robot apparatus
JP2004209599A (en) Robot device, action learning method for robot device and action preparation method for robot device
JP2005193330A (en) Robot device and its emotional expression method
JP2004283957A (en) Robot device, method of controlling the same, and program
JP2003266352A (en) Robot device and control method therefor
JP2003136451A (en) Robot device and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110712

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111108