JP4449372B2 - Robot apparatus and behavior control method thereof - Google Patents

Robot apparatus and behavior control method thereof Download PDF

Info

Publication number
JP4449372B2
JP4449372B2 JP2003309262A JP2003309262A JP4449372B2 JP 4449372 B2 JP4449372 B2 JP 4449372B2 JP 2003309262 A JP2003309262 A JP 2003309262A JP 2003309262 A JP2003309262 A JP 2003309262A JP 4449372 B2 JP4449372 B2 JP 4449372B2
Authority
JP
Japan
Prior art keywords
behavior
schema
action
module
modules
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003309262A
Other languages
Japanese (ja)
Other versions
JP2004114285A (en
Inventor
ディ プロフィオ ウゴ
雅博 藤田
剛 高木
由紀子 吉池
秀樹 下村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003309262A priority Critical patent/JP4449372B2/en
Publication of JP2004114285A publication Critical patent/JP2004114285A/en
Application granted granted Critical
Publication of JP4449372B2 publication Critical patent/JP4449372B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Description

本発明は、自律的な動作を行いリアリスティックなコミュニケーションを実現するロボット装置及びその行動制御方法に関し、特に、画像や音声などの外界の状況を認識してそれに対して自身の行動を反映させる機能を備えた自律型のロボット装置及びその行動制御方法に関する。   The present invention relates to a robot apparatus that performs autonomous operation and realizes realistic communication, and its action control method, and in particular, a function of recognizing an external situation such as an image or sound and reflecting its own action on it. The present invention relates to an autonomous robot apparatus provided with the above and an action control method thereof.

電気的又は磁気的な作用を用いて人間(生物)の動作に似た運動を行う機械装置を「ロボット」という。我が国においてロボットが普及し始めたのは、1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化等を目的としたマニピュレータや搬送ロボット等の産業用ロボット(Industrial Robot)であった。   A mechanical device that performs an action similar to that of a human (living body) using an electrical or magnetic action is called a “robot”. Robots have begun to spread in Japan since the late 1960s, but many of them are industrial robots such as manipulators and transfer robots for the purpose of automating and unmanned production work in factories. Met.

最近では、人間のパートナーとして生活を支援する、すなわち住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットの開発が進められている。このような実用ロボットは、産業用ロボットとは異なり、人間の生活環境の様々な局面において、個々に個性の相違した人間、又は様々な環境への適応方法を自ら学習する能力を備えている。例えば、犬、猫のように4足歩行の動物の身体メカニズムやその動作を模した「ペット型」ロボット、或いは、2足直立歩行を行う人間等の身体メカニズムや動作をモデルにしてデザインされた「人間型」又は「人間形」ロボット(Humanoid Robot)等のロボット装置は、既に実用化されつつある。   Recently, practical robots that support life as a human partner, that is, support human activities in various situations in daily life such as the living environment, have been developed. Unlike industrial robots, such practical robots have the ability to learn how to adapt themselves to humans with different personalities or to various environments in various aspects of the human living environment. For example, it was designed based on the body mechanism and motion of a “pet-type” robot that imitates the body mechanism and movement of a quadruped animal such as a dog or cat, or a human who walks upright on two legs. Robotic devices such as “humanoid” or “humanoid” robots are already in practical use.

これらのロボット装置は、産業用ロボットと比較して、エンターテインメント性を重視した様々な動作を行うことができるため、エンターテインメントロボットと称される場合もある。また、そのようなロボット装置には、外部からの情報や内部の状態に応じて自律的に動作するものがある。   Since these robot devices can perform various operations with an emphasis on entertainment performance as compared with industrial robots, they may be referred to as entertainment robots. In addition, there is a robot apparatus that operates autonomously according to information from the outside or an internal state.

このような自律型のロボット装置は、視覚や聴覚など外部環境の変化に応じて逐次的に行動を選択していくのが一般的である。また、行動選択メカニズムの他の例として、本能や感情といった情動をモデル化してシステムの内部状態を管理し、内部状態の変化に応じて行動を選択するものを挙げることができる。なお、システムの内部状態は、外部環境の変化によっても、選択された行動を発現することによっても変化する。   In general, such an autonomous robot apparatus selects actions sequentially according to changes in the external environment such as vision and hearing. Another example of the action selection mechanism is to model emotions such as instinct and emotion, manage the internal state of the system, and select an action according to a change in the internal state. Note that the internal state of the system changes depending on changes in the external environment and manifesting selected actions.

ところで、ロボット装置の行動をデザインする際には、ロボット装置のハードウェア、ソフトウェアといったリソースや、要求される行動を考慮する必要があるため、行動モジュールがオンデマンドで実現される場合が多い。   By the way, when designing the behavior of the robot apparatus, it is necessary to consider resources such as hardware and software of the robot apparatus and the required behavior, and therefore, the behavior module is often realized on demand.

実際のデザインとしては、モノリシック(monolithic)、すなわち1つのソフトウェアモジュールでロボット装置の行動全体を実現することもできるが、より複雑な行動を実現するために、モジュール化、すなわち行動を複数の単純なユニットに分解し、その相互作用により行動全体を実現することもできる(例えば下記特許文献1参照)。   The actual design could be monolithic, i.e. the entire behavior of the robotic device could be realized with a single software module, but in order to achieve more complex behavior, modularization, i.e. It is also possible to disassemble the unit and realize the entire action by the interaction (for example, see Patent Document 1 below).

特開2003−111981号公報JP 2003-111981

しかしながら、従来、あるユニットを別の行動を実現するために用いようとした場合、ユニット同士の相互作用の手順(procedure)やユニット自体を根本的に書き換えなければならない場合があり、ユニットの組み換えが困難であるという問題があった。   However, in the past, when trying to use a unit to achieve another action, the unit's interaction procedure and the unit itself may have to be fundamentally rewritten, and unit recombination There was a problem that it was difficult.

本発明は、このような従来の実情に鑑みて提案されたものであり、複数の行動モジュールにより複雑な行動を実現すると共にユニットの組み換えを容易とするロボット装置及びその行動制御方法を提供することを目的とする。   The present invention has been proposed in view of such conventional situations, and provides a robot apparatus and a behavior control method for realizing a complex action by a plurality of action modules and facilitating recombination of units. With the goal.

上述した目的を達成するために、本発明に係るロボット装置は、可動部を有するロボット装置において、上記可動部を制御する可動部制御手段と、複数の行動モジュールをノードに持ち木構造形式に構成された行動決定手段とを備え、上記行動モジュールは、自身に接続される一以上の下位の行動モジュールを独自に実行させるため接続パターンを規定した制御ポリシーを記憶した記憶手段を有し、上記一以上の下位の行動モジュールは、外部刺激及び内部状態に基づいて算出した該一以上の下位の行動モジュール自身の行動の実行要求度と該一以上の下位の行動モジュール自身の実行に必要な当該ロボット装置のハードウェアのリソースとに関する情報を該一以上の下位の行動モジュールが接続される上位の行動モジュールに伝達し、上記上位の行動モジュールは、上記一以上の下位の行動モジュールから伝達された上記情報と、該上位の行動モジュール自身の行動の実行要求度と該上位の行動モジュール自身の実行に必要な上記リソースとに関する情報と、上記制御ポリシーに基づいて、該一以上の下位の行動モジュールのうち上記リソースを分配可能な一以上の下位の行動モジュールに、該上位の行動モジュール自身の実行に必要なリソースを除いた残りのリソースを分配するように制御し、上記可動部制御手段は、上記上位の行動モジュール又は上記一以上の下位の行動モジュールが決定した行動に基づいて、上記可動部を制御するものである。 In order to achieve the above-described object, a robot apparatus according to the present invention includes a movable part control means for controlling the movable part and a plurality of behavior modules in a tree structure format in a robot apparatus having a movable part. has been a motion determination unit, the behavior module has a storage means for storing defined by control policies connection pattern for executing one or more lower-level behavior modules to be connected thereto independently, the The one or more lower-order behavior modules include the execution request degree of the behavior of the one or more lower-order behavior modules themselves calculated based on the external stimulus and the internal state, and the ones required for the execution of the one or more lower-order behavior modules themselves. convey information about the hardware resources of the robot apparatus to the upper action module to which the one or more lower-level behavior modules are connected, the upper Top action module, and the information transmitted from the one or more subordinate action module, and to the resources needed to run the action module itself execution request of the said upper action of the upper position of the action module itself Based on the information and the control policy , the resources necessary for the execution of the higher-level action module itself are excluded from one or more lower-level action modules to one or more lower-level action modules that can distribute the resource. the remaining controls to distribute resources, the movable part controlling means is for the upper action module or the one or more subordinate action modules based on the determined action, for controlling the movable portion .

また、上述した目的を達成するために、本発明に係る行動制御方法は、可動部を有するロボット装置の行動制御方法において、行動決定手段が、複数の行動モジュールをノードに持ち上位の行動モジュールに一以上の下位の行動モジュールが接続される木構造形式に構成されており、上記一以上の下位の行動モジュールが、外部刺激及び内部状態に基づいて算出した該一以上の下位の行動モジュール自身の行動の実行要求度と該一以上の下位の行動モジュール自身の実行に必要な上記ロボット装置のハードウェアのリソースとに関する情報を上記上位の行動モジュールに伝達するステップと、上記上位の行動モジュールが、上記一以上の下位の行動モジュールから伝達された上記情報と、該上位の行動モジュール自身の行動の実行要求度と該上位の行動モジュール自身の実行に必要な上記リソースとに関する情報と、記憶手段に記憶された該一以上の下位の行動モジュールを独自に実行させるための接続パターンを規定した制御ポリシーに基づいて、該一以上の下位の行動モジュールのうち上記リソースを分配可能な一以上の下位の行動モジュールに、該上位の行動モジュール自身の実行に必要なリソースを除いた残りのリソースを分配するように制御するステップと、上記上位の行動モジュール又は上記一以上の下位の行動モジュールが決定した行動に基づいて、上記可動部を制御するステップとを有するものである。 In order to achieve the above-described object, the behavior control method according to the present invention is a behavior control method for a robot apparatus having a movable part, wherein the behavior determination means has a plurality of behavior modules as nodes and is used as a higher-order behavior module. One or more subordinate behavior modules are connected in a tree structure, and the one or more subordinate behavior modules are calculated based on an external stimulus and an internal state. A step of transmitting information about the execution request level of the action and the hardware resources of the robot apparatus necessary for the execution of the one or more lower-order action modules to the higher-order action module; The information transmitted from the one or more lower-level behavior modules, the higher-level behavior module's own behavior execution request level, and the Information about and the resources needed to run the position of action module itself, based on the control policy which defines the connection pattern for independently executing the one or more subordinate action module stored in the storage means, Control is performed so that the remaining resources excluding resources necessary for the execution of the higher-level action module itself are distributed to one or more lower-level action modules capable of distributing the resources among the one or more lower-level action modules. And a step of controlling the movable part based on an action determined by the upper action module or the one or more lower action modules.

このようなロボット装置及びその行動制御方法では、木構造形式に構成された複数の行動モジュールのうち、上位の行動モジュールは、記憶手段に記憶された制御ポリシーに基づいて、自身に接続された一以上の行動モジュールを制御する。   In such a robot apparatus and its behavior control method, among the plurality of behavior modules configured in a tree structure format, the higher-order behavior module is connected to itself based on the control policy stored in the storage means. The above behavior module is controlled.

本発明に係るロボット装置及びその行動制御方法では、木構造形式に構成された複数の行動モジュールのうち、上位の行動モジュールが、記憶手段に記憶された制御ポリシーに基づいて、自身に接続された一以上の行動モジュールを制御するため、各行動モジュールの独立性を高めることができ、したがって行動モジュールの木構造の組み換えが容易とされる。   In the robot apparatus and the behavior control method thereof according to the present invention, the higher-order behavior module among the plurality of behavior modules configured in the tree structure format is connected to itself based on the control policy stored in the storage unit. Since one or more behavior modules are controlled, the independence of each behavior module can be increased, and thus the tree structure of the behavior modules can be easily recombined.

以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.

本発明の一構成例として示す2足歩行タイプのロボット装置は、住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットであり、内部状態(怒り、悲しみ、喜び、楽しみ等)に応じて行動できるほか、人間が行う基本的な動作を表出できるエンターテインメントロボットである。   The biped walking type robot apparatus shown as an example of the present invention is a practical robot that supports human activities in various situations in the living environment and other daily life, and has an internal state (anger, sadness, joy, fun) Etc.), it is an entertainment robot that can express basic actions performed by humans.

図1に示すように、ロボット装置1は、体幹部ユニット2の所定の位置に頭部ユニット3が連結されると共に、左右2つの腕部ユニット4R/Lと、左右2つの脚部ユニット5R/Lが連結されて構成されている(但し、R及びLの各々は、右及び左の各々を示す接尾辞である。以下において同じ。)。   As shown in FIG. 1, the robot apparatus 1 includes a head unit 3 connected to a predetermined position of the trunk unit 2, and two left and right arm units 4R / L and two right and left leg units 5R /. L is connected to each other (provided that R and L are suffixes indicating right and left, respectively, and the same applies hereinafter).

このロボット装置1が具備する関節自由度構成を図2に模式的に示す。頭部ユニット3を支持する首関節は、首関節ヨー軸101と、首関節ピッチ軸102と、首関節ロール軸103という3自由度を有している。   The joint degree-of-freedom configuration of the robot apparatus 1 is schematically shown in FIG. The neck joint that supports the head unit 3 has three degrees of freedom: a neck joint yaw axis 101, a neck joint pitch axis 102, and a neck joint roll axis 103.

また、上肢を構成する各々の腕部ユニット4R/Lは、、肩関節ピッチ軸107と、肩関節ロール軸108と、上腕ヨー軸109と、肘関節ピッチ軸110と、前腕ヨー軸111と、手首関節ピッチ軸112と、手首関節ロール軸113と、手部114とで構成される。手部114は、実際には、複数本の指を含む多関節・多自由度構造体である。但し、手部114の動作は、ロボット装置1の姿勢制御や歩行制御に対する寄与や影響が少ないので、本明細書ではゼロ自由度と仮定する。したがって、各腕部は7自由度を有するとする。   Each arm unit 4R / L constituting the upper limb includes a shoulder joint pitch axis 107, a shoulder joint roll axis 108, an upper arm yaw axis 109, an elbow joint pitch axis 110, a forearm yaw axis 111, A wrist joint pitch axis 112, a wrist joint roll axis 113, and a hand part 114 are configured. The hand portion 114 is actually a multi-joint / multi-degree-of-freedom structure including a plurality of fingers. However, since the operation of the hand 114 has little contribution or influence on the posture control or walking control of the robot apparatus 1, it is assumed in this specification that the degree of freedom is zero. Therefore, it is assumed that each arm portion has seven degrees of freedom.

また、体幹部ユニット2は、体幹ピッチ軸104と、体幹ロール軸105と、体幹ヨー軸106という3自由度を有する。   The trunk unit 2 has three degrees of freedom: a trunk pitch axis 104, a trunk roll axis 105, and a trunk yaw axis 106.

また、下肢を構成する各々の脚部ユニット5R/Lは、股関節ヨー軸115と、股関節ピッチ軸116と、股関節ロール軸117と、膝関節ピッチ軸118と、足首関節ピッチ軸119と、足首関節ロール軸120と、足部121とで構成される。本明細書中では、股関節ピッチ軸116と股関節ロール軸117の交点は、ロボット装置1の股関節位置を定義する。人体の足部121は、実際には多関節・多自由度の足底を含んだ構造体であるが、ロボット装置1の足底は、ゼロ自由度とする。したがって、各脚部は、6自由度で構成される。   Each leg unit 5R / L constituting the lower limb includes a hip joint yaw axis 115, a hip joint pitch axis 116, a hip joint roll axis 117, a knee joint pitch axis 118, an ankle joint pitch axis 119, and an ankle joint. A roll shaft 120 and a foot 121 are included. In the present specification, the intersection of the hip joint pitch axis 116 and the hip joint roll axis 117 defines the hip joint position of the robot apparatus 1. The foot 121 of the human body is actually a structure including a multi-joint / multi-degree-of-freedom sole, but the foot of the robot apparatus 1 has zero degrees of freedom. Accordingly, each leg is configured with 6 degrees of freedom.

以上を総括すれば、ロボット装置1全体としては、合計で3+7×2+3+6×2=32自由度を有することになる。但し、エンターテインメント向けのロボット装置1が必ずしも32自由度に限定されるわけではない。設計・制作上の制約条件や要求仕様等に応じて、自由度すなわち関節数を適宜増減することができることはいうまでもない。   In summary, the robot apparatus 1 as a whole has a total of 3 + 7 × 2 + 3 + 6 × 2 = 32 degrees of freedom. However, the robot device 1 for entertainment is not necessarily limited to 32 degrees of freedom. Needless to say, the degree of freedom, that is, the number of joints, can be increased or decreased as appropriate in accordance with design / production constraints or required specifications.

上述したようなロボット装置1が持つ各自由度は、実際にはアクチュエータを用いて実装される。外観上で余分な膨らみを排してヒトの自然体形状に近似させること、2足歩行という不安定構造体に対して姿勢制御を行うことなどの要請から、アクチュエータは小型且つ軽量であることが好ましい。   Each degree of freedom of the robot apparatus 1 as described above is actually implemented using an actuator. It is preferable that the actuator be small and light in light of demands such as eliminating the appearance of extra bulges on the appearance and approximating the shape of a human body, and performing posture control on an unstable structure such as biped walking. .

図3には、ロボット装置1の制御システム構成を模式的に示している。同図に示すように、ロボット装置1は、ヒトの四肢を表現した体幹部ユニット2,頭部ユニット3,腕部ユニット4R/L,脚部ユニット5R/Lと、各ユニット間の協調動作を実現するための適応制御を行う制御ユニット10とで構成される。   FIG. 3 schematically shows a control system configuration of the robot apparatus 1. As shown in the figure, the robot apparatus 1 includes a trunk unit 2, a head unit 3, an arm unit 4R / L, and a leg unit 5R / L representing human limbs, and coordinated operations between the units. It is comprised with the control unit 10 which performs the adaptive control for implement | achieving.

ロボット装置1全体の動作は、制御ユニット10によって統括的に制御される。制御ユニット10は、CPU(Central Processing Unit)や、DRAM、フラッシュROM等の主要回路コンポーネント(図示しない)で構成される主制御部11と、電源回路やロボット装置1の各構成要素とのデータやコマンドの授受を行うインターフェイス(何れも図示しない)などを含んだ周辺回路12とで構成される。   The operation of the entire robot apparatus 1 is controlled in an integrated manner by the control unit 10. The control unit 10 includes data of a main control unit 11 constituted by main circuit components (not shown) such as a CPU (Central Processing Unit), DRAM, flash ROM, etc., and data of each component of the power supply circuit and the robot apparatus 1. The peripheral circuit 12 includes an interface (not shown) for sending and receiving commands.

本発明を実現する上で、この制御ユニット10の設置場所は、特に限定されない。図3では体幹部ユニット2に搭載されているが、頭部ユニット3に搭載してもよい。あるいは、ロボット装置1外に制御ユニット10を配備して、ロボット装置1の機体とは有線又は無線で交信するようにしてもよい。   In realizing the present invention, the installation location of the control unit 10 is not particularly limited. Although it is mounted on the trunk unit 2 in FIG. 3, it may be mounted on the head unit 3. Alternatively, the control unit 10 may be provided outside the robot apparatus 1 so as to communicate with the body of the robot apparatus 1 by wire or wirelessly.

図2に示したロボット装置1内の各関節自由度は、それぞれに対応するアクチュエータによって実現される。すなわち、頭部ユニット3には、首関節ヨー軸101、首関節ピッチ軸102、首関節ロール軸103の各々を表現する首関節ヨー軸アクチュエータA、首関節ピッチ軸アクチュエータA、首関節ロール軸アクチュエータAが配設されている。 Each joint freedom degree in the robot apparatus 1 shown in FIG. 2 is implement | achieved by the actuator corresponding to each. That is, the head unit 3 includes a neck joint yaw axis actuator A 2 , neck joint pitch axis actuator A 3 , neck joint roll representing the neck joint yaw axis 101, neck joint pitch axis 102, and neck joint roll axis 103. axis actuator A 4 is disposed.

また、頭部ユニット3には、外部の状況を撮像するためのCCD(Charge Coupled Device)カメラが設けられているほか、前方に位置する物体までの距離を測定するための距離センサ、外部音を集音するためのマイクロホン、音声を出力するためのスピーカ、使用者からの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出するためのタッチセンサ等が配設されている。   In addition, the head unit 3 is provided with a CCD (Charge Coupled Device) camera for imaging an external situation, a distance sensor for measuring the distance to an object located in front, and an external sound. A microphone for collecting sound, a speaker for outputting sound, a touch sensor for detecting pressure received by a physical action such as “blowing” or “striking” from a user, and the like are provided.

また、体幹部ユニット2には、体幹ピッチ軸104、体幹ロール軸105、体幹ヨー軸106の各々を表現する体幹ピッチ軸アクチュエータA、体幹ロール軸アクチュエータA、体幹ヨー軸アクチュエータAが配設されている。また、体幹部ユニット2には、このロボット装置1の起動電源となるバッテリを備えている。このバッテリは、充放電可能な電池によって構成されている。 The trunk unit 2 includes a trunk pitch axis actuator A 5 , a trunk roll axis actuator A 6 , a trunk yaw representing the trunk pitch axis 104, trunk roll axis 105, and trunk yaw axis 106. axis actuator A 7 is disposed. In addition, the trunk unit 2 includes a battery serving as a starting power source for the robot apparatus 1. This battery is constituted by a chargeable / dischargeable battery.

また、腕部ユニット4R/Lは、上腕ユニット4R/Lと、肘関節ユニット4R/Lと、前腕ユニット4R/Lに細分化されるが、肩関節ピッチ軸107、肩関節ロール軸108、上腕ヨー軸109、肘関節ピッチ軸110、前腕ヨー軸111、手首関節ピッチ軸112、手首関節ロール軸113の各々表現する肩関節ピッチ軸アクチュエータA、肩関節ロール軸アクチュエータA、上腕ヨー軸アクチュエータA10、肘関節ピッチ軸アクチュエータA11、肘関節ロール軸アクチュエータA12、手首関節ピッチ軸アクチュエータA13、手首関節ロール軸アクチュエータA14が配備されている。 The arm unit 4R / L is subdivided into an upper arm unit 4 1 R / L, an elbow joint unit 4 2 R / L, and a forearm unit 4 3 R / L. Shoulder joint pitch axis actuator A 8 , shoulder joint roll axis actuator A 8 representing the joint roll axis 108, upper arm yaw axis 109, elbow joint pitch axis 110, forearm yaw axis 111, wrist joint pitch axis 112, and wrist joint roll axis 113. 9. Upper arm yaw axis actuator A 10 , elbow joint pitch axis actuator A 11 , elbow joint roll axis actuator A 12 , wrist joint pitch axis actuator A 13 , and wrist joint roll axis actuator A 14 are provided.

また、脚部ユニット5R/Lは、大腿部ユニット5R/Lと、膝ユニット5R/Lと、脛部ユニット5R/Lに細分化されるが、股関節ヨー軸115、股関節ピッチ軸116、股関節ロール軸117、膝関節ピッチ軸118、足首関節ピッチ軸119、足首関節ロール軸120の各々を表現する股関節ヨー軸アクチュエータA16、股関節ピッチ軸アクチュエータA17、股関節ロール軸アクチュエータA18、膝関節ピッチ軸アクチュエータA19、足首関節ピッチ軸アクチュエータA20、足首関節ロール軸アクチュエータA21が配備されている。各関節に用いられるアクチュエータA,A・・・は、より好ましくは、ギア直結型で旦つサーボ制御系をワンチップ化してモータ・ユニット内に搭載したタイプの小型ACサーボ・アクチュエータで構成することができる。 The leg unit 5R / L is subdivided into a thigh unit 5 1 R / L, a knee unit 5 2 R / L, and a shin unit 5 3 R / L. Hip joint yaw axis actuator A 16 , hip joint pitch axis actuator A 17 , hip joint roll axis actuator representing each of hip joint pitch axis 116, hip joint roll axis 117, knee joint pitch axis 118, ankle joint pitch axis 119, and ankle joint roll axis 120. A 18 , knee joint pitch axis actuator A 19 , ankle joint pitch axis actuator A 20 , and ankle joint roll axis actuator A 21 are provided. The actuators A 2 , A 3 ... Used for each joint are more preferably composed of small AC servo actuators of the type that are directly connected to gears and that are mounted on the motor unit with the servo control system integrated into a single chip. can do.

体幹部ユニット2、頭部ユニット3、各腕部ユニット4R/L、各脚部ユニット5R/Lなどの各機構ユニット毎に、アクチュエータ駆動制御部の副制御部20,21,22R/L,23R/Lが配備されている。さらに、各脚部ユニット5R/Lの足底が着床したか否かを検出する接地確認センサ30R/Lを装着するとともに、体幹部ユニット2内には、姿勢を計測する姿勢センサ31を装備している。   For each mechanism unit such as the trunk unit 2, the head unit 3, each arm unit 4R / L, each leg unit 5R / L, the sub-control units 20, 21, 22R / L, 23R of the actuator drive control unit / L is deployed. Furthermore, a grounding confirmation sensor 30R / L for detecting whether or not the foot of each leg unit 5R / L has landed is mounted, and a posture sensor 31 for measuring the posture is provided in the trunk unit 2. is doing.

接地確認センサ30R/Lは、例えば足底に設置された近接センサ又はマイクロ・スイッチなどで構成される。また、姿勢センサ31は、例えば、加速度センサとジャイロ・センサの組み合わせによって構成される。   The grounding confirmation sensor 30R / L is configured by, for example, a proximity sensor or a micro switch installed on the sole of the foot. In addition, the posture sensor 31 is configured by a combination of an acceleration sensor and a gyro sensor, for example.

接地確認センサ30R/Lの出力によって、歩行・走行などの動作期間中において、左右の各脚部が現在立脚又は遊脚何れの状態であるかを判別することができる。また、姿勢センサ31の出力により、体幹部分の傾きや姿勢を検出することができる。   Based on the output of the ground contact confirmation sensor 30R / L, it is possible to determine whether the left and right legs are currently standing or swinging during an operation period such as walking or running. Further, the inclination and posture of the trunk can be detected by the output of the posture sensor 31.

主制御部11は、各センサ30R/L,31の出力に応答して制御目標をダイナミックに補正することができる。より具体的には、副制御部20,21,22R/L,23R/Lの各々に対して適応的な制御を行い、ロボット装置1の上肢、体幹、及び下肢が協調して駆動する全身運動パターンを実現できる。   The main control unit 11 can dynamically correct the control target in response to the outputs of the sensors 30R / L, 31. More specifically, the whole body that performs adaptive control on each of the sub-control units 20, 21, 22R / L, and 23R / L, and the upper limbs, trunk, and lower limbs of the robot apparatus 1 are cooperatively driven. A movement pattern can be realized.

ロボット装置1の機体上での全身運動は、足部運動、ZMP(Zero Moment Point)軌道、体幹運動、上肢運動、腰部高さなどを設定するとともに、これらの設定内容に従った動作を指示するコマンドを各副制御部20,21,22R/L,23R/Lに転送する。そして、各々の副制御部20,21,・・・等では、主制御部11からの受信コマンドを解釈して、各アクチュエータA,A・・・等に対して駆動制御信号を出力する。ここでいう「ZMP」とは、歩行中の床反力によるモーメントがゼロとなる床面上の点のことであり、また、「ZMP軌道」とは、例えばロボット装置1の歩行動作期間中にZMPが動く軌跡を意味する。なお、ZMPの概念並びにZMPを歩行ロボットの安定度判別規範に適用する点については、Miomir Vukobratovic著“LEGGED LOCOMOTION ROBOTS”(加藤一郎外著『歩行ロボットと人工の足』(日刊工業新聞社))に記載されている。 For the whole body motion on the body of the robot device 1, set the foot motion, ZMP (Zero Moment Point) trajectory, trunk motion, upper limb motion, waist height, etc., and instruct the operation according to these settings The command to be transferred is transferred to each sub-control unit 20, 21, 22R / L, 23R / L. Each sub-control unit 20, 21,... Interprets a received command from the main control unit 11 and outputs a drive control signal to each actuator A 2 , A 3. . Here, “ZMP” is a point on the floor where the moment due to floor reaction force during walking is zero, and “ZMP trajectory” is, for example, during the walking operation period of the robot apparatus 1. It means the trajectory that ZMP moves. Regarding the concept of ZMP and its application to the stability criteria for walking robots, Miomir Vukobratovic “LEGGED LOCOMOTION ROBOTS” (Ichiro Kato's “Walking Robots and Artificial Feet” (Nikkan Kogyo Shimbun)) It is described in.

以上のように、ロボット装置1は、各々の副制御部20,21,・・・等が、主制御部11からの受信コマンドを解釈して、各アクチュエータA,A・・・に対して駆動制御信号を出力し、各ユニットの駆動を制御している。これにより、ロボット装置1は、目標の姿勢に安定して遷移し、安定した姿勢で歩行できる。 As described above, in the robot apparatus 1, each of the sub-control units 20, 21,... Interprets the received command from the main control unit 11, and applies to each actuator A 2 , A 3. Drive control signals are output to control the drive of each unit. Thereby, the robot apparatus 1 can stably transition to the target posture and can walk in a stable posture.

また、ロボット装置1における制御ユニット10では、上述したような姿勢制御のほかに、加速度センサ、タッチセンサ、接地確認センサ等の各種センサ、及びCCDカメラからの画像情報、マイクロホンからの音声情報等を統括して処理している。制御ユニット10では、図示しないが加速度センサ、ジャイロ・センサ、タッチセンサ、距離センサ、マイクロホン、スピーカなどの各種センサ、各アクチュエータ、CCDカメラ及びバッテリが各々対応するハブを介して主制御部11と接続されている。   In addition to the attitude control as described above, the control unit 10 in the robot apparatus 1 receives various sensors such as an acceleration sensor, a touch sensor, and a grounding confirmation sensor, image information from a CCD camera, audio information from a microphone, and the like. It is integrated and processed. In the control unit 10, although not shown, various sensors such as an acceleration sensor, a gyro sensor, a touch sensor, a distance sensor, a microphone, and a speaker, each actuator, a CCD camera, and a battery are connected to the main control unit 11 via corresponding hubs. Has been.

主制御部11は、上述の各センサから供給されるセンサデータや画像データ及び音声データを順次取り込み、これらをそれぞれ内部インターフェイスを介してDRAM内の所定位置に順次格納する。また、主制御部11は、バッテリから供給されるバッテリ残量を表すバッテリ残量データを順次取り込み、これをDRAM内の所定位置に格納する。DRAMに格納された各センサデータ、画像データ、音声データ及びバッテリ残量データは、主制御部11がこのロボット装置1の動作制御を行う際に利用される。   The main control unit 11 sequentially takes in sensor data, image data, and audio data supplied from the above-described sensors, and sequentially stores them in a predetermined position in the DRAM via the internal interface. The main control unit 11 sequentially takes in battery remaining amount data representing the remaining amount of battery supplied from the battery and stores it in a predetermined position in the DRAM. Each sensor data, image data, audio data, and battery remaining amount data stored in the DRAM is used when the main control unit 11 controls the operation of the robot apparatus 1.

主制御部11は、ロボット装置1の電源が投入された初期時、制御プログラムを読み出し、これをDRAMに格納する。また、主制御部11は、上述のように主制御部11よりDRAMに順次格納される各センサデータ、画像データ、音声データ及びバッテリ残量データに基づいて自己及び周囲の状況や、使用者からの指示及び働きかけの有無などを判断する。   The main control unit 11 reads the control program and stores it in the DRAM at the initial stage when the power of the robot apparatus 1 is turned on. In addition, the main control unit 11 determines whether the main control unit 11 itself or the surrounding situation or the user based on each sensor data, image data, audio data, and battery remaining amount data sequentially stored in the DRAM from the main control unit 11. Judgment of whether or not there is an instruction and action.

さらに、主制御部11は、この判断結果及びDRAMに格納した制御プログラムに基づいて自己の状況に応じて行動を決定するとともに、当該決定結果に基づいて必要なアクチュエータを駆動させることによりロボット装置1に、いわゆる「身振り」、「手振り」といった行動をとらせる。   Furthermore, the main control unit 11 determines an action according to its own situation based on the determination result and a control program stored in the DRAM, and drives a necessary actuator based on the determination result, thereby driving the robot apparatus 1. To take actions such as “gesture” and “hand gesture”.

このようにしてロボット装置1は、制御プログラムに基づいて外部刺激の認識結果や内部状態の変化に応じて行動制御を行うことができる。図4には、ロボット装置1において採用される行動制御システム50の基本アーキテクチャを模式的に示している。   In this way, the robot apparatus 1 can perform behavior control according to the recognition result of the external stimulus and the change in the internal state based on the control program. FIG. 4 schematically shows the basic architecture of the behavior control system 50 employed in the robot apparatus 1.

図示の行動制御システム50には、オブジェクト指向プログラミングを採り入れることができる。この場合、各ソフトウェアは、データ(プロパティ)とそのデータに対する処理手続き(メソッド)とを一体化させた「オブジェクト」というモジュール単位で扱われる。また、各オブジェクトは、メッセージ通信と共有メモリを使ったオブジェクト間通信方法により、プロパティの受け渡しとメソッドの継承を行うことができる。   The illustrated behavior control system 50 can employ object-oriented programming. In this case, each software is handled in units of modules called “objects” in which data (properties) and processing procedures (methods) for the data are integrated. In addition, each object can perform property passing and method inheritance by message communication and an inter-object communication method using a shared memory.

行動制御システム50は、外部環境(Environment)61を認識するために、視覚認識機能部51と、聴覚認識機能部52と、接触認識機能部53を備えている。   The behavior control system 50 includes a visual recognition function unit 51, an auditory recognition function unit 52, and a contact recognition function unit 53 in order to recognize an external environment (Environment) 61.

視覚認識機能部(Video)51は、例えば、CCDカメラのような画像入力装置を介して入力された撮影画像を基に、顔認識や色認識などの画像認識処理や特徴抽出を行う。視覚認識機能部51は、後述する"MultiColorTracker","FaceDetector","FaceIdentify"といった複数のオブジェクトで構成される。   The visual recognition function unit (Video) 51 performs image recognition processing such as face recognition and color recognition and feature extraction based on a photographed image input via an image input device such as a CCD camera. The visual recognition function unit 51 includes a plurality of objects such as “MultiColorTracker”, “FaceDetector”, and “FaceIdentify” which will be described later.

聴覚認識機能部(Audio)52は、マイクロホンなどの音声入力装置を介して入力される音声データを音声認識して、特徴抽出したり、単語セット(テキスト)認識を行ったりする。聴覚認識機能部52は、後述する"AudioRecog","SpeechRecog"といった複数のオブジェクトで構成される。   The auditory recognition function unit (Audio) 52 performs voice recognition on voice data input via a voice input device such as a microphone, and performs feature extraction or word set (text) recognition. The auditory recognition function unit 52 includes a plurality of objects such as “AudioRecog” and “SpeechRecog” described later.

接触認識機能部(Tactile)53は、例えば機体の頭部などに内蔵されたタッチセンサによるセンサ信号を認識して、「撫でられた」とか「叩かれた」という外部刺激を認識する。   The contact recognition function unit (Tactile) 53 recognizes an external stimulus such as “struck” or “struck” by recognizing a sensor signal from a touch sensor built in the head of the aircraft, for example.

内部状態管理部(ISM:InternalStatusManager)54は、本能モデルや感情モデルを備え、上述の視覚認識機能部51と、聴覚認識機能部52と、接触認識機能部53によって認識された外部刺激(ES:ExternalStimula)に応じてロボット装置1の本能や情動といった内部状態を管理する。   The internal state management unit (ISM: InternalStatusManager) 54 includes an instinct model and an emotion model, and external stimuli (ES: recognized by the visual recognition function unit 51, the auditory recognition function unit 52, and the contact recognition function unit 53 described above. The internal state of the robot apparatus 1 such as instinct and emotion is managed according to (ExternalStimula).

感情モデルと本能モデルは、それぞれ認識結果と行動履歴を入力に持ち、感情値と本能値を管理している。行動モデルは、これら感情値や本能値を参照することができる。   The emotion model and the instinct model have the recognition result and the action history as inputs, respectively, and manage the emotion value and the instinct value. The behavior model can refer to these emotion values and instinct values.

短期記憶部(ShortTermMemory)55は、上述の視覚認識機能部51と、聴覚認識機能部52と、接触認識機能部53によって外部環境から認識されたターゲットやイベントを短期間保持する機能モジュールである。例えば、CCDカメラからの入力画像を約15秒程度の短い期間だけ記憶する。   The short term memory unit (ShortTermMemory) 55 is a functional module that holds targets and events recognized from the external environment by the visual recognition function unit 51, the auditory recognition function unit 52, and the contact recognition function unit 53 for a short period of time. For example, the input image from the CCD camera is stored for a short period of about 15 seconds.

長期記憶部(LongTermMemory)56は、物の名前など学習により得られた情報を超期間保持するために使用される。長期記憶部56は、例えば、ある行動モジュールにおいて外部刺激から内部状態の変化を連想記憶する。   A long term memory (LongTermMemory) 56 is used to hold information obtained by learning such as the name of an object for a long period of time. For example, the long-term storage unit 56 associates and stores a change in the internal state from an external stimulus in a certain behavior module.

ロボット装置1の行動制御は、反射行動部59によって実現される「反射行動」と、状況依存行動階層58によって実現される「状況依存行動」と、熟考行動階層57によって実現される「熟考行動」に大別される。   The behavior control of the robot apparatus 1 is performed by the “reflex behavior” realized by the reflex behavior unit 59, the “situation-dependent behavior” realized by the situation-dependent behavior hierarchy 58, and the “contemplation behavior” realized by the consideration behavior hierarchy 57. It is divided roughly into.

熟考行動階層(DeliberativeLayer)57は、短期記憶部55並びに長期記憶部56の記憶内容に基づいて、ロボット装置1の比較的長期にわたる行動計画などを行う。   The deliberation action layer (DeliberativeLayer) 57 performs a relatively long-term action plan of the robot apparatus 1 based on the storage contents of the short-term storage unit 55 and the long-term storage unit 56.

熟考行動は、与えられた状況或いは人間からの命令により、推論やそれを実現するための計画を立てて行われる行動である。このような推論や計画は、インタラクションを保つための反応時間よりも処理時間や計算負荷を要するので、ロボット装置1は反射行動や状況依存行動をリアルタイムで反応を返しながら行い、熟考行動を推論や計画を立てて行う。   The contemplation action is an action performed by inference and a plan for realizing it by a given situation or a command from a human. Such inferences and plans require more processing time and computational load than reaction time for maintaining interaction. Therefore, the robot apparatus 1 performs reflex behavior and situation-dependent behavior in real time to respond to the contemplation behavior. Make a plan.

状況依存行動階層(SBL:SituatedBehaviorsLayer)58は、短期記憶部55及び長期記憶部56の記憶内容や、内部状態管理部54によって管理される内部状態を基に、ロボット装置1が現在置かれている状況に即応した行動を制御する。   The situation dependent behavior hierarchy (SBL: SituatedBehaviorsLayer) 58 is where the robot apparatus 1 is currently placed based on the storage contents of the short-term storage unit 55 and the long-term storage unit 56 and the internal state managed by the internal state management unit 54. Control behavior in response to the situation.

状況依存行動階層58は、各行動毎にステートマシンを用意しており、それ以前の行動や状況に依存して、センサ入力された外部情報の認識結果を分類して、行動を機体上で発現する。また、状況依存行動階層58は、内部状態をある範囲に保つための行動(「ホメオスタシス行動」とも呼ぶ)も実現し、内部状態が指定した範囲内を越えた場合には、その内部状態を当該範囲内に戻すための行動が出やすくなるようにその行動を活性化させる(実際には、内部状態と外部環境の両方を考慮した形で行動が選択される)。状況依存行動は、反射行動(後述)に比し、反応時間が遅い。   The state-dependent action hierarchy 58 prepares a state machine for each action, classifies recognition results of external information input from the sensor, and expresses the action on the aircraft depending on the previous action and situation. To do. The situation-dependent action hierarchy 58 also realizes an action for keeping the internal state within a certain range (also referred to as “homeostasis action”). When the internal state exceeds the specified range, the internal state is The action is activated so that the action for returning to the range can be easily performed (actually, the action is selected in consideration of both the internal state and the external environment). Situation-dependent behavior has a slower reaction time than reflex behavior (described later).

反射行動部(Reflexive SBL)59は、上述の視覚認識機能部51と、聴覚認識機能部52と、接触認識機能部53によって認識された外部刺激に応じて反射的な機体動作を実現する機能モジュールである。   The reflexive action unit (Reflexive SBL) 59 is a functional module that realizes a reflexive body operation in response to an external stimulus recognized by the visual recognition function unit 51, the auditory recognition function unit 52, and the contact recognition function unit 53 described above. It is.

反射行動は、基本的に、センサ入力された外部情報の認識結果を直接受けて、これを分類して、出力行動を直接決定する行動である。例えば、検出された障害物を咄嗟に避けるといった振る舞いは反射行動として実装することが好ましい。   The reflex action is basically an action that directly receives the recognition result of the external information input from the sensor, classifies it, and directly determines the output action. For example, it is preferable to implement the behavior of avoiding detected obstacles as a reflex behavior.

本実施の形態におけるロボット装置1では、短期記憶部55が、上述した視覚認識機能部51、聴覚認識機能部52、接触認識機能部53などの複数の認識器の結果を時間的及び空間的に整合性を保つように統合して、外部環境下の各物体に関する知覚を短期間の記憶として状況依存行動階層(SBL)58などに提供するようになっている。また、センサ入力された外部情報の認識結果を直接、反射行動部(Reflexive SBL)59に提供するようになっている。   In the robot apparatus 1 according to the present embodiment, the short-term storage unit 55 temporally and spatially displays the results of a plurality of recognizers such as the visual recognition function unit 51, the auditory recognition function unit 52, and the contact recognition function unit 53 described above. Integration is performed so as to maintain consistency, and the perception of each object in the external environment is provided as a short-term memory to the context-dependent action hierarchy (SBL) 58 or the like. The recognition result of the external information inputted from the sensor is directly provided to the reflexive action unit (Reflexive SBL) 59.

一般的に、様々な条件を加味した上で行動を決定する状況依存行動階層(SBL)58や、熟考行動階層57のみであるとロボットの反応は遅くなる。そこで、本実施の形態のロボット装置1の行動制御システム50は、様々な条件(内部状態と外部状態)を加味して行動の発現を決定しようとするために、状況依存行動階層(SBL)58や、熟考行動階層57のほか、ある単一のセンサ条件において行動の発現を決定する反射行動部(Reflexive SBL)59も別プロセスとなるようにシステム構成されている。   In general, if there are only the situation-dependent action hierarchy (SBL) 58 and the contemplation action hierarchy 57 that determine the action in consideration of various conditions, the reaction of the robot becomes slow. Therefore, the behavior control system 50 of the robot apparatus 1 according to the present embodiment determines the expression of the behavior in consideration of various conditions (internal state and external state), so that the situation-dependent behavior hierarchy (SBL) 58 is determined. In addition to the contemplation action hierarchy 57, a reflexive action part (Reflexive SBL) 59 that determines the expression of action under a certain single sensor condition is also configured as a separate process.

なお、上述した熟考行動階層57や状況依存行動階層(SBL)58、反射行動部(Reflexive SBL)59は、ロボット装置1のハードウェア構成に非依存の上位のアプリケーション・プログラムとして記述することができる。これに対し、ハードウェア依存行動制御部(ConfigurationDependentActionAndReactions)60は、これら上位アプリケーション(「スキーマ」と呼ばれる行動モジュール)からの命令に応じて、上述したアクチュエータA,A・・・の駆動などの機体のハードウェア(外部環境)を直接操作する。 Note that the above-described contemplation action hierarchy 57, situation-dependent action hierarchy (SBL) 58, and reflex action section (Reflexive SBL) 59 can be described as higher-level application programs that are independent of the hardware configuration of the robot apparatus 1. . On the other hand, the hardware-dependent action control unit (ConfigurationDependentActionAndReactions) 60 performs driving of the above-described actuators A 2 , A 3 ... According to a command from these higher-level applications (action modules called “schema”). Operate the aircraft hardware (external environment) directly.

ここで、図4に示したようなロボット装置1の行動制御システム50における各機能モジュールは、オブジェクトとして構成される。各オブジェクトは、メッセージ通信と共有メモリを使ったオブジェクト間通信方法によりデータ(プロパティ)の受け渡しと、事物の振る舞いを記述したプログラム(メソッド)の継承を行っている。以下、行動制御システム50におけるオブジェクト構成を模式的に示した図5を参照しながら、各オブジェクトの機能について説明する。   Here, each functional module in the behavior control system 50 of the robot apparatus 1 as shown in FIG. 4 is configured as an object. Each object passes data (property) and inherits a program (method) that describes the behavior of the object by message communication and communication method between objects using shared memory. Hereinafter, the function of each object will be described with reference to FIG. 5 schematically showing the object configuration in the behavior control system 50.

視覚認識機能部51は、"FaceDetector"、"MultiColorTracker”、"FaceIdentify"という3つのオブジェクトで構成される。FaceDetectorは、画像フレーム中から顔領域を検出するオブジェクトであり、検出結果をFaceIdentifyに出力する。MultiColorTrackerは、色認識を行うオブジェクトであり、認識結果をFaceIdentify及びShortTermMemory(短期記憶部55を構成するオブジェクト)に出力する。また、FaceIdentifyは、検出された顔画像を手持ちの人物辞書で検索するなどして人物の識別を行い、顔画像領域の位置、大きさ情報とともに人物のID情報をShortTermMemoryに出力する。 Visual recognition functional unit 51, "FaceDetector", "MultiColo r Tracker", it consists of three objects called "FaceIdentify". FaceDetector is an object that detects a face area from an image frame, and outputs the detection result to FaceIdentify. The MultiColorTracker is an object that performs color recognition, and outputs a recognition result to FaceIdentify and ShortTermMemory (an object constituting the short-term storage unit 55). FaceIdentify also identifies a person by searching for a detected face image in a personal dictionary, and outputs the person ID information to the ShortTermMemory along with the position and size information of the face image area.

聴覚認識機能部52は、"AudioRecog"と"SpeechRecog"という2つのオブジェクトで構成される。AudioRecogは、マイクロホンなどの音声入力装置からの音声データを受け取って、特徴抽出と音声区間検出を行うオブジェクトであり、音声区間の音声データの特徴量及び音源方向をSpeechRecogやShortTermMemoryに出力する。SpeechRecogは、AudioRecogから受け取った音声特徴量と音声辞書及び構文辞書を使って音声認識を行うオブジェクトであり、認識された単語のセットをShortTermMemoryに出力する。   The auditory recognition function unit 52 includes two objects “AudioRecog” and “SpeechRecog”. AudioRecog is an object that receives voice data from a voice input device such as a microphone and performs feature extraction and voice section detection, and outputs the feature amount and sound source direction of the voice data in the voice section to SpeechRecog and ShortTermMemory. SpeechRecog is an object that performs speech recognition using the speech feature value, speech dictionary, and syntax dictionary received from AudioRecog, and outputs a set of recognized words to ShortTermMemory.

接触認識機能部53は、タッチセンサからのセンサ入力を認識する"TactileSensor"というオブジェクトで構成され、認識結果はShortTermMemoryや内部状態を管理するオブジェクトであるInternalStatusManager(ISM)に出力する。   The contact recognition function unit 53 includes an object “TactileSensor” that recognizes a sensor input from the touch sensor, and outputs a recognition result to ShortTermMemory and an InternalStatusManager (ISM) that is an object for managing an internal state.

ShortTermMemory(STM)は、短期記憶部55を構成するオブジェクトであり、上述の認識系の各オブジェクトによって外部環境から認識されたターゲットやイベントを短期間保持(例えばCCDカメラからの入力画像を約15秒程度の短い期間だけ記憶する)する機能モジュールであり、STMクライアントであるSituatedBehaviorsLayerに対して外部刺激の通知(Notify)を定期的に行う。   ShortTermMemory (STM) is an object that constitutes the short-term memory unit 55, and holds targets and events recognized from the external environment by each object of the recognition system described above (for example, an input image from a CCD camera is about 15 seconds). It is a functional module that stores only for a short period of time, and periodically notifies the Stimulated SituatedBehaviorsLayer as an external stimulus (Notify).

LongTermMemory(LTM)は、長期記憶部56を構成するオブジェクトであり、物の名前など学習により得られた情報を長期間保持するために使用される。LongTermMemoryは、例えば、ある行動モジュールにおいて外部刺激から内部状態の変化を連想記憶することができる。   LongTermMemory (LTM) is an object that constitutes the long-term storage unit 56, and is used to hold information obtained by learning such as the name of an object for a long period of time. LongTermMemory, for example, can associatively store changes in internal state from external stimuli in a certain behavior module.

InternalStatusManager(ISM)は、内部状態管理部54を構成するオブジェクトであり、本能や感情といった数種類の情動を数式モデル化して管理しており、上述の認識系の各オブジェクトによって認識された外部刺激(ES:ExternalStimula)に応じてロボット装置1の本能や情動といった内部状態を管理する。   The InternalStatusManager (ISM) is an object constituting the internal state management unit 54 and manages several types of emotions such as instinct and emotion by modeling them, and external stimuli (ES that are recognized by each object of the recognition system described above. : ExternalStimula) manages the internal state of the robot device 1 such as instinct and emotion.

SituatedBehaviorsLayer(SBL)は、状況依存行動階層58を構成するオブジェクトである。SBLは、ShorTermMemoryのクライアント(STMクライアント)となるオブジェクトであり、ShorTermMemoryから定期的に外部刺激(ターゲットやイベント)に関する情報の通知(Notify)を受け取り、スキーマ(schema)、すなわち実行すべき行動モジュールを決定する。このSBLについての詳細は後述する。   SituatedBehaviorsLayer (SBL) is an object constituting the situation-dependent behavior layer 58. SBL is an object that becomes a client (STM client) of ShorTermMemory, receives notification (Notify) of information about external stimuli (targets and events) periodically from ShorTermMemory, and schema (namely, behavior module to be executed) decide. Details of this SBL will be described later.

Reflexive SBLは、反射行動部59を構成するオブジェクトであり、上述した認識系の各オブジェクトによって認識された外部刺激に応じて反射的・直接的な機体動作を実行する。例えば、検出された障害物を咄嗟に避けるといった振る舞いを行う。   The Reflexive SBL is an object that constitutes the reflex action unit 59, and performs reflexive and direct body motion according to the external stimulus recognized by each object of the recognition system described above. For example, the behavior of avoiding the detected obstacle is performed.

上述したように、SituatedBehaviorsLayerは、外部刺激や内部状態の変化などの状況に応じて行動を選択する。これに対し、Reflexive SBLは、外部刺激に応じて反射的を行動する。これら2つのオブジェクトによる行動選択は独立して行われるため、互いに選択された行動モジュール(スキーマ)を機体上で実行する場合に、ロボット1のハードウェア・リソースが競合して実現不可能なこともある。そこで、ResourceManagerというオブジェクトは、SituatedBehaviorsLayerとReflexive SBLによる行動選択時のハードウェアの競合を調停する。そして、調停結果に基づいて機体動作を実現する各オブジェクトに通知することにより機体が駆動する。   As described above, SituatedBehaviorsLayer selects an action according to a situation such as an external stimulus or a change in an internal state. In contrast, Reflexive SBL acts reflexively in response to external stimuli. Since the behavior selection by these two objects is performed independently, when the behavior modules (schema) selected from each other are executed on the aircraft, the hardware resources of the robot 1 may compete and cannot be realized. is there. Therefore, an object called ResourceManager mediates hardware contention when selecting actions by SituatedBehaviorsLayer and Reflexive SBL. Then, the airframe is driven by notifying each object that realizes the airframe motion based on the arbitration result.

SoundPerformer、MotionController、LEDControllerは、機体動作を実現するオブジェクトである。SoundPerformerは、音声出力を行うためのオブジェクトであり、ResourceManager経由でSituatedBehaviorLayerから与えられたテキスト・コマンドに応じて音声合成を行い、ロボット1の機体上のスピーカから音声出力を行う。また、MotionControllerは、機体上のアクチュエータA,A・・・の動作を行うためのオブジェクトであり、ResourceManager経由でSituatedBehaviorLayerから手や脚などを動かすコマンドを受けたことに応答して、該当する関節角を計算する。また、LEDControllerは、LED(Light Emitting Diode)の点滅動作を行うためのオブジェクトであり、ResourceManager経由でSituatedBehaviorLayerからコマンドを受けたことに応答してLEDの点滅駆動を行う。 SoundPerformer, MotionController, and LEDController are objects that realize the aircraft motion. SoundPerformer is an object for outputting sound, performs sound synthesis in accordance with a text command given from SituatedBehaviorLayer via ResourceManager, and outputs sound from a speaker on the body of the robot 1. The MotionController is an object for performing the operations of the actuators A 2 , A 3 ... On the airframe, and is applicable in response to receiving a command to move a hand or a leg from the SituatedBehaviorLayer via the ResourceManager. Calculate the joint angle. The LEDController is an object for performing blinking operation of the LED (Light Emitting Diode), and performs blinking driving of the LED in response to receiving a command from the SituatedBehaviorLayer via the ResourceManager.

上述した状況依存行動階層(SBL)58(但し、反射行動部59を含む。)による状況依存行動制御の形態を図6に模式的に示す。認識系51〜53による外部環境の認識結果は、外部刺激として状況依存行動階層(SBL)58に与えられる。また、認識系51〜53による外部環境の認識結果に応じた内部状態の変化も状況依存行動階層(SBL)58に与えられる。そして、状況依存行動階層(SBL)58では、外部刺激や内部状態の変化に応じて状況を判断して、行動選択を実現することができる。   FIG. 6 schematically shows the form of the situation-dependent action control by the situation-dependent action hierarchy (SBL) 58 (including the reflex action part 59) described above. The recognition result of the external environment by the recognition systems 51 to 53 is given to the situation dependent action hierarchy (SBL) 58 as an external stimulus. In addition, a change in the internal state according to the recognition result of the external environment by the recognition systems 51 to 53 is also given to the situation-dependent action hierarchy (SBL) 58. In the situation-dependent action hierarchy (SBL) 58, the situation can be determined according to an external stimulus or a change in the internal state, and action selection can be realized.

ところで、状況依存行動階層(SBL)58は、各行動モジュール毎にステートマシンを用意しており、それ以前の行動や状況に依存して、センサ入力された外部情報の認識結果を分類して、行動を機体上で発現する。行動モジュールは、外部刺激や内部状態に応じた状況判断を行うモニター機能と、行動実行に伴う状態遷移(ステートマシン)を実現するアクション機能とを備えたスキーマ(schema)として記述される。状況依存行動階層(SBL)58が複数のスキーマによって構成されている様子を図7に模式的に示す。   By the way, the situation-dependent action hierarchy (SBL) 58 prepares a state machine for each action module, and classifies recognition results of external information input from the sensor depending on actions and situations before that. Behavior is expressed on the aircraft. The behavior module is described as a schema having a monitoring function for determining a situation according to an external stimulus or an internal state, and an action function for realizing a state transition (state machine) accompanying the execution of the behavior. FIG. 7 schematically shows how the situation-dependent action hierarchy (SBL) 58 is composed of a plurality of schemas.

状況依存行動階層(SBL)58(より厳密には、状況依存行動階層58のうち、通常の状況依存行動を制御する階層)は、複数のスキーマが階層的に連結されたツリー構造として構成され、外部刺激や内部状態の変化に応じてより最適なスキーマを統合的に判断して行動制御を行うようになっている。ツリーは、例えば動物行動学的(Ethological)な状況依存行動を数式化した行動モデルや、感情表現を実行するためのサブツリーなど、複数のサブツリー(又は枝)を含んでいる。   The situation-dependent action hierarchy (SBL) 58 (more precisely, the hierarchy that controls the normal situation-dependent action among the situation-dependent action hierarchy 58) is configured as a tree structure in which a plurality of schemas are hierarchically linked. In response to external stimuli and changes in the internal state, a more optimal schema is judged in an integrated manner and behavior control is performed. The tree includes a plurality of subtrees (or branches) such as a behavior model obtained by formulating an ethological situation-dependent behavior and a subtree for executing emotional expression.

ここで、ロボット装置1の行動として人間とのインタラクションを想定し、実際の人間で観察される行動を参考として状況依存行動階層(SBL)58のツリーを構成することにする。   Here, as an action of the robot apparatus 1, an interaction with a human is assumed, and a tree of a situation-dependent action hierarchy (SBL) 58 is configured with reference to an action observed by an actual person.

具体的に、人間が誰か他人と話したいときの行動を、
(a)パートナー(ターゲット)を探し、
(b)そのパートナー(ターゲット)に近づき、
(c)そのパートナー(ターゲット)と話す(会話する)
という独立した行動に単純化し、これらの行動を実現できるように状況依存行動階層(SBL)58のツリーを構成する例を図8を用いて説明する。
Specifically, when a person wants to talk to someone else,
(A) Find a partner (target)
(B) approach that partner (target),
(C) Speak (converse) with the partner (target)
An example of configuring the tree of the situation-dependent action hierarchy (SBL) 58 so as to be able to realize these actions will be described with reference to FIG.

図8に示すように、状況依存行動階層(SBL)58は、短期記憶部(ShortTermMemory)55から外部刺激の通知(Notify)を受けるルート(Root)・スキーマを先頭に、抽象的な行動カテゴリから具体的な行動カテゴリに向かうように、各階層毎にスキーマが配設される。すなわち、Rootスキーマの直近下位の階層には、「SearchTarget(ターゲットを探す)」、「ApproachTarget(ターゲットに近づく)」、「Dialogue(対話する)」というスキーマが配設され、これにより行動アルゴリズムがモデル化される。そして、SearchTargetスキーマの下位には、「LookTo」、「LookFor」という具体的な探索行動に関わる行動を記述したスキーマが配設される。同様に、ApproachTargetスキーマの下位には、「Tracking」、「Approach」という具体的なターゲットに近づく行動に関わる行動を記述したスキーマが配設され、Dialogueスキーマの下位には、「Tracking」、「Chat」という具体的な対話行動に関わる行動を記述したスキーマが配設される。なお、図におけるTrackingスキーマのように、同じスキーマを異なるサブツリーに配設することも可能である。   As shown in FIG. 8, the situation-dependent action hierarchy (SBL) 58 includes an abstract action category starting from a root schema that receives a notification (Notify) of an external stimulus from the short-term memory unit (ShortTermMemory) 55. A schema is arranged for each hierarchy so as to go to a specific action category. That is, in the hierarchy immediately below the Root schema, schemas “SearchTarget (search for a target)”, “ApproachTarget (close to the target)”, and “Dialogue (interact)” are arranged. It becomes. Below the SearchTarget schema, schemas describing actions related to specific search actions such as “LookTo” and “LookFor” are arranged. Similarly, schemas describing actions related to actions that approach specific targets such as “Tracking” and “Approach” are arranged below the ApproachTarget schema, and “Tracking” and “Chat” are arranged below the Dialogue schema. Is a schema describing actions related to a specific dialogue action. Note that the same schema can be arranged in different sub-trees as in the Tracking schema in the figure.

ここで、本実施の形態における各スキーマは、それぞれ独自に行動を発現する機能を有しており、他のスキーマからの独立性(モジュラリティ(Modularity))が高められている。このため、スキーマをデザインする際にも、設計しようとする動作の特徴のみにフォーカスを絞ることができ、ツリー構造の中で実際に動作する際に発生する可能性のある他の要求を考慮する必要がない。実際上、各スキーマは、動作関連情報としてのフォーカスを有しており、動作する際には特定のターゲットとなる例えば環境中の物体や人物を参照することができる。スキーマ毎の特定の動作に応じて、そのスキーマが動作するために必要十分な最小限の情報が存在し、そのような情報により上述したフォーカスが構成される。なお、各スキーマは、異なったフォーカスを有することができる。   Here, each schema in the present embodiment has a function of expressing an action independently, and independence (Modularity) from other schemas is enhanced. For this reason, when designing a schema, you can focus only on the characteristics of the behavior you want to design, taking into account other requirements that may occur when actually working in the tree structure. There is no need. In practice, each schema has a focus as motion-related information, and when operating, it is possible to refer to, for example, an object or person in the environment as a specific target. Depending on the specific operation for each schema, there is minimal information necessary and sufficient for the schema to operate, and such information constitutes the focus described above. Note that each schema can have a different focus.

各スキーマは、そのフォーカスに含まれる情報に依存しているため、他のスキーマや、自身が配設されているツリー構造から独立している。但し、後述するように、各スキーマは他のスキーマと協調して行動を発現することもできる。   Since each schema depends on information included in the focus, it is independent of other schemas and the tree structure in which the schema is arranged. However, as described later, each schema can express an action in cooperation with other schemas.

例えば、トラッキング行動を実現するTrackingスキーマは、ターゲットの位置をトラッキングし、又はその動きの経路を観察し、ターゲットの方向に顔(頭)を向ける。ターゲットが環境中の人間である場合、Trackingスキーマが実行されると、ロボット装置1は、自身とターゲットとの相対位置関係に応じて頭部ユニット3を継続的に左右に振り、これにより頭部ユニット3は常にターゲットに正対する。ここで、Trackingスキーマのフォーカスとしては、行動制御システム50の視覚認識機能部51によって認識されたターゲットを同定するためのシンボルを用いることができる。例えば、視覚認識機能部51が認識された物体(物或いは人物)や検出されたイベント毎にID情報を関連付けている場合には、そのID情報をフォーカスとして用いることができる。   For example, a Tracking schema that realizes tracking behavior tracks the position of a target or observes the path of movement of the target and turns the face (head) toward the target. When the target is a human in the environment, when the Tracking schema is executed, the robot apparatus 1 continuously swings the head unit 3 to the left and right according to the relative positional relationship between itself and the target, thereby Unit 3 always faces the target. Here, as a focus of the Tracking schema, a symbol for identifying a target recognized by the visual recognition function unit 51 of the behavior control system 50 can be used. For example, when the visual recognition function unit 51 associates ID information for each recognized object (thing or person) or detected event, the ID information can be used as a focus.

図8に示したツリー構造に各スキーマ毎のフォーカス情報を追加した図を図9に示す。図9の例では、殆どのスキーマは、ターゲット、例えば会話のパートナーとなる環境中の人物についてのID情報(ターゲットID)以外のフォーカス情報を必要としておらず、Dialogueスキーマ及びChatスキーマのみが会話の内容(トピック)を示すフォーカス情報を必要とする。ここで、LookForスキーマは、特定のターゲットを必要としないためフォーカスを有していない。すなわち、LookForスキーマは、環境中のどのようなターゲットであっても探すことができる。   FIG. 9 is a diagram in which focus information for each schema is added to the tree structure shown in FIG. In the example of FIG. 9, most schemas do not require focus information other than the ID information (target ID) about the target, for example, the person in the environment who is the partner of the conversation, and only the Dialogue schema and the Chat schema are used for the conversation. Focus information indicating the content (topic) is required. Here, the LookFor schema does not have a focus because it does not require a specific target. That is, the LookFor schema can be searched for any target in the environment.

また、図9から分かるように、フォーカスに含まれる情報間には干渉(coherence)による制約がない。言い換えれば、各ターゲットIDが環境中の異なるターゲット(物体や人物)に対応することができる。干渉性がない場合には、全体として発現される行動は、各スキーマによる動作の単純な結合となる。例えば、図10に示すように、ApproachTarget行動のサブツリーにおいて、下位(子供)のTrackingスキーマ及びApproachスキーマが、例えばターゲットT及びターゲットTという異なったターゲットをフォーカスとした場合、ロボット装置1は、図11に示すように、ターゲットTをトラッキングしながらターゲットTに向かって歩く行動を行う。 Further, as can be seen from FIG. 9, there is no restriction due to interference between the information included in the focus. In other words, each target ID can correspond to a different target (object or person) in the environment. In the absence of coherence, the overall expressed behavior is a simple combination of actions according to each schema. For example, as shown in FIG. 10, if the subtree ApproachTarget behavior, Tracking schema and Approach schema lower (child) is, for example, where the different targets that target T 1 and the target T 2 and focus, the robot apparatus 1, As shown in FIG. 11, the user walks toward the target T 2 while tracking the target T 1 .

ところで、本実施の形態において、各スキーマは、互いにデータや制御信号を交換するためのインターフェイスを有しており、複雑な行動を実現するためのツリー構造に組み換えることができる。また、各スキーマは、子供スキーマ、すなわち残りの構造とインタラクションするための他のスキーマを有することができる。以下、このようなスキーマを親スキーマ、或いはハブ(hub)スキーマと呼ぶ。   By the way, in this embodiment, each schema has an interface for exchanging data and control signals with each other, and can be recombined into a tree structure for realizing complex behavior. Each schema can also have child schemas, ie other schemas for interacting with the rest of the structure. Hereinafter, such a schema is referred to as a parent schema or a hub schema.

親スキーマは、子供スキーマの接続パターン(制御ポリシー)を規定し、又は子供スキーマをある程度まで制御する。逆に子供スキーマは、親スキーマが規定した接続パターンに従うのみで親スキーマからは独立して動作し、又は親スキーマの制御の下に動作する。なお、この接続パターンの情報は、親スキーマが有する図示しない記憶手段に記憶されている。例えば、インターフェイスを介して各スキーマがフォーカスの情報を交換することもでき、また、例えばApproachTargetスキーマがTrackingスキーマを制御可能な場合に、ApproachTargetスキーマがTrackingスキーマのフォーカスを設定することもできる。この場合、親スキーマは、子供スキーマの見ているフォーカスをモニターし、要求があると、例えばフォーカスを設定することで子供スキーマの動作を制御する。親スキーマであるApproachTargetスキーマが、子供スキーマであるTrackingスキーマ及びApproachスキーマのフォーカスとして、ターゲットTを設定した例を図12に示す。 The parent schema defines the connection pattern (control policy) of the child schema or controls the child schema to some extent. Conversely, the child schema only operates according to the connection pattern defined by the parent schema and operates independently of the parent schema, or operates under the control of the parent schema. This connection pattern information is stored in a storage means (not shown) of the parent schema. For example, each schema can exchange focus information via the interface. For example, when the ApproachTarget schema can control the Tracking schema, the ApproachTarget schema can set the focus of the Tracking schema. In this case, the parent schema monitors the focus of the child schema, and controls the operation of the child schema, for example, by setting the focus when requested. ApproachTarget schema is the parent schema, as the focus of Tracking schema and Approach schema is a child schema showing an example of setting the target T 1 in FIG. 12.

ここで、上述したように、各スキーマは、ターミナルノード(Terminal Nodes)、すなわち子供スキーマとなることもでき、ハブノード(Hub Nodes)、すなわち親スキーマとなることもできる。また、親スキーマは、子供スキーマの接続パターンを規定することができる。そこで、以下では、この接続パターンについて詳細に説明する。   Here, as described above, each schema may be a terminal node, that is, a child schema, or may be a hub node, that is, a parent schema. The parent schema can define a connection pattern of the child schema. Therefore, in the following, this connection pattern will be described in detail.

図7の例において、各サブツリー毎に典型的な親−子供接続パターン、すなわちインタラクションのパターンが存在する。以下、順に説明する。   In the example of FIG. 7, there is a typical parent-child connection pattern, ie, an interaction pattern, for each subtree. Hereinafter, it demonstrates in order.

先ず、SearchTargetスキーマは、LookForスキーマ及びLookToスキーマの親スキーマであり、この3つのスキーマによりSearchTarget行動のサブツリーが構成される。LookForスキーマは、探索行動(何かを探す行動)を行うスキーマであり、例えば人物の顔を視覚的に探索する。このスキーマは、環境中をスキャンして顔を探すために、ロボット装置1の頭部ユニット3を用いる。なお、物体等の他のターゲットを探索してもよいことは勿論である。LookToスキーマは、音に振り向く行動(音の方向を見る行動)を行うスキーマであり、例えば声が聞こえたときに、頭部ユニット3をその声の方向に向ける。このように、LookForスキーマ及びLookToスキーマは独立したスキーマであり、他のスキーマとは独立して動作を実行することができる。   First, the SearchTarget schema is a parent schema of the LookFor schema and the LookTo schema, and a subtree of the SearchTarget action is configured by these three schemas. The LookFor schema is a schema that performs a search action (behavior for searching for something), and visually searches for a human face, for example. This schema uses the head unit 3 of the robot apparatus 1 to scan the environment for a face. Of course, other targets such as an object may be searched. The LookTo schema is a schema that performs an action of turning around a sound (an action of looking at the direction of the sound). For example, when a voice is heard, the head unit 3 is directed to the direction of the voice. As described above, the LookFor schema and the LookTo schema are independent schemas and can execute operations independently of other schemas.

一方、SearchTarget行動のサブツリーにおいて、SearchTargetスキーマは、より複雑な行動を実現するためにLookForスキーマ及びLookToスキーマを子供スキーマとして用いる。その子供スキーマは、親スキーマ(SearchTargetスキーマ)からの干渉(制御)を何ら受けることなく、互いに独立して動作する。言い換えれば、SearchTarget行動のサブツリーが実行されている場合、ロボット装置1は、LookForスキーマの動作によって頭部を継続的に左右に振り、ターゲットとなる人物の顔が検出された時点で止まる。同時に、ロボット装置1は、LookToスキーマの動作によって環境中で声が聞こえた場合に声の方向に頭部を向ける。   On the other hand, in the SearchTarget action subtree, the SearchTarget schema uses the LookFor schema and the LookTo schema as child schemas in order to realize more complex actions. The child schemas operate independently of each other without any interference (control) from the parent schema (SearchTarget schema). In other words, when the subtree of the SearchTarget action is being executed, the robot apparatus 1 continuously swings the head left and right by the operation of the LookFor schema, and stops when the target person's face is detected. At the same time, the robot apparatus 1 turns its head in the direction of the voice when a voice is heard in the environment by the operation of the LookTo schema.

このように、SearchTargetスキーマは、子供スキーマを制御するのではなく、中立的なハブスキーマとして動作する。本明細書では、このような接続パターンをORタイプパターン(ORポリシー)と呼ぶ。このORタイプパターンの接続関係では、任意の子供スキーマは、他のスキーマからの相互作用を何ら受けることなく、任意の時間に動作を実行することができる。この場合のSearchTarget行動のサブツリーを図13に示す。   In this way, the SearchTarget schema acts as a neutral hub schema rather than controlling the child schema. In this specification, such a connection pattern is referred to as an OR type pattern (OR policy). In this OR type pattern connection relationship, any child schema can perform operations at any time without any interaction from other schemas. FIG. 13 shows a subtree of the SearchTarget action in this case.

なお、本実施の形態では、1つのスキーマによる単純な行動と比較してこのような複雑な行動を、特定の状況に適するようにスキーマを組み換えることなく、子供スキーマの接続パターンを規定するのみで実現することができる。   In this embodiment, such a complex behavior compared to a simple behavior based on a single schema only defines the connection pattern of the child schema without recombining the schema to suit a specific situation. Can be realized.

次に、ApproachTargetスキーマは、Trackingスキーマ及びApproachスキーマの親スキーマであり、この3つのスキーマによりApproachTarget行動のサブツリーが構成される。Trackingスキーマは、ターゲットの位置をトラッキングし、又はその動きの経路を観察し、ターゲットの方向に顔(頭)を向ける。Approachスキーマは、ターゲットに向かって歩く行動を行うスキーマであり、ターゲットとなる例えば環境中の人物が所定の距離以内となるまで、その人物に向かって歩く。このように、Trackingスキーマ及びApproachスキーマは独立したスキーマであり、他のスキーマとは独立して動作を実行することができる。   Next, the ApproachTarget schema is a parent schema of the Tracking schema and the Approach schema, and a subtree of the ApproachTarget action is configured by these three schemas. The Tracking schema tracks the position of the target or observes the path of its movement and turns the face (head) toward the target. The Approach schema is a schema for performing an action of walking toward a target, and walks toward a target person, for example, until the person in the environment is within a predetermined distance. As described above, the Tracking schema and the Approach schema are independent schemas and can execute operations independently of other schemas.

しかしながら、ApproachTarget行動のサブツリーにおいて、ApproachTargetスキーマは、より複雑な行動を実現するためにTrackingスキーマ及びApproachスキーマを子供スキーマとして用いる。特に、ApproachTargetスキーマは、
(a)全ての子供スキーマが協調して動作し、
(b)全ての子供スキーマが同じフォーカス、例えば同じターゲットを有する
ことを保証するために、子供スキーマの動作の一貫性をチェックする。言い換えれば、ApproachTarget行動のサブツリーが実行されており、ターゲットが例えば環境中の人物である場合、ロボット装置1は、Trackingスキーマの動作によって自身とターゲットとの相対位置関係、及びその人物と自身の動作に応じて頭部ユニット3を継続的に左右に振り、これにより頭部ユニット3は常にターゲットに正対する。同時に、ロボット装置1は、Approachスキーマの動作によってその人物の方向に向かって歩く。
However, in the ApproachTarget action subtree, the ApproachTarget schema uses the Tracking schema and the Approach schema as child schemas to implement more complex actions. In particular, the ApproachTarget schema is
(A) All child schemas work together,
(B) Check the consistency of child schema behavior to ensure that all child schemas have the same focus, eg, the same target. In other words, when the subtree of the ActionTarget action is executed and the target is a person in the environment, for example, the robot apparatus 1 determines the relative positional relationship between itself and the target and the action of the person and the person by the operation of the Tracking schema. Accordingly, the head unit 3 is continuously swung left and right, so that the head unit 3 always faces the target. At the same time, the robot apparatus 1 walks toward the person by the action of the Approach schema.

このように、ApproachTargetスキーマは、子供スキーマを制御する。本明細書では、このような接続パターンをANDタイプパターン(ANDポリシー)と呼ぶ。このANDタイプパターンの接続関係では、全ての子供スキーマが協調して動作を実行する。この場合のApproachTarget行動のサブツリーを図14に示す。   In this way, the ApproachTarget schema controls the child schema. In this specification, such a connection pattern is called an AND type pattern (AND policy). In the connection relationship of this AND type pattern, all child schemas execute operations in cooperation. A sub-tree of the ApproachTarget action in this case is shown in FIG.

なお、上述と同様に、本実施の形態では、1つのスキーマによる単純な行動と比較してこのような複雑な行動を、特定の状況に適するようにスキーマを組み換えることなく、子供スキーマの接続パターンを規定するのみで実現することができる。   As described above, in the present embodiment, such a complicated behavior is compared with a simple behavior based on one schema, and the child schema is connected without recombining the schema to suit a specific situation. This can be realized simply by defining the pattern.

また、ApproachTarget行動のサブツリーでは、ANDタイプパターンで接続された子供スキーマは、全て同じフォーカスを有する必要がある。親スキーマであるApproachTargetスキーマが、子供スキーマであるTrackingスキーマ及びApproachスキーマのフォーカスとして、ターゲットTを設定した例を図15に示す。この場合、ロボット装置1は、図16に示すように、ターゲットTをトラッキングしながらターゲットTに向かって歩く行動を行う。 Also, in the ApproachTarget action subtree, all child schemas connected in an AND type pattern must have the same focus. ApproachTarget schema is the parent schema, as the focus of Tracking schema and Approach schema is a child schema showing an example of setting the target T 2 in Figure 15. In this case, the robot apparatus 1, as shown in FIG. 16, performs an action to walk toward the target T 2 while tracking the target T 2.

続いて、Dialogueスキーマは、Trackingスキーマ及びChatスキーマの親スキーマであり、この3つのスキーマによりDialogue行動のサブツリーが構成される。このDialogue行動のサブツリーにおける子供スキーマの接続関係はANDタイプパターンであり、上述したApproachTarget行動のサブツリーと同様であるため、詳細な説明を省略する。   Subsequently, the Dialogue schema is a parent schema of the Tracking schema and the Chat schema, and a subtree of Dialogue actions is constituted by these three schemas. The child schema connection relation in the Dialogue action subtree is an AND type pattern, which is the same as the above-described ApproachTarget action subtree, and thus detailed description thereof is omitted.

前述したように、本実施の形態における具体例は、人間が誰か他人と話したいときの行動を模したものであり、ロボット装置1の行動を、SearchTarget行動、ApproachTarget行動及びDialogue行動のサブツリーで構成している。この複雑な行動についてもある接続パターン、すなわち連続して実行されるような接続パターンを有する必要がある。つまり、会話をするためには、その人物がロボット装置1から所定距離内にいる必要があり、その人物の近くにいるためには、ロボット装置1はその人物に近づく必要がある。そして、その人物は、環境中にいる必要があり、ロボット装置1は、その人物を探さなければならない。言い換えれば、ある人物と会話するという全体の行動は、
(a)パートナー(ターゲット)を探し、
(b)そのパートナー(ターゲット)に近づき、
(c)そのパートナー(ターゲット)と話す(会話する)
という単純な行動の連続として記述される。本明細書では、このような接続パターンをSEQUENCEタイプパターン(SEQUENCEポリシー)と呼ぶ。この場合の全体の行動のツリー構造を図17に示す。このSEQUENCEタイプパターンでは、現在の状況に応じた異なる時点から行動を開始することができる。例えば、会話する人物が既にロボット装置1の近くにいる場合には、ApproachTarget行動を省略することができる。
As described above, the specific example in the present embodiment imitates an action when a human wants to talk to someone else, and the action of the robot apparatus 1 is composed of subtrees of SearchTarget action, ApproachTarget action, and Dialogue action. is doing. It is necessary to have a certain connection pattern for this complicated behavior, that is, a connection pattern that is continuously executed. That is, in order to have a conversation, the person needs to be within a predetermined distance from the robot apparatus 1, and in order to be near the person, the robot apparatus 1 needs to approach the person. The person needs to be in the environment, and the robot apparatus 1 must search for the person. In other words, the overall behavior of talking to a person is
(A) Find a partner (target)
(B) approach that partner (target),
(C) Speak (converse) with the partner (target)
It is described as a series of simple actions. In this specification, such a connection pattern is called a SEQUENCE type pattern (SEQUENCE policy). FIG. 17 shows a tree structure of the entire action in this case. In this SEQUENCE type pattern, an action can be started from different time points according to the current situation. For example, when the person who is talking is already near the robot apparatus 1, the ApproachTarget action can be omitted.

なお、以上説明したORタイプパターン、ANDタイプパターン及びSEQUENCEタイプパターンといった接続パターンは一例であり、この例に限定されるものではない。   The connection patterns such as the OR type pattern, the AND type pattern, and the SEQUENCE type pattern described above are examples, and the present invention is not limited to this example.

ところで、同じスキーマは、あるツリー構造においてはターミナルノードとなり、別のツリー構造においてはハブノードとなることができる。スキーマのインターフェイスは、スキーマからデータや制御信号といった情報を送り、異なる状況を自動的に処理する。   By the way, the same schema can be a terminal node in one tree structure and a hub node in another tree structure. The schema interface sends information such as data and control signals from the schema and automatically handles different situations.

各スキーマは、子供スキーマがあればそれを検出し、特定の制御パターンを規定するようにデザインすることもでき、また、“純粋な”ターミナルノードとしてデザインすることもできる。後者の場合、子供スキーマが配設されると、デフォルトの制御パターン、例えばORタイプパターンが用いられる。   Each schema can be designed to detect child schemas, if any, and define a specific control pattern, or it can be designed as a “pure” terminal node. In the latter case, when a child schema is arranged, a default control pattern, such as an OR type pattern, is used.

具体的にApproachTarget行動のサブツリーを例にとり、どのようにしてターミナルスキーマ、例えばApproachスキーマがあるツリー構造中でハブスキーマとなるかについて説明する。上述したように、Approachスキーマは、ターゲットに向かって歩く行動を行うスキーマであり、ターゲットとなる例えば環境中の人物が所定の距離以内となるまで、その人物に向かって歩く。しかしながら、このような行動では、ターゲットまでの経路上にある障害物について考慮していないため、障害物とぶつかり、ターゲットに辿り着けないという問題が発生する可能性がある。   Specifically, taking a subtree of the ApproachTarget action as an example, how a terminal schema, for example, an Approach schema becomes a hub schema in a certain tree structure will be described. As described above, the Approach schema is a schema that performs an action of walking toward a target, and walks toward a target person until, for example, the person in the environment is within a predetermined distance. However, since such an action does not consider an obstacle on the route to the target, there is a possibility that the obstacle collides with the obstacle and cannot reach the target.

そこで、ロボット装置1のパフォーマンスを向上させるために、障害物を避ける行動を行うNavigationスキーマを配設することができる。このNavigationスキーマは、方向をナビゲートする行動を行うスキーマであり、ロボット装置1が進む方向の障害物を調べ、障害物が検出された場合に代替経路、例えば障害物を迂回する経路を示す。このNavigationスキーマは、Approachスキーマの子供スキーマとして配設することができ、Approachスキーマをデザインし直す必要はない。Approachスキーマがデフォルトの制御パターン、例えばORタイプパターンでNavigationスキーマを接続するのみで、ApproachスキーマとNavigationスキーマとが協調して動作することができるようになる。この場合のApproachTarget行動のサブツリーを図18に示す。この結果、ロボット装置1は、図19に示すように、Trackingスキーマの動作によって特定の人物をトラッキングし、同時に、Approachスキーマの動作によってその人物の方向に向かって歩く。そして、障害物Obが検出された場合には、ロボット装置1は、Navigationスキーマによってその障害物Obを例えば迂回する。   Therefore, in order to improve the performance of the robot apparatus 1, a navigation schema for performing an action to avoid an obstacle can be provided. This Navigation schema is a schema that performs an action of navigating a direction, and shows an alternative route, for example, a route that bypasses an obstacle when an obstacle in the direction in which the robot device 1 travels is detected. This Navigation schema can be arranged as a child schema of the Approach schema, and there is no need to redesign the Approach schema. The Approach schema and the Navigation schema can operate in cooperation only by connecting the Navigation schema with the default control pattern, for example, the OR type pattern. FIG. 18 shows a sub-tree of ApproachTarget actions in this case. As a result, as shown in FIG. 19, the robot apparatus 1 tracks a specific person by the operation of the Tracking schema, and at the same time walks toward the person by the operation of the Approach schema. When the obstacle Ob is detected, the robot apparatus 1 bypasses the obstacle Ob, for example, using the navigation schema.

このように、本実施の形態における状況依存行動階層(SBL)58は、複数のスキーマが階層的に連結されたツリー構造として構成され、各スキーマが独自の行動を実行できるように独立性が高められているため、ツリー構造の組み換えが容易である。この際、親スキーマは、例えば上述したORタイプパターン、ANDタイプパターン及びSEQUENCEタイプパターンのように、子供スキーマの接続パターンを規定することができ、発現する行動パターンを変化させることができる。   As described above, the situation-dependent action hierarchy (SBL) 58 in this embodiment is configured as a tree structure in which a plurality of schemas are hierarchically connected, and the independence is enhanced so that each schema can execute its own action. Therefore, recombination of the tree structure is easy. At this time, the parent schema can define the connection pattern of the child schema, such as the above-mentioned OR type pattern, AND type pattern, and SEQUENCE type pattern, and can change the behavior pattern to be expressed.

また、各スキーマの独立性が高められていることから、スキーマを書き換えることなく新たな子供スキーマを追加することができ、これによりロボット装置に新たな動作或いは機能を追加することができる。   In addition, since the independence of each schema is enhanced, a new child schema can be added without rewriting the schema, whereby a new operation or function can be added to the robot apparatus.

続いて、親スキーマによる子供スキーマの制御について、図面を用いてさらに詳細に説明する。
上述の通り、親スキーマは、図示しない記憶手段に記憶された接続パターンに基づいて、自身に接続された子供スキーマを制御するが、子供スキーマと共通の情報(後述する実行要求度AL及びリソースの情報)をやりとりすることで、行動の開始及び終了等についてもその接続パターンに応じて制御することができる。この制御は、基本的には図20に示すようなものである。すなわち、先ず子供スキーマS1,S2,S3が外部刺激及び内部状態に基づいて算出した自身の行動の実行要求度ALと必要なリソースとを親スキーマS0に伝達し、親スキーマS0は、この受け取った情報と自身の情報(実行要求度AL及びリソース)とを統合してさらに上位の親スキーマSPに伝達する。そして、親スキーマSPは、行動に必要な実行権とリソースとを親スキーマS0に伝達し、親スキーマS0は、自身に必要なリソースを除いてから、残りのリソースを子供スキーマS1,S2,S3に分配する。このように、共通の情報をやりとりすることにより、親スキーマは、子供スキーマの内容を知らなくても子供スキーマを制御することができる。
Next, control of the child schema by the parent schema will be described in more detail with reference to the drawings.
As described above, the parent schema controls the child schema connected to itself based on the connection pattern stored in the storage means (not shown). However, the common information with the child schema (the execution request level AL and the resource By exchanging information), it is possible to control the start and end of the action according to the connection pattern. This control is basically as shown in FIG. That is, first, the child schemas S1, S2, S3 transmit to the parent schema S0 the execution requesting degree AL of their own actions and necessary resources calculated based on the external stimulus and the internal state, and the parent schema S0 receives this The information and its own information (execution request level AL and resource) are integrated and transmitted to the parent schema SP. Then, the parent schema SP transmits the execution rights and resources necessary for the action to the parent schema S0. The parent schema S0 removes the resources necessary for itself, and then transfers the remaining resources to the child schemas S1, S2, S3. To distribute. In this way, by exchanging common information, the parent schema can control the child schema without knowing the contents of the child schema.

具体的に、先ず図21に示すようなORタイプパターンの場合を考える。図21に示すSearchTargetスキーマは、LookForスキーマ、LookToスキーマ及びUtterスキーマの親スキーマであり、この4つのスキーマによりSearchTarget行動のサブツリーが構成される。LookForスキーマは、探索行動(何かを探す行動)を行うスキーマであり、例えば人物の顔を視覚的に探索する。このスキーマは、環境中をスキャンしてターゲットを探すために、ロボット装置1の頭部ユニット3を用いる。LookToスキーマは、音に振り向く行動(音の方向を見る行動)を行うスキーマであり、例えば声が聞こえたときに、頭部ユニット3をその声の方向に向ける。Utterスキーマは、例えばターゲットを探していることを示す言葉(「どこかな?」など)等を発するスキーマであり、スピーカ等の音声出力装置を用いる。   Specifically, first consider the case of an OR type pattern as shown in FIG. The SearchTarget schema shown in FIG. 21 is a parent schema of the LookFor schema, the LookTo schema, and the Utter schema, and the four schemas constitute a subtree of the SearchTarget action. The LookFor schema is a schema that performs a search action (behavior for searching for something), and visually searches for a human face, for example. This schema uses the head unit 3 of the robot apparatus 1 to scan the environment for a target. The LookTo schema is a schema that performs an action of turning around a sound (an action of looking at the direction of the sound). For example, when a voice is heard, the head unit 3 is directed to the direction of the voice. The Utter schema is a schema that emits a word (such as “Where?

この図21に示すサブツリーにおいて、LookForスキーマ、LookToスキーマ及びUtterスキーマは、それぞれ自身の実行要求度ALとリソース(頭部ユニット、スピーカ等)とをSearchTargetスキーマに伝達し、SearchTargetスキーマは、それらの情報を統合してさらに上位のスキーマに伝達する。そして、上位のスキーマから実行権とリソースとが伝達されると、SearchTargetスキーマは、これらを子供スキーマに分配する。   In the sub-tree shown in FIG. 21, the LookFor schema, LookTo schema, and Utter schema each transmit their own execution request level AL and resources (head unit, speaker, etc.) to the SearchTarget schema, and the SearchTarget schema stores information about them. Integrate and communicate to higher-level schema. When the execution right and resources are transmitted from the higher-level schema, the SearchTarget schema distributes them to the child schema.

このとき、LookForスキーマとLookToスキーマとは、必要なリソースが競合しているため、SearchTargetスキーマは、この2つのスキーマのうち、実行要求度ALが大きいスキーマに対してリソースを分配する。例えば、通常の状態であれば、LookForスキーマの方がLookToスキーマよりも実行要求度ALが大きくなるため、LookForスキーマにリソースが分配される。この結果、ロボット装置1は、言葉を発しながら探索行動を行うことになる。一方、何か声を掛けられた場合や音がした場合等には、LookToスキーマの方がLookForスキーマよりも実行要求度ALが大きくなるため、LookToスキーマにリソースが分配される。この結果、ロボット装置1は、言葉を発しながら音に振り向く行動を行うことになる。   At this time, since the required resources of the LookFor schema and the LookTo schema are competing, the SearchTarget schema distributes the resources to the schema having a high execution request level AL out of the two schemas. For example, in a normal state, the execution request degree AL is larger in the LookFor schema than in the LookTo schema, so resources are distributed to the LookFor schema. As a result, the robot apparatus 1 performs a search action while speaking words. On the other hand, when something is uttered or a sound is heard, the LookTo schema has a higher execution request level AL than the LookFor schema, so resources are distributed to the LookTo schema. As a result, the robot apparatus 1 performs an action of turning around the sound while speaking a word.

以上示したORタイプパターンでは、LookForスキーマ、LookToスキーマ及びUtterスキーマの全てを同時に実行させる必要はないため、サブツリーの開始条件は、
(a)SearchTargetスキーマが起動できること、
(b)LookForスキーマ、LookToスキーマ及びUtterスキーマの少なくとも1つのスキーマの実行要求度ALが0よりも大きいこと、
(c)LookForスキーマ、LookToスキーマ及びUtterスキーマのうち、実行要求度ALが0よりも大きいスキーマの少なくとも1つのスキーマにリソースを分配できること
となる。
In the OR type pattern shown above, it is not necessary to execute all of the LookFor schema, LookTo schema, and Utter schema at the same time.
(A) The SearchTarget schema can be started,
(B) The execution request level AL of at least one of the LookFor schema, the LookTo schema, and the Utter schema is greater than 0.
(C) Among the LookFor schema, the LookTo schema, and the Utter schema, the resource can be distributed to at least one schema of which the execution request level AL is greater than 0.

また、ORタイプパターンでは、LookForスキーマ、LookToスキーマ及びUtterスキーマの何れかが実行されていればよいため、サブツリーの終了条件は、
(d)SearchTargetスキーマ、LookForスキーマ、LookToスキーマ及びUtterスキーマの全てが成功又は失敗により終了していること
となる。したがって、LookToスキーマの実行中にターゲットを見失った場合であっても、サブツリーは終了せず、再びLookForスキーマによりターゲットを探す行動を行う。
In addition, in the OR type pattern, any of the LookFor schema, LookTo schema, and Utter schema need only be executed.
(D) All of the SearchTarget schema, LookFor schema, LookTo schema, and Utter schema are terminated due to success or failure. Therefore, even if the target is lost during execution of the LookTo schema, the subtree is not terminated, and the action for searching for the target again by the LookFor schema is performed.

次に、図14に示したようなANDタイプパターンの場合を考える。図14に示したApproachTargetスキーマは、Trackingスキーマ及びApproachスキーマの親スキーマであり、この3つのスキーマによりApproachTarget行動のサブツリーが構成される。Trackingスキーマは、ターゲットの位置をトラッキングし、又はその動きの経路を観察し、ターゲットの方向に顔(頭)を向ける。Approachスキーマは、ターゲットに向かって歩く行動を行うスキーマであり、ターゲットとなる例えば環境中の人物が所定の距離以内となるまで、その人物に向かって歩く。   Next, consider the case of an AND type pattern as shown in FIG. The ApproachTarget schema shown in FIG. 14 is a parent schema of the Tracking schema and the Approach schema, and a subtree of the ApproachTarget action is configured by these three schemas. The Tracking schema tracks the position of the target or observes the path of its movement and turns the face (head) toward the target. The Approach schema is a schema for performing an action of walking toward a target, and walks toward a target person, for example, until the person in the environment is within a predetermined distance.

この図14に示したサブツリーにおいて、Trackingスキーマ及びApproachスキーマは、それぞれ自身の実行要求度ALとリソース(頭部ユニット、脚部ユニット等)とをApproachTargetスキーマに伝達し、ApproachTargetスキーマは、それらの情報を統合してさらに上位のスキーマに伝達する。そして、上位のスキーマから実行権とリソースとが伝達されると、ApproachTargetスキーマは、これらをTrackingスキーマ及びApproachスキーマに分配する。   In the subtree shown in FIG. 14, the Tracking schema and the Approach schema each transmit their own execution request level AL and resources (head unit, leg unit, etc.) to the ApproachTarget schema. Integrate and communicate to higher-level schema. When the execution right and the resource are transmitted from the higher-level schema, the ApproachTarget schema distributes them to the Tracking schema and the Approach schema.

このとき、Trackingスキーマ及びApproachスキーマは同時に実行する必要があるため、Trackingスキーマ及びApproachスキーマに必要なリソースの何れか一方でも足りない場合には、ApproachTargetスキーマに対して上位のスキーマからリソースが伝達されない。   At this time, since the Tracking schema and the Approach schema need to be executed at the same time, if any of the resources required for the Tracking schema and the Approach schema is insufficient, the resource is not transmitted from the higher-level schema to the ApproachTarget schema. .

以上示したANDタイプパターンでは、Trackingスキーマ及びApproachスキーマを同時に実行させる必要があるため、サブツリーの開始条件は、
(a)ApproachTargetスキーマが起動できること、
(b)Trackingスキーマ及びApproachスキーマのそれぞれの実行要求度ALが0よりも大きいこと、
(c)Trackingスキーマ及びApproachスキーマのそれぞれにリソースを分配できること
となる。
In the AND type pattern shown above, since the Tracking schema and the Approach schema need to be executed at the same time, the sub-tree start condition is
(A) ApproachTarget schema can be started,
(B) Each of the execution request levels AL of the Tracking schema and the Approach schema is greater than 0,
(C) Resources can be distributed to each of the Tracking schema and the Approach schema.

また、ANDタイプパターンでは、Trackingスキーマ及びApproachスキーマの両方が実行されている必要があるため、サブツリーの終了条件は、
(d)Trackingスキーマ及びApproachスキーマの少なくとも1つのスキーマが成功又は失敗により終了したこと
となる。したがって、障害物等によりターゲットに対してそれ以上進めなくなった場合、Approachスキーマは失敗終了するが、この場合、ApproachTargetスキーマはTrackingスキーマについても終了させる。
In the AND type pattern, both the Tracking schema and the Approach schema need to be executed.
(D) At least one of the Tracking schema and the Approach schema is terminated due to success or failure. Accordingly, if the target cannot be further advanced due to an obstacle or the like, the Approach schema ends in failure, but in this case, the ApproachTarget schema also ends the Tracking schema.

ここで、上述したORタイプパターン及びANDタイプパターンでは、各子供スキーマが並列の関係にあったが、子供スキーマのうち何れか1つのスキーマをメインスキーマとし、サブツリー全体の結果をこのメインスキーマに依存させるようにしても構わない。本明細書では、このような接続パターンをDependOnタイプパターン(DependOnポリシー)と呼ぶ。   Here, in the above-mentioned OR type pattern and AND type pattern, each child schema was in a parallel relationship, but any one of the child schemas is the main schema, and the result of the entire subtree depends on this main schema. It does not matter if you make it. In this specification, such a connection pattern is called a DependOn type pattern (DependOn policy).

具体的に、図22に示すDependOnタイプパターンの場合を考える。図22に示すKickTargetスキーマは、Trackingスキーマ及びKickスキーマの親スキーマであり、この3つのスキーマによりKickTarget行動のサブツリーが構成される。Trackingスキーマは、ターゲットの位置をトラッキングし、又はその動きの経路を観察し、ターゲットの方向に体全体を向ける。Kickスキーマは、ターゲットを蹴る行動を行うスキーマであり、ターゲットとなる例えば環境中のボールを蹴る。   Specifically, consider the case of the DependOn type pattern shown in FIG. The KickTarget schema shown in FIG. 22 is a parent schema of the Tracking schema and the Kick schema, and a subtree of KickTarget actions is configured by these three schemas. The Tracking schema tracks the position of a target or observes its path of movement and directs the entire body in the direction of the target. The Kick schema is a schema for performing an action of kicking a target, and kicks a target ball such as an environmental ball.

この図22に示すサブツリーにおいて、Trackingスキーマ及びKickスキーマは、それぞれ自身の実行要求度ALとリソース(頭部ユニット、脚部ユニット等)とをKickTargetスキーマに伝達する。また、Kickスキーマは、自身がメインスキーマであるという情報をKickTargetスキーマに伝達する。そして、KickTargetスキーマは、それらの情報を統合してさらに上位のスキーマに伝達する。上位のスキーマから実行権とリソースとが伝達されると、KickTargetスキーマは、これらをTrackingスキーマ及びKickスキーマに分配する。   In the subtree shown in FIG. 22, each of the Tracking schema and the Kick schema transmits its own execution request level AL and resources (head unit, leg unit, etc.) to the KickTarget schema. In addition, the Kick schema transmits information that it is the main schema to the KickTarget schema. The KickTarget schema integrates the information and transmits it to a higher-level schema. When execution rights and resources are transmitted from the higher-level schema, the KickTarget schema distributes them to the Tracking schema and the Kick schema.

このとき、Trackingスキーマ及びKickスキーマのうち、少なくともKickスキーマを実行する必要があるため、Kickスキーマに必要なリソースが足りない場合には、KickTargetスキーマに対して上位のスキーマからリソースが伝達されない。   At this time, it is necessary to execute at least the Kick schema out of the Tracking schema and the Kick schema. Therefore, when the resources necessary for the Kick schema are insufficient, the resources are not transmitted from the higher-level schema to the KickTarget schema.

以上示したDependOnタイプパターンでは、Trackingスキーマ及びKickスキーマのうち、少なくともKickスキーマを実行させる必要があるため、サブツリーの開始条件は、
(a)KickTargetスキーマが起動できること、
(b)Trackingスキーマ及びKickスキーマのうち、少なくともKickスキーマの実行要求度ALが0よりも大きいこと、
(c)Trackingスキーマ及びKickスキーマのうち、少なくともKickスキーマにリソースを分配できること
となる。
In the DependOn type pattern shown above, it is necessary to execute at least the Kick schema out of the Tracking schema and Kick schema, so the subtree start condition is
(A) The KickTarget schema can be started,
(B) Of the Tracking schema and Kick schema, at least the Kick schema execution request level AL is greater than 0,
(C) Of the Tracking schema and Kick schema, resources can be distributed to at least the Kick schema.

また、DependOnタイプパターンでは、サブツリー全体の結果がメインスキーマであるKickスキーマに依存しているため、サブツリーの終了条件は、
(d)KickTargetスキーマ及びKickスキーマが成功又は失敗により終了したこと
となる。したがって、ターゲットを蹴ってKickスキーマが成功終了した場合、KickTargetスキーマはTrackingスキーマについても終了させる。
Also, in the DependOn type pattern, the result of the entire subtree depends on the Kick schema that is the main schema, so the subtree end condition is
(D) The KickTarget schema and the Kick schema are terminated due to success or failure. Therefore, if the kick kicks off the target and the Kick schema ends successfully, the KickTarget schema also ends the Tracking schema.

続いて、サッカーの行動を例とし、
(a)ボール(ターゲット)を探し、
(b)ボール(ターゲット)に近づき、
(c)そのボール(ターゲット)を蹴る
という行動全体のツリー構造を図23に示す。図23において、Rootスキーマは、KickTargetスキーマをメインスキーマとするDependOnタイプパターンをとる。また、KickTargetスキーマは、図22と同様に、KickスキーマをメインスキーマとするDependOnタイプパターンをとる。
Then, taking soccer action as an example,
(A) Find the ball (target)
(B) Approach the ball (target),
(C) A tree structure of the entire action of kicking the ball (target) is shown in FIG. In FIG. 23, the Root schema takes a DependOn type pattern whose main schema is the KickTarget schema. Also, the KickTarget schema takes a DependOn type pattern with the Kick schema as the main schema, as in FIG.

この図23に示すツリーにおいては、SearchTargetスキーマのサブツリーによってボールを探し、ApproachTargetスキーマのサブツリーによってボールが所定の距離になるまで近づく。そして、KickTargetスキーマのサブツリーによってボールを蹴り、ツリーが終了する。ここで、ボールを探し、ボールに近づく途中でボールを見失った場合、ApproachTargetスキーマは失敗終了するが、メインスキーマであるKickTargetスキーマが終了していないため、ツリーとしては終了しない。この場合には、再びSearchTargetスキーマのサブツリーが実行され、ボールを探すというリカバリー行動を行うことができる。   In the tree shown in FIG. 23, the search target schema sub-tree is used to search for a ball, and the ApproachTarget schema sub-tree approaches the ball until it reaches a predetermined distance. The ball is then kicked by the KickTarget schema subtree and the tree is terminated. Here, if the ball is found and the ball is lost while approaching the ball, the ApproachTarget schema ends in failure, but the KickTarget schema that is the main schema has not ended, so it does not end as a tree. In this case, the SearchTarget schema subtree is executed again, and the recovery action of searching for the ball can be performed.

以上説明したように、本実施の形態における状況依存行動階層(SBL)58は、複数のスキーマが階層的に連結されたツリー構造として構成され、複雑な行動を実現することができる一方で、各スキーマが独自の行動を実行できるように独立性(モジュラリティ)が高められているため、ツリー構造の組み換えが容易であり、スキーマ間で共通の情報をやりとりし、さらに親スキーマと子供スキーマとの接続関係を規定することにより、スキーマの記述を簡略化することができる。   As described above, the situation-dependent action hierarchy (SBL) 58 in the present embodiment is configured as a tree structure in which a plurality of schemas are hierarchically connected, and can implement complex actions. Since the independence (modularity) is enhanced so that schemas can perform their own actions, the tree structure can be easily recombined, and common information can be exchanged between schemas. By specifying the connection relationship, the schema description can be simplified.

つまり、親スキーマに子供スキーマの制御に必要な情報・機能を全て記述することは、スキーマのツリー構造が複雑になった場合には困難であり、特にツリー構造内で子供スキーマを制御するスキーマの方が子供スキーマの数よりも多くなってしまう虞がある。   In other words, it is difficult to describe all the information and functions necessary for controlling the child schema in the parent schema when the tree structure of the schema becomes complicated, especially for the schema that controls the child schema within the tree structure. There is a risk that there will be more than the number of child schemas.

これに対して、上述した本実施の形態では、やりとりする情報を共通化することでスキーマの独立性を担保し、ユニット(ツリー構造)の組み換えを容易とすることができる。さらに、複数のスキーマが共通にできることを抽出して幾つかの接続パターンを作ることで、スキーマの記述を簡略化することができる。   On the other hand, in this Embodiment mentioned above, the independence of a schema can be ensured by sharing the information to exchange, and the recombination of a unit (tree structure) can be made easy. Furthermore, the description of the schema can be simplified by extracting some common schemas and creating several connection patterns.

なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。   It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

例えば、上述の実施の形態では、2足歩行の脚式移動ロボットに関して説明したが、ロボット装置は、外部環境及び内部状態に応じて動作するものであれば適用可能であり、移動手段も2足歩行、さらには脚式移動方式に限定されない。   For example, in the above-described embodiment, a bipedal legged mobile robot has been described. However, the robot apparatus can be applied as long as it operates in accordance with the external environment and the internal state, and the moving means has two legs. It is not limited to walking or even legged movement.

以上説明した本発明によれば、木構造形式に構成された複数の行動モジュールのうち、上位の行動モジュールが、記憶手段に記憶された制御ポリシーに基づいて、自身に接続された一以上の行動モジュールを制御するため、各行動モジュールの独立性を高めることができ、したがって行動モジュールの木構造を組み換えてロボット装置の行動のデザイン変更を行うことが容易に実現できる。   According to the present invention described above, among a plurality of behavior modules configured in a tree structure format, one or more behaviors in which a higher-order behavior module is connected to itself based on a control policy stored in a storage unit Since the modules are controlled, the independence of each behavior module can be increased. Therefore, it is possible to easily change the behavior design of the robot apparatus by recombining the tree structure of the behavior modules.

本実施の形態におけるロボット装置の外観構成を示す斜視図である。It is a perspective view which shows the external appearance structure of the robot apparatus in this Embodiment. 同ロボット装置の自由度構成モデルを模式的に示す図である。It is a figure which shows typically the freedom degree structural model of the robot apparatus. 同ロボット装置の回路構成を示すブロック図である。It is a block diagram which shows the circuit structure of the robot apparatus. 同ロボット装置の行動制御システムの基本アーキテクチャを示す図である。It is a figure which shows the basic architecture of the action control system of the robot apparatus. 同行動制御システムのオブジェクト構成を模式的に示す図である。It is a figure which shows typically the object structure of the action control system. 同行動制御システムの状況依存行動階層による状況依存行動制御の形態を模式的に示す図である。It is a figure which shows typically the form of the situation dependence action control by the situation dependence action hierarchy of the action control system. 同状況依存行動階層が複数のスキーマによって構成されている様子を模式的に示す図である。It is a figure which shows typically a mode that the same situation dependence action hierarchy is comprised by the some schema. 同状況依存行動階層におけるスキーマのツリー構造を模式的に示す図である。It is a figure which shows typically the tree structure of the schema in the same situation dependence action hierarchy. 同ツリー構造に各スキーマ毎のフォーカス情報を追加した様子を示す図である。It is a figure which shows a mode that the focus information for every schema was added to the tree structure. Trackingスキーマ及びApproachスキーマが、それぞれ異なるターゲットをフォーカスとした場合のApproachTarget行動のサブツリー構造を示す図である。It is a figure which shows the subtree structure of the ApproachTarget action when a tracking schema and an Approach schema focus on different targets, respectively. Trackingスキーマ及びApproachスキーマが、それぞれ異なるターゲットをフォーカスとした場合のロボット装置の行動を模式的に示す図である。It is a figure which shows typically the action of the robot apparatus when a tracking schema and an Approach schema each make a different target a focus. ApproachTargetスキーマが、Trackingスキーマ及びApproachスキーマに対して同じフォーカスを設定した場合のApproachTarget行動のサブツリー構造を示す図である。It is a figure which shows the subtree structure of ApproachTarget action when ApproachTarget schema sets the same focus with respect to Tracking schema and Approach schema. 子供スキーマがORタイプパターンで接続された場合のSearchTarget行動のサブツリー構造を示す図である。It is a figure which shows the subtree structure of SearchTarget action when a child schema is connected by OR type pattern. 子供スキーマがANDタイプパターンで接続された場合のApproachTarget行動のサブツリー構造を示す図である。It is a figure which shows the subtree structure of ApproachTarget action when a child schema is connected by AND type pattern. ApproachTargetスキーマが、子供スキーマに対して同じフォーカスを設定した場合のApproachTarget行動のサブツリー構造を示す図である。It is a figure which shows the subtree structure of an ApproachTarget action when ApproachTarget schema sets the same focus with respect to a child schema. ApproachTargetスキーマが、子供スキーマに対して同じフォーカスを設定した場合のロボット装置の行動を模式的に示す図である。It is a figure which shows typically the action of a robot apparatus when ApproachTarget schema sets the same focus with respect to a child schema. SearchTargetスキーマ、ApproachTargetスキーマ及びDialogueスキーマがSEQUENCEタイプパターンで接続された場合のツリー構造を示す図である。It is a figure which shows a tree structure at the time of SearchTarget schema, ApproachTarget schema, and Dialogue schema being connected by the SEQUENCE type pattern. Approachスキーマの下位にNavigationスキーマが配設された場合のApproachTarget行動のサブツリー構造を示す図である。It is a figure which shows the subtree structure of the ApproachTarget action in case the Navigation schema is arrange | positioned under the Approach schema. Approachスキーマの下位にNavigationスキーマが配設された場合のロボット装置の行動を模式的に示す図である。It is a figure which shows typically the action of the robot apparatus when a Navigation schema is arrange | positioned under the Approach schema. スキーマ間での情報のやりとりを示す図である。It is a figure which shows the exchange of information between schemas. 子供スキーマがORタイプパターンで接続された場合のSearchTarget行動のサブツリー構造を示す図である。It is a figure which shows the subtree structure of SearchTarget action when a child schema is connected by OR type pattern. 子供スキーマがDependOnタイプパターンで接続された場合のApproachTarget行動のサブツリー構造を示す図である。It is a figure which shows the subtree structure of ApproachTarget action when a child schema is connected by the DependOn type pattern. SearchTargetスキーマ、ApproachTargetスキーマ及びKickTargetスキーマがDependOnタイプパターンで接続された場合のツリー構造を示す図である。It is a figure which shows a tree structure at the time of SearchTarget schema, ApproachTarget schema, and KickTarget schema being connected by the DependOn type pattern.

符号の説明Explanation of symbols

1 ロボット装置、2 体幹部ユニット、3 頭部ユニット、4R/L 腕部ユニット、5R/L 脚部ユニット、50 行動制御システム、51 視覚認識機能部、52 聴覚認識機能部、53 接触認識機能部、54 内部状態管理部、55 短期記憶部、56 長期記憶部、57 熟考行動階層、58 状況依存行動階層、59 反射行動部、60 ハードウェア依存行動制御部、61 外部環境   DESCRIPTION OF SYMBOLS 1 Robot apparatus, 2 trunk unit, 3 head unit, 4R / L arm unit, 5R / L leg unit, 50 action control system, 51 visual recognition function part, 52 auditory recognition function part, 53 contact recognition function part , 54 internal state management unit, 55 short-term memory unit, 56 long-term memory unit, 57 contemplation behavior layer, 58 situation-dependent behavior layer, 59 reflex behavior unit, 60 hardware-dependent behavior control unit, 61 external environment

Claims (8)

可動部を有するロボット装置において、
上記可動部を制御する可動部制御手段と、
複数の行動モジュールをノードに持ち木構造形式に構成された行動決定手段とを備え、
上記行動モジュールは、自身に接続される一以上の下位の行動モジュールを独自に実行させるため接続パターンを規定した制御ポリシーを記憶した記憶手段を有し、
上記一以上の下位の行動モジュールは、外部刺激及び内部状態に基づいて算出した該一以上の下位の行動モジュール自身の行動の実行要求度と該一以上の下位の行動モジュール自身の実行に必要な当該ロボット装置のハードウェアのリソースとに関する情報を該一以上の下位の行動モジュールが接続される上位の行動モジュールに伝達し、
上記上位の行動モジュールは、上記一以上の下位の行動モジュールから伝達された上記情報と、該上位の行動モジュール自身の行動の実行要求度と該上位の行動モジュール自身の実行に必要な上記リソースとに関する情報と、上記制御ポリシーに基づいて、該一以上の下位の行動モジュールのうち上記リソースを分配可能な一以上の下位の行動モジュールに、該上位の行動モジュール自身の実行に必要なリソースを除いた残りのリソースを分配するように制御し、
上記可動部制御手段は、上記上位の行動モジュール又は上記一以上の下位の行動モジュールが決定した行動に基づいて、上記可動部を制御するロボット装置。
In a robot apparatus having a movable part,
A movable part control means for controlling the movable part;
A behavior determination means configured in a tree structure format with a plurality of behavior modules as nodes ,
The behavior module includes a storage unit that stores a control policy that defines a connection pattern for uniquely executing one or more lower-level behavior modules connected to the behavior module.
The one or more lower-order behavior modules are necessary for the execution request level of the behavior of the one or more lower-order behavior modules calculated based on the external stimulus and the internal state and the execution of the one or more lower-order behavior modules themselves. Information related to the hardware resource of the robot apparatus is transmitted to a higher-order action module to which the one or more lower-order action modules are connected ;
The higher-order behavior module includes the information transmitted from the one or more lower-order behavior modules, the execution request level of the behavior of the higher-order behavior module itself, and the resources necessary for the execution of the higher-order behavior module itself, information about, on the basis of the above control policy, to one or more subordinate action module capable distribute the resources among the one or more subordinate behavior module, the said upper action module itself the resources required to perform Control to distribute the remaining resources ,
The movable unit control means, based on the level of the action module or the one or more subordinate behavior module has determined action, Carlo bots device controls the moving part.
上記上位の行動モジュールは、上記一以上の下位の行動モジュールのうち上記実行要求度が大きい下位の行動モジュールに、該上位の行動モジュール自身の実行に必要なリソースを除いた残りのリソースを分配するように制御する請求項1記載のロボット装置。The higher-order behavior module distributes the remaining resources excluding resources necessary for the execution of the higher-order behavior module itself to the lower-order behavior module having a high execution request level among the one or more lower-order behavior modules. The robot apparatus according to claim 1, which is controlled as described above. 上記上位の行動モジュールは、上記一以上の下位の行動モジュールのうち、全ての行動モジュールが実行可能である場合に、上記一以上の下位の行動モジュールを実行させるように制御する請求項記載のロボット装置。 Behavior module of the upper, of the one or more subordinate behavior module, when all the behavior modules is executable, Motomeko 1 that controls so as to execute the one or more subordinate behavior module The robot apparatus described. 上記上位の行動モジュールは、上記一以上の下位の行動モジュールのうち、一の行動モジュールの実行が終了した場合に、他の行動モジュールの実行を停止させるように制御する請求項記載のロボット装置。 Behavior module of the upper, of the one or more subordinate behavior module, when the execution of one action module finishes, the Motomeko 1, wherein that control to stop the execution of other behavioral modules Robot device. 可動部を有するロボット装置の行動制御方法において、
行動決定手段が、複数の行動モジュールをノードに持ち上位の行動モジュールに一以上の下位の行動モジュールが接続される木構造形式に構成されており、
上記一以上の下位の行動モジュールが、外部刺激及び内部状態に基づいて算出した該一以上の下位の行動モジュール自身の行動の実行要求度と該一以上の下位の行動モジュール自身の実行に必要な上記ロボット装置のハードウェアのリソースとに関する情報を上記上位の行動モジュールに伝達するステップと、
上記上位の行動モジュールが、上記一以上の下位の行動モジュールから伝達された上記情報と、該上位の行動モジュール自身の行動の実行要求度と該上位の行動モジュール自身の実行に必要な上記リソースとに関する情報と、記憶手段に記憶された該一以上の下位の行動モジュールを独自に実行させるための接続パターンを規定した制御ポリシーに基づいて、該一以上の下位の行動モジュールのうち上記リソースを分配可能な一以上の下位の行動モジュールに、該上位の行動モジュール自身の実行に必要なリソースを除いた残りのリソースを分配するように制御するステップと、
上記上位の行動モジュール又は上記一以上の下位の行動モジュールが決定した行動に基づいて、上記可動部を制御するステップと
を有する行動制御方法。
In a behavior control method of a robot apparatus having a movable part,
The action determination means is configured in a tree structure format in which a plurality of action modules are included in a node and one or more lower-order action modules are connected to a higher-order action module.
The one or more lower-order behavior modules are required for the execution request level of the behavior of the one or more lower-order behavior modules calculated based on the external stimulus and the internal state and the execution of the one or more lower-order behavior modules themselves. Transmitting information about hardware resources of the robotic device to the higher-level action module;
The higher- level behavior module receives the information transmitted from the one or more lower-level behavior modules, the execution request level of the higher-level behavior module itself, and the resources necessary for the execution of the higher-level behavior module itself, information about, based on the control policy which defines the connection pattern for independently executing the stored the one or more subordinate behavior module in the storage means, the resources of the one or more subordinate behavior module the behavior module of one or more lower distributable, and controlling so as to distribute the remaining resources except for the resources needed to run the upper position of the action module itself,
Based on the above upper action module or the one or more subordinate behavior module has determined actions, actions control how having a and controlling the movable portion.
上記上位の行動モジュールは、上記一以上の下位の行動モジュールのうち上記実行要求度が大きい下位の行動モジュールに、該上位の行動モジュール自身の実行に必要なリソースを除いた残りのリソースを分配するように制御する請求項5記載の行動制御方法。The higher-order behavior module distributes the remaining resources excluding resources necessary for the execution of the higher-order behavior module itself to the lower-order behavior module having a high execution request level among the one or more lower-order behavior modules. The behavior control method according to claim 5, wherein control is performed as follows. 上記上位の行動モジュールは、上記一以上の下位の行動モジュールのうち、全ての行動モジュールが実行可能である場合に、上記一以上の下位の行動モジュールを実行させるように制御する請求項記載の行動制御方法。 Behavior module of the upper, of the one or more subordinate behavior module, when all the behavior modules is executable, Motomeko 5 that controls so as to execute the one or more subordinate behavior module The behavior control method described. 上記上位の行動モジュールは、上記一以上の下位の行動モジュールのうち、一の行動モジュールの実行が終了した場合に、他の行動モジュールの実行を停止させるように制御する請求項記載の行動制御方法。 Behavior module of the upper, of the one or more subordinate behavior module, when the execution of one action module finishes, the Motomeko 5, wherein that control to stop the execution of other behavioral modules Behavior control method.
JP2003309262A 2002-09-02 2003-09-01 Robot apparatus and behavior control method thereof Expired - Fee Related JP4449372B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003309262A JP4449372B2 (en) 2002-09-02 2003-09-01 Robot apparatus and behavior control method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002257097 2002-09-02
JP2003309262A JP4449372B2 (en) 2002-09-02 2003-09-01 Robot apparatus and behavior control method thereof

Publications (2)

Publication Number Publication Date
JP2004114285A JP2004114285A (en) 2004-04-15
JP4449372B2 true JP4449372B2 (en) 2010-04-14

Family

ID=32301416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003309262A Expired - Fee Related JP4449372B2 (en) 2002-09-02 2003-09-01 Robot apparatus and behavior control method thereof

Country Status (1)

Country Link
JP (1) JP4449372B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019064730A1 (en) 2017-09-26 2019-04-04 ソニー株式会社 Information processing device, information processing method, and program

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2014425B1 (en) * 2007-07-13 2013-02-20 Honda Research Institute Europe GmbH Method and device for controlling a robot
KR101049743B1 (en) * 2008-12-18 2011-07-19 한양대학교 산학협력단 How to choose the behavior of the robot
US8731714B2 (en) 2010-09-22 2014-05-20 GM Global Technology Operations LLC Concurrent path planning with one or more humanoid robots
EP3214510B1 (en) 2016-03-03 2021-06-30 Magazino GmbH Controlling process of robots having a behavior tree architecture
JP7009939B2 (en) * 2017-11-07 2022-02-10 富士通株式会社 Control programs, control methods and controls
JP7180139B2 (en) * 2018-06-22 2022-11-30 カシオ計算機株式会社 Robot, robot control method and program
WO2023017732A1 (en) * 2021-08-10 2023-02-16 本田技研工業株式会社 Storytelling information creation device, storytelling robot, storytelling information creation method, and program
CN113967913B (en) * 2021-10-22 2024-03-26 中冶赛迪上海工程技术有限公司 Motion planning method and system for steel grabbing device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH085018B2 (en) * 1986-02-26 1996-01-24 株式会社日立製作所 Remote manipulation method and apparatus
JPH08106320A (en) * 1994-10-07 1996-04-23 Hitachi Ltd Automatic machine and control method for automatic machine
JP2001334482A (en) * 2000-03-24 2001-12-04 Sony Corp Robot device and method of determining action of robot device
JP2002160185A (en) * 2000-03-31 2002-06-04 Sony Corp Robot device, behavior controlling method for robot device and device and method for detecting external force

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019064730A1 (en) 2017-09-26 2019-04-04 ソニー株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP2004114285A (en) 2004-04-15

Similar Documents

Publication Publication Date Title
US7103447B2 (en) Robot apparatus, and behavior controlling method for robot apparatus
JP4396273B2 (en) Robot apparatus and control method thereof
US8145492B2 (en) Robot behavior control system and method, and robot apparatus
JP4086024B2 (en) Robot apparatus and behavior control method thereof
KR101137205B1 (en) Robot behavior control system, behavior control method, and robot device
US7024276B2 (en) Legged mobile robot and its motion teaching method, and storage medium
US6493606B2 (en) Articulated robot and method of controlling the motion of the same
JP3714268B2 (en) Robot device
JP2001277163A (en) Device and method for controlling robot
JP4239635B2 (en) Robot device, operation control method thereof, and program
JP2005193331A (en) Robot device and its emotional expression method
JP2004110802A (en) Device, method for identifying environment, program, recording medium and robot device
JP2002144260A (en) Leg type moving robot and its control method
JP4449372B2 (en) Robot apparatus and behavior control method thereof
JP2003334785A (en) Robot behavior control system and behavior control method and robot device
JP4281286B2 (en) Robot apparatus and control method thereof
JP2003111981A (en) Robot device and its controlling method, information providing system and information providing method for robot and storing media
JP2002059384A (en) Learning system and learning method for robot
JP2003266352A (en) Robot device and control method therefor
JP4506249B2 (en) Robot apparatus and operation comparison method thereof
JP2002205290A (en) Device and method for controlling leg type mobile robot
JP2005321954A (en) Robot device, information processing system, information processing method, and computer program
JP2004209599A (en) Robot device, action learning method for robot device and action preparation method for robot device
JP4552490B2 (en) Robot apparatus and emotion control method thereof
JP2005014144A (en) Robot apparatus and method for controlling movement of the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090929

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100118

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140205

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees