JP3501123B2 - Robot apparatus and behavior control method for robot apparatus - Google Patents
Robot apparatus and behavior control method for robot apparatusInfo
- Publication number
- JP3501123B2 JP3501123B2 JP2000403392A JP2000403392A JP3501123B2 JP 3501123 B2 JP3501123 B2 JP 3501123B2 JP 2000403392 A JP2000403392 A JP 2000403392A JP 2000403392 A JP2000403392 A JP 2000403392A JP 3501123 B2 JP3501123 B2 JP 3501123B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- instinct
- emotion
- recognition
- oriented design
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、生体のように自然
な動作をするロボット装置、及びそのようなロボット装
置の行動制御方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot apparatus that naturally operates like a living body, and a behavior control method for such a robot apparatus.
【0002】[0002]
【従来の技術】従来より、犬や猫のような多足生体物を
形取ったロボット装置が開発されている。このような従
来から提案されているロボット装置は、予めプログラム
されて決められた作業のみを黙々と続けるものや、単純
なシーケンスに沿った振る舞いしか行うことができなか
った。2. Description of the Related Art Conventionally, a robot apparatus having a multi-legged biological object such as a dog or a cat has been developed. Such a conventionally proposed robot apparatus has only been capable of silently continuing only a pre-programmed and determined task, or performing a behavior along a simple sequence.
【0003】[0003]
【発明が解決しようとする課題】ところで、携帯端末の
中で感情モデルを搭載した仮想ペットを飼うものもある
が、このような仮想ペットは実世界で動き回ることはで
きないため、リアリティや生命感に欠けていた。By the way, there are some portable terminals that keep a virtual pet equipped with an emotion model. However, such a virtual pet cannot move around in the real world, so that it may cause a difference in reality and life. Was missing.
【0004】 そこで、本発明は、上述の実情に鑑みて
提案されたものであり、実世界でリアリティや生命感を
もって行動することができるロボット装置及びロボット
装置の行動制御方法を提供することを目的とする。Therefore, the present invention has been proposed in view of the above circumstances, and an object of the present invention is to provide a robot apparatus and a behavior control method for the robot apparatus capable of acting with a sense of reality and life in the real world. And
【0005】[0005]
【課題を解決するための手段】本発明に係るロボット装
置は、多関節駆動部を有するロボット装置において、入
力情報を認識し、認識結果を通知するオブジェクト指向
設計により構成された複数の認識オブジェクトを保持す
る手段と、各上記複数の認識オブジェクトと相互に情報
のやり取りをすることで上記認識結果が入力され、上記
認識結果に応じて感情レベルを変化させる複数の感情パ
ラメータを有する、オブジェクト指向設計により構成さ
れることによりモジュール化された感情モデルオブジェ
クトを保持する手段と、上記感情モデルオブジェクトと
相互に情報のやり取りをすることで上記感情モデルオブ
ジェクトからの情報に基づいて、上記多関節駆動部を制
御することによりロボット装置を行動させるオブジェク
ト指向設計により構成された行動生成オブジェクトを保
持する手段とを備え、上記行動生成オブジェクトの出力
に基づいて、上記多関節駆動部を制御する制御手段を有
することを特徴とする。A robot apparatus according to the present invention, in a robot apparatus having an articulated drive unit, recognizes a plurality of recognition objects configured by an object-oriented design for recognizing input information and notifying a recognition result. The recognition result is input by exchanging information between the holding means and each of the plurality of recognition objects, and having a plurality of emotion parameters for changing the emotion level according to the recognition result, by object-oriented design A means for holding a modularized emotion model object by configuring, and controlling the multi-joint drive unit based on information from the emotion model object by exchanging information with the emotion model object. By object-oriented design that makes the robot act by doing And means for holding made behavioral generated object, based on the output of the behavior generation object, and having a control means for controlling the multi-joint driving unit.
【0006】 また、本発明に係るロボット装置は、多
関節駆動部を有するロボット装置において、内部状態を
認識し、認識結果を通知するオブジェクト指向設計によ
り構成された複数の認識オブジェクトを保持する手段
と、各上記複数の認識オブジェクトと相互に情報のやり
取りをすることで上記認識結果が入力され、上記認識結
果に応じて本能レベルを変化させる複数の本能パラメー
タを有する、オブジェクト指向設計により構成されるこ
とによりモジュール化された本能モデルオブジェクトを
保持する手段と、上記本能モデルオブジェクトと相互に
情報のやり取りをすることで上記本能モデルオブジェク
トからの情報に基づいて、上記多関節駆動部を制御する
ことによりロボット装置を行動させるオブジェクト指向
設計により構成された行動生成オブジェクトを保持する
手段とを備え、上記行動生成オブジェクトの出力に基づ
いて、上記多関節駆動部を制御する制御手段を有するこ
とを特徴とする。Further, the robot apparatus according to the present invention is a robot apparatus having an articulated drive unit, which holds a plurality of recognition objects configured by an object-oriented design for recognizing an internal state and notifying a recognition result. , The object having the plurality of instinct parameters for inputting the recognition result by exchanging information with each of the plurality of recognition objects and changing the instinct level according to the recognition result. And a means for holding a modular instinct model object, and by exchanging information with the instinct model object, the robot is controlled by controlling the articulated drive unit based on the information from the instinct model object. Constructed by object-oriented design to make the device act Means for holding the action generation object, and control means for controlling the multi-joint drive unit based on the output of the action generation object.
【0007】 また、本発明に係るロボット装置は、多
関節駆動部を有するロボット装置において、入力情報又
は内部状態を認識し、認識結果を通知するオブジェクト
指向設計により構成された複数の認識オブジェクトを保
持する手段と、各上記複数の認識オブジェクトと相互に
情報のやり取りをすることで上記認識結果が入力され、
上記認識結果に応じて感情レベルを変化させる複数の感
情パラメータを有する、オブジェクト指向設計により構
成されることによりモジュール化された感情モデルオブ
ジェクト、又は、各上記複数の認識オブジェクトと相互
に情報のやり取りをすることで上記認識結果が入力さ
れ、上記認識結果に応じて本能レベルを変化させる複数
の本能パラメータを有する、オブジェクト指向設計によ
り構成されることによりモジュール化された本能モデル
オブジェクトを保持する手段と、上記感情モデルオブジ
ェクト又は上記本能モデルオブジェクトと相互に情報の
やり取りをすることで、上記感情モデルオブジェクトか
らの情報に基づいて又は上記本能モデルオブジェクトか
らの情報に基づいて、上記多関節駆動部を制御すること
によりロボット装置を行動させるオブジェクト指向設計
により構成された行動生成オブジェクトを保持する手段
とを備え、上記行動生成オブジェクトの出力に基づい
て、上記多関節駆動部を制御する制御手段を有すること
を特徴とする。Further, a robot apparatus according to the present invention is a robot apparatus having an articulated drive unit, which holds a plurality of recognition objects configured by an object-oriented design for recognizing input information or an internal state and notifying a recognition result. And the recognition result is input by mutually exchanging information with each of the plurality of recognition objects.
Having a plurality of emotion parameters that change the emotion level according to the recognition result, an emotion model object modularized by being configured by object-oriented design, or exchanging information with each of the plurality of recognition objects. The recognition result is input by doing, having a plurality of instinct parameters that change the instinct level according to the recognition result, means for holding a modularized instinct model object by being configured by object-oriented design, By exchanging information with the emotion model object or the instinct model object, the multi-joint drive unit is controlled based on information from the emotion model object or information from the instinct model object. Robot equipment by And means for holding the behavior generation object constituted by an object-oriented design to act, based on the output of the behavior generation object, characterized in that it has a control means for controlling the multi-joint driving unit.
【0008】 また、本発明に係るロボット装置の行動
制御方法は、多関節駆動部を有するロボット装置の制御
方法において、オブジェクト指向設計により構成され入
力情報を認識し認識結果を通知する複数の認識オブジェ
クトと相互に情報のやり取りをすることで、上記複数の
認識オブジェクトからの認識結果が、オブジェクト指向
設計により構成された感情モデルオブジェクトに入力さ
れる工程と、上記感情モデルオブジェクトに入力された
上記認識オブジェクトの認識結果の情報に応じて感情レ
ベルを変化させる工程と、上記感情モデルオブジェクト
と相互に情報のやり取りをすることで上記感情モデルオ
ブジェクトからの情報に基づいて、オブジェクト指向設
計により構成された行動生成オブジェクトが上記多関節
駆動部を制御することによりロボット装置を行動させる
工程とを有することを特徴とする。Further, a behavior control method for a robot apparatus according to the present invention is a method for controlling a robot apparatus having an articulated drive unit, wherein a plurality of recognition objects configured by object-oriented design, recognizing input information, and notifying a recognition result. A step of inputting a recognition result from the plurality of recognition objects by mutually exchanging information with the emotion model object configured by object-oriented design, and the recognition object input to the emotion model object. Changing the emotion level according to the information of the recognition result, and the action generation configured by the object-oriented design based on the information from the emotion model object by exchanging information with the emotion model object. The object controls the articulated drive. And a step of causing the robot apparatus to act by the following.
【0009】 また、本発明に係るロボット装置の行動
制御方法は、多関節駆動部を有するロボット装置の制御
方法において、オブジェクト指向設計により構成され内
部状態を認識し認識結果を通知する複数の認識オブジェ
クトと相互に情報のやり取りをすることで、上記複数の
認識オブジェクトからの認識結果が、オブジェクト指向
設計により構成された本能モデルオブジェクトに入力さ
れる工程と、上記本能モデルオブジェクトに入力された
上記認識オブジェクトの認識結果の情報に応じて本能レ
ベルを変化させる工程と、上記本能モデルオブジェクト
と相互に情報のやり取りをすることで上記本能モデルオ
ブジェクトからの情報に基づいて、オブジェクト指向設
計により構成された行動生成オブジェクトが上記多関節
駆動部を制御することによりロボット装置を行動させる
工程とを有することを特徴とする。In addition, a behavior control method for a robot apparatus according to the present invention is a method for controlling a robot apparatus having an articulated drive unit, wherein a plurality of recognition objects configured by object-oriented design for recognizing an internal state and notifying a recognition result are provided. By exchanging information with each other, the recognition result from the plurality of recognition objects is input to the instinct model object configured by object-oriented design, and the recognition object input to the instinct model object. The process of changing the instinct level according to the information of the recognition result, and the action generation configured by the object-oriented design based on the information from the instinct model object by exchanging information with the instinct model object. The object controls the articulated drive. And a step of causing the robot apparatus to act by the following.
【0010】 さらに、本発明に係るロボット装置の行
動制御方法は、多関節駆動部を有するロボット装置の制
御方法において、オブジェクト指向設計により構成され
入力情報又は内部状態を認識し認識結果を通知する複数
の認識オブジェクトと相互に情報のやり取りをすること
で、上記複数の認識オブジェクトからの認識結果がオブ
ジェクト指向設計により構成された感情モデルオブジェ
クトに入力され、又は上記複数の認識オブジェクトから
の認識結果がオブジェクト指向設計により構成された本
能モデルオブジェクトに入力される工程と、上記感情モ
デルオブジェクトに入力された上記認識オブジェクトの
認識結果の情報に応じて感情レベルを変化させ、又は、
上記本能モデルオブジェクトに入力された上記認識オブ
ジェクトの認識結果の情報に応じて本能レベルを変化さ
せる工程と、上記感情モデルオブジェクト又は上記本能
モデルオブジェクトと相互に情報のやり取りをすること
で、上記感情モデルオブジェクトからの情報に基づいて
又は上記本能モデルオブジェクトからの情報に基づい
て、上記多関節駆動部を制御することによりロボット装
置を行動させる工程とを有することを特徴とする。Further, a behavior control method for a robot apparatus according to the present invention is a method for controlling a robot apparatus having an articulated drive unit, wherein a plurality of objects configured by object-oriented design are provided for recognizing input information or internal states and notifying a recognition result. By mutually exchanging information with the recognition object, the recognition result from the plurality of recognition objects is input to the emotion model object configured by object-oriented design, or the recognition result from the plurality of recognition objects is an object. A step of inputting to the instinct model object configured by directional design, and changing the emotion level according to the information of the recognition result of the recognition object input to the emotion model object, or
Changing the instinct level according to the information of the recognition result of the recognition object input to the instinct model object, and exchanging information with the emotion model object or the instinct model object, whereby the emotion model Based on the information from the object or based on the information from the instinct model object, the robot apparatus is caused to act by controlling the multi-joint driving unit.
【0011】[0011]
【発明の実施の形態】以下、本発明の実施の形態につい
て、図面を参照しながら説明する。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.
【0012】本発明は、例えば図1に示す構成のロボッ
ト装置1に適用される。 上記ロボット装置1は、シス
テム全体を制御する中央処理演算部(Central Processi
ng Unit:以下、「CPU」という。)11と、例えば
CCD(Charge Coupled Device)イメージセンサを有
するビデオカメラ12と、ビデオカメラ12からのビデ
オデータ等を記憶する記憶部13と、シリアルバスのホ
ストコントローラ等を1つにまとめた大規模集積回路
(Large‐Scale Integrated circuit:以下、「LS
I」という。)14とを備える。The present invention is applied to, for example, the robot apparatus 1 having the configuration shown in FIG. The robot apparatus 1 has a central processing unit (Central Processi) for controlling the entire system.
ng Unit: Hereinafter referred to as "CPU". ) 11, a video camera 12 having, for example, a CCD (Charge Coupled Device) image sensor, a storage unit 13 for storing video data and the like from the video camera 12, a host controller of a serial bus, etc. Large-Scale Integrated circuit: Below, "LS
I ". ) 14 and.
【0013】LSI14は、例えばシリアル通信,パラ
レル通信,USB通信等のインターフェースからなる通
信部14aを有し、この通信部14aを介して外部のパ
ーソナルコンピュータ100と接続される。このとき、
パーソナルコンピュータ100は、LSI14を介し
て、例えばCPU11を動作させるプログラムを変更し
たり、その操作を行うことができる。The LSI 14 has a communication section 14a including an interface for serial communication, parallel communication, USB communication, etc., and is connected to an external personal computer 100 via this communication section 14a. At this time,
The personal computer 100 can change, for example, a program for operating the CPU 11 or perform an operation via the LSI 14.
【0014】LSI14は、PCカードインターフェー
ス15を介して、PCカード規格等の様々なデバイス、
例えばPCカードスロットに挿入されるATA(Advanc
ed Technology Attachment)フラッシュメモリカード等
の記憶装置200や無線通信カード等の通信装置300
と接続される。The LSI 14 is connected to various devices such as the PC card standard via the PC card interface 15.
For example, ATA (Advanc
ed Technology Attachment) Storage device 200 such as a flash memory card or communication device 300 such as a wireless communication card
Connected with.
【0015】記憶装置200には、感情ユニットの感情
レベルや本能ユニットの本能レベルを制御するための各
種パラメータが記憶されている。具体的には、感情ユニ
ットの感情レベルを変化させて制御するための要素とな
る感情パラメータ,入力作用パラメータ,減衰パラメー
タ,相互作用パラメータ等が記憶されている。また、本
能ユニットの本能レベルを変化させて制御するための要
素となる本能パラメータ,入力作用パラメータ,増加パ
ラメータ等も記憶されている。実行時には、記憶装置2
00からこれらのパラメータが読み出されて使用され
る。The storage device 200 stores various parameters for controlling the emotion level of the emotion unit and the instinct level of the instinct unit. Specifically, emotion parameters, input action parameters, decay parameters, interaction parameters, etc., which are elements for changing and controlling the emotion level of the emotion unit, are stored. Further, instinct parameters, input action parameters, increase parameters, etc., which are elements for changing and controlling the instinct level of the instinct unit, are also stored. At the time of execution, the storage device 2
These parameters are read from 00 and used.
【0016】上記LSI14は、リアルタイムの時間情
報を得るための図示しないタイマと、バッテリーの残量
の管理やタイマと連係してある時間にパワーオンとする
等の制御を行うための図示しないバッテリマネージャを
備える。The LSI 14 is provided with a timer (not shown) for obtaining real-time time information, and a battery manager (not shown) for controlling the remaining amount of the battery and for controlling power-on at a time associated with the timer. Equipped with.
【0017】また、上記ロボット装置1は、手足,耳,
口等を構成する第1から第4のCPC(Configurable T
echnology Attachment)デバイス20,30,40,5
0とを備える。各CPCデバイスは、LSI14内のシ
リアルバスハブ(SBH)14bに接続されている。こ
こでは、CPCデバイスを4つ示しているが、その数は
特に限定されるものではないのは勿論である。In addition, the robot apparatus 1 has limbs, ears,
The first to fourth CPCs (Configurable TPCs) that configure the mouth, etc.
echnology Attachment) Device 20, 30, 40, 5
With 0 and. Each CPC device is connected to a serial bus hub (SBH) 14b in the LSI 14. Here, four CPC devices are shown, but it goes without saying that the number thereof is not particularly limited.
【0018】第1のCPCデバイス20は、LSI14
からの制御命令に応じて当該デバイス内の各回路を制御
するハブ21と、制御信号や検出信号等を一時記憶して
おくメモリ22と、加速度を検出する加速度センサ23
と、ポテンショメータ(potentiometer)24と、関節
等の役割を果たすアクチュエータ25とを備える。加速
度センサ23は、数十ミリ秒単位で3軸方向の加速度を
それぞれ検出し、この検出結果を、ハブ21,シリアル
バスハブ14bを介して、CPU11に供給する。The first CPC device 20 is the LSI 14
A hub 21 that controls each circuit in the device according to a control command from the device, a memory 22 that temporarily stores a control signal and a detection signal, and an acceleration sensor 23 that detects acceleration.
, A potentiometer 24, and an actuator 25 serving as a joint or the like. The acceleration sensor 23 detects accelerations in the directions of the three axes in units of several tens of milliseconds, and supplies the detection results to the CPU 11 via the hub 21 and the serial bus hub 14b.
【0019】第2のCPCデバイス30は、ハブ31
と、メモリ32と、回転角速度を検出する回転角速度セ
ンサ33と、ポテンショメータ34と、アクチュエータ
35とを備える。回転角速度センサ33は、数十ミリ秒
単位で3軸方向の回転角速度を検出し、この検出結果
を、ハブ31,シリアルバスハブ14bを介して、LS
I14に供給する。The second CPC device 30 includes a hub 31.
A memory 32, a rotational angular velocity sensor 33 that detects a rotational angular velocity, a potentiometer 34, and an actuator 35. The rotational angular velocity sensor 33 detects the rotational angular velocity in the three axial directions in units of several tens of milliseconds, and the detection result is sent to the LS via the hub 31 and the serial bus hub 14b.
Supply to I14.
【0020】第3のCPCデバイス40は、ハブ41
と、メモリ42と、例えば発光することによって外部か
ら刺激を受けたことを示す発光ダイオード(LED)4
3と、回部と接触したか否かを検出するタッチセンサ4
4とを備える。The third CPC device 40 includes a hub 41.
And a memory 42 and a light-emitting diode (LED) 4 that indicates that a stimulus is received from the outside by, for example, emitting light.
3 and a touch sensor 4 for detecting whether or not the contact portion is in contact
4 and.
【0021】第4のCPCデバイス50は、ハブ51
と、メモリ52と、外部に音声を出力する「口」の役割
を果たすスピーカ53と、外部の音声を検出する「耳」
の役割を果たすマイク54とを備える。The fourth CPC device 50 includes a hub 51.
And a memory 52, a speaker 53 that plays a role of "mouth" that outputs sound to the outside, and an "ear" that detects outside sound.
And a microphone 54 that plays a role of.
【0022】上記ロボット装置1の外観は、多足歩行ロ
ボットからなる。すなわち、上記ロボット装置1は、多
足歩行の多関節型ロボットであって、4本足を有する動
物の形をしている。なお、ロボット装置は、これに限定
されるものではなく、例えば、2足歩行の多関節型ロボ
ットであってもよい。The appearance of the robot apparatus 1 is a multi-legged walking robot. That is, the robot apparatus 1 is a multi-legged, multi-joint robot and has the shape of an animal having four legs. The robot device is not limited to this, and may be, for example, a bipedal articulated robot.
【0023】なお、上述した加速度センサ23は、X
軸,Y軸,Z軸方向についての加速度を検出する。回転
角速度センサ33は、X軸,Y軸,Z軸を回転軸として
回転するときのR角,P角,Y角についての回転角速度
を検出する。The acceleration sensor 23 described above is
Acceleration in the axis, Y-axis, and Z-axis directions is detected. The rotational angular velocity sensor 33 detects rotational angular velocities for the R angle, P angle, and Y angle when rotating around the X axis, Y axis, and Z axis.
【0024】上記ロボット装置1を制御するプログラム
は、図2に示すように、階層化して設計されている。上
記プログラムは、具体的には、上述した構成のハードウ
ェアで動作する組込用リアルタイムOS(Operating Sy
stem)の上に、システムソフトウェア,ミドルウェア,
アプリケーションの3層が形成されることにより構成さ
れる。The program for controlling the robot apparatus 1 is designed in a hierarchical structure as shown in FIG. Specifically, the program is an embedded real-time OS (Operating Sy) operating on the hardware having the above-described configuration.
stem), system software, middleware,
It is constructed by forming three layers of applications.
【0025】システムソフトウェア層は、例えばデバイ
スを直接制御するデバイスドライバと、上位層のオブジ
ェクトへサービスを提供するサーバオブジェクトによっ
て構成される。The system software layer is composed of, for example, a device driver that directly controls a device and a server object that provides a service to an object in an upper layer.
【0026】ミドルウェア層は、例えば、画像、音、接
触などのセンサ情報を処理する認識オブジェクトと、歩
行や姿勢などのロボットの運動制御を行う運動制御オブ
ジェクトと、手足や頭、尻尾を動かして表現をする動作
生成オブジェクトから構成される。The middleware layer represents, for example, a recognition object that processes sensor information such as an image, a sound, and a contact, a motion control object that controls the motion of the robot such as walking and posture, and a limb, a head, and a tail. It consists of a motion generation object that does.
【0027】アプリケーション層は、例えば学習を行う
学習オブジェクトと、感情や本能を取り扱う感情・本能
モデルオブジェクトと、振る舞いを決定する行動生成オ
ブジェクトと、このロボット装置全体を特徴づけるシナ
リオオブジェクトから構成される。The application layer is composed of, for example, a learning object for learning, an emotion / instinct model object for handling emotions and instinct, an action generation object for determining behavior, and a scenario object for characterizing the entire robot apparatus.
【0028】上記感情・本能モデルオブジェクトは、感
情モジュールと、本能モジュールとを備える。感情モジ
ュールは、データとして複数種類の感情ユニットを取り
扱う。感情ユニットは、例えば、現在の感情のレベル
(以下、「感情レベル」という。)と、最小感情レベル
と、最大感情レベルと、感情を通知する基準となる閾値
とから構成される。感情ユニットは、取り扱う感情の種
類だけ用意され、例えば喜び、悲しみ、怒り、恐怖、驚
き、嫌悪などの感情より構成される。これらの各感情レ
ベルは、最初に感情パラメータの値によって初期化さ
れ、その後、認識オブジェクト等の外部からの情報や時
間の経過に従って変化する。The emotion / instinct model object includes an emotion module and an instinct module. The emotion module handles a plurality of types of emotion units as data. The emotion unit includes, for example, a current emotion level (hereinafter, referred to as “emotion level”), a minimum emotion level, a maximum emotion level, and a threshold serving as a reference for notifying emotions. The emotion unit includes only emotions to be handled, and is composed of emotions such as joy, sadness, anger, fear, surprise, and disgust. Each of these emotional levels is first initialized by the value of the emotional parameter, and then changes according to information from the outside such as the recognition object or the passage of time.
【0029】各感情ユニットは、互いに感情レベルを高
め合ったり低くし合ったりして、影響し合う性質を備え
る。例えば、悲しみの感情ユニットの感情レベルが高い
ときは、怒りの感情ユニットの感情レベルが高くなる。
また、喜びの感情ユニットの感情レベルが高いときは、
怒りや嫌悪の感情ユニットの感情レベルは低くなる。な
お、上述した感情ユニットは、一例であり、これに限定
されるものではない。Each emotional unit has the property of affecting each other by raising or lowering the emotional level. For example, when the emotional level of the sadness emotional unit is high, the emotional level of the anger emotional unit is high.
Also, when the emotion level of the joy emotion unit is high,
Anger and disgust emotional units have lower emotional levels. The emotion unit described above is an example, and the present invention is not limited to this.
【0030】本能モジュールは、感情モジュールと同様
に、データとして本能ユニットを取り扱っている。本能
ユニットは、例えば、現在の本能のレベル(以下、「本
能レベル」という。)と、最小本能レベルと、最大本能
レベルと、本能を通知する基準となる閾値とから構成さ
れる。本能ユニットは、取り扱う本能の種類だけ用意さ
れ、例えば、食欲,運動欲,休息欲,愛情欲,知識欲,
性欲等の本能欲求により構成される。これらの各本能レ
ベルは、最初に本能パラメータの値によって初期化さ
れ、その後、認識オブジェクト等の外部からの情報や時
間の経過に従って変化する。なお、各本能ユニットは、
感情ユニットの場合と異なり、互いに本能レベルを高め
合うことはない。ただし、本能モジュールと感情モジュ
ールとは互いに影響し合ってもよい。例えば、本能とし
て「お腹がすいている」ときに、「怒る」といった感情
になり易いといったようにである。Like the emotion module, the instinct module handles the instinct unit as data. The instinct unit includes, for example, a current instinct level (hereinafter, referred to as “instinct level”), a minimum instinct level, a maximum instinct level, and a threshold value serving as a reference for notifying the instinct. The instinct unit is prepared according to the type of instinct to be handled, such as appetite, exercise, rest, love, knowledge,
It is composed of instinctual desires such as sexual desire. Each of these instinct levels is first initialized by the value of the instinct parameter, and then changes with the information from the outside such as the recognition object and the passage of time. In addition, each instinct unit,
Unlike the emotional units, they do not enhance each other's instinct levels. However, the instinct module and the emotion module may influence each other. For example, as an instinct, when "being hungry", it is easy to feel "angry".
【0031】上述した各オブジェクトは、オブジェクト
指向の設計により構成され、上層にあるか下層にあるか
に関係なく、他のオブジェクトからの情報を受けてそれ
に応じて状態に変化が生じると共に、自己の状態に応じ
た情報を他のオブジェクトに対して出力する。すなわ
ち、各オブジェクト間で、相互に情報のやり取りが行わ
れて影響し合っている。なお、このようなオブジェクト
としては、生体行動の要因となるもの(例えば、学習,
思考,認識)や、生体行動を行うための手段(手足,関
節,運動制御)等、生体行動に関する様々な要素を適用
することができる。Each of the above-mentioned objects is constructed by an object-oriented design. Regardless of whether it is in the upper layer or in the lower layer, it receives information from other objects and changes its state accordingly, Outputs information according to the state to other objects. That is, information is exchanged between the objects and influences each other. It should be noted that such an object is one that causes a biological action (for example, learning,
It is possible to apply various elements related to biological action such as thinking and recognition) and means for performing biological action (limbs, joints, motion control).
【0032】つぎに、上記感情モジュールの出力に基づ
いて行動を起こす場合について説明する。感情モジュー
ルは、外部情報が入力されることによって各感情ユニッ
トの感情レベルが変化する場合と、時間の経過によって
自らその感情レベルが変化する場合とがある。Next, a case where an action is taken based on the output of the emotion module will be described. The emotion module may change the emotion level of each emotion unit by inputting external information, or may change the emotion level by itself over time.
【0033】最初に、上述した認識オブジェクトは、ハ
ードウェアである図1に示した第1から第4のCPCデ
バイス20,30,40,50の各種センサ情報とし
て、例えば色センサによる画像の色情報,音センサによ
るスピーカの音情報,接触センサによるの接触情報等の
入力情報を取り扱う。そして、認識オブジェクトは、通
知すべき情報を認識すると、図3に示すように、かかる
認識結果の情報を感情・本能モデルオブジェクトの感情
モジュールに通知する。First, the above-described recognition object is various sensor information of the first to fourth CPC devices 20, 30, 40, 50 shown in FIG. 1 which is hardware, for example, color information of an image by a color sensor. , Handles input information such as speaker sound information by the sound sensor and contact information by the contact sensor. Then, when the recognition object recognizes the information to be notified, as shown in FIG. 3, the recognition object notifies the emotion module of the emotion / instinct model object of the information on the recognition result.
【0034】感情モジュールは、認識オブジェクトから
情報が入力されると、図4に示すように、入力される情
報の種別を判別し(ステップST1)、その入力された
情報に応じたパラメータを用いて、各感情ユニットの感
情レベルを変化させる(ステップST2)。そして、感
情モジュールは、感情レベルが閾値を超えている感情ユ
ニットのうち、感情レベルが最大となっている感情ユニ
ットを選択する。選択された感情ユニットは、その情報
を、例えば行動生成オブジェクト等、出力を要求してい
るオブジェクトに対して通知する。なお、出力を要求し
ているオブジェクトは、オブジェクト指向のオブザーバ
ーパターンにより、感情モジュールへオブザーバーとし
て、自身を登録しておく必要がある。また、感情モジュ
ールは、本能モジュールが欲求不満を解消したメッセー
ジを受け取るなど、直接センサ情報を扱わないオブジェ
クトからの入力も受け付けることもある。When information is input from the recognition object, the emotion module determines the type of the input information as shown in FIG. 4 (step ST1) and uses the parameters according to the input information. , The emotion level of each emotion unit is changed (step ST2). Then, the emotion module selects the emotion unit having the maximum emotion level among the emotion units having the emotion level exceeding the threshold value. The selected emotional unit notifies the information to the object requesting the output, such as the action generation object. The object requesting output needs to register itself as an observer in the emotion module according to the object-oriented observer pattern. The emotion module may also accept input from an object that does not directly handle sensor information, such as receiving a message that the instinct module has resolved frustration.
【0035】行動生成オブジェクトは、動作生成オブジ
ェクト等を介して、ハードウェアを制御する。すなわ
ち、図1に示す第1から第4のCPCデバイス20,3
0,40,50を制御して、例えば手足,頭,尻尾等を
用いた動作や、音の発生,LEDの点滅間隔等を行っ
て、感情を表現する。The action generation object controls the hardware via the action generation object or the like. That is, the first to fourth CPC devices 20, 3 shown in FIG.
By controlling 0, 40, 50, for example, an operation using a limb, a head, a tail, etc., sound generation, LED blinking intervals, etc. are performed to express an emotion.
【0036】一方、感情モジュールは、時間が経過して
いくと、図5に示すステップST11以下の処理を実行
する。On the other hand, the emotion module executes the processing of step ST11 and subsequent steps shown in FIG. 5 as time passes.
【0037】ステップST11において、感情モジュー
ルは、感情レベルやパラメータの初期化を行って、ステ
ップST12に進む。In step ST11, the emotion module initializes emotion level and parameters, and proceeds to step ST12.
【0038】ステップST12において、感情モジュー
ルは、LSI14の有するタイマを用いて一定時間が経
過したかを判定し、一定時間が経過していないときはス
テップST12に待機し、一定時間が経過したときはス
テップST13に進む。In step ST12, the emotion module uses the timer of the LSI 14 to determine whether or not a fixed time has elapsed. If the fixed time has not elapsed, the emotion module waits in step ST12, and if the fixed time has elapsed, It proceeds to step ST13.
【0039】ステップST13において、感情モジュー
ルは、各感情ユニットの感情レベルを減衰させて、ステ
ップST14に進む。なお、減衰の大きさは、記憶部1
3に記憶されている減衰パラメータによって決定され
る。In step ST13, the emotion module attenuates the emotion level of each emotion unit, and proceeds to step ST14. It should be noted that the magnitude of the attenuation depends on the storage unit 1.
Determined by the damping parameter stored in 3.
【0040】ステップST14において、感情モジュー
ルは、各感情相互の抑制/刺激により感情レベルを変化
させて、ステップST15に進む。例えば、恐怖が大き
いときは喜びは小さくなったり、嫌悪が大きいときは怒
りも大きくなったりする。なお、相互作用の関係やその
大きさは、記憶部13に記憶されている相互パラメータ
によって決定される。In step ST14, the emotion module changes the emotion level by suppressing / stimulating each emotion, and proceeds to step ST15. For example, when fear is large, joy is small, and when dislike is large, anger is large. The interaction relationship and its magnitude are determined by the mutual parameters stored in the storage unit 13.
【0041】ステップST15において、感情モジュー
ルは、閾値を超えている感情ユニットがあるかを判定
し、かかる感情ユニットがないときはステップST12
に戻り、かかる感情ユニットがあるときはステップST
16に進む。In step ST15, the emotion module determines whether or not there is an emotion unit exceeding the threshold value, and if there is no such emotion unit, step ST12.
If there is such an emotional unit, go to step ST
Proceed to 16.
【0042】ステップST16において、感情モジュー
ルは、閾値を超えている感情ユニットのうち、感情レベ
ルが最大の感情ユニットを選択して、ステップST17
に進む。In step ST16, the emotion module selects the emotion unit having the highest emotion level from the emotion units exceeding the threshold value, and in step ST17.
Proceed to.
【0043】ステップST17において、感情モジュー
ルは、選択した感情ユニットの情報を行動生成オブジェ
クトに対して通知する。選択された感情ユニットは、そ
の情報を、例えば行動生成オブジェクト等、出力を要求
しているオブジェクトに対して通知する。なお、感情モ
ジュールは、本能モジュールが欲求不満を解消したメッ
セージを受け取るなど、直接センサ情報を扱わないオブ
ジェクトからの入力も受け付けることもある。In step ST17, the emotion module notifies the action generation object of information on the selected emotion unit. The selected emotional unit notifies the information to the object requesting the output, such as the action generation object. Note that the emotion module may also accept input from an object that does not directly handle sensor information, such as receiving a message that the instinct module has resolved frustration.
【0044】行動生成オブジェクトは、動作生成オブジ
ェクト等を介して、ハードウェアを制御する。すなわ
ち、図1に示す第1から第4のCPCデバイス20,3
0,40,50を制御して、例えば手足,頭,尻尾等を
用いた動作や、音の発生,LEDの点滅間隔等を行っ
て、感情を表現する。そして、再び、ステップST12
に戻る。The action generation object controls the hardware via the action generation object or the like. That is, the first to fourth CPC devices 20, 3 shown in FIG.
By controlling 0, 40, 50, for example, an operation using a limb, a head, a tail, etc., sound generation, LED blinking intervals, etc. are performed to express an emotion. Then, again, step ST12
Return to.
【0045】このようにして、感情モジュールは、外部
情報又は内部変化により感情レベルが変化した各感情ユ
ニットのうち、感情レベルが最大の感情ユニットの情報
を他のオブジェクトに通知することによって、様々の感
情が互いに入り組んだときの状態を行動生成オブジェク
トに通知することができる。行動生成オブジェクトは、
感情モジュールからの情報に基づいて、システムソフト
ウェア,OSを介して、ハードウェアである第1から第
4のCPCデバイス20,30,40,50を制御す
る。In this way, the emotion module notifies various objects of the emotion unit having the maximum emotion level among the emotion units whose emotion level has changed due to external information or internal change, thereby making it possible to perform various operations. It is possible to notify the action generation object of the state when the emotions are intricate with each other. The action generation object is
Based on the information from the emotion module, the first to fourth CPC devices 20, 30, 40, 50, which are hardware, are controlled via system software and OS.
【0046】以上のように、上記ロボット装置1では、
感情モジュールは、各感情が複雑に有機的に関連してい
るときの最も感情レベルの高い感情ユニットの情報を、
行動生成オブジェクトに通知することによって、そのと
きの状況に応じた最適な感情表現を実現することができ
る。As described above, in the robot device 1,
The emotion module contains information on the emotional unit with the highest emotional level when each emotion is intricately and organically related,
By notifying the action generation object, it is possible to realize an optimal emotional expression according to the situation at that time.
【0047】上記ロボット装置1は、外界からの入力に
反応する感情モジュールだけでなく、内部から徐々に欲
求が高まっていく本能モジュールも有する。そこで、上
記本能モジュールの出力に基づいて行動を起こす場合に
ついて説明する。The robot device 1 has not only the emotion module that responds to the input from the outside world but also the instinct module that gradually increases the desire from inside. Therefore, a case of taking action based on the output of the instinct module will be described.
【0048】本能モジュールは、外部情報が入力される
ことによって各本能ユニットの本能レベルが変化する場
合と、時間の経過によって自らその本能レベルが変化す
る場合とがある。The instinct module may change the instinct level of each instinct unit due to the input of external information, or may change the instinct level itself over time.
【0049】最初に、上述した認識オブジェクトは、ハ
ードウェアである図1に示した第1から第4のCPCデ
バイス20,30,40,50の各種センサ情報とし
て、例えば色センサによる画像の色情報,音センサによ
るスピーカの音情報,接触センサによるの接触情報等の
入力情報を取り扱う。そして、認識オブジェクトは、通
知すべき情報を認識すると、図6に示すように、かかる
認識結果の情報を本能・本能モデルオブジェクトの本能
モジュールに通知する。First, the above-described recognition object is, as various sensor information of the first to fourth CPC devices 20, 30, 40, 50 shown in FIG. 1 which is hardware, for example, color information of an image by a color sensor. , Handles input information such as speaker sound information by the sound sensor and contact information by the contact sensor. When the recognition object recognizes the information to be notified, as shown in FIG. 6, the recognition object notifies the instinct module of the instinct / instinct model object of the information on the recognition result.
【0050】本能モジュールは、認識オブジェクトから
情報が入力されると、図7に示すように、入力される情
報の種別を判別し(ステップST21)、その入力され
た情報に応じたパラメータを用いて、各本能ユニットの
本能レベルを変化させる(ステップST22)。例え
ば、食欲の本能ユニットは、バッテリーが少なくなって
くると、本能レベルが大きくなって飲食の欲求、例えば
充電要求が大きくなる。なお、本能モジュールは、行動
生成モジュールや動作生成モジュールが欲求行動を完了
して出力した情報等、各種センサからの情報を扱わない
オブジェクトが出力する情報も受け付けることもある。
例えば、激しい運動の終了が通知されると、運動欲の本
能レベルは、大幅に減衰する。When information is input from the recognition object, the instinct module discriminates the type of information to be input (step ST21) as shown in FIG. 7, and uses parameters according to the input information. , The instinct level of each instinct unit is changed (step ST22). For example, in the instinct unit for appetite, as the battery becomes low, the instinct level increases and the desire for eating and drinking, for example, the charging request increases. The instinct module may also receive information output by an object that does not handle information from various sensors, such as information output by the action generation module or the action generation module after completing the desired action.
For example, when the end of intense exercise is notified, the instinct level of exercise desire is greatly attenuated.
【0051】本能モジュールは、本能レベルが閾値を超
えている本能ユニットのうち、本能レベルが最大となっ
ている本能ユニットを選択する。選択された本能ユニッ
トは、その情報を、例えば行動生成オブジェクト等、出
力を要求しているオブジェクトに対して通知する。な
お、出力を要求しているオブジェクトは、オブジェクト
指向のオブザーバーパターンにより、本能モジュールへ
オブザーバーとして、自身を登録しておく必要がある。The instinct module selects the instinct unit having the maximum instinct level among the instinct units having the instinct level exceeding the threshold value. The selected instinct unit notifies the information to the object requesting the output, for example, the action generation object. The object requesting output needs to register itself as an observer in the instinct module by an object-oriented observer pattern.
【0052】行動生成オブジェクトは、動作生成オブジ
ェクト等を介して、ハードウェアを制御する。すなわ
ち、図1に示す第1から第4のCPCデバイス20,3
0,40,50を制御する。例えば、行動生成オブジェ
クトは、運動欲が高まってきたときは激しい動きをする
ように、逆に、休息欲が高まっているときは休息をとる
ように、手足,頭,尻尾等を動作させて、本能を表現す
る。The action generation object controls the hardware via the action generation object or the like. That is, the first to fourth CPC devices 20, 3 shown in FIG.
0, 40, 50 are controlled. For example, the action generation object operates the limbs, the head, the tail, and the like so as to make a vigorous movement when the desire to exercise increases, and conversely to take a rest when the desire to rest increases. Express instinct.
【0053】一方、本能モジュールは、時間が経過して
いくと、図8に示すステップST31以下の処理を実行
する。On the other hand, when the time elapses, the instinct module executes the processing of step ST31 and thereafter shown in FIG.
【0054】ステップST31において、本能モジュー
ルは、本能レベルやパラメータの初期化を行って、ステ
ップST32に進む。In step ST31, the instinct module initializes the instinct level and parameters, and proceeds to step ST32.
【0055】ステップST32において、本能モジュー
ルは、LSI14の有するタイマを用いて一定時間が経
過したかを判定し、一定時間が経過していないときはス
テップST32に待機し、一定時間が経過したときはス
テップST33に進む。In step ST32, the instinct module uses the timer of the LSI 14 to determine whether a certain time has elapsed. If the certain time has not elapsed, the instinct module waits in step ST32, and if the certain time has elapsed, waits for the certain time. It proceeds to step ST33.
【0056】ステップST33において、本能モジュー
ルは、各本能ユニットの本能レベルを増加させて、ステ
ップST34に進む。なお、増加の大きさは、記憶部1
3に記憶されている増加パラメータによって決定され
る。In step ST33, the instinct module increases the instinct level of each instinct unit, and proceeds to step ST34. In addition, the magnitude of the increase is determined by the storage unit
3 determined by the increasing parameter stored.
【0057】ステップST34において、本能モジュー
ルは、閾値を超えている本能ユニットがあるかを判定
し、かかる本能ユニットがないときはステップST32
に戻り、かかる本能ユニットがあるときはステップST
35に進む。In step ST34, the instinct module determines whether or not there is an instinct unit exceeding the threshold value, and if there is no such instinct unit, step ST32.
If there is such an instinct unit, go to step ST
Proceed to 35.
【0058】ステップST35において、本能モジュー
ルは、閾値を超えている本能ユニットのうち、本能レベ
ルが最大の本能ユニットを選択して、ステップST36
に進む。In step ST35, the instinct module selects the instinct unit having the maximum instinct level among the instinct units exceeding the threshold value, and in step ST36.
Proceed to.
【0059】ステップST36において、本能モジュー
ルは、選択した本能ユニットの情報を行動生成オブジェ
クト等のクライアントモジュールに対して通知する。選
択された本能ユニットは、その情報を、例えば行動生成
オブジェクト等、出力を要求しているオブジェクトに対
して通知する。In step ST36, the instinct module notifies the client module such as the action generation object of the information of the selected instinct unit. The selected instinct unit notifies the information to the object requesting the output, for example, the action generation object.
【0060】行動生成オブジェクトは、動作生成オブジ
ェクト等を介して、上述したいようにハードウェアを制
御して、ステップST32に戻る。The action generation object controls the hardware as described above via the action generation object or the like, and returns to step ST32.
【0061】このようにして、本能モジュールは、外部
情報又は内部変化により本能レベルが変化した各本能ユ
ニットのうち、本能レベルが最大の本能ユニットの情報
を他のオブジェクトに通知することによって、本能が高
まってきたときの状態を行動生成オブジェクトに通知す
ることができる。行動生成オブジェクトは、本能モジュ
ールからの情報に基づいて、システムソフトウェア,O
Sを介して、ハードウェアである第1から第4のCPC
デバイス20,30,40,50を制御して、そのとき
の状況に応じた最適な本能表現を実現することができ
る。In this way, the instinct module notifies other objects of the information of the instinct unit having the maximum instinct level among the instinct units whose instinct level has changed due to external information or internal change, so that the instinct can be identified It is possible to notify the action generation object of the state when it rises. The action generation object uses the system software, O based on the information from the instinct module.
First to fourth CPCs that are hardware via S
By controlling the devices 20, 30, 40, 50, it is possible to realize the optimum instinctive expression according to the situation at that time.
【0062】以上説明したように、感情モジュールも本
能モジュールも、様々のオブジェクトからの情報に基づ
いて動作しているものの、それぞれ並列的に独立して制
御されている。これにより、感情や本能が入り交じった
複雑な心理状態をロボット装置1に自然に表現させるこ
とができる。As described above, although the emotion module and the instinct module operate based on information from various objects, they are independently controlled in parallel. This allows the robot apparatus 1 to naturally express a complicated psychological state in which emotions and instincts are mixed.
【0063】なお、上記ロボット装置1は、学習機能も
備えている。すなわち、上述したように、記憶装置20
0には、各感情ユニットの感情レベルや各本能ユニット
の本能レベルを変化するための要素となる感情パラメー
タや本能パラメータ等が記憶されている。そして、ロボ
ット装置1自身が学習を行ったり成長した場合には、学
習オブジェクトが記憶装置200の各種のパラメータが
書き換えることによって、その性格や行動を変化させる
こともできる。The robot device 1 also has a learning function. That is, as described above, the storage device 20
In 0, emotion parameters, instinct parameters, and the like, which are elements for changing the emotion level of each emotion unit and the instinct level of each instinct unit, are stored. When the robot apparatus 1 itself learns or grows, the learning object can change its character and behavior by rewriting various parameters of the storage device 200.
【0064】また、上記ロボット装置1は、通信装置3
00を介して、図示しない他のロボット装置1Aと通信
することができる。具体的には、ロボット装置1の感情
モジュールは、感情レベルが最も高い感情ユニットの情
報を上記通信装置300(例えば無線通信カード)に通
知する。通信装置300は、この感情ユニットの情報
を、予め指定されている他のロボット装置1Aに対して
無線により送信する。これにより、上記他のロボット装
置1Aは、上記ロボット装置1の感情を読み取ることが
でき、ロボット装置1と上記他のロボット装置1Aとの
間で、感情によるコミュニケーションをとることができ
る。Further, the robot device 1 includes the communication device 3
It is possible to communicate with another robot device 1A (not shown) via 00. Specifically, the emotion module of the robot device 1 notifies the communication device 300 (for example, a wireless communication card) of the information of the emotion unit having the highest emotion level. The communication device 300 wirelessly transmits the information of the emotion unit to another robot device 1A designated in advance. As a result, the other robot device 1A can read the emotion of the robot device 1, and the emotional communication can be performed between the robot device 1 and the other robot device 1A.
【0065】これにより、例えば、ロボット装置1が怒
っている場合には、他のロボット装置1Aはそれに応じ
て行動をとることができるようになる。具体的には、他
のロボット装置1Aが自分のなわばりを荒らしていると
判断したとき、ロボット装置1は怒りに応じた行動とし
て、例えば図9に示すように、吠えるといった行動をと
る。また、これに応じて、ロボット装置1の怒りの感情
ユニットの感情レベルは高くなる。そしてこのとき、ロ
ボット装置1の通信装置300から怒りの感情ユニット
の感情レベルが他のロボット装置1Aに送信される。As a result, for example, when the robot device 1 is angry, the other robot device 1A can act accordingly. Specifically, when the other robot apparatus 1A determines that it is breaking its territory, the robot apparatus 1 takes a barking action as shown in FIG. 9, for example, as an action corresponding to the anger. In addition, in response to this, the emotion level of the anger emotion unit of the robot apparatus 1 becomes high. At this time, the communication device 300 of the robot apparatus 1 transmits the emotion level of the anger emotion unit to the other robot apparatus 1A.
【0066】ロボット装置1の怒りの感情を受信した他
のロボット装置1Aは、これに応じた行動として、例え
ば図9に示すように、逃げる行動をとる。例えば、この
ように他のロボット装置1Aがとる逃げる行動は、ロボ
ット装置1から送信されてきた怒りの感情に応じて他の
ロボット装置1Aが自己の恐怖或いは驚きの感情レベル
が高められることによりなされる。The other robot apparatus 1A which has received the anger feeling of the robot apparatus 1 takes an escaping action as shown in FIG. 9, for example, as a corresponding action. For example, the escape action taken by the other robot device 1A in this manner is performed by the other robot device 1A increasing its emotional level of fear or surprise in response to the anger sent from the robot device 1. It
【0067】このようにロボット装置1と上記他のロボ
ット装置1Aとの間で、感情によるコミュニケーション
をとりそれに応じた行動をとることができるが、その行
動は上述の行動に限定されるものではない。As described above, the emotional communication can be performed between the robot apparatus 1 and the other robot apparatus 1A and an action corresponding to the communication can be performed, but the action is not limited to the above-described action. .
【0068】例えば、ロボット装置1が喜んでいる場合
には、他のロボット装置1Aはそれに応じて喜びの行動
をとることもできる。すなわち、ロボット装置1の喜び
の感情を受信した他のロボット装置1Aは、ロボット装
置1から送信されてきた喜びの感情に応じて自己の喜び
の感情レベルが高めて、ロボット装置1と共に喜びの行
動をとる。For example, when the robot apparatus 1 is pleased, the other robot apparatus 1A can take a delightful action accordingly. That is, the other robot device 1A that has received the joy emotion of the robot device 1 has its own joy emotion level increased according to the joy emotion transmitted from the robot device 1, and the joy action with the robot device 1 is performed. Take
【0069】また、本能ユニットの情報も、同様にして
上記ロボット装置1から上記他のロボット装置1Aに送
信するができる。これにより、本能ユニットの情報につ
いてもロボット装置間で通信して、コミュニケーション
をとることができる。Information of the instinct unit can be similarly transmitted from the robot device 1 to the other robot device 1A. As a result, the information of the instinct unit can be communicated between the robot devices to communicate with each other.
【0070】さらに、ロボット装置間の通信だけでな
く、図10に示すように、いわゆるパーソナルコンピュ
ータ(PC)400との間で通信を行ってもよい。すな
わち、PCは、ロボット装置1の感情モジュールの出力
を制御して、その感情に応じた行動を起こさせることが
できる。Further, not only communication between robot devices but communication with a so-called personal computer (PC) 400 may be performed as shown in FIG. That is, the PC can control the output of the emotion module of the robot apparatus 1 to cause an action according to the emotion.
【0071】なお、無線によって通信を行う場合に限ら
ず、有線を使って通信してもよいし、また、ロボット装
置1における感情ユニット等の情報をメモリカード等の
記録媒体に記録しておき、これを他のロボット装置1A
に装着してもよいのは勿論である。Note that the communication is not limited to wireless communication, and wired communication may be used, and information about the emotion unit in the robot apparatus 1 is recorded in a recording medium such as a memory card. This is another robot device 1A
Of course, it may be attached to.
【0072】また、上記ロボット装置1は、インターフ
ェースが同一であれば、特願平10−030793号
(特開平11−126017号公報)に記載されている
仮想ペット装置における電子ペットとの間でも、コミュ
ニケーションをとることが可能となる。If the robot device 1 has the same interface, it can be used with an electronic pet in the virtual pet device described in Japanese Patent Application No. 10-030793 (Japanese Patent Laid-Open No. 11-126017). It becomes possible to communicate.
【0073】さらに、上述したハードウェア構成からな
るロボット装置1を動作させるために、メモリカード等
の記録媒体を当該ロボット装置1に装着し、その記録媒
体に記録されている制御プログラムをインストールする
ことによって行ってもよい。上記記録媒体に記録されて
いる制御プログラムとしては、図2に示すようなOS,
システムソフトウェア,ミドルウェア,アプリケーショ
ンからなる制御プログラムが該当する。Further, in order to operate the robot apparatus 1 having the above hardware configuration, a recording medium such as a memory card is attached to the robot apparatus 1 and the control program recorded in the recording medium is installed. You may go by. The control program recorded on the recording medium is an OS such as shown in FIG.
A control program consisting of system software, middleware, and applications is applicable.
【0074】[0074]
【発明の効果】本発明に係るロボット装置は、多関節駆
動部を有するロボット装置において、入力情報を認識
し、認識結果を通知するオブジェクト指向設計により構
成された認識オブジェクトを保持する手段と、上記認識
オブジェクトの認識結果が入力され、上記入力情報に応
じて感情レベルを変化させるオブジェクト指向設計によ
り構成された感情モデルオブジェクトを保持する手段
と、上記感情モデルオブジェクトからの情報に基づい
て、上記多関節駆動部を制御することによりロボット装
置を行動させるオブジェクト指向設計により構成された
行動生成オブジェクトを保持する手段とを有することに
より、入力情報に基づいて変化する感情モデルオブジェ
クトからの情報に基づいて、多関節駆動部を制御してロ
ボット装置を行動させることができる。The robot device according to the present invention is, in a robot device having an articulated drive unit, means for recognizing input information and holding a recognition object configured by an object-oriented design for notifying a recognition result, A means for holding an emotion model object configured by an object-oriented design for inputting a recognition result of a recognition object and changing an emotion level according to the input information, and the multi-joint based on information from the emotion model object By having a means for holding an action generation object configured by an object-oriented design that causes the robot apparatus to act by controlling the drive unit, it is possible to perform multiple operations based on information from the emotion model object that changes based on input information. Control the joint drive unit and make the robot act Door can be.
【0075】また、本発明に係るロボット装置は、多関
節駆動部を有するロボット装置において、内部状態を認
識し、認識結果を通知するオブジェクト指向設計により
構成された認識オブジェクトを保持する手段と、上記認
識オブジェクトの認識結果が入力され、上記入力情報に
応じて本能レベルを変化させるオブジェクト指向設計に
より構成された本能モデルオブジェクトを保持する手段
と、上記本能モデルオブジェクトからの情報に基づい
て、上記多関節駆動部を制御することによりロボット装
置を行動させるオブジェクト指向設計により構成された
行動生成オブジェクトを保持する手段とを有することに
より、内部状態に基づいて変化する本能モデルオブジェ
クトの値に基づいて、多関節駆動部を制御して行動をす
ることができる。Further, the robot apparatus according to the present invention is a robot apparatus having an articulated drive unit, which holds a recognition object configured by an object-oriented design for recognizing an internal state and notifying a recognition result, Means for holding an instinct model object configured by an object-oriented design for inputting a recognition result of a recognition object and changing the instinct level according to the input information, and the multi-joint based on the information from the instinct model object By having a means for holding a behavior generation object configured by an object-oriented design that causes a robot apparatus to act by controlling a driving unit, an articulated model based on a value of an instinct model object that changes based on an internal state. The drive unit can be controlled to act.
【0076】また、本発明に係るロボット装置の行動制
御方法は、多関節駆動部を有するロボット装置の行動制
御方法において、オブジェクト指向設計により構成され
入力情報を認識する認識オブジェクトからの認識結果
を、オブジェクト指向設計により構成された感情モデル
オブジェクトに通知する工程と、感情モデルオブジェク
トに入力された上記認識オブジェクトの認識結果の情報
に応じて感情レベルを変化させる工程と、上記感情モデ
ルオブジェクトからの情報に基づいて、オブジェクト指
向設計により構成された行動生成オブジェクトが上記多
関節駆動部を制御することによりロボット装置を行動さ
せる工程とを有することにより、入力情報に基づいて変
化する感情モデルオブジェクトからの情報に基づいて、
多関節駆動部を制御してロボット装置を行動させること
ができる。Further, the behavior control method for a robot apparatus according to the present invention is the behavior control method for a robot apparatus having an articulated drive part, wherein a recognition result from a recognition object configured by object-oriented design and recognizing input information is The step of notifying the emotion model object configured by object-oriented design, the step of changing the emotion level according to the information of the recognition result of the recognition object input to the emotion model object, and the information from the emotion model object Based on the input information, the action generation object configured based on the object-oriented design has a step of causing the robot device to act by controlling the multi-joint driving unit. On the basis of,
The robot apparatus can be operated by controlling the articulated drive unit.
【0077】また、本発明に係るロボット装置の行動制
御方法は、多関節駆動部を有するロボット装置の行動制
御方法において、オブジェクト指向設計により構成され
内部状態を認識する認識オブジェクトからの認識結果
を、オブジェクト指向設計により構成された本能モデル
オブジェクトに通知する工程と、本能モデルオブジェク
トに入力された上記認識オブジェクトの認識結果の情報
に応じて本能レベルを変化させる工程と、上記本能モデ
ルオブジェクトからの情報に基づいて、オブジェクト指
向設計により構成された行動生成オブジェクトが上記多
関節駆動部を制御することによりロボット装置を行動さ
せる工程とを有することにより、ロボット装置の内部状
態に基づいて変化する本能モデルオブジェクトの値に基
づいて、多関節駆動部を制御してロボット装置を行動さ
せることができる。The behavior control method for a robot apparatus according to the present invention is the same as the behavior control method for a robot apparatus having an articulated drive part, wherein the recognition result from a recognition object which recognizes an internal state and is formed by object-oriented design is Informing the instinct model object configured by object-oriented design, changing the instinct level according to the information of the recognition result of the recognition object input to the instinct model object, and the information from the instinct model object Based on the above, the action generation object configured by the object-oriented design has a step of causing the robot apparatus to act by controlling the multi-joint driving unit, thereby making it possible to change the instinct model object based on the internal state of the robot apparatus. Articulated drive based on value It can be controlled to thereby conduct the robot apparatus.
【0078】[0078]
【0079】[0079]
【図1】本発明を適用したロボット装置の構成を示すブ
ロック図である。FIG. 1 is a block diagram showing a configuration of a robot apparatus to which the present invention is applied.
【図2】上記ロボット装置を制御するプログラムの構成
を示す図である。FIG. 2 is a diagram showing a configuration of a program for controlling the robot device.
【図3】感情モジュールと他のオブジェクト等との関係
を説明するための図である。FIG. 3 is a diagram for explaining a relationship between an emotion module and other objects.
【図4】上記感情モジュールに外部から情報が入ってき
たときの動作を説明するためのフローチャートである。FIG. 4 is a flowchart for explaining an operation when information is input to the emotion module from the outside.
【図5】上記感情モジュールが時間の経過によって変化
するときの状態を説明するためのフローチャートであ
る。FIG. 5 is a flowchart for explaining a state when the emotion module changes with the passage of time.
【図6】本能モジュールと他のオブジェクト等との関係
を説明するための図である。FIG. 6 is a diagram for explaining a relationship between an instinct module and another object or the like.
【図7】本能モジュールに外部から情報が入ってきたと
きの動作を説明するためのフローチャートである。FIG. 7 is a flowchart for explaining an operation when information is input from the outside to the instinct module.
【図8】上記本能モジュールが時間の経過によって変化
するときの状態を説明するためのフローチャートであ
る。FIG. 8 is a flowchart for explaining a state when the instinct module changes with the passage of time.
【図9】上記ロボット装置と他のロボット装置とが通信
しているときの状態を説明するための図である。FIG. 9 is a diagram for explaining a state when the robot device is communicating with another robot device.
【図10】パーソナルコンピュータが上記ロボット装置
の感情とその行動を制御するときの状態を説明するため
の図である。FIG. 10 is a diagram for explaining a state when the personal computer controls emotions and actions of the robot device.
1 ロボット装置、11 CPU、14 LSI、20
第1のCPCデバイス、30 第2のCPCデバイ
ス、40 第3のCPCデバイス、50 第4のCPC
デバイス、200 記憶装置、300 通信装置1 robot device, 11 CPU, 14 LSI, 20
First CPC device, 30 Second CPC device, 40 Third CPC device, 50 Fourth CPC
Device, 200 storage device, 300 communication device
フロントページの続き (58)調査した分野(Int.Cl.7,DB名) B25J 13/00 B25J 5/00 Continuation of front page (58) Fields surveyed (Int.Cl. 7 , DB name) B25J 13/00 B25J 5/00
Claims (6)
いて、 入力情報を認識し、認識結果を通知するオブジェクト指
向設計により構成された複数の認識オブジェクトを保持
する手段と、各上記複数の認識オブジェクトと相互に情報のやり取り
をすることで上記 認識結果が入力され、上記認識結果に
応じて感情レベルを変化させる複数の感情パラメータを
有する、オブジェクト指向設計により構成されることに
よりモジュール化された感情モデルオブジェクトを保持
する手段と、上記感情モデルオブジェクトと相互に情報のやり取りを
することで 上記感情モデルオブジェクトからの情報に基
づいて、上記多関節駆動部を制御することによりロボッ
ト装置を行動させるオブジェクト指向設計により構成さ
れた行動生成オブジェクトを保持する手段とを備え、 上記行動生成オブジェクトの出力に基づいて、上記多関
節駆動部を制御する制御手段を有する ことを特徴とする
ロボット装置。1. A robot apparatus having an articulated drive unit, which holds a plurality of recognition objects configured by an object-oriented design for recognizing input information and notifying a recognition result, and each of the plurality of recognition objects. Exchange information with each other
By inputting the above recognition result , multiple emotion parameters that change the emotion level according to the above recognition result can be set.
Having, in Rukoto constituted by object-oriented design
A means for holding a more modular emotion model object and mutual exchange of information with the emotion model object.
Based on information from the emotion model object by, and means for holding the behavior generation object constituted by an object-oriented design to act robotic device by controlling the multi-joint driving unit, the behavior generation Based on the output of the object
A robot apparatus having control means for controlling the joint drive section .
いて、 内部状態を認識し、認識結果を通知するオブジェクト指
向設計により構成された複数の認識オブジェクトを保持
する手段と、各上記複数の認識オブジェクトと相互に情報のやり取り
をすることで上記 認識結果が入力され、上記認識結果に
応じて本能レベルを変化させる複数の本能パラメータを
有する、オブジェクト指向設計により構成されることに
よりモジュール化された本能モデルオブジェクトを保持
する手段と、上記本能モデルオブジェクトと相互に情報のやり取りを
することで 上記本能モデルオブジェクトからの情報に基
づいて、上記多関節駆動部を制御することによりロボッ
ト装置を行動させるオブジェクト指向設計により構成さ
れた行動生成オブジェクトを保持する手段とを備え、 上記行動生成オブジェクトの出力に基づいて、上記多関
節駆動部を制御する制御手段を有する ことを特徴とする
ロボット装置。2. A robot apparatus having an articulated drive unit, which holds a plurality of recognition objects configured by object-oriented design for recognizing an internal state and notifying a recognition result, and each of the plurality of recognition objects. Exchange information with each other
By inputting the above recognition result , multiple instinct parameters that change the instinct level according to the above recognition result can be input.
Having, in Rukoto constituted by object-oriented design
A means for holding a more modular instinct model object and mutual information exchange with the above instinct model object.
Based on information from the instinct model object by, and means for holding the behavior generation object constituted by an object-oriented design to act robotic device by controlling the multi-joint driving unit, the behavior generation Based on the output of the object
A robot apparatus having control means for controlling the joint drive section .
いて、 入力情報又は内部状態を認識し、認識結果を通知するオ
ブジェクト指向設計により構成された複数の認識オブジ
ェクトを保持する手段と、 各上記複数の認識オブジェクトと相互に情報のやり取り
をすることで上記認識結果が入力され、上記認識結果に
応じて感情レベルを変化させる複数の感情パラメータを
有する、オブジェクト指向設計により構成されることに
よりモジュール化された感情モデルオブジェクト、又
は、各上記複数の認識オブジェクトと相互に情報のやり
取りをすることで上記認識結果が入力され、上記認識結
果に応じて本能レベルを変化させる複数の本能パラメー
タを有する、オブジェクト指向設計により構成されるこ
とによりモジュール化された本能モデルオブジェクトを
保持する手段と、 上記感情モデルオブジェクト又は上記本能モデルオブジ
ェクトと相互に情報のやり取りをすることで、上記感情
モデルオブジェクトからの情報に基づいて又は上記本能
モデルオブジェクトからの情報に基づいて、上記多関節
駆動部を制御することによりロボット装置を行動させる
オブジェクト指向設計により構成された行動生成オブジ
ェクトを保持する手段とを備え、 上記行動生成オブジェクトの出力に基づいて、上記多関
節駆動部を制御する制御手段を有することを特徴とする
ロボット装置。 3. A robot apparatus having an articulated drive section.
And recognize the input information or internal state and notify the recognition result.
Multiple recognition objects constructed by object-oriented design
Means for holding the-object, exchanges of each said plurality of recognition objects information to and
The above recognition result is input by doing
Multiple emotion parameters that change the emotion level according to
Having an object-oriented design
A more modular emotion model object, or
Interacts with each of the above multiple recognition objects.
By doing this, the above recognition result is input and the above recognition result
Multiple instinct parameters that change the instinct level according to the fruit
With an object-oriented design
An instinct model object modularized by
Means for holding the emotion model object or the instinct model object
Feelings by exchanging information with each other.
Based on information from model objects or above instinct
Based on the information from the model object, the above multi-joint
Actuate the robot by controlling the drive unit
Action generation object constructed by object-oriented design
And a means for holding the action, based on the output of the action generation object,
Characterized by having a control means for controlling the node drive section
Robot device.
御方法において、 オブジェクト指向設計により構成され入力情報を認識し
認識結果を通知する複数の認識オブジェクトと相互に情
報のやり取りをすることで、上記複数の認識オブジェク
トからの認識結果が、オブジェクト指向設計により構成
された感情モデルオブジェクトに入力される工程と、上記 感情モデルオブジェクトに入力された上記認識オブ
ジェクトの認識結果の情報に応じて感情レベルを変化さ
せる工程と、上記感情モデルオブジェクトと相互に情報のやり取りを
することで 上記感情モデルオブジェクトからの情報に基
づいて、オブジェクト指向設計により構成された行動生
成オブジェクトが上記多関節駆動部を制御することによ
りロボット装置を行動させる工程とを有することを特徴
とするロボット装置の行動制御方法。4. A method of controlling a robot apparatus having a multi-joint driving unit is constituted by an object-oriented design recognizes input information
Mutually communicates with multiple recognition objects that notify the recognition result.
By the exchange of broadcast, the recognition result from said plurality of recognition objects, a step input to the emotion model object constructed by the object-oriented design, the recognition result of the recognition object is input to the emotion model object The process of changing the emotion level according to the information of the
By doing so, based on information from the emotion model object, a behavior generation object configured by object-oriented design controls the multi-joint drive unit to make the robot device act. Device behavior control method.
御方法において、 オブジェクト指向設計により構成され内部状態を認識し
認識結果を通知する複数の認識オブジェクトと相互に情
報のやり取りをすることで、上記複数の認識オブジェク
トからの認識結果が、オブジェクト指向設計により構成
された本能モデルオブジェクトに入力される工程と、上記 本能モデルオブジェクトに入力された上記認識オブ
ジェクトの認識結果の情報に応じて本能レベルを変化さ
せる工程と、上記本能モデルオブジェクトと相互に情報のやり取りを
することで 上記本能モデルオブジェクトからの情報に基
づいて、オブジェクト指向設計により構成された行動生
成オブジェクトが上記多関節駆動部を制御することによ
りロボット装置を行動させる工程とを有することを特徴
とするロボット装置の行動制御方法。5. A control method for a robot apparatus having an articulated drive unit, which is constructed by object-oriented design to recognize an internal state.
Mutually communicates with multiple recognition objects that notify the recognition result.
By the exchange of broadcast, the recognition result from said plurality of recognition objects, a step input to the instinct model object constructed by the object-oriented design, the recognition result of the recognition object is input to the instinct model object The process of changing the instinct level according to the information of the
The action generating object configured by object-oriented design controls the articulated drive unit based on the information from the instinct model object, thereby causing the robot apparatus to act. Device behavior control method.
御方法において、 オブジェクト指向設計により構成され入力情報又は内部
状態を認識し認識結果を通知する複数の認識オブジェク
トと相互に情報のやり取りをすることで、上記複数の認
識オブジェクトからの認識結果がオブジェクト指向設計
により構成された感情モデルオブジェクトに入力され、
又は上記複数の認識オブジェクトからの認識結果がオブ
ジェクト指向設計により構成された本能モデルオブジェ
クトに入力される工程と、 上記感情モデルオブジェクトに入力された上記認識オブ
ジェクトの認識結果の情報に応じて感情レベルを変化さ
せ、又は、上記本能モデルオブジェクトに入力された上
記認識オブジェクトの認識結果の情報に応じて本能レベ
ルを変化させる工程と、 上記感情モデルオブジェクト又は上記本能モデルオブジ
ェクトと相互に情報のやり取りをすることで、上記感情
モデルオブジェクトからの情報に基づいて又は上記本能
モデルオブジェクトからの情報に基づいて、上記多関節
駆動部を制御することによりロボット装置を行動させる
工程とを有することを特徴とするロボット装置の行動制
御方法。 6. A control of a robot apparatus having an articulated drive section.
In the control method, the input information or internal
Multiple recognition objects that recognize states and notify recognition results
By exchanging information with each other,
Object-oriented design with recognition results from knowledge objects
Is input to the emotion model object composed by
Alternatively, the recognition results from the above-mentioned plurality of recognition objects are
Instinct model object constructed by object-oriented design
Process input to the emotion model object and the recognition object input to the emotion model object.
The emotion level is changed according to the information of the recognition result of the project.
Or, after being input to the above instinct model object
Instinct level according to the information of the recognition result of the recognition object.
And the emotion model object or the instinct model object.
Feelings by exchanging information with each other.
Based on information from model objects or above instinct
Based on the information from the model object, the above multi-joint
Actuate the robot by controlling the drive unit
Action control of a robot apparatus characterized by having a process
Way.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000403392A JP3501123B2 (en) | 1998-11-30 | 2000-12-28 | Robot apparatus and behavior control method for robot apparatus |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10-340716 | 1998-11-30 | ||
JP34071698 | 1998-11-30 | ||
JP2000403392A JP3501123B2 (en) | 1998-11-30 | 2000-12-28 | Robot apparatus and behavior control method for robot apparatus |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000585037 Division |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002233977A JP2002233977A (en) | 2002-08-20 |
JP3501123B2 true JP3501123B2 (en) | 2004-03-02 |
Family
ID=26576781
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000403392A Expired - Fee Related JP3501123B2 (en) | 1998-11-30 | 2000-12-28 | Robot apparatus and behavior control method for robot apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3501123B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100825719B1 (en) | 2005-12-09 | 2008-04-29 | 한국전자통신연구원 | Method for generating emotions and emotions generating robot |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6224988A (en) * | 1985-07-23 | 1987-02-02 | 志井田 孝 | Robot having feeling |
JPH0612401A (en) * | 1992-06-26 | 1994-01-21 | Fuji Xerox Co Ltd | Emotion simulating device |
JPH10289006A (en) * | 1997-04-11 | 1998-10-27 | Yamaha Motor Co Ltd | Method for controlling object to be controlled using artificial emotion |
-
2000
- 2000-12-28 JP JP2000403392A patent/JP3501123B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2002233977A (en) | 2002-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7076331B1 (en) | Robot, method of robot control, and program recording medium | |
US6493606B2 (en) | Articulated robot and method of controlling the motion of the same | |
US7117190B2 (en) | Robot apparatus, control method thereof, and method for judging character of robot apparatus | |
US7076334B2 (en) | Robot apparatus and method and system for controlling the action of the robot apparatus | |
KR100864339B1 (en) | Robot device and behavior control method for robot device | |
US7363108B2 (en) | Robot and control method for controlling robot expressions | |
US7515992B2 (en) | Robot apparatus and emotion representing method therefor | |
US6904334B2 (en) | Robot apparatus and method for controlling the operation thereof | |
EP1151779A2 (en) | Robot and action deciding method for robot | |
JP2001038663A (en) | Machine control system | |
JP2002301674A (en) | Leg type moving robot, its motion teaching method and storage medium | |
JP2001212782A (en) | Robot device and control method for robot device | |
JP2006110707A (en) | Robot device | |
JP7014168B2 (en) | Virtual organism control systems, virtual organism control methods, and programs | |
JP2004298975A (en) | Robot device and obstacle searching method | |
JP4296736B2 (en) | Robot device | |
JP2001236585A (en) | Mobile robot and steal prevention method for the same | |
JP2007125629A (en) | Robot device and motion control method | |
JP3501123B2 (en) | Robot apparatus and behavior control method for robot apparatus | |
JP2003191187A (en) | Robot device and method of controlling it | |
JP2004114285A (en) | Robotic device and its behavior control method | |
JP2004130427A (en) | Robot device and method for controling operation of robot device | |
JP2002205289A (en) | Action control method for robot device, program, recording medium and robot device | |
JP4379052B2 (en) | Moving object detection apparatus, moving object detection method, and robot apparatus | |
JP2001157980A (en) | Robot device, and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20031111 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20031124 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071212 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081212 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091212 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091212 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101212 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101212 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111212 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121212 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |