JP2001157980A - Robot device, and control method thereof - Google Patents

Robot device, and control method thereof

Info

Publication number
JP2001157980A
JP2001157980A JP34120999A JP34120999A JP2001157980A JP 2001157980 A JP2001157980 A JP 2001157980A JP 34120999 A JP34120999 A JP 34120999A JP 34120999 A JP34120999 A JP 34120999A JP 2001157980 A JP2001157980 A JP 2001157980A
Authority
JP
Japan
Prior art keywords
model
emotion
instinct
recognition
desire
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP34120999A
Other languages
Japanese (ja)
Inventor
Kotaro Sabe
浩太郎 佐部
Rika Hasegawa
里香 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP34120999A priority Critical patent/JP2001157980A/en
Publication of JP2001157980A publication Critical patent/JP2001157980A/en
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a robot device and a control method thereof capable of improving amusement performance. SOLUTION: In this robot device to generate an action based on an emotion model and/or an instinct model, an external sensor to detect a degree of a specified environmental condition, a recognition means to recognize the degree of the environmental condition based on result of detection by the external sensor, and a changing means to change the emotion model and/or the instinct model based on result of recognition by the recognition means are provided. In this control method for a robot device to generate an action model based on the emotion model and/or the instinct model, a first step to recognize a degree of a specified environmental condition, and a second step to change the emotion model and/or the instinct model based on result of recognition are provided.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明はロボット装置及びそ
の制御方法に関し、例えばペットロボットに適用して好
適なものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot apparatus and a control method therefor, and is suitably applied to, for example, a pet robot.

【0002】[0002]

【従来の技術】近年、本願特許出願人により4足歩行型
のペットロボットが提案及び開発されている。かかるペ
ットロボットは、一般家庭において飼育される犬や猫に
似た形状を有し、「叩く」及び「撫でる」といったユー
ザからの働きかけや、周囲の環境等に応じて自律的に行
動するものである。
2. Description of the Related Art In recent years, a pet robot of a four-legged walking type has been proposed and developed by the present applicant. Such a pet robot has a shape similar to a dog or cat bred in an ordinary household, and acts autonomously in response to user's actions such as "slap" and "stroke" and the surrounding environment. is there.

【0003】[0003]

【発明が解決しようとする課題】ところでかかるペット
ロボットに対して、「明るい」、「暗い」、「うるさ
い」、「暑い」などの周囲の環境に応じて感情や本能を
変化させるような機能を搭載することができれば、生物
感を向上させてより一層の親近感や満足感をユーザに与
え、ペットロボットとしてのアミューズメント性をより
向上させ得るものと考えられる。
By the way, such a pet robot is provided with a function of changing emotions and instinct according to the surrounding environment such as "bright", "dark", "noisy" and "hot". If it can be mounted, it is thought that it is possible to improve the feeling of life, give the user a further sense of intimacy and satisfaction, and further improve the amusement as a pet robot.

【0004】本発明は以上の点を考慮してなされたもの
で、アミューズメント性を向上させ得るロボット装置及
びその制御方法を提案しようとするものである。
The present invention has been made in consideration of the above points, and has as its object to propose a robot apparatus capable of improving amusement and a control method thereof.

【0005】[0005]

【課題を解決するための手段】かかる課題を解決するた
め本発明においては、感情モデル及び又は本能モデルに
基づいて行動を生成するロボット装置において、所定の
環境条件の度合いを検出するための外部センサと、外部
センサの検出結果に基づいて環境条件の度合いを認識す
る認識手段と、認識手段の認識結果に基づいて感情モデ
ル及び又は本能モデルを変化させる変化手段とを設ける
ようにした。この結果このロボット装置では、環境に応
じて感情及び又は本能が変化する。
According to the present invention, there is provided a robot apparatus for generating an action based on an emotion model and / or an instinct model, wherein an external sensor for detecting a degree of a predetermined environmental condition is provided. And recognition means for recognizing the degree of the environmental condition based on the detection result of the external sensor, and changing means for changing the emotion model and / or the instinct model based on the recognition result of the recognition means. As a result, in this robot device, emotions and / or instinct change according to the environment.

【0006】また本発明においては、感情モデル及び又
は本能モデルに基づいて行動を生成するロボット装置の
制御方法において、所定の環境条件について、その度合
いを認識する第1のステップと、認識結果に基づいて感
情モデル及び又は本能モデルを変化させる第2のステッ
プとを設けるようにした。この結果このロボット装置の
制御方法によれば、環境に応じてロボット装置の感情及
び又は本能を変化させることができる。
According to the present invention, in a control method of a robot apparatus for generating an action based on an emotion model and / or an instinct model, a first step of recognizing a degree of a predetermined environmental condition, And a second step of changing the emotion model and / or the instinct model. As a result, according to the robot apparatus control method, the emotion and / or instinct of the robot apparatus can be changed according to the environment.

【0007】[0007]

【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings.

【0008】(1)本実施の形態によるペットロボット
の構成 図1において、1は全体として本実施の形態によるペッ
トロボットを示し、胴体部ユニット2の前後左右にそれ
ぞれ脚部ユニット3A〜3Dが連結されると共に、胴体
部ユニット2の前端部及び後端部にそれぞれ頭部ユニッ
ト4及び尻尾部ユニット5が連結されることにより構成
されている。
(1) Configuration of a Pet Robot According to the Present Embodiment In FIG. 1, reference numeral 1 denotes a pet robot according to the present embodiment as a whole, and leg units 3A to 3D are connected to the front, rear, left and right of a body unit 2, respectively. The head unit 4 and the tail unit 5 are connected to the front end and the rear end of the body unit 2, respectively.

【0009】胴体部ユニット2には、図2に示すよう
に、CPU(Central Processing Unit )10、DRA
M(Dynamic Random Access Memory)11、フラッシュ
ROM(Read Only Memory)12、PC(Personal Com
puter )カードインターフェース回路13及び信号処理
回路14が内部バス15を介して相互に接続されること
により形成されたコントロール部16と、このペットロ
ボット1の動力源としてのバッテリ17とが収納されて
いる。また胴体部ユニット2には、ペットロボット1の
向きや動きの加速度を検出するための角速度センサ18
及び加速度センサ19なども収納されている。
As shown in FIG. 2, a CPU (Central Processing Unit) 10 and a DRA
M (Dynamic Random Access Memory) 11, Flash ROM (Read Only Memory) 12, PC (Personal Com
puter) A control unit 16 formed by connecting a card interface circuit 13 and a signal processing circuit 14 to each other via an internal bus 15 and a battery 17 as a power source of the pet robot 1 are housed therein. . The body unit 2 has an angular velocity sensor 18 for detecting the direction and the acceleration of the movement of the pet robot 1.
And an acceleration sensor 19 are also stored.

【0010】また頭部ユニット4には、外部の状況を撮
像するためのCCD(Charge Coupled Device )カメラ
20と、ユーザからの「撫でる」や「叩く」といった物
理的な働きかけにより受けた圧力を検出するためのタッ
チセンサ21と、前方に位置する物体までの距離を測定
するための距離センサ22と、外部音を集音するための
マイクロホン23と、鳴き声等の音声を出力するための
スピーカ24と、ペットロボット1の「目」に相当する
LED(Light Emitting Diode)(図示せず)となどが
それぞれ所定位置に配設されている。
The head unit 4 detects a CCD (Charge Coupled Device) camera 20 for capturing an image of an external situation and a pressure received by a physical action such as "stroke" or "hit" from the user. A touch sensor 21, a distance sensor 22 for measuring a distance to an object located ahead, a microphone 23 for collecting external sound, and a speaker 24 for outputting a sound such as a cry. , An LED (Light Emitting Diode) (not shown) corresponding to the “eyes” of the pet robot 1 and the like are arranged at predetermined positions.

【0011】さらに各脚部ユニット3A〜3Dの関節部
分や、各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、頭部ユニット4及び胴体部ユニット2の
連結部分、並びに尻尾部ユニット5の尻尾5Aの連結部
分などにはそれぞれ自由度数分のアクチュエータ251
〜25n 及びポテンショメータ261 〜26n が配設さ
れている。
Further, the joints of the leg units 3A to 3D, the leg units 3A to 3D and the trunk unit 2
Each coupling portion of the head unit 4 and body unit connecting portion 2, and the tail unit actuator 25 1, respectively, etc. The consolidated portion of the tail 5A of freedom minutes 5
To 25 n and potentiometers 26 1 to 26 n are provided.

【0012】そしてこれら角速度センサ18、加速度セ
ンサ19、タッチセンサ21、距離センサ22、マイク
ロホン23、スピーカ24及び各ポテンショメータ26
1 〜26n などの各種センサ並びにLED及び各アクチ
ュエータ251 〜25n は、それぞれ対応するハブ27
1 〜27N を介してコントロール部16の信号処理回路
14と接続され、CCDカメラ20及びバッテリ17
は、それぞれ信号処理回路14と直接接続されている。
The angular velocity sensor 18, acceleration sensor 19, touch sensor 21, distance sensor 22, microphone 23, speaker 24, and each potentiometer 26
Various sensors such as 1 to 26 n , LEDs and actuators 25 1 to 25 n are respectively connected to the corresponding hubs 27.
The CCD camera 20 and the battery 17 are connected to the signal processing circuit 14 of the control unit 16 through 1 to 27 N.
Are directly connected to the signal processing circuit 14, respectively.

【0013】このとき信号処理回路14は、上述の各セ
ンサから供給されるセンサデータや画像データ及び音声
データを順次取り込み、これらをそれぞれ内部バス15
を介してDRAM11内の所定位置に順次格納する。ま
た信号処理回路14は、これと共にバッテリ17から供
給されるバッテリ残量を表すバッテリ残量データを順次
取り込み、これをDRAM11内の所定位置に格納す
る。
At this time, the signal processing circuit 14 sequentially takes in the sensor data, image data, and audio data supplied from each of the above-described sensors, and receives these sequentially into the internal bus 15.
, And sequentially stored in a predetermined position in the DRAM 11. In addition, the signal processing circuit 14 sequentially takes in remaining battery power data indicating the remaining battery power supplied from the battery 17 and stores the data at a predetermined position in the DRAM 11.

【0014】そしてこのようにしてDRAM11に格納
された各センサデータ、画像データ、音声データ及びバ
ッテリ残量データは、この後CPU10がこのペットロ
ボット1の動作制御を行う際に利用される。
The sensor data, image data, audio data and remaining battery data stored in the DRAM 11 in this manner are used when the CPU 10 controls the operation of the pet robot 1 thereafter.

【0015】実際上CPU10は、ペットロボット1の
電源が投入された初期時、胴体部ユニット2の図示しな
いPCカードスロットに装填されたメモリカード28又
はフラッシュROM12に格納された制御プログラムを
PCカードインターフェース回路13を介して又は直接
読み出し、これをDRAM11に格納する。
In practice, when the power of the pet robot 1 is turned on, the CPU 10 executes the control program stored in the memory card 28 or the flash ROM 12 inserted in the PC card slot (not shown) of the body unit 2 into the PC card interface. The data is read out via the circuit 13 or directly and stored in the DRAM 11.

【0016】またCPU10は、この後上述のように信
号処理回路14よりDRAM11に順次格納される各セ
ンサデータ、画像データ、音声データ及びバッテリ残量
データに基づいて自己及び周囲の状況や、ユーザからの
指示及び働きかけの有無などを判断する。
Further, the CPU 10 thereafter, based on the sensor data, image data, audio data, and remaining battery power data sequentially stored in the DRAM 11 from the signal processing circuit 14 as described above, as well as from the user and the surroundings. Judge whether or not there is an instruction for and action.

【0017】さらにCPU10は、この判断結果及びD
RAM11に格納した制御プログラムに基づいて続く行
動を決定すると共に、当該決定結果に基づいて必要なア
クチュエータ251 〜25n を駆動させることにより、
頭部ユニット4を上下左右に振らせたり、尻尾部ユニッ
ト5の尻尾5Aを動かせたり、各脚部ユニット3A〜3
Dを駆動させて歩行させるなどの行動を行わせる。
Further, the CPU 10 determines the result of this determination and D
And it determines a subsequent action based on the control program stored in the RAM 11, by driving the actuator 25 1 to 25 n required based on the determination result,
The head unit 4 can be swung up and down, left and right, the tail 5A of the tail unit 5 can be moved, and each of the leg units 3A to 3A.
D is driven to perform an action such as walking.

【0018】またこの際CPU10は、必要に応じて音
声データを生成し、これを信号処理回路14を介して音
声信号としてスピーカ24に与えることにより当該音声
信号に基づく音声を外部に出力させたり、上述のLED
を点灯、消灯又は点滅させる。
At this time, the CPU 10 generates audio data as required, and supplies the generated audio data to the speaker 24 as an audio signal via the signal processing circuit 14, thereby outputting an audio based on the audio signal to the outside, LED above
Is turned on, off or blinking.

【0019】このようにしてこのペットロボット1にお
いては、自己及び周囲の状況や、ユーザからの指示及び
働きかけに応じて自律的に行動し得るようになされてい
る。
As described above, the pet robot 1 is capable of acting autonomously according to its own and surrounding conditions, instructions and actions from the user.

【0020】(2)制御プログラムのソフトウェア構成 ここでペットロボット1における上述の制御プログラム
のソフトウェア構成を図3に示す。この図3において、
デバイス・ドライバ・レイヤ30は、この制御プログラ
ムの最下位層に位置し、複数のデバイス・ドライバから
なるデバイス・ドライバ・セット31から構成されてい
る。この場合各デバイス・ドライバは、CCDカメラ2
0(図2)やタイマ等の通常のコンピュータで用いられ
るハードウェアに直接アクセスすることを許されたオブ
ジェクトであり、対応するハードウェアからの割り込み
を受けて処理を行う。
(2) Software Configuration of Control Program The software configuration of the above-described control program in the pet robot 1 is shown in FIG. In FIG.
The device driver layer 30 is located at the lowest layer of the control program, and includes a device driver set 31 including a plurality of device drivers. In this case, each device driver is a CCD camera 2
0 (FIG. 2), an object such as a timer, which is allowed to directly access hardware used in a normal computer, and performs processing in response to an interrupt from the corresponding hardware.

【0021】またロボティック・サーバ・オブジェクト
32は、デバイス・ドライバ・レイヤ30の上位層に位
置し、例えば上述の各種センサやアクチュエータ251
〜25n 等のハードウェアにアクセスするためのインタ
ーフェースを提供するソフトウェア群でなるバーチャル
・ロボット33と、電源の切換えなどを管理するソフト
ウェア群でなるパワーマネージャ34と、他の種々のデ
バイス・ドライバを管理するソフトウェア群でなるデバ
イス・ドライバ・マネージャ35と、ペットロボット1
の機構を管理するソフトウェア群でなるデザインド・ロ
ボット36とから構成されている。
The robotic server object 32 is located above the device driver layer 30 and includes, for example, the various sensors and actuators 25 1 described above.
A virtual robot 33 comprising a software group that provides an interface for accessing the hardware, such as to 25 n, the power manager 34 made of a software suite for managing the power supply switching, the other various device drivers Device driver manager 35, which is a group of software to be managed, and pet robot 1
And a designed robot 36 which is a software group for managing the mechanism.

【0022】マネージャ・オブジェクト37は、オブジ
ェクト・マネージャ38及びサービス・マネージャ39
から構成されている。この場合オブジェクト・マネージ
ャ38は、ロボティック・サーバ・オブジェクト32、
ミドル・ウェア・レイヤ40、及びアプリケーション・
レイヤ41に含まれる各ソフトウェア群の起動や終了を
管理するソフトウェア群であり、サービス・マネージャ
39は、メモリカード28(図2)に格納されたコネク
ションファイルに記述されている各オブジェクト間の接
続情報に基づいて各オブジェクトの接続を管理するソフ
トウェア群である。
The manager object 37 includes an object manager 38 and a service manager 39.
It is composed of In this case, the object manager 38 has the robotic server object 32,
Middleware layer 40 and application
The service manager 39 is a software group that manages activation and termination of each software group included in the layer 41. The service manager 39 stores connection information between objects described in a connection file stored in the memory card 28 (FIG. 2). Is a group of software that manages the connection of each object based on.

【0023】ミドル・ウェア・レイヤ40は、ロボティ
ック・サーバ・オブジェクト32の上位層に位置し、画
像処理や音声処理などのこのペットロボット1の基本的
な機能を提供するソフトウェア群から構成されている。
またアプリケーション・レイヤ41は、ミドル・ウェア
・レイヤ40の上位層に位置し、当該ミドル・ウェア・
レイヤ40を構成する各ソフトウェア群によって処理さ
れた処理結果に基づいてペットロボット1の行動を決定
するためのソフトウェア群から構成されている。
The middleware layer 40 is located on the upper layer of the robotic server object 32 and is composed of a group of software for providing basic functions of the pet robot 1 such as image processing and sound processing. I have.
Further, the application layer 41 is located in a layer above the middleware layer 40, and
It is composed of a software group for determining the behavior of the pet robot 1 based on the processing result processed by each software group constituting the layer 40.

【0024】なおミドル・ウェア・レイヤ40及びアプ
リケーション・レイヤ41の具体なソフトウェア構成を
それぞれ図4及び図5に示す。
The specific software configurations of the middleware layer 40 and the application layer 41 are shown in FIGS. 4 and 5, respectively.

【0025】ミドル・ウェア・レイヤ40においては、
図4からも明らかなように、音階認識用、距離検出用、
姿勢検出用、タッチセンサ用、動き検出用及び色認識用
の各信号処理モジュール50〜55並びに入力セマンテ
ィクスコンバータモジュール56などを有する認識系5
7と、出力セマンティクスコンバータモジュール57並
びに姿勢管理用、トラッキング用、モーション再生用、
歩行用、転倒復帰、LED点灯用及び音再生用の各信号
処理モジュール58〜64などを有する出力系65とか
ら構成されている。
In the middleware layer 40,
As is clear from FIG. 4, for scale recognition, for distance detection,
Recognition system 5 including signal processing modules 50 to 55 for posture detection, touch sensor, motion detection, and color recognition, input semantics converter module 56, and the like.
7 and the output semantics converter module 57 and for attitude management, tracking, motion playback,
An output system 65 includes signal processing modules 58 to 64 for walking, falling back, turning on LEDs, and reproducing sounds.

【0026】この場合認識系57の各信号処理モジュー
ル50〜55は、ロボティック・サーバ・オブジェクト
32のバーチャル・ロボット33によりDRAM11
(図2)から読み出される各センサデータや画像データ
及び音声データのうちの対応するデータを取り込み、当
該データに基づいて所定の処理を施して、処理結果を入
力セマンティクスコンバータモジュール56に与える。
In this case, the signal processing modules 50 to 55 of the recognition system 57 are connected to the DRAM 11 by the virtual robot 33 of the robotic server object 32.
The corresponding data among the sensor data, image data, and audio data read out from FIG. 2 (FIG. 2) is fetched, predetermined processing is performed based on the data, and the processing result is provided to the input semantics converter module 56.

【0027】入力セマンティクスコンバータモジュール
56は、これら各信号処理モジュール50〜55から与
えられる処理結果に基づいて、「ボールを検出した」、
「転倒を検出した」、「撫でられた」、「叩かれた」、
「ドミソの音階が聞こえた」、「動く物体を検出した」
又は「障害物を検出した」などの自己及び周囲の状況
や、ユーザからの指令及び働きかけを認識し、認識結果
をアプリケーション・レイヤ41(図2)に出力する。
The input semantics converter module 56, based on the processing results given from each of the signal processing modules 50 to 55, “detects a ball”,
"Detected fall,""stroke,""beaten,"
"I heard the domeso scale,""Detected a moving object."
Alternatively, it recognizes the situation of itself and surroundings, such as "detected an obstacle", and commands and actions from the user, and outputs the recognition result to the application layer 41 (FIG. 2).

【0028】アプリケーション・レイヤ41において
は、図5に示すように、行動モデルライブラリ70、行
動切換えモジュール71、学習モジュール72、感情モ
デル73及び本能モデル74の5つのモジュールから構
成されている。
As shown in FIG. 5, the application layer 41 is composed of five modules: a behavior model library 70, a behavior switching module 71, a learning module 72, an emotion model 73, and an instinct model 74.

【0029】この場合行動モデルライブラリ70には、
図6に示すように、「バッテリ残量が少なくなった場
合」、「転倒復帰する場合」、「障害物を回避する場
合」、「感情を表現する場合」、「ボールを検出した場
合」などの予め選択されたいくつかの条件項目にそれぞ
れ対応させて、それぞれ独立した行動モデル701 〜7
n が設けられている。
In this case, the behavior model library 70 includes
As shown in FIG. 6, "when the battery level is low", "when the vehicle returns to the fall", "when avoiding obstacles", "when expressing emotion", "when the ball is detected", and the like. Respectively correspond to several pre-selected condition items, and independent behavior models 70 1 to 7 respectively.
0 n is provided.

【0030】そしてこれら行動モデル701 〜70
n は、それぞれ入力セマンティクスコンバータモジュー
ル56から認識結果が与えられたときや、最後の認識結
果が与えられてから一定時間が経過したときなどに、必
要に応じて後述のように感情モデル73に保持されてい
る対応する情動のパラメータ値や、本能モデル74に保
持されている対応する欲求のパラメータ値を参照しなが
ら続く行動をそれぞれ決定し、決定結果を行動切換えモ
ジュール71に出力する。
The behavior models 70 1 to 70 1
n is stored in the emotion model 73 as described later as necessary when a recognition result is given from the input semantics converter module 56 or when a certain time has elapsed since the last recognition result was given. The next action is determined with reference to the corresponding emotion parameter value and the corresponding desire parameter value held in the instinct model 74, and the determination result is output to the action switching module 71.

【0031】なおこの実施の形態の場合、各行動モデル
701 〜70n は、次の行動を決定する手法として、図
7に示すような1つのノード(状態)NODE0 〜NO
DEn から他のどのノードNODE0 〜NODEn に遷
移するかを各ノードNODE0 〜NODEn 間を接続す
るアークARC1 〜ARCn 1 に対してそれぞれ設定さ
れた遷移確率P1 〜Pn に基づいて確率的に決定する確
率オートマトンと呼ばれるアルゴリズムを用いる。
In the case of this embodiment, each of the behavior models 70 1 to 70 n uses one node (state) NODE 0 to NO as shown in FIG.
The arc ARC 1 transition probabilities are set respectively ~ARC n 1 P 1 ~P n for connecting the respective nodes NODE 0 ~NODE n or transitions from DE n to any other node NODE 0 ~NODE n An algorithm called a probabilistic automaton, which determines stochastically based on this, is used.

【0032】具体的に、各行動モデル701 〜70
n は、それぞれ自己の行動モデル701〜70n を形成
する各ノードNODE0 〜NODEn にそれぞれ対応さ
せて、これらノードNODE0 〜NODEn ごとの図8
に示すような状態遷移表80を有している。
More specifically, each of the behavior models 70 1 to 70
n corresponds to each of the nodes NODE 0 to NODE n forming their own behavior models 70 1 to 70 n , respectively, and FIG. 8 for each of these nodes NODE 0 to NODE n
Has a state transition table 80 as shown in FIG.

【0033】この状態遷移表80では、そのノードNO
DE0 〜NODEn において遷移条件とする入力イベン
ト(認識結果)が「入力イベント名」の行に優先順に列
記され、その遷移条件についてのさらなる条件が「デー
タ名」及び「データ範囲」の行における対応する列に記
述されている。
In this state transition table 80, the node NO
Input events (recognition results) as transition conditions in DE 0 to NODE n are listed in order of priority in the row of “input event name”, and further conditions for the transition conditions are described in the rows of “data name” and “data range”. It is described in the corresponding column.

【0034】従って図8の状態遷移表80で表されるノ
ードNODE100 では、「ボールを検出(BALL)」
という認識結果が与えられた場合に、当該認識結果と共
に与えられるそのボールの「大きさ(SIZE)」が
「0から1000」の範囲であることや、「障害物を検出
(OBSTACLE)」という認識結果が与えられた場
合に、当該認識結果と共に与えられるその障害物までの
「距離(DISTANCE)」が「0から100 」の範囲
であることが他のノードに遷移するための条件となって
いる。
Therefore, in the node NODE 100 represented by the state transition table 80 in FIG. 8, "ball detected (BALL)"
When the recognition result is given, the "size (SIZE)" of the ball given together with the recognition result is in the range of "0 to 1000", or the recognition of "obstacle detected (OBSTACE)" is given. When the result is given, the condition for transition to another node is that the "distance" to the obstacle given together with the recognition result is in the range of "0 to 100". .

【0035】またこのノードNODE100 では、認識結
果の入力がない場合においても、行動モデル701 〜7
n が周期的に参照する感情モデル73及び本能モデル
74にそれぞれ保持された各情動及び各欲求のパラメー
タ値のうち、感情モデル73に保持された「喜び(JO
Y)」、「驚き(SURPRISE)」若しくは「悲し
み(SUDNESS)」のいずれかのパラメータ値が
「50から100 」の範囲であるときには他のノードに遷移
することができるようになっている。
In the node NODE 100 , even when the recognition result is not input, the behavior models 70 1 to 7
0 n of the parameter values of the emotions and desires stored in the emotion model 73 and the instinct model 74 that are periodically referred to, respectively.
When the parameter value of any of "Y)", "Surprise", or "Sadness" is in the range of "50 to 100", it is possible to make a transition to another node.

【0036】また状態遷移表80では、「他のノードへ
の遷移確率」の欄における「遷移先ノード」の列にその
ノードNODE0 〜NODEn から遷移できるノード名
が列記されると共に、「入力イベント名」、「データ
値」及び「データの範囲」の行に記述された全ての条件
が揃ったときに遷移できる他の各ノードNODE0 〜N
ODEn への遷移確率が「他のノードへの遷移確率」の
欄内の対応する箇所にそれぞれ記述され、そのノードN
ODE0 〜NODEn に遷移する際に出力すべき行動が
「他のノードへの遷移確率」の欄における「出力行動」
の行に記述されている。なお「他のノードへの遷移確
率」の欄における各行の確率の和は100 〔%〕となって
いる。
In the state transition table 80, in the column of "transition destination node" in the column of "transition probability to another node", the names of nodes that can transition from the nodes NODE 0 to NODE n are listed, and Other nodes NODE 0 to N that can transition when all the conditions described in the rows of “event name”, “data value”, and “data range” are met
The transition probability to ODE n is described in a corresponding part in the column of “transition probability to another node”, and the node N
The action to be output when transitioning from ODE 0 to NODE n is “output action” in the column of “transition probability to another node”.
Is described in the line. Note that the sum of the probabilities of the respective rows in the column of “transition probability to another node” is 100 [%].

【0037】従って図8の状態遷移表80で表されるノ
ードNODE100 では、例えば「ボールを検出(BAL
L)」し、そのボールの「SIZE(大きさ)」が「0
から1000」の範囲であるという認識結果が与えられた場
合には、「30〔%〕」の確率で「ノードNODE
120 (node 120)」に遷移でき、そのとき「ACTIO
N1」の行動が出力されることとなる。
Therefore, in the node NODE 100 represented by the state transition table 80 in FIG.
L) "and the" SIZE "of the ball is" 0 ".
Is given in the range of “node NODE” with a probability of “30 [%]”.
120 (node 120) ”, and then“ ACTIO ”
The action of "N1" will be output.

【0038】そして各行動モデル701 〜70n は、そ
れぞれこのような状態遷移表80として記述されたノー
ドNODE0 〜NODEn がいくつも繋がるようにして
構成されており、入力セマンティクスコンバータモジュ
ール56から認識結果が与えられたときなどに、対応す
るノードNODE0 〜NODEn の状態遷移表80を利
用して確率的に次の行動を決定し、決定結果を行動切換
えモジュール71に出力するようになされている。
Each of the behavior models 70 1 to 70 n is configured such that a number of nodes NODE 0 to NODE n described as such a state transition table 80 are connected, and the input semantics converter module 56 For example, when a recognition result is given, the next action is stochastically determined using the state transition table 80 of the corresponding nodes NODE 0 to NODE n , and the determination result is output to the action switching module 71. ing.

【0039】行動切換えモジュール71は、行動モデル
ライブラリ70の各行動モデル70 1 〜70n からそれ
ぞれ出力される行動のうち、予め定められた優先順位の
高い行動モデル701 〜70n から出力された行動を選
択し、当該行動を実行すべき旨のコマンド(以下、これ
を行動コマンドと呼ぶ)をミドル・ウェア・レイヤ40
の出力セマンティクスコンバータ57に送出する。なお
この実施の形態においては、図6において下側に表記さ
れた行動モデル701 〜70n ほど優先順位が高く設定
されている。
The action switching module 71 includes an action model
Each behavior model 70 of the library 70 1~ 70nFrom it
Of the actions that are output respectively,
High behavior model 701~ 70nSelect the action output from
Command to execute the action (hereinafter referred to as
Is called an action command).
To the output semantics converter 57. Note that
In this embodiment, the lower part of FIG.
Behavior model 701~ 70nSet higher priority
Have been.

【0040】また行動切換えモジュール71は、行動完
了後に出力セマンティクスコンバータ57から与えられ
る行動完了情報に基づいて、その行動が完了したことを
学習モジュール72、感情モデル73及び本能モデル7
4に通知する。
Further, based on the action completion information provided from the output semantics converter 57 after the action is completed, the action switching module 71 notifies the learning module 72, the emotion model 73, and the instinct model 7 that the action has been completed.
Notify 4.

【0041】一方、学習モジュール72は、入力セマン
ティクスコンバータ56から与えられる認識結果のう
ち、「叩かれた」や「撫でられた」など、ユーザからの
働きかけとして受けた教示の認識結果を入力する。
On the other hand, the learning module 72 inputs the recognition result of the teaching received from the user, such as “hit” or “stroke”, among the recognition results given from the input semantics converter 56.

【0042】そして学習モジュール72は、この認識結
果及び行動切換えモジュール71からの通知に基づい
て、「叩かれた(叱られた)」ときにはその行動の発現
確率を低下させ、「撫でられた(誉められた)」ときに
はその行動の発現確率を上昇させるように、行動モデル
ライブラリ70における対応する行動モデル701 〜7
n の対応する遷移確率を変更する。
Based on the recognition result and the notification from the action switching module 71, the learning module 72 lowers the probability of occurrence of the action when "beaten (scolded)" and "strokes (praise)". was) "sometimes to increase the expression probability of that action, behavior model 70 1-7 corresponding in behavioral model library 70
Change the corresponding transition probability of 0 n .

【0043】他方、感情モデル73は、「喜び(joy
)」、「悲しみ(sadness )」、「怒り(anger
)」、「驚き(surprise)」、「嫌悪(disgust )」
及び「恐れ(fear)」の合計6つの情動について、各情
動ごとにその情動の強さを表すパラメータを保持してい
る。そして感情モデル73は、これら各情動のパラメー
タ値を、それぞれ入力セマンティクスコンバータモジュ
ール56から与えられる「叩かれた」及び「撫でられ
た」などの特定の認識結果と、経過時間及び行動切換え
モジュール71からの通知となどに基づいて周期的に更
新する。
On the other hand, the emotion model 73 indicates "joy (joy)
) "," Sadness "," anger "
) "," Surprise "," disgust "
For a total of six emotions of “fear” and “fear”, a parameter indicating the strength of the emotion is stored for each emotion. Then, the emotion model 73 converts the parameter values of each of these emotions from the specific recognition results such as “hit” and “stroke” given from the input semantics converter module 56 and the elapsed time and action switching module 71, respectively. Is periodically updated based on the notification of.

【0044】具体的に感情モデル73は、入力セマンテ
ィクスコンバータモジュール56から与えられる認識結
果と、そのときのペットロボット1の行動と、前回更新
してからの経過時間となどに基づいて所定の演算式によ
り算出されるそのときのその情動の変動量をΔE
〔t〕、現在のその情動のパラメータ値をE〔t〕、そ
の情動の感度を表す係数をke として、次式
Specifically, the emotion model 73 is based on the recognition result given from the input semantics converter module 56, the behavior of the pet robot 1 at that time, the elapsed time since the last update, and the like. Is the amount of change of the emotion at that time calculated by ΔE
[T], the current parameter value of the emotion E [t], the coefficient representing the sensitivity of the emotion as k e, the following equation

【0045】[0045]

【数1】 (Equation 1)

【0046】によって次の周期におけるその情動のパラ
メータ値E〔t+1〕を算出し、これを現在のその情動
のパラメータ値E〔t〕と置き換えるようにしてその情
動のパラメータ値を更新する。また感情モデル73は、
これと同様にして全ての情動のパラメータ値を更新す
る。
Thus, the parameter value E [t + 1] of the emotion in the next cycle is calculated, and the parameter value of the emotion is updated by replacing the parameter value E [t] with the current parameter value E [t] of the emotion. The emotion model 73 is
Similarly, the parameter values of all emotions are updated.

【0047】なお各認識結果や行動切換えモジュール7
1からの通知が各情動のパラメータ値の変動量ΔE
〔t〕にどの程度の影響を与えるかは予め決められてお
り、例えば「叩かれた」といった認識結果は「怒り」の
情動のパラメータ値の変動量ΔE〔t〕に大きな影響を
与え、「撫でられた」といった認識結果は「喜び」の情
動のパラメータ値の変動量ΔE〔t〕に大きな影響を与
えるようになっている。
Each recognition result and action switching module 7
1 is the variation ΔE of the parameter value of each emotion
The degree of influence on [t] is determined in advance. For example, a recognition result such as “hit” has a large effect on the variation ΔE [t] of the parameter value of the emotion of “anger”. The recognition result such as “stroke” has a great influence on the variation ΔE [t] of the parameter value of the emotion of “joy”.

【0048】これに対して本能モデル74は、「運動欲
(exersise)」、「愛情欲(afection)」、「食欲(ap
petite)」及び「好奇心(curiocity )」の互いに独立
した4つの欲求について、これら欲求ごとにその欲求の
強さを表すパラメータを保持している。そして本能モデ
ル74は、これら欲求のパラメータ値を、それぞれ入力
セマンティクスコンバータモジュール56から与えられ
る認識結果や、経過時間及び行動切換えモジュール71
からの通知などに基づいて周期的に更新する。
On the other hand, the instinct model 74 includes “exercise (exersise)”, “affection (afection)”, and “appetite (ap
For each of the four independent desires "petite" and "curiocity", a parameter indicating the strength of the desire is held for each of the desires. Then, the instinct model 74 converts the parameter values of the desire into the recognition result given from the input semantics converter module 56, the elapsed time and the action switching module 71, respectively.
Update periodically based on notification from

【0049】具体的に本能モデル74は、「運動欲」、
「愛情欲」及び「好奇心」については、認識結果、経過
時間及び行動切換えモジュール71からの通知などに基
づいて所定の演算式により算出されるそのときのその欲
求の変動量をΔI〔k〕、現在のその欲求のパラメータ
値をI〔k〕、その欲求の感度を表す係数をki とし
て、所定周期で次式
More specifically, the instinct model 74 is “exercise desire”
Regarding “affection desire” and “curiosity”, the amount of change in the desire at that time calculated by a predetermined arithmetic expression based on the recognition result, the elapsed time, and the notification from the action switching module 71 is ΔI [k] , The current parameter value of the desire is I [k], and the coefficient representing the sensitivity of the desire is k i ,

【0050】[0050]

【数2】 (Equation 2)

【0051】を用いて次の周期におけるその欲求のパラ
メータ値I〔k+1〕を算出し、この演算結果を現在の
その欲求のパラメータ値I〔k〕と置き換えるようにし
てその欲求のパラメータ値を更新する。また本能モデル
74は、これと同様にして「食欲」を除く各欲求のパラ
ータ値を更新する。
Is used to calculate the parameter value I [k + 1] of the desire in the next cycle, and replaces the result of this operation with the current parameter value I [k] of the desire to update the parameter value of the desire. I do. Similarly, the instinct model 74 updates the parameter values of each desire except for “appetite”.

【0052】なお認識結果及び行動切換えモジュール7
1からの通知などが各欲求のパラメータ値の変動量ΔI
〔k〕にどの程度の影響を与えるかは予め決められてお
り、例えば行動切換えモジュール71からの通知は「運
動欲」のパラメータ値の変動量ΔI〔k〕に大きな影響
を与えるようになっている。
The recognition result and action switching module 7
1 is the variation ΔI of the parameter value of each desire
The degree of influence on [k] is predetermined. For example, the notification from the action switching module 71 has a large effect on the variation ΔI [k] of the parameter value of “motivation”. I have.

【0053】また本能モデル74は、「食欲」について
は、入力セマンティクスコンバータモジュール56を介
して与えられるバッテリ残量データに基づいて、バッテ
リ残量をBL として、所定周期で次式
In the instinct model 74, the “appetite” is calculated based on the remaining battery level data provided through the input semantics converter module 56 as B L and the following equation at a predetermined cycle.

【0054】[0054]

【数3】 (Equation 3)

【0055】により「食欲」のパラメータ値I〔k〕を
算出し、この演算結果を現在の食欲のパラメータ値I
〔k〕と置き換えるようにして当該「食欲」のパラメー
タ値を更新する。
By calculating the parameter value I [k] of “appetite”, the result of this calculation is used as the parameter value I of the current appetite.
The parameter value of the “appetite” is updated by replacing with [k].

【0056】なお本実施の形態においては、各情動及び
各欲求のパラメータ値がそれぞれ0から100 までの範囲
で変動するように規制されており、また係数ke 、ki
の値も各情動及び各欲求ごとに個別に設定されている。
In the present embodiment, the parameter values of each emotion and each desire are regulated so as to fluctuate in the range of 0 to 100, and the coefficients k e and k i
Is also set individually for each emotion and each desire.

【0057】一方、ミドル・ウェア・レイヤ40の出力
セマンティクスコンバータモジュール57は、図4に示
すように、上述のようにしてアプリケーション・レイヤ
41の行動切換えモジュール71から与えられる「前
進」、「喜ぶ」、「鳴く」又は「トラッキング(ボール
を追いかける)」といった抽象的な行動コマンドを出力
系65の対応する信号処理モジュール58〜64に与え
る。
On the other hand, as shown in FIG. 4, the output semantics converter module 57 of the middleware layer 40 is provided with "forward" and "pleased" given from the action switching module 71 of the application layer 41 as described above. , "Sound" or "tracking (follow the ball)" to the corresponding signal processing modules 58 to 64 of the output system 65.

【0058】そしてこれら信号処理モジュール58〜6
4は、行動コマンドが与えられると当該行動コマンドに
基づいて、その行動を行うために対応するアクチュエー
タ251 〜25n (図2)に与えるべきサーボ指令値
や、スピーカ24(図2)から出力する音の音声データ
及び又は「目」のLEDに与える駆動データを生成し、
これらのデータをロボティック・サーバ・オブジェクト
32のバーチャルロボット33及び信号処理回路14
(図2)を順次介して対応するアクチュエータ251
25n 、スピーカ24又はLEDに順次送出する。
The signal processing modules 58 to 6
4, given the behavior command based on the action command, and servo command value to be applied to the actuator 25 1 to 25 n (Fig. 2) corresponding to perform that action, the output from the speaker 24 (FIG. 2) Generating sound data of the sound to be played and / or driving data to be given to the LED of the “eye”,
These data are transferred to the virtual robot 33 of the robotic server object 32 and the signal processing circuit 14.
The corresponding actuators 25 1 to 25 1 through (FIG. 2)
25 n , sequentially to the speaker 24 or the LED.

【0059】このようにしてこのペットロボット1にお
いては、制御プログラムに基づいて、自己及び周囲の状
況や、ユーザからの指示及び働きかけに応じた自律的な
行動を行うことができるようになされている。
In this manner, the pet robot 1 can perform an autonomous action in accordance with its own and surrounding conditions, instructions and actions from the user, based on the control program. .

【0060】(3)環境に応じた感情・本能の変化 かかる構成に加えてこのペットロボット1の場合、例え
ば周囲が「明るい」ときには陽気になり、これに対して
周囲が「暗い」ときには物静かとなるなど、周囲の環境
のうちの「騒音」、「温度」及び「照度」の3つの条件
(以下、これを環境条件と呼ぶ)の度合いに応じて感情
・本能を変化させるようになされている。
(3) Changes in emotions and instinct according to the environment In addition to the above configuration, in the case of the pet robot 1, for example, when the surroundings are “bright”, the pet becomes cheerful, whereas when the surroundings are “dark”, it is quiet. For example, emotions and instinct are changed in accordance with the degree of three conditions of the surrounding environment such as "noise", "temperature" and "illuminance" (hereinafter referred to as environmental conditions). .

【0061】すなわちこのペットロボット1には、周囲
の状況を検出するための外部センサとして、上述したC
CDカメラ20、距離センサ22、タッチセンサ21及
びマイクロホン23などに加えて周囲の温度を検出する
ための温度センサ(図示せず)が所定位置に設けられて
いる。
That is, the pet robot 1 has the above-described C as an external sensor for detecting the surrounding situation.
In addition to the CD camera 20, the distance sensor 22, the touch sensor 21, the microphone 23, and the like, a temperature sensor (not shown) for detecting an ambient temperature is provided at a predetermined position.

【0062】また図4に示すミドル・ウェア・レイヤ4
0の認識系57には、上述した音階認識用、距離検出
用、姿勢検出用、タッチセンサ用、動き検出用及び色認
識用の各信号処理モジュール50〜55に加えて、実際
には図9に示すように、騒音検出用、温度検出用及び明
るさ検出用の各信号処理モジュール90〜91が設けら
れている。
The middleware layer 4 shown in FIG.
In addition to the above-described signal processing modules 50 to 55 for scale recognition, distance detection, attitude detection, touch sensor, motion detection, and color recognition, the recognition system 57 of FIG. As shown in FIG. 5, signal processing modules 90 to 91 for noise detection, temperature detection, and brightness detection are provided.

【0063】そして騒音検出用の信号処理モジュール9
0は、ロボティック・サーバ・オブジェクト32のバー
チャル・ロボット33を介して与えられるマイクロホン
23(図2)からの音声データに基づいて周囲の騒音レ
ベルを検出し、検出結果を入力セマンティクスコンバー
タモジュール56に出力するようになされている。
The signal processing module 9 for noise detection
0 detects the ambient noise level based on audio data from the microphone 23 (FIG. 2) given via the virtual robot 33 of the robotic server object 32, and sends the detection result to the input semantics converter module 56. The output has been made.

【0064】また温度検出用の信号処理モジュール91
は、バーチャル・ロボット33を介して与えられる温度
センサからのセンサデータに基づいて周囲の温度を検出
し、検出結果を入力セマンティクスコンバータモジュー
ル56に出力する。
A signal processing module 91 for temperature detection
Detects the ambient temperature based on the sensor data from the temperature sensor provided via the virtual robot 33, and outputs the detection result to the input semantics converter module 56.

【0065】さらに明るさ検出用の信号処理モジュール
92は、バーチャル・ロボット33を介して与えられる
CCDカメラ20(図2)からの画像データに基づいて
周囲の照度を検出し、検出結果を入力セマンティクスコ
ンバータモジュール56に出力する。
Further, a signal processing module 92 for detecting brightness detects surrounding illuminance based on image data from the CCD camera 20 (FIG. 2) given through the virtual robot 33, and inputs the detection result to input semantics. Output to the converter module 56.

【0066】入力セマンティクスコンバータモジュール
56は、図4について説明にした上述のような認識処理
に加え、これら各信号処理モジュール90〜92の出力
に基づいて周囲の「騒音」、「温度」及び「照度」の度
合いを認識し、当該認識結果を上述のようにアプリケー
ション・モジュール41(図5)の感情モデル73及び
本能モデル74等に出力する。
The input semantics converter module 56 performs, in addition to the recognition processing described above with reference to FIG. 4, the surrounding “noise”, “temperature”, and “illuminance” based on the outputs of these signal processing modules 90 to 92. And outputs the recognition result to the emotion model 73 and the instinct model 74 of the application module 41 (FIG. 5) as described above.

【0067】具体的に、入力セマンティクスコンバータ
モジュール56は、騒音検出用の信号処理モジュール9
0の出力に基づいて周囲の「騒音」の度合いを認識し、
「うるさい」又は「静か」といった認識結果を感情モデ
ル73及び本能モデル74等に出力する。
Specifically, the input semantics converter module 56 is a signal processing module 9 for noise detection.
Recognizing the degree of surrounding “noise” based on the output of 0,
The recognition result such as "noisy" or "quiet" is output to the emotion model 73, the instinct model 74, and the like.

【0068】また入力セマンティクスコンバータモジュ
ール56は、温度検出用の信号処理モジュール91の出
力に基づいて周囲の「温度」の度合いを認識し、「暑
い」又は「寒い」といった認識結果を感情モデル73及
び本能モデル74等に出力する。
The input semantics converter module 56 recognizes the degree of “temperature” of the surroundings based on the output of the signal processing module 91 for temperature detection, and recognizes the recognition result of “hot” or “cold” as the emotion model 73 and Output to the instinct model 74 and the like.

【0069】さらに入力セマンティクスコンバータモジ
ュール56は、明るさ検出用の信号処理モジュール91
の出力に基づいて周囲の「照度」の度合いを認識し、
「明るい」又は「暗い」といった認識結果を感情モデル
73及び本能モデル74等に出力する。
Further, the input semantics converter module 56 includes a signal processing module 91 for detecting brightness.
Recognizes the degree of "illuminance" in the surrounding area based on the output of
The recognition result such as “bright” or “dark” is output to the emotion model 73, the instinct model 74, and the like.

【0070】感情モデル73は、上述のように、入力セ
マンティクスコンバータモジュール56から与えられる
各種認識結果に基づき(1)式に従って各情動のパラメ
ータ値を周期的に変更する。
As described above, the emotion model 73 periodically changes the parameter value of each emotion according to the expression (1) based on the various recognition results provided from the input semantics converter module 56.

【0071】また感情モデル73は、入力セマンティク
スコンバータモジュール56から与えられる「騒音」、
「温度」及び「照度」についての認識結果に基づいて、
予め定められた対応する情動についての(1)式の係数
e の値を増減させる。
The emotion model 73 includes “noise” given from the input semantics converter module 56,
Based on the recognition results for "temperature" and "illuminance",
Increase or decrease the value of the coefficient k e of equation (1) for a predetermined corresponding emotion.

【0072】具体的に感情モデル73は、例えば「うる
さい」といった認識結果が与えられた場合には「怒り」
の情動に対する係数ke の値を所定数増加させ、これに
対して「静か」といった認識結果が与えられた場合には
「怒り」の情動に対する係数ke の値を所定数減少させ
る。
Specifically, when the recognition result such as “noisy” is given, for example,
Emotional predetermined number increases the value of the coefficient k e for the, if the recognition result such as "quiet" is given to this reduces a predetermined number of values of the coefficient k e for the emotion "angry".

【0073】また感情モデル73は、「暑い」といった
認識結果が与えられた場合には「喜び」の情動に対する
係数ke の値を所定数減少させ、これに対して「寒い」
といった認識結果が与えられた場合には「悲しみ」の情
動に対する係数ke の値を所定数増加させる。
[0073] The emotion model 73, "hot" if such a recognition result is given reduces a predetermined number of values of the coefficient k e for emotion "joy", "cold" contrast
Increasing the predetermined number of values of the coefficient k e for emotion "sadness" when the recognition result such is given.

【0074】さらに感情モデル73は、「明るい」とい
った認識結果が与えられた場合には「喜び」の情動に対
する係数ke の値を所定数増加させ、これに対して「暗
い」といった認識結果が与えられた場合には「恐れ」の
情動に対する係数ke の値を所定数増加させる。
[0074] Further emotion model 73, emotional value of the coefficient k e is increased by a predetermined number with respect to the "joy" when the recognition result such as "bright" is given, the recognition result such as "dark" with respect to this when given increases a predetermined number of values of the coefficient k e for the emotion "fear".

【0075】これと同様にして、本能モデル74は、上
述のように、入力セマンティクスコンバータモジュール
56から与えられる各種認識結果等に基づき(2)式及
び(3)式に従って各欲求のパラメータ値を周期的に変
更する。
Similarly, as described above, the instinct model 74 periodically changes the parameter values of each desire in accordance with equations (2) and (3) based on various recognition results and the like given from the input semantics converter module 56. Change.

【0076】また本能モデル74は、入力セマンティク
スコンバータモジュール56から与えられる「騒音」、
「温度」及び「照度」の度合いについての認識結果に基
づいて、予め定められた対応する欲求の(2)式の係数
i の値を増減させる。
The instinct model 74 includes “noise” given from the input semantics converter module 56,
Based on the recognition result of the degree of “temperature” and “illuminance”, the value of the coefficient k i of the predetermined corresponding desire (2) is increased or decreased.

【0077】具体的に本能モデルは、例えば「うるさ
い」や「明るい」といった認識結果が与えられた場合に
は「運動欲」に対する係数ki の値を所定数増加させ、
これに対して「静か」や「暗い」といった認識結果が与
えられた場合には「運動欲」に対する係数ki の値を所
定数減少させる。また本能モデルは、「暑い」又は「寒
い」といった認識結果が与えられた場合には「運動欲」
に対する係数ki の値を所定数減少させる。
Specifically, in the instinct model, when a recognition result such as “noisy” or “bright” is given, for example, the value of the coefficient k i for “motivation” is increased by a predetermined number,
This "quiet" and when the recognition result such as "dark" is given reduces a predetermined number of values of the coefficient k i for "exercise desire" to. In addition, the instinct model indicates that when a recognition result such as “hot” or “cold” is given,
Predetermined number to reduce the value of the coefficient k i for.

【0078】この結果このペットロボット1において
は、例えば周囲が「うるさい」ときには、「怒り」及び
「運動欲」のパラメータ値が共に増加し易くなるため
に、全体として行動が「いらいら」したような行動とな
り、これに対して周囲が「静か」なときには「怒り」及
び「運動欲」のパラメータ値が減少し易くなるために、
全体として行動が「落ちついた」行動となる。
As a result, in the pet robot 1, for example, when the surroundings are "loud", the parameter values of "anger" and "greed for exercise" are both likely to increase, so that the behavior becomes "irritated" as a whole. In contrast, when the surroundings are "quiet", the parameter values of "anger" and "exercise desire" tend to decrease,
The behavior as a whole is a “calm” behavior.

【0079】また周囲が「暑い」ときには、「喜び」及
び「運動欲」のパラメータ値が共に減少し易くなるため
に、全体として行動が「だらけた」ような行動となり、
これに対して「寒い」ときには「悲しみ」のパラメータ
値が増加し易く、かつ「運動欲」のパラメータ値が減少
し易くなるために、全体として「寒がっている」ような
行動となる。
When the surroundings are "hot", the parameter values of "joy" and "exercise desire" both tend to decrease, so that the behavior as a whole is "slack".
On the other hand, when it is "cold", the parameter value of "sadness" tends to increase and the parameter value of "exercise desire" tends to decrease, so that the behavior as a whole is "cold".

【0080】さらに周囲が「明るい」ときには、「喜
び」及び「運動欲」のパラメータ値が共に増加し易くな
るために、全体として行動が「陽気」な行動となり、こ
れに対して周囲が「暗い」ときには「喜び」のパラメー
タ値が増加し易くかつ「運動欲」のパラメータ値が減少
し易くなるために、全体として行動が「物静か」な行動
となる。
Further, when the surroundings are "bright", the parameter values of "joy" and "greed for exercise" both tend to increase, so that the behavior becomes "cheerful" as a whole, whereas the surroundings are "dark". At that time, the parameter value of “joy” tends to increase and the parameter value of “exercise greed” tends to decrease, so that the behavior becomes a “quiet” behavior as a whole.

【0081】このようにしてペットロボット1において
は、環境に応じて感情及び本能を変化させ、これに応じ
て行動を変化させるようになされている。
As described above, in the pet robot 1, the emotion and the instinct are changed according to the environment, and the behavior is changed according to the change.

【0082】(4)本実施の形態の動作及び効果 以上の構成において、このペットロボット1では、CC
Dカメラ20、温度センサ及びマイクロホン23の出力
に基づいて周囲の「騒音」、「温度」及び「照度」の度
合いを認識し、認識結果に基づいて感情モデルの対応す
る情動についての(1)式の係数ke の値と、本能モデ
ルの対応する欲求についての(2)式の係数ki の値と
を増減させるようにして、これら情動及び欲求を変化さ
せる。
(4) Operation and Effect of this Embodiment In the above configuration, the pet robot 1
Based on the outputs of the D camera 20, the temperature sensor and the microphone 23, the degree of “noise”, “temperature” and “illuminance” of the surroundings are recognized, and based on the recognition result, the corresponding emotion of the emotion model is expressed by equation (1). the value of the coefficient k e of, so as to increase or decrease the value of the coefficient k i of the expression (2) for the corresponding desire instinct model, varying these emotions and desires.

【0083】従ってこのペットロボット1では、環境に
応じた行動が発現し易く、その分より生物感を向上させ
て、一層の親近感や満足感をユーザに与えることができ
る。
Therefore, in the pet robot 1, the behavior according to the environment is easily exhibited, and the feeling of living things can be further improved, and the user can be given a closer feeling and a more satisfying feeling.

【0084】またこのペットロボット1では、環境に応
じて情動及び欲求を変化させる手段として対応する情動
及び欲求の感度を変化させるようにしているため、環境
やその変化により迅速に反応して当該環境に応じた行動
を行うことができる。
In the pet robot 1, the sensitivity of the corresponding emotion and desire is changed as a means for changing the emotion and desire according to the environment. Can take action according to

【0085】以上の構成によれば、環境に応じて対応す
る情動及び欲求を変化させるようにしたことにより、生
物感を向上させてより一層の親近感や満足感をユーザに
与えることができ、かくしてアミューズメント性を向上
させ得るペットロボットを実現できる。
According to the above configuration, by changing the corresponding emotions and desires according to the environment, it is possible to improve the biological feeling and to give the user a further sense of closeness and satisfaction. Thus, a pet robot that can improve amusement properties can be realized.

【0086】(5)他の実施の形態 なお上述の実施の形態においては、本発明を4足歩行型
のペットロボット1に適用するようにした場合について
述べたが、本発明はこれに限らず、これ以外のこの他種
々の構成のロボット装置に広く適用することができる。
(5) Other Embodiments In the above-described embodiment, a case has been described in which the present invention is applied to the four-legged walking type pet robot 1. However, the present invention is not limited to this. The present invention can be widely applied to other various types of robot devices.

【0087】また上述の実施の形態においては、環境条
件の度合いに応じて対応する情動及び欲求のパラメータ
を更新する際の更新則として、対応する情動の(1)式
における係数ke や、対応する欲求の(2)式における
係数ki の値を変化させるようにした場合について述べ
たが、本発明はこれに限らず、例えば環境に応じて
(1)式や(2)式における変更量ΔE〔t〕、ΔI
〔k〕の値を変化させるようにしても良く、これ以外に
もこの他種々の更新則を広く適用することができる。
[0087] Further in the above embodiment, as an update rule for updating the parameters of emotions and desires a corresponding depending on the degree of environmental conditions, and the coefficient k e in the corresponding emotional expression (1), the corresponding The case where the value of the coefficient k i in equation (2) of the desire to do is changed has been described. However, the present invention is not limited to this. For example, the amount of change in equation (1) or equation (2) according to the environment ΔE [t], ΔI
The value of [k] may be changed, and other various update rules may be widely applied.

【0088】さらに上述の実施の形態においては、情動
及び欲求を変化させる環境条件として、「騒音」、「温
度」及び「照度」を適用するようにした場合について述
べたが、本発明はこれに限らず、これ以外の例えば「湿
度」、「色」及び又は「部屋の大きさ」などをも適用す
ることができる。
Further, in the above-described embodiment, a case has been described in which “noise”, “temperature”, and “illuminance” are applied as environmental conditions that change emotions and desires. However, the present invention is not limited to this. For example, “humidity”, “color”, and / or “room size” can be applied.

【0089】さらに上述の実施の形態においては、外部
センサの検出結果に基づいて「騒音」、「温度」及び
「照度」の度合いを認識する認識手段と、当該認識手段
の認識結果に基づいて感情モデル及び本能モデルを変化
させる変化手段とを同じ感情モデル73及び本能モデル
74のモジュールにより構成するようにした場合につい
て述べたが、本発明はこれに限らず、これらを別体とし
て形成するようにしても良い。
Further, in the above embodiment, the recognition means for recognizing the degree of “noise”, “temperature” and “illuminance” based on the detection result of the external sensor, and the emotion based on the recognition result of the recognition means. Although a case has been described in which the model and the changing means for changing the instinct model are configured by the same module of the emotion model 73 and the instinct model 74, the present invention is not limited to this, and these are formed separately. May be.

【0090】[0090]

【発明の効果】以上のように本発明によれば、アミュー
ズメント性を向上させ得るロボット装置及びその制御方
法を提案しようとするものである。
As described above, according to the present invention, a robot device capable of improving amusement and a control method thereof are proposed.

【0091】[0091]

【課題を解決するための手段】かかる課題を解決するた
め本発明においては、感情モデル及び又は本能モデルに
基づいて行動を生成するロボット装置において、所定の
環境条件の度合いを検出するための外部センサと、外部
センサの検出結果に基づいて環境条件の度合いを認識す
る認識手段と、認識手段の認識結果に基づいて感情モデ
ル及び又は本能モデルを変化させる変化手段とを設ける
ようにしたことにより、環境に応じて感情及び又は本能
を変化させるようにすることができ、かくしてアミュー
ズメント性を向上させ得るロボット装置を実現できる。
According to the present invention, there is provided a robot apparatus for generating an action based on an emotion model and / or an instinct model, wherein an external sensor for detecting a degree of a predetermined environmental condition is provided. And a recognizing means for recognizing the degree of the environmental condition based on the detection result of the external sensor, and a changing means for changing an emotion model and / or an instinct model based on the recognition result of the recognizing means. , The emotion and / or instinct can be changed according to the above, and a robot device that can improve amusement can be realized.

【0092】また本発明においては、感情モデル及び又
は本能モデルに基づいて行動を生成するロボット装置の
制御方法において、所定の環境条件について、その度合
いを認識する第1のステップと、認識結果に基づいて感
情モデル及び又は本能モデルを変化させる第2のステッ
プとを設けるようにしたことにより、環境に応じてロボ
ット装置の感情及び又は本能を変化させることができ、
かくしてアミューズメント性を向上させ得るロボット装
置の制御方法を実現できる。
In the present invention, in a control method of a robot apparatus for generating an action based on an emotion model and / or an instinct model, a first step of recognizing a degree of a predetermined environmental condition, And the second step of changing the emotion model and / or the instinct model is provided, so that the emotion and / or instinct of the robot device can be changed according to the environment,
Thus, it is possible to realize a control method of a robot device that can improve amusement.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施の形態によるペットロボットの構成を示
す斜視図である。
FIG. 1 is a perspective view showing a configuration of a pet robot according to the present embodiment.

【図2】ペットロボットの回路構成を示すブロック図で
ある。
FIG. 2 is a block diagram illustrating a circuit configuration of the pet robot.

【図3】制御プログラムのソフトウェア構成を示す概念
図である。
FIG. 3 is a conceptual diagram showing a software configuration of a control program.

【図4】ミドル・ウェア・レイヤのソフトウェア構成を
示す概念図である。
FIG. 4 is a conceptual diagram showing a software configuration of a middleware layer.

【図5】アプリケーション・ウェアのソフトウェア構成
を示す概念図である。
FIG. 5 is a conceptual diagram showing a software configuration of application ware.

【図6】行動モデルライブラリの説明に供する概念図で
ある。
FIG. 6 is a conceptual diagram serving to explain an action model library.

【図7】確率オートマトンを示す概念図である。FIG. 7 is a conceptual diagram illustrating a stochastic automaton.

【図8】状態遷移表を表す図表である。FIG. 8 is a chart showing a state transition table.

【図9】ミドル・ウェア・レイヤの認識系のソフトウェ
ア構成を示す概念図である。
FIG. 9 is a conceptual diagram showing a software configuration of a middleware layer recognition system.

【符号の説明】[Explanation of symbols]

1……ペットロボット、10……CPU、40……ミド
ル・ウェア・レイヤ、41……アプリケーション・レイ
ヤ、50〜55、90〜92……信号処理モジュール、
56……入力セマンティクスコンバータモジュール、5
7……認識系、73……感情モデル、74……本能モデ
ル、ke 、ki ……係数。
1 ... pet robot, 10 ... CPU, 40 ... middleware layer, 41 ... application layer, 50-55, 90-92 ... signal processing module,
56 Input semantics converter module, 5
7... Recognition system, 73... Emotion model, 74... Instinct model, k e , k i .

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) 9A001 Fターム(参考) 2C150 CA02 DA05 DA24 DA26 DA27 DA28 DF02 DF04 ED10 ED11 ED42 ED52 EF16 EF23 EF28 EF29 EF33 EF46 3F059 AA00 BA00 BB06 DA05 DB04 DC00 FC00 3F060 AA00 BA10 CA14 5B049 BB61 CC22 DD00 DD03 DD04 EE03 EE05 EE07 EE11 FF01 FF06 5H004 GA15 GA26 GB16 HA07 HB01 HB07 HB15 JA03 JB05 JB06 JB07 JB08 KD52 KD55 KD62 MA29 MA32 9A001 BB03 FF01 GG05 HH17 HH19 HH31 KK29 KK32 KK37 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) 9A001 F term (Reference) 2C150 CA02 DA05 DA24 DA26 DA27 DA28 DF02 DF04 ED10 ED11 ED42 ED52 EF16 EF23 EF28 EF29 EF33 EF46 3F059 AA00 BA00 BB06 DA05 DB04 DC00 FC00 3F060 AA00 BA10 CA14 5B049 BB61 CC22 DD00 DD03 DD04 EE03 EE05 EE07 EE11 FF01 FF06 5H004 GA15 GA26 GB16 HA07 HB01 HB07 HB15 JA03 JB05 JB06 JB07 JB08 KD52 KD55 KD52 KD55 KD52 KD55

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】感情モデル及び又は本能モデルを有し、上
記感情モデル及び又は本能モデルに基づいて行動を生成
するロボット装置において、 所定の環境条件の度合いを検出するための外部センサ
と、 上記外部センサの検出結果に基づいて上記環境条件の度
合いを認識する認識手段と、 上記認識手段の認識結果に基づいて上記感情モデル及び
又は上記本能モデルを変化させる変化手段とを具えるこ
とを特徴とするロボット装置。
1. A robot apparatus having an emotion model and / or an instinct model and generating an action based on the emotion model and / or the instinct model, wherein: an external sensor for detecting a degree of a predetermined environmental condition; A recognition unit that recognizes the degree of the environmental condition based on a detection result of the sensor; and a changing unit that changes the emotion model and / or the instinct model based on the recognition result of the recognition unit. Robot device.
【請求項2】上記環境条件は、騒音、温度、照度、色及
び又は湿度であることを特徴とする請求項1に記載のロ
ボット装置。
2. The robot apparatus according to claim 1, wherein the environmental conditions are noise, temperature, illuminance, color, and / or humidity.
【請求項3】上記感情モデル及び又は本能モデルは、複
数の情動にそれぞれ対応したパラメータ値又は複数の欲
求にそれぞれ対応したパラメータ値を保持し、 上記変化手段は、上記認識手段の認識結果に基づいて、
上記情動及び又は上記欲求の上記パラメータ値の更新則
を変化させることを特徴とする請求項1に記載のロボッ
ト装置。
3. The emotion model and / or the instinct model hold parameter values respectively corresponding to a plurality of emotions or parameter values respectively corresponding to a plurality of desires, and the changing means is based on a recognition result of the recognition means. hand,
The robot apparatus according to claim 1, wherein an update rule of the parameter value of the emotion and / or the desire is changed.
【請求項4】上記変化手段は、 上記更新則として、対応する上記情動及び又は欲求の感
度を変化させることを特徴とする請求項1に記載のロボ
ット装置。
4. The robot apparatus according to claim 1, wherein said changing means changes the sensitivity of the corresponding emotion and / or desire as the update rule.
【請求項5】感情モデル及び又は本能モデルを有し、上
記感情モデル及び又は本能モデルに基づいて行動を生成
するロボット装置の制御方法において、 所定の環境条件について、その度合いを認識する第1の
ステップと、 上記認識結果に基づいて上記感情モデル及び又は上記本
能モデルを変化させる第2のステップとを具えることを
特徴とするロボット装置の制御方法。
5. A control method for a robot device having an emotion model and / or an instinct model and generating an action based on the emotion model and / or the instinct model, wherein a first environmental condition is recognized for a predetermined environmental condition. And a second step of changing said emotion model and / or said instinct model based on said recognition result.
【請求項6】上記環境条件は、騒音、温度、照度、色及
び又は湿度であることを特徴とする請求項5に記載のロ
ボット装置の制御方法。
6. The method according to claim 5, wherein the environmental conditions are noise, temperature, illuminance, color, and / or humidity.
【請求項7】上記感情モデル及び又は本能モデルは、複
数の情動にそれぞれ対応したパラメータ値又は複数の欲
求にそれぞれ対応したパラメータ値を保持し、 上記第2のステップでは、 上記認識結果に基づいて、上記情動及び又は上記欲求の
上記パラメータ値の更新則を変化させることを特徴とす
る請求項5に記載のロボット装置の制御方法。
7. The emotion model and / or the instinct model holds parameter values respectively corresponding to a plurality of emotions or parameter values respectively corresponding to a plurality of desires, and in the second step, based on the recognition result. 6. The method according to claim 5, wherein an updating rule of the parameter value of the emotion and / or the desire is changed.
【請求項8】上記第2のステップでは、 上記更新則として、対応する上記情動及び又は欲求の感
度を変化させることを特徴とする請求項5に記載のロボ
ット装置の制御方法。
8. The control method according to claim 5, wherein in the second step, the sensitivity of the corresponding emotion and / or desire is changed as the update rule.
JP34120999A 1999-11-30 1999-11-30 Robot device, and control method thereof Pending JP2001157980A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34120999A JP2001157980A (en) 1999-11-30 1999-11-30 Robot device, and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34120999A JP2001157980A (en) 1999-11-30 1999-11-30 Robot device, and control method thereof

Publications (1)

Publication Number Publication Date
JP2001157980A true JP2001157980A (en) 2001-06-12

Family

ID=18344233

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34120999A Pending JP2001157980A (en) 1999-11-30 1999-11-30 Robot device, and control method thereof

Country Status (1)

Country Link
JP (1) JP2001157980A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100595821B1 (en) 2004-09-20 2006-07-03 한국과학기술원 Emotion synthesis and management for personal robot
KR100825719B1 (en) 2005-12-09 2008-04-29 한국전자통신연구원 Method for generating emotions and emotions generating robot
KR100858079B1 (en) * 2002-01-03 2008-09-10 삼성전자주식회사 Method and apparatus for generating emotion of the agent
JP2011115932A (en) * 2009-12-02 2011-06-16 Phison Electronics Corp Emotion engine, emotion engine system, and method of controlling electronic device
JP2014075045A (en) * 2012-10-04 2014-04-24 Sharp Corp Controller, method for controlling controller, device to be controlled, server, control program, and recording medium
CN113949853A (en) * 2021-10-13 2022-01-18 济南景雄影音科技有限公司 Projection system with environment adaptive adjustment capability and method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100858079B1 (en) * 2002-01-03 2008-09-10 삼성전자주식회사 Method and apparatus for generating emotion of the agent
KR100595821B1 (en) 2004-09-20 2006-07-03 한국과학기술원 Emotion synthesis and management for personal robot
KR100825719B1 (en) 2005-12-09 2008-04-29 한국전자통신연구원 Method for generating emotions and emotions generating robot
US7778730B2 (en) 2005-12-09 2010-08-17 Electronics And Telecommunications Research Institute Robot for generating multiple emotions and method of generating multiple emotions in robot
JP2011115932A (en) * 2009-12-02 2011-06-16 Phison Electronics Corp Emotion engine, emotion engine system, and method of controlling electronic device
US8306929B2 (en) 2009-12-02 2012-11-06 Phison Electronics Corp. Emotion engine, emotion engine system and electronic device control method
JP2014075045A (en) * 2012-10-04 2014-04-24 Sharp Corp Controller, method for controlling controller, device to be controlled, server, control program, and recording medium
CN113949853A (en) * 2021-10-13 2022-01-18 济南景雄影音科技有限公司 Projection system with environment adaptive adjustment capability and method
CN113949853B (en) * 2021-10-13 2022-10-25 济南景雄影音科技有限公司 Projection system with environment adaptive adjustment capability

Similar Documents

Publication Publication Date Title
US7117190B2 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
US6539283B2 (en) Robot and action deciding method for robot
US6650965B2 (en) Robot apparatus and behavior deciding method
EP1508409A1 (en) Robot device and robot control method
JP2005193331A (en) Robot device and its emotional expression method
JP2003039363A (en) Robot device, action learning method therefor, action learning program thereof, and program recording medium
JP2002239963A (en) Robot device and its action control method, program, and recoding medium of robot device
JP2001191281A (en) Editing device, editing method, and storage medium
JP2003159674A (en) Robot system, external force detecting method and program for the system, and calibration method and program for the system
JP2004298975A (en) Robot device and obstacle searching method
JP4296736B2 (en) Robot device
JP2003136456A (en) Robot device, brightness detection method of robot device, brightness detection program and recording medium
JP2001157980A (en) Robot device, and control method thereof
WO2002030629A1 (en) Robot apparatus, information display system, and information display method
JP2004130427A (en) Robot device and method for controling operation of robot device
JP2002205289A (en) Action control method for robot device, program, recording medium and robot device
JP2002239952A (en) Robot device, action control method for robot device, program, and recording medium
JP2001157979A (en) Robot device, and control method thereof
JP2001154707A (en) Robot device and its controlling method
JP4379052B2 (en) Moving object detection apparatus, moving object detection method, and robot apparatus
JP4193098B2 (en) TRACKING DEVICE, TRACKING DEVICE TRACKING METHOD, AND ROBOT DEVICE
JP2001157982A (en) Robot device and control method thereof
JP2001157981A (en) Robot device and control method thereof
JP2002120183A (en) Robot device and input information detecting method for robot device
JP2004130426A (en) Robot device and its operation control method