JP2003136451A - Robot device and control method thereof - Google Patents

Robot device and control method thereof

Info

Publication number
JP2003136451A
JP2003136451A JP2001339628A JP2001339628A JP2003136451A JP 2003136451 A JP2003136451 A JP 2003136451A JP 2001339628 A JP2001339628 A JP 2001339628A JP 2001339628 A JP2001339628 A JP 2001339628A JP 2003136451 A JP2003136451 A JP 2003136451A
Authority
JP
Japan
Prior art keywords
emotion
unit
action
stored
storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001339628A
Other languages
Japanese (ja)
Inventor
Masato Ito
真人 伊藤
Takeshi Takagi
剛 高木
Rika Hasegawa
里香 長谷川
Gen Endo
玄 遠藤
Shinichi Kariya
真一 狩谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001339628A priority Critical patent/JP2003136451A/en
Publication of JP2003136451A publication Critical patent/JP2003136451A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To control action of a robot device by combining its memory and emotion. SOLUTION: In the robot device 1, with a specified emotion model, for performing an action in response to the change of the emotion model, controlling memory contents in accordance with emotion information for indicating a change state of the emotion model enables action control of the robot device 1 by combining its memory and emotion. Thus, the robot device 1 capable of autonomously performing improved natural action can be realized.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明はロボット装置及びそ
の制御方法に関し、例えばペットロボットに適用して好
適なものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot apparatus and its control method, and is suitable for application to, for example, a pet robot.

【0002】[0002]

【従来の技術】近年、ユーザからの指令や周囲の環境に
応じて行動する4足歩行型のペットロボットが本願出願
人から提案及び開発されている。かかるペットロボット
は、一般家庭において飼育される犬や猫に似た形状を有
し、ユーザからの指令や周囲の環境に応じて自律的に行
動するようになされている。
2. Description of the Related Art In recent years, the applicant of the present invention has proposed and developed a four-legged walking type pet robot that behaves according to a command from a user and the surrounding environment. Such a pet robot has a shape similar to a dog or cat raised in a general household, and is adapted to act autonomously in response to a command from a user and a surrounding environment.

【0003】[0003]

【発明が解決しようとする課題】ところでかかるペット
ロボットにおいては、当該ペットロボットに感情を持た
せることを目的として、例えば「喜び」や「悲しみ」な
どの感情の強さを示す種々の感情パラメータからなる感
情モデルが設けられ、ユーザからの働きかけや周囲の環
境に応じて当該各感情パラメータのレベルをそれぞれ変
化させることにより、当該各感情パラメータの変化に応
じた行動を実行する。
By the way, in such a pet robot, for the purpose of giving the pet robot an emotion, for example, from various emotion parameters indicating the intensity of emotion such as "joy" and "sadness", The emotion model is provided, and the level of each emotional parameter is changed according to the user's action or the surrounding environment, thereby performing an action according to the change of each emotional parameter.

【0004】このようにペットロボットは、各感情パラ
メータの変化に応じた行動を選択するなどして多様な行
動を実行するようになされているが、当該ペットロボッ
トの行動を制御する際、過去の記憶と感情とを組み合わ
せて制御することができれば、より一層本物のペットに
近い高度な行動を実現することができるものと考えられ
る。
As described above, the pet robot executes various actions such as selecting an action according to the change of each emotional parameter. When controlling the action of the pet robot, the past action is performed. It is considered that if it is possible to control by combining memory and emotion, it is possible to realize advanced behavior that is closer to that of a real pet.

【0005】またかかるペットロボットにおいては、メ
モリに記憶されているデータを管理する方法として、例
えば当該メモリに記憶されているデータの数が記憶可能
な上限値に達したときには、最も過去に記憶されたデー
タや最もアクセス回数の少ないデータを削除して新しい
データを追加する方法が採用されているが、感情を有す
るロボットの動作としては必ずしも適切ではない。
Further, in such a pet robot, as a method of managing the data stored in the memory, for example, when the number of data stored in the memory reaches the storable upper limit value, the data is stored in the oldest. However, the method of deleting new data and the data with the least number of accesses and adding new data is not necessarily appropriate for the emotional robot.

【0006】本発明は以上の点を考慮してなされたもの
で、従来に比して一段と自然な動作を自律的に行うロボ
ット装置及びその制御方法を提案しようとするものであ
る。
The present invention has been made in consideration of the above points, and an object thereof is to propose a robot apparatus and a control method thereof that autonomously perform a more natural motion than ever before.

【0007】[0007]

【課題を解決するための手段】かかる課題を解決するた
め本発明においては、所定の感情モデルを有し、当該感
情モデルの変化に応じた動作を行うロボット装置におい
て、感情モデルの変化状態を示す感情情報に基づいて記
憶内容を管理する記憶手段を設けた。この結果、記憶と
感情を組み合わせて当該ロボット装置の動作を制御する
ことができる。
In order to solve the above problems, the present invention shows a change state of an emotion model in a robot apparatus having a predetermined emotion model and performing an action according to the change of the emotion model. A storage means for managing the stored contents based on emotion information is provided. As a result, it is possible to control the operation of the robot device by combining memory and emotion.

【0008】[0008]

【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described in detail below with reference to the drawings.

【0009】(1)ペットロボットの構成 図1において、1は全体としてペットロボットを示し、
胴体部ユニット2の前後左右にそれぞれ脚部ユニット3
A〜3Dが連結されると共に、胴体部ユニット2の前端
部及び後端部にそれぞれ頭部ユニット4及び尻尾部ユニ
ット5が連結されることにより構成されている。
(1) Structure of Pet Robot In FIG. 1, reference numeral 1 indicates a pet robot as a whole,
The leg units 3 are provided on the front, rear, left and right of the body unit 2, respectively.
A to 3D are connected, and the head unit 4 and the tail unit 5 are connected to the front end and the rear end of the body unit 2, respectively.

【0010】胴体部ユニット2には、図2に示すよう
に、CPU(Central Processing Unit )10、DRA
M(Dynamic Random Access Memory)11、フラッシュ
ROM(Read Only Memory)12、PC(Personal Com
puter )カードインターフェース回路13及び信号処理
回路14が内部バス15を介して相互に接続されること
により形成されたコントロール部16と、このペットロ
ボット1の動力源としてのバッテリ17とが収納されて
いる。また胴体部ユニット2には、ペットロボット1の
向きや動きの加速度を検出するための角速度センサ18
及び加速度センサ19なども収納されている。
As shown in FIG. 2, the body unit 2 includes a CPU (Central Processing Unit) 10 and a DRA.
M (Dynamic Random Access Memory) 11, Flash ROM (Read Only Memory) 12, PC (Personal Com)
puter) A control unit 16 formed by connecting the card interface circuit 13 and the signal processing circuit 14 to each other via an internal bus 15 and a battery 17 as a power source of the pet robot 1 are housed. . Further, the body unit 2 includes an angular velocity sensor 18 for detecting the direction of the pet robot 1 and the acceleration of movement.
An acceleration sensor 19 and the like are also stored.

【0011】また頭部ユニット4には、外部の状況を撮
像するためのCCD(Charge Coupled Device )カメラ
20と、ユーザからの「撫でる」や「叩く」といった物
理的な働きかけにより受けた圧力を検出するためのタッ
チセンサ21と、前方に位置する物体までの距離を測定
するための距離センサ22と、外部音を集音するための
マイクロホン23と、鳴き声等の音声を出力するための
スピーカ24と、ペットロボット1の「目」に相当する
LED(Light Emitting Diode)(図示せず)となどが
それぞれ所定位置に配設されている。
Further, the head unit 4 detects a CCD (Charge Coupled Device) camera 20 for picking up an image of an external situation, and a pressure applied by a physical action such as "stroking" or "striking" from a user. A touch sensor 21 for moving, a distance sensor 22 for measuring a distance to an object located in front, a microphone 23 for collecting an external sound, and a speaker 24 for outputting a voice such as a cry. LEDs (Light Emitting Diodes) (not shown) corresponding to the “eyes” of the pet robot 1 are arranged at predetermined positions.

【0012】さらに各脚部ユニット3A〜3Dの関節部
分や、各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、頭部ユニット4及び胴体部ユニット2の
連結部分、並びに尻尾部ユニット5の尻尾5Aの連結部
分などにはそれぞれ自由度数分のアクチュエータ251
〜25及びポテンショメータ261〜26が配設さ
れている。
Further, the joints of the leg units 3A to 3D, the leg units 3A to 3D and the body unit 2 are connected.
Each of the connecting portions of the head unit 4 and the body unit 2, the connecting portion of the tail 5A of the tail unit 5, and the like have actuators 25 1 having a number of degrees of freedom.
.About.25 n and potentiometers 26 1 to 26 n are provided.

【0013】そしてこれら角速度センサ18、加速度セ
ンサ19、タッチセンサ21、距離センサ22、マイク
ロホン23、スピーカ24及び各ポテンショメータ26
1〜26などの各種センサ並びにLED及び各アクチ
ュエータ251〜25は、それぞれ対応するハブ271
〜27を介してコントロール部16の信号処理回路1
4と接続され、CCDカメラ20及びバッテリ17は、
それぞれ信号処理回路14と直接接続されている。
The angular velocity sensor 18, acceleration sensor 19, touch sensor 21, distance sensor 22, microphone 23, speaker 24 and potentiometer 26 are provided.
Various sensors such as 1 to 26 n , LEDs, and actuators 25 1 to 25 n correspond to the corresponding hubs 27 1
~ 27 signal processing circuit of the control unit 16 via the n 1
4, the CCD camera 20 and the battery 17 are connected to
Each is directly connected to the signal processing circuit 14.

【0014】このとき信号処理回路14は、上述の各セ
ンサから供給されるセンサデータや画像データ及び音声
データを順次取り込み、これらをそれぞれ内部バス15
を介してDRAM11内の所定位置に順次格納する。ま
た信号処理回路14は、これと共にバッテリ17から供
給されるバッテリ残量を表すバッテリ残量データを順次
取り込み、これをDRAM11内の所定位置に格納す
る。
At this time, the signal processing circuit 14 sequentially takes in the sensor data, the image data and the audio data supplied from the above-mentioned respective sensors, and these are respectively taken in the internal bus 15.
It is sequentially stored in a predetermined position in the DRAM 11 via. Further, the signal processing circuit 14 also sequentially takes in the battery remaining amount data representing the remaining battery amount supplied from the battery 17, and stores it in a predetermined position in the DRAM 11.

【0015】そしてこのようにしてDRAM11に格納
された各センサデータ、画像データ、音声データ及びバ
ッテリ残量データは、この後CPU10がこのペットロ
ボット1の動作制御を行う際に利用される。
The sensor data, the image data, the audio data, and the battery remaining amount data thus stored in the DRAM 11 are used when the CPU 10 subsequently controls the operation of the pet robot 1.

【0016】実際上CPU10は、ペットロボット1の
電源が投入された初期時、胴体部ユニット2の図示しな
いPCカードスロットに装填されたメモリカード28又
はフラッシュROM12に格納された制御プログラムを
PCカードインターフェース回路13を介して又は直接
読み出し、これをDRAM11に格納する。
In practice, the CPU 10 executes the control program stored in the memory card 28 or the flash ROM 12 loaded in the PC card slot (not shown) of the body unit 2 at the initial stage when the power of the pet robot 1 is turned on by the PC card interface. It is read out via the circuit 13 or directly and stored in the DRAM 11.

【0017】またCPU10は、この後上述のように信
号処理回路14よりDRAM11に順次格納される各セ
ンサデータ、画像データ、音声データ及びバッテリ残量
データに基づいて自己及び周囲の状況や、ユーザからの
指示及び働きかけの有無などを判断する。
After that, the CPU 10 receives the sensor data, the image data, the audio data, and the battery remaining amount data, which are sequentially stored in the DRAM 11 from the signal processing circuit 14 as described above, based on the self and surrounding conditions and the user. Judging whether or not there are instructions and how to work.

【0018】さらにCPU10は、この判断結果及びD
RAM11に格納した制御プログラムに基づいて続く行
動を決定すると共に、当該決定結果に基づいて必要なア
クチュエータ251〜25を駆動させることにより、
頭部ユニット4を上下左右に振らせたり、尻尾部ユニッ
ト5の尻尾5Aを動かせたり、各脚部ユニット3A〜3
Dを駆動させて歩行させるなどの行動を行わせる。
Further, the CPU 10 determines this determination result and D
By determining the subsequent action based on the control program stored in the RAM 11 and driving the necessary actuators 25 1 to 25 n based on the determination result,
The head unit 4 can be swung up and down, left and right, the tail 5A of the tail unit 5 can be moved, and each of the leg units 3A to 3
Cause D to drive and walk.

【0019】またこの際CPU10は、必要に応じて音
声データを生成し、これを信号処理回路14を介して音
声信号としてスピーカ24に与えることにより当該音声
信号に基づく音声を外部に出力させたり、上述のLED
を点灯、消灯又は点滅させる。
Further, at this time, the CPU 10 generates voice data as required and gives the voice data to the speaker 24 through the signal processing circuit 14 to output the voice based on the voice signal to the outside. LED mentioned above
Is turned on, turned off, or blinks.

【0020】このようにしてこのペットロボット1にお
いては、自己及び周囲の状況や、ユーザからの指示及び
働きかけに応じて自律的に行動し得るようになされてい
る。
In this way, the pet robot 1 can act autonomously according to its own and surrounding conditions, and instructions and actions from the user.

【0021】(2)コントロール部16の処理 次にこのペットロボット1におけるコントロール部16
の具体的な処理について説明する。
(2) Processing of the control unit 16 Next, the control unit 16 in the pet robot 1
The specific processing of will be described.

【0022】コントロール部16の処理内容を機能的に
分類すると、図3に示すように、外部の環境を認識する
環境認識部30と、環境認識部30の認識結果に基づい
て感情パラメータの値を変化させることにより感情の状
態を決定する感情生成部31と、環境認識部30の認識
結果と感情生成部31から与えられる感情パラメータ値
とを組み合わせて記憶する記憶部32と、環境認識部3
0の認識結果と記憶部32の記憶内容と感情生成部31
から与えられる感情パラメータ値とに基づいて行動を選
択する行動選択部33とに分類することができる。
When the processing contents of the control unit 16 are functionally classified, as shown in FIG. 3, the environment recognition unit 30 for recognizing the external environment and the emotion parameter values based on the recognition result of the environment recognition unit 30 are obtained. The emotion generation unit 31 that determines the state of emotions by changing it, the storage unit 32 that stores the recognition result of the environment recognition unit 30 and the emotion parameter value provided from the emotion generation unit 31 in combination, and the environment recognition unit 3
The recognition result of 0, the storage content of the storage unit 32, and the emotion generation unit 31
Can be classified into an action selection unit 33 that selects an action based on the emotion parameter value given by

【0023】コントロール部16は、CCDカメラ20
から与えられる画像データやマイクロホン23から与え
られる音声データを環境認識部30に入力する。環境認
識部30は、入力された画像データに対して色認識、形
状認識、運動認識及び顔認識のデータ処理を施すと共
に、音声データに対して音声認識のデータ処理を施し、
その認識結果情報S1を感情生成部31、記憶部32及
び行動選択部33に送出する。
The control unit 16 includes a CCD camera 20.
The image data given by the above and the voice data given by the microphone 23 are input to the environment recognition unit 30. The environment recognition unit 30 performs color recognition, shape recognition, motion recognition, and face recognition data processing on the input image data, and performs voice recognition data processing on voice data,
The recognition result information S1 is sent to the emotion generation unit 31, the storage unit 32, and the action selection unit 33.

【0024】感情生成部31は、「喜び」、「悲し
み」、「恐れ」、「怒り」「驚き」、「嫌悪」の合計6
つの感情について、各感情ごとにその感情の強さを表す
パラメータを保持している。そして感情生成部31は、
これら各感情のパラメータ値を、それぞれ環境認識部3
0から認識結果情報S1として与えられる「叩かれた」
及び「撫でられた」などの特定の認識結果と、経過時間
となどに基づいて順次更新する。
The emotion generating unit 31 has a total of 6 "joy", "sadness", "fear", "anger""surprise", and "disgust".
For each emotion, a parameter indicating the strength of the emotion is held for each emotion. And the emotion generation unit 31
The parameter value of each of these emotions is set to the environment recognition unit 3 respectively.
"Struck" given as recognition result information S1 from 0
And a specific recognition result such as “stroked” and the elapsed time and the like are sequentially updated.

【0025】具体的に感情生成部31は、認識結果情報
S1に基づき得られる認識結果がその感情に対して作用
する度合い(予め設定されている)と、他の感情から受
ける抑制及び刺激の度合いと、経過時間となどに基づい
て所定の演算式により算出されるその感情の変化量をΔ
E〔t〕、現在のその感情のパラメータ値をE〔t〕、
認識結果等に応じてその感情を変化させる割合を表す係
数をke として、所定周期で次式
Specifically, the emotion generator 31 determines the degree to which the recognition result obtained based on the recognition result information S1 acts on the emotion (preset) and the degree of suppression and stimulation received from other emotions. And the change amount of the emotion calculated by a predetermined arithmetic expression based on the elapsed time, etc.
E [t], the current parameter value of the emotion is E [t],
The coefficient representing the rate of changing the emotion in accordance with the recognition result and the like is set to ke

【0026】[0026]

【数1】 [Equation 1]

【0027】を用いて次の周期におけるその感情のパラ
メータ値E〔t+1〕を算出する。
Using, the parameter value E [t + 1] of the emotion in the next cycle is calculated.

【0028】そして感情生成部31は、この演算結果を
現在のその感情のパラメータ値E〔t〕と置き換えるよ
うにしてその感情のパラメータ値を更新する。なお各認
識結果に対してどの感情のパラメータ値を更新するかは
予め決められており、例えば「叩かれた」といった認識
結果が与えられた場合には「怒り」の感情のパラメータ
値が上がると共に「喜び」の感情のパラメータが下が
り、「撫でられた」といった認識結果が与えられた場合
には「喜び」の感情のパラメータ値が上がると共に「悲
しみ」の感情のパラメータ値が下がる。
Then, the emotion generating section 31 updates the parameter value of the emotion by replacing the result of this calculation with the current parameter value E [t] of the emotion. Note that which emotional parameter value is updated for each recognition result is predetermined, and when a recognition result such as “struck” is given, the emotional parameter value of “anger” increases and When the parameter of the emotion of "joy" is lowered and the recognition result "struck" is given, the parameter value of the emotion of "joy" is increased and the parameter value of emotion of "sadness" is reduced.

【0029】これと同様にして、感情生成部31は、
「運動欲」、「愛情欲」、「食欲」及び「好奇心」の互
いに独立した4つの欲求について、これら欲求ごとにそ
の欲求の強さを表すパラメータを保持している。そして
感情生成部31は、これら欲求のパラメータ値を、それ
ぞれ環境認識部30からの認識結果や、経過時間などに
基づいて順次更新する。
Similarly to this, the emotion generating section 31
With respect to four independent desires of "exercise desire", "love desire", "appetite" and "curiosity", a parameter representing the strength of the desire is held for each of these desires. Then, the emotion generation unit 31 sequentially updates the parameter values of these desires based on the recognition result from the environment recognition unit 30, the elapsed time, and the like.

【0030】具体的に感情生成部31は、「運動欲」、
「愛情欲」及び「好奇心」については、経過時間及び認
識結果などに基づいて所定の演算式により算出されるそ
の欲求の変動量をΔI〔k〕、現在のその欲求のパラメ
ータ値をI〔k〕、その欲求の感度を表す係数をki と
して、所定周期で次式
Specifically, the emotion generating section 31
As for “love desire” and “curiosity”, the fluctuation amount of the desire calculated by a predetermined arithmetic expression based on the elapsed time and the recognition result is ΔI [k], and the current parameter value of the desire is I [ k], a coefficient representing the sensitivity of the desire is ki,

【0031】[0031]

【数2】 [Equation 2]

【0032】を用いて次の周期におけるその欲求のパラ
メータ値I〔k+1〕を算出し、この演算結果を現在の
その欲求のパラメータ値I〔k〕と置き換えるようにし
てその欲求のパラメータ値を更新する。なお認識結果等
に対してどの欲求のパラメータ値を変化させるかは予め
定められている。
The parameter value I [k + 1] of the desire in the next cycle is calculated by using, and the parameter value of the desire is updated by replacing the calculation result with the current parameter value I [k] of the desire. To do. It should be noted that which desire parameter value to change with respect to the recognition result or the like is predetermined.

【0033】なお本実施の形態においては、各感情及び
各欲求のパラメータ値がそれぞれ0から100 までの範囲
で変動するように規制されており、また係数ke 、ki
の値も各感情及び各欲求ごとに個別に設定されている。
In this embodiment, the parameter values of each emotion and each desire are regulated so as to vary in the range of 0 to 100, and the coefficients ke and ki are also regulated.
The value of is also set individually for each emotion and each desire.

【0034】このように感情生成部31は、「喜び」、
「悲しみ」、「恐れ」、「怒り」、「驚き」及び「嫌
悪」それぞれの感情の度合いを示す6種類の感情パラメ
ータを有し、環境認識部30から供給される認識結果情
報S1に基づいて各感情パラメータの値を例えば0〜1
00までの範囲でそれぞれ変化させ得るようになされて
いる。
As described above, the emotion generator 31 is
Based on the recognition result information S1 supplied from the environment recognition unit 30, there are six kinds of emotion parameters indicating the degree of each of "sadness", "fear", "anger", "surprise", and "disgust". The value of each emotion parameter is, for example, 0 to 1.
It is designed such that it can be changed in the range of up to 00.

【0035】例えば当該ペットロボット1が「赤いボー
ル」を好きな性格である場合には、感情生成部31は、
環境認識部30から供給される認識結果情報S1が「赤
いボール」を示していると、6種類の感情パラメータの
うち「喜び」の感情パラメータを増加させる。
For example, when the pet robot 1 has a personality of "red ball", the emotion generating section 31
When the recognition result information S1 supplied from the environment recognition unit 30 indicates a “red ball”, the emotion parameter of “joy” is increased among the six types of emotion parameters.

【0036】従って感情生成部31は、認識結果情報S
1に応じて変化させた各感情パラメータの値を感情パラ
メータ情報S2として記憶部32及び行動選択部33に
送出する。
Therefore, the emotion generator 31 recognizes the recognition result information S.
The value of each emotional parameter changed according to 1 is sent to the storage unit 32 and the action selection unit 33 as emotional parameter information S2.

【0037】記憶部32は、環境認識部30から供給さ
れる認識結果情報S1と感情生成部31から供給される
感情パラメータ情報S2とを対応付けて記憶し、感情パ
ラメータ情報S2に基づいて認識結果情報S1の登録及
び削除などのような記憶内容の管理を行う。そして記憶
部32は、その記憶内容を記憶情報S3として必要に応
じて行動選択部33に送出する。
The storage unit 32 stores the recognition result information S1 supplied from the environment recognition unit 30 and the emotion parameter information S2 supplied from the emotion generation unit 31 in association with each other, and the recognition result based on the emotion parameter information S2. Management of stored contents such as registration and deletion of the information S1 is performed. Then, the storage unit 32 sends the stored contents as the stored information S3 to the action selection unit 33 as necessary.

【0038】行動選択部33は、感情生成部31から供
給される感情パラメータ情報S2と、記憶部32から供
給される記憶情報S3と、当該記憶部32に予め記憶さ
れている行動モデルと、環境認識部30から供給される
認識結果情報S1とに基づいて次の行動を選択して決定
し、その決定結果を行動決定情報S4として各アクチュ
エータ251 〜25n に送出する。
The action selection unit 33 includes the emotion parameter information S2 supplied from the emotion generation unit 31, the stored information S3 supplied from the storage unit 32, the action model stored in advance in the storage unit 32, and the environment. The next action is selected and determined based on the recognition result information S1 supplied from the recognition unit 30, and the determination result is sent to each of the actuators 251 to 25n as the action determination information S4.

【0039】そしてペットロボット1は、この行動決定
情報S4に基づいて各アクチュエータ251〜25
駆動制御することにより、選択された次の行動を実行す
る。
Then, the pet robot 1 executes the next action selected by driving and controlling the actuators 25 1 to 25 n based on the action determination information S4.

【0040】この場合、行動選択部33は、次の行動を
決定する手法として、図4に示すような1つのノード
(状態)NODE0 から同じ又は他のどのノードNOD
E0 〜NODEn に遷移するかを各ノードNODE0 〜
NODEn 間を接続するアークARC0 〜ARCn に対
してそれぞれ設定された遷移確率P0 〜Pn に基づいて
確率的に決定する確率オートマトンと呼ばれるアルゴリ
ズムを用いる。
In this case, the action selection unit 33 determines the next action by using one node (state) NODE0 to the same or any other node NOD as shown in FIG.
Whether each node NODE0-EDE-NODEn is changed
An algorithm called a probabilistic automaton is used which is determined stochastically based on the transition probabilities P0 to Pn set for the arcs ARC0 to ARCn connecting the NODEn.

【0041】より具体的には、記憶部32には、行動モ
デルとして、各ノードNODE0 〜NODEn ごとの図
5に示すような状態遷移表40が格納されており、行動
選択部33がこの状態遷移表40に基づいて次の行動を
決定するようになされている。
More specifically, a state transition table 40 as shown in FIG. 5 for each node NODE0 to NODEn is stored in the storage unit 32 as an action model, and the action selection unit 33 makes this state transition. The next action is determined based on the table 40.

【0042】ここで状態遷移表40においては、そのノ
ードNODE0 〜NODEn において遷移条件とする入
力イベント(環境認識部30の認識結果)が「入力イベ
ント」の行に優先順に列記され、その条件についてのさ
らなる条件が「データ名」及び「データ範囲」の行にお
ける対応する列に記述されている。
Here, in the state transition table 40, the input events (recognition results of the environment recognition unit 30) which are transition conditions in the nodes NODE0 to NODEn are listed in order of priority in the row of "input event". Further conditions are described in the corresponding columns of the "data name" and "data range" rows.

【0043】従って図5の状態遷移表40で定義された
ノードNODE100 では、「ボールを検出した(BAL
L)」という認識結果が与えられた場合に、当該認識結
果と共に与えられるそのボールの「大きさ(SIZ
E)」が「0から1000の範囲(0,1000)」であること
や、「障害物を検出(OBSTACLE)」という認識
結果が与えられた場合に、当該認識結果と共に与えられ
るその障害物までの「距離(DISTANCE)」が
「0から1000の範囲(0,1000)」であることが自己又
は他のノードに遷移するための条件となっている。
Therefore, in the node NODE100 defined in the state transition table 40 of FIG. 5, "ball is detected (BAL
L) ”, the" size (SIZ) of the ball given together with the recognition result is given.
"E)" is in the range of 0 to 1000 (0,1000), and when the recognition result of "obstacle detection (OBSTACE)" is given, even the obstacle given together with the recognition result. The “distance” of “is in the range of 0 to 1000 (0,1000)” is a condition for transition to the self or another node.

【0044】またこのノードNODE100 では、認識結
果の入力がない場合においても、行動選択部33が周期
的に参照する感情生成部31の各感情及び各欲求のパラ
メータ値のうち「喜び(JOY)」、「驚き(SUPR
ISE)」又は「悲しみ(SUDNESS)」のいずれ
かの感情のパラメータ値が「50から100 の範囲(50,10
0 )」であるときには自己又は他のノードに遷移するこ
とができる。
Further, in this node NODE100, even if there is no input of the recognition result, "joy (JOY)" among the parameter values of each emotion and each desire of the emotion generation unit 31 which the action selection unit 33 refers to periodically. , "Surprise (SUPR
The emotional parameter value of either "ISE" or "SODESS" ranges from "50 to 100 (50,10
0) ”, it can transit to itself or another node.

【0045】さらに状態遷移表40では、「他のノード
への遷移確率」の欄における「遷移先ノード」の列にそ
のノードNODE0 〜NODEn から遷移できるノード
名が列記されると共に、「入力イベント名」、「データ
値」及び「データの範囲」の各行に記述された全ての条
件が揃った場合におけるそのノードNODE0 〜NOD
En への遷移確率が「他のノードへの遷移確率」の欄に
おけるそのノードNODE0 〜NODEn の行に記述さ
れ、このとき出力される行動又は動作が「出力行動」の
行に記述される。なお「他のノードへの遷移確率」の欄
における各行の遷移確率の和は100 〔%〕となってい
る。
Further, in the state transition table 40, in the column of "transition destination node" in the column of "transition probability to another node", the node names that can transit from the nodes NODE0 to NODEn are listed, and "input event name" , "Data value" and "data range", if all the conditions described in each line are met, the node NODE0 to NOD
The transition probability to En is described in the row of the nodes NODE0 to NODEn in the "Transition probability to another node" column, and the action or action output at this time is described in the "output action" line. Note that the sum of the transition probabilities of each row in the "Transition Probability to Other Node" column is 100 [%].

【0046】従ってこの例のノードNODE100 では、
例えば「ボールを検出(BALL)」し、そのボールの
「大きさ(SIZE)」が「0から1000の範囲(0,10
00)」であるという認識結果が与えられた場合には、
「30〔%〕」の確率で「ノードNODE120 (node 12
0)」に遷移でき、そのとき「ACTION 1」の行
動又は動作が出力されることとなる。
Therefore, in the node NODE100 of this example,
For example, if a "ball is detected (BALL)" and the "size" of the ball is "0 to 1000 (0,10
00) ", the recognition result is given,
With a probability of "30 [%]", "node NODE 120 (node 12
0) ”, at which time the action or motion of“ ACTION 1 ”is output.

【0047】そして行動モデルは、このような状態遷移
表40として記述されたノードNODE0 〜NODEn
がいくつも繋がるようにして構成されている。
The behavior model is the node NODE0 to NODEn described as such a state transition table 40.
Are configured so that they are connected together.

【0048】かくして行動選択部33は、環境認識部3
0から認識結果情報S1が与えられたときや、最後に行
動を発現してから一定時間が経過したときなどに、記憶
部32に格納されている行動モデルのうちの対応するノ
ードNODE0 〜NODEnの状態遷移表40を利用し
て次の行動や動作(「出力行動」の行に記述された行動
又は動作)を確率的に決定し、決定結果を行動決定情報
S4として各アクチュエータ251 〜25n に出力
する。
Thus, the action selection unit 33 is the environment recognition unit 3
When the recognition result information S1 is given from 0, or when a certain time has passed since the last action was expressed, the corresponding nodes NODE0 to NODEn of the action models stored in the storage unit 32 are stored. The next action or action (action or action described in the row of “output action”) is stochastically determined using the state transition table 40, and the determination result is output to each actuator 251 to 25n as action determination information S4. To do.

【0049】ここで、記憶部32における感情パラメー
タを用いた記憶内容の管理について説明する。記憶部3
2は、図6に示すように、環境認識部30から供給され
る認識結果情報S1が示す記憶アイテムと、感情生成部
31から供給される感情パラメータ情報S2が示す各感
情パラメータの値とを対応付けて記憶し、当該感情パラ
メータ値を評価基準として、記憶内容の忘却(すなわち
削除)管理を行う。
Here, the management of the stored contents using the emotion parameters in the storage unit 32 will be described. Storage unit 3
As shown in FIG. 6, 2 corresponds to the storage item indicated by the recognition result information S1 supplied from the environment recognition unit 30 and the value of each emotion parameter indicated by the emotion parameter information S2 supplied from the emotion generation unit 31. It is attached and stored, and the memory content is forgotten (that is, deleted) is managed using the emotion parameter value as an evaluation criterion.

【0050】すなわち記憶部32は、環境認識部30か
ら認識結果情報S1として新たな記憶アイテムが供給さ
れたときに、当該記憶部32に記憶されている記憶アイ
テムのうち、忘却(削除)対象の記憶アイテムを選択す
る際の基準となる評価値を、全ての記憶アイテムについ
て、次式
That is, when a new storage item is supplied as the recognition result information S1 from the environment recognition unit 30, the storage unit 32 is a target of forgetting (deleting) of the storage items stored in the storage unit 32. The evaluation value, which is the reference when selecting a memory item, for all memory items,

【0051】[0051]

【数3】 [Equation 3]

【0052】によって算出して記憶しておく。なおこの
評価値は、記憶部32に記憶されている記憶アイテムの
印象度を示す。
It is calculated and stored by. The evaluation value indicates the degree of impression of the storage item stored in the storage unit 32.

【0053】そして記憶部32は、環境認識部30から
認識結果情報S1として新たな記憶アイテムが供給され
ると共に、感情生成部31から感情パラメータ情報S2
として現在の各感情パラメータの値が供給されると、記
憶している記憶アイテムのうち、評価値が最小の記憶ア
イテムを削除し、新たな記憶アイテムを感情パラメータ
値と対応付けて記憶する。
The storage unit 32 is supplied with a new storage item as the recognition result information S1 from the environment recognition unit 30 and the emotion parameter information S2 from the emotion generation unit 31.
When the current value of each emotion parameter is supplied, the storage item having the smallest evaluation value is deleted from the stored storage items, and a new storage item is stored in association with the emotion parameter value.

【0054】例えば図6に示すように、記憶部32の記
憶容量が3アイテム数であって、かつ記憶アイテムとし
て「赤いボール」、「青いボール」、「黄色いボール」
が、それぞれ感情パラメータ値と対応付けて記憶部32
に記憶されているとする。
For example, as shown in FIG. 6, the storage capacity of the storage unit 32 is three items, and the storage items are "red ball", "blue ball", and "yellow ball".
Are associated with emotion parameter values, respectively, and are stored in the storage unit 32.
It is stored in.

【0055】この状態において、記憶部32は、環境認
識部30から認識結果情報S1として「七色のボール」
が供給されると共に、感情生成部31から感情パラメー
タ情報S2として現在の各感情パラメータの値が供給さ
れると、当該記憶部32に記憶されている記憶アイテム
のうち、記憶アイテム「赤いボール」を削除し、「七色
のボール」を記憶アイテムとして登録する。
In this state, the storage unit 32 stores "seven-colored balls" as the recognition result information S1 from the environment recognition unit 30.
When the current emotion parameter values are supplied as emotion parameter information S2 from the emotion generation unit 31, the memory item “red ball” among the memory items stored in the storage unit 32 is Delete and register "seven color balls" as a memory item.

【0056】また、記憶部32において時間の経過に伴
う記憶内容の忘却(削除)管理を行う際に、現在の感情
パラメータ値に基づいて忘却率を決定し当該忘却率を用
いて忘却管理を行う場合について説明する。
When the storage unit 32 manages forgetting (deleting) the stored contents with the passage of time, the forgetting rate is determined based on the current emotional parameter value, and the forgetting management is performed using the forgetting rate. The case will be described.

【0057】記憶部32は、一定の時間間隔で確率的に
記憶アイテムの忘却(削除)を行う際の基準となる忘却
率を、次式
The storage unit 32 calculates the forgetting rate, which becomes a reference when stochastically forgetting (deleting) a stored item at regular time intervals,

【0058】[0058]

【数4】 [Equation 4]

【0059】によって算出する。これによりペットロボ
ット1は、6種類の感情パラメータのうち、「驚き」の
感情パラメータの値が大きいときに、過去の記憶を忘却
し易い傾向になる。
It is calculated by As a result, the pet robot 1 tends to easily forget the past memory when the value of the emotional parameter “surprise” is large among the six types of emotional parameters.

【0060】すなわち記憶部32は、一定の時間間隔毎
に忘却率を上述の(3)式によって算出し、例えば当該
忘却率が所定の値以上になった場合には、評価値が最小
の記憶アイテムを削除する。
That is, the storage unit 32 calculates the forgetting rate by the above equation (3) at regular time intervals. For example, when the forgetting rate becomes equal to or more than a predetermined value, the memory having the smallest evaluation value is stored. Delete the item.

【0061】かくして行動選択部33は、環境認識部3
0から供給された認識結果情報S1が、記憶部32に記
憶アイテムとして記憶されていると判断した場合には、
当該記憶アイテムに対応付けて記憶されている記憶時の
感情パラメータ情報と、感情生成部31から供給される
現在の感情パラメータ情報S2と、認識結果情報S1
と、行動モデルとに基づいて次の行動を決定する。
Thus, the action selection unit 33 is the environment recognition unit 3
When it is determined that the recognition result information S1 supplied from 0 is stored as a storage item in the storage unit 32,
The emotional parameter information at the time of storage, which is stored in association with the memory item, the current emotional parameter information S2 supplied from the emotion generation unit 31, and the recognition result information S1.
And the next action based on the action model.

【0062】これに対して行動選択部33は、環境認識
部30から供給された認識結果情報S1が、記憶部32
に記憶アイテムとして記憶されていないと判断した場合
には、感情生成部31から供給される現在の感情パラメ
ータ情報S2と、認識結果情報S1と、行動モデルとに
基づいて次の行動を決定する。
On the other hand, in the action selection section 33, the recognition result information S1 supplied from the environment recognition section 30 is stored in the storage section 32.
If it is determined that the next action is not stored as a storage item, the next action is determined based on the current emotion parameter information S2 supplied from the emotion generation unit 31, the recognition result information S1, and the action model.

【0063】(3)本実施の形態による動作及び効果 以上の構成において、ペットロボット1においては、感
情生成部31によって生成された感情パラメータを用い
て記憶内容の管理を行うことにより、記憶と感情を組み
合わせて当該ペットロボット1の動作を制御することが
でき、従って、多様な動作を生成することができると共
に、長期にわたって連続性のある動作の変化を生成する
ことができる。
(3) Operations and Effects According to the Present Embodiment In the above configuration, the pet robot 1 manages the stored contents by using the emotion parameters generated by the emotion generation unit 31 to store the memory and emotions. The motions of the pet robot 1 can be controlled in combination with each other, and thus various motions can be generated, and continuous motion changes can be generated over a long period of time.

【0064】また、感情生成部31によって生成された
感情パラメータを用いて記憶内容の管理を行うことによ
り、一定の記憶容量を有する記憶部32をペットロボッ
ト1の動作に適した方法によって管理することができ
る。
Further, the storage contents are managed by using the emotion parameters generated by the emotion generation unit 31, so that the storage unit 32 having a certain storage capacity is managed by a method suitable for the operation of the pet robot 1. You can

【0065】以上の構成によれば、感情生成部31によ
って生成された感情パラメータを用いて記憶内容の管理
を行うことにより、記憶と感情を組み合わせて当該ペッ
トロボット1の動作を制御することができ、従って、一
段と自然な動作を自律的に行うペットロボット1を実現
するができる。
According to the above configuration, the memory content is managed by using the emotion parameter generated by the emotion generating unit 31, and the operation of the pet robot 1 can be controlled by combining the memory and emotion. Therefore, it is possible to realize the pet robot 1 that autonomously performs a more natural motion.

【0066】(4)他の実施の形態 なお上述の実施の形態においては、評価値を上述の
(3)式によって算出して記憶した場合について述べた
が、本発明はれこれに限らず、評価値を、次式
(4) Other Embodiments In the above-mentioned embodiments, the case where the evaluation value is calculated and stored by the above-mentioned equation (3) is described, but the present invention is not limited to this. The evaluation value is

【0067】[0067]

【数5】 [Equation 5]

【0068】によって算出して記憶するようにしても良
い。このとき例えば上述の図6に示すような記憶アイテ
ムが記憶部32に記憶されている場合には、記憶部32
は、環境認識部30から認識結果情報S1として「七色
のボール」が供給されると、当該記憶部32に記憶され
ている記憶アイテムのうち、記憶アイテム「黄色いボー
ル」を削除し、「七色のボール」を記憶アイテムとして
登録する。
It may be calculated and stored by At this time, for example, when the storage item as shown in FIG. 6 is stored in the storage unit 32, the storage unit 32
When the “seven-colored ball” is supplied from the environment recognition unit 30 as the recognition result information S1, the storage item “yellow ball” is deleted from the storage items stored in the storage unit 32, and the “seven-colored ball” is deleted. "Ball" is registered as a memory item.

【0069】また上述の実施の形態においては、感情モ
デルとして感情生成部31を適用した場合について述べ
たが、本発明はこれに限らず、複数種類の感情の強さを
示す感情パラメータからなり、当該感情パラメータをそ
れぞれ変化させることにより感情情報を生成する他の種
々の感情モデルを適用するようにしても良い。
Further, in the above-described embodiment, the case where the emotion generation unit 31 is applied as the emotion model has been described, but the present invention is not limited to this, and the emotion parameters that indicate a plurality of types of emotion strength are used. Various other emotion models that generate emotion information by changing the emotion parameters may be applied.

【0070】また上述の実施の形態においては、記憶手
段として記憶部32を適用した場合について述べたが、
本発明はこれに限らず、感情モデルの変化状態を示す感
情情報に基づいて記憶内容を管理する他の種々の記憶手
段を適用するようにしても良い。
In the above embodiment, the case where the storage unit 32 is applied as the storage means has been described.
The present invention is not limited to this, and various other storage means for managing the storage content based on the emotion information indicating the change state of the emotion model may be applied.

【0071】さらに上述の実施の形態においては、本発
明をペットロボット1に適用した場合について述べた
が、本発明はこれに限らず、所定の感情モデルを有し、
当該感情モデルの変化に応じた動作を行う他の種々のロ
ボット装置に適用するようにしても良い。
Further, in the above-mentioned embodiment, the case where the present invention is applied to the pet robot 1 has been described, but the present invention is not limited to this, and has a predetermined emotion model,
The present invention may be applied to various other robot devices that perform operations according to changes in the emotion model.

【0072】[0072]

【発明の効果】上述のように本発明によれば、所定の感
情モデルを有し、当該感情モデルの変化に応じた動作を
行うロボット装置において、感情モデルの変化状態を示
す感情情報に基づいて記憶内容を管理することにより、
記憶と感情を組み合わせて当該ロボット装置の動作を制
御することができ、従って一段と自然な動作を自律的に
行うロボット装置を実現することができる。
As described above, according to the present invention, a robot apparatus having a predetermined emotion model and performing an action according to the change of the emotion model is based on the emotion information indicating the change state of the emotion model. By managing the stored contents,
It is possible to control the operation of the robot apparatus by combining memory and emotion, and thus it is possible to realize a robot apparatus that autonomously performs a more natural operation.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明によるペットロボットの一実施の形態を
示す略線図である。
FIG. 1 is a schematic diagram showing an embodiment of a pet robot according to the present invention.

【図2】ペットロボットの回路構成を示すブロック図で
ある。
FIG. 2 is a block diagram showing a circuit configuration of a pet robot.

【図3】コントロール部の構成を示すブロック図であ
る。
FIG. 3 is a block diagram showing a configuration of a control unit.

【図4】確率オートマトンの説明に供する略線図であ
る。
FIG. 4 is a schematic diagram used to explain a probability automaton.

【図5】状態遷移表の説明に供する略線図である。FIG. 5 is a schematic diagram for explaining a state transition table.

【図6】記憶アイテムと感情パラメータを組み合わせた
記憶管理の説明に供する略線図である。
FIG. 6 is a schematic diagram for explaining memory management in which a memory item and an emotional parameter are combined.

【符号の説明】[Explanation of symbols]

1……ペットロボット、2……胴体部ユニット、3……
脚部ユニット、4……頭部ユニット、5……尻尾部ユニ
ット、10……CPU、11……DRAM、12……フ
ラッシュROM、14……信号処理回路、16……コン
トロール部、20……CCDカメラ、21……タッチセ
ンサ、22……距離センサ、23……マイクロホン、2
4……スピーカ、25……アクチュエータ、26……ポ
テンショメータ、27……ハブ、30……環境認識部、
31……感情生成部、32……記憶部、33……行動選
択部。
1 ... Pet robot, 2 ... Body unit, 3 ...
Leg unit, 4 head unit, 5 tail unit, 10 CPU, 11 DRAM, 12 flash ROM, 14 signal processing circuit, 16 control unit, 20 CCD camera, 21 ... Touch sensor, 22 ... Distance sensor, 23 ... Microphone, 2
4 ... Speaker, 25 ... Actuator, 26 ... Potentiometer, 27 ... Hub, 30 ... Environment recognition unit,
31 ... emotion generating unit, 32 ... storage unit, 33 ... action selecting unit.

フロントページの続き (72)発明者 長谷川 里香 東京都品川区北品川6丁目7番35号ソニー 株式会社内 (72)発明者 遠藤 玄 東京都品川区北品川6丁目7番35号ソニー 株式会社内 (72)発明者 狩谷 真一 東京都品川区北品川6丁目7番35号ソニー 株式会社内 Fターム(参考) 2C150 CA02 DA05 DA24 DA26 DA27 DA28 DF03 DF04 DF33 ED42 ED47 ED52 EF07 EF16 EF17 EF23 EF29 EF33 EF36 3C007 AS36 CS08 HS09 KS12 KS21 KS24 KS31 KS36 KS39 KT01 KT04 KX02 MT14 WA04 WA14 WB25 WC13 Continued front page    (72) Inventor Rika Hasegawa             Sony 6-735 Kitashinagawa, Shinagawa-ku, Tokyo             Within the corporation (72) Inventor Gen Endo             Sony 6-735 Kitashinagawa, Shinagawa-ku, Tokyo             Within the corporation (72) Inventor Shinichi Kariya             Sony 6-735 Kitashinagawa, Shinagawa-ku, Tokyo             Within the corporation F-term (reference) 2C150 CA02 DA05 DA24 DA26 DA27                       DA28 DF03 DF04 DF33 ED42                       ED47 ED52 EF07 EF16 EF17                       EF23 EF29 EF33 EF36                 3C007 AS36 CS08 HS09 KS12 KS21                       KS24 KS31 KS36 KS39 KT01                       KT04 KX02 MT14 WA04 WA14                       WB25 WC13

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】所定の感情モデルを有し、当該感情モデル
の変化に応じた動作を行うロボット装置において、 上記感情モデルの変化状態を示す感情情報に基づいて記
憶内容を管理する記憶手段を具えることを特徴とするロ
ボット装置。
1. A robot apparatus having a predetermined emotion model and performing an action in accordance with a change in the emotion model, comprising storage means for managing stored contents based on emotion information indicating a change state of the emotion model. A robot device characterized by the ability to get.
【請求項2】上記記憶手段は、 上記記憶内容を構成する各記憶要素を順次記憶する際、
上記記憶要素に上記感情情報を対応付けて記憶し、当該
記憶した上記感情情報に基づいて上記記憶要素の管理を
行うことを特徴とする請求項1に記載のロボット装置。
2. The storage means, when sequentially storing each storage element constituting the storage content,
The robot device according to claim 1, wherein the emotion information is stored in association with the storage element, and the storage element is managed based on the stored emotion information.
【請求項3】上記記憶手段は、 現在の上記感情情報に基づいて上記記憶内容を構成する
各記憶要素の管理を行うことを特徴とする請求項1に記
載のロボット装置。
3. The robot apparatus according to claim 1, wherein the storage means manages each storage element forming the storage content based on the current emotion information.
【請求項4】上記感情モデルは、 複数種類の感情の強さを示す感情パラメータからなり、
当該感情パラメータをそれぞれ変化させることにより上
記感情情報を生成することを特徴とする請求項1に記載
のロボット装置。
4. The emotion model comprises emotion parameters indicating a plurality of types of emotion strength,
The robot apparatus according to claim 1, wherein the emotion information is generated by changing each of the emotion parameters.
【請求項5】所定の感情モデルを有し、当該感情モデル
の変化に応じた動作を行うロボット装置の制御方法にお
いて、 上記感情モデルの変化状態を示す感情情報に基づいて記
憶内容を管理することを特徴とするロボット装置の制御
方法。
5. A control method of a robot apparatus having a predetermined emotion model and performing an action according to a change of the emotion model, managing stored contents based on emotion information indicating a change state of the emotion model. And a method for controlling a robot apparatus.
【請求項6】上記記憶内容を構成する各記憶要素を順次
記憶する際、上記記憶要素に上記感情情報を対応付けて
記憶し、当該記憶した上記感情情報に基づいて上記記憶
要素の管理を行うことを特徴とする請求項5に記載のロ
ボット装置の制御方法。
6. When sequentially storing each storage element constituting the storage content, the emotion information is stored in association with the storage element, and the storage element is managed based on the stored emotion information. The control method of the robot apparatus according to claim 5, wherein.
【請求項7】現在の上記感情情報に基づいて上記記憶内
容を構成する各記憶要素の管理を行うことを特徴とする
請求項5に記載のロボット装置の制御方法。
7. The control method for a robot apparatus according to claim 5, wherein each storage element constituting the storage content is managed based on the current emotion information.
【請求項8】上記感情モデルは、 複数種類の感情の強さを示す感情パラメータからなり、
当該感情パラメータをそれぞれ変化させることにより上
記感情情報を生成することを特徴とする請求項5に記載
のロボット装置の制御方法。
8. The emotion model comprises emotion parameters indicating a plurality of types of emotion strength,
The control method for a robot apparatus according to claim 5, wherein the emotion information is generated by changing each of the emotion parameters.
JP2001339628A 2001-11-05 2001-11-05 Robot device and control method thereof Pending JP2003136451A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001339628A JP2003136451A (en) 2001-11-05 2001-11-05 Robot device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001339628A JP2003136451A (en) 2001-11-05 2001-11-05 Robot device and control method thereof

Publications (1)

Publication Number Publication Date
JP2003136451A true JP2003136451A (en) 2003-05-14

Family

ID=19153952

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001339628A Pending JP2003136451A (en) 2001-11-05 2001-11-05 Robot device and control method thereof

Country Status (1)

Country Link
JP (1) JP2003136451A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004127126A (en) * 2002-10-04 2004-04-22 Agi:Kk Idea model device, spontaneous feeling model device, simulation method of idea, simulation method of spontaneous feeling, and program
CN110932173A (en) * 2019-12-09 2020-03-27 国家电网有限公司 Obstacle crossing robot for overhead line
CN111754761A (en) * 2019-07-31 2020-10-09 广东小天才科技有限公司 Traffic safety alarm prompting method and electronic equipment

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004127126A (en) * 2002-10-04 2004-04-22 Agi:Kk Idea model device, spontaneous feeling model device, simulation method of idea, simulation method of spontaneous feeling, and program
CN111754761A (en) * 2019-07-31 2020-10-09 广东小天才科技有限公司 Traffic safety alarm prompting method and electronic equipment
CN111754761B (en) * 2019-07-31 2022-09-20 广东小天才科技有限公司 Traffic safety alarm prompting method and electronic equipment
CN110932173A (en) * 2019-12-09 2020-03-27 国家电网有限公司 Obstacle crossing robot for overhead line

Similar Documents

Publication Publication Date Title
EP1602457B1 (en) Robot device, behavior control method thereof, and program
KR101137205B1 (en) Robot behavior control system, behavior control method, and robot device
JP4244812B2 (en) Action control system and action control method for robot apparatus
JP2005193331A (en) Robot device and its emotional expression method
US20060041332A1 (en) Robot apparatus and control method therefor, and robot character discriminating method
US20050240412A1 (en) Robot behavior control system and method, and robot apparatus
KR101028814B1 (en) Software robot apparatus and method for expressing behavior of software robot
JP2003039363A (en) Robot device, action learning method therefor, action learning program thereof, and program recording medium
KR20010095176A (en) Robot and action deciding method for robot
WO2002066211A1 (en) Operational control method, program, and recording media for robot device, and robot device
JP2002239963A (en) Robot device and its action control method, program, and recoding medium of robot device
JP2006110707A (en) Robot device
JP2001191281A (en) Editing device, editing method, and storage medium
US20080058988A1 (en) Robots with autonomous behavior
JP3277500B2 (en) Robot device
JP3558222B2 (en) Robot behavior control system and behavior control method, and robot device
JP2003159674A (en) Robot system, external force detecting method and program for the system, and calibration method and program for the system
JP2004298975A (en) Robot device and obstacle searching method
JP2004302644A (en) Face identification device, face identification method, recording medium and robot device
WO2002030629A1 (en) Robot apparatus, information display system, and information display method
JP2003136451A (en) Robot device and control method thereof
KR20210007965A (en) Control device, control method and program
JP2002239952A (en) Robot device, action control method for robot device, program, and recording medium
JP2001157980A (en) Robot device, and control method thereof
JP2001157979A (en) Robot device, and control method thereof