JP2001157981A - Robot device and control method thereof - Google Patents

Robot device and control method thereof

Info

Publication number
JP2001157981A
JP2001157981A JP34121199A JP34121199A JP2001157981A JP 2001157981 A JP2001157981 A JP 2001157981A JP 34121199 A JP34121199 A JP 34121199A JP 34121199 A JP34121199 A JP 34121199A JP 2001157981 A JP2001157981 A JP 2001157981A
Authority
JP
Japan
Prior art keywords
behavior
action
model
emotion
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP34121199A
Other languages
Japanese (ja)
Inventor
Rika Hasegawa
里香 長谷川
Hideki Noma
英樹 野間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP34121199A priority Critical patent/JP2001157981A/en
Publication of JP2001157981A publication Critical patent/JP2001157981A/en
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a robot device and a control method thereof capable of extraordinarily improving amusement performance. SOLUTION: In this robot device and this control method for that for generating an action based on an action model, the action model is selected among plural action models based on at least one of input information from the external and self-action and/or growth history. As a result, in this control method for the robot device, the next action that is the optimum can be continuously performed in accordance with a current situation, thereby a robot device and a control method thereof capable of extraordinarily improving amusement performance can be provided.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明はロボット装置及びそ
の制御方法に関し、例えばペットロボットに適用して好
適なものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot apparatus and a control method therefor, and is suitably applied to, for example, a pet robot.

【0002】[0002]

【従来の技術】近年、ユーザからの指令や周囲の環境に
応じて決まった動作を行う4足歩行型のペットロボット
が本願特許出願人により提案及び開発されている。かか
るペットロボットは、一般家庭において飼育する犬や猫
に似た形状を有し、ユーザからの指令や周囲の環境など
に応じて動作を行うものである。
2. Description of the Related Art In recent years, a pet robot of a four-legged walking type that performs a predetermined operation in accordance with a command from a user or a surrounding environment has been proposed and developed by the present applicant. Such a pet robot has a shape similar to a dog or cat bred in a general household, and operates according to a command from a user, the surrounding environment, and the like.

【0003】[0003]

【発明が解決しようとする課題】ところでかかるペット
ロボットにおいては、本物の犬や猫などのように、現在
の状況に応じた最適な次の行動及び動作を行わせる機能
や、過去の経験に基づいて次の行動及び動作を変化させ
る機能を搭載することができれば、より一層の親近感や
満足感をユーザに与えて、ペットロボットとしてのアミ
ューズメント性をより向上させることができるものと考
えられる。
However, in such a pet robot, functions such as real dogs and cats for performing the next optimal action and operation according to the current situation and the past experience are used. If a function to change the next action and action can be provided, it is considered that the user can be provided with a further sense of intimacy and satisfaction, and the amusement as a pet robot can be further improved.

【0004】本発明は以上の点を考慮してなされたもの
で、アミューズメント性を格段と向上させ得るロボット
装置及びその制御方法を提案しようとするものである。
The present invention has been made in view of the above points, and an object of the present invention is to propose a robot apparatus and a control method thereof that can significantly improve amusement.

【0005】[0005]

【課題を解決するための手段】かかる課題を解決するた
め本発明においては、ロボット装置及びその制御方法に
おいて、複数種類の行動モデルを有し、行動選択手段を
用いて、外部からの入力情報と自己の行動履歴及び又は
成長履歴との少なくとも一方に基づいて、各行動モデル
の出力の中から1つの行動モデルの出力を選択するよう
にした。この結果このロボット装置及びその制御方法に
よれば、現在の状況に応じた最適な次の行動を連続して
行わせることができる。
According to the present invention, there is provided a robot apparatus and a control method for the same, the apparatus having a plurality of types of action models, and using an action selection means to input externally input information. The output of one behavior model is selected from the output of each behavior model based on at least one of the self behavior history and / or the growth history. As a result, according to the robot apparatus and the control method thereof, it is possible to continuously perform the optimal next action according to the current situation.

【0006】[0006]

【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings.

【0007】(1)本実施の形態によるペットロボット
の構成 図1において、1は全体として本実施の形態によるペッ
トロボットを示し、胴体部ユニット2の前後左右にそれ
ぞれ脚部ユニット3A〜3Dが連結されると共に、胴体
部ユニット2の前端部及び後端部にそれぞれ頭部ユニッ
ト4及び尻尾部ユニット5が連結されることにより構成
されている。
(1) Configuration of Pet Robot According to the Present Embodiment In FIG. 1, reference numeral 1 denotes a pet robot according to the present embodiment as a whole, and leg units 3A to 3D are connected to the front, rear, left and right of body unit 2, respectively. The head unit 4 and the tail unit 5 are connected to the front end and the rear end of the body unit 2, respectively.

【0008】この胴体部ユニット2の内部には冷却ファ
ン(図示せず)が設けられ、当該冷却ファンを介して上
面2A及び下面2Bにはそれぞれ排気口2AX及び吸気
口(図示せず)が形成されている。これによりペットロ
ボット1では、冷却ファンの駆動に応じて、吸気口から
吸入した空気を胴体部ユニット2の内部を介して排気口
2AXから外へ排出するようにして、当該胴体部ユニッ
ト2の内部温度を低減し得るようになされている。
A cooling fan (not shown) is provided inside the body unit 2, and an exhaust port 2AX and an intake port (not shown) are formed on the upper surface 2A and the lower surface 2B via the cooling fan. Have been. Accordingly, in the pet robot 1, in response to the driving of the cooling fan, the air sucked from the intake port is discharged to the outside from the exhaust port 2AX through the inside of the body unit 2, so that the inside of the body unit 2 is The temperature can be reduced.

【0009】(2)ペットロボットシステムの内部構成 ここで図2に示すペットロボット1において、胴体部ユ
ニット2には、このペットロボット1全体の動作を制御
するコントローラ10と、このペットロボット1の動力
源となるバッテリ11と、バッテリセンサ12及び熱セ
ンサ13からなる内部センサ部14と、外部記憶メモリ
15及び内部記憶メモリ16が接続された情報読書部1
7と、加速度センサ18及び角速度センサ19とが収納
されている。
(2) Internal Configuration of Pet Robot System Here, in the pet robot 1 shown in FIG. 2, the body unit 2 includes a controller 10 for controlling the operation of the pet robot 1 as a whole, and the power of the pet robot 1 An information reading unit 1 to which a battery 11 serving as a power source, an internal sensor unit 14 including a battery sensor 12 and a heat sensor 13, and an external storage memory 15 and an internal storage memory 16 are connected.
7, an acceleration sensor 18 and an angular velocity sensor 19 are housed.

【0010】また頭部ユニット4には、「耳」に相当す
るマイクロホン20と、「目」に相当するCCD(Char
ge Coupled Device )カメラ21と、タッチセンサ22
と、「口」に相当するスピーカ23と、赤外線距離セン
サ等でなる距離センサ24などがそれぞれ所定位置に配
設されている。
The head unit 4 has a microphone 20 corresponding to an "ear" and a CCD (Char) corresponding to an "eye".
ge Coupled Device) Camera 21 and Touch Sensor 22
, A speaker 23 corresponding to the "mouth", and a distance sensor 24 such as an infrared distance sensor are provided at predetermined positions.

【0011】さらに各脚部ユニット3A〜3Dの関節部
分や、各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、頭部ユニット4及び胴体部ユニット2の
連結部分、並びに尻尾部ユニット5及び胴体部ユニット
2の連結部分などにはそれぞれアクチュエータ3AA1
〜3AAK 、3BA1 〜3BAK 、3CA1 〜3C
K 、3DA1 〜3DAK 、4A1 〜4AL 、5A1
5AM が配設されている。そして頭部ユニット4のマイ
クロホン20は、ユーザから図示しないサウンドコマン
ダ(操作内容に応じて異なる音階の音を発生するコマン
ダ)により音階として与えられる「歩け」、「伏せ」又
は「ボールを追いかけろ」等の指令音を集音し、得られ
た音声信号S1をコントローラ10に送出する。またC
CDカメラ21は、前方向の状況を撮像し、得られた画
像信号S2をコントローラ10に送出すると共に、距離
センサ24は、前方の対象物までの距離を測定し、当該
測定結果を距離測定信号S3としてコントローラ10に
送出する。
Further, the joints of the leg units 3A to 3D, the leg units 3A to 3D and the trunk unit 2
Each coupling portion of the head unit 4 and the connecting portion of the body unit 2, and the tail unit 5 and the body unit, respectively, etc. The coupling portion actuator 3AA 1 of 2
33AA K , 3BA 1 33BA K , 3CA 1 C3C
A K, 3DA 1 ~3DA K, 4A 1 ~4A L, 5A 1 ~
5A M is disposed. The microphone 20 of the head unit 4 is provided with a sound commander (a commander that generates a sound of a different scale according to the operation content) from the user as a musical scale such as “walk”, “down” or “chase the ball”. Is collected, and the obtained audio signal S1 is sent to the controller 10. Also C
The CD camera 21 captures an image of the situation in the forward direction, sends the obtained image signal S2 to the controller 10, and the distance sensor 24 measures the distance to the object in front, and sends the measurement result to a distance measurement signal. It is sent to the controller 10 as S3.

【0012】さらにタッチセンサ22は、図1において
明らかなように頭部ユニット4の上部に設けられてお
り、ユーザからの「なでる」や「たたく」といった物理
的な働きかけにより受けた圧力を検出し、検出結果を圧
力検出信号S4としてコントローラ10に送出する。
Further, the touch sensor 22 is provided on the upper part of the head unit 4 as apparent from FIG. 1, and detects a pressure received by a physical action such as "stroke" or "slap" from the user. The detection result is sent to the controller 10 as a pressure detection signal S4.

【0013】さらに胴体部ユニット2のバッテリセンサ
12は、バッテリ11の残量を複数段階に分けて検出
し、当該各段階の検出結果をバッテリ残量検出信号S5
として順次コントローラ10に送出する。
Further, the battery sensor 12 of the body unit 2 detects the remaining amount of the battery 11 in a plurality of stages, and outputs the detection result of each stage to a battery remaining amount detection signal S5.
To the controller 10 sequentially.

【0014】さらに胴体部ユニット2の熱センサ13
は、ペットロボット1の内部温度を検出し、当該検出結
果を熱検出信号S6としてコントローラ10に送出す
る。
Further, the heat sensor 13 of the body unit 2
Detects the internal temperature of the pet robot 1 and sends the detection result to the controller 10 as a heat detection signal S6.

【0015】さらに胴体部ユニット2の加速度センサ1
8は、数十ミリ秒単位で3軸(X軸、Y軸、Z軸)方向
の加速度をそれぞれ検出し、当該検出結果を加速度検出
信号S7としてコントローラ10に送出する。また角速
度センサ19は、数十ミリ秒単位で3各(R角、P角、
Y角)方向の回転角速度を検出し、当該検出結果を角速
度検出信号S8としてコントローラ10に送出する。
Further, the acceleration sensor 1 of the body unit 2
8 detects acceleration in three axes (X-axis, Y-axis, Z-axis) in units of several tens of milliseconds, and sends the detection result to the controller 10 as an acceleration detection signal S7. In addition, the angular velocity sensor 19 has three (R angle, P angle,
The rotation angular velocity in the (Y angle) direction is detected, and the detection result is sent to the controller 10 as an angular velocity detection signal S8.

【0016】コントローラ10は、マイクロホン20、
CCDカメラ21、距離センサ24、タッチセンサ2
2、バッテリセンサ12、熱センサ13、加速度センサ
18、角速度センサ19から与えられる音声信号S1、
画像信号S2、距離測定信号S3、圧力検出信号S4、
バッテリ残量検出信号S5、熱検出信号S6、加速度検
出信号S7及び角速度検出信号S8などに基づいて、周
囲の状況や、ユーザからの指令、ユーザからの働きかけ
などの有無を判断する。
The controller 10 includes a microphone 20,
CCD camera 21, distance sensor 24, touch sensor 2
2, audio signal S1 given from battery sensor 12, heat sensor 13, acceleration sensor 18, angular velocity sensor 19,
Image signal S2, distance measurement signal S3, pressure detection signal S4,
Based on the remaining battery level detection signal S5, the heat detection signal S6, the acceleration detection signal S7, the angular velocity detection signal S8, and the like, it is determined whether there is a surrounding situation, a command from the user, an action from the user, and the like.

【0017】そしてコントローラ10は、この判断結果
と外部記憶メモリ15から情報読書部17を介して入力
される制御プログラムとに基づいて続く行動を決定し、
決定結果に基づいて必要なアクチュエータ3AA1 〜3
AAK 、3BA1 〜3BAK、3CA1 〜3CAK 、3
DA1 〜3DAK 、4A1 〜4AL 、5A1 〜5AM
駆動させることにより、頭部ユニット4を上下左右に振
らせたり、尻尾部ユニット5を動かせたり、各脚部ユニ
ット3A〜3Dを駆動して歩行させるなどの行動を行わ
せる。
The controller 10 determines a subsequent action based on the result of the determination and a control program input from the external storage memory 15 via the information reading unit 17,
Actuators 3AA 1 to 3 required based on determination result
AA K, 3BA 1 ~3BA K, 3CA 1 ~3CA K, 3
DA 1 ~3DA K, 4A 1 ~4A L, by driving the 5A 1 to 5 A M, or to shake the head unit 4 up and down and right and left, or to move the tail unit 5, the leg units 3A~3D To perform an action such as walking.

【0018】またこの際コントローラ10は、必要に応
じて所定の音声信号S9をスピーカ23に与えることに
より当該音声信号S9に基づく音声を外部に出力させた
り、このペットロボット1の「目」の位置に設けられた
図示しないLED(Light Emitting Diode)を点灯、消
灯又は点滅させる。
At this time, the controller 10 outputs a sound based on the sound signal S9 to the outside by giving a predetermined sound signal S9 to the speaker 23, if necessary, or the position of the "eye" of the pet robot 1. LED (Light Emitting Diode) (not shown) provided in the LED is turned on, off, or blinks.

【0019】このようにしてこのペットロボット1にお
いては、周囲の状況及び制御プログラム等に基づいて自
律的に行動し得るようになされている。
As described above, the pet robot 1 can behave autonomously based on the surrounding conditions, control programs, and the like.

【0020】また胴体部ユニット2内の外部記憶メモリ
15は、外部から挿入可能なメモリスティック等の記録
媒体でなり、当該記録媒体にはペットロボット1全体に
ついての上述した制御プログラムが予め格納されてい
る。さらに内部記憶メモリ16には、ハードウェア情
報、キャリブレーション情報、エラー動作実行プログラ
ム、学習情報及び個性情報などが書換え可能な状態で格
納されている。これら外部記憶メモリ15及び内部記憶
メモリ16に格納されている各種のプログラム及び情報
は、コントローラ10の制御に応じて情報読書部17が
読み書きし得るようになされている。
The external storage memory 15 in the body unit 2 is a recording medium such as a memory stick that can be inserted from the outside, and the above-described control program for the entire pet robot 1 is stored in the recording medium in advance. I have. Further, in the internal storage memory 16, hardware information, calibration information, an error operation execution program, learning information, personality information, and the like are stored in a rewritable state. Various programs and information stored in the external storage memory 15 and the internal storage memory 16 can be read and written by the information reading unit 17 under the control of the controller 10.

【0021】これによりコントローラ10は、情報読書
部17によって外部記憶メモリ15及び内部記憶メモリ
16から読み出された各種のプログラム及び情報に基づ
いて、ペットロボット1の行動を決定することにより、
当該決定に対応して必要なアドレス3AA1 〜5AM
駆動し、必要に応じてスピーカ23から音声を出力する
ようになされている。
Accordingly, the controller 10 determines the behavior of the pet robot 1 based on various programs and information read from the external storage memory 15 and the internal storage memory 16 by the information reading unit 17,
Corresponding to the determined driving the address 3AA 1 to 5 A M required, and to output the sound from the speaker 23 as required.

【0022】このようにしてこのペットロボット1にお
いては、外部記憶メモリ15及び内部記憶メモリ16に
格納されている各種のプログラム及び情報に従って、ペ
ットロボット1の自律的な行動を個性的に変化させ得る
ようになされている。
In this way, in the pet robot 1, the autonomous behavior of the pet robot 1 can be individually changed according to various programs and information stored in the external storage memory 15 and the internal storage memory 16. It has been made like that.

【0023】(3)ペットロボットの行動表現 このペットロボット1では、周囲の状況及び制御プログ
ラム等に基づいて自律的に行動することに加えて、あた
かも本物の動物のように、現在の状況に応じた最適な次
の行動及び動作を行わせると共に、過去の経験に基づい
て次の行動及び動作を変化させるようになされている。
(3) Behavioral Expression of Pet Robot In this pet robot 1, in addition to acting autonomously based on surrounding conditions and a control program, etc., the pet robot 1 responds to the current situation as if it were a real animal. In addition to performing the optimal next action and action, the next action and action are changed based on past experience.

【0024】ここでこのようなペットロボット1の行動
生成に関するコントローラ10の処理について説明す
る。
Here, the processing of the controller 10 regarding the action generation of the pet robot 1 will be described.

【0025】図3に示すように、ペットロボット1の行
動生成に関するコントローラ10の処理の内容を機能的
に分類すると、特定の外部状態を認識する認識オブジェ
クト30、当該認識オブジェクト30の認識結果を入力
セマンティクス( Semantics)と呼ばれる文字列に変換
する意味変換オブジェクト31、当該意味変換オブジェ
クト31から得られる入力セマンティクスに基づいて感
情及び本能の状態を表現する感情・本能生成オブジェク
ト32と、当該意味変換オブジェクト31から得られる
入力セマンティクス及び感情・本能生成オブジェクト3
2の表現結果に基づいて選択可能な行動モデルを列挙す
る行動生成オブジェクト33と、当該行動生成オブジェ
クト33によって列挙された行動モデルのうち続く行動
に最適な行動モデルを決定する行動選択オブジェクト3
4と、各アクチュエータ3AA1〜5AM を駆動制御す
ることによりペットロボット1に当該行動選択オブジェ
クト34によって決定された行動モデルに応じた行動を
発現させる行動発現オブジェクト35とに分けることが
できる。
As shown in FIG. 3, when the content of the processing of the controller 10 relating to the action generation of the pet robot 1 is functionally classified, a recognition object 30 for recognizing a specific external state and a recognition result of the recognition object 30 are input. A semantic conversion object 31 for converting into a character string called semantics, an emotion / instinct generation object 32 expressing an emotion and an instinct state based on input semantics obtained from the semantic conversion object 31, and the semantic conversion object 31 Semantics and emotion / instinct generation object 3 obtained from
2. An action generation object 33 that enumerates action models that can be selected based on the expression result of 2, and an action selection object 3 that determines an optimum action model for a subsequent action among the action models enumerated by the action generation object 33.
4, can be divided into a behavioral expression object 35 to express the behavior corresponding to the behavior model determined the pet robot 1 by the action selection object 34 by controlling driving the actuators 3AA 1 to 5 A M.

【0026】この場合認識オブジェクト30は、マイク
ロホン20から与えられる音声信号S1、CCDカメラ
21から与えられる画像信号S2、距離センサ24から
与えられる距離測定信号S3、タッチセンサ22から与
えられる圧力検出信号S4、加速度センサ18から与え
られる加速度検出信号S7、及び角速度センサ19から
与えられる角速度検出信号S8に基づいて、ペットロボ
ット1の周囲の状態や、ユーザからの指令、ユーザの働
きかけなどの有無を認識すると共に、内部センサ24を
構成するバッテリセンサ22及び熱センサ23から与え
られるバッテリ残量検出信号S4及び熱検出信号S5に
基づいて、バッテリ21の残量状態やペットロボット1
の内部温度を認識した後、これらの認識結果を意味変換
オブジェクト31に通知する。
In this case, the recognition object 30 is composed of an audio signal S1 supplied from the microphone 20, an image signal S2 supplied from the CCD camera 21, a distance measurement signal S3 supplied from the distance sensor 24, and a pressure detection signal S4 supplied from the touch sensor 22. Based on the acceleration detection signal S7 given from the acceleration sensor 18 and the angular velocity detection signal S8 given from the angular velocity sensor 19, the surrounding state of the pet robot 1, the instruction from the user, the presence or absence of the user's action, etc. are recognized. At the same time, based on the remaining battery level detection signal S4 and the heat detection signal S5 provided from the battery sensor 22 and the heat sensor 23 constituting the internal sensor 24, the remaining state of the battery 21 and the pet robot 1
After recognizing the internal temperature of, the recognition result is notified to the meaning conversion object 31.

【0027】この意味変換オブジェクト31は、認識オ
ブジェクト30から供給される認識結果を入力セマンテ
ィクスに変換した後、当該入力セマンティクスを感情・
本能生成オブジェクト32及び行動生成オブジェクト3
3に供給する。
After converting the recognition result supplied from the recognition object 30 into input semantics, the semantic conversion object 31 converts the input semantics into emotion / semantics.
Instinct generation object 32 and action generation object 3
Supply 3

【0028】感情・本能生成オブジェクト32は、供給
される入力セマンティクスと、胴体部ユーザ2内の内部
記憶メモリ16から読み出された個人情報36とに基づ
いて、ペットロボット1の感情及び本能の状態を決定
し、当該決定された感情及び本能の状態が所定レベルを
越えた場合のみ、当該感情及び本能の状態を行動生成オ
ブジェクト33に通知する。この個人情報には、入力セ
マンティクスと感情及び本能の状態との関係がパラメー
タ化されたものである。
The emotion / instinct generation object 32 is based on the supplied input semantics and the personal information 36 read from the internal storage memory 16 in the torso user 2, and the state of the emotion and instinct of the pet robot 1. Is determined, and only when the state of the determined emotion and instinct exceeds a predetermined level, the state of the emotion and the instinct is notified to the action generation object 33. In this personal information, the relationship between the input semantics and the state of emotion and instinct is parameterized.

【0029】かかる感情・本能生成オブジェクト32
は、「喜び」、「悲しみ」、「怒り」、「驚き」、「恐
怖」及び「嫌悪」の合計6つの各情動ごとに、その情動
の強さを表すパラメータを保持すると共に、「愛情
欲」、「探索欲」、「運動欲」及び「食欲」の合計4つ
の各欲求ごとに、その欲求の強さを表すパラメータを保
持しており、これらの各情動及び各欲求のパラメータ値
を、それぞれ入力セマンティクスから与えられる特定の
認識結果(「叩かれた」及び「撫でられた」など)や時
間経過などに基づいて順次更新するようになされてい
る。
The emotion / instinct generation object 32
Holds a parameter indicating the strength of the emotion for each of the six emotions of "joy,""sadness,""anger,""surprise,""fear," and "disgust," , "Search desire", "exercise desire", and "appetite", each of which holds a parameter indicating the strength of the desire. Parameter values of these emotions and desires are Each of them is sequentially updated based on a specific recognition result (“struck” and “stroke”) given from the input semantics, the passage of time, and the like.

【0030】具体的に感情・本能生成オブジェクト32
は、供給される入力セマンティクスがペットロボット1
の現在の行動に対して作用する度合いと、そのとき保持
している各情動及び各欲求のパラメータ値がペットロボ
ット1の現在の行動に対して作用する度合いと、他の情
動から受ける抑制及び刺激の度合いと、ペットロボット
1の行動出力と、経過時間となどに基づいて、その情動
及び欲求のパラメータ値を更新する。
Specifically, the emotion / instinct generation object 32
Indicates that the input semantics supplied are pet robot 1
Of the pet robot 1, the degree of the parameter values of each emotion and each desire held at that time on the current action of the pet robot 1, and the suppression and stimulation received from other emotions. , The parameter values of the emotion and the desire are updated based on the behavior output of the pet robot 1 and the elapsed time.

【0031】行動生成オブジェクト33は、意味変換オ
ブジェクト31から供給される入力セマンティクスと、
感情・本能生成オブジェクト32から供給される各情動
及び各欲求のパラメータ値と、胴体部ユーザ2内の内部
記憶メモリ16から読み出された状態遷移表37に基づ
いて、ペットロボット1が次に発現する行動を選択す
る。
The action generation object 33 has input semantics supplied from the meaning conversion object 31 and:
Based on the parameter values of each emotion and each desire supplied from the emotion / instinct generation object 32 and the state transition table 37 read from the internal storage memory 16 in the body user 2, the pet robot 1 is expressed next. Choose an action to take.

【0032】行動生成オブジェクト33は、図4に示す
ような、上述した種々のセンサ出力に応じてペットロボ
ット1が次に発現可能な行動パターンをそれぞれ行動モ
デル40A1 〜40AN として配列した行動モデルライ
ブラリ40として設定しておき、当該行動モデルライブ
ラリ40の中から、供給されたセンサ出力のうち選択可
能な行動モデル40A1 〜40AN を列挙するようにな
されている。
The behavior generation object 33, such as shown in FIG. 4, the action model sequence then expressible behavior patterns the pet robot 1 according to various sensor outputs described above as each behavior model 40A 1 ~40A N may be set as a library 40, it is among the behavioral model library 40, adapted to enumerate selectable behavior model 40A 1 ~40A N of the supplied sensor output.

【0033】この行動モデルライブラリ40には、「ボ
ール対応行動モデル」、「自律探索行動モデル」、「感
情表現行動モデル」、「障害物回避行動モデル」、…
…、「リモコンモード行動モデル」、……、「転倒復帰
行動モデル」、「バッテリ管理行動モデル」などの予め
選択されたいくつかの条件項目にそれぞれ対応させて、
それぞれ独立した行動モデル40A1 〜40AN が設け
られている。
The behavior model library 40 includes a "ball response behavior model", an "autonomous search behavior model", an "emotional expression behavior model", an "obstacle avoidance behavior model",.
..., "remote control mode behavior model", ..., "falling recovery behavior model", "battery management behavior model", etc. corresponding to several pre-selected condition items,
Independent behavior model 40A 1 ~40A N, respectively.

【0034】なおこの実施の形態の場合、各行動モデル
40A1 〜40AN は、次の行動を決定する手法とし
て、図5に示すような1つのノード(状態)NODE0
〜NODEn から他のどのノードNODE0 〜NODE
n に遷移するかを各ノードNODE0 〜NODEn 間を
接続するアークARC1 〜ARCn+1 に対してそれぞれ
設定された遷移確率P1 〜Pn+1 に基づいて確率的に決
定する確率オートマトンと呼ばれるアルゴリズムを用い
る。
[0034] In the case of this embodiment, the behavior model 40A 1 ~40A N is, as a method to determine the next action, one node, as shown in FIG. 5 (state) NODE 0
~ NODE n to any other node NODE 0 ~ NODE
The probability of stochastically determining whether to transition to n based on the transition probabilities P 1 to P n + 1 set for the arcs ARC 1 to ARC n + 1 connecting the nodes NODE 0 to NODE n. An algorithm called automaton is used.

【0035】具体的に、各行動モデル40A1 〜40A
N は、それぞれ自己の行動モデルを形成する各ノードN
ODE0 〜NODEn にそれぞれ対応させて、これらノ
ードNODE0 〜NODEn ごとの図6に示すような状
態遷移表37を有している。
Specifically, each of the behavior models 40A 1 to 40A
N is each node N forming its own behavior model
Respectively in correspondence to the ODE 0 ~NODE n, and a state transition table 37 as shown in FIG. 6 of each of these nodes NODE 0 ~NODE n.

【0036】この状態遷移表37では、そのノードNO
DE0 〜NODEn において遷移条件とする入力イベン
ト(認識結果)が「入力イベント名」の行に優先順に列
記され、その遷移条件についてのさらなる条件が「デー
タ名」及び「データの範囲」の行における対応する列に
記述されている。
In this state transition table 37, the node NO
Input events (recognition results) as transition conditions in DE 0 to NODE n are listed in order of priority in a row of “input event name”, and further conditions for the transition condition are rows of “data name” and “data range”. In the corresponding column.

【0037】従って図6の状態遷移表37で表されるノ
ードNODE100 では、「ボールを検出(BALL)」
という認識結果が与えられた場合に、当該認識結果と共
に与えられるそのボールの「大きさ(SIZE)」が
「50から100 」の範囲であることが他のノードに遷移す
るための条件となっている。またこのノードNODE
100 では、「障害物を検出(OBSTACLE)」とい
う認識結果が与えられた場合に、当該認識結果と共に与
えられるその障害物までの「距離(DISTANC
E)」が「40から80」の範囲であるか、又は感情・本能
生成オブジェクト32に保持された「喜び(JOY)」
のパラメータ値が「50から60」、「驚き(SURPRI
SE)」のパラメータ値「30から60」若しくは「悲しみ
(SUDNESS)」のパラメータ値が「90から100 」
の範囲であることが他のノードに遷移するための条件と
なっている。
Therefore, in the node NODE 100 represented by the state transition table 37 in FIG. 6, "ball detected (BALL)"
When the recognition result is given, the condition for transitioning to another node is that the "size (SIZE)" of the ball given together with the recognition result is in the range of "50 to 100". I have. Also this node NODE
In 100 , when a recognition result of “obstacle detected (OBSTACLE)” is given, the “distance (DISTANCE)” to the obstacle given together with the recognition result is given.
E) is in the range of “40 to 80” or “JOY” held in the emotion / instinct generation object 32
Parameter values are "50 to 60", "Surprised (SURPRI
SE) "or the parameter value of" Sadness "is" 90 to 100 ".
Is a condition for transitioning to another node.

【0038】また状態遷移表37では、「他のノードへ
の遷移確率」の欄における「遷移先ノード」の列にその
ノードNODE0 〜NODEn から遷移できるノード名
が列記されると共に、「入力イベント名」、「データ
値」及び「データの範囲」の行に記述された全ての条件
が揃ったときに遷移できる他の各ノードNODE0 〜N
ODEn への遷移確率が「他のノードへの遷移確率」の
欄内の対応する箇所にそれぞれ記述され、そのノードN
ODE0 〜NODEn に遷移する際に出力すべき行動が
「他のノードへの遷移確率」の欄における「出力行動」
の行に記述されている。なお「他のノードへの遷移確
率」の欄における各行の確率の和は100 〔%〕となって
いる。
Further in the state transition table 37, with the node name that can transition from the node NODE 0 ~NODE n in the column of "transition destination node" in the column of "probability of transition to another node" is listed, the "input Other nodes NODE 0 to N that can transition when all the conditions described in the rows of “event name”, “data value”, and “data range” are met
The transition probability to ODE n is described in a corresponding part in the column of “transition probability to another node”, and the node N
The action to be output when transitioning from ODE 0 to NODE n is “output action” in the column of “transition probability to another node”.
Is described in the line. Note that the sum of the probabilities of the respective rows in the column of “transition probability to another node” is 100 [%].

【0039】従って図6の状態遷移表37で表されるノ
ードNODE100 では、例えば「ボールを検出(BAL
L)」し、そのボールの「大きさ(SIZE)」が「50
から100 」の範囲であるという認識結果が与えられた場
合には、「30〔%〕」の確率で「ノードNODE
120 (node 120)」に遷移でき、そのとき「ACTIO
N1」の行動が出力されることとなる。
Therefore, in the node NODE 100 represented by the state transition table 37 in FIG.
L) "and the" size "of the ball is" 50 ".
Is given in the range of “node NODE” with a probability of “30 [%]”.
120 (node 120) ”, and then“ ACTIO ”
The action of "N1" will be output.

【0040】そして各行動モデル40A1 〜40N は、
それぞれこのような状態遷移表として記述されたノード
NODE0 〜NODEn がいくつも繋がるようにして構
成されており、入力セマンティクスから認識結果が与え
られたときなどに、対応するノードNODE0 〜NOD
n の状態遷移表を利用して確率的に次の行動を決定
し、決定結果を行動選択オブジェクト34に出力するよ
うになされている。
Each of the behavior models 40A 1 to 40 N is
Is configured as such a state node NODE 0 ~NODE n written as transition table, each several leads, such as when a given input semantics recognition result from the corresponding node NODE 0 ~NOD
Stochastically determine the next action by utilizing a state transition table of E n, and to output the determination result to the action selection object 34.

【0041】行動選択オブジェクト34は、行動モデル
ライブラリ40の各行動モデル40A1 〜40N からそ
れぞれ出力される行動のうち、予め定められた優先順位
の高い行動モデルから出力された行動を選択し、当該行
動を実行すべき旨のコマンドを出力セマンティクスから
なる文字列に変換して出力する。なおこの実施の形態に
おいては、図4において下側に表記された行動モデル4
0A1 〜40N ほど優先順位が高く設定されている。
The action selection object 34 selects an action output from a predetermined high-priority action model among actions output from the action models 40A 1 to 40 N of the action model library 40, respectively. The command to execute the action is converted into a character string having output semantics and output. In this embodiment, the behavior model 4 shown in the lower part of FIG.
0A 1 priority as ~40 N is set to be higher.

【0042】また行動選択オブジェクト34は、行動完
了後に当該行動履歴としての出力セマンティクスを感情
・本能生成オブジェクト32に通知することによってフ
ィードバックさせる。かかる行動履歴情報は、ペットロ
ボット1が発現した行動を累積的にまとめた情報であ
り、当該行動発現の順番(例えば、「蹴り」、「怒り」
及び「喜び」の順)に従って履歴情報の内容が決定され
るようになされている。
Further, the action selection object 34 gives feedback by notifying the emotion / instinct generation object 32 of the output semantics as the action history after the action is completed. Such behavior history information is information in which behaviors of the pet robot 1 are accumulated in a cumulative manner, and the order of the behavior manifestation (for example, “kick”, “anger”)
And the order of “joy”), the content of the history information is determined.

【0043】この結果、感情・本能生成オブジェクト3
2は、「喜び(joy )」、「悲しみ(sadness )」、
「怒り(anger )」、「驚き(surprise)」、「嫌悪
(disgust )」及び「恐れ(fear)」の合計6つの情動
について、各情動ごとにその情動の強さを表すパラメー
タを保持しており、これら各情動のパラメータ値を、そ
れぞれ入力セマンティクスから与えられる「叩かれた」
及び「撫でられた」などの特定の認識結果と、時間経過
及び行動選択オブジェクト34から与えられる出力セマ
ンティクスとなどに基づいて順次更新するようになされ
ている。
As a result, the emotion / instinct generation object 3
2 means “joy”, “sadness”,
For a total of six emotions of "anger", "surprise", "disgust" and "fear", a parameter indicating the strength of the emotion is stored for each emotion. And the parameter values of each of these emotions are "hit" by the input semantics.
And a specific recognition result such as “stroke” and the output semantics given from the time selection and the action selection object 34, and the like, and are sequentially updated.

【0044】具体的には、行動選択オブジェクト34に
おいて、バッテリセンサ12の検出結果がバッテリ11
の残量状態が所定レベル以下であることを表す場合に
は、この他の種々のセンサの検出結果にかかわらず、優
先的に「バッテリ管理行動モデル」40AN を選択す
る。
Specifically, in the action selection object 34, the detection result of the battery sensor 12 is
If the toner status of indicating that it is below a predetermined level, regardless of the detection result of the other various sensors, selecting preferentially "battery management behavior model" 40A N.

【0045】またバッテリ11の残量状態が所定レベル
以上であり、かつ加速度センサ18の検出結果がペット
ロボット1が転倒していることを表す場合には、この他
の種々のセンサの検出結果にかかわらず、優先的に「転
倒復帰行動モデル」40AN-1 を選択する。
When the remaining state of the battery 11 is equal to or higher than a predetermined level and the detection result of the acceleration sensor 18 indicates that the pet robot 1 has fallen, the detection results of the other various sensors are used. Regardless of the above, the “falling return behavior model” 40A N-1 is preferentially selected.

【0046】さらに「リモコンモード行動モデル」40
K よりも優先度の高い行動モデルに対応する各センサ
の検出結果がそれぞれ該当する行動モデルを決定するこ
となく、かつマイクロホン20の検出結果がユーザの指
示があったことを表す場合には、優先的に「リモコンモ
ード行動モデル」40AK を選択する。
Further, "Remote control mode behavior model" 40
When the detection result of each sensor corresponding to the behavior model having a higher priority than A K does not determine the corresponding behavior model, and the detection result of the microphone 20 indicates that the user has given an instruction, preferentially select the "remote control mode behavior model" 40A K.

【0047】さらに「障害物回避行動モデル」40A4
よりも優先度の高い行動モデルに対応する各センサの検
出結果がそれぞれ該当する行動モデルを決定することな
く、かつCCDカメラ21の検出結果がペットロボット
1の前方にボール以外の障害物があることを表す場合に
は、優先的に「障害物回避行動モデル」40A4 が選択
される。
Further, the “obstacle avoidance behavior model” 40A 4
The detection result of each sensor corresponding to the behavior model having a higher priority than that of the pet model does not determine the corresponding behavior model, and the detection result of the CCD camera 21 indicates that there is an obstacle other than the ball in front of the pet robot 1. when representing the preferentially "obstacle avoidance behavior model" 40A 4 is selected.

【0048】さらに上述した優先順位に従って配列され
た各行動モデル40A1 〜40ANのうち「障害物回避
行動モデル」40A4 までの行動モデルが決定されるこ
となく、かつタッチセンサ22の検出結果がペットロボ
ット1の感情が所定レベル以上変化したことを表す場合
には、優先的に「感情表現行動モデル」40A3 を選択
する。
Further, among the behavior models 40A 1 to 40A N arranged in accordance with the above-described priorities, the behavior model up to the “obstacle avoidance behavior model” 40A 4 is not determined, and the detection result of the touch sensor 22 is not determined. If the emotion of the pet robot 1 represents that it has changed more than a predetermined level, selects preferentially "emotional expression behavior model" 40A 3.

【0049】さらに上述した優先順位に従って配列され
た各行動モデル40A1 〜40ANのうち「感情表現行
動モデル」40A3 までの行動モデルが決定されること
なく、かつマイクロホン20、CCDカメラ21、タッ
チセンサ22及び又はバッテリセンサ22の検出結果が
ペットロボット1が退屈及び又は空腹な状態にあること
を表している場合には、優先的に「自律探索行動モデ
ル」40A2 を選択する。
[0049] Without further "emotional behavior model" behavior model to 40A 3 is determined among the behavioral model 40A 1 ~40A N arranged according to the priority described above, and a microphone 20, CCD camera 21, touch detection result of the sensor 22 and or the battery sensor 22 when the pet robot 1 indicates that in the boring and or fasted state, selects preferentially "autonomous exploratory behavior model" 40A 2.

【0050】そして上述した優先順位に従って配列され
た各行動モデル40A1 〜40ANのうち「自律探索行
動モデル」40A2 までの行動モデルが決定されること
なく、かつCCDカメラ21と呼び距離センサ24の検
出結果がペットロボット1がボールの存在(色や形な
ど)を認識した場合には、優先的に「ボール対応行動モ
デル」40A1 を選択する。
[0050] The "Autonomous exploratory behavior model" 40A without action that the model is determined to 2 of each behavior model 40A 1 ~40A N arranged according to the priority described above, and the distance sensor 24 is referred to as a CCD camera 21 the detection result when the pet robot 1 has recognized the existence of the ball (such as color and shape) is preferentially select the "ball corresponding behavior model" 40A 1.

【0051】このようにして行動選択オブジェクト34
は、優先順位の高い行動モデル40A1 〜40AN を選
択した後、当該選択した行動モデル40A1 〜40AN
に応じた行動をペットロボット1に発現させると共に、
当該発現行動を出力セマンティクスに変換して感情・本
能生成オブジェクト32にフィードバックさせる。
Thus, the action selection object 34
After selecting the higher priority behavior model 40A 1 ~40A N, the selected behavior model 40A 1 ~40A N
Causes the pet robot 1 to express an action corresponding to
The expression behavior is converted into output semantics and fed back to the emotion / instinct generation object 32.

【0052】かくして感情・本能生成オブジェクト32
は、行動選択オブジェクト34からフィードバックされ
た出力セマンティクスに基づいて、上述した入力セマン
ティクス及び個人情報36に基づき決定されたペットロ
ボット1の感情及び本能の状態に応じた各情動及び各欲
求のパラメータ値を更新することにより、ペットロボッ
ト1の次の行動を出力セマンティクスで表される行動内
容が反映するように発現させることができる。
Thus, the emotion / instinct generation object 32
Based on the output semantics fed back from the action selection object 34, the parameter values of each emotion and each desire according to the emotion and instinct state of the pet robot 1 determined based on the input semantics and the personal information 36 described above. By updating, the next action of the pet robot 1 can be expressed so that the action content represented by the output semantics reflects the action.

【0053】具体的には、第1の例として、図3との対
応部分に同一符号を付した図7に示すように、ペットロ
ボット1が好きな色を見ていたときに頭部を何度も叩か
れた場合、当該頭部のタッチセンサ22が押圧されるご
とに、感情・本能生成オブジェクト32では、「好きな
色を見たときに嬉しくなる」ようなパラメータを、「好
きな色を見てもあまり喜ばない、若しくは嫌いになる」
ように値を変更することによって、行動生成オブジェク
ト33及び行動発現オブジェクト35では、最初は「喜
び」の行動を発現しているが次第に「怒り」の行動を発
現するようになる。
More specifically, as a first example, as shown in FIG. 7 in which the same reference numerals are given to the parts corresponding to those in FIG. Each time the touch sensor 22 of the head is pressed, the emotion / instinct generation object 32 sets a parameter such as “pleasant when you see a favorite color” to “a favorite color”. I'm not very happy or hate to see it. ''
By changing the value as described above, the action generating object 33 and the action expressing object 35 initially express the action of "joy", but gradually express the action of "anger".

【0054】この結果、ペットロボット1に対して次に
ピンク色のボールを見せたときでも前回に比べてあまり
喜ばず無視する場合もある。従って、ユーザの扱い方し
だいによってはペットロボット1の嗜好を様々な歩行に
変更させることができる。
As a result, even when the pet robot 1 shows the pink ball next time, the pet robot 1 may ignore the pink ball less than the previous time and ignore it. Therefore, depending on how the user treats the pet, the preference of the pet robot 1 can be changed to various types of walking.

【0055】また第2の例として、ペットロボット1が
ボールを見て(又は追いかけて)いたときに撫でられた
場合には、「ボールがもっと好きになる」ようにボール
に対する感情変動のパラメータ値を変更することによっ
て、非常にボールが好きな性格に変更させていくことが
できる。
As a second example, when the pet robot 1 is stroked while watching (or chasing) the ball, the parameter value of the emotional variation with respect to the ball is set so as to “like the ball more”. By changing the character, the ball can be changed to a very personality.

【0056】さらに第3の例として、ペットロボット1
の探索欲、運動欲及び愛情欲などが下がっているときに
ユーザがリモートコマンダ(図示せず)を用いてペット
ロボットに「お手」を発現させようとした場合、当該
「お手」を行動させようとする状態にパラメータ値が、
感情及び本能を表すパラメータ値に達していないときに
はペットロボット1が何も行動を発現しないことがあ
る。
As a third example, the pet robot 1
If the user tries to make the pet robot express his / her hand using a remote commander (not shown) when his / her desire to search, exercise, and affection falls, the user will act on the hand. Parameter value in the state to be
When the parameter values representing the emotion and the instinct have not been reached, the pet robot 1 may not take any action.

【0057】それでもユーザが何度も「お手」を発現さ
せようとした場合、ペットロボット1に対して何度も
「お手」の発現命令が入力セマンティクスとして入力さ
れるのに対して、ペットロボット1には「寝る」や「あ
くびをする」などの行動発現が出力セマンティクスとし
てフィードバックされるため、この結果ペットロボット
1は「お手」に対する欲求のパラメータ値が下がること
となり、その行為をする意欲が失われ、かくしてユーザ
の意にそぐわない「お手をなかなかしない」状態に変更
することができる。
Still, if the user attempts to express the "hand" many times, the pet robot 1 is repeatedly input with the expression command of the "hand" as input semantics. Since the behavior expression such as “sleep” or “yawn” is fed back to the robot 1 as output semantics, as a result, the pet robot 1 decreases the parameter value of the desire for “hand” and performs the action. The motivation is lost, and thus the state can be changed to a state in which “there are no difficulties” that does not suit the user's will.

【0058】さらに第4の例として、図3との対応部分
に同一符号を付した図8に示すように、ペットロボット
1がピンク色のボールを発見すると、当該ボールに近づ
いて蹴ろうとする。このとき感情・本能生成オブジェク
ト32では、ボールに近づくにつれて「ボール(大)」
の認識結果が入力セマンティクスとして入力され、次に
「キック」の行動発現が出力セマンティクスとしてフィ
ードバックされる。その際にペットロボット1がボール
を蹴るのに成功すると、当該ボールが遠ざかるため「ボ
ール(小)」の認識結果が入力セマンティクスとして入
力される。
As a fourth example, when the pet robot 1 finds a pink ball, as shown in FIG. 8 in which the same reference numerals are given to portions corresponding to FIG. 3, the pet robot 1 approaches the ball and tries to kick it. At this time, in the emotion / instinct generation object 32, the “ball (large)”
Is input as input semantics, and then the action expression of "kick" is fed back as output semantics. At that time, if the pet robot 1 succeeds in kicking the ball, the ball moves away, so that the recognition result of “ball (small)” is input as input semantics.

【0059】このとき感情・本能生成オブジェクト32
では、「キック」から「ボール(小)」への入力セマン
ティクスの遷移に基づいて、ペットロボット1は「ボー
ルを蹴るのに成功した」と判断し、当該判断結果に応じ
て「ボール」に対して「喜び」の感情及び「運動欲」の
本能の状態に基づくパラメータ値が大きくなるように変
更させることにより、ペットロボット1がボールを見る
と喜びと運動欲が高まるためボール遊びをする度合いが
高くなるように性格を変更することができる。
At this time, the emotion / instinct generation object 32
Then, based on the transition of the input semantics from “kick” to “ball (small)”, the pet robot 1 determines that “succeeded in kicking the ball”, and responds to “ball” in accordance with the determination result. By changing the parameter value based on the emotion of "joy" and the state of the instinct of "exercise desire" to be large, the pet robot 1 increases the joy and desire for exercise when looking at the ball, so that the degree of playing the ball is increased. You can change your personality to be higher.

【0060】これとは反対にペットロボット1がボール
を蹴り損ねた場合には、感情・本能生成オブジェクト3
2では、「悲しみ」や「嫌い」などの感情の状態に基づ
くパラメータ値が大きくなるように変更させることによ
り、ペットロボット1がボール遊びをあまりしない性格
に変更することができる。
Conversely, if the pet robot 1 fails to kick the ball, the emotion / instinct generation object 3
In 2, the pet robot 1 can be changed to a character in which the pet robot 1 does not play a ball much by changing the parameter value based on the emotional state such as “sadness” or “dislike” so as to increase.

【0061】(4)本実施の形態による動作及び効果 以上の構成において、このペットロボット1では、現在
の状態から次に発現可能な行動パターンをそれぞれ行動
モデルとして設定しておき、これら複数の行動モデルの
中から周囲及び内部の状況やユーザからの働きかけに応
じた各行動モデル40A1 〜40AN を抽出した後、こ
のうち最も優先順位が高い行動モデル40A1 〜40A
N を選択して、当該選択した行動モデル40A1 〜40
N に応じた行動を発現させることにより、現在の状況
に応じた最適な次の行動を連続して行わせることができ
る。
(4) Actions and Effects According to the Present Embodiment In the above configuration, in the pet robot 1, action patterns that can be expressed next from the current state are set as action models, respectively, and the plurality of actions are set. after extracting each behavior model 40A 1 ~40A N corresponding to the urging from the surrounding and internal situations and user from the model, these highest priority behavior model 40A 1 ~40A
N to select the selected behavior model 40A 1 -40
By expressing an action corresponding to A N, it may be performed continuously optimal next action in accordance with the current situation.

【0062】そして実際にペットロボット1がかかる行
動モデルに応じた行動を発現した後、当該発現した行動
結果(すなわち行動履歴)をフィードバックさせるよう
にして、ペットロボット1の感情及び本能の状態に応じ
た情動及び欲求の度合いを当該行動結果に応じて変更す
るようにしたことにより、現在の行動結果を次の行動に
反映させることができ、かくして現在の行動から次の行
動への遷移を関連付けることができる分だけ、環境適応
性の高いペットロボット1を実現することができる。
Then, after the pet robot 1 actually expresses an action according to the action model, the expressed action result (ie, action history) is fed back, so that the pet robot 1 responds to the emotion and instinct state of the pet robot 1. By changing the degree of emotions and desires according to the result of the action, the result of the current action can be reflected in the next action, thus associating the transition from the current action to the next action. As a result, the pet robot 1 with high environmental adaptability can be realized.

【0063】また行動モデルライブラリ40内に複数の
行動モデル40A1 〜40AN を設定しておき、当該各
行動モデルからそれぞれ遷移可能な行動を展開させるよ
うにしたことにより、行動モデルライブラリ40という
概念を設けることなく単一の行動モデルから遷移可能な
行動を展開させる場合と比較して、遷移可能な行動の数
を格段と増加させることができ、かくしてより一層複雑
な行動ペットロボット1に発現させることができる。
[0063] The previously set a plurality of action models 40A 1 ~40A N behavioral model library 40, by which from the each behavior model so as to expand the possible transitions action respectively, the concept of action model library 40 The number of transitionable actions can be significantly increased as compared with the case where a transitionable action is developed from a single behavior model without providing the behavior pet robot 1, thus allowing the behavior pet robot 1 to exhibit a more complicated behavior. be able to.

【0064】さらに複数の行動モデル40A1 〜40A
N を行動モデルライブラリ40内に設けたことにより、
単一の行動モデルの場合と比較して、各行動モデルごと
に遷移確率や対応するアクションなどの設定を調整する
ことができ、その分ペットロボット1をあたかも本物の
動物と同じように行動させるための種々の設定(メンテ
ナンスやバージョンアップなど)を比較的容易に行うこ
とができる。
Further, a plurality of behavior models 40A 1 to 40A
By providing N in the behavior model library 40,
Compared to the case of a single behavior model, the settings such as the transition probability and the corresponding action can be adjusted for each behavior model, and the pet robot 1 can behave as if it were a real animal. Can be set relatively easily (maintenance, version upgrade, etc.).

【0065】以上の構成によれば、このペットロボット
1において、周囲及び内部の状況やユーザからの働きか
けに応じて選択された行動を発現した状態で次に最も優
先順位が高い行動を発現させるようにしたことにより、
現在の状況に応じた最適な次の行動を連続して行わせる
ことができ、かくしてアミューズメント性を格段と向上
させ得るペットロボット1を実現できる。
According to the above configuration, in the pet robot 1, the action having the next highest priority is expressed in a state where the action selected according to the surrounding and internal conditions and the action from the user is expressed. By doing,
The optimal next action according to the current situation can be continuously performed, and thus the pet robot 1 that can significantly improve the amusement property can be realized.

【0066】そして実際にペットロボット1が上述のよ
うに選択された行動を発現した後、当該発現した行動結
果に基づいて、ペットロボット1の感情及び本能の状態
に応じた情動及び欲求の度合いを変更するようにしたこ
とにより、現在の行動結果を次の行動に反映させて環境
適応性を高くすることができ、かくしてアミューズメン
ト性を格段と向上させ得るペットロボット1を実現でき
る。
Then, after the pet robot 1 actually expresses the action selected as described above, the degree of emotion and desire according to the emotion and instinct state of the pet robot 1 is determined based on the expressed action result. By making the change, the current action result can be reflected in the next action to enhance the environmental adaptability, and thus the pet robot 1 that can significantly improve the amusement property can be realized.

【0067】(5)他の実施の形態 なお上述の実施の形態においては、図1のように構成さ
れた4足歩行型のペットロボット1に適用するようにし
た場合について述べたが、本発明はこれに限らず、この
他種々の構成のロボットに広く適用することができる。
(5) Other Embodiments In the above-described embodiment, a case has been described in which the invention is applied to the four-legged walking type pet robot 1 configured as shown in FIG. The present invention is not limited to this, and can be widely applied to robots having various other configurations.

【0068】この場合において上述の実施の形態では、
コントローラ10、各アクチュエータ3AA1 〜5AM
及びスピーカ23等を適用して、行動モデルの出力に基
づいて行動を生成するようにした場合について述べた
が、本発明を適用するロボット装置の形態に応じてこの
他種々の構成を適用することができる。
In this case, in the above-described embodiment,
The controller 10, the actuators 3AA 1 to 5 A M
And a case in which the action is generated based on the output of the action model by applying the speaker 23 and the like, but other various configurations may be applied depending on the form of the robot apparatus to which the present invention is applied. Can be.

【0069】またこの場合において上述の実施の形態に
おいては、行動生成に使用する複数種類の行動モデルと
して、図4に示すような行動モデルライブラリ40に設
けられた複数の行動モデル40A1 〜40AN を適用す
るようにした場合について述べたが、本発明はこれに限
らず、この他種々の行動を行動モデルとして行動モデル
ライブラリに設けるようにしても良い。
In this case, in the above-described embodiment, a plurality of action models 40A 1 to 40A N provided in the action model library 40 as shown in FIG. Has been described, but the present invention is not limited to this, and various other actions may be provided in the action model library as action models.

【0070】例えば図4との対応部分に同一符号を付し
た図9に示すように、行動生成オブジェクト33に行動
モデルライブラリ50を設け、目的別に分類された各行
動モデル50A1X〜50AN のうち、「ボール対応行動
モデル」をそれぞれ成長段階に合わせた「ボール対応行
動モデル1」50A1X及び「ボール対応行動モデル2」
50A1Yの2種類とすると共に、「自律探索行動モデ
ル」をそれぞれ成長段階に合わせた「自律探索行動モデ
ル1」50A2X及び「自律探索行動モデル2」50A2Y
の2種類に分類するようにしても良い。
[0070] As shown in FIG. 9 that the same reference numerals are added to corresponding parts in FIG. 4, for example, a behavioral model library 50 is provided on the behavior generation object 33, of each behavior model 50A 1X ~50A N categorized by purpose , "Ball-response behavior model 1" 50A 1X and "Ball-response behavior model 2" that match the "ball-response behavior model" with the growth stage
In addition to the two types of 50A 1Y , the “autonomous search action model 1” 50A 2X and the “autonomous search action model 2” 50A 2Y that match the “autonomous search action model” to the respective growth stages.
May be classified into two types.

【0071】この場合、上述した図3において、コント
ローラ10の行動生成オブジェクト33は、行動発現オ
ブジェクト35からフィードバックされた出力セマンテ
ィクスに基づいて、ペットロボット1の成長段階(例え
ば「誕生期」、「幼年期」、「少年期」、「青年期」及
び「成人期」の5段階)に合わせて行動モデルを選択す
るようにしても良い。この結果、かかる成長段階に合わ
せて選択した行動モデルの行動結果が成長履歴として感
情・本能生成オブジェクト32にフィードバックされる
ことにより、現在までの行動履歴のみならず成長履歴を
も次の行動に反映させて環境適応性を高くすることがで
き、かくしてアミューズメント性を格段と向上させ得る
ペットロボット1を実現できる。
In this case, in FIG. 3 described above, the behavior generation object 33 of the controller 10 determines the growth stage (for example, “birth period”, “childhood period”) of the pet robot 1 based on the output semantics fed back from the behavior expression object 35. Period), "childhood", "adolescence" and "adult". As a result, the behavior result of the behavior model selected in accordance with the growth stage is fed back to the emotion / instinct generation object 32 as the growth history, so that not only the behavior history up to now but also the growth history is reflected in the next behavior. As a result, the environmental adaptability can be improved, and thus the pet robot 1 that can significantly improve the amusement property can be realized.

【0072】さらに上述の実施の形態においては、行動
モデルライブラリ40に設けられた複数種類の行動モデ
ル40A1 〜40AN の出力の中から、外部から与えら
れる入力イマンティクス(入力情報)と自己の行動及び
又は成長履歴との少なくとも一方に基づいて、1つの行
動モデルを選択する行動選択手段として、コントローラ
10の行動選択オブジェクト34を適用した場合につい
て述べたが、本発明はこれに限らず、行動選択手段とし
ては本発明を適用するロボット装置の形態に応じてこの
他種々の構成を適用することができる。
[0072] Furthermore, in the above-described embodiment, among the outputs of the behavioral model 40A 1 ~40A N of a plurality of types provided in behavioral model library 40, input Iman Genetics externally applied (input information) with its own Although the case where the action selection object 34 of the controller 10 is applied as the action selection means for selecting one action model based on at least one of the action and / or the growth history has been described, the present invention is not limited to this. As the selection means, various other configurations can be applied according to the form of the robot device to which the present invention is applied.

【0073】さらに上述の実施の形態においては、選択
された行動モデルに応じた行動を発現した後にフィード
バックされる当該行動モデルに基づいて、感情モデルに
応じた情動の度合い及び又は本能モデルに応じた欲求の
度合いを変更させる情動欲求変更手段として、コントロ
ーラ10の感情・本能生成オブジェクト32を適用する
ようにした場合について述べたが、本発明はこれに限ら
ず、要は、現在の行動結果を次の行動に反映させること
ができれば、情動欲求変更手段としてはこの他種々の構
成を適用することができる。
Further, in the above-described embodiment, the degree of emotion corresponding to the emotion model and / or the instinct model is determined based on the behavior model which is fed back after expressing the behavior according to the selected behavior model. As described above, the emotion / instinct generation object 32 of the controller 10 is applied as the emotion desire changing means for changing the degree of desire. However, the present invention is not limited to this. If it can be reflected in the above-mentioned action, various other configurations can be applied as the emotion desire changing means.

【0074】さらに上述の実施の形態においては、図4
の行動モデルライブラリ40に示すような下側に記述さ
れているほど優先順位が高くなるように各行動モデル4
0A1 〜40AN の優先順位を設定するようにした場合
について述べたが、本発明はこれに限らず、これ以外の
順番で優先順位を設定するようにしても良い。
Further, in the above-described embodiment, FIG.
Each behavior model 4 has a higher priority as described in the lower side as shown in the behavior model library 40 of FIG.
It has dealt with the case of setting the priority of 0A 1 ~40A N, the present invention is not limited to this, in any other order may be set priorities.

【0075】さらに上述の実施の形態においては、感情
モデルに応じた情動として、「喜び」、「悲しみ」、
「怒り」、「驚き」、「嫌悪」及び「恐れ」の6つの情
動を設けると共に、本能モデルに応じた欲求として、
「運動欲」、「愛情欲」、「食欲」及び「好奇心」の4
つの欲求を設けるようにした場合について述べたが、本
発明はこれに限らず、情動及び欲求の数及び種類として
は、この他種々の数及び種類を広く適用することができ
る。
Further, in the above embodiment, the emotions according to the emotion model include “joy”, “sadness”,
In addition to providing six emotions of “anger”, “surprise”, “disgust” and “fear”, as desires according to the instinct model,
4 for "Motivation", "Love", "Appetite" and "Curiosity"
Although the case where one desire is provided has been described, the present invention is not limited to this, and various other numbers and types can be widely applied as the number and types of emotions and desires.

【0076】[0076]

【発明の効果】上述のように本発明によれば、複数種類
の行動モデルを有し、外部からの入力情報と自己の行動
及び又は成長履歴との少なくとも一方に基づいて、各行
動モデルの出力の中から1つの行動モデルの出力を選択
する行動選択手段を設けるようにしたことにより、現在
の状況に応じた最適な次の行動を連続して行わせること
ができ、かくしてアミューズメント性を格段と向上させ
得るロボット装置を実現できる。
As described above, according to the present invention, there are a plurality of types of behavior models, and the output of each behavior model is based on at least one of the input information from the outside and the own behavior and / or growth history. By providing the action selecting means for selecting the output of one action model from among the above, it is possible to continuously perform the optimal next action according to the current situation, thus greatly improving the amusement property. A robot device that can be improved can be realized.

【0077】また本発明によれば、複数種類の行動モデ
ルを有し、外部からの入力情報と自己の行動及び又は成
長履歴との少なくとも一方に基づいて、各行動モデルの
出力の中から1つの行動モデルの出力を選択するように
した。この結果このロボット装置の制御方法によれば、
現在の状況に応じた最適な次の行動を連続して行わせる
ことができ、かくしてアミューズメント性を格段と向上
させ得るロボット装置の制御方法を実現できる。
According to the present invention, a plurality of types of behavior models are provided, and one of the outputs of each behavior model is selected based on at least one of input information from the outside and own behavior and / or growth history. The behavior model output is now selected. As a result, according to the control method of this robot device,
An optimal next action according to the current situation can be continuously performed, and thus a control method of a robot apparatus that can significantly improve amusement can be realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施の形態によるペットロボットの外観構成
を示す斜視図である。
FIG. 1 is a perspective view illustrating an external configuration of a pet robot according to an embodiment.

【図2】ペットロボットの回路構成を示すブロック図で
ある。
FIG. 2 is a block diagram illustrating a circuit configuration of the pet robot.

【図3】コントローラ内のソフトウェア構成を示す概念
図である。
FIG. 3 is a conceptual diagram showing a software configuration in a controller.

【図4】行動モデルライブラリの説明に供する概念図で
ある。
FIG. 4 is a conceptual diagram for explaining an action model library;

【図5】確率オートマトンを示す略線図である。FIG. 5 is a schematic diagram illustrating a stochastic automaton.

【図6】状態遷移表を示す図表である。FIG. 6 is a diagram showing a state transition table.

【図7】行動履歴のフィードバックによる情動及び欲求
の度合いの変更の説明に供する略線図である。
FIG. 7 is a schematic diagram for explaining a change in the degree of emotion and desire due to feedback of an action history.

【図8】行動履歴のフィードバックによる情動及び欲求
の度合いの変更の説明に供する略線図である。
FIG. 8 is a schematic diagram for explaining a change in the degree of emotion and desire due to the feedback of the action history.

【図9】他の実施の形態による行動モデルライブラリの
説明に供する概念図である。
FIG. 9 is a conceptual diagram explaining a behavior model library according to another embodiment.

【符号の説明】[Explanation of symbols]

1……ペットロボット、2……胴体部ユニット、3A〜
3D……脚部ユニット、4……頭部ユニット、5……尻
尾部ユニット、10……コントローラ、30……認識オ
ブジェクト、31……意味変換オブジェクト、32……
感情・本能生成オブジェクト、33……行動生成オブジ
ェクト、34……行動選択オブジェクト、35……行動
発現オブジェクト、36……個人情報、37……状態遷
移表、40、50……行動モデルライブラリ、40A1
〜40AN 、50A1X〜50AN……行動モデル。
1 ... pet robot, 2 ... body unit, 3A ~
3D ... leg unit, 4 ... head unit, 5 ... tail unit, 10 ... controller, 30 ... recognition object, 31 ... meaning conversion object, 32 ...
Emotion / instinct generation object, 33: action generation object, 34: action selection object, 35: action expression object, 36: personal information, 37: state transition table, 40, 50: action model library, 40A 1
4040A N , 50A 1X 5050A N ... Behavior model.

フロントページの続き Fターム(参考) 3F059 AA00 BA00 BB06 DA05 FC00 FC15 3F060 AA00 BA10 CA14 5H004 GA26 GB16 HA07 HB01 HB03 HB07 HB08 HB09 HB15 JA02 JA03 JB05 JB06 KC35 KC47 KD55 KD62 KD70 LA18 LB08 LB10 MA29 MA30 Continued on the front page F-term (reference)

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】複数種類の行動モデルを有し、外部からの
入力情報と自己の行動履歴及び又は成長履歴との少なく
とも一方に基づいて、各上記行動モデルの出力の中から
1つの上記行動モデルの出力を選択する行動選択手段を
具えることを特徴とするロボット装置。
The present invention has a plurality of types of behavior models, and based on at least one of externally input information and a self behavior history and / or a growth history, one of the behavior models is selected from the outputs of the behavior models. A robot apparatus comprising an action selecting means for selecting an output of a robot.
【請求項2】上記行動選択手段によって選択された上記
行動モデルの出力に基づいて、感情モデルに応じた情動
の度合い及び又は本能モデルに応じた欲求の度合いを変
更する情動欲求変更手段を具えることを特徴とする請求
項1に記載のロボット装置。
2. An emotion desire changing means for changing a degree of emotion according to an emotion model and / or a degree of desire according to an instinct model based on an output of the behavior model selected by the behavior selection means. The robot device according to claim 1, wherein:
【請求項3】各上記行動モデルには予め優先順位が設定
され、 上記行動選択手段は、 上記入力情報と上記行動及び又は成長履歴との少なくと
も一方に基づいて、各上記行動モデルの出力の中から少
なくとも1以上の上記行動モデルの出力を抽出した後、
当該抽出した各行動モデルの出力のうち上記優先順位が
最も高い行動モデルの出力を選択することを特徴とする
請求項1に記載のロボット装置。
3. A priority order is set in advance for each of said behavior models, and said behavior selecting means includes: an output unit for each of said behavior models based on at least one of said input information and said behavior and / or growth history. After extracting at least one or more outputs of the behavior model from
2. The robot apparatus according to claim 1, wherein an output of the behavior model having the highest priority is selected from the extracted outputs of the behavior models.
【請求項4】上記行動選択手段によって選択された上記
行動モデルの出力に基づいて、感情モデルに応じた情動
の度合い及び又は本能モデルに応じた欲求の度合いを変
更する情動欲求変更手段を具えることを特徴とする請求
項3に記載のロボット装置。
4. An emotion desire changing means for changing the degree of emotion according to the emotion model and / or the degree of desire according to the instinct model based on the output of the behavior model selected by the behavior selection means. The robot device according to claim 3, wherein:
【請求項5】複数種類の行動モデルを有し、外部からの
入力情報と自己の行動履歴及び又は成長履歴との少なく
とも一方に基づいて、各上記行動モデルの出力の中から
1つの上記行動モデルの出力を選択することを特徴とす
るロボット装置の制御方法。
5. A behavior model having a plurality of types of behavior models, wherein one of the behavior models is selected from outputs of the behavior models based on at least one of input information from the outside and the behavior history and / or growth history of the user. A method for controlling a robot device, comprising selecting an output of a robot.
【請求項6】上記選択された上記行動モデルの出力に基
づいて、感情モデルに応じた情動の度合い及び又は本能
モデルに応じた欲求の度合いを変更することを特徴とす
る請求項5に記載のロボット装置の制御方法。
6. The method according to claim 5, wherein the degree of emotion according to the emotion model and the degree of desire according to the instinct model are changed based on the output of the selected behavior model. A method for controlling a robot device.
【請求項7】複数種類の上記行動モデルには予め優先順
位が設定され、 上記入力情報と上記行動及び又は成長履歴との少なくと
も一方に基づいて、各上記行動モデルの出力の中から少
なくとも1以上の上記行動モデルの出力を抽出した後、
当該抽出した各行動モデルの出力のうち上記優先順位が
最も高い行動モデルの出力を選択することを特徴とする
請求項5に記載のロボット装置の制御方法。
7. A plurality of types of behavior models are set in advance with priorities, and based on at least one of the input information and the behavior and / or growth history, at least one or more of outputs of each of the behavior models. After extracting the output of the above behavior model,
The method according to claim 5, wherein an output of the behavior model having the highest priority is selected from the outputs of the extracted behavior models.
【請求項8】上記選択された行動モデルの出力に基づい
て、感情モデルに応じた情動の度合い及び又は本能モデ
ルに応じた欲求の度合いを変更することを特徴とする請
求項7に記載のロボット装置の制御方法。
8. The robot according to claim 7, wherein the degree of emotion according to the emotion model and the degree of desire according to the instinct model are changed based on the output of the selected behavior model. How to control the device.
JP34121199A 1999-11-30 1999-11-30 Robot device and control method thereof Pending JP2001157981A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34121199A JP2001157981A (en) 1999-11-30 1999-11-30 Robot device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34121199A JP2001157981A (en) 1999-11-30 1999-11-30 Robot device and control method thereof

Publications (1)

Publication Number Publication Date
JP2001157981A true JP2001157981A (en) 2001-06-12

Family

ID=18344247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34121199A Pending JP2001157981A (en) 1999-11-30 1999-11-30 Robot device and control method thereof

Country Status (1)

Country Link
JP (1) JP2001157981A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003035334A1 (en) * 2001-10-22 2003-05-01 Sony Corporation Robot apparatus and control method thereof
WO2003097308A1 (en) * 2002-05-20 2003-11-27 Sony Corporation Robot device and robot control method
US7025657B2 (en) 2000-12-15 2006-04-11 Yamaha Corporation Electronic toy and control method therefor
JP2010070171A (en) * 2008-09-22 2010-04-02 Denso It Laboratory Inc Device and method for controlling in-vehicle apparatus
CN107962571A (en) * 2016-10-18 2018-04-27 深圳光启合众科技有限公司 Control method, device, robot and the system of destination object
JP2021051675A (en) * 2019-09-26 2021-04-01 株式会社ソニー・インタラクティブエンタテインメント Control device, control method and program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7025657B2 (en) 2000-12-15 2006-04-11 Yamaha Corporation Electronic toy and control method therefor
WO2003035334A1 (en) * 2001-10-22 2003-05-01 Sony Corporation Robot apparatus and control method thereof
US6850818B2 (en) 2001-10-22 2005-02-01 Sony Corporation Robot apparatus and control method thereof
CN1304177C (en) * 2001-10-22 2007-03-14 索尼公司 Robot apparatus and control method thereof
KR100898435B1 (en) * 2001-10-22 2009-05-21 소니 가부시끼 가이샤 Robot apparatus and control method thereof
WO2003097308A1 (en) * 2002-05-20 2003-11-27 Sony Corporation Robot device and robot control method
JP2010070171A (en) * 2008-09-22 2010-04-02 Denso It Laboratory Inc Device and method for controlling in-vehicle apparatus
CN107962571A (en) * 2016-10-18 2018-04-27 深圳光启合众科技有限公司 Control method, device, robot and the system of destination object
CN107962571B (en) * 2016-10-18 2021-11-02 江苏网智无人机研究院有限公司 Target object control method, device, robot and system
JP2021051675A (en) * 2019-09-26 2021-04-01 株式会社ソニー・インタラクティブエンタテインメント Control device, control method and program
WO2021060121A1 (en) * 2019-09-26 2021-04-01 株式会社ソニー・インタラクティブエンタテインメント Control device, control method, and program
JP7301701B2 (en) 2019-09-26 2023-07-03 株式会社ソニー・インタラクティブエンタテインメント Control device, control method and program

Similar Documents

Publication Publication Date Title
US7117190B2 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
US6539283B2 (en) Robot and action deciding method for robot
US6889117B2 (en) Robot apparatus and method and system for controlling the action of the robot apparatus
JP4985805B2 (en) Robot apparatus and operation control method
US7076331B1 (en) Robot, method of robot control, and program recording medium
EP1508409A1 (en) Robot device and robot control method
JP2003039363A (en) Robot device, action learning method therefor, action learning program thereof, and program recording medium
JP2005193331A (en) Robot device and its emotional expression method
JP2006110707A (en) Robot device
JP3558222B2 (en) Robot behavior control system and behavior control method, and robot device
JP2003159674A (en) Robot system, external force detecting method and program for the system, and calibration method and program for the system
JP2004298975A (en) Robot device and obstacle searching method
JP4296736B2 (en) Robot device
JP2001157981A (en) Robot device and control method thereof
WO2002030629A1 (en) Robot apparatus, information display system, and information display method
JP2001157982A (en) Robot device and control method thereof
JP2001157979A (en) Robot device, and control method thereof
JP2002205289A (en) Action control method for robot device, program, recording medium and robot device
JP2001157980A (en) Robot device, and control method thereof
JP2002239952A (en) Robot device, action control method for robot device, program, and recording medium
JP2001154707A (en) Robot device and its controlling method
JP4379052B2 (en) Moving object detection apparatus, moving object detection method, and robot apparatus
JP2003136451A (en) Robot device and control method thereof
JP2004209599A (en) Robot device, action learning method for robot device and action preparation method for robot device
JP2002264057A (en) Robot device, action control method for robot device, program and recording medium