JP2001157983A - Robot device and character determining method of robot device - Google Patents

Robot device and character determining method of robot device

Info

Publication number
JP2001157983A
JP2001157983A JP34137599A JP34137599A JP2001157983A JP 2001157983 A JP2001157983 A JP 2001157983A JP 34137599 A JP34137599 A JP 34137599A JP 34137599 A JP34137599 A JP 34137599A JP 2001157983 A JP2001157983 A JP 2001157983A
Authority
JP
Japan
Prior art keywords
emotion
robot
robot device
character
personality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP34137599A
Other languages
Japanese (ja)
Inventor
Makoto Inoue
真 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP34137599A priority Critical patent/JP2001157983A/en
Priority to KR1020017009618A priority patent/KR20010101883A/en
Priority to US09/890,231 priority patent/US7117190B2/en
Priority to PCT/JP2000/008472 priority patent/WO2001039932A1/en
Priority to CNB008032971A priority patent/CN1151016C/en
Publication of JP2001157983A publication Critical patent/JP2001157983A/en
Priority to US11/244,341 priority patent/US20060041332A1/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a pet robot in which characters are more practically made. SOLUTION: A pet robot is provided with a detection means 6 for detecting an output of the other pet robot, a character determining means 7 to determine characters of the other pet robot, and a character changing means 8 to change its characters based on result of determination by the character determination means 7.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明はロボット装置及びロ
ボット装置の性格判別方法に関し、例えば四足動物のよ
うに動作するペットロボットに適用して好適なものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot device and a method for determining the character of the robot device, and is suitably applied to, for example, a pet robot operating like a quadruped.

【0002】[0002]

【従来の技術】従来、ユーザからの指令や周囲の環境に
応じて動作を行う四足歩行型のいわゆるペットロボット
が提案及び開発されている。この種のペットロボット
は、家庭内で飼う犬や猫のような四足動物によく似た形
状を有し、例えばユーザから「伏せ」という命令を受け
取ると伏せの姿勢を取ったり、又は自分の口の前にユー
ザが手を差し出すと「おて」をするようになされてい
る。
2. Description of the Related Art Hitherto, a so-called pet robot of a quadruped type which operates in response to a command from a user or the surrounding environment has been proposed and developed. This type of pet robot has a shape very similar to a quadruped such as a dog or a cat kept at home, and takes a prone posture, for example, when receiving a command of “prone” from the user, or When the user presents his hand in front of his / her mouth, he or she puts his hand on it.

【0003】[0003]

【発明が解決しようとする課題】ところで、このような
ペットロボットは、感情のモデルや自分で行動を決める
機構を持ち、その特徴をロボットの性格と呼ぶことがで
きるが、その性格の変化は、他のロボットの影響を受け
るものではない。
By the way, such a pet robot has a model of an emotion and a mechanism for deciding an action by itself, and its characteristics can be called a robot character. It is not affected by other robots.

【0004】ここで、動物の性格形成は、周囲の環境の
影響を受け、例えば、2匹のペットが一緒に飼われてい
るような場合には、一方のペットの存在が他方のペット
の性格形成に大きく影響するのが現実である。
[0004] The character formation of an animal is affected by the surrounding environment. For example, when two pets are kept together, the presence of one pet determines the character of the other pet. The reality is that it greatly affects the formation.

【0005】そこで、本発明は、上述の実情に鑑みてな
されたものであり、より現実的に性格が形成されていく
ことを可能とするロボット装置及びロボット装置の性格
判別方法の提供を目的としている。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and has as its object to provide a robot apparatus and a method for discriminating the personality of a robot apparatus that can form a personality more realistically. I have.

【0006】[0006]

【課題を解決するための手段】本発明に係るロボット装
置は、上述の課題を解決するために、他のロボット装置
の出力を検知する検知手段と、検知手段の検知結果に基
づいて、他のロボット装置の性格を判別する性格判別手
段とを備える。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, a robot apparatus according to the present invention has a detecting means for detecting an output of another robot apparatus and another detecting means based on a detection result of the detecting means. A character discriminating means for discriminating the character of the robot apparatus.

【0007】このような構成を備えるロボット装置は、
検知手段が検知した他のロボット装置の出力の検知結果
に基づいて、他のロボット装置の性格を性格判別手段に
より判別する。
A robot device having such a configuration is
Based on the detection result of the output of the other robot device detected by the detecting device, the character of the other robot device is determined by the character determining device.

【0008】これにより、ロボット装置は、例えば、他
のロボット装置の性格の判別結果に基づいて、自己の性
格を変化させる。
Accordingly, the robot device changes its own character based on, for example, the result of determining the character of another robot device.

【0009】また、本発明に係るロボット装置の性格判
別方法は、上述の課題を解決するために、ロボット装置
の出力を検知して、この検知結果に基づいて、当該ロボ
ット装置の性格を判別する。
Further, in order to solve the above-mentioned problems, a method for determining the character of a robot device according to the present invention detects an output of the robot device and determines the character of the robot device based on the detection result. .

【0010】これにより、ロボット装置は、例えば、他
のロボット装置の性格の判別結果に基づいて、自己の性
格を変化させる。
[0010] Thus, the robot device changes its own character based on, for example, the result of determining the character of another robot device.

【0011】[0011]

【発明の実施の形態】本発明の実施の形態について図面
を用いて詳しく説明する。本発明は、四足動物のように
動作するペットロボットに適用することができる。
Embodiments of the present invention will be described in detail with reference to the drawings. The present invention can be applied to a pet robot that operates like a quadruped.

【0012】ペットロボットは、図1に示すように、他
のペットロボットの出力を検知する検知手段6と、検知
手段6の検知結果に基づいて、他のペットロボットの性
格を判別する性格判別手段7と、性格判別手段7の判別
結果に基づいて、性格を変化させる性格変化手段8とを
備えている。
As shown in FIG. 1, the pet robot has a detecting means 6 for detecting the output of the other pet robot, and a character discriminating means for discriminating the character of the other pet robot based on the detection result of the detecting means 6. 7 and character changing means 8 for changing the character based on the result of the judgment by the character judging means 7.

【0013】これにより、ペットロボットは、検知手段
6が検知した他のペットロボットの出力の検知結果に基
づいて、他のロボット装置の性格を性格判別手段7によ
り判別する。そして、ペットロボットは、そのような他
のペットロボットの性格の判別結果に基づいて、性格変
化手段8により自己の性格を変化させることができる。
Thus, the pet robot determines the character of the other robot device by the character discriminating means 7 based on the detection result of the output of the other pet robot detected by the detecting means 6. Then, the pet robot can change its own personality by the personality changing means 8 based on the determination result of the personality of such another pet robot.

【0014】詳しくは後述するが、検知手段6による検
知は、他のペットロボットの行動に表出された感情の検
知等であり、性格変化手段8による性格の変化は、感情
に起因した自己の行動を決定する感情モデルのパラメー
タの変更等によるものである。
As will be described later in detail, the detection by the detecting means 6 is for detecting an emotion expressed in the behavior of another pet robot, and the change in the personality by the personality changing means 8 is based on the personality caused by the emotion. This is due to a change in the parameters of the emotion model that determines the action.

【0015】このようにペットロボットは、他のペット
ロボットの行動等に基づいて自己の性格を変化させるこ
とができる。
As described above, the pet robot can change its own character based on the behavior of the other pet robot.

【0016】これにより、ペットロボットは、本物のペ
ットと同じように、性格が形成され、その性格に基づい
て動作することができるようになる。
As a result, the pet robot has a character formed in the same manner as a real pet, and can operate based on the character.

【0017】以下、本発明が適用されているペットロボ
ットの具体的な構成について説明する。
Hereinafter, a specific configuration of a pet robot to which the present invention is applied will be described.

【0018】(1)ペットロボットの構成 図2に示すように、ペットロボット1は全体が構成され
ており、頭に相当する頭部2と、胴体に相当する本体部
3と、足に相当する足部4A〜4Dと、尻尾に相当する
尻尾部5とを連結することによって構成され、本体部3
に対して頭部2、足部4A〜4D、尻尾部5を動かすこ
とによって本物の四足動物のように動作させるようにな
されている。
(1) Configuration of Pet Robot As shown in FIG. 2, the pet robot 1 is configured as a whole, and includes a head 2 corresponding to a head, a main body 3 corresponding to a body, and feet. The main body 3 is formed by connecting the feet 4A to 4D and the tail 5 corresponding to the tail.
By moving the head 2, the feet 4A to 4D, and the tail 5, the robot can be operated like a real quadruped.

【0019】頭部2には、目に相当し、画像を撮像する
例えばCCD(Charge Coupled Device)カメラでなる
画像認識部10と、耳に相当し、音声を集音するマイク
11と、口に相当し、音声を発するスピーカ12とがそ
れぞれ所定位置に取り付けられている。また、頭部2に
は、ユーザからリモートコントローラ(図示せず)を介
して送信される指令を受信するリモートコントローラ受
信部13と、ユーザの手などが接触されたことを検出す
るためのタッチセンサ14と、内部で生成された画像を
表示するための画像表示部15とが取り付けられてい
る。
The head 2 has an image recognizing unit 10 corresponding to the eyes, for example, a CCD (Charge Coupled Device) camera for picking up an image, a microphone 11 corresponding to the ears, which collects sound, and a mouth. Correspondingly, a speaker 12 that emits sound is attached to a predetermined position. The head 2 has a remote controller receiving unit 13 for receiving a command transmitted from a user via a remote controller (not shown), and a touch sensor for detecting that a user's hand or the like has been contacted. 14 and an image display unit 15 for displaying an internally generated image.

【0020】本体部3には、腹に相当する位置にバッテ
リ21が取り付けられると共に、その内部にペットロボ
ット1全体の動作を制御するための電子回路(図示せ
ず)等が収納されている。
A battery 21 is attached to the body 3 at a position corresponding to the belly, and an electronic circuit (not shown) for controlling the operation of the entire pet robot 1 and the like are housed inside the battery 21.

【0021】足部4A〜4Dの関節部分、足部4A〜4
Dと本体部3の連結部分、本体部3と頭部2の連結部
分、本体部3と尻尾部5の連結部分などは、それぞれの
アクチュエータ23A〜23Nによって連結されてお
り、本体部3内部に収納される電子回路の制御に基づい
て駆動するようになされている。このようにペットロボ
ット1は、各アクチュエータ23A〜23Nを駆動させ
ることにより、頭部2を上下左右に振らせたり、尻尾部
5を振らせたり、足部4A〜4Dを動かして歩かせたり
走らせたりして、本物の四足動物のような動作を行わせ
る。
Joints of the feet 4A-4D, the feet 4A-4
A connecting portion between D and the main body portion 3, a connecting portion between the main body portion 3 and the head portion 2, a connecting portion between the main body portion 3 and the tail portion 5, and the like are connected by respective actuators 23A to 23N. It is designed to be driven based on the control of a stored electronic circuit. As described above, the pet robot 1 drives the actuators 23A to 23N to swing the head 2 up, down, left and right, swing the tail 5, and move or move the feet 4A to 4D to walk or run. Or make it behave like a real quadruped.

【0022】(2)ペットロボットの回路構成 ここで図3を用いてペットロボット1の回路構成につい
て説明する。頭部2は、マイク11及びリモートコント
ローラ受信部13でなるコマンド受信部30と、画像認
識部10及びタッチセンサ14からなる外部センサ31
と、スピーカ12と、画像表示部15とを有している。
また、本体部3は、バッテリ21を有すると共に、その
内部にペットロボット1全体の動作を制御するためのコ
ントローラ32と、バッテリ21の残量を検出するため
のバッテリセンサ33及びペットロボット1内部で発生
する熱を検出する熱センサ34でなる内部センサ35と
を有している。さらにペットロボット1の所定位置には
アクチュエータ23A〜23Nがそれぞれ設けられてい
る。
(2) Circuit Configuration of Pet Robot The circuit configuration of the pet robot 1 will now be described with reference to FIG. The head 2 includes a command receiving unit 30 including the microphone 11 and the remote controller receiving unit 13, and an external sensor 31 including the image recognizing unit 10 and the touch sensor 14.
, A speaker 12, and an image display unit 15.
Further, the main body 3 has a battery 21, a controller 32 for controlling the operation of the entire pet robot 1 therein, a battery sensor 33 for detecting the remaining amount of the battery 21, and the inside of the pet robot 1. And an internal sensor 35 which is a heat sensor 34 for detecting generated heat. Further, actuators 23A to 23N are provided at predetermined positions of the pet robot 1, respectively.

【0023】コマンド受信部30は、ユーザからペット
ロボット1に与えられる指令、例えば「歩け」、「伏
せ」、「ボールを追いかけろ」等の指令を受信するため
のものであり、リモートコントローラ受信部13及びマ
イク11によって構成されている。リモートコントロー
ラ(図示せず)は、ユーザの操作によって所望の指令が
入力されると、当該入力された指令に応じた赤外線光を
リモートコントローラ受信部13に送信する。リモート
コントローラ受信部13は、この赤外線光を受信して受
信信号SIAを生成し、これをコントローラ32に送出
する。マイク11は、ユーザが所望の指令に応じた音声
を発すると、当該ユーザの発した音声を集音して音声信
号SIBを生成し、これをコントローラ32に送出す
る。このようにコマンド受信部30は、ユーザからペッ
トロボット1に与えられる指令に応じて受信信号SIA
及び音声信号SIBでなる指令信号S1を生成し、これ
をコントローラ32に供給する。
The command receiving unit 30 is for receiving a command given by the user to the pet robot 1, for example, a command such as “walk”, “down”, and “follow the ball”. And a microphone 11. When a desired command is input by a user's operation, a remote controller (not shown) transmits infrared light corresponding to the input command to the remote controller receiving unit 13. The remote controller receiving unit 13 receives the infrared light, generates a reception signal SIA, and sends it to the controller 32. When the user emits a sound according to a desired command, the microphone 11 collects the sound emitted by the user, generates an audio signal SIB, and sends this to the controller 32. As described above, the command receiving unit 30 receives the signal SIA according to the command given to the pet robot 1 from the user.
And a command signal S1 composed of a sound signal SIB and the controller 32.

【0024】外部センサ31のタッチセンサ14は、ユ
ーザからペットロボット1への働きかけ、例えば「なで
る」、「たたく」等の働きかけを検出するためのもので
あり、ユーザが当該タッチセンサ14を触れることによ
って所望の働きかけを行うと、当該働きかけに応じた接
触検出信号S2Aを生成し、これをコントローラ32に
送出する。
The touch sensor 14 of the external sensor 31 is for detecting a user's action on the pet robot 1, for example, an action such as “stroke” or “slap”. When a desired action is performed, a contact detection signal S2A corresponding to the action is generated and transmitted to the controller 32.

【0025】外部センサ31の画像認識部10は、ペッ
トロボット1の周囲の環境を識別した結果、例えば「暗
い」、「お気に入りのおもちゃがある」等の周囲の環境
情報又は例えば「他のペットロボットが走っている」等
の他のペットロボットの動きを検出するためのものであ
り、当該ペットロボット1の周囲の画像を撮影し、その
結果得られる画像信号S2Bをコントローラ32に送出
する。この画像認識部10にて、他のペットロボットに
よる感情を表出した行動が捕らえられる。
The image recognizing unit 10 of the external sensor 31 identifies the surrounding environment of the pet robot 1 and, as a result, the surrounding environment information such as “dark”, “there is a favorite toy”, or “other pet robot”. Is running, and the like, and the motion of another pet robot is detected. An image around the pet robot 1 is photographed, and an image signal S2B obtained as a result is sent to the controller 32. The image recognition unit 10 captures an action of another pet robot expressing an emotion.

【0026】このように外部センサ31は、ペットロボ
ット1の外部から与えられる外部情報に応じて接触検出
信号S2A及び画像信号S2Bでなる外部情報信号S2
を生成し、これをコントローラ32に送出する。
As described above, the external sensor 31 outputs the external information signal S2 composed of the contact detection signal S2A and the image signal S2B according to external information given from outside the pet robot 1.
And sends it to the controller 32.

【0027】内部センサ35は、ペットロボット1自身
の内部状態、例えばバッテリ容量が低下したを意味する
「お腹がすいた」、「熱がある」等の内部状態を検出す
るためのものであり、バッテリセンサ33及び熱センサ
34から構成されている。バッテリセンサ33は、ペッ
トロボット1の各回路に電源を供給するバッテリ21の
残量を検出するためのものであり、その検出した結果で
あるバッテリ容量検出信号S3Aをコントローラ32に
送出する。熱センサ34は、ペットロボット1内部の熱
を検出するためのものであり、その結果した結果である
熱検出信号S3Bをコントローラ32に送出する。この
ように内部センサ35は、ペットロボット1の内部の情
報に応じてバッテリ容量検出信号S3A及び熱検出信号
S3Bでなる内部情報信号S3を生成し、これをコント
ローラ32に送出する。
The internal sensor 35 is for detecting an internal state of the pet robot 1 itself, for example, an internal state such as "hungry" or "heated" meaning that the battery capacity has decreased. It comprises a battery sensor 33 and a heat sensor 34. The battery sensor 33 detects the remaining amount of the battery 21 that supplies power to each circuit of the pet robot 1, and sends a battery capacity detection signal S <b> 3 </ b> A as a result of the detection to the controller 32. The heat sensor 34 is for detecting heat inside the pet robot 1 and sends a heat detection signal S3B as a result of the detection to the controller 32. As described above, the internal sensor 35 generates the internal information signal S3 including the battery capacity detection signal S3A and the heat detection signal S3B according to the information inside the pet robot 1, and sends it to the controller 32.

【0028】コントローラ32は、コマンド受信部30
から供給される指令信号S1と、外部センサ3lから供
給される外部情報信号S2と、内部センサ35から供給
される内部情報信号S3とに基づいて、各アクチュエー
タ23A〜23Nを駆動させるための制御信号S5A〜
S5Nを生成し、これらをアクチュエータ23A〜23
Nにそれぞれ送出して駆動させることによりペットロボ
ット1を動作させる。
The controller 32 includes a command receiving unit 30
Control signal for driving each of the actuators 23A to 23N based on the command signal S1 supplied from the external sensor 31, the external information signal S2 supplied from the external sensor 31 and the internal information signal S3 supplied from the internal sensor 35. S5A ~
S5N are generated and these are connected to the actuators 23A to 23A.
The pet robot 1 is operated by sending it to each of the N and driving it.

【0029】その際コントローラ32は、外部に出力す
るための音声信号S10や画像信号S11を必要に応じ
て生成し、このうち音声信号S10をスピーカl2を介
して外部に出力したり、画像信号S11を画像表示部1
5に送出して所望の画像を表示させたりすることによ
り、ユーザに必要な情報を知らせるようになされてい
る。
At this time, the controller 32 generates an audio signal S10 and an image signal S11 for output to the outside as necessary, and outputs the audio signal S10 to the outside via the speaker 12 or the image signal S11. Image display unit 1
5 to display a desired image to inform the user of necessary information.

【0030】(3)コントローラにおけるデータ処理 ここでコントローラ32におけるデータ処理について説
明する。コントローラ32は、コマンド受信部30から
供給される指令信号S1と、外部センサ31から供給さ
れる外部情報信号S2と、内部センサ35から供給され
る内部情報信号S3とを、所定の記憶領域に予め格納さ
れているプログラムに基づいてソフトウェア的にデータ
処理を施し、その結果得られる制御信号S5をアクチュ
エータ23に供給する。
(3) Data Processing in Controller Here, data processing in the controller 32 will be described. The controller 32 stores the command signal S1 supplied from the command receiving unit 30, the external information signal S2 supplied from the external sensor 31, and the internal information signal S3 supplied from the internal sensor 35 in a predetermined storage area in advance. Data processing is performed by software based on the stored program, and the resulting control signal S5 is supplied to the actuator 23.

【0031】図4に示すように、コントローラ32は、
そのデータ処理の内容を機能的に分類すると、感情本能
モデル変化手段としての感情・本能モデル部40と動作
状態決定手段としての行動決定機構部41と姿勢遷移手
段としての姿勢遷移機構部42と制御機構部43とに分
けられ、外部から供給される指令信号S1と外部情報信
号S2と内部情報信号S3とを感情・本能モデル部40
及び行動決定機構部41に入力する。
As shown in FIG. 4, the controller 32
Functionally classifying the contents of the data processing, an emotion / instinct model unit 40 as an emotion instinct model changing unit, an action determining mechanism unit 41 as an operation state determining unit, a posture transition mechanism unit 42 as a posture transition unit, and a control unit A command signal S1, an external information signal S2, and an internal information signal S3 supplied from outside are divided into an emotion / instinct model section 40.
And the action determination mechanism 41.

【0032】図5に示すように、感情・本能モデル部4
0は、複数の独立した感情モデルとしての情動ユニット
50A〜50Cでなる基本情動群50と、複数の独立し
た欲求モデルとしての欲求ユニット51A〜51Cでな
る基本欲求群51とを有している。基本情動群50のう
ち情動ユニット50Aは「うれしさ」という情動を示す
ものであり、情動ユニット50Bは「悲しさ」という情
動を結ぶものであり、情動ユニット50Cは「怒り」と
いう情動を示すものである。
As shown in FIG. 5, the emotion / instinct model unit 4
0 has a basic emotion group 50 composed of a plurality of independent emotion models as emotion units 50A to 50C, and a basic desire group 51 composed of a plurality of independent desire models 51A to 51C. Among the basic emotion group 50, the emotion unit 50A indicates the emotion of "joy", the emotion unit 50B connects the emotion of "sadness", and the emotion unit 50C indicates the emotion of "anger". It is.

【0033】情報ユニット50A〜50Cは、情動の度
合いを例えば0〜100レベルまでの強度によってそれ
ぞれ表し、供給される指令信号S1、外部情報信号S2
及び内部情報信号S3に基づいて情動の強度をそれぞれ
時々刻々と変化させる。かくして感情・本能モデル部4
0は、時々刻々と変化する情動ユニット50A〜50C
の強度を組み合わせることによりペットロボット1の感
情の状態を表現し、感情の時間変化をモデル化してい
る。
The information units 50A to 50C express the degree of emotion by, for example, intensity from 0 to 100 levels, and are supplied with a command signal S1 and an external information signal S2.
And the intensity of the emotion is changed every moment based on the internal information signal S3. Thus, emotion and instinct model part 4
0 is the emotion unit 50A to 50C that changes every moment
The emotional state of the pet robot 1 is expressed by combining the intensities of the pet robots 1 and the temporal change of the emotion is modeled.

【0034】また、基本欲求群51のうち欲求ユニット
51Aは「食欲」という欲求を示すものであり、欲求ユ
ニット51Bは「睡眠欲」という欲求を示すものであ
り、欲求ユニット51Cは「運動欲」という欲求を示す
ものである。欲求ユニット51A〜51Cは、情動ユニ
ット50A〜50Cと同様に、欲求の度合いを例えば0
〜l00レベルまでの強度によってそれぞれ表し、供給
される指令信号S1と外部情報信号S2と内部情報信号
S3とに基づいて欲求の強度をそれぞれ時々刻々と変化
させる。かくして感情・本能モデル群40は、時々刻々
と変化する欲求ユニット5lA〜51Cの強度を組み合
わせることによりペットロボット1の本能の状態を表現
し、本能の時間変化をモデル化している。
In the basic desire group 51, the desire unit 51A represents the desire of “appetite”, the desire unit 51B represents the desire of “sleep desire”, and the desire unit 51C represents the desire of “exercise”. It indicates the desire. The desire units 51A to 51C, like the emotion units 50A to 50C, set the degree of desire to 0, for example.
The strength of desire is represented by the intensity up to the level 100, and the intensity of the desire is changed every moment based on the supplied command signal S1, external information signal S2, and internal information signal S3. Thus, the emotion / instinct model group 40 expresses the state of the instinct of the pet robot 1 by combining the strengths of the desire units 51A to 51C that change from moment to moment, and models the temporal change of the instinct.

【0035】このようにして感情・本能モデル部40
は、指令信号S1と外部情報信号S2と内部情報信号S
3とでなる入力情報S1〜S3に基づいて情動ユニット
50A〜50C及び欲求ユニット5lA〜51Cの強度
をそれぞれ変化させる。そして感情・本能モデル部40
は、この変化した情動ユニット50A〜50Cの強度を
組合せることにより感情の状態を決定すると共に、変化
した欲求ユニット51A〜51cの強度を組み合わせる
ことにより本能の状態を決定し、当該決定された感情及
び本能の状態を感情・本能状態情報S10として行動決
定機構部41に送出する。
Thus, the emotion / instinct model section 40
Is a command signal S1, an external information signal S2, and an internal information signal S
The intensity of the emotion units 50A to 50C and the strengths of the desire units 51A to 51C are changed based on the input information S1 to S3 of No. 3. And emotion / instinct model section 40
Determines the state of emotion by combining the strengths of the changed emotion units 50A to 50C, and determines the state of instinct by combining the strengths of the changed desire units 51A to 51c. And the state of the instinct is sent to the action determining mechanism unit 41 as emotion / instinct state information S10.

【0036】ところで、感情・本能モデル部40は、基
本情動群50のうち所望の情動ユニット同士を相互抑制
的又は相互刺激的に結合し、当該結合した情動ユニット
のうち一方の情動ユニットの強度を変化させると、これ
に応じて他方の情動ユニットの強度が変化することにな
り、自然な感情を有するペットロボット1を実現してい
る。
By the way, the emotion / instinct model unit 40 connects desired emotion units of the basic emotion group 50 with each other in a suppressive or mutually stimulating manner, and reduces the intensity of one of the combined emotion units. If it is changed, the intensity of the other emotion unit changes accordingly, and the pet robot 1 having a natural emotion is realized.

【0037】すなわち図6に示すように、感情・本能モ
デル部40は、「うれしさ」情動ユニット50Aと「悲
しさ」情動ユニット50Bとを相互抑制的に結合するこ
とにより、ユーザにほめてもらったときには「うれし
さ」情動ユニット50Aの強度を大きくすると共に、そ
の際「悲しさ」情動ユニット50Bの強度を変化させる
ような入力情報S1〜S3が供給されていなくても、
「うれしさ」情動ユニット50Aの強度が大きくなるこ
とに応じて自然に「悲しさ」情動ユニット50Bの強度
を低下させる。同様に感情・本能モデル部40は、「悲
しさ」情動ユニット50Bの強度が大きくなると、当該
「悲しさ」情動ユニット50Bの強度が大きくなること
に応じて自然に「うれしさ」情動ユニット50Aの強度
を低下させる。
That is, as shown in FIG. 6, the emotion / instinct model unit 40 has the user praise by mutually suppressing the “joyful” emotion unit 50A and the “sadness” emotion unit 50B. At this time, the intensity of the "joy" emotion unit 50A is increased, and at that time, even if the input information S1 to S3 for changing the intensity of the "sadness" emotion unit 50B is not supplied,
As the intensity of the "joyful" emotion unit 50A increases, the intensity of the "sadness" emotion unit 50B naturally decreases. Similarly, when the intensity of the “sadness” emotion unit 50B increases, the emotion / instinct model unit 40 naturally increases the intensity of the “sadness” emotion unit 50B. Decrease strength.

【0038】また、感情・本能モデル部40は、「悲し
さ」情動ユニット50Bと「怒り」情動ユニット50C
とを相互刺激的に結合することにより、ユーザにたたか
れたときには「怒り」情動ユニット50Cの強度を大き
くすると共に、その際「悲しさ」情動ユニット50Bの
強度を変化させるような入力情報S1〜S3が供給され
ていなくても、「怒り」情動ユニット50Cの強度が大
きくなることに応じて自然に「悲しさ」情動ユニット5
0Bの強度を増大させる。同様に感情・本能モデル部4
0は、「悲しさ」情動ユニット50Bの強度が大きくな
ると、当該「悲しさ」情動ユニット50Bの強度が大き
くなることに応じて自然に「怒り」情動ユニット50C
の強度を増大させる。
The emotion / instinct model unit 40 includes a “sadness” emotion unit 50B and an “anger” emotion unit 50C.
The input information S1 such that the intensity of the "anger" emotion unit 50C is increased when the user is hit by the user and the intensity of the "sadness" emotion unit 50B is changed when the user is hit. Even if S3 is not supplied, the “anger” emotion unit 50C naturally becomes “sad” in response to the increase in intensity.
Increase the intensity of OB. Similarly, emotion and instinct model part 4
0 indicates that when the intensity of the “sadness” emotion unit 50B increases, the “anger” emotion unit 50C naturally increases in accordance with the increase in the intensity of the “sadness” emotion unit 50B.
Increase the strength of

【0039】さらに、感情・本能モデル部40は、情動
ユニット50同士を結合した場合と同様に、基本欲求群
51のうち所望の欲求ユニット同士を相互抑制的又は相
互刺激的に結合し、当該結合した欲求ユニットのうち一
方の欲求ユニットの強度を変化させると、これに応じて
他方の欲求ユニットの強度が変化することになり、自然
な本能を有するペットロボット1を実現している。
Further, the emotion / instinct model unit 40 connects desired desire units of the basic desire group 51 to each other in a repressive or mutually stimulating manner, similarly to the case where the emotion units 50 are connected to each other. When the intensity of one of the desired units is changed, the intensity of the other desired unit changes in response to this, and the pet robot 1 having a natural instinct is realized.

【0040】図4に戻って、感情・本能モデル部40
は、後段の行動決定機構部41からペットロボット1自
身の現在又は過去の行動、例えば「長時間歩いた」など
の行動の内容を示す行動情報Sl2が供給されており、
同一の入力情報S1〜S3が与えられても、当該行動情
報S12が示すペットロボット1の行動に応じて異なる
感情・本能状態情報S10を生成するようになされてい
る。
Returning to FIG. 4, the emotion / instinct model section 40
Is supplied with the behavior information S12 indicating the current or past behavior of the pet robot 1 itself, for example, the behavior such as “walked for a long time” from the behavior determination mechanism unit 41 at the subsequent stage.
Even if the same input information S1 to S3 is given, different emotion / instinct state information S10 is generated according to the behavior of the pet robot 1 indicated by the behavior information S12.

【0041】具体的には図7に示すように、感情・本能
モデル部40は、各情動ユニット50A〜50Cの前段
に、ペットロボット1の行動を示す行動情報S12と入
力情報S1〜S3とを基に各情動ユニット50A〜50
Cの強度を増減させるための強度情報S14A〜S14
Cを生成する強度増減関数55A〜55Cをそれぞれ設
け、当該強度増減関数55A〜55Cから出力される強
度情報S14A〜S14Cに応じて各情動ユニット50
A〜50Cの強度をそれぞれ増減させる。
More specifically, as shown in FIG. 7, the emotion / instinct model unit 40 includes action information S12 indicating the action of the pet robot 1 and input information S1 to S3 before each of the emotion units 50A to 50C. Based on each emotion unit 50A-50
Intensity information S14A to S14 for increasing or decreasing the intensity of C
C are provided, respectively, and the intensity increase / decrease functions 55A to 55C are provided, and each of the emotion units 50 according to the intensity information S14A to S14C output from the intensity increase / decrease functions 55A to 55C.
The strength of each of A to 50C is increased or decreased.

【0042】例えば感情・本能モデル部40は、ユーザ
に挨拶をしたときに頭をなでられれば、すなわちユーザ
に挨拶をしたという行動情報S12と頭をなでられたと
いう入力情報Sl〜S3とが強度増減関数55Aに与え
られると、「うれしさ」情動ユニット50Aの強度を増
加させる一方、何らかの仕事を実行中に頭をなでられて
も、すなわち仕事を実行中であるという行動情報S12
と頭をなでられたという入力情報S1〜S3とが強度増
減関数55Aに与えられても、「うれしさ」情動ユニッ
ト50Aの強度を変化させない。
For example, if the emotion / instinct model unit 40 pats the head when greeting the user, the emotion / instinct model unit 40 will input the behavior information S12 that greets the user and the input information S1 to S3 that the head has been patted. Is given to the intensity increasing / decreasing function 55A, while increasing the intensity of the “joy” emotion unit 50A, the behavior information S12 indicating that the user is stroking the head while performing any work, that is, is performing the work.
Even if the input information S1 to S3 indicating that the head has been stroked is given to the intensity increase / decrease function 55A, the intensity of the "joy" emotion unit 50A is not changed.

【0043】このように感情・本能モデル部40は、入
力情報S1〜S3だけでなく現在又は過去のペットロボ
ット1の行動を示す行動情報S12も参照しながら各情
動ユニット50A〜50Cの強度を決定することによ
り、例えば何らかのタスクを実行中にユーザがいたずら
するつもりで頭をなでたとき、「うれしさ」情動ユニッ
ト50Aの強度を増加させるような不自然な感情を起こ
させることを回避することができる。因みに、感情・本
能モデル部40は、欲求ユニット51A〜5lCの場合
も同様にして、供給される入力情報S1〜S3及び行動
情報S12に基づいて各欲求ユニット51A〜51Cの
強度をそれぞれ増減させるようになされている。
As described above, the emotion / instinct model unit 40 determines the strength of each of the emotion units 50A to 50C while referring not only to the input information S1 to S3 but also to the behavior information S12 indicating the current or past behavior of the pet robot 1. By doing so, for example, when the user stroks his head with the intention of mischief while performing any task, it is possible to avoid causing unnatural feelings such as increasing the intensity of the “joyful” emotion unit 50A. Can be. Incidentally, the emotion / instinct model unit 40 similarly increases and decreases the intensity of each of the desire units 51A to 51C based on the supplied input information S1 to S3 and action information S12 in the case of the desire units 51A to 51C. Has been made.

【0044】以上、述べたように強度増減関数55A〜
55Cは、入力情報S1〜S3及び行動情報S12が入
力されると、予め設定されているパラメータに応じて強
度情報S14A〜S14Cを生成して出力するような関
数であり、当該パラメータをペットロボット1毎に異な
る値に設定することにより、例えば怒りっぽいペットロ
ボットや明るい性格のペットロボットのように、当該ペ
ットロボットに個性を持たせることができる。
As described above, the intensity increase / decrease function 55A-
55C is a function that, when the input information S1 to S3 and the behavior information S12 are input, generates and outputs intensity information S14A to S14C in accordance with a preset parameter. By setting a different value for each case, the pet robot can be given personality, for example, like an angry pet robot or a bright pet robot.

【0045】さらに、感情モデルについては、他のロボ
ット装置(以下、相手ロボットという。)の性格に応じ
て、そのパラメータを変化させることもできる。すなわ
ち、ペットロボット1の持つ性格を、相手ロボットとの
相互作用によって変化させ、いわゆる「朱に交われば赤
くなる」といったような特性による性格の形成を行う。
これにより、自然な性格形成がなされたペットロボット
1を実現することができる。
Further, the parameters of the emotion model can be changed according to the characteristics of another robot device (hereinafter referred to as a partner robot). That is, the personality of the pet robot 1 is changed by the interaction with the partner robot, and the personality is formed by characteristics such as a so-called "red color when crossing vermilion".
Thereby, the pet robot 1 with a natural character formation can be realized.

【0046】具体的には、図8に示すように、感情認知
機構部61、記憶及び解析機構部62、並びにパラメー
タ変更機構部63を備えることにより、相手ロボット装
置の性格に応じた性格形成が可能になる。
Specifically, as shown in FIG. 8, by providing an emotion recognition mechanism section 61, a storage and analysis mechanism section 62, and a parameter change mechanism section 63, the character formation according to the character of the partner robot apparatus can be achieved. Will be possible.

【0047】感情認知機構部61は、相手ロボットの動
作が何らかの感情表出に関するものであるかどうか、ま
た、そうである場合には表出している感情の種類を強度
を認知する。具体的には、感情認知機構部61は、相手
ロボットの行動を検知するセンサーと、センサーからの
センサー入力に基づいて相手ロボット装置の感情を認知
する感情認知部とからなり、相手ロボットの動作をセン
サで捕らえ、感情認知部において、センサー入力からそ
の相手ロボットの感情を認知する。例えば、センサー入
力は、上述した入力信号のうちの外部情報信号S2であ
って、図3に示すマイク11からの音声信号S1Bであ
ったり、図3に示す画像認知部10からの画像信号S2
Bであったりする。
The emotion recognition mechanism 61 recognizes whether or not the motion of the partner robot is related to the expression of some kind of emotion, and if so, the type of the expressed emotion. Specifically, the emotion recognition mechanism unit 61 includes a sensor for detecting the behavior of the partner robot and an emotion recognition unit for recognizing the emotion of the partner robot device based on the sensor input from the sensor. The emotion is captured by a sensor, and the emotion recognition unit recognizes the emotion of the partner robot from the sensor input. For example, the sensor input is the external information signal S2 of the input signals described above, such as the audio signal S1B from the microphone 11 shown in FIG. 3 or the image signal S2 from the image recognition unit 10 shown in FIG.
B.

【0048】感情の認知については、感情認知機構部6
1は、センサー入力とされる、例えば、相手ロボットが
発している鳴き声や、行動から、表出している感情を認
知する。
Regarding emotion recognition, the emotion recognition mechanism 6
1 recognizes an expressed emotion from, for example, a call or an action made by a partner robot, which is input as a sensor.

【0049】具体的には、ペットロボット1は、相手ロ
ボットの感情に起因した動作の動作パターンを情報とし
て持っており、この動作パターンと相手ロボットの実際
の動作、例えば動作部の動きや発した音等とを比較する
ことにより、相手ロボットの動作に表出している感情を
得る。例えば、ペットロボット1は、相手ロボットが怒
っている場合の当該相手ロボットの足の動きの動作パタ
ーンを保持しており、画像認識部10による得た相手ロ
ボットの足の動きがそのような行動パターンと一致する
場合、相手ロボットが怒っていることを検知する。
More specifically, the pet robot 1 has, as information, an operation pattern of an operation attributable to the emotion of the partner robot, and this operation pattern and the actual operation of the partner robot, for example, the movement of the operation unit or the generated motion. By comparing the sound with the sound or the like, the emotion expressed in the movement of the partner robot is obtained. For example, the pet robot 1 holds the motion pattern of the movement of the other robot's foot when the other robot is angry, and the movement of the foot of the other robot obtained by the image recognition unit 10 is such a behavior pattern. If it matches, it detects that the other robot is angry.

【0050】例えば、ペットロボット1は、予め登録さ
れている感情モデルに基づいて行動が決定されている。
換言すれば、ペットロボット1の行動は、感情の表出の
結果でもある。よって、相手ロボットも同様な感情モデ
ルが構築されているペットロボットであることを前提と
すれば、ペットロボット1は、相手ロボットの動作パタ
ーンから相手ロボットの行動がどのような感情を表出し
た結果かを把握することができる。このように自己の保
持している行動情報と相手ロボットの動作情報とを比較
すれば、相手ロボットの感情を容易に把握することがで
きるようになる。
For example, the behavior of the pet robot 1 is determined based on an emotion model registered in advance.
In other words, the behavior of the pet robot 1 is also a result of expressing emotion. Therefore, assuming that the other robot is also a pet robot for which a similar emotion model is constructed, the pet robot 1 is a result of expressing the emotion of the behavior of the other robot from the operation pattern of the other robot. Can be grasped. Thus, by comparing the behavior information held by the user with the movement information of the partner robot, the emotion of the partner robot can be easily grasped.

【0051】このような感情に認知により、例えば、怒
っている歩き方や怒っている目が行動が検知された場合
に、相手ロボットが怒っている認知することができるよ
うになる。
By recognizing such emotions, for example, when an angry walk or an angry eye is detected, the other robot can recognize that the robot is angry.

【0052】感情認知機構部61は、このようにして認
知した相手ロボットの表出している感情の情報を、記憶
及び解析機構部62に送る。
The emotion recognition mechanism section 61 sends information on the emotions of the partner robot thus recognized to the storage and analysis mechanism section 62.

【0053】記憶及び解析機構部62は、感情認知機構
部61から送られてきた情報に基づいて、相手ロボット
の性格、例えば、怒りっぽいとか、悲観的であるとかを
判断する。具体的には、記憶及び解析機構部62は、感
情認知機構部61から送られてきた情報を記憶してお
き、ある程度の時間内の情報の変化に基づいて相手ロボ
ットの性格を解析する。
The memory and analysis mechanism 62 determines the character of the partner robot, for example, whether it is angry or pessimistic, based on the information sent from the emotion recognition mechanism 61. Specifically, the storage and analysis mechanism unit 62 stores information sent from the emotion recognition unit 61 and analyzes the character of the partner robot based on a change in information within a certain period of time.

【0054】具体的には、記憶及び解析機構部62は、
図示しないデータ記憶部に記憶された情報の内のある時
間内における情報を取り出して、感情の表出割合を解析
する。例えば、図9に示すような割合で「怒り」につい
ての感情の情報を得ていた場合、記憶及び解析機構部6
2は、相手ロボットが怒りっぽい性格であると判断す
る。
Specifically, the storage and analysis mechanism section 62
Information within a certain period of time is extracted from information stored in a data storage unit (not shown), and the expression ratio of emotion is analyzed. For example, when information on emotions about “anger” is obtained at a rate as shown in FIG.
2 judges that the other robot has an angry personality.

【0055】記憶及び解析機構部62は、上述のように
して取得した相手ロボットの性格の情報を、感情パラメ
ータ変更機構部63に送る。
The storage and analysis mechanism 62 sends the information on the character of the partner robot acquired as described above to the emotion parameter changing mechanism 63.

【0056】感情パラメータ変更機構部63は、感情モ
デル(具体的には、感情・本能モデル部である。)40
のパラメータを変化させる。すなわち、「怒り」や「悲
しさ」等の感情に関する情動ユニットのパラメータを変
更する。
The emotion parameter change mechanism 63 is an emotion model (specifically, an emotion / instinct model) 40.
Is changed. That is, the parameter of the emotion unit regarding the emotion such as “anger” or “sadness” is changed.

【0057】また、感情に関するパラメータとして、上
述した強度増減関数55A〜55Cのパラメータを変更
してもよい。この場合、強度増減関数55A〜55Cの
変更されたパラメータに応じて、入力情報S1〜S3及
び行動情報S12から強度情報S14A〜S14Cが生
成されるので、例えば、おこりっぽくしたり明るい性格
としたりすることができる。
The parameters of the intensity increasing / decreasing functions 55A to 55C may be changed as parameters relating to emotion. In this case, the intensity information S14A to S14C are generated from the input information S1 to S3 and the action information S12 according to the changed parameters of the intensity increase / decrease functions 55A to 55C. can do.

【0058】感情モデル部40は、入力情報S1〜S3
や行動情報S12であるセンサ入力が入力されており、
そのように感情パラメータ変更機構部63により変更さ
れたパラメータ(強度)に応じた感情値とされる感情状
態情報S10aを決定行動機構部41に出力する。そし
て、後段の行動決定機構部41がこの感情値(感情状態
情報S10a)に基づいてペットロボット1の行動を決
定することで、行動を介して性格を表出させる。
The emotion model unit 40 includes input information S1 to S3
And the sensor input which is the action information S12 is input,
The emotion state information S10a, which is an emotion value corresponding to the parameter (intensity) changed by the emotion parameter changing mechanism 63 in this way, is output to the decision action mechanism 41. Then, the action determining mechanism unit 41 at the subsequent stage determines the action of the pet robot 1 based on the emotion value (emotion state information S10a), thereby expressing the personality through the action.

【0059】このように、ペットロボット1は、相手ロ
ボットの性格に応じて、感情モデルのパラメータ(強
度)を変化させ、自然な性格形成が実現されている。す
なわち、例えば、怒りっぽい他のペットロボットに接し
ていると、自分自身の怒り安さパラメータを増加させ
て、自分も起こりっぽくなったりする。
As described above, the pet robot 1 changes the parameters (strength) of the emotion model according to the character of the partner robot, thereby realizing a natural character formation. That is, for example, when the robot is in contact with another angry pet robot, the anger lowness parameter of one's own is increased, and the person becomes more likely to happen.

【0060】図4に戻って、行動決定機構部41は、指
令信号S1と外部情報信号S2と内部情報信号S3と感
情・本能状態情報S10と行動情報S12とでなる入力
情報S14に基づいて次の行動を決定し、当該決定され
た行動の内容を行動指令情報Sl6として姿勢遷移機構
部42に送出する。
Returning to FIG. 4, the action determining mechanism 41 performs the following based on the input information S14 including the command signal S1, the external information signal S2, the internal information signal S3, the emotion / instinct state information S10, and the action information S12. Is determined, and the content of the determined action is transmitted to the posture transition mechanism unit 42 as the action command information S16.

【0061】具体的には図10に示すように、行動決定
機構部41は、過去に供給された入力情報S14の履歴
を動作状態(以下、ステートという。)で表し、現在供
給された入力情報S14とそのときのステートとに基づ
いて当該ステートを別のステートに遷移させることによ
り、次の行動を決定するような有限個のステートを有す
る有限オートマトン57と呼ばれるアルゴリズムを用い
ている。このように行動決定機構部41は、入力情報S
14が供給される毎にステートを遷移させ、当該遷移し
たステートに応じて行動を決定することにより、現在の
入力情報S14だけでなく過去の入力情報S14も参照
して行動を決定している。
More specifically, as shown in FIG. 10, the action determining mechanism section 41 represents the history of the input information S14 supplied in the past as an operation state (hereinafter, referred to as a state), and displays the input information currently supplied. An algorithm called a finite automaton 57 having a finite number of states for determining the next action is used by transiting the state to another state based on S14 and the state at that time. As described above, the action determining mechanism unit 41 sets the input information S
The state is transited every time 14 is supplied, and the behavior is determined according to the transited state, so that the behavior is determined with reference to not only the current input information S14 but also the past input information S14.

【0062】従って、例えば「ボールを追いかけてい
る」というステートST1において、「ボールが見えな
くなった」という入力情報S14が供給されると、「立
っている」というステートST5に遷移する一方、「寝
ている」というステートST2において、「起きろ」と
いう入力情報S14が供給されると、「立っている」と
いうステートST4に遷移する。このようにこれらステ
ートST4及びステートST5は、行動は同一であって
も過去の入力情報S14の履歴が異なっていることか
ら、ステートも異なっていることが分かる。
Accordingly, for example, in the state ST1 of “chasing the ball”, when the input information S14 of “the ball is no longer visible” is supplied, the state transits to the state ST5 of “standing” and “sleeping”. When the input information S14 “Get up” is supplied in the state ST2 of “Yes”, the state transits to the state ST4 of “Standing”. As described above, since the states ST4 and ST5 have the same action but different histories of the past input information S14, it can be understood that the states are also different.

【0063】実際上、行動決定機構部41は、所定のト
リガーがあったことを検出すると、現在のステートを次
のステートに遷移させる。トリガーの具体例としては、
例えば現在のステートの行動を実行している時間が一定
値に達した、又は特定の入力情報S14が入力された、
又は感情・本能モデル部40から供給される感情・本能
状態情報S10が示す情動ユニット50A〜50C及び
欲求ユニット51A〜51の強度のうち、所望のユニッ
トの強度が所定の閾値を超えたこと等が挙げられる。
In practice, upon detecting that a predetermined trigger has been issued, the action determining mechanism 41 changes the current state to the next state. Specific examples of triggers include:
For example, the time during which the action of the current state is being executed has reached a certain value, or specific input information S14 has been input,
Or, among the strengths of the emotion units 50A to 50C and the desire units 51A to 51 indicated by the emotion / instinct state information S10 supplied from the emotion / instinct model unit 40, the strength of a desired unit exceeds a predetermined threshold. No.

【0064】その際、行動決定機構部41は、感情・本
能モデル部40から供給された感情・本能状態情報S1
0が示す情動ユニット50A〜50C及び欲求ユニット
51A〜51Cの強度のうち、所望のユニットの強度が
所定の閾値を超えているか否かに基づいて遷移先のステ
ートを選択する。これにより行動決定機構部41は、例
えば同一の指令信号Slが入力されても、情動ユニット
50A〜50C及び欲求ユニット51A〜51Cの強度
に応じて異なるステートに遷移するようになされてい
る。
At this time, the behavior determining mechanism 41 transmits the emotion / instinct state information S 1 supplied from the emotion / instinct model 40.
A transition destination state is selected based on whether or not the intensity of a desired unit exceeds a predetermined threshold value among the intensity of the emotion units 50A to 50C and the intensity of the desire units 51A to 51C indicated by 0. As a result, even when the same command signal Sl is input, for example, the action determining mechanism unit 41 transits to different states according to the strengths of the emotion units 50A to 50C and the desire units 51A to 51C.

【0065】従って行動決定機構部41は、供給される
外部情報信号S2を基に例えば目の前に手のひらが差し
出されたことを検出し、かつ感情・本能状態情報S10
を基に「怒り」情動ユニット50Cの強度が所定の閾値
以下であることを検出し、かつ内部情報信号S3を基に
「お腹がすいていない」、すなわち電池電圧が所定の閾
値以上であることを検出すると、目の前に手のひらが差
し出されたことに応じて「おて」の動作を行わせるため
の行動指令情報S16を生成し、これを姿勢遷移機構部
42に送出する。
Therefore, the action determining mechanism section 41 detects, for example, that the palm has been inserted in front of the eyes based on the supplied external information signal S2, and outputs the emotion / instinct state information S10.
Is detected that the intensity of the "anger" emotion unit 50C is equal to or less than a predetermined threshold, and "is not hungry" based on the internal information signal S3, that is, the battery voltage is equal to or higher than the predetermined threshold. Is detected, the action command information S16 for performing the operation of the “front” is generated in response to the palm being put in front of the eyes, and this is sent to the posture transition mechanism unit 42.

【0066】また、行動決定機構部41は、例えば目の
前に手のひらが差し出され、かつ「怒り」情動ユニット
50Cの強度が所定の閾値以下であり、かつ「お腹がす
いている」すなわち電池電圧が所定の閾値未満であるこ
とを検出すると、「手のひらをぺろぺろなめる」ような
動作を行わせるための行動指令情報S16を生成し、こ
れを姿勢遷移機構部42に送出する。
In addition, the action determining mechanism section 41 detects, for example, that the palm is in front of the eyes, the intensity of the "anger" emotion unit 50C is less than or equal to a predetermined threshold value, and that the "hungry" When detecting that the voltage is lower than the predetermined threshold value, it generates action command information S16 for causing the user to perform an operation such as “palm palm”, and sends the action command information S16 to the posture transition mechanism unit.

【0067】また、行動決定機構部41は、例えば目の
前に手のひらが差し出され、かつ「怒り」情動ユニット
50Cの強度が所定の閾値以上であることを検出する
と、「お腹がすいていない」すなわち電池電圧が所定の
閾値以上であるか否かにかかわらず、「ぷいと横を向
く」ような動作を行わせるための行動指令情報S16を
生成する。例えば、相手ロボットに応じて、感情モデル
のパラメータ(情動ユニットの強度)を変化させている
場合においては、一緒にいる相手ロボットが怒りっぽい
性格であるときには、ペットロボット1は、感情モデル
の強度が所定の閾値以上になる場合が多くなり、そのよ
うな「ぷいと横を向く」といった動作を頻出するように
なる。
When the action determining mechanism section 41 detects, for example, that the palm is in front of the eyes and that the intensity of the "anger" emotion unit 50C is equal to or higher than a predetermined threshold value, the action determining mechanism section 41 determines that "stomach is not hungry." That is, regardless of whether or not the battery voltage is equal to or higher than a predetermined threshold value, the action command information S16 for performing the operation of “turning sideways” is generated. For example, when the parameter of the emotion model (the intensity of the emotion unit) is changed according to the partner robot, and when the partner robot with whom the robot is present has an angry character, the pet robot 1 determines the strength of the emotion model. Often becomes a predetermined threshold value or more, and such an operation such as “turning sideways” is frequently performed.

【0068】ところで、行動決定機構部41は、感情・
本能モデル部40から供給された感情・本能状態情報S
10が示す情動ユニット50A〜50C及び欲求ユニッ
ト51A〜51Cの強度のうち所望のユニットの強度に
基づいて、遷移先のステートで行われる行動のパラメー
タ、例えば歩行の速度、手足を動かす際の動きの大きさ
や速度、音を出す際の音の高さや大きさなどを決定し、
当該行動のパラメータに応じた行動指令情報S16を生
成して姿勢遷移機構部42に送出するようになされてい
る。
By the way, the action determining mechanism 41 is configured to
Emotion and instinct state information S supplied from the instinct model unit 40
Based on the strength of the desired unit among the strengths of the emotion units 50A to 50C and the desire units 51A to 51C indicated by 10, the parameters of the action performed in the state of the transition destination, for example, the speed of walking, the movement of the limb when moving. Determine the size and speed, the pitch and size of the sound when making the sound,
The action command information S16 corresponding to the action parameter is generated and sent to the posture transition mechanism unit 42.

【0069】因みに、指令信号S1と外部情報信号S2
と内部情報信号S3とでなる人力情報S1〜S3は、感
情・本能モデル部40及び行動決定機構部41に入力さ
れるタイミングに応じて情報の内容が異なるため、感情
・本能モデル部40と共に行動決定機構部41にも入力
されるようになされている。
By the way, the command signal S1 and the external information signal S2
The human-power information S1 to S3, which are composed of the internal information signal S3 and the internal information signal S3, have different contents depending on the timings input to the emotion / instinct model section 40 and the action determination mechanism section 41. The data is also input to the determination mechanism unit 41.

【0070】例えばコントローラ32は、「頭をなでら
れた」という外部情報信号S2が供給されると、感情・
本能モデル部40によって「うれしい」という感情・本
能状態情報S10を生成し、当該感情・本能状態惰報S
10を行動決定機構部41に供給するが、この状態にお
いて、「手が目の前にある」という外部情報信号S2が
供給されると、行動決定機構部41において上述の「う
れしい」という感情・本能状態情報S10と「手が目の
前にある」という外部情報信号S2とに基づいて「喜ん
でおてをする」という行動指令情報S16を生成させ、
これを姿勢遷移機構部42に送出させるようになされて
いる。
For example, when the controller 32 is supplied with the external information signal S2 of “patched head,” the controller 32
The instinct model unit 40 generates the emotion / instinct state information S10 of “happy”, and the emotion / instinct state coast information S
10 is supplied to the action determining mechanism section 41. In this state, when the external information signal S2 indicating that "the hand is in front of the eyes" is supplied, the action determining mechanism section 41 outputs Based on the instinct state information S10 and the external information signal S2 indicating that "the hand is in front of the eyes", action instruction information S16 of "please happily" is generated,
This is sent to the posture transition mechanism 42.

【0071】図4に戻って、姿勢遷移機構部42は、行
動決定機構部41から供給される行動指令情報S16に
基づいて現在の姿勢から次の姿勢に遷移させるための姿
勢繊維情報S18を生成し、これを制御機構部43に送
出する。この場命、現在の姿勢から次に遷移可能な姿勢
は、例えば胴体や手や足の形状、重さ、各部の結合状態
のようなペットロボット1の物理的形状と、例えば関節
が曲がる方向や角度のようなアクチュエータ23A〜2
3Nの機構とによって決定される。
Returning to FIG. 4, the posture transition mechanism 42 generates posture fiber information S18 for transitioning from the current posture to the next posture based on the behavior command information S16 supplied from the behavior determination mechanism 41. This is sent to the control mechanism 43. The posture, the posture that can be changed next from the current posture, is the physical shape of the pet robot 1 such as the shape and weight of the body, hands and feet, the connection state of each part, and the direction in which the joint is bent and the like. Actuators 23A-2 like angles
3N mechanism.

【0072】ところでこのような遷移可能な姿勢は、現
在の姿勢から直接遷移可能な姿勢と直接には遷移できな
い姿勢とに分類される。例えば4本足のペットロボット
1は、手足を大きく投げ出して寝転んでいる状態から伏
せた状態へ直接遷移することはできるが、立った状態へ
直接遷移することはできず、一旦手足を胴体近くに引き
寄せて伏せた姿勢になり、それから立ち上がるという2
段階の動作が必要である。また安全に実行できない姿勢
も存在する。例えば4本足のペットロボット1は、立っ
ている姿勢で両前足を挙げてバンザイをしようとする
と、簡単に転倒してしまう場合である。
By the way, such transitionable postures are classified into postures that can directly transition from the current posture and postures that cannot directly transition. For example, the four-legged pet robot 1 can directly transition from a lying down state to a prone state by throwing out a limb greatly, but cannot directly transition to a standing state. Pulling down to a prone position, then standing up 2
Stepwise action is required. There are also postures that cannot be safely executed. For example, the four-legged pet robot 1 falls down easily when trying to banzai with both front legs raised while standing.

【0073】従って姿勢遷移機構部42は、遷移可能な
姿勢を予め登録しておき、行動決定機構部41から供給
された行動指令情報S16が直接遷移可能な姿勢を示す
場合には、当該行動指令情報S16をそのまま姿勢遷移
情報S18として制御機構部43に送出する一方、直接
遷移不可能な姿勢を示す場合には、遷移可能な他の姿勢
に―旦遷移した後に目的の姿勢まで遷移させるような姿
勢遷移情報S18を生成して制御機構部43に送出す
る。これによりペットロボット1は、遷移不可能な姿勢
を無理に実行しようとする事態や転倒するような自体を
回避することができる。
Therefore, the posture transition mechanism unit 42 registers in advance the transitionable postures, and when the behavior command information S16 supplied from the behavior determination mechanism unit 41 indicates the directly translatable postures, the relevant behavior command While the information S16 is sent as it is to the control mechanism unit 43 as the posture transition information S18, if it indicates a posture that cannot be directly transited, a transition to another possible posture is performed, and then a transition to the target posture is performed. The posture transition information S18 is generated and sent to the control mechanism unit 43. Thereby, the pet robot 1 can avoid a situation in which the pet robot 1 forcibly executes an untransitionable posture or a situation in which the pet robot 1 falls down.

【0074】具体的には姿勢遷移機構部42は、ペット
ロボット1がとり得る姿勢を予め登録すると共に、遷移
可飴な2つの姿勢の間を記録しておくようになされてい
る。例えば図11に示すように、姿勢遷移機構部42
は、ペットロボット1がとり得る姿勢をノードND1
ND5で表すと共に、遷移可能な2つの姿勢の間すなわ
ちノードND1〜ND5間を有向アークa1〜a10で結合
した有向グラフ60と呼ばれるアルゴリズムを用いてい
る。
More specifically, the posture transition mechanism 42 registers in advance the postures that the pet robot 1 can take, and records between the two postures in which the pet robot 1 can move. For example, as shown in FIG.
Is the attitude the pet robot 1 can take node ND 1 ~
Together represented by ND 5, and using an algorithm called a directed graph 60 bound a directed arc a 1 ~a 10 during i.e. between node ND 1 to ND 5 transition possible two postures.

【0075】姿勢遷移機構部42は、行動決定機構部4
1から行動指令情報S16が供給されると、現在の姿勢
に対応したノードNDと、行動指令情報S16が示す次
に取るべき姿勢に対応するノードNDとを結ぶように、
有向アークaの向きに従いながら現在のノードNDから
次のノードNDに至る経路を探索し、当該探索した経路
上にあるノードNDを順番に記録することにより、姿勢
遷移の計画を行うようになされている。これによりペッ
トロボット1は、遷移不可能な姿勢を無理に実行しよう
とする事態や転倒するような事態を回避しながら、行動
決定機構部41から指示された行動を実現することがで
きる。
The posture transition mechanism section 42 includes the action determination mechanism section 4
When the action command information S16 is supplied from No. 1, the node ND corresponding to the current attitude and the node ND corresponding to the next attitude to be taken indicated by the action command information S16 are connected.
A route from the current node ND to the next node ND is searched for while following the direction of the directed arc a, and the nodes ND on the searched route are recorded in order to plan the posture transition. ing. Accordingly, the pet robot 1 can realize the behavior instructed by the behavior determination mechanism unit 41 while avoiding a situation in which the posture that cannot transition is forcibly executed or a situation in which the pet robot 1 falls down.

【0076】姿勢遷移機構部42は、例えば現在の姿勢
が「ふせる」という姿勢を示すノードND2にある場
合、「すわれ」という行動指令情報S16が供給される
と、「ふせる」という姿勢を示すノードND2から「す
わる」という姿勢を示すノードND5へは直接遷移可能
であることを利用して、「すわれ」という姿勢遷移情報
SI8を制御機構部43に与える。これに対して姿勢遷
移機構部42は、「歩け」という行動指令情報S16が
供給されると、「ふせる」というノードND2から「あ
るく」というノードND4に至る経路を探索することに
より姿勢遷移計画を行い、その結果、「たて」という指
示を出した後に「歩け」という指示を出すような行動指
令情報S18を生成して制御機構部43に送出する。
For example, when the current posture is at the node ND 2 indicating the posture of “turn off”, the posture transition mechanism unit 42 changes the posture of “turn off” when the action command information S16 of “kill” is supplied. is to the node ND 5 indicating the posture of "sitting" from the node ND 2 indicating utilizing that it is possible transition directly gives attitude transition information SI8 of "sit" to the control mechanism unit 43. On the other hand, when the action command information S16 of “walking” is supplied, the posture transition mechanism unit 42 searches for a route from the node ND 2 of “disabled” to the node ND 4 of “aruku” to thereby determine the posture. A transition plan is made, and as a result, action command information S18 that issues an instruction “walk” after issuing an instruction “vertical” is generated and transmitted to the control mechanism unit 43.

【0077】図4に戻って制御機構部43は、行動指令
情報S18を基にアクチュエータ23を駆動させるため
の制御信号S5を生成し、これをアクチュエータ23に
送出して当該アクチュエー夕23を駆動させることによ
り、ペットロボット1に所望の動作を行わせるようにな
されている。
Returning to FIG. 4, the control mechanism 43 generates a control signal S5 for driving the actuator 23 based on the action command information S18, and sends it to the actuator 23 to drive the actuator 23. This allows the pet robot 1 to perform a desired operation.

【0078】(4)動作及び効果 以上の構成において、コントローラ32の感情・本能モ
デル部40は、供給される入力情報S1〜S3に基づい
て、ペットロボット1の感情及び本能の状態を変化さ
せ、この感情及び本能の状態の変化をペットロボット1
の行動に反映させることにより、自分の感情や本能の状
態に基づいて自律的に行動させる。
(4) Operation and Effect In the above configuration, the emotion / instinct model unit 40 of the controller 32 changes the emotion and instinct state of the pet robot 1 based on the supplied input information S1 to S3. This change in emotions and instinct states is
By reflecting on his / her behavior, he / she acts autonomously based on his / her emotions and instinct.

【0079】そして、感情・本能モデル部(図8に示す
感情モデル部)40は、相手ロボットの性格に応じて変
化された性格により行動を決定することができる。これ
により、ユーザは、他のペットロボットに応じてペット
ロボット1の性格が形成されることを楽しくことがで
き、育成のおもしろさを得ることができる。
The emotion / instinct model unit (emotional model unit shown in FIG. 8) 40 can determine an action based on a character changed according to the character of the partner robot. Thereby, the user can enjoy the formation of the character of the pet robot 1 according to the other pet robot, and can acquire the fun of raising.

【0080】また、コントローラ32の行動決定機構部
41は、順次供給される入力情報S14の履歴に応じた
現在のステート及び次に供給される入力情報S14に基
づいて現在のステートに続く次のステートを決定するこ
とにより、自分の感情や本能の状態に基づいて自律的に
行動させる。
The action determining mechanism 41 of the controller 32 determines the current state according to the history of the sequentially supplied input information S14 and the next state following the current state based on the next supplied input information S14. Is determined to make the person act autonomously based on their emotions and instinct status.

【0081】また、コントローラ32の姿勢遷移機構部
42は、ペットロボット1の現在の姿勢から予め決めら
れた所定の経路を経て現在の姿勢を変化させて行動指令
情報S16に応じた姿勢に遷移させることにより、無理
な姿勢をとらせるような事態や転倒するような事態を回
避する。
The posture transition mechanism 42 of the controller 32 changes the current posture of the pet robot 1 from the current posture through a predetermined route, and makes a transition to the posture according to the action command information S16. By doing so, it is possible to avoid situations in which the user takes an unreasonable posture or falls.

【0082】以上の構成によれば、コントローラ32に
対する入力情報S1〜S3に基づいてペットロボット1
の感情及び本能の状態を変化させ、この感情及び本能の
状態の変化を基にペットロボット1の行動を決定し、当
該決定した行動に応じて遷移可能な姿勢を選択してペッ
トロボット1を動作させることにより、自分の感情や本
能の状態に基づいて自律的に行動することができ、かく
して本物のペットに近い動作を行うペットロボット1を
実現できる。
According to the above configuration, the pet robot 1 is controlled based on the input information S1 to S3 to the controller 32.
The behavior of the pet robot 1 is determined based on the change of the emotion and the state of the instinct, the behavior of the pet robot 1 is determined based on the change of the emotion and the state of the instinct, and the posture that can transition is selected according to the determined behavior. By doing so, it is possible to act autonomously based on the state of one's own emotions and instinct, thus realizing a pet robot 1 that performs an action close to a real pet.

【0083】(5)他の実施の形態 上述の実施の形態においては、相手ロボットの性格に応
じた性格の変化を、感情パラメータ変更機構部63が感
情モデルのパラメータを変更することにより行っている
場合について述べたが、本発明はこれに限定されず、図
12に示すように、行動決定機構部41のパラメータを
変更することにより行うこともできる。この場合、行動
決定機構部41の調整可能なパラメータを変化させる。
例えば、有限オートマトンでは、入力情報S14の供給
によりステートを遷移させているが、そのステートの遷
移確率を変化させる。
(5) Other Embodiments In the above-described embodiment, the personality changes according to the personality of the partner robot are performed by the emotion parameter changing mechanism 63 changing the parameters of the emotion model. Although the case has been described, the present invention is not limited to this, and can be performed by changing the parameters of the action determining mechanism unit 41 as shown in FIG. In this case, the adjustable parameter of the action determining mechanism unit 41 is changed.
For example, in the finite state automaton, the state is changed by supplying the input information S14, but the change probability of the state is changed.

【0084】また、上述の実施の形態においては、相手
ロボットの表出された感情のみに基づいて性格の状態を
変化させているが、本発明はこれに限定されず、他の情
報をも参照することができる。例えば、図13に示すよ
うに、対話解析機構部64を備え、相手ロボットとユー
ザ(飼い主)との対話を解析することにより、性格の状
態を変化させることができる。
Further, in the above-described embodiment, the state of the character is changed only based on the expressed emotion of the partner robot. However, the present invention is not limited to this, and other information is referred to. can do. For example, as shown in FIG. 13, a dialogue analysis mechanism 64 is provided, and the state of the personality can be changed by analyzing the dialogue between the partner robot and the user (owner).

【0085】対話解析機構部64は、ユーザと相手ロボ
ットとの対話、例えば、ユーザが相手ロボットに発して
いる言葉やユーザが相手ロボットに対して行っている仕
草を解析する。例えば、ユーザが相手ロボットをしかっ
ているのか、叩いているのか等を解析する。対話解析機
構部41は、その解析結果を記憶及び解析機構部62に
送る。
The dialogue analysis mechanism 64 analyzes a dialogue between the user and the other robot, for example, a word spoken by the user to the other robot and a gesture performed by the user to the other robot. For example, it analyzes whether the user is playing or tapping the other robot. The dialogue analysis mechanism 41 sends the analysis result to the storage and analysis mechanism 62.

【0086】対話解析機構部64は、感情認知機構部6
1からの相手ロボットの表出している感情の情報と、対
話解析機構部64の解析結果とに基づいて、相手ロボッ
トの性格を判別する。
[0086] The dialogue analysis mechanism section 64 includes the emotion recognition mechanism section 6.
The character of the partner robot is determined based on the information of the emotion of the partner robot from 1 and the analysis result of the dialogue analysis mechanism unit 64.

【0087】これにより、例えば、感情認知機構部61
からの情報として吠えている情報だけが単に送られてい
場合には相手ロボットが怒りっぽい性格と判断されてし
まうが、ユーザとの対話を参照することにより、ユーザ
に叩かれた吠えているような場合には、相手ロボットを
怒りっぽい性格と容易に判断するようなことなく、環境
に応じて複合的な判断をすることができるようになる。
Thus, for example, the emotion recognition mechanism 61
If only the barking information is sent as information from the user, the partner robot is judged to be angry, but by referring to the dialogue with the user, it seems that the user is barking. In such a case, it is possible to make a complex judgment according to the environment without easily judging the partner robot as being angry.

【0088】また、上述の実施の形態においては、相手
ロボットの性格と一致する方向に変化するように説明し
たが、本発明はこれに限定されず、相手ロボットの性格
と反対の性格、すなわち反対方向の性格に変化させるこ
ともできる。
Further, in the above-described embodiment, the description has been made so as to change in a direction coinciding with the character of the partner robot. However, the present invention is not limited to this. It can be changed to the character of the direction.

【0089】また、上述の実施の形態においては、相手
ロボットの性格の判断に相手ロボットの行動を参照して
いるが、本発明はこれに限定されず、相手ロボットとの
データ通信により当該相手ロボットの性格を判断するこ
とができる。データ通信の形態としては無線通信でもよ
く、有線通信でもよい。
In the above-described embodiment, the behavior of the other robot is referred to in determining the character of the other robot. However, the present invention is not limited to this. Character can be determined. The form of data communication may be wireless communication or wired communication.

【0090】また、上述の実施の形態においては、相手
ロボットが1体である場合について説明したが、本発明
はこれに限定されず、相手ロボットが複数体ある場合で
あってもよい。この場合、ペットロボット1は、ロボッ
トを識別して、複数体のロボットから統合的に、或いは
特定のロボットから個別的に自己の性格を変化させるこ
とができる。これにより、複数の相手ロボットがそれぞ
れ性格が異なっている場合があるので、それに応じて自
己の性格を変化させることができるようになる。
Further, in the above-described embodiment, a case has been described in which one partner robot is provided. However, the present invention is not limited to this, and a case where there are a plurality of partner robots may be employed. In this case, the pet robot 1 can identify the robot and change its personality integrally from a plurality of robots or individually from a specific robot. As a result, a plurality of partner robots may have different personalities, so that their personalities can be changed accordingly.

【0091】さらに、このように複数体のロボットがあ
る状況においては各ロボットを識別する必要がある。こ
の場合、例えば、相手ロボットを個別判断できるよう
に、顔を所定のパターンとして形成しておくことによ
り、複数のロボットを識別できるようにする。また、所
定マークとしていわゆるバーコードを相手ロボットに付
して、複数のロボットを識別できるようにしてもよい。
また、データ通信により、相手ロボットの性格を判断す
る場合においては、性格のデータに識別情報を付してお
くことにより、複数のロボットを識別できるようにして
もよい。例えば、識別情報として、相手ロボットの備え
る装置の識別番号、例えば着脱自在とれた記憶媒体であ
る、いわゆるメモリスティックのID等が挙げられる。
Further, in such a situation where there are a plurality of robots, it is necessary to identify each robot. In this case, for example, a plurality of robots can be identified by forming a face as a predetermined pattern so that the partner robot can be individually determined. Further, a so-called bar code may be attached to the partner robot as a predetermined mark so that a plurality of robots can be identified.
Further, when the character of the partner robot is determined by data communication, a plurality of robots may be identified by adding identification information to the character data. For example, the identification information includes an identification number of a device included in the partner robot, for example, a so-called memory stick ID which is a removable storage medium.

【0092】また、上述の実施の形態においては、相手
ロボットの動作部の動作から感情を認知する場合につい
て主に述べたが、本発明はこれに限らず、タッチセンサ
14に対する相手ロボットの接触状態から相手ロボット
の感情の認知することもできる。
In the above embodiment, the case where the emotion is recognized from the operation of the operation unit of the partner robot has been mainly described. However, the present invention is not limited to this, and the contact state of the partner robot with the touch sensor 14 is not limited to this. It is also possible to recognize the emotion of the partner robot from.

【0093】また、上述の実施の形態においては、リモ
ートコントローラから赤外線光によって送られてきたユ
ーザの指令を受信するようにした場合について述べた
が、本発明はこれに限らず、例えば電波や音波によって
送られてきたユーザの指令を受信するようにしても良
い。
Further, in the above-described embodiment, a case has been described in which a user's command sent from a remote controller by infrared light is received. However, the present invention is not limited to this. May be received.

【0094】また、上述の実施の形態においては、ユー
ザからの指令をリモートコントローラ受信部13及びマ
イク11でなるコマンド受信部30を介して入力するよ
うにした場合について述べたが、本発明はこれに限ら
ず、例えばペットロボット1にコンピュータを接続し、
当該接続されたコンピュータを介してユーザの指令を入
力するようにしてもよい。
Further, in the above-described embodiment, a case has been described in which a command from a user is input via the remote controller receiving unit 13 and the command receiving unit 30 including the microphone 11. Not limited to this, for example, by connecting a computer to the pet robot 1,
The user's command may be input via the connected computer.

【0095】また、上述の実施の形態においては、「う
れしさ」、「悲しさ」、「怒り」という情動を示す情動
ユニット50A〜50Cと、「食欲」、「睡眠欲」、
「運動欲」という欲求を示す欲求ユニット51A〜51
Cとを用いて感情及び本能の状態を決定するようにした
場合について述べたが、本発明はこれに限らず、例えば
情動ユニット50A〜50Cに「寂しさ」という情動を
示す情動ユニットを追加したり、欲求ユニット51A〜
51Cに「愛情欲」という欲求を示す欲求ユニットを追
加しても良く、この他種々の種類や個数の組合わせでな
る情動ユニットや欲求ユニットを使って感情や本能の状
態を決定するようにしても良い。
In the above-described embodiment, the emotion units 50A to 50C indicating the emotions of “joy”, “sadness”, and “anger”, and “appetite”, “sleep desire”,
Desire units 51A to 51 showing the desire of "exercise desire"
The case where the state of emotion and instinct is determined using C has been described. However, the present invention is not limited to this. For example, an emotion unit indicating an emotion of "loneliness" is added to the emotion units 50A to 50C. Or desire unit 51A-
A desire unit indicating a desire of “affection desire” may be added to 51C, and in addition, emotional and instinct states are determined by using emotion units and desire units of various types and combinations of numbers. Is also good.

【0096】また、上述の実施の形態においては、指令
信号S1と外部情報信号S2と内部情報信号S3と感情
・本能状態情報S10と行動情報S12とに基づいて次
の行動を行動決定機構部41によって決定した場合につ
いて述べたが、本発明はこれに限らず、指令信号S1と
外部情報信号S2と内部情報信号S3と感情・本能状態
情報S10と行動情報S12とのうち一部の情報に基づ
いて次の行動を決定するようにしても良い。
In the above-described embodiment, the next action is determined based on the command signal S1, the external information signal S2, the internal information signal S3, the emotion / instinct status information S10, and the action information S12. However, the present invention is not limited to this, and the present invention is based on a part of the command signal S1, the external information signal S2, the internal information signal S3, the emotion / instinct status information S10, and the action information S12. Alternatively, the next action may be determined.

【0097】また、上述の実施の形態においては、有限
オートマトン57と呼ばれるアルゴリズムを用いて次の
行動を決定した場合について述べたが、本発明はこれに
限らず、ステートの数が有限でないステートマシンと呼
ばれるアルゴリズムを用いて行動を決定するようにして
も良く、この場合、入力情報Sl4が供給される毎に新
たにステートを生成し、当該生成したステートに応じて
行動を決定すれば良い。
In the above-described embodiment, the case where the next action is determined using an algorithm called a finite state automaton 57 has been described. However, the present invention is not limited to this, and the state machine in which the number of states is not finite is described. The action may be determined using an algorithm referred to as an algorithm. In this case, a new state may be generated each time the input information S14 is supplied, and the action may be determined according to the generated state.

【0098】また、上述の実施の形態においては、有限
オートマトン57と呼ばれるアルゴリズムを用いて次の
行動を決定した場合について述ベたが、本発明はこれに
限らず、現在供給された入力情報S14とそのときのス
テートとに基づいて複数のステートを遷移先の候補とし
て選定し、当該選定された複数のステートのうち遷移先
のステートを乱数によってランダムに決定するような確
率有限オートマトンと呼ばれるアルゴリズムを用いて行
動を決定するようにしても良い。
Further, in the above-described embodiment, the case where the next action is determined using an algorithm called finite automaton 57 has been described. However, the present invention is not limited to this, and the presently supplied input information S14 An algorithm called a stochastic finite state automaton that selects a plurality of states as candidates for a transition destination based on the state and the state at that time, and randomly determines the state of the transition destination among the selected plurality of states by using a random number. The action may be determined by using this.

【0099】また、上述の実施の形態においては、行動
指令情報S16が直接遷移可能な姿勢を示す場合には、
当該行動指令情報S16をそのまま姿勢遷移情報S18
として制御機構部43に送出する一方、直接遷移不可能
な姿勢を示す場合には、遷移可能な他の姿勢に一旦遷移
した後に目的の姿勢まで遷移させるような姿勢遷移情報
S18を生成して制御機構部43に送出した場合につい
て述べたが、本発明はこれに限らず、行動指令情報S1
6が直接遷移可能な姿勢を示す場合にのみ当該行動指令
情報S16を受け付けて制御機構部43に送出する一
方、直接遷移不可能な姿勢を示す場合には、当該行動指
令情報S16を拒否するようにしても良い。
In the above embodiment, when the action command information S16 indicates a posture to which a direct transition can be made,
The action command information S16 is directly used as the posture transition information S18.
In the case where the posture is transmitted to the control mechanism unit 43 and the posture that cannot be directly transited is indicated, the posture transition information S18 is generated such that the posture is temporarily transited to another transitable posture and then transited to the target posture. Although the case of sending to the mechanism unit 43 has been described, the present invention is not limited to this, and the action command information S1
The action command information S16 is received and sent to the control mechanism unit 43 only when 6 indicates a posture to which a direct transition can be made, while the action command information S16 is rejected when it indicates a posture to which a direct transition is not possible. You may do it.

【0100】また、上述の実施の形態においては、本発
明をペットロボット1に適用した場合について述べた
が、本発明はこれに限らず、例えばゲームや展示等のエ
ンタテインメント分野で用いられるロボット装置のよう
に、他の種々のロボット装置に本発明を適用し得る。
Further, in the above-described embodiment, the case where the present invention is applied to the pet robot 1 has been described. However, the present invention is not limited to this, and for example, a robot apparatus used in the field of entertainment such as games and exhibitions. As described above, the present invention can be applied to various other robot devices.

【0101】また、本発明が適用されるペットロボット
1の外観は、図2に示すような構成をとることに限定さ
れず、図14に示すように、より現実の犬に類似の構成
とすることもできる。
The appearance of the pet robot 1 to which the present invention is applied is not limited to the configuration shown in FIG. 2, but is made similar to a real dog as shown in FIG. You can also.

【0102】[0102]

【発明の効果】本発明に係るロボット装置は、他のロボ
ット装置の出力を検知する検知手段と、検知手段の検知
結果に基づいて、他のロボット装置の性格を判別する性
格判別手段とを備えることにより、検知手段が検知した
他のロボット装置の出力の検知結果に基づいて、他のロ
ボット装置の性格を性格判別手段により判別することが
できる。
The robot apparatus according to the present invention includes detection means for detecting the output of another robot apparatus, and character discrimination means for discriminating the character of the other robot apparatus based on the detection result of the detection means. Thus, the character of the other robot device can be determined by the character determination device based on the detection result of the output of the other robot device detected by the detection device.

【0103】これにより、ロボット装置は、例えば、他
のロボット装置の性格の判別結果に基づいて自己の性格
を変化させることができ、より現実的に性格が形成され
る。
Thus, the robot device can change its own character based on, for example, the result of determining the character of another robot device, and the character is formed more realistically.

【0104】また、本発明に係るロボット装置の性格判
別方法は、ロボット装置の出力に基づいて、当該ロボッ
ト装置の性格を判別することにより、例えば、他のロボ
ット装置の性格の判別結果に基づいて自己の性格を変化
させることができ、より現実的に性格が形成される。
In the method for determining the character of a robot device according to the present invention, the character of the robot device is determined on the basis of the output of the robot device, for example, based on the result of determining the character of another robot device. It is possible to change one's personality and to form a more realistic personality.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を実現する構成を示すブロック図であ
る。
FIG. 1 is a block diagram showing a configuration for realizing the present invention.

【図2】本発明によるペットロボットの一実施の形態を
示す斜視図である。
FIG. 2 is a perspective view showing an embodiment of a pet robot according to the present invention.

【図3】ペットロボットの回路構成を示すブロック図で
ある。
FIG. 3 is a block diagram illustrating a circuit configuration of the pet robot.

【図4】コントローラにおけるデータ処理を示す略線図
である。
FIG. 4 is a schematic diagram illustrating data processing in a controller.

【図5】感情・本能モデル部によるデータ処理を示す略
線図である。
FIG. 5 is a schematic diagram illustrating data processing by an emotion / instinct model unit.

【図6】感情・本能モデル部によるデータ処理を示す略
線図である。
FIG. 6 is a schematic diagram illustrating data processing by an emotion / instinct model unit.

【図7】感情・本能モデル部によるデータ処理を示す略
線図である。
FIG. 7 is a schematic diagram illustrating data processing by an emotion / instinct model unit.

【図8】上述のペットロボットにおける感情モデルのパ
ラメータを変化させる構成部分のブロック図である。
FIG. 8 is a block diagram of a component for changing a parameter of an emotion model in the pet robot described above.

【図9】相手ロボットの感情の表出割合を示す特性図で
ある。
FIG. 9 is a characteristic diagram showing an expression ratio of an emotion of a partner robot.

【図10】行動決定機構部における有限オートマトンの
状態遷移図である。
FIG. 10 is a state transition diagram of the finite state automaton in the action determining mechanism unit.

【図11】姿勢遷移機構部における姿勢遷移のグラフを
示す図である。
FIG. 11 is a diagram showing a graph of a posture transition in a posture transition mechanism unit.

【図12】上述のペットロボットにおける感情モデルの
パラメータを変化させる構成部分を示すものであって、
感情モデルのパラメータを変化させる他の形態を説明す
るために使用したブロック図である。
FIG. 12 is a view showing a component for changing a parameter of an emotion model in the pet robot described above,
FIG. 10 is a block diagram used for explaining another mode of changing a parameter of an emotion model.

【図13】上述のペットロボットにおいて、相手ロボッ
トとユーザとの対話を解析する対話解析機構部を備え
て、感情モデルのパラメータを変化させる構成部分のブ
ロック図である。
FIG. 13 is a block diagram of a component portion of the above-described pet robot, which includes a dialogue analysis mechanism for analyzing a dialogue between a partner robot and a user and changes parameters of an emotion model.

【図14】本発明によるペットロボットの他の実施の形
態を示す斜視図である。
FIG. 14 is a perspective view showing another embodiment of the pet robot according to the present invention.

【符号の説明】[Explanation of symbols]

1 ペットロボット、6 検知手段、7 性格辺別手
段、8 性格変化手段、61 感情認知機構部、62
記憶及び解析機構部、63 性格パラメータ変更部、6
4 対話解析機構部
Reference Signs List 1 pet robot, 6 detection means, 7 personality side means, 8 personality change means, 61 emotion recognition mechanism section, 62
Memory and analysis mechanism section, 63 Personality parameter change section, 6
4 Dialogue Analysis Mechanism Department

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G05B 13/02 G05B 13/02 L Fターム(参考) 2C150 BA06 CA02 DA05 DA24 DA26 DA27 DA28 DF02 ED08 ED21 ED42 EF09 EF13 EF16 EF29 EF33 3F059 AA00 BA00 BB06 DA05 DB05 DC00 DC01 FC00 FC01 3F060 AA00 BA10 CA14 5H004 GA15 GA25 GA26 GB16 HA07 HB01 HB07 JB05 JB06 JB08 KD52 KD55 KD62 KD63 LA15 MA23 MA29 MA33 9A001 BZ03 HZ05 KK62 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G05B 13/02 G05B 13/02 LF term (Reference) 2C150 BA06 CA02 DA05 DA24 DA26 DA27 DA28 DF02 ED08 ED21 ED42 EF09 EF13 EF16 EF29 EF33 3F059 AA00 BA00 BB06 DA05 DB05 DC00 DC01 FC00 FC01 3F060 AA00 BA10 CA14 5H004 GA15 GA25 GA26 GB16 HA07 HB01 HB07 JB05 JB06 JB08 KD52 KD55 KD62 KD63 LA15 MA23 MA29 MA33 Z0505

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】 他のロボット装置の出力を検知する検知
手段と、 上記検知手段の検知結果に基づいて、上記他のロボット
装置の性格を判別する性格判別手段とを備えたことを特
徴とするロボット装置。
1. A device comprising: detecting means for detecting an output of another robot device; and character discriminating means for discriminating a character of the other robot device based on a detection result of the detecting device. Robot device.
【請求項2】 上記性格判別手段の判別結果に基づい
て、自己の性格を変化させる性格変化手段を備えたこと
を特徴とする請求項1記載のロボット装置。
2. The robot apparatus according to claim 1, further comprising a personality changing unit that changes a personality of the robot based on a result of the determination by the personality determining unit.
【請求項3】 上記検知手段は、上記他のロボット装置
の行動を検出する行動検出部と、上記行動検出部の検出
結果に基づいて上記他のロボット装置の感情を認知する
感情認知手段とを備え、 上記性格判別手段は、上記感情認知手段が認知した上記
感情に基づいて、上記他のロボット装置の性格を判別す
ることを特徴とする請求項1記載のロボット装置。
3. The method according to claim 1, wherein the detecting means includes: a behavior detecting unit configured to detect a behavior of the another robot device; and an emotion recognizing unit configured to recognize an emotion of the other robot device based on a detection result of the behavior detecting unit. The robot apparatus according to claim 1, wherein the personality discriminating means discriminates the personality of the other robot apparatus based on the emotion recognized by the emotion recognizing means.
【請求項4】 上記性格判別手段は、上記感情認知手段
が認知した一定時間内の上記感情に基づいて、上記他の
ロボット装置の性格を判別することを特徴とする請求項
3記載のロボット装置。
4. The robot apparatus according to claim 3, wherein said personality discriminating means discriminates the personality of said another robot apparatus based on said emotion within a predetermined time recognized by said emotion recognizing means. .
【請求項5】 上記検知手段は、上記他のロボット装置
からの感情データ又は性格データを検知し、 上記性格判別手段は、上記感情データ又は性格データに
基づいて、上記他のロボット装置の性格を判別すること
を特徴とする請求項1記載のロボット装置。
5. The detection means detects emotion data or personality data from the other robot device, and the personality discriminating means detects the personality of the other robot device based on the emotion data or personality data. The robot apparatus according to claim 1, wherein the determination is performed.
【請求項6】 上記性格変化手段は、上記性格判別手段
の判別結果に基づいて、自己の性格を決定する性格モデ
ルのパラメータを変化させることを特徴とする請求項2
記載のロボット装置。
6. The personality changing means for changing a parameter of a personality model for determining a personality based on a result of the determination by the personality determining means.
The robot device as described.
【請求項7】 全体及び各構成部分を行動情報に基づい
て動作させる動作制御手段を備え、 上記性格変化手段は、上記性格判別手段の判別結果に基
づいて、上記行動情報を変化させることを特徴とする請
求項1記載のロボット装置。
7. An operation control means for operating the whole and each component based on the action information, wherein the character changing means changes the action information based on a result of the judgment by the character discriminating means. The robot device according to claim 1, wherein
【請求項8】 他のロボット装置の感情に起因する動作
パターンが記憶される記憶手段を備え、 上記感情認知手段は、上記他のロボット装置の動作と、
上記動作パターンとを比較することにより、感情を認知
することを特徴とする請求項3記載のロボット装置。
8. A storage device for storing an operation pattern caused by an emotion of another robot device, wherein the emotion recognition device performs an operation of the other robot device,
The robot device according to claim 3, wherein the emotion is recognized by comparing the motion pattern with the motion pattern.
【請求項9】 他のロボット装置とユーザとの対話を検
知する対話検知手段を備え、 上記性格判別手段は、上記対話検知手段の検知結果を参
照して、上記他のロボット装置の性格を判別することを
特徴とする請求項1記載のロボット装置。
9. A robot further comprising a dialogue detecting unit for detecting a dialogue between the user and another robot device, wherein the character determining unit determines the character of the other robot device with reference to a detection result of the dialogue detecting unit. The robot device according to claim 1, wherein
【請求項10】 ロボット装置の出力を検知して、この
検知結果に基づいて、当該ロボット装置の性格を判別す
ることを特徴とするロボット装置の性格判別方法。
10. A method for determining the character of a robot device, comprising detecting an output of the robot device and determining a character of the robot device based on a result of the detection.
【請求項11】 性格判別結果が他のロボット装置の性
格の変化に使用されることを特徴とする請求項10記載
のロボット装置の性格判別方法。
11. The method according to claim 10, wherein the character determination result is used for changing the character of another robot device.
【請求項12】 上記ロボット装置の出力である上記ロ
ボット装置の行動から感情を認知して、感情の認知結果
に基づいて、上記ロボット装置の性格を判別することを
特徴とする請求項10記載のロボット装置の性格判別方
法。
12. The robot apparatus according to claim 10, wherein an emotion is recognized from an action of the robot apparatus, which is an output of the robot apparatus, and the character of the robot apparatus is determined based on a recognition result of the emotion. A method for determining the character of a robot device.
【請求項13】 一定時間内の上記感情の認知結果に基
づいて、上記ロボット装置の性格を判別することを特徴
とする請求項12記載のロボット装置の性格判別方法。
13. The method according to claim 12, wherein the character of the robot device is determined based on a result of recognition of the emotion within a predetermined time.
【請求項14】 上記ロボット装置の出力である上記ロ
ボット装置からの感情データ又は性格データを検知し、
上記感情データ又は性格データに基づいて、上記ロボッ
ト装置の性格を判別することを特徴とする請求項10記
載のロボット装置の性格判別方法。
14. Detecting emotion data or personality data from the robot device, which is an output of the robot device,
The method according to claim 10, wherein the personality of the robot device is determined based on the emotion data or the personality data.
【請求項15】 上記ロボット装置の感情に起因する動
作パターンを記憶している他のロボット装置が、上記ロ
ボット装置の動作と当該行動パターンとを比較すること
により、感情を認知することを特徴とする請求項12記
載のロボット装置の性格判別方法。
15. Another robot device storing an operation pattern caused by the emotion of the robot device recognizes the emotion by comparing the operation pattern of the robot device with the behavior pattern. The method for determining the character of a robot device according to claim 12.
JP34137599A 1999-11-30 1999-11-30 Robot device and character determining method of robot device Withdrawn JP2001157983A (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP34137599A JP2001157983A (en) 1999-11-30 1999-11-30 Robot device and character determining method of robot device
KR1020017009618A KR20010101883A (en) 1999-11-30 2000-11-30 Robot apparatus, control method thereof, and method for judging character of robot apparatus
US09/890,231 US7117190B2 (en) 1999-11-30 2000-11-30 Robot apparatus, control method thereof, and method for judging character of robot apparatus
PCT/JP2000/008472 WO2001039932A1 (en) 1999-11-30 2000-11-30 Robot apparatus, control method thereof, and method for judging character of robot apparatus
CNB008032971A CN1151016C (en) 1999-11-30 2000-11-30 Robot apparatus, control method thereof, and method for judging character of robot apparatus
US11/244,341 US20060041332A1 (en) 1999-11-30 2005-10-05 Robot apparatus and control method therefor, and robot character discriminating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34137599A JP2001157983A (en) 1999-11-30 1999-11-30 Robot device and character determining method of robot device

Publications (1)

Publication Number Publication Date
JP2001157983A true JP2001157983A (en) 2001-06-12

Family

ID=18345582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34137599A Withdrawn JP2001157983A (en) 1999-11-30 1999-11-30 Robot device and character determining method of robot device

Country Status (1)

Country Link
JP (1) JP2001157983A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002045916A1 (en) * 2000-12-06 2002-06-13 Sony Corporation Robot device, method for controlling motion of robot device, and system for controlling motion of robot device
JP2008278981A (en) * 2007-05-09 2008-11-20 Advanced Telecommunication Research Institute International Character determination apparatus, character determination method, communication robot and electronic device
JP2020064420A (en) * 2018-10-16 2020-04-23 東京瓦斯株式会社 Robot matching system and program
WO2020202540A1 (en) * 2019-04-04 2020-10-08 Groove X株式会社 Characteristic data setting device, robot, terminal device, and characteristic data setting method
JP2021069767A (en) * 2019-10-31 2021-05-06 カシオ計算機株式会社 Control device of apparatus, control method of apparatus and program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002045916A1 (en) * 2000-12-06 2002-06-13 Sony Corporation Robot device, method for controlling motion of robot device, and system for controlling motion of robot device
US6889117B2 (en) 2000-12-06 2005-05-03 Sony Corporation Robot apparatus and method and system for controlling the action of the robot apparatus
US7076334B2 (en) 2000-12-06 2006-07-11 Sony Corporation Robot apparatus and method and system for controlling the action of the robot apparatus
JP2008278981A (en) * 2007-05-09 2008-11-20 Advanced Telecommunication Research Institute International Character determination apparatus, character determination method, communication robot and electronic device
JP2020064420A (en) * 2018-10-16 2020-04-23 東京瓦斯株式会社 Robot matching system and program
JP7186058B2 (en) 2018-10-16 2022-12-08 東京瓦斯株式会社 Robot matching system and program
WO2020202540A1 (en) * 2019-04-04 2020-10-08 Groove X株式会社 Characteristic data setting device, robot, terminal device, and characteristic data setting method
JPWO2020202540A1 (en) * 2019-04-04 2020-10-08
JP7414299B2 (en) 2019-04-04 2024-01-16 Groove X株式会社 Feature data setting device, robot, terminal device, and feature data setting method
JP2021069767A (en) * 2019-10-31 2021-05-06 カシオ計算機株式会社 Control device of apparatus, control method of apparatus and program
JP7070529B2 (en) 2019-10-31 2022-05-18 カシオ計算機株式会社 Equipment control device, equipment control method and program

Similar Documents

Publication Publication Date Title
US7117190B2 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
EP1151779B1 (en) Robot and action deciding method for robot
US6519506B2 (en) Robot and control method for controlling the robot&#39;s emotions
JP6572943B2 (en) Robot, robot control method and program
US6667593B2 (en) Robot apparatus
JP2003039363A (en) Robot device, action learning method therefor, action learning program thereof, and program recording medium
JP3963162B2 (en) Robot apparatus and control method of robot apparatus
US6512965B2 (en) Robot and control method for entertainment
WO2000068879A1 (en) Robot device, its control method, and recorded medium
JP3277500B2 (en) Robot device
JP2003080484A (en) Action reaction toy
JP2001157983A (en) Robot device and character determining method of robot device
JP2003136456A (en) Robot device, brightness detection method of robot device, brightness detection program and recording medium
JP2004130427A (en) Robot device and method for controling operation of robot device
JP4379052B2 (en) Moving object detection apparatus, moving object detection method, and robot apparatus
JP2001157980A (en) Robot device, and control method thereof
JP2001157979A (en) Robot device, and control method thereof
JP4411503B2 (en) Robot apparatus and control method thereof
JP2004130426A (en) Robot device and its operation control method
JP2002269530A (en) Robot, behavior control method of the robot, program and storage medium
JP2003071765A (en) Robot device and input method therefor
JP2001157984A (en) Robot device and action control method for robot device
JP3501123B2 (en) Robot apparatus and behavior control method for robot apparatus
JP2002120179A (en) Robot device and control method for it
JP2004298976A (en) Robot device and recognition control method for robot device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070206