JP2003205179A - Pet type robot - Google Patents

Pet type robot

Info

Publication number
JP2003205179A
JP2003205179A JP2002003413A JP2002003413A JP2003205179A JP 2003205179 A JP2003205179 A JP 2003205179A JP 2002003413 A JP2002003413 A JP 2002003413A JP 2002003413 A JP2002003413 A JP 2002003413A JP 2003205179 A JP2003205179 A JP 2003205179A
Authority
JP
Japan
Prior art keywords
user
type robot
pet
contact
pet type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002003413A
Other languages
Japanese (ja)
Inventor
Eiji Ishiyama
英二 石山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2002003413A priority Critical patent/JP2003205179A/en
Publication of JP2003205179A publication Critical patent/JP2003205179A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To operate a pet type robot so that it is closer to a real pet by enhancing the entertaining nature of the pet type robot. <P>SOLUTION: This pet type robot is provided with a storage means for accumulating information on a user in contact, and a control means for putting the robot in motion attached to the user, according to the accumulated data. The contact frequency of the user is determined (step S3), and the accumulated data is forgotten according to the contact frequency (step S8) to lower the attachment degree of attached motion. Consequently, if the user has not been in contact with the pet type robot for a long period of time, the pet type robot forgets the user data accumulated in the pet type robot, and the pet type robot performs the attached motion corresponding to the forgotten degree. The user can thereby have a desire to make contact with the pet type robot frequently and continuously. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】 【0001】 【発明の属する技術分野】本発明はペット型ロボットに
係り、特に、ユーザに対する「なつき度」に応じて感情
行動を変化させることができるペット型ロボットに関す
る。 【0002】 【従来の技術】ペット型ロボットが普及する様になって
きており、一層、実際のペットに近い行動がとれるペッ
ト型ロボットの開発が望まれている。このため、例えば
特開2001―51970号公報記載の従来のペット型
ロボットは、カメラでとらえたユーザの顔画像等からユ
ーザであるか否かを認識するとき、単にイエス,ノーの
二者択一で認識するのではなく、ユーザがペット型ロボ
ットに接する回数が多くなるほどユーザ認識度をアップ
させ、認識度が高くなるほどペット型ロボットになつい
た感情行動を行わせるようにし、実際のペットの行動を
模擬する様にしている。 【0003】 【発明が解決しようとする課題】上述した従来のペット
型ロボットは、ユーザがペット型ロボットを可愛がれば
可愛がるほど、それに応じてペット型ロボットが徐々に
なついた感情行動をとるため、ユーザもペット型ロボッ
トに感情移入し易くなっている。 【0004】しかしながら、従来のペット型ロボット
は、ユーザ認識度に対する変化が増加の一方向だけであ
るため、ユーザがペット型ロボットを長期間放置した後
に接した場合でも、ペット型ロボットは放置前と同じ感
情行動をとってしまい、この結果として、ユーザはペッ
ト型ロボットに頻繁に継続的に接するという意欲が薄
れ、ペット型ロボットに飽きてしまうという問題があ
る。 【0005】本発明の目的は、ユーザが飽きることなく
頻繁に継続的に接することができるペット型ロボットを
提供することにある。 【0006】 【課題を解決するための手段】上記目的は、接するユー
ザの情報を蓄積する記憶手段と、該ユーザに対するなつ
き動作を前記蓄積したデータに応じて行わせる制御手段
とを備えるペット型ロボットにおいて、前記ユーザの接
する頻度を計測する手段と、前記接する頻度に応じ前記
蓄積したデータを忘却させて前記なつき動作のなつき度
を低下させる手段とを設けることで、達成される。 【0007】本発明は上記構成とすることで、ペット型
ロボットにユーザが長期間接しなかったとき、ペット型
ロボットに蓄積されている当該ユーザに対するデータを
ペット型ロボットが忘れ、その忘れの程度に応じたなつ
き動作をペット型ロボットが行うため、ユーザは自分が
忘れられないように頻繁且つ継続的にペット型ロボット
に接する意欲を持つことが可能となる。 【0008】 【発明の実施の形態】以下、本発明の一実施形態につい
て、図面を参照して説明する。 【0009】図1は、本発明の一実施形態に係るペット
型ロボットの外観図である。このペット型ロボット1は
犬の形状をしており、顔の部分に撮像カメラ2と赤外線
センサ3が搭載され、耳4の部分にマイク5(図2参
照)が搭載され、口の部分にスピーカ6(図2参照)が
搭載され、また、体の各所にタッチセンサ7(図2参
照)等が搭載されている。また、耳4や、四肢8a,8
b,…や、首9、尻尾10等は夫々多関節駆動され、歩
いたり座ったり鳴いたりじゃれたりという各種の基本行
動パターンに加え、甘えたり拗ねたりという感情行動を
感情の程度に応じてとれるようになっている。 【0010】図2は、図1に示すペット型ロボットの電
気制御系の構成図である。ペット型ロボットの制御装置
20は、撮像カメラ2の撮像情報から顔情報を検出する
顔情報検出部21と、撮像カメラ2の撮像情報から被写
体画像の動きを検出する動作情報検出部22と、マイク
5で集音した情報を検出する音声情報検出部23と、撮
像カメラ2とマイク5と赤外線センサ3の各入力情報か
ら周辺環境の情報を検出する周辺環境検出部24と、タ
ッチセンサ7の検出信号から体に触られている状態を検
出する触覚情報検出部25と、これらの各検出部21〜
25の検出結果を取り込み、認識処理を行う認識処理部
30とを備える。 【0011】更に、制御装置20は、ペット型ロボット
の各種感情モデルや各種基本行動パターンの情報が格納
されると共に、認識処理部30の認識したユーザ別の特
徴データを蓄積し更新する記憶処理部31と、認識処理
部30の認識結果に基づいて記憶処理部31から読み出
した基本行動パターン(例えばユーザの呼び掛けに応じ
てユーザに近寄るという基本行動パターン)に基づいて
ペット型ロボットの動作を決定する行動決定部32と、
記憶処理部31から読み出された感情モデルと認識処理
部30の認識結果とに基づいてペット型ロボットの感情
を生成する感情生成部33と、この感情生成部33によ
り生成された感情に基づき特徴的行為を生成し行動決定
部32の決定した動作を特徴的行為で補正する特徴行為
生成部34とを備える。 【0012】更にまた、制御装置20は、内蔵バッテリ
の残量検出部11や内蔵時計12の計数値を取り込んで
内部情報を処理し、今現在バッテリ充電が必要であるか
否かや現在時刻を知る内部情報処理部35と、内蔵時計
12の計数値を用いて後述するようにユーザ別接触頻度
を記憶し、この頻度情報を用い、使用する感情モデルや
基本行動パターンの係数値を決定させるユーザ別頻度記
憶部36とを備える。そして、斯かる制御装置20の決
定した行動パターンに応じて、スピーカ6を鳴らし、耳
4,首9,尻尾10,四肢8a…8dを駆動する様にな
っている。 【0013】斯かる構成のペット型ロボット1は、今現
在自分に接触(タッチセンサ7への接触ばかりでなく、
音声による接触や顔が所定距離以内に近づく接触も含
む)している人物の顔画像を撮像してその特徴を取り出
し、また、音声情報を取得して声紋の特徴を取り出し、
これら特徴データに「ユーザ番号1」のラベルを付けて
記憶処理部31に格納すると共に、ユーザ別頻度記憶部
36に、最初は接触頻度ランク「10」として記憶す
る。また、ユーザ番号1の人物とは異なる特徴データを
持つと判断した別人に対しては、異なるユーザ番号を割
り振ってその特徴データを記憶処理部31に格納すると
共にその接触頻度ランクをユーザ別頻度記憶部36に記
憶する。 【0014】同一人物からの接触が頻繁に行われる毎
に、記憶処理部31に格納される当該人物に関する特徴
データの量が増え、その人物に対する認識率が向上する
ことになる。また、その人物の怒った顔や、笑った顔も
区別して認識でき、怒った声や笑った声も区別して認識
することが可能となってくる。同様に、頻繁に接触が行
われることで、当該人物に対するユーザ別頻度記憶部3
6に記憶された接触頻度ランクも「ランク10」から
「ランク9」「ランク8」…と上がっていくことにな
る。 【0015】今現在におけるユーザ認識率が高くしかも
当該ユーザのペット型ロボットに対する接触頻度が高い
状態の場合、例えばじゃれる動作という基本行動パター
ンに対して、ユーザの呼び掛けに対して甘えた鳴き声を
出すという特徴行為を付加することで、そのユーザに対
して良くなついた動作(なつき度の高い動作)を模擬す
ることが可能となる。あるいは、じゃれるという動作で
あっても、嫌々じゃれる動作に対して、ユーザ別接触頻
度ランクの高いユーザに対しては積極的にじゃれる動作
を特徴的行為として付加することで、そのユーザに対す
るなついた動作を模擬することができる。 【0016】この様な特徴的行為を付加するために、本
実施形態のペット型ロボット1は、感情生成部33が、
認識処理部30の認識結果と、記憶処理部31から読み
出した感情モデルとからペット型ロボット1に動作表現
させる感情を生成し、この生成された感情に該当する特
徴的行為を特徴行為生成部34で生成し、行動決定部3
2で決定されている動作を特徴的行為で補正し、なつい
た動作を模擬する様になっている。 【0017】記憶処理部31から感情生成部33に読み
出される感情モデルは、認識処理部30が認識した感
情、例えば、ユーザが怒った顔をしていると判断したと
きは怒られたという感情に該当する感情モデルが読み出
される。感情モデルは例えば多項計算式としてモデル化
されており、この計算式の各項の係数値として、ユーザ
認識率が高いほど大きな値をとるようになっている。 【0018】例えば係数値として、顔認識度の係数値
や、音声認識度の係数値や、ユーザの仕草認識度の係数
値が用意され、ユーザ認識度が10段階で最も高いとき
係数値として「10」が、ユーザ認識度が10段階で最
も低いとき係数値として「1」が設定される。 【0019】このような係数値付きの感情モデルが感情
生成部33に読み出され、そのときの基本行動パターン
で決定される動作に特徴的行為が付加されることで、頻
繁に接触するユーザに対しては、ユーザの種々の行動に
対応した感情表現豊かな、なつき度の高い感情行動(な
つき動作)をペット型ロボット1にとらせることができ
る。 【0020】ここで、ユーザが長期間このペット型ロボ
ット1に接触しなかった場合、本実施形態のペット型ロ
ボット1は、そのユーザに対してのなつき度が低下する
様になっている。このなつき度を低下させる制御は、ユ
ーザ別頻度記憶部36に記憶されているユーザ別の接触
頻度ランクを低下させることで行う。 【0021】例えば、接触頻度ランクが「10」であっ
たユーザが長期間接触しなかった場合には、ランクを5
ランク下げて「5」にし、これにより、上述した各項の
係数値を夫々10段階で5下げる。この結果、感情モデ
ルによる特徴的行為の表現力が小さくなり、なつき度が
低下する。 【0022】あるいは、ユーザが長期間接触せずに接触
頻度ランクが下がったとき、例えば、記憶処理部31に
格納されている顔認識を行う当該ユーザの特徴データだ
けを破棄したり、感情モデルのうち顔認識度に対応する
係数値を一時的に初期値「1」にリセットして、ペット
型ロボット1にユーザの顔を一時的に忘れさせたりす
る。この様ななつき度を低下させる制御を行うことで、
ユーザはペット型ロボットに対して自分が忘れられない
ように頻繁に継続的に接するという意欲を持つことがで
きる。 【0023】図3は、上述したなつき度の制御を行う制
御装置20の処理手順を示すフローチャートである。先
ず、ステップS1で、各種のセンサ(撮像カメラ2,赤
外線センサ3,マイク5,タッチセンサ7)データを読
み込み、読み込んだセンサデータ中のユーザ特徴量を算
出する(ステップS2)。次のステップS3では、ステ
ップS2で求めたユーザ特徴量と、記憶処理部31に記
憶されている各ユーザの特徴データとを比較して該当す
るユーザがユーザ番号何番のユーザであるかを特定し、
そのユーザの特徴データに対しての認識度がどの程度で
あるかを算出する。 【0024】次のステップS4では、当該ユーザに対す
る前回の接触時からの経過時間が閾値(例えば3日)よ
り短いか長いかを判定し、短い場合にはステップS5に
進んで、ステップS2で求めたユーザ特徴量を記憶処理
部31の特徴データに追加する。これにより、ペット型
ロボットは学習効果を得ることができる。そして、感情
モデルに基づいて上述した様にして特徴的行為を決定し
(ステップS6)、基本行動パターンで決まる動作に特
徴的行為を付加して行動パターンを決定して各多関節駆
動部を駆動し、ペット型ロボット1に感情動作を表現さ
せる(ステップS7)。 【0025】ステップS4で、経過時間が閾値より長い
と判定した場合には、ステップS8に進み、記憶処理部
31に格納されている当該ユーザの特徴データを削除し
たり、あるいは感情モデルで使用する係数値のいずれか
を初期値にリセットし、ステップS6に進んで、削除し
た特徴データやリセットした係数値に基づいて特徴的行
為を決定し、この特徴的行為により感情動作を表現させ
る(ステップS7)。これにより、ユーザが長期間ペッ
ト型ロボットに接触しなかったときのなつき度を低下さ
せることができ、ペット型ロボットのエンタテインメン
ト性を高めることが可能となる。 【0026】尚、上述した実施形態では、ステップS4
で閾値を経過時間と比較して記憶強化処理(ステップS
5)と忘却処理(ステップS8)とを二者択一で選択し
たが、記憶強化の場合には経過時間の大小に応じてユー
ザ特徴量データの新規追加の重み付けを変化させる処理
を行い、忘却処理の場合には少しずつユーザの特徴デー
タの削除を行うという処理を行い、ペット型ロボットの
ユーザ認識/記憶の程度をより詳細に変化させることで
もよい。 【0027】また、忘却処理としては、記憶処理手段3
1内に蓄積されたユーザ特徴データを実際に削除する
他、実際には削除せずに、上述したように感情モデルの
係数値を一時的に減少させたり、他の方法によってユー
ザ特徴データそのものを感情行動表現に直接反映させな
い様にする方法も考えられる。 【0028】 【発明の効果】本発明によれば、ユーザが長期間に渡っ
て接触しなかったとき当該ユーザに関する記憶データを
忘却させるため、より実際のペットの行動を模擬させる
ことができ、ペット型ロボットのエンタテインメント性
を向上させることが可能となる。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pet-type robot, and more particularly to a pet-type robot that can change emotional behavior according to the “degree of familiarity” for a user. [0002] Pet-type robots have become widespread, and further development of pet-type robots that can take actions close to actual pets is desired. For this reason, for example, when the conventional pet type robot described in Japanese Patent Laid-Open No. 2001-51970 recognizes whether or not the user is a user from the face image of the user captured by the camera, it is simply one of yes and no. Instead of recognizing in the above, the user recognition level increases as the number of times the user touches the pet type robot increases, and the higher the recognition level, the more the emotional behavior associated with the pet type robot is performed. I try to simulate it. [0003] In the conventional pet type robot described above, the more the user loves the pet type robot, the more the pet type robot takes the emotional action corresponding to the pet type robot. It is also easier to empathize with pet-type robots. However, since the conventional pet type robot has only one direction of increase in the degree of recognition of the user, even if the user touches the pet type robot after leaving it for a long time, the pet type robot is There is a problem that the user takes the same emotional behavior, and as a result, the user is less willing to contact the pet-type robot frequently and continuously and gets bored with the pet-type robot. An object of the present invention is to provide a pet-type robot that allows a user to frequently and continuously contact without getting bored. An object of the present invention is to provide a pet-type robot comprising storage means for accumulating information on the user in contact and control means for causing the user to perform a slacking action according to the accumulated data. In the above, the present invention is achieved by providing means for measuring the frequency of contact of the user and means for forgetting the accumulated data according to the frequency of contact and reducing the level of the smoothing action. The present invention is configured as described above, so that when the user has not been indirect to the pet-type robot for a long time, the pet-type robot forgets the data for the user stored in the pet-type robot. Since the pet-type robot performs the corresponding slapping action, the user can have a willingness to contact the pet-type robot frequently and continuously so that he / she can not forget it. DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is an external view of a pet type robot according to an embodiment of the present invention. This pet-type robot 1 has a dog shape, an imaging camera 2 and an infrared sensor 3 are mounted on the face, a microphone 5 (see FIG. 2) is mounted on the ear 4, and a speaker is mounted on the mouth. 6 (see FIG. 2) is mounted, and touch sensors 7 (see FIG. 2) and the like are mounted on various parts of the body. In addition, ear 4 and limbs 8a, 8
b, ..., neck 9, tail 10, etc. are each articulated, and in addition to various basic behavior patterns such as walking, sitting, ringing, playing, etc., it can take emotional actions such as pampering and kneading according to the degree of emotion It is like that. FIG. 2 is a block diagram of the electric control system of the pet type robot shown in FIG. The control device 20 of the pet-type robot includes a face information detection unit 21 that detects face information from imaging information of the imaging camera 2, a motion information detection unit 22 that detects movement of a subject image from imaging information of the imaging camera 2, and a microphone. 5, an audio information detection unit 23 that detects information collected at 5, a surrounding environment detection unit 24 that detects information about the surrounding environment from input information of the imaging camera 2, the microphone 5, and the infrared sensor 3, and detection by the touch sensor 7. A tactile information detection unit 25 that detects a state of being touched by the body from the signal, and each of these detection units 21 to 21
A recognition processing unit 30 that captures 25 detection results and performs recognition processing. Further, the control device 20 stores information on various emotion models and various basic behavior patterns of the pet-type robot, and stores and updates characteristic data for each user recognized by the recognition processing unit 30. 31 and the action of the pet-type robot is determined based on the basic action pattern read from the storage processing unit 31 based on the recognition result of the recognition processing unit 30 (for example, the basic action pattern of approaching the user in response to the user's call). An action determination unit 32;
Based on the emotion model read from the storage processing unit 31 and the recognition result of the recognition processing unit 30, an emotion generation unit 33 that generates an emotion of the pet-type robot, and features based on the emotion generated by the emotion generation unit 33 A characteristic action generation unit 34 that generates a specific action and corrects the action determined by the action determination unit 32 with the characteristic action. Furthermore, the control device 20 takes in the count values of the built-in battery remaining amount detection unit 11 and the built-in clock 12 and processes the internal information to determine whether or not the current battery charge is necessary and the current time. A user who uses the internal information processing unit 35 to know and the count value of the built-in clock 12 to store the contact frequency for each user as will be described later, and uses this frequency information to determine the coefficient value of the emotion model or basic action pattern to be used. And another frequency storage unit 36. And according to the action pattern determined by the control device 20, the speaker 6 is sounded to drive the ear 4, neck 9, tail 10, limbs 8a ... 8d. The pet-type robot 1 having such a configuration is currently in contact with itself (not only touching the touch sensor 7,
(Including contact by voice and contact where the face approaches within a predetermined distance) to capture the characteristics of the person's face, and to acquire the voice information to extract the characteristics of the voiceprint,
These feature data are labeled with “user number 1” and stored in the storage processing unit 31, and are first stored in the user-specific frequency storage unit 36 as the contact frequency rank “10”. In addition, for another person who is determined to have characteristic data different from the person of user number 1, a different user number is allocated and the characteristic data is stored in the storage processing unit 31, and the contact frequency rank is stored in the frequency for each user. Store in the unit 36. Each time contact from the same person is frequently made, the amount of feature data related to the person stored in the storage processing unit 31 increases, and the recognition rate for the person is improved. Also, the person's angry face and laughing face can be distinguished and recognized, and the angry voice and laughing voice can be distinguished and recognized. Similarly, the frequency storage unit 3 for each user with respect to the person by frequent contact.
The contact frequency rank stored in 6 also increases from “rank 10” to “rank 9” “rank 8”. When the current user recognition rate is high and the contact frequency of the user with the pet-type robot is high, for example, for a basic action pattern of jerking action, a screaming call is made with respect to the user's call. By adding the characteristic action, it becomes possible to simulate an operation that is good for the user (an operation with a high degree of familiarity). Or, even if it is an action to be played, an action that is actively played to a user with a high contact frequency rank for each user is added as a characteristic action to an action that is annoying. It is possible to simulate a gentle operation. In order to add such a characteristic action, in the pet type robot 1 of this embodiment, the emotion generation unit 33
An emotion that causes the pet-type robot 1 to express an action is generated from the recognition result of the recognition processing unit 30 and the emotion model read from the storage processing unit 31, and a characteristic action corresponding to the generated emotion is represented as a characteristic action generation unit 34. Generated by the action determination unit 3
The motion determined in 2 is corrected by a characteristic action to simulate the sluggish motion. The emotion model read out from the memory processing unit 31 to the emotion generation unit 33 is an emotion recognized by the recognition processing unit 30, for example, an emotion of being angry when it is determined that the user has an angry face. The corresponding emotion model is read out. The emotion model is modeled, for example, as a multinomial calculation formula. As the coefficient value of each term of this calculation formula, the larger the user recognition rate, the greater the value. For example, a coefficient value for face recognition, a coefficient value for voice recognition, and a coefficient value for user gesture recognition are prepared as coefficient values. “10” is set as the coefficient value when the user recognition level is the lowest in 10 levels. Such an emotion model with a coefficient value is read out to the emotion generation unit 33, and a characteristic action is added to the action determined by the basic action pattern at that time, so that a user who frequently contacts the user is contacted. On the other hand, it is possible to cause the pet-type robot 1 to take emotional actions with a high degree of emotional expression corresponding to the various actions of the user (legming action). Here, when the user does not contact the pet-type robot 1 for a long time, the pet-type robot 1 according to the present embodiment is less sensitive to the user. The control for lowering the degree of smoothness is performed by lowering the contact frequency rank for each user stored in the frequency storage unit 36 for each user. For example, if a user whose contact frequency rank is “10” does not touch for a long time, the rank is set to 5
The rank is lowered to “5”, thereby lowering the coefficient value of each term described above by 10 in 10 steps. As a result, the expressive power of the characteristic action by the emotion model is reduced, and the degree of familiarity is reduced. Alternatively, when the contact frequency rank is lowered without the user having been in contact for a long time, for example, only the feature data of the user performing face recognition stored in the storage processing unit 31 is discarded, or the emotion model Among them, the coefficient value corresponding to the face recognition degree is temporarily reset to the initial value “1”, and the pet-type robot 1 is temporarily forgotten. By performing such control to reduce the degree of smoothness,
The user can have a willingness to contact the pet-type robot frequently and continuously so as not to be forgotten. FIG. 3 is a flowchart showing the processing procedure of the control device 20 for controlling the above-mentioned smoothness. First, in step S1, various types of sensor (imaging camera 2, infrared sensor 3, microphone 5, touch sensor 7) data are read, and user feature amounts in the read sensor data are calculated (step S2). In the next step S3, the user feature amount obtained in step S2 is compared with the feature data of each user stored in the storage processing unit 31, and the user number corresponding to the corresponding user is identified. And
The degree of recognition of the user's feature data is calculated. In the next step S4, it is determined whether the elapsed time from the previous contact with the user is shorter or longer than a threshold value (for example, 3 days), and if it is shorter, the process proceeds to step S5 and obtained in step S2. The added user feature amount is added to the feature data of the storage processing unit 31. Thereby, the pet-type robot can obtain a learning effect. Then, the characteristic action is determined as described above based on the emotion model (step S6), and the action pattern is determined by adding the characteristic action to the action determined by the basic action pattern to drive each multi-joint drive unit. Then, the pet-type robot 1 is caused to express emotional motion (step S7). If it is determined in step S4 that the elapsed time is longer than the threshold value, the process proceeds to step S8 where the feature data of the user stored in the storage processing unit 31 is deleted or used in the emotion model. One of the coefficient values is reset to an initial value, and the process proceeds to step S6, where a characteristic action is determined based on the deleted characteristic data or the reset coefficient value, and emotional motion is expressed by this characteristic action (step S7). ). As a result, it is possible to reduce the degree of slack when the user has not touched the pet-type robot for a long time, and it is possible to improve the entertainment properties of the pet-type robot. In the above-described embodiment, step S4 is performed.
In step S, the threshold value is compared with the elapsed time.
5) and the forgetting process (step S8) are selected either, but in the case of memory strengthening, a process for changing the weight of newly added user feature data according to the magnitude of the elapsed time is performed to forget In the case of processing, it may be possible to change the degree of user recognition / memory of the pet-type robot in more detail by performing processing of deleting feature data of the user little by little. As the forgetting process, the storage processing means 3
In addition to actually deleting the user feature data stored in 1, the coefficient value of the emotion model is temporarily reduced as described above without actually deleting it, or the user feature data itself is There is also a way to prevent it from being directly reflected in emotional behavioral expressions. According to the present invention, when the user does not touch for a long period of time, the stored data relating to the user is forgotten, so that the actual behavior of the pet can be more simulated. It is possible to improve the entertainment characteristics of the robot.

【図面の簡単な説明】 【図1】本発明の一実施形態に係るペット型ロボットの
外観図である。 【図2】図1に示すペット型ロボットの制御装置の構成
図である。 【図3】図1に示す制御装置の処理手順の一例を示すフ
ローチャートである。 【符号の説明】 2 撮像カメラ 5 マイク 7 タッチセンサ 20 制御装置 30 認識処理部 31 記憶処理部 32 行動決定部 33 感情生成部 34 特徴行為生成部 36 ユーザ別頻度記憶部
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is an external view of a pet-type robot according to an embodiment of the present invention. FIG. 2 is a configuration diagram of a control device for the pet type robot shown in FIG. 1; FIG. 3 is a flowchart showing an example of a processing procedure of the control device shown in FIG. 1; [Explanation of Symbols] 2 Imaging Camera 5 Microphone 7 Touch Sensor 20 Control Device 30 Recognition Processing Unit 31 Storage Processing Unit 32 Action Determination Unit 33 Emotion Generation Unit 34 Characteristic Action Generation Unit 36 User-Specific Frequency Storage Unit

Claims (1)

【特許請求の範囲】 【請求項1】 接するユーザの情報を蓄積する記憶手段
と、該ユーザに対するなつき動作を前記蓄積したデータ
に応じて行わせる制御手段とを備えるペット型ロボット
において、前記ユーザの接する頻度を計測する手段と、
前記接する頻度に応じ前記蓄積したデータを忘却させて
前記なつき動作のなつき度を低下させる手段とを設けた
ことを特徴とするペット型ロボット。
What is claimed is: 1. A pet-type robot comprising storage means for accumulating information on a user in contact with the user and control means for performing a sniffing operation on the user according to the accumulated data. Means for measuring the frequency of contact;
A pet-type robot provided with means for forgetting the accumulated data in accordance with the contact frequency and reducing the degree of the hitting action.
JP2002003413A 2002-01-10 2002-01-10 Pet type robot Pending JP2003205179A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002003413A JP2003205179A (en) 2002-01-10 2002-01-10 Pet type robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002003413A JP2003205179A (en) 2002-01-10 2002-01-10 Pet type robot

Publications (1)

Publication Number Publication Date
JP2003205179A true JP2003205179A (en) 2003-07-22

Family

ID=27643014

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002003413A Pending JP2003205179A (en) 2002-01-10 2002-01-10 Pet type robot

Country Status (1)

Country Link
JP (1) JP2003205179A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006023952A (en) * 2004-07-07 2006-01-26 Sony Corp Robot device and its content management method
JPWO2005099971A1 (en) * 2004-04-16 2007-08-16 松下電器産業株式会社 Robot, hint output device, robot control system, robot control method, robot control program, and integrated circuit
JP2009136967A (en) * 2007-12-06 2009-06-25 Honda Motor Co Ltd Communication robot
JP2011115932A (en) * 2009-12-02 2011-06-16 Phison Electronics Corp Emotion engine, emotion engine system, and method of controlling electronic device
JP2012519501A (en) * 2009-03-05 2012-08-30 ステレンボッシュ ユニバーシティ A toy showing nostalgic behavior
JP2016215292A (en) * 2015-05-15 2016-12-22 Kddi株式会社 Robot operation creation device and program
JP2017063359A (en) * 2015-09-25 2017-03-30 シャープ株式会社 Network system, apparatus, and server
WO2018084170A1 (en) * 2016-11-07 2018-05-11 Groove X株式会社 Autonomous robot that identifies persons
WO2024014824A1 (en) * 2022-07-11 2024-01-18 한양대학교 에리카산학협력단 Pet robot apparatus based on identity authentication using voice recognition, and method for operating same

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2005099971A1 (en) * 2004-04-16 2007-08-16 松下電器産業株式会社 Robot, hint output device, robot control system, robot control method, robot control program, and integrated circuit
JP4595407B2 (en) * 2004-07-07 2010-12-08 ソニー株式会社 Robot apparatus and content management method thereof
JP2006023952A (en) * 2004-07-07 2006-01-26 Sony Corp Robot device and its content management method
US8010231B2 (en) 2007-12-06 2011-08-30 Honda Motor Co., Ltd. Communication robot
JP4560078B2 (en) * 2007-12-06 2010-10-13 本田技研工業株式会社 Communication robot
JP2009136967A (en) * 2007-12-06 2009-06-25 Honda Motor Co Ltd Communication robot
JP2012519501A (en) * 2009-03-05 2012-08-30 ステレンボッシュ ユニバーシティ A toy showing nostalgic behavior
JP2011115932A (en) * 2009-12-02 2011-06-16 Phison Electronics Corp Emotion engine, emotion engine system, and method of controlling electronic device
JP2016215292A (en) * 2015-05-15 2016-12-22 Kddi株式会社 Robot operation creation device and program
JP2017063359A (en) * 2015-09-25 2017-03-30 シャープ株式会社 Network system, apparatus, and server
WO2018084170A1 (en) * 2016-11-07 2018-05-11 Groove X株式会社 Autonomous robot that identifies persons
JPWO2018084170A1 (en) * 2016-11-07 2019-02-28 Groove X株式会社 Autonomous robot that identifies people
WO2024014824A1 (en) * 2022-07-11 2024-01-18 한양대학교 에리카산학협력단 Pet robot apparatus based on identity authentication using voice recognition, and method for operating same

Similar Documents

Publication Publication Date Title
JP4576715B2 (en) ROBOT DEVICE, ROBOT DEVICE CONTROL METHOD, AND PROVIDING MEDIUM
JP7400923B2 (en) Information processing device and information processing method
EP1508409A1 (en) Robot device and robot control method
KR20010095176A (en) Robot and action deciding method for robot
JP2009131928A (en) Robot control system, robot, program and information recording medium
US11675360B2 (en) Information processing apparatus, information processing method, and program
JP2003205179A (en) Pet type robot
US11938625B2 (en) Information processing apparatus, information processing method, and program
JP2003340760A (en) Robot device and robot control method, recording medium and program
CN110625608A (en) Robot, robot control method, and storage medium
JP2001157980A (en) Robot device, and control method thereof
WO2023037608A1 (en) Autonomous mobile body, information processing method, and program
WO2023037609A1 (en) Autonomous mobile body, information processing method, and program
JP5602753B2 (en) A toy showing nostalgic behavior
JP2003136451A (en) Robot device and control method thereof