JP2003305674A - Robot device, robot control method, recording medium and program - Google Patents

Robot device, robot control method, recording medium and program

Info

Publication number
JP2003305674A
JP2003305674A JP2002108909A JP2002108909A JP2003305674A JP 2003305674 A JP2003305674 A JP 2003305674A JP 2002108909 A JP2002108909 A JP 2002108909A JP 2002108909 A JP2002108909 A JP 2002108909A JP 2003305674 A JP2003305674 A JP 2003305674A
Authority
JP
Japan
Prior art keywords
unit
content
robot
voice recognition
pet robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002108909A
Other languages
Japanese (ja)
Inventor
Satoshi Ozaki
悟士 尾崎
Hideki Noma
英樹 野間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002108909A priority Critical patent/JP2003305674A/en
Publication of JP2003305674A publication Critical patent/JP2003305674A/en
Withdrawn legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To realize a pet robot capable of actively executing autonomous action immediately after starting. <P>SOLUTION: Figure 14 shows the actual operation image of contents by the pet robot 1 for realizing the ideal change of a user's degree of interest, that is, the pet robot 1 is put in a Wake Up mode where rather large contents including contents corresponding to the time and date and season are continuously manifested for a prescribed time after starting, then put in a Vivid mode where rather large contents are autonomously manifested for a subsequent prescribed time, and then put in a first to a third Break modes where rather small contents are manifested for a prescribed time each. The first to third Break modes and Vivid mode are periodically repeated as shown. This constitution can be applied to a pet robot for entertainment, for instance. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、ロボット装置およ
びロボット制御方法、記録媒体、並びにプログラムに関
し、例えば、発現するコンテンツの選択や発現頻度を自
律的に決定するようにしたロボット装置およびロボット
制御方法、記録媒体、並びにプログラムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot device, a robot control method, a recording medium, and a program, and, for example, a robot device and a robot control method for autonomously determining selection of contents to be expressed and expression frequency. , A recording medium, and a program.

【0002】[0002]

【従来の技術】近年、例えば、周囲の環境や自らの内部
状態に応じて自律的に各種の行動を実行するエンターテ
イメント用のペットロボットが実現されている。
2. Description of the Related Art In recent years, for example, pet pet robots for entertainment have been realized which autonomously perform various actions in accordance with the surrounding environment and the internal state of the pet.

【0003】ペットロボットは、上述した自律的に行動
する機能の他、ユーザの発声を音声認識し、その認識結
果に対応して行動する機能を有しているものがある。
Some pet robots have a function of recognizing a user's voice by voice and acting according to the recognition result, in addition to the above-mentioned function of autonomously acting.

【0004】[0004]

【発明が解決しようとする課題】ところで、ペットロボ
ットが自律的に行動しているときには、自律行動を決定
するためや動作制御のためにリソースが多く用いられた
り、関節などに設けられるアクチュエータの動作音など
が雑音となったりすることに起因して、音声の認識率が
低下してしまい、ユーザの発声に対応して速やかに動作
させることができない。
By the way, when the pet robot behaves autonomously, many resources are used for determining autonomous behavior and for motion control, and the motion of an actuator provided at a joint or the like. Since the sound or the like becomes noise, the recognition rate of the voice is lowered, and it is not possible to promptly operate in response to the user's utterance.

【0005】そこで、自律的に行動する機能と音声認識
機能とを有する従来のペットロボットは、自律的に行動
する機能を優先させて音声認識の認識率の低下を許容す
るか(すなわち、自律的に行動する機能を優先させた性
格)、または自律的に行動する機能を抑制して音声認識
の認識率を向上させるか(すなわち、音声認識を優先さ
せた性格)のいずれかに性格付けられている。
Therefore, does the conventional pet robot having the function of autonomously acting and the voice recognition function allow the reduction of the recognition rate of the voice recognition by giving priority to the function of autonomously acting (that is, autonomously? Character that prioritizes the function to act on), or suppresses the function that acts autonomously to improve the recognition rate of speech recognition (that is, character that prioritizes speech recognition). There is.

【0006】ユーザは、自律的に行動する機能を優先さ
せた性格のペットロボットに対し、「言うことを聞かな
いで動き回っているので疎ましい」と感じてしまうこと
がある。また、音声認識を優先させた性格のペットロボ
ットに対し、「あまり動かないのでおもしろくない」と
感じてしまうことがある。
[0006] A user sometimes feels that he / she is ignorant of a pet robot having a personality in which the function of autonomously acting is prioritized. In addition, a pet robot having a personality in which voice recognition is prioritized may feel that it is “not interesting because it does not move much”.

【0007】そこで、自律的に行動する機能を優先させ
た状態と、音声認識を優先させた状態とを適宜遷移する
ペットロボットの存在が望まれるが、従来そのようなペ
ットロボットは存在していない課題があった。
Therefore, there is a demand for a pet robot that appropriately transitions between a state in which the function of autonomous behavior is prioritized and a state in which voice recognition is prioritized, but there is no such pet robot in the past. There were challenges.

【0008】また、自律的に行動する機能を有する従来
のペットロボットは、起動直後の期間は自律的な行動が
乏しく、その後、徐々に自律的な行動が盛んとなる(動
作の大きくなる、頻度が高くなる等)ので、起動後の自
律的な行動が乏しい期間に、ペットロボットに対するユ
ーザの興味が減衰してしまう課題があった。
Further, in the conventional pet robot having the function of autonomously acting, the autonomous behavior is scarce in the period immediately after the activation, and thereafter the autonomous behavior gradually becomes active (the movement becomes large, the frequency becomes large). Therefore, there is a problem that the user's interest in the pet robot is diminished during the period when the autonomous behavior after activation is scarce.

【0009】本発明はこのような状況に鑑みてなされた
ものであり、起動直後に自律的な行動を活発に実行する
ことができるペットロボットを実現することを目的とす
る。
The present invention has been made in view of such a situation, and an object thereof is to realize a pet robot capable of actively executing an autonomous action immediately after starting.

【0010】[0010]

【課題を解決するための手段】本発明のロボット装置
は、予め設定されている複数のコンテンツの中から1つ
のコンテンツを選択する選択手段と、選択手段によって
選択されたコンテンツを発現する発現手段とを含み、選
択手段は、起動後の所定の期間において大きめのコンテ
ンツを選択し、発現手段は、選択手段によって選択され
たコンテンツを、起動後の所定の期間において高い頻度
で発現することを特徴とする。
A robot apparatus according to the present invention comprises a selection means for selecting one content from a plurality of preset contents, and an expression means for expressing the content selected by the selection means. Wherein the selecting means selects a large content in a predetermined period after starting, and the expressing means expresses the content selected by the selecting means at a high frequency in the predetermined period after starting. To do.

【0011】前記選択手段は、季節、日付、および時刻
のうち、少なくとも1つに対応するコンテンツを選択す
るようにすることができる。
[0011] The selecting means may select content corresponding to at least one of season, date, and time.

【0012】前記選択手段は、前回の終了時から今回の
起動時までの期間、設定される感情および欲求のうちの
少なくとの1つに対応して、コンテンツを選択するよう
にすることができる。
[0012] The selecting means can select the content corresponding to at least one of the emotion and the desire to be set during the period from the end of the previous time to the start of the present time. .

【0013】前記発現手段は、前回の終了時から今回の
起動時までの期間、設定される感情および欲求のうちの
少なくとの1つに対応して、コンテンツの発現頻度を調
整するようにすることができる。
The expression means adjusts the expression frequency of the content in response to at least one of the emotion and desire set during the period from the end of the previous time to the start of the present time. be able to.

【0014】本発明のロボット装置は、ユーザの発声を
認識する音声認識手段と、ユーザの接触を検知する検知
手段とをさらに含むことができる。
The robot apparatus according to the present invention may further include voice recognition means for recognizing the user's utterance, and detection means for detecting the user's contact.

【0015】前記選択手段は、音声認識手段による音声
認識の頻度、および検知手段によるユーザの接触の頻度
の少なくとも一方に対応して、コンテンツを選択するよ
うにすることができる。
The selection means may select the content in accordance with at least one of the frequency of voice recognition by the voice recognition means and the frequency of contact of the user by the detection means.

【0016】前記発現手段は、音声認識手段によって音
声認識がなされたこと、および検知手段によってユーザ
の接触が検知されたことをユーザに通知する通知手段を
含むようにすることができる。
The expression means may include notifying means for notifying the user that the voice recognition has been performed by the voice recognition means and the contact of the user has been detected by the detection means.

【0017】前記音声認識手段は音階も認識するように
することができる。
The voice recognition means can also recognize a scale.

【0018】前記選択手段は、音声認識手段によって所
定の音階が認識された場合、所定のコンテンツを選択す
るようにすることができる。
The selecting means may select a predetermined content when a predetermined scale is recognized by the voice recognition means.

【0019】本発明のロボット装置は、音声認識手段に
よって所定の音階が認識された場合、発現可能なコンテ
ンツを追加する追加手段をさらに含むことができる。
The robot apparatus according to the present invention may further include an adding means for adding the content that can be expressed when the predetermined scale is recognized by the voice recognizing means.

【0020】本発明のロボット装置は、音声認識手段に
よって所定の音階が認識された場合、認識された音階に
対応する応答としての音階を出力する出力手段をさらに
含むことができる。
The robot apparatus according to the present invention may further include output means for outputting a scale as a response corresponding to the recognized scale when the predetermined scale is recognized by the voice recognition means.

【0021】本発明のロボット装置は、画像信号を取得
する取得手段と、取得手段によって取得された画像信号
に基づいて動体を検知する検知手段と、検知手段の検知
結果に対応して、取得手段によって取得された画像信号
を保存する保存手段とをさらに含むことができる。
The robot apparatus of the present invention comprises an acquisition means for acquiring an image signal, a detection means for detecting a moving body based on the image signal acquired by the acquisition means, and an acquisition means corresponding to the detection result of the detection means. And a storage unit for storing the image signal acquired by.

【0022】本発明のロボット制御方法は、予め設定さ
れている複数のコンテンツの中から1つのコンテンツを
選択する選択ステップと、選択ステップの処理で選択さ
れたコンテンツを発現する発現ステップとを含み、選択
ステップの処理は、起動後の所定の期間において大きめ
のコンテンツを選択し、発現ステップの処理は、選択ス
テップの処理で選択されたコンテンツを、起動後の所定
の期間において高い頻度で発現することを特徴とする。
The robot control method of the present invention includes a selection step of selecting one content from a plurality of preset contents, and an expression step of expressing the content selected in the processing of the selection step. The process of the selection step selects a large content in a predetermined period after the start, and the process of the expression step expresses the content selected in the process of the selection step at a high frequency in the predetermined period after the start. Is characterized by.

【0023】本発明の記録媒体のプログラムは、予め設
定されている複数のコンテンツの中から1つのコンテン
ツを選択する選択ステップと、選択ステップの処理で選
択されたコンテンツを発現する発現ステップとを含み、
選択ステップの処理は、起動後の所定の期間において大
きめのコンテンツを選択し、発現ステップの処理は、選
択ステップの処理で選択されたコンテンツを、起動後の
所定の期間において高い頻度で発現することを特徴とす
る。
The program of the recording medium of the present invention includes a selection step of selecting one content from a plurality of preset contents, and an expression step of expressing the content selected in the processing of the selection step. ,
The process of the selection step selects a large content in a predetermined period after the start, and the process of the expression step expresses the content selected in the process of the selection step at a high frequency in the predetermined period after the start. Is characterized by.

【0024】本発明のプログラムは、予め設定されてい
る複数のコンテンツの中から1つのコンテンツを選択す
る選択ステップと、選択ステップの処理で選択されたコ
ンテンツを発現する発現ステップとをコンピュータに実
行させ、選択ステップの処理は、起動後の所定の期間に
おいて大きめのコンテンツを選択し、発現ステップの処
理は、選択ステップの処理で選択されたコンテンツを、
起動後の所定の期間において高い頻度で発現することを
特徴とする。
The program of the present invention causes a computer to execute a selection step of selecting one content from a plurality of preset contents and an expression step of expressing the content selected in the processing of the selection step. , The processing of the selection step selects a large content in a predetermined period after activation, and the processing of the expression step selects the content selected in the processing of the selection step,
It is characterized in that it is frequently expressed in a predetermined period after activation.

【0025】本発明のロボット装置、ロボット制御方
法、並びにプログラムにおいては、予め設定されている
複数のコンテンツの中から1つのコンテンツが選択さ
れ、選択されたコンテンツが発現される。選択の処理
は、起動後の所定の期間において大きめのコンテンツが
選択し、発現の処理は、選択されたコンテンツが、起動
後の所定の期間において高い頻度で発現される。
In the robot apparatus, the robot control method, and the program of the present invention, one content is selected from among a plurality of preset contents, and the selected content is expressed. In the selection process, a large content is selected in a predetermined period after activation, and in the expression process, the selected content is expressed with high frequency in a predetermined period after activation.

【0026】[0026]

【発明の実施の形態】図1は、本発明を適用したペット
ロボット1の外観構成の例を示す斜視図である。
1 is a perspective view showing an example of the external configuration of a pet robot 1 to which the present invention is applied.

【0027】例えば、ペットロボット1は、4本足の小
熊形状のものとされており、胴体部ユニット2の前後左
右に、それぞれ脚部ユニット3A,3B,3C,3Dが
連結されるとともに、胴体部ユニット2の前端部と後端
部に、それぞれ頭部ユニット4と尻尾部ユニット5が連
結されている。
For example, the pet robot 1 has a four-legged bear shape, and the leg units 3A, 3B, 3C, 3D are connected to the front, rear, left, and right of the body unit 2, respectively, and the body is The head unit 4 and the tail unit 5 are connected to the front end and the rear end of the sub unit 2, respectively.

【0028】図2は、図1のペットロボット1の内部構
成の例を示すブロック図である。胴体部ユニット2に
は、ペットロボット1の全体を制御するコントローラ1
0、ペットロボット1の各部に電力を供給するバッテリ
11、並びにバッテリセンサ12、および熱センサ13
からなる内部センサ14などが格納されている。このコ
ントローラ10には、基本的に、CPU(Central Processi
ng Unit)10A、CPU10Aが各部を制御するためのプ
ログラムが記憶されているメモリ10B、および現在の
日時、起動後の経過時間等を示す時計10Cが設けられ
ている。
FIG. 2 is a block diagram showing an example of the internal configuration of the pet robot 1 of FIG. The body unit 2 includes a controller 1 that controls the entire pet robot 1.
0, a battery 11 for supplying electric power to each part of the pet robot 1, a battery sensor 12, and a heat sensor 13.
The internal sensor 14 and the like are stored. This controller 10 basically has a CPU (Central Processi).
ng Unit) 10A, a memory 10B in which a program for the CPU 10A to control each unit is stored, and a clock 10C indicating the current date and time, the elapsed time after activation, and the like.

【0029】図2に示すように、頭部ユニット4には、
外部からの刺激を感知するセンサとして、音を感知する
「耳のような聴覚器官」に相当するマイクロフォン1
5、CCD(Charge Coupled Device)やCMOS(Complementary
Metal Oxide Semiconductor)イメージセンサなどから
構成され、外部の画像信号を取得する「目のような視覚
器官」に相当するカメラ16、およびユーザが接触する
ことによる圧力等を感知する「肌等のような触覚器官」
に相当するタッチセンサ17が、それぞれ所定の位置に
設けられている。また、頭部ユニット4には、対象物ま
での距離を測定する位置検出センサ18、および所定の
音階を出力するペットロボット1の「口のような発声器
官」に相当するスピーカ19が所定の位置に設置されて
いる。
As shown in FIG. 2, the head unit 4 includes
Microphone 1 corresponding to an "auditory organ like an ear" that senses sound as a sensor that senses an external stimulus
5. CCD (Charge Coupled Device) and CMOS (Complementary
Metal Oxide Semiconductor) A camera 16 which is composed of an image sensor or the like and corresponds to a “visual organ like an eye” that acquires an external image signal, and a “skin like a skin” that senses pressure or the like caused by contact with a user. Tactile organ "
The touch sensors 17 corresponding to are provided at predetermined positions. Further, in the head unit 4, a position detection sensor 18 that measures a distance to an object, and a speaker 19 that corresponds to a "speech-like organ" of the pet robot 1 that outputs a predetermined scale are provided at predetermined positions. It is installed in.

【0030】脚部ユニット3A乃至3Dのそれぞれの関
節部分、脚部ユニット3A乃至3Dのそれぞれと胴体部
ユニット2の連結部分、頭部ユニット4と胴体部ユニッ
ト2の連結部分、並びに尻尾部ユニット5と胴体部ユニ
ット2の連結部分などには、アクチュエータが設置され
ている。アクチュエータは、コントローラ10から指示
に基づいて各部を動作させる。
Joint portions of the leg units 3A to 3D, connecting portions of the leg units 3A to 3D and the body unit 2, connecting portions of the head unit 4 and the body unit 2, and a tail unit 5 An actuator is installed at a connecting portion between the body unit 2 and the body unit 2. The actuator operates each unit based on an instruction from the controller 10.

【0031】図2の例においては、脚部ユニット3Aに
は、アクチュエータ3AA1乃至3AAKが設けられ、脚
部ユニット3Bには、アクチュエータ3BA1乃至3B
Kが設けられている。また、脚部ユニット3Cには、
アクチュエータ3CA1乃至3CAKが設けられ、脚部ユ
ニット3Dには、アクチュエータ3DA1乃至3DA K
設けられている。さらに、頭部ユニット4には、アクチ
ュエータ4A1乃至4ALが設けられており、尻尾部ユニ
ット5には、アクチュエータ5A1および5A 2がそれぞ
れ設けられている。
In the example of FIG. 2, the leg unit 3A is
Is the actuator 3AA1Through 3AAKProvided with legs
The unit 3B includes an actuator 3BA1Through 3B
AKIs provided. Also, in the leg unit 3C,
Actuator 3CA1To 3 CAKIs installed on the leg
Actuator 3DA for knit 3D1Through 3DA KBut
It is provided. Furthermore, the head unit 4 is
Player 4A1Through 4ALIs provided and the tail uni
The actuator 5A1And 5A 2Is that
It is provided.

【0032】以下、脚部ユニット3A乃至3Dに設けら
れているアクチュエータ3AA1乃至3DAK、頭部ユニ
ット4に設けられているアクチュエータ4A1乃至4
L、および尻尾部ユニット5に設けられているアクチ
ュエータ5A1および5A2のそれぞれを個々に区別する
必要がない場合、適宜、まとめて、アクチュエータ3A
1乃至5A2と称する。
Hereinafter, actuators 3AA 1 to 3DA K provided on the leg units 3A to 3D and actuators 4A 1 to 4 provided on the head unit 4 will be described.
When it is not necessary to individually distinguish A L and the actuators 5A 1 and 5A 2 provided in the tail unit 5, the actuators 3A may be collectively referred to as appropriate.
A 1 to 5 A 2 .

【0033】さらに、脚部ユニット3A乃至3Dには、
アクチュエータの他にスイッチ3AB乃至3DBが、ペ
ットロボット1の足の裏に相当する場所に設置されてい
る。そして、ペットロボット1が歩行したとき、スイッ
チ3AB乃至3DBが押下され、それを表わす信号がコ
ントローラ10に入力されるようになされている。
Further, the leg units 3A to 3D include
In addition to the actuators, the switches 3AB to 3DB are installed at places corresponding to the soles of the feet of the pet robot 1. Then, when the pet robot 1 walks, the switches 3AB to 3DB are pressed, and a signal indicating that is input to the controller 10.

【0034】頭部ユニット4に設置されるマイクロフォ
ン15は、ユーザの発話を含む周囲の音声(音)を集音
し、得られた音声信号をコントローラ10に出力する。
カメラ16は、周囲の状況を撮像し、得られた画像信号
を、コントローラ10に出力する。タッチセンサ17
は、例えば、頭部ユニット4の上部に設けられており、
ユーザからの「撫でる」や「叩く」といった物理的な働
きかけにより受けた圧力を検出し、その検出結果を圧力
検出信号としてコントローラ10に出力する。位置検出
センサ18は、例えば、赤外線を出射し、その反射光を
受光したタイミングについての検出結果をコントローラ
10に出力する。
The microphone 15 installed in the head unit 4 collects ambient voice (sound) including the user's utterance and outputs the obtained voice signal to the controller 10.
The camera 16 images the surrounding situation and outputs the obtained image signal to the controller 10. Touch sensor 17
Is provided on the upper part of the head unit 4, for example,
The pressure received by a physical action such as “stroking” or “striking” from the user is detected, and the detection result is output to the controller 10 as a pressure detection signal. The position detection sensor 18 outputs, for example, infrared rays and outputs the detection result of the timing at which the reflected light is received to the controller 10.

【0035】コントローラ10は、マイクロフォン1
5、カメラ16、タッチセンサ17、および位置検出セ
ンサ18から与えられる音声信号、画像信号、圧力検出
信号等に基づいて、周囲の状況や、ユーザからの指令、
ユーザからの働きかけなどの有無を判断し、その判断結
果に基づいて、ペットロボット1が次に実行する動作を
決定する。そして、コントローラ10は、その決定に基
づいて、必要なアクチュエータを駆動させ、これによ
り、頭部ユニット4を上下左右に振らせたり、尻尾部ユ
ニット5を動かせたり、脚部ユニット3A乃至3Dのそ
れぞれを駆動して、ペットロボット1を歩行させるなど
の動作を実行させる。このようなペットロボット1の全
体的な一連の動作を、以下、コンテンツとも記述する。
The controller 10 is the microphone 1
5, based on the audio signal, the image signal, the pressure detection signal, etc. provided from the camera 16, the touch sensor 17, and the position detection sensor 18, the surrounding conditions and the command from the user,
Whether or not there is an action from the user is determined, and based on the result of the determination, the pet robot 1 determines the action to be performed next. Then, the controller 10 drives the necessary actuator based on the determination, thereby swinging the head unit 4 vertically and horizontally, moving the tail unit 5, and each of the leg units 3A to 3D. To drive the pet robot 1 to walk. The entire series of operations of the pet robot 1 as described above will also be described as content hereinafter.

【0036】その他にも、コントローラ10は、ペット
ロボット1の頭部ユニット4などに設けられた、図示し
ないLEDを点灯、消灯または点滅させるなどの処理を行
う。
In addition, the controller 10 performs processing such as turning on, off, or blinking an LED (not shown) provided on the head unit 4 of the pet robot 1 or the like.

【0037】図3は、図2のコントローラ10の機能的
構成例を示すブロック図である。なお、図3に示す各機
能は、CPU10Aがメモリ10Bに記憶されている制御
プログラムを実行されることによって実現される。
FIG. 3 is a block diagram showing a functional configuration example of the controller 10 of FIG. The functions shown in FIG. 3 are realized by the CPU 10A executing the control program stored in the memory 10B.

【0038】コントローラ10は、基本的に、外部から
の刺激を検知するセンサ(マイクロフォン15乃至位置
検出センサ18、およびスイッチ3AB乃至3DB)か
らの各種信号を検出するセンサ入力処理部31と、セン
サ入力処理部31により検出された情報等に基づいて、
ペットロボット1を動作させる情報処理部32から構成
されている。
The controller 10 basically includes a sensor input processing section 31 for detecting various signals from sensors (microphone 15 to position detection sensor 18 and switches 3AB to 3DB) for detecting an external stimulus, and a sensor input. Based on the information and the like detected by the processing unit 31,
The pet robot 1 is composed of an information processing unit 32 that operates.

【0039】センサ入力処理部31を構成する角度検出
部41は、アクチュエータ3AA1乃至5A2のそれぞれ
に設けられるモータが駆動されたとき、アクチュエータ
3AA1乃至5A2のそれぞれから通知される情報に基づ
いて、その角度を検出する。角度検出部41により検出
された角度情報は、情報処理部32の行動管理部62、
および音データ生成部66に出力される。
The angle detection section 41 constituting the sensor input processing section 31 is based on the information notified from each of the actuators 3AA 1 to 5A 2 when the motor provided in each of the actuators 3AA 1 to 5A 2 is driven. Then, the angle is detected. The angle information detected by the angle detection unit 41 is the action management unit 62 of the information processing unit 32,
And is output to the sound data generation unit 66.

【0040】音量検出部42は、マイクロフォン15か
ら供給される信号に基づいて、その音量を検出し、検出
した音量情報を行動管理部62、および音データ生成部
66に出力する。
The volume detecting section 42 detects the volume based on the signal supplied from the microphone 15, and outputs the detected volume information to the behavior management section 62 and the sound data generating section 66.

【0041】音声認識部43は、マイクロフォン15か
ら供給される音声信号について音声認識を行う。例え
ば、音声認識部43は、その音声認識結果としての、例
えば、「お話ししよう」、「歩け」、「伏せ」、「ボー
ルを追いかけろ」等の指令その他を、音声認識情報とし
て、本能・感情管理部61、行動管理部62、および音
データ生成部66に通知する。
The voice recognition unit 43 performs voice recognition on the voice signal supplied from the microphone 15. For example, the voice recognition unit 43 uses, as the voice recognition information, a command such as “let's talk”, “walk”, “prone”, “follow the ball” and the like as the voice recognition result. The unit 61, the behavior management unit 62, and the sound data generation unit 66 are notified.

【0042】画像認識部44は、カメラ16から供給さ
れる画像信号を用いて、画像認識を行う。例えば、画像
認識部44は、その処理の結果、例えば、「赤い丸いも
の」や、「地面に対して垂直な、かつ、所定の高さ以上
の平面」等を検出したときには、「ボールがある」や、
「壁がある」等の画像認識結果を画像認識情報として、
本能・感情管理部61、行動管理部62、および音デー
タ生成部66に通知する。
The image recognition unit 44 performs image recognition using the image signal supplied from the camera 16. For example, when the image recognition unit 44 detects "a red round object" or "a plane perpendicular to the ground and having a predetermined height or more" as a result of the processing, "there is a ball"",
The image recognition result such as "there is a wall" is used as the image recognition information.
The instinct / emotion management unit 61, the behavior management unit 62, and the sound data generation unit 66 are notified.

【0043】圧力検出部45は、タッチセンサ17から
与えられる圧力検出信号を処理する。例えば、圧力検出
部45は、その処理の結果、所定の閾値以上で、かつ、
短時間の圧力を検出したときには、「叩かれた(しから
れた)」と認識し、所定の閾値未満で、かつ、長時間の
圧力を検出したときには、「なでられた(ほめられ
た)」と認識して、その認識結果を、状態認識情報とし
て、本能・感情管理部61、行動管理部62、および音
データ生成部66に通知する。
The pressure detection unit 45 processes the pressure detection signal supplied from the touch sensor 17. For example, as a result of the processing, the pressure detection unit 45 is equal to or higher than a predetermined threshold value, and
When a short-time pressure is detected, it is recognized as "struck (exhausted)", and when a long-term pressure that is less than a predetermined threshold value is detected, "stroked (praised)" is detected. , ”And notifies the instinct / emotion management unit 61, the behavior management unit 62, and the sound data generation unit 66 of the recognition result as state recognition information.

【0044】位置検出部46は、位置検出センサ18か
ら供給される信号に基づいて、所定の対象物までの距離
を測定し、その距離情報を行動管理部62、および音デ
ータ生成部66に通知する。例えば、位置検出部46
は、目の前にユーザの手などが差し出されたとき、その
手までの距離や、画像認識部44により認識されたボー
ルまでの距離を検出する。
The position detecting section 46 measures the distance to a predetermined object based on the signal supplied from the position detecting sensor 18, and notifies the action managing section 62 and the sound data generating section 66 of the distance information. To do. For example, the position detector 46
Detects the distance to the hand and the distance to the ball recognized by the image recognition unit 44 when the user's hand or the like is extended in front of the eyes.

【0045】スイッチ入力検出部47は、ペットロボッ
ト1の足の裏に相当する部分に設けられているスイッチ
3AB乃至3DBから供給される信号に基づき、例え
ば、ペットロボット1が歩行している状態において、そ
の歩行タイミングや、ユーザにより足の裏が触られたこ
とを本能・感情管理部61、および行動管理部62に通
知する。
The switch input detection unit 47 is based on the signals supplied from the switches 3AB to 3DB provided in the portion corresponding to the sole of the foot of the pet robot 1, for example, when the pet robot 1 is walking. The instinct / emotion management unit 61 and the behavior management unit 62 are notified of the walking timing and the fact that the sole of the foot is touched by the user.

【0046】一方、情報処理部32を構成する本能・感
情管理部61は、ペットロボット1の本能、および感情
を管理し、所定のタイミングで、ペットロボット1の本
能を表わすパラメータや、感情を表わすパラメータを行
動管理部62、および音データ生成部66に出力する。
On the other hand, the instinct / emotion management unit 61 constituting the information processing unit 32 manages the instinct and emotion of the pet robot 1, and expresses the parameter and the emotion indicating the instinct of the pet robot 1 at a predetermined timing. The parameters are output to the behavior management unit 62 and the sound data generation unit 66.

【0047】ペットロボット1の本能を表わすパラメー
タや、感情を表わすパラメータ本能について、図4を参
照して説明する。図4に示すように、本能・感情管理部
61は、ペットロボット1の感情を表現する感情モデル
81と、本能を表現する本能モデル82を記憶し、管理
している。
A parameter representing the instinct of the pet robot 1 and a parameter instinct representing the emotion will be described with reference to FIG. As shown in FIG. 4, the instinct / emotion management unit 61 stores and manages an emotion model 81 expressing the emotion of the pet robot 1 and an instinct model 82 expressing the instinct.

【0048】感情モデル81は、例えば、「うれし
さ」、「悲しさ」、「怒り」、「驚き」、「恐れ」、
「嫌悪」等の感情の状態(度合い)を、所定の範囲(例
えば、0乃至100等)の感情パラメータによってそれ
ぞれ表し、音声認識部43、画像認識部44、および圧
力検出部45からの出力や時間経過等に基づいて、その
値を変化させる。
The emotion model 81 includes, for example, "joy", "sadness", "anger", "surprise", "fear",
The emotional state (degree) such as “disgust” is represented by emotion parameters in a predetermined range (for example, 0 to 100), and outputs from the voice recognition unit 43, the image recognition unit 44, and the pressure detection unit 45. The value is changed based on the passage of time.

【0049】この例においては、感情モデル81は、
「うれしさ」を表わす感情ユニット81A、「悲しさ」
を表わす感情ユニット81B、「怒り」を表わす感情ユ
ニット81C、「驚き」を表わす感情ユニット81D、
「恐れ」を表わす感情ユニット81E、および、「嫌
悪」を表わす感情ユニット81Fから構成されている。
In this example, the emotion model 81 is
Emotional unit 81A expressing "joy", "Sadness"
An emotional unit 81B that represents, an emotional unit 81C that represents "anger", an emotional unit 81D that represents "surprise",
The emotion unit 81E representing "fear" and the emotion unit 81F representing "dislike" are included.

【0050】本能モデル82は、例えば、「食欲」、
「睡眠欲」、「運動欲」等の本能による欲求の状態(度
合い)を、所定の範囲の本能パラメータによってそれぞ
れ表し、音声認識部43、画像認識部44、および圧力
検出部45等からの出力や時間経過等に基づいて、その
値を変化させる。また、本能モデル82は、行動履歴に
基づいて「運動欲」を表わすパラメータを高めたり、或
いは、バッテリ11の残量(電圧)に基づいて「食欲」
を表わすパラメータを高めたりする。
The instinct model 82 is, for example, “appetite”,
The states (degrees) of instinct desires such as “sleep desire” and “exercise desire” are represented by instinct parameters in a predetermined range, and output from the voice recognition unit 43, the image recognition unit 44, the pressure detection unit 45, and the like. The value is changed based on the elapsed time or the like. Further, the instinct model 82 enhances the parameter indicating “exercise desire” based on the behavior history, or “appetite” based on the remaining amount (voltage) of the battery 11.
Increase the parameter that represents.

【0051】この例においては、本能モデル82は、
「運動欲」を表わす本能ユニット82A、「愛情欲」を
表わす本能ユニット82B、「食欲」を表わす本能ユニ
ット82C、「好奇心」を表わす本能ユニット82D、
および「睡眠欲」を表わす本能ユニット82Eから構成
されている。
In this example, the instinct model 82 is
An instinct unit 82A representing "motility", an instinct unit 82B representing "love", an instinct unit 82C representing "appetite", an instinct unit 82D representing "curiosity",
And an instinct unit 82E representing "sleep desire".

【0052】本能・感情管理部61は、このような感情
ユニット81A乃至81Fと本能ユニット82A乃至8
2Eのパラメータを変化させることにより、ペットロボ
ット1の感情と本能の状態を表現し、その変化をモデル
化している。
The instinct / emotion management unit 61 has such emotion units 81A to 81F and instinct units 82A to 8F.
By changing the parameters of 2E, the emotion and instinct of the pet robot 1 are expressed and the change is modeled.

【0053】また、感情ユニット81A乃至81Fと本
能ユニット82A乃至82Eのパラメータは、外部から
の入力だけでなく、図の矢印で示すように、それぞれの
ユニット同士が相互に影響しあうことによっても変化さ
れる。
Further, the parameters of the emotion units 81A to 81F and the instinct units 82A to 82E are changed not only by the input from the outside but also by the mutual influence of the respective units as shown by the arrows in the figure. To be done.

【0054】例えば、「うれしさ」を表現する感情ユニ
ット81Aと「悲しさ」を表現する感情ユニット81B
が相互抑制的に結合することにより、本能・感情管理部
61は、ユーザにほめてもらったときには「うれしさ」
を表現する感情ユニット81Aのパラメータを大きくす
るとともに、「悲しさ」を表現する感情ユニット81B
のパラメータを小さくするなどして、表現する感情を変
化させる。
For example, an emotion unit 81A expressing "joy" and an emotion unit 81B expressing "sadness".
Instinct / emotion management unit 61 is "joyful" when the user compliments each other due to their mutual inhibition.
The emotion unit 81B expressing "sadness" is increased while increasing the parameter of the emotion unit 81A expressing
Change the emotion to be expressed, for example, by reducing the parameter of.

【0055】また、感情モデル81を構成する各ユニッ
ト同士、および本能モデル82を構成する各ユニット同
士だけでなく、双方のモデルを超えて、それぞれのユニ
ットのパラメータが変化される。
Further, the parameters of not only the units forming the emotion model 81 and the units forming the instinct model 82 but also the parameters of the respective units are changed over both models.

【0056】例えば、図に示すように、本能モデル82
の「愛情欲」を表わす本能ユニット82Bや、「食欲」
を表わす本能ユニット82Cのパラメータの変化に応じ
て、感情モデル81の「悲しさ」を表現する感情ユニッ
ト81Bや「怒り」を表現する感情ユニット81Cのパ
ラメータが変化される。
For example, as shown in the figure, the instinct model 82
Instinct unit 82B that expresses "love desire" and "appetite"
The parameters of the emotion unit 81B expressing "sadness" and the emotion unit 81C expressing "anger" of the emotion model 81 are changed according to the change of the parameter of the instinct unit 82C expressing ".

【0057】具体的には、「食欲」を表わす本能ユニッ
ト82Cのパラメータが大きくなったとき、感情モデル
81の「悲しさ」を表現する感情ユニット81Bや、
「怒り」を表現する感情ユニット81Cのパラメータが
大きくなる。
Specifically, when the parameter of the instinct unit 82C representing "appetite" becomes large, the emotion unit 81B expressing "sadness" of the emotion model 81,
The parameter of the emotion unit 81C expressing “anger” becomes large.

【0058】このようにして本能・感情管理部61によ
り管理される感情のパラメータ、または本能のパラメー
タは、後述するように、例えば、所定の周期で計測さ
れ、行動管理部62、および音データ生成部66に出力
される。
The emotion parameters or the instinct parameters managed by the instinct / emotion management unit 61 in this manner are, for example, measured in a predetermined cycle, as will be described later, and the behavior management unit 62 and the sound data generation are performed. It is output to the unit 66.

【0059】なお、より詳細には、感情モデル81や本
能モデル82だけでなく、成長モデルが本能・感情管理
部61に用意され、その成長段階によって、感情モデル
81や本能モデル82の各ユニットのパラメータが変化
される。この成長モデルは、例えば、「幼年期」、「青
年期」、「熟年期」、「老年期」等の成長の状態(度合
い)を、所定の範囲の値によってそれぞれ表し、音声認
識部43、画像認識部44、および圧力検出部45等か
らの出力や時間経過等に基づいて、その値を変化させ
る。
More specifically, not only the emotion model 81 and the instinct model 82, but also a growth model is prepared in the instinct / emotion management unit 61, and each unit of the emotion model 81 and the instinct model 82 is changed depending on the growth stage. The parameters are changed. In this growth model, for example, growth states (degrees) such as “childhood”, “adolescence”, “mature”, “old age” are represented by values in a predetermined range, and the speech recognition unit 43, The value is changed based on the output from the image recognition unit 44, the pressure detection unit 45, and the like, the elapsed time, and the like.

【0060】なお、本能・感情管理部61には、音声認
識部43、画像認識部44、および圧力検出部45等か
ら認識情報が供給される他に、行動管理部62から、ペ
ットロボット1の現在、または過去の行動、具体的に
は、例えば、「長時間歩いた」などの行動の内容を示す
行動情報が供給されるようになされている。そして、本
能・感情管理部61は、同一の認識情報等が与えられた
場合であっても、行動情報により示されるペットロボッ
ト1の行動に応じて、異なる内部情報を生成する。
The instinct / emotion management unit 61 is supplied with recognition information from the voice recognition unit 43, the image recognition unit 44, the pressure detection unit 45, and the like, and the behavior management unit 62 notifies the pet robot 1 of the pet robot 1. Current or past behavior, specifically, behavior information indicating the content of the behavior such as "walking for a long time" is supplied. Then, the instinct / emotion management unit 61 generates different internal information according to the action of the pet robot 1 indicated by the action information even when the same recognition information or the like is given.

【0061】例えば、ペットロボット1がユーザに挨拶
をし、ユーザに頭を撫でられた場合には、ユーザに挨拶
をしたという行動情報と、頭を撫でられたという認識情
報が本能・感情管理部61に供給される。このとき、本
能・感情管理部61においては、「うれしさ」を表す感
情ユニット81Aの値が増加される。
For example, when the pet robot 1 greets the user and the user pats his / her head, the instinct / emotion management section provides the behavior information that the user greeted the user and the recognition information that the user patted the head. 61 is supplied. At this time, in the instinct / emotion management unit 61, the value of the emotion unit 81A representing “joy” is increased.

【0062】図3の説明に戻る。行動管理部62は、音
声認識部43、および画像認識部44等から供給されて
きた情報と、本能・感情管理部61から供給されてきた
パラメータ、および時間経過等に基づいて次の行動を決
定し、決定した行動の実行を指示するコマンドを姿勢遷
移管理部63に出力する。また、行動管理部62は、ペ
ットロボット1に発話をさせるとき、あるいは所定の動
作に対応する音をスピーカ19から出力させるとき、音
の出力を指示するコマンドを音声合成部65に出力す
る。
Returning to the explanation of FIG. The behavior management unit 62 determines the next behavior based on the information supplied from the voice recognition unit 43, the image recognition unit 44, and the like, the parameters supplied from the instinct / emotion management unit 61, and the elapsed time. Then, the command instructing the execution of the determined action is output to the posture transition management unit 63. Further, the behavior management unit 62 outputs a command instructing the sound synthesis to the voice synthesis unit 65 when the pet robot 1 speaks or when the sound corresponding to a predetermined motion is output from the speaker 19.

【0063】次に、ペットロボット1の第1乃至第8の
特徴的行動について説明する。
Next, the first to eighth characteristic actions of the pet robot 1 will be described.

【0064】第1の特徴的行動として、ペットロボット
1は、日付(季節)に対応するコンテンツを実行するよ
うになされている。
As a first characteristic action, the pet robot 1 is adapted to execute contents corresponding to a date (season).

【0065】図5は、ペットロボット1のモード遷移を
示している。すなわち、ペットロボット1は、起動後に
Wake Up(お目覚め)モードに遷移し、そのときの運動
欲82A(Exe)82Aの値に応じてVivid(動き回る)モ
ード、またはBreak(休憩)モード、あるいは、前回の
終了時から所定の期間(例えば、5日間)以上経過して
いる場合、Love(愛情)モードに遷移するようになされ
ている。
FIG. 5 shows the mode transition of the pet robot 1. That is, the pet robot 1 is
Transition to Wake Up (wake up) mode, depending on the value of exercise desire 82A (Exe) 82A at that time, Vivid (move around) mode, Break (break) mode, or a predetermined period from the end of the last time ( For example, when more than 5 days have passed, the mode is changed to the Love mode.

【0066】Vividモードは、自律的な行動が音声認識
機能よりも優先される状態であり、ペットロボット1
は、活発に自律的なコンテンツを実行する。Vividモー
ドにおいて、所定の音声(「お話ししよう」、「うるさ
い」、「静かに」、「音で遊ぼう」等)が認識された場
合、Talk A(おはなし)モードに遷移するようになされ
ている。また、Vividモードにおいてペットロボット1
が疲労した場合(運動欲82Aまたは愛情欲82Bが低
下した場合)、Breakモードに遷移するようになされて
いる。
The Vivid mode is a state in which the autonomous action is prioritized over the voice recognition function, and the pet robot 1
Actively runs autonomous content. In Vivid mode, if a predetermined voice ("Let's talk", "Noisy", "Quietly", "Play with sound", etc.) is recognized, it will switch to Talk A mode. . Also, in the Vivid mode, the pet robot 1
Is fatigued (when the desire to exercise 82A or the desire to love 82B decreases), the mode is changed to the break mode.

【0067】Talk A(おはなし)モードにおいては、自
律的な行動よりも音声認識機能が優先される。Breakモ
ードにおいては、比較的動きが小さいコンテンツが実行
される。
In the Talk A mode, the voice recognition function has priority over autonomous actions. In Break mode, content with relatively small movement is executed.

【0068】図6は、Wake Upモードの詳細を示してい
る。ペットロボット1は、電源投入後、プレリュード再
生、誕生芸再生の後、第1の特徴である季節のイベント
のコンテンツを再生する。このように連続的にコンテン
ツを発現させることにより、ペットロボット1の元気な
感じを演出する。この後、「お辞儀」のコンテンツ、
「きょろきょろと周囲を見回す」コンテンツを再生した
後、わくわくコースのコンテンツ、またはお願いコース
のコンテンツを実行するようになされている。
FIG. 6 shows details of the Wake Up mode. The pet robot 1 reproduces the contents of the seasonal event, which is the first feature, after the power is turned on, the prelude reproduction, and the birth art reproduction. By thus continuously expressing the content, the cheerful feeling of the pet robot 1 is produced. After this, the content of "bowing",
After playing the "look around and look around" content, the content of the exciting course or the content of the requested course is executed.

【0069】図7は、季節イベントに対応するコンテン
ツの例を示している。例えば、起動日が1月1日乃至1
月7日である場合、お正月に適した、「餅つき」、「た
こ揚げ」等のイベントのコンテンツが実行される。また
例えば、起動日が7月21日乃至8月31日である場
合、夏休みに適した、「スイカ割り」、「盆おどり」等
のイベントのコンテンツが実行される。図7に示した対
応表は、例えばメモリ10Bに記憶されている。なお、
日付(季節)に対応するコンテンツだけでなく、時刻に
対応してコンテンツを用意するようにしてもよい。
FIG. 7 shows an example of contents corresponding to a seasonal event. For example, the start date is January 1 to 1
If it is the 7th of the month, the content of the event such as "rice cake with" and "octopus fried" suitable for the New Year is executed. Further, for example, when the startup date is from July 21st to August 31st, content of events such as "watermelon splitting" and "bon festival" suitable for summer vacation is executed. The correspondence table shown in FIG. 7 is stored in, for example, the memory 10B. In addition,
Not only the content corresponding to the date (season) but also the content corresponding to the time may be prepared.

【0070】図8は、ペットロボット1の第1の特徴で
ある、日付(季節)に対応して異なるコンテンツを実行
する処理、すなわち、日付/季節対応処理を説明するフ
ローチャートである。
FIG. 8 is a flowchart for explaining the first feature of the pet robot 1, that is, the process for executing different contents corresponding to the date (season), that is, the date / season corresponding process.

【0071】ステップS1において、コントローラ10
は、現在が、起動時、動作開始時、またはコンテンツ発
現時であるか否かを判定し、いずれかであると判定する
まで待機する。現在が、起動時、動作開始時、またはコ
ンテンツ発現時であると判定された場合、処理はステッ
プS2に進む。ステップS2において、コントローラ1
0は、内蔵する時計10Cを参照し、現在の日時を取得
する。ステップS3において、コントローラ10は、図
7に示したような対応表を参照することにより、ステッ
プS2で取得した日時に対応するコンテンツを選択す
る。ステップS4において、コントローラ10は、ステ
ップS4で選択したコンテンツを発現させる。以上、日
付/季節対応処理の説明を終了する。
In step S1, the controller 10
Determines whether the present time is at the time of startup, at the time of starting operation, or at the time of displaying content, and waits until it is determined as either one. When it is determined that the present time is the start-up time, the operation start time, or the content appearance time, the process proceeds to step S2. In step S2, the controller 1
0 refers to the built-in clock 10C and acquires the current date and time. In step S3, the controller 10 selects the content corresponding to the date and time acquired in step S2 by referring to the correspondence table as shown in FIG. In step S4, the controller 10 expresses the content selected in step S4. This is the end of the description of the date / season correspondence process.

【0072】第2の特徴的行動として、ペットロボット
1は、自律行動を優先しながらも所定の単語だけは認識
できるように音声認識機能を抑制した状態(図5のVivi
dモード)と、自律行動よりも音声認識機能の精度(認
識率)向上を優先した状態(図5のTalk Aモード)とを
併せ持ち、所定の条件に従って2つの状態を遷移するよ
うになされている。なお、ペットロボット1は、自律行
動を優先する状態であるのか、音声認識機能を優先する
状態であるのかをユーザに通知するために、頭部ユニッ
ト4などに設けられたLEDを点灯、消灯または点滅させ
るなどするようになされている。
As a second characteristic action, the pet robot 1 has a voice recognition function suppressed so that only a predetermined word can be recognized while giving priority to autonomous action (Vivi in FIG. 5).
d mode) and a state (Talk A mode in FIG. 5) in which the accuracy (recognition rate) of the voice recognition function is prioritized over the autonomous action, and the two states are transitioned according to a predetermined condition. . It should be noted that the pet robot 1 turns on or off the LED provided on the head unit 4 or the like in order to notify the user whether the state is such that the autonomous action is prioritized or the voice recognition function is prioritized. It is designed to blink.

【0073】図9は、自律行動を優先した状態と、音声
認識機能を優先した状態とを遷移させる条件を示してい
る。
FIG. 9 shows conditions for transitioning between a state in which the autonomous action is prioritized and a state in which the voice recognition function is prioritized.

【0074】自律行動を優先した状態においては、歩行
の他、大きめ(全身を用いる、高速で動く、大きな音量
を発する、多くの色を発色させる)のコンテンツが発現
される。また、それらコンテンツの発現頻度が高められ
る。
In the state where the autonomous behavior is prioritized, in addition to walking, larger contents (using the whole body, moving at high speed, emitting a large volume, and producing many colors) are expressed. In addition, the frequency of occurrence of those contents is increased.

【0075】自律行動を優先した状態において、誤認識
され難い所定の単語(「お話ししよう」等)が音声認識
の結果として得られた場合、音声認識機能を優先した状
態に遷移するようになされている。なお、所定の音声が
認識された場合だけでなく、例えば所定のセンサが所定
の信号を検知した場合においても、自律行動を優先した
状態から音声認識機能を優先した状態に遷移するように
してもよい。
When a predetermined word that is difficult to be erroneously recognized (such as "Let's talk") is obtained as a result of voice recognition in a state where the autonomous action is prioritized, the voice recognition function is transited to the state where it is prioritized. There is. Not only when a predetermined voice is recognized, but also when, for example, a predetermined sensor detects a predetermined signal, the state in which the autonomous action is prioritized may be changed to the state in which the voice recognition function is prioritized. Good.

【0076】音声認識機能を優先した状態に遷移した場
合、音声認識機能を優先した状態であることを示すため
に、所定のLEDが発光される。あるいは、音声認識機能
を優先した状態であることを示すために、ペットロボッ
ト1が所定の姿勢(例えば、端座した姿勢)となるよう
にしてもよい。
When the voice recognition function is prioritized, a predetermined LED is emitted to indicate that the voice recognition function is prioritized. Alternatively, the pet robot 1 may have a predetermined posture (for example, a sitting posture) to indicate that the voice recognition function is prioritized.

【0077】音声認識機能を優先した状態においては、
自律的な行動が抑制されて、例えば首をきょろきょろす
る、うつむくなどの小さめの(全身の一部だけを用い
る、低速で動く、無音あるいは小音を発する、単色で発
色させる)のコンテンツが発現される。また、それらコ
ンテンツの発現頻度が低められる。
When the voice recognition function is prioritized,
Autonomous behaviors are suppressed, and small content (for example, cramming the neck, stooping, etc.) (using only a part of the whole body, moving slowly, producing silence or small sounds, producing monochromatic color) is expressed. It Also, the frequency of occurrence of those contents is reduced.

【0078】音声認識機能を優先した状態において、ユ
ーザから動作を指令する発声を認識した場合、それに対
応するコンテンツを実行するようになされている。
When the utterance instructing the operation is recognized by the user while the voice recognition function is prioritized, the content corresponding to the utterance is executed.

【0079】音声認識機能を優先した状態において、ユ
ーザとのコミュニケーション(ユーザからの発声、接触
等)のない状態が所定の時間(例えば、300秒間)経
過した場合、自律行動を優先した状態に戻るようになさ
れている。
In the state where the voice recognition function is prioritized, when there is no communication with the user (speaking from the user, contact, etc.) for a predetermined time (for example, 300 seconds), the autonomous action is returned to the prioritized state. It is done like this.

【0080】第3の特徴的行動として、ペットロボット
1は、例えば所定のテレビジョン番組で放送される所定
の音階を認識した場合、所定のコンテンツを実行するよ
うになされている。また、ペットロボット1は、所定の
音階を認識した場合、動作可能なコンテンツが追加され
るようになされている。
As a third characteristic action, the pet robot 1 executes a predetermined content when it recognizes a predetermined scale broadcast in a predetermined television program, for example. Further, the pet robot 1 is configured to add operable content when recognizing a predetermined scale.

【0081】図10は、テレビジョン番組等で放送され
る所定の音階と、それに対応して実行されるコンテンツ
を示している。例えば、音階(サウンド6)が放送さ
れ、その音階をペットロボット1が認識した場合、「気
軽な挨拶」を示すコンテンツが実行されるようになされ
ている。また例えば、音階(サウンド23)が放送さ
れ、その音階をペットロボット1が認識した場合、「ダ
ンス」のコンテンツが実行されるようになされている。
FIG. 10 shows a predetermined scale that is broadcast in a television program or the like, and contents that are executed in correspondence with the predetermined scale. For example, when a scale (sound 6) is broadcast and the pet robot 1 recognizes the scale, the content indicating "easy greeting" is executed. Further, for example, when a scale (sound 23) is broadcast and the pet robot 1 recognizes the scale, the content of "dance" is executed.

【0082】図11は、テレビジョン番組等で放送され
る所定の音階と、それに対応して動作可能なコンテンツ
に追加されるコンテンツを示している。例えば、音階
(サウンド12または13)が放送され、その音階をペ
ットロボット1が認識した場合、以後、「重量挙げ」を
示すコンテンツが実行可能とされるようになされてい
る。また例えば、音階(サウンド26乃至28)が放送
され、その音階をペットロボット1が認識した場合、以
後、「体操(身体をひねる)」を示すコンテンツが実行
可能とされるようになされている。
FIG. 11 shows a predetermined scale broadcasted in a television program or the like, and contents added to the contents operable in correspondence therewith. For example, when the scale (sound 12 or 13) is broadcast and the pet robot 1 recognizes the scale, the content indicating “weightlifting” can be executed thereafter. Further, for example, when the musical scales (sounds 26 to 28) are broadcast and the pet robot 1 recognizes the musical scales, the content indicating “gymnastics (twisting the body)” can be executed thereafter.

【0083】なお、自律行動を優先した状態(Vividモ
ード)において、ユーザの発声「メディアモーションチ
ェック」が認識された場合、テレビジョン番組等で放送
される所定の音階に対応して動作可能とされたコンテン
ツが連続的に再生されるようになされている。
When the user's utterance "Media motion check" is recognized in a state where priority is given to autonomous behavior (Vivid mode), it is possible to operate corresponding to a predetermined scale broadcast in a television program or the like. The contents are played continuously.

【0084】第4の特徴的行動として、ペットロボット
1は、各起動時においてコンテンツの発現率が最も高
く、その後、周期的にコンテンツの発現率が変化するよ
うになされている。また、ペットロボット1は、今回の
起動時が前回の終了時から所定の期間(例えば5日間)
以上経過している場合、通常のようにWake Upモードに
は推移せず、一旦、ユーザに対して甘えるようなコンテ
ンツを発現するLoveモードに推移した後、Wake Upモー
ドに推移するようになされている。さらに、ペットロボ
ット1は、ユーザから構われる頻度が高い場合、Loveモ
ードに遷移するようになされている。
As a fourth characteristic action, the pet robot 1 has the highest content expression rate at each startup, and thereafter the content expression rate changes periodically. In addition, the pet robot 1 starts up this time for a predetermined period (for example, 5 days) from the end of the previous time.
If the time has passed, the Wake Up mode does not change as usual, but it first changes to the Love mode that expresses content that is unpleasant to the user, and then changes to the Wake Up mode. There is. Furthermore, the pet robot 1 is configured to transition to the Love mode when the frequency of being accepted by the user is high.

【0085】図12は、ペットロボット1に対するユー
ザの関心度の変化を推定したものである。同図において
横軸は時間の経過、縦軸はユーザに関心の高さを示して
いる。また、波線は従来のロボットに対するユーザの関
心の変化を示しており、実線が目標とするペットロボッ
ト1に対するユーザの関心の変化を示している。
FIG. 12 is an estimation of changes in the degree of interest of the user with respect to the pet robot 1. In the figure, the horizontal axis represents the passage of time, and the vertical axis represents the level of interest of the user. Further, a wavy line indicates a change in the user's interest in the conventional robot, and a solid line indicates a change in the user's interest in the target pet robot 1.

【0086】従来のロボットの場合、起動後の動作が乏
しいので、ユーザの関心は急速に低下してしまい、その
まま電源をオフしてしまうことが多い。そこで、ペット
ロボット1の場合には、起動後の動作を活発にしてユー
ザの関心を引き、その後、周期的に動作させることによ
ってユーザの関心を適度に引くようにして、ペットロボ
ット1の起動されている時間が継続されるようにする。
In the case of the conventional robot, since the operation after starting is poor, the interest of the user is rapidly lowered, and the power is often turned off as it is. Therefore, in the case of the pet robot 1, the pet robot 1 is activated by activating the operation after activation to attract the user's attention, and then periodically operating the pet robot 1 to appropriately attract the user's attention. Make sure that the time that you have

【0087】図13は、図12に示した理想的なユーザ
の関心度の変化を実現するための、ペットロボット1に
よるコンテンツの理想的な動作イメージを示している。
同図において横軸は時間の経過、縦軸はコンテンツの大
きさを示している。すなわち、コンテンツの大きさは、
図12に示した理想的なユーザの関心度の変化に対応し
て変化させるようにする。
FIG. 13 shows an ideal operation image of contents by the pet robot 1 for realizing the ideal change in the degree of interest of the user shown in FIG.
In the figure, the horizontal axis represents the passage of time and the vertical axis represents the size of the content. That is, the size of the content is
The change is made according to the change in the degree of interest of the ideal user shown in FIG.

【0088】ここで、コンテンツの大きさとは、動作速
度(単位時間に移動する角度量)、同時に動かすアクチ
ュエータの数(アクチュエータの総数に対する動作する
アクチュエータの数)、動作角度(一回の動作で移動す
る角度量)、姿勢(歩行姿勢、立ち姿勢、座り姿勢、伏
せ姿勢、仰向け姿勢等)、音量(一回の動作に対応して
出力する音量、音の長さ)、発光量(一回の動作に対応
して発光するLEDの数、色の種類)、視線方向(上向
き、下向き)、動作時間(一回の動作に要する時間)、
および発現率(単位時間当たりに発現するコンテンツの
数)によって定められる。
Here, the size of the content means the operation speed (the amount of angle moved in a unit time), the number of actuators moved at the same time (the number of actuators operating with respect to the total number of actuators), the operation angle (movement in one operation). Angle), posture (walking posture, standing posture, sitting posture, prone posture, supine posture, etc.), volume (volume to be output corresponding to one action, sound length), light emission amount (one time Number of LEDs that emit light in response to movement, color type), line-of-sight direction (upward, downward), operating time (time required for one operation),
And the expression rate (the number of contents expressed per unit time).

【0089】図14は、図12に示した理想的なユーザ
の関心度の変化を実現するための、ペットロボット1に
よるコンテンツの実際の動作イメージを示している。す
なわち、ペットロボット1は、起動後の所定時間(例え
ば5分間)、日時や季節に対応するコンテンツを含む大
きめのコンテンツが連続的に発現されるWake Upモード
とされ、その後の所定時間(例えば4分間)、自律的に
大きめのコンテンツを発現するVividモードとされるよ
うになされている。その後、所定時間ずつ(例えば3分
間、1分間、4分間ずつ)、小さめのコンテンツが発現
される第1乃至第3のBreakモードとされるようになさ
れている。この後、第1乃至第3のBreakモード、およ
びVividモードが図示したように周期的に繰り返される
ようになされている。
FIG. 14 shows an actual operation image of contents by the pet robot 1 for realizing the ideal change in the degree of interest of the user shown in FIG. That is, the pet robot 1 is set to the Wake Up mode in which a large content including the content corresponding to the date and time and the season is continuously expressed for a predetermined time (for example, 5 minutes) after being activated, and then for a predetermined time (for example, 4 minutes). For a minute), it is designed to be in Vivid mode that autonomously expresses large contents. After that, the first to third Break modes in which small contents are expressed are set for a predetermined time (for example, 3 minutes, 1 minute, and 4 minutes each). After that, the first to third Break modes and the Vivid mode are periodically repeated as illustrated.

【0090】なお、第1乃至第3のBreakモードは、5
段階に分けられるBreakモード(第1乃至第5のBreakモ
ード)の一部であり、第1乃至第5のBreakモードの中
では、第1のBreakモードが最も大きくコンテンツを発
現し、第5のBreakモードが最も小さくコンテンツを発
現する。第1のBreakモードでは、のんびり系中心のコ
ンテンツ(PERFORMANCE、SLEEPY、BABY_SLEEP等)が定
義されている。第2のBreakモードでは、暇芸系中心の
コンテンツ(PERFORMANCE等)が定義されている。第3
のBreakモードでは、大技、アピール系中心のコンテン
ツ(PERFORMANCE、SING_A_SONG、DANCE、EXERCISE、CAL
L_OWNER等)が定義されている。第4のBreakモードで
は、断り系中心のコンテンツ(EMOTIONAL PERFORMANC
E、ANGRY等)が定義されている。第5のBreakモードで
は、アピール系中心のコンテンツ(PERFORMANCE、SING_
A_SONG、DANCE、CALL_OWNER等)が定義されている。
The first to third Break modes are 5
It is a part of Break modes (first to fifth Break modes) divided into stages, and among the first to fifth Break modes, the first Break mode produces the largest content and the fifth Break mode. Break mode is the smallest and the content is expressed. In the first Break mode, leisure-centered contents (PERFORMANCE, SLEEPY, BABY_SLEEP, etc.) are defined. In the second Break mode, contents centered around leisure arts (PERFORMANCE, etc.) are defined. Third
In Break mode, content that focuses on major skills and appeals (PERFORMANCE, SING_A_SONG, DANCE, EXERCISE, CAL
L_OWNER etc.) is defined. In the 4th Break mode, the content centering on the decline system (EMOTIONAL PERFORMANC
E, ANGRY, etc.) are defined. In the 5th Break mode, the content centered on appeal (PERFORMANCE, SING_
A_SONG, DANCE, CALL_OWNER, etc.) are defined.

【0091】図15は、ユーザから構われる頻度が高い
場合におけて、ペットロボット1がLoveモードに遷移す
るイメージを示している。
FIG. 15 shows an image in which the pet robot 1 transits to the Love mode when the frequency of being accepted by the user is high.

【0092】第5の特徴的行動として、ペットロボット
1は、ユーザによる接触を検知したり、ユーザの発声を
認識したりした場合、それをユーザに通知するために、
音階の出力あるいはLEDを発光等させた後、所定の動作
を実行するようになされている。
As a fifth characteristic action, when the pet robot 1 detects a contact by the user or recognizes the user's utterance, in order to notify the user of the contact,
After the scale output or LED light emission, a predetermined operation is executed.

【0093】図16は、ペットロボット1による第5の
特徴であるインタラクティブなコンテンツ発現処理を説
明するフローチャートである。コントローラ10は、ス
テップS11において、ユーザが所定のセンサに接触し
たか否かを判定し、ステップS12において、ユーザの
発声を音声認識したか否かを判定し、ユーザが所定のセ
ンサに接触した、またはユーザの発声を音声認識したと
判定するまで待機する。ユーザが所定のセンサに接触し
た、またはユーザの発声を音声認識したと判定された場
合、処理はステップS13に進む。
FIG. 16 is a flow chart for explaining the fifth feature of the pet robot 1, which is an interactive content expression process. In step S11, the controller 10 determines whether or not the user touches a predetermined sensor, and in step S12, determines whether or not the user's utterance is recognized by voice, and the user touches the predetermined sensor. Alternatively, it waits until it is determined that the voice of the user is recognized. When it is determined that the user has touched a predetermined sensor or has recognized the user's utterance by voice, the process proceeds to step S13.

【0094】ステップS13において、コントローラ1
0は、予め用意されている対応表を参照することによ
り、ユーザの接触を検知したセンサ、または音声認識し
た台詞に対するコンテンツを選択する。
In step S13, the controller 1
0 refers to the correspondence table prepared in advance to select the content corresponding to the sensor that has detected the contact of the user or the speech that has been speech-recognized.

【0095】ステップS14において、コントローラ1
0は、選択したコンテンツに対応して、所定の発声(音
階)の出力およびLEDの発光のうちの少なくとも一方を
実行させる。ステップS15において、コントローラ1
4は、所定のアクチュエータを制御して、選択したコン
テンツに対応する動作を実行させる。以上、インタラク
ティブなコンテンツ発現処理の説明を終了する。
In step S14, the controller 1
0 causes at least one of the output of a predetermined utterance (scale) and the light emission of the LED to be executed corresponding to the selected content. In step S15, the controller 1
4 controls a predetermined actuator to execute an operation corresponding to the selected content. This is the end of the description of the interactive content expression processing.

【0096】第6の特徴的行動として、ペットロボット
1は、自律的に行動するVividモードにおいて、例え
ば、きょろきょろと首を振って周囲を見まわすような動
作、思考のために立ち止まるように動作などをすること
により、意志を表現するようになされている。また、ペ
ットロボット1は、自律的に行動する状態の留守番モー
ドにおいて、カメラ16からの画像信号の映像に動きの
ある物体を検出した場合、その画像信号を記憶する(写
真を撮る)ようになされている。
As a sixth characteristic action, the pet robot 1 in the Vivid mode in which it autonomously behaves, for example, a motion of shaking its head and looking around, a motion of stopping to think, etc. By doing, he is trying to express his will. Further, when the pet robot 1 detects a moving object in the image of the image signal from the camera 16 in the answering machine in a state of autonomously acting, it stores the image signal (takes a picture). ing.

【0097】図17は、Vividモードにおいて自律的行
動と、カメラからの画像のような定常的に入力される情
報に対する反応(例えば、動体トラッキング)を両立す
る処理を説明するフローチャートである。この処理は、
Vividモードに遷移した時に開始され、他のモードに遷
移したときに終了される。
FIG. 17 is a flow chart for explaining a process for achieving both the autonomous action in Vivid mode and the reaction (for example, moving body tracking) to information constantly input such as an image from a camera. This process
It starts when transitioning to Vivid mode and ends when transitioning to another mode.

【0098】ステップS21において、コントローラ1
0は、自己の内部に設けた自律的行動の経過時間を計測
する自律的行動用タイマを0にリセットする。ステップ
S22において、コントローラ10は、所定のアクチュ
エータを制御して、現在の動作を静止させ、きょろきょ
ろと首を振るコンテンツを発現させる。このように静止
してきょろきょろと首を振る仕草のコンテンツを発現さ
せることにより、ペットロボット1が思考している状態
や周囲の環境を探知しているような表現が可能となる。
In step S21, the controller 1
0 resets the autonomous action timer, which is provided inside itself, for measuring the elapsed time of the autonomous action. In step S22, the controller 10 controls a predetermined actuator to stop the current operation and cause the content of shaking the head to appear. In this way, by expressing the content of the gesture of stillly shaking the head, it is possible to make an expression as if the pet robot 1 is thinking and detecting the surrounding environment.

【0099】ステップS23において、コントローラ1
0は、自律的行動用タイマが予め決定されている所定の
時間だけ経過したか否かを判定する。自律的行動用タイ
マが予め決定されている所定の時間だけ経過していない
と判定された場合、処理はステップS24に進む。ステ
ップS24において、コントローラ10は、自律的に行
動するように各部を制御する。これに伴い、コントロー
ラ10は、自己の内部に設けた自律的行動フラグをオン
に設定する。処理はステップS21に戻り、それ以降の
処理が繰り返される。その後、ステップS23におい
て、自律的行動用タイマが予め決定されている所定の時
間だけ経過していると判定された場合、処理はステップ
S25に進む。
In step S23, the controller 1
A value of 0 determines whether or not the autonomous action timer has passed a predetermined time. When it is determined that the timer for autonomous action has not elapsed for the predetermined time period, the process proceeds to step S24. In step S24, the controller 10 controls each part to act autonomously. Along with this, the controller 10 turns on the autonomous action flag provided inside itself. The process returns to step S21, and the subsequent processes are repeated. Then, if it is determined in step S23 that the timer for autonomous action has elapsed for the predetermined time, which is determined in advance, the process proceeds to step S25.

【0100】ステップS25において、コントローラ1
0は、カメラ16からの画像内に動きのある物体(以
下、動体と記述する)を検出したか否かを判定する。動
体を検出したと判定された場合、処理はステップS26
に進む。ステップS26において、コントローラ10
は、自律的行動フラグがオンであるか否かを判定する。
自律的行動フラグがオンであると判定された場合、処理
はステップS27に進む。
In step S25, the controller 1
0 determines whether or not a moving object (hereinafter referred to as a moving body) is detected in the image from the camera 16. If it is determined that a moving object has been detected, the process proceeds to step S26.
Proceed to. In step S26, the controller 10
Determines whether the autonomous action flag is on.
If it is determined that the autonomous action flag is on, the process proceeds to step S27.

【0101】ステップS27において、コントローラ1
0は、自己の内部に設けた動体トラッキングの経過時間
を計測する動体トラッキング用タイマを0にリセットす
る。ステップS28において、コントローラ10は、動
体トラッキングを開始させる。すなわち、動体の動きに
追従して首を動かすように、頭部ユニット4の制御を開
始させる。ステップS29において、コントローラ10
は、自律的行動フラグをオフに設定する。
In step S27, the controller 1
When 0 is set, the moving body tracking timer that measures the elapsed time of moving body tracking provided inside itself is reset to 0. In step S28, the controller 10 starts moving body tracking. That is, the control of the head unit 4 is started so as to move the neck following the movement of the moving body. In step S29, the controller 10
Sets the autonomous behavior flag to off.

【0102】ステップS30において、コントローラ1
0は、動体を見失ったか否かを判定する。動体を見失っ
ていないと判定された場合、処理はステップS31に進
む。ステップS31において、コントローラ10は、動
体トラッキング用タイマが予め決定されている所定の時
間だけ経過したか否かを判定する。動体トラッキング用
タイマが予め決定されている所定の時間だけ経過してい
ないと判定された場合、処理はステップS30に戻る。
In step S30, the controller 1
0 determines whether or not the moving body is lost. When it is determined that the moving body has not been lost, the process proceeds to step S31. In step S31, the controller 10 determines whether or not the moving object tracking timer has elapsed for a predetermined time that is determined in advance. If it is determined that the moving body tracking timer has not elapsed for the predetermined time, the process returns to step S30.

【0103】ステップS30において、動体を見失った
と判定された場合、またはステップS31において、動
体トラッキング用タイマが予め決定されている所定の時
間だけ経過したと判定された場合、処理はステップS3
2に進む。ステップS32において、コントローラ10
は、動体トラッキングを停止させる。処理はステップS
22に戻り、それ以降の処理が繰り返される。
If it is determined in step S30 that the moving body has been lost, or if it is determined in step S31 that the moving body tracking timer has elapsed by a predetermined time, the process proceeds to step S3.
Go to 2. In step S32, the controller 10
Stops motion tracking. The process is step S
Returning to step 22, the subsequent processing is repeated.

【0104】なお、ステップS25において、動体を検
出したと判定された場合、およびステップS26におい
て、自律的行動フラグがオンではないと判定された場合
も、処理はステップS22に戻り、以降の処理が繰り返
される。
Even if it is determined in step S25 that a moving body is detected, and if it is determined in step S26 that the autonomous action flag is not ON, the process returns to step S22, and the subsequent processes are performed. Repeated.

【0105】以上説明したような処理により、Vividモ
ードにおいて、ペットロボット1の内的な要因(本能値
等)と外的な要因(動体検出等)に起因する行動が複合
され、より表現応力が高いペットロボット1を実現する
ことが可能となる。
By the processing as described above, in the Vivid mode, the behavior caused by the internal factor (instinct value etc.) of the pet robot 1 and the external factor (moving object detection etc.) are combined, and the expression stress is further increased. It becomes possible to realize a high pet robot 1.

【0106】図18は、Vividモードにおける自律的探
索行動制御処理を説明するフローチャートである。ステ
ップS41において、コントローラ10は、各部を制御
して歩行動作を開始させる。ステップS42において、
コントローラ10は、障害物等を検知したか否かを判定
する。障害物等を検知したと判定された場合、処理はス
テップS43に進む。ステップS43において、コント
ローラ10は、各部を制御して、方向変換によって障害
物等を回避させる。
FIG. 18 is a flow chart for explaining the autonomous search action control process in the Vivid mode. In step S41, the controller 10 controls each part to start a walking motion. In step S42,
The controller 10 determines whether an obstacle or the like has been detected. If it is determined that an obstacle or the like has been detected, the process proceeds to step S43. In step S43, the controller 10 controls each unit to avoid obstacles and the like by changing the direction.

【0107】ステップS44において、コントローラ1
0は、ステップS41の歩行開始から所定の距離(また
は時間)だけ歩行したか否かを判定する。所定の距離
(または時間)だけ歩行したと判定されない場合、処理
はステップS42に戻り、それ以降の処理が実行され
る。その後、ステップS44において、所定の距離(ま
たは時間)だけ歩行したと判定された場合、処理はステ
ップS45に進む。ステップS45において、コントロ
ーラ10は、各部を制御して歩行を停止させる。ステッ
プS46において、コントローラ10は、本能値(運動
欲82A等)に対応し、ペットロボット1の意思を表現
するコンテンツ(きょろきょろと首振り、暇芸、旋回、
写真撮影等)を選択して実行させる。
At step S44, the controller 1
0 determines whether the user has walked a predetermined distance (or time) from the start of walking in step S41. If it is not determined that the user has walked the predetermined distance (or time), the process returns to step S42, and the subsequent processes are executed. Thereafter, when it is determined in step S44 that the user has walked a predetermined distance (or time), the process proceeds to step S45. In step S45, the controller 10 controls each part to stop walking. In step S46, the controller 10 responds to the instinctive value (motility desire 82A, etc.) and expresses the intention of the pet robot 1 (shaking, swinging, leisure art, turning,
Select (Take a picture etc.) and execute.

【0108】なお、ステップS42において、障害物等
を検知していないと判定された場合、ステップS43は
スキップされる。
If it is determined in step S42 that an obstacle or the like is not detected, step S43 is skipped.

【0109】以上説明したように、Vividモードにおけ
る自律的探索行動制御処理によれば、歩行動作を基本と
して、ペットロボット1の意思を表現するコンテンツを
割り込ませることが可能となる。
As described above, according to the autonomous search action control process in the Vivid mode, it is possible to interrupt the content expressing the intention of the pet robot 1 based on the walking motion.

【0110】例えば、きょろきょろと首を振る動作は、
ペットロボット1が思考している状態や周囲の環境を探
知しているような意思を示す表現である。暇芸(足で身
体を掻く等)は、自発的な行動をおこしているような意
思を示す表現である。旋回は、行動方針に変化が生じた
ような意思を示す表現である。旋回の詳細については、
図19乃至図21を制御して後述する。写真撮影は、興
味の対象を設定しているような意思を示す表現である。
For example, the motion of shaking the head is
It is an expression indicating a state in which the pet robot 1 is thinking and an intention to detect the surrounding environment. Leisure art (such as scratching the body with a foot) is an expression that indicates a willingness to behave voluntarily. The turning is an expression indicating the intention that the action policy has changed. For more information on turning,
This will be described later by controlling FIGS. Photographing is an expression that indicates the intention of setting an object of interest.

【0111】旋回処理について、図19のフローチャー
トおよび図20(ペットロボット1を上方から見た図)
を参照して説明する。ステップS51において、コント
ローラ10は、停止している状態において旋回方向を決
定する。ステップS52において、コントローラ10
は、頭部ユニット4を旋回する方向に指向させる。すな
わち、頭部ユニット4の正面の方向を、図20Aに示す
状態から図20Bに示す状態に変化させる。
Regarding the turning processing, the flowchart of FIG. 19 and FIG. 20 (view of the pet robot 1 viewed from above)
Will be described with reference to. In step S51, the controller 10 determines the turning direction in the stopped state. In step S52, the controller 10
Directs the head unit 4 in the turning direction. That is, the front direction of the head unit 4 is changed from the state shown in FIG. 20A to the state shown in FIG. 20B.

【0112】ステップS53において、コントローラ1
0は、頭部ユニット4の指向先を旋回する方向に維持し
たまま、胴体部ユニット2の方向を頭部ユニット4と一
致させる。すなわち、頭部ユニット4と胴体部ユニット
のそれぞれの正面の方向を、図20Bに示す状態から、
図20Cに示す状態を経て、図20Dに示す状態に変化
させる。
In step S53, the controller 1
0 makes the direction of the body unit 2 coincide with that of the head unit 4 while maintaining the pointing direction of the head unit 4 in the turning direction. That is, the direction of the front of each of the head unit 4 and the body unit is changed from the state shown in FIG. 20B to
The state shown in FIG. 20C is changed to the state shown in FIG. 20D.

【0113】以上説明したように、旋回処理において
は、図21に示すように、始めに頭部ユニット4の正面
が旋回する方向に指向され、その後、胴体部ユニット2
が頭部ユニット4の指向方向と一致される。
As described above, in the turning process, as shown in FIG. 21, the front of the head unit 4 is first oriented in the turning direction, and then the body unit 2 is turned.
Is aligned with the pointing direction of the head unit 4.

【0114】第7の特徴的行動として、ペットロボット
1は、自律的に行動している最中の歩行を伴わないコン
テンツを実行するBreakモード(第1乃至第5のBreakモ
ード)において、それまでの運動履歴に応じて運強欲を
変化させ、運動欲82Aに対応して暇芸の種類や頻度を
変更するようになされている。
As a seventh characteristic action, the pet robot 1 is in the break mode (first to fifth break modes) for executing the content without walking while autonomously acting, until then. The desire to move is changed in accordance with the exercise history, and the type and frequency of leisure arts are changed corresponding to the desire to exercise 82A.

【0115】Breakモードにおいて発現させるコンテン
ツを決定する処理について、図22のフローチャートを
参照して説明する。ステップS61において、コントロ
ーラ10は、時計10Cを参照することにより、起動後
の経過時間を取得する。ステップS62において、コン
トローラ10は、起動後のタッチセンサ17の検知量、
および音声認識の認識量を取得する。ステップS63に
おいて、コントローラ10は、起動後に発現したコンテ
ンツを示す情報を取得する。
The process of determining the content to be expressed in the break mode will be described with reference to the flowchart of FIG. In step S61, the controller 10 acquires the elapsed time after activation by referring to the clock 10C. In step S62, the controller 10 detects the detection amount of the touch sensor 17 after activation,
And the recognition amount of voice recognition is acquired. In step S63, the controller 10 acquires information indicating the content that has appeared after activation.

【0116】ステップS64において、コントローラ1
0は、ステップS61乃至ステップS63で取得した各
情報に基づいて本能値を調整する。
At step S64, the controller 1
0 adjusts the instinct value based on each information acquired in steps S61 to S63.

【0117】例えば、本能値の運動欲(Exercise)82A
は、図23の曲線aに示すように、その時点までに発現
したコンテンツの大きさや発現頻度に適応的に変化させ
る。すなわち、運動欲82Aが低いときには、小さめの
コンテンツが発現されているので徐々に運動欲82Aが
高まるようにし、運動欲82Aが最大値に達すると、Vi
vidモードに移動して歩行を行うため、徐々に運動欲8
2Aが下がるようになされている。また、例えば、本能
値の愛情欲(Affection)82Bは、図23の曲線baに
示すように変化させる。
For example, exercise instinct (Exercise) 82A
23, as shown by the curve a in FIG. 23, is adaptively changed to the size and the frequency of occurrence of the content that has been expressed up to that point. That is, when the motivation for exercise 82A is low, small contents are expressed, so that the motivation for exercise 82A is gradually increased.
Moves to vid mode and walks, gradually motivating 8
2A is set to go down. Further, for example, the instinct Affection 82B is changed as shown by the curve ba in FIG.

【0118】ステップS65において、コントローラ1
0は、予め用意されている図24に示すような、運動欲
(Exercise)82Aと愛情欲(Affection)82Bのマトリ
クス表に基づき、Breakモード(第1乃至第5のBreakモ
ード)を決定する。例えば、運動欲(Exercise)82Aが
Highであって愛情欲(Affection)82BがLowである場
合、第4のBreakモードに決定される。また例えば、運
動欲(Exercise)82AがLowであって愛情欲(Affection)
82Bがhighである場合、第5のBreakモードに決定さ
れる。
At step S65, the controller 1
0 means the desire to exercise as shown in FIG. 24, which is prepared in advance.
The Break mode (first to fifth Break modes) is determined based on the matrix table of (Exercise) 82A and Affection 82B. For example, Exercise 82A
When the Affection 82B is High and the Affection 82B is Low, the fourth Break mode is determined. Also, for example, Exercise 82A is Low and Affection
If 82B is high, the fifth Break mode is determined.

【0119】なお、運動欲(Exercise)82Aと愛情欲(A
ffection)82BがともにVhighである場合、Vividモー
ドに遷移される。また、運動欲(Exercise)82AがVlow
である場合、Sleepモードに遷移される。
The exercise desire (Exercise) 82A and the affection desire (A)
ffection) 82B are both Vhigh, the transition to the Vivid mode is made. Also, Exercise 82A is Vlow
If it is, the sleep mode is entered.

【0120】ステップS66において、コントローラ1
0は、ステップS65で決定したモードに定義されてい
るコンテンツを選択する。ステップS67において、コ
ントローラ10は、ステップS66で選択したコンテン
ツを発現させる。以上、Breakモードにおいて発現させ
るコンテンツを決定する処理の説明を終了する。
At step S66, the controller 1
0 selects the content defined in the mode determined in step S65. In step S67, the controller 10 expresses the content selected in step S66. This is the end of the description of the process of determining the content to be expressed in the Break mode.

【0121】第8の特徴的行動として、ペットロボット
1は、他のペットロボット1と音階を用いて会話等のコ
ミュニケーションを実行するようになされている。
As an eighth characteristic action, the pet robot 1 is adapted to execute communication such as conversation with another pet robot 1 using a scale.

【0122】ペットロボット1は、ユーザからの所定の
操作(例えば、尻尾部ユニット5に設けられたタッチセ
ンサに17に接触する)に対応して、他のペットロボッ
ト1に対してコミュニケーションの開始を示すコマンド
を発現する(所定の音階を出力する)。このコミュニケ
ーションの開始を示すコマンドを発現したペットロボッ
ト1を、以下、マスタを記述する。反対に、コミュニケ
ーションの開始を示すコマンドを検知してそれに従うこ
ととなる他のペットロボット1を、以下、スレーブと記
述する。
The pet robot 1 starts communication with another pet robot 1 in response to a predetermined operation from the user (for example, touching a touch sensor provided on the tail unit 5). Expresses the indicated command (outputs a predetermined scale). The master of the pet robot 1 that expresses the command indicating the start of this communication will be described below. On the contrary, another pet robot 1 that detects a command indicating the start of communication and follows it will be referred to as a slave hereinafter.

【0123】マスタは、予め設定されているシナリオ
(インタビュ、相性チェック等)のうちの1つを選択し
て実行する。
The master selects and executes one of preset scenarios (interview, compatibility check, etc.).

【0124】例えば、インタビュのシナリオでは、以下
に示すような会話に相当する音階、または動作がマスタ
およびスレーブによって発現される。 マスタ「おはよう!」 スレーブ「おはよう!」 マスタ「お名前は?」 スレーブ「xxx」(登録されていない場合、悲しむ動
作) マスタ「オーナー名は?」 スレーブ「xxx」(登録されていない場合、悲しむ動
作) マスタ「世代は?」 スレーブ「xxx」 マスタ「さようなら」 スレーブ「さようなら」
For example, in the interview scenario, the scale or motion corresponding to the conversation shown below is expressed by the master and the slave. Master "Good morning!" Slave "Good morning!" Master "What is your name?" Slave "xxx" (Sorry operation if not registered) Master "Owner name?" Slave "xxx" (Sorry if not registered Operation) Master "What is the generation?" Slave "xxx" Master "Goodbye" Slave "Goodbye"

【0125】図25は、相性チェックのシナリオを説明
するフローチャートである。ステップS71において、
マスタは、コミュニケーション開始のコマンドを発現す
る。これに対応し、ステップS81において、スレーブ
は、コミュニケーション了解のコマンドを発現する(所
定の音階を出力する)。
FIG. 25 is a flow chart for explaining a compatibility check scenario. In step S71,
The master expresses a command to start communication. Corresponding to this, in step S81, the slave expresses a command of communication understanding (outputs a predetermined scale).

【0126】ステップS72において、マスタは、質問
コマンドを発現する。これに対応し、ステップS82に
おいて、スレーブは、自己の本能値に基づき、回答コマ
ンドを発現する。具体的には、以下のような会話に相当
する音階がマスタおよびスレーブによって発現される。 マスタ「おはよう!」 スレーブ「おはよう!」 マスタ「いま、楽しい?」 スレーブ「YES/NO」 マスタ「いま、怒っている?」 スレーブ「YES/NO」 マスタ「いま、悲しい?」 スレーブ「YES/NO」 マスタ「いま、疲れている?」 スレーブ「YES/NO」
In step S72, the master issues a query command. In response to this, in step S82, the slave expresses a reply command based on its own instinct value. Specifically, a scale corresponding to the following conversation is developed by the master and the slave. Master "Good morning!" Slave "Good morning!" Master "Is it fun now?" Slave "YES / NO" Master "Is angry?" Slave "YES / NO" Master "Is sad now?" Slave "YES / NO""Master" Are you tired now? "Slave" YES / NO "

【0127】ステップS73において、マスタは、スレ
ーブからの回答に基づき、相性を診断する。具体的に
は、スレーブの状態(楽しいか否か、怒っているか否
か、悲しいか否か、疲れているか否か)と、自己の状態
が2項目以上一致する場合、相性が良いと判断し、スレ
ーブの状態と、自己の状態が2項目以上一致しない場
合、相性が悪いと判断する。
In step S73, the master diagnoses the compatibility based on the reply from the slave. Specifically, if the slave's state (whether it is fun, angry, sad, tired or not) and its own state match two or more items, it is determined that the compatibility is good. , If the slave state and the self state do not match two or more items, it is determined that the compatibility is bad.

【0128】ステップS74において、マスタは、ステ
ップS73で相性が良いと判断した場合、愛情シナリオ
(マスタとスレーブが同期してダンスのコンテンツを発
現する)ためのコマンドを発現する。反対に、ステップ
S73で相性が悪いと判断した場合、対決シナリオ(マ
スタとスレーブがじゃんけんをおこない、勝った方が喜
び、負けた方が悲しむコンテンツを発現する)ためのコ
マンドを発現する。
[0128] In step S74, when the master determines that the compatibility is good in step S73, the master develops a command for an affection scenario (the master and the slave synchronously express the dance content). On the other hand, when it is determined that the compatibility is not good in step S73, a command for a confrontation scenario (a master and a slave play rock-paper-scissors, a winner wins, a loser expresses sad content) is expressed.

【0129】これに対応し、ステップS83において、
スレーブは、マスタからのコマンドに対応するコンテン
ツを発現する(マスタと同期してダンスを行う、または
じゃんけんを行い、勝敗に応じて喜ぶか、あるいは悲し
む)。以上、相性チェックのシナリオの説明を終了す
る。
Corresponding to this, in step S83,
The slave develops the content corresponding to the command from the master (dancing or rock-paper-scissors in sync with the master, either happy or sad depending on the win or loss). This completes the description of the compatibility check scenario.

【0130】以上、ペットロボット1の第1乃至第8の
特徴的行動の説明を終了する。
The description of the first to eighth characteristic behaviors of the pet robot 1 has been completed.

【0131】なお、上述した第1乃至第8の特徴的行動
は、図1に示したような動物型のロボットに実行させる
だけでなく、例えば、2足歩行が可能な人間型のロボッ
トや、コンピュータ内で活動する仮想ロボット等に実行
させるようにしてもよい。
The first to eighth characteristic actions described above are not only executed by the animal type robot as shown in FIG. 1, but also, for example, a humanoid robot capable of bipedal walking, It may be executed by a virtual robot or the like that operates in the computer.

【0132】なお、本明細書において、記録媒体に記録
されるプログラムを記述するステップは、記載された順
序に従って時系列的に行われる処理はもちろん、必ずし
も時系列的に処理されなくとも、並列的あるいは個別に
実行される処理をも含むものである。
In the present specification, the steps for writing the program recorded on the recording medium are not limited to the processing performed in time series according to the order described, but may be performed in parallel even if they are not necessarily processed in time series. Alternatively, it also includes processes that are individually executed.

【0133】[0133]

【発明の効果】以上のように、本発明によれば、起動直
後に自律的な行動を活発に実行することができるペット
ロボットを実現することが可能となる。
As described above, according to the present invention, it is possible to realize a pet robot capable of actively executing autonomous behavior immediately after starting.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明を適用したペットロボットの外観の一例
を示す斜視図である。
FIG. 1 is a perspective view showing an example of the appearance of a pet robot to which the present invention is applied.

【図2】図1のペットロボットの内部の構成例を示すブ
ロック図である。
FIG. 2 is a block diagram showing an internal configuration example of the pet robot of FIG.

【図3】ペットロボットの機能モジュールの構成例を示
すブロック図である。
FIG. 3 is a block diagram showing a configuration example of a functional module of a pet robot.

【図4】図3の本能・感情管理部の機能の例を模式的に
示す図である。
4 is a diagram schematically showing an example of functions of an instinct / emotion management unit in FIG.

【図5】ペットロボットのモード遷移を示す図である。FIG. 5 is a diagram showing a mode transition of a pet robot.

【図6】図5のWake Upモードの詳細を示す図である。FIG. 6 is a diagram showing details of the Wake Up mode of FIG.

【図7】日付/季節に対応するコンテンツの一例を示す
図である。
FIG. 7 is a diagram showing an example of contents corresponding to a date / season.

【図8】ペットロボットによる日付/季節対応処理を説
明するフローチャートである。
FIG. 8 is a flowchart illustrating a date / season handling process by a pet robot.

【図9】自律行動を優先した状態と、音声認識機能を優
先した状態とを遷移させる条件を示す図である。
FIG. 9 is a diagram showing a condition for transitioning between a state in which autonomous behavior is prioritized and a state in which voice recognition function is prioritized.

【図10】テレビジョン番組等で放送される所定の音階
と、それに対応して実行されるコンテンツを示す図であ
る。
FIG. 10 is a diagram showing a predetermined scale broadcasted in a television program and the like, and contents executed corresponding to it.

【図11】テレビジョン番組等で放送される所定の音階
と、それに対応して動作可能なコンテンツに追加される
コンテンツを示す図である。
FIG. 11 is a diagram showing a predetermined scale broadcast in a television program and the like, and contents added to contents operable in correspondence therewith.

【図12】ペットロボットに対するユーザの関心度の変
化を推定した図である。
FIG. 12 is a diagram in which a change in the degree of interest of a user to a pet robot is estimated.

【図13】図12に示した理想的なユーザの関心度の変
化を実現するための、ペットロボットによるコンテンツ
の理想的な動作イメージを示す図である。
13 is a diagram showing an ideal operation image of content by a pet robot for realizing the change in the degree of interest of the ideal user shown in FIG.

【図14】図12に示した理想的なユーザの関心度の変
化を実現するための、ペットロボットによるコンテンツ
の実際の動作イメージを示す図である。
FIG. 14 is a diagram showing an actual operation image of contents by a pet robot for realizing the change in the degree of interest of the ideal user shown in FIG. 12;

【図15】ユーザから構われる頻度が高い場合におい
て、ペットロボットがLoveモードに遷移する様子を模式
的に示す図である。
FIG. 15 is a diagram schematically showing how the pet robot transitions to the Love mode when the frequency with which the user cares is high.

【図16】ペットロボットによるインタラクティブなコ
ンテンツ発現処理を説明するフローチャートである。
FIG. 16 is a flowchart illustrating an interactive content expression process performed by a pet robot.

【図17】Vividモードにおいて、自律的行動と定常的
に入力される情報に対する反応を両立する処理を説明す
るフローチャートである。
FIG. 17 is a flowchart illustrating a process for achieving both autonomous behavior and reaction to information that is constantly input in the Vivid mode.

【図18】Vividモードにおける自律的探索行動制御処
理を説明するフローチャートである。
FIG. 18 is a flowchart illustrating an autonomous search action control process in Vivid mode.

【図19】ペットロボットの旋回処理を説明するフロー
チャートである。
FIG. 19 is a flowchart illustrating a turning process of a pet robot.

【図20】旋回処理に実行しているペットロボットの上
方から見た外観図である。
FIG. 20 is an external view of the pet robot that is performing the turning process as seen from above.

【図21】旋回処理におけるペットロボットの頭部ユニ
ット4と胴体部ユニット2の旋回のタイミングを示す図
である。
FIG. 21 is a diagram showing timing of turning of the head unit 4 and the body unit 2 of the pet robot in the turning process.

【図22】Breakモードにおいて発現させるコンテンツ
を決定する処理を説明するフローチャートである。
FIG. 22 is a flowchart illustrating processing for determining content to be expressed in Break mode.

【図23】本能値の運動欲(Exercise)が、その時点まで
に発現したコンテンツの大きさや発現頻度に適応的に変
化されることを示す図である。
[Fig. 23] Fig. 23 is a diagram showing that the exercise motivation (Exercise) of the instinct is adaptively changed depending on the size of the content and the frequency of occurrence of the content up to that point.

【図24】運動欲(Exercise)82Aと愛情欲(Affectio
n)82Bとのマトリクスに対応するBreakモード(第1
乃至第5のBreakモード)を示す図である。
Figure 24: Exercise 82A and affection desire (Affectio)
n) Break mode corresponding to the matrix with 82B (first
It is a figure which shows thru | or 5th Break mode).

【図25】ペットロボット(マスタ)と他のペットロボ
ット(スレーブ)の相性チェックのシナリオを説明する
フローチャートである。
FIG. 25 is a flowchart illustrating a scenario of a compatibility check between a pet robot (master) and another pet robot (slave).

【符号の説明】[Explanation of symbols]

31 センサ入力処理部, 32 情報処理部, 41
角度検出部, 42音量検出部, 43 音声認識
部, 44 画像認識部, 45 圧力検出部, 46
位置検出部, 47 スイッチ入力検出部, 61
本能・感情管理部, 62 行動管理部, 63 姿勢
遷移管理部, 64 制御部, 65音声合成部, 6
6 音データ生成部
31 sensor input processing unit, 32 information processing unit, 41
Angle detection unit, 42 Volume detection unit, 43 Voice recognition unit, 44 Image recognition unit, 45 Pressure detection unit, 46
Position detector, 47 Switch input detector, 61
Instinct / emotion management unit, 62 behavior management unit, 63 posture transition management unit, 64 control unit, 65 voice synthesis unit, 6
6 Sound data generator

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C150 CA02 DA05 DA24 DA25 DA26 DA27 DA28 DF03 DF04 DF06 DF08 DF33 ED10 ED42 ED47 ED52 EF03 EF07 EF09 EF16 EF17 EF22 EF23 EF28 EF29 EF33 EF36 3C007 AS36 CS08 KS21 KS31 KS36 KS39 KT01 MT14 WA04 WA14 WB19 WB23    ─────────────────────────────────────────────────── ─── Continued front page    F term (reference) 2C150 CA02 DA05 DA24 DA25 DA26                       DA27 DA28 DF03 DF04 DF06                       DF08 DF33 ED10 ED42 ED47                       ED52 EF03 EF07 EF09 EF16                       EF17 EF22 EF23 EF28 EF29                       EF33 EF36                 3C007 AS36 CS08 KS21 KS31 KS36                       KS39 KT01 MT14 WA04 WA14                       WB19 WB23

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】 予め設定されている複数のコンテンツを
選択的に実行するロボット装置において、 前記予め設定されている前記複数のコンテンツの中から
1つの前記コンテンツを選択する選択手段と、 前記選択手段によって選択された前記コンテンツを発現
する発現手段とを含み、 前記選択手段は、起動後の所定の期間において大きめの
コンテンツを選択し、 前記発現手段は、前記選択手段によって選択された前記
コンテンツを、起動後の所定の期間において高い頻度で
発現することを特徴とするロボット装置。
1. A robot apparatus for selectively executing a plurality of preset contents, wherein the selecting unit selects one of the preset contents, and the selecting unit. Expression means for expressing the content selected by, the selection means selects a large content in a predetermined period after activation, the expression means, the content selected by the selection means, A robot device, which is frequently expressed in a predetermined period after activation.
【請求項2】 前記選択手段は、季節、日付、および時
刻のうち、少なくとも1つに対応する前記コンテンツを
選択することを特徴とする請求項1に記載のロボット装
置。
2. The robot apparatus according to claim 1, wherein the selecting unit selects the content corresponding to at least one of a season, a date, and a time.
【請求項3】 前記選択手段は、前回の終了時から今回
の起動時までの期間、設定される感情および欲求のうち
の少なくとの1つに対応して、前記コンテンツを選択す
ることを特徴とする請求項1に記載のロボット装置。
3. The selection means selects the content in response to at least one of emotion and desire set during a period from the time of the previous termination to the time of the current activation. The robot apparatus according to claim 1.
【請求項4】 前記発現手段は、前回の終了時から今回
の起動時までの期間、設定される感情および欲求のうち
の少なくとの1つに対応して、前記コンテンツの発現頻
度を調整することを特徴とする請求項1に記載のロボッ
ト装置。
4. The expression unit adjusts the expression frequency of the content in response to at least one of emotion and desire set during the period from the end of the previous time to the start of the present time. The robot apparatus according to claim 1, wherein:
【請求項5】 ユーザの発声を認識する音声認識手段
と、 ユーザの接触を検知する検知手段とをさらに含むことを
特徴とする請求項1に記載のロボット装置。
5. The robot apparatus according to claim 1, further comprising voice recognition means for recognizing a user's utterance, and detection means for detecting a user's contact.
【請求項6】 前記選択手段は、前記音声認識手段によ
る音声認識の頻度、および前記検知手段によるユーザの
接触の頻度の少なくとも一方に対応して、前記コンテン
ツを選択することを特徴とする請求項5に記載のロボッ
ト装置。
6. The selection unit selects the content according to at least one of the frequency of voice recognition by the voice recognition unit and the frequency of contact of a user by the detection unit. 5. The robot apparatus according to item 5.
【請求項7】 前記発現手段は、前記音声認識手段によ
って音声認識がなされたこと、および前記検知手段によ
ってユーザの接触が検知されたことをユーザに通知する
通知手段を含むことを特徴とする請求項5に記載のロボ
ット装置。
7. The expression means includes a notification means for notifying a user that the voice recognition means has performed voice recognition and that the contact of the user has been detected by the detection means. The robot apparatus according to Item 5.
【請求項8】 前記音声認識手段は音階も認識すること
を特徴とする請求項5に記載のロボット装置。
8. The robot apparatus according to claim 5, wherein the voice recognition unit also recognizes a scale.
【請求項9】 前記選択手段は、前記音声認識手段によ
って所定の音階が認識された場合、所定のコンテンツを
選択することを特徴とする請求項8に記載のロボット装
置。
9. The robot apparatus according to claim 8, wherein the selection unit selects a predetermined content when the predetermined scale is recognized by the voice recognition unit.
【請求項10】 前記音声認識手段によって所定の音階
が認識された場合、発現可能なコンテンツを追加する追
加手段をさらに含むことを特徴とする請求項8に記載の
ロボット装置。
10. The robot apparatus according to claim 8, further comprising an addition unit that adds content that can be expressed when a predetermined scale is recognized by the voice recognition unit.
【請求項11】 前記音声認識手段によって所定の音階
が認識された場合、認識された音階に対応する応答とし
ての音階を出力する出力手段をさらに含むことを特徴と
する請求項8に記載のロボット装置。
11. The robot according to claim 8, further comprising output means for outputting a scale as a response corresponding to the recognized scale when the voice recognition means recognizes a predetermined scale. apparatus.
【請求項12】 画像信号を取得する取得手段と、前記
取得手段によって取得された前記画像信号に基づいて動
体を検知する検知手段と、 前記検知手段の検知結果に対応して、前記取得手段によ
って取得された前記画像信号を保存する保存手段とをさ
らに含むことを特徴とする請求項1に記載のロボット装
置。
12. An acquisition unit for acquiring an image signal, a detection unit for detecting a moving body based on the image signal acquired by the acquisition unit, and an acquisition unit for detecting a detection result of the detection unit. The robot apparatus according to claim 1, further comprising a storage unit that stores the acquired image signal.
【請求項13】 予め設定されている複数のコンテンツ
を選択的に実行するロボット装置のロボット制御方法に
おいて、 前記予め設定されている前記複数のコンテンツの中から
1つの前記コンテンツを選択する選択ステップと、 前記選択ステップの処理で選択された前記コンテンツを
発現する発現ステップとを含み、 前記選択ステップの処理は、起動後の所定の期間におい
て大きめのコンテンツを選択し、 前記発現ステップの処理は、前記選択ステップの処理で
選択された前記コンテンツを、起動後の所定の期間にお
いて高い頻度で発現することを特徴とするロボット制御
方法。
13. A robot control method for a robot apparatus for selectively executing a plurality of preset contents, the selecting step of selecting one of the preset contents from the plurality of contents. , Including an expression step of expressing the content selected in the processing of the selection step, the processing of the selection step selects a large content in a predetermined period after activation, the processing of the expression step, A robot control method, wherein the content selected in the process of the selecting step is expressed with high frequency in a predetermined period after activation.
【請求項14】 予め設定されている複数のコンテンツ
を選択的に実行するロボット装置用のプログラムであっ
て、 前記予め設定されている前記複数のコンテンツの中から
1つの前記コンテンツを選択する選択ステップと、 前記選択ステップの処理で選択された前記コンテンツを
発現する発現ステップとを含み、 前記選択ステップの処理は、起動後の所定の期間におい
て大きめのコンテンツを選択し、 前記発現ステップの処理は、前記選択ステップの処理で
選択された前記コンテンツを、起動後の所定の期間にお
いて高い頻度で発現することを特徴とするコンピュータ
が読み取り可能なプログラムが記録されている記録媒
体。
14. A program for a robot apparatus for selectively executing a plurality of preset contents, the selecting step of selecting one of the preset contents from the plurality of contents. And, including an expression step of expressing the content selected in the processing of the selection step, the processing of the selection step selects a large content in a predetermined period after activation, the processing of the expression step, A recording medium on which a computer-readable program is recorded, wherein the content selected in the process of the selecting step is expressed with high frequency in a predetermined period after activation.
【請求項15】 予め設定されている複数のコンテンツ
を選択的に実行するロボット装置用のコンピュータに、 前記予め設定されている前記複数のコンテンツの中から
1つの前記コンテンツを選択する選択ステップと、 前記選択ステップの処理で選択された前記コンテンツを
発現する発現ステップとを実行させ、 前記選択ステップの処理は、起動後の所定の期間におい
て大きめのコンテンツを選択し、 前記発現ステップの処理は、前記選択ステップの処理で
選択された前記コンテンツを、起動後の所定の期間にお
いて高い頻度で発現することを特徴とするプログラム。
15. A selection step of selecting one of the preset contents from among the preset preset contents in a computer for a robot device that selectively executes preset contents. The expression step of expressing the content selected in the processing of the selecting step is executed, the processing of the selecting step selects a large content in a predetermined period after activation, and the processing of the expressing step is A program, characterized in that the content selected in the process of the selecting step is expressed with high frequency in a predetermined period after starting.
JP2002108909A 2002-04-11 2002-04-11 Robot device, robot control method, recording medium and program Withdrawn JP2003305674A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002108909A JP2003305674A (en) 2002-04-11 2002-04-11 Robot device, robot control method, recording medium and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002108909A JP2003305674A (en) 2002-04-11 2002-04-11 Robot device, robot control method, recording medium and program

Publications (1)

Publication Number Publication Date
JP2003305674A true JP2003305674A (en) 2003-10-28

Family

ID=29392516

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002108909A Withdrawn JP2003305674A (en) 2002-04-11 2002-04-11 Robot device, robot control method, recording medium and program

Country Status (1)

Country Link
JP (1) JP2003305674A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014075045A (en) * 2012-10-04 2014-04-24 Sharp Corp Controller, method for controlling controller, device to be controlled, server, control program, and recording medium
JP2016198843A (en) * 2015-04-09 2016-12-01 富士通株式会社 Control method, control apparatus, and program
WO2018157388A1 (en) * 2017-03-03 2018-09-07 深圳前海达闼云端智能科技有限公司 Wake-up method and device for robot, and robot

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014075045A (en) * 2012-10-04 2014-04-24 Sharp Corp Controller, method for controlling controller, device to be controlled, server, control program, and recording medium
JP2016198843A (en) * 2015-04-09 2016-12-01 富士通株式会社 Control method, control apparatus, and program
WO2018157388A1 (en) * 2017-03-03 2018-09-07 深圳前海达闼云端智能科技有限公司 Wake-up method and device for robot, and robot

Similar Documents

Publication Publication Date Title
JP2003340759A (en) Robot device and robot control method, recording medium and program
US11024294B2 (en) System and method for dialogue management
KR100843822B1 (en) Robot device, method for controlling motion of robot device, and system for controlling motion of robot device
JP7400923B2 (en) Information processing device and information processing method
US20190206402A1 (en) System and Method for Artificial Intelligence Driven Automated Companion
US11003860B2 (en) System and method for learning preferences in dialogue personalization
US20180370039A1 (en) More endearing robot, method of controlling the same, and non-transitory recording medium
WO2001039932A1 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
JPH11126017A (en) Storage medium, robot, information processing device and electronic pet system
EP3923198A1 (en) Method and apparatus for processing emotion information
JP2010149276A (en) Robot device and motion control method
JP5227362B2 (en) Emotion engine, emotion engine system, and electronic device control method
JP2003039363A (en) Robot device, action learning method therefor, action learning program thereof, and program recording medium
JP2013099823A (en) Robot device, robot control method, robot control program and robot system
JP7363764B2 (en) Information processing device, information processing method, and program
KR100879417B1 (en) Speech output apparatus
US20030014159A1 (en) Robot apparatus and its control method
JP2003305677A (en) Robot device, robot control method, recording medium and program
JP2003071763A (en) Leg type mobile robot
JP2003340760A (en) Robot device and robot control method, recording medium and program
JP4757979B2 (en) Electronic toy
JP2003305674A (en) Robot device, robot control method, recording medium and program
KR20180082777A (en) Communion robot system for senior citizen
JP7156300B2 (en) Information processing device, information processing method, and program
WO2023037608A1 (en) Autonomous mobile body, information processing method, and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050705