JP2001191274A - Data holding device, robot device, modification device and modification method - Google Patents

Data holding device, robot device, modification device and modification method

Info

Publication number
JP2001191274A
JP2001191274A JP37727999A JP37727999A JP2001191274A JP 2001191274 A JP2001191274 A JP 2001191274A JP 37727999 A JP37727999 A JP 37727999A JP 37727999 A JP37727999 A JP 37727999A JP 2001191274 A JP2001191274 A JP 2001191274A
Authority
JP
Japan
Prior art keywords
changing
software
user
data
question
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP37727999A
Other languages
Japanese (ja)
Inventor
Hideki Noma
英樹 野間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP37727999A priority Critical patent/JP2001191274A/en
Publication of JP2001191274A publication Critical patent/JP2001191274A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To improve an entertainment property of a virtual creature or a robot device. SOLUTION: In a data holding device holding program data for the virtual creature and a robot device, a changing means changing the program held in the holding means under the control of external equipment is arranged. In the changing device and the changing method for changing the program for the virtual creature or the robot device, a predetermined question is asked to a user, and reflecting the answer from the user to the question, the data for changing the program of the virtual creature or the robot device is produced.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明はデータ保持装置、ロ
ボット装置、変更装置及び変更方法に関し、例えばペッ
トロボットに適用して好適なものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a data holding device, a robot device, a changing device, and a changing method, and is suitable for application to, for example, a pet robot.

【0002】[0002]

【従来の技術】近年、外部入力や周囲の状況に応じて自
律的に行動するようになされたロボットやぬいぐるみな
どが数多く商品化されている。またこのような3次元空
間上での実体を有さずに、パーソナルコンピュータや、
ゲーム機及び電話などの携帯端末機器の内部にデータと
して保持され、これらパーソナルコンピュータ又は携帯
端末機器のディスプレイ上において自律的に行動するキ
ャラクタなども数多く登場している。
2. Description of the Related Art In recent years, many robots and stuffed animals which autonomously act according to external inputs and surrounding conditions have been commercialized. In addition, without having such an entity in a three-dimensional space, a personal computer,
Many characters that are held as data inside portable terminal devices such as game machines and telephones and that act autonomously on the displays of these personal computers or portable terminal devices have appeared.

【0003】なお以下においては、パーソナルコンピュ
ータや、ゲーム機及び電話などの携帯端末機器、ロボッ
ト並びにぬいぐるみなどの記録媒体をもつハードウェア
にソフトウェアとして保持され、行動又は動作すること
をプログラムされたキャラクタを仮想生物と呼ぶ。
[0003] In the following, a character which is stored as software in hardware having a recording medium such as a personal computer, a portable terminal device such as a game machine and a telephone, a robot and a stuffed toy, and which is programmed to act or operate is referred to as a character. Called virtual creatures.

【0004】[0004]

【発明が解決しようとする課題】ところがかかる従来の
仮想生物においては、感情傾向、本能傾向及び性格等の
個性や、行動、動作及びサウンド等の行動形態が仕様に
より予め決められており、当該仕様が全てのユーザの嗜
好や生活環境に適合しない問題があった。
However, in such conventional virtual creatures, personalities such as emotional tendencies, instinct tendencies and personalities, and behavioral forms such as actions, actions and sounds are determined in advance by specifications. However, there is a problem that it is not suitable for all users' preferences and living environments.

【0005】そこでこのような仮想生物において、個性
や行動形態をユーザの嗜好や生活環境に合わせて選択す
ることができるようにすれば、仮想生物としての面白み
を向上させて、当該仮想生物のエンターテイメント性を
向上させ得るものと考えられる。
[0005] Therefore, in such a virtual creature, if it is possible to select the personality and the behavior form according to the user's preference and living environment, the fun as the virtual creature is improved, and the entertainment of the virtual creature is improved. It is considered that the property can be improved.

【0006】本発明は以上の点を考慮してなされたもの
で、仮想生物やロボット装置のエンターテイメント性を
向上させ得るデータ保持装置、ロボット装置、変更装置
及び変更方法を提案しようとするものである。
SUMMARY OF THE INVENTION The present invention has been made in view of the above points, and it is an object of the present invention to propose a data holding device, a robot device, a changing device, and a changing method capable of improving the entertainment property of a virtual creature or a robot device. .

【0007】[0007]

【課題を解決するための手段】かかる課題を解決するた
め本発明においては、データ保持装置において、仮想生
物のソフトウェアを保持する保持手段と、外部機器の制
御のもとに、当該ソフトウェアを変更する変更手段とを
設けるようにした。この結果このデータ保持装置では、
仮想生物のソフトウェアをユーザの意志を加味して変更
することができる。
According to the present invention, there is provided a data holding device, comprising: a holding unit for holding software of a virtual creature; and a software for changing the software under control of an external device. A change means is provided. As a result, in this data holding device,
The software of the virtual creature can be changed in consideration of the user's will.

【0008】また本発明においては、ロボット装置にお
いて、ソフトウェアを保持する保持手段と、外部機器の
制御のもとに、当該ソフトウェアを変更する変更手段と
を設けるようにした。この結果このロボット装置では、
ソフトウェアをユーザの意志に応じて変更することがで
きる。
Further, in the present invention, the robot device is provided with holding means for holding software and changing means for changing the software under the control of an external device. As a result, in this robot device,
The software can be changed according to the user's will.

【0009】さらに本発明においては、仮想生物のソフ
トウェアを変更する変更装置において、所定の質問をユ
ーザに行う質問手段と、質問に対するユーザの答えを反
映させながら当該ソフトウェアを変更するためのデータ
を生成するデータ生成手段とを設けるようにした。この
結果この変更装置では、ユーザの意志を加味しながら仮
想生物のソフトウェアの変更を行うことができる。
Further, in the present invention, in a changing device for changing software of a virtual creature, a question means for asking a user a predetermined question and generating data for changing the software while reflecting an answer of the user to the question are generated. And a data generating means for performing the processing. As a result, this changing device can change the software of the virtual creature while taking the user's intention into account.

【0010】さらに本発明においては、仮想生物のソフ
トウェアを変更する変更方法において、所定の質問をユ
ーザに行う第1のステップと、質問に対するユーザの答
えを反映させながら仮想生物のソフトウェアを変更する
ためのデータを生成する第2のステップとを設けるよう
にした。この結果この変更方法によれば、ユーザの意志
を加味しながら仮想生物のソフトウェアの変更を行うこ
とができる。
Further, in the present invention, in the changing method for changing the software of the virtual creature, a first step of giving a predetermined question to the user and changing the software of the virtual creature while reflecting the user's answer to the question are provided. And a second step of generating the data. As a result, according to this changing method, the software of the virtual creature can be changed while taking the user's intention into account.

【0011】さらに本発明においては、ロボット装置の
ソフトウェアを変更する変更装置において、所定の質問
をユーザに行う質問手段と、質問に対するユーザの答え
を反映させながらロボット装置のソフトウェアを変更す
るための所定のデータを生成するデータ生成手段とを設
けるようにした。この結果この変更装置では、ユーザの
意志を加味しながらロボット装置のソフトウェアの変更
を行うことができる。
Further, according to the present invention, there is provided a changing device for changing software of a robot device, a question means for asking a user a predetermined question, and a predetermined device for changing software of the robot device while reflecting an answer of the user to the question. And a data generating means for generating the data. As a result, this changing device can change the software of the robot device while taking the user's intention into account.

【0012】さらに本発明においては、ロボット装置の
ソフトウェアを変更する変更方法において、所定の質問
をユーザに行う第1のステップと、質問に対するユーザ
の答えを反映させながらロボット装置のソフトウェアを
変更するための所定のデータを生成する第2のステップ
とを設けるようにした。この結果この変更方法によれ
ば、ユーザの意志を加味しながらロボット装置のソフト
ウェアの変更を行うことができる。
Further, according to the present invention, in the changing method for changing the software of the robot device, the first step of giving a predetermined question to the user and the changing of the software of the robot device while reflecting the answer of the user to the question are provided. And a second step of generating the predetermined data. As a result, according to this changing method, it is possible to change the software of the robot device while taking the user's intention into consideration.

【0013】[0013]

【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings.

【0014】(1)ペットロボットの構成 (1−1)本実施の形態によるペットロボットの構成 図1において、1は全体として本実施の形態によるペッ
トロボットを示し、胴体部ユニット2の前後左右にそれ
ぞれ脚部ユニット3A〜3Dが連結されると共に、胴体
部ユニット2の前端部及び後端部にそれぞれ頭部ユニッ
ト4及び尻尾部ユニット5が連結されることにより構成
されている。
(1) Configuration of Pet Robot (1-1) Configuration of Pet Robot According to the Present Embodiment In FIG. 1, reference numeral 1 denotes a pet robot as a whole according to the present embodiment. The leg units 3A to 3D are connected to each other, and the head unit 4 and the tail unit 5 are connected to the front end and the rear end of the body unit 2, respectively.

【0015】この場合胴体部ユニット2には、図2に示
すように、このペットロボット1全体の動作を制御する
コントローラ10と、このペットロボット1の動力源と
なるバッテリ11と、バッテリセンサ12及び熱センサ
13からなる内部センサ部14となどが収納されてい
る。
In this case, as shown in FIG. 2, a controller 10 for controlling the entire operation of the pet robot 1, a battery 11 serving as a power source for the pet robot 1, a battery sensor 12 and An internal sensor unit 14 including the thermal sensor 13 and the like are housed.

【0016】また頭部ユニット4には、このペットロボ
ットの「耳」に相当するマイクロホン15と、「目」に
相当するCCD(Charge Coupled De
vice)カメラ16と、タッチセンサ17と、「口」
に相当するスピーカ18となどがそれぞれ所定位置に配
設されている。
The head unit 4 has a microphone 15 corresponding to the "ears" of the pet robot and a CCD (Charge Coupled De) corresponding to the "eyes".
vice) camera 16, touch sensor 17, "mouth"
Are arranged at predetermined positions.

【0017】さらに各脚部ユニット3A〜3Dの関節部
分や、各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、頭部ユニット4及び胴体部ユニット2の
連結部分、並びに尻尾部ユニット5及び胴体部ユニット
2の連結部分などにはそれぞれアクチュエータ19
19が配設されている。
Further, the joints of the leg units 3A to 3D, the leg units 3A to 3D and the trunk unit 2
Each coupling portion of the coupling portion of the head unit 4 and body unit 2, and each actuator 19 1 ~ is like the connecting portions of the tail unit 5 and the body unit 2
19 n are provided.

【0018】そして頭部ユニット4のマイクロホン15
は、ユーザから図示しないサウンドコマンダを介して音
階として与えられる「歩け」、「伏せ」又は「ボールを
追いかけろ」等の指令音を集音し、得られた音声信号S
1をコントローラ10に送出する。またCCDカメラ1
6は、周囲の状況を撮像し、得られた画像信号S2をコ
ントローラ10に送出する。
The microphone 15 of the head unit 4
Collects a command sound such as “walk”, “down” or “follow the ball” given as a musical scale by a user via a sound commander (not shown), and obtains an obtained audio signal S.
1 is sent to the controller 10. CCD camera 1
6 captures an image of the surroundings and sends the obtained image signal S2 to the controller 10.

【0019】さらにタッチセンサ17は、図1において
明らかなように、頭部ユニット4の上部に設けられてお
り、ユーザからの「撫でる」や「叩く」といった物理的
な働きかけにより受けた圧力を検出し、検出結果を圧力
検出信号S3としてコントローラ10に送出する。
As shown in FIG. 1, the touch sensor 17 is provided above the head unit 4, and detects a pressure applied by a physical action such as "stroke" or "hit" from the user. Then, the detection result is sent to the controller 10 as a pressure detection signal S3.

【0020】さらに胴体部ユニット2のバッテリセンサ
12は、バッテリ11のエネルギー残量を検出し、検出
結果をバッテリ残量検出信号S4としてコントローラ1
0に送出し、熱センサ13は、ペットロボット1内部の
熱を検出して検出結果を熱検出信号S5としてコントロ
ーラ10に送出する。
Further, the battery sensor 12 of the body unit 2 detects the remaining energy of the battery 11, and uses the detection result as a remaining battery detection signal S4.
0, the heat sensor 13 detects the heat inside the pet robot 1 and sends the detection result to the controller 10 as a heat detection signal S5.

【0021】コントローラ10は、マイクロホン15、
CCDカメラ16、タッチセンサ17、バッテリセンサ
12及び熱センサ13から与えられる音声信号S1、画
像信号S2、圧力検出信号S3、バッテリ残量検出信号
S4及び熱検出信号S5などに基づいて、周囲の状況
や、ユーザからの指令及びユーザからの働きかけの有無
などを判断する。
The controller 10 includes a microphone 15,
Surrounding conditions are determined based on the audio signal S1, image signal S2, pressure detection signal S3, remaining battery detection signal S4, heat detection signal S5, and the like provided from the CCD camera 16, the touch sensor 17, the battery sensor 12, and the heat sensor 13. And whether or not there is a command from the user and whether or not there is an action from the user.

【0022】そしてコントローラ10は、この判断結果
及び予めメモリ10Aに格納されている各種制御パラメ
ータを含む制御プログラムに基づいて続く行動や動作を
決定し、決定結果に基づいて必要なアクチュエータ19
〜19を駆動させることにより、頭部ユニット4を
上下左右に振らせたり、尻尾部ユニット5の尻尾5Aを
動かせたり、各脚部ユニット3A〜3Dを駆動して歩行
させるなどの行動や動作を行わせる。なお以下において
は、動作の集合を行動と定義して使用するものとする。
The controller 10 determines a subsequent action or operation based on the result of the determination and a control program including various control parameters stored in advance in the memory 10A.
By driving the 1 ~ 19 n, or to shake the head unit 4 up and down and right and left, or to move the tail 5A of the tail unit 5, Ya behaviors such as to walk by driving the leg units 3A~3D Perform the operation. In the following, a set of actions is defined and used as an action.

【0023】またこの際コントローラ10は、必要に応
じて所定の音声信号S6をスピーカ18に与えることに
より当該音声信号S6に基づく音声を外部に出力させた
り、このペットロボット1の「目」の位置に設けられた
図示しないLED(Light Emitting D
iode)を点滅させる。
At this time, the controller 10 outputs a sound based on the sound signal S6 to the outside by giving a predetermined sound signal S6 to the speaker 18 if necessary, or the position of the "eye" of the pet robot 1 LED (Light Emitting D)
(iode) blinks.

【0024】このようにしてこのペットロボット1にお
いては、周囲の状況や、メモリ10Aに格納された制御
プログラム等に基づいて自律的に行動し得るようになさ
れている。
In this way, the pet robot 1 can behave autonomously based on the surrounding conditions, control programs stored in the memory 10A, and the like.

【0025】(1−2)制御プログラムのソフトウェア
構成 ここでペットロボット1における上述の制御プログラム
のソフトウェア構成を図3に示す。この図3からも明ら
かなように、制御プログラムは、意味変換オブジェクト
20、感情・本能生成オブジェクト21、行動決定オブ
ジェクト22及び行動生成オブジェクト23から構成さ
れている。
(1-2) Software Configuration of Control Program The software configuration of the above-described control program in the pet robot 1 is shown in FIG. As is clear from FIG. 3, the control program includes a semantic conversion object 20, an emotion / instinct generation object 21, an action determination object 22, and an action generation object 23.

【0026】この場合、意味変換オブジェクト20は、
マイクロホン15、CCDカメラ16、タッチセンサ1
7、バッテリセンサ12及び熱センサ13から与えられ
る音声信号S1、画像信号S2、圧力検出信号S3、バ
ッテリ残量検出信号S4及び熱検出信号S5を入力し、
これらに基づいて「叩かれた」、「撫でられた」、「ボ
ールを検出した」、「バッテリ残量が少なくなった」、
「内部温度が高くなった」等の特定の外部状態及び内部
状態を認識し、認識結果を感情・本能生成オブジェクト
21及び行動決定オブジェクト22に通知する。
In this case, the meaning conversion object 20 is
Microphone 15, CCD camera 16, touch sensor 1
7. Input audio signal S1, image signal S2, pressure detection signal S3, remaining battery detection signal S4, and heat detection signal S5 provided from battery sensor 12 and heat sensor 13,
Based on these, "hit", "stroke", "ball detected", "battery low",
It recognizes a specific external state and internal state such as “the internal temperature has become high” and notifies the recognition result to the emotion / instinct generation object 21 and the action determination object 22.

【0027】感情・本能生成オブジェクト21は、意味
変換オブジェクト20から与えられる認識結果と、メモ
リ10Aに格納された制御パラメータの1つである個人
情報24と、後述のように行動決定オブジェクト22か
ら与えられる実行した行動を表す通知とに基づいてペッ
トロボット1の感情及び本能の状態を決定し、当該感情
及び本能の状態が所定レベルを越えた場合には、これを
行動決定オブジェクト22に通知する。
The emotion / instinct generation object 21 receives a recognition result given from the meaning conversion object 20, personal information 24 which is one of the control parameters stored in the memory 10A, and an action decision object 22 as described later. The emotion and the instinct state of the pet robot 1 are determined based on the notification indicating the executed action, and when the emotion and the instinct state exceed a predetermined level, the action determination object 22 is notified.

【0028】すなわち感情・本能生成オブジェクト21
は、「喜び」、「悲しみ」、「怒り」、「驚き」、「恐
怖」及び「嫌悪」の各情動の強さをそれぞれ表す合計6
つのパラメータを保持する感情モデルと、「愛情欲」、
「探索欲」、「運動欲」及び「食欲」の各欲求の強さを
それぞれ表す合計4つのパラメータを保持する本能モデ
ルとを有している。
That is, the emotion / instinct generation object 21
Is a total of 6 representing the strength of each of the emotions "joy,""sadness,""anger,""surprise,""fear," and "disgust."
Emotion model that holds two parameters,
It has an instinct model that holds a total of four parameters that represent the strengths of the desires “search desire”, “exercise desire”, and “appetite”, respectively.

【0029】またメモリ10Aには、個人情報24とし
て、例えば「叩かれた」ときには「怒り」のパラメータ
を上げると共に「喜び」のパラメータを下げ、「撫でら
れた」ときには「喜び」のパラメータを上げると共に
「怒り」のパラメータを下げ、ある行動を発現したとき
には「運動欲」のパラメータを上げると共に「喜び」の
パラメータを上げるといったような、意味変換オブジェ
クト20の認識結果と、後述の行動決定オブジェクト2
2からの行動を行ったという通知とに対してどの情動又
は欲求のパラメータの値を増加又は減少させるかといっ
たデータが格納されている。
In the memory 10A, as the personal information 24, for example, the parameter of "anger" is increased and the parameter of "joy" is decreased when "hit", and the parameter of "joy" is increased when "stroke". Together with the recognition result of the semantic conversion object 20 such as lowering the parameter of “anger” and increasing the parameter of “greatness” and increasing the parameter of “joy” when a certain action is expressed;
In response to the notification that the action has been performed from No. 2, data indicating which emotion or desire parameter value should be increased or decreased is stored.

【0030】そして感情・本能生成オブジェクト21
は、意味変換オブジェクト20から与えられる認識結果
や、行動決定オブジェクト22からの通知などに基づい
て周期的に感情モデル又は本能モデルの対応する情動又
は欲求のパラメータの値を個人情報に基づいて変更す
る。
The emotion / instinct generation object 21
Periodically changes the value of the corresponding emotion or desire parameter of the emotion model or the instinct model based on the personal information based on the recognition result given from the semantic conversion object 20, the notification from the action determination object 22, and the like. .

【0031】より具体的には、感情・本能生成オブジェ
クト21は、各情動について、その情動の1周期前のパ
ラメータ値をE(n−1)、その周期中に与えられた認
識結果及び行動決定オブジェクト22からの通知内容に
基づき所定の演算により得られる数値をP、その情動に
対して予め設定された感度を表す係数値をkとして、
次式
More specifically, the emotion / instinct generation object 21 sets the parameter value of each emotion before one cycle of the emotion to E (n-1) , the recognition result given during the cycle, and the action determination. the numerical value obtained by a predetermined calculation based on the contents of the notification from the object 22 P, the coefficient values representing the preset sensitivity to the emotion as k e,
Next formula

【0032】[0032]

【数1】(Equation 1)

【0033】によりその情動の次の周期のパラメータ値
(n)を算出し、その情動のパラメータ値をこのパラ
メータ値E(n)に変更する。
Then, the parameter value E (n) of the next cycle of the emotion is calculated, and the parameter value of the emotion is changed to this parameter value E (n) .

【0034】また感情・本能生成オブジェクト21は、
各欲求について、その欲求の1周期前のパラメータ値を
(n−1)、その周期中に与えられた認識結果及び行
動決定オブジェクト22からの通知内容に基づき所定の
演算により得られる数値をQ、その欲求に対して予め設
定された感度を表す係数値をkとして、次式
The emotion / instinct generation object 21
For each desire, the parameter value one cycle before the desire is I (n-1) , and the numerical value obtained by a predetermined calculation based on the recognition result given during the cycle and the notification content from the action determination object 22 is Q , And a coefficient value representing a preset sensitivity to the desire is defined as k i ,

【0035】[0035]

【数2】(Equation 2)

【0036】によりその欲求の次の周期のパラメータ値
(n)を算出し、その欲求のパラメータ値をこのパラ
メータ値I(n)に変更する。
Thus, the parameter value I (n) of the next cycle of the desire is calculated, and the parameter value of the desire is changed to this parameter value I (n) .

【0037】そして感情・本能生成オブジェクト21
は、このような各パラメータ値の更新処理の結果として
いずれかの情動又は欲求のパラメータのパラメータ値が
その情動又は本能に対して予め設定された値を越えたと
きに、これを行動決定オブジェクト22に通知する。
Then, the emotion / instinct generation object 21
When the parameter value of any emotion or desire parameter exceeds a value set in advance for the emotion or instinct as a result of the updating process of each parameter value, the action determination object 22 Notify.

【0038】行動決定オブジェクト22は、意味変換オ
ブジェクト20から与えられる認識結果と、感情・本能
生成オブジェクト21からの通知と、メモリ10Aに格
納された制御パラメータの1つのである行動モデル25
とに基づいて続く行動を決定し、決定結果を行動生成オ
ブジェクト23に通知する。
The action determination object 22 includes a recognition result given from the meaning conversion object 20, a notification from the emotion / instinct generation object 21, and an action model 25 which is one of the control parameters stored in the memory 10A.
Then, the subsequent action is determined based on the above, and the determination result is notified to the action generation object 23.

【0039】なおこの実施の形態の場合、行動決定オブ
ジェクト22は、次の行動を決定する手法として、図4
に示すような1つのノード(状態)NODE〜NOD
から他のどのノードNODE〜NODEに遷移
するかを各ノードNODE〜NODE間を接続する
アークARC〜ARCn−1に対してそれぞれ設定さ
れた遷移確率P〜Pn+1に基づいて確率的に決定す
る確率オートマトンと呼ばれるアルゴリズムを用いる。
In the case of this embodiment, the action determination object 22 uses the method shown in FIG.
One node (state) NODE 0 to NOD as shown in FIG.
Transition probabilities are respectively set whether to transition from E n to any other node NODE 0 ~NODE n relative to the arc ARC 1 ~ARC n-1 that connects between the nodes NODE 0 ~NODE n P 1 ~P n + 1 An algorithm called a probabilistic automaton that is determined stochastically based on is used.

【0040】より具体的には、メモリ10Aには行動モ
デル25として各ノードNODE〜NODEごとの
図5に示すような状態遷移表26が格納されており、行
動決定オブジェクト22がこれら状態遷移表26に基づ
いて続く行動を設定するようになされている。
More specifically, a state transition table 26 as shown in FIG. 5 for each of the nodes NODE 0 to NODE n is stored in the memory 10A as the behavior model 25, and the behavior determination object 22 The following action is set based on Table 26.

【0041】すなわち状態遷移表26においては、その
ノードNODE〜NODEにおいて遷移条件とする
入力イベント(認識結果)が「入力イベント」の行に優
先順に列記され、その遷移条件についてのさらなる条件
が「データ名」及び「データ範囲」の行における対応す
る列に記述されている。
That is, in the state transition table 26, input events (recognition results) as transition conditions at the nodes NODE 0 to NODE n are listed in a row of “input event” in order of priority, and further conditions for the transition conditions are described. It is described in the corresponding columns in the rows of “data name” and “data range”.

【0042】従って図5の状態遷移表で表されるノード
NODE100では、「ボールを検出(BALL)」と
いう認識結果が与えられた場合に、当該認識結果と共に
与えられるそのボールの「大きさ(SIZE)」が「0
から1000の範囲(0,1000)」であることや、
「障害物を検出(OBSTACLE)」という認識結果
が与えられた場合に、当該認識結果と共に与えられるそ
の障害物までの「距離(DISTANCE)」が「0〜
100の範囲(0,100)」であることが他のノード
に遷移するための条件となっている。
Therefore, in the node NODE 100 represented by the state transition table of FIG. 5, when the recognition result of “detection of ball (BALL)” is given, the “size ( SIZE) is "0
Range from (0, 1000) to
When a recognition result of “obstacle detected (OBSTACLE)” is given, the “distance” to the obstacle given together with the recognition result is “0 to 0”.
A range of 100 (0, 100) "is a condition for transition to another node.

【0043】またこのノードNODE100では、認識
結果の入力がない場合においても、行動決定オブジェク
トが周期的に参照する感情・本能生成オブジェクト21
内の感情モデル及び本能モデルの各情動及び各欲求のパ
ラメータ値のうち、「喜び(JOY)」、「驚き(SU
PRISE)」若しくは「悲しみ(SUDNESS)」
のいずれかのパラメータ値が「50〜100の範囲(5
0,100)」であるときには他のノードに遷移するこ
とができるようになっている。
In the node NODE 100 , even when there is no input of the recognition result, the emotion / instinct generation object 21 which the action decision object refers to periodically.
Among the parameter values of each emotion and each desire of the emotion model and the instinct model in the table, "joy (JOY)" and "surprise (SU
"PRISE)" or "Sadness"
Is within the range of 50 to 100 (5
(0, 100) ", it is possible to transit to another node.

【0044】また状態遷移表26においては、「他のノ
ードへの遷移確率」の欄における「遷移先ノード」の列
にそのノードNODE〜NODEから遷移できるノ
ード名が列記されると共に、「入力イベント名」、「デ
ータ値」及び「データの範囲」の各行に記述された全て
の条件が揃ったときに遷移できる他の各ノードNODE
〜NODEへの遷移確率が「他のノードへの遷移確
率」の欄における「出力行動」の行に記述されている。
なお「他のノードへの遷移確率」の欄における各行の遷
移確率の和は100〔%〕となっている。
[0044] In the state transition table 26, along with the node name that can transition from the node NODE 0 ~NODE n in the column of "transition destination node" in the column of "probability of transition to another node" is listed, " Other nodes NODE that can transition when all the conditions described in each row of “input event name”, “data value” and “data range” are met
The transition probability from 0 to NODE n is described in the row of “output action” in the column of “transition probability to another node”.
Note that the sum of the transition probabilities of each row in the column of “transition probability to another node” is 100%.

【0045】従って図5の状態遷移表26で表されるノ
ードNODE100では、例えば「ボールを検出(BA
LL)」し、そのボールの「大きさ(SIZE)」が
「0〜1000の範囲(0,1000)」であるという
認識結果が与えられた場合には、「30〔%〕」の遷移
確率で「ノードNODE120(node120)」に
遷移でき、そのとき「ACTION 1」の行動が出力
されることとなる。
Therefore, in the node NODE 100 represented by the state transition table 26 of FIG.
LL) ", and given a recognition result that the" size "of the ball is in the range of 0 to 1000 (0, 1000), the transition probability of" 30 [%] " Can be transited to “node NODE 120 (node 120 )”, at which time the action of “ACTION 1” is output.

【0046】そして行動モデル25は、このような状態
遷移表26として記述されたノードNODE〜NOD
がいくつも繋がるようにして構成されている。そし
て行動決定オブジェクト22は、意味変換オブジェクト
20から認識結果が与えられたときや、感情・本能生成
オブジェクト21から通知が与えられたときなどに、メ
モリ10Aに格納されている対応するノードNODE
〜NODEの状態遷移表26を利用して次の行動や動
作を確率的に決定し、決定結果を行動生成オブジェクト
23に通知するようになされている。
The behavior model 25 includes the nodes NODE 0 to NOD described as the state transition table 26.
E n is configured as several leads. When the recognition result is given from the semantic conversion object 20 or when a notice is given from the emotion / instinct generation object 21, the action determination object 22 stores the corresponding node NODE 0 stored in the memory 10A.
The following action and motion determined probabilistically using the status transition table 26 of ~NODE n, is adapted to notify the determined result to the behavior generation object 23.

【0047】行動生成オブジェクト23は、行動決定オ
ブジェクト22からの通知に基づいて、ペットロボット
1が指定された行動や動作を発現するように、必要に応
じて対応するアクチュエータ19〜19を駆動制御
したり、メモリ10Aに格納された制御パラメータの1
つであるサウンドデータファイル内の対応するサウンド
データに基づいて、対応する音声信号S6(図2)を生
成してスピーカ18に送出したり、又はメモリ10Aに
格納された制御パラメータの1つである発光データファ
イル内の対応する発光データに基づいて、「目」の位置
のLEDを対応する発光パターンで点滅させる。
The action generation object 23 drives the corresponding actuators 19 1 to 19 n as needed so that the pet robot 1 expresses the specified action or action based on the notification from the action determination object 22. Control or one of the control parameters stored in the memory 10A.
A corresponding audio signal S6 (FIG. 2) is generated and sent to the speaker 18 based on the corresponding sound data in the sound data file, or one of the control parameters stored in the memory 10A. Based on the corresponding light emission data in the light emission data file, the LED at the position of the "eye" blinks in a corresponding light emission pattern.

【0048】このようにしてペットロボット1において
は、制御プログラムに基づいて、自己及び周囲の状況
や、ユーザからの指示及び働きかけに応じた自律的な行
動を行うことができるようになされている。
As described above, the pet robot 1 can perform an autonomous action according to its own and surrounding conditions, instructions and actions from the user, based on the control program.

【0049】(2)本実施の形態によるネットワークシ
ステム30の構成 (2−1)ネットワークシステム30の構成 ここでペットロボット1の場合、胴体部ユニット2には
USB(Universal Serial Bus)
等の所定の規格に応じたコネクタ(図示せず)が設けら
れており、ペットロボット1を初期起動する以前の期間
にのみ、当該コネクタを介してコントローラ10にアク
セスし、当該コントローラ10を制御して、メモリ10
Aに格納された制御プログラムに含まれる各種制御パラ
メータをユーザの嗜好や生活環境等に応じて書き換える
ことができるようになされている。
(2) Configuration of Network System 30 According to the Present Embodiment (2-1) Configuration of Network System 30 In the case of the pet robot 1, the body unit 2 is connected to a USB (Universal Serial Bus).
A connector (not shown) is provided in accordance with a predetermined standard such as, for example, the controller 10 accesses the controller 10 via the connector only during a period before the pet robot 1 is initially activated, and controls the controller 10. And the memory 10
Various control parameters included in the control program stored in A can be rewritten according to the user's preference, living environment, and the like.

【0050】図6は、このようなペットロボット1の各
種制御パラメータの書き換えを行い得るようになされた
ネットワークシステム30を示すものである。
FIG. 6 shows a network system 30 capable of rewriting such various control parameters of the pet robot 1.

【0051】かかるネットワークシステム30において
は、個人端末31A〜31Cが衛星通信回線32や、ケ
ーブルテレビジョン回線33又は電話回線34等を通じ
てインターネットプロバイダ35と接続されると共に、
当該インターネットプロバイダ35がインターネット3
6を介してデータ販売業者37のサーバ38と接続さ
れ、さらに当該サーバ38に一般公衆回線39を介して
個人端末31Dが直接に接続されることにより構成され
ている。
In the network system 30, the personal terminals 31A to 31C are connected to the Internet provider 35 via the satellite communication line 32, the cable television line 33, the telephone line 34, and the like.
The Internet provider 35 is the Internet 3
6 is connected to a server 38 of a data distributor 37, and a personal terminal 31 </ b> D is directly connected to the server 38 via a general public line 39.

【0052】この場合、各個人端末31A〜31Dは、
一般家庭等に設置された通常のパーソナルコンピュータ
であり、インターネット36又は一般公衆回線39を介
してサーバ38と通信して当該サーバ38との間で必要
なデータを送受信したり、ペットロボット1のコントロ
ーラ10と上述のコネクタを介して通信し、当該コント
ローラ10にメモリ10A内の各種制御パラメータの書
換え処理を行わせたりすることができるようになされて
いる。
In this case, each of the personal terminals 31A to 31D
It is a normal personal computer installed in a general household or the like, communicates with a server 38 via the Internet 36 or a general public line 39 to transmit and receive necessary data to and from the server 38, and controls a controller of the pet robot 1. The controller 10 communicates with the controller 10 via the above-described connector, and allows the controller 10 to rewrite various control parameters in the memory 10A.

【0053】またサーバ38は、データ販売業者37側
に設けられたWebサーバであり、インターネット36
又は一般公衆回線39を介してアクセスしてきた個人端
末31A〜31Dに対して後述のような各種画面の画面
データを送出したり、必要な画像データを生成して当該
画像データに基づく画像を対応する画面上に表示させる
ことができるようになされている。
The server 38 is a Web server provided on the data distributor 37 side, and
Alternatively, screen data of various screens described below are transmitted to the personal terminals 31A to 31D accessed via the general public line 39, or necessary image data is generated to correspond to an image based on the image data. It can be displayed on the screen.

【0054】なおこのサーバ38の構成を図7に示す。
この図7からも明らかなように、サーバ38は、インタ
ーネット36用のインターフェース回路を内蔵するLA
N(Local Area Network)カード4
0と、一般公衆回線39用のインターフェース回路とし
てのモデム41と、サーバ38全体の制御を司るCPU
42と、CPU42のワークメモリとしての半導体メモ
リ等でなる一時記憶メディア43と、サーバ38が後述
のような処理を行うための各種データが格納されたハー
ドディスク装置等のストレージメディア44とから構成
されている。
FIG. 7 shows the configuration of the server 38.
As is clear from FIG. 7, the server 38 is an LA having a built-in interface circuit for the Internet 36.
N (Local Area Network) card 4
0, a modem 41 as an interface circuit for the general public line 39, and a CPU for controlling the entire server 38
42, a temporary storage medium 43 composed of a semiconductor memory or the like as a work memory of the CPU 42, and a storage medium 44 such as a hard disk device in which various data for the server 38 to perform processing described below are stored. I have.

【0055】そしてサーバ38においては、インターネ
ット36又は一般公衆回線39を介してアクセスしてき
た個人端末31A〜31Dから供給されるデータやコマ
ンドをLANカード40又はモデム41を介してCPU
42に取り込み、当該データやコマンドと、ストレージ
メディア44に格納されている制御情報とに基づいて所
定の処理を実行する。
In the server 38, data and commands supplied from the personal terminals 31A to 31D accessed via the Internet 36 or the general public line 39 are transmitted to the CPU via the LAN card 40 or the modem 41.
42, and executes a predetermined process based on the data or command and the control information stored in the storage medium 44.

【0056】そしてCPU42は、この処理結果に応じ
た対応する画面の画面データを必要に応じて生成してこ
れをLANカード40又はモデム41を介して対応する
個人端末31A〜31Dに送出するようになされてい
る。
Then, the CPU 42 generates the screen data of the corresponding screen according to the processing result as necessary, and sends it to the corresponding personal terminals 31A to 31D via the LAN card 40 or the modem 41. It has been done.

【0057】(2−2)ペットロボット1のカスタマイ
ズ手順 次にこのネットワークシステム30を用いた、ペットロ
ボット1の各種制御パラメータの書換え手順について説
明する。このネットワークシステム30は、予め設定さ
れているペットロボット1の感情傾向、本能傾向及び性
格などの内部状態や、行動、動作及びサウンドなどの行
動形態を、図8に示すカスタマイズ手順RTに従ってユ
ーザの嗜好及び生活環境に合わせて仕様を変更(カスタ
マイズ)できるようにしたものである。
(2-2) Procedure for Customizing Pet Robot 1 Next, a procedure for rewriting various control parameters of the pet robot 1 using the network system 30 will be described. The network system 30 determines the preset internal state of the pet robot 1 such as the emotional tendency, instinct tendency and personality, and the behavioral form such as behavior, action and sound according to the customization procedure RT shown in FIG. In addition, specifications can be changed (customized) according to the living environment.

【0058】すなわちネットワークシステム30では、
まずペットロボット1のユーザが個人端末31A〜31
Dを用いてサーバ38にアクセスする(ステップSP
1)。この結果、個人端末31A〜31Dのディスプレ
イには、サーバ38から送信される画面データに基づい
て、図9(A)及び(B)に示すような質問画面50が
表示される(ステップSP2)。
That is, in the network system 30,
First, the user of the pet robot 1 sets the personal terminals 31A to 31A.
D to access the server 38 (step SP
1). As a result, a question screen 50 as shown in FIGS. 9A and 9B is displayed on the displays of the personal terminals 31A to 31D based on the screen data transmitted from the server 38 (step SP2).

【0059】この質問画面50は、ペットロボット1の
内部状態及び行動形態のうち、変更可能な各項目(以
下、これらをそれぞれ変更可能内部状態項目及び変更可
能行動形態項目と呼ぶ)をユーザの嗜好及び生活環境に
合わせてカスタマイズするに際しての各種質問事項を列
記したものである。
The question screen 50 displays the changeable items (hereinafter, referred to as changeable internal state items and changeable behavior form items, respectively) of the pet robot 1 in the user's preference. And various questions when customizing according to the living environment.

【0060】ここでペットロボット1の場合、このよう
な変更可能内部状態項目としては、図10に示すよう
に、「感情傾向」(怒りやすい、喜びやすい、悲観しや
すい等)や、「本能傾向」(なつきにくい、好奇心旺
盛、ぐうたら、お腹が減りやすい等)、「性格」(陽
気、陰気、わんぱく、引込み思案等)、「星座」(牡牛
座、乙女座、天秤座等)、「干支」(犬、龍、羊等)な
どがある。また変更可能行動形態項目としては、「行
動」(犬型、猫型又はロボット型)、「動作」(感情・
本能と動作の関係等)、「サウンド」(ワンワン、ニャ
ンニャン等)、「発光」(感情・本能と発光パターンの
関係等)などがある。
Here, in the case of the pet robot 1, such changeable internal state items include “emotional tendency” (easy to get angry, joyful, pessimistic, etc.) and “instinctive tendency” as shown in FIG. " (Dogs, dragons, sheep, etc.). The changeable behavior form items include “behavior” (dog type, cat type or robot type) and “motion” (emotion /
There are, for example, the relationship between instinct and motion), “sound” (wanwan, pussy, etc.), and “light emission” (relation between emotion / instinct and light emission pattern, etc.).

【0061】そして質問画面50では、これら変更可能
内部状態項目及び変更可能行動形態項目をユーザの嗜好
及び生活環境に合わせて変更するに際して、当該ユーザ
の嗜好及び生活環境を聞き出すための「好みのソフトウ
ェア」(図9(A))及び「ユーザの生活環境」(図9
(B))に関する各種質問事項及びその質問事項に対す
る答えの選択肢が列記されている。
On the question screen 50, when these changeable internal state items and changeable behavior form items are changed in accordance with the user's preference and living environment, a "favorite software" for hearing the user's preference and living environment is displayed. (FIG. 9 (A)) and “user's living environment” (FIG. 9
Various questions regarding (B)) and options for answering the questions are listed.

【0062】例えば「好みのソフトウェア」について
は、質問事項として「ペットロボットのモーション」、
「ペットロボットのサウンド」、「ペットロボットの行
動タイプ」などが上げられ、これら質問事項に対する答
えの選択肢としてそれぞれ「1.おしっこ 2.のび
3.バンザイ」、「1.ワンワン 2.あくび 3.レ
ーザー」、「1.犬型 2.猫型 3.ロボット型」な
どが上げられている。
For example, as for “favorite software”, “questions for pet robot”,
“Pet robot sound” and “Pet robot action type” are listed as options for answering these questions, “1.
3. Banzai "," 1. Wan Wan 2. Yawning 3. Laser "," 1. Dog type 2. Cat type 3. Robot type ", and the like.

【0063】また「ユーザの生活形態」については、質
問事項として「ユーザの年齢」、「ユーザの職業」、
「ユーザの部屋の広さ」などが上げられ、これら質問事
項に対する答えの選択肢として「1.0−10 2.1
0−20 3.30−40」などが上げられている。
Regarding the “user's life style”, questions such as “user's age”, “user's occupation”,
“Room size of user” is raised, and “1.0-10 2.1.
0-20 3.30-40 ".

【0064】そして質問画面50では、これらの質問事
項について、マウス操作により該当する選択肢を順次ク
リックしてゆくことによって、その質問事項に対する答
えを選択することができ、選択された選択肢の文字の色
が変化するようになされている。
On the question screen 50, the user can select an answer to the question by sequentially clicking the corresponding option by operating the mouse on the question, and the color of the character of the selected option can be selected. Has been made to change.

【0065】かくしてユーザは、この質問画面50に記
述された各質問事項について、該当する選択肢を順次ク
リックするようにして答えを入力するようにする(ステ
ップSP3)。
Thus, for each question item described on the question screen 50, the user inputs an answer by sequentially clicking the corresponding option (step SP3).

【0066】一方、サーバ38のCPU42(図7)
は、このようにして得られた各質問事項に対するユーザ
の答えに基づいて各変更可能内部状態項目及び各変更可
能行動形態項目に対するユーザの嗜好や、当該ユーザの
生活環境を分析し(ステップSP4)、当該分析結果に
基づいて、予めストレージメディア44に格納されてい
るペットロボット1の標準的な各種制御パラメータを変
更処理する(ステップSP5)。
On the other hand, the CPU 42 of the server 38 (FIG. 7)
Analyzes the user's preference for each changeable internal state item and each changeable behavior form item and the living environment of the user based on the user's answer to each question item obtained in this way (step SP4). Based on the analysis result, the standard various control parameters of the pet robot 1 stored in advance in the storage medium 44 are changed (step SP5).

【0067】具体的に、CPU42は、変更可能内部状
態項目のうちの「感情傾向」に関する変更処理として、
上述した感情・本能生成オブジェクト21(図3)の各
情動の係数kの値をそれぞれ変更して入力に対する各
情動の変化量を変化させることにより、ペットロボット
1を怒りやすく又は喜びやすくさせたり、上述のメモリ
10Aに格納される個人情報24(図3)を修正するこ
とにより、ある特定の入力に対してある情動のパラメー
タ値を上下させるようにする。
More specifically, the CPU 42 performs a change process regarding “emotional tendency” among the changeable internal state items as follows.
By varying the amount of change of the emotion to the input by changing the respective values of the coefficients k e of the emotion of emotion or instinct generating object 21 described above (FIG. 3), or to the pet robot 1 easily anger easily or pleasure By modifying the personal information 24 (FIG. 3) stored in the memory 10A, the parameter value of a certain emotion is raised or lowered with respect to a specific input.

【0068】またCPU42は、「本能傾向」に関する
処理として、感情・本能生成オブジェクト21の各欲求
の係数kの値を変更して入力に対する各欲求の変化量
を変更することにより、ペットロボット1の本能傾向を
なつきにくく又は好奇心旺盛にさせたり、個人情報24
を修正することにより、ある特定の入力に対してある欲
求のパラメータ値を上下させるようにする。
[0068] The CPU42, as a process related to "instinct trend", by changing the amount of change in the desire for input by changing the value of the coefficient k i of each desire of the emotion-instinct generation object 21, the pet robot 1 To make the instinct tend to be harder or more curious,
Is modified to raise or lower a parameter value of a certain desire for a specific input.

【0069】さらにCPU42は、「性格」に関する処
理として、感情・本能生成オブジェクト21の各情動及
び各欲求の係数k、kの値をそれぞれ変更するよう
にして入力に対する各情動及び各欲求の変化量を変更す
ることにより性格を陽気又は陰気にさせたり、個人情報
24を修正することにより、ある特定の入力に対してあ
る情動やある欲求のパラメータ値を上下させるようにす
る。
[0069] Further CPU42, as a process related to "character", emotion or instinct each emotion and the coefficient k e of the desire of generating object 21, and the value of k i to change each of the emotions and the desire for the input By changing the amount of change, the character is made cheerful or insane, or by modifying the personal information 24, the parameter value of a certain emotion or a certain desire is raised or lowered with respect to a specific input.

【0070】さらにCPU42は、「星座」に関する処
理として、現在の年月日から「星座」を決定すると共
に、感情・本能生成オブジェクト21の各情動及び各欲
求の係数k、kの値をそれぞれその「星座」に合わ
せて変更するようにして「感情傾向」、「本能傾向」及
び「性格」を予め定められた傾向に変更し、かつ行動モ
デル25(図3)の対応箇所をその「星座」に合わせて
後述のように修正するようにしてペットロボット1が発
現する行動パターンを変更する。
[0070] Further CPU42, as a process related to "constellation", and determines the "constellation" from the current date, the coefficient of each emotion and each desire emotion or instinct generating object 21 k e, the value of k i The "emotional tendency", the "instinct tendency" and the "character" are changed to predetermined tendencies by changing the "constellation" respectively, and the corresponding part of the behavior model 25 (FIG. 3) is changed to the " The behavior pattern expressed by the pet robot 1 is changed so as to be modified in accordance with the constellation as described below.

【0071】例えば「牡牛座」の場合には「牛」のよう
な「感情傾向」、「本能傾向」及び「性格」をもつよう
に感情・本能生成オブジェクト21の各情動及び各欲求
の係数k、kの値をそれぞれ変更する一方、「牛」
を模写した行動パターンが多く発現されるように行動モ
デル25を変更する。また「乙女座」の場合には、「女
性(又は雌)」らしい「感情傾向」、「本能傾向」及び
「性格」をもつように感情・本能生成オブジェクト21
の各情動及び各欲求の係数k、kの値をそれぞれ変
更する一方、「女性(又は雌)」らしい行動パターンが
多く発現されるように行動モデル25を変更する。
For example, in the case of “Taurus”, the coefficient of each emotion and each desire of the emotion / instinct generation object 21 has “emotional tendency”, “instinct tendency” and “character” like “cow”. k e, while changing each of the values of k i, "cow"
The behavior model 25 is changed so that a large number of behavior patterns imitating are expressed. Also, in the case of “Virgo”, the emotion / instinct generation object 21 has “emotional tendency”, “instinct tendency”, and “personality” like “female (or female)”.
Each emotion and the coefficient k e of the desire, while changing each value of k i, to change the behavior model 25 as behavior patterns seems "female (or female)" is often expressed.

【0072】これと同様にしてCPU42は、「干支」
に関する処理として、現在の年月日から「干支」を決定
すると共に、感情・本能生成オブジェクト21の各情動
及び各欲求の係数k、kの値をそれぞれその「干
支」に合わせて変更するようにして「感情傾向」、「本
能傾向」及び「性格」を予め定められた傾向に変更し、
かつ行動モデル25の対応箇所を後述のようにその「干
支」に合わせて修正するようにしてペットロボット1が
発現する行動パターンを変更する。
In the same manner, the CPU 42 executes the “Zodiac”
As processing relating, and determines the "zodiac" from the current date, modified to suit each emotion and the coefficient k e of each desire emotion or instinct generating object 21, the value of k i to the "Zodiac" respectively In this way, "emotional tendency", "instinct tendency" and "personality" are changed to a predetermined tendency,
In addition, the action pattern expressed by the pet robot 1 is changed by correcting the corresponding part of the action model 25 in accordance with the “zodiac sign” as described later.

【0073】例えば「犬」の場合には「犬」のような
「感情傾向」、「本能傾向」及び「性格」をもつように
感情・本能生成オブジェクト21の各情動及び各欲求の
係数k、kの値をそれぞれ変更する一方、「犬」を
模写した行動パターンが多く発現されるように行動モデ
ル25を変更する。
[0073] For example, "emotion tendency" such as in the case of "dog", "dog", "instinct trend" and the coefficient of each emotion and each desire of the emotion-instinct generated object 21 so as to have a "personality" k e , K i , while changing the behavior model 25 so that a large number of behavior patterns replicating “dog” are expressed.

【0074】一方、CPU42は、各変更可能行動形態
項目のうちの「行動」に関する処理として、上述のよう
にメモリ10Aに格納される行動モデル25(図3)の
対応箇所を修正するようにしてペットロボット1の行動
パターンを修正する。例えば行動モデル25のあるノー
ドにおいて、『感情・本能生成オブジェクト21におけ
る「怒り」の情動のパラメータ値が「100」のときに
遷移確率「50〔%〕」で「パンチ」の動作を発現し、
かつこのとき「パンチ」用のサウンドデータを再生する
と共に「パンチ」用の発光データを再生する』のように
定義されている場合において、「怒り」の情動のパラメ
ータ値の「100」を「90」に修正したり、遷移確率
「50〔%〕」を「80〔%〕」に修正したり、発現す
る行動、サウンド、発光パターンを変更、削除又は追加
するようにして行動モデル25を修正する。
On the other hand, the CPU 42 corrects the corresponding part of the behavior model 25 (FIG. 3) stored in the memory 10A as described above as the processing relating to the “action” in each of the changeable behavior form items. The behavior pattern of the pet robot 1 is corrected. For example, at a certain node of the behavior model 25, “when the parameter value of the emotion of“ anger ”in the emotion / instinct generation object 21 is“ 100 ”, the action of“ punch ”is expressed with the transition probability“ 50 [%] ”;
In addition, at this time, the parameter value “100” of the emotion of “anger” is changed to “90” in the case where “sound data for“ punch ”is reproduced and light emission data for“ punch ”are reproduced”. , The transition probability “50 [%]” is modified to “80 [%]”, and the behavior, sound, and light emission pattern that appear are modified, deleted, or added to modify the behavior model 25. .

【0075】またCPU42は、「動作」に関する処理
として、該当するモーションデータ(動作を生成するた
めのデータ)を追加又は削除したり、行動モデル25に
おける「内部状態と動作との関連」が記録されている箇
所を修正する。例えば行動モデル25のあるノードが
『「喜び」のパラメータ値が「100」となったときに
「バンザイ」の動作を発現する』のように記述されてい
る場合、『「喜び」のパラメータ値が「100」となっ
たときに「感激のポーズ」の動作を発現する』のように
修正する。
The CPU 42 adds or deletes the corresponding motion data (data for generating the motion) and records the “relation between the internal state and the motion” in the behavior model 25 as the process relating to the “motion”. Correct the part that is. For example, if a certain node of the behavior model 25 is described as “express the operation of“ Banzai ”when the parameter value of“ joy ”becomes“ 100 ””, the parameter value of “joy” When "100" is reached, the action of "inspiring pose" is developed. "

【0076】さらにCPU42は、「サウンド」及び
「発光」に関する処理として、該当するサウンドや発光
パターンを生成するためのサウンドデータ又は発光デー
タを追加又は削除したり、行動モデル25における「内
部状態とサウンドの関連」又は「内部状態と発光パター
ンの関連」が記録されている箇所を修正する。
Further, the CPU 42 adds or deletes sound data or light emission data for generating a corresponding sound or light emission pattern, or performs processing such as “internal state and sound emission” in the behavior model 25 as “sound” and “light emission” processing. "Relation" or "relation between internal state and light emission pattern" is corrected.

【0077】なお質問画面50の各質問事項に対するユ
ーザの答えに応じてこれら各変更可能内部状態項目及び
各変更可能行動形態項目のうちのどの項目をどのように
変更するかは予め定められている。例えば図11に示す
ように、「ペットロボットのモーション」の質問事項に
対するユーザの答えが「おしっこ」及び「のび」であっ
た場合には、変更可能行動形態項目の「行動」及び「動
作」が変更され、「おしっこ」及び「のび」の動作を生
成するためのモーションデータが追加されると共に、
「おしっこ」及び「のび」の動作を発現するように行動
モデル25が変更される。
It should be noted that which of these changeable internal state items and each of the changeable behavior form items are to be changed in accordance with the user's answer to each of the questions on the question screen 50 and how are to be changed. . For example, as shown in FIG. 11, when the user's answer to the question item of “motion of the pet robot” is “pee” and “grow”, the changeable behavior form items “action” and “action” are changed. Has been changed, and motion data for generating the actions of "pee" and "grow" has been added,
The behavior model 25 is changed so as to express the actions of “pee” and “grow”.

【0078】また「ペットロボットの性格」の質問事項
に対するユーザの答えが「素直」であった場合には、変
更可能行動形態項目の「行動」及び変更可能内部状態項
目の「性格」が変更され、「お手」の入力に対して10
0〔%〕お手を返するように行動モデル25が変更され
ると共に、「お手」の入力に対しては「喜び」のパラメ
ータが上がるように個人情報24が変更される。
If the user's answer to the question “Pet robot character” is “obedient”, the changeable behavior form item “action” and the changeable internal state item “character” are changed. , 10 for "Hand" input
The behavior model 25 is changed so that the hand is returned by 0 [%], and the personal information 24 is changed so that the parameter of "joy" is increased in response to the input of "hand".

【0079】そしてサーバ38のCPU42は、このよ
うな変更処理により標準的な各種制御パラメータをユー
ザの嗜好や生活環境に合わせてカスタマイズすると、対
応する個人端末31A〜31Dに所定の画面データを送
出することにより、図12に示すようなシミュレーショ
ン画面60を当該個人端末31A〜31Dのディスプレ
イに表示させる(ステップSP6)。
When the CPU 42 of the server 38 customizes various standard control parameters according to the user's preference and living environment by such a change process, it transmits predetermined screen data to the corresponding personal terminals 31A to 31D. Thereby, the simulation screen 60 as shown in FIG. 12 is displayed on the displays of the personal terminals 31A to 31D (step SP6).

【0080】このシミュレーション画面60は、上述の
質問画面50における各質問事項に対するユーザの答え
の結果に基づいて、実際にどのような内部状態及び行動
形態のペットロボット1となるかをシミュレーション表
示する画面である。そしてこのシミュレーション画面6
0では、サーバ38のCPU42により生成されたペッ
トロボット1の3次元イメージ画像61が表示される。
The simulation screen 60 is a screen for simulating and displaying the internal state and behavior of the pet robot 1 based on the result of the user's answer to each question on the question screen 50 described above. It is. And this simulation screen 6
At 0, a three-dimensional image 61 of the pet robot 1 generated by the CPU 42 of the server 38 is displayed.

【0081】またシミュレーション画面60では、プレ
ビュー欄62の左側にはいくつかの動き(例えば「歩
く」、「バンザイ」「笑う」)と、いくつかのサウンド
(例えば「あくび」、「ワンワン」)とにそれぞれ対応
させて、複数のサンプルモーションボタン63A〜63
C及びサンプルサウンドボタン64A、64Bが設けら
れており、これらサンプルモーションボタン63A〜6
3C又はサンプルサウンドボタン64A、64Bを押圧
操作することによって、プレビュー欄62に表示された
3次元イメージ画像61に当該サンプルモーションボタ
ン63A〜63C又はサンプルサウンドボタン64A、
64Bに応じた行動や動作を行わせたり、対応する音声
を個人端末31A〜31Dのスピーカから出力させたり
することができるようになされている。
On the simulation screen 60, some movements (for example, “walk”, “Banzai”, “laugh”) and some sounds (for example, “yawn”, “wan-wan”) are displayed on the left side of the preview column 62. And a plurality of sample motion buttons 63A-63
C and sample sound buttons 64A and 64B are provided.
By pressing the 3C or the sample sound buttons 64A and 64B, the sample motion buttons 63A to 63C or the sample sound buttons 64A and 64A are displayed on the three-dimensional image 61 displayed in the preview field 62.
It is made possible to cause the user to perform an action or operation according to 64B, and to output corresponding sounds from the speakers of the personal terminals 31A to 31D.

【0082】さらにシミュレーション画面60では、プ
レビュー欄62の右側にプレイボタン65A及びストッ
プボタン65Bが設けられており、プレイボタン65A
を押圧操作することによって、プレビュー欄62に表示
されたペットロボット1の3次元イメージ画像61を上
述のようにしてカスタマイズした各種制御パラメータに
基づいて自律的に行動させることができ、ストップボタ
ン65Bを押圧操作することによって当該3次元イメー
ジ画像61の行動を停止させことができるようになされ
ている。
Further, on the simulation screen 60, a play button 65A and a stop button 65B are provided on the right side of the preview section 62, and the play button 65A
By pressing, the three-dimensional image 61 of the pet robot 1 displayed in the preview field 62 can be made to autonomously act on the basis of the various control parameters customized as described above. By performing a pressing operation, the action of the three-dimensional image 61 can be stopped.

【0083】さらにシミュレーション画面60には、第
1〜第4の回転ボタン66A〜66Dと、ズームインボ
タン67A及びズームアウトボタン67Bとが設けられ
ており、これら第1〜第4の回転ボタン66A〜66D
を押圧操作することによって、プレビュー欄62に表示
された3次元イメージ画像61を対応する回転方向(矢
印a〜矢印a)に回転させることができ、またズー
ムインボタン67A又はズームアウトボタン67Bを押
圧操作することによって、当該3次元イメージ画像61
を拡大又は縮小させることができるようになされてい
る。
Further, the simulation screen 60 is provided with first to fourth rotation buttons 66A to 66D, a zoom-in button 67A and a zoom-out button 67B, and these first to fourth rotation buttons 66A to 66D are provided.
By pressing the can rotate the 3-dimensional images 61 displayed in the preview column 62 in the corresponding direction of rotation (arrow a 1 ~ arrow a 4), also the zoom-in button 67A or the zoom-out button 67B By performing the pressing operation, the three-dimensional image 61
Can be enlarged or reduced.

【0084】そしてユーザは、このシミュレーション画
面60に表示された3次元イメージ画像61の行動パタ
ーンやサウンド等に基づいて購入するペットロボット1
の内部状態及び行動形態の仕様がこれで良いか否かを判
断する(ステップSP7)。
Then, the user purchases the pet robot 1 based on the action pattern, sound, and the like of the three-dimensional image 61 displayed on the simulation screen 60.
It is determined whether or not the specifications of the internal state and the behavior form are acceptable (step SP7).

【0085】そしてユーザは、この仕様が気に入らない
場合にはキャンセルボタン68をクリックすれば良く、
この場合にはこの後サーバ38から送信される画面デー
タに基づいて、その個人端末31A〜31Dのディスプ
レイに再び上述の質問画面50(図9)が表示される。
かくしてユーザは、この質問画面50を利用して再び各
質問事項について選択肢を選択し直すことができる。
If the user does not like this specification, the user can click the cancel button 68.
In this case, the above-described question screen 50 (FIG. 9) is displayed again on the displays of the personal terminals 31A to 31D based on the screen data transmitted from the server 38 thereafter.
Thus, the user can use this question screen 50 to select options again for each question item.

【0086】これに対してユーザは、その仕様で良けれ
はOKボタン69をクリックするようにする。この場合
には、上述のようにしてカスタマイズされた各種制御パ
ラメータが対応する個人端末31A〜31Dに転送さ
れ、当該各種制御パラメータが個人端末31A〜31D
内のハードディスク内に記録される(ステップSP
8)。
On the other hand, the user clicks the OK button 69 if the specification is satisfactory. In this case, various control parameters customized as described above are transferred to the corresponding personal terminals 31A to 31D, and the various control parameters are transferred to the personal terminals 31A to 31D.
Is recorded on the hard disk (step SP
8).

【0087】そしてこの後ユーザは、この個人端末31
A〜31Dとペットロボット1とをケーブルを介して接
続し、個人端末31A〜31Dを用いて当該ペットロボ
ット1のコントローラ10を制御して、当該コントロー
ラ10に、メモリ10A内に格納されている各種制御パ
ラメータを上述のようにして個人端末31A〜31Dに
ダウンロードしたカスタマイズされたソフトウェアに書
き換えさせるようにする(ステップSP9)。これによ
りペットロボット1を、ユーザの嗜好や生活環境に応じ
てカスタマイズすることができる。
Then, the user subsequently enters the personal terminal 31
A to 31D and the pet robot 1 are connected via a cable, and the controller 10 of the pet robot 1 is controlled using the personal terminals 31A to 31D. The control parameters are rewritten to the customized software downloaded to the personal terminals 31A to 31D as described above (step SP9). This allows the pet robot 1 to be customized according to the user's preferences and living environment.

【0088】(3)本実施の形態の動作及び効果 以上の構成において、このネットワークシステム30で
は、ユーザが個人端末31A〜31Dを用いてサーバ3
8にアクセスし、かくして表示される質問画面50に記
載されている各種質問事項に対して順次答えを選択す
る。
(3) Operation and Effect of the Embodiment In the above configuration, in this network system 30, the user uses the personal terminals 31A to 31D to access the server 3
8 and select answers to the various questions described on the question screen 50 displayed in this way.

【0089】そしてサーバ38は、このようにして入力
された各質問事項に対するユーザの答えを分析し、分析
結果に基づいて自己の保有する標準的なペットロボット
1の各種制御パラメータをカスタマイズすると共に、当
該カスタマイズした各種制御パラメータに基づいて行動
するペットロボット1をシミュレーション表示する。
The server 38 analyzes the user's answer to each of the questions input in this manner, customizes various control parameters of the standard pet robot 1 owned by the server 38 based on the analysis result, The pet robot 1 that behaves based on the customized various control parameters is displayed by simulation.

【0090】さらにユーザは、このシミュレーションに
基づいてその仕様で良いか否かを判断し、良い場合には
当該カスタマイズした各種制御パラメータを当該ユーザ
の個人端末31A〜31Dにダウンロードする。またユ
ーザは、この後個人端末31A〜31Dとペットロボッ
ト1とをケーブルで接続すると共に、当該個人端末31
A〜31Dを用いてペットロボット1のコントローラ1
0を制御し、メモリ10Aに格納されている各種制御パ
ラメータをダウンロードしたソフトウェアに書き換えさ
せる。
Further, the user determines whether or not the specifications are acceptable based on the simulation, and downloads the various customized control parameters to the user's personal terminals 31A to 31D if the specifications are satisfactory. After that, the user connects the personal terminals 31A to 31D and the pet robot 1 with a cable, and the personal terminals 31A to 31D.
Controller 1 of pet robot 1 using A to 31D
0 to rewrite various control parameters stored in the memory 10A with the downloaded software.

【0091】従ってこのネットワークシステム30によ
れば、ペットロボット1の内部状態や行動形態をユーザ
の嗜好や生活環境に応じて変更することができるため、
ペットロボット1に対するユーザの愛着心や親近感を向
上させて、ペットロボットとしての面白みを向上させる
ことができる。
Therefore, according to the network system 30, the internal state and behavior of the pet robot 1 can be changed according to the user's preference and living environment.
It is possible to improve the user's attachment feeling and closeness to the pet robot 1 and improve the interest as the pet robot.

【0092】またこのネットワークシステム30では、
上述のように質問画面50における各種質問事項の答え
を択一方式で入力することができるため、ユーザの操作
を簡易化させて上述のようなペットロボット1のカスタ
マイズを容易化させることができる。
In this network system 30,
As described above, the answers to the various questions on the question screen 50 can be input in an alternative manner, so that the operation of the user can be simplified and the customization of the pet robot 1 as described above can be facilitated.

【0093】さらにこのネットワークシステム30で
は、サーバ38のCPU42によるカスタマイズ処理の
結果をシミュレーション表示するようにしているため、
実際にどのようなペットロボット1にカスタマイズされ
るかをイメージし易くすることができ、よりユーザの理
想に近いペットロボット1のカスタマイズを行うことが
できる。
Further, in the network system 30, since the result of the customization processing by the CPU 42 of the server 38 is displayed by simulation,
It is easy to imagine what kind of pet robot 1 is actually customized, and it is possible to customize the pet robot 1 closer to the ideal of the user.

【0094】以上の構成によれば、ユーザの嗜好や生活
環境を質問し、質問に対するユーザの答えを分析し、当
該分析結果に基づいてペットロボット1の各種制御パラ
メータを変更処理し、ペットロボット1のメモリ10A
に格納された各種制御パラメータを当該変更処理した各
種制御パラメータに書き換えるようにしたことにより、
ユーザの嗜好や生活環境に応じてペットロボット1をカ
スタマイズすることができる。かくするにつきペットロ
ボット1に対するユーザの愛着心や親近感を向上させ
て、ペットロボットとしての面白みを向上させることが
でき、かくしてペットロボット1のエンターテイメント
性を向上させることができる。
According to the above configuration, the user's preferences and living environment are inquired, the user's answers to the questions are analyzed, and various control parameters of the pet robot 1 are changed based on the analysis result. Memory 10A
By rewriting the various control parameters stored in to the various control parameters after the change processing,
The pet robot 1 can be customized according to the user's preference and living environment. In this way, the user's affection and affinity for the pet robot 1 can be improved, and the interest as the pet robot can be improved. Thus, the entertainment property of the pet robot 1 can be improved.

【0095】(4)他の実施の形態 なお上述の実施の形態においては、本発明によるネット
ワークシステムを図6のように構成するようにした場合
について述べたが、本発明はこれに限らず、この他種々
の構成を広く適用することができる。
(4) Other Embodiments In the above embodiment, the case where the network system according to the present invention is configured as shown in FIG. 6 has been described. However, the present invention is not limited to this. In addition, various configurations can be widely applied.

【0096】また上述の実施の形態においては、本発明
を、図1のように構成されたペットロボット1をカスタ
マイズするためのネットワークシステム30に適用する
ようにした場合について述べたが、本発明はこれに限ら
ず、ペットロボット1以外の例えば仮想生物や、仮想生
物のプログラムデータを保持するデータ保持装置及びロ
ボット装置、ぬいぐるみ等に広く適用することができ
る。
In the above-described embodiment, the case where the present invention is applied to the network system 30 for customizing the pet robot 1 configured as shown in FIG. 1 has been described. The present invention is not limited to this, and can be widely applied to, for example, virtual creatures other than the pet robot 1, a data holding device and a robot device for holding program data of the virtual creature, a stuffed animal, and the like.

【0097】さらに上述の実施の形態においては、「感
情傾向」、「本能傾向」、「性格」、「星座」及び「干
支」を変更可能内部状態項目とし、「行動」、「モーシ
ョン」、「サウンド」及び「発光パターン」を変更可能
行動形態項目とするようにした場合について述べたが、
本発明はこれに限らず、これら以外の項目を変更可能内
部状態項目及び変更可能行動形態項目とするようにして
も良い。
Further, in the above embodiment, “emotional tendency”, “instinct tendency”, “character”, “constellation” and “zodiac” are changeable internal state items, and “action”, “motion”, “motion” Although the case where the "sound" and "lighting pattern" are set as changeable behavior form items has been described,
The present invention is not limited to this, and other items may be used as the changeable internal state item and the changeable behavior mode item.

【0098】この場合において、例えば「成長」するよ
うな仮想生物やロボット装置である場合には成長レベル
(行動や動作の難易度や煩雑さのレベル)を変更可能内
部状態関係項目とするようにしても良い。
In this case, for example, in the case of a virtual creature or a robot apparatus that “grows”, the growth level (the level of difficulty or complexity of action or operation) is set as a changeable internal state related item. May be.

【0099】さらに上述の実施の形態においては、サー
バ38がユーザの嗜好及び生活環境の両方を反映させて
ペットロボット1のカスタマイズを行うようにした場合
について述べたが本発明はこれに限らず、ユーザの嗜好
及び生活環境の一方のみを反映させてペットロボット1
をカスタマイズするようにしても良い。
Further, in the above-described embodiment, a case has been described where the server 38 customizes the pet robot 1 by reflecting both the user's preference and the living environment. However, the present invention is not limited to this. Pet robot 1 reflecting only one of user's preference and living environment
May be customized.

【0100】さらに上述の実施の形態においては、カス
タマイズした各種制御パラメータをケーブルを介してペ
ットロボット1のコントローラ10に与えるようにした
場合について述べたが本発明はこれに限らず、例えば無
線や赤外線信号で与えることができるようにしても良
く、カスタマイズした各種制御パラメータをペットロボ
ット1のコントローラ10に与える方法としては、この
他種々の方法を広く適用することができる。
Furthermore, in the above-described embodiment, a case has been described in which various customized control parameters are provided to the controller 10 of the pet robot 1 via a cable. However, the present invention is not limited to this. The method may be provided by a signal, and various other methods can be widely applied as a method of providing various customized control parameters to the controller 10 of the pet robot 1.

【0101】さらに上述の実施の形態においては、ペッ
トロボット1の各種制御パラメータの変更を図6のよう
に構成されたネットワークシステム30を用いて行い得
るようにした場合について述べたが、本発明はこれに限
らず、このような処理を個人端末31A〜31Dのみを
用いて直接行えるようにしても良い。この場合にはサー
バ38の上述のようなソフトウェアを個人端末31A〜
31DにCD−ROMやダウンロードのような形態で与
えるようにすれば良い。
Furthermore, in the above-described embodiment, a case has been described in which various control parameters of the pet robot 1 can be changed using the network system 30 configured as shown in FIG. The present invention is not limited to this, and such processing may be directly performed using only the personal terminals 31A to 31D. In this case, the above software of the server 38 is transferred to the personal terminals 31A to 31A.
31D may be provided in a form such as a CD-ROM or download.

【0102】なおこの場合には、ユーザの嗜好や生活環
境に関する質問を行う質問手段(実施の形態の場合には
サーバ38)と、質問に対するユーザの答えを反映させ
ながらペットロボット1の制御プログラムを変更するた
めのデータを生成する変更データ生成手段(実施の形態
の場合にはサーバ38)とのいずれもが個人端末31A
〜31Dとなる。
In this case, an inquiry means (the server 38 in the case of the embodiment) for asking a question about a user's preference and a living environment, and a control program for the pet robot 1 while reflecting the user's answer to the question are prepared. Any of the change data generating means (the server 38 in the case of the embodiment) for generating the data for changing is the personal terminal 31A.
~ 31D.

【0103】さらに上述の実施の形態においては、「干
支」や「星座」などの「事象」に応じてペットロボット
1の各種制御パラメータを変更するようにした場合につ
いて述べたが、例えば「乱数」を用いて歩き方や性格な
どに関するペットロボット1の各種制御パラメータを変
更するようにしても良い。
Further, in the above-described embodiment, a case has been described in which various control parameters of the pet robot 1 are changed according to “events” such as “zodiac signs” and “constellations”. May be used to change various control parameters of the pet robot 1 relating to how to walk, personality, and the like.

【0104】さらに上述の実施の形態においては、ペッ
トロボット1における制御プログラムを保持する保持手
段としてメモリ10Aを適用するようにした場合につい
て述べたが、本発明はこれに限らず、ディスク状記録媒
体やテープ状記録媒体などデータを保持し得るこの他種
々の保持手段を広く適用することができる。
Further, in the above-described embodiment, the case where the memory 10A is applied as the holding means for holding the control program in the pet robot 1 has been described. However, the present invention is not limited to this, and the present invention is not limited to this. Various other holding means, such as a tape or a recording medium, which can hold data, can be widely applied.

【0105】さらに上述の実施の形態においては、外部
機器の制御のもとに、ペットロボット1におけるメモリ
10Aに格納された制御プログラムを変更する変更手段
として当該ペットロボット1全体の動作制御を司るコン
トローラ10を適用するようにした場合について述べた
が、このような変更手段をコントローラ10と別体に設
けるようにしても良い。
Further, in the above-described embodiment, as a changing means for changing the control program stored in the memory 10A of the pet robot 1 under the control of the external device, the controller which controls the operation of the entire pet robot 1 is provided. Although the description has been given of the case where the control unit 10 is applied, such a change unit may be provided separately from the controller 10.

【0106】さらに上述の実施の形態においては、ペッ
トロボット1の制御プログラムを変更するためのデータ
がカスタマイズされた各種制御パラメータである場合に
ついて述べたが、本発明はこれに限らず、サーバ38の
CPU42がペットロボット1の各種制御パラメータを
変更するためのなんらかの変更データを生成し、当該変
更データに基づいて個人端末31A〜31Dがユーザの
嗜好や生活環境に応じてカスタマイズした各種制御パラ
メータを生成するようにしても良い。
Further, in the above-described embodiment, the case where the data for changing the control program of the pet robot 1 is various customized control parameters has been described, but the present invention is not limited to this, and the present invention is not limited thereto. The CPU 42 generates some change data for changing various control parameters of the pet robot 1, and based on the change data, the personal terminals 31A to 31D generate various control parameters customized according to the user's preference and living environment. You may do it.

【0107】さらに上述の実施の形態においては、ペッ
トロボット1のカスタマイズを、当該ペットロボット1
を初期起動する以前の期間にのみ行えるようにした場合
について述べたが、本発明はこれに限らず、当該ペット
ロボット1を初期起動した以降でも行えるようにしても
良い。
Further, in the above embodiment, the customization of the pet robot 1 is
Has been described above only during the period before the initial startup, but the present invention is not limited to this, and may be performed after the initial startup of the pet robot 1.

【0108】[0108]

【発明の効果】上述のように本発明によれば、仮想生物
のソフトウェアを保持するデータ保持装置において、外
部機器の制御のもとに、仮想生物のソフトウェアを変更
するようにしたことにより、ソフトウェアをユーザの意
志を加味しながら変更することができる。かくするにつ
きユーザの仮想生物に対する親近感及び愛着心を向上さ
せ得、かくして仮想生物のエンターテイメント性を向上
させ得るデータ保持装置を実現できる。
As described above, according to the present invention, in a data holding device for holding software of a virtual creature, the software of the virtual creature is changed under the control of an external device. Can be changed while taking the user's intention into account. Thus, a data holding device that can improve the user's affinity and attachment to the virtual creature and thus can improve the entertainment property of the virtual creature can be realized.

【0109】また本発明によれば、ロボット装置におい
て、外部機器の制御のもとに、ソフトウェアを変更する
ようにしたことにより、ソフトウェアをユーザの意志を
加味しながら変更することができる。かくするにつきユ
ーザのロボット装置に対する親近感及び愛着心を向上さ
せ得、かくしてロボット装置のエンターテイメント性を
向上させ得るロボット装置を実現できる。
Further, according to the present invention, in the robot apparatus, the software can be changed under the control of the external device, so that the software can be changed in consideration of the user's intention. In this way, it is possible to realize a robot device that can improve the user's affinity and attachment to the robot device and thus can improve the entertainment property of the robot device.

【0110】さらに本発明によれば、仮想生物のソフト
ウェアを変更する変更装置及び方法において、所定の質
問をユーザに行い、質問に対するユーザの答えを反映さ
せながら仮想生物のソフトウェアを変更するためのデー
タを生成するようにしたことにより、仮想生物のソフト
ウェアをユーザの意志を反映させながら変更することが
できる。かくするにつきユーザの仮想生物に対する親近
感及び愛着心を向上させ得、かくして仮想生物のエンタ
ーテイメント性を向上させ得る変更装置及び方法を実現
できる。
Further, according to the present invention, in the changing apparatus and method for changing software of a virtual creature, a predetermined question is asked to a user, and data for changing the software of the virtual creature while reflecting the user's answer to the question is reflected. Is generated, the software of the virtual creature can be changed while reflecting the user's intention. As a result, it is possible to realize a change device and a method capable of improving the user's affinity and attachment to the virtual creature and thus improving the entertainment property of the virtual creature.

【0111】さらに本発明によれば、ロボット装置のソ
フトウェアを変更する変更装置及び方法において、所定
の質問をユーザに行い、質問に対するユーザの答えを反
映させながらロボット装置のソフトウェアを変更するた
めのデータを生成するようにしたことにより、ユーザの
意志を加味しながらロボット装置のソフトウェアの変更
を行うことができる。かくするにつきユーザのロボット
装置に対する親近感及び愛着心を向上させ得、かくして
仮想生物のエンターテイメント性を向上させ得る変更装
置及び方法を実現できる。
Further, according to the present invention, in a changing device and method for changing software of a robot device, a predetermined question is given to a user, and data for changing the software of the robot device while reflecting the user's answer to the question is reflected. Is generated, the software of the robot device can be changed while taking the user's intention into consideration. In this way, it is possible to realize a changing device and method that can improve the user's affinity and attachment to the robot device and thus can improve the entertainment of the virtual creature.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施の形態によるペットロボットの構成を示
す斜視図である。
FIG. 1 is a perspective view showing a configuration of a pet robot according to the present embodiment.

【図2】図1に示すペットロボットの回路構成を示すブ
ロック図である。
FIG. 2 is a block diagram showing a circuit configuration of the pet robot shown in FIG.

【図3】ペットロボットのソフトウェア構成を示すブロ
ック図である。
FIG. 3 is a block diagram illustrating a software configuration of the pet robot.

【図4】確率オートマトンを示す概念図である。FIG. 4 is a conceptual diagram illustrating a stochastic automaton.

【図5】状態遷移表を示す概念図である。FIG. 5 is a conceptual diagram showing a state transition table.

【図6】本実施の形態によるネットワークシステムの構
成を示すブロック図である。
FIG. 6 is a block diagram showing a configuration of a network system according to the present embodiment.

【図7】サーバの概略構成を示すブロック図である。FIG. 7 is a block diagram illustrating a schematic configuration of a server.

【図8】カスタマイズ手順を示すフローチャートであ
る。
FIG. 8 is a flowchart showing a customization procedure.

【図9】質問画面を示す略線図である。FIG. 9 is a schematic diagram illustrating a question screen.

【図10】変更可能内部状態項目及び変更可能行動形態
項目の説明に供する略線図である。
FIG. 10 is a schematic diagram for explaining a changeable internal state item and a changeable behavior form item;

【図11】サーバにおけるソフトウェアの変更手順の説
明に供する略線図である。
FIG. 11 is a schematic diagram illustrating a procedure for changing software in a server;

【図12】シミュレーション画面を示す略線図である。FIG. 12 is a schematic diagram illustrating a simulation screen.

【符号の説明】[Explanation of symbols]

1……ペットロボット、10……コントローラ、10A
……メモリ、30……ネットワークシステム、31A〜
31D……個人端末、38……サーバ、42……CP
U、50……質問画面、60……シミュレーション画
面。
1 ... pet robot, 10 ... controller, 10A
…… Memory, 30 …… Network system, 31A-
31D personal terminal, 38 server, 42 CP
U, 50... Question screen, 60... Simulation screen.

─────────────────────────────────────────────────────
────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成12年1月11日(2000.1.1
1)
[Submission Date] January 11, 2000 (2000.1.1)
1)

【手続補正1】[Procedure amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0032[Correction target item name] 0032

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0032】[0032]

【数1】 E(n) =ke ×P+E(n-1) ……(1)[Equation 1] E (n) = k e P + E (n-1) (1)

【手続補正2】[Procedure amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0035[Correction target item name] 0035

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0035】[0035]

【数2】 I(n) =ki ×Q+I(n-1) ……(2)## EQU2 ## I (n) = k i × Q + I (n-1) (2)

【手続補正3】[Procedure amendment 3]

【補正対象書類名】図面[Document name to be amended] Drawing

【補正対象項目名】図6[Correction target item name] Fig. 6

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図6】 FIG. 6

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C150 BA06 CA02 DA05 DA24 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED42 ED52 EF03 EF13 EF16 EF23 EF29 EF33 EF36 3F060 AA00 CA14 CA26 GA05 GA13 GB06 GB21 GD12 GD14 GD15 HA02 HA35 5B076 DC00 DE03  ──────────────────────────────────────────────────続 き Continuing on the front page F term (reference) 2C150 BA06 CA02 DA05 DA24 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED42 ED52 EF03 EF13 EF16 EF23 EF29 EF33 EF36 3F060 AA00 CA14 CA26 GA05 GA13 GB06 GB21 GD12 GD14 GD15 HA02

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】ソフトウェアとして存在し、行動又は動作
することがプログラムされた仮想生物の上記ソフトウェ
アを保持する保持装置において、 上記仮想生物の上記ソフトウェアを保持する保持手段
と、 外部機器の制御のもとに、上記保持手段に保持された上
記ソフトウェアを変更する変更手段とを具えることを特
徴とするデータ保持装置。
1. A holding device for holding said software of a virtual creature which is present as software and programmed to act or operate, comprising: holding means for holding said software of said virtual creature; and control of an external device. And a changing means for changing the software held in the holding means.
【請求項2】上記変更手段は、 上記仮想生物が初期起動する以前の期間にのみ、外部機
器の制御のもとに、上記保持手段に保持された上記ソフ
トウェアを変更することを特徴とする請求項1に記載の
データ保持装置。
2. The method according to claim 1, wherein the changing means changes the software held in the holding means under control of an external device only during a period before the virtual creature is initially activated. Item 2. The data holding device according to Item 1.
【請求項3】所定のソフトウェアに基づいて行動を行う
ロボット装置において、 上記ソフトウェアを保持する保持手段と、 外部機器の制御のもとに、上記保持手段に保持された上
記ソフトウェアを変更する変更手段とを具えることを特
徴とするロボット装置。
3. A robot apparatus which performs an action based on predetermined software, wherein a holding means for holding the software, and a changing means for changing the software held in the holding means under the control of an external device. A robot device comprising:
【請求項4】上記変更手段は、 上記仮想生物が初期起動する以前の期間にのみ、外部機
器の制御のもとに、上記保持手段に保持された上記ソフ
トウェアを変更することを特徴とする請求項3に記載の
ロボット装置。
4. The method according to claim 1, wherein the changing means changes the software held in the holding means under control of an external device only during a period before the virtual creature is initially activated. Item 4. The robot device according to item 3.
【請求項5】ソフトウェアとして存在し、行動又は動作
することがプログラムされた仮想生物の当該ソフトウェ
アを変更する変更装置において、 所定の質問をユーザに行う質問手段と、 上記質問に対する上記ユーザの答えを反映させながら上
記仮想生物の上記ソフトウェアを変更するための所定の
データを生成するデータ生成手段とを具えることを特徴
とする変更装置。
5. A changing device for changing said software of a virtual creature, which exists as software and is programmed to act or operate, comprising: question means for asking a user a predetermined question; A data generating means for generating predetermined data for changing the software of the virtual creature while reflecting the data.
【請求項6】上記データ生成手段は、 上記質問に対する上記ユーザの答えに基づいて当該ユー
ザの嗜好及び又は生活環境を分析し、当該分析結果に基
づいて上記ソフトウェアを変更するための上記データを
生成することを特徴とする請求項5に記載の変更装置。
6. The data generating means analyzes the user's preference and / or living environment based on the user's answer to the question, and generates the data for changing the software based on the analysis result. The change device according to claim 5, wherein the change is performed.
【請求項7】ソフトウェアとして存在し、行動又は動作
することがプログラムされた仮想生物の当該ソフトウェ
アを変更する変更装置において、 所定の質問をユーザに行う第1のステップと、 上記質問に対する上記ユーザの答えを反映させながら上
記仮想生物の上記ソフトウェアを変更するための所定の
データを生成する第2のステップとを具えることを特徴
とする変更方法。
7. A changing device for changing the software of a virtual creature, which exists as software and is programmed to act or operate, comprising: a first step of asking a user a predetermined question; A second step of generating predetermined data for changing the software of the virtual creature while reflecting the answer.
【請求項8】上記第2のステップでは、 上記質問に対する上記ユーザの答えに基づいて当該ユー
ザの嗜好及び又は生活環境を分析し、 当該分析結果に基づいて上記ソフトウェアを変更するた
めの上記データを生成することを特徴とする請求項7に
記載の変更方法。
8. In the second step, the user's preference and / or living environment is analyzed based on the user's answer to the question, and the data for changing the software is analyzed based on the analysis result. The changing method according to claim 7, wherein the changing method is generated.
【請求項9】所定のソフトウェアに基づいて行動又は動
作するロボット装置の当該ソフトウェアを変更する変更
装置において、 所定の質問をユーザに行う質問手段と、 上記質問に対する上記ユーザの答えを反映させながら上
記ロボット装置の上記ソフトウェアを変更するための所
定のデータを生成するデータ生成手段とを具えることを
特徴とする変更装置。
9. A changing device for changing said software of a robot device which acts or operates based on predetermined software, wherein said question means for asking a user a predetermined question, and said user's answer to said question is reflected while reflecting said user's answer. A data generating means for generating predetermined data for changing the software of the robot device.
【請求項10】上記データ生成手段は、 上記質問に対する上記ユーザの答えに基づいて当該ユー
ザの嗜好及び又は生活環境を分析し、当該分析結果に基
づいて上記ソフトウェアを変更するための上記所定のデ
ータを生成することを特徴とする請求項9に記載の変更
装置。
10. The predetermined data for analyzing the user's preference and / or living environment based on the user's answer to the question and changing the software based on the analysis result. 10. The changing device according to claim 9, wherein:
【請求項11】所定のソフトウェアに基づいて行動又は
動作するロボット装置の当該ソフトウェアを変更する変
更方法において、 所定の質問をユーザに行う第1のステップと、 上記質問に対する上記ユーザの答えを反映させながら上
記ロボット装置の上記ソフトウェアを変更するための所
定のデータを生成する第2のステップとを具えることを
特徴とする変更方法。
11. A changing method for changing said software of a robot device which acts or operates based on predetermined software, wherein a first step of asking a user a predetermined question, and reflecting the user's answer to the question are reflected. A second step of generating predetermined data for changing the software of the robot device.
【請求項12】上記第2のステップでは、 上記質問に対する上記ユーザの答えに基づいて当該ユー
ザの嗜好及び又は生活環境を分析し、 当該分析結果に基づいて上記ソフトウェアを変更するた
めの上記所定のデータを生成することを特徴とする請求
項11に記載の変更方法。
12. In the second step, the preference and / or living environment of the user is analyzed based on the user's answer to the question, and the predetermined software for changing the software based on the analysis result is provided. The method according to claim 11, wherein data is generated.
JP37727999A 1999-12-30 1999-12-30 Data holding device, robot device, modification device and modification method Pending JP2001191274A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP37727999A JP2001191274A (en) 1999-12-30 1999-12-30 Data holding device, robot device, modification device and modification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP37727999A JP2001191274A (en) 1999-12-30 1999-12-30 Data holding device, robot device, modification device and modification method

Publications (1)

Publication Number Publication Date
JP2001191274A true JP2001191274A (en) 2001-07-17

Family

ID=18508557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP37727999A Pending JP2001191274A (en) 1999-12-30 1999-12-30 Data holding device, robot device, modification device and modification method

Country Status (1)

Country Link
JP (1) JP2001191274A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007527556A (en) * 2003-03-25 2007-09-27 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー Behavior translator for objects
JP2011529235A (en) * 2008-07-25 2011-12-01 クゥアルコム・インコーポレイテッド Performance analysis in visual creation of graphics images
US8587593B2 (en) 2008-07-25 2013-11-19 Qualcomm Incorporated Performance analysis during visual creation of graphics images
US9792718B2 (en) 2008-07-25 2017-10-17 Qualcomm Incorporated Mapping graphics instructions to associated graphics data during performance analysis
US10349245B2 (en) 2017-04-19 2019-07-09 Fuji Xerox Co., Ltd. Information processing apparatus and non-transitory computer readable medium for communicating with a robot
US11059179B2 (en) 2017-04-19 2021-07-13 Fujifilm Business Innovation Corp. Robot device and non-transitory computer readable medium

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007527556A (en) * 2003-03-25 2007-09-27 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー Behavior translator for objects
JP2011529235A (en) * 2008-07-25 2011-12-01 クゥアルコム・インコーポレイテッド Performance analysis in visual creation of graphics images
US8587593B2 (en) 2008-07-25 2013-11-19 Qualcomm Incorporated Performance analysis during visual creation of graphics images
US9792718B2 (en) 2008-07-25 2017-10-17 Qualcomm Incorporated Mapping graphics instructions to associated graphics data during performance analysis
US10349245B2 (en) 2017-04-19 2019-07-09 Fuji Xerox Co., Ltd. Information processing apparatus and non-transitory computer readable medium for communicating with a robot
US11059179B2 (en) 2017-04-19 2021-07-13 Fujifilm Business Innovation Corp. Robot device and non-transitory computer readable medium

Similar Documents

Publication Publication Date Title
KR100827088B1 (en) Software robot apparatus
US6684127B2 (en) Method of controlling behaviors of pet robots
US6889117B2 (en) Robot apparatus and method and system for controlling the action of the robot apparatus
US6983231B2 (en) Information processing device and method, data holding device, and program
JP2001353678A (en) Authoring system and method and storage medium
WO2000066239A1 (en) Electronic pet system, network system, robot, and storage medium
WO2000043168A1 (en) Robot
JP2003205483A (en) Robot system and control method for robot device
JP2020534567A (en) Robot interaction methods and devices
JP2007312848A (en) Character growing game program
JP2002049385A (en) Voice synthesizer, pseudofeeling expressing device and voice synthesizing method
JP5181541B2 (en) Robot system, editor terminal, and editor program
JP2001250045A (en) System and method for purchase, device and method for receiving order, data selling substituting system, device and method for selling data, and computer program
JP2001310283A (en) Robot system, robot device, and control method thereof, and device and method of information processing
KR20010113718A (en) Diagnosis system, diagnosis apparatus, and diagnosis method
JP2001191274A (en) Data holding device, robot device, modification device and modification method
JP2004298975A (en) Robot device and obstacle searching method
US20030056252A1 (en) Robot apparatus, information display system, and information display method
JP2002205289A (en) Action control method for robot device, program, recording medium and robot device
JP2001157982A (en) Robot device and control method thereof
JP2005169567A (en) Content reproducing system, content reproducing method and content reproducing device
US20070072511A1 (en) USB desktop toy
JP3124018U (en) Character training game system
JP2001157981A (en) Robot device and control method thereof
JP2001157979A (en) Robot device, and control method thereof