JP2002192485A - Robot device, information display system and method, robot system, and recording medium - Google Patents

Robot device, information display system and method, robot system, and recording medium

Info

Publication number
JP2002192485A
JP2002192485A JP2001314544A JP2001314544A JP2002192485A JP 2002192485 A JP2002192485 A JP 2002192485A JP 2001314544 A JP2001314544 A JP 2001314544A JP 2001314544 A JP2001314544 A JP 2001314544A JP 2002192485 A JP2002192485 A JP 2002192485A
Authority
JP
Japan
Prior art keywords
information
robot
robot device
message
information display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001314544A
Other languages
Japanese (ja)
Inventor
Osamu Ota
攻 太田
Satoko Ogure
聡子 尾暮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001314544A priority Critical patent/JP2002192485A/en
Publication of JP2002192485A publication Critical patent/JP2002192485A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To have a dialogue with a robot device. SOLUTION: The personal computer displays original words 110 of a message, its translation 111, an image 112, a message 113 of a user, etc., as a diary screen using information stored by the robot device 1 in a memory card and data of database stored in a storage device.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ロボット装置、情
報表示システム及びその方法、ロボットシステム、並び
に記録媒体に関し、詳しくは、外観形状が動物に模して
形成されたロボット装置、そのようなロボット装置を利
用した情報表示システム及びその方法、ロボットシステ
ム、並びに記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot device, an information display system and a method therefor, a robot system, and a recording medium, and more particularly, to a robot device having an external shape imitating an animal, and such a robot. The present invention relates to an information display system and method using the device, a robot system, and a recording medium.

【0002】[0002]

【従来の技術】近年、周囲の環境や内部の状態に応じて
自律的に行動をする自律型のロボット装置が提案されて
いる。ロボット装置には、外観形状が犬等の動物に模し
て形成されており、周囲の環境や内部の状態に応じて感
情や本能を変化させ、その変化された感情や本能に基づ
いて行動をするものがある。このようなロボット装置は
ペット化されたり或いは家族の一員とされて、ユーザー
は、そのようなロボット装置との間において様々な対話
を楽しむことができる。
2. Description of the Related Art In recent years, there has been proposed an autonomous robot apparatus that behaves autonomously according to the surrounding environment and internal state. The appearance of the robot device is imitated by an animal such as a dog, and the robot changes its emotions and instinct according to the surrounding environment and internal conditions, and acts based on the changed emotion and instinct. There is something to do. Such a robotic device can be made into a pet or a member of a family, and a user can enjoy various conversations with such a robotic device.

【0003】[0003]

【発明が解決しようとする課題】ところで、ロボット装
置は、自身の備えているマイクや脚等を利用して、音声
や行動によってユーザーとの間で対話をしている。しか
し、ユーザーは、ロボット装置の感情等を言葉で知るこ
とができない。特に、ペット或いは家族の一員としてロ
ボット装置と共同生活しているようなユーザーは、ロボ
ット装置との間で言葉での対話をしたいと思うのは必至
である。
By the way, the robot apparatus has a conversation with a user by voice or action using a microphone, a leg, or the like of the robot apparatus. However, the user cannot know the emotions and the like of the robot device in words. In particular, a user who lives together with a robot device as a pet or a member of a family necessarily wants to have a verbal dialog with the robot device.

【0004】そこで、本発明は、上述の実情に鑑みてな
されたものであり、ロボット装置との間で言葉での対話
を可能にするロボット装置、そのようなロボット装置を
利用した情報表示システム及びその方法、ロボットシス
テム、並びに記録媒体を提供することを目的としてい
る。
Accordingly, the present invention has been made in view of the above circumstances, and has been made in view of the above circumstances. It is an object to provide a method, a robot system, and a recording medium.

【0005】[0005]

【課題を解決するための手段】本発明に係るロボット装
置は、上述の課題を解決するために、情報表示装置に表
示させるための情報を取得する情報取得手段と、情報取
得手段によって取得した情報を情報表示装置に転送する
ための情報転送手段とを備える。
According to the present invention, there is provided a robot apparatus for acquiring information to be displayed on an information display device, and information acquired by the information acquiring means. Information transfer means for transferring the information to the information display device.

【0006】このような構成を備えたロボット装置は、
情報表示装置に表示させるための情報を情報取得手段に
より取得し、情報取得手段によって取得した情報を情報
表示装置に情報転送手段により転送する。
A robot device having such a configuration is
Information to be displayed on the information display device is acquired by the information acquisition unit, and the information acquired by the information acquisition unit is transferred to the information display device by the information transfer unit.

【0007】このようなロボット装置は、当該ロボット
装置によって取得した情報に基づいて情報表示部に文書
を表示する情報処理装置等に、自己が取得した情報を転
送する。
[0007] Such a robot device transfers the information obtained by itself to an information processing device or the like that displays a document on an information display unit based on the information obtained by the robot device.

【0008】また、本発明に係る情報表示システムは、
上述の課題を解決するために、情報を取得する情報取得
手段と、情報取得手段によって取得した情報を転送する
ための情報転送手段とを備えるロボット装置を備える。
また、情報表示システムは、情報転送手段により転送さ
れてきた情報転送手段が取得した情報に基づいて、予め
用意している文章パターンを利用して情報表示部に文章
を表示する情報処理装置を備える。
Further, the information display system according to the present invention comprises:
In order to solve the above-mentioned problem, a robot apparatus includes an information acquisition unit for acquiring information and an information transfer unit for transferring the information acquired by the information acquisition unit.
Further, the information display system includes an information processing device that displays a sentence on the information display unit using a sentence pattern prepared in advance based on the information acquired by the information transfer unit transferred by the information transfer unit. .

【0009】これにより、情報表示システムにおいて、
ロボット装置は、情報を情報取得手段により取得し、情
報取得手段によって取得した情報を情報表示手段に情報
転送手段により転送する。一方、情報処理装置は、情報
転送手段により転送されてきた情報取得手段が取得した
情報に基づいて、予め用意している文章パターンを利用
して情報表示部に文章を表示する。
Thus, in the information display system,
The robot device acquires information by the information acquisition unit, and transfers the information acquired by the information acquisition unit to the information display unit by the information transfer unit. On the other hand, the information processing apparatus displays a sentence on the information display unit using a sentence pattern prepared in advance, based on the information acquired by the information acquisition unit transferred by the information transfer unit.

【0010】このような情報表示システムは、ロボット
装置において取得した情報に基づいて、情報表示部に文
書を表示する。
[0010] Such an information display system displays a document on the information display unit based on the information acquired by the robot device.

【0011】また、本発明に係る情報表示方法は、上述
の課題を解決するために、ロボット装置により情報を取
得し、情報処理装置において、ロボット装置により取得
した情報に基づいて、予め用意している文章パターンを
利用して情報表示部に文章を表示する。すなわち、情報
表示方法によれば、ロボット装置において取得した情報
に基づいて、情報表示部に文書が表示される。
According to another aspect of the present invention, there is provided an information display method comprising: obtaining information by a robot device; and preparing the information in advance in the information processing device based on the information obtained by the robot device. The sentence is displayed on the information display unit using the sentence pattern. That is, according to the information display method, a document is displayed on the information display unit based on the information acquired by the robot device.

【0012】また、本発明に係るロボットシステムは、
上述の課題を解決するために、自律的に行動するロボッ
ト装置と、上記ロボット装置に基づく情報を処理する情
報処理装置と、上記情報処理装置によって処理された情
報に関する内容を表示する画像表示手段とを備える。
Further, the robot system according to the present invention comprises:
In order to solve the above-mentioned problems, a robot device that acts autonomously, an information processing device that processes information based on the robot device, and an image display unit that displays contents related to information processed by the information processing device Is provided.

【0013】ここで、ロボットシステムにおいて、ロボ
ット装置は、当該ロボット装置の活動に基づく活動情報
を取得する情報取得手段と、当該情報取得手段によって
取得された活動情報を記憶する記憶手段とを有し、情報
処理装置は、複数のメッセージ又は文章が記憶されたメ
ッセージパターン記憶手段と、上記活動情報と上記メッ
セージ又は文章とに基づいて、上記ロボット装置に関す
る日記を作成する日記作成手段とを有し、上記画像表示
手段は、上記日記作成手段によって作成された上記日記
を表示する。
Here, in the robot system, the robot device has information acquisition means for acquiring activity information based on the activity of the robot device, and storage means for storing the activity information acquired by the information acquisition means. The information processing apparatus has a message pattern storage unit in which a plurality of messages or sentences are stored, and a diary creating unit that creates a diary for the robot device based on the activity information and the message or sentence, The image display means displays the diary created by the diary creation means.

【0014】このようなロボットシステムは、ロボット
装置において取得した活動情報に基づいて、画像表示手
段に当該ロボット装置に関する日記を表示する。
In such a robot system, a diary relating to the robot device is displayed on the image display means based on the activity information acquired by the robot device.

【0015】また、本発明に係る情報表示方法は、上述
の課題を解決するために、自律的に行動するロボット装
置により、当該ロボット装置の活動に基づく活動情報を
取得し、情報処理装置が、複数のメッセージ又は文章が
記憶されたメッセージパターン記憶手段における上記メ
ッセージ又は文章と上記活動情報とに基づいて、上記ロ
ボット装置に関する日記を作成し、画像表示手段に表示
する。すなわち、情報表示方法によれば、ロボット装置
において取得した活動情報に基づいて、画像表示手段に
当該ロボット装置に関する日記が表示される。
Further, in order to solve the above-mentioned problems, the information display method according to the present invention obtains activity information based on the activity of the robot device by a robot device acting autonomously. A diary for the robot device is created based on the message or the sentence in the message pattern storage unit in which a plurality of messages or sentences are stored and the activity information, and displayed on the image display unit. That is, according to the information display method, a diary related to the robot device is displayed on the image display means based on the activity information acquired by the robot device.

【0016】また、本発明に係る記録媒体は、上述の課
題を解決するために、自律的に行動するロボット装置の
活動に基づく活動情報と、複数のメッセージ又は文章と
から、上記ロボット装置に関する日記を作成するプログ
ラムを記録している。すなわち、この記録媒体に記録さ
れたプログラムによれば、ロボット装置において取得し
た活動情報に基づいて、画像表示手段に当該ロボット装
置に関する日記が表示される。
Further, in order to solve the above-mentioned problems, a recording medium according to the present invention comprises, from activity information based on the activity of a robot apparatus that behaves autonomously, and a plurality of messages or sentences, a diary about the robot apparatus. Record the program to create. That is, according to the program recorded on the recording medium, a diary relating to the robot device is displayed on the image display means based on the activity information acquired by the robot device.

【0017】[0017]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を用いて詳しく説明する。この実施の形態は、周
囲の環境や内部の状態に応じて自律的に行動をする自律
型のロボット装置である。ロボット装置1はパーソナル
コンピュータ等の情報処理装置上で起動される日記(DI
ARY)機能を実現するための機能を有している。
Embodiments of the present invention will be described below in detail with reference to the drawings. This embodiment is an autonomous robot device that autonomously behaves according to a surrounding environment or an internal state. The robot device 1 is a diary (DI) started on an information processing device such as a personal computer.
ARY) has a function for realizing the function.

【0018】実施の形態では、先ず、ロボット装置の構
成について説明して、その後、ロボット装置を利用した
日記機能を詳細に説明する。
In the embodiment, first, the configuration of the robot device will be described, and then the diary function using the robot device will be described in detail.

【0019】(1)本実施の形態によるロボット装置の
構成 図1に示すように、「犬」等の動物を模した形状のいわ
ゆるペットロボットとされ、胴体部ユニット2の前後左
右にそれぞれ脚部ユニット3A,3B,3C,3Dが連
結されると共に、胴体部ユニット2の前端部及び後端部
にそれぞれ頭部ユニット4及び尻尾部ユニット5が連結
されて構成されている。
(1) Configuration of Robot Apparatus According to the Present Embodiment As shown in FIG. 1, a so-called pet robot having a shape imitating an animal such as a "dog" is provided. The units 3A, 3B, 3C, 3D are connected, and the head unit 4 and the tail unit 5 are connected to the front end and the rear end of the body unit 2, respectively.

【0020】胴体部ユニット2には、図2に示すよう
に、CPU(Central Processing Unit)10、DRA
M(Dynamic Random Access Memory)11、フラッシュ
ROM(Read 0nly Memory)12、PC(Personal Co
mputer)カードインターフェース回路13及び信号処理
回路14が内部バス15を介して相互に接続されること
により形成されたコントロール部16と、このロボット
装置1の動力源としてのバッテリ17とが収納されてい
る。また、胴体部ユニット2には、ロボット装置1の向
きや動きの加速度を検出するための角速度センサ18及
び加速度センサ19なども収納されている。
As shown in FIG. 2, a CPU (Central Processing Unit) 10 and a DRA
M (Dynamic Random Access Memory) 11, Flash ROM (Read 0nly Memory) 12, PC (Personal Co.)
A controller 16 formed by interconnecting a card interface circuit 13 and a signal processing circuit 14 via an internal bus 15 and a battery 17 as a power source of the robot apparatus 1 are housed therein. . The body unit 2 also houses an angular velocity sensor 18 and an acceleration sensor 19 for detecting the acceleration of the direction and movement of the robot device 1.

【0021】また、頭部ユニット4には、外部の状況を
撮像するためのCCD(Charge Coupled Device)カメ
ラ等の撮像装置20と、使用者からの「撫でる」や「叩
く」といった物理的な働きかけにより受けた圧力を検出
するためのタッチセンサ21と、前方に位置する物体ま
での距離を測定するための距離センサ22と、外部音を
集音するためのマイクロホン23と、鳴き声等の音声を
出力するためのスピーカ24と、ロボット装置1の外見
上の「目」に相当するLED(Light EmittingDiode)
(図示せず)などがそれぞれ所定位置に配置されてい
る。
The head unit 4 has an image pickup device 20 such as a CCD (Charge Coupled Device) camera for picking up an image of an external situation, and physical actions such as "stroke" and "hit" from the user. , A distance sensor 22 for measuring a distance to an object located ahead, a microphone 23 for collecting external sound, and outputting a sound such as a cry. (Light Emitting Diode) corresponding to a speaker 24 for performing the operation and an external “eye” of the robot apparatus 1
(Not shown) are arranged at predetermined positions.

【0022】さらに、各脚部ユニット3A〜3Dの関節
部分や各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、頭部ユニット4及び胴体部ユニット2の
連結部分、並びに尻尾部ユニット5の尻尾5Aの連結部
分などにはそれぞれ自由度数分のアクチュエータ25
〜25及びポテンショメータ26〜26が配設さ
れている。例えば、アクチュエータ25〜25はサ
ーボモータを構成として有している。サーボモータの駆
動により、脚部ユニット3A〜3Dが制御されて、目標
の姿勢或いは動作に遷移する。
Further, the joints of the leg units 3A to 3D, the leg units 3A to 3D, and the trunk unit 2
The actuators 25 1 for the degrees of freedom are respectively provided at the connection portions of the head unit 4 and the trunk unit 2, and at the connection portion of the tail 5 A of the tail unit 5.
To 25 n and potentiometers 26 1 to 26 n are provided. For example, each of the actuators 25 1 to 25 n has a servomotor. By driving the servo motor, the leg units 3A to 3D are controlled, and transition to a target posture or operation is made.

【0023】そして、これら角速度センサ18、加速度
センサ19、タッチセンサ21、距離センサ22、マイ
クロホン23、スピーカ24及び各ポテンショメータ2
〜26などの各種センサ並びにLED及び各アク
チュエータ25 〜25は、それぞれ対応するハブ
27〜27を介してコントロール部16の信号処理
回路14と接続され、撮像装置20及びバッテリ17
は、それぞれ信号処理回路14と直接接続されている。
The angular velocity sensor 18, acceleration sensor 19, touch sensor 21, distance sensor 22, microphone 23, speaker 24 and each potentiometer 2
6 1-26 various sensors and LED and the actuator 25 1 to 25 n, such as n is connected to the signal processing circuit 14 of the control unit 16 via a corresponding hub 27 1 ~ 27 n, the imaging device 20 and the battery 17
Are directly connected to the signal processing circuit 14, respectively.

【0024】信号処理回路l4は、上述の各センサから
供給されるセンサデータや画像データ及び音声データを
順次取り込み、これらをそれぞれ内部バス15を介して
DRAM11内の所定位置に順次格納する。また信号処
理回路14は、これと共にバッテリ17から供給される
バッテリ残量を表すバッテリ残量データを順次取り込
み、これをDRAM11内の所定位置に格納する。
The signal processing circuit 14 sequentially takes in the sensor data, image data, and audio data supplied from each of the above-mentioned sensors, and sequentially stores them at predetermined positions in the DRAM 11 via the internal bus 15. In addition, the signal processing circuit 14 sequentially takes in remaining battery power data indicating the remaining battery power supplied from the battery 17 and stores the data at a predetermined position in the DRAM 11.

【0025】このようにしてDRAM11に格納された
各センサデータ、画像データ、音声データ及びバッテリ
残量データは、この後CPU10がこのロボット装置1
の動作制御を行う際に利用される。
The sensor data, image data, audio data, and remaining battery data stored in the DRAM 11 as described above are then transmitted to the robot apparatus 1 by the CPU 10.
It is used when controlling the operation of.

【0026】実際上CPU10は、ロボット装置1の電
源が投入された初期時、胴体部ユニット2の図示しない
PCカードスロットに装填されたメモリカード28又は
フラッシュROM12に格納された制御プログラムをP
Cカードインターフェース回路13を介して又は直接読
み出し、これをDRAM11に格納する。
In practice, when the power of the robot apparatus 1 is turned on, the CPU 10 executes the control program stored in the memory card 28 or the flash ROM 12 inserted in the PC card slot (not shown) of the body unit 2 into the P.
The data is read out via the C card interface circuit 13 or directly and stored in the DRAM 11.

【0027】また、CPU10は、この後上述のように
信号処理回路14よりDRAM11に順次格納される各
センサデータ、画像データ、音声データ及びバッテリ残
量データに基づいて自己及び周囲の状況や、使用者から
の指示及び働きかけの有無などを判断する。
The CPU 10 then determines the status of itself and its surroundings and the usage based on the sensor data, image data, audio data, and remaining battery data sequentially stored in the DRAM 11 from the signal processing circuit 14 as described above. Judge the instruction from the person and the presence or absence of the action.

【0028】さらに、CPU10は、この判断結果及び
DRAM11に格納した制御プログラムに基づいて続く
行動を決定すると共に、当該決定結果に基づいて必要な
アクチュエータ25〜25を駆動させることによ
り、頭部ユニット4を上下左右に振らせたり、尻尾部ユ
ニット5の尻尾5Aを動かせたり、各脚部ユニット3A
〜3Dを駆動させて歩行させるなどの行動を行わせる。
Furthermore, CPU 10 is configured to determine a subsequent action based on the control program stored in the determination result and DRAM 11, by driving the actuator 25 1 to 25 n required based on the determination result, the head The unit 4 can be swung up and down, left and right, the tail 5A of the tail unit 5 can be moved, and each leg unit 3A can be moved.
3D is driven to perform an action such as walking.

【0029】また、この際CPU10は、必要に応じて
音声データを生成し、これを信号処理回路14を介して
音声信号としてスピーカ24に与えることにより当該音
声信号に基づく音声を外部に出力させたり、上述のLE
Dを点灯、消灯又は点滅させる。
At this time, the CPU 10 generates audio data as necessary, and supplies the generated audio data to the speaker 24 as an audio signal via the signal processing circuit 14 to output an audio based on the audio signal to the outside. LE above
D is turned on, off or blinked.

【0030】このようにしてこのロボット装置1におい
ては、自己及び周囲の状況や、使用者からの指示及び働
きかけに応じて自律的に行動し得るようになされてい
る。
In this way, the robot device 1 can autonomously act in accordance with the situation of itself and the surroundings, and instructions and actions from the user.

【0031】(2)制御プログラムのソフトウェア構成 ここで、ロボット装置1における上述の制御プログラム
のソフトウェア構成は、図3に示すようになる。この図
3において、デバイス・ドライバ・レイヤ30は、この
制御プログラムの最下位層に位置し、複数のデバイス・
ドライバからなるデバイス・ドライバ・セット31から
構成されている。この場合、各デバイス・ドライバは、
撮像装置20(図2)やタイマ等の通常のコンピュータ
で用いられるハードウェアに直接アクセスすることを許
されたオブジェクトであり、対応するハードウェアから
の割り込みを受けて処理を行う。
(2) Software Configuration of Control Program Here, the software configuration of the above-described control program in the robot device 1 is as shown in FIG. In FIG. 3, a device driver layer 30 is located at the lowest layer of the control program, and includes a plurality of device drivers.
It comprises a device driver set 31 composed of drivers. In this case, each device driver
An object that is allowed to directly access hardware used in a normal computer, such as the imaging device 20 (FIG. 2) and a timer, and performs processing in response to an interrupt from the corresponding hardware.

【0032】また、ロボティック・サーバ・オブジェク
ト32は、デバイス・ドライバ・レイヤ30の最下位層
に位置し、例えば上述の各種センサやアクチュエータ2
〜25等のハードウェアにアクセスするためのイ
ンターフェースを提供するソフトウェア群でなるバーチ
ャル・ロボット33と、電源の切換えなどを管理するソ
フトウェア群でなるバワーマネージャ34と、他の種々
のデバイス・ドライバを管理するソフトウェア群でなる
デバイス・ドライバ・マネージャ35と、ロボット装置
1の機構を管理するソフトウェア群でなるデザインド・
ロボット36とから構成されている。
The robotic server object 32 is located at the lowest layer of the device driver layer 30 and includes, for example, the various sensors and actuators 2 described above.
A virtual robot 33 comprising a software group that provides a 5 to 253 interface for accessing hardware such as n, a bus word manager 34 made of a software suite for managing the power supply switching, the other various device A device driver manager 35, which is a group of software for managing drivers, and a designed driver, which is a group of software for managing the mechanism of the robot device 1,
And a robot 36.

【0033】マネージャ・オブジェクト37は、オブジ
ェクト・マネージャ38及びサービス・マネージャ39
から構成されている。オブジェクト・マネージャ38
は、ロボティック・サーバ・オブジェクト32、ミドル
・ウェア・レイヤ40、及びアプリケーション・レイヤ
41に含まれる各ソフトウェア群の起動や終了を管理す
るソフトウェア群であり、サービス・マネージャ39
は、メモリカード28(図2)に格納されたコネクショ
ンファイルに記述されている各オブジェクト間の接続情
報に基づいて各オブジェクトの接続を管理するソフトウ
ェア群である。
The manager object 37 includes an object manager 38 and a service manager 39.
It is composed of Object Manager 38
Is a software group that manages activation and termination of each software group included in the robotic server object 32, the middleware layer 40, and the application layer 41, and includes a service manager 39.
Are a group of software for managing the connection of each object based on the connection information between the objects described in the connection file stored in the memory card 28 (FIG. 2).

【0034】ミドル・ウェア・レイヤ40は、ロボティ
ック・サーバ・オブジェクト32の上位層に位置し、画
像処理や音声処理などのこのロボット装置1の基本的な
機能を提供するソフトウェア群から構成されている。ま
た、アプリケーション・レイヤ41は、ミドル・ウェア
・レイヤ40の上位層に位置し、当該ミドル・ウェア・
レイヤ40を構成する各ソフトウェア群によって処理さ
れた処理結果に基づいてロボット装置1の行動を決定す
るためのソフトウェア群から構成されている。
The middleware layer 40 is located on the upper layer of the robotic server object 32 and is composed of a group of software for providing basic functions of the robot apparatus 1 such as image processing and sound processing. I have. Further, the application layer 41 is located above the middleware layer 40, and
It is composed of a software group for determining an action of the robot apparatus 1 based on a processing result processed by each software group constituting the layer 40.

【0035】なお、ミドル・ウェア・レイヤ40及びア
プリケーション・レイヤ41の具体なソフトウェア構成
をそれぞれ図4に示す。
FIG. 4 shows specific software configurations of the middleware layer 40 and the application layer 41, respectively.

【0036】なお、上述の説明では、画像処理又は音声
処理等を行う音階認識用の信号処理モジュール53又は
色認識用の信号処理モジュール58が、ミドル・ウェア
・レイヤ40に備えられている場合について説明してい
るが、例えば、これらの機能をアプリケーション41に
備えることもできる。
In the above description, the case where the signal processing module 53 for scale recognition or the signal processing module 58 for color recognition for performing image processing or sound processing is provided in the middleware layer 40 is described. Although described, for example, these functions can be provided in the application 41.

【0037】ミドル・ウェア・レイヤ40は、図4に示
すように、騒音検出用、温度検出用、明るさ検出用、音
階認識用、距離検出用、姿勢検出用、タッチセンサ用、
動き検出用及び色認識用の各信号処理モジュール50〜
58並びに入力セマンティクスコンバータモジュール5
9などを有する認識系60と、出力セマンティクスコン
バータモジュール68並びに姿勢管理用、トラッキング
用、モーション再生用、歩行用、転倒復帰用、LED点
灯用及び音再生用の各信号処理モジュール61〜67な
どを有する出力系69とから構成されている。
As shown in FIG. 4, the middle wear layer 40 is for noise detection, temperature detection, brightness detection, scale recognition, distance detection, posture detection, touch sensor,
Each signal processing module 50 for motion detection and color recognition
58 and input semantics converter module 5
9 and an output semantics converter module 68 and signal processing modules 61 to 67 for attitude management, tracking, motion reproduction, walking, fallback recovery, LED lighting and sound reproduction. And an output system 69.

【0038】認識系60の各信号処理モジュール50〜
58は、ロボティック・サーバ・オブジェクト32のバ
ーチャル・ロボット33によりDRAM11(図2)か
ら読み出される各センサデータや画像データ及び音声デ
ータのうちの対応するデータを取り込み、当該データに
基づいて所定の処理を施して、処理結果を入力セマンテ
ィクスコンバータモジュール59に与える。ここで、例
えば、バーチャル・ロボット33は、所定の通信規約に
よって、信号の授受或いは変換をする部分として構成さ
れている。
Each signal processing module 50 to 50 of the recognition system 60
Numeral 58 fetches corresponding data among the sensor data, image data, and audio data read from the DRAM 11 (FIG. 2) by the virtual robot 33 of the robotic server object 32, and performs predetermined processing based on the data. Is given to the input semantics converter module 59. Here, for example, the virtual robot 33 is configured as a part that exchanges or converts signals according to a predetermined communication protocol.

【0039】入力セマンティクスコンバータモジュール
59は、これら各信号処理モジュール50〜58から与
えられる処理結果に基づいて、「うるさい」、「暑
い」、「明るい」、「ボールを検出した」、「転倒を検
出した」、「撫でられた」、「叩かれた」、「ドミソの
音階が聞こえた」、「動く物体を検出した」又は「障害
物を検出した」などの自己及び周囲の状況や、使用者か
らの指令及び働きかけを認識し、認識結果をアプリケー
ション・レイヤ41(図2)に出力する。
The input semantics converter module 59 detects "noisy", "hot", "bright", "ball detected", and "fallover" based on the processing results given from each of the signal processing modules 50 to 58. Self and surrounding conditions such as `` has been stroked '', `` stroked '', `` hitted '', `` he heard the domes '', `` detected a moving object '' or `` detected an obstacle '', and the user , And outputs the recognition result to the application layer 41 (FIG. 2).

【0040】アプリケーション・レイヤ4lは、図5に
示すように、行動モデルライブラリ70、行動切換モジ
ュール71、学習モジュール72、感情モデル73及び
本能モデル74の5つのモジュールから構成されてい
る。
As shown in FIG. 5, the application layer 41 includes five modules: a behavior model library 70, a behavior switching module 71, a learning module 72, an emotion model 73, and an instinct model 74.

【0041】行動モデルライブラリ70には、図6に示
すように、「バッテリ残量が少なくなった場合」、「転
倒復帰する」、「障害物を回避する場合」、「感情を表
現する場合」、「ボールを検出した場合」などの予め選
択されたいくつかの条件項目にそれぞれ対応させて、そ
れぞれ独立した行動モデル70〜70が設けられて
いる。
As shown in FIG. 6, the behavior model library 70 includes “when the remaining battery power is low”, “returns to fall”, “when avoiding obstacles”, and “when expressing emotions”. , And independent action models 70 1 to 70 n are respectively provided corresponding to some pre-selected condition items such as “when a ball is detected”.

【0042】そして、これら行動モデル70〜70
は、それぞれ入力セマンティクスコンバータモジュール
59から認識結果が与えられたときや、最後の認識結果
が与えられてから一定時間が経過したときなどに、必要
に応じて後述のように感情モデル73に保持されている
対応する情動のパラメータ値や、本能モデル74に保持
されている対応する欲求のパラメータ値を参照しながら
続く行動をそれぞれ決定し、決定結果を行動切換モジュ
ール71に出力する。
The behavior models 70 1 to 70 n
Are stored in the emotion model 73 as described later, as necessary, when a recognition result is given from the input semantics converter module 59 or when a certain period of time has passed since the last recognition result was given. The next action is determined with reference to the corresponding emotion parameter value and the corresponding desire parameter value held in the instinct model 74, and the determination result is output to the action switching module 71.

【0043】なお、この実施の形態の場合、各行動モデ
ル70〜70は、次の行動を決定する手法として、
図7に示すような1つのノード(状態)NODE〜N
ODEから他のどのノードNODE〜NODE
遷移するかを各ノードNODE〜NODEに間を接
続するアークARC〜ARCn1に対してそれぞれ設
定された遷移確率P〜Pに基づいて確率的に決定す
る有限確率オートマトンと呼ばれるアルゴリズムを用い
る。
In the case of this embodiment, each of the behavior models 70 1 to 70 n uses the following method to determine the next behavior.
One node (state) NODE 0 to N as shown in FIG.
The transition probability P 1 to P n which is set respectively arc ARC 1 ~ARC n1 connecting between whether to transition from ODE n to any other node NODE 0 ~NODE n each node NODE 0 ~NODE n An algorithm called a finite stochastic automaton that determines stochastically on the basis is used.

【0044】具体的に、各行動モデル70〜70
は、それぞれ自己の行動モデル70〜70を形成
するノードNODE〜NODEにそれぞれ対応させ
て、これらノードNODE〜NODEごとに図8に
示すような状態遷移表80を有している。
More specifically, each of the behavior models 70 1 to 70 1
n has a state transition table 80 as shown in FIG. 8 for each of the nodes NODE 0 to NODE n corresponding to the nodes NODE 0 to NODE n forming their own behavior models 70 1 to 70 n , respectively. ing.

【0045】この状態遷移表80では、そのノードNO
DE〜NODEにおいて遷移条件とする入力イベン
ト(認識結果)が「入力イベント名」の列に優先順に列
記され、その遷移条件についてのさらなる条件が「デー
タ名」及び「データの範囲」の列における対応する行に
記述されている。
In the state transition table 80, the node NO
Input events (recognition results) as transition conditions in DE 0 to NODE n are listed in order of priority in the column of “input event name”, and further conditions for the transition condition are columns of “data name” and “data range”. In the corresponding line.

【0046】したがって、図8の状態遷移表80で表さ
れるノードNODE100では、「ボールを検出(BA
LL)」という認識結果が与えられた場合に、当該認識
結果と共に与えられるそのボールの「大きさ(SIZ
E)」が「0から1000」の範囲であることや、「障害物
を検出(OBSTACLE)」という認識結果が与えら
れた場合に、当該認識結果と共に与えられるその障害物
までの「距離(DISTANCE)」が「0から100」の
範囲であることが他のノードに遷移するための条件とな
っている。
Therefore, in the node NODE 100 represented by the state transition table 80 in FIG.
LL) ”, the“ size (SIZ) of the ball given together with the recognition result is given.
E) is in the range of “0 to 1000”, or when a recognition result of “obstacle detected (OBSTACLE)” is given, the “distance (DISTANCE)” to the obstacle given together with the recognition result is given. )) Is in the range of “0 to 100”, which is a condition for transitioning to another node.

【0047】また、このノードNODE100では、認
識結果の入力がない場合においても、行動モデル70
〜70が周期的に参照する感情モデル73及び本能モ
デル74にそれぞれ保持された各情動及び各欲求のパラ
メータ値のうち、感情モデル73に保持された「喜び
(JOY)」、「驚き(SURPRISE)」若しくは
「悲しみ(SUDNESS)」のいずれかのパラメータ
値が「50から100」の範囲であるときには他のノードに
遷移することができるようになっている。
In the node NODE 100 , even when the recognition result is not input, the behavior model 70 1
Of the parameter values of each emotion and each desire held in the emotion model 73 and the instinct model 74 which are periodically referred to by the n- 70n, “joy” and “surprise” held in the emotion model 73 are stored. )) Or "Sadness (SUDNESS)" when the parameter value is in the range of "50 to 100", it is possible to transition to another node.

【0048】また、状態遷移表80では、「他のノード
ヘの遷移確率」の欄における「遷移先ノード」の行にそ
のノードNODE〜 NODEから遷移できるノー
ド名が列記されていると共に、「入力イベント名」、
「データ名」及び「データの範囲」の列に記述された全
ての条件が揃ったときに遷移できる他の各ノードNOD
〜NODEへの遷移確率が「他のノードヘの遷移
確率」の欄内の対応する箇所にそれぞれ記述され、その
ノードNODE〜NODEに遷移する際に出力すべ
き行動が「他のノードヘの遷移確率」の欄における「出
力行動」の行に記述されている。なお、「他のノードヘ
の遷移確率」の欄における各行の確率の和は100
[%]となっている。
In the state transition table 80, the names of nodes that can transition from the nodes NODE 0 to NODE n are listed in the row of “transition destination node” in the column of “transition probability to another node”. Input event name ",
Other nodes NOD that can transition when all the conditions described in the columns of “data name” and “data range” are met
The transition probabilities from E 0 to NODE n are respectively described in corresponding portions in the column of “transition probability to other nodes”, and the action to be output when transitioning to that node NODE 0 to NODE n is “other It is described in the row of “output action” in the column of “transition probability to node”. Note that the sum of the probabilities of each row in the column of “transition probability to another node” is 100
[%].

【0049】したがって、図8の状態遷移表80で表さ
れるノードNODE100では、例えば「ボールを検出
(BALL)」し、そのボールの「SIZE(大き
さ)」が「0から1000」の範囲であるという認識結果が
与えられた場合には、「30[%]」の確率で「ノードN
ODE120(node 120)」に遷移でき、そのとき「A
CTION1」の行動が出力されることとなる。
Therefore, in the node NODE 100 represented by the state transition table 80 in FIG. 8, for example, “ball is detected (BALL)”, and the “SIZE” of the ball is in the range of “0 to 1000”. Is given, the probability of “30 [%]” and “node N
ODE 120 (node 120) "and then" A
The action of “CTION1” is output.

【0050】各行動モデル70〜70は、それぞれ
このような状態遷移表80として記述されたノードNO
DE〜 NODEがいくつも繋がるようにして構成
されており、入力セマンティクスコンバータモジュール
59から認識結果が与えられたときなどに、対応するノ
ードNODE〜NODEの状態遷移表を利用して確
率的に次の行動を決定し、決定結果を行動切換モジュー
ル71に出力するようになされている。
Each of the behavior models 70 1 to 70 n has the node NO described in the state transition table 80 as described above.
DE 0 to NODE n are connected to each other, and when a recognition result is given from the input semantics converter module 59 or the like, the probability is calculated using the state transition table of the corresponding nodes NODE 0 to NODE n. The next action is determined, and the determination result is output to the action switching module 71.

【0051】図5に示す行動切換モジュール71は、行
動モデルライブラリ70の各行動モデル70〜70
からそれぞれ出力される行動のうち、予め定められた優
先順位の高い行動モデル70〜70から出力された
行動を選択し、当該行動を実行すべき旨のコマンド(以
下、これを行動コマンドという。)をミドル・ウェア・
レイヤ40の出力セマンティクスコンバータモジュール
68に送出する。なお、この実施の形態においては、図
6において下側に表記された行動モデル70〜70
ほど優先順位が高く設定されている。
The action switching module 71 shown in FIG. 5 includes the action models 70 1 to 70 n of the action model library 70.
Among the actions which are output from, select an action that is output from a predetermined higher priority behavior model 70 1 to 70 n, the command to the effect that execute the action (hereinafter, referred to as an action command )) Middleware
The output is sent to the output semantics converter module 68 of the layer 40. Incidentally, in this embodiment, the behavior model, labeled on the lower side in FIG. 6 70 1 to 70 n
The higher the priority, the higher the priority.

【0052】また、行動切換モジュール71は、行動完
了後に出力セマンティクスコンバータモジュール68か
ら与えられる行動完了情報に基づいて、その行動が完了
したことを学習モジュール72、感情モデル73及び本
能モデル74に通知する。
The action switching module 71 notifies the learning module 72, the emotion model 73, and the instinct model 74 that the action has been completed, based on the action completion information provided from the output semantics converter module 68 after the action is completed. .

【0053】一方、学習モジュール72は、入力セマン
ティクスコンバータモジュール59から与えられる認識
結果のうち、「叩かれた」や「撫でられた」など、使用
者からの働きかけとして受けた教示の認識結果を入力す
る。
On the other hand, the learning module 72 inputs the recognition result of the teaching received from the user, such as “hit” or “stroke”, among the recognition results given from the input semantics converter module 59. I do.

【0054】そして、学習モジュール72は、この認識
結果及び行動切換モジュール71からの通知に基づい
て、「叩かれた(叱られた)」ときにはその行動の発現
確率を低下させ、「撫でられた(誉められた)」ときに
はその行動の発現確率を上昇させるように、行動モデル
ライブラリ70における対応する行動モデル70〜7
の対応する遷移確率を変更する。
Then, based on the recognition result and the notification from the action switching module 71, the learning module 72 lowers the probability of occurrence of the action when "beaten (scolded)" and "strokes ( praised obtained) "sometimes to increase the expression probability of that action, behavior model 70 1-7 corresponding in behavioral model library 70
Change the corresponding transition probabilities of 0 n .

【0055】他方、感情モデル73は、「喜び(jo
y)」、「悲しみ(sadness)」、「怒り(anger)」、
「驚き(surprise)」、「嫌悪(disgust)」及び「恐
れ(fear)」の合計6つの情動について、各情動ごとに
その情動の強さを表すパラメータを保持している。そし
て、感情モデル73は、これら各情動のパラメータ値
を、それぞれ入力セマンティクスコンバータモジュール
59から与えられる「叩かれた」及び「撫でられた」な
どの特定の認識結果と、経過時間及び行動切換モジュー
ル71からの通知などに基づいて周期的に更新する。こ
の更新は、メモリカード28上のデータの更新である。
このようなことから、メモリカード28には、ロボット
装置1の各種情動の最新のパラメータ値が記憶されるこ
とになる。また、この場合において、メモリカード28
へのパラメータ値の書き込みは、具体的には、CPU1
0によってなされており、これは、情報取得機能により
取得したパラメータ値をメモリカード28に書き込むと
いうCPU10の一機能により実現されたものである。
後述する本能モデル74においても同様であり、このよ
うに、CPU10は、情報取得機能により取得した各種
情報をメモリカード28に記憶している。
On the other hand, the emotion model 73 indicates “joy (jo
y) "," sadness "," anger ",
For a total of six emotions, “surprise”, “disgust”, and “fear”, a parameter indicating the strength of the emotion is stored for each emotion. Then, the emotion model 73 converts the parameter values of each of these emotions into specific recognition results such as “hit” and “stroke” given from the input semantics converter module 59 and the elapsed time and action switching module 71. Update periodically based on notification from This update is an update of data on the memory card 28.
For this reason, the latest parameter values of various emotions of the robot device 1 are stored in the memory card 28. In this case, the memory card 28
Specifically, the writing of the parameter value to the
This is realized by one function of the CPU 10 of writing the parameter value acquired by the information acquisition function to the memory card 28.
The same applies to the instinct model 74 described later. In this manner, the CPU 10 stores various types of information acquired by the information acquisition function in the memory card 28.

【0056】具体的には、感情モデル73は、入力セマ
ンティクスコンバータモジュール59から与えられる認
識結果と、そのときのロボット装置1の行動と、前回更
新してからの経過時間などに基づいて所定の演算式によ
り算出されるそのときのその情動の変動量を△E
[t]、現在のその情動のパラメータ値をE[t]、そ
の情動の感度を表す係数をkとして、(1)式によっ
て次の周期におけるその情動のパラメータ値E[t+
1]を算出し、これを現在のその情動のパラメータ値E
[t]と置き換えるようにしてその情動のパラメータ値
を更新する。また、感情モデル73は、これと同様にし
て全ての情動のパラメータ値を更新する。
More specifically, the emotion model 73 is a predetermined calculation based on the recognition result given from the input semantics converter module 59, the behavior of the robot device 1 at that time, the elapsed time since the last update, and the like. The amount of change of the emotion at that time calculated by the equation is expressed by △ E
[T], E [t] of the current parameter value of the emotion, the coefficient representing the sensitivity of the emotion as k e, (1) the parameter value of the emotion in a next period by equation E [t +
1] is calculated, and the current parameter value E of the emotion is calculated.
The parameter value of the emotion is updated by replacing it with [t]. The emotion model 73 updates the parameter values of all emotions in the same manner.

【0057】[0057]

【数1】 (Equation 1)

【0058】なお、各認識結果や出力セマンティクスコ
ンバータモジュール68からの通知が各情動のパラメー
タ値の変動量△E[t]にどの程度の影響を与えるかは
予め決められており、例えば「叩かれた」といった認識
結果は「怒り」の情動のパラメータ値の変動量△E
[t]に大きな影響を与え、「撫でられた」といった認
識結果は「喜び」の情動のパラメータ値の変動量△E
[t]に大きな影響を与えるようになっている。
The degree to which each recognition result and the notification from the output semantics converter module 68 affect the variation ΔE [t] of the parameter value of each emotion is determined in advance. Is the amount of change in the parameter value of the emotion of “anger” △ E
[T] is greatly affected, and the recognition result such as “stroke” is the variation amount of the parameter value of the emotion of “joy” 喜 び E
[T] is greatly affected.

【0059】ここで、出力セマンティクスコンバータモ
ジュール68からの通知とは、いわゆる行動のフィード
バック情報(行動完了情報)であり、行動の出現結果の
情報であり、感情モデル73は、このような情報によっ
ても感情を変化させる。これは、例えば、「吠える」と
いった行動により怒りの感情レベルが下がるといったよ
うなことである。なお、出力セマンティクスコンバータ
モジュール68からの通知は、上述した学習モジュール
72にも入力されており、学習モジュール72は、その
通知に基づいて行動モデル70〜70の対応する遷
移確率を変更する。
Here, the notification from the output semantics converter module 68 is so-called action feedback information (action completion information), information on the appearance result of the action, and the emotion model 73 also uses such information. Change emotions. This is, for example, a behavior such as "barking" that lowers the emotional level of anger. The notification from the output semantics converter module 68 is also input to the learning module 72 described above, the learning module 72 changes the corresponding transition probability of the behavioral models 70 1 to 70 n based on the notification.

【0060】なお、行動結果のフィードバックは、行動
切換モジュール71の出力(感情が付加された行動)に
よりなされるものであってもよい。
The feedback of the action result may be made by the output of the action switching module 71 (the action to which the emotion is added).

【0061】一方、本能モデル74は、「運動欲(exer
cise)」、「愛情欲(affection)」、「食欲(appetit
e)」、「好奇心(curiosity)」及び「睡眠欲(slee
p)」の互いに独立した4つの欲求について、これら欲
求ごとにその欲求の強さを表すパラメータを保持してい
る。そして、本能モデル74は、これらの欲求のパラメ
ータ値を、それぞれ入力セマンティクスコンバータモジ
ュール59から与えられる認識結果や、経過時間及び行
動切換モジュール71からの通知などに基づいて周期的
に更新する。この更新は、メモリカード28上のデータ
の更新である。このようなことから、メモリカード28
には、ロボット装置1の各種欲求の最新のパラメータ値
が記憶されることになる。
On the other hand, the instinct model 74 is “exercise desire (exer
cise) "," affection "," appetite "
e), “curiosity” and “sleep”
For each of the four independent needs described in "p)", a parameter indicating the strength of the need is held. Then, the instinct model 74 periodically updates the parameter values of the desires based on the recognition result given from the input semantics converter module 59, the elapsed time, the notification from the action switching module 71, and the like. This update is an update of data on the memory card 28. Because of this, the memory card 28
Stores the latest parameter values of various needs of the robot apparatus 1.

【0062】具体的には、本能モデル74は、「運動
欲」、「愛情欲」及び「好奇心」については、認識結
果、経過時間及び出力セマンティクスコンバータモジュ
ール68からの通知などに基づいて所定の演算式により
算出されるそのときのその欲求の変動量をΔI[k]、
現在のその欲求のパラメータ値をI[k]、その欲求の
感度を表す係数kとして、所定周期で(2)式を用い
て次の周期におけるその欲求のパラメータ値I[k+
1]を算出し、この演算結果を現在のその欲求のパラメ
ータ値I[k]と置き換えるようにしてその欲求のパラ
メータ値を更新する。また、本能モデル74は、これと
同様にして「食欲」を除く各欲求のパラメータ値を更新
する。
More specifically, the instinct model 74 determines the “movement desire”, “affection desire”, and “curiosity” based on the recognition result, the elapsed time, the notification from the output semantics converter module 68, and the like. The change amount of the desire at that time calculated by the arithmetic expression is ΔI [k],
Assuming that the parameter value of the current desire is I [k] and the coefficient k i representing the sensitivity of the desire is a parameter value I [k +
1] is calculated, and the calculation result is replaced with the current parameter value I [k] of the desire to update the parameter value of the desire. Similarly, the instinct model 74 updates the parameter values of each desire except “appetite”.

【0063】[0063]

【数2】 (Equation 2)

【0064】なお、認識結果及び出力セマンティクスコ
ンバータモジュール68からの通知などが各欲求のパラ
メータ値の変動量△I[k]にどの程度の影響を与える
かは予め決められており、例えば出力セマンティクスコ
ンバータモジュール68からの通知は、「疲れ」のパラ
メータ値の変動量△I[k]に大きな影響を与えるよう
になっている。
Note that the degree to which the recognition result and the notification from the output semantics converter module 68 affect the variation ΔI [k] of the parameter value of each desire is determined in advance. For example, the output semantics converter 68 The notification from the module 68 has a large effect on the variation ΔI [k] of the parameter value of “fatigue”.

【0065】なお、本実施の形態においては、各情動及
び各欲求(本能)のパラメータ値がそれぞれ0から100ま
での範囲で変動するように規制されており、また係数k
、kの値も各情動及び各欲求ごとに個別に設定され
ている。
In the present embodiment, the parameter values of each emotion and each desire (instinct) are regulated so as to fluctuate in the range of 0 to 100, respectively.
e, the value of k i is also set individually for each emotion and each desire.

【0066】一方、ミドル・ウェア・レイヤ40の出力
セマンティクスコンバータモジュール68は、図4に示
すように、上述のようにしてアプリケーション・レイヤ
41の行動切換モジュール71から与えられる「前
進」、「喜ぶ」、「鳴く」又は「トラッキング(ボール
を追いかける)」といった抽象的な行動コマンドを出力
系69の対応する信号処理モジュール61〜67に与え
る。
On the other hand, as shown in FIG. 4, the output semantics converter module 68 of the middleware layer 40 provides “forward” and “pleased” provided by the action switching module 71 of the application layer 41 as described above. , "Sound" or "tracking (follow the ball)" is given to the corresponding signal processing modules 61 to 67 of the output system 69.

【0067】そしてこれら信号処理モジュール61〜6
7は、行動コマンドが与えられると当該行動コマンドに
基づいて、その行動を行うために対応するアクチュエー
タ25〜25(図2)に与えるべきサーボ指令値、
スピーカ24(図2)から出力する音の音声データ、又
は「目」のLED或いは「尻尾」に与える駆動データを
生成し、これらのデータをロボティック・サーバ・オブ
ジェクト32のバーチャル・ロボット33及び信号処理
回路14(図2)を順次介して対応するアクチュエータ
25〜25又はスピーカ24又はLEDに順次送出
する。
The signal processing modules 61 to 6
7, when an action command is given, based on the action command, a servo command value to be given to a corresponding actuator 25 1 to 25 n (FIG. 2) in order to perform the action;
The audio data of the sound output from the speaker 24 (FIG. 2) or the driving data to be given to the LED or the “tail” of the “eye” is generated, and these data are transmitted to the virtual robot 33 of the robotic server object 32 and the signal. The signals are sequentially transmitted to the corresponding actuators 25 1 to 25 n or the speakers 24 or the LEDs via the processing circuit 14 (FIG. 2).

【0068】このようにしてロボット装置1において
は、制御プログラムに基づいて、自己(内部)及び周囲
(外部)の状況や、使用者からの指示及び働きかけに応
じた自律的な行動を行うことができるようになされてい
る。
In this way, the robot apparatus 1 can perform autonomous actions according to its own (internal) and surrounding (external) conditions and instructions and actions from the user based on the control program. It has been made possible.

【0069】(3)日記機能 (3−1)システム 上述したロボット装置1により日記(DIARY)機能が実
現される。日記機能では、実際には、ロボット装置1が
メモリカード28に記憶した情報が参照されて、パーソ
ナルコンピュータ等の情報処理装置において、ロボット
装置が記載したものとされる日記が表示される。具体的
には、図9に示すように日記機能を実現するシステムが
構成されている。このシステムでは、ロボット装置1に
おいて、ロボット装置1の活動に基づく種々の情報、例
えば活動情報が記憶されたメモリーカード28がパーソ
ナルコンピュータ100に装着される。なお、メモリー
カードを介さずに、無線で情報を伝送するようにしても
構わない。そして、パーソナルコンピュータ100にお
いて、装着されたメモリカード28に記憶されていた情
報に基づいて、モニター101にロボット装置が記載し
たものとされる日記が表示される。ここで、パーソナル
コンピュータ100は、情報転送手段とされるメモリカ
ード28に記憶された情報(活動情報等)に基づいて、
予め用意されている文章又はメッセージパターンを利用
して画像表示手段であるモニター101に日記等の文章
を表示する情報処理装置とされている。パーソナルコン
ピュータ100には、活動情報と文章又はメッセージパ
ターンに基づいて日記等を作成するプログラムが格納さ
れている。
(3) Diary Function (3-1) System A diary (DIARY) function is realized by the robot device 1 described above. In the diary function, actually, information stored in the memory card 28 by the robot device 1 is referred to, and a diary that is described by the robot device is displayed in an information processing device such as a personal computer. Specifically, a system that realizes a diary function is configured as shown in FIG. In this system, in the robot device 1, various types of information based on the activity of the robot device 1, for example, a memory card 28 in which activity information is stored is attached to the personal computer 100. Note that information may be transmitted wirelessly without using a memory card. Then, in the personal computer 100, a diary which is described by the robot apparatus is displayed on the monitor 101 based on the information stored in the attached memory card 28. Here, the personal computer 100 operates based on information (activity information and the like) stored in the memory card 28 serving as information transfer means.
The information processing apparatus is configured to display a text such as a diary on a monitor 101 serving as an image display unit using a text or a message pattern prepared in advance. The personal computer 100 stores a program for creating a diary or the like based on activity information and a sentence or message pattern.

【0070】(3−2)表示する情報 日記機能を実現するためにパーソナルコンピュータ10
0のモニター101に表示する情報としては、下記の表
に示すように、ロボット装置による文章(原語に翻訳を
併記)、撮像画像(例えば、1枚)、キャラクター及び
キャラクターのコメント、ユーザーのコメント並びに今
日の年月日及びカレンダー等が挙げられる。
(3-2) Information to be Displayed A personal computer 10 for realizing the diary function
As shown in the table below, the information to be displayed on the monitor 101 of No. 0 is a sentence by the robot apparatus (translation is written in the original language), a captured image (for example, one sheet), a character and a character comment, a user comment, Today's date, calendar, etc. are mentioned.

【0071】[0071]

【表1】 [Table 1]

【0072】そして、これらの情報は、日記形式の画面
(以下、日記画面という。)としてモニター101に表
示される。具体的には、モニター101には図10に示
すような日記画面が表示される。モニター101には、
具体例とされる図10に示すように、ロボット装置1に
よる原語110に翻訳111が併記された文章、撮像画
像112、ユーザーのコメント113等が表示される。
また、モニター101には、所定の機能を実行させるた
めのいわゆるアイコンも表示されている。例えば、「カ
レンダー」のアイコン114を選択することにより、カ
レンダーダイアログが表示されて、日付を指定して日記
をみることができる。具体的には、「カレンダー」のア
イコン114の選択により、日記が存在する日をカレン
ダー上にして見ることができる。
The information is displayed on the monitor 101 as a diary screen (hereinafter, a diary screen). Specifically, the monitor 101 displays a diary screen as shown in FIG. The monitor 101 has
As shown in FIG. 10 as a specific example, a sentence in which the translation 111 is written in addition to the original language 110 by the robot apparatus 1, a captured image 112, a user's comment 113, and the like are displayed.
The monitor 101 also displays a so-called icon for executing a predetermined function. For example, by selecting the “calendar” icon 114, a calendar dialog is displayed, and the user can specify a date and view the diary. Specifically, by selecting the “calendar” icon 114, the date on which the diary exists can be viewed on the calendar.

【0073】このような日記画面のモニター101への
表示は、例えばアプリケーションソフトの実行により実
現される。例えば、パーソナルコンピュータ100で
は、アプリケーションソフトの実行により、当該メモリ
カード28に記憶されているロボット装置1において取
得された情報を利用して、図10に示すように日記画面
をモニター101上に出力する。
The display of the diary screen on the monitor 101 is realized by, for example, executing application software. For example, the personal computer 100 outputs a diary screen on the monitor 101 as shown in FIG. 10 by using the information acquired by the robot device 1 stored in the memory card 28 by executing the application software. .

【0074】また、ロボット装置1においては、撮像装
置20によって得られた画像が所定のタイミングにおい
て静止画像としてメモリカード28に記憶されている。
静止画像をメモリカード28に記憶するタイミングは情
動パラメータが所定の値になったことを条件等とするも
のであり、これは後で詳述する。
In the robot device 1, the image obtained by the imaging device 20 is stored in the memory card 28 as a still image at a predetermined timing.
The timing for storing the still image in the memory card 28 is based on the condition that the emotion parameter has reached a predetermined value, which will be described later in detail.

【0075】このようにメモリカード28に記憶されて
いる静止画像についても、図10に示したように、日記
画像内に含めてモニター101に出力することもでき
る。このような場合は日記が絵日記風になる。
As shown in FIG. 10, the still image stored in the memory card 28 can be output to the monitor 101 while being included in the diary image, as shown in FIG. In such a case, the diary looks like a picture diary.

【0076】また、例えば、日記画面は所定のフォーマ
ットとして予め用意された画像情報として用意されてお
り、ロボット装置1において得られた情報(或いはデー
タ)に基づいて作成された情報が、そのようなフォーマ
ットの日記画面の所望の位置に貼り付けられて、最終的
に図10に示すような日記画面がモニター101に表示
される。
Further, for example, the diary screen is prepared as image information prepared in advance as a predetermined format, and information created based on the information (or data) obtained in the robot apparatus 1 is such information. The diary screen is pasted at a desired position on the diary screen in the format, and finally a diary screen as shown in FIG.

【0077】また、日記画面は、閲覧ソフトウェアとさ
れるいわゆるブラウザ形式として構築することができ
る。これにより、ユーザーは、指定のいわゆるPCアプ
リケーションソフトを使用しなくても日記画面を閲覧す
ることができる。
Further, the diary screen can be constructed in a so-called browser format as browsing software. Thereby, the user can browse the diary screen without using the designated PC application software.

【0078】(3−3)表示されるメッセージのパター
ン モニター101には、上述したように、日記画面中に種
々のメッセージが表示されている。メッセージのパター
ンは、例えばパーソナルコンピュータ100の記憶装置
(例えば、ハードディスク(HD)装置)に記憶されて
いる。パーソナルコンピュータ100において、ロボッ
ト装置1において取得されたデータに基づいてメッセー
ジのパターンが選択されて、ロボット装置のことばとし
て日記画面中の所望の位置に表示される。また、この
際、ロボット世界で通用する仮想的な言語によるメッセ
ージが表示されるが、その翻訳(例えば、日本語)も併
記して表示する。本実施の形態では、図10に示したよ
うに、原語110及び翻訳111が併記されて5つのメ
ッセージが表示される例となっている。
(3-3) Pattern of Displayed Message As described above, the monitor 101 displays various messages on the diary screen. The message pattern is stored in a storage device (for example, a hard disk (HD) device) of the personal computer 100, for example. In the personal computer 100, a message pattern is selected based on the data acquired by the robot device 1, and displayed at a desired position on the diary screen as words of the robot device. At this time, a message in a virtual language that is accepted in the robot world is displayed, and its translation (for example, Japanese) is also displayed. In the present embodiment, as shown in FIG. 10, an example is shown in which five messages are displayed together with the original language 110 and the translation 111.

【0079】また、ロボット世界で通用する原語と、そ
の翻訳とは、例えばテーブル等として対応された形態と
してパーソナルコンピュータ100の記憶装置に記憶さ
れており、これに基づいて、原語110とその翻訳11
1がメッセージとして表示される。図11に示すような
言語を、その言語に対応してその翻訳とされる例えば日
本語或いはアルファベットをテーブルとして持ってい
る。
The original language that is accepted in the robot world and its translation are stored in a storage device of the personal computer 100 in a form corresponding to, for example, a table or the like, and based on this, the original language 110 and its translation 11
1 is displayed as a message. The language as shown in FIG. 11 has, for example, a Japanese or alphabet table as a translation corresponding to the language as a table.

【0080】さらに、このようなメッセージのパターン
は、複数のグループに分類されて記憶されている。例え
ば、メッセージのパターンは、下記の表に示すようなグ
ループに分類されている。
Further, such message patterns are stored by being classified into a plurality of groups. For example, message patterns are classified into groups as shown in the following table.

【0081】[0081]

【表2】 [Table 2]

【0082】この表に示すように、例えば誕生日系、記
念日系、成長日系、入出力情報系、成人でのタイプ変化
系、成長及び本能系並びにその他としてメッセージがグ
ループ化されている。また、これらのグループには優先
順位が付されている。このようなグループ化されたメッ
セージは、表示すべき内容の存在すなわち元となるデー
タがメモリカード28に存在することと、その優先順位
に応じることが条件とされて選択される。
As shown in this table, for example, messages are grouped as birthday type, anniversary type, growth type, input / output information type, adult type change type, growth and instinct type, and others. In addition, these groups are assigned priorities. Such grouped messages are selected on the condition that the content to be displayed, that is, the original data exists in the memory card 28, and that the priority order thereof is satisfied.

【0083】上述したように日記画面に表示可能なメッ
セージは有限(本実施の形態では5個)であることか
ら、付されている優先順位に基づいてグループを選択し
て、選択したグループ内の一のメッセージを表示するよ
うにする。優先順位は、例えばイベント性の高さ等によ
って決定する。例えば、ある者について誕生日と記念日
とをみれば、誕生日は通常年に1回であり、記念日は通
常年に数回あるのが通常である。このようなことから誕
生日系を記念日系の優先順位より高くする。これによ
り、グループの選択は次のようになされる。
As described above, since the number of messages that can be displayed on the diary screen is limited (five in this embodiment), a group is selected based on the assigned priority, and One message is displayed. The priority order is determined based on, for example, the degree of eventability. For example, looking at a birthday and an anniversary for a certain person, the birthday is usually once a year, and the anniversary is usually several times a year. For this reason, the birthday system is set higher than the anniversary system priority. As a result, the group is selected as follows.

【0084】例えば、誕生日系は優先順位が1番である
が、表示すべきメッセージに使用されるデータがメモリ
カード28にない場合には、例えば、表示すべきメッセ
ージに使用するデータがメモリカード28にある優先順
位が2番目の記念日系を選択する。そして、当該データ
に基づいて当該記念日系として用意されているメッセー
ジを表示する。
For example, the birthday system has the highest priority, but if there is no data used for the message to be displayed on the memory card 28, for example, the data used for the message to be displayed is stored in the memory card 28. Select the second anniversary with the second priority. Then, a message prepared for the anniversary is displayed based on the data.

【0085】また、各グループには、メモリカード28
に記憶されていたデータに応じて、同一趣旨を示すメッ
セージが複数種類存在しており、一のメッセージを例え
ばランダムに選択することもできる。また、用意される
メッセージは、メッセージ全体が不変とされてもよく、
メモリカード28に記憶されていたデータに応じて特定
の部分だけが可変とされたメッセージでもよい。例え
ば、可変部については、メッセージの主体等が挙げられ
る。以下に、各グループ毎に用意されているメッセージ
の具体例を説明する。
Each group includes a memory card 28
There are a plurality of types of messages indicating the same purpose in accordance with the data stored in the, and one message can be selected at random, for example. Also, the prepared message may be immutable as a whole message,
A message in which only a specific portion is made variable in accordance with data stored in the memory card 28 may be used. For example, as for the variable part, the subject of the message and the like can be cited. Hereinafter, specific examples of the messages prepared for each group will be described.

【0086】(3−3−1)誕生日系のグループのメッ
セージ この誕生日系のグループは、誕生日のデータが存在する
場合に選択される。誕生日系として用意されるメッセー
ジとしては、例えば、「今日は(可変部)の誕生日」等
が挙げられる。そして、誕生日系のグループには、この
ような内容と同一趣旨のメッセージが複数種類存在して
いる。
(3-3-1) Birthday Group Message This birthday group is selected when birthday data exists. Examples of the message prepared as a birthday-related message include, for example, “Today is birthday of (variable part)”. In the birthday group, there are a plurality of types of messages having the same purpose as the above contents.

【0087】上述の例に示すメッセージは、さらに一部
が可変部とされており、その可変部が誕生日の主体の名
称になっている。すなわち例えば、可変部は、ロボット
装置1にユーザーが付けた名称或いはユーザーの名称等
である。このような可変部は、誕生日についてのデータ
に基づいて選択される。
The message shown in the above example further has a variable part, and the variable part is the name of the subject of the birthday. That is, for example, the variable portion is a name given to the robot apparatus 1 by a user or a name of the user. Such a variable part is selected based on data about a birthday.

【0088】例えば、誕生日のデータについては、他の
アプリケーションソフトによってユーザー等によって登
録されたデータを流用する。
For example, data registered by a user or the like by another application software is used for birthday data.

【0089】すなわち、他のアプリケーションソフト等
により、ある機会においてユーザー等に関する諸データ
がパーソナルコンピュータ100上にデータベースとし
て記憶される場合がある。ここで、諸データとは、ユー
ザー自身やその関係者の誕生日や名前等である。日記機
能のアプリケーションソフトは、このようなデータベー
スとして登録されている誕生日データ、例えば誕生日や
名前を流用して、メッセージの選択を行う。このような
手法によりメッセージを選択することにより、日記機能
のアプリケーションソフトの実行上で誕生日データの打
ち込みがなくても、日記機能において、ユーザーの誕生
日にメッセージを表示することができる。このようにす
ることで、ユーザーは、打ち込んだ覚えがないのに、日
記に記載された自己の誕生日のメッセージを見て驚くこ
とになる。
That is, there are cases where various data relating to the user and the like are stored as a database on the personal computer 100 at a certain occasion by another application software or the like. Here, the various data are the birthdays, names, etc. of the users themselves and their related persons. The application software of the diary function selects a message by using birthday data registered as such a database, for example, a birthday or a name. By selecting a message by such a method, it is possible to display a message on the birthday of the user in the diary function without inputting birthday data when executing the application software for the diary function. In this way, the user may be surprised to see his birthday message in the diary, even though he does not remember typing.

【0090】また、ロボット装置1の誕生日のデータに
ついては、メモリカード28に記憶されており、これを
利用してメッセージを選択する。例えば、ロボット装置
1は、購入後の最初の起動時において起動日時ログを残
しており、この起動日時ログを誕生日データとして利用
する。
The birthday data of the robot device 1 is stored in the memory card 28, and a message is selected by using the data. For example, the robot apparatus 1 keeps a start date and time log at the time of the first start after purchase, and uses this start date and time log as birthday data.

【0091】以上のように、誕生日系のグループのメッ
セージが用意されており、誕生日のデータに基づいて可
変部が選択されて、当該可変部によるメッセージが日記
画面中に表示される。また、誕生日系のグループ内にも
複数のメッセージがあることから、ランダムで一のメッ
セージを選択して、これを表示する。これにより、誕生
日に同じ内容のメッセージが何度も表示されることが防
止されるようになる。
As described above, the birthday group message is prepared, the variable section is selected based on the birthday data, and the message by the variable section is displayed on the diary screen. Also, since there are a plurality of messages in the birthday group, one message is selected at random and displayed. This prevents a message having the same content from being displayed many times during a birthday.

【0092】また、誕生日系のメッセージとしては、誕
生日当日以外、例えば1週間前、3日前、前日、さらに
は翌日についてもメッセージを表示することができる。
例えば、そのような誕生日以外の日に表示される誕生日
系のメッセージとして、下記の表に示すメッセージを用
意する。ここでも可変部があるメッセージを用意する。
Further, as a birthday-related message, a message other than the day of the birthday, for example, one week before, three days before, the previous day, and even the next day can be displayed.
For example, a message shown in the following table is prepared as a birthday message displayed on a day other than such a birthday. Here, too, prepare a message with a variable part.

【0093】[0093]

【表3】 [Table 3]

【0094】これにより、誕生日当日以外についても、
誕生日に関するメッセージが表示されるようになる。な
お、1週間前のものとして用意されているメッセージに
ついては、例えば、4日前から1週間前のいずれかの日
に表示されるようにする。これについては、3日前のメ
ッセージについても同様である。
[0094] Thus, even on days other than the day of the birthday,
You will see a message about your birthday. The message prepared one week ago is displayed, for example, on any day from four days ago to one week ago. The same applies to the message three days ago.

【0095】(3−3−2)記念日系のグループのメッ
セージ この記念日系のグループは、記念日のデータが存在する
場合に選択される。記念日系として用意される表示メッ
セージとしては、例えば、「今日は(可変部)の(記念
日)の日」等が挙げられる。そして、記念日系のグルー
プには、このような内容と同一趣旨のメッセージが複数
種類存在している。
(3-3-2) Message of anniversary group This anniversary group is selected when anniversary data exists. As a display message prepared as an anniversary system, for example, “Today is (variable part) day of (anniversary)” or the like. In the anniversary group, there are a plurality of types of messages having the same purpose as those described above.

【0096】例えば、記念日には、その者の固有の記念
日と、共通(例えば、国民全体)の記念日とがある。こ
れにより、ロボット装置にユーザーが付けた名称やユー
ザーの名称等とされる可変部が必要であるメッセージ
と、そのような可変部が必要でないメッセージとに分類
することができる。このようなことから、可変部あり
と、可変部なしとで、下記の表のように分類して、メッ
セージを用意する。
For example, the anniversary includes a peculiar anniversary of the person and a common (for example, the entire nation) anniversary. This makes it possible to classify the robot device into a message requiring a variable part such as a name given by a user or a user name, and a message not requiring such a variable part. For this reason, messages are prepared by classifying as shown in the table below according to whether or not there is a variable portion.

【0097】[0097]

【表4】 [Table 4]

【0098】[0098]

【表5】 [Table 5]

【0099】また、可変部としては、下記の表に示すよ
うな表示が挙げられる。
[0099] Examples of the variable portion include the display shown in the following table.

【0100】[0100]

【表6】 [Table 6]

【0101】以上のように分類されてメッセージが用意
されている。これにより、記念日のデータに基づいてメ
ッセージが選択されて、さらに可変部が必要であれば可
変部が選択されて、メッセージが日記画面中に表示され
る。また、記念日系のグループ内にも複数のメッセージ
があることから、ランダムで一のメッセージを選択し
て、これを表示する。
Messages are prepared by being classified as described above. As a result, a message is selected based on the anniversary data, and if necessary, a variable section is selected, and the message is displayed on the diary screen. Also, since there are a plurality of messages in the anniversary group, one message is selected at random and displayed.

【0102】また、このようなメッセージや可変部を選
択するためのデータは、誕生日系において説明した場合
と同様に、他の機会にユーザーが登録したデータを流用
する。
Further, as the data for selecting such a message or the variable part, data registered by the user at another occasion is used as in the case described in the birthday system.

【0103】また、上述の誕生日系と同様に、記念日当
日以外についてもメッセージを表示するようにすること
もできる。例えば、そのような記念日以外の日に表示さ
れる記念日系のメッセージとしては、下記の表に示すも
のが挙げられる。ここでも可変部があるメッセージを用
意する。
Further, similarly to the birthday system described above, a message can be displayed on a day other than the anniversary day. For example, examples of anniversary messages displayed on days other than such anniversaries include those shown in the following table. Here, too, prepare a message with a variable part.

【0104】[0104]

【表7】 [Table 7]

【0105】これにより、記念日当日以外についても、
記念日に関するメッセージが表示されるようになる。
As a result, even on days other than the anniversary day,
The message about the anniversary will be displayed.

【0106】(3−3−3)成長日系のグループのメッ
セージ この成長日系のグループは、成長のデータが存在する場
合に選択される。また、成長日系として用意されるメッ
セージとしては、例えば「今日、一つおとなになっ
た。」等が挙げられる。そして、成長日系のグループに
は、このような内容と同一趣旨のメッセージが複数種類
存在している。
(3-3-3) Message of Growing Nikkei Group This growing Nikkei group is selected when growth data exists. In addition, examples of the message prepared as a growing Nikkei include "Today, one adult." Then, in the group of growing Japanese descent, there are a plurality of types of messages having the same purpose as the above contents.

【0107】ロボット装置1は、例えば、幼年期から成
人まで複数の段階に変化する成長モデルを有しており、
成長段階に応じて行動をとるようになされている。そし
て、ロボット装置1においては、上述の成長段階のデー
タがメモリカード28に記憶されている。成長日系のグ
ループでは、メモリカード28に記憶されている成長段
階についての段階変更情報を参照して選択され、対応さ
れるメッセージの選択がなされる。そして、選択された
メッセージが日記画面中に表示される。また、成長日系
のグループ内にも複数のメッセージがあることから、ラ
ンダムで一のメッセージを選択して、これを表示する。
The robot apparatus 1 has a growth model that changes in a plurality of stages from childhood to adult, for example.
They take action according to their stage of growth. Then, in the robot device 1, the data of the growth stage described above is stored in the memory card. In the group of the growing Japanese descent, the selection is made with reference to the stage change information on the growth stage stored in the memory card 28, and the corresponding message is selected. Then, the selected message is displayed in the diary screen. In addition, since there are a plurality of messages in the group of growing Nikkei, one message is selected at random and displayed.

【0108】また、成長日系のメッセージについては成
長段階の各段階に応じて用意されている。これにより、
成長段階が次の段階に上がったとしても、進んだ段階が
子供と大人とでは、成長したことを示す内容であって
も、異なる表現からなるメッセージが表示されるように
なる。
Further, messages of the growth Japanese system are prepared according to each stage of the growth stage. This allows
Even if the growth stage goes up to the next stage, a message having a different expression will be displayed between the child and the adult at the advanced stage, even if the content indicates that they have grown.

【0109】(3−3−4)入出力セマンティクス(Se
mantics)系のグループのメッセージ 先ず、入出力セマンティクスとは、ロボット装置1に対
して入出力された情報をユーザーが解釈可能な情報(例
えば、認識情報)とするものであり、例えば外部からの
情報に基づいて解釈した「叩かれた」、「撫でられた」
等の情報であったり、或いは自己の行動として解釈され
る「ボールを蹴った」、「お手をした」等の情報であ
る。よって、入出力セマンティクス系のメッセージは、
このようなユーザーが解釈可能とされた情報に基づくも
のである。この入出力セマンティクスは、ロボット装置
1においてメモリカード28上で更新されているデータ
である。
(3-3-4) Input / output semantics (Se
First, the input / output semantics is information that is input / output to / from the robot apparatus 1 is information that can be interpreted by a user (for example, recognition information). Interpreted based on "struck" and "stroked"
Or information that is interpreted as a self-action, such as “Kicked the ball”, “Handed”, and the like. Therefore, I / O semantics messages are
Such information is based on information interpretable by the user. This input / output semantics is data updated on the memory card 28 in the robot device 1.

【0110】例えば、入出力セマンティクス系として用
意されるメッセージとしては、「(時間可変部)に(ユ
ーザー名)が(入力セマンティクス)した」や、「今日
はたくさん(出力セマンティクス)して」等が挙げられ
る。
For example, messages prepared as an input / output semantics system include “(user name) is (input semantics) in (time variable part)” and “today is a lot (output semantics)”. No.

【0111】ここで、入出力セマンティクスは、基本的
には一日で複数回採ることができることから、時間帯が
可変部されるメッセージを用意する。時間可変部の表示
としては、下記の表に示すように各時間に対応した表示
が挙げられる。
Here, since the input / output semantics can be basically taken a plurality of times in one day, a message whose time zone is variable is prepared. Examples of the display of the time variable section include a display corresponding to each time as shown in the following table.

【0112】[0112]

【表8】 [Table 8]

【0113】なお、これら以外の時間帯、例えば時間帯
1〜3の複数にまたがる場合等には、「今日」として取
り扱うこととして、時間可変部は表示しないようにする
こともできる。
[0113] In the case of a time zone other than the above, for example, a plurality of time zones 1 to 3, the time variable section may be hidden by treating it as "today".

【0114】また、入出力セマンティクスの内容に応じ
て可変部のあるものとないものに分類してメッセージを
用意している。さらに、可変部のあるセマンティクスで
あっても、可変部表示のあるメッセージと可変部表示の
ないメッセージとを用意する。そして、各セマンティク
ス毎に、その内容が同一趣旨のメッセージを複数種類用
意する。
Further, messages are prepared by classifying them into those with a variable part and those without a variable part according to the contents of input / output semantics. Furthermore, even if the semantics have a variable portion, a message with a variable portion display and a message without a variable portion display are prepared. Then, for each semantics, a plurality of types of messages having the same meaning are prepared.

【0115】また、ロボット装置1は多くの入出力セマ
ンティクスを持っていることから、メッセージとして表
示されるセマンティクスの候補を選ぶこともできる。例
えば、入出力セマンティクスについては入出ログとその
起動時間とが得られるから、その単位時間当たりの発生
頻度(例えば、入出ログに基づく起動回数を時間で割っ
た値)を算出し、それが所定の閾値を超えたものを候補
とする。ここで、所定の閾値は、選択対象とされる各セ
マンティクス毎に用意されている。
Further, since the robot apparatus 1 has many input / output semantics, it is possible to select a semantic candidate displayed as a message. For example, as for the input / output semantics, since the input / output log and its activation time are obtained, the frequency of occurrence per unit time (for example, the value obtained by dividing the number of activations based on the input / output log by the time) is calculated, and the calculated Those exceeding the threshold are considered as candidates. Here, the predetermined threshold is prepared for each semantics to be selected.

【0116】また、そのような入出力セマンティクスの
候補数が日記画面中に表示可能なメッセージの最大数
(例えば、本実施の形態においては5個)を超えるよう
な場合には、さらに候補を絞り込む。例えばランダム
に、表示可能なメッセージの最大数分だけ選択して、候
補を絞り込む。
If the number of input / output semantics candidates exceeds the maximum number of messages that can be displayed on the diary screen (for example, five in this embodiment), the candidates are further narrowed down. . For example, candidates are narrowed down by selecting at random the maximum number of messages that can be displayed.

【0117】また、優先順位が高い上述の誕生日系、記
念日系や成長日系のグループのメッセージが既にいくつ
か表示されることが決定されている場合があるので、こ
れを考慮して、残り表示可能数だけ候補数を絞り込む。
In some cases, it has been determined that some messages of the above-mentioned birthday, anniversary, or growth-related groups having a higher priority have already been displayed. Narrow the number of candidates by the number.

【0118】以上のように、入出力セマンティクス系の
グループのメッセージが用意されており、メモリカード
28に記憶されているセマンティクス(場合によっては
さらに選択されて候補とされたセマンティクス)に基づ
いてメッセージが選択されて、当該メッセージが日記画
面中に表示される。また、同一のセマンティクスにも複
数のメッセージが用意されていることから、ランダムで
一のメッセージを選択して、これを表示する。
As described above, the input / output semantics group messages are prepared, and the messages are generated based on the semantics stored in the memory card 28 (in some cases, the semantics further selected and set as candidates). When selected, the message is displayed in the diary screen. Also, since a plurality of messages are prepared for the same semantics, one message is selected at random and displayed.

【0119】上述したように、セマンティクスに対応さ
れるメッセージが選択されてもなお、表示数(本実施の
形態では、5個)に満たない場合に、優先順位が低いメ
ッセージからなる以下に説明するような成人でのタイプ
系、成長、本能系或いはその他で用意されたメッセージ
が選択され、日記画面中に表示されるようになる。
As described above, even if a message corresponding to the semantics is selected, if the number of displayed messages (five in the present embodiment) is less than the number of messages to be displayed, a message having a low priority is described below. A message prepared for such an adult type, growth, instinct, or others is selected and displayed on the diary screen.

【0120】なお、具体的には、図12乃至図16に示
すような内容の入出力セマンティクスが用意されてお
り、さらに、場合に応じて各入出力セマンティクスにつ
いて複数のメッセージが用意されている。
It should be noted that, specifically, input / output semantics having contents as shown in FIGS. 12 to 16 are prepared, and a plurality of messages are prepared for each input / output semantics as occasion demands.

【0121】(3−3−5)成長でのタイプ変化系のグ
ループのメッセージ 先ず、成長でのタイプ変化とは、同一成長段階における
タイプの変化である。ロボット装置1はある成長段階に
おいてタイプ(例えば、性格)が変化して、そのタイプ
に応じて行動をするようにもなされている。成長でのタ
イプ変化とは、このような同一成長段階におけるタイプ
の変化であり、いわゆる横成長変化である。このような
ことから、上述したような成長日系は、いわゆる縦成長
についていうものである。
(3-3-5) Message of Group of Type Change System in Growth First, the type change in growth is a type change in the same growth stage. The type (for example, personality) of the robot apparatus 1 changes at a certain growth stage, and the robot apparatus 1 acts according to the type. The type change in growth is a type change in such the same growth stage, and is a so-called lateral growth change. For this reason, the Japanese growth system described above refers to so-called vertical growth.

【0122】ロボット装置1においては、上述の成長で
のタイプがメモリカード28に記憶されている。成長で
のタイプ変化系のグループは、メモリカード28に記憶
されているそのようなタイプを参照して選択され、対応
されるメッセージの選択がなされる。
In the robot device 1, the type of the above-mentioned growth is stored in the memory card. The group of the type change in the growth is selected with reference to such a type stored in the memory card 28, and the selection of the corresponding message is made.

【0123】例えば、成長でのタイプ変化系として用意
されるメッセージとしては、例えば「今日、一つおとな
になった。」等が挙げられる。
For example, a message prepared as a type change system during growth includes, for example, "Today, one adult."

【0124】また、成長でのタイプ変化系のメッセージ
については成長段階の各段階に応じて用意することもで
きる。これにより、変化したタイプに応じて、成長を示
す内容を、異なる表現からなるメッセージとして表示す
ることができるようになる。
Further, a message of the type change type in growth can be prepared according to each growth stage. Thereby, according to the changed type, the content indicating the growth can be displayed as a message having a different expression.

【0125】(3−3−6)感情、本能系のグループの
メッセージ 感情、本能系として用意されるメッセージとしては、例
えば「今日はずっと眠かった。」等が挙げられる。例え
ば、ロボット装置1は、感情の状態、本能の状態或いは
覚醒度、インタラクション度に応じてメッセージを選択
する。感情、本能或いは覚醒度、インタラクション度
は、ロボット装置1がメモリカード28上で更新してい
るデータである。このようなメモリカード28に記憶さ
れているデータに基づいて、感情、本能系のグループが
選択され、メッセージが選択される。
(3-3-6) Emotion, Message of Instinct Group Examples of the emotion and the message prepared as the instinct group include "I have been slept all day today". For example, the robot device 1 selects a message according to the state of emotion, the state of instinct or the degree of arousal, and the degree of interaction. The emotion, the instinct or the degree of arousal, and the degree of interaction are data that the robot apparatus 1 updates on the memory card 28. Based on the data stored in the memory card 28, an emotional or instinct group is selected, and a message is selected.

【0126】また、ロボット装置1は、感情が複数の情
動によって構成され、また、本能が複数の欲求によって
構成されている。よって、複数の情動、複数の欲求、そ
れに加え覚醒度、インタラクション度が単に変化した場
合を条件としててメッセージを選択すると、多くのメッ
セージが選択されてしまうことから、所定の時間おき
(例えば、15分おき)にそれらの値をサンプリングし
て、その平均値に基づいて先ず候補を選択する。
In the robot apparatus 1, the emotion is constituted by a plurality of emotions, and the instinct is constituted by a plurality of desires. Therefore, if a message is selected on the condition that a plurality of emotions, a plurality of desires, a degree of arousal, and a degree of interaction simply change, many messages are selected. The values are sampled every minute) and a candidate is first selected based on the average value.

【0127】候補の選択については、例えば、上述した
ような感情又は本能、覚醒度或いはインタラクション度
の値(例えば、平均値)を、所定の閾値と比較すること
により行う。例えば、閾値については、比較対象とされ
る感情等に対応してそれぞれ用意されているものとす
る。例えば、下限閾値以下の場合や上限閾値以上の場合
として場合分けして、候補を選択する。
The selection of a candidate is performed, for example, by comparing the above-mentioned values of emotion or instinct, arousal level or interaction level (for example, average value) with a predetermined threshold value. For example, it is assumed that the thresholds are prepared corresponding to the emotions and the like to be compared. For example, a candidate is selected by classifying the case as being equal to or less than the lower threshold or the case being equal to or greater than the upper threshold.

【0128】また、候補数が表示メッセージの最大数
(例えば、本実施の形態においては5個)を超えた場合
は、さらに候補を絞り込む。例えばランダムに、表示可
能なメッセージの最大数分だけ選択して、候補を絞り込
む。
When the number of candidates exceeds the maximum number of display messages (for example, five in this embodiment), the candidates are further narrowed down. For example, candidates are narrowed down by selecting at random the maximum number of messages that can be displayed.

【0129】さらに、優先順位が高い上述のグループか
ら既にいくつか表示されることが決定されている場合が
あるので、これを考慮して、残り表示可能数だけをラン
ダムで選択するようにする。
Furthermore, since there are cases where it has been determined that some of the above groups having higher priorities are to be displayed, only the remaining displayable number is selected at random in consideration of this.

【0130】以上のように、感情、本能系のグループの
メッセージが用意されており、メモリカード28に記憶
されている感情の状態、本能の状態或いは覚醒度、イン
タラクション度(場合によってはさらに選択されて候補
とされたもの)に基づいてメッセージが選択されて、当
該メッセージが日記画面中に表示される。また、同一の
趣旨について複数のメッセージが用意されていることか
ら、ランダムで一のメッセージを選択して、これを表示
する。
As described above, the emotion and instinct group messages are prepared, and the emotional state, instinct state or arousal level, and the degree of awakening stored in the memory card 28, and the degree of interaction (which may be further selected in some cases). The message is selected based on the candidate, and the message is displayed in the diary screen. Also, since a plurality of messages are prepared for the same purpose, one message is selected at random and displayed.

【0131】(3−3−7)その他のメッセージ その他のメッセージとしては、例えば「今日はなにもな
い日だった。」や「ロボットとして生まれてきたからに
は、強くなりたい。」等が挙げられる。このようなメッ
セージは、上述したような各系に使用されるデータを得
ることができなかった場合のメッセージであり、これに
より、ロボット装置1自身を含め、周囲の状況の変化が
なくても少なくともメッセージを日記画面に表示するこ
とができる。また、表示数分だけランダムにメッセージ
を表示する。
(3-3-7) Other Messages Other messages include, for example, "Today was nothing day." Or "I want to be stronger because I was born as a robot." Such a message is a message in a case where data used for each system as described above cannot be obtained. Accordingly, even if there is no change in the surrounding conditions, including the robot apparatus 1 itself, at least Messages can be displayed on the diary screen. Also, messages are displayed randomly for the number of displayed messages.

【0132】以上のようにしてグループが選択され、ま
た当該選択されたグループ内においてメッセージが選択
されて、さらに場合によっては可変部が選択されて、最
終的に図10に示したようにメッセージが含まれた日記
画面がモニター101に表示されるようになる。これに
よって、ユーザーは、ロボット装置1との間で言葉での
対話が可能になる。
As described above, a group is selected, a message is selected in the selected group, and in some cases, a variable portion is selected, and finally, as shown in FIG. The included diary screen is displayed on the monitor 101. This allows the user to communicate with the robot apparatus 1 in words.

【0133】(3−4)ロボット装置1における画像の
取得 ロボット装置1は、上述したような日記にメッセージを
記載する他に画像を添付することもできる。ここでは、
その添付される画像の取得について具体的に説明する。
例えば、感情状態に応じて撮像情報を得る場合について
説明する。
(3-4) Acquisition of Image in Robot Apparatus The robot apparatus 1 can attach an image in addition to writing a message in the diary as described above. here,
The acquisition of the attached image will be specifically described.
For example, a case where imaging information is obtained according to an emotional state will be described.

【0134】ロボット装置1は、上述したように、周囲
の状況や内部の状況に応じて感情モデルの情動のパラメ
ータ値を変化させており、この値に応じて次のように撮
像画像を取得している。また、感情の情動については、
「喜び」、「恐れ」等が挙げられるが、例えば、「恐
れ」のパラメータ値に基づいて撮像画像を取得する。
As described above, the robot apparatus 1 changes the parameter value of the emotion of the emotion model according to the surrounding situation and the internal situation, and acquires the captured image as follows according to this value. ing. Also, regarding emotions and emotions,
Examples include “joy” and “fear”. For example, a captured image is acquired based on the parameter value of “fear”.

【0135】図17に示すように、ステップS1におい
て、CPU10は、感情モデル73の出力値(感情パラ
メータ)が所定の閾値に達しているか否かを判定する。
ステップS1において、感情モデル73の出力値が所定
の閾値を越えていないと判定された場合、ステップS1
に戻る。ステップS1において、感情モデル73の出力
値が所定の閾値を越えていると判定された場合、ステッ
プS2に進む。
As shown in FIG. 17, in step S1, CPU 10 determines whether or not the output value (emotional parameter) of emotion model 73 has reached a predetermined threshold.
If it is determined in step S1 that the output value of the emotion model 73 does not exceed the predetermined threshold, the process proceeds to step S1.
Return to If it is determined in step S1 that the output value of the emotion model 73 exceeds a predetermined threshold, the process proceeds to step S2.

【0136】ステップS2において、CPU10は、メ
モリカード28の記憶領域が空いているか否かを判定す
る。ステップS2において、記憶領域が空いていると判
定された場合、ステップS3に進み、CPU10は、撮
像装置20から取り込んだ画像データをメモリカード2
8の空いている領域に記憶させる。このとき、CPU1
0は、画像データに対応させてこの画像データの特性情
報として日時データ及び感情パラメータも記憶させる。
In step S2, the CPU 10 determines whether the storage area of the memory card 28 is free. If it is determined in step S2 that the storage area is free, the process proceeds to step S3 where the CPU 10 stores the image data captured from the imaging device 20 in the memory card 2
8 in an empty area. At this time, CPU1
0 stores date and time data and emotion parameters as characteristic information of the image data in association with the image data.

【0137】ステップS4において、CPU10は、感
情モデル73の出力が大きい順に撮像画像を並べ直し、
ステップS1に戻る。すなわち、図18に示すように、
メモリカード28の記憶領域は、特性情報とされる日時
データや感情パラメータを記憶しているヘッダ部111
と、撮像画像データを記憶している画像データ部112
とから構成されており、CPU10は、感情のパラメー
タ値の大きい順に撮像画像データをソートする。
In step S4, the CPU 10 rearranges the captured images in descending order of the output of the emotion model 73,
It returns to step S1. That is, as shown in FIG.
The storage area of the memory card 28 includes a header 111 storing date and time data and emotion parameters as characteristic information.
And an image data unit 112 storing captured image data
The CPU 10 sorts the captured image data in descending order of the emotion parameter value.

【0138】ステップS2において、記憶領域が空いて
いないと判定された場合、ステップS5に進み、CPU
10は、感情モデル73の現在の出力値が、メモリカー
ド28に記憶されている撮像画像データに付随する感情
のパラメータ値の最小値より大きいか否かを判定する。
すなわち、図18において、最も下に配置されている感
情のパラメータ値より大きいか否かを判定する。ステッ
プS5において、記憶されている感情出力の最小値より
も大きくない(小さい)と判定された場合、ステップS
1に戻る。
If it is determined in step S2 that the storage area is not empty, the process proceeds to step S5, where the CPU
10 judges whether or not the current output value of the emotion model 73 is larger than the minimum value of the parameter value of the emotion accompanying the captured image data stored in the memory card 28.
That is, in FIG. 18, it is determined whether the parameter value is larger than the parameter value of the emotion arranged at the bottom. If it is determined in step S5 that it is not larger (smaller) than the stored minimum value of the emotion output, step S5 is executed.
Return to 1.

【0139】ステップS5において、現在の出力値が、
記憶されている感情のパラメータ値の最小値よりも大き
いと判定された場合、ステップS6に進み、CPU10
は、感情のパラメータ値の最小値に対応する画像データ
を消去する。
In step S5, the current output value is
If it is determined that the stored emotion parameter value is larger than the minimum value, the process proceeds to step S6, in which the CPU 10
Deletes the image data corresponding to the minimum value of the emotion parameter value.

【0140】そして、ステップS3に進み、そのときの
感情のパラメータ値を記憶させる。これにより、感情の
パラメータ値の大きいものから順にメモリカード28に
記憶される。
Then, the process proceeds to a step S3, in which the parameter values of the emotion at that time are stored. Thus, the emotion parameter values are stored in the memory card 28 in descending order.

【0141】以上のような処理により、ロボット装置1
は、感情モデルの感情情報を参照して、記憶手段とされ
るメモリカード28に画像データを記憶することができ
る。これにより、パーソナルコンピュータ100では、
このようにメモリカード28に記憶された画像の内の最
もパラメータ値の大きい画像を上述したような各種メッ
セージ等が表示されている日記画面中に表示することが
できる。これにより、例えば、図19に示すような撮像
画像Pが日記画面内に表示される。図19に示す撮像画
像は、目の前の障害物(例えば、ソファー等である)に
恐怖を感じて感情の情動のパラメータ値が最大値をとっ
たときの画像である。
By the above processing, the robot apparatus 1
With reference to the emotion information of the emotion model, the image data can be stored in the memory card 28 as the storage means. Thereby, in the personal computer 100,
As described above, the image having the largest parameter value among the images stored in the memory card 28 can be displayed on the diary screen on which the various messages described above are displayed. Thereby, for example, a captured image P as shown in FIG. 19 is displayed in the diary screen. The captured image illustrated in FIG. 19 is an image when the parameter value of the emotional feeling takes the maximum value because the user feels fear at an obstacle (for example, a sofa or the like) in front of him / her.

【0142】なお、上述の例では、感情モデルのパラメ
ータ値に基づいた画像データの取得について説明した
が、これに限定されるものではない。例えば、本能モデ
ルのパラメータ値、外部刺激の大きさ等のデータに基づ
いて、画像データを取得していくこともできる。
In the above example, the acquisition of image data based on the parameter values of the emotion model has been described, but the present invention is not limited to this. For example, image data can be acquired based on data such as the parameter values of the instinct model and the magnitude of the external stimulus.

【0143】また、撮像画像が必ず得ているとも限らな
い。このような場合には、図20に示すように、日記画
面において本来ならば撮像画像が入る位置に、人間に真
似たキャラクターを表示するとともに、「写真撮らなか
ったみたい」等とキャラクターによるメッセージを表示
する。なお、キャラクターによるメッセージは、これに
限定されるものではなく、図21に示すように、「写真
が削除されています・・・」等といったものとすること
もできる。
In addition, a captured image is not always obtained. In such a case, as shown in FIG. 20, a character resembling a human is displayed on the diary screen at a position where a captured image would normally be, and a message by the character such as "I did not take a picture" is displayed. indicate. Note that the message by the character is not limited to this, and may be, for example, "the photograph has been deleted ..." as shown in FIG.

【0144】また、上述の実施の形態では、パーソナル
コンピュータ100へのデータの転送媒体としてメモリ
カード28を使用した場合について説明した。しかし、
これに限定されるものではなく、ロボット装置1とパー
ソナルコンピュータ100とが有線又は無線の通信手段
によって接続されており、パーソナルコンピュータ10
0では、ロボット装置1からそのような通信手段を介し
て送信されてくるデータに基づいて日記機能を実行する
こともできる。
In the above-described embodiment, the case where the memory card 28 is used as a medium for transferring data to the personal computer 100 has been described. But,
The present invention is not limited to this, and the robot apparatus 1 and the personal computer 100 are connected by wired or wireless communication means.
In the case of 0, the diary function can be executed based on data transmitted from the robot apparatus 1 via such communication means.

【0145】また、上述の実施の形態では、日記機能を
実現するための日記画面やメッセージを具体的に挙げて
説明したが、これに限定されるものではない。
In the above-described embodiment, the diary screen and the message for realizing the diary function have been specifically described. However, the present invention is not limited to this.

【0146】また、上述の実施の形態では、メッセージ
のグループ分類として誕生日系、記念日系等のグループ
を挙げて説明したがこれに限定されないことはいうまで
もない。
Further, in the above-described embodiment, the group of the message is described as a birthday group or an anniversary group. However, it is needless to say that the present invention is not limited to this.

【0147】また、上述の実施の形態では、日記内容を
構成するメッセージ等をデータベースとして構築するこ
とができるが、そのようなデータベースをインターネッ
ト等からダウンロードすることもできる。これにより、
ネット上に存在するデータによって既存のデータベース
の内容を更新することができるようになり、あきのこな
い日記を作成することができるようになる。
In the above-described embodiment, messages and the like constituting the contents of the diary can be constructed as a database, but such a database can be downloaded from the Internet or the like. This allows
The contents of the existing database can be updated with the data existing on the net, and a diary without a break can be created.

【0148】また、上述の実施の形態では、日記内容に
入れ込む画像の撮像タイミングを感情等に基づいている
が、これに限定されるものではない。例えば、ユーザ等
からの音声コマンドを撮像タイミングとすることもでき
る。
Further, in the above-described embodiment, the imaging timing of the image to be included in the diary contents is based on the emotion or the like, but the present invention is not limited to this. For example, a voice command from a user or the like may be used as the imaging timing.

【0149】[0149]

【発明の効果】本発明に係るロボット装置は、情報表示
装置に表示させるための情報を取得する情報取得手段
と、情報取得手段によって取得した情報を情報表示装置
に転送するための情報転送手段とを備えることにより、
情報表示装置に表示させるための情報を情報取得手段に
より取得し、情報取得手段によって取得した情報を情報
表示装置に情報転送手段により転送することができる。
According to the present invention, there is provided a robot apparatus comprising: an information acquisition unit for acquiring information to be displayed on an information display device; and an information transfer unit for transferring information acquired by the information acquisition unit to the information display device. By having
Information to be displayed on the information display device can be acquired by the information acquisition unit, and the information acquired by the information acquisition unit can be transferred to the information display device by the information transfer unit.

【0150】これにより、ロボット装置は、当該ロボッ
ト装置によって取得した情報に基づいて情報表示部に文
書を表示する情報処理装置等に、自己が取得した情報を
転送することができる。
As a result, the robot device can transfer the information obtained by itself to an information processing device or the like that displays a document on the information display unit based on the information obtained by the robot device.

【0151】また、本発明に係る情報表示システムは、
情報を取得する情報取得手段と、情報取得手段によって
取得した情報を転送するための情報転送手段とを備える
ロボット装置を備え、また、情報転送手段により転送さ
れてきた情報取得手段が取得した情報に基づいて、予め
用意している文章パターンを利用して情報表示部に文章
を表示する情報処理装置を備えることにより、ロボット
装置にて、情報を情報取得手段により取得し、情報取得
手段によって取得した情報を情報処理装置に情報転送手
段により転送することができる。また、情報処理装置に
て、情報転送手段により転送されてきた情報取得手段が
取得した情報に基づいて、予め用意している文章パター
ンを利用して情報表示部に文章を表示することができ
る。
Further, the information display system according to the present invention comprises:
A robot device comprising: an information acquisition unit for acquiring information; and an information transfer unit for transferring the information acquired by the information acquisition unit. The information acquisition unit transfers the information acquired by the information acquisition unit. Based on the information processing device that displays a sentence on the information display unit using a sentence pattern prepared in advance, information is obtained by the information obtaining unit in the robot device, and obtained by the information obtaining unit. Information can be transferred to the information processing device by the information transfer unit. Further, in the information processing apparatus, a sentence can be displayed on the information display unit using a sentence pattern prepared in advance, based on the information acquired by the information acquisition means transferred by the information transfer means.

【0152】これにより、情報表示システムは、ロボッ
ト装置において取得した情報に基づいて、情報表示部に
文書を表示することができる。
Thus, the information display system can display a document on the information display unit based on the information acquired by the robot device.

【0153】また、本発明に係る情報表示方法は、ロボ
ット装置により情報を取得し、情報処理装置において、
ロボット装置により取得した情報に基づいて、予め用意
している文章パターンを利用して情報表示部に文章を表
示することにより、ロボット装置において取得した情報
に基づいて、情報表示部に文書を表示することができ
る。
Further, in the information display method according to the present invention, information is acquired by a robot device,
A document is displayed on the information display unit based on the information obtained by the robot device by displaying the text on the information display unit using a prepared sentence pattern based on the information obtained by the robot device. be able to.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態であるロボット装置の外観
構成を示す斜視図である。
FIG. 1 is a perspective view illustrating an external configuration of a robot device according to an embodiment of the present invention.

【図2】上述のロボット装置の回路構成を示すブロック
図である。
FIG. 2 is a block diagram showing a circuit configuration of the robot device described above.

【図3】上述のロボット装置のソフトウェア構成を示す
ブロック図である。
FIG. 3 is a block diagram illustrating a software configuration of the robot device described above.

【図4】上述のロボット装置のソフトウェア構成におけ
るミドル・ウェア・レイヤの構成を示すブロック図であ
る。
FIG. 4 is a block diagram illustrating a configuration of a middleware layer in a software configuration of the robot device described above.

【図5】上述のロボット装置のソフトウェア構成におけ
るアプリケーション・レイヤの構成を示すブロック図で
ある。
FIG. 5 is a block diagram showing a configuration of an application layer in the software configuration of the robot device described above.

【図6】上述のアプリケーション・レイヤの行動モデル
ライブラリの構成を示すブロック図である。
FIG. 6 is a block diagram showing a configuration of the behavior model library of the application layer.

【図7】ロボット装置の行動決定のための情報となる有
限確率オートマトンを説明するために使用した図であ
る。
FIG. 7 is a diagram used to explain a finite probability automaton that is information for determining an action of the robot apparatus.

【図8】有限確率オートマトンの各ノードに用意された
状態遷移表を示す図である。
FIG. 8 is a diagram showing a state transition table prepared for each node of the finite probability automaton.

【図9】本発明の実施の形態であるシステム構成を示す
斜視図である。
FIG. 9 is a perspective view showing a system configuration according to an embodiment of the present invention.

【図10】日記画面を示す図である。FIG. 10 is a diagram showing a diary screen.

【図11】ロボット世界で使用されているとして挙げた
例の言語を示す図である。
FIG. 11 is a diagram showing an example language cited as being used in the robot world.

【図12】入力セマンティクスの具体例の前半部分を示
す図である。
FIG. 12 is a diagram illustrating a first half of a specific example of input semantics.

【図13】入力セマンティクスの具体例の後半部分を示
す図である。
FIG. 13 is a diagram illustrating a latter half of a specific example of input semantics.

【図14】出力セマンティクスの具体例の前半部分を示
す図である。
FIG. 14 is a diagram illustrating a first half of a specific example of output semantics.

【図15】出力セマンティクスの具体例の中盤部分を示
す図である。
FIG. 15 is a diagram illustrating a middle part of a specific example of output semantics.

【図16】出力セマンティクスの具体例の後半部分を示
す図である。
FIG. 16 is a diagram illustrating a latter half of a specific example of output semantics.

【図17】感情のパラメータ値に基づいて撮像画像を取
得していく一連の工程を示すフローチャートである。
FIG. 17 is a flowchart showing a series of steps for acquiring a captured image based on parameter values of emotions.

【図18】感情のパラメータ値に基づいて整理された撮
像画像データを示す図である。
FIG. 18 is a diagram showing captured image data arranged based on emotion parameter values.

【図19】日記画面に表示される画像の例を示す図であ
る。
FIG. 19 is a diagram illustrating an example of an image displayed on a diary screen.

【図20】キャラクター及びそのキャラクターによるメ
ッセージが表示された日記画面を示す図である。
FIG. 20 is a diagram showing a diary screen on which characters and messages by the characters are displayed.

【図21】キャラクターの他のメッセージ例を示す図で
ある。
FIG. 21 is a diagram showing another message example of the character.

【符号の説明】[Explanation of symbols]

1 ロボット装置、10 CPU、28 メモリカー
ド、100 パーソナルコンピュータ
1 robot device, 10 CPU, 28 memory card, 100 personal computer

Claims (30)

【特許請求の範囲】[Claims] 【請求項1】 取得した情報が情報表示装置において表
示されるロボット装置であって、 上記情報表示装置に表示させるための情報を取得する情
報取得手段と、 上記情報取得手段によって取得した情報を上記情報表示
装置に転送するための情報転送手段とを備えることを特
徴とするロボット装置。
1. A robot device in which acquired information is displayed on an information display device, wherein the information acquisition device acquires information to be displayed on the information display device, and the information acquisition device acquires the information acquired by the information acquisition device. A robot device comprising: an information transfer unit for transferring the information to an information display device.
【請求項2】 上記情報表示装置が、表示部を装備した
情報処理装置であることを特徴とする請求項1記載のロ
ボット装置。
2. The robot device according to claim 1, wherein the information display device is an information processing device equipped with a display unit.
【請求項3】 上記情報取得手段は、外部からの情報を
取得することを特徴とする請求項1記載のロボット装
置。
3. The robot apparatus according to claim 1, wherein said information acquisition means acquires information from outside.
【請求項4】 上記情報取得手段は、撮像手段であるこ
とを特徴とする請求項3記載のロボット装置。
4. The robot apparatus according to claim 3, wherein said information acquisition means is an imaging means.
【請求項5】 上記情報取得手段は、内部の情報を取得
することを特徴とする請求項1記載のロボット装置。
5. The robot apparatus according to claim 1, wherein said information acquiring means acquires internal information.
【請求項6】 外部情報及び/又は内部状態に応じて変
化する感情状態に基づいて行動し、 上記情報取得手段は、上記感情状態を上記内部の情報と
して取得することを特徴とする請求項5記載のロボット
装置。
6. An action based on an emotional state that changes in accordance with external information and / or an internal state, wherein the information acquiring unit acquires the emotional state as the internal information. The robot device as described.
【請求項7】 外部情報及び/又は内部状態に応じて変
化する本能状態に基づいて行動し、 上記情報取得手段は、上記本能状態を上記内部の情報と
して取得することを特徴とする請求項5記載のロボット
装置。
7. An action based on an instinct state that changes according to external information and / or an internal state, wherein the information acquisition unit acquires the instinct state as the internal information. The robot device as described.
【請求項8】 外部情報及び/又は内部状態に応じて変
化する成長状態に基づいて行動し、 上記情報取得手段は、上記成長状態を上記内部の情報と
して取得することを特徴とする請求項5記載のロボット
装置。
8. An action based on a growth state that changes in accordance with external information and / or an internal state, wherein the information obtaining means obtains the growth state as the internal information. The robot device as described.
【請求項9】 自律的に行動しており、 上記情報取得手段は、自律行動結果を上記内部の情報と
して取得することを特徴とする請求項5記載のロボット
装置。
9. The robot apparatus according to claim 5, wherein the robot is autonomously acting, and wherein the information acquiring means acquires a result of the autonomous action as the internal information.
【請求項10】 上記情報転送手段は、着脱自在とされ
る外部記憶手段であって、 上記外部記憶手段には、上記情報取得手段によって取得
した情報が記憶され、この外部記憶手段に記憶された情
報に基づいて上記情報表示装置が情報を表示することを
特徴とする請求項1記載のロボット装置。
10. The information transfer means is a detachable external storage means, wherein the information acquired by the information acquisition means is stored in the external storage means, and the information is stored in the external storage means. The robot apparatus according to claim 1, wherein the information display device displays the information based on the information.
【請求項11】 情報を取得する情報取得手段と、上記
情報取得手段によって取得した情報を転送するための情
報転送手段とを備えるロボット装置と、 上記情報転送手段により転送されてきた上記情報取得手
段が取得した情報に基づいて、予め用意している文章パ
ターンを利用して情報表示部に文章を表示する情報処理
装置とを備えたことを特徴とする情報表示システム。
11. A robot apparatus comprising: information acquisition means for acquiring information; information transfer means for transferring information acquired by said information acquisition means; and said information acquisition means transferred by said information transfer means. An information display system comprising: an information processing device that displays a sentence on an information display unit using a sentence pattern prepared in advance based on the information acquired by the user.
【請求項12】 上記情報処理装置は、上記情報転送手
段により取得した情報に基づいて、予め用意しているロ
ボット世界使用言語を上記文章に併記して上記情報表示
部に表示することを特徴とする請求項11記載の情報表
示システム。
12. The information processing apparatus according to claim 1, further comprising a step of writing a robot world language prepared in advance along with the sentence on the information display unit based on the information obtained by the information transfer unit. The information display system according to claim 11, wherein
【請求項13】 上記情報処理装置は、上記情報表示装
置に表示される情報に応じて行動する人間キャラクター
又は動物キャラクターを上記情報表示部に表示すること
を特徴とする請求項11記載の情報表示システム。
13. The information display device according to claim 11, wherein the information processing device displays a human character or an animal character acting in accordance with the information displayed on the information display device on the information display unit. system.
【請求項14】 上記情報処理装置は、自己が保有する
データベース上の情報を流用して、予め用意されている
文章パターンを利用して上記情報表示部に文章の表示も
行うことを特徴とする請求項11記載の情報表示システ
ム。
14. The information processing device according to claim 1, wherein the information on the database owned by the information processing device is used to display a sentence on the information display unit using a sentence pattern prepared in advance. The information display system according to claim 11.
【請求項15】 上記情報処理装置は、優先順位が付さ
れた複数種類のグループに分類して文章パターンを用意
しており、 上記情報処理装置は、上記情報転送手段により取得した
情報及び上記優先順位に基づいて、グループを選択し、
当該グループ内の文章パターンを利用して上記情報処理
部に文章を表示することを特徴とする請求項11記載の
情報表示システム。
15. The information processing apparatus prepares a sentence pattern by classifying the text pattern into a plurality of types of groups assigned with priorities, and the information processing apparatus stores the information acquired by the information transfer unit and the priority information. Select groups based on ranking,
The information display system according to claim 11, wherein a sentence is displayed on the information processing unit using a sentence pattern in the group.
【請求項16】 上記複数種類のグループは、少なくと
も誕生日、記念日、成長、ロボット装置の入出力情報、
ロボット装置性格並びにロボット装置の感情及び本能に
分類されたグループであり、 優先順位は、誕生日、記念日、成長、ロボット装置の入
出力情報、ロボット装置性格並びにロボット装置の感情
及び本能の順序で付されていることを特徴とする請求項
15記載の情報表示システム。
16. The plurality of types of groups include at least birthday, anniversary, growth, input / output information of the robot device,
The groups are classified into robot device personality and robot device emotions and instinct. The information display system according to claim 15, wherein the information display system is attached.
【請求項17】 上記情報取得手段は、ロボット装置に
対する外部からの情報を取得することを特徴とする請求
項11記載の情報表示システム。
17. The information display system according to claim 11, wherein said information acquisition means acquires information from outside the robot device.
【請求項18】 上記情報取得手段は、撮像手段であ
り、 上記情報処理装置は、上記撮像手段によって撮像された
画像を上記情報表示部に表示することを特徴とする請求
項17記載の情報表示システム。
18. The information display according to claim 17, wherein the information acquisition unit is an imaging unit, and the information processing device displays an image captured by the imaging unit on the information display unit. system.
【請求項19】 上記情報取得手段は、上記ロボット装
置の内部の情報を取得することを特徴とする請求項11
記載の情報表示システム。
19. The information acquisition means according to claim 11, wherein the information acquisition means acquires information inside the robot device.
Information display system described.
【請求項20】 上記ロボット装置は、外部情報及び/
又は内部状態に応じて変化する感情状態に基づいて行動
し、 上記情報取得手段は、上記感情状態を上記内部の情報と
して取得することを特徴とする請求項19記載の情報表
示システム。
20. The robot apparatus according to claim 1, wherein the external information and / or
20. The information display system according to claim 19, wherein the information acquisition unit acts based on an emotional state that changes according to the internal state, and the information acquisition unit acquires the emotional state as the internal information.
【請求項21】 上記ロボット装置は、外部情報及び/
又は内部状態に応じて変化する本能状態に基づいて行動
し、 上記情報取得手段は、上記本能状態を上記内部の情報と
して取得することを特徴とする請求項19記載の情報表
示システム。
21. The robot device, comprising:
20. The information display system according to claim 19, wherein the information display device acts based on an instinct state that changes according to an internal state, and wherein the information acquiring unit acquires the instinct state as the internal information.
【請求項22】 上記ロボット装置は、外部情報及び/
又は内部状態に応じて変化する成長状態に基づいて行動
し、 上記情報取得手段は、上記成長状態を上記内部の情報と
して取得することを特徴とする請求項19記載の情報表
示システム。
22. The robot device according to claim 19, wherein the robot device has external information and / or
20. The information display system according to claim 19, wherein the information acquisition unit acts based on a growth state that changes according to the internal state, and the information acquisition unit acquires the growth state as the internal information.
【請求項23】 上記ロボット装置は、自律的に行動し
ており、 上記情報取得手段は、自律行動結果を上記内部の情報と
して取得することを特徴とする請求項19記載の情報表
示システム。
23. The information display system according to claim 19, wherein said robot device behaves autonomously, and said information acquisition means acquires a result of autonomous behavior as said internal information.
【請求項24】 上記情報転送手段は、着脱自在とされ
る外部記憶手段であって、 上記ロボット装置は、上記外部記憶手段に上記情報取得
手段によって取得した情報を記憶し、 上記情報処理装置は、上記外部記憶手段に記憶された情
報に基づいて、予め用意している文章パターンを利用し
て情報表示部に文章を表示することを特徴とする請求項
11記載の情報表示システム。
24. The information transfer means is a detachable external storage means, wherein the robot device stores the information acquired by the information acquisition means in the external storage means, 12. The information display system according to claim 11, wherein a sentence is displayed on an information display unit using a sentence pattern prepared in advance, based on the information stored in the external storage means.
【請求項25】 ロボット装置により情報を取得し、 情報処理装置において、上記ロボット装置により取得し
た情報に基づいて、予め用意している文章パターンを利
用して情報表示部に文章を表示することを特徴とする情
報表示方法。
25. An information processing apparatus comprising: acquiring information by a robot device; and displaying the sentence on an information display unit using a sentence pattern prepared in advance, based on the information acquired by the robot device. Characteristic information display method.
【請求項26】 自律的に行動するロボット装置と、上
記ロボット装置に基づく情報を処理する情報処理装置
と、上記情報処理装置によって処理された情報に関する
内容を表示する画像表示手段とを備えるロボットシステ
ムであって、 上記ロボット装置は、当該ロボット装置の活動に基づく
活動情報を取得する情報取得手段と、当該情報取得手段
によって取得された活動情報を記憶する記憶手段とを有
し、 上記情報処理装置は、複数のメッセージ又は文章が記憶
されたメッセージパターン記憶手段と、上記活動情報と
上記メッセージ又は文章とに基づいて、上記ロボット装
置に関する日記を作成する日記作成手段とを有し、 上記画像表示手段は、上記日記作成手段によって作成さ
れた上記日記を表示することを特徴とするロボットシス
テム。
26. A robot system comprising: a robot apparatus that acts autonomously; an information processing apparatus that processes information based on the robot apparatus; and an image display unit that displays contents related to information processed by the information processing apparatus. The robot apparatus has information acquisition means for acquiring activity information based on the activity of the robot apparatus, and storage means for storing the activity information acquired by the information acquisition means. Has a message pattern storing means in which a plurality of messages or sentences are stored, and a diary creating means for creating a diary on the robot device based on the activity information and the message or sentence, the image display means Displays the diary created by the diary creating means.
【請求項27】 上記メッセージパターン記憶手段は、
インターネット上に設定されていることを特徴とする請
求項26記載のロボットシステム。
27. The message pattern storage means,
The robot system according to claim 26, wherein the robot system is set on the Internet.
【請求項28】 上記活動情報は、画像情報を含み、 上記日記は、上記メッセージ又は文章と上記画像情報と
から構成されていることを特徴とする請求項26記載の
ロボットシステム。
28. The robot system according to claim 26, wherein the activity information includes image information, and the diary is composed of the message or text and the image information.
【請求項29】 自律的に行動するロボット装置によ
り、当該ロボット装置の活動に基づく活動情報を取得
し、 情報処理装置が、複数のメッセージ又は文章が記憶され
たメッセージパターン記憶手段における上記メッセージ
又は文章と上記活動情報とに基づいて、上記ロボット装
置に関する日記を作成し、画像表示手段に表示すること
を特徴とする情報表示方法。
29. An autonomously acting robot device acquires activity information based on the activity of the robot device, and the information processing device reads the message or the sentence in the message pattern storage means in which a plurality of messages or sentences are stored. An information display method, comprising: creating a diary on the robot device based on the activity information and displaying the diary on an image display means.
【請求項30】 自律的に行動するロボット装置の活動
に基づく活動情報と、複数のメッセージ又は文章とか
ら、上記ロボット装置に関する日記を作成するプログラ
ムが記録されたコンピュータ制御可能な記録媒体。
30. A computer-controllable recording medium in which a program for creating a diary on the robot device is recorded from activity information based on the activity of the robot device acting autonomously and a plurality of messages or sentences.
JP2001314544A 2000-10-11 2001-10-11 Robot device, information display system and method, robot system, and recording medium Withdrawn JP2002192485A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001314544A JP2002192485A (en) 2000-10-11 2001-10-11 Robot device, information display system and method, robot system, and recording medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-311323 2000-10-11
JP2000311323 2000-10-11
JP2001314544A JP2002192485A (en) 2000-10-11 2001-10-11 Robot device, information display system and method, robot system, and recording medium

Publications (1)

Publication Number Publication Date
JP2002192485A true JP2002192485A (en) 2002-07-10

Family

ID=26601919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001314544A Withdrawn JP2002192485A (en) 2000-10-11 2001-10-11 Robot device, information display system and method, robot system, and recording medium

Country Status (1)

Country Link
JP (1) JP2002192485A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014075045A (en) * 2012-10-04 2014-04-24 Sharp Corp Controller, method for controlling controller, device to be controlled, server, control program, and recording medium
JP2016158683A (en) * 2015-02-27 2016-09-05 Winフロンティア株式会社 Image data organizing system, image data organizing device, image data organizing server device program, image data organizing terminal device program, and image data organizing device program
JP2022137036A (en) * 2020-11-24 2022-09-21 株式会社ユピテル System and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014075045A (en) * 2012-10-04 2014-04-24 Sharp Corp Controller, method for controlling controller, device to be controlled, server, control program, and recording medium
JP2016158683A (en) * 2015-02-27 2016-09-05 Winフロンティア株式会社 Image data organizing system, image data organizing device, image data organizing server device program, image data organizing terminal device program, and image data organizing device program
JP2022137036A (en) * 2020-11-24 2022-09-21 株式会社ユピテル System and program
JP7373868B2 (en) 2020-11-24 2023-11-06 株式会社ユピテル System and program

Similar Documents

Publication Publication Date Title
US6449518B1 (en) Storage medium, robot, information processing device and electronic pet system
US7117190B2 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
TW581959B (en) Robotic (animal) device and motion control method for robotic (animal) device
EP1508409A1 (en) Robot device and robot control method
JP2003039363A (en) Robot device, action learning method therefor, action learning program thereof, and program recording medium
JP2011115944A (en) Robot device, robot device action control method, and program
KR20010095176A (en) Robot and action deciding method for robot
US7063591B2 (en) Edit device, edit method, and recorded medium
JP5227362B2 (en) Emotion engine, emotion engine system, and electronic device control method
US11886970B2 (en) Apparatus control device, apparatus, apparatus control method, and storage medium
WO2002030629A1 (en) Robot apparatus, information display system, and information display method
JP3558222B2 (en) Robot behavior control system and behavior control method, and robot device
JP5181541B2 (en) Robot system, editor terminal, and editor program
JP2004302644A (en) Face identification device, face identification method, recording medium and robot device
JP2002192485A (en) Robot device, information display system and method, robot system, and recording medium
JP2002205289A (en) Action control method for robot device, program, recording medium and robot device
JP2001157980A (en) Robot device, and control method thereof
JP7414735B2 (en) Method for controlling multiple robot effectors
JPH11149462A (en) Device and method for selecting component
JP2001334482A (en) Robot device and method of determining action of robot device
JP2001157982A (en) Robot device and control method thereof
JP2001191274A (en) Data holding device, robot device, modification device and modification method
JP2001157981A (en) Robot device and control method thereof
JP4379052B2 (en) Moving object detection apparatus, moving object detection method, and robot apparatus
JP2003071765A (en) Robot device and input method therefor

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050104