JP2002205289A - Action control method for robot device, program, recording medium and robot device - Google Patents

Action control method for robot device, program, recording medium and robot device

Info

Publication number
JP2002205289A
JP2002205289A JP2000403454A JP2000403454A JP2002205289A JP 2002205289 A JP2002205289 A JP 2002205289A JP 2000403454 A JP2000403454 A JP 2000403454A JP 2000403454 A JP2000403454 A JP 2000403454A JP 2002205289 A JP2002205289 A JP 2002205289A
Authority
JP
Japan
Prior art keywords
learning
conversation partner
rnn
information
robot device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000403454A
Other languages
Japanese (ja)
Inventor
Kouchiyo Nakatsuka
洪長 中塚
Masatoshi Takeda
正資 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000403454A priority Critical patent/JP2002205289A/en
Publication of JP2002205289A publication Critical patent/JP2002205289A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow a robot device to identify an interactive object and take desirable action depending on thereto. SOLUTION: The robot device comprises an action learning means for making the robot device learn input information concerning the interactive object and then learn highly evaluated action with a RNN 100 and an action control means for identifying the interactive object from the input information concerning the interactive object in accordance with the learning result and presenting the action having a high evaluation value learned by the action learning means depending on the identified interactive object with an inverse RNN (RNN-1).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ロボット装置、ロ
ボット装置の動作を制御するロボット装置の動作制御方
法に関し、詳しくは、動作を学習することができるロボ
ット装置及びロボット装置の動作制御方法、プログラム
及び記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot apparatus, an operation control method of the robot apparatus for controlling the operation of the robot apparatus, and more particularly, to a robot apparatus capable of learning the operation, an operation control method of the robot apparatus, and a program. And a recording medium.

【0002】[0002]

【従来の技術】近年、外観形状が犬や猫等の動物に模し
て形成されたロボット装置が提供されている。そのよう
なロボット装置には、外部からの情報や内部の状態に応
じて自律的に動作するものがある。
2. Description of the Related Art In recent years, there has been provided a robot device whose external shape is formed by imitating an animal such as a dog or a cat. Some of such robot devices operate autonomously according to external information or internal conditions.

【0003】[0003]

【発明が解決しようとする課題】ところで、人間もそう
であるが、動物は、相手の気を引こうとする場合があ
る。例えば、それによって、自身のやる気(モチベーシ
ョン)が高められる。また、相手も、そのような気を引
こうとする動作を見れば、気分は悪いはずがない。
By the way, as in humans, animals sometimes try to attract the other party. For example, it increases one's motivation. Also, if the other party sees such an action to attract attention, it cannot be sick.

【0004】例えば、飼い主とペットとの間の関係でみ
た場合、飼い主は、ペットが褒められるために気を引こ
うとしている動作を見れば嬉しく思い、ペット自身も褒
められれば気分が良くなり、例えば、性格も良くなる。
ロボット装置には、ユーザ等の対話において性格が変化
するロボット装置もあり、このようなロボット装置の場
合、褒められるための動作結果を性格に影響させること
ができるため、さらに娯楽性が増すと言える。
[0004] For example, in the relationship between the owner and the pet, the owner is glad if he sees the action that the pet is trying to pay attention to to be praised. For example, personality improves.
Among the robot devices, there is also a robot device whose character changes in a dialogue of a user or the like. In the case of such a robot device, it is possible to influence an operation result to be praised on the character, and thus it can be said that entertainment is further increased. .

【0005】また、褒められるような動作は、相手(例
えば、飼い主)によって異なるものである。すなわち、
ある飼い主にとっては、いわゆる「お座り」の動作或い
は姿勢が褒める対象となっていたり、いわゆる「臥せ」
の動作或いは姿勢が褒める対象となっていたりする。
[0005] The operation to be praised differs depending on the other party (for example, the owner). That is,
For some owners, the so-called "sitting" movement or posture is a target for praise, or the so-called "lying"
Movement or posture is a target for praise.

【0006】そこで、本発明は、上述の実情に鑑みてな
されたものであり、対話相手を識別して、それに応じて
褒められる動作等をすることができるロボット装置の動
作制御方法、プログラム、記録媒体及びロボット装置を
提供することを目的としている。
Accordingly, the present invention has been made in view of the above situation, and has an operation control method, a program, and a recording apparatus for a robot apparatus capable of identifying a conversation partner and performing an operation commended accordingly. It is an object to provide a medium and a robot device.

【0007】[0007]

【課題を解決するための手段】本発明に係るロボット装
置の動作制御方法は、上述の課題を解決するために、対
話相手を識別させて、識別させた対話相手が高い評価を
する動作を、ロボット装置に学習させる学習工程と、対
話相手に関して入力された情報から学習工程における学
習結果に基づいて対話相手を識別して、学習した評価の
高い動作を、識別した対話相手に応じてロボット装置に
より表出させる動作制御工程とを有する。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, a motion control method for a robot apparatus according to the present invention includes the steps of: identifying a conversation partner; A learning step of learning the robot device, and identifying the conversation partner based on the learning result in the learning process from the information input with respect to the conversation partner, and learning the highly evaluated operation by the robot device according to the identified conversation partner. And an operation control step of exposing.

【0008】このようなロボット装置の動作制御方法
は、対話相手を識別させて、識別させた対話相手が高い
評価をする動作を、ロボット装置に学習させ、対話相手
に関して入力された情報から学習結果に基づいて対話相
手を識別して、学習した評価の高い動作を、識別した対
話相手に応じてロボット装置により表出させる。
In such an operation control method for a robot device, the conversation partner is identified, the robot device learns an operation in which the identified conversation partner evaluates highly, and a learning result is obtained from information input with respect to the conversation partner. And the robot apparatus expresses the learned high evaluation operation based on the identified conversation partner.

【0009】このようなロボット装置の動作制御方法に
より、ロボット装置は、対話相手及びこの対話相手が高
い評価をする動作を学習し、その学習結果に基づいて、
対話相手に応じて評価の高い動作を表出する。
According to such an operation control method for a robot device, the robot device learns the conversation partner and the operation that the conversation partner evaluates highly, and based on the learning result,
Express highly evaluated actions according to the conversation partner.

【0010】また、本発明に係るプログラムは、上述の
課題を解決するために、対話相手を識別させて、識別さ
せた対話相手が高い評価をする動作を、ロボット装置に
学習させる学習工程と、対話相手に関して入力された情
報から学習工程における学習結果に基づいて対話相手を
識別して、学習した評価の高い動作を、識別した対話相
手に応じてロボット装置により表出させる動作制御工程
とを実行させる。
[0010] Further, in order to solve the above-mentioned problems, the program according to the present invention includes a learning step of identifying a dialogue partner and causing the robot apparatus to learn an operation in which the identified dialogue partner evaluates highly. Executing a motion control step of identifying a conversation partner based on the learning result in the learning process from information input with respect to the conversation partner, and expressing a learned operation with a high evaluation by the robot apparatus according to the identified conversation partner. Let it.

【0011】このようなプログラムは、対話相手を識別
させて、識別させた対話相手が高い評価をする動作を、
ロボット装置に学習させ、対話相手に関して入力された
情報から学習結果に基づいて対話相手を識別して、学習
した評価の高い動作を、識別した対話相手に応じてロボ
ット装置により表出させる。
[0011] Such a program identifies a conversation partner and performs an operation in which the identified conversation partner evaluates highly.
The robot device is made to learn, the conversation partner is identified based on the learning result from the information input with respect to the conversation partner, and the learned motion with high evaluation is expressed by the robot device according to the identified conversation partner.

【0012】このようなプログラムにより動作が制御さ
れるロボット装置は、対話相手及びこの対話相手が高い
評価をする動作を学習し、その学習結果に基づいて、対
話相手に応じて評価の高い動作を表出する。
A robot apparatus whose operation is controlled by such a program learns a conversation partner and an operation that the conversation partner evaluates highly, and, based on the learning result, performs a movement with a high evaluation according to the conversation partner. Express.

【0013】また、本発明に係る記録媒体は、上述の課
題を解決するために、対話相手を識別させて、識別させ
た対話相手が高い評価をする動作を、ロボット装置に学
習させる学習工程と、対話相手に関して入力された情報
から学習工程における学習結果に基づいて対話相手を識
別して、学習した評価の高い動作を、識別した対話相手
に応じてロボット装置により表出させる動作制御工程と
を実行させるプログラムが記録されている。
[0013] Further, in order to solve the above-mentioned problems, the recording medium according to the present invention includes a learning step of identifying a dialogue partner and causing the robot apparatus to learn an operation of highly evaluating the identified dialogue partner. An operation control step of identifying a dialogue partner based on learning results in a learning process from information input with respect to the dialogue partner, and causing a robot apparatus to express a learned highly evaluated operation according to the identified dialogue partner. The program to be executed is recorded.

【0014】このような記録媒体は、対話相手を識別さ
せて、識別させた対話相手が高い評価をする動作を、ロ
ボット装置に学習させ、対話相手に関して入力された情
報から学習結果に基づいて対話相手を識別して、学習し
た評価の高い動作を、識別した対話相手に応じてロボッ
ト装置により表出させる。
Such a recording medium allows the robot apparatus to learn an operation in which the conversation partner is identified and gives a high evaluation to the identified conversation partner, and performs the conversation based on the learning result from the information input with respect to the conversation partner. The other party is identified, and the learned motion with a high evaluation is expressed by the robot apparatus according to the identified dialogue partner.

【0015】このような記録媒体に記録されているプロ
グラムにより動作が制御されるロボット装置は、対話相
手及びこの対話相手が高い評価をする動作を学習し、そ
の学習結果に基づいて、対話相手に応じて評価の高い動
作を表出する。
A robot device whose operation is controlled by a program recorded on such a recording medium learns a conversation partner and an operation that the conversation partner evaluates highly, and based on the learning result, gives the conversation partner. An operation with a high evaluation is expressed accordingly.

【0016】また、本発明に係るロボット装置は、上述
の課題を解決するために、対話相手を識別して、識別し
た対話相手が高い評価をする動作を学習する学習手段
と、対話相手に関して入力された情報から学習手段の学
習結果に基づいて対話相手を識別して、学習した評価の
高い動作を、識別した対話相手に応じて動作により表出
する動作制御手段とを備える。
Further, in order to solve the above-mentioned problems, the robot apparatus according to the present invention has a learning means for identifying a conversation partner and learning an operation in which the identified conversation partner gives a high evaluation, and an input for the conversation partner. Operation control means for identifying a conversation partner based on the learning result of the learning means based on the obtained information, and expressing a learned operation with a high evaluation according to the identified conversation partner.

【0017】このようなロボット装置は、対話相手を識
別して、識別した対話相手が高い評価をする動作を学習
し、対話相手に関して入力された情報から学習結果に基
づいて対話相手を識別して、学習した評価の高い動作
を、識別した対話相手に応じて表出する。よって、ロボ
ット装置は、対話相手及びこの対話相手が高い評価をす
る動作を学習し、その学習結果に基づいて、対話相手に
応じて評価の高い動作を表出する。
Such a robot device identifies a conversation partner, learns an operation in which the identified conversation partner gives a high evaluation, and identifies a conversation partner based on a learning result from information input about the conversation partner. Then, the learned highly evaluated operation is expressed according to the identified conversation partner. Therefore, the robot device learns the conversation partner and the operation in which the conversation partner evaluates high, and expresses the operation with high evaluation according to the conversation partner based on the learning result.

【0018】[0018]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を用いて詳しく説明する。この実施の形態は、周
囲の環境(外的要因)や内部の状態(内的要因)に応じ
て自律的に行動をする自律型のロボット装置である。本
発明の適用により、ロボット装置は、学習により、ユー
ザを識別して、それに応じて褒められる動作を表出する
ことができるようになる。
Embodiments of the present invention will be described below in detail with reference to the drawings. This embodiment is an autonomous robot apparatus that autonomously acts according to a surrounding environment (external factors) and an internal state (internal factors). According to the application of the present invention, the robot device can identify a user through learning and can express an operation praised accordingly.

【0019】実施の形態では、先ず、ロボット装置の構
成について説明して、その後、ロボット装置における本
発明の適用部分について詳細に説明する。
In the embodiment, first, the configuration of the robot device will be described, and thereafter, the application portion of the present invention in the robot device will be described in detail.

【0020】(1)本実施の形態によるロボット装置の
構成 図1に示すように、「犬」を模した形状のいわゆるペッ
トロボットとされ、胴体部ユニット2の前後左右にそれ
ぞれ脚部ユニット3A,3B,3C,3Dが連結される
と共に、胴体部ユニット2の前端部及び後端部にそれぞ
れ頭部ユニット4及び尻尾部ユニット5が連結されて構
成されている。
(1) Configuration of Robot Apparatus According to the Present Embodiment As shown in FIG. 1, a so-called pet robot having a shape imitating a "dog" is provided, and leg units 3A, 3A, 3B, 3C, and 3D are connected, and a head unit 4 and a tail unit 5 are connected to the front end and the rear end of the body unit 2, respectively.

【0021】胴体部ユニット2には、図2に示すよう
に、CPU(Central Processing Unit)10、DRA
M(Dynamic Random Access Memory)11、フラッシュ
ROM(Read 0nly Memory)12、PC(Personal Co
mputer)カードインターフェース回路13及び信号処理
回路14が内部バス15を介して相互に接続されること
により形成されたコントロール部16と、このロボット
装置1の動力源としてのバッテリ17とが収納されてい
る。また、胴体部ユニット2には、ロボット装置1の向
きや動きの加速度を検出するための角速度センサ18及
び加速度センサ19なども収納されている。
As shown in FIG. 2, a CPU (Central Processing Unit) 10 and a DRA
M (Dynamic Random Access Memory) 11, Flash ROM (Read 0nly Memory) 12, PC (Personal Co.)
A controller 16 formed by interconnecting a card interface circuit 13 and a signal processing circuit 14 via an internal bus 15 and a battery 17 as a power source of the robot apparatus 1 are housed therein. . The body unit 2 also houses an angular velocity sensor 18 and an acceleration sensor 19 for detecting the acceleration of the direction and movement of the robot device 1.

【0022】また、頭部ユニット4には、外部の状況を
撮像するためのCCD(Charge Coupled Device)カメ
ラ20と、使用者からの「撫でる」や「叩く」といった
物理的な働きかけにより受けた圧力を検出するためのタ
ッチセンサ21と、前方に位置する物体までの距離を測
定するための距離センサ22と、外部音を集音するため
のマイクロホン23と、鳴き声等の音声を出力するため
のスピーカ24と、ロボット装置1の「目」に相当する
LED(Light Emitting Diode)(図示せず)となどが
それぞれ所定位置に配置されている。
The head unit 4 includes a CCD (Charge Coupled Device) camera 20 for capturing an image of an external situation, and a pressure applied by a physical action such as "stroke" or "hit" from the user. , A distance sensor 22 for measuring a distance to an object located ahead, a microphone 23 for collecting external sounds, and a speaker for outputting a sound such as a cry 24 and LEDs (Light Emitting Diodes (not shown)) corresponding to the “eyes” of the robot apparatus 1 are arranged at predetermined positions.

【0023】さらに、各脚部ユニット3A〜3Dの関節
部分や各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、頭部ユニット4及び胴体部ユニット2の
連結部分、並びに尻尾部ユニット5の尻尾5Aの連結部
分などにはそれぞれ自由度数分のアクチュエータ25
〜25及びポテンショメータ26〜26が配設さ
れている。例えば、アクチュエータ25〜25はサ
ーボモータを構成として有している。サーボモータの駆
動により、脚部ユニット3A〜3Dが制御されて、目標
の姿勢或いは動作に遷移する。
Further, the joints of the leg units 3A to 3D, the leg units 3A to 3D, and the trunk unit 2
The actuators 25 1 for the degrees of freedom are respectively provided at the connection portions of the head unit 4 and the trunk unit 2, and at the connection portion of the tail 5 A of the tail unit 5.
To 25 n and potentiometers 26 1 to 26 n are provided. For example, each of the actuators 25 1 to 25 n has a servomotor. By driving the servo motor, the leg units 3A to 3D are controlled, and transition to a target posture or operation is made.

【0024】そして、これら角速度センサ18、加速度
センサ19、タッチセンサ21、距離センサ22、マイ
クロホン23、スピーカ24及び各ポテンショメータ2
〜26などの各種センサ並びにLED及び各アク
チュエータ25 〜25は、それぞれ対応するハブ
27〜27を介してコントロール部16の信号処理
回路14と接続され、CCDカメラ20及びバッテリ1
7は、それぞれ信号処理回路14と直接接続されてい
る。
The angular velocity sensor 18, acceleration sensor 19, touch sensor 21, distance sensor 22, microphone 23, speaker 24 and each potentiometer 2
6 1-26 various sensors and LED and the actuator 25 1 to 25 n, such as n is connected to the signal processing circuit 14 of the control unit 16 via a corresponding hub 27 1 ~ 27 n, CCD camera 20 and the battery 1
7 are directly connected to the signal processing circuit 14, respectively.

【0025】信号処理回路l4は、上述の各センサから
供給されるセンサデータや画像データ及び音声データを
順次取り込み、これらをそれぞれ内部バス15を介して
DRAM11内の所定位置に順次格納する。また信号処
理回路14は、これと共にバッテリ17から供給される
バッテリ残量を表すバッテリ残量データを順次取り込
み、これをDRAM11内の所定位置に格納する。
The signal processing circuit 14 sequentially takes in the sensor data, image data, and audio data supplied from the above-described sensors, and sequentially stores them at predetermined positions in the DRAM 11 via the internal bus 15. In addition, the signal processing circuit 14 sequentially takes in remaining battery power data indicating the remaining battery power supplied from the battery 17 and stores the data at a predetermined position in the DRAM 11.

【0026】このようにしてDRAM11に格納された
各センサデータ、画像データ、音声データ及びバッテリ
残量データは、この後CPU10がこのロボット装置1
の動作制御を行う際に利用される。
The sensor data, image data, voice data, and remaining battery data stored in the DRAM 11 in this manner are thereafter transmitted to the robot device 1 by the CPU 10.
It is used when controlling the operation of.

【0027】実際上CPU10は、ロボット装置1の電
源が投入された初期時、胴体部ユニット2の図示しない
PCカードスロットに装填されたメモリカード28又は
フラッシュROM12に格納された制御プログラムをP
Cカードインターフェース回路13を介して又は直接読
み出し、これをDRAM11に格納する。
In practice, when the power of the robot apparatus 1 is turned on, the CPU 10 executes the control program stored in the memory card 28 or the flash ROM 12 inserted in the PC card slot (not shown) of the body unit 2 into a P program.
The data is read out via the C card interface circuit 13 or directly and stored in the DRAM 11.

【0028】また、CPU10は、この後上述のように
信号処理回路14よりDRAM11に順次格納される各
センサデータ、画像データ、音声データ及びバッテリ残
量データに基づいて自己及び周囲の状況や、使用者から
の指示及び働きかけの有無などを判断する。
The CPU 10 then determines the status of itself and its surroundings and the usage based on the sensor data, image data, audio data, and remaining battery data sequentially stored in the DRAM 11 from the signal processing circuit 14 as described above. Judge the instruction from the person and the presence or absence of the action.

【0029】さらに、CPU10は、この判断結果及び
DRAM11に格納しだ制御プログラムに基づいて続く
行動を決定すると共に、当該決定結果に基づいて必要な
アクチュエータ25〜25を駆動させることによ
り、頭部ユニット4を上下左右に振らせたり、尻尾部ユ
ニット5の尻尾5Aを動かせたり、各脚部ユニット3A
〜3Dを駆動させて歩行させるなどの行動を行わせる。
Furthermore, CPU 10 is configured to determine a subsequent action based on the control program that is stored in the determination result and DRAM 11, by driving the actuator 25 1 to 25 n required based on the determination result, the head The unit 4 can be swung up, down, left and right, the tail 5A of the tail unit 5 can be moved, and each leg unit 3A can be moved.
3D is driven to perform an action such as walking.

【0030】また、この際CPU10は、必要に応じて
音声データを生成し、これを信号処理回路14を介して
音声信号としてスピーカ24に与えることにより当該音
声信号に基づく音声を外部に出力させたり、上述のLE
Dを点灯、消灯又は点滅させる。
At this time, the CPU 10 generates audio data as required and supplies the generated audio data to the speaker 24 as an audio signal via the signal processing circuit 14 so that the audio based on the audio signal is output to the outside. LE above
D is turned on, off or blinked.

【0031】このようにしてこのロボット装置1におい
ては、自己及び周囲の状況や、使用者からの指示及び働
きかけに応じて自律的に行動し得るようになされてい
る。
As described above, the robot apparatus 1 can autonomously act in accordance with the situation of itself and the surroundings, and instructions and actions from the user.

【0032】(2)制御プログラムのソフトウェア構成 ここで、ロボット装置1における上述の制御プログラム
のソフトウェア構成は、図3に示すようになる。この図
3において、デバイス・ドライバ・レイヤ30は、この
制御プログラムの最下位層に位置し、複数のデバイス・
ドライバからなるデバイス・ドライバ・セット31から
構成されている。この場合、各デバイス・ドライバは、
CCDカメラ20(図2)やタイマ等の通常のコンピュ
ータで用いられるハードウェアに直接アクセスするごと
を許されたオブジェクトであり、対応するハードウェア
からの割り込みを受けて処理を行う。
(2) Software Configuration of Control Program Here, the software configuration of the above-described control program in the robot apparatus 1 is as shown in FIG. In FIG. 3, a device driver layer 30 is located at the lowest layer of the control program, and includes a plurality of device drivers.
It comprises a device driver set 31 composed of drivers. In this case, each device driver
An object that is permitted to directly access hardware used in a normal computer, such as a CCD camera 20 (FIG. 2) and a timer, and performs processing in response to an interrupt from the corresponding hardware.

【0033】また、ロボティック・サーバ・オブジェク
ト32は、デバイス・ドライバ・レイヤ30の最下位層
に位置し、例えば上述の各種センサやアクチュエータ2
〜25等のハードウェアにアクセスするためのイ
ンターフェースを提供するソフトウェア群でなるバーチ
ャル・ロボット33と、電源の切換えなどを管理するソ
フトウェア群でなるバワーマネージャ34と、他の種々
のデバイス・ドライバを管理するソフトウェア群でなる
デバイス・ドライバ・マネージャ35と、ロボット装置
1の機構を管理するソフトウェア群でなるデザインド・
ロボット36とから構成されている。
The robotic server object 32 is located at the lowest layer of the device driver layer 30 and includes, for example, the various sensors and actuators 2 described above.
A virtual robot 33 comprising a software group that provides a 5 to 253 interface for accessing hardware such as n, a bus word manager 34 made of a software suite for managing the power supply switching, the other various device A device driver manager 35, which is a group of software for managing drivers, and a designed driver, which is a group of software for managing the mechanism of the robot device 1,
And a robot 36.

【0034】マネージャ・オブジェクト37は、オブジ
ェクト・マネージャ38及びサービス・マネージャ39
から構成されている。オブジェクト・マネージャ38
は、ロボティック・サーバ・オブジェクト32、ミドル
・ウェア・レイヤ40、及びアプリケーション・レイヤ
41に含まれる各ソフトウェア群の起動や終了を管理す
るソフトウェア群であり、サービス・マネージャ39
は、メモリカード28(図2)に格納されたコネクショ
ンファイルに記述されている各オブジェクト間の接続情
報に基づいて各オブジェクトの接続を管理するソフトウ
ェア群である。
The manager object 37 includes an object manager 38 and a service manager 39.
It is composed of Object Manager 38
Is a software group that manages activation and termination of each software group included in the robotic server object 32, the middleware layer 40, and the application layer 41, and includes a service manager 39.
Are a group of software for managing the connection of each object based on the connection information between the objects described in the connection file stored in the memory card 28 (FIG. 2).

【0035】ミドル・ウェア・レイヤ40は、ロボティ
ック・サーバ・オブジェクト32の上位層に位置し、画
像処理や音声処理などのこのロボット装置1の基本的な
機能を提供するソフトウェア群から構成されている。ま
た、アプリケーション・レイヤ41は、ミドル・ウェア
・レイヤ40の上位層に位置し、当該ミドル・ウェア・
レイヤ40を構成する各ソフトウェア群によって処理さ
れた処理結果に基づいてロボット装置1の行動を決定す
るためのソフトウェア群から構成されている。
The middleware layer 40 is located on the upper layer of the robotic server object 32 and is composed of a group of software for providing basic functions of the robot apparatus 1 such as image processing and sound processing. I have. Further, the application layer 41 is located above the middleware layer 40, and
It is composed of a software group for determining an action of the robot apparatus 1 based on a processing result processed by each software group constituting the layer 40.

【0036】なお、ミドル・ウェア・レイヤ40及びア
プリケーション・レイヤ41の具体なソフトウェア構成
をそれぞれ図4に示す。
FIG. 4 shows specific software configurations of the middleware layer 40 and the application layer 41.

【0037】ミドル・ウェア・レイヤ40は、図4に示
すように、騒音検出用、温度検出用、明るさ検出用、音
階認識用、距離検出用、姿勢検出用、タッチセンサ用、
動き検出用及び色認識用の各信号処理モジュール50〜
58並びに入力セマンティクスコンバータモジュール5
9などを有する認識系60と、出力セマンティクスコン
バータモジュール68並びに姿勢管理用、トラッキング
用、モーション再生用、歩行用、転倒復帰用、LED点
灯用及び音再生用の各信号処理モジュール61〜67な
どを有する出力系69とから構成されている。
As shown in FIG. 4, the middle wear layer 40 is for noise detection, temperature detection, brightness detection, scale recognition, distance detection, posture detection, touch sensor,
Each signal processing module 50 for motion detection and color recognition
58 and input semantics converter module 5
9 and an output semantics converter module 68 and signal processing modules 61 to 67 for attitude management, tracking, motion reproduction, walking, fallback recovery, LED lighting and sound reproduction. And an output system 69.

【0038】認識系60の各信号処理モジュール50〜
58は、ロボティック・サーバ・オブジェクト32のバ
ーチャル・ロボット33によりDRAM11(図2)か
ら読み出される各センサデータや画像データ及び音声デ
ータのうちの対応するデータを取り込み、当該データに
基づいて所定の処理を施して、処理結果を入力セマンテ
ィクスコンバータモジュール59に与える。ここで、例
えば、バーチャル・ロボット33は、所定の通信規約に
よって、信号の授受或いは変換をする部分として構成さ
れている。
Each signal processing module 50 to 50 of the recognition system 60
Numeral 58 fetches corresponding data among the sensor data, image data, and audio data read from the DRAM 11 (FIG. 2) by the virtual robot 33 of the robotic server object 32, and performs predetermined processing based on the data. Is given to the input semantics converter module 59. Here, for example, the virtual robot 33 is configured as a part that exchanges or converts signals according to a predetermined communication protocol.

【0039】入力セマンティクスコンバータモジュール
59は、これら各信号処理モジュール50〜58から与
えられる処理結果に基づいて、「うるさい」、「暑
い」、「明るい」、「ボールを検出した」、「転倒を検
出した」、「撫でられた」、「叩かれた」、「ドミソの
音階が聞こえた」、「動く物体を検出した」又は「障害
物を検出した」などの自己及び周囲の状況や、使用者か
らの指令及び働きかけを認識し、認識結果をアプリケー
ション・レイヤ41(図2)に出力する。
The input semantics converter module 59 detects "noisy", "hot", "bright", "ball detected", and "fallover" based on the processing results given from each of the signal processing modules 50 to 58. Self and surrounding conditions such as `` has been stroked '', `` stroked '', `` hitted '', `` he heard the domes '', `` detected a moving object '' or `` detected an obstacle '', and the user , And outputs the recognition result to the application layer 41 (FIG. 2).

【0040】アプリケーション・レイヤ4lは、図5に
示すように、行動モデルライブラリ70、行動切換えモ
ジュール71、学習モジュール72、感情モデル73及
び本能モデル74の5つのモジュールから構成されてい
る。
As shown in FIG. 5, the application layer 41 includes five modules: a behavior model library 70, a behavior switching module 71, a learning module 72, an emotion model 73, and an instinct model 74.

【0041】行動モデルライブラリ70には、図6に示
すように、「バッテリ残量が少なくなった場合」、「転
倒復帰する」、「障害物を回避する場合」、「感情を表
現する場合」、「ボールを検出した場合」などの予め選
択されたいくつかの条件項目にそれぞれ対応させて、そ
れぞれ独立した行動モデル70〜70が設けられて
いる。
As shown in FIG. 6, the behavior model library 70 includes “when the remaining battery power is low”, “returns to fall”, “when avoiding obstacles”, and “when expressing emotions”. , And independent action models 70 1 to 70 n are respectively provided corresponding to some pre-selected condition items such as “when a ball is detected”.

【0042】そして、これら行動モデル70〜70
は、それぞれ入力セマンティクスコンバータモジュール
59から認識結果が与えられたときや、最後の認識結果
が与えられてから一定時間が経過したときなどに、必要
に応じて後述のように感情モデル73に保持されている
対応する情動のパラメータ値や、本能モデル74に保持
されている対応する欲求のパラメータ値を参照しながら
続く行動をそれぞれ決定し、決定結果を行動切換えモジ
ュール71に出力する。
The behavior models 70 1 to 70 n
Are stored in the emotion model 73 as described later, as necessary, when a recognition result is given from the input semantics converter module 59 or when a certain period of time has passed since the last recognition result was given. The next action is determined with reference to the corresponding emotion parameter value and the corresponding desire parameter value held in the instinct model 74, and the determination result is output to the action switching module 71.

【0043】なお、この実施の形態の場合、各行動モデ
ル70〜70は、次の行動を決定する手法として、
図7に示すような1つのノード(状態)NODE〜N
ODEから他のどのノードNODE〜NODE
遷移するかを各ノードNODE〜NODEに間を接
続するアークARC〜ARCn1に対してそれぞれ設
定された遷移確率P〜Pに基づいて確率的に決定す
る有限確率オートマトンと呼ばれるアルゴリズムを用い
る。
In the case of this embodiment, each of the behavior models 70 1 to 70 n uses the following method to determine the next behavior.
One node (state) NODE 0 to N as shown in FIG.
The transition probability P 1 to P n which is set respectively arc ARC 1 ~ARC n1 connecting between whether to transition from ODE n to any other node NODE 0 ~NODE n each node NODE 0 ~NODE n An algorithm called a finite stochastic automaton that determines stochastically on the basis is used.

【0044】具体的に、各行動モデル70〜70
は、それぞれ自己の行動モデル70〜70を形成
するノードNODE〜NODEにそれぞれ対応させ
て、これらノードNODE〜NODEごとに図8に
示すような状態遷移表80を有している。
More specifically, each of the behavior models 70 1 to 70 1
n has a state transition table 80 as shown in FIG. 8 for each of the nodes NODE 0 to NODE n corresponding to the nodes NODE 0 to NODE n forming their own behavior models 70 1 to 70 n , respectively. ing.

【0045】この状態遷移表80では、そのノードNO
DE〜NODEにおいて遷移条件とする入力イベン
ト(認識結果)が「入力イベント名」の行に優先順に列
記され、その遷移条件についてのさらなる条件が「デー
タ名」及び「データ範囲」の行における対応する列に記
述されている。
In the state transition table 80, the node NO
Input events (recognition results) as transition conditions in DE 0 to NODE n are listed in order of priority in the row of “input event name”, and further conditions for the transition conditions are described in the rows of “data name” and “data range”. It is described in the corresponding column.

【0046】したがって、図8の状態遷移表80で表さ
れるノードNODE100では、「ボールを検出(BA
LL)」という認識結果が与えられた場合に、当該認識
結果と共に与えられるそのボールの「大きさ(SIZ
E)」が「0から1000」の範囲であることや、「障害物
を検出(OBSTACLE)」という認識結果が与えら
れた場合に、当該認識結果と共に与えられるその障害物
までの「距離(DISTANCE)」が「0から100」の
範囲であることが他のノードに遷移するための条件とな
っている。
Therefore, in the node NODE 100 represented by the state transition table 80 in FIG.
LL) ”, the“ size (SIZ) of the ball given together with the recognition result is given.
E) is in the range of “0 to 1000”, or when a recognition result of “obstacle detected (OBSTACLE)” is given, the “distance (DISTANCE)” to the obstacle given together with the recognition result is given. )) Is in the range of “0 to 100”, which is a condition for transitioning to another node.

【0047】また、このノードNODE100では、認
識結果の入力がない場合においても、行動モデル70
〜70が周期的に参照する感情モデル73及び本能モ
デル74にそれぞれ保持された各情動及び各欲求のパラ
メータ値のうち、感情モデル73に保持された「喜び
(JOY)」、「驚き(SURPRISE)」若しくは
「悲しみ(SUDNESS)」のいずれかのパラメータ
値が「50から100」の範囲であるときには他のノードに
遷移することができるようになっている。
In the node NODE 100 , even when the recognition result is not input, the behavior model 70 1
Of the parameter values of each emotion and each desire held in the emotion model 73 and the instinct model 74 which are periodically referred to by the n- 70n, “joy” and “surprise” held in the emotion model 73 are stored. )) Or "Sadness (SUDNESS)" when the parameter value is in the range of "50 to 100", it is possible to transition to another node.

【0048】また、状態遷移表80では、「他のノード
ヘの遷移確率」の欄における「遷移先ノード」の列にそ
のノードNODE〜 NODEから遷移できるノー
ド名が列記されていると共に、「入力イベント名」、
「データ値」及び「データの範囲」の行に記述された全
ての条件が揃ったときに遷移できる他の各ノードNOD
〜NODEへの遷移確率が「他のノードヘの遷移
確率」の欄内の対応する箇所にそれぞれ記述され、その
ノードNODE〜NODEに遷移する際に出力すべ
き行動が「他のノードヘの遷移確率」の欄における「出
力行動」の行に記述されている。なお、「他のノードヘ
の遷移確率」の欄における各行の確率の和は100
[%]となっている。
[0048] In the state transition table 80, with the node name that can transition from the node NODE 0 ~ NODE n in the column of "transition destination node" are listed in the column of "transition probability of other Nodohe", " Input event name ",
Other nodes NOD that can transition when all the conditions described in the rows of “data value” and “data range” are met
The transition probabilities from E 0 to NODE n are respectively described in corresponding portions in the column of “transition probability to other nodes”, and the action to be output when transitioning to that node NODE 0 to NODE n is “other It is described in the row of “output action” in the column of “transition probability to node”. Note that the sum of the probabilities of each row in the column of “transition probability to another node” is 100
[%].

【0049】したがって、図8の状態遷移表80で表さ
れるノードNODE100では、例えば「ボールを検出
(BALL)」し、そのボールの「SIZE(大き
さ)」が「0から1000」の範囲であるという認識結果が
与えられた場合には、「30[%]」の確率で「ノードN
ODE120(node 120)」に遷移でき、そのとき「A
CTION1」の行動が出力されることとなる。
Therefore, in the node NODE 100 represented by the state transition table 80 in FIG. 8, for example, “ball is detected (BALL)”, and the “SIZE” of the ball is in the range of “0 to 1000”. Is given, the probability of “30 [%]” and “node N
ODE 120 (node 120) "and then" A
The action of “CTION1” is output.

【0050】各行動モデル70〜70は、それぞれ
このような状態遷移表80として記述されたノードNO
DE〜 NODEがいくつも繋がるようにして構成
されており、入力セマンティクスコンバータモジュール
59から認識結果が与えられたときなどに、対応するノ
ードNODE〜NODEの状態遷移表を利用して確
率的に次の行動を決定し、決定結果を行動切換えモジュ
ール71に出力するようになされている。
Each of the behavior models 70 1 to 70 n has the node NO described in the state transition table 80 as described above.
DE 0 to NODE n are connected to each other, and when a recognition result is given from the input semantics converter module 59 or the like, the probability is calculated using the state transition table of the corresponding nodes NODE 0 to NODE n. The next action is determined, and the result of the determination is output to the action switching module 71.

【0051】図5に示す行動切換えモジュール71は、
行動モデルライブラリ70の各行動モデル70〜70
からそれぞれ出力される行動のうち、予め定められた
優先順位の高い行動モデル70〜70から出力され
た行動を選択し、当該行動を実行すべき旨のコマンド
(以下、これを行動コマンドという。)をミドル・ウェ
ア・レイヤ40の出力セマンティクスコンバータモジュ
ール68に送出する。なお、この実施の形態において
は、図6において下側に表記された行動モデル70
70ほど優先順位が高く設定されている。
The action switching module 71 shown in FIG.
Each behavior model 70 in the behavior model library 701~ 70
nOf the actions output from
High priority action model 701~ 70nOutput from
Command to select the action and execute it
(Hereinafter, this is called an action command.)
A layer 40 output semantics converter module
To the rule 68. In this embodiment,
Is the behavior model 70 shown on the lower side in FIG. 1~
70nThe higher the priority, the higher the priority.

【0052】また、行動切換えモジュール71は、行動
完了後に出力セマンティクスコンバータモジュール68
から与えられる行動完了情報に基づいて、その行動が完
了したことを学習モジュール72、感情モデル73及び
本能モデル74に通知する。
After the action is completed, the action switching module 71 outputs the output semantics converter module 68.
The completion of the action is notified to the learning module 72, the emotion model 73, and the instinct model 74 based on the action completion information given by the user.

【0053】一方、学習モジュール72は、入力セマン
ティクスコンバータモジュール59から与えられる認識
結果のうち、「叩かれた」や「撫でられた」など、使用
者からの働きかけとして受けた教示の認識結果を入力す
る。
On the other hand, the learning module 72 inputs the recognition result of the teaching received from the user, such as “hit” or “stroke”, among the recognition results given from the input semantics converter module 59. I do.

【0054】そして、学習モジュール72は、この認識
結果及び行動切換えモジュール71からの通知に基づい
て、「叩かれた(叱られた)」ときにはその行動の発現
確率を低下させ、「撫でられた(褒められた)」ときに
はその行動の発現確率を上昇させるように、行動モデル
ライブラリ70における対応する行動モデル70〜7
の対応する遷移確率を変更する。
Then, based on the recognition result and the notification from the action switching module 71, the learning module 72 lowers the probability of occurrence of the action when "beaten (scolded)" and "strokes ( praised obtained) "sometimes to increase the expression probability of that action, behavior model 70 1-7 corresponding in behavioral model library 70
Change the corresponding transition probabilities of 0 n .

【0055】他方、感情モデル73は、「喜び(jo
y)」、「悲しみ(sadness)」、「怒り(anger)」、
「驚き(surprise)」、「嫌悪(disgust)」及び「恐
れ(fear)」の合計6つの情動について、各情動ごとに
その情動の強さを表すパラメータを保持している。そし
て、感情モデル73は、これら各情動のパラメータ値
を、それぞれ入力セマンティクスコンバータモジュール
59から与えられる「叩かれた」及び「撫でられた」な
どの特定の認識結果と、経過時間及び行動切換えモジュ
ール71からの通知となどに基づいて周期的に更新す
る。
On the other hand, the emotion model 73 indicates “joy (jo
y) "," sadness "," anger ",
For a total of six emotions, “surprise”, “disgust”, and “fear”, a parameter indicating the strength of the emotion is stored for each emotion. Then, the emotion model 73 converts the parameter values of each of these emotions into a specific recognition result such as “hit” and “stroke” given from the input semantics converter module 59 and the elapsed time and action switching module 71. Updates periodically based on the notification from.

【0056】具体的には、感情モデル73は、入力セマ
ンティクスコンバータモジュール59から与えられる認
識結果と、そのときのロボット装置1の行動と、前回更
新してからの経過時間となどに基づいて所定の演算式に
より算出されるそのときのその情動の変動量を△E
[t]、現在のその情動のパラメータ値をE[t]、そ
の情動の感度を表す係数をkとして、(1)式によっ
て次の周期におけるその情動のパラメータ値E[t+
1]を算出し、これを現在のその情動のパラメータ値E
[t]と置き換えるようにしてその情動のパラメータ値
を更新する。また、感情モデル73は、これと同様にし
て全ての情動のパラメータ値を更新する。
Specifically, the emotion model 73 is determined based on the recognition result given from the input semantics converter module 59, the behavior of the robot device 1 at that time, the elapsed time since the last update, and the like. The amount of change of the emotion at that time calculated by the arithmetic expression is expressed by △ E
[T], E [t] of the current parameter value of the emotion, the coefficient representing the sensitivity of the emotion as k e, (1) the parameter value of the emotion in a next period by equation E [t +
1] is calculated, and the current parameter value E of the emotion is calculated.
The parameter value of the emotion is updated by replacing it with [t]. The emotion model 73 updates the parameter values of all emotions in the same manner.

【0057】[0057]

【数1】 (Equation 1)

【0058】なお、各認識結果や出力セマンティクスコ
ンバータモジュール68からの通知が各情動のパラメー
タ値の変動量△E[t]にどの程度の影響を与えるかは
予め決められており、例えば「叩かれた」といった認識
結果は「怒り」の情動のパラメータ値の変動量△E
[t]に大きな影響を与え、「撫でられた」といった認
識結果は「喜び」の情動のパラメータ値の変動量△E
[t]に大きな影響を与えるようになっている。
The degree to which each recognition result and the notification from the output semantics converter module 68 affect the variation ΔE [t] of the parameter value of each emotion is determined in advance. Is the amount of change in the parameter value of the emotion of “anger” △ E
[T] is greatly affected, and the recognition result such as “stroke” is the variation amount of the parameter value of the emotion of “joy” 喜 び E
[T] is greatly affected.

【0059】ここで、出力セマンティクスコンバータモ
ジュール68からの通知とは、いわゆる行動のフィード
バック情報(行動完了情報)であり、行動の出現結果の
情報であり、感情モデル73は、このような情報によっ
ても感情を変化させる。これは、例えば、「吠える」と
いった行動により怒りの感情レベルが下がるといったよ
うなことである。なお、出力セマンティクスコンバータ
モジュール68からの通知は、上述した学習モジュール
72にも入力されており、学習モジュール72は、その
通知に基づいて行動モデル70〜70の対応する遷
移確率を変更する。
Here, the notification from the output semantics converter module 68 is so-called action feedback information (action completion information), information on the appearance result of the action, and the emotion model 73 also uses such information. Change emotions. This is, for example, a behavior such as "barking" that lowers the emotional level of anger. The notification from the output semantics converter module 68 is also input to the learning module 72 described above, the learning module 72 changes the corresponding transition probability of the behavioral models 70 1 to 70 n based on the notification.

【0060】なお、行動結果のフィードバックは、行動
切換えモジュレータ71の出力(感情が付加された行
動)によりなされるものであってもよい。
The feedback of the action result may be made by the output of the action switching modulator 71 (the action to which the emotion is added).

【0061】一方、本能モデル74は、「運動欲(exer
cise)」、「愛情欲(affection)」、「食欲(appetit
e)」及び「好奇心(curiosity)」の互いに独立した4
つの欲求について、これら欲求ごとにその欲求の強さを
表すパラメータを保持している。そして、本能モデル7
4は、これらの欲求のパラメータ値を、それぞれ入力セ
マンティクスコンバータモジュール59から与えられる
認識結果や、経過時間及び行動切換えモジュール71か
らの通知などに基づいて周期的に更新する。
On the other hand, the instinct model 74 is “exercise desire (exer
cise) "," affection "," appetite "
e) ”and“ curiosity ”4
For each of the desires, a parameter indicating the strength of the desire is stored for each of the desires. And instinct model 7
4 periodically updates these desire parameter values based on the recognition result given from the input semantics converter module 59, the elapsed time, the notification from the action switching module 71, and the like.

【0062】具体的には、本能モデル74は、「運動
欲」、「愛情欲」及び「好奇心」については、認識結
果、経過時間及び出力セマンティクスコンバータモジュ
ール68からの通知などに基づいて所定の演算式により
算出されるそのときのその欲求の変動量をΔI[k]、
現在のその欲求のパラメータ値をI[k]、その欲求の
感度を表す係数kとして、所定周期で(2)式を用い
て次の周期におけるその欲求のパラメータ値I[k+
1]を算出し、この演算結果を現在のその欲求のパラメ
ータ値I[k]と置き換えるようにしてその欲求のパラ
メータ値を更新する。また、本能モデル74は、これと
同様にして「食欲」を除く各欲求のパラメータ値を更新
する。
More specifically, the instinct model 74 determines the “movement desire”, “affection desire”, and “curiosity” based on the recognition result, the elapsed time, the notification from the output semantics converter module 68, and the like. The change amount of the desire at that time calculated by the arithmetic expression is ΔI [k],
Assuming that the parameter value of the current desire is I [k] and the coefficient k i representing the sensitivity of the desire is a parameter value I [k +
1] is calculated, and the calculation result is replaced with the current parameter value I [k] of the desire to update the parameter value of the desire. Similarly, the instinct model 74 updates the parameter values of each desire except “appetite”.

【0063】[0063]

【数2】 (Equation 2)

【0064】なお、認識結果及び出力セマンティクスコ
ンバータモジュール68からの通知などが各欲求のパラ
メータ値の変動量△I[k]にどの程度の影響を与える
かは予め決められており、例えば出力セマンティクスコ
ンバータモジュール68からの通知は、「疲れ」のパラ
メータ値の変動量△I[k]に大きな影響を与えるよう
になっている。
Note that the degree to which the recognition result and the notification from the output semantics converter module 68 affect the variation ΔI [k] of the parameter value of each desire is determined in advance. For example, the output semantics converter 68 The notification from the module 68 has a large effect on the variation ΔI [k] of the parameter value of “fatigue”.

【0065】なお、本実施の形態においては、各情動及
び各欲求(本能)のパラメータ値がそれぞれ0から100ま
での範囲で変動するように規制されており、また係数k
、kの値も各情動及び各欲求ごとに個別に設定され
ている。
In the present embodiment, the parameter values of each emotion and each desire (instinct) are regulated so as to fluctuate in the range of 0 to 100, respectively.
e, the value of k i is also set individually for each emotion and each desire.

【0066】一方、ミドル・ウェア・レイヤ40の出力
セマンティクスコンバータモジュール68は、図4に示
すように、上述のようにしてアプリケーション・レイヤ
41の行動切換えモジュール71から与えられる「前
進」、「喜ぶ」、「鳴く」又は「トラッキング(ボール
を追いかける)」といった抽象的な行動コマンドを出力
系69の対応する信号処理モジュール61〜67に与え
る。
On the other hand, as shown in FIG. 4, the output semantics converter module 68 of the middleware layer 40 provides “forward” and “pleasure” given from the action switching module 71 of the application layer 41 as described above. , "Sound" or "tracking (follow the ball)" is given to the corresponding signal processing modules 61 to 67 of the output system 69.

【0067】そしてこれら信号処理モジュール61〜6
7は、行動コマンドが与えられると当該行動コマンドに
基づいて、その行動を行うために対応するアクチュエー
タ25〜25(図2)に与えるべきサーボ指令値
や、スピーカ24(図2)から出力する音の音声データ
及び又は「目」のLEDに与える駆動データを生成し、
これらのデータをロボティック・サーバ・オブジェクト
32のバーチャル・ロボット33及び信号処理回路14
(図2)を順次介して対応するアクチュエータ25
25又はスピーカ24又はLEDに順次送出する。
The signal processing modules 61 to 6
7, given the behavior command based on the action command, and servo command value to be applied to the actuator 25 1 to 25 n (Fig. 2) corresponding to perform that action, the output from the speaker 24 (FIG. 2) Generating sound data of the sound to be played and / or driving data to be given to the LED of the “eye”,
These data are transferred to the virtual robot 33 of the robotic server object 32 and the signal processing circuit 14.
The corresponding actuators 25 1 to 25 1 through (FIG. 2)
25n or the speaker 24 or the LED.

【0068】このようにしてロボット装置1において
は、制御プログラムに基づいて、自己(内部)及び周囲
(外部)の状況や、使用者からの指示及び働きかけに応
じた自律的な行動を行うことができるようになされてい
る。
In this way, the robot apparatus 1 can perform autonomous actions according to its own (internal) and surrounding (external) conditions and instructions and actions from the user based on the control program. It has been made possible.

【0069】(3)ロボット装置の情報の学習 上述したロボット装置は、対話相手されるユーザを識別
して、識別したユーザが高い評価をする動作を学習し、
ユーザに関して入力された情報から学習結果に基づいて
ユーザを識別して、学習した評価の高い動作を、識別し
た対話相手に応じて表出することができる。
(3) Learning of Information of Robot Apparatus The above-described robot apparatus identifies a user to be interacted with, and learns an operation in which the identified user gives a high evaluation.
The user can be identified based on the learning result from the information input about the user, and the learned highly evaluated operation can be expressed according to the identified conversation partner.

【0070】具体的には、ロボット装置は、ユーザに関
して入力される情報として、飼い主(ユーザ)の顔(画
像情報)と音声(音響情報)を学習する。ユーザの顔に
ついては、図2に示すCCDカメラ20により入力され
て、信号処理回路14等により信号処理して得た撮像画
像情報を用いる。また、ユーザの声については、図2に
示すマイクロホン23により入力されて、信号処理回路
14等により信号処理して得た音声情報(或いは音響情
報)を用いる。また、ユーザが高い評価を動作として
は、ユーザから褒められる動作或いは褒められた動作等
が挙げられる。
More specifically, the robot device learns the face (image information) and voice (sound information) of the owner (user) as information input about the user. With respect to the user's face, captured image information input by the CCD camera 20 shown in FIG. 2 and signal-processed by the signal processing circuit 14 or the like is used. For the user's voice, voice information (or acoustic information) input by the microphone 23 shown in FIG. 2 and obtained by signal processing by the signal processing circuit 14 or the like is used. In addition, examples of the operation in which the user has a high evaluation include an operation praised by the user or an operation praised by the user.

【0071】このような学習による動作の制御を、ロボ
ット装置は、ユーザに関して入力された情報を学習する
ユーザ識別学習工程と、評価の高い動作を学習する動作
学習工程と、ユーザに関して入力された情報からユーザ
識別学習工程における学習結果に基づいてユーザを識別
して、動作学習工程にて学習した評価値の高い動作を、
識別したユーザに応じて表出する動作制御工程とを有し
て、実現している。
The robot controls the operation by such learning. The robot device performs a user identification learning step of learning information input about the user, an operation learning step of learning a highly evaluated operation, and From the user based on the learning result in the user identification learning step, the operation having a high evaluation value learned in the operation learning step is
And an operation control step of displaying an operation according to the identified user.

【0072】そして、このような処理工程をロボット装
置は、モジュール或いはオブジェクトとして構築して実
行している。すなわち、ロボット装置は、このような処
理工程を実現するプログラムにより構築されている学習
モジュール若しくは学習オブジェクト及び動作制御モジ
ュール若しくは動作制御オブジェクトを備えている。ま
た、例えば、このようなプログラムは、ディスク状記録
媒体等に記録されたものとして提供され、或いはいわゆ
るインターネット上において配信されており、ロボット
装置は、そのような媒体を介してプログラムを取り込
み、上述したような処理を実現している。
The robot apparatus constructs and executes such processing steps as modules or objects. That is, the robot device includes a learning module or a learning object and an operation control module or an operation control object that are constructed by a program that realizes such processing steps. Further, for example, such a program is provided as being recorded on a disk-shaped recording medium or the like, or is distributed on the so-called Internet, and the robot apparatus takes in the program via such a medium, and Such processing is realized.

【0073】このようにロボット装置は、ユーザの識別
の学習や動作の学習をしているが、そのような学習手法
としては、例えば、RNN(リカレント型ニューラルネ
ットワーク)の手法等が挙げられる。RNNは、例え
ば、Long Ji Liがその論文「Reinforcement Learning W
ith Hidden States」において提唱しいている学習の一
手法である。
As described above, the robot apparatus learns user identification and motion, and examples of such a learning method include an RNN (Recurrent Neural Network) method. For example, Long Ji Li reported in his paper "Reinforcement Learning W.
ith Hidden States. "

【0074】図9には、RNN100による学習と、学
習されたRNN100の利用例を示している。図9中
(A)は、学習時のRNN100の使用態様を示し、図
9中(B)は、学習後のRNN100の使用態様を示し
ている。
FIG. 9 shows an example of learning by the RNN 100 and use of the learned RNN 100. (A) in FIG. 9 illustrates a use mode of the RNN 100 during learning, and (B) in FIG. 9 illustrates a use mode of the RNN 100 after the learning.

【0075】図9中(A)に示すように、学習時におい
て、RNN100に学習する対象の情報とされる学習情
報が入力される。これに対応して、RNN100は、そ
の学習情報に対応される対応データの出力をする。この
対応データは、いわゆる教示データ或いは目標データと
して把握されるものである。
As shown in FIG. 9A, at the time of learning, learning information to be learned is input to the RNN 100. In response, the RNN 100 outputs corresponding data corresponding to the learning information. This correspondence data is grasped as so-called teaching data or target data.

【0076】このようなRNN100による学習によ
り、学習情報に対応データが対応されるようになる。す
なわち、学習後においては、図9中(B)に示すよう
に、学習後のRNN100にある情報を入力することに
より、あるデータが出力されるようになるが、入力され
る情報が予め学習した学習情報である場合には、それに
対応する対応データ(教示データ或いは目標データ)が
同一或いは近似の値として出力されるようになる。よっ
て、このようなRNN100の学習により、例えば、あ
る情報をRNN100に入力させることにより、出力さ
れるデータ(対応データ)に応じて、その入力された情
報の特徴を知ることができる。
The learning by the RNN 100 causes the corresponding data to correspond to the learning information. That is, after learning, as shown in FIG. 9B, by inputting certain information to the RNN 100 after learning, certain data is output, but the input information is learned in advance. If the information is learning information, corresponding data (teaching data or target data) corresponding to the learning information is output as an identical or approximate value. Therefore, by learning the RNN 100, for example, by inputting certain information to the RNN 100, it is possible to know the characteristics of the input information according to the output data (corresponding data).

【0077】図10には、RNN100の構成例を示し
ている。この図10に示すように、RNN100は、入
力層100、中間層100及び出力層100を有
している。入力層100、中間層100及び出力層
100は、所定の数のニューロンを有し、各層間の各
ニューロンが接続されている。そして、各ニューロン
は、所定の重み係数を記憶している。
FIG. 10 shows a configuration example of the RNN 100. As shown in this FIG. 10, RNN100 includes an input layer 100 1, the intermediate layer 100 2 and the output layer 100 3. The input layer 100 1 , the intermediate layer 100 2, and the output layer 100 3 have a predetermined number of neurons, and each neuron in each layer is connected. Each neuron stores a predetermined weight coefficient.

【0078】このように構成されているRNN100に
おいて、入力層100の各ニューロンに学習情報が入
力される。入力層100に入力された学習情報は、中
間層100を介して、出力層100から出力され
る。出力層100から出力されるデータが学習情報に
対応されるデータとなる。
[0078] In RNN100 configured in this manner, the learning information is input to the neurons of the input layer 100 1. Learning information input to the input layer 100 1, through the intermediate layer 100 2 is outputted from the output layer 100 3. Data outputted from the output layer 100 3 is data corresponding to the learning information.

【0079】学習時には、各ニューロンは、入力に対し
て重み係数を乗算して、出力側の層の接続されている他
のニューロンに出力している。学習により、ニューロン
は、RNN100に入力される情報に応じて、所定の値
を出力するようになる。また、出力層100における
所定のニューロンの出力の一部は、コンテクスト(cont
ext)Ct+1として、入力層100のニューロンに
フィードバックされる。
At the time of learning, each neuron multiplies an input by a weighting coefficient and outputs the result to another neuron connected to the layer on the output side. By the learning, the neuron outputs a predetermined value according to the information input to the RNN 100. Also, part of the output of a given neuron in the output layer 100 3, context (cont
As ext) C t + 1, is fed back to the input layer 100 1 neuron.

【0080】このようにして、学習時には、RNN10
0は、現在の時刻(ステップ)tでの学習情報を入力
し、次の時刻t+1の情報としての対応データを予測し
て出力し、学習情報の入力に対して、所定の対応データ
を出力することができるようになる。
Thus, at the time of learning, the RNN 10
0 inputs learning information at the current time (step) t, predicts and outputs corresponding data as information at the next time t + 1, and outputs predetermined corresponding data in response to the input of learning information. Will be able to do it.

【0081】本実施の形態では、ロボット装置によりこ
のような学習を実現させており、学習情報が、ユーザの
声情報(音声情報)や顔情報(画像情報)とされる。ま
た、入力される学習情報及び出力される対応データのデ
ータ形式は、具体的には、ベクトル形式とされている。
例えば、ベクトルデータとして扱うことにで、特徴空間
における特徴量として学習情報や対応データを特定でき
るようになる。
In the present embodiment, such learning is realized by the robot device, and the learning information is voice information (voice information) and face information (image information) of the user. Further, the data format of the input learning information and the output corresponding data is, specifically, a vector format.
For example, by treating as vector data, learning information and corresponding data can be specified as a feature amount in a feature space.

【0082】このように、RNNを使用した学習によ
り、学習後は、RNNに情報を入力することで、RNN
が学習に基づいて、あるデータを出力するようになる。
すなわち、RNNは、ある情報の入力に対して、その出
力として、その特徴を示すあるベクトルデータとしての
データを出力するようになる。
As described above, by learning using the RNN, after learning, information is input to the RNN, so that the RNN is used.
Output certain data based on learning.
That is, in response to input of certain information, the RNN outputs, as its output, data as certain vector data indicating its characteristics.

【0083】さらに、実施の形態では、学習後のRNN
を利用して、その逆の操作により情報を得ている。すな
わち、学習後のRNNを利用して、今度は、そのような
特徴を示すデータを入力として、ある情報を特定してい
る。具体的には、図11中(A)に示したようにある学
習情報により学習がなされたRNN100から、図11
中(B)に示すように、新たなRNNを生成して、その
新たなRNN110を使用して、対応データから学習情
報を特定する。
Further, in the embodiment, the RNN after learning is
And the information is obtained by the reverse operation. That is, using the RNN after learning, this time, certain information is specified by inputting data indicating such characteristics. Specifically, as shown in (A) of FIG.
As shown in the middle (B), a new RNN is generated, and learning information is specified from the corresponding data using the new RNN 110.

【0084】ここで、学習後のRNN100から新たに
生成するRNN110は、いわゆるインバースRNN
(Inverse-RNN、RNN−1)110であり、いわゆ
るインバースフォーワード(Inverse-Forward)を利用
して情報を特定することを可能とするものである。
Here, the RNN 110 newly generated from the RNN 100 after learning is a so-called inverse RNN.
(Inverse-RNN, RNN −1 ) 110, which enables information to be specified using a so-called inverse-forward.

【0085】以上のように、RNNにより情報を学習す
ることができ、学習したRNNを利用して種々の情報を
得ることができる。ロボット装置は、このような学習手
法が適用されることにより、ユーザ(飼い主)の顔及び
声を識別して、ユーザから褒められたいときのパフォー
マンスを学習することを実現している。そして、ロボッ
ト装置は、褒められたいときに、学習して得たパフォー
マンスを特定して実行することができるようになされて
いる。次に、このような動作を実現するためのロボット
装置におけるより具体的な処理について説明する。
As described above, information can be learned by the RNN, and various information can be obtained by using the learned RNN. By applying such a learning method, the robot device identifies the face and voice of the user (owner) and realizes the performance when the user wants to be praised. The robot apparatus can identify and execute the performance obtained by learning when it is desired to be praised. Next, more specific processing in the robot apparatus for realizing such an operation will be described.

【0086】(3−1)学習によるユーザのモデル化及
び学習モデルを利用したユーザの識別 (3−1−1)学習によるユーザのモデル化 図12には、学習時のRNN100、すなわち、学習情
報として、センサ情報Pt、音声情報(ユーザの声の情
報)S及び画像情報(ユーザの顔の情報)F の入力
がされ、対応してその出力Bt+1をするRNN100
を示している。
(3-1) Modeling and User Modeling by Learning
(3-1-1) Modeling of User by Learning FIG. 12 shows RNN 100 during learning, that is, learning information.
As information, sensor information Pt, voice information (information of the voice of the user)
Report) StAnd image information (user face information) F tInput
And the corresponding output Bt + 1RNN100 to do
Is shown.

【0087】ここで、センサ入力情報Pは、例えば、
従来型のセンサ入力情報であって、具体的には、ロボッ
ト装置1の外部環境の情報や内部状態を示す情報であ
る。このようなセンサ入力情報Pや上述の音声情報S
及び画像情報Fは、時系列の入力シーケンスとして
のベクトルデータとしてRNN100に入力される。ま
た、このような入力に対して出力されるデータBt+1
は、特徴シーケンスとしてベクトルデータ{B(1),
B(2),・・・,B(n)}である。なお、ベクトル
データについて、{B,B,・・・,B}との記
述は、上述の{B(1),B(2),・・・,B
(n)}との記述と同義である。
Here, the sensor input information Pt is, for example,
This is conventional sensor input information, specifically, information on the external environment and information indicating the internal state of the robot apparatus 1. Such sensor input information Pt and the above-described audio information S
t and image information F t is input to RNN100 as vector data as input sequence of time series. Also, data B t + 1 output for such an input
Are vector data {B (1),
B (2),..., B (n)}. Note that the description of the vector data as {B 1 , B 2 ,..., B n } is based on the above {B (1), B (2),.
(N) It is the same as the description of}.

【0088】このようなセンサ入力情報P,音声情報
及び画像情報Fを入力した学習によってRNN1
00により特定される特徴シーケンスとされるデータB
t+ に基づいてユーザの特徴を確定して、モデル化し
たユーザ(以下、ユーザモデルという。)Muser
得られる。例えば、ユーザモデルMuserは、ベクト
ルデータBt+1によって、特徴空間上で特定されるも
のとなる。すなわち、特定のユーザを示す情報をなすセ
ンサ入力情報P,音声情報S及び画像情報Fの学
習によって、そのユーザの特徴を示す指標となるユーザ
モデルMuse が得られる。
[0088] RNN1 by learning entered such a sensor input information P t, audio information S t and the image information F t
Data B as a feature sequence specified by 00
The characteristics of the user are determined based on t + 1 , and a modeled user (hereinafter, referred to as a user model) M user is obtained. For example, the user model M user is specified on the feature space by the vector data B t + 1 . That is, the sensor input information P t forming information describing a specific user, by learning audio information S t and the image information F t, the user model M use r as an index indicating characteristics of the user are obtained.

【0089】(3−1−2)学習モデルを利用したユー
ザの識別 上述したように、RNN100を利用して、ユーザをデ
ータとしてモデル化することができる。RNN100を
利用したユーザの識別では、学習により特定したユーザ
モデルMuserを利用して、ユーザの識別をする。図
13には、ユーザを学習した後のRNN100と、ユー
ザモデルMuserとを使用して行うユーザの認識を示
している。具体的には、次のようにユーザの識別がなさ
れる。
(3-1-2) Identification of User Using Learning Model As described above, the user can be modeled as data using the RNN 100. In the identification of a user using the RNN 100, the user is identified using a user model M user specified by learning. FIG. 13 shows recognition of the user performed using the RNN 100 after learning the user and the user model M user . Specifically, the user is identified as follows.

【0090】学習後のRNN100に対して、識別対象
とするユーザの情報として、上述した学習時の学習情報
の入力形式と同様な情報を入力する。すなわち、RNN
100への入力は、センサ入力情報P、音声情報S
及び画像情報Fである。そして、RNN100は、こ
のような入力に対応してデータBt+1を出力する。こ
こで、データBt+1のデータ形式は、学習時のデータ
形式と同様に、ベクトルデータ{B(1),B(2),
・・・,B(n)}である。
The information similar to the above-described learning information input format at the time of learning is input to the RNN 100 after learning as the information of the user to be identified. That is, RNN
The input to 100 is sensor input information P t , voice information St
And an image information F t. Then, the RNN 100 outputs data Bt + 1 in response to such an input. Here, the data format of the data Bt + 1 is the same as the data format at the time of learning, and the vector data {B (1), B (2),
.., B (n)}.

【0091】そして、このようにして得られるデータB
t+1と、ベクトルデータからなるユーザモデルM
userとを照合し比較して、差分を得る。この差分に
基づいて、入力された情報が、ユーザの特定がなされ
る。すなわち、この差分Errが、所定の閾値α以下で
ある場合には、予め学習しているユーザとして判断し、
一方で、その差分Errが所定の閾値αより大きい場合
には、予め学習したユーザとは別人であると判断し、入
力された情報に基づいてユーザを識別する。
The data B thus obtained is
t + 1 and user model M composed of vector data
Compare and compare with user to get difference. Based on the difference, the input information identifies the user. That is, when the difference Err is equal to or smaller than the predetermined threshold α, it is determined that the user has learned in advance,
On the other hand, when the difference Err is larger than the predetermined threshold α, it is determined that the user is different from the user who has learned in advance, and the user is identified based on the input information.

【0092】以上のように、RNNにより、ユーザの識
別に使用するユーザについての情報を学習して、そして
学習結果として得たユーザに対応されるユーザモデルM
us erに基づいて、ユーザを識別することができる。
As described above, the information about the user used for user identification is learned by the RNN, and the user model M corresponding to the user obtained as the learning result is obtained.
Based on us er, it is possible to identify the user.

【0093】(3−2)褒められる行動の学習及び学習
した行動の表出 (3−2−1)褒められる行動の学習 ユーザに褒められたときに表出させる動作の学習につい
て説明する。図14には、学習時のRNN100、すな
わち、学習情報として、パフォーマンスシーケンスA
が入力され、対応してその出力Bt+1をするRNN1
00を示している。
(3-2) Learning of Actions to be Praised and Expression of Learned Actions (3-2-1) Learning of Behaviors to Be Praised Learning of actions to be expressed when the user is praised will be described. FIG. 14 shows an RNN 100 at the time of learning, that is, a performance sequence A t as learning information.
RNN1 correspondingly outputs its output B t + 1
00 is shown.

【0094】ここで、パフォーマンスシーケンスA
は、ロボット装置が表出する所定の行動と対応付けさ
れている。パフォーマンスシーケンスAに対応付けさ
れる行動が、ユーザに褒められたときの行動となる。例
えば、パフォーマンスシーケンスAに対応付けされる
行動としては、いわゆる「お座り」等の動作或いは姿勢
が挙げられる。また、このパフォーマンスシーケンスA
は、ベクトルデータ{A(1),A(2),・・・,
A(n)}として構成されている。
Here, the performance sequence A
t is associated with a predetermined action expressed by the robot device. Actions are associated with the performance sequence A t is the action when the compliments the user. For example, the action to be associated with a performance sequence A t, operation or attitude such as the so-called "Sitting" and the like. The performance sequence A
t is vector data {A (1), A (2),.
A (n)}.

【0095】学習時に、パフォーマンスシーケンスA
がRNN100に入力され、それに対応してデータB
t+1が出力される。ここで、データBt+1は、シー
ケンスデータであって、ベクトルデータ{B(1),B
(2),・・・,B(n)}である。
[0095] at the time of learning, performance sequence A t
Is input to the RNN 100, and the data B
t + 1 is output. Here, data Bt + 1 is sequence data, and vector data {B (1), B
(2),..., B (n)}.

【0096】そして、パフォーマンスシーケンスA
を、褒められたときの行動を示すデータであることを
前提としてRNN100に入力させて学習することによ
り、出力されるデータBt+1は、褒められたときの行
動の特徴を示す特徴データ(或いは特徴シーケンス)を
示すものとなる。
Then, the performance sequence A
t is input to the RNN 100 and learned assuming that the data indicates the behavior when praised, the output data B t + 1 is the feature data (or the characteristic data indicating the characteristic of the behavior when praised) Characteristic sequence).

【0097】(3−2−2)インバースRNNを用いた
学習した行動の表出 上述したように、褒められたときの行動がRNNにより
学習することができる。そして、ロボット装置は、その
ようにして学習した行動を、学習してRNNを利用して
表出させることができる。具体的には、次のようにし
て、学習後のRNNを利用して行動を表出させる。
(3-2-2) Expression of Behavior Learned Using Inverse RNN As described above, the behavior when praised can be learned by the RNN. Then, the robot device can learn the behavior learned in this manner and express it using the RNN. Specifically, an action is expressed using the RNN after learning as follows.

【0098】先ず、図11を用いて説明したように、褒
められたいときに表出させる行動を学習したRNN10
0から、インバースフォーワード(Inverse-Forward)
を用いてその行動シーケンスを特定することが可能な、
いわゆるインバースRNN(Inverse-RNN、RNN
−1)110を生成する。
First, as described with reference to FIG. 11, the RNN 10 that has learned the action to be expressed when a praise is desired.
From 0, Inverse-Forward
It is possible to specify the action sequence using
So-called Inverse-RNN (Inverse-RNN, RNN)
-1 ) 110 is generated.

【0099】図15には、シーケンスBt+1が入力と
され、対応してパフォーマンスシーケンスAを出力す
るインバースRNN110を示している。ここで、シー
ケンスBt+1の入力に対応して出力されるパフォーマ
ンスシーケンスAはベクトルデータ{A(1),A
(2),・・・,A(n)}とされている。なお、ベク
トルデータについて、{A,A,・・・,A}と
の記述は、上述の{A(1),A(2),・・・,A
(n)}との記述と同義である。
[0099] Figure 15 is a sequence B t + 1 is the input indicates the inverse RNN110 outputting performance sequence A t correspond. Here, the performance sequence A t is the vector data {A outputted in response to an input sequence B t + 1 (1), A
, A (n)}. Note that the description of vector data as {A 1 , A 2 ,..., A n } is based on the above-described {A (1), A (2),.
(N) It is the same as the description of}.

【0100】これにより、シーケンスBt+1をインバ
ースRNN110に入力させることにより、褒められた
い動作を示すデータとされるパフォーマンスシーケンス
が出力されるようになる。そして、そのようなパフ
ォーマンスシーケンスAに基づいて、ロボット装置
は、対応付けされている「お座り」等といったユーザに
褒められる動作を実際に表出させる。
[0100] Accordingly, by inputting the sequence B t + 1 to the inverse RNN110, performance sequence A t which is data indicating an operation to be compliments is to be outputted. Then, based on such performance sequence A t, robotic device to actually expose the operation praised the user such association has been that "Sitting", and the like.

【0101】このように、ロボット装置は、ユーザに褒
められたいと思うタイミングにおいて、学習後のRNN
100から得たインバースRNN110に、RNN10
0による学習の際に得たシーケンスBt+1を入力させ
ることで、ユーザに褒められる動作を表出することがで
きるようになる。
As described above, the robot apparatus learns the RNN at the timing when the user wants to be praised.
Inverse RNN 110 obtained from 100, RNN 10
By inputting the sequence Bt + 1 obtained at the time of learning using 0, an operation praised by the user can be expressed.

【0102】(3−3)所定のユーザに対して褒められ
たいときのパフォーマンスシーケンスの特定 ここでは、所定のユーザを識別して、褒められる動作を
表出させるまでの処理手順の概略を示している。図16
には、その手順を示している。
(3-3) Identification of Performance Sequence when Prescribed User is Praised Here, an outline of a processing procedure for identifying a prescribed user and expressing an operation to be praised will be described. I have. FIG.
Shows the procedure.

【0103】先ず、ステップS1として、事前に所定の
ユーザを識別するためのRNNによる学習を行う。所定
のユーザの識別のための学習は、図12を用いて説明し
た手順によって実現される。すなわち、ここにおける学
習により、所定のユーザに対応されるユーザモデルM
userを得ることができる。
First, as step S1, learning by an RNN for identifying a predetermined user is performed in advance. Learning for identifying a predetermined user is realized by the procedure described with reference to FIG. That is, by learning here, the user model M corresponding to the predetermined user
You can get a user .

【0104】そして、ステップS2として、ユーザモデ
ルMuserに基づいて、ユーザを識別する処理を行
う。すなわち、図13を用いて説明した処理であり、識
別対象とされる人間の情報を学習後のRNNに入力し
て、それによって得られるRNNからの出力とを、ユー
ザモデルMuserとを比較して、差分Errを得る。
そして、この差分Errが、所定の閾値以下である場合
には、当該RNNによって学習されている所定のユーザ
である判断して、所定の閾値を超えている場合には、学
習されたユーザではないと判断する。或いは、例特徴空
間において、RNNからの出力が、ベクトルデータとし
て把握されるユーザモデルMuserに対して所定の要
件を満たす値であれば、所定のユーザとして特定すると
いうこととしても良い。
Then, as step S2, a process for identifying a user is performed based on the user model M user . That is, this is the process described with reference to FIG. 13, in which the information of the human being to be identified is input to the RNN after learning, and the output from the RNN obtained thereby is compared with the user model M user. To obtain the difference Err.
If the difference Err is equal to or smaller than a predetermined threshold, it is determined that the user is a predetermined user learned by the RNN. If the difference Err exceeds the predetermined threshold, the user is not a learned user. Judge. Alternatively, in the example feature space, if the output from the RNN is a value that satisfies predetermined requirements for the user model M user grasped as vector data, it may be specified as a predetermined user.

【0105】一方で、ステップS3において、褒められ
たときを特定して、RNNによる学習を行っている。褒
められる動作の学習は、図14を用いて説明した手順に
よって実現される。そして、図15を用いて説明したよ
うに、学習後のRNNからインバースRNNを生成し、
ステップS4において、インバースRNNに、動作表出
のためのシーケンスBt+1を入力する。具体的には、
ステップS2において識別したユーザに対応されるシー
ケンスBt+1を入力する。例えば、ロボット装置にお
いて、ユーザとシーケンスBt+1を対応させてテーブ
ルとして記憶されており、このようなテーブルを参照し
て、識別したユーザに対応されるシーケンスBt+1
特定する。このようなユーザとシーケンスBt+1との
対応付けについては、図17に示すように、ユーザを識
別するための学習時におけるRNNの出力とされるユー
ザの特徴を示すユーザ特徴シーケンスと、褒められる動
作の学習時におけるRNNの出力とされる動作の特徴を
示す動作特徴シーケンスとを関連付けすることになされ
る。
On the other hand, in step S3, when the praise is specified, learning by the RNN is performed. The learning of the action to be praised is realized by the procedure described with reference to FIG. Then, as described with reference to FIG. 15, an inverse RNN is generated from the RNN after learning,
In step S4, a sequence Bt + 1 for expressing an operation is input to the inverse RNN. In particular,
The sequence Bt + 1 corresponding to the user identified in step S2 is input. For example, in the robot apparatus, a user is associated with a sequence Bt + 1 and stored as a table, and by referring to such a table, a sequence Bt + 1 corresponding to the identified user is specified. As shown in FIG. 17, associating such a user with the sequence Bt + 1 , as shown in FIG. 17, a user feature sequence indicating the feature of the user as an output of the RNN at the time of learning for identifying the user, and a praised operation Is associated with an operation feature sequence indicating the feature of the operation as an output of the RNN at the time of learning.

【0106】ステップS5では、識別したユーザに関連
付けされるものとして特定したシーケンスBt+1を、
インバースRNNに入力させて、所定のパフォーマンス
シーケンスAを特定する。そして、ロボット装置は、
このような所定のパフォーマンスシーケンスAに対応
する動作の「お座り」等の行動(Action)を表出させ
る。
In step S5, the sequence B t + 1 specified as being associated with the identified user is
By input to the inverse RNN, identifies the predetermined performance sequence A t. And the robot device is
Such a predetermined operation corresponding to the performance sequence A t of "Sitting" and the like behavior (Action) to expose the.

【0107】以上のような処理は、ロボット装置が褒め
られたいときに実行されるものであるが、例えば、この
ような褒められようとする動作の表出させるための処理
を実行開始するタイミングについては、そのようなタイ
ミングを得ることができるモデル(例えば、モジュール
或いはオブジェクト)をもつことにより実現する。すな
わち例えば、ロボット装置は、上述したように、モチベ
ーションを高めるモデルとして褒められるタイミングを
規定するモデルを有して、このモデルが所定のレベルに
達したときに褒められたい動作を表出させるための処理
を実行するようにする。
The above-described processing is executed when the robot apparatus wants to be praised. For example, the timing at which the processing for displaying such an operation to be praised is started. Is realized by having a model (for example, a module or an object) capable of obtaining such timing. That is, for example, as described above, the robot device has a model that defines the timing of being praised as a model for increasing motivation, and for expressing an operation to be praised when this model reaches a predetermined level. Execute the process.

【0108】以上のように、ロボット装置は、ユーザ
(飼い主)の顔と音声とを識別して、RNN手法に基づ
いて、飼い主から褒められたいときに出現させる動作
(パフォーマンス)を学習する。そして、ロボット装置
が飼い主から褒められたいとき、インバースRNNを用
いて、そのパフォーマンスを実行する。これにより、例
えば、ユーザは、ロボット装置が褒められるために気を
引こうとしている動作を見て嬉しく思い、また、ロボッ
ト装置自身も褒められれば気分が良くなり、例えば、性
格も良くなり、モチベーションも高くなる。ロボット装
置は、上述したように、ユーザ等の対話において性格が
変化する感情モデルを有しており、褒められるための動
作結果を性格に影響させることができるため、さらに娯
楽性が増す。このように、ロボット装置は、学習能力を
向上されたものとなり、さらに、これにより、娯楽性が
向上されたものとなる。
As described above, the robot device recognizes the face and voice of the user (owner), and learns the operation (performance) to appear when the owner wants to praise, based on the RNN method. Then, when the owner wants to be praised by the owner, the performance is executed using the inverse RNN. Thereby, for example, the user is delighted to see the operation that the robot device is trying to pay attention to to be praised. Will also be higher. As described above, the robot device has the emotion model whose character changes in the dialogue of the user or the like, and can affect the character of the operation result to be praised, thereby further increasing the entertainment. In this way, the robot device has an improved learning ability, and further has an improved entertainment.

【0109】(3−4)RNNによる学習の具体例 例えば、RNNについての入力データ(ここでは、
,F,S,C,θ)と出力データ(予測値)
t+1との間の関係は、(3)式のように示すことが
できる。すなわち、RNNを(3)式に示すような関数
NNにより示すことができる。ここで、Bt+1,P
,θは、それぞれ(4)式〜(6)式として示す。ま
た、θは、RNNを構成するユニット(ニューロン)の
バイアス値である。
(3-4) Specific Example of Learning by RNN For example, input data on RNN (here,
Pt , Ft , St , Ct , θ) and output data (predicted value)
The relationship with B t + 1 can be expressed as in equation (3). That it can be shown by a function R NN as shown in the RNN (3) expression. Where B t + 1 , P
t and θ are shown as Expressions (4) to (6), respectively. Θ is a bias value of a unit (neuron) constituting the RNN.

【0110】[0110]

【数3】 (Equation 3)

【0111】[0111]

【数4】 (Equation 4)

【0112】[0112]

【数5】 (Equation 5)

【0113】[0113]

【数6】 (Equation 6)

【0114】このように、出力データBt+1は、入力
データP,F,S,C,θを変数とする関数R
NNによって得ることができることがわかる。ここで、
以下のような仮説を立てる。例えば、(7)式を利用し
て、仮説を立てる。(7)式は、いわゆるメンバーシッ
プ関数或いはシグモイド関数と言われるものである。
As described above, the output data B t + 1 is a function R with the input data P t , F t , S t , C t , and θ as variables.
It can be seen that it can be obtained by NN . here,
I make the following hypothesis. For example, a hypothesis is made using equation (7). Equation (7) is a so-called membership function or sigmoid function.

【0115】[0115]

【数7】 (Equation 7)

【0116】ここで、図18に示すように、RNNを構
成するニューロンとして把握されるユニットjについて
考える。このユニットには、nj,1(t),・・・,
,Nj(t)が入力されており、ユニットは、この
入力に対して、oj,1(t),・・・,o
j,Lj(t)を出力する。このような関係は、(8)
式として示される。(8)式において、W1,1,・・
・,WNj,Ljは、重み係数である。そして、(8)
式は、(9)式として示すこともできる。
Here, as shown in FIG. 18, consider a unit j which is grasped as a neuron constituting the RNN. This unit has n j, 1 (t), ...,
n j , Nj (t) are input, and the unit responds to this input by using o j, 1 (t),.
j, Lj (t) is output. Such a relationship is (8)
It is shown as an equation. In equation (8), W 1,1 ,.
, W Nj and Lj are weighting factors. And (8)
The equation can also be expressed as equation (9).

【0117】[0117]

【数8】 (Equation 8)

【0118】[0118]

【数9】 (Equation 9)

【0119】ここで、(9)式の左辺を、(10)式の
ような左辺として仮定する。すなわち、ユニットからの
出力値oj,iを、RNNへの実際の入力とされるデー
タt,P,F,S,Cの関数として与えられる
と仮定する。そして、(10)式及び上述の(7)式の
関係から(11)式を得る。(11)式は、入力に対し
て所定のデータを出力するRNNを定義するものとな
る。
Here, it is assumed that the left side of equation (9) is the left side as in equation (10). That is, it is assumed that the output value o j, i from the unit is given as a function of the data t, P t , F t , S t , and C t that are the actual inputs to the RNN. Then, Expression (11) is obtained from the relationship between Expression (10) and Expression (7). Equation (11) defines an RNN that outputs predetermined data in response to an input.

【0120】[0120]

【数10】 (Equation 10)

【0121】[0121]

【数11】 [Equation 11]

【0122】次に以上のような式により把握されるRN
Nによる学習を数式を用いて説明する。RNNへの入力
データは、(12)式に示すようにベクトルデータ(或
いはシーケンスデータ)として示すことができる。
Next, RN grasped by the above equation
The learning using N will be described using mathematical expressions. The input data to the RNN can be represented as vector data (or sequence data) as shown in equation (12).

【0123】[0123]

【数12】 (Equation 12)

【0124】例えば、このベクトルデータの元A,A
,・・・A,・・・,Aはそれぞれ、(13)式
に示すように、音声情報Sや画像情報Fによって特
定される値になる。なお、元をなす音声情報Sや画像
情報Fは特徴量としてのデータである。
For example, the elements A 1 , A
2, ··· A t, ···, A n , respectively, as shown in (13), a value specified by the speech information S t and the image information F t. Note that the original audio information St and image information Ft are data as feature amounts.

【0125】[0125]

【数13】 (Equation 13)

【0126】この場合、RNNへの入力に対応して、ベ
クトルデータBt+1が出力されるが、このベクトルデ
ータBt+1の元についても、(14)式に示すよう
に、音声情報St+1や画像情報Ft+1を特定する値
となる。
In this case, the vector data B t + 1 is output in response to the input to the RNN. The source of the vector data B t + 1 is also expressed by the audio information St + 1 and the image data B t + 1 as shown in the equation (14). The value specifies information Ft + 1 .

【0127】[0127]

【数14】 [Equation 14]

【0128】図19には、学習時のRNNへのデータ
{A,A,・・・,A}の入力と、それに対応さ
れる出力データ{B,B,・・・,B}の出力を
示している。例えば、ユーザの声及び顔を学習する場合
には、図20に示すように、時系列データとして入力さ
れる画像情報F及び音声情報Sを元とするベクトル
データ{A,A,・・・,A}がRNNに入力さ
れる。
FIG. 19 shows the input of data {A 1 , A 2 ,..., A n } to the RNN during learning and the corresponding output data {B 1 , B 2 ,. B n }. For example, in the case of learning the user's voice and face, FIG as shown in 20, when the vector data {A 1 to the original image information F t and audio information S t which is input as a series data, A 2, .., A n } are input to the RNN.

【0129】ここで、元をなす画像情報Fについて
は、撮像して得られる連続した撮像画像の1枚1枚から
特徴量を検出して、その特徴量が画像情報Fとされ
る。また、音声情報Sについては、マイク等により得
られる連続した音声信号から、例えば、所定のインター
バルによるサンプリングによりそれぞれから特徴量を検
出して、その特徴量が音声情報Sとされる。これによ
り、例えば、「お座り」といった際の各時点の音声の特
徴量と、その際に変化するユーザの顔の各時点の特徴量
とが元をなすデータの時系列からなるベクトルデータ
{A,A,・・・,A}を得ることができる。こ
のように、ベクトルデータAの元A,A,・・
・,Aはそれぞれ、学習時に時系列データとして画像
情報F及び音声情報Sのそれぞれの時点における特
徴を示すデータとなる。このようなベクトルデータA
を入力として、RNNにより学習した場合、関数RNN
を用いると、入力データAと出力データBt+1との
関係は、(15)式として示すことができる。
[0129] Here, the image information F t constituting the original, and detecting the feature quantity from one single continuous captured images obtained by capturing, the characteristic amount is an image information F t. Also, the audio information S t, from a continuous speech signal obtained by the microphone or the like, for example, by detecting a feature from each by sampling by a predetermined interval, the feature amount is the audio information S t. Thus, for example, vector data {A composed of a time series of data based on the feature amount of the voice at each time point such as “sitting” and the feature amount at each time point of the user's face changing at that time. 1, a 2, can be obtained., the a n}. Thus, based on A 1, A 2 of the vector data A t, · ·
·, A n are each a data indicating a feature of each time point of the image information F t and audio information S t as time-series data at the time of learning. Such a vector data A t
As input, if learned by RNN, function R NN
With the relationship between the input data A t and the output data B t + 1 can be expressed as (15).

【0130】[0130]

【数15】 (Equation 15)

【0131】ここで、関数RNNのパラメータとされる
W及びθについては、Wは、RNNのニューロン(ユニ
ット)が保持する重み係数であり、θは、そのようなニ
ューロン(ユニット)のバイアス値である。データA
を学習することによって、このような重み係数Wやバイ
アス値θは、重み係数Wやバイアス値θとして決定
される。ここで、学習によって得られる重み係数W
バイアス値θは、ベクトルデータ{A,A,・・
・,A}によって定められるのであり、このようなこ
とから、重み係数Wやバイアス値θは、(16)式
及び(17)式として与えることができる。
[0131] Here, the W and theta are the parameters of the function R NN, W is a weighting factor RNN of neurons (units) holds, theta, such bias value of the neuron (units) It is. Data A t
Is learned, such weighting factor W and bias value θ are determined as weighting factor W * and bias value θ * . Here, the weighting coefficient W * and the bias value θ * obtained by learning are represented by vector data {A 1 , A 2 ,.
, A n }, and the weight coefficient W * and the bias value θ * can be given by the equations (16) and (17).

【0132】[0132]

【数16】 (Equation 16)

【0133】[0133]

【数17】 [Equation 17]

【0134】すなわち例えば、「お座り」をユーザが発
した際には、その関数RNNは、重み係数Wやバイア
ス値θを変数として、(18)式として得ることがで
きる。
That is, for example, when the user issues “sitting”, the function RNN can be obtained as equation (18) using the weight coefficient W * and the bias value θ * as variables.

【0135】[0135]

【数18】 (Equation 18)

【0136】そして、このように学習がなされたRNN
からインバースRNNを生成する。このインバースRN
N(関数RNN −1)を使用することにより、図21に
示すように、データ{B’,B’,・・・,
’}を入力することにより、学習時に入力されたデ
ータ{A’,A’,・・・,A’}が出力される
ようになる。
Then, the RNN trained in this way is
To generate the inverse RNN. This inverse RN
By using N (function R NN −1 ), as shown in FIG. 21, data {B 1 ′, B 2 ′,.
By inputting B n ′, data {A ′ 1 , A 2 ′,..., A n ′} input during learning is output.

【0137】例えば、インバースRNN(関数RNN
−1)、入力される値B’、及びそれに対応して出力
される値A’の関係は、(19)式のように示すこと
ができる。
[0137] For example, the inverse RNN (function R NN
−1 ), the input value B t ′, and the output value A t ′ corresponding to the input value B t ′ can be expressed as in equation (19).

【0138】[0138]

【数19】 [Equation 19]

【0139】ここで、出力される値A’と、入力され
る値B’とは、例えば、(20)式及び(21)式の
ように、ユーザの声データ(S或いはS’)や顔デ
ータ(F或いはF’)等によって示される。
[0139] Here, 'and the value B t inputted' values A t to be outputted from, for example, (20) as in equation and equation (21), the user's voice data (S t or S t ') Or face data ( Ft or Ft ').

【0140】[0140]

【数20】 (Equation 20)

【0141】[0141]

【数21】 (Equation 21)

【0142】以上、RNNによる学習工程を、数式を用
いて説明した。このような学習工程により、予めユーザ
からの「お座り」をデータ{A,A,・・・,
}の入力として学習をし、その出力とされる時系列
データ{B,B,・・・,B }を、学習後におい
て、学習後のRNNから得たインバースRNNに入力さ
せることにより、「お座り」に対応して入力したデータ
{A,A,・・・,A }を得ることができるよう
になる。
As described above, the learning process by the RNN uses the mathematical formula.
And explained. By such a learning process, the user
"Sitting" from the data @ A1, A2, ...,
AnTime series of learning as an input of 、 and its output
Data No. B1, B2, ..., B n学習, after learning
Input to the inverse RNN obtained from the RNN after learning.
By inputting the data corresponding to "sitting"
{A1, A2, ..., A nSo that you can get
become.

【0143】そして、このようなデータ{A,A
・・・,A}に、「お座り」の動作の実行を対応付け
しておくことで、学習後のインバースRNNへのデータ
{B ,B,・・・,B}の入力により、ロボット
装置が実際の「お座り」の動作を表出されるようにな
る。
The data {A}1, A2,
... An対 応 付 け is associated with the execution of the “sitting” operation
By doing, the data to inverse RNN after learning
{B 1, B2, ..., BnRobot input by inputting}
The device now displays the actual `` sitting '' behavior
You.

【0144】さらに、学習により得たデータ{B,B
,・・・,B}から得たデータ{A,A,・・
・,A}に基づいて「お座り」の動作を表出させるタ
イミングを、ユーザに褒められたいタイミングとするこ
とにより、ロボット装置は、ユーザに褒められたいとき
に、「お座り」の行動を表出するようになる。
Further, the data {B 1 , B
2, ..., data {A 1 obtained from B n}, A 2, · ·
By setting the timing at which the action of “sitting” is expressed based on A n } as the timing at which the user wants to be praised, the robot apparatus can perform the action of “sit down” when the user wants to be praised. Will be expressed.

【0145】以上のような数式により構築された学習モ
デルを有することで、ロボット装置は、学習により、所
定のユーザを識別して、褒められる動作を表出すること
ができるようになる。
By having the learning model constructed by the above mathematical formulas, the robot device can identify a predetermined user by learning, and can express a praised operation.

【0146】なお、上述の実施の形態では、対話相手が
人間とされるユーザである場合について説明した。しか
し、これに限定されるものではなく、例えば、対話相手
もロボット装置であってもの良い。この場合、学習によ
り、ロボット装置を識別して、その識別したロボット装
置に応じた動作を表出するようにする。
[0146] In the above-described embodiment, a case has been described where the conversation partner is a user assumed to be a human. However, the present invention is not limited to this. For example, the conversation partner may be a robot device. In this case, the robot device is identified by learning, and an operation corresponding to the identified robot device is expressed.

【0147】また、上述の実施の形態では、対話相手に
関して入力される情報を音声情報や画像情報として説明
した。しかし、これに限定されるものではなく、対話相
手の特定できる得る他の情報をロボット装置が対話相手
を識別するための情報にすることもできる。
Further, in the above-described embodiment, information input about a conversation partner has been described as audio information or image information. However, the present invention is not limited to this, and other information that can identify the conversation partner can be used as information for the robot apparatus to identify the conversation partner.

【0148】[0148]

【発明の効果】本発明に係るロボット装置の動作制御方
法は、対話相手を識別させて、識別させた対話相手が高
い評価をする動作を、ロボット装置に学習させる学習工
程と、対話相手に関して入力された情報から学習工程に
おける学習結果に基づいて対話相手を識別して、学習し
た評価の高い動作を、識別した対話相手に応じてロボッ
ト装置により表出させる動作制御工程とを有することに
より、対話相手を識別させて、識別させた対話相手が高
い評価をする動作を、ロボット装置に学習させ、対話相
手に関して入力された情報から学習結果に基づいて対話
相手を識別して、学習した評価の高い動作を、識別した
対話相手に応じてロボット装置により表出させることが
できる。
According to the motion control method for a robot apparatus according to the present invention, a learning step of causing a robot apparatus to learn an operation to evaluate a conversation partner with a high evaluation by identifying the conversation partner, and to input the conversation partner. An operation control step of identifying a conversation partner based on the learning result in the learning step from the obtained information, and expressing a learned high evaluation operation by the robot apparatus according to the identified conversation partner. The robot device is made to learn an operation in which the other party is identified and the identified dialogue partner gives a high evaluation, and the dialogue partner is identified based on the learning result from the information input with respect to the dialogue partner. The movement can be expressed by the robot device according to the identified conversation partner.

【0149】このようなロボット装置の動作制御方法に
より、ロボット装置は、対話相手及びこの対話相手が高
い評価をする動作を学習し、その学習結果に基づいて、
対話相手に応じて評価の高い動作を表出することができ
る。
According to the operation control method of the robot device, the robot device learns the conversation partner and the operation that the conversation partner evaluates highly, and based on the learning result,
Highly evaluated actions can be expressed according to the conversation partner.

【0150】また、本発明に係るプログラムは、対話相
手を識別させて、識別させた対話相手が高い評価をする
動作を、ロボット装置に学習させる学習工程と、対話相
手に関して入力された情報から学習工程における学習結
果に基づいて対話相手を識別して、学習した評価の高い
動作を、識別した対話相手に応じてロボット装置により
表出させる動作制御工程とを実行させることにより、対
話相手を識別させて、識別させた対話相手が高い評価を
する動作を、ロボット装置に学習させ、対話相手に関し
て入力された情報から学習結果に基づいて対話相手を識
別して、学習した評価の高い動作を、識別した対話相手
に応じてロボット装置により表出させることができる。
Further, the program according to the present invention includes a learning step of causing a robot apparatus to learn an operation in which a dialogue partner is identified and the identified dialogue partner gives a high evaluation, and a learning step based on information input with respect to the dialogue partner. A conversation control unit that identifies the conversation partner based on the learning result in the process, and causes the robot apparatus to express the learned highly evaluated operation by the robot device according to the identified conversation partner. Then, the robot device learns the operation that the identified conversation partner evaluates high, and identifies the conversation partner based on the learning result from the information input about the conversation partner, and identifies the learned operation with high evaluation. It can be displayed by the robot device according to the conversation partner.

【0151】このようなプログラムにより動作が制御さ
れるロボット装置は、対話相手及びこの対話相手が高い
評価をする動作を学習し、その学習結果に基づいて、対
話相手に応じて評価の高い動作を表出することができ
る。
A robot apparatus whose operation is controlled by such a program learns a conversation partner and an operation that the conversation partner evaluates highly, and, based on the learning result, performs a movement with a high evaluation according to the conversation partner. Can be revealed.

【0152】また、本発明に係る記録媒体は、対話相手
を識別させて、識別させた対話相手が高い評価をする動
作を、ロボット装置に学習させる学習工程と、対話相手
に関して入力された情報から学習工程における学習結果
に基づいて対話相手を識別して、学習した評価の高い動
作を、識別した対話相手に応じてロボット装置により表
出させる動作制御工程とを実行させるプログラムが記録
されていることにより、対話相手を識別させて、識別さ
せた対話相手が高い評価をする動作を、ロボット装置に
学習させ、対話相手に関して入力された情報から学習結
果に基づいて対話相手を識別して、学習した評価の高い
動作を、識別した対話相手に応じてロボット装置により
表出させることができる。
Further, the recording medium according to the present invention includes a learning step of causing the robot apparatus to learn an operation in which a dialogue partner is evaluated highly by identifying the dialogue partner, and a learning step in which information is input with respect to the dialogue partner. A program is recorded for executing an operation control step of identifying a conversation partner based on a learning result in the learning step and expressing a learned highly evaluated operation by a robot device according to the identified conversation partner. According to this, the robot device is made to learn the operation in which the conversation partner is identified, and the identified conversation partner gives a high evaluation, and the conversation partner is identified based on the learning result from the information input with respect to the conversation partner, and the learning is performed. A highly evaluated operation can be expressed by the robot apparatus according to the identified conversation partner.

【0153】このような記録媒体に記録されているプロ
グラムにより動作が制御されるロボット装置は、対話相
手及びこの対話相手が高い評価をする動作を学習し、そ
の学習結果に基づいて、対話相手に応じて評価の高い動
作を表出することができる。
A robot apparatus whose operation is controlled by a program recorded on such a recording medium learns a conversation partner and an operation that the conversation partner gives a high evaluation, and based on the learning result, gives the conversation partner. Accordingly, a highly evaluated operation can be expressed.

【0154】また、本発明に係るロボット装置は、対話
相手を識別して、識別した対話相手が高い評価をする動
作を学習する学習手段と、対話相手に関して入力された
情報から学習手段の学習結果に基づいて対話相手を識別
して、学習した評価の高い動作を、識別した対話相手に
応じて表出する動作制御手段とを備えることにより、対
話相手を識別して、識別した対話相手が高い評価をする
動作を学習し、対話相手に関して入力された情報から学
習結果に基づいて対話相手を識別して、学習した評価の
高い動作を、識別した対話相手に応じて表出することが
できる。よって、ロボット装置は、対話相手及びこの対
話相手が高い評価をする動作を学習し、その学習結果に
基づいて、対話相手に応じて評価の高い動作を表出する
ことができる。
Further, the robot apparatus according to the present invention identifies the conversation partner, and learns the operation that the identified conversation partner gives a high evaluation, and the learning result of the learning unit from the information input with respect to the conversation partner. And an operation control means for displaying a learned high evaluation operation in accordance with the identified dialogue partner, thereby identifying the dialogue partner and increasing the identified dialogue partner. The operation to be evaluated is learned, the conversation partner is identified based on the learning result from the information input with respect to the conversation partner, and the learned high evaluation operation can be expressed according to the identified conversation partner. Therefore, the robot apparatus can learn the conversation partner and the operation that the conversation partner evaluates high, and can express the highly evaluated operation according to the conversation partner based on the learning result.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態であるロボット装置の外観
構成を示す斜視図である。
FIG. 1 is a perspective view illustrating an external configuration of a robot device according to an embodiment of the present invention.

【図2】上述のロボット装置の回路構成を示すブロック
図である。
FIG. 2 is a block diagram showing a circuit configuration of the robot device described above.

【図3】上述のロボット装置のソフトウェア構成を示す
ブロック図である。
FIG. 3 is a block diagram illustrating a software configuration of the robot device described above.

【図4】上述のロボット装置のソフトウェア構成におけ
るミドル・ウェア・レイヤの構成を示すブロック図であ
る。
FIG. 4 is a block diagram illustrating a configuration of a middleware layer in a software configuration of the robot device described above.

【図5】上述のロボット装置のソフトウェア構成におけ
るアプリケーション・レイヤの構成を示すブロック図で
ある。
FIG. 5 is a block diagram showing a configuration of an application layer in the software configuration of the robot device described above.

【図6】上述のアプリケーション・レイヤの行動モデル
ライブラリの構成を示すブロック図である。
FIG. 6 is a block diagram showing a configuration of the behavior model library of the application layer.

【図7】ロボット装置の行動決定のための情報となる有
限確率オートマトンを説明するために使用した図であ
る。
FIG. 7 is a diagram used to explain a finite probability automaton that is information for determining an action of the robot apparatus.

【図8】有限確率オートマトンの各ノードに用意された
状態遷移表を示す図である。
FIG. 8 is a diagram showing a state transition table prepared for each node of the finite probability automaton.

【図9】RNNによる情報の学習の説明に使用した図で
ある。
FIG. 9 is a diagram used for explaining information learning by the RNN.

【図10】RNNの構造の具体例を示す図である。FIG. 10 is a diagram showing a specific example of the structure of an RNN.

【図11】RNNからインバースRNN(RNN−1
を生成して行う学習の説明に使用した図である。
FIG. 11 shows an RNN to an inverse RNN (RNN −1 ).
FIG. 7 is a diagram used for explaining learning performed by generating a.

【図12】RNNによるユーザの情報の学習の説明に使
用した図である。
FIG. 12 is a diagram used to explain learning of user information by the RNN.

【図13】学習後のRNNを用いたユーザの識別につい
ての説明に使用した図である。
FIG. 13 is a diagram used for describing user identification using an RNN after learning.

【図14】褒められる動作の学習の説明に使用した図で
ある。
FIG. 14 is a diagram used for explaining learning of a motion to be praised.

【図15】インバースRNNを使用して褒められる動作
を表出させることの説明に使用した図である。
FIG. 15 is a diagram used to explain that an operation praised using the inverse RNN is expressed.

【図16】ユーザを識別して、褒められる動作を表出さ
せるための処理手順を示すフローチャートである。
FIG. 16 is a flowchart illustrating a processing procedure for identifying a user and expressing a praised operation.

【図17】ユーザ識別の学習により得たユーザ特徴シー
ケンスと動作の学習により得た動作特徴シーケンスとの
関連付けの例の説明に使用した図である。
FIG. 17 is a diagram used to explain an example of association between a user feature sequence obtained by learning user identification and an operation feature sequence obtained by learning operation.

【図18】RNNのユニット(ニューロン)であって、
入力と、その出力を示す図である。
FIG. 18 shows a unit (neuron) of RNN,
It is a figure which shows an input and its output.

【図19】数式化したRNNの説明に使用した図であ
る。
FIG. 19 is a diagram used for describing RNN expressed by a mathematical expression.

【図20】学習時において、RNNに入力されるユーザ
の情報としてのベクトルデータの説明に使用した図であ
る。
FIG. 20 is a diagram used to explain vector data as user information input to the RNN during learning.

【図21】数式化したインバースRNNの説明に使用し
た図である。
FIG. 21 is a diagram used for describing an inverse RNN in a mathematical expression.

【符号の説明】[Explanation of symbols]

1 ロボット装置、10 CPU 1 robot device, 10 CPU

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C150 CA02 DA05 DA24 DA25 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED42 ED52 EF07 EF16 EF23 EF29 EF33 EF36 3F059 AA00 BA00 BB06 DB04 DC00 DC01 FC15 3F060 AA00 BA10 CA14  ──────────────────────────────────────────────────の Continued on the front page F term (reference) 2C150 CA02 DA05 DA24 DA25 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED42 ED52 EF07 EF16 EF23 EF29 EF33 EF36 3F059 AA00 BA00 BB06 DB04 DC00 DC01 FC15 3F060 AA00 BA10 CA14

Claims (16)

【特許請求の範囲】[Claims] 【請求項1】 対話相手を識別させて、識別させた対話
相手が高い評価をする動作を、ロボット装置に学習させ
る学習工程と、 対話相手に関して入力された情報から上記学習工程にお
ける学習結果に基づいて対話相手を識別して、学習した
評価の高い動作を、上記識別した対話相手に応じて上記
ロボット装置により表出させる動作制御工程とを有する
ことを特徴とするロボット装置の動作制御方法。
A learning step of causing a robot apparatus to learn an operation in which the conversation partner is highly evaluated by identifying the conversation partner, based on the learning result in the learning step from information input with respect to the conversation partner. An operation control step of causing the robot apparatus to express a learned high evaluation operation by the robot apparatus according to the identified dialogue partner.
【請求項2】 上記学習工程が、対話相手に関して入力
された情報をロボット装置に学習させる対話相手学習工
程と、評価の高い動作を上記ロボット装置に学習させる
動作学習工程とを有し、 上記動 作制御工程では、対話相手に関して入力された
情報から上記対話相手学習工程における学習結果に基づ
いて対話相手を識別して、上記動作学習工程にて学習し
た評価値の高い動作を、識別した対話相手に応じて上記
ロボット装置により表出させることを特徴とする請求項
1記載のロボット装置の動作制御方法。
2. The method according to claim 1, wherein the learning step includes a dialogue partner learning step of causing the robot apparatus to learn information input with respect to the dialogue partner, and an operation learning step of learning the robot apparatus with a highly evaluated operation. In the operation control step, the conversation partner is identified based on the learning result in the conversation partner learning step from the information input with respect to the conversation partner, and the operation having a high evaluation value learned in the operation learning step is identified. 2. The operation control method for a robot device according to claim 1, wherein the robot device is displayed in accordance with the condition.
【請求項3】 上記動作学習工程では、RNN(リカレ
ント型ニューラルネットワーク)によりロボット装置に
動作を学習させ、 上記動作制御工程では、学習したRNNの逆関数的関係
となるインバースRNN(RNN−1)に基づいて、動
作をロボット装置に表出させることを特徴とする請求項
2記載のロボット装置の動作制御方法。
3. In the operation learning step, the robot device learns the operation by an RNN (recurrent neural network). In the operation control step, an inverse RNN (RNN −1 ) having an inverse functional relationship of the learned RNN. 3. The operation control method for a robot device according to claim 2, wherein the operation is expressed by the robot device based on the following.
【請求項4】 上記対話相手に関した入力された情報
が、対話相手の顔情報及び音声情報であることを特徴と
する請求項1記載のロボット装置の動作制御方法。
4. The operation control method for a robot apparatus according to claim 1, wherein the input information on the conversation partner is face information and voice information of the conversation partner.
【請求項5】 上記評価の高い動作が、対話相手により
上記ロボット装置が褒められる動作であることを特徴と
する請求項1記載のロボット装置の動作制御方法。
5. The operation control method for a robot device according to claim 1, wherein the highly evaluated operation is an operation in which the robot device is praised by a conversation partner.
【請求項6】 上記ロボット装置が動物を模した外観形
状とされていることを特徴とする請求項1記載のロボッ
ト装置の動作制御方法。
6. The method according to claim 1, wherein said robot device has an appearance simulating an animal.
【請求項7】 上記対話相手が人間であることを特徴と
する請求項1記載のロボット装置の動作制御方法。
7. The method according to claim 1, wherein the conversation partner is a human.
【請求項8】 対話相手を識別させて、識別させた対話
相手が高い評価をする動作を、ロボット装置に学習させ
る学習工程と、 対話相手に関して入力された情報から上記学習工程にお
ける学習結果に基づいて対話相手を識別して、学習した
評価の高い動作を、上記識別した対話相手に応じて上記
ロボット装置により表出させる動作制御工程とを実行さ
せるプログラム。
8. A learning step in which the robot apparatus learns an operation in which the conversation partner is identified by giving a high evaluation to the conversation partner, based on the learning result in the learning step based on information input about the conversation partner. And a motion control step of causing the robot apparatus to express a learned operation with a high evaluation according to the identified dialogue partner.
【請求項9】 対話相手を識別させて、識別させた対話
相手が高い評価をする動作を、ロボット装置に学習させ
る学習工程と、 対話相手に関して入力された情報から上記学習工程にお
ける学習結果に基づいて対話相手を識別して、学習した
評価の高い動作を、上記識別した対話相手に応じて上記
ロボット装置により表出させる動作制御工程とを実行さ
せるプログラムが記録された記録媒体。
9. A learning step for causing a robot device to learn an operation in which a conversation partner is identified and the identified conversation partner evaluates high, based on a learning result in the learning step from information input about the conversation partner. And a motion control step of causing the robot apparatus to display a learned high-reputation operation by the robot apparatus according to the identified conversation partner.
【請求項10】 対話相手を識別して、識別した対話相
手が高い評価をする動作を学習する学習手段と、 対話相手に関して入力された情報から上記学習手段の学
習結果に基づいて対話相手を識別して、学習した評価の
高い動作を、上記識別した対話相手に応じて表出する動
作制御手段とを備えることを特徴とするロボット装置。
10. A learning means for identifying a conversation partner and learning an operation in which the identified conversation partner gives a high evaluation, and identifying the conversation partner based on the learning result of the learning means from information inputted about the conversation partner. And a motion control means for displaying the learned highly evaluated operation in accordance with the identified conversation partner.
【請求項11】 上記学習手段は、対話相手に関して入
力された情報を学習する対話相手学習手段と、評価の高
い動作を学習する動作学習手段とを有し、 上記動作制御手段は、対話相手に関して入力された情報
から上記対話相手学習手段の学習結果に基づいて対話相
手を識別して、上記動作学習手段が学習した評価の高い
動作を、識別した対話相手に応じて表出させることを特
徴とする請求項10記載のロボット装置。
11. The learning means includes a dialogue partner learning means for learning information inputted with respect to a dialogue partner, and an operation learning means for learning an operation having a high evaluation. Identifying the conversation partner based on the learning result of the conversation partner learning unit from the input information, and expressing a highly evaluated operation learned by the operation learning unit according to the identified conversation partner. The robot device according to claim 10, wherein
【請求項12】 上記動作学習手段は、RNN(リカレ
ント型ニューラルネットワーク)により動作を学習し、 上記動作制御手段は、学習したRNNの逆関数的関係と
なるインバースRNN(RNN−1)に基づいて、動作
を表出させることを特徴とする請求項10記載のロボッ
ト装置。
12. The operation learning means learns an operation by an RNN (Recurrent Neural Network), and the operation control means operates based on an inverse RNN (RNN -1 ) which is an inverse functional relationship of the learned RNN. The robot device according to claim 10, wherein the operation is expressed.
【請求項13】 上記対話相手に関した入力された情報
が、対話相手の顔情報及び音声情報であることを特徴と
する請求項10記載のロボット装置。
13. The robot apparatus according to claim 10, wherein the input information relating to the conversation partner is face information and voice information of the conversation partner.
【請求項14】 上記評価の高い動作が、対話相手によ
り上記ロボット装置が褒められる動作であることを特徴
とする請求項10記載のロボット装置。
14. The robot apparatus according to claim 10, wherein the operation having a high evaluation is an operation in which the robot apparatus is praised by a conversation partner.
【請求項15】 動物を模した外観形状とされているこ
とを特徴とする請求項11記載のロボット装置。
15. The robot device according to claim 11, wherein the robot device has an appearance shape imitating an animal.
【請求項16】 上記対話相手が人間であることを特徴
とする請求項11記載のロボット装置。
16. The robot apparatus according to claim 11, wherein the conversation partner is a human.
JP2000403454A 2000-12-28 2000-12-28 Action control method for robot device, program, recording medium and robot device Withdrawn JP2002205289A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000403454A JP2002205289A (en) 2000-12-28 2000-12-28 Action control method for robot device, program, recording medium and robot device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000403454A JP2002205289A (en) 2000-12-28 2000-12-28 Action control method for robot device, program, recording medium and robot device

Publications (1)

Publication Number Publication Date
JP2002205289A true JP2002205289A (en) 2002-07-23

Family

ID=18867574

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000403454A Withdrawn JP2002205289A (en) 2000-12-28 2000-12-28 Action control method for robot device, program, recording medium and robot device

Country Status (1)

Country Link
JP (1) JP2002205289A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004127126A (en) * 2002-10-04 2004-04-22 Agi:Kk Idea model device, spontaneous feeling model device, simulation method of idea, simulation method of spontaneous feeling, and program
JP2005319526A (en) * 2004-05-07 2005-11-17 Fujitsu Ltd System for providing function to network robot
JP2007021719A (en) * 2006-08-01 2007-02-01 Sony Corp Learning device, learning method, and robotic device
US9583102B2 (en) 2014-01-22 2017-02-28 Sharp Kabushiki Kaisha Method of controlling interactive system, method of controlling server, server, and interactive device
WO2018173645A1 (en) * 2017-03-23 2018-09-27 株式会社Seltech Personal authentication device and personal authentication program
CN108621159A (en) * 2018-04-28 2018-10-09 首都师范大学 A kind of Dynamic Modeling in Robotics method based on deep learning
WO2021039093A1 (en) * 2019-08-30 2021-03-04 三菱重工業株式会社 Unmanned vehicle cooperation system, unmanned vehicle cooperation processing method, and program
CN115476366A (en) * 2021-06-15 2022-12-16 北京小米移动软件有限公司 Control method, device, control equipment and storage medium for foot type robot

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004127126A (en) * 2002-10-04 2004-04-22 Agi:Kk Idea model device, spontaneous feeling model device, simulation method of idea, simulation method of spontaneous feeling, and program
JP2005319526A (en) * 2004-05-07 2005-11-17 Fujitsu Ltd System for providing function to network robot
JP4588359B2 (en) * 2004-05-07 2010-12-01 富士通株式会社 Network robot function providing system and function providing method
JP2007021719A (en) * 2006-08-01 2007-02-01 Sony Corp Learning device, learning method, and robotic device
JP4529091B2 (en) * 2006-08-01 2010-08-25 ソニー株式会社 Learning apparatus, learning method, and robot apparatus
US9583102B2 (en) 2014-01-22 2017-02-28 Sharp Kabushiki Kaisha Method of controlling interactive system, method of controlling server, server, and interactive device
WO2018173645A1 (en) * 2017-03-23 2018-09-27 株式会社Seltech Personal authentication device and personal authentication program
CN108621159A (en) * 2018-04-28 2018-10-09 首都师范大学 A kind of Dynamic Modeling in Robotics method based on deep learning
WO2021039093A1 (en) * 2019-08-30 2021-03-04 三菱重工業株式会社 Unmanned vehicle cooperation system, unmanned vehicle cooperation processing method, and program
JP2021039443A (en) * 2019-08-30 2021-03-11 三菱重工業株式会社 System and processing method for unmanned machine coordination, and program
JP7308104B2 (en) 2019-08-30 2023-07-13 三菱重工業株式会社 Unmanned aircraft cooperative system, unmanned aircraft cooperative processing method and program
CN115476366A (en) * 2021-06-15 2022-12-16 北京小米移动软件有限公司 Control method, device, control equipment and storage medium for foot type robot
CN115476366B (en) * 2021-06-15 2024-01-09 北京小米移动软件有限公司 Control method, device, control equipment and storage medium for foot robot

Similar Documents

Publication Publication Date Title
TW581959B (en) Robotic (animal) device and motion control method for robotic (animal) device
US6539283B2 (en) Robot and action deciding method for robot
JP4661074B2 (en) Information processing system, information processing method, and robot apparatus
US6889117B2 (en) Robot apparatus and method and system for controlling the action of the robot apparatus
JP2003039363A (en) Robot device, action learning method therefor, action learning program thereof, and program recording medium
JP2002239960A (en) Action control method of robot device, program, recording medium, and robot device
US20050216121A1 (en) Robot apparatus and emotion representing method therefor
WO2004080665A1 (en) Robot device, behavior control method thereof, and program
JP2002239963A (en) Robot device and its action control method, program, and recoding medium of robot device
JP2005199403A (en) Emotion recognition device and method, emotion recognition method of robot device, learning method of robot device and robot device
JP2005199402A (en) Behavior control system and method of robot device
JP2006110707A (en) Robot device
JP3558222B2 (en) Robot behavior control system and behavior control method, and robot device
JP4296736B2 (en) Robot device
JP2002205289A (en) Action control method for robot device, program, recording medium and robot device
JP2004298975A (en) Robot device and obstacle searching method
JP2007125629A (en) Robot device and motion control method
JP2002239952A (en) Robot device, action control method for robot device, program, and recording medium
JP2001157980A (en) Robot device, and control method thereof
JP2001154707A (en) Robot device and its controlling method
JP4552465B2 (en) Information processing apparatus, action control method for robot apparatus, robot apparatus, and computer program
JP2001157979A (en) Robot device, and control method thereof
JP2001191274A (en) Data holding device, robot device, modification device and modification method
JP2002269530A (en) Robot, behavior control method of the robot, program and storage medium
JP4379052B2 (en) Moving object detection apparatus, moving object detection method, and robot apparatus

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080304