JP2002334040A - Device and method for information processing, recording medium, and program - Google Patents

Device and method for information processing, recording medium, and program

Info

Publication number
JP2002334040A
JP2002334040A JP2001140531A JP2001140531A JP2002334040A JP 2002334040 A JP2002334040 A JP 2002334040A JP 2001140531 A JP2001140531 A JP 2001140531A JP 2001140531 A JP2001140531 A JP 2001140531A JP 2002334040 A JP2002334040 A JP 2002334040A
Authority
JP
Japan
Prior art keywords
robot
processing step
text data
voice
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001140531A
Other languages
Japanese (ja)
Inventor
Naohiro Yokoo
直弘 横尾
Shiyo Shizuka
詩葉 静
Satoshi Fujimura
聡 藤村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001140531A priority Critical patent/JP2002334040A/en
Publication of JP2002334040A publication Critical patent/JP2002334040A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To confirm the contents of electronic mail more suitably. SOLUTION: When electronic mail is sent, a personal computer 1 synthesizes a voice according to text data included in the electronic mail and obtains voice data. When a specific keyword is included in the text data, a control script is generated so that a real robot 31 takes action corresponding to the keyword as well as voicing the keyword. The voice data and control script are sent from a radio communication part 4 to the real robot 31.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、情報処理装置およ
び方法、記録媒体、並びにプログラムに関し、特に、電
子メールの内容をより好適に確認できるようにする情報
処理装置および方法、記録媒体、並びにプログラムに関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus and method, a recording medium, and a program, and more particularly, to an information processing apparatus and method, a recording medium, and a program that enable the contents of an e-mail to be more appropriately confirmed. About.

【0002】[0002]

【従来の技術】近年、音声合成装置を内蔵し、電子メー
ルの着信を音声で知らせたり、電子メールの内容(テキ
スト)を音声出力するものが各種提案されている。
2. Description of the Related Art In recent years, various proposals have been made for incorporating a voice synthesizer to notify the arrival of an electronic mail by voice or to output the content (text) of the electronic mail by voice.

【0003】そして、このような電子メールを読み上げ
る装置は、例えば、動物型の外観をしており、電子メー
ルを読み上げることに連動して、口の開閉を繰り返し、
それを聞いている者に、あたかも動物が電子メールを読
んでいるような感覚を与えるようになされている。
[0003] Such a device for reading out e-mails has, for example, an appearance of an animal type, and repeatedly opens and closes the mouth in conjunction with reading out the e-mails.
It is made to give those who listen to it as if the animal were reading an e-mail.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上述し
たような読み上げ装置は、例えば、口の開閉を繰り返す
といった、単純なアクションをとるだけであるため、面
白みに欠けるという課題があった。
However, the above-mentioned reading device has a problem that it is not interesting because it only takes a simple action such as repeating opening and closing of a mouth.

【0005】すなわち、例えば、電子メールの内容に応
じて所定の行動を変化させたり、その行動がより複雑
で、かつ種類が多いほどエンターテイメント性が向上す
ることが予想される。
[0005] That is, for example, it is expected that a predetermined action is changed according to the content of the e-mail, and that the more the action is more complicated and the more types are provided, the more the entertainment property is improved.

【0006】本発明はこのような状況に鑑みてなされた
ものであり、電子メールの内容をより好適に確認できる
ようにしたものである。
[0006] The present invention has been made in view of such a situation, and is intended to allow the contents of an e-mail to be more appropriately confirmed.

【0007】[0007]

【課題を解決するための手段】本発明の第1の情報処理
装置は、テキストデータを取得する取得手段と、取得手
段により取得されたテキストデータを用いて音声合成を
行う音声合成手段と、テキストデータ中に含まれる所定
のキーワードを検出する検出手段と、検出手段により検
出されたキーワードに対応する、ロボットの行動を選択
する選択手段と、ロボットが、音声合成手段による音声
合成の結果取得された音声データに基づいて、キーワー
ドを音声出力することに合わせて、選択手段により選択
された行動をとるための制御スクリプトを生成する生成
手段とを備えることを特徴とする。
A first information processing apparatus according to the present invention comprises: acquiring means for acquiring text data; speech synthesizing means for performing speech synthesis using the text data acquired by the acquiring means; Detecting means for detecting a predetermined keyword included in the data, selecting means for selecting an action of the robot corresponding to the keyword detected by the detecting means, and the robot is obtained as a result of speech synthesis by the speech synthesis means. Generating means for generating a control script for taking an action selected by the selecting means in accordance with outputting the keyword by voice based on the voice data.

【0008】生成手段により生成された制御スクリプト
を、音声合成手段により取得された音声データととも
に、ロボットに対して無線で送信する送信手段をさらに
備えるようにすることができる。
[0008] A transmitting means for wirelessly transmitting the control script generated by the generating means to the robot together with the voice data obtained by the voice synthesizing means may be further provided.

【0009】生成手段により生成された制御スクリプト
を、音声合成手段により取得された音声データととも
に、所定の記録媒体を介してロボットに対して提供する
提供手段をさらに備えるようにすることができる。
[0009] The information processing apparatus may further include a providing means for providing the control script generated by the generating means to the robot through a predetermined recording medium together with the voice data obtained by the voice synthesizing means.

【0010】テキストデータを構成する個々の単語の音
声出力時間を算出する算出手段をさらに備え、取得手段
により所定の単位のテキストデータが取得され、検出手
段により単位のテキストデータから複数のキーワードが
検出された場合、選択手段は、算出手段による算出結果
に基づいて、音声出力時間が長い方のキーワードに対応
する行動を、ロボットの行動として選択するようにする
ことができる。
The apparatus further comprises a calculating means for calculating the voice output time of each word constituting the text data, wherein the obtaining means obtains a predetermined unit of text data, and the detecting means detects a plurality of keywords from the unit text data. In this case, the selection unit can select the action corresponding to the keyword having the longer voice output time as the action of the robot based on the calculation result by the calculation unit.

【0011】キーワードと行動を対応付けて新たに登録
する登録手段をさらに備えるようにすることができる。
[0011] A registration means for newly registering a keyword in association with an action may be further provided.

【0012】取得手段は、情報処理装置に対して送信さ
れてきた電子メールからテキストデータを取得するよう
にすることができる。
[0012] The obtaining means may obtain the text data from the electronic mail transmitted to the information processing apparatus.

【0013】本発明の第1の情報処理装置の情報処理方
法は、テキストデータを取得する取得処理ステップと、
取得処理ステップの処理により取得されたテキストデー
タを用いて音声合成を行う音声合成処理ステップと、テ
キストデータ中に含まれる所定のキーワードを検出する
検出処理ステップと、検出処理ステップの処理により検
出されたキーワードに対応する、ロボットの行動を選択
する選択処理ステップと、ロボットが、音声合成ステッ
プの処理による音声合成の結果取得された音声データに
基づいて、キーワードを音声出力することに合わせて、
選択処理ステップの処理により選択された行動をとるた
めの制御スクリプトを生成する生成処理ステップとを含
むことを特徴とする。
[0013] An information processing method of a first information processing apparatus according to the present invention includes an acquisition processing step of acquiring text data;
Speech synthesis processing step of performing speech synthesis using the text data acquired by the processing of the acquisition processing step, detection processing step of detecting a predetermined keyword included in the text data, and detection processing of the detection processing step In accordance with the selection processing step of selecting the action of the robot corresponding to the keyword, and the robot outputting the keyword as voice based on the voice data obtained as a result of the voice synthesis by the voice synthesis step,
A generation step of generating a control script for taking the action selected by the processing of the selection processing step.

【0014】本発明の第1の記録媒体に記録されている
プログラムは、テキストデータを取得することを制御す
る取得制御処理ステップと、取得制御処理ステップの処
理により取得されたテキストデータを用いて音声合成を
行う音声合成処理ステップと、テキストデータ中に含ま
れる所定のキーワードを検出する検出処理ステップと、
検出処理ステップの処理により検出されたキーワードに
対応する、ロボットの行動を選択する選択処理ステップ
と、ロボットが、音声合成ステップの処理による音声合
成の結果取得された音声データに基づいて、キーワード
を音声出力することに合わせて、選択処理ステップの処
理により選択された行動をとるための制御スクリプトを
生成する生成処理ステップとを含むことを特徴とする。
The program recorded on the first recording medium of the present invention includes an acquisition control processing step for controlling acquisition of text data, and a voice using the text data acquired by the processing of the acquisition control processing step. A speech synthesis processing step of performing synthesis, a detection processing step of detecting a predetermined keyword included in the text data,
A selection processing step for selecting an action of the robot corresponding to the keyword detected by the processing of the detection processing step, and the robot outputs a keyword based on the voice data obtained as a result of the voice synthesis by the voice synthesis step. A generating step of generating a control script for taking the action selected by the processing of the selecting step in accordance with the outputting.

【0015】本発明の第1のプログラムは、テキストデ
ータを取得することを制御する取得制御処理ステップ
と、取得制御処理ステップの処理により取得されたテキ
ストデータを用いて音声合成を行う音声合成処理ステッ
プと、テキストデータ中に含まれる所定のキーワードを
検出する検出処理ステップと、検出処理ステップの処理
により検出されたキーワードに対応する、ロボットの行
動を選択する選択処理ステップと、ロボットが、音声合
成処理ステップの処理による音声合成の結果取得された
音声データに基づいて、キーワードを音声出力すること
に合わせて、選択処理ステップの処理により選択された
行動をとるための制御スクリプトを生成する生成処理ス
テップとを含むことを特徴とする。
A first program according to the present invention comprises: an acquisition control processing step for controlling acquisition of text data; and a speech synthesis processing step for performing speech synthesis using the text data acquired by the processing of the acquisition control processing step. A detection processing step of detecting a predetermined keyword included in the text data; a selection processing step of selecting an action of the robot corresponding to the keyword detected by the processing of the detection processing step; A generation processing step of generating a control script for taking an action selected by the processing of the selection processing step in accordance with outputting the keyword based on the voice data obtained as a result of the voice synthesis by the processing of the step; It is characterized by including.

【0016】本発明の第2の情報処理装置は、テキスト
データを取得する取得手段と、取得手段により取得され
たテキストデータを用いて音声合成を行う音声合成手段
と、音声合成手段による音声合成の結果取得された音声
データに基づいて、テキストデータに対応する音声を出
力することをロボットに指示する指示手段と、テキスト
データ中に含まれる所定のキーワードを検出する検出手
段と、検出手段により検出されたキーワードに対応する
行動をロボットに実行させるための制御スクリプトを生
成する生成手段と、生成手段により生成された制御スク
リプトを送信するタイミングを算出する算出手段と、算
出手段により算出されたタイミングとなったとき、制御
スクリプトをロボットに対して送信する送信手段とを備
えることを特徴とする。
[0016] A second information processing apparatus according to the present invention comprises: an acquiring unit for acquiring text data; a speech synthesizing unit for performing speech synthesis using the text data acquired by the acquiring unit; Based on the voice data obtained as a result, instructing means for instructing the robot to output a voice corresponding to the text data, detecting means for detecting a predetermined keyword included in the text data, Generating means for generating a control script for causing the robot to execute an action corresponding to the keyword, calculating means for calculating a timing for transmitting the control script generated by the generating means, and timing calculated by the calculating means. Transmission means for transmitting a control script to the robot when the That.

【0017】生成手段により複数の制御スクリプトが生
成された場合、複数の制御スクリプトのうちの第1の制
御スクリプトを送信するタイミングとなったとき、第1
の制御スクリプトより先にロボットに対して送信され
た、複数の制御スクリプトのうちの第2の制御スクリプ
トに基づく行動を、ロボットが実行している最中である
か否かを判定する判定手段をさらに備え、送信手段は、
判定手段により、第2の制御スクリプトに基づく行動
を、ロボットが実行している最中でないと判定されたと
き、第1の制御スクリプトをロボットに対して送信する
ようにすることができる。
When a plurality of control scripts are generated by the generating means, the first control script of the plurality of control scripts is transmitted when the first control script is transmitted.
Determining means for determining whether or not the robot is performing an action based on a second control script of the plurality of control scripts transmitted to the robot prior to the control script of Furthermore, the transmitting means includes:
When the determining unit determines that the action based on the second control script is not being executed by the robot, the first control script can be transmitted to the robot.

【0018】本発明の第2の情報処理装置の情報処理方
法は、テキストデータを取得する取得処理ステップと、
取得処理ステップの処理により取得されたテキストデー
タを用いて音声合成を行う音声合成処理ステップと、音
声合成処理ステップの処理による音声合成の結果取得さ
れた音声データに基づいて、テキストデータに対応する
音声を出力することをロボットに指示する指示処理ステ
ップと、テキストデータ中に含まれる所定のキーワード
を検出する検出処理ステップと、検出処理ステップの処
理により検出されたキーワードに対応する行動をロボッ
トに実行させるための制御スクリプトを生成する生成処
理ステップと、生成処理ステップにより生成された制御
スクリプトを送信するタイミングを算出する算出処理ス
テップと、算出処理ステップにより算出されたタイミン
グとなったとき、制御スクリプトをロボットに対して送
信する送信処理ステップとを含むことを特徴とする。
An information processing method of the second information processing apparatus according to the present invention comprises: an obtaining processing step of obtaining text data;
A voice synthesis processing step of performing voice synthesis using the text data obtained by the processing of the obtaining processing step; and a voice corresponding to the text data based on the voice data obtained as a result of the voice synthesis by the voice synthesis processing step. Instruction processing step of instructing the robot to output a keyword, a detection processing step of detecting a predetermined keyword included in the text data, and causing the robot to execute an action corresponding to the keyword detected by the processing of the detection processing step. For generating a control script for generating a control script, a calculation processing step for calculating a timing for transmitting the control script generated by the generation processing step, and when the timing calculated by the calculation processing step is reached, the control script is transferred to the robot. Transmission processing to send to Tsu, characterized in that it comprises a flop.

【0019】本発明の第2の記録媒体に記録されている
プログラムは、テキストデータを取得することを制御す
る取得制御ステップと、取得制御ステップの処理により
取得されたテキストデータを用いて音声合成を行う音声
合成処理ステップと、音声合成処理ステップの処理によ
る音声合成の結果取得された音声データに基づいて、テ
キストデータに対応する音声を出力することをロボット
に指示する指示処理ステップと、テキストデータ中に含
まれる所定のキーワードを検出する検出処理ステップ
と、検出処理ステップの処理により検出されたキーワー
ドに対応する行動をロボットに実行させるための制御ス
クリプトを生成する生成処理ステップと、生成処理ステ
ップにより生成された制御スクリプトを送信するタイミ
ングを算出する算出処理ステップと、算出処理ステップ
により算出されたタイミングとなったとき、制御スクリ
プトをロボットに対して送信することを制御する送信制
御ステップとを含むことを特徴とする。
The program recorded on the second recording medium of the present invention includes an acquisition control step for controlling acquisition of text data, and speech synthesis using the text data acquired by the processing of the acquisition control step. A voice synthesis processing step to be performed; an instruction processing step of instructing the robot to output a voice corresponding to the text data based on the voice data obtained as a result of the voice synthesis by the voice synthesis processing step; And a generation processing step for generating a control script for causing the robot to execute an action corresponding to the keyword detected by the processing of the detection processing step. Calculation to calculate the timing of sending the specified control script And management step, when it becomes the calculated timing by calculating process step, characterized in that it comprises a transmission control step of controlling to transmit a control script to the robot.

【0020】本発明の第2のプログラムは、実在するロ
ボットを管理する情報処理装置を制御するコンピュータ
に、テキストデータを取得することを制御する取得制御
ステップと、取得制御ステップの処理により取得された
テキストデータを用いて音声合成を行う音声合成処理ス
テップと、音声合成処理ステップの処理による音声合成
の結果取得された音声データに基づいて、テキストデー
タに対応する音声を出力することをロボットに指示する
指示処理ステップと、テキストデータ中に含まれる所定
のキーワードを検出する検出処理ステップと、検出処理
ステップの処理により検出されたキーワードに対応する
行動をロボットに実行させるための制御スクリプトを生
成する生成処理ステップと、生成処理ステップにより生
成された制御スクリプトを送信するタイミングを算出す
る算出処理ステップと、算出処理ステップにより算出さ
れたタイミングとなったとき、制御スクリプトをロボッ
トに対して送信することを制御する送信制御ステップと
を実行させることを特徴とする。
A second program according to the present invention is obtained by an acquisition control step of controlling a computer that controls an information processing device that manages an actual robot to acquire text data, and an acquisition control step. Instructing the robot to output a voice corresponding to the text data based on the voice synthesis processing step of performing voice synthesis using the text data and the voice data obtained as a result of the voice synthesis by the voice synthesis processing step. An instruction processing step, a detection processing step of detecting a predetermined keyword included in text data, and a generation processing of generating a control script for causing the robot to execute an action corresponding to the keyword detected by the processing of the detection processing step Step and the control screen generated by the generation processing step. And a transmission control step of controlling transmission of the control script to the robot when the timing calculated by the calculation processing step is reached. I do.

【0021】本発明の第3の情報処理装置は、テキスト
データを取得する取得手段と、取得手段により取得され
たテキストデータを用いて音声合成を行う音声合成手段
と、テキストデータ中に含まれる所定のキーワードを検
出する検出手段と、検出手段により検出されたキーワー
ドに対応する、ロボットの行動を選択する選択手段と、
音声合成手段による音声合成の結果取得された音声デー
タを再生する再生手段と、再生手段によりキーワードが
音声出力されることに合わせて、選択手段により選択さ
れた行動をロボットがとるように、ロボットの行動を制
御する制御手段とを備えることを特徴とする。
According to a third information processing apparatus of the present invention, there are provided an acquiring unit for acquiring text data, a speech synthesizing unit for performing speech synthesis using the text data acquired by the acquiring unit, and a predetermined synthesizing unit included in the text data. Detecting means for detecting the keyword of the above, and selecting means for selecting the behavior of the robot corresponding to the keyword detected by the detecting means,
A reproducing means for reproducing the voice data obtained as a result of the voice synthesis by the voice synthesizing means, and a robot taking an action selected by the selecting means in accordance with the voice output of the keyword by the reproducing means. Control means for controlling behavior.

【0022】テキストデータを構成する個々の単語の音
声出力時間を算出する算出手段をさらに備え、取得手段
により所定の単位のテキストデータが取得され、検出手
段により単位のテキストデータから複数のキーワードが
検出された場合、選択手段は、算出手段による算出結果
に基づいて、音声出力時間が長い方のキーワードに対応
する行動を、ロボットの行動として選択するようにする
ことができる。
The apparatus further comprises calculating means for calculating the audio output time of each word constituting the text data, wherein the obtaining means obtains a predetermined unit of text data, and the detecting means detects a plurality of keywords from the unit text data. In this case, the selection unit can select the action corresponding to the keyword having the longer voice output time as the action of the robot based on the calculation result by the calculation unit.

【0023】キーワードと行動を対応付けて新たに登録
する登録手段をさらに備えるようにすることができる。
It is possible to further include a registration unit for newly registering a keyword in association with an action.

【0024】取得手段は、情報処理装置に対して送信さ
れてきた電子メールからテキストデータを取得するよう
にすることができる。
[0024] The obtaining means may obtain the text data from the electronic mail transmitted to the information processing apparatus.

【0025】本発明の第3の情報処理装置の情報処理方
法は、テキストデータを取得する取得処理ステップと、
取得処理ステップの処理により取得されたテキストデー
タを用いて音声合成を行う音声合成処理ステップと、テ
キストデータ中に含まれる所定のキーワードを検出する
検出処理ステップと、検出処理ステップの処理により検
出されたキーワードに対応する、ロボットの行動を選択
する選択処理ステップと、音声合成処理ステップの処理
による音声合成の結果取得された音声データを再生する
再生処理ステップと、再生処理ステップの処理によりキ
ーワードが音声出力されることに合わせて、選択処理ス
テップの処理により選択された行動をロボットがとるよ
うに、ロボットの行動を制御する制御処理ステップとを
含むことを特徴とする。
According to a third information processing method of the information processing apparatus of the present invention, an acquisition processing step of acquiring text data;
Speech synthesis processing step of performing speech synthesis using the text data acquired by the processing of the acquisition processing step, detection processing step of detecting a predetermined keyword included in the text data, and detection processing of the detection processing step A selection processing step for selecting a robot action corresponding to the keyword; a reproduction processing step for reproducing the voice data obtained as a result of the voice synthesis by the voice synthesis processing step; and a speech output by the processing in the reproduction processing step And a control processing step of controlling the behavior of the robot such that the robot takes the behavior selected by the processing of the selection processing step.

【0026】本発明の第3の記録媒体に記録されている
プログラムは、テキストデータを取得することを制御す
る取得制御処理ステップと、取得制御処理ステップの処
理により取得されたテキストデータを用いて音声合成を
行う音声合成処理ステップと、テキストデータ中に含ま
れる所定のキーワードを検出する検出処理ステップと、
検出処理ステップの処理により検出されたキーワードに
対応する、ロボットの行動を選択する選択処理ステップ
と、音声合成処理ステップの処理による音声合成の結果
取得された音声データを再生することを制御する再生制
御処理ステップと、再生制御処理ステップの処理により
キーワードが音声出力されることに合わせて、選択処理
ステップの処理により選択された行動を前記ロボットが
とるように、ロボットの行動を制御する制御処理ステッ
プとを含むことを特徴とする。
The program recorded on the third recording medium according to the present invention comprises: an acquisition control processing step for controlling acquisition of text data; and a voice using the text data acquired by the processing of the acquisition control processing step. A speech synthesis processing step of performing synthesis, a detection processing step of detecting a predetermined keyword included in the text data,
A selection processing step for selecting an action of the robot corresponding to the keyword detected by the processing of the detection processing step; and a reproduction control for controlling reproduction of voice data obtained as a result of voice synthesis by the processing of the voice synthesis processing step. And a control processing step of controlling the behavior of the robot such that the robot takes the action selected by the processing of the selection processing step in accordance with the output of the keyword by the processing of the reproduction control processing step. It is characterized by including.

【0027】本発明の第3のプログラムは、テキストデ
ータを取得することを制御する取得制御処理ステップ
と、取得制御処理ステップの処理により取得されたテキ
ストデータを用いて音声合成を行う音声合成処理ステッ
プと、テキストデータ中に含まれる所定のキーワードを
検出する検出処理ステップと、検出処理ステップの処理
により検出されたキーワードに対応する、ロボットの行
動を選択する選択処理ステップと、音声合成処理ステッ
プの処理による音声合成の結果取得された音声データを
再生することを制御する再生制御処理ステップと、再生
制御処理ステップの処理によりキーワードが音声出力さ
れることに合わせて、選択処理ステップの処理により選
択された行動をロボットがとるように、ロボットの行動
を制御する制御処理ステップと含むことを特徴とする。
A third program according to the present invention comprises an acquisition control processing step for controlling acquisition of text data, and a speech synthesis processing step for performing speech synthesis using the text data acquired by the processing of the acquisition control processing step. And a detection processing step of detecting a predetermined keyword included in the text data; a selection processing step of selecting a robot action corresponding to the keyword detected by the processing of the detection processing step; and a speech synthesis processing step And a reproduction control processing step for controlling reproduction of the voice data obtained as a result of the voice synthesis performed by the CPU. Control processing that controls the behavior of the robot so that the robot takes the action Characterized in that it comprises a step.

【0028】本発明の第1の情報処理装置および方法、
記録媒体、並びにプログラムにおいては、テキストデー
タが取得され、取得されたテキストデータを用いて音声
合成が行われ、テキストデータ中に含まれる所定のキー
ワードが検出される。また、検出されたキーワードに対
応する、ロボットの行動が選択され、ロボットが、音声
合成の結果取得された音声データに基づいて、キーワー
ドを音声出力することに合わせて、選択された行動をと
るための制御スクリプトが生成される。
A first information processing apparatus and method according to the present invention,
In the recording medium and the program, text data is obtained, speech synthesis is performed using the obtained text data, and a predetermined keyword included in the text data is detected. Also, the action of the robot corresponding to the detected keyword is selected, and the robot performs the selected action in accordance with outputting the keyword based on the voice data obtained as a result of the voice synthesis. Is generated.

【0029】本発明の第2の情報処理装置および方法、
記録媒体、並びにプログラムにおいては、テキストデー
タが取得され、取得されたテキストデータを用いて音声
合成が行われ、音声合成の結果取得された音声データに
基づいて、テキストデータに対応する音声を出力するこ
とがロボットに指示される。また、テキストデータ中に
含まれる所定のキーワードが検出され、検出されたキー
ワードに対応する行動をロボットに実行させるための制
御スクリプトが生成され、生成された制御スクリプトを
送信するタイミングが算出される。そして、算出された
タイミングとなったとき、制御スクリプトがロボットに
対して送信される。
A second information processing apparatus and method according to the present invention,
In the recording medium and the program, text data is obtained, voice synthesis is performed using the obtained text data, and a voice corresponding to the text data is output based on the voice data obtained as a result of the voice synthesis. Is instructed to the robot. Further, a predetermined keyword included in the text data is detected, a control script for causing the robot to execute an action corresponding to the detected keyword is generated, and a timing for transmitting the generated control script is calculated. Then, when the calculated timing comes, the control script is transmitted to the robot.

【0030】本発明の第3の情報処理装置および方法、
記録媒体、並びにプログラムにおいては、テキストデー
タが取得され、取得されたテキストデータを用いて音声
合成が行われ、テキストデータ中に含まれる所定のキー
ワードが検出される。また、検出されたキーワードに対
応する、ロボットの行動が選択され、音声合成の結果取
得された音声データが再生され、キーワードが音声出力
されることに合わせて、選択された行動をロボットがと
るように、ロボットの行動が制御される。
A third information processing apparatus and method according to the present invention,
In the recording medium and the program, text data is obtained, speech synthesis is performed using the obtained text data, and a predetermined keyword included in the text data is detected. Also, the robot action corresponding to the detected keyword is selected, the voice data obtained as a result of the voice synthesis is reproduced, and the robot takes the selected action in accordance with the output of the keyword as voice. Then, the behavior of the robot is controlled.

【0031】[0031]

【発明の実施の形態】図1は、本発明を適用したロボッ
ト制御システムの構成例を示す図である。
FIG. 1 is a diagram showing a configuration example of a robot control system to which the present invention is applied.

【0032】パーソナルコンピュータ1には、表示部2
に表示されるバーチャルロボット11、またはパーソナ
ルコンピュータ1の近傍に存在するリアルロボット31
に、受信した電子メールを読み上げさせ、その内容と音
声出力のタイミングに応じて、いずれかのロボットに所
定のモーションをとらせるロボット制御プログラムが格
納されている。
The personal computer 1 has a display unit 2
The virtual robot 11 displayed on the screen or the real robot 31 existing near the personal computer 1
In addition, a robot control program that causes a received robot to read out a received e-mail, and cause any of the robots to perform a predetermined motion in accordance with the content and the timing of voice output is stored.

【0033】バーチャルロボット11は、リアルロボッ
ト31のいわば仮想的なものであり、ユーザからの入力
に反応して各種の行動を行ったり、また、いずれの入力
がない場合でも、自律的に各種の行動を行うロボットで
ある。
The virtual robot 11 is a virtual robot similar to the real robot 31, and performs various actions in response to an input from a user. A robot that performs actions.

【0034】リアルロボット31は、外界からの刺激を
受けることにより、学習、または成長して、自らの判断
で自律行動が可能な、例えば、図に示すようなペット型
のロボットである。リアルロボット31には、その詳細
な構成は後述するが、行動に必要なコントローラやセン
サ類のハードウエア、および感情、本能、学習機能、成
長機能などを組み込んだソフトウエアが設けられてい
る。
The real robot 31 is, for example, a pet-type robot as shown in the figure, which can learn or grow by receiving a stimulus from the outside world and can perform autonomous actions by its own judgment. The detailed configuration of the real robot 31 will be described later, but hardware such as controllers and sensors necessary for the action and software incorporating emotion, instinct, learning function, growth function, and the like are provided.

【0035】そして、ユーザは、ロボット制御プログラ
ムを起動させ、キーボード3を操作し、自分宛に届けら
れた電子メールをバーチャルロボット11、またはリア
ルロボット31に読み上げさせることができる。
Then, the user can activate the robot control program and operate the keyboard 3 to cause the virtual robot 11 or the real robot 31 to read out the e-mail delivered to the user.

【0036】受信した電子メールをリアルロボット31
に読み上げさせる場合、パーソナルコンピュータ1にお
いては、電子メールのテキストデータに含まれる、所定
のキーワードが検索され、検索されたキーワードに対応
する行動をリアルロボット31がとるような制御スクリ
プトが生成される。また、テキストデータに基づいて音
声合成が行われ、例えば、WAVフォーマットなどの音声
データが生成される。
The received e-mail is sent to the real robot 31
In the personal computer 1, the personal computer 1 searches for a predetermined keyword included in the text data of the e-mail, and generates a control script that causes the real robot 31 to take an action corresponding to the searched keyword. In addition, voice synthesis is performed based on the text data, and voice data in, for example, a WAV format is generated.

【0037】生成された制御スクリプトと音声データ
は、無線通信部4からリアルロボット31に送信され
る。すなわち、リアルロボット31にも、パーソナルコ
ンピュータ1と同様に、無線通信部が設けられており、
例えば、TCP/IP(Transmission Control Protocol/Inter
net Protocol)に基づく通信が可能なようになされてい
る。
The generated control script and voice data are transmitted from the wireless communication unit 4 to the real robot 31. That is, similarly to the personal computer 1, the real robot 31 is also provided with a wireless communication unit.
For example, TCP / IP (Transmission Control Protocol / Inter
(net Protocol).

【0038】そして、リアルロボット31は、パーソナ
ルコンピュータ1から無線を介して送信されてきた制御
スクリプトを解釈、実行し、電子メールを読み上げる
(音声データを再生する)とともに、電子メールに含ま
れるキーワードを読み上げるタイミングで、設定された
行動をとる。
Then, the real robot 31 interprets and executes the control script transmitted from the personal computer 1 via radio, reads out the e-mail (reproduces voice data), and inputs the keyword included in the e-mail. Take the set action at the timing of reading out.

【0039】例えば、電子メール中に「こんにちは」の
キーワードが含まれている場合、リアルロボット31
は、制御スクリプトに基づいて、「こんにちは」を発話
(出力)するタイミングで、電子メールの内容を聞いて
いるユーザに対して手を挙げるなどの所定の行動をと
る。また、「ありがとうございました」のキーワードが
含まれている場合、リアルロボット31は、「ありがと
うございました」を発話するタイミングで、お辞儀をす
るなどの行動をとる。なお、電子メールを読み上げると
き、リアルロボット31は、口の開閉を繰り返すように
制御される。
[0039] For example, if it contains the keyword of "Hello" in the e-mail, real robot 31
On the basis of the control script, the "Hello" at the timing of speech (output), takes a predetermined action, such as Hand Raised to the user listening to the content of the e-mail. If the keyword “Thank you” is included, the real robot 31 takes an action such as bowing at the timing of uttering “Thank you”. When reading out the e-mail, the real robot 31 is controlled to repeat opening and closing of the mouth.

【0040】また、バーチャルロボット11もリアルロ
ボット31と同様に、電子メールに含まれるキーワード
がパーソナルコンピュータ1に設けられているスピーカ
から出力されることに応じて、所定の行動をとる。
Also, the virtual robot 11 performs a predetermined action in response to the keyword included in the e-mail being output from a speaker provided in the personal computer 1, similarly to the real robot 31.

【0041】このように、受信した電子メールを音声出
力させるだけでなく、含まれているキーワードに応じ
て、バーチャルロボット11、またはリアルロボット3
1に各種の行動をとらせるようにしたので、電子メール
の読み上げ端末としても、より面白みが増すこととな
る。
As described above, not only the received e-mail is output as voice, but also the virtual robot 11 or the real robot 3 according to the included keyword.
Since the user 1 is allowed to take various actions, it becomes more interesting as an electronic mail reading terminal.

【0042】また、バーチャルロボット11、またはリ
アルロボット31に対して、より愛着がわくようにな
る。
Further, attachment to the virtual robot 11 or the real robot 31 becomes more apparent.

【0043】なお、上述した例においては、パーソナル
コンピュータ1により生成された制御スクリプト、およ
び音声データは、無線を介してリアルロボット31に対
して送信されるとしたが、パーソナルコンピュータ1、
およびリアルロボット31がともに着脱可能とされる半
導体メモリ21を介して提供することもできる。
In the above-described example, the control script and the voice data generated by the personal computer 1 are transmitted to the real robot 31 via wireless communication.
And the real robot 31 can be provided via the semiconductor memory 21 which can be detached.

【0044】半導体メモリ21を介して制御スクリプト
と音声データを提供する場合、ユーザは、半導体メモリ
21をパーソナルコンピュータ1の所定のドライブに装
着し、生成された制御スクリプトと音声データを半導体
メモリ21に記憶させる。そして、ユーザは、制御スク
リプトと音声データが記憶された半導体メモリ21をリ
アルロボット31の所定の位置に設けられるスロットに
装着し、それを読み出させ、処理させる。
When providing a control script and audio data via the semiconductor memory 21, the user attaches the semiconductor memory 21 to a predetermined drive of the personal computer 1 and transfers the generated control script and audio data to the semiconductor memory 21. Remember. Then, the user mounts the semiconductor memory 21 in which the control script and the voice data are stored in a slot provided at a predetermined position of the real robot 31, reads out the slot, and processes the slot.

【0045】このように、様々な方法でリアルロボット
31に対して制御スクリプトと音声データを提供するこ
とも可能である。例えば、Bluetooth(登録商標)など
により、これらの情報を送信するようにしてもよい。
As described above, the control script and the voice data can be provided to the real robot 31 by various methods. For example, such information may be transmitted by Bluetooth (registered trademark) or the like.

【0046】次に、図1に示したロボット制御システム
の各構成について説明する。
Next, each component of the robot control system shown in FIG. 1 will be described.

【0047】図2乃至図5は、図1のパーソナルコンピ
ュータ1の外観を示している。このノート型のパーソナ
ルコンピュータ1は、基本的に、本体41と、この本体
41に対して開閉自在とされる表示部2により構成され
ている。図2は表示部2を本体41に対して開いた状態
を示す外観斜視図である。図3は本体41の平面図、図
4は本体41に設けられている、後述するジョグダイヤ
ル42付近の拡大図である。また、図5は本体41のジ
ョグダイヤル42側の側面図である。
FIGS. 2 to 5 show the appearance of the personal computer 1 of FIG. The notebook personal computer 1 basically includes a main body 41 and a display section 2 which can be opened and closed with respect to the main body 41. FIG. 2 is an external perspective view showing a state where the display unit 2 is opened with respect to the main body 41. FIG. 3 is a plan view of the main body 41, and FIG. 4 is an enlarged view of the vicinity of a jog dial 42 described later provided on the main body 41. FIG. 5 is a side view of the main body 41 on the jog dial 42 side.

【0048】本体41には、その上面に、各種の文字や
記号などを入力するとき操作されるキーボード3、ポイ
ンタ(マウスカーソル)を移動させるときなどに操作さ
れるポインティングデバイスとしてのタッチパッド4
3、および電源スイッチ45が設けられており、また、
側面側に、ジョグダイヤル42、スロット46、および
IEEE(Institute of Electrical and Electronics Engin
eers)1394ポート47等が設けられている。なお、タッ
チパッド43に代えて、例えば、スティック式のポイン
ティングデバイスを設けることも可能である。
On the upper surface of the main body 41, a keyboard 3 operated when inputting various characters and symbols, a touch pad 4 as a pointing device operated when moving a pointer (mouse cursor), and the like.
3, and a power switch 45, and
On the side, jog dial 42, slot 46, and
IEEE (Institute of Electrical and Electronics Engin
eers) 1394 port 47 and the like are provided. Note that, instead of the touch pad 43, for example, a stick-type pointing device can be provided.

【0049】また、表示部2の正面には、画像等が表示
されるLCD(Liquid Crystal Display)44が設けられ
ている。表示部2の右上部には、電源ランプPL、電池ラ
ンプBL、必要に応じてメッセージランプML、その他のLE
Dよりなるランプが設けられている。なお、電源ランプP
Lや電池ランプBL、メッセージランプML等は表示部2の
下部に設けることも可能である。
An LCD (Liquid Crystal Display) 44 on which an image or the like is displayed is provided on the front of the display unit 2. The power lamp PL, the battery lamp BL, the message lamp ML as required, and other LE
A lamp made of D is provided. The power lamp P
L, a battery lamp BL, a message lamp ML, and the like can be provided below the display unit 2.

【0050】次に、ジョグダイヤル42は、本体41上
のキーボード3のキーの間に組み込まれ、また、キーと
ほぼ同じ高さになるように取り付けられている。ジョグ
ダイヤル42は、図4の矢印aに示す回転操作に対応し
て所定の処理を実行し、かつ、矢印bに示す移動操作に
対応した処理を実行する。なお、ジョグダイヤル42
は、本体41の左側面に配置してもよく、LCD44が設
けられた表示部2の左側面又は右側面、あるいは、キー
ボード3のGキーとHキーの間に縦方向に配置してもよ
い。また、ジョグダイヤル42は、タッチパッド43を
人差し指で操作しながら親指で操作可能なように、前面
の中央部に配置してもよく、あるいは、タッチパッド4
3の上端縁又は下端縁に沿って横方向に配置しても、ま
た、タッチパッド43の右ボタンと左ボタンの間に縦方
向に配置してもよい。更に、ジョグダイヤル42は、縦
方向や横方向に限定せず、各指で操作し易い斜め方向
へ、所定角度を付けて配置してもよい。その他、ジョグ
ダイヤル42は、ポインティングデバイスであるマウス
の側面の親指で操作可能な位置に配置することも可能で
ある。
Next, the jog dial 42 is incorporated between the keys of the keyboard 3 on the main body 41, and is mounted so as to be almost at the same height as the keys. The jog dial 42 performs a predetermined process in response to a rotation operation indicated by an arrow a in FIG. 4 and executes a process corresponding to a movement operation indicated by an arrow b. The jog dial 42
May be arranged on the left side of the main body 41, may be arranged on the left side or right side of the display unit 2 provided with the LCD 44, or may be arranged vertically between the G key and the H key of the keyboard 3. . The jog dial 42 may be arranged at the center of the front surface so that the touch pad 43 can be operated with the thumb while operating the touch pad 43 with the index finger.
3 may be arranged in the horizontal direction along the upper edge or the lower edge, or may be arranged in the vertical direction between the right button and the left button of the touch pad 43. Further, the jog dial 42 is not limited to the vertical direction or the horizontal direction, and may be arranged at a predetermined angle in an oblique direction that is easy to operate with each finger. In addition, the jog dial 42 can be arranged at a position operable with the thumb on the side of the mouse as a pointing device.

【0051】次に、図6は、パーソナルコンピュータ1
の電気的構成を示すブロック図である。
Next, FIG. 6 shows the personal computer 1.
FIG. 2 is a block diagram showing an electrical configuration of the embodiment.

【0052】CPU(Central Processing Unit(中央処理
装置))71は、例えば、インテル(Intel)社製のペ
ンティアム(登録商標)(Pentium(R))プロセッサ
等で構成され、ホストバス72に接続されている。ホス
トバス72には、更に、ブリッジ73が接続されてお
り、ブリッジ73は、AGP(Accelerated Graphics Por
t)70及びPCIバス76にも接続されている。ブリッジ
73は、例えば、インテル社製の400BXなどで構成さ
れており、CPU71やRAM74周辺の制御を行うようにな
されている。更に、ブリッジ73は、AGP70を介して
ビデオコントローラ77に接続されている。なお、この
ブリッジ73とブリッジ78とで、いわゆるチップセッ
トが構成されている。
The CPU (Central Processing Unit) 71 is composed of, for example, a Pentium (registered trademark) (Pentium®) processor manufactured by Intel Corporation, and is connected to the host bus 72. I have. A bridge 73 is further connected to the host bus 72. The bridge 73 is connected to an AGP (Accelerated Graphics Por).
t) Also connected to 70 and PCI bus 76. The bridge 73 is composed of, for example, 400BX manufactured by Intel Corporation, and controls the CPU 71 and the RAM 74. Further, the bridge 73 is connected to the video controller 77 via the AGP 70. The bridge 73 and the bridge 78 form a so-called chipset.

【0053】ブリッジ73は、更に、RAM(Random Acce
ss Memory)74及びキャッシュメモリ75とも接続さ
れている。キャッシュメモリ75は、CPU71が使用す
るデータをキャッシュするようになされている。なお、
図示していないが、CPU71にも1次的なキャッシュメ
モリが内蔵されている。
The bridge 73 further includes a RAM (Random Acce
ss Memory) 74 and a cache memory 75. The cache memory 75 caches data used by the CPU 71. In addition,
Although not shown, the CPU 71 also includes a primary cache memory.

【0054】RAM74は、例えば、DRAM(Dynamic Rando
m Access Memory)で構成され、CPU71が実行するプロ
グラムや、CPU71の行動上必要なデータを記憶するよ
うになされている。具体的に、RAM74には、起動が完
了した時点において、例えば、ロボット制御プログラム
74A、電子メールプログラム74B、ジョグダイヤル
状態監視プログラム74C、ジョグダイヤルドライバ7
4D、オペレーティングプログラム(OS)74E、その
他のアプリケーションプログラム74F1乃至74Fnが
HDD86から転送され、記憶される。
The RAM 74 is, for example, a DRAM (Dynamic Rando).
m Access Memory), and stores a program executed by the CPU 71 and data necessary for the operation of the CPU 71. Specifically, at the time when the activation is completed, for example, the robot control program 74A, the e-mail program 74B, the jog dial state monitoring program 74C, the jog dial driver 7
4D, an operating program (OS) 74E, and other application programs 74F1 to 74Fn.
The data is transferred from the HDD 86 and stored.

【0055】ロボット制御プログラム74Aは、図1を
参照して説明したように、LCD44に表示されるバーチ
ャルロボット11、およびリアルロボット31を制御す
るプログラムであり、その詳細な機能構成は図7を参照
して説明する。
The robot control program 74A is a program for controlling the virtual robot 11 and the real robot 31 displayed on the LCD 44 as described with reference to FIG. 1, and the detailed functional configuration is shown in FIG. I will explain.

【0056】電子メールプログラム74Bは、モデム9
3を介して、電話回線94のような通信回線からネット
ワーク経由で通信文を授受するプログラムである。電子
メールプログラム74Bは、特定機能としての着信メー
ル取得機能を有している。この着信メール取得機能は、
インターネットサービスプロバイダ95が備えるメール
サーバ96に対して、そのメールボックス97内に自分
(利用者)宛のメールが着信しているかどうかを確認し
て、自分宛のメールがあれば取得する処理を実行する。
そして、電子メールプログラム74Bは、電子メールを
取得したとき、必要に応じて、それをロボット制御プロ
グラム74Aに提供する。
The e-mail program 74B is connected to the modem 9
3 is a program for exchanging communication messages from a communication line such as a telephone line 94 via a network. The e-mail program 74B has an incoming mail acquisition function as a specific function. This incoming mail acquisition function
The mail server 96 of the Internet service provider 95 is checked whether mail addressed to the user (user) has arrived in the mailbox 97, and if there is mail addressed to the user, the processing for acquiring the mail is executed. I do.
Then, when the electronic mail program 74B obtains the electronic mail, it provides it to the robot control program 74A as necessary.

【0057】ジョグダイヤル状態監視プログラム74C
は、アプリケーションプログラム74F1乃至74Fn
からジョグダイヤル対応であるか否かの通知を受け取
り、そのアプリケーションプログラムがジョグダイヤル
対応であれば、ジョグダイヤル42を操作することで実
行できる操作を、アプリケーションが有するユーザイン
ターフェース機能を用いて、ユーザに対して表示するた
めに行動する。ジョグダイヤル状態監視プログラム74
Cは、通常、ジョグダイヤル42のイベント待ちになっ
ており、アプリケーションプログラムからの通知を受け
取るリストを有している。ジョグダイヤルドライバ74
Dは、ジョグダイヤル42の操作に対応して各種機能を
実行する。
Jog dial status monitoring program 74C
Are application programs 74F1 to 74Fn
If the application program is compatible with the jog dial, an operation that can be executed by operating the jog dial 42 is displayed to the user using the user interface function of the application if the application program is compatible with the jog dial. Act to do. Jog dial status monitoring program 74
C is usually waiting for an event of the jog dial 42 and has a list for receiving a notification from the application program. Jog dial driver 74
D executes various functions in response to the operation of the jog dial 42.

【0058】OS(Operation System(基本プログラムソ
フトウェア))74Eは、例えば、マイクロソフト社の
ウィンドウズ(登録商標)95(Windows(R) 95)、
ウィンドウズ(登録商標)98(Windows(R) 98)、
あるいは、アップルコンピュータ社のマックOS(商標)
等に代表される、コンピュータの基本的な行動を制御す
るものである。
The OS (Operation System (basic program software)) 74E is, for example, Microsoft Windows® 95 (Windows® 95),
Windows (registered trademark) 98 (Windows® 98),
Or Apple Computer's Mac OS ™
And the like to control the basic behavior of the computer.

【0059】ビデオコントローラ77は、PCIバス76
に接続されており、更に、AGP70を介してブリッジ7
3に接続されており、PCIバス76、もしくはAGP70を
介して供給されるデータに基づいて、LCD44の表示を
制御する。
The video controller 77 includes a PCI bus 76
To the bridge 7 via the AGP 70.
3 and controls the display of the LCD 44 based on data supplied via the PCI bus 76 or the AGP 70.

【0060】PCIバス76には、サウンドコントローラ
85が接続されている。サウンドコントローラ85は、
マイクロフォン(以下、マイクと称する)66からの音
声入力を取り込み、あるいはスピーカ65に対して音声
信号を供給する。例えば、ユーザから、ロボット制御プ
ログラム74Aによりその動作が制御されるバーチャル
ロボット11に対して、電子メールを読み上げることが
指示されているとき、サウンドコントローラ85は、ブ
リッジ73、およびPCIバス76を介して供給されてき
た音声データを再生し、合成音をスピーカ65から出力
させる。
A sound controller 85 is connected to the PCI bus 76. The sound controller 85
An audio input from a microphone (hereinafter, referred to as a microphone) 66 is taken in, or an audio signal is supplied to a speaker 65. For example, when the user instructs the virtual robot 11 whose operation is controlled by the robot control program 74A to read out an e-mail, the sound controller 85 transmits the e-mail via the bridge 73 and the PCI bus 76. The supplied audio data is reproduced, and the synthesized sound is output from the speaker 65.

【0061】また、PCIバス76には、モデム93およ
びPCカードスロットインターフェース104も接続され
ている。
A modem 93 and a PC card slot interface 104 are also connected to the PCI bus 76.

【0062】モデム93は、公衆電話回線94、インタ
ーネットサービスプロバイダ95を介して、インターネ
ット98やメールサーバ96等に接続することができ
る。
The modem 93 can be connected to the Internet 98, a mail server 96 and the like via a public telephone line 94 and an Internet service provider 95.

【0063】また、オプション機能を追加する場合、PC
カードスロットインターフェース104に接続されてい
るスロット46に、インターフェースカード105が適
宜装着されることにより、外部装置とのデータの授受が
できるようになされている。例えば、インターフェース
カード105には、ドライブ106を接続することがで
き、ドライブ106に挿入される磁気ディスク121、
光ディスク122、光磁気ディスク123、および図1
に示した半導体メモリ21などとデータの授受を行うこ
とができる。
When an optional function is added, a PC
The interface card 105 is appropriately mounted in the slot 46 connected to the card slot interface 104 so that data can be exchanged with an external device. For example, a drive 106 can be connected to the interface card 105, and a magnetic disk 121 inserted into the drive 106,
Optical disk 122, magneto-optical disk 123, and FIG.
Can be exchanged with the semiconductor memory 21 shown in FIG.

【0064】リアルロボット31に対して制御スクリプ
トと音声データを提供するとき、この半導体メモリ21
には、上述したように、ロボット制御プログラム74A
により生成された制御スクリプトと音声データが書き込
まれる。なお、半導体メモリ21、磁気ディスク12
1、光ディスク122、光磁気ディスク123とデータ
の授受を行うドライブ106は、USBポート103を介
して接続することもできる。
When providing a control script and voice data to the real robot 31, the semiconductor memory 21
As described above, the robot control program 74A
The control script and the audio data generated by are written. The semiconductor memory 21 and the magnetic disk 12
1. The drive 106 for exchanging data with the optical disk 122 and the magneto-optical disk 123 can also be connected via the USB port 103.

【0065】また、インターフェースカード105に
は、無線通信部4が接続される。そして、例えば、ロボ
ット制御プログラム74Aにより生成された制御スクリ
プトと音声データは、PCIバス76、PCカードインター
フェース104、およびインターフェースカード105
を介して、無線通信部4に供給され、リアルロボット3
1に送信される。
The wireless communication unit 4 is connected to the interface card 105. For example, the control script and audio data generated by the robot control program 74A are stored in the PCI bus 76, the PC card interface 104, and the interface card 105.
Is supplied to the wireless communication unit 4 via the real robot 3
1 is sent.

【0066】更に、PCIバス76にはブリッジ78も接
続されている。ブリッジ78は、例えば、インテル社製
のPIIX4Eなどで構成されており、各種の入出力を制御
するようになされている。すなわち、ブリッジ78は、
IDE(Integrated Drive Electronics)コントローラ/
コンフィギュレーションレジスタ79、タイマ回路8
0、IDEインターフェース81、およびUSB(Universal
Serial Bus)インターフェース82で構成され、IDEバ
ス83に接続されるデバイス、USBポート103に接続
されるデバイス、もしくは、ISA/EIO(Industry Standa
rd Architecture /Extended Input Output)バス84お
よびI/Oインターフェース87を介して接続されるデバ
イスの制御等を行うようになされている。
Further, a bridge 78 is also connected to the PCI bus 76. The bridge 78 is made of, for example, PIIX4E manufactured by Intel Corporation, and controls various inputs and outputs. That is, the bridge 78
IDE (Integrated Drive Electronics) Controller /
Configuration register 79, timer circuit 8
0, IDE interface 81, and USB (Universal
A device connected to the IDE bus 83, a device connected to the USB port 103, or an ISA / EIO (Industry Standa
(rd Architecture / Extended Input Output) It controls devices connected via a bus 84 and an I / O interface 87.

【0067】例えば、USBポート103に、GPS(Global
Positioning System)アンテナ102が装着された場
合、USBインターフェース82は、GPSアンテナ102か
ら供給される位置データ、および時刻データをPCIバス
76、ブリッジ73、およびホストバス72を介してCP
U71へ送出する。
For example, a GPS (Global
When the antenna 102 is mounted, the USB interface 82 transmits the position data and the time data supplied from the GPS antenna 102 to the CP via the PCI bus 76, the bridge 73, and the host bus 72.
Send to U71.

【0068】IDEコントローラ/コンフィギュレーショ
ンレジスタ79は、いわゆるプライマリIDEコントロー
ラとセカンダリIDEコントローラとの2つのIDEコントロ
ーラ、およびコンフィギュレーションレジスタ(config
uration register)等から構成されている。
The IDE controller / configuration register 79 comprises two IDE controllers, a so-called primary IDE controller and a secondary IDE controller, and a configuration register (config
uration register).

【0069】プライマリIDEコントローラは、IDEバス8
3を介して、コネクタ(図示せず)に接続しており、コ
ネクタには、HDD86が接続されている。また、セカン
ダリIDEコントローラは、他のIDEバス(図示せず)を介
して、外部装置と接続可能なようになされている。
The primary IDE controller is the IDE bus 8
3 and a connector (not shown), to which the HDD 86 is connected. The secondary IDE controller can be connected to an external device via another IDE bus (not shown).

【0070】なお、HDD86には、ロボット制御プログ
ラム86A、電子メールプログラム86B、ジョグダイ
ヤル状態監視プログラム86C、ジョグダイヤルドライ
バ86D、OS(基本プログラムソフトウェア)86E、
その他の複数のアプリケーションプログラム86F1乃
至86Fn、さらに、それらのプログラムで用いられる
データ等が記憶されている。HDD86に記憶されている
プログラム86A乃至86Gnは、起動(ブートアッ
プ)処理の過程で、RAM74内に順次転送され、格納さ
れる。
The HDD 86 has a robot control program 86A, an e-mail program 86B, a jog dial status monitoring program 86C, a jog dial driver 86D, an OS (basic program software) 86E,
A plurality of other application programs 86F1 to 86Fn, and data used by those programs are stored. The programs 86A to 86Gn stored in the HDD 86 are sequentially transferred and stored in the RAM 74 during a boot-up process.

【0071】ISA/EIOバス84には、更に、I/Oインター
フェース87が接続されている。このI/Oインターフェ
ース87と、ROM88、RAM89、およびCPU90とは、
相互に接続されて構成されている。
The ISA / EIO bus 84 is further connected to an I / O interface 87. The I / O interface 87, the ROM 88, the RAM 89, and the CPU 90
They are connected to each other.

【0072】ROM88には、例えば、IEEE1394I/Fプログ
ラム88A、LED制御プログラム88B、タッチパッド
入力監視プログラム88C、キー入力監視プログラム8
8D、ウェイクアッププログラム88E、ジョグダイヤ
ル状態監視プログラム88Fが予め格納されている。
The ROM 88 stores, for example, an IEEE1394 I / F program 88A, an LED control program 88B, a touch pad input monitoring program 88C, and a key input monitoring program 8.
8D, a wake-up program 88E, and a jog dial state monitoring program 88F are stored in advance.

【0073】IEEE1394I/Fプログラム88AはIEEE1394
入出力ポート47を介して送受信されるIEEE1394準拠の
データの入出力を行うプログラムである。LED制御プロ
グラム88Bは、電源ランプPL、電池ランプBL、必要に
応じてメッセージランプML、その他のLEDよりなるラン
プの点灯の制御を行うプログラムである。タッチパッド
入力監視プログラム88Cは、タッチパッド43を用い
たユーザによる入力を監視するプログラムである。キー
入力監視プログラム88Dは、キーボード3やその他の
キースイッチを用いたユーザによる入力を監視するプロ
グラムである。ウェイクアッププログラム88Eは、ブ
リッジ78内のタイマ回路80から供給される現在時刻
データに基づいて、予め設定された時刻になったかどう
かをチェックして、設定された時刻になると、所定の処
理(またはプログラム)を起動するために各チップ電源
の管理を行うプログラムである。ジョグダイヤル状態監
視プログラム88Fは、ジョグダイヤル42の回転型エ
ンコーダ部の回転、あるいは押下を常に監視するための
プログラムである。
The IEEE1394 I / F program 88A is an IEEE1394
This is a program for inputting and outputting IEEE1394 compliant data transmitted and received via the input / output port 47. The LED control program 88B is a program for controlling lighting of a power lamp PL, a battery lamp BL, a message lamp ML as necessary, and other lamps including LEDs. The touchpad input monitoring program 88C is a program for monitoring an input by the user using the touchpad 43. The key input monitoring program 88D is a program for monitoring user input using the keyboard 3 and other key switches. The wake-up program 88E checks whether or not a preset time has come based on the current time data supplied from the timer circuit 80 in the bridge 78. When the preset time comes, the wake-up program 88E performs a predetermined process (or This is a program for managing each chip power supply in order to start the program. The jog dial state monitoring program 88F is a program for constantly monitoring the rotation or pressing of the rotary encoder of the jog dial 42.

【0074】更に、ROM88には、BIOS(Basic Input/O
utput System)88Gが書き込まれている。BIOSとは、
基本入出力システムのことをいい、OSやアプリケーショ
ンプログラムと周辺機器(ディスプレイ、キーボード、
HDD等)の間でのデータの入出力を制御するソフトウェ
アプログラムである。
Further, the ROM 88 has a BIOS (Basic Input / O
utput System) 88G is written. What is BIOS
Basic input / output system, which refers to OS and application programs and peripheral devices (display, keyboard,
HDD) is a software program that controls the input and output of data between HDDs.

【0075】RAM89は、LED制御、タッチパッド入力ス
テイタス、キー入力ステイタス、設定時刻用の各レジス
タや、ジョグダイヤル状態監視用のI/Oレジスタ、IEEE1
394I/Fレジスタ等を、レジスタ89A乃至89Fとして
有している。例えば、LED制御レジスタは、ジョグダイ
ヤル42が押下された場合、電子メールの瞬時の立ち上
げ状態を表示するメッセージランプMLの点灯を制御す
る。キー入力ステイタスレジスタは、ジョグダイヤル4
2が押下されると、操作キーフラグが格納されるように
なっている。設定時刻レジスタは、ある時刻を任意に設
定することができる。
The RAM 89 includes registers for LED control, touch pad input status, key input status, and set time, an I / O register for monitoring the status of the jog dial, IEEE1
394 I / F registers and the like are provided as registers 89A to 89F. For example, when the jog dial 42 is pressed, the LED control register controls lighting of a message lamp ML that indicates an instantaneous startup state of an e-mail. Key input status register is jog dial 4
When 2 is pressed, the operation key flag is stored. The set time register can arbitrarily set a certain time.

【0076】また、このI/Oインターフェース87に
は、図示を省略したコネクタを介して、キーボード3、
ジョグダイヤル42、タッチパッド43、IEEE1394入出
力ポート47がそれぞれ接続されており、キーボード
3、ジョグダイヤル42、タッチパッド43、を用い
て、ユーザが操作を行った場合、キーボード3、ジョグ
ダイヤル42、タッチパッド43から、それぞれが受け
た操作に対応する信号を入力され、ISA/EIOバス84に
出力するようになされている。更に、I/Oインターフェ
ース87は、IEEE1394入出力ポート47を介して外部と
の間でデータの送受信を行う。更に、I/Oインターフェ
ース87には、電源ランプPL、電池ランプBL、メッセー
ジランプML、電源制御回路73、その他のLEDよりなる
ランプが接続されている。
The keyboard 3 is connected to the I / O interface 87 via a connector (not shown).
The jog dial 42, the touch pad 43, and the IEEE1394 input / output port 47 are connected to each other. , A signal corresponding to each received operation is input and output to the ISA / EIO bus 84. Further, the I / O interface 87 transmits and receives data to and from the outside via the IEEE1394 input / output port 47. Further, the I / O interface 87 is connected to a power lamp PL, a battery lamp BL, a message lamp ML, a power control circuit 73, and other LEDs.

【0077】電源制御回路91は、内蔵バッテリ92又
はAC電源に接続されており、各ブロックに、必要な電源
を供給するとともに、内蔵バッテリ92や、周辺装置の
セカンドバッテリの充電のための制御を行うようになさ
れている。また、CPU90は、I/Oインターフェース87
を介して、電源をオン又はオフするとき操作される電源
スイッチ45を監視している。
The power supply control circuit 91 is connected to a built-in battery 92 or an AC power supply, and supplies necessary power to each block and controls charging of the built-in battery 92 and a second battery of a peripheral device. Has been made to do. Further, the CPU 90 includes an I / O interface 87.
, The power switch 45 operated when the power is turned on or off is monitored.

【0078】CPU90は、電源45がオフ状態の場合に
おいても、常に内部電源により、IEEE1394I/Fプログラ
ム88A乃至BIOS88Gを実行することができる。すな
わち、IEEE1394I/Fプログラム88A乃至BIOS88G
は、表示部2のLCD44上にいずれかのウインドウが開
いていない場合においても、常時行動している。従っ
て、CPU90は、電源スイッチ45がオフ状態で、OS7
4EがCPU71で起動されていなくても、常時、ジョグ
ダイヤル状態監視プログラム88Eを実行しており、パ
ーソナルコンピュータ1に専用のキーを設けなくとも、
プログラマブルパワーキー(PPK)機能を有するように
なされており、ユーザは、例えば、省電力状態、あるい
は電源オフ状態であっても、ジョグダイヤル42を押下
するだけで、好みのソフトウエアやスクリプトファイル
を起動することができる。
The CPU 90 can always execute the IEEE 1394 I / F programs 88A to 88G by the internal power supply even when the power supply 45 is off. That is, the IEEE 1394 I / F program 88A to the BIOS 88G
Is constantly acting even when no window is open on the LCD 44 of the display unit 2. Therefore, when the power switch 45 is off, the CPU 90
Even if 4E is not activated by the CPU 71, the jog dial state monitoring program 88E is always executed, and the personal computer 1 does not need to be provided with a dedicated key.
It has a programmable power key (PPK) function. The user can activate his / her favorite software or script file simply by pressing the jog dial 42, for example, even in a power saving state or power off state. can do.

【0079】図7は、ロボット制御プログラム74Aの
機能構成例を示すブロック図である。この機能構成は、
HDD86に保存されているロボット制御プログラム86
AがRAM74に展開されることで実現される。
FIG. 7 is a block diagram showing a functional configuration example of the robot control program 74A. This functional configuration is
Robot control program 86 stored in HDD 86
A is realized by expanding A in the RAM 74.

【0080】メール管理部131は、ユーザから新着メ
ールをチェックすることが指示された場合、電子メール
プログラム74Bと連動し、パーソナルコンピュータ1
に対して送信されてきた電子メールがメールボックス9
7に保存されている場合、それを取得する。
When the user instructs to check for a new mail, the mail management section 131 operates in conjunction with the electronic mail program 74B to operate the personal computer 1.
E-mail sent to mailbox 9
If it is stored in 7, retrieve it.

【0081】そして、メール管理部131は、電子メー
ルを取得したとき、例えば、1行(改行されている部分
まで)を単位として、テキストデータを音声合成部13
2に出力する。また、メール管理部131は、新着メー
ルが届いているとき、それをバーチャルロボット制御部
137に通知する。
When the mail management unit 131 obtains the electronic mail, the mail management unit 131 converts the text data in units of, for example, one line (up to a line break) into the speech synthesis unit 13.
Output to 2. When a new mail has arrived, the mail management unit 131 notifies the virtual robot control unit 137 of the arrival.

【0082】音声合成部132は、メール管理部131
からテキストデータが供給されてきたとき、そのテキス
トデータに基づいて音声合成用辞書133を参照し、例
えば、WAVフォーマットなどの音声データを生成する。
The voice synthesizing unit 132 includes a mail managing unit 131
When text data is supplied from, the voice synthesis dictionary 133 is referred to based on the text data to generate voice data in, for example, a WAV format.

【0083】すなわち、音声合成用辞書133には、各
単語の品詞情報や、読み、アクセント等の情報が記述さ
れた単語辞書、その単語辞書に記述された単語につい
て、単語連鎖に関する制約等の生成用文法規則、音声情
報としての音素片データが記憶された音声情報辞書が格
納されている。
That is, the speech synthesis dictionary 133 includes a word dictionary in which part-of-speech information of each word, information such as reading, accent, and the like are described, and for words described in the word dictionary, restrictions on word chains are generated. A speech information dictionary storing speech grammar rules and speech segment data as speech information is stored.

【0084】そして、音声合成部132は、この単語辞
書、および生成用文法規則に基づいて、入力されるテキ
ストの形態素解析や、構文解析等のテキスト解析(言語
解析)を行い、音声合成に必要な情報を抽出する。ここ
で、音声合成に必要な情報としては、例えば、ポーズの
位置や、アクセント、イントネーション、パワー等を制
御するための韻律情報、各単語の発音を表す音韻情報な
どがある。
The speech synthesizer 132 performs text analysis (language analysis) such as morphological analysis and syntax analysis of the input text based on the word dictionary and the grammar rules for generation, and performs speech analysis. Extract important information. Here, the information necessary for speech synthesis includes, for example, prosody information for controlling the position of a pause, accent, intonation, power, and the like, and phonemic information representing the pronunciation of each word.

【0085】音声合成部132は、音声合成に必要な情
報を抽出したとき、それに基づいて、音声情報辞書を参
照しながら、入力されたテキストデータに対応する合成
音の音声データ(ディジタルデータ)を生成する。
When the speech synthesis section 132 extracts information necessary for speech synthesis, the speech synthesis section 132 refers to the speech information dictionary and, based on the extracted information, converts the speech data (digital data) of the synthesized speech corresponding to the input text data. Generate.

【0086】すなわち、音声合成部132は、テキスト
解析により抽出した各種の情報に基づいて、必要な音素
片データを接続し、さらに、音素片データの波形を加工
することによって、ポーズ、アクセント、イントネーシ
ョン等を適切に付加し、これにより、供給されてきたテ
キストに対応する合成音の音声データ(合成音データ)
を生成する。
That is, the speech synthesizing unit 132 connects necessary phoneme piece data based on various information extracted by text analysis, and further processes the waveform of the phoneme piece data to form a pause, accent, intonation. And so on, so that the synthesized speech data (synthesized sound data) corresponding to the supplied text.
Generate

【0087】音声合成部132により生成された音声デ
ータとテキストデータは、音声出力時間算出部134と
行動選択部135に供給される。
The voice data and text data generated by the voice synthesizer 132 are supplied to a voice output time calculator 134 and an action selector 135.

【0088】音声出力時間算出部134は、音声合成部
132から供給されてきた音声データに基づいて、テキ
ストデータを構成するそれぞれの単語の合成音の出力時
間を算出し、行動選択部135に出力する。
The voice output time calculating section 134 calculates the output time of the synthesized sound of each word constituting the text data based on the voice data supplied from the voice synthesizing section 132 and outputs it to the action selecting section 135. I do.

【0089】行動選択部135は、行動選択用辞書13
6を参照し、音声合成部132から供給されてきたテキ
ストデータに含まれる、バーチャルロボット11、また
はリアルロボット31(以下、バーチャルロボット1
1、およびリアルロボット31のそれぞれを個々に区別
する必要がない場合、まとめてロボットと称する)が、
そのキーワードを発話することに合わせて実行すること
が可能な行動を指定する単語(キーワード)を検索す
る。
The action selecting section 135 is used to select the action selecting dictionary 13
6, the virtual robot 11 or the real robot 31 (hereinafter, virtual robot 1) included in the text data supplied from the voice synthesis unit 132.
1 and the real robot 31 do not need to be individually distinguished, they are collectively referred to as a robot).
A search is made for a word (keyword) that specifies an action that can be executed in accordance with the utterance of the keyword.

【0090】すなわち、行動選択用辞書136には、例
えば、一般的に電子メールで使用される単語であって、
かつ、ロボットが行動で表現することが可能な言葉が複
数種類、予め登録されている。そのような単語には、例
えば、「おはよう」、「こんにちは」、「さようなら」
などの挨拶や、「寝る」、「ダンス」などのロボットが
可能とされる行動(ポーズ)がある。
That is, the action selection dictionary 136 contains, for example, words generally used in electronic mail,
In addition, a plurality of types of words that can be expressed by the robot in action are registered in advance. In such a word, for example, "Good morning", "Hello", "Goodbye"
There are greetings such as "Sleep" and "dance" and other actions (poses) that can be made possible by the robot.

【0091】そして、行動選択部135は、音声合成部
132から供給されてきたテキストデータ中に、そのよ
うなキーワードが含まれているとき、そのキーワードに
対応する行動を選択し、選択した行動の識別情報と、音
声出力時間算出部134による算出結果に基づいて決定
した、行動をとるタイミング(行動をとる期間)に関す
る情報を、行動情報としてバーチャルロボット制御部1
37、またはリアルロボットスクリプト生成部138に
出力する。
When the text data supplied from the speech synthesizer 132 includes such a keyword, the action selector 135 selects an action corresponding to the keyword, and selects an action corresponding to the keyword. The virtual robot control unit 1 uses the identification information and the information on the timing of taking an action (period of taking an action) determined based on the calculation result by the voice output time calculation unit 134 as action information.
37 or the real robot script generation unit 138.

【0092】バーチャルロボット制御部137は、通常
時には、制御プログラムとユーザからの入力に従って、
バーチャルロボット11の行動を制御し、LCD44にお
けるバーチャルロボット11の表示を制御する。また、
バーチャルロボット制御部137は、例えば、バーチャ
ルロボット11が電子メールを読み上げるような画像を
LCD44に表示させることに合わせて、スピーカ65か
ら音声を出力させる。
The virtual robot control unit 137 normally operates according to the control program and user input.
The behavior of the virtual robot 11 is controlled, and the display of the virtual robot 11 on the LCD 44 is controlled. Also,
The virtual robot control unit 137 generates, for example, an image in which the virtual robot 11 reads an e-mail.
The sound is output from the speaker 65 in accordance with the display on the LCD 44.

【0093】また、バーチャルロボット制御部137
は、メール管理部131から、新着メールがあることが
通知されることに応じて、例えば、リアルロボット31
が手紙(メール)をとってきたような画像をLCD44に
表示させる。
The virtual robot controller 137
Responds to the notification from the mail management unit 131 that there is a new mail, for example, the real robot 31
Causes the LCD 44 to display an image as if the user received a letter (mail).

【0094】リアルロボットスクリプト生成部138
は、行動選択部135から行動情報が供給されてきたと
き、それに基づいて、リアルロボット31の行動を制御
する行動スクリプトをスクリプト記憶部139から読み
出す。すなわち、スクリプト記憶部139には、行動選
択部135により選択された行動と、その行動を実行す
るための行動スクリプトの対応テーブルが記憶されてい
る。
Real robot script generator 138
Reads the action script for controlling the action of the real robot 31 from the script storage unit 139 based on the action information supplied from the action selection unit 135. That is, the script storage unit 139 stores a correspondence table between the action selected by the action selection unit 135 and an action script for executing the action.

【0095】図8は、スクリプト記憶部139に記憶さ
れている行動(キーワード)と行動スクリプトの対応例
を示す図である。
FIG. 8 is a diagram showing an example of correspondence between actions (keywords) stored in the script storage unit 139 and action scripts.

【0096】図に示すように、例えば、キーワードとし
ての「こんにちは」に対応して「PLAY:ACTION:Hello」
の行動スクリプトが記憶され、「おやすみなさい」に対
応して「PLAY:ACTION:SLEEP」が記憶されている。
[0096] As shown in the figure, for example, corresponds to the "Hello" as the keyword "PLAY: ACTION: Hello"
Is stored, and "PLAY: ACTION: SLEEP" is stored corresponding to "Good night".

【0097】また、スクリプト記憶部139には、キー
ワードとしての「ダンス」に対応して「PLAY:ACTION:Da
nce」の行動スクリプトが記憶されており、この行動ス
クリプトを実行することで、リアルロボット31は、
「ダンス」を音声出力することに合わせて、ダンスをす
る。
The script storage unit 139 stores “PLAY: ACTION: Da” corresponding to “dance” as a keyword.
nce "is stored, and by executing this behavior script, the real robot 31
The dance is performed along with the sound output of "dance".

【0098】さらに、図の上から4行目に示すように、
「さようなら」に対応して「PLAY:ACTION:BYE:1000」が
記憶されている。この行動スクリプトの最後に含まれて
いる「1000」は、「さようなら」に対応する「手を横に
振る」などの行動をリアルロボット31にとり続けさせ
る時間を示しており、単位はmsecである。従って、この
行動スクリプトを実行した場合、リアルロボット31
は、「さようなら」を発話することに合わせて、「1秒
間」だけ、「横に手を振る」といった行動をとる。な
お、行動する時間は、音声出力時間算出部134の算出
結果に基づいて変更され、記述される。
Further, as shown in the fourth line from the top of the figure,
“PLAY: ACTION: BYE: 1000” is stored corresponding to “Goodbye”. “1000” included at the end of the action script indicates a time for which the real robot 31 keeps taking an action such as “shaking hand” corresponding to “good-bye”, and the unit is msec. Therefore, when this action script is executed, the real robot 31
Takes an action such as "waving sideways" for "one second" in time with the utterance of "good-bye". Note that the action time is changed and described based on the calculation result of the audio output time calculation unit 134.

【0099】この他に、スクリプト記憶部139には、
キーワードが含まれていない文章を読み上げる期間だ
け、リアルロボット31が口の開閉を繰り返すように、
「PLAY:ACTION:mouthACT:2000」などの行動スクリプト
が記憶されている。従って、この行動スクリプトを実行
することで、リアルロボット31は、キーワードを含ん
でいない文章を音声出力することに合わせて、口の開閉
を繰り返すように制御される。そのため、あたかもリア
ルロボット31が電子メールを読み上げているような状
態となる。
In addition, the script storage unit 139 stores
As long as the real robot 31 repeats opening and closing of the mouth only during the period of reading out sentences that do not include the keyword,
An action script such as "PLAY: ACTION: mouthACT: 2000" is stored. Therefore, by executing this action script, the real robot 31 is controlled so as to repeat opening and closing of the mouth in synchronism with outputting a sentence containing no keyword. Therefore, it is as if the real robot 31 is reading out the e-mail.

【0100】リアルロボットスクリプト生成部138
は、スクリプト記憶部139から取得した行動スクリプ
トを、予め用意されている制御スクリプトの雛形の所定
の位置に挿入し、制御スクリプトを生成する。リアルロ
ボットスクリプト生成部138は、生成した制御スクリ
プトと、行動選択部135から供給されてきた音声デー
タをスクリプト送信部140、または半導体メモリ管理
部141に出力する。
Real robot script generator 138
Inserts the action script acquired from the script storage unit 139 into a predetermined position of a prepared control script template to generate a control script. The real robot script generation unit 138 outputs the generated control script and the audio data supplied from the action selection unit 135 to the script transmission unit 140 or the semiconductor memory management unit 141.

【0101】スクリプト送信部140は、無線通信部4
を制御し、リアルロボットスクリプト生成部138から
供給されてきた制御スクリプトと音声データをリアルロ
ボット31に送信する。
The script transmitting section 140 is connected to the wireless communication section 4
And transmits the control script and the voice data supplied from the real robot script generation unit 138 to the real robot 31.

【0102】半導体メモリ管理部141は、ドライブ1
06を制御し、リアルロボットスクリプト生成部138
から供給されてきた制御スクリプトと音声データを半導
体メモリ21に書き込み、リアルロボット31に提供す
る。
The semiconductor memory management section 141 has a drive 1
06, the real robot script generation unit 138
The control script and the voice data supplied from are written into the semiconductor memory 21 and provided to the real robot 31.

【0103】次に、リアルロボット31の構成について
説明する。
Next, the configuration of the real robot 31 will be described.

【0104】図9は、リアルロボット31の外観構成の
例を示す斜視図であり、図10は、その内部構成の例を
示すブロック図である。
FIG. 9 is a perspective view showing an example of the external configuration of the real robot 31, and FIG. 10 is a block diagram showing an example of the internal configuration.

【0105】図9に示すように、リアルロボット31
は、四つ足の動物型のロボットとされている。胴体部ユ
ニット151の前後左右に、それぞれ、脚部ユニット1
52A,152B,152C,152Dが連結され、胴体部
ユニット151の前端部と後端部に、それぞれ、頭部ユ
ニット153と尻尾部ユニット154が連結されてい
る。
As shown in FIG. 9, the real robot 31
Is a four-legged animal-type robot. Leg unit 1 at the front, back, left and right of body unit 151
52A, 152B, 152C, and 152D are connected, and a head unit 153 and a tail unit 154 are connected to a front end and a rear end of the body unit 151, respectively.

【0106】なお、胴体部ユニット151の上面には背
中センサ151Aが設けられ、頭部ユニット153に
は、その上部に頭センサ153Aが、下部に顎センサ1
53Bがそれぞれ設けられている。
It should be noted that a back sensor 151A is provided on the upper surface of the body unit 151, and a head sensor 153A is provided above the head unit 153 and a jaw sensor 1 is provided below the head unit 153.
53B are provided respectively.

【0107】尻尾部ユニット154は、水平方向、およ
び上下方向に揺動自在に引き出されている。
The tail unit 154 is drawn so as to be swingable in the horizontal and vertical directions.

【0108】図10に示すように、胴体部ユニット15
1には、コントローラ161が格納されている。コント
ローラ161には、基本的に、コントローラ161の全
体の動作を制御するCPU161A、CPU161Aが各部を制
御するのに用いるプログラムが記憶されているメモリ1
61Bが配置されている。
[0108] As shown in FIG.
1 stores a controller 161. The controller 161 basically includes a CPU 161A that controls the entire operation of the controller 161 and a memory 1 that stores a program used by the CPU 161A to control each unit.
61B are arranged.

【0109】また、胴体部ユニット151には、パーソ
ナルコンピュータ1の無線通信部4と、TCP/IPに基づい
て通信する通信部162が格納されている。これによ
り、パーソナルコンピュータ1において生成され、無線
を介して送信されてきた制御スクリプト、および音声デ
ータを取得することが可能になっている。
The body unit 151 stores a communication unit 162 for communicating with the wireless communication unit 4 of the personal computer 1 based on TCP / IP. As a result, it is possible to acquire the control script and the audio data generated by the personal computer 1 and transmitted via wireless communication.

【0110】さらに、胴体部ユニット151には、半導
体メモリ制御部163が設けられており、半導体メモリ
制御部163は、所定のスロットに装着された半導体メ
モリ21を制御し、データの読み書きを行う。例えば、
パーソナルコンピュータ1において、半導体メモリ21
に書き込まれたリアルロボット31用の制御スクリプ
ト、および音声データは、半導体メモリ制御部163に
より読み出され、コントローラ161に供給される。
Further, a semiconductor memory controller 163 is provided in the body unit 151, and the semiconductor memory controller 163 controls the semiconductor memory 21 mounted in a predetermined slot to read and write data. For example,
In the personal computer 1, the semiconductor memory 21
The control script for the real robot 31 and the voice data written in are written by the semiconductor memory control unit 163 and supplied to the controller 161.

【0111】また、背中センサ151Aにより、ユーザ
からの圧力が検出されたとき、圧力検出信号がコントロ
ーラ161に出力される。
When a pressure from the user is detected by the back sensor 151A, a pressure detection signal is output to the controller 161.

【0112】胴体部ユニット151には、コントローラ
161、通信部162、半導体メモリ制御部163の他
に、例えば、リアルロボット31の動力源となるバッテ
リ(図示せず)等も格納されている。
The body unit 151 stores, for example, a battery (not shown) serving as a power source of the real robot 31 in addition to the controller 161, the communication unit 162, and the semiconductor memory control unit 163.

【0113】図10に示すように、頭部ユニット153
には、外部からの刺激を感知するセンサとしての、音を
感知する「耳」に相当するマイク171、光を感知する
「目」に相当するCCD(Charge Coupled Device)172、
およびユーザがふれることによる圧力等を感知する触覚
に相当する頭センサ153A、および顎センサ153B
が、それぞれ所定の位置に設けられている。また、頭部
ユニット153には、リアルロボット31の「口」に相
当するスピーカ173が、所定の位置に設置されてい
る。
As shown in FIG. 10, the head unit 153
A microphone 171 corresponding to an “ear” for sensing sound, a CCD (Charge Coupled Device) 172 corresponding to an “eye” for sensing light, as a sensor for sensing an external stimulus;
And a head sensor 153A and a jaw sensor 153B corresponding to a tactile sensation for sensing pressure or the like caused by touching the user.
Are provided at predetermined positions, respectively. In the head unit 153, a speaker 173 corresponding to the “mouth” of the real robot 31 is installed at a predetermined position.

【0114】脚部ユニット152A乃至152Dのそれぞ
れの関節部分、脚部ユニット152A乃至152Dのそれ
ぞれと胴体部ユニット151の連結部分、頭部ユニット
153と胴体部ユニット151の連結部分、並びに尻尾
部ユニット154と胴体部ユニット151の連結部分な
どには、アクチュエータが設置されている。アクチュエ
ータは、コントローラ161からの指示に基づいて各部
を動作させる。
The joints of the leg units 152A to 152D, the connection of the leg units 152A to 152D and the body unit 151, the connection of the head unit 153 and the body unit 151, and the tail unit 154 An actuator is installed at a connection portion of the body unit 151 and the like. The actuator operates each unit based on an instruction from the controller 161.

【0115】頭部ユニット153に設置されるマイク1
71は、ユーザからの発話を含む周囲の音声(音)を集
音し、得られた音声信号を、コントローラ161に出力
する。CCD172は、周囲の状況を撮像し、得られた画
像信号を、コントローラ161に出力する。頭センサ1
53Aは、例えば、頭部ユニット153の上部に設けら
れており、ユーザからの「撫でる」や「叩く」といった
物理的な働きかけにより受けた圧力を検出し、その検出
結果を圧力検出信号としてコントローラ161に出力す
る。顎センサ153Bは、頭部ユニット153の下部
(リアルロボット31を動物とした場合、その顎の部
分)に設けられており、頭センサ153Aと同様に、ユ
ーザからの圧力を検出し、検出結果をコントローラ16
1に出力する。
Microphone 1 installed in head unit 153
The 71 collects surrounding sounds (sounds) including utterances from the user, and outputs the obtained sound signals to the controller 161. The CCD 172 captures an image of the surrounding situation and outputs an obtained image signal to the controller 161. Head sensor 1
53A is provided, for example, on the upper part of the head unit 153, detects a pressure received by a physical action such as “stroke” or “hit” from the user, and uses the detection result as a pressure detection signal as a pressure detection signal. Output to The jaw sensor 153B is provided at a lower portion of the head unit 153 (when the real robot 31 is an animal, the jaw portion), and similarly to the head sensor 153A, detects the pressure from the user and outputs the detection result. Controller 16
Output to 1.

【0116】コントローラ161は、マイク171、CC
D172、背中センサ151A、頭センサ153A、お
よび顎センサ153Bから与えられる音声信号、画像信
号、圧力検出信号に基づいて、周囲の状況や、ユーザか
らの指令、ユーザからの働きかけなどの有無を判断し、
その判断結果に基づいて、リアルロボット31が次にと
る行動を決定する。そして、コントローラ161は、そ
の決定に基づいて、必要なアクチュエータを駆動させ、
これにより、頭部ユニット153を上下左右に振らせた
り、尻尾部ユニット154を動かせたり、各脚部ユニッ
ト152A乃至152Dを駆動して、リアルロボット31
を歩行させるなどの行動をとらせる。
The controller 161 includes a microphone 171 and a CC
Based on the audio signal, the image signal, and the pressure detection signal provided from D172, the back sensor 151A, the head sensor 153A, and the jaw sensor 153B, it is determined whether there is a surrounding situation, a command from the user, a user's action, or the like. ,
Based on the result of the determination, the action to be taken next by the real robot 31 is determined. Then, the controller 161 drives the necessary actuator based on the determination,
Thereby, the head unit 153 can be swung up and down, left and right, the tail unit 154 can be moved, and the leg units 152A to 152D are driven, thereby real robot 31
Take actions such as walking.

【0117】また、コントローラ161は、パーソナル
コンピュータ1から無線や半導体メモリ21を介して提
供されてきた制御スクリプトを実行し、ユーザが指示し
た行動をとる。
The controller 161 executes a control script provided from the personal computer 1 wirelessly or via the semiconductor memory 21, and performs an action specified by the user.

【0118】さらに、コントローラ161は、例えば、
パーソナルコンピュータ1から無線、または半導体メモ
リ21を介して提供された音声データに基づいて、合成
音を生成し、それをスピーカ173に出力させる。スピ
ーカ173は、例えば、リアルロボット31の頭ユニッ
ト153の口に相当する部分に設けられており、口を開
閉しながら合成音を出力することで、例えば、リアルロ
ボット31が電子メールを読み上げているような状態と
なる。
Further, for example, the controller 161
A synthetic sound is generated based on audio data provided from the personal computer 1 wirelessly or via the semiconductor memory 21 and output to the speaker 173. The speaker 173 is provided, for example, at a portion corresponding to the mouth of the head unit 153 of the real robot 31. By outputting a synthetic sound while opening and closing the mouth, for example, the real robot 31 reads out an e-mail. It becomes such a state.

【0119】その他にも、コントローラ161は、リア
ルロボット31の「目」の位置に設けられた、図示しな
いLEDを点灯、消灯または点滅させるなどの処理を行
う。
In addition, the controller 161 performs processing such as turning on / off or blinking an LED (not shown) provided at the position of the “eye” of the real robot 31.

【0120】以上のようにして、リアルロボット31
は、周囲の状況や、接してくるユーザに基づいて、自律
的に行動をとるようになっている。
As described above, the real robot 31
Takes an autonomous action based on the surrounding situation and the user who comes in contact.

【0121】図11は、図10のコントローラ161の
機能的構成例を示している。なお、図11に示す機能的
構成は、CPU161Aが、メモリ161Bに記憶された制
御プログラムを実行することで実現される。
FIG. 11 shows an example of a functional configuration of the controller 161 shown in FIG. Note that the functional configuration illustrated in FIG. 11 is realized by the CPU 161A executing a control program stored in the memory 161B.

【0122】コントローラ161のセンサ入力処理部1
81は、背中センサ151Aや、頭センサ153A、顎
センサ153B、マイク171、CCD172等からそれ
ぞれ与えられる圧力検出信号、音声信号、画像信号等に
基づいて、特定の外部状態や、ユーザからの特定の働き
かけ、ユーザからの指示等を認識し、その認識結果を表
す状態認識情報を、モデル記憶部182および行動決定
機構部183に通知する。
Sensor input processing unit 1 of controller 161
81 is based on a pressure detection signal, a voice signal, an image signal, and the like provided from the back sensor 151A, the head sensor 153A, the jaw sensor 153B, the microphone 171, the CCD 172, and the like, and a specific external state or a specific user. In response, the user recognizes an instruction from the user or the like, and notifies the model storage unit 182 and the action determination mechanism unit 183 of state recognition information indicating the recognition result.

【0123】即ち、センサ入力処理部181は、圧力処
理部181A、音声認識部181B、および画像処理部
181Cを有している。
That is, the sensor input processing section 181 has a pressure processing section 181A, a voice recognition section 181B, and an image processing section 181C.

【0124】圧力処理部181Aは、背中センサ151
A、頭センサ153A、または顎センサ153Bから与
えられる圧力検出信号を処理する。そして、圧力処理部
181Aは、その処理の結果、所定の閾値以上で、かつ
短時間の圧力を検出したときには、「叩かれた(しから
れた)」と認識し、所定の閾値未満で、かつ長時間の圧
力を検出したときには、「なでられた(ほめられた)」
と認識して、その認識結果を、状態認識情報として、モ
デル記憶部182、行動決定機構部183、およびスク
リプト実行部187に通知する。
The pressure processing section 181A includes a back sensor 151
A, processes the pressure detection signal given from the head sensor 153A or the jaw sensor 153B. Then, as a result of the processing, when the pressure processing unit 181A detects a pressure that is equal to or more than a predetermined threshold value and is short-time, the pressure processing unit 181A recognizes “hit”, is less than the predetermined threshold value, and When long-term pressure is detected, "stroke"
Then, the recognition result is notified to the model storage unit 182, the action determination mechanism unit 183, and the script execution unit 187 as state recognition information.

【0125】音声認識部181Bは、マイク171から
与えられる音声信号について音声認識を行う。そして、
音声認識部181Bは、その音声認識結果としての、例
えば、「歩け」、「伏せ」、「ボールを追いかけろ」等
の指令その他を、状態認識情報として、モデル記憶部1
82、および行動決定機構部183に通知する。
[0125] The voice recognition section 181B performs voice recognition on a voice signal given from the microphone 171. And
The voice recognition unit 181B receives, as state recognition information, commands such as “walk”, “down”, “follow the ball”, and the like as model recognition unit 1 as state recognition information.
82 and the action determination mechanism unit 183.

【0126】画像処理部181Cは、CCD172から与
えられる画像信号を用いて、画像認識処理を行う。そし
て、画像処理部181Cは、その処理の結果、例えば、
「赤い丸いもの」や、「地面に対して垂直なかつ所定の
高さ以上の平面」等を検出したときには、「ボールがあ
る」や、「壁がある」等の画像認識結果を、状態認識情
報として、モデル記憶部182、および行動決定機構部
183に通知する。
The image processing section 181C performs an image recognition process using an image signal given from the CCD 172. Then, the image processing unit 181C, as a result of the processing, for example,
When detecting a "red round object" or "a plane perpendicular to the ground and at a predetermined height or more", image recognition results such as "there is a ball" or "there is a wall" are sent to the state recognition information. To the model storage unit 182 and the action determination mechanism unit 183.

【0127】モデル記憶部182は、ロボットの感情、
本能、成長の状態を表現する感情モデル、本能モデル、
成長モデルをそれぞれ記憶し、管理している。
The model storage unit 182 stores the emotions of the robot,
Instinct, emotional model expressing the state of growth, instinct model,
Each growth model is stored and managed.

【0128】ここで、感情モデルは、例えば、「うれし
さ」、「悲しさ」、「怒り」、「楽しさ」等の感情の状
態(度合い)を、所定の範囲(例えば、−1.0乃至
1.0等)の値によってそれぞれ表し、センサ入力処理
部181からの状態認識情報や時間経過等に基づいて、
その値を変化させる。
Here, the emotion model indicates the state (degree) of emotions such as "joy,""sadness,""anger,""fun," for example, in a predetermined range (for example, -1.0). To 1.0, etc.), and based on state recognition information from the sensor input processing unit 181 and the passage of time, etc.
Change its value.

【0129】本能モデルは、例えば、「食欲」、「睡眠
欲」、「運動欲」等の本能による欲求の状態(度合い)
を、所定の範囲の値によってそれぞれ表し、センサ入力
処理部181からの状態認識情報や時間経過等に基づい
て、その値を変化させる。
The instinct model is, for example, the state (degree) of desire by instinct such as “appetite”, “sleep desire”, and “exercise desire”.
Is represented by a value in a predetermined range, and the value is changed based on the state recognition information from the sensor input processing unit 181 or the passage of time.

【0130】成長モデルは、例えば、「幼年期」、「青
年期」、「熟年期」、「老年期」等の成長の状態(度合
い)を、所定の範囲の値によってそれぞれ表し、センサ
入力処理部181からの状態認識情報や時間経過等に基
づいて、その値を変化させる。
The growth model represents, for example, the growth state (degree) such as “childhood”, “adolescence”, “maturity”, “elderly”, etc., by a value in a predetermined range. The value is changed based on the state recognition information from the unit 181 or the passage of time.

【0131】モデル記憶部182は、上述のようにして
感情モデル、本能モデル、成長モデルの値で表される感
情、本能、成長の状態を、状態情報として、行動決定機
構部183に送出する。
The model storage unit 182 sends the emotion, instinct, and growth state represented by the values of the emotion model, instinct model, and growth model as described above to the action determination mechanism unit 183 as state information.

【0132】なお、モデル記憶部182には、センサ入
力処理部181から状態認識情報が供給される他に、行
動決定機構部183から、リアルロボット31の現在ま
たは過去の行動、具体的には、例えば、「長時間歩い
た」などの行動の内容を示す行動情報が供給されるよう
になっており、モデル記憶部182は、同一の状態認識
情報が与えられても、行動情報が示すリアルロボット3
1の行動に応じて、異なる状態情報を生成するようにな
っている。
The model storage unit 182 is supplied with the state recognition information from the sensor input processing unit 181, and the current or past behavior of the real robot 31, specifically, from the behavior determination mechanism unit 183. For example, behavior information indicating the content of the behavior such as “walking for a long time” is supplied, and even if the same state recognition information is given, the model storage unit 182 stores the real robot indicated by the behavior information. 3
Different state information is generated according to one action.

【0133】例えば、リアルロボット31が、ユーザに
挨拶をし、ユーザに頭を撫でられた場合には、ユーザに
挨拶をしたという行動情報と、頭を撫でられたという状
態認識情報とが、モデル記憶部182に与えられ、この
場合、モデル記憶部182では、「うれしさ」を表す感
情モデルの値が増加される。
For example, when the real robot 31 greets the user and strokes the user's head, the behavior information that the user greets the user and the state recognition information that the user strokes the head are represented by the model. This is provided to the storage unit 182, and in this case, the model storage unit 182 increases the value of the emotion model representing “joy”.

【0134】行動決定機構部183は、センサ入力処理
部181からの状態認識情報や、モデル記憶部182か
らの状態情報、時間経過等に基づいて、次の行動を決定
し、決定された行動の内容を、行動指令情報として、姿
勢遷移機構部184に出力する。
The action determining mechanism 183 determines the next action based on the state recognition information from the sensor input processing section 181, the state information from the model storage section 182, the passage of time, and the like. The content is output to the posture transition mechanism unit 184 as action command information.

【0135】即ち、行動決定機構部183は、リアルロ
ボット31がとり得る行動をステート(状態)(state)
に対応させた有限オートマトンを、リアルロボット31
の行動を規定する行動モデルとして管理している。そし
て、行動決定機構部183は、この行動モデルとしての
有限オートマトンにおけるステートを、センサ入力処理
部181からの状態認識情報や、モデル記憶部182に
おける感情モデル、本能モデル、または成長モデルの
値、時間経過等に基づいて遷移させ、遷移後のステート
に対応する行動を、次にとるべき行動として決定する。
That is, the action determining mechanism 183 sets the action that the real robot 31 can take as a state (state).
Finite automaton corresponding to the real robot 31
Is managed as a behavior model that defines the behavior of Then, the behavior determining mechanism unit 183 stores the state in the finite automaton as the behavior model, the state recognition information from the sensor input processing unit 181, the value of the emotion model, the instinct model, or the growth model in the model storage unit 182, and the time. A transition is made based on progress or the like, and an action corresponding to the state after the transition is determined as an action to be taken next.

【0136】ここで、行動決定機構部183は、所定の
トリガ(trigger)があったことを検出すると、ステート
を遷移させる。即ち、行動決定機構部183は、例え
ば、現在のステートに対応する行動を実行している時間
が所定時間に達したときや、特定の状態認識情報を受信
したとき、モデル記憶部182から供給される状態情報
が示す感情や、本能、成長の状態の値が所定の閾値以下
または以上になったとき等に、ステートを遷移させる。
Here, upon detecting that a predetermined trigger has occurred, the action determining mechanism 183 changes the state. That is, for example, when the time during which the action corresponding to the current state is being executed reaches a predetermined time, or when specific state recognition information is received, the action determination mechanism unit 183 is supplied from the model storage unit 182. The state is changed when the value of the emotion, instinct, or growth state indicated by the state information is equal to or less than a predetermined threshold.

【0137】なお、行動決定機構部183は、上述した
ように、センサ入力処理部181からの状態認識情報だ
けでなく、モデル記憶部182における感情モデルや、
本能モデル、成長モデルの値等にも基づいて、行動モデ
ルにおけるステートを遷移させることから、同一の状態
認識情報が入力されても、感情モデルや、本能モデル、
成長モデルの値(状態情報)によっては、ステートの遷
移先は異なるものとなる。
As described above, the action determining mechanism unit 183 includes not only the state recognition information from the sensor input processing unit 181 but also the emotion model in the model storage unit 182,
Since the states in the behavior model are transited based on the values of the instinct model and the growth model, even if the same state recognition information is input, the emotion model, the instinct model,
Depending on the value (state information) of the growth model, the state transition destination is different.

【0138】その結果、行動決定機構部183は、例え
ば、状態情報が、「怒っていない」こと、および「お腹
がすいていない」ことを表している場合において、状態
認識情報が、「目の前に手のひらが差し出された」こと
を表しているときには、目の前に手のひらが差し出され
たことに応じて、「お手」という行動をとらせる行動指
令情報を生成し、これを、姿勢遷移機構部184に送出
する。
As a result, for example, when the state information indicates “not angry” and “not hungry”, the action determining mechanism 183 sets the state recognition information to “eye”. When the palm has been presented before, the action command information for taking the action of "hand" is generated in accordance with the palm being presented in front of the eyes, It is sent to the posture transition mechanism 184.

【0139】また、行動決定機構部183は、例えば、
状態情報が、「怒っていない」こと、および「お腹がす
いている」ことを表している場合において、状態認識情
報が、「目の前に手のひらが差し出された」ことを表し
ているときには、目の前に手のひらが差し出されたこと
に応じて、「手のひらをぺろぺろなめる」ような行動を
行わせるための行動指令情報を生成し、これを、姿勢遷
移機構部184に送出する。
The action determining mechanism 183 is, for example,
When the status information indicates that "the user is not angry" and "is hungry", and the status recognition information indicates that "the palm is in front of the eyes" In response to the palm being presented in front of the user, action command information for causing the user to perform an action such as “palm licking the palm” is generated and transmitted to the posture transition mechanism unit 184.

【0140】なお、行動決定機構部183には、モデル
記憶部182から供給される状態情報が示す感情や、本
能、成長の状態に基づいて、遷移先のステートに対応す
る行動のパラメータとしての、例えば、歩行の速度や、
手足を動かす際の動きの大きさおよび速度などを決定さ
せることができ、この場合、それらのパラメータを含む
行動指令情報が、姿勢遷移機構部184に送出される。
The action determining mechanism 183 stores, as a parameter of the action corresponding to the transition destination state, based on the emotion, instinct, and growth state indicated by the state information supplied from the model storage section 182. For example, walking speed,
The magnitude and speed of the movement when moving the limb can be determined. In this case, action command information including those parameters is sent to the posture transition mechanism unit 184.

【0141】また、行動決定機構部183では、上述し
たように、リアルロボット31の頭部や手足等を動作さ
せる行動指令情報の他、リアルロボット31に発話を行
わせる行動指令情報も生成される。そして、リアルロボ
ット31に発話させる行動指令情報は、音声合成部18
6に供給されるようになっている。
In addition, as described above, the action determining mechanism 183 generates action command information for causing the real robot 31 to speak, in addition to action command information for operating the head, limbs, and the like of the real robot 31. . Then, the action command information to cause the real robot 31 to speak is
6 is supplied.

【0142】姿勢遷移機構部184は、行動決定機構部
183、またはスクリプト実行部187から供給される
行動指令情報に基づいて、リアルロボット31の姿勢
を、現在の姿勢から次の姿勢に遷移させるための姿勢遷
移情報を生成し、これを制御機構部185に送出する。
The posture transition mechanism unit 184 is for changing the posture of the real robot 31 from the current posture to the next posture based on the behavior command information supplied from the behavior determination mechanism unit 183 or the script execution unit 187. Is generated and sent to the control mechanism unit 185.

【0143】ここで、現在の姿勢から次に遷移可能な姿
勢は、例えば、胴体や手や足の形状、重さ、各部の結合
状態のようなリアルロボット31の物理的形状と、関節
が曲がる方向や角度のようなアクチュエータの機構とに
よって決定される。
Here, the posture that can be changed next from the current posture is, for example, the physical shape of the real robot 31 such as the shape and weight of the body, hands and feet, and the connection state of each part, and the joint is bent. It is determined by the mechanism of the actuator, such as direction and angle.

【0144】また、次の姿勢としては、現在の姿勢から
直接遷移可能な姿勢と、直接には遷移できない姿勢とが
ある。例えば、4本足のリアルロボット31は、手足を
大きく投げ出して寝転んでいる状態から、伏せた状態へ
直接遷移することはできるが、立った状態へ直接遷移す
ることはできず、一旦、手足を胴体近くに引き寄せて伏
せた姿勢になり、それから立ち上がるという2段階の動
作が必要である。また、安全に実行できない姿勢も存在
する。例えば、4本足のリアルロボット31は、その4
本足で立っている姿勢から、両前足を挙げてバンザイを
しようとすると、簡単に転倒してしまう。
As the next posture, there are a posture that can directly transition from the current posture and a posture that cannot directly transition. For example, the four-legged real robot 31 can directly transition from a state in which a limb is thrown out and lying down to a prone state, but cannot directly transition to a standing state. It is necessary to perform a two-step operation in which the robot is pulled down near the torso to be in a prone position, and then stands up. There are also postures that cannot be safely executed. For example, a four-legged real robot 31
If you try to banzai with your forefoot from your standing position, you will fall easily.

【0145】このため、姿勢遷移機構部184は、直接
遷移可能な姿勢をあらかじめ登録しておき、行動決定機
構部183、またはスクリプト実行部187から供給さ
れる行動指令情報が、直接遷移可能な姿勢を示す場合に
は、その行動指令情報を制御機構部185に送出する。
For this reason, the posture transition mechanism unit 184 pre-registers the posture to which the direct transition can be made, and the behavior command information supplied from the behavior determination mechanism unit 183 or the script execution unit 187 converts the posture command to the directly translatable posture. Is transmitted, the action command information is sent to the control mechanism unit 185.

【0146】一方、行動指令情報が、直接遷移不可能な
姿勢を示す場合には、姿勢遷移機構部184は、遷移可
能な他の姿勢に一旦遷移した後に、目的の姿勢まで遷移
させるような姿勢遷移情報を生成し、制御機構部185
に送出する。これによりロボットが、遷移不可能な姿勢
を無理に実行しようとする事態や、転倒するような事態
を回避することができるようになっている。
On the other hand, when the action command information indicates a posture that cannot be directly changed, the posture change mechanism 184 temporarily changes to another changeable posture and then changes the posture to the target posture. The transition information is generated and the control mechanism unit 185 is generated.
To send to. As a result, it is possible to avoid a situation in which the robot forcibly executes an untransitionable posture or a situation in which the robot falls.

【0147】制御機構部185は、姿勢遷移機構部18
4からの姿勢遷移情報にしたがって、アクチュエータを
駆動するための制御信号を生成し、これを、各部のアク
チュエータに送出する。
The control mechanism 185 includes the attitude transition mechanism 18
A control signal for driving the actuator is generated in accordance with the posture transition information from No. 4, and the control signal is sent to the actuator of each unit.

【0148】音声合成部186は、行動決定機構部18
3から供給されてきた行動指令情報に基づいて、上述し
たパーソナルコンピュータ1の音声合成部132と同様
に、音声合成を行い、取得した音声データを再生し、合
成音をスピーカ173から出力させる。すなわち、音声
合成部186は、各単語の品詞情報や、読み、アクセン
ト等の情報が記述された単語辞書、その単語辞書に記述
された単語について、単語連鎖に関する制約等の生成用
文法規則、音声情報としての音素片データが記憶された
音声情報辞書を有しており、これらの情報を参照するこ
とで、合成音を生成する。
The voice synthesizing section 186 is provided with the action determining mechanism section 18.
Based on the action command information supplied from the personal computer 1, the voice synthesizer 132 performs voice synthesis, reproduces the obtained voice data, and outputs the synthesized voice from the speaker 173. That is, the speech synthesis unit 186 generates a word dictionary in which part-of-speech information of each word, information such as reading, accent, and the like are described, grammatical rules for generation such as restrictions on word concatenation for words described in the word dictionary, It has a speech information dictionary in which phoneme segment data as information is stored, and generates a synthesized speech by referring to such information.

【0149】また、音声合成部186は、スクリプト実
行部187から供給されてきた音声データを再生し、ス
ピーカ173から出力させる。
The voice synthesizing unit 186 reproduces the voice data supplied from the script execution unit 187 and outputs the voice data from the speaker 173.

【0150】スクリプト実行部187は、パーソナルコ
ンピュータ1から無線を介して送信され、通信部162
において受信された制御スクリプト、または半導体メモ
リ21を介して提供され、半導体メモリ制御部163に
より読み出された制御スクリプトを取得し、それを解
釈、実行する。そして、スクリプト実行部187は、制
御スクリプトに含まれる、行動スクリプトにより指定さ
れる行動をリアルロボット31がとるように、姿勢遷移
機構部184に行動指令情報を出力する。
The script execution unit 187 is transmitted from the personal computer 1 via radio,
, Or the control script provided via the semiconductor memory 21 and read by the semiconductor memory control unit 163, and is interpreted and executed. Then, the script execution unit 187 outputs action command information to the posture transition mechanism unit 184 so that the real robot 31 takes an action included in the control script and specified by the action script.

【0151】また、スクリプト実行部187は、電子メ
ールのテキストデータから生成され、制御スクリプトと
ともにパーソナルコンピュータ1から提供されてきた音
声データを音声合成部186に出力する。
The script execution unit 187 outputs voice data generated from the text data of the electronic mail and provided from the personal computer 1 together with the control script to the voice synthesis unit 186.

【0152】上述したような構成により、例えば、パー
ソナルコンピュータ1から「さようなら」の音声に対応
する音声データと、キーワードとしての「さようなら」
に対応する行動(例えば、手を横に振る)の実行を指示
する制御スクリプトが送信されてきた場合、スクリプト
実行部187がその制御スクリプトを実行することで、
「さようなら」の音声データが音声合成部186に供給
され、「手を横に振る」といった動作に遷移させる行動
指令情報が姿勢遷移機構部184に出力される。
With the above-described configuration, for example, the voice data corresponding to the voice of “good-bye” from the personal computer 1 and the “good-bye” as the keyword
When a control script instructing execution of an action (for example, waving hand) corresponding to is transmitted, the script execution unit 187 executes the control script,
The voice data of “goodbye” is supplied to the voice synthesizing unit 186, and action command information for making a transition to an operation of “shaking hand” is output to the posture transition mechanism unit 184.

【0153】そして、音声合成部186において音声デ
ータが再生されるタイミングと、姿勢遷移機構部184
が制御機構部185を制御するタイミングの同期がとら
れ、「さようなら」がスピーカ173から出力されると
同時に、「手を横に振る」といった行動がとられること
になる。
The timing at which the audio data is reproduced in the audio synthesizing section 186 and the attitude transition mechanism section 184
Is synchronized with the timing of controlling the control mechanism unit 185, and at the same time, an action such as "shaking hand" is output when "good-bye" is output from the speaker 173.

【0154】次に、図12乃至図14を参照して、図7
のバーチャルロボット制御部137により、その行動が
制御されるバーチャルロボット11の表示例について説
明する。
Next, referring to FIGS. 12 to 14, FIG.
A display example of the virtual robot 11 whose behavior is controlled by the virtual robot control unit 137 will be described.

【0155】ロボット制御プログラム74Aが起動され
ることに応じて、例えば、図12に示すようなほぼ円形
のバーチャルロボット表示ウインドウ201がLCD44
に表示される。バーチャルロボット表示ウインドウ20
1のほぼ中央には、バーチャルロボット表示部202が
配置され、その中にバーチャルロボット11が表示され
る。
In response to the activation of the robot control program 74A, for example, a substantially circular virtual robot display window 201 as shown in FIG.
Will be displayed. Virtual robot display window 20
A virtual robot display unit 202 is arranged substantially at the center of the device 1, and the virtual robot 11 is displayed therein.

【0156】バーチャルロボット11は、上述したリア
ルロボット31と同様の外観を有しており、このバーチ
ャルロボット表示部202内で、リアルロボット31と
同様に、様々な自律行動をとるようになされている。
The virtual robot 11 has an appearance similar to that of the real robot 31 described above, and performs various autonomous actions in the virtual robot display unit 202, similarly to the real robot 31. .

【0157】また、バーチャルロボット表示ウインドウ
201には、様々な表示部、またはユーザにより操作さ
れる操作ボタン等が配置される。
In the virtual robot display window 201, various display units, operation buttons operated by the user, and the like are arranged.

【0158】例えば、バーチャルロボット表示ウインド
ウ201の右上方には、音声認識状態表示部203が設
けられている。音声認識状態表示部203は、ユーザが
マイクロフォン66からバーチャルロボット11に対し
て話しかけているとき、所定の色を点滅させ、バーチャ
ルロボット11が、その呼びかけを聞いていることを表
示する。
For example, a voice recognition state display unit 203 is provided at the upper right of the virtual robot display window 201. When the user is talking to the virtual robot 11 from the microphone 66, the voice recognition state display unit 203 blinks a predetermined color to display that the virtual robot 11 is listening to the call.

【0159】また、バーチャルロボット表示ウインドウ
201の右上方(音声認識状態表示部203の左側)に
は、バーチャルロボット表示ウインドウ201を閉じる
とき操作されるクローズボタン204が表示される。
A close button 204 operated when closing the virtual robot display window 201 is displayed at the upper right of the virtual robot display window 201 (left side of the voice recognition state display unit 203).

【0160】そして、バーチャルロボット表示ウインド
ウ201の右側には、各種の操作ボタンが配置される。
この操作ボタンには、例えば、バーチャルロボット表示
ウインドウ201を最小化するとき操作される最小化ボ
タン205、バーチャルロボット表示ウインドウ201
を最大表示したりするときなどに操作される表示設定ボ
タン206、他の音楽データ管理ソフトと連動して、曲
のプレイリストを表示するとき操作されるプレイリスト
表示ボタン207、バーチャルロボット11を撫でたり
するなどの各種のセンサ入力を行うためのコミュニケー
タウインドウを表示するとき操作されるコミュニケータ
表示ボタン208、およびバーチャルロボット11の各
種の設定を行うとき操作される設定ボタン209などが
ある。
[0160] Various operation buttons are arranged on the right side of the virtual robot display window 201.
The operation buttons include, for example, a minimize button 205 operated when the virtual robot display window 201 is minimized, a virtual robot display window 201
, A display setting button 206 that is operated to display the playlist of a song in conjunction with other music data management software, and a virtual robot 11 that is stroked. There are a communicator display button 208 which is operated when displaying a communicator window for performing various sensor inputs such as a flick, and a setting button 209 which is operated when performing various settings of the virtual robot 11.

【0161】図13、および図14は、バーチャルロボ
ット11の他の表示例を示す図である。
FIGS. 13 and 14 are views showing other display examples of the virtual robot 11. FIG.

【0162】例えば、バーチャルロボット制御部137
により、キーワードが含まれていないテキストデータの
合成音が出力されるとき、バーチャルロボット表示部2
02には、図13に示すように、口の開閉を繰り返し、
電子メールを読み上げているようなバーチャルロボット
11が表示される。
For example, the virtual robot controller 137
When a synthetic sound of text data containing no keyword is output, the virtual robot display unit 2
02, as shown in FIG. 13, the opening and closing of the mouth is repeated,
The virtual robot 11 reading out the e-mail is displayed.

【0163】また、バーチャルロボット制御部137
が、例えば、「びっくり」の合成音を出力するとき、上
述したようにして「びっくり」に対応する行動が選択さ
れ、バーチャルロボット表示部202には、図14に示
すように、目を点滅しているようなバーチャルロボット
11が表示される。
The virtual robot controller 137
However, for example, when outputting a synthesized sound of “surprised”, an action corresponding to “surprised” is selected as described above, and the virtual robot display unit 202 blinks eyes as shown in FIG. The virtual robot 11 is displayed.

【0164】このように、出力される言葉に応じて、様
々な行動をとるバーチャルロボット11がLCD44に表
示される。
As described above, the virtual robot 11 performing various actions according to the output words is displayed on the LCD 44.

【0165】次に、フローチャートを参照して、図1の
ロボット制御システムの動作について説明する。
Next, the operation of the robot control system of FIG. 1 will be described with reference to a flowchart.

【0166】始めに、図15、および図16のフローチ
ャートを参照して、ロボット制御プログラム74Aの、
バーチャルロボット11による電子メール読み上げ処理
について説明する。
First, referring to the flowcharts of FIGS. 15 and 16, the robot control program 74A
An e-mail reading process by the virtual robot 11 will be described.

【0167】ステップS1において、メール管理部13
1は、新着メールのチェックがユーザから指示されるこ
とに応じて、または、所定の時間毎にチェックすること
が設定されている場合、チェックするタイミングになる
ことに応じて、電子メールプログラム74Bと連動し、
メールサーバ96にアクセスして、パーソナルコンピュ
ータ1に対して送信されてきた新着メールをチェックす
る。
In step S1, the mail management unit 13
The electronic mail program 74B is connected to the electronic mail program 74B in response to an instruction from the user to check for new mail, or when it is set to check at predetermined time intervals. Interlock,
The mail server 96 is accessed to check for a new mail sent to the personal computer 1.

【0168】そして、ステップS2において、メール管
理部131は、新着メールがあるか否かを判定し、新着
メールがないと判定した場合、ステップS1に戻り、そ
れ以降の処理を繰り返し実行する。
Then, in step S2, mail management section 131 determines whether or not there is a new mail, and if it is determined that there is no new mail, returns to step S1 and repeatedly executes the processing thereafter.

【0169】一方、メール管理部131は、ステップS
2において、新着メールがあると判定した場合、新着メ
ールがあることをバーチャルロボット制御部137に通
知し、ステップS3に進む。
On the other hand, the mail management unit 131 determines in step S
If it is determined in step 2 that there is a new mail, the virtual robot control unit 137 is notified that there is a new mail, and the process proceeds to step S3.

【0170】ステップS3において、バーチャルロボッ
ト制御部137は、バーチャルロボット11が新着メー
ルを受け取るようなアニメーションを表示させる。
In step S3, the virtual robot controller 137 displays an animation such that the virtual robot 11 receives a new mail.

【0171】図17、および図18は、バーチャルロボ
ット11が新着メールを受け取るときのアニメーション
の例を示す図である。
FIGS. 17 and 18 are diagrams showing an example of an animation when the virtual robot 11 receives a new mail.

【0172】バーチャルロボット制御部137は、新着
メールがあることが通知されることに応じて、例えば、
バーチャルロボット表示部202内の上方から手紙(封
筒)11Aが落ちてくるような画像を表示させる。
The virtual robot control unit 137 responds to the notification that there is a new mail by, for example,
An image is displayed in which a letter (envelope) 11A falls from above in the virtual robot display unit 202.

【0173】そして、次に、バーチャルロボット制御部
137は、図17に示すように、その落ちてくる手紙1
1Aをバーチャルロボット11がジャンプして口でキャ
ッチするような画像を表示させる。
Next, as shown in FIG. 17, the virtual robot controller 137 sends the
An image is displayed such that the virtual robot 11 jumps and catches 1A with the mouth.

【0174】図18は、図17に示したように、ジャン
プして手紙11Aをキャッチしたバーチャルロボット1
1が、バーチャルロボット表示部202内の地面に着地
した状態を示す図である。
FIG. 18 shows the virtual robot 1 jumping and catching the letter 11A as shown in FIG.
FIG. 1 is a diagram showing a state where the robot 1 has landed on the ground in the virtual robot display unit 202.

【0175】図15の説明に戻り、ステップS4におい
て、メール管理部131は、電子メールプログラム74
Bから、電子メールに含まれるテキストデータを取得
し、例えば、テキストデータの1行(改行されている部
分まで)を単位として、音声合成部132に出力する。
Returning to the description of FIG. 15, in step S4, the mail management unit 131
The text data included in the e-mail is acquired from B, and is output to the speech synthesis unit 132 in units of, for example, one line of the text data (up to a line-break portion).

【0176】図19は、メール管理部131が取得した
テキストデータの例を示す図である。
FIG. 19 is a diagram showing an example of text data acquired by the mail management unit 131.

【0177】図のテキストデータにおいては、例えば、
1行目が「こんにちは」であり、2行目が「晴れた場
合、予定通り公園にて」であり、3行目が「ダンス大会
を行います。」であり、4行目が「よろしくお願いしま
す。」であり、5行目が「さようなら」である。
In the text data shown in FIG.
Is the first line is "Hello", "when the sunny, in the planned park" second line is, the third line is "do the dance competition." It is, the fourth line is "thank you And the fifth line is "Goodbye."

【0178】そして、例えば、図19に示すようなテキ
ストデータを取得した場合であって、まだ、いずれのテ
キストデータも音声出力していない場合、メール管理部
131は、ステップS4において、1行目の「こんにち
は」のテキストデータのみを抽出し、それを音声合成部
132に出力する。
Then, for example, when the text data as shown in FIG. 19 is obtained and no text data is output as voice yet, the mail management unit 131 determines in step S4 that the first line the text data only extracts of the "Hello", and outputs it to the speech synthesis unit 132.

【0179】音声合成部132は、ステップS5におい
て、メール管理部131から供給されてきたテキストデ
ータに基づいて、音声合成用辞書133を参照して音声
合成する。
In step S5, the speech synthesizing unit 132 synthesizes speech with reference to the speech synthesizing dictionary 133 based on the text data supplied from the mail management unit 131.

【0180】具体的には、上述したように、音声合成用
辞書133には、各単語の品詞情報や、読み、アクセン
ト等の情報が記述された単語辞書、単語連鎖に関する制
約等の生成用文法規則が格納されているため、音声合成
部132は、それらの各種の情報を参照し、テキスト解
析を行い、音声合成に必要な情報を抽出する。
More specifically, as described above, the speech synthesis dictionary 133 includes a word dictionary in which part-of-speech information of each word, information such as reading, accent, and the like are described, and a grammar for generation of constraints on word chains and the like. Since the rules are stored, the speech synthesis unit 132 refers to the various types of information, performs text analysis, and extracts information necessary for speech synthesis.

【0181】そして、音声合成部132は、音声合成用
辞書133に格納されている、音素片データが記憶され
た音声情報辞書を参照し、テキスト解析により抽出した
各種の情報に基づいて、必要な音素片データを接続し、
さらに、音素片データの波形を加工することによって、
ポーズ、アクセント、イントネーション等を適切に付加
し、供給されてきた1行のテキストデータに対応する合
成音の音声データを生成する。
The speech synthesizing unit 132 refers to the speech information dictionary stored in the speech synthesis dictionary 133 in which the speech segment data is stored, and based on various information extracted by text analysis, necessary Connect phoneme data,
Furthermore, by processing the waveform of the phoneme data,
Pause, accent, intonation, etc. are appropriately added, and speech data of a synthesized sound corresponding to the supplied one-line text data is generated.

【0182】また、音声合成部132は、ステップS5
において、メール管理部131から供給されてきたテキ
ストデータとともに、音声合成により取得した音声デー
タを音声出力時間算出部134、および行動選択部13
5に出力する。
Further, the speech synthesizing unit 132 determines in step S5
In addition to the text data supplied from the mail management unit 131, the voice data acquired by voice synthesis is output to the voice output time calculation unit 134 and the action selection unit 13.
5 is output.

【0183】上述したように、図19の1行目のテキス
トデータがメール管理部131から供給されてきた場
合、音声合成部132からは、「こんにちは」のテキス
トデータと、その音声データが音声出力時間算出部13
4、および行動選択部135に出力される。
[0183] As described above, if the first line of the text data of FIG. 19 is supplied from the mail management unit 131, from the speech synthesis unit 132, the text data "Hello", the audio data is audio output Time calculation unit 13
4 and the action selection unit 135.

【0184】ステップS6において、音声出力時間算出
部134は、音声合成部132から供給されてきた音声
データに基づいて、合成音の出力に要する時間を算出す
る。音声出力時間算出部134が算出した出力時間に関
する情報は、行動選択部135に出力される。
In step S6, the audio output time calculation section 134 calculates the time required for outputting the synthesized sound based on the audio data supplied from the audio synthesis section 132. Information about the output time calculated by the audio output time calculation unit 134 is output to the action selection unit 135.

【0185】行動選択部135は、ステップS7におい
て、行動選択用辞書136を参照し、テキストデータ中
のキーワード(バーチャルロボット11が実行可能な行
動を指定する単語)を検索する。上述したように、行動
選択用辞書136には、複数のキーワードが予め登録さ
れている。
In step S7, the action selection section 135 refers to the action selection dictionary 136 to search for keywords (words specifying actions that can be executed by the virtual robot 11) in the text data. As described above, a plurality of keywords are registered in the action selection dictionary 136 in advance.

【0186】そして、行動選択部135は、ステップS
8において、音声合成部132から供給されてきたテキ
ストデータ中にキーワードが含まれているか否かを判定
し、含まれていないと判定した場合、ステップS9に進
む。
[0186] Then, the action selecting section 135 determines in step S
In 8, it is determined whether or not the keyword is included in the text data supplied from the speech synthesis unit 132. If it is determined that the keyword is not included, the process proceeds to step S9.

【0187】ステップS9において、行動選択部135
は、バーチャルロボット11が電子メールを読み上げて
いる期間(合成音をスピーカ65から出力している期
間)だけ、それに合わせて口の開閉を繰り返す行動をと
ることを選択する。
At step S9, the action selecting section 135
Selects that the virtual robot 11 repeats the opening and closing of the mouth only during the period of reading out the e-mail (the period of outputting the synthesized sound from the speaker 65).

【0188】行動選択部135は、ステップS10にお
いて、選択した行動を識別するための情報と、バーチャ
ルロボット11がその行動をとるタイミング(期間)に
関する情報とを、行動情報として、供給されてきた音声
データとともにバーチャルロボット制御部137に出力
する。
In step S10, the action selecting unit 135 supplies the information for identifying the selected action and the information on the timing (period) at which the virtual robot 11 takes that action as the action information, The data is output to the virtual robot controller 137 together with the data.

【0189】従って、例えば、図19に示したテキスト
データのうち、2行目のテキストデータが音声合成部1
32から供給されてきた場合、行動選択部135は、ス
テップS8において、キーワードが含まれていないと判
定し、ステップS9で、「晴れた場合、予定通り公園に
て」の音声を出力する期間に対応するバーチャルロボッ
ト11の行動として「口の開閉を繰り返す」ことを選択
する。
Therefore, for example, of the text data shown in FIG.
32, the action selecting unit 135 determines in step S8 that the keyword is not included, and in step S9, outputs the voice of "If sunny, in the park as scheduled". “Repeat opening and closing of mouth” is selected as the action of the corresponding virtual robot 11.

【0190】行動選択部135からは、行動として「口
の開閉」を指定する情報と、「口の開閉」を繰り返す期
間(「晴れた場合、予定通り公園にて」の音声を出力す
る期間)を指定する情報が、行動情報としてバーチャル
ロボット制御部137に出力される。
From the action selecting section 135, information designating “opening and closing the mouth” as the action and a period during which the “opening and closing of the mouth” is repeated (a period of outputting the sound of “when sunny, at the park as scheduled”) Is output to the virtual robot control unit 137 as action information.

【0191】ステップS11において、バーチャルロボ
ット制御部137は、行動選択部135から供給されて
きた情報に基づいて、スピーカ65からの音声の出力、
およびバーチャルロボット11の行動(画像)を制御す
る。
In step S11, the virtual robot control section 137 outputs a sound from the speaker 65 based on the information supplied from the action selection section 135,
And the action (image) of the virtual robot 11 is controlled.

【0192】これにより、例えば、図19の2行目のテ
キストデータがメール管理部131から供給されている
場合、図13に示したような口の開閉を繰り返すバーチ
ャルロボット11が表示され、それに合わせて、「晴れ
た場合、予定通り公園にて」の音声がスピーカ65から
出力される。
Thus, for example, when the text data in the second line in FIG. 19 is supplied from the mail management unit 131, the virtual robot 11 that repeatedly opens and closes the mouth as shown in FIG. 13 is displayed. Then, the voice of “If sunny, at the park as scheduled” is output from the speaker 65.

【0193】そして、ステップS12において、最後の
1行の読み上げが終了したか否かが判定され、最後の1
行の読み上げが終了するまで、ステップS4に戻り、そ
れ以降の処理が繰り返し実行される。
In step S12, it is determined whether or not the reading of the last one line has been completed.
Until the reading of the line ends, the process returns to step S4, and the subsequent processing is repeatedly executed.

【0194】一方、ステップS8において、行動選択部
135は、音声合成部132から供給されてきたテキス
トデータ中にキーワードが含まれていると判定した場
合、ステップS13に進み、その1行中に複数のキーワ
ードが含まれているか否かを判定する。
On the other hand, in step S8, when the action selecting section 135 determines that the text data supplied from the speech synthesizing section 132 contains a keyword, the action selecting section 135 proceeds to step S13, in which a plurality of keywords are included in one line. It is determined whether or not the keyword is included.

【0195】行動選択部135は、ステップS13にお
いて、複数のキーワードが含まれていない(1つのキー
ワードが含まれている)と判定した場合、ステップS1
4に進み、含まれているキーワードに対応する行動をと
ることを選択する。
If the action selecting unit 135 determines in step S13 that a plurality of keywords are not included (one keyword is included), the process proceeds to step S1.
Proceed to 4 and select to take an action corresponding to the included keyword.

【0196】そして、ステップS10に進み、それ以降
の処理が実行される。
Then, the flow advances to step S10 to execute the subsequent processing.

【0197】従って、例えば、図19の1行目のテキス
トデータが音声合成部132から供給されている場合、
行動選択部135は、ステップS8において、キーワー
ドが含まれていると判定し、ステップS13で、複数の
キーワードが含まれていないと判定する。行動選択部1
35は、ステップS14において、キーワード1として
の「こんにちは」に対応する行動をバーチャルロボット
11がとる行動として選択し、ステップS10で、「こ
んにちは」に対応する行動をとることを指示する行動情
報を、音声データとともにバーチャルロボット制御部1
37に出力する。
Therefore, for example, when the text data on the first line in FIG.
The action selection unit 135 determines in step S8 that a keyword is included, and determines in step S13 that a plurality of keywords is not included. Action selector 1
35, in step S14, select the action virtual robot 11 takes the act corresponding to the "Hello" as a keyword 1, in step S10, the action information indicating to take action corresponding to the "Hello", Virtual robot controller 1 with voice data
37.

【0198】そして、ステップS11において、バーチ
ャルロボット制御部137により、「こんにちは」に対
応する行動をとるバーチャルロボット11が表示され、
それに合わせて、スピーカ65から「こんにちは」の合
成音が出力される。
[0198] Then, in step S11, the virtual robot controller 137, a virtual robot 11 to take action that corresponds to the "Hello" is displayed,
Accordingly, the synthesized sound of "Hello" is output from the speaker 65.

【0199】図20は、例えば、「こんにちは」に対応
する行動をとっているバーチャルロボット11の表示例
を示す図である。
[0199] FIG. 20 is, for example, illustrates an exemplary display of a virtual robot 11, which is taking the action corresponding to "Hello".

【0200】例えば、図20に示すように、両手を挙げ
ているバーチャルロボット11がバーチャルロボット表
示部202に表示される。なお、この動作に合わせて、
「こんにちは」の音声がスピーカ65から出力されてい
る。
For example, as shown in FIG. 20, the virtual robot 11 raising both hands is displayed on the virtual robot display section 202. In addition, according to this operation,
Voice of "Hello" is output from the speaker 65.

【0201】一方、ステップS13で、複数のキーワー
ドが含まれていると判定した場合、行動選択部135
は、ステップS15に進み、音声出力時間算出部134
からの出力に基づいて、読み上げ時間が長い方のキーワ
ードに対応する行動を選択する。
On the other hand, if it is determined in step S13 that a plurality of keywords are included, the action selecting section 135
Proceeds to step S15, where the audio output time calculation unit 134
Based on the output from, the action corresponding to the keyword whose reading time is longer is selected.

【0202】例えば、図19に示すテキストデータにお
いて、3行目と4行目のテキストデータが同一の行に記
述されている場合、行動選択部135は、キーワード3
の「よろしくお願いします。」に対応する行動をとるよ
うに選択する。
For example, in the text data shown in FIG. 19, if the third and fourth lines of text data are described on the same line, the action selecting unit 135 sets the keyword 3
Choose to take action corresponding to "Thank you."

【0203】当然、出力時間が短い方の行動を選択する
ようにしてもよいし、それぞれのキーワードを音声出力
するタイミングに合わせて、それぞれのキーワードに対
応する行動をとるように選択してもよい。
Of course, the action whose output time is shorter may be selected, or the action corresponding to each keyword may be selected according to the timing of outputting each keyword by voice. .

【0204】上述したような処理が繰り返し実行される
ことにより、例えば、図19に示すようなテキストデー
タが新着メールとして取得されている場合、1行目に含
まれるキーワード1の「こんにちは」がスピーカ65か
ら音声出力されることに合わせて、図20に示したよう
なバーチャルロボット11が表示され、2行目の「晴れ
た場合、予定通り公園にて」が音声出力されることに合
わせて、図13に示したような口の開閉を繰り返すバー
チャルロボット11が表示される。
[0204] As the processing described above is repeatedly executed, for example, when the text data as shown in FIG. 19 is obtained as new mail, the keyword 1 included in the first line "Hello" speaker In response to the voice output from 65, the virtual robot 11 as shown in FIG. 20 is displayed, and in accordance with the voice output of “If it is sunny, at the park as scheduled” in the second line, A virtual robot 11 that repeats opening and closing the mouth as shown in FIG. 13 is displayed.

【0205】また、3行目に含まれるキーワード2の
「ダンス」が音声出力されることに合わせて、図21に
示すようなダンスをしているバーチャルロボット11が
表示される。なお、3行目のキーワード2以外の部分
(「大会を行います。」)が音声出力されるときには、
図13に示したような、口の開閉を繰り返すバーチャル
ロボット11が表示される。
In addition to the voice output of “dance” of keyword 2 included in the third line, a virtual robot 11 performing a dance as shown in FIG. 21 is displayed. When the part other than Keyword 2 on the third line ("Contest is held") is output as voice,
A virtual robot 11 that repeatedly opens and closes the mouth as shown in FIG. 13 is displayed.

【0206】さらに、4行目に含まれるキーワード3の
「よろしくお願いします。」が音声出力されるタイミン
グで、図22に示すようなお辞儀をしているバーチャル
ロボット11が表示され、5行目に含まれるキーワード
4の「さようなら」が音声出力されるタイミングで、図
23に示すような、手を振っているバーチャルロボット
11が表示される。
Further, at the timing when the word "Thank you," of the keyword 3 included in the fourth line is output as a voice, the virtual robot 11 bowing as shown in FIG. 22 is displayed, and the fifth line is displayed. The virtual robot 11 waving, as shown in FIG. 23, is displayed at the timing when “Goodbye” of the keyword 4 included in the keyword is output as voice.

【0207】以上のように、含まれているキーワードに
応じて、バーチャルロボット11が様々な行動をとりな
がら電子メールを読み上げている状態となるので、より
面白みのあるものとなる。
As described above, since the virtual robot 11 is reading out the e-mail while taking various actions in accordance with the included keywords, it becomes more interesting.

【0208】次に、図24、および図25のフローチャ
ートを参照して、ロボット制御プログラム74Aの、リ
アルロボット31に対する電子メールの読み上げ指示処
理について説明する。なお、この処理は、制御スクリプ
トが無線を介してリアルロボット31に提供される場合
の処理である。
Next, the process of instructing the real robot 31 to read an e-mail to the real robot 31 by the robot control program 74A will be described with reference to the flowcharts of FIGS. 24 and 25. This process is a process when the control script is provided to the real robot 31 via wireless.

【0209】入力されてきたテキストデータに基づいて
行動選択部135が行動を選択するまでの、ステップS
31乃至ステップS38の処理は、図15、および図1
6を参照して説明したステップS1乃至ステップS8の
処理と基本的に同様の処理である。また、図25のステ
ップS45乃至ステップS47の処理は、図16のステ
ップS13乃至ステップS15の処理と同様の処理であ
る。
[0209] Until the action selecting unit 135 selects an action based on the input text data, the process proceeds to step S
The processes from 31 to S38 are the same as those shown in FIGS.
The processing is basically the same as the processing of steps S1 to S8 described with reference to FIG. Further, the processing in steps S45 to S47 in FIG. 25 is the same as the processing in steps S13 to S15 in FIG.

【0210】すなわち、新着メールがあるとき、ステッ
プS33において、例えば、テキストデータの1行が音
声合成部132に供給され、ステップS34で、それに
基づいて音声合成される。そして、音声合成により生成
された音声データと、テキストデータが、ステップS3
4で、音声時間算出部134と行動選択部135に供給
され、ステップS35で、その音声データの再生時間が
算出され、算出結果が行動選択部135に供給される。
行動選択部135は、ステップS36において、テキス
トデータ中のキーワードを検索し、ステップS37で、
キーワードが含まれていないと判定した場合、ステップ
S38に進む。
That is, when there is a new mail, in step S33, for example, one line of text data is supplied to the voice synthesizing unit 132, and in step S34, voice is synthesized based on the line. Then, the voice data generated by the voice synthesis and the text data are stored in step S3.
At 4, the audio data is supplied to the audio time calculation section 134 and the action selection section 135. At step S35, the reproduction time of the audio data is calculated, and the calculation result is supplied to the action selection section 135.
In step S36, the action selection unit 135 searches for a keyword in the text data, and in step S37,
If it is determined that no keyword is included, the process proceeds to step S38.

【0211】そして、ステップS38において、行動選
択部135は、音声データをリアルロボット31が出力
している期間(読み上げている期間)だけ、その出力に
合わせて、口の開閉を繰り返すことを選択する。
[0211] In step S38, the action selection unit 135 selects to repeat opening and closing of the mouth in accordance with the output during a period in which the voice data is being output by the real robot 31 (a period in which the voice is being read out). .

【0212】行動選択部135は、ステップS39にお
いて、選択した行動を識別するための情報と、リアルロ
ボット31が行動をとるタイミング(期間)に関する情
報を、行動情報として、音声データとともにリアルロボ
ットスクリプト生成部138に出力する。
[0212] In step S39, the action selecting section 135 uses the information for identifying the selected action and the information (timing) during which the real robot 31 takes an action as action information to generate a real robot script together with voice data. Output to the unit 138.

【0213】ステップS40において、リアルロボット
スクリプト生成部138は、行動選択部135から供給
されてきた行動情報に基づいて、スクリプト記憶部13
9から行動スクリプトを取得する。
[0213] In step S40, the real robot script generation unit 138 uses the script storage unit 13 based on the behavior information supplied from the behavior selection unit 135.
9 to obtain an action script.

【0214】例えば、図19に示したテキストデータが
メール管理部131により取得されており、2行目に示
すような、キーワードが含まれていない1行のテキスト
データがメール管理部131から供給されている場合、
リアルロボットスクリプト生成部138は、行動選択部
135からの指示に基づいて、例えば、「PLAY:ACTION:
mouthACT」などの図8に示したような行動スクリプトを
スクリプト記憶部139から取得する。そして、リアル
ロボットスクリプト生成部138は、行動選択部135
から供給されてきた行動のタイミングと期間に関する情
報に基づいて、リアルロボット31が口の開閉を繰り返
すように、行動スクリプトの最後の部分に、その行動を
繰り返す時間を記述する。
For example, the text data shown in FIG. 19 has been acquired by the mail management unit 131, and one line of text data not including a keyword, as shown in the second line, is supplied from the mail management unit 131. If
Based on the instruction from the action selection unit 135, the real robot script generation unit 138 may output, for example, “PLAY: ACTION:
An action script such as “mouthACT” as shown in FIG. 8 is acquired from the script storage unit 139. Then, the real robot script generation unit 138 includes the action selection unit 135
In the last part of the action script, the time at which the action is repeated is described so that the real robot 31 repeatedly opens and closes the mouth based on the information on the timing and the period of the action supplied from.

【0215】従って、図19の「晴れた場合、予定通り
公園にて」の合成音の出力時間が、例えば、3秒間であ
る場合、「PLAY:ACTION:mouthACT:3000」などの行動ス
クリプトが取得される。
Therefore, if the output time of the synthesized sound of “when sunny, at the park as scheduled” in FIG. 19 is, for example, 3 seconds, an action script such as “PLAY: ACTION: mouthACT: 3000” is obtained. Is done.

【0216】ステップS41において、リアルロボット
スクリプト生成部138は、ステップS40で取得した
行動スクリプトを、予め用意されている制御スクリプト
の雛形の所定の位置に挿入し、制御スクリプトを生成す
る。
In step S41, the real robot script generation section 138 inserts the action script acquired in step S40 into a predetermined position of a control script template prepared in advance to generate a control script.

【0217】図26は、リアルロボットスクリプト生成
部138が生成する制御スクリプトの例を示す図であ
る。
FIG. 26 is a diagram showing an example of a control script generated by the real robot script generation unit 138.

【0218】図に示すように、制御スクリプトの雛形2
21がリアルロボットスクリプト生成部138に予め用
意されており、リアルロボットスクリプト生成部138
は、ステップS40で取得した行動スクリプト222
を、雛形221の所定の位置に挿入し、制御スクリプト
223を生成する。
As shown in the figure, the control script template 2
21 is prepared in advance in the real robot script generation unit 138, and the real robot script generation unit 138
Is the action script 222 acquired in step S40.
At a predetermined position of the template 221 to generate the control script 223.

【0219】また、リアルロボットスクリプト生成部1
38は、音声合成部132により生成された音声データ
224を、生成した制御スクリプト223に添付する。
The real robot script generation unit 1
38 attaches the voice data 224 generated by the voice synthesis unit 132 to the generated control script 223.

【0220】そして、ステップS42において、リアル
ロボットスクリプト生成部138は、生成した制御スク
リプトと、音声データをスクリプト送信部140に出力
する。
[0220] Then, in step S42, the real robot script generation unit 138 outputs the generated control script and audio data to the script transmission unit 140.

【0221】スクリプト送信部140は、ステップS4
3において、無線通信部4を制御し、リアルロボットス
クリプト生成部138から供給されてきた制御スクリプ
トと、音声データとをリアルロボット31に送信する。
[0221] The script transmission unit 140 determines whether the
In 3, the wireless communication unit 4 is controlled, and the control script and the voice data supplied from the real robot script generation unit 138 are transmitted to the real robot 31.

【0222】ステップS44において、最後の1行の読
み上げが終了したか否かが判定され、終了されていない
と判定された場合、ステップS33に戻り、それ以降の
処理が繰り返し実行される。電子メールの最後の1行の
読み上げが終了したと判定された場合、処理は終了され
る。
In step S44, it is determined whether or not the reading of the last line has been completed. If it is determined that the reading has not been completed, the process returns to step S33, and the subsequent processing is repeatedly executed. If it is determined that the reading of the last one line of the e-mail has been completed, the process ends.

【0223】一方、ステップS37において、キーワー
ドが含まれていないと判定された場合、ステップS45
に進む。ステップS45において、複数のキーワードが
含まれていないと判定した場合、行動選択部135は、
ステップS46に進み、テキストデータに含まれている
キーワードに対応する行動を選択する。そして、ステッ
プS39以降の処理において、行動情報を取得したリア
ルロボットスクリプト生成部138は、行動スクリプト
を読み出し、それを雛形に挿入して制御スクリプトを生
成する。
On the other hand, if it is determined in step S37 that no keyword is included, step S45
Proceed to. If it is determined in step S45 that a plurality of keywords are not included, the action selecting unit 135
Proceeding to step S46, an action corresponding to the keyword included in the text data is selected. Then, in the processing after step S39, the real robot script generation unit 138 that has acquired the behavior information reads the behavior script and inserts it into the template to generate a control script.

【0224】例えば、図19に示す1行目のテキストデ
ータが供給されてきた場合、行動選択部135は、「こ
んにちは」に対応する行動を選択し、それをリアルロボ
ットスクリプト生成部138に通知する。リアルロボッ
トスクリプト生成部138は、例えば、キーワード1の
「こんにちは」に対応する、図8に示したような「PLA
Y:ACTION:Hello」の行動スクリプトをスクリプト記憶部
139から取得し、制御スクリプトを生成する。
[0224] For example, if the text data of the first line shown in FIG. 19 has been supplied, the action selection unit 135, select the action that corresponds to the "Hello", and notifies it to the real robot script generation unit 138 . Real robot script generation unit 138 corresponds to, for example, "Hello" keyword 1, as shown in FIG. 8 "PLA
The action script “Y: ACTION: Hello” is acquired from the script storage unit 139, and a control script is generated.

【0225】一方、ステップS45において、複数のキ
ーワードが含まれていると判定された場合、ステップS
47において、読み上げ時間が長い方のキーワードに対
応する行動が選択され、上述した処理と同様に、制御ス
クリプトが生成される。
On the other hand, if it is determined in step S45 that a plurality of keywords are included, the process proceeds to step S45.
At 47, the action corresponding to the keyword whose reading time is longer is selected, and a control script is generated similarly to the above-described processing.

【0226】生成された制御スクリプトは、音声データ
とともにリアルロボット31に送信される。
The generated control script is transmitted to the real robot 31 together with the voice data.

【0227】上述したような処理により、例えば、図1
9に示すようなテキストデータが電子メールとして取得
された場合、1行目のテキストデータが供給されること
に応じて、リアルロボットスクリプト生成部138は、
例えば、図8に示したような「PLAY:ACTION:Hello」の
行動スクリプトをスクリプト記憶部139から取得し、
それを雛形に挿入して、生成した制御スクリプトをスク
リプト送信部140からリアルロボット31に送信す
る。
By the processing described above, for example, FIG.
When the text data as shown in FIG. 9 is acquired as an e-mail, in response to the supply of the text data on the first line, the real robot script generation unit 138
For example, an action script of “PLAY: ACTION: Hello” as shown in FIG. 8 is obtained from the script storage unit 139,
The script is inserted into the template, and the generated control script is transmitted from the script transmission unit 140 to the real robot 31.

【0228】また、2行目のテキストデータが供給され
ることに応じて、リアルロボットスクリプト生成部13
8は、例えば、「PLAY:ACTION:mouthACT」の最後に時間
が記述された行動スクリプトをスクリプト記憶部139
から取得し、それを雛形に挿入して、生成した制御スク
リプトをスクリプト送信部140からリアルロボット3
1に送信する。
Further, in response to the supply of the second line of text data, the real robot script generation unit 13
8 stores an action script in which time is described at the end of “PLAY: ACTION: mouthACT”, for example, in the script storage unit 139.
From the script, the generated control script is transmitted from the script transmission unit 140 to the real robot 3
Send to 1.

【0229】さらに、3行目のテキストデータが供給さ
れることに応じて、リアルロボットスクリプト生成部1
38は、キーワード2の「ダンス」をリアルロボット3
1が音声出力することに合わせて、対応する行動をとる
ための、例えば、「PLAY:ACTION:Dance」の行動スクリ
プトをスクリプト記憶部139から取得し、それを雛形
に挿入して、生成した制御スクリプトをスクリプト送信
部140からリアルロボット31に送信する。また、キ
ーワード2の以外の部分を音声出力するときは、口の開
閉を繰り返すような行動をとる行動スクリプトが生成さ
れて、リアルロボット31に送信される。
Further, in response to the supply of the third line of text data, the real robot script generation unit 1
38 is the keyword 2 “dance” for the real robot 3
For example, an action script of “PLAY: ACTION: Dance” is acquired from the script storage unit 139 and inserted into a template to take a corresponding action in response to the audio output of the control unit 1. The script is transmitted from the script transmission unit 140 to the real robot 31. When outputting a part other than the keyword 2 by voice, an action script that performs an action of repeating opening and closing of the mouth is generated and transmitted to the real robot 31.

【0230】同様に、4行目のテキストデータが供給さ
れることに応じて、例えば、「PLAY:ACTION:Bow」の行
動スクリプトを含む制御スクリプトが生成され、5行目
のテキストデータが供給されることに応じて、例えば、
「PLAY:ACTION:BYE」の行動スクリプトを含む制御スク
リプトが生成されて、リアルロボット31に送信され
る。
Similarly, in response to the supply of the fourth line of text data, for example, a control script including an action script of “PLAY: ACTION: Bow” is generated, and the fifth line of text data is supplied. Depending on what
A control script including an action script of “PLAY: ACTION: BYE” is generated and transmitted to the real robot 31.

【0231】上述した例においては、電子メールに含ま
れるテキストデータの1行を単位として、それに基づい
て制御スクリプトが生成され、音声データとともにリア
ルロボット31に送信されるとしたが、テキストデータ
の全文に対応する制御スクリプトと音声データをまとめ
てリアルロボット31に送信するようにしてもよい。
In the above-described example, the control script is generated based on one line of text data included in the electronic mail and transmitted to the real robot 31 together with the voice data. May be transmitted together to the real robot 31.

【0232】次に、図27、および図28のフローチャ
ートを参照して、半導体メモリ21を介してリアルロボ
ット31に制御スクリプトを提供し、リアルロボット3
1に電子メールを読み上げさせるロボット制御プログラ
ム74Aの処理について説明する。
Next, referring to the flowcharts of FIGS. 27 and 28, a control script is provided to the real robot 31 through the semiconductor memory 21 so that the real robot 3
The processing of the robot control program 74A that causes the electronic mail to be read out by 1 will be described.

【0233】ステップS61乃至ステップS71の処理
は、図24、および図25を参照して説明したステップ
S31乃至ステップS41の処理と同様の処理であり、
また、図28のステップS75乃至ステップS77の処
理は、図25のステップS45乃至ステップS47の処
理と同様の処理であるため、それぞれの詳細な説明は省
略する。
Steps S61 to S71 are the same as steps S31 to S41 described with reference to FIGS. 24 and 25.
Further, the processes of steps S75 to S77 in FIG. 28 are the same processes as the processes of steps S45 to S47 in FIG. 25, and thus detailed description of each is omitted.

【0234】すなわち、1行などの所定の単位のテキス
トデータに含まれるキーワードが検索され、その検索結
果に基づいて、リアルロボット31に実行させる行動が
選択される。そして、リアルロボット31に送信される
制御スクリプトがリアルロボットスクリプト生成部13
8により生成される。
That is, a keyword included in text data of a predetermined unit such as one line is searched, and an action to be executed by the real robot 31 is selected based on the search result. Then, the control script transmitted to the real robot 31 is
8 generated.

【0235】ステップS72において、リアルロボット
スクリプト生成部138は、ステップS71で生成した
制御スクリプトと、行動選択部135から供給されてき
た音声データを保存する。
[0235] In step S72, the real robot script generation unit 138 stores the control script generated in step S71 and the voice data supplied from the action selection unit 135.

【0236】すなわち、リアルロボットスクリプト生成
部138には、図示せぬメモリが設けられており、テキ
ストデータの全文に対応する制御スクリプトと音声デー
タが取得されるまで、生成された制御スクリプトと音声
データが、そのメモリに保存される。
That is, the real robot script generation unit 138 is provided with a memory (not shown). The control script and the audio data generated until the control script and the audio data corresponding to the entire text data are obtained. Is stored in the memory.

【0237】そして、リアルロボットスクリプト生成部
138は、ステップS73において、テキストデータの
全文に対応する制御スクリプトを生成したか否かを判定
し、生成したと判定するまで、ステップS63に戻り、
それ以降の処理を繰り返し実行する。
Then, in step S73, the real robot script generation unit 138 determines whether a control script corresponding to all the text data has been generated, and returns to step S63 until it determines that a control script has been generated.
The subsequent processing is repeatedly executed.

【0238】一方、ステップS73において、リアルロ
ボットスクリプト生成部138は、テキストデータの全
文に対応する制御スクリプトを生成したと判定した場
合、図示せぬメモリに保存しておいた、テキストデータ
の全文に対応する制御スクリプトと音声データを半導体
メモリ管理部141に出力する。
On the other hand, in step S73, if the real robot script generation unit 138 determines that the control script corresponding to the full text of the text data has been generated, the real robot script generation The corresponding control script and audio data are output to the semiconductor memory management unit 141.

【0239】ステップS74において、半導体メモリ管
理部141は、リアルロボットスクリプト生成部138
から供給されてきた制御スクリプトと音声データを、ド
ライブ106に装着されている半導体メモリ21に書き
込む。
[0239] In step S74, the semiconductor memory management unit 141 sets the real robot script generation unit 138.
The control script and the audio data supplied from are written in the semiconductor memory 21 mounted on the drive 106.

【0240】その後、処理は終了され、制御スクリプト
と音声データが書き込まれた半導体メモリ21は、ユー
ザによりドライブ106から取り出され、リアルロボッ
ト31の所定のスロットに装着される。そして、半導体
メモリ21に記憶されている制御スクリプトと音声デー
タがリアルロボット31に提供される。
Thereafter, the processing is terminated, and the semiconductor memory 21 in which the control script and the voice data have been written is taken out of the drive 106 by the user and mounted in a predetermined slot of the real robot 31. Then, the control script and the voice data stored in the semiconductor memory 21 are provided to the real robot 31.

【0241】次に、図29のフローチャートを参照し
て、リアルロボット31の制御スクリプト実行処理につ
いて説明する。
Next, the control script execution processing of the real robot 31 will be described with reference to the flowchart of FIG.

【0242】ステップS91において、スクリプト実行
部187は、通信部162、または半導体メモリ制御部
163から制御スクリプトと音声データが供給されてき
たか否かを判定し、供給されてきたと判定するまで待機
する。
In step S91, the script execution unit 187 determines whether the control script and the audio data have been supplied from the communication unit 162 or the semiconductor memory control unit 163, and waits until it is determined that the control script and the audio data have been supplied.

【0243】スクリプト実行部187は、ステップS9
1で、制御スクリプトと音声データが供給されてきたと
判定した場合、ステップS92に進み、制御スクリプト
を実行し、リアルロボット31が合成音を発しながら、
発する言葉に応じた行動をとるように、各部を制御する
とともに、音声データの再生を制御する。
The script execution unit 187 determines in step S9
When it is determined in step 1 that the control script and the voice data have been supplied, the process proceeds to step S92, where the control script is executed, and the real robot 31 emits a synthetic sound.
Each part is controlled so as to take an action according to the uttered word, and the reproduction of the audio data is controlled.

【0244】すなわち、スクリプト実行部187は、制
御スクリプトに含まれる行動スクリプトに基づいた行動
指令情報を姿勢遷移機構部184に出力し、制御スクリ
プトに添付されている音声データを音声合成部186に
出力する。
That is, the script execution section 187 outputs action command information based on the action script included in the control script to the attitude transition mechanism section 184, and outputs voice data attached to the control script to the voice synthesis section 186. I do.

【0245】そして、姿勢遷移機構部184は、ステッ
プS93において、スクリプト実行部187から供給さ
れてきた行動指令情報に基づいて制御機構部185を制
御し、リアルロボット31の所定の位置に設置されてい
るアクチュエータを駆動させる。
Then, in step S93, the posture transition mechanism section 184 controls the control mechanism section 185 based on the action command information supplied from the script execution section 187, and is installed at a predetermined position of the real robot 31. Drive the actuator.

【0246】ステップS94において、音声合成部18
6は、スクリプト実行部187から供給されてきた音声
データを再生し、合成音をスピーカ173から出力させ
る。
At step S94, the speech synthesizing section 18
6 reproduces the audio data supplied from the script execution unit 187 and outputs the synthesized sound from the speaker 173.

【0247】例えば、図19に示すような電子メールが
送信されてきた場合、バーチャルロボット11の表示に
おいて説明したものと同様に、リアルロボット31は、
キーワード1の「こんにちは」を読み上げることに合わ
せて両手を挙げるような行動をとり、キーワード2の
「ダンス」を読み上げることに合わせてダンスする。ま
た、リアルロボット31は、キーワード3の「よろしく
お願いします。」を読み上げることに合わせてお辞儀を
し、キーワード4の「さようなら」を読み上げることに
合わせて手を振るといった行動をとる。
For example, when an e-mail as shown in FIG. 19 is sent, the real robot 31
Take action, such as those mentioned both hands together to read aloud the "Hello" in the keyword 1, to dance together to read aloud the "dance" of the keyword 2. In addition, the real robot 31 takes an action such as bowing in response to reading out the keyword 3 “Thank you.” And waving in response to reading out the keyword 4 “Goodbye”.

【0248】以上の処理により、バーチャルロボット1
1、またはリアルロボット31により、送信されてきた
電子メールが読み上げられ、電子メールの内容に応じ
て、様々な行動がとられるため、エンターテイメント性
が向上する。
By the above processing, the virtual robot 1
The transmitted e-mail is read aloud by 1 or the real robot 31, and various actions are taken according to the contents of the e-mail, so that the entertainment property is improved.

【0249】なお、上述したような方法以外に、制御ス
クリプトと音声データを様々な方法でリアルロボット3
1に提供し、電子メールを読み上げさせることも可能で
ある。
[0249] In addition to the above-described method, the control script and the voice data can be transferred to the real robot 3 by various methods.
It is also possible to provide the electronic mail to the user and read out the e-mail.

【0250】例えば、テキストデータの1行を単位とし
て音声データ等を生成し、送信する場合、その1行中に
おける、キーワードの位置に基づいて、制御スクリプト
の送信タイミングを制御して、リアルロボット31に提
供するようにしてもよい。
For example, when generating and transmitting voice data or the like in units of one line of text data, the transmission timing of the control script is controlled based on the position of the keyword in one line, and the real robot 31 is controlled. May be provided.

【0251】次に、図30および図31のフローチャー
トを参照して、制御スクリプトの送信タイミングを制御
して、リアルロボット31にメールを読み上げさせる、
ロボット制御プログラム74Aの他の処理について説明
する。
Next, referring to the flowcharts of FIGS. 30 and 31, the transmission timing of the control script is controlled to make the real robot 31 read out the mail.
Another process of the robot control program 74A will be described.

【0252】ステップS101において、リアルロボッ
トスクリプト生成部138は、テキストデータに対応す
る音声データとともに、その音声データの全体の出力時
間(読み上げ時間)を取得する。
In step S101, the real robot script generation unit 138 acquires the entire output time (reading time) of the voice data together with the voice data corresponding to the text data.

【0253】すなわち、図27のステップS61乃至ス
テップS66と同様の処理が実行され、パーソナルコン
ピュータ1に対する電子メールが送信されてきたとき、
メール管理部131は、例えば、その1行を単位とし
て、テキストデータを音声合成部132に出力する。そ
して、音声合成部132は、取得したテキストデータに
基づいて、上述したような処理により音声合成し、その
結果得られた音声データを、テキストデータとともに、
音声出力算出部134、および行動選択部135に出力
する。
That is, when the same processing as in steps S61 to S66 of FIG. 27 is executed and an electronic mail to the personal computer 1 is transmitted,
For example, the mail management unit 131 outputs text data to the speech synthesis unit 132 in units of one line. Then, the voice synthesis unit 132 performs voice synthesis by the above-described processing based on the acquired text data, and outputs the obtained voice data together with the text data,
It outputs to the voice output calculation section 134 and the action selection section 135.

【0254】音声出力算出部134は、供給されてきた
音声データの全体の出力時間(リアルロボット31の読
み上げ時間)を算出し、それを行動選択部135に出力
する。また、行動選択部135は、テキストデータに含
まれているキーワードを抽出して、テキストデータ中に
おける、抽出したキーワードの開始位置などの情報を、
供給されてきた音声の読み上げ時間や、音声データとと
もに、リアルロボットスクリプト生成部138に出力す
る。
[0254] The voice output calculation section 134 calculates the entire output time (reading time of the real robot 31) of the supplied voice data, and outputs it to the action selection section 135. In addition, the action selection unit 135 extracts a keyword included in the text data, and outputs information such as a start position of the extracted keyword in the text data.
The data is output to the real robot script generation unit 138 together with the supplied voice reading time and voice data.

【0255】そして、リアルロボットスクリプト生成部
138は、ステップS102において、スクリプト記憶
部139を参照し、供給されてきた各種の情報に基づい
て、キーワードに対応する行動をリアルロボット31に
とらせるための制御スクリプトを生成する。
In step S102, the real robot script generation unit 138 refers to the script storage unit 139, and causes the real robot 31 to take an action corresponding to the keyword based on the various information supplied. Generate a control script.

【0256】従って、例えば、図32に示すように、
「おはよう、昨日の件ですが大変恐縮ですがよろしくお
願いします。」の1行が供給されてきた場合、リアルロ
ボットスクリプト生成部138は、上述したように、予
め用意されている雛形を利用して、キーワード11の
「おはよう」に対応する行動をとらせるための制御スク
リプト(以下、適宜、制御スクリプト11と称する)
と、キーワード12の「よろしくお願いします」に対応
する行動をとらせるための制御スクリプト(以下、適
宜、制御スクリプト12と称する)を生成する。なお、
キーワードが含まれていない場合、後述する、口の開閉
を繰り返すことを指示する制御スクリプトが生成され
る。
Therefore, for example, as shown in FIG.
If one line of "Good morning, yesterday's matter is very afraid, but thank you." Control script for causing the user to take an action corresponding to the keyword 11 "good morning" (hereinafter, appropriately referred to as control script 11).
Then, a control script (hereinafter, appropriately referred to as the control script 12) for causing the user to take an action corresponding to the keyword 12, “Thank you” is generated. In addition,
If no keyword is included, a control script, which will be described later and instructs to repeat opening and closing of the mouth, is generated.

【0257】そして、リアルロボットスクリプト生成部
138は、ステップS103において、テキストデータ
中におけるキーワードの位置情報(キーワードが何文字
目に配置されているかの情報)、および、全体の読み上
げ時間の情報に基づいて、ステップS102で生成した
制御スクリプトの送信タイミング(キーワードが複数含
まれている場合、個々のキーワードに対応する制御スク
リプトの送信タイミング)を算出する。
In step S103, the real robot script generation unit 138 determines, based on the position information of the keyword in the text data (information on the character in which the keyword is located) and the information on the entire reading time. Then, the transmission timing of the control script generated in step S102 (when a plurality of keywords are included, the transmission timing of the control script corresponding to each keyword) is calculated.

【0258】より具体的には、例えば、全体(1行)の
読み上げ時間をt、全体の文字数をk、並びに、先頭の
文字を基準として、キーワードの開始文字数をxとした
場合、そのキーワードに対応する行動をリアルロボット
31にとらせるための制御スクリプトを送信するタイミ
ングは、t×(x−1)/k−αで表される(αは、リ
アルロボット31に設置されているアクチュエータの初
期駆動の誤差に対応する期間(なお、以下において、具
体例としてあげる送信タイミングの数値は、アクチュエ
ータの駆動にかかる誤差を無視したものである))。
More specifically, for example, if the reading time of the whole (one line) is t, the total number of characters is k, and the starting character number of the keyword is x with respect to the first character, the keyword becomes The timing of transmitting a control script for causing the real robot 31 to take a corresponding action is represented by t × (x−1) / k−α (α is the initial value of the actuator installed in the real robot 31) A period corresponding to the drive error (note that the numerical value of the transmission timing given as a specific example in the following ignoring the error related to the drive of the actuator).

【0259】従って、例えば、図32に示すように、
「おはよう、昨日の件ですが大変恐縮ですがよろしくお
願いします。」の1行が対象のテキストデータ(以下、
適宜、対象テキストデータと称する)である場合、キー
ワード11は1文字目から開始されるため、リアルロボ
ットスクリプト生成部138は、上式に各値を代入し、
制御スクリプト11の送信タイミング(送信タイミング
1)を、後述するタイマにより計測される時刻0(se
c)のタイミングとする。
Therefore, for example, as shown in FIG.
One line of "Good morning, yesterday, I am very sorry but thank you."
If appropriate, the keyword 11 is started from the first character. Therefore, the real robot script generation unit 138 substitutes each value into the above expression,
The transmission timing (transmission timing 1) of the control script 11 is set to time 0 (se
The timing of c) is assumed.

【0260】また、リアルロボットスクリプト生成部1
38は、キーワード12の開始位置が20文字目である
ことを認識し、キーワード11の場合と同様に、上式に
各値を代入し、制御スクリプト12の送信タイミング
(送信タイミング2)を、時刻3.167(3.166
6…)(sec)のタイミングとする。
Also, the real robot script generation unit 1
38 recognizes that the start position of the keyword 12 is the 20th character, substitutes each value into the above expression as in the case of the keyword 11, and sets the transmission timing (transmission timing 2) of the control script 12 to the time. 3.167 (3.166
6 ...) (sec).

【0261】なお、図32の対象テキストデータの全体
の読み上げ時間は、音声出力算出部134の処理によ
り、5(sec)と算出されている。
It should be noted that the entire reading time of the target text data in FIG. 32 is calculated to be 5 (sec) by the processing of the voice output calculating section 134.

【0262】そして、ステップS104において、リア
ルロボットスクリプト生成部138は、テキストデータ
の冒頭にキーワードがあるか否かを判定し、冒頭にキー
ワードがあると判定した場合、ステップS105に進
む。リアルロボットスクリプト生成部138は、ステッ
プS105において、ステップS102で生成し、保存
しておいた、冒頭に含まれているキーワードに対応する
制御スクリプトをスクリプト送信部140から送信す
る。
Then, in step S104, the real robot script generation unit 138 determines whether or not there is a keyword at the beginning of the text data. If it is determined that there is a keyword at the beginning, the process proceeds to step S105. In step S105, the real robot script generation unit 138 transmits the control script corresponding to the keyword included at the beginning, generated and stored in step S102, from the script transmission unit 140.

【0263】すなわち、図32の対象テキストデータの
ように、その冒頭にキーワードが含まれている場合、後
述する処理により送信される音声データに基づいて、リ
アルロボット31がキーワードを読み上げるタイミング
と、そのキーワードに対応する行動を行うタイミングの
同期をとるためには、制御スクリプトを予め送信する必
要がある。
That is, when a keyword is included at the beginning as in the target text data of FIG. 32, the timing at which the real robot 31 reads out the keyword based on the voice data transmitted by the processing described later, In order to synchronize the timing of performing the action corresponding to the keyword, it is necessary to transmit a control script in advance.

【0264】一方、ステップS104において、リアル
ロボットスクリプト生成部138は、冒頭にキーワード
が含まれていないと判定した場合、ステップS105の
処理をスキップし、ステップS106に進む。
On the other hand, if it is determined in step S104 that the keyword is not included at the beginning, the real robot script generation unit 138 skips step S105 and proceeds to step S106.

【0265】ステップS106において、リアルロボッ
トスクリプト生成部138は、スクリプト送信部140
を制御し、音声データを送信する。そして、ステップS
107において、リアルロボットスクリプト生成部13
8は、無線通信部4の出力に基づいて、音声データの受
信を完了したことが、リアルロボット31から通知され
てきたか否かを判定し、通知されてきたと判定するまで
待機する。
[0265] In step S106, the real robot script generation unit 138 sends the script transmission unit 140
And transmit audio data. And step S
At 107, the real robot script generation unit 13
8 determines, based on the output of the wireless communication unit 4, whether or not the real robot 31 has been notified that the reception of the audio data has been completed, and waits until it is determined that the notification has been received.

【0266】図33のフローチャートを参照して後述す
るように、リアルロボット31においては、テキストデ
ータの1行に対応する音声データの受信を完了したと
き、その応答をするようになされている。
As will be described later with reference to the flowchart of FIG. 33, when the reception of the voice data corresponding to one line of the text data is completed, the real robot 31 responds.

【0267】ステップS107において、リアルロボッ
トスクリプト生成部138は、音声データの受信が完了
したことが通知されたと判定した場合、ステップS10
8に進み、リアルロボット31に対して、口の開閉を繰
り返すとともに、電子メールの読み上げを開始すること
を指示する。
If it is determined in step S107 that the real robot script generation unit 138 has been notified that the reception of the audio data has been completed, the process proceeds to step S10.
Proceeding to 8, the real robot 31 is instructed to repeat opening and closing of the mouth and to start reading out the e-mail.

【0268】すなわち、リアルロボットスクリプト生成
部138は、図32の対象テキストデータにおいて、
「PLAY:ACTION:mouthACT:5000」の行動スクリプトをス
クリプト記憶部139から読み出し、それを雛形に挿入
して制御スクリプトを生成し、リアルロボット31に送
信する。なお、この口の開閉を繰り返す制御スクリプト
も、ステップS102の処理において生成されたもので
ある。
That is, the real robot script generation unit 138 generates
The action script of “PLAY: ACTION: mouthACT: 5000” is read from the script storage unit 139, inserted into a template to generate a control script, and transmitted to the real robot 31. The control script for repeating the opening and closing of the mouth is also generated in the process of step S102.

【0269】リアルロボット31においては、制御スク
リプトが受信されることに応じて、その制御スクリプト
が実行され、電子メールの読み上げが開始される。
In the real robot 31, in response to receiving the control script, the control script is executed, and the reading of the e-mail is started.

【0270】ステップS109において、リアルロボッ
トスクリプト生成部138は、内蔵するタイマ(図示せ
ず)による計測を開始する。そして、リアルロボットス
クリプト生成部138は、このタイマの計測時刻に基づ
いて、後段の各種の処理を実行する。
[0270] In step S109, the real robot script generation unit 138 starts measurement by a built-in timer (not shown). Then, the real robot script generation unit 138 executes various subsequent processes based on the time measured by the timer.

【0271】ステップS110において、リアルロボッ
トスクリプト生成部138は、対象とするテキストデー
タ中に、複数のキーワードが含まれているか否かを判定
し、含まれていないと判定した場合、ステップS115
に進み、後述する処理を実行する。
[0271] In step S110, the real robot script generation unit 138 determines whether or not a plurality of keywords are included in the target text data.
To execute the process described later.

【0272】一方、対象とするテキストデータが、図3
2に示すようなものである場合、ステップS110にお
いて、リアルロボットスクリプト生成部138は、複数
のキーワードが含まれていると判定し、ステップS11
1に進む。
On the other hand, if the target text data is
2, in step S110, the real robot script generation unit 138 determines that a plurality of keywords are included, and determines in step S11.
Proceed to 1.

【0273】ステップS111において、リアルロボッ
トスクリプト生成部138は、次のキーワードに対応す
る制御スクリプトを送信するタイミングとなったか否か
を判定し、そのタイミングとなったと判定するまで待機
する。例えば、図32に示すテキストデータの場合、制
御スクリプト12を送信するタイミングは、タイマの計
測時刻が3.167(sec)となったときであるため、
リアルロボットスクリプト生成部138は、この時刻と
なるまで待機する。
[0273] In step S111, the real robot script generation unit 138 determines whether it is time to transmit a control script corresponding to the next keyword, and waits until it is determined that the timing has been reached. For example, in the case of the text data shown in FIG. 32, the timing at which the control script 12 is transmitted is when the measurement time of the timer reaches 3.167 (sec).
The real robot script generation unit 138 waits until this time.

【0274】そして、リアルロボットスクリプト生成部
138は、ステップS111において、次のキーワード
に対応する制御スクリプトを送信するタイミングとなっ
たと判定したとき、ステップS112に進み、キーワー
ドに対応する行動を完了したことが既に通知されている
か否かを判定する。
When the real robot script generation unit 138 determines in step S111 that it is time to transmit the control script corresponding to the next keyword, the process proceeds to step S112, and completes the action corresponding to the keyword. It is determined whether or not has already been notified.

【0275】制御スクリプト11に基づいて、所定の行
動を実行し、完了したとき、リアルロボット31は、そ
のことをパーソナルコンピュータ1に通知する。すなわ
ち、ステップS112において、リアルロボット31
が、制御スクリプト11に基づいた行動を実行している
最中である場合、ステップS113の処理はスキップさ
れる。
Based on the control script 11, a predetermined action is executed. When the action is completed, the real robot 31 notifies the personal computer 1 of the completion. That is, in step S112, the real robot 31
However, when the action based on the control script 11 is being executed, the process of step S113 is skipped.

【0276】従って、図32の例において、制御スクリ
プト12を送信するタイミングとなった場合であって
も、送信タイミング2のときに、リアルロボット31が
キーワード11に対応する行動を実行している最中であ
る場合、制御スクリプト12は送信されないこととな
る。
Therefore, in the example of FIG. 32, even when the timing for transmitting the control script 12 has come, at the transmission timing 2, the real robot 31 is executing the action corresponding to the keyword 11. If it is in the middle, the control script 12 will not be transmitted.

【0277】ステップS112において、リアルロボッ
トスクリプト生成部138は、キーワードに対応する行
動をとったことが既に通知されていると判定した場合、
ステップS113に進み、次のキーワードに対応する制
御スクリプトをスクリプト送信部140から送信する。
In step S112, the real robot script generation unit 138 determines that the action corresponding to the keyword has already been notified,
Proceeding to step S113, the script transmitting unit 140 transmits a control script corresponding to the next keyword.

【0278】従って、図32の例において、送信タイミ
ング2より以前に、制御スクリプト11に基づいた行動
を終了したことがリアルロボット31から通知されてい
る場合、リアルロボットスクリプト生成部138は、ス
テップS113において、送信タイミング2のタイミン
グで、制御スクリプト12を送信する。
Therefore, in the example of FIG. 32, if the real robot 31 has notified that the action based on the control script 11 has been completed before the transmission timing 2, the real robot script generation unit 138 proceeds to step S113. , The control script 12 is transmitted at the transmission timing 2.

【0279】ステップS114において、1行に含まれ
る最後のキーワードに対応する制御スクリプトを処理
(送信、または、送信不可の場合、スキップ)したか否
かを判定し、処理していないと判定した場合、ステップ
S111に戻り、それ以降の処理を繰り返し実行する。
In step S114, it is determined whether or not the control script corresponding to the last keyword included in one line has been processed (transmitted, or skipped if transmission is impossible), and if not determined. , And returns to step S111 to repeatedly execute the subsequent processing.

【0280】一方、ステップS114において、リアル
ロボットスクリプト生成部138は、1行に含まれる最
後のキーワードに対応する制御スクリプトを処理したと
判定した場合、ステップS115に進む。ステップS1
15において、リアルロボットスクリプト生成部138
は、リアルロボット31が電子メールの読み上げを終了
するタイミングとなったか否かを判定し、終了するタイ
ミングとなったと判定するまで待機する。
On the other hand, in step S114, when the real robot script generation unit 138 determines that the control script corresponding to the last keyword included in one line has been processed, the process proceeds to step S115. Step S1
In 15, the real robot script generation unit 138
Determines whether or not it is time to finish reading out the e-mail by the real robot 31, and waits until it is determined that it is time to end.

【0281】リアルロボットスクリプト生成部138
は、ステップS115において、読み上げが終了するタ
イミングとなったと判定した場合、ステップS116に
進み、電子メールに含まれる全文のテキストデータをリ
アルロボット31に読み上げさせたか否かを判定する。
そして、リアルロボットスクリプト生成部138は、全
文のテキストデータをまだ読み上げさせていないと判定
した場合、ステップS101に戻り、次の1行を対象テ
キストデータとして、それ以降の処理を繰り返し実行す
る。
A real robot script generation unit 138
In step S115, if it is determined that the timing for terminating the reading has come, the process proceeds to step S116, and it is determined whether the real robot 31 has read the text data of the entire text included in the e-mail.
If the real robot script generation unit 138 determines that the text data of the entire text has not been read out yet, the process returns to step S101, and repeats the subsequent processing with the next one line as the target text data.

【0282】一方、ステップS116で、電子メールに
含まれるテキストデータの全文を読み上げさせたと判定
した場合、リアルロボットスクリプト生成部138は、
処理を終了させる。
On the other hand, if it is determined in step S116 that the full text of the text data included in the e-mail has been read out, the real robot script generation unit 138 determines
The process ends.

【0283】次に、図33のフローチャートを参照し
て、制御スクリプトを実行するリアルロボット31の処
理について説明する。
Next, the processing of the real robot 31 for executing the control script will be described with reference to the flowchart of FIG.

【0284】ステップS131において、スクリプト実
行部187は、音声データがパーソナルコンピュータ1
から送信され、その受信を完了したとき、そのことをパ
ーソナルコンピュータ1に通知する。
In step S131, the script execution unit 187 determines that the audio data is
When the reception is completed, the personal computer 1 is notified of the completion.

【0285】パーソナルコンピュータ1においては、上
述したように、この通知がされることに応じて、メール
の読み上げを開始することがリアルロボット31に通知
される。そして、スクリプト実行部187は、ステップ
S132において、電子メールの読み上げを開始するこ
とが指示されたか否かを判定し、通知されたと判定する
まで待機する。
In the personal computer 1, as described above, in response to the notification, the real robot 31 is notified that the reading of the mail is started. Then, in step S132, script execution unit 187 determines whether or not an instruction to start reading out the e-mail has been given, and waits until it is determined that notification has been given.

【0286】従って、スクリプト実行部187は、図3
0のステップS108の処理により、電子メールの読み
上げが指示されたとき、ステップS133に進み、口の
開閉を繰り返すことが設定されている制御スクリプトを
実行し、図29の処理と同様に、姿勢遷移機構部184
を制御する。これにより、電子メールの読み上げと、そ
れに合わせて口の開閉を繰り返す行動が行われる。
Therefore, the script execution unit 187 is
When the reading of the e-mail is instructed by the process of step S108 of step S108, the process proceeds to step S133, and the control script in which the opening and closing of the mouth is set to be repeated is executed. Mechanism section 184
Control. As a result, the reading of the e-mail and the opening and closing of the mouth are repeated.

【0287】ステップS134において、スクリプト実
行部187は、制御スクリプト(キーワードに対応する
制御スクリプト)が送信されてきたか否かを判定し、送
信されてきていないと判定した場合、ステップS135
乃至ステップS137の処理をスキップし、ステップS
138に進む。
In step S134, script execution section 187 determines whether or not a control script (a control script corresponding to a keyword) has been transmitted. If it is determined that a control script has not been transmitted, step S135 occurs.
Through step S137, and skips step S137.
Proceed to 138.

【0288】一方、ステップS134において、制御ス
クリプトが送信されてきたと判定した場合、スクリプト
実行部187は、ステップS135に進み、制御スクリ
プトに基づいて各部を制御し、キーワードに対応する行
動をとる。
On the other hand, if it is determined in step S134 that the control script has been transmitted, the script execution unit 187 proceeds to step S135, controls each unit based on the control script, and takes an action corresponding to the keyword.

【0289】例えば、上述した制御スクリプト11が送
信されてきた場合、「おはよう」を読み上げるタイミン
グで、お辞儀をするなどの行動が実行される。
For example, when the above-mentioned control script 11 is transmitted, an action such as bowing is executed at the timing of reading out “Good morning”.

【0290】ステップS136において、スクリプト実
行部187は、キーワードに対応する行動が終了したか
否かを判定し、終了したと判定するまで待機する。そし
て、キーワードに対応する行動が終了したと判定した場
合、スクリプト実行部187は、ステップS137に進
み、その行動をとったことをパーソナルコンピュータ1
に通知する。
In step S136, script execution section 187 determines whether or not the action corresponding to the keyword has been completed, and waits until it is determined that the action has been completed. If it is determined that the action corresponding to the keyword has been completed, the script execution unit 187 proceeds to step S137, and notifies the personal computer 1 that the action has been taken.
Notify.

【0291】これにより、パーソナルコンピュータ1に
おいては、対象とするテキストデータ中に、複数のキー
ワードが含まれている場合、次のキーワードに対応する
制御スクリプトを送信することが可能となる。
Thus, when a plurality of keywords are included in the target text data, the personal computer 1 can transmit a control script corresponding to the next keyword.

【0292】ステップS138において、スクリプト実
行部187は、電子メールの読み上げを終了したか否か
を判定し、終了していないと判定した場合、ステップS
133に戻り、それ以降の処理を繰り返し実行する。ま
た、スクリプト実行部187は、ステップS138にお
いて、電子メールの読み上げを終了したと判定した場
合、その処理を終了させる。
At step S138, script execution unit 187 determines whether or not the reading of the e-mail has been completed.
Returning to 133, the subsequent processing is repeatedly executed. If it is determined in step S138 that the reading of the e-mail has been completed, the script execution unit 187 terminates the processing.

【0293】以上のような様々な方法(アルゴリズム)
により、リアルロボット31に制御スクリプトや音声デ
ータを提供することが可能である。
Various methods (algorithms) as described above
Thereby, it is possible to provide the real robot 31 with a control script and audio data.

【0294】以上においては、バーチャルロボット1
1、またはリアルロボット31が読み上げるテキストデ
ータは、電子メールにより取得されたものとしたが、い
ずれの方法により取得されたテキストデータであっても
よい。例えば、ワープロ文書をバーチャルロボット1
1、またはリアルロボット31が読み上げるようにして
もよいし、または、Webページに含まれるテキストデー
タを読み上げるようにしてもよい。
In the above, the virtual robot 1
1, or the text data read out by the real robot 31 is obtained by e-mail, but may be text data obtained by any method. For example, a virtual robot 1
1, or the real robot 31 may read aloud, or text data included in a web page may be read aloud.

【0295】また、上述した例においては、キーワード
と、それに対応する行動は、予め規定されているとした
が、ユーザが好みに応じて登録できるようにしてもよ
い。その場合、ユーザは、所定の登録画面の案内に従っ
て、例えば、キーボード3からキーワードを入力し、そ
れに対応付けて登録する行動を、予め用意されているメ
ニューから選択する。
Further, in the above-described example, the keyword and the action corresponding to the keyword have been defined in advance, but the user may be allowed to register as desired. In this case, the user inputs a keyword from the keyboard 3, for example, according to guidance on a predetermined registration screen, and selects an action to be registered in association with the keyword from a menu prepared in advance.

【0296】これにより、バーチャルロボット11、ま
たはリアルロボット31に好みの行動をとらせることが
できるため、より一層、それぞれのロボットに対して愛
着がわくことになる。また、電子メールの読み上げ装置
としても、面白みのあるものとなる。
[0296] This allows the virtual robot 11 or the real robot 31 to take a desired action, thereby further attaching to each robot. In addition, the electronic mail reading device is also interesting.

【0297】上述した一連の処理は、ハードウェアによ
り実行させることもできるが、ソフトウェアにより実行
させることもできる。そして、一連の処理をソフトウエ
アにより実行させる場合には、そのソフトウエアを構成
するプログラムが、専用のハードウエアに組み込まれて
いるコンピュータ、または、各種のプログラムをインス
トールすることで、各種の機能を実行することが可能
な、例えば、汎用のパーソナルコンピュータなどに、ネ
ットワークや記録媒体からインストールされる。
[0297] The above-described series of processing can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software is provided with a computer built in dedicated hardware, or various functions are installed by installing various programs. For example, it is installed in a general-purpose personal computer that can be executed from a network or a recording medium.

【0298】この記録媒体は、図6に示すように、装置
本体とは別に、ユーザにプログラムを提供するために配
布される、プログラムが記録されている磁気ディスク1
21(フロッピ(登録商標)ディスクを含む)、光ディ
スク122(CD-ROM(CompactDisk-Read Only Memory),
DVD(Digital Versatile Disk)を含む)、光磁気ディス
ク123(MD(Mini-Disk)(登録商標)を含む)、もし
くは半導体メモリ21などよりなるパッケージメディア
により構成されるだけでなく、装置本体に予め組み込ま
れた状態でユーザに提供される、プログラムが記録され
ているHDD86などで構成される。
As shown in FIG. 6, this recording medium is a magnetic disk 1 on which a program is recorded, which is distributed in order to provide the user with the program, separately from the apparatus main body.
21 (including a floppy (registered trademark) disk), an optical disk 122 (CD-ROM (Compact Disk-Read Only Memory),
DVD (including Digital Versatile Disk), magneto-optical disk 123 (including MD (Mini-Disk) (registered trademark)), or package media including semiconductor memory 21, etc. It is composed of an HDD 86 or the like in which a program is recorded, which is provided to the user in a built-in state.

【0299】なお、本明細書において、記録媒体に記録
されるプログラムを記述するステップは、記載された順
序に従って時系列的に行われる処理はもちろん、必ずし
も時系列的に処理されなくとも、並列的あるいは個別に
実行される処理をも含むものである。
[0299] In this specification, the step of describing a program recorded on a recording medium is not limited to processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. Alternatively, it also includes individually executed processing.

【0300】また、本明細書において、システムとは、
複数の装置により構成される装置全体を表すものであ
る。
[0300] In this specification, the system is
It represents the entire device composed of a plurality of devices.

【0301】[0301]

【発明の効果】本発明の第1の情報処理装置および方
法、記録媒体、並びにプログラムによれば、テキストデ
ータを取得し、取得したテキストデータを用いて音声合
成を行い、テキストデータ中に含まれる所定のキーワー
ドを検出する。また、検出したキーワードに対応する、
ロボットの行動を選択し、ロボットが、音声合成の結果
取得された音声データに基づいて、キーワードを音声出
力することに合わせて、選択した行動をとるための制御
スクリプトを生成するようにしたので、電子メールの内
容を確認することが、より面白みのあるものとなる。
According to the first information processing apparatus and method, recording medium, and program of the present invention, text data is obtained, speech synthesis is performed using the obtained text data, and the text data is included in the text data. A predetermined keyword is detected. Also, corresponding to the detected keyword,
Since the action of the robot is selected, and the robot generates a control script for taking the selected action based on the voice data obtained as a result of the voice synthesis, in accordance with outputting the keyword as a voice, Checking the content of the email will be more interesting.

【0302】本発明の第2の情報処理装置および方法、
記録媒体、並びにプログラムによれば、テキストデータ
を取得し、取得したテキストデータを用いて音声合成を
行い、音声合成の結果取得された音声データに基づい
て、テキストデータに対応する音声を出力することをロ
ボットに指示する。また、テキストデータ中に含まれる
所定のキーワードを検出し、検出したキーワードに対応
する行動をロボットに実行させるための制御スクリプト
を生成し、生成した制御スクリプトを送信するタイミン
グを算出される。そして、算出したタイミングとなった
とき、制御スクリプトをロボットに対して送信するよう
にしたので、電子メールの内容を確認することが、より
面白みのあるものとなる。
A second information processing apparatus and method according to the present invention,
According to the recording medium and the program, obtaining text data, performing voice synthesis using the obtained text data, and outputting a voice corresponding to the text data based on the voice data obtained as a result of the voice synthesis. To the robot. In addition, a predetermined keyword included in the text data is detected, a control script for causing the robot to execute an action corresponding to the detected keyword is generated, and a timing for transmitting the generated control script is calculated. Then, at the calculated timing, the control script is transmitted to the robot, so that it is more interesting to check the contents of the e-mail.

【0303】本発明の第3の情報処理装置および方法、
記録媒体、並びにプログラムによれば、テキストデータ
を取得し、取得したテキストデータを用いて音声合成を
行い、テキストデータ中に含まれる所定のキーワードを
検出する。また、検出したキーワードに対応する、ロボ
ットの行動を選択し、音声合成の結果取得された音声デ
ータを再生し、キーワードを音声出力することに合わせ
て、選択した行動をロボットがとるように、ロボットの
行動を制御するようにしたので、電子メールの内容を確
認することが、より面白みのあるものとなる。
The third information processing apparatus and method according to the present invention,
According to the recording medium and the program, text data is obtained, speech synthesis is performed using the obtained text data, and a predetermined keyword included in the text data is detected. In addition, a robot action corresponding to the detected keyword is selected, the voice data obtained as a result of the voice synthesis is reproduced, and the keyword is output as a voice. Is controlled, so that it is more interesting to check the contents of the e-mail.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用したロボット制御システムの構成
例を示す図である。
FIG. 1 is a diagram illustrating a configuration example of a robot control system to which the present invention has been applied.

【図2】図1のパーソナルコンピュータの外観を示す斜
視図である。
FIG. 2 is a perspective view showing an appearance of the personal computer of FIG.

【図3】図1のパーソナルコンピュータの外観を示す平
面図である。
FIG. 3 is a plan view showing an appearance of the personal computer of FIG.

【図4】図1のパーソナルコンピュータの外観を示す他
の斜視図である。
FIG. 4 is another perspective view showing the appearance of the personal computer of FIG. 1;

【図5】図1のパーソナルコンピュータの外観を示す側
面図である。
FIG. 5 is a side view showing the external appearance of the personal computer of FIG.

【図6】図1のパーソナルコンピュータの機能構成例を
示すブロック図である。
FIG. 6 is a block diagram illustrating a functional configuration example of the personal computer of FIG. 1;

【図7】図6のロボット制御プログラムの機能構成例を
示すブロック図である。
FIG. 7 is a block diagram illustrating a functional configuration example of the robot control program in FIG. 6;

【図8】行動スクリプトとキーワードの対応例を示す図
である。
FIG. 8 is a diagram showing an example of correspondence between an action script and a keyword.

【図9】図1のリアルロボットの外観を示す斜視図であ
る。
FIG. 9 is a perspective view showing an appearance of the real robot of FIG. 1;

【図10】図1のリアルロボットの内部構成例を示すブ
ロック図である。
FIG. 10 is a block diagram showing an example of the internal configuration of the real robot of FIG. 1;

【図11】図10のコントローラの機能構成例を示すブ
ロック図である。
11 is a block diagram illustrating an example of a functional configuration of the controller in FIG.

【図12】LCDの表示例を示す図である。FIG. 12 is a diagram illustrating a display example of an LCD.

【図13】LCDの他の表示例を示す図である。FIG. 13 is a diagram showing another display example of the LCD.

【図14】LCDのさらに他の表示例を示す図である。FIG. 14 is a diagram showing still another display example of the LCD.

【図15】ロボット制御プログラムの処理を説明するフ
ローチャートである。
FIG. 15 is a flowchart illustrating processing of a robot control program.

【図16】ロボット制御プログラムの処理を説明する図
15に続くフローチャートである。
FIG. 16 is a flowchart illustrating the processing of the robot control program, following FIG.

【図17】LCDの表示例を示す図である。FIG. 17 is a diagram illustrating a display example of an LCD.

【図18】LCDの他の表示例を示す図である。FIG. 18 is a diagram showing another display example of the LCD.

【図19】テキストデータの例を示す図である。FIG. 19 is a diagram illustrating an example of text data.

【図20】LCDのさらに他の表示例を示す図である。FIG. 20 is a diagram showing still another display example of the LCD.

【図21】LCDの表示例を示す図である。FIG. 21 is a diagram illustrating a display example of an LCD.

【図22】LCDの他の表示例を示す図である。FIG. 22 is a diagram showing another display example of the LCD.

【図23】LCDのさらに他の表示例を示す図である。FIG. 23 is a diagram showing still another display example of the LCD.

【図24】ロボット制御プログラムの他の処理を説明す
るフローチャートである。
FIG. 24 is a flowchart illustrating another process of the robot control program.

【図25】ロボット制御プログラムの他の処理を説明す
る図24に続くフローチャートである。
FIG. 25 is a flowchart illustrating another process of the robot control program following FIG. 24;

【図26】制御スクリプトの例を示す図である。FIG. 26 is a diagram illustrating an example of a control script.

【図27】ロボット制御プログラムのさらに他の処理を
説明するフローチャートである。
FIG. 27 is a flowchart illustrating still another process of the robot control program.

【図28】ロボット制御プログラムのさらに他の処理を
説明する図28に続くフローチャートである。
FIG. 28 is a flowchart illustrating yet another process of the robot control program, which is subsequent to FIG. 28.

【図29】リアルロボットの処理を説明するフローチャ
ートである。
FIG. 29 is a flowchart illustrating processing of a real robot.

【図30】ロボット制御プログラムの処理を説明するフ
ローチャートである。
FIG. 30 is a flowchart illustrating processing of a robot control program.

【図31】ロボット制御プログラムの処理を説明する図
30に続くフローチャートである。
FIG. 31 is a flowchart illustrating the processing of the robot control program, continued from FIG. 30;

【図32】テキストデータの例を示す図である。FIG. 32 is a diagram illustrating an example of text data.

【図33】リアルロボットの他の処理を説明するフロー
チャートである。
FIG. 33 is a flowchart illustrating another process of the real robot.

【符号の説明】[Explanation of symbols]

1 パーソナルコンピュータ, 4 無線通信部, 1
1 バーチャルロボット, 21 半導体メモリ, 3
1 リアルロボット, 71 CPU, 74 RAM, 7
4A ロボット制御プログラム, 74B 電子メール
プログラム,86 HDD, 86A ロボット制御プロ
グラム, 86B 電子メールプログラム, 121
磁気ディスク, 122 光ディスク, 123 光磁
気ディスク, 131 メール管理部, 132 音声
合成部, 133 音声合成用辞書, 134 音声出
力時間算出部, 135 行動選択部, 136 行動
選択用辞書, 137 バーチャルロボット制御部,
138 リアルロボットスクリプト生成部, 139
スクリプト記憶部, 140 スクリプト送信部, 1
41 半導体メモリ管理部
1 personal computer, 4 wireless communication section, 1
1 virtual robot, 21 semiconductor memory, 3
1 real robot, 71 CPU, 74 RAM, 7
4A robot control program, 74B e-mail program, 86 HDD, 86A robot control program, 86B e-mail program, 121
Magnetic disk, 122 optical disk, 123 magneto-optical disk, 131 mail management unit, 132 voice synthesis unit, 133 voice synthesis dictionary, 134 voice output time calculation unit, 135 action selection unit, 136 action selection dictionary, 137 virtual robot control unit ,
138 Real Robot Script Generator, 139
Script storage unit, 140 Script transmission unit, 1
41 Semiconductor Memory Management Unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 藤村 聡 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 2C150 CA02 DA05 DA24 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED42 ED47 ED52 EF07 EF16 EF17 EF23 EF29 EF33 EF36 ────────────────────────────────────────────────── ─── Continued on the front page (72) Inventor Satoshi Fujimura 6-35 Kita-Shinagawa, Shinagawa-ku, Tokyo F-term within Sony Corporation (reference) 2C150 CA02 DA05 DA24 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED42 ED47 ED52 EF07 EF16 EF17 EF23 EF29 EF33 EF36

Claims (21)

【特許請求の範囲】[Claims] 【請求項1】 実在するロボットを制御する情報処理装
置において、 テキストデータを取得する取得手段と、 前記取得手段により取得された前記テキストデータを用
いて音声合成を行う音声合成手段と、 前記テキストデータ中に含まれる所定のキーワードを検
出する検出手段と、 前記検出手段により検出された前記キーワードに対応す
る、前記ロボットの行動を選択する選択手段と、 前記ロボットが、前記音声合成手段による音声合成の結
果取得された音声データに基づいて、前記キーワードを
音声出力することに合わせて、前記選択手段により選択
された前記行動をとるための制御スクリプトを生成する
生成手段とを備えることを特徴とする情報処理装置。
1. An information processing apparatus for controlling an existing robot, comprising: an acquisition unit for acquiring text data; a speech synthesis unit for performing speech synthesis using the text data acquired by the acquisition unit; Detecting means for detecting a predetermined keyword included in the keyword; selecting means for selecting an action of the robot corresponding to the keyword detected by the detecting means; and Generating means for generating a control script for taking the action selected by the selecting means in accordance with outputting the keyword based on the voice data obtained as a result. Processing equipment.
【請求項2】 前記生成手段により生成された前記制御
スクリプトを、前記音声合成手段により取得された前記
音声データとともに、前記ロボットに対して無線で送信
する送信手段をさらに備えることを特徴とする請求項1
に記載の情報処理装置。
2. The apparatus according to claim 1, further comprising a transmission unit configured to wirelessly transmit the control script generated by the generation unit to the robot together with the voice data acquired by the voice synthesis unit. Item 1
An information processing apparatus according to claim 1.
【請求項3】 前記生成手段により生成された前記制御
スクリプトを、前記音声合成手段により取得された前記
音声データとともに、所定の記録媒体を介して前記ロボ
ットに対して提供する提供手段をさらに備えることを特
徴とする請求項1に記載の情報処理装置。
3. The apparatus according to claim 2, further comprising a providing unit that provides the control script generated by the generating unit to the robot via a predetermined recording medium together with the voice data acquired by the voice synthesizing unit. The information processing apparatus according to claim 1, wherein:
【請求項4】 前記テキストデータを構成する個々の単
語の音声出力時間を算出する算出手段をさらに備え、 前記取得手段により所定の単位のテキストデータが取得
され、前記検出手段により前記単位のテキストデータか
ら複数の前記キーワードが検出された場合、 前記選択手段は、前記算出手段による算出結果に基づい
て、前記音声出力時間が長い方の前記キーワードに対応
する行動を、前記ロボットの行動として選択することを
特徴とする請求項1に記載の情報処理装置。
And a calculating unit for calculating a voice output time of each word constituting the text data, wherein the obtaining unit obtains text data of a predetermined unit, and the detecting unit obtains text data of the unit. When a plurality of the keywords are detected from the above, the selecting means selects an action corresponding to the keyword having a longer voice output time as an action of the robot based on a calculation result by the calculating means. The information processing apparatus according to claim 1, wherein:
【請求項5】 前記キーワードと前記行動を対応付けて
新たに登録する登録手段をさらに備えることを特徴とす
る請求項1に記載の情報処理装置。
5. The information processing apparatus according to claim 1, further comprising a registration unit for newly registering the keyword in association with the action.
【請求項6】 前記取得手段は、前記情報処理装置に対
して送信されてきた電子メールから前記テキストデータ
を取得することを特徴とする請求項1に記載の情報処理
装置。
6. The information processing apparatus according to claim 1, wherein the obtaining unit obtains the text data from an electronic mail transmitted to the information processing apparatus.
【請求項7】 実在するロボットを制御する情報処理装
置の情報処理方法において、 テキストデータを取得する取得処理ステップと、 前記取得処理ステップの処理により取得された前記テキ
ストデータを用いて音声合成を行う音声合成処理ステッ
プと、 前記テキストデータ中に含まれる所定のキーワードを検
出する検出処理ステップと、 前記検出処理ステップの処理により検出された前記キー
ワードに対応する、前記ロボットの行動を選択する選択
処理ステップと、 前記ロボットが、前記音声合成処理ステップの処理によ
る音声合成の結果取得された音声データに基づいて、前
記キーワードを音声出力することに合わせて、前記選択
処理ステップの処理により選択された前記行動をとるた
めの制御スクリプトを生成する生成処理ステップとを含
むことを特徴とする情報処理方法。
7. An information processing method of an information processing apparatus for controlling a real robot, wherein: an acquisition processing step of acquiring text data; and performing speech synthesis using the text data acquired by the processing of the acquisition processing step. A voice synthesis processing step; a detection processing step of detecting a predetermined keyword included in the text data; and a selection processing step of selecting an action of the robot corresponding to the keyword detected by the processing of the detection processing step. The robot selected by the processing of the selection processing step in accordance with outputting the keyword as voice based on the voice data obtained as a result of the voice synthesis by the processing of the voice synthesis processing step. Generation processing step for generating a control script for taking An information processing method which comprises.
【請求項8】 実在するロボットを制御する情報処理装
置のプログラムにおいて、 テキストデータを取得することを制御する取得制御処理
ステップと、 前記取得制御処理ステップの処理により取得された前記
テキストデータを用いて音声合成を行う音声合成処理ス
テップと、 前記テキストデータ中に含まれる所定のキーワードを検
出する検出処理ステップと、 前記検出処理ステップの処理により検出された前記キー
ワードに対応する、前記ロボットの行動を選択する選択
処理ステップと、 前記ロボットが、前記音声合成処理ステップの処理によ
る音声合成の結果取得された音声データに基づいて、前
記キーワードを音声出力することに合わせて、前記選択
処理ステップの処理により選択された前記行動をとるた
めの制御スクリプトを生成する生成処理ステップとを含
むことを特徴とするコンピュータが読み取り可能なプロ
グラムが記録されている記録媒体。
8. A program of an information processing apparatus for controlling an existing robot, wherein: an acquisition control processing step for controlling acquisition of text data; and the text data acquired by the processing of the acquisition control processing step. A voice synthesis processing step of performing voice synthesis; a detection processing step of detecting a predetermined keyword included in the text data; and selecting an action of the robot corresponding to the keyword detected by the processing of the detection processing step. The robot performs the selection based on the voice data obtained as a result of the voice synthesis performed in the voice synthesis processing, and performs the selection in accordance with the voice processing of the keyword. A control script for taking the action described above Recording medium on which computer-readable program, wherein is recorded to include the generation processing step.
【請求項9】 実在するロボットを制御するコンピュー
タに、 テキストデータを取得することを制御する取得制御処理
ステップと、 前記取得制御処理ステップの処理により取得された前記
テキストデータを用いて音声合成を行う音声合成処理ス
テップと、 前記テキストデータ中に含まれる所定のキーワードを検
出する検出処理ステップと、 前記検出処理ステップの処理により検出された前記キー
ワードに対応する、前記ロボットの行動を選択する選択
処理ステップと、 前記ロボットが、前記音声合成処理ステップの処理によ
る音声合成の結果取得された音声データに基づいて、前
記キーワードを音声出力することに合わせて、前記選択
処理ステップの処理により選択された前記行動をとるた
めの制御スクリプトを生成する生成処理ステップとを実
行させるプログラム。
9. A computer for controlling an existing robot, an acquisition control processing step of controlling acquisition of text data, and performing speech synthesis using the text data acquired by the processing of the acquisition control processing step. A voice synthesis processing step; a detection processing step of detecting a predetermined keyword included in the text data; and a selection processing step of selecting an action of the robot corresponding to the keyword detected by the processing of the detection processing step. The robot selected by the processing of the selection processing step in accordance with outputting the keyword as voice based on the voice data obtained as a result of the voice synthesis by the processing of the voice synthesis processing step. Processing step for generating a control script to take Program to be run.
【請求項10】 実在するロボットを制御する情報処理
装置において、 テキストデータを取得する取得手段と、 前記取得手段により取得された前記テキストデータを用
いて音声合成を行う音声合成手段と、 前記音声合成手段による音声合成の結果取得された音声
データに基づいて、前記テキストデータに対応する音声
を出力することを前記ロボットに指示する指示手段と、 前記テキストデータ中に含まれる所定のキーワードを検
出する検出手段と、 前記検出手段により検出された前記キーワードに対応す
る行動を前記ロボットに実行させるための制御スクリプ
トを生成する生成手段と、 前記生成手段により生成された前記制御スクリプトを送
信するタイミングを算出する算出手段と、 前記算出手段により算出された前記タイミングとなった
とき、前記制御スクリプトを前記ロボットに対して送信
する送信手段とを備えることを特徴とする情報処理装
置。
10. An information processing apparatus for controlling a real robot, wherein: an acquisition unit for acquiring text data; a speech synthesis unit for performing speech synthesis using the text data acquired by the acquisition unit; Means for instructing the robot to output a voice corresponding to the text data based on voice data obtained as a result of voice synthesis by means, and detection for detecting a predetermined keyword included in the text data Means, a generating means for generating a control script for causing the robot to execute an action corresponding to the keyword detected by the detecting means, and a timing for transmitting the control script generated by the generating means is calculated. Calculating means, and the timing calculated by the calculating means Time, the information processing apparatus comprising: a transmitting means for transmitting the control script to the robot.
【請求項11】 前記生成手段により複数の前記制御ス
クリプトが生成された場合、 複数の前記制御スクリプトのうちの第1の制御スクリプ
トを送信するタイミングとなったとき、前記第1の制御
スクリプトより先に前記ロボットに対して送信された、
複数の前記制御スクリプトのうちの第2の制御スクリプ
トに基づく行動を、前記ロボットが実行している最中で
あるか否かを判定する判定手段をさらに備え、 前記送信手段は、前記判定手段により、前記第2の制御
スクリプトに基づく行動を、前記ロボットが実行してい
る最中でないと判定されたとき、前記第1の制御スクリ
プトを前記ロボットに対して送信することを特徴とする
請求項10に記載の情報処理装置。
11. When a plurality of control scripts are generated by the generation unit, when a timing of transmitting a first control script among the plurality of control scripts comes, a timing earlier than the first control script is used. Sent to the robot,
The robot further includes a determination unit configured to determine whether the robot is executing an action based on a second control script among the plurality of control scripts. 11. The method according to claim 10, wherein when it is determined that the robot is not performing an action based on the second control script, the first control script is transmitted to the robot. An information processing apparatus according to claim 1.
【請求項12】 実在するロボットを制御する情報処理
装置の情報処理方法において、 テキストデータを取得する取得処理ステップと、 前記取得処理ステップの処理により取得された前記テキ
ストデータを用いて音声合成を行う音声合成処理ステッ
プと、 前記音声合成処理ステップの処理による音声合成の結果
取得された音声データに基づいて、前記テキストデータ
に対応する音声を出力することを前記ロボットに指示す
る指示処理ステップと、 前記テキストデータ中に含まれる所定のキーワードを検
出する検出処理ステップと、 前記検出処理ステップの処理により検出された前記キー
ワードに対応する行動を前記ロボットに実行させるため
の制御スクリプトを生成する生成処理ステップと、 前記生成処理ステップにより生成された前記制御スクリ
プトを送信するタイミングを算出する算出処理ステップ
と、 前記算出処理ステップにより算出された前記タイミング
となったとき、前記制御スクリプトを前記ロボットに対
して送信する送信処理ステップとを含むことを特徴とす
る情報処理方法。
12. An information processing method of an information processing apparatus for controlling a real robot, wherein: an acquisition processing step of acquiring text data; and performing speech synthesis using the text data acquired by the processing of the acquisition processing step. A voice synthesis processing step; an instruction processing step of instructing the robot to output a voice corresponding to the text data based on voice data obtained as a result of voice synthesis by the voice synthesis processing step; A detection processing step of detecting a predetermined keyword included in text data; and a generation processing step of generating a control script for causing the robot to execute an action corresponding to the keyword detected by the processing of the detection processing step. The control generated by the generation processing step; A calculation processing step of calculating a timing of transmitting the control script; and a transmission processing step of transmitting the control script to the robot when the timing calculated in the calculation processing step is reached. Information processing method.
【請求項13】 実在するロボットを制御する情報処理
装置のプログラムにおいて、 テキストデータを取得することを制御する取得制御ステ
ップと、 前記取得制御ステップの処理により取得された前記テキ
ストデータを用いて音声合成を行う音声合成処理ステッ
プと、 前記音声合成処理ステップの処理による音声合成の結果
取得された音声データに基づいて、前記テキストデータ
に対応する音声を出力することを前記ロボットに指示す
る指示処理ステップと、 前記テキストデータ中に含まれる所定のキーワードを検
出する検出処理ステップと、 前記検出処理ステップの処理により検出された前記キー
ワードに対応する行動を前記ロボットに実行させるため
の制御スクリプトを生成する生成処理ステップと、 前記生成処理ステップにより生成された前記制御スクリ
プトを送信するタイミングを算出する算出処理ステップ
と、 前記算出処理ステップにより算出された前記タイミング
となったとき、前記制御スクリプトを前記ロボットに対
して送信することを制御する送信制御ステップとを含む
ことを特徴とするコンピュータが読み取り可能なプログ
ラムが記録されている記録媒体。
13. A program for an information processing apparatus for controlling an existing robot, wherein: an acquisition control step for controlling acquisition of text data; and a speech synthesis using the text data acquired by the processing of the acquisition control step. A voice synthesizing step of performing, based on voice data obtained as a result of voice synthesis by the processing of the voice synthesizing step, an instruction processing step of instructing the robot to output voice corresponding to the text data. A detection processing step of detecting a predetermined keyword included in the text data; and a generation processing of generating a control script for causing the robot to execute an action corresponding to the keyword detected by the processing of the detection processing step. And generating by the generation processing step A calculation processing step of calculating a timing of transmitting the control script, and a transmission control step of controlling transmission of the control script to the robot when the timing calculated in the calculation processing step is reached. A recording medium on which a computer-readable program is recorded.
【請求項14】 実在するロボットを管理する情報処理
装置を制御するコンピュータに、 テキストデータを取得することを制御する取得制御ステ
ップと、 前記取得制御ステップの処理により取得された前記テキ
ストデータを用いて音声合成を行う音声合成処理ステッ
プと、 前記音声合成処理ステップの処理による音声合成の結果
取得された音声データに基づいて、前記テキストデータ
に対応する音声を出力することを前記ロボットに指示す
る指示処理ステップと、 前記テキストデータ中に含まれる所定のキーワードを検
出する検出処理ステップと、 前記検出処理ステップの処理により検出された前記キー
ワードに対応する行動を前記ロボットに実行させるため
の制御スクリプトを生成する生成処理ステップと、 前記生成処理ステップにより生成された前記制御スクリ
プトを送信するタイミングを算出する算出処理ステップ
と、 前記算出処理ステップにより算出された前記タイミング
となったとき、前記制御スクリプトを前記ロボットに対
して送信することを制御する送信制御ステップとを実行
させることを特徴とするプログラム。
14. An acquisition control step for controlling acquisition of text data by a computer that controls an information processing apparatus that manages an existing robot, and using the text data acquired by the processing of the acquisition control step. A voice synthesis processing step of performing voice synthesis; and an instruction process of instructing the robot to output a voice corresponding to the text data based on voice data obtained as a result of the voice synthesis performed by the voice synthesis processing step. Generating a control script for causing the robot to execute an action corresponding to the keyword detected by the processing of the detection processing step; and a detection processing step of detecting a predetermined keyword included in the text data. A generation processing step, and the generation processing step A calculation processing step for calculating a timing for transmitting the generated control script; and transmission control for controlling transmission of the control script to the robot when the timing calculated in the calculation processing step is reached. And a program for executing the steps.
【請求項15】 仮想的なロボットを制御し、表示する
情報処理装置において、 テキストデータを取得する取得手段と、 前記取得手段により取得された前記テキストデータを用
いて音声合成を行う音声合成手段と、 前記テキストデータ中に含まれる所定のキーワードを検
出する検出手段と、 前記検出手段により検出された前記キーワードに対応す
る、前記ロボットの行動を選択する選択手段と、 前記音声合成手段による音声合成の結果取得された音声
データを再生する再生手段と、 前記再生手段により前記キーワードが音声出力されるこ
とに合わせて、前記選択手段により選択された前記行動
を前記ロボットがとるように、前記ロボットの行動を制
御する制御手段とを備えることを特徴とする情報処理装
置。
15. An information processing apparatus for controlling and displaying a virtual robot, comprising: an acquisition unit for acquiring text data; and a speech synthesis unit for performing speech synthesis using the text data acquired by the acquisition unit. Detecting means for detecting a predetermined keyword included in the text data; selecting means for selecting an action of the robot corresponding to the keyword detected by the detecting means; Reproducing means for reproducing the voice data obtained as a result; and an action of the robot such that the robot takes the action selected by the selecting means in accordance with the output of the keyword by the reproducing means. An information processing apparatus comprising: a control unit configured to control the information processing.
【請求項16】 前記テキストデータを構成する個々の
単語の音声出力時間を算出する算出手段をさらに備え、 前記取得手段により所定の単位のテキストデータが取得
され、前記検出手段により前記単位のテキストデータか
ら複数の前記キーワードが検出された場合、 前記選択手段は、前記算出手段による算出結果に基づい
て、前記音声出力時間が長い方の前記キーワードに対応
する行動を、前記ロボットの行動として選択することを
特徴とする請求項15に記載の情報処理装置。
And a calculating unit for calculating a voice output time of each word constituting the text data, wherein the obtaining unit obtains a text data of a predetermined unit, and the detecting unit obtains the text data of the unit. When a plurality of the keywords are detected from the above, the selecting means selects an action corresponding to the keyword having a longer voice output time as an action of the robot based on a calculation result by the calculating means. The information processing apparatus according to claim 15, wherein:
【請求項17】 前記キーワードと前記行動を対応付け
て新たに登録する登録手段をさらに備えることを特徴と
する請求項15に記載の情報処理装置。
17. The information processing apparatus according to claim 15, further comprising a registration unit for newly registering the keyword in association with the action.
【請求項18】 前記取得手段は、前記情報処理装置に
対して送信されてきた電子メールから前記テキストデー
タを取得することを特徴とする請求項15に記載の情報
処理装置。
18. The information processing apparatus according to claim 15, wherein the obtaining unit obtains the text data from an electronic mail transmitted to the information processing apparatus.
【請求項19】 仮想的なロボットを制御し、表示する
情報処理装置の情報処理方法において、 テキストデータを取得する取得処理ステップと、 前記取得処理ステップの処理により取得された前記テキ
ストデータを用いて音声合成を行う音声合成処理ステッ
プと、 前記テキストデータ中に含まれる所定のキーワードを検
出する検出処理ステップと、 前記検出処理ステップの処理により検出された前記キー
ワードに対応する、前記ロボットの行動を選択する選択
処理ステップと、 前記音声合成処理ステップの処理による音声合成の結果
取得された音声データを再生する再生処理ステップと、 前記再生処理ステップの処理により前記キーワードが音
声出力されることに合わせて、前記選択処理ステップの
処理により選択された前記行動を前記ロボットがとるよ
うに、前記ロボットの行動を制御する制御処理ステップ
とを含むことを特徴とする情報処理方法。
19. An information processing method for an information processing apparatus for controlling and displaying a virtual robot, comprising: an acquisition processing step of acquiring text data; and using the text data acquired by the processing of the acquisition processing step. A voice synthesis processing step of performing voice synthesis; a detection processing step of detecting a predetermined keyword included in the text data; and selecting an action of the robot corresponding to the keyword detected by the processing of the detection processing step. Selection processing step, a reproduction processing step of reproducing the voice data obtained as a result of the voice synthesis by the processing of the voice synthesis processing step, and in accordance with the output of the keyword by the processing of the reproduction processing step, The action selected by the processing of the selection processing step is A control processing step of controlling the behavior of the robot so that the bot takes the information.
【請求項20】 仮想的なロボットを制御し、表示する
情報処理装置のプログラムにおいて、 テキストデータを取得することを制御する取得制御処理
ステップと、 前記取得制御処理ステップの処理により取得された前記
テキストデータを用いて音声合成を行う音声合成処理ス
テップと、 前記テキストデータ中に含まれる所定のキーワードを検
出する検出処理ステップと、 前記検出処理ステップの処理により検出された前記キー
ワードに対応する、前記ロボットの行動を選択する選択
処理ステップと、 前記音声合成処理ステップの処理による音声合成の結果
取得された音声データを再生することを制御する再生制
御処理ステップと、 前記再生制御処理ステップの処理により前記キーワード
が音声出力されることに合わせて、前記選択処理ステッ
プの処理により選択された前記行動を前記ロボットがと
るように、前記ロボットの行動を制御する制御処理ステ
ップとを含むことを特徴とするコンピュータが読み取り
可能なプログラムが記録されている記録媒体。
20. An information processing apparatus program for controlling and displaying a virtual robot, comprising: an acquisition control processing step of controlling acquisition of text data; and the text acquired by the processing of the acquisition control processing step. A voice synthesis processing step of performing voice synthesis using data, a detection processing step of detecting a predetermined keyword included in the text data, and the robot corresponding to the keyword detected by the processing of the detection processing step A selection processing step of selecting an action of the following; a reproduction control processing step of controlling reproduction of voice data obtained as a result of the voice synthesis by the processing of the voice synthesis processing step; The selection processing step is performed in accordance with the A control processing step of controlling the behavior of the robot so that the robot takes the behavior selected by the processing of the step.
【請求項21】 仮想的なロボットを制御し、表示する
コンピュータに、 テキストデータを取得することを制御する取得制御処理
ステップと、 前記取得制御処理ステップの処理により取得された前記
テキストデータを用いて音声合成を行う音声合成処理ス
テップと、 前記テキストデータ中に含まれる所定のキーワードを検
出する検出処理ステップと、 前記検出処理ステップの処理により検出された前記キー
ワードに対応する、前記ロボットの行動を選択する選択
処理ステップと、 前記音声合成処理ステップの処理による音声合成の結果
取得された音声データを再生することを制御する再生制
御処理ステップと、 前記再生制御処理ステップの処理により前記キーワード
が音声出力されることに合わせて、前記選択処理ステッ
プの処理により選択された前記行動を前記ロボットがと
るように、前記ロボットの行動を制御する制御処理ステ
ップとを実行させるプログラム。
21. An acquisition control processing step of controlling acquisition of text data on a computer that controls and displays a virtual robot, and using the text data acquired by the processing of the acquisition control processing step. A voice synthesis processing step of performing voice synthesis; a detection processing step of detecting a predetermined keyword included in the text data; and selecting an action of the robot corresponding to the keyword detected by the processing of the detection processing step. A selection processing step, a reproduction control processing step of controlling reproduction of voice data obtained as a result of voice synthesis by the processing of the voice synthesis processing step, and the keyword is output as voice by the processing of the reproduction control processing step. Along with the selection, A control processing step of controlling the behavior of the robot so that the robot takes the selected behavior.
JP2001140531A 2001-05-10 2001-05-10 Device and method for information processing, recording medium, and program Withdrawn JP2002334040A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001140531A JP2002334040A (en) 2001-05-10 2001-05-10 Device and method for information processing, recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001140531A JP2002334040A (en) 2001-05-10 2001-05-10 Device and method for information processing, recording medium, and program

Publications (1)

Publication Number Publication Date
JP2002334040A true JP2002334040A (en) 2002-11-22

Family

ID=18987124

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001140531A Withdrawn JP2002334040A (en) 2001-05-10 2001-05-10 Device and method for information processing, recording medium, and program

Country Status (1)

Country Link
JP (1) JP2002334040A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005135190A (en) * 2003-10-30 2005-05-26 Sharp Corp Reproducing device
WO2008032000A1 (en) * 2006-09-15 2008-03-20 France Telecom Method and system for retrieving a measurement of the time elapsed from the transmission of a message
WO2017068559A1 (en) * 2015-10-23 2017-04-27 シャープ株式会社 Robot and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005135190A (en) * 2003-10-30 2005-05-26 Sharp Corp Reproducing device
WO2008032000A1 (en) * 2006-09-15 2008-03-20 France Telecom Method and system for retrieving a measurement of the time elapsed from the transmission of a message
WO2017068559A1 (en) * 2015-10-23 2017-04-27 シャープ株式会社 Robot and program

Similar Documents

Publication Publication Date Title
US9205557B2 (en) System and method for generating contextual behaviors of a mobile robot
TW586056B (en) Robot control device, robot control method, and recording medium
US11504856B2 (en) System and method for selective animatronic peripheral response for human machine dialogue
KR100843822B1 (en) Robot device, method for controlling motion of robot device, and system for controlling motion of robot device
JP5616325B2 (en) How to change the display based on user instructions
EP1372138B1 (en) Speech output apparatus
JP2002351305A (en) Robot for language training
WO2002076687A1 (en) Robot device and control method therefor, and storage medium
JP2003271174A (en) Speech synthesis method, speech synthesis device, program, recording medium, method and apparatus for generating constraint information and robot apparatus
US20210205987A1 (en) System and method for dynamic robot configuration for enhanced digital experiences
JP2003271173A (en) Speech synthesis method, speech synthesis device, program, recording medium and robot apparatus
JP2002337079A (en) Device/method for processing information, recording medium and program
JP2003205483A (en) Robot system and control method for robot device
JP2013099823A (en) Robot device, robot control method, robot control program and robot system
CN110737335B (en) Interaction method and device of robot, electronic equipment and storage medium
US20040054519A1 (en) Language processing apparatus
JP2002304188A (en) Word string output device and word string output method, and program and recording medium
JP2019124855A (en) Apparatus and program and the like
JP2002334040A (en) Device and method for information processing, recording medium, and program
TWI402784B (en) Music detection system based on motion detection, its control method, computer program products and computer readable recording media
JP2001212780A (en) Behavior controller, behavior control method, and recording medium
JP4016316B2 (en) Robot apparatus, robot control method, recording medium, and program
JP2003271172A (en) Method and apparatus for voice synthesis, program, recording medium and robot apparatus
JP2002258886A (en) Device and method for combining voices, program and recording medium
JP2002311981A (en) Natural language processing system and natural language processing method as well as program and recording medium

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080805