JP2006155299A - Information processor, information processing program and program recording medium - Google Patents

Information processor, information processing program and program recording medium Download PDF

Info

Publication number
JP2006155299A
JP2006155299A JP2004345932A JP2004345932A JP2006155299A JP 2006155299 A JP2006155299 A JP 2006155299A JP 2004345932 A JP2004345932 A JP 2004345932A JP 2004345932 A JP2004345932 A JP 2004345932A JP 2006155299 A JP2006155299 A JP 2006155299A
Authority
JP
Japan
Prior art keywords
information processing
information
synchronization
executed
processing operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004345932A
Other languages
Japanese (ja)
Inventor
Toshio Akaha
俊夫 赤羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2004345932A priority Critical patent/JP2006155299A/en
Publication of JP2006155299A publication Critical patent/JP2006155299A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To execute a plurality of information processing operations while synchronizing at mutually designated times only by describing an easy scenario. <P>SOLUTION: An operation execution part 3 acquires and executes a next operation on the basis of a scenario read from a scenario storage part 2, performs "queuing operation" if the operation is ended, but the operation of the other is not ended, performs "hastening operation" if the operation is not ended but the operation of the other is ended, and performs "general operation" if the operation is not ended, nor is the operation of the other. Thus, change in operation speed or queuing can be performed in the course of operation by performing the synchronization in the course of operation. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

この発明は、コンピュータ・グラフィックスや音声合成や音楽再生等のマルチメディアを用いたマルチメディア・ユーザー・インタフェースとして機能する情報処理装置,情報処理プログラムおよびプログラム記録媒体に関する。   The present invention relates to an information processing apparatus, an information processing program, and a program recording medium that function as a multimedia user interface using multimedia such as computer graphics, speech synthesis, and music playback.

コンピュータが大衆化するのに伴って、より自然なユーザー・インタフェース技術が必要とされている。例えば、近年においては、CG(コンピュータ・グラフィックス)によるアニメーションと音声合成とを使組み合わせたエージェント技術等、複数の異なるメディアを用いたユーザー・インタフェースが研究されている。   As computers become more popular, more natural user interface technologies are needed. For example, in recent years, user interfaces using a plurality of different media, such as agent technology using a combination of animation and speech synthesis by CG (computer graphics), have been studied.

通常、このような複雑なユーザー・インタフェースを実現するためには、CGや音声合成等の処理を独立させたモジュールに分割し、並列に実行させることがよく行われる。ここで言うモジュールとは、単一プログラム内の複数の機能モジュールだけではなく、単一コンピュータ内で同時に実行される複数のプログラムや、ネットワークで接続された複数コンピュータで分散実行されるプログラムであってもよい。あるいは、コンピュータグラフィックではなく、物理的な動作を行うロボットや電子機器と考えてもよい。また、複数のモジュールは必ずしも画像と音声とのように異なるタイプとは限らず、音声合成と音声合成と言った同一のモジュールの場合もある。   Usually, in order to realize such a complicated user interface, processing such as CG and speech synthesis is often divided into independent modules and executed in parallel. The module mentioned here is not only a plurality of functional modules in a single program, but also a plurality of programs that are executed simultaneously in a single computer or a program that is distributedly executed by a plurality of computers connected via a network. Also good. Alternatively, it may be considered not a computer graphic but a robot or electronic device that performs a physical operation. Further, the plurality of modules are not necessarily different types such as an image and a voice, and may be the same module such as a voice synthesis and a voice synthesis.

CGや音声合成等の処理を、このような複数のモジュールに分割した場合、モジュール同士を同期させる必要がある。そして、例えば音声合成に合せてアニメーションキャラクタ(エージェント)の口を動かして自然に見せるリップシンク技術のように、複数のメディアを同期させる技術が研究されている。但し、上記リップシンク技術は、音声に対して画像を一方的に合わせるものであり、動作も口の周辺に止まるために、エージェントが歩いたりある方向を指示したりする等の体全体の動作と音声合成とを同期させることは行われない。   When processing such as CG and speech synthesis is divided into such a plurality of modules, it is necessary to synchronize the modules. In addition, for example, a technique for synchronizing a plurality of media has been studied, such as a lip sync technique in which the mouth of an animation character (agent) is moved naturally in accordance with speech synthesis. However, the lip sync technology unilaterally adjusts the image to the sound, and the movement stops around the mouth, so the agent walks and indicates the direction of the whole body. There is no synchronization with speech synthesis.

口以外の動作を同期させる技術として、例えば特開2003‐216173号公報(特許文献1)に開示された「合成音声及び映像の同期制御装置」がある。この特許文献1には、音声合成の韻律情報に基づいて、CGによるアニメーションキャラクタの動作を制御する方法が開示されている。この技術によれば、音声合成によって「てく、てく、てく」と言いながらエージェントが歩くといった事が可能になる。   As a technique for synchronizing operations other than the mouth, for example, there is a “synthetic audio and video synchronization control device” disclosed in Japanese Patent Laid-Open No. 2003-216173 (Patent Document 1). This Patent Document 1 discloses a method for controlling the motion of an animation character by CG based on the prosody information of speech synthesis. According to this technology, it is possible to walk an agent while saying “tech, tech, tech” by speech synthesis.

しかしながら、上記従来の特許文献1に開示された合成音声および映像の同期制御装置には、以下のような問題がある。すなわち、CGのアニメーションで表現されるエージェントの動作は、例えばエージェントが画面上を移動する場合、どの位の距移を移動するのか、またどの位の速度で移動するかに依存している。また、音声合成に必要な時間は、合成すべきテキストの量や発声速度に依存している。そして、エージェントの動作時間と音声合成時間とは、同期するように調整する必要がある。ところが、エージェントの動作時間と音声合成時間との調整は、ある程度は可能であるが、自然な動作や自然な発声にするためには調整できる範囲に限界がある。   However, the synthesized audio and video synchronization control device disclosed in the above-mentioned conventional Patent Document 1 has the following problems. That is, the action of the agent expressed by the CG animation depends on how much distance the agent moves on the screen and how fast it moves. The time required for speech synthesis depends on the amount of text to be synthesized and the speech rate. Then, it is necessary to adjust the operation time of the agent and the speech synthesis time so as to be synchronized. However, the agent's operation time and speech synthesis time can be adjusted to some extent, but there are limits to the range that can be adjusted in order to achieve natural operation and natural speech.

これを無視して、上記特許文献1に開示された合成音声および映像の同期制御装置の場合のように、何れかに強制的に同期させることは不自然さを招くことになる。例えば、ある場面において、エージェントの動作に必要な時間に対して音声合成用のテキストが短い場合には、音声合成側に動作を合わせると、動作が完了しないうちに次の場面が開始するため、動作が不連続になったり、無理に発声時間内に合せることで動作が不自然に早くなったりする。逆に、動作側に音声合成を合せると、音声合成が先に終わってからしばらく音のない状態で動作したり、無理に動作時間に合せるために発声速度を遅くすると、発声が不自然に遅くなったりする。   Disregarding this, forcibly synchronizing to any one as in the case of the synthesized audio and video synchronization control device disclosed in Patent Document 1 causes unnaturalness. For example, in a certain scene, if the text for speech synthesis is short relative to the time required for the agent's operation, the next scene will start before the operation is completed, The operation becomes discontinuous, or the operation becomes unnaturally faster by forcibly adjusting it within the utterance time. On the other hand, if voice synthesis is combined with the operation side, if the voice synthesis is performed for a while after the voice synthesis ends, or if the voice rate is slowed down to match the operation time, the voice is unnaturally slowed. It becomes.

これらのことを防ぐためには、動作や発声テキストを作成する際に十分な検討を重ねて設計することが必要である。ところが、状況に応じて発声内容や動作内容が変化するエージェントの場合には、全ての状況に対して発声テキストと動作内容との同期を調整しながらシナリオを作成する事は現実的でないだけではなく、種々の状況が起こる場合に対処できないのである。   In order to prevent these problems, it is necessary to design with sufficient consideration when creating actions and utterance texts. However, in the case of an agent whose utterance contents and action contents change according to the situation, it is not only impractical to create a scenario while adjusting the synchronization between the utterance text and the action contents for all situations. It is impossible to cope with various situations.

次に、複数の音声合成モジュールを同期させる場合について述べる。従来の音声合成モジュールを用いて、複数の音声合成を同期させる場合には、次のような課題がある。図10〜図12は、音声合成装置に与えるシナリオと、それを合成した場合の実際の音声出力の時間的な流れとを示している。ここで、目的とする出力は、図12に示すように、話者A,Bが同時に発声し、話者Aの発声を話者Bが遮るという状況を音声で実現することである。   Next, a case where a plurality of speech synthesis modules are synchronized will be described. When synchronizing a plurality of speech synthesis using a conventional speech synthesis module, there are the following problems. 10 to 12 show a scenario given to the speech synthesizer and a temporal flow of actual speech output when the scenario is synthesized. Here, the target output is to realize a situation in which the speakers A and B speak at the same time and the speaker B blocks the speech of the speaker A, as shown in FIG.

図10は、一般的な音声合成装置を使ってシナリオを順次読み上げさせる場合を示す。話者Aと話者Bとは同時に発声しないため、話者Aが「本日は晴天なり、本日は」という発声を終了してから、話者Bが「もう結構」と発声するため、話者Bが話者Aの発声を遮ったという印象を与えないという問題がある。   FIG. 10 shows a case where scenarios are sequentially read out using a general speech synthesizer. Since speaker A and speaker B do not utter at the same time, speaker B utters “you are fine today,” and then speaker B utters “you are fine”. There is a problem that B does not give the impression that the voice of speaker A is blocked.

図11は、シナリオを分割し、部分毎に話者A用の音声合成モジュールと話者B用の音声合成モジュールとを並列して動作させることによって、目的の出力に近づける方法の例を示す。シナリオ中の話者「B+」は、直前の発声終了を待たずに同時に発声を開始することを示している。図の例では、話者Aの発声を「本日は晴天なり、本日は」と「晴天なり」とに分割し、後半の「晴天なり」を話者Bの「もう結構です。黙って」と並列に発声させる。そして、その後、話者Aの「はい」と話者Bの「ください」とを並列に発話させている。この方法は、一見目的に叶っているように見えるが、文章を途中で区切っているために、発声される音声のイントネーションがおかしくなってしまう。これは、音声合成技術においては、一連の文章単位でイントネーションを生成するため、途中で区切られた文章の場合には、自然なイントネーションが生成できなくなるためである。   FIG. 11 shows an example of a method for dividing a scenario and bringing the speech synthesis module for speaker A and the speech synthesis module for speaker B in parallel for each part to approach the target output. The speaker “B +” in the scenario indicates that the utterance is started simultaneously without waiting for the end of the immediately preceding utterance. In the example shown in the figure, speaker A's utterance is divided into “Today is sunny, today is” and “Sunny”, and the latter half of “Sunny” is “Sorry.” Speak in parallel. Then, “Yes” of the speaker A and “Please” of the speaker B are uttered in parallel. Although this method seems to fulfill the purpose at first glance, since the sentence is divided in the middle, the intonation of the voice to be uttered becomes strange. This is because, in the speech synthesis technique, intonation is generated in a series of sentence units, and natural intonation cannot be generated in the case of sentences that are divided in the middle.

図12は、シナリオの中に休止(ポーズ)の時間を指定し、話者A,話者B夫々の音声合成モジュールを同時に実行する方法を示す。ここで、各音声合成モジュールによる出力音声は、自動的に合成されてスピーカから出力されるものとする。ここで、ポーズの指定には「<PAU=1>」または「<PAU=3>」という命令を用い、1秒や3秒という絶対的な時間で指定している。このようにポーズを指定して2つの音声合成モジュールを同時に実行することによって、目的の出力結果を得ている。しかしながら、この方法では、テキストの内容が変化した場合には、もう一度ポーズの時間を設定し直す必要があり、様々な状況に対応したシナリオを作成するのが困難である。そのために、動作や発声テキストが状況によって変化するエージェントのようなユーザー・インタフェースの場合には対応できないと言う問題がある。
特開2003‐216173号公報
FIG. 12 shows a method in which pause (pause) time is designated in the scenario and the speech synthesis modules of the speakers A and B are simultaneously executed. Here, it is assumed that the output speech from each speech synthesis module is automatically synthesized and output from the speaker. Here, in order to designate a pause, an instruction “<PAU = 1>” or “<PAU = 3>” is used, and the pause is designated with an absolute time of 1 second or 3 seconds. Thus, the desired output result is obtained by designating a pause and simultaneously executing two speech synthesis modules. However, in this method, when the content of the text changes, it is necessary to reset the pause time once again, and it is difficult to create scenarios corresponding to various situations. For this reason, there is a problem that it is not possible to cope with a user interface such as an agent whose action and utterance text change depending on the situation.
JP 2003-216173 A

そこで、この発明の課題は、簡単なシナリオを記述するだけで複数の情報処理動作を互いに指定されたタイミングで同期をとりながら実行することができる情報処理装置、情報処理プログラム、および、プログラム記録媒体を提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide an information processing apparatus, an information processing program, and a program recording medium that can execute a plurality of information processing operations in synchronization with each other at a designated timing simply by describing a simple scenario. Is to provide.

上記課題を解決するため、この発明の情報処理装置は、
情報処理動作の動作内容を指示するテキスト情報が記憶されているテキスト情報記憶手段と、
上記テキスト情報記憶手段から上記テキスト情報を読み出し、この読み出されたテキスト情報で指示された動作内容を取得し、この取得した動作内容に従って情報処理動作を実行する動作実行手段と、
上記動作実行手段からの指示に従って、他の装置から送出される同期情報を検出する同期検出手段と
を備え、
上記動作実行手段は、上記テキスト情報上における予め設定された位置で、上記同期検出手段を介して取得した同期情報に基づいて、上記他の装置が実行する情報処理動作との同期を取りながら、上記情報処理動作を実行することを特徴としている。
In order to solve the above problems, an information processing apparatus according to the present invention provides:
Text information storage means for storing text information for instructing the operation content of the information processing operation;
Operation execution means for reading out the text information from the text information storage means, acquiring the operation content instructed by the read text information, and executing an information processing operation according to the acquired operation content;
Synchronization detection means for detecting synchronization information sent from another device in accordance with an instruction from the operation execution means,
The operation execution means is synchronized with the information processing operation executed by the other device based on the synchronization information acquired through the synchronization detection means at a preset position on the text information. The information processing operation is performed.

上記構成によれば、同じテキスト情報あるいは互いに関連を有する異なるテキスト情報に基づいて上記他の装置と同期を取りながら情報処理動作を実行する際に、上記テキスト情報の開始時点や終了時点を上記他の装置と同期させることが可能になる。その場合、本情報処理装置と上記他の装置との同期を取るために、上記テキスト情報を分割したり、上記テキスト情報中に区切りを入れたりする必要がない。したがって、上記情報処理動作が音声合成動作である場合に、発話内容を指示するテキスト情報に基づいて文章単位でイントネーションを生成することができ、自然なイントネーションの合成音声を生成・出力することができる。   According to the above configuration, when the information processing operation is executed in synchronization with the other device based on the same text information or different text information having mutual relations, the start time and the end time of the text information are It becomes possible to synchronize with other devices. In that case, it is not necessary to divide the text information or put a break in the text information in order to synchronize the information processing apparatus and the other apparatus. Therefore, when the information processing operation is a speech synthesis operation, intonation can be generated in units of sentences based on text information instructing the utterance content, and synthesized speech with natural intonation can be generated and output. .

さらに、本情報処理装置が音声合成装置であり上記他の装置がCG装置である場合に、CGキャラクタの動作の1歩に音声合成の1文字を割り当てるようなことが、上記テキスト情報に対して複雑な設定等を行うことなく実現することができるのである。   Furthermore, when the information processing apparatus is a speech synthesizer and the other apparatus is a CG apparatus, one character of speech synthesis may be assigned to one step of the CG character movement with respect to the text information. This can be realized without complicated settings.

また、1実施の形態の情報処理装置では、
上記テキスト情報には、上記他の装置が実行する情報処理動作との同期をとるべき位置を指定する同期命令が記述されており、
上記動作実行手段は、現在実行している情報処理動作の上記テキスト情報上における位置が上記同期命令に至ると、上記同期検出手段を介して上記同期情報を取得して上記他の装置が実行する情報処理動作との同期を取るようになっている。
In the information processing apparatus according to one embodiment,
In the text information, a synchronization command for specifying a position to be synchronized with the information processing operation executed by the other device is described.
When the position of the currently executed information processing operation on the text information reaches the synchronization command, the operation execution unit acquires the synchronization information via the synchronization detection unit and executes the other device. It synchronizes with the information processing operation.

この実施の形態によれば、上記テキスト情報に記載された上記同期命令の位置で本情報処理装置の動作と上記他の装置の動作との同期を取ることができ、設計者は、上記テキスト情報上における上記同期を取る箇所を自由に設定することが可能になる。さらに、その場合であっても、上記情報処理動作が音声合成動作である場合には、上記テキスト情報に記述された同期命令を音声合成用のテキストから除外することによって、自然なイントネーションの合成音声を生成・出力することができる。   According to this embodiment, the operation of the information processing apparatus can be synchronized with the operation of the other apparatus at the position of the synchronization command described in the text information, and the designer can It is possible to freely set the above-mentioned location for synchronization. Further, even in such a case, when the information processing operation is a speech synthesis operation, the synthesized speech of natural intonation is excluded by excluding the synchronization command described in the text information from the text for speech synthesis. Can be generated and output.

また、1実施の形態の情報処理装置では、
上記動作実行手段は、上記同期検出手段を介して取得した上記同期情報と当該同期命令との比較から、現在実行している情報処理動作が上記他の装置が実行する情報処理動作に比して先行しているか否かを判断し、先行している場合には上記他の装置が実行している情報処理動作の終了を待つ待ち合わせ動作を行うことによって、上記他の装置が実行する情報処理動作との同期を取るようになっている。
In the information processing apparatus according to one embodiment,
The operation execution means compares the synchronization information acquired through the synchronization detection means with the synchronization instruction, and the currently executed information processing operation is compared with the information processing operation executed by the other device. Information processing operation performed by the other device by determining whether it is ahead, and performing a waiting operation to wait for the end of the information processing operation performed by the other device if it is ahead To synchronize with.

この実施の形態によれば、上記テキスト情報に記載された上記同期命令の位置で本情報処理装置の情報処理動作が上記他の装置の情報処理動作に対して先行しているか否かが判断され、この判断結果に応じた情報処理動作が実行されて上記他の装置の情報処理動作との同期が取られる。したがって、極自然な状態で上記情報処理動作間の同期を取ることができる。   According to this embodiment, it is determined whether the information processing operation of the information processing apparatus precedes the information processing operation of the other apparatus at the position of the synchronization command described in the text information. The information processing operation corresponding to the determination result is executed to synchronize with the information processing operation of the other device. Therefore, the information processing operations can be synchronized in an extremely natural state.

また、1実施の形態の情報処理装置では、
上記動作実行手段は、上記同期検出手段を介して取得した上記同期情報と当該同期命令との比較から、現在実行している情報処理動作が上記他の装置が実行する情報処理動作に比して遅れているか否かを判断し、遅れている場合には現在実行している情報処理動作を急ぐ急ぎの動作を行うことによって、上記他の装置が実行する情報処理動作との同期を取るようになっている。
In the information processing apparatus according to one embodiment,
The operation execution means compares the synchronization information acquired through the synchronization detection means with the synchronization instruction, and the currently executed information processing operation is compared with the information processing operation executed by the other device. It is determined whether or not it is delayed, and if it is delayed, the information processing operation currently being executed is performed in a hurry to synchronize with the information processing operation executed by the other device. It has become.

この実施の形態によれば、上記テキスト情報に記載された上記同期命令の位置で本情報処理装置の情報処理動作が上記他の装置の情報処理動作に対して遅れているか否かかが判断され、この判断結果に応じた情報処理動作が実行されて上記他の装置の情報処理動作との同期が取られる。したがって、極自然な状態で上記情報処理動作間の同期を取ることができる。   According to this embodiment, it is determined whether or not the information processing operation of the information processing apparatus is delayed with respect to the information processing operation of the other apparatus at the position of the synchronization command described in the text information. The information processing operation corresponding to the determination result is executed to synchronize with the information processing operation of the other device. Therefore, the information processing operations can be synchronized in an extremely natural state.

また、1実施の形態の情報処理装置では、
上記動作実行手段は、上記同期検出手段を介して取得した上記同期情報と当該同期命令との比較から、現在実行している情報処理動作が上記他の装置が実行する情報処理動作に比して先行しているか遅れているかを判断し、先行している場合には上記他の装置が実行している情報処理動作の終了を待つ待ち合わせ動作を行い、遅れている場合には現在実行している情報処理動作を急ぐ急ぎの動作を行うことによって、上記他の装置が実行する情報処理動作との同期を取るようになっている。
In the information processing apparatus according to one embodiment,
The operation execution means compares the synchronization information acquired through the synchronization detection means with the synchronization instruction, and the currently executed information processing operation is compared with the information processing operation executed by the other device. Judge whether it is ahead or behind, and if it is ahead, waits for the end of the information processing operation being executed by the other device, and if it is behind, it is currently running The information processing operation is performed in a hurry to synchronize with the information processing operation executed by the other device.

この実施の形態によれば、上記テキスト情報に記載された上記同期命令の位置で本情報処理装置の情報処理動作が上記他の装置の情報処理動作に対して先行しているか遅れているかが判断され、この判断結果に応じた情報処理動作が実行されて上記他の装置の情報処理動作との同期が取られる。したがって、極自然な状態で上記情報処理動作間の同期を取ることができる。   According to this embodiment, it is determined whether the information processing operation of the information processing apparatus precedes or delays the information processing operation of the other apparatus at the position of the synchronization command described in the text information. Then, the information processing operation corresponding to the determination result is executed, and the information processing operation of the other device is synchronized. Therefore, the information processing operations can be synchronized in an extremely natural state.

また、1実施の形態の情報処理装置では、
上記同期検出手段を介して得られる同期情報には、次の同期位置までの予測時間を表す情報が含まれており、
上記動作実行手段は、現在実行している情報処理動作が上記他の装置が実行する情報処理動作に比して先行しているか遅れているかを判断する際に、上記同期情報に含まれた次の同期位置までの予測時間を表す情報に基づいて上記先行あるいは遅れの度合いを求め、この度合いに応じて現在実行している情報処理動作の動作速度を連続的に切り換えるようになっている。
In the information processing apparatus according to one embodiment,
The synchronization information obtained through the synchronization detection means includes information representing the predicted time to the next synchronization position,
The operation execution means determines whether the currently executed information processing operation is ahead of or behind the information processing operation executed by the other device. The degree of the preceding or delay is obtained based on the information representing the predicted time to the synchronization position, and the operation speed of the currently executed information processing operation is continuously switched according to this degree.

この実施の形態によれば、現在実行している情報処理動作の上記他の装置の情報処理動作に対する先行あるいは遅れの度合いに応じて、現在実行している情報処理動作の動作速度を連続的に切り換えるので、上記他の装置の情報処理動作との同期をより自然な形で取ることができる。   According to this embodiment, the operation speed of the information processing operation that is currently being executed is continuously set according to the degree of advance or delay of the information processing operation that is currently being executed with respect to the information processing operation of the other device. Since switching is performed, synchronization with the information processing operation of the other apparatus can be achieved in a more natural manner.

また、1実施の形態の情報処理装置では、
上記テキスト情報には、上記同期をとるべき位置と、現在実行している情報処理動作が上記他の装置が実行する情報処理動作に比して先行している場合に実行する情報処理動作および遅れている場合に実行する情報処理動作の少なくとも一方とを指定する同期命令が記述されており、
上記動作実行手段は、現在実行している情報処理動作の上記テキスト情報上における位置が上記同期命令に至ると、上記同期検出手段を介して上記同期情報を取得すると共に、この取得した同期情報と当該同期命令との比較から、現在実行している情報処理動作が上記他の装置が実行する情報処理動作に比して先行しているか遅れているかを判断し、この判断結果に応じて当該同期命令が指定する情報処理動作を行うことによって、上記他の装置が実行する情報処理動作との同期を取るようになっている。
In the information processing apparatus according to one embodiment,
The text information includes the position to be synchronized, and the information processing operation and delay to be executed when the information processing operation currently being executed precedes the information processing operation executed by the other device. A synchronization instruction that specifies at least one of the information processing operations to be executed is described.
When the position of the currently executed information processing operation on the text information reaches the synchronization command, the operation execution unit acquires the synchronization information via the synchronization detection unit, and the acquired synchronization information From the comparison with the synchronization command, it is determined whether the information processing operation currently being executed is ahead or behind the information processing operation executed by the other device, and the synchronization is performed according to the determination result. By performing the information processing operation specified by the instruction, the information processing operation executed by the other device is synchronized.

この実施の形態によれば、上記同期命令によって、現在実行している情報処理動作が上記他の装置の情報処理動作に対して先行している場合に実行する情報処理動作、および、遅れている場合に実行する情報処理動作の少なくとも一方を予め指定するので、同期を取る場面に応じて様々な動作を設定することができる。例えば、音声合成装置における急ぎの動作であれば、発声を途中で中止する動作や、発話速度を速めて最後まで発声する動作や、「とばします」と言いながら次の場面へ進む動作等、場面に応じた動作を設定することができる。さらに、待ち合わせ動作であれば、「えー」と言いながら待つ動作や「それでー」と言いながら待つ動作の切り換えが可能になり、より自然な表現が可能になる。   According to this embodiment, the information processing operation that is executed when the information processing operation that is currently being executed precedes the information processing operation of the other device, and is delayed by the synchronization instruction. Since at least one of the information processing operations to be executed in advance is designated in advance, various operations can be set according to the scene to be synchronized. For example, if the voice synthesizer is in a hurry, you can stop the utterance midway, move the utterance speed up to the end, or move to the next scene while saying "Skip". It is possible to set an operation according to. Furthermore, in the case of the waiting operation, it is possible to switch between the operation of waiting while saying “U” and the operation of waiting while saying “So-”, so that a more natural expression is possible.

また、1実施の形態の情報処理装置では、
上記テキスト情報は、現在実行している情報処理動作が上記他の装置が実行する情報処理動作に同期している場合に実行する情報処理動作の動作内容を指示する部分と、現在実行している情報処理動作が上記他の装置が実行する情報処理動作に比して先行している場合に実行する情報処理動作の動作内容および遅れている場合に実行する情報処理動作の動作内容の少なくとも一方を指示する部分とを含むと共に、上記同期を取るべき位置を指定する同期命令が付加されており、
上記動作実行手段は、現在実行している情報処理動作の上記テキスト情報上における位置が上記同期命令に至ると、上記同期検出手段を介して上記同期情報を取得すると共に、この取得した同期情報と当該同期命令との比較から、現在実行している情報処理動作が上記他の装置が実行する情報処理動作に比して先行しているか遅れているか同期しているかを判断し、当該テキスト情報における上記判断結果に応じた部分で指示された情報処理動作を行うことによって、上記他の装置が実行する情報処理動作との同期を取るようになっている。
In the information processing apparatus according to one embodiment,
The text information includes a part that indicates an operation content of an information processing operation to be executed when the information processing operation currently being executed is synchronized with the information processing operation executed by the other device, and the currently executed information. At least one of the operation content of the information processing operation executed when the information processing operation precedes the information processing operation executed by the other device and the operation content of the information processing operation executed when the information processing operation is delayed. And a synchronization command that specifies the position to be synchronized is added.
When the position of the currently executed information processing operation on the text information reaches the synchronization command, the operation execution unit acquires the synchronization information via the synchronization detection unit, and the acquired synchronization information From the comparison with the synchronization command, it is determined whether the currently executed information processing operation is ahead or behind the information processing operation executed by the other device, and is synchronized with the text information. By performing the information processing operation instructed in the portion corresponding to the determination result, the information processing operation executed by the other device is synchronized.

この実施の形態によれば、現在実行している情報処理動作が上記他の装置の情報処理動作に比して先行している場合と遅れている場合との少なくとも一方に実行する情報処理動作の動作内容を上記テキスト情報として記述するので、設計者は、現在実行している情報処理動作が上記他の装置の情報処理動作に同期している場合に実行する情報処理動作の動作内容を、上記他の装置の情報処理動作に比して長くなるか短くなるかを気にすることなく設定することができる。   According to this embodiment, the information processing operation to be executed at least one of the case where the information processing operation currently being executed is ahead of or behind the information processing operation of the other device. Since the operation content is described as the text information, the designer can specify the operation content of the information processing operation to be executed when the currently executed information processing operation is synchronized with the information processing operation of the other device. The setting can be made without worrying about whether the information processing operation becomes longer or shorter than the information processing operation of other devices.

また、1実施の形態の情報処理装置では、
上記動作実行手段は複数存在すると共に、夫々の動作実行手段は上記同期検出手段に対して上記同期情報を送出するようになっており、
上記同期検出手段は、上記夫々の動作実行手段からの指示を受け付けて、少なくとも上記各動作実行手段のうちの何れかから送出された同期情報を検出するようになっている。
In the information processing apparatus according to one embodiment,
There are a plurality of the operation execution means, and each operation execution means sends the synchronization information to the synchronization detection means.
The synchronization detection means receives an instruction from each of the operation execution means and detects synchronization information sent from at least one of the operation execution means.

この実施の形態によれば、上記動作実行手段を複数有しているので、例えば、各動作実行手段を話者A用の音声合成手段と話者B用の音声合成手段と話者A,Bのアニメーション画像生成手段で構成して、互いの情報処理動作を同期させることが可能になる。   According to this embodiment, since there are a plurality of the above-mentioned action execution means, for example, each action execution means includes a voice synthesis means for speaker A, a voice synthesis means for speaker B, and speakers A and B. It is possible to synchronize information processing operations with each other.

また、1実施の形態の情報処理装置では、
上記動作実行手段が処理する情報は、画像情報,音声情報,音楽情報,機器の制御情報およびロボットの制御情報のうちの何れか1つである。
In the information processing apparatus according to one embodiment,
The information processed by the operation execution means is any one of image information, audio information, music information, device control information, and robot control information.

この実施の形態によれば、画像情報処理装置,音声情報処理装置,音楽情報処理装置,機器の制御情報処理装置およびロボットの制御情報処理装置の間において、簡単なテキスト情報を記述するだけで互いに指定されたタイミングで同期を取りながら情報処理動作を行うことができる。   According to this embodiment, the image information processing apparatus, the sound information processing apparatus, the music information processing apparatus, the equipment control information processing apparatus, and the robot control information processing apparatus can be described by simply describing simple text information. An information processing operation can be performed while synchronizing at a specified timing.

例えば、アニメーション合成装置の場合には、画面に表示されるエージェントの動作を同期させることが可能になる。また、音声合成装置の場合には、発話内容を同期させることが可能になる。また、音声再生装置の場合には、再生の開始や停止、フェードイン、フェードアウト等の制御を同期させることが可能になる。また、ロボットの制御装置の場合には、ロボットの物理的動作のタイミングを同期させることが可能になる。また、機器の制御装置の場合には、所定の動作や設定の変更を同期させることが可能になる。   For example, in the case of an animation synthesizer, it is possible to synchronize the actions of agents displayed on the screen. In the case of a speech synthesizer, the utterance content can be synchronized. Further, in the case of an audio playback device, it is possible to synchronize control such as playback start / stop, fade-in, and fade-out. In the case of a robot control device, it is possible to synchronize the timing of the physical operation of the robot. Further, in the case of a device control apparatus, it is possible to synchronize predetermined operations and setting changes.

また、この発明の情報処理プログラムは、
コンピュータを、
この発明の情報処理装置におけるテキスト情報記憶手段,動作実行手段および同期検出手段
として機能させることを特徴としている。
The information processing program of the present invention is
Computer
The information processing apparatus according to the present invention is characterized by functioning as text information storage means, operation execution means, and synchronization detection means.

上記構成によれば、上記テキスト情報に基づいて上記他の装置と同期を取りながら情報処理動作を実行する際に、上記テキスト情報の開始時点や終了時点を上記他の装置と同期させることが可能になる。その場合、本情報処理装置と上記他の装置との同期を取るために、上記テキスト情報を分割したり、上記テキスト情報中に区切りを入れたりする必要がない。   According to the above configuration, when the information processing operation is performed while synchronizing with the other device based on the text information, the start time and the end time of the text information can be synchronized with the other device. become. In that case, it is not necessary to divide the text information or put a break in the text information in order to synchronize the information processing apparatus and the other apparatus.

また、この発明のプログラム記録媒体は、
この発明の情報処理プログラムが記録されたことを特徴としている。
The program recording medium of the present invention is
The information processing program of the present invention is recorded.

上記構成によれば、上記テキスト情報に基づいて上記他の装置と同期を取りながら情報処理動作を実行する際に、上記テキスト情報の開始時点や終了時点を上記他の装置と同期させることが可能になる。その場合、本情報処理装置と上記他の装置との同期を取るために、上記テキスト情報を分割したり、上記テキスト情報中に区切りを入れたりする必要がない。   According to the above configuration, when the information processing operation is performed while synchronizing with the other device based on the text information, the start time and the end time of the text information can be synchronized with the other device. become. In that case, it is not necessary to divide the text information or put a break in the text information in order to synchronize the information processing apparatus and the other apparatus.

以上より明らかなように、この発明によれば、動作実行手段によって、テキスト情報上における予め設定された位置で、同期検出手段を介して取得した同期情報に基づいて、他の装置が実行する情報処理動作との同期を取りながら情報処理動作を実行するので、本情報処理装置と上記他の装置との同期を取るために、上記テキスト情報を分割したり、上記テキスト情報中に区切りを入れたりすることなく、上記テキスト情報の開始時点や終了時点を上記他の装置と同期させることができる。したがって、上記情報処理動作が音声合成動作である場合に、発話内容を指示するテキスト情報に基づいて文章単位でイントネーションを生成することができ、自然なイントネーションの合成音声を生成・出力することができる。   As is clear from the above, according to the present invention, the information executed by the other device based on the synchronization information acquired through the synchronization detection means at the preset position on the text information by the action execution means. Since the information processing operation is executed while synchronizing with the processing operation, in order to synchronize the information processing device with the other device, the text information is divided or a break is put in the text information. Without this, the start time and end time of the text information can be synchronized with the other device. Therefore, when the information processing operation is a speech synthesis operation, intonation can be generated in units of sentences based on text information instructing the utterance content, and synthesized speech with natural intonation can be generated and output. .

すなわち、簡単なテキスト情報を記述するだけで複数の情報処理動作を互いに指定されたタイミングで同期を取りながら実行する情報処理装置を実現する事ができるのである。   In other words, it is possible to realize an information processing apparatus that executes a plurality of information processing operations while synchronizing with each other at a designated timing only by describing simple text information.

以下、この発明を図示の実施の形態により詳細に説明する。   Hereinafter, the present invention will be described in detail with reference to the illustrated embodiments.

・第1実施の形態
図1は、本実施の形態の情報処理装置における構成を示すブロック図である。本情報処理装置1は、シナリオを記憶するシナリオ記憶部2と、上記シナリオに従って情報処理動作を実行する動作実行部3と、動作実行の結果を出力する出力部4と、動作実行部3の要求に応じて他の情報処理装置との同期情報の交換を行って上記他の情報処理装置の同期情報を検出する同期検出部5を含んで構成されている。ここで、上記シナリオとは、動作実行部3が実行する情報処理動作(以下、単に動作と言う)の動作内容を指示するテキスト情報である。
First Embodiment FIG. 1 is a block diagram illustrating a configuration of an information processing apparatus according to the present embodiment. The information processing apparatus 1 includes a scenario storage unit 2 that stores a scenario, an operation execution unit 3 that executes an information processing operation according to the scenario, an output unit 4 that outputs a result of the operation execution, and a request from the operation execution unit 3 In response to this, the synchronization information is exchanged with other information processing apparatuses to include the synchronization detection unit 5 that detects the synchronization information of the other information processing apparatuses. Here, the scenario is text information indicating the operation content of an information processing operation (hereinafter simply referred to as an operation) executed by the operation execution unit 3.

上記シナリオは予めシナリオ記憶部2に格納されている場合も考慮して、図1においては上記シナリオを入力する手段は特に記載していない。しかしながら、上記シナリオは、一般に外部から与えられるため、上記シナリオを入力するシナリオ入力手段を別途設けても差し支えない。また、出力部4は、本情報処理装置1がアニメーション合成装置である場合には、グラフィックス描画ドライバ,D/A変換装置およびディスプレイ装置等がこれに相当する。または、音声合成装置である場合には、音声出力用ドライバ,D/A変換装置,アンプおよびスピーカ等がこれに相当する。また、同期検出部5は、他の情報処理装置による処理が終了したかあるいは何処まで進行したか等の同期情報を検出して取得する。また、動作実行部3による処理については、以下に説明する。   Considering the case where the scenario is stored in the scenario storage unit 2 in advance, the means for inputting the scenario is not particularly described in FIG. However, since the scenario is generally given from the outside, a scenario input means for inputting the scenario may be provided separately. Further, when the information processing apparatus 1 is an animation composition apparatus, the output unit 4 corresponds to a graphics drawing driver, a D / A conversion apparatus, a display apparatus, and the like. Or, in the case of a voice synthesizer, a voice output driver, a D / A converter, an amplifier, a speaker, and the like correspond to this. Further, the synchronization detection unit 5 detects and acquires synchronization information such as whether processing by another information processing apparatus has been completed or where it has proceeded. Moreover, the process by the operation | movement execution part 3 is demonstrated below.

図2は、上記動作実行部3によって実行される情報処理動作のフローチャートである。以下、図2に従って、シナリオ記憶部2に記憶されたシナリオに従って、他の情報処理装置による処理動作との同期をとりながら本情報処理装置1の動作を制御する情報処理動作について、具体的に説明する。   FIG. 2 is a flowchart of the information processing operation executed by the operation execution unit 3. Hereinafter, the information processing operation for controlling the operation of the information processing apparatus 1 according to the scenario stored in the scenario storage unit 2 in synchronization with the processing operation by another information processing apparatus will be specifically described with reference to FIG. To do.

ステップS1で、上記シナリオ記憶部2からシナリオが検索される。ステップS2で、上記検索の結果に基づいて、シナリオ記憶部2に未処理のシナリオが在るか否かを判別することによって、シナリオ完了であるか否かが判別される。その結果、シナリオ完了でなければ(つまり、未処理のシナリオが在れば)ステップS3に進み、シナリオ完了であれば情報処理動作を終了する。ステップS3で、シナリオ記憶部2における未処理のシナリオが読み込まれ、この読み込まれたシナリオに基づいて次の動作が取得される。ステップS4で、上記ステップS3において取得された本情報処理装置1の動作が完了したか否かが判別される。その結果、完了していればステップS5に進む一方、完了していなければステップS8に進む。   In step S1, a scenario is retrieved from the scenario storage unit 2. In step S2, it is determined whether or not the scenario is completed by determining whether or not there is an unprocessed scenario in the scenario storage unit 2 based on the search result. As a result, if the scenario is not completed (that is, if there is an unprocessed scenario), the process proceeds to step S3. If the scenario is completed, the information processing operation is terminated. In step S3, an unprocessed scenario in the scenario storage unit 2 is read, and the next operation is acquired based on the read scenario. In step S4, it is determined whether or not the operation of the information processing apparatus 1 acquired in step S3 is completed. As a result, if completed, the process proceeds to step S5, and if not completed, the process proceeds to step S8.

ステップS5で、上記同期検出部5を介して、本情報処理装置1に関する動作の進行状況を表す同期情報を他の情報処理装置に送出すると共に、同期検出部5から上記他の情報処理装置に関する動作の進行状況を表す同期情報を取得する。ステップS6で、上記取得された上記他の情報処理装置の同期情報に基づいて、上記他の情報処理装置の動作が終わったか否かが判別される。その結果、終わっていれば上記ステップS1に戻って、次のシナリオに関する処理に移行する。一方、終わっていなければステップS7に進む。ステップS7で、本情報処理動作の動作を予め定められた第1所定時間だけ停止して、上記他の情報処理装置の動作が終わるのを待つ「待ち合わせ動作」が実行される。そうした後、上記ステップS4に戻って上記ステップS3において読み出されたシナリオに基づく本情報処理装置1の動作が完了したか否かが判別される。ところが、この場合、上記シナリオに基づく本情報処理装置1の動作は完了しているため、再び上記ステップS6に進むことになる。こうして、上記ステップS6において、上記他の情報処理装置の動作が終わったと判別されると上記ステップS1に戻って、次のシナリオに関する処理に移行するのである。   In step S5, the synchronization information indicating the progress of the operation related to the information processing apparatus 1 is sent to another information processing apparatus via the synchronization detection section 5, and the synchronization detection section 5 relates to the other information processing apparatus. Acquire synchronization information indicating the progress of the operation. In step S6, based on the acquired synchronization information of the other information processing apparatus, it is determined whether or not the operation of the other information processing apparatus has ended. As a result, if completed, the process returns to step S1 and shifts to a process relating to the next scenario. On the other hand, if not completed, the process proceeds to step S7. In step S7, the operation of the information processing operation is stopped for a predetermined first predetermined time, and a “waiting operation” is executed to wait for the operation of the other information processing apparatus to end. Thereafter, the process returns to step S4, and it is determined whether or not the operation of the information processing apparatus 1 based on the scenario read in step S3 is completed. However, in this case, since the operation of the information processing apparatus 1 based on the scenario is completed, the process proceeds to step S6 again. Thus, when it is determined in step S6 that the operation of the other information processing apparatus is finished, the process returns to step S1 and shifts to the process relating to the next scenario.

ステップS8で、上記同期検出部5を介して、本情報処理装置1に関する動作の進行状況を表す同期情報を他の情報処理装置に送出すると共に、同期検出部5から上記他の情報処理装置に関する動作の進行状況を表す同期情報を取得する。ステップS9で、上記取得した上記他の情報処理装置の同期情報に基づいて、上記他の情報処理装置の動作が終わったか否かが判別される。その結果、終わっていればステップS10に進む一方、終わっていなければステップS11に進む。   In step S8, synchronization information indicating the progress of the operation related to the information processing apparatus 1 is sent to another information processing apparatus via the synchronization detection section 5, and the synchronization detection section 5 relates to the other information processing apparatus. Acquire synchronization information indicating the progress of the operation. In step S9, based on the acquired synchronization information of the other information processing apparatus, it is determined whether or not the operation of the other information processing apparatus has ended. As a result, if completed, the process proceeds to step S10, and if not completed, the process proceeds to step S11.

ステップS10で、上記他の情報処理装置の動作が終わっているにも拘わらず本情報処理装置1の動作が終わっていないので、本情報処理装置1の動作速度が予め定められた速度分だけ早められる「急ぐ動作」が、予め定められた第2所定時間だけ実行される。そうした後に、上記ステップS4に戻って上記ステップS3において読み出されたシナリオに基づく本情報処理装置1の動作が完了したか否かが判別される。ステップS11で、本情報処理装置1の動作も上記他の情報処理装置の動作も終わっていないので、上記ステップS3において読み込まれたシナリオに基づく本情報処理装置1の動作(以下、「通常動作」と言う)が、予め定められた第3所定時間だけ実行される。そうした後、上記ステップS4に戻って上記ステップS3において読み出されたシナリオに基づく本情報処理装置1の動作が完了したか否かが判別される。   In step S10, although the operation of the information processing apparatus 1 has not ended although the operation of the other information processing apparatus has ended, the operation speed of the information processing apparatus 1 is increased by a predetermined speed. The “rushing action” is executed for a predetermined second predetermined time. Thereafter, the process returns to step S4, and it is determined whether or not the operation of the information processing apparatus 1 based on the scenario read in step S3 is completed. In step S11, neither the operation of the information processing apparatus 1 nor the operation of the other information processing apparatus is completed. Therefore, the operation of the information processing apparatus 1 based on the scenario read in step S3 (hereinafter referred to as “normal operation”). Is executed for a predetermined third predetermined time. Thereafter, the process returns to step S4, and it is determined whether or not the operation of the information processing apparatus 1 based on the scenario read in step S3 is completed.

こうして、上記ステップS4において本情報処理装置1の動作が完了したと判断され、上記ステップS6において上記他の情報処理装置の動作が終わったと判断され、上記ステップS2においてシナリオ記憶部2に記憶されているシナリオに関する動作が総て完了したと判断されると、情報処理動作を終了するのである。   Thus, it is determined that the operation of the information processing apparatus 1 is completed in step S4, the operation of the other information processing apparatus is determined to be completed in step S6, and is stored in the scenario storage unit 2 in step S2. When it is determined that all the operations related to the scenario are completed, the information processing operation is terminated.

ここで、上記ステップS7における待ち合わせ動作,上記ステップS10における急ぐ動作あるいは上記ステップS11における通常動作は、ステップS3において上記未処理のシナリオに基づいて取得された動作を1回の動作で実行するのではなく、上述のように「第1,第2,第3所定時間」の細かい単位に区切って処理を行うのである。その場合における上記区切り単位は、例えば、シナリオに基づいて取得した動作が、目的位置まで歩くアニメーションの動作であるとすれば、一歩進む動作のような歩く動作を分解した単位である。あるいは、例えば、音声合成の場合は、未処理のシナリオに基づいて取得された1つの文章を1回で合成するのではなく、1文字あるいは数ミリ秒から数100ミリ秒程度の出力音声に区切った単位で合成するのである。   Here, in the waiting operation in step S7, the rushing operation in step S10, or the normal operation in step S11, the operation acquired based on the unprocessed scenario in step S3 is executed in one operation. Instead, as described above, the processing is performed by dividing into fine units of “first, second, third predetermined time”. In this case, for example, if the motion acquired based on the scenario is an animation motion that walks to the target position, the delimiter unit is a unit obtained by decomposing a walking motion such as a motion that advances one step. Or, for example, in the case of speech synthesis, instead of synthesizing one sentence acquired based on an unprocessed scenario at a time, it is divided into output speech of one character or several milliseconds to several hundred milliseconds. Are synthesized in units.

こうすることによって、上記シナリオに基づく動作の途中経過を他の情報処理装置に伝えると共に、動作の途中で同期を取って、動作の途中から動作の速度を変化させたり待ち合わせを行ったりすることが可能になるのである。   By doing this, the progress of the operation based on the above scenario can be transmitted to other information processing devices, and the operation can be synchronized in the middle of the operation to change the operation speed or wait in the middle of the operation. It becomes possible.

ところで、図2に示すフローチャートにおいては、上記他の情報処理装置との同期を取るタイミングが、上記読み出されたシナリオに基づく各動作が完了するタイミングであるため、図12に示す「話者Aの発声を話者Bの発声で遮る」場合のように、シナリオの各動作の途中に設定された特定の位置で同期を取る場合に対応することができない。このような場合には、動作実行部3は、図3に示す情報処理動作のフローチャートに従って本情報処理装置1の動作を制御すればよい。   In the flowchart shown in FIG. 2, since the timing to synchronize with the other information processing apparatus is the timing at which each operation based on the read scenario is completed, “speaker A” shown in FIG. It is not possible to cope with the case where synchronization is established at a specific position set in the middle of each operation of the scenario, as in the case of “speaking of the utterance of utterance by the utterance of speaker B”. In such a case, the operation execution part 3 should just control operation | movement of this information processing apparatus 1 according to the flowchart of information processing operation shown in FIG.

ステップS21で、上記シナリオ記憶部2からシナリオが検索される。ステップS22で、上記検索の結果に基づいて、シナリオ記憶部2に未処理のシナリオが在るか否かを判別することによって、シナリオ完了であるか否かが判別される。その結果、シナリオ完了でなければ(つまり、未処理のシナリオが在れば)ステップS23に進み、シナリオ完了であれば情報処理動作を終了する。ステップS23で、シナリオ記憶部2における未処理のシナリオが読み込まれ、この読み込まれたシナリオに基づいて次の動作が取得される。ステップS24で、上記ステップS23において取得された本情報処理装置1の動作が終了したか否かが判別される。その結果、終了していればステップS21に戻って次のシナリオに関する処理に移行する。一方、終了していなければステップS25に進む。   In step S21, a scenario is retrieved from the scenario storage unit 2. In step S22, it is determined whether or not the scenario is completed by determining whether or not there is an unprocessed scenario in the scenario storage unit 2 based on the search result. As a result, if the scenario is not completed (that is, if there is an unprocessed scenario), the process proceeds to step S23, and if the scenario is completed, the information processing operation is terminated. In step S23, an unprocessed scenario in the scenario storage unit 2 is read, and the next operation is acquired based on the read scenario. In step S24, it is determined whether or not the operation of the information processing apparatus 1 acquired in step S23 is completed. As a result, if completed, the process returns to step S21 and shifts to processing for the next scenario. On the other hand, if not completed, the process proceeds to step S25.

ステップS25で、現在処理中のシナリオに記載されている同期位置Tnに到達したか否かが判別される。その結果、到達した場合にはステップS26に進む一方、到達していない場合にはステップS27に進む。ステップS26で、同期検出部5を介して、他の情報処理装置に対して同期位置Tnを送出する。ステップS27で、同期検出部5を介して、他の情報処理装置が現在到達している同期位置Tmを取得する。ここで、上記同期位置を示す「Tn,Tm」は、上記シナリオAおよびシナリオB中に記載されると共に、出現順に大きくなる数値を含むたマーカーである。   In step S25, it is determined whether or not the synchronization position Tn described in the currently processed scenario has been reached. As a result, when it has reached, the process proceeds to step S26, and when it has not reached, the process proceeds to step S27. In step S26, the synchronization position Tn is sent to the other information processing apparatus via the synchronization detector 5. In step S27, the synchronization position Tm currently reached by another information processing apparatus is acquired via the synchronization detection unit 5. Here, “Tn, Tm” indicating the synchronization position is a marker that is described in the scenario A and scenario B and includes a numerical value that increases in the order of appearance.

ステップS28で、処理対象のシナリオにおける本情報処理装置1が到達した位置を表す同期位置Tnと他の情報処理装置が到達している位置を表す同期位置Tmとに含まれる数値の大小が比較される。但し、未だ同期位置に到達していない場合には上記数値を「0」とする。その結果、Tn>Tmである(すなわち、本情報処理装置1が他の情報処理装置よりも先行している)場合にはステップS29に進み、そうでなければステップS30に進む。ステップS29で、本情報処理動作の動作を予め定められた第1所定時間だけ停止して、上記他の情報処理装置の動作の進行を待つ「待ち合わせ動作」が実行される。そうした後に、上記ステップS24に戻って上記ステップS23において読み込まれたシナリオに基づく本情報処理装置1の動作が終了したか否かが判別される。ところが、この場合、上記シナリオに基づく本情報処理装置1の動作は完了しておらず、然も同期位置Tnに到達しているため、再び上記ステップS25〜ステップS28が実行される。そして、上記他の情報処理装置の動作が進行して同期位置Tmが更新され、上記ステップS28においてTn>Tmではないと判別されるとステップS30に進む。   In step S28, the magnitudes of the numerical values included in the synchronization position Tn representing the position reached by the information processing apparatus 1 in the scenario to be processed and the synchronization position Tm representing the position reached by another information processing apparatus are compared. The However, if the synchronization position has not yet been reached, the above numerical value is set to “0”. As a result, if Tn> Tm (that is, the information processing apparatus 1 is ahead of other information processing apparatuses), the process proceeds to step S29, and if not, the process proceeds to step S30. In step S29, the operation of the information processing operation is stopped for a predetermined first predetermined time, and a “waiting operation” is executed to wait for the progress of the operation of the other information processing apparatus. After that, the process returns to step S24 to determine whether or not the operation of the information processing apparatus 1 based on the scenario read in step S23 is completed. However, in this case, since the operation of the information processing apparatus 1 based on the scenario is not completed and has reached the synchronization position Tn, the steps S25 to S28 are executed again. Then, the operation of the other information processing apparatus proceeds to update the synchronization position Tm. If it is determined in step S28 that Tn> Tm is not satisfied, the process proceeds to step S30.

ステップS30で、本情報処理装置1側の同期位置Tnと他の情報処理装置側の同期位置Tmとに含まれる数値の大小が比較される。その結果、Tn<Tmである(すなわち、本情報処理装置1が他の情報処理装置よりも遅れている)場合にはステップS31に進み、そうでなければステップS32に進む。ステップS31で、本情報処理装置1の動作速度が予め定められた速度分だけ早められる「急ぐ動作」が、予め定められた第2所定時間だけ実行される。そうした後、上記ステップS24に戻って上記ステップS23において読み込まれたシナリオに基づく本情報処理装置1の動作が終了したか否かが判別される。ところが、この場合、上記シナリオに基づく本情報処理装置1の動作は完了していないため、更に上記ステップS25〜ステップS28およびステップS30が実行される。そして、本情報処理装置1の動作が進行して同期位置Tnが更新され、上記ステップS28においてTn<Tmではない(つまり、Tn=Tmである)と判別されるとステップS32に進む。ステップS32で、上記ステップS23において取得された動作が実行される「通常動作」が、予め定められた第3所定時間だけ実行される。そうした後、上記ステップS24に戻って上記ステップS23において取得された本情報処理装置1の動作が完了したか否かが判別される。   In step S30, the numerical values included in the synchronization position Tn on the information processing apparatus 1 side and the synchronization position Tm on the other information processing apparatus side are compared. As a result, if Tn <Tm (that is, the information processing apparatus 1 is behind the other information processing apparatuses), the process proceeds to step S31; otherwise, the process proceeds to step S32. In step S31, the “rushing operation” in which the operation speed of the information processing apparatus 1 is increased by a predetermined speed is executed for a predetermined second predetermined time. Thereafter, the process returns to step S24 to determine whether or not the operation of the information processing apparatus 1 based on the scenario read in step S23 is completed. However, in this case, since the operation of the information processing apparatus 1 based on the scenario is not completed, steps S25 to S28 and step S30 are further executed. Then, the operation of the information processing apparatus 1 proceeds and the synchronization position Tn is updated. If it is determined in step S28 that Tn <Tm is not satisfied (that is, Tn = Tm), the process proceeds to step S32. In step S32, the “normal operation” in which the operation acquired in step S23 is executed is executed for a predetermined third predetermined time. After that, the process returns to step S24 to determine whether or not the operation of the information processing apparatus 1 acquired in step S23 is completed.

こうして、上記ステップS24において本情報処理装置1の動作が完了したと判断され、上記ステップS22においてシナリオ記憶部2に記憶されている未処理のシナリオが無いためにシナリオ完了であると判断されると、情報処理動作を終了するのである。   Thus, when it is determined in step S24 that the operation of the information processing apparatus 1 has been completed, and in step S22 it is determined that the scenario is complete because there is no unprocessed scenario stored in the scenario storage unit 2. The information processing operation is terminated.

尚、図3に示す情報処理動作においては、本情報処理装置1側の動作として「待ち合わせ動作」と「急ぐ動作」と「通常動作」との3通りの場合を例に示しているが、これに限定されるものではない。例えば、図3に示すフローチャートの上記ステップS26において他の情報処理装置に送出する同期位置Tnや、ステップS27において取得する他の情報処理装置からの同期位置Tmとして、上述のような「同期位置であるか否かを表す」離散的な同期情報だけではなく、次の同期位置まであとどの位の時間があるかを予想した値を付加することも可能である。そして、この同期情報を受け取った本情報処理装置1側では、上記次の同期位置までの予想時間の値に基づいて、急ぐ度合いを多段階に切り換えたり、遅くする動作を加えたり、上記通常動作の速度(0=停止を含む)を連続的に切り換えたりすることも可能になる。   In the information processing operation shown in FIG. 3, three cases of “waiting operation”, “rushing operation”, and “normal operation” are shown as examples of operations on the information processing apparatus 1 side. It is not limited to. For example, the synchronization position Tn transmitted to the other information processing apparatus in step S26 in the flowchart shown in FIG. 3 and the synchronization position Tm from the other information processing apparatus acquired in step S27 are described in the above “synchronization position. It is possible to add not only the discrete synchronization information indicating whether or not there is, but also a value that predicts how much time is left until the next synchronization position. The information processing apparatus 1 that has received the synchronization information switches the degree of rushing in multiple steps, adds an operation to slow down, or adds the normal operation based on the value of the expected time to the next synchronization position. It is also possible to continuously switch the speed (including 0 = stop).

以下、上記動作実行部3が、図3に示す情報処理動作のフローチャートに従って本情報処理装置1の動作を制御する場合を、実施例によって具体的に説明する。   Hereinafter, the case where the operation execution unit 3 controls the operation of the information processing apparatus 1 according to the flowchart of the information processing operation shown in FIG.

(実施例1)
図4は、図11と同じような話者Aと話者Bとによる音声合成装置の出力結果を、図3に示す情報処理動作のフローチャートに従って得るためのシナリオ(図4(a))と出力合成音声(図4(b))との例を示す。すなわち、図1に示す情報処理装置は、図4(a)に示すシナリオA「本日は晴天なり、本日は<#1>晴天なり。<#2>はい。」に基づいて、発話内容「本日は晴天なり 本日は晴天なり はい」を、話者Aの声で合成する音声合成装置と、シナリオB「<#1>もう結構です。黙って<#2>ください。」に基づいて、発話内容「もう結構です 黙ってください」を、話者Bの声で合成する音声合成装置との何れか一方である。そして、他方の音声合成装置が、図3に示すフローチャートの説明文における上記他の情報処理装置となる。
(Example 1)
4 shows a scenario (FIG. 4 (a)) and output for obtaining the output result of the speech synthesizer by speakers A and B similar to FIG. 11 according to the flowchart of the information processing operation shown in FIG. An example of synthesized speech (FIG. 4B) is shown. That is, the information processing apparatus shown in FIG. 1 is based on the scenario A “Today is sunny, today is <# 1> sunny”. <# 2> Yes. ” Is a sunny day Today is a sunny day, based on a speech synthesizer that synthesizes with the voice of speaker A and scenario B "<# 1> Already fine. Please silently <# 2>." It is either one of the speech synthesizer that synthesizes “It's fine. The other speech synthesizer is the other information processing apparatus in the explanatory text of the flowchart shown in FIG.

以下においては、話者Aの声を合成する音声合成装置を本情報処理装置1であるとして説明を行う。この場合、話者Bの声を合成する音声合成装置である他の情報処理装置も、本情報処理装置1と同じ構成を有している。尚、上記図3に示すフローチャートには記載していないが、最初に「Tn=0」、即ち「<#0>」を送出するものとする。   In the following description, it is assumed that the speech synthesizer that synthesizes the voice of the speaker A is the information processing apparatus 1. In this case, the other information processing apparatus which is a voice synthesizer that synthesizes the voice of the speaker B also has the same configuration as the information processing apparatus 1. Although not described in the flowchart shown in FIG. 3, it is assumed that “Tn = 0”, that is, “<# 0>” is transmitted first.

先ず、図3に示すフローチャートの上記ステップS23において、シナリオ記憶部2から未処理のシナリオA「本日は晴天なり、本日は<#1>晴天なり。<#2>はい。」が読み込まれる。そして、このシナリオに基づいて、話者Aの声による「本日は晴天なり 本日は晴天なり はい」なる合成音声を生成する動作内容が取得されて、実行される。そして、<#1>の位置までの合成音声「本日は晴天なり 本日は」を出力し、上記ステップS26において、同期検出部5を介して、話者Bの声を合成する他の情報処理装置に対して同期位置Tn「<#1>」を送出する。   First, in step S23 of the flowchart shown in FIG. 3, the unprocessed scenario A “Today is fine, today is <# 1> fine weather. <# 2> Yes.” Is read from the scenario storage unit 2. Then, based on this scenario, the operation content for generating the synthesized speech “Today is sunny and today is sunny” is acquired and executed. Then, the synthesized speech up to the position <# 1> “Today is a fine day today” is output, and in step S26, another information processing device that synthesizes the voice of the speaker B via the synchronization detection unit 5 In response, the synchronization position Tn “<# 1>” is transmitted.

その間、上記他の情報処理装置では、読み込んだシナリオB「<#1>もう結構です。黙って<#2>ください。」の先頭に、同期位置Tm「<#1>」が在るため同期位置Tm「<#1>」を本情報処理装置1に送出する一方、本情報処理装置1からの同期位置Tn「<#0>」を受け取って、同期位置Tmと同期位置Tnとを比較する。そして、同期位置Tm「<#1>」に含まれている数値「1」が同期位置Tnに含まれている数値「0」よりも大きいために音声合成を停止する「待ち合わせ動作」を行っている。そして、本情報処理装置1からの同期位置Tn「<#1>」を受け取ると、Tm「<#1>」=Tn「<#1>」であるため話者Bの声による「もう結構です 黙って」なる合成音声の生成および出力を開始する。   Meanwhile, in the other information processing apparatuses described above, the synchronization position Tm “<# 1>” is present at the head of the read scenario B “<# 1> is already fine. While the position Tm “<# 1>” is sent to the information processing apparatus 1, the synchronization position Tn “<# 0>” from the information processing apparatus 1 is received and the synchronization position Tm and the synchronization position Tn are compared. . Then, since the numerical value “1” included in the synchronization position Tm “<# 1>” is larger than the numerical value “0” included in the synchronization position Tn, a “waiting operation” for stopping speech synthesis is performed. Yes. When the synchronization position Tn “<# 1>” is received from the information processing apparatus 1, Tm “<# 1>” = Tn “<# 1>”, so “already fine” Start generating and outputting a synthesized speech “silently”.

その間、上記本情報処理装置1では、上記ステップS27において他の情報処理装置からの同期位置Tm「<#1>」を受け取り、同期位置Tn「<#1>」と同期位置Tm「<#1>」とを比較する。そして、Tn「<#1>」=Tm「<#1>」であるため、引き続き<#2>の位置まで合成音声「晴天なり」を生成して出力し、他の情報処理装置に対して同期位置Tn「<#2>」を送出する。そうした後に、同期位置Tn「<#2>」と同期位置Tm「<#1>」とを比較し、Tn「<#2>」>Tm「<#1>」であるため、音声合成を停止して「待ち合わせ動作」に移行する。   Meanwhile, the information processing apparatus 1 receives the synchronization position Tm “<# 1>” from the other information processing apparatus in the step S27, and receives the synchronization position Tn “<# 1>” and the synchronization position Tm “<< 1”. > ". Since Tn “<# 1>” = Tm “<# 1>”, the synthesized speech “sunny sky” is continuously generated and output up to the position of <# 2>, and is output to other information processing apparatuses. The synchronization position Tn “<# 2>” is transmitted. After that, the synchronization position Tn “<# 2>” is compared with the synchronization position Tm “<# 1>”. Since Tn “<# 2>”> Tm “<# 1>”, the speech synthesis is stopped. Then, shift to “waiting operation”.

その間、上記他の情報処理装置では、同期位置Tm「<#2>」に至るまで、合成音声「もう結構です 黙って」を出力した後に、本情報処理装置1に対して同期位置Tm「<#2>」を送出する。そして、同期位置Tm「<#2>」=同期位置Tn「<#2>」であるから、引き続き最後まで合成音声「ください」を生成して出力する。   In the meantime, the other information processing apparatus outputs the synthesized speech “This is fine, silent” until it reaches the synchronization position Tm “<# 2>”, and then outputs the synchronization position Tm “< # 2> ". Then, since the synchronization position Tm “<# 2>” = the synchronization position Tn “<# 2>”, the synthesized speech “Please” is continuously generated and output to the end.

その間、上記本情報処理装置1では、上記他の情報処理装置からの同期位置Tm「<#2>」を受け取り、同期位置Tn「<#2>」=同期位置Tm「<#2>」であるから、合成音声「はい」の生成および出力を行うのである。   Meanwhile, the information processing apparatus 1 receives the synchronization position Tm “<# 2>” from the other information processing apparatus, and the synchronization position Tn “<# 2>” = the synchronization position Tm “<# 2>”. Therefore, the synthesized speech “Yes” is generated and output.

このようにして、話者A,Bが同時に発声し、話者Aの発声を話者Bが遮るという状況を音声で実現することができる。その場合、上記本情報処理装置1および他の情報処理装置は、共にシナリオ中に挿入されている同期位置Tn,Tmの有無に拘わらず、文章単位でイントネーションが生成するようになっており、然も同期位置Tn,Tmの箇所で途切れることなく音声が合成される。したがって、図11に示す例の場合とは異なり、自然なイントネーションの合成音声を生成・出力することができるのである。また、話者Aのシナリオと話者Bのシナリオとに同様に同期位置Tn,Tmを挿入するだけで自動的に同期位置Tn,Tmの箇所で、同期を取るようになっている。したがって、音声合成パラメータとして話者A,話者Bの発声速度が夫々別の速度に設定されても、また、発声速度が変更されたとしても、シナリオを変更することなく自然な対話を行っているような合成音声を出力することができるのである。   In this way, it is possible to realize a situation in which the speakers A and B speak simultaneously and the speaker B blocks the speech of the speaker A by voice. In that case, both the information processing apparatus 1 and the other information processing apparatus generate intonation in units of sentences regardless of the presence or absence of the synchronization positions Tn and Tm inserted in the scenario. Also, the speech is synthesized without interruption at the synchronization positions Tn and Tm. Therefore, unlike the example shown in FIG. 11, it is possible to generate and output a synthesized voice with natural intonation. Similarly, synchronization is automatically established at the positions of the synchronization positions Tn and Tm just by inserting the synchronization positions Tn and Tm in the scenario of the speaker A and the scenario of the speaker B. Therefore, even if the utterance speeds of speakers A and B are set as different speech synthesis parameters, and even if the utterance speed is changed, a natural conversation is performed without changing the scenario. It is possible to output such synthesized speech.

上記実施例1においては、上記シナリオAおよびシナリオBには、共に「待ち合わせ動作」は指定されていないが、何も合成しないで待つ動作が設定されている場合を例示している。また、「急ぐ動作」は、本実施例のシナリオでは必要ないので、特に設定してはいない。   In the first embodiment, the “waiting operation” is not specified in both scenario A and scenario B, but a case where an operation of waiting without synthesizing anything is set. Further, the “rushing action” is not particularly set since it is not necessary in the scenario of this embodiment.

(実施例2および実施例3)
本実施例は、「待ち合わせ動作」や「急ぐ動作」の動作内容を指定する場合であり、同期位置中で動作の指定を行う場合の例について説明する。尚、以下、上述のように動作の指定を含む同期位置を「同期命令」と呼ぶことにする。
(Example 2 and Example 3)
The present embodiment is a case where the operation contents of “waiting operation” and “rush operation” are designated, and an example in which the operation is designated in the synchronization position will be described. Hereinafter, the synchronization position including the operation designation as described above is referred to as a “synchronization command”.

図5および図6においては、話者Aのシナリオ中の同期命令<#2>で動作の指定をしている。ここで、<#2:えー/STOP>において、「/」の前で「待ち合わせ動作」を指定し、「/」の後で「急ぐ動作」を指定しており、待ち合わせ動作として「えー」と発声し、急ぐ動作として発声を中断(STOP)することを指定している。   In FIGS. 5 and 6, the operation is designated by the synchronization command <# 2> in the scenario of the speaker A. Here, in <# 2: eh / STOP>, “waiting operation” is designated before “/”, and “rushing action” is designated after “/”. It is specified that the utterance is interrupted (STOP) as an urgent action.

図5に示す実施例2では、図5(a)に示すように、シナリオの内容は図4(a)と同じである。したがって、話者Aの2回めの発声「はい」の前で「待ち合わせ動作」に入って「えー」という合成音声が挿入されることになる。   In the second embodiment shown in FIG. 5, as shown in FIG. 5 (a), the contents of the scenario are the same as those in FIG. 4 (a). Therefore, before the second utterance “Yes” of the speaker A, the “waiting operation” is entered, and the synthesized voice “e” is inserted.

これに対して、図6に示す実施例3では、図6(a)に示すように、シナリオAの内容が図4(a)に比して長くなっている。したがって、<#2>の位置には話者Bが先に到達することになる。そのために、話者A側の情報処理装置は、話者B側の情報処理装置からの同期位置Tm「<#2>」を受け取ると、同期位置Tn「<#1>」と同期位置Tm「<#2>」との比較結果から「急ぐ動作」に切り換わり、発声「本日は晴天なり」の途中であるにも換わらず「本日は晴天」で中断し、次のシナリオAの音声「はい」を合成するのである。   On the other hand, in Example 3 shown in FIG. 6, as shown in FIG. 6 (a), the content of scenario A is longer than that in FIG. 4 (a). Therefore, the speaker B reaches the position of <# 2> first. Therefore, when the information processing apparatus on the speaker A side receives the synchronization position Tm “<# 2>” from the information processing apparatus on the speaker B side, the synchronization position Tn “<# 1>” and the synchronization position Tm “ <# 2> ”is switched to“ Hurry ”, and it is in the middle of the utterance“ Today is sunny ”, but it is interrupted by“ Today is sunny ”. Is synthesized.

その場合、話者Aが発声を中断する位置は、話者Aと話者Bとの発話速度の差に依存して自動的に調整される。したがって、シナリオを作成する際に、話者Aと話者Bとの実際の発話速度が予測できない場合であっても、合成音声によって自然な対話を実現することができるのである。   In this case, the position where the speaker A interrupts the speech is automatically adjusted depending on the difference in speech speed between the speaker A and the speaker B. Therefore, when creating a scenario, even if the actual speech rate between the speaker A and the speaker B cannot be predicted, a natural conversation can be realized by the synthesized speech.

また、上述したような同期命令<#2:えー/STOP>で「待ち合わせ動作」と「急ぐ動作」との動作内容を指定することによって、シナリオAに文章の追加や削除が行われてシナリオBに対する相対長さが長くなったり短くなったりしても、自動的に、「えー」が発声されて「待ち合わせ動作」が行われたり、発声が中断されて「急ぐ動作」が行われる。したがって、シナリオ作成者は、同期位置の設定箇所を気にすることなく、シナリオを変更することが可能になる。   In addition, by specifying the operation contents of “waiting operation” and “rush operation” with the synchronization command <# 2: e / STOP> as described above, a sentence is added to or deleted from scenario A, and scenario B Even if the relative length with respect to becomes longer or shorter, “E” is automatically uttered and “waiting operation” is performed, or utterance is interrupted and “hurrying operation” is performed. Therefore, the scenario creator can change the scenario without worrying about the setting position of the synchronization position.

尚、上記実施例2および実施例3においては、待ち合わせ動作」と「急ぐ動作」との両方の動作内容を設定しているが、何れか一方のみを設定することも可能である。   In the second and third embodiments, the operation contents of both the “waiting operation” and the “rushing operation” are set, but only one of them can be set.

また、上記実施例1〜実施例3においては、上記同期命令の書式を「<#n>:nは正の整数」としたが、この書式に限定されるものではない。要は、シナリオの内容と容易に識別可能であり、シナリオ中での出現順位が判定できる書式であればよいのである。   In the first to third embodiments, the format of the synchronous instruction is “<#n>: n is a positive integer”. However, the format is not limited to this format. In short, any format can be used as long as it can be easily identified from the contents of the scenario and the order of appearance in the scenario can be determined.

また、上記実施例1〜実施例3においては、この実施の形態における情報処理装置が、話者Aと話者Bとの2つの音声合成装置である場合を例に説明した。しかしながら、この2つの音声合成装置に、話者Aおよび話者Bのアニメーション画像生成装置を追加して、互いを同期させることも考えられる。その場合、図1における同期検出部5は、他の情報処理装置として、2つ以上の情報処理装置を対象に同期を検出する必要がある。その場合に、同期を検出する2つ以上の情報処理装置のうち何れの情報処理装置の動作を優先して検出するかが問題になる。一般には、最も動作が遅い情報処理装置に合わせるのが妥当と考えられるが、目的によってはこの限りではなく、何れの情報処理装置に合わせるかは情報処理装置の設計者あるいはシナリオの作成者に任されるために、一概には決まらない。その場合には、同期対象とする情報処理装置名をシナリオの中に記述し、同期検出部5はシナリオの中に記述された情報処理装置の同期位置や同期命令を取得することも可能である。   Further, in the first to third embodiments, the case where the information processing apparatus in this embodiment is two speech synthesizers of the speaker A and the speaker B has been described as an example. However, it is also conceivable to add the animation image generation apparatuses of speaker A and speaker B to the two speech synthesizers and synchronize each other. In this case, the synchronization detection unit 5 in FIG. 1 needs to detect synchronization for two or more information processing devices as other information processing devices. In that case, it becomes a problem which of the two or more information processing devices that detect synchronization is to preferentially detect the operation of the information processing device. In general, it is considered appropriate to match the information processing device with the slowest operation. However, this is not limited depending on the purpose, and it is up to the information processing device designer or scenario creator to select the information processing device. To be done, it is not decided at all. In that case, the name of the information processing device to be synchronized is described in the scenario, and the synchronization detection unit 5 can also acquire the synchronization position and synchronization command of the information processing device described in the scenario. .

・第2実施の形態
図7は、本実施の形態の情報処理装置における構成を示すブロック図である。この情報処理装置11は、第1処理装置13から第3処理装置15までの3つの処理装置を有しており、各処理装置11〜13には、シナリオ入力部16によって、シナリオ記憶部12から第1処理装置13用のシナリオA,第2処理装置14用のシナリオBおよび第3処理装置15用のシナリオCが読み出されて個別に送出される。そして、各処理装置13〜15は、基本的には第1実施の形態の情報処理装置における動作実行部3と同様の機能を有して、動作実行部3と同様に動作する。尚、本実施の形態においては、シナリオ記憶部12に、各処理装置13〜15毎に別のシナリオを格納して、個別のシナリオを各処理装置13〜15に与えるようにしている。しかしながら、これに限定されるものではなく、シナリオ記憶部12には各処理装置13〜15用のシナリオを1つのデータとして格納して、各処理装置13〜15に同じシナリオを与え、各処理装置13〜15内で自処理装置用のシナリオのみを選択して実行するようにしてもよい。
Second Embodiment FIG. 7 is a block diagram showing a configuration of the information processing apparatus according to the present embodiment. The information processing apparatus 11 includes three processing apparatuses from a first processing apparatus 13 to a third processing apparatus 15, and each processing apparatus 11 to 13 receives a scenario input unit 16 from a scenario storage unit 12. Scenario A for the first processing device 13, scenario B for the second processing device 14, and scenario C for the third processing device 15 are read and sent individually. And each processing apparatus 13-15 has the function similar to the operation execution part 3 in the information processing apparatus of 1st Embodiment fundamentally, and operate | moves similarly to the operation execution part 3. FIG. In the present embodiment, another scenario is stored in the scenario storage unit 12 for each of the processing devices 13 to 15 and an individual scenario is given to each of the processing devices 13 to 15. However, the present invention is not limited to this. The scenario storage unit 12 stores a scenario for each of the processing devices 13 to 15 as one data, and gives the same scenario to each of the processing devices 13 to 15. It is also possible to select and execute only the scenario for the own processing apparatus within 13 to 15.

同期伝達部17は、各処理装置13〜15の同期情報を受け取って、要求に応じて必要とする各処理装置13〜15に伝達する。ここで、同期伝達部17は、必ずしも能動的な機能を有している必要はなく、各処理装置13〜15間で共有されて各処理装置13〜15の同期情報を一時記憶するメモリであっても差し支えない。尚、その場合には、各処理装置13〜15は、必要に応じて同期伝達部(メモリ)17にアクセスして、他の処理装置の同期情報を取得するのである。また、各処理装置13〜15の他に物理的に異なる装置に分散されている他の処理装置との同期を取る必要がある場合には、同期伝達部17は、通信部20を介して、上記他の処理装置機との間で通信を行って動作状況の取得・伝達を行う。尚、通信部20としては、従来の有線や無線や赤外線等の通信モジュールを使用すればよい。   The synchronization transmission unit 17 receives the synchronization information of the processing devices 13 to 15 and transmits them to the processing devices 13 to 15 that are required in response to the request. Here, the synchronization transmission unit 17 does not necessarily have an active function, and is a memory that is shared among the processing devices 13 to 15 and temporarily stores synchronization information of the processing devices 13 to 15. There is no problem. In this case, each of the processing devices 13 to 15 accesses the synchronization transmission unit (memory) 17 as necessary, and acquires synchronization information of other processing devices. In addition, when it is necessary to synchronize with other processing devices distributed to physically different devices in addition to the processing devices 13 to 15, the synchronization transmission unit 17 is connected via the communication unit 20. It communicates with the other processing apparatus and acquires / transmits the operating status. As the communication unit 20, a conventional communication module such as wired, wireless, or infrared may be used.

上記各処理装置13〜15から出力された情報は、画像情報や音声情報等の情報の種類毎に第1,第2統合出力部18,19によって統合されてユーザーに提示される。図7の場合には、第2処理装置14からの出力と第3処理装置15からの出力とが、第2統合出力部19によって統合されて出力されるようになっている。   The information output from each of the processing devices 13 to 15 is integrated by the first and second integrated output units 18 and 19 for each type of information such as image information and audio information and presented to the user. In the case of FIG. 7, the output from the second processing device 14 and the output from the third processing device 15 are integrated and output by the second integrated output unit 19.

尚、本実施の形態においては、上記第1処理装置13〜第3処理装置15までの3つの処理装置を有し、そのうち第2,第3処理装置14,15からの出力を第2統合出力部19で統合するようにしている。しかしながら、処理装置の数、何れの処理装置からの出力を統合するか、出力が統合される処理装置の数等は、構築しようとしているマルチメディア・ユーザー・インタフェースの構造に応じて適宜変更しても差し支えない。   In the present embodiment, there are three processing devices from the first processing device 13 to the third processing device 15, of which the outputs from the second and third processing devices 14 and 15 are the second integrated output. The unit 19 integrates them. However, the number of processing devices, the output from which processing devices are integrated, the number of processing devices whose outputs are integrated, etc., are appropriately changed according to the structure of the multimedia user interface to be constructed. There is no problem.

以下、上記構成を有する情報処理装置の動作について、以下の実施例に従って具体的に説明する。   Hereinafter, the operation of the information processing apparatus having the above configuration will be specifically described according to the following embodiments.

(実施例4)
本実施例は、画像の処理装置と音声合成の処理装置とを用いて、エージェントの画像と音声とによってコンピュータ操作の説明を行う情報処理装置の例を示す。
Example 4
The present embodiment shows an example of an information processing apparatus that explains a computer operation using an image and a voice of an agent using an image processing apparatus and a speech synthesis processing apparatus.

本実施例においては、図7における第1処理装置13が画像処理装置であり、第2処理装置14が音声合成処理装置であるとする。そして、図8(a)は、画像処理装置13からの画像情報を出力する第1統合出力部18の表示画面を示す。尚、図8(b)はエージェント21に関する画像用のシナリオを示し、図8(b)はエージェント21に関する音声合成用のシナリオを示し、本実施例の場合では個別のデータとなっている。本実施例における同期命令は「T0」の如く各シナリオの先頭に記述されている。   In the present embodiment, it is assumed that the first processing device 13 in FIG. 7 is an image processing device and the second processing device 14 is a speech synthesis processing device. FIG. 8A shows a display screen of the first integrated output unit 18 that outputs image information from the image processing device 13. FIG. 8B shows an image scenario related to the agent 21, and FIG. 8B shows a speech synthesis scenario related to the agent 21, which is individual data in this embodiment. The synchronization command in this embodiment is described at the beginning of each scenario such as “T0”.

各シナリオにおける「 」内には、対応する処理装置の動作内容と、その動作が終了した場合における待ち合わせ動作の動作内容と、他の処理装置が先に動作を終了した場合における急ぎの動作の動作内容とが、「/」で区切って記述されている。つまり、各シナリオは、「通常動作/待ち合わせ動作/急ぎの動作」の如く記述されている。当然ながら、シナリオの記述方法は、これに限定されるものではない。以下、図8(b)および図8(b)のシナリオに沿って、本実施例における動作を説明する。   In “” in each scenario, the operation content of the corresponding processing device, the operation content of the waiting operation when the operation ends, and the operation of the urgent operation when the other processing device ends the operation first The contents are described by separating them with “/”. That is, each scenario is described as “normal operation / waiting operation / rush operation”. Of course, the scenario description method is not limited to this. Hereinafter, the operation in the present embodiment will be described along the scenarios of FIG. 8B and FIG. 8B.

先ず、エージェント21は、同期命令「T0」で「位置Aを指示」しながら「まず」と発声する。ここで、発声「まず」が終了してもアクション「位置Aを指示」が終了しない場合には、音声合成側は「待ち合わせ動作」に移行して音声で「えー」と付け加える。   First, the agent 21 utters “first” while “instructing position A” with the synchronization command “T0”. If the action “specify position A” does not end even when the utterance “first” ends, the speech synthesis side shifts to “waiting operation” and adds “er” as a voice.

次に、同期命令「T1」で、エージェント21は、アクションを止めながら「このアイコンAでボタンを押して」と発声する。この場合は、アクションの停止が先に終了するので、画像側は「待ち合わせ動作」に移行して「棒を振る」アクションを行う。   Next, with the synchronization command “T1”, the agent 21 utters “Press the button with this icon A” while stopping the action. In this case, since the stop of the action ends first, the image side shifts to the “waiting operation” and performs the “shake a stick” action.

次に、同期命令「T2」で、エージェント21は、「アイコンAの位置からアイコンBの位置へ移動」しながら「そのままドラッグして」と発声する。ここで、アクション「AからBへの移動」が先に終了した場合には、画像側は「待ち合わせ動作」に移行して発声が終わるまでエージェント21はアクション「口パク」を行い、発声中であることを表現する。逆に、AからBへの移動に時間が掛かり、発声が先に終わった場合には、画像側は「急ぎの動作」に移行してアクション「走る」に切り替わり、同時に音声合成側は「待ち合わせ動作」に移行して移動が終了するまで「よいしょ、よいしょ」と発声する。   Next, the agent 21 utters “drag as it is” while “moving from the position of the icon A to the position of the icon B” by the synchronization command “T2”. Here, when the action “movement from A to B” is finished first, the image side shifts to “waiting operation” and the agent 21 performs the action “mouth speech” until the end of the utterance. Express something. On the other hand, if it takes time to move from A to B and the utterance ends first, the image side shifts to “rush action” and switches to the action “run”. Say “Good, good” until the movement is finished.

次に、同期命令「T3」で、エージェント21は、無言で「位置Bを指示」する。   Next, in response to the synchronization command “T3”, the agent 21 silently “instructs position B”.

次に、同期命令「T4」で、エージェント21は、アクションを止めながら「このBで放して下さい」と発声する。この場合は、アクションの停止が先に終了するので、画像側は「待ち合わせ動作」に移行してアクション「棒を振る」を行う。   Next, with the synchronization command “T4”, the agent 21 utters “Please release with this B” while stopping the action. In this case, since the stop of the action ends first, the image side shifts to the “waiting operation” and performs the action “shake a stick”.

このように、各シナリオの先頭には同期命令「Tn:nは0と正の整数」を付加し、各シナリオを「通常動作/待ち合わせ動作/急ぎの動作」の如く記述するので、実際に掛かる処理時間に応じて画像処理装置と音声合成処理装置との動作内容を自動的に切り換えることができ、自然な画像情報と音声情報との提示を行うことができる。また、その場合、シナリオのポーズの位置や時間を個別に設定する必要なく、シナリオの作成が困難になることはない。   Thus, since the synchronization command “Tn: n is 0 and a positive integer” is added to the head of each scenario and each scenario is described as “normal operation / waiting operation / hurry operation”, it actually takes. The operation contents between the image processing apparatus and the speech synthesis processing apparatus can be automatically switched according to the processing time, and natural image information and voice information can be presented. In that case, it is not necessary to individually set the position and time of the pose of the scenario, and it is not difficult to create the scenario.

・第3実施の形態
図9は、本実施の形態の情報処理装置を、コンピュータを用いて実現した場合の構成を示すブロック図を示す。情報処理装置31は、CPU(中央演算処理装置)32,記憶部33,入力部34,出力部35およびプログラム読込部36がバス37に接続されて構成されている。プログラム読込部36は、外部のプログラム記録媒体38から情報処理プログラムを読み込む。ここで、プログラム記録媒体38としては、光ディスク,磁気ディスク,フレキシブルディスク,読み出し専用メモリあるいは書き換え可能なメモリ等が用いられ、本コンピュータを上記第1,第2実施の形態の情報処理装置として機能させる情報処理プログラムが記録されている。
Third Embodiment FIG. 9 is a block diagram showing a configuration when the information processing apparatus according to the present embodiment is realized using a computer. The information processing device 31 is configured by connecting a CPU (Central Processing Unit) 32, a storage unit 33, an input unit 34, an output unit 35 and a program reading unit 36 to a bus 37. The program reading unit 36 reads an information processing program from an external program recording medium 38. Here, an optical disk, a magnetic disk, a flexible disk, a read-only memory, a rewritable memory, or the like is used as the program recording medium 38, and this computer functions as the information processing apparatus of the first and second embodiments. An information processing program is recorded.

上記プログラム読込部36によって読み込まれた情報処理プログラムは、記憶部33に記憶される。記憶部33は一般に磁気ディスクや書き換え可能なメモリで構成される。CPU32は、記憶部33に記憶された情報処理プログラムに従って、各部を制御して情報処理装置としての動作を行う。また、記憶部33は、CPU32によって行われる情報処理動作における作業領域としても一部が使用される。入力部34は、ユーザーからの入力を受付けて、情報処理プログラム実行や処理の切換等を指示する。この入力部34は、キーボード,マイク,タブレットおよびポインティングデバイス等に相当する。また、出力部35は、CPU32による情報処理の結果をユーザーに提示するものである。この出力部35は、文字や画像を出力するディスプレイや、音声や楽音等を出力するスピーカまたはヘッドホンに相当する。   The information processing program read by the program reading unit 36 is stored in the storage unit 33. The storage unit 33 is generally composed of a magnetic disk or a rewritable memory. The CPU 32 operates as an information processing apparatus by controlling each unit in accordance with the information processing program stored in the storage unit 33. In addition, the storage unit 33 is partially used as a work area in the information processing operation performed by the CPU 32. The input unit 34 receives input from the user and instructs execution of an information processing program, switching of processing, and the like. The input unit 34 corresponds to a keyboard, a microphone, a tablet, a pointing device, and the like. The output unit 35 presents the result of information processing by the CPU 32 to the user. The output unit 35 corresponds to a display for outputting characters and images, a speaker or headphones for outputting sound, music, and the like.

また、上記出力部35は、工業用や家庭用の電気機器やロボットに対する制御信号を出力するようにしても構わない。あるいは、出力部35は、別の機器を操作するための制御信号を出力しても構わない。   Further, the output unit 35 may output control signals for industrial and household electric devices and robots. Alternatively, the output unit 35 may output a control signal for operating another device.

さらに、上記構成の情報処理装置31を複数組み合わせて情報処理を行う場合には、同期のための通信部が各情報処理装置に必要となるのは言うまでもない。   Furthermore, when information processing is performed by combining a plurality of information processing apparatuses 31 having the above configuration, it goes without saying that a communication unit for synchronization is required for each information processing apparatus.

この発明の情報処理装置における構成を示すブロック図である。It is a block diagram which shows the structure in the information processing apparatus of this invention. 図1における動作実行部によって実行される情報処理動作のフローチャートである。It is a flowchart of the information processing operation performed by the operation | movement execution part in FIG. 図2とは異なる情報処理動作のフローチャートである。3 is a flowchart of information processing operation different from FIG. 2. 図1におけるシナリオ記憶部に記憶されるシナリオとそれに基づく出力合成音声とを示す図である。It is a figure which shows the scenario memorize | stored in the scenario memory | storage part in FIG. 1, and the output synthetic speech based on it. 図4とは異なるシナリオとそれに基づく出力合成音声とを示す図である。It is a figure which shows the scenario different from FIG. 4, and the output synthetic speech based on it. 図4および図5とは異なるシナリオとそれに基づく出力合成音声とを示す図である。It is a figure which shows the scenario different from FIG. 4 and FIG. 5, and the output synthetic speech based on it. 図1とは異なる情報処理装置における構成を示すブロック図である。It is a block diagram which shows the structure in the information processing apparatus different from FIG. 図7におけるシナリオ記憶部に記憶されるシナリオとそれに基づく出力画像と出力合成音声とを示す図である。It is a figure which shows the scenario memorize | stored in the scenario memory | storage part in FIG. 7, the output image based on it, and an output synthetic | combination audio | voice. 図1および図7の情報処理装置をコンピュータを用いて実現した場合の構成を示すブロック図である。It is a block diagram which shows the structure at the time of implement | achieving the information processing apparatus of FIG. 1 and FIG. 7 using the computer. 一般的な音声合成装置を用いてシナリオを読み上げる場合のシナリオと合成音声の時間的な流れとを示す図である。It is a figure which shows the scenario at the time of reading a scenario using a general speech synthesis apparatus, and the time flow of synthetic speech. 話者別の音声合成モジュールを並列して動作させる場合のシナリオと合成音声の時間的な流れとを示す図である。It is a figure which shows the scenario in the case of operating the speech synthesis module according to a speaker in parallel, and the time flow of synthetic speech. シナリオ中にポーズを指定して話者別の音声合成モジュールを同時に動作させる動作させる場合のシナリオと合成音声の時間的な流れとを示す図である。It is a figure which shows the scenario and the time flow of a synthetic | combination speech in the case of making it operate | move by designating a pause in a scenario and operating the speech synthesis module classified by speaker simultaneously.

符号の説明Explanation of symbols

1,11,31…情報処理装置、
2,12…シナリオ記憶部、
3…動作実行部、
4…出力部、
5…同期検出部、
13…第1処理装置、
14…第2処理装置、
15…第3処理装置、
16…シナリオ入力部、
17…同期伝達部、
18…第1統合出力部、
19…第2統合出力部、
20…通信部、
21…エージェント、
32…CPU、
33…記憶部、
34…入力部、
35…出力部、
36…プログラム読込部、
37…バス、
38…プログラム記録媒体。
1, 11, 31 ... Information processing device,
2,12 ... scenario storage unit,
3 ... operation execution part,
4 ... output part,
5 ... Synchronization detector,
13 ... 1st processing apparatus,
14 ... 2nd processing apparatus,
15 ... 3rd processing apparatus,
16 ... Scenario input part,
17 ... synchronous transmission part,
18 ... 1st integrated output part,
19 ... 2nd integrated output part,
20 ... communication section,
21 ... Agent,
32 ... CPU,
33 ... storage unit,
34 ... input section,
35 ... output section,
36 ... Program reading part,
37 ... Bus,
38 ... Program recording medium.

Claims (12)

情報処理動作の動作内容を指示するテキスト情報が記憶されているテキスト情報記憶手段と、
上記テキスト情報記憶手段から上記テキスト情報を読み出し、この読み出されたテキスト情報で指示された動作内容を取得し、この取得した動作内容に従って情報処理動作を実行する動作実行手段と、
上記動作実行手段からの指示に従って、他の装置から送出される同期情報を検出する同期検出手段と
を備え、
上記動作実行手段は、上記テキスト情報上における予め設定された位置で、上記同期検出手段を介して取得した同期情報に基づいて、上記他の装置が実行する情報処理動作との同期を取りながら、上記情報処理動作を実行することを特徴とする情報処理装置。
Text information storage means for storing text information for instructing the operation content of the information processing operation;
Operation execution means for reading out the text information from the text information storage means, acquiring the operation content instructed by the read text information, and executing an information processing operation according to the acquired operation content;
Synchronization detection means for detecting synchronization information sent from another device in accordance with an instruction from the operation execution means,
The operation execution means is synchronized with the information processing operation executed by the other device based on the synchronization information acquired through the synchronization detection means at a preset position on the text information. An information processing apparatus that performs the information processing operation.
請求項1に記載の情報処理装置において、
上記テキスト情報には、上記他の装置が実行する情報処理動作との同期をとるべき位置を指定する同期命令が記述されており、
上記動作実行手段は、現在実行している情報処理動作の上記テキスト情報上における位置が上記同期命令に至ると、上記同期検出手段を介して上記同期情報を取得して上記他の装置が実行する情報処理動作との同期を取るようになっていることを特徴とする情報処理装置。
The information processing apparatus according to claim 1,
In the text information, a synchronization command for specifying a position to be synchronized with the information processing operation executed by the other device is described.
When the position of the currently executed information processing operation on the text information reaches the synchronization command, the operation execution unit acquires the synchronization information via the synchronization detection unit and executes the other device. An information processing apparatus characterized by being synchronized with an information processing operation.
請求項2に記載の情報処理装置において、
上記動作実行手段は、上記同期検出手段を介して取得した上記同期情報と当該同期命令との比較から、現在実行している情報処理動作が上記他の装置が実行する情報処理動作に比して先行しているか否かを判断し、先行している場合には上記他の装置が実行している情報処理動作の終了を待つ待ち合わせ動作を行うことによって、上記他の装置が実行する情報処理動作との同期を取るようになっていることを特徴とする情報処理装置。
The information processing apparatus according to claim 2,
The operation execution means compares the synchronization information acquired through the synchronization detection means with the synchronization instruction, and the currently executed information processing operation is compared with the information processing operation executed by the other device. Information processing operation performed by the other device by determining whether it is ahead, and performing a waiting operation to wait for the end of the information processing operation performed by the other device if it is ahead An information processing apparatus that is adapted to be synchronized with the information processing apparatus.
請求項2に記載の情報処理装置において、
上記動作実行手段は、上記同期検出手段を介して取得した上記同期情報と当該同期命令との比較から、現在実行している情報処理動作が上記他の装置が実行する情報処理動作に比して遅れているか否かを判断し、遅れている場合には現在実行している情報処理動作を急ぐ急ぎの動作を行うことによって、上記他の装置が実行する情報処理動作との同期を取るようになっていることを特徴とする情報処理装置。
The information processing apparatus according to claim 2,
The operation execution means compares the synchronization information acquired through the synchronization detection means with the synchronization instruction, and the currently executed information processing operation is compared with the information processing operation executed by the other device. It is determined whether or not it is delayed, and if it is delayed, the information processing operation currently being executed is performed in a hurry to synchronize with the information processing operation executed by the other device. An information processing apparatus characterized by being configured.
請求項2に記載の情報処理装置において、
上記動作実行手段は、上記同期検出手段を介して取得した上記同期情報と当該同期命令との比較から、現在実行している情報処理動作が上記他の装置が実行する情報処理動作に比して先行しているか遅れているかを判断し、先行している場合には上記他の装置が実行している情報処理動作の終了を待つ待ち合わせ動作を行い、遅れている場合には現在実行している情報処理動作を急ぐ急ぎの動作を行うことによって、上記他の装置が実行する情報処理動作との同期を取るようになっていることを特徴とする情報処理装置。
The information processing apparatus according to claim 2,
The operation execution means compares the synchronization information acquired through the synchronization detection means with the synchronization instruction, and the currently executed information processing operation is compared with the information processing operation executed by the other device. Judge whether it is ahead or behind, and if it is ahead, waits for the end of the information processing operation being executed by the other device, and if it is behind, it is currently running An information processing apparatus characterized in that the information processing operation is performed in a hurry to synchronize with an information processing operation performed by the other apparatus.
請求項5に記載の情報処理装置において、
上記同期検出手段を介して得られる同期情報には、次の同期位置までの予測時間を表す情報が含まれており、
上記動作実行手段は、現在実行している情報処理動作が上記他の装置が実行する情報処理動作に比して先行しているか遅れているかを判断する際に、上記同期情報に含まれた次の同期位置までの予測時間を表す情報に基づいて上記先行あるいは遅れの度合いを求め、この度合いに応じて現在実行している情報処理動作の動作速度を連続的に切り換えるようになっていることを特徴とする情報処理装置。
The information processing apparatus according to claim 5,
The synchronization information obtained through the synchronization detection means includes information representing the predicted time to the next synchronization position,
The operation execution means determines whether the currently executed information processing operation is ahead of or behind the information processing operation executed by the other device. The degree of advance or delay is obtained based on information representing the predicted time to the synchronization position, and the operation speed of the currently executed information processing operation is continuously switched according to this degree. A characteristic information processing apparatus.
請求項1に記載の情報処理装置において、
上記テキスト情報には、上記同期をとるべき位置と、現在実行している情報処理動作が上記他の装置が実行する情報処理動作に比して先行している場合に実行する情報処理動作および遅れている場合に実行する情報処理動作の少なくとも一方とを指定する同期命令が記述されており、
上記動作実行手段は、現在実行している情報処理動作の上記テキスト情報上における位置が上記同期命令に至ると、上記同期検出手段を介して上記同期情報を取得すると共に、この取得した同期情報と当該同期命令との比較から、現在実行している情報処理動作が上記他の装置が実行する情報処理動作に比して先行しているか遅れているかを判断し、この判断結果に応じて当該同期命令が指定する情報処理動作を行うことによって、上記他の装置が実行する情報処理動作との同期を取るようになっていることを特徴とする情報処理装置。
The information processing apparatus according to claim 1,
The text information includes the position to be synchronized, and the information processing operation and delay to be executed when the information processing operation currently being executed precedes the information processing operation executed by the other device. A synchronization instruction that specifies at least one of the information processing operations to be executed is described.
When the position of the currently executed information processing operation on the text information reaches the synchronization command, the operation execution unit acquires the synchronization information via the synchronization detection unit, and the acquired synchronization information From the comparison with the synchronization command, it is determined whether the information processing operation currently being executed is ahead or behind the information processing operation executed by the other device, and the synchronization is performed according to the determination result. An information processing apparatus, wherein an information processing operation specified by an instruction is performed to synchronize with an information processing operation executed by the other apparatus.
請求項1に記載の情報処理装置において、
上記テキスト情報は、現在実行している情報処理動作が上記他の装置が実行する情報処理動作に同期している場合に実行する情報処理動作の動作内容を指示する部分と、現在実行している情報処理動作が上記他の装置が実行する情報処理動作に比して先行している場合に実行する情報処理動作の動作内容および遅れている場合に実行する情報処理動作の動作内容の少なくとも一方を指示する部分とを含むと共に、上記同期を取るべき位置を指定する同期命令が付加されており、
上記動作実行手段は、現在実行している情報処理動作の上記テキスト情報上における位置が上記同期命令に至ると、上記同期検出手段を介して上記同期情報を取得すると共に、この取得した同期情報と当該同期命令との比較から、現在実行している情報処理動作が上記他の装置が実行する情報処理動作に比して先行しているか遅れているかを判断し、当該テキスト情報における上記判断結果に応じた部分で指示された情報処理動作を行うことによって、上記他の装置が実行する情報処理動作との同期を取るようになっていることを特徴とする情報処理装置。
The information processing apparatus according to claim 1,
The text information includes a part that indicates an operation content of an information processing operation to be executed when the information processing operation currently being executed is synchronized with the information processing operation executed by the other device, and the currently executed information. At least one of the operation content of the information processing operation executed when the information processing operation precedes the information processing operation executed by the other device and the operation content of the information processing operation executed when the information processing operation is delayed. And a synchronization command that specifies the position to be synchronized is added.
When the position of the currently executed information processing operation on the text information reaches the synchronization command, the operation execution unit acquires the synchronization information via the synchronization detection unit, and the acquired synchronization information From the comparison with the synchronization command, it is determined whether the information processing operation currently being executed is ahead or behind the information processing operation executed by the other device. An information processing apparatus characterized in that an information processing operation designated by a corresponding part is performed to synchronize with an information processing operation executed by the other apparatus.
請求項1に記載の情報処理装置において、
上記動作実行手段は複数存在すると共に、夫々の動作実行手段は上記同期検出手段に対して上記同期情報を送出するようになっており、
上記同期検出手段は、上記夫々の動作実行手段からの指示を受け付けて、少なくとも上記各動作実行手段のうちの何れかから送出された同期情報を検出するようになっている
ことを特徴とする情報処理装置。
The information processing apparatus according to claim 1,
There are a plurality of the operation execution means, and each operation execution means sends the synchronization information to the synchronization detection means.
The synchronization detection means receives an instruction from each of the operation execution means and detects synchronization information transmitted from at least one of the operation execution means. Processing equipment.
請求項1に記載の情報処理装置において、
上記動作実行手段が処理する情報は、画像情報,音声情報,音楽情報,機器の制御情報およびロボットの制御情報のうちの何れか1つであることを特徴とする情報処理装置。
The information processing apparatus according to claim 1,
The information processed by the operation execution means is any one of image information, audio information, music information, device control information, and robot control information.
コンピュータを、
請求項1におけるテキスト情報記憶手段,動作実行手段および同期検出手段
として機能させることを特徴とする情報処理プログラム。
Computer
An information processing program that functions as a text information storage unit, an operation execution unit, and a synchronization detection unit according to claim 1.
請求項11に記載の情報処理プログラムが記録されたことを特徴とするコンピュータ読出し可能なプログラム記録媒体。   A computer-readable program recording medium on which the information processing program according to claim 11 is recorded.
JP2004345932A 2004-11-30 2004-11-30 Information processor, information processing program and program recording medium Pending JP2006155299A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004345932A JP2006155299A (en) 2004-11-30 2004-11-30 Information processor, information processing program and program recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004345932A JP2006155299A (en) 2004-11-30 2004-11-30 Information processor, information processing program and program recording medium

Publications (1)

Publication Number Publication Date
JP2006155299A true JP2006155299A (en) 2006-06-15

Family

ID=36633518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004345932A Pending JP2006155299A (en) 2004-11-30 2004-11-30 Information processor, information processing program and program recording medium

Country Status (1)

Country Link
JP (1) JP2006155299A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011158435A1 (en) * 2010-06-18 2011-12-22 パナソニック株式会社 Audio control device, audio control program, and audio control method
JP2012532390A (en) * 2009-07-10 2012-12-13 オルドウバラン、ロボティクス エス、ア System and method for generating contextual motion of a mobile robot

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012532390A (en) * 2009-07-10 2012-12-13 オルドウバラン、ロボティクス エス、ア System and method for generating contextual motion of a mobile robot
WO2011158435A1 (en) * 2010-06-18 2011-12-22 パナソニック株式会社 Audio control device, audio control program, and audio control method
JP5643821B2 (en) * 2010-06-18 2014-12-17 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Voice control device and voice control method
US8976973B2 (en) 2010-06-18 2015-03-10 Panasonic Intellectual Property Corporation Of America Sound control device, computer-readable recording medium, and sound control method

Similar Documents

Publication Publication Date Title
KR100240637B1 (en) Syntax for tts input data to synchronize with multimedia
JP6665446B2 (en) Information processing apparatus, program, and speech synthesis method
GB2380599A (en) System and method for media production
US10468004B2 (en) Information processing method, terminal device and computer storage medium
JP5045519B2 (en) Motion generation device, robot, and motion generation method
JPH11339058A (en) Portrait interactive device and recording medium for recording portrait interactive program
JP5910379B2 (en) Information processing apparatus, information processing method, display control apparatus, and display control method
JP3877371B2 (en) Video playback device
JP2007033200A (en) Wrist watch, display method of wrist watch, and program
JP2006155299A (en) Information processor, information processing program and program recording medium
JP2982697B2 (en) Telop display
JP2003216173A (en) Method, device and program of synchronous control of synthetic voice and video
JP2001005476A (en) Presentation device
JP6438148B2 (en) Image display device
JP7024027B1 (en) Video creation device, video creation system and video creation program
JP5381994B2 (en) Information processing device
JP7279861B2 (en) Transmission device, communication method, and program
JP4563418B2 (en) Audio processing apparatus, audio processing method, and program
KR100275529B1 (en) Text/voice converter and method using trick mode
JP2016012098A (en) Electronic book reproduction device and electronic book reproduction program
JP2000322590A (en) Method and device for animation processing and recording medium with animation processing program recorded thereon
JP2005332486A (en) Summarized program producing apparatus, and summarized program producing program
JPH0876967A (en) Device for controlling synchronization multimedia
JP5055220B2 (en) Image display device and image display method
JP2008165128A (en) Music editing device and music editing program