JP2007328806A - Display control device and display control processing program - Google Patents

Display control device and display control processing program Download PDF

Info

Publication number
JP2007328806A
JP2007328806A JP2007196114A JP2007196114A JP2007328806A JP 2007328806 A JP2007328806 A JP 2007328806A JP 2007196114 A JP2007196114 A JP 2007196114A JP 2007196114 A JP2007196114 A JP 2007196114A JP 2007328806 A JP2007328806 A JP 2007328806A
Authority
JP
Japan
Prior art keywords
text
image
data
mouth
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007196114A
Other languages
Japanese (ja)
Other versions
JP4591481B2 (en
Inventor
Yoshiyuki Murata
嘉行 村田
Takashi Koshiro
孝 湖城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007196114A priority Critical patent/JP4591481B2/en
Publication of JP2007328806A publication Critical patent/JP2007328806A/en
Application granted granted Critical
Publication of JP4591481B2 publication Critical patent/JP4591481B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a voice display output control device for synchronously outputting data such as a voice, a text or an image wherein voice output, text display and pronunciation image display are easily synchronously output when synchronously outputting the text data, the voice data and the image data. <P>SOLUTION: When synchronous reproduction output of the text, the voice, and the image constituted by a plurality of conversation parts is performed, a mouth image corresponding to the read character is displayed on a mouth position of a plurality of displayed human images M1, M2 and M3 in accordance with text display for each of parts such as conversations as a reproduction target, and a user can surely know which human image reads and which character part is read, and can effectively practice the conversation. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、音声,テキスト,画像などのデータを同期出力するための音声表示出力制御装置、編集装置、音声テキスト再生装置、および音声表示出力制御処理プログラム、編集処理プログラム、音声テキスト再生処理プログラムに関する。   The present invention relates to a voice display output control device, an editing device, a voice text playback device, a voice display output control processing program, an editing processing program, and a voice text playback processing program for synchronously outputting data such as voice, text, and images. .

従来、音楽,テキスト,画像などを同時並行して再生する技術としては、例えばMPEG−3により情報圧縮された音声ファイルのフレーム毎に、当該各フレームに設けられた付加データエリアに対して、音声ファイルに同期再生すべきテキストファイルや画像ファイルの同期情報を埋め込んでおくことにより、例えばカラオケの場合では、カラオケ音声とそのイメージ画像および歌詞のテキストを同期再生するものがある。   Conventionally, as a technique for reproducing music, text, images, and the like simultaneously in parallel, for example, for each frame of an audio file information-compressed by MPEG-3, audio is added to an additional data area provided in each frame. By embedding synchronization information of a text file or an image file to be synchronized and reproduced in a file, for example, in the case of karaoke, there is one that synchronizes and reproduces a karaoke voice and its image image and lyrics text.

また、音声に対する文字の時間的な対応情報が予め用意されていることを前提に、当該音声信号の特徴量を抽出し対応する文字と関連付けて表示する装置も考えられている。(例えば、特許文献1参照。)   In addition, on the assumption that temporal correspondence information of characters with respect to speech is prepared in advance, a device that extracts the feature amount of the speech signal and displays it in association with the corresponding character is also considered. (For example, refer to Patent Document 1.)

特公平06−025905号公報Japanese Patent Publication No. 06-025905

しかしながら、このように従来行われているMPEGファイルの付加データエリアを利用した複数種類のファイルの同期再生技術では、同期情報の埋め込みが主たるMP3音声ファイルの各フレーム毎の付加データエリアに規定されるため、当該MP3音声ファイルを再生させない限り同期情報を取り出すことが出来ず、MP3ファイルの再生を軸としてしか他の種類のファイルの同期再生を行うことが出来ない。   However, in the conventional synchronized reproduction technology of a plurality of types of files using the additional data area of the MPEG file as described above, the synchronization data is mainly embedded in the additional data area for each frame of the MP3 audio file. Therefore, unless the MP3 audio file is reproduced, the synchronization information cannot be extracted, and other types of files can be synchronized and reproduced only with the reproduction of the MP3 file as an axis.

このため、例えばMP3音声ファイルにテキストファイルおよび画像ファイルの同期情報を埋め込んだ場合に、音声ファイルの再生を行わない期間にあっても無音声のデータとして音声再生処理を継続的に行っていないと同期対象テキストおよび画像の再生を行うことが出来ない問題がある。   For this reason, for example, when the synchronization information of a text file and an image file is embedded in an MP3 audio file, the audio reproduction process is not continuously performed as silent data even during a period in which the audio file is not reproduced. There is a problem that it is not possible to reproduce the synchronization target text and image.

例えば英会話テキストによってヒヤリング練習やリーディング練習を行う際は、テキストの表示および当該テキストの読み上げ音声の出力と共に、具体的にどのような発音をすれば良いのか明確に示すための画像表示を行う方が望ましい。しかし、このようなMP3音声ファィルによる英会話テキストを作成した場合、当該MP3音声ファィルの各フレーム毎に対応部分の英文テキスト,発音表示のための画像の同期情報を埋め込んでおく必要があるばかりか、リーディング練習用として無音声期間を設定しても、前述した通り、当該無音声期間でも音声再生処理を継続して行わないと該当期間のテキスト,画像表示を行うことができない。   For example, when you practice listening or reading with English conversation text, it is better to display an image to clearly indicate what pronunciation should be done, along with the display of the text and the output of the text to be read out. desirable. However, when creating an English conversation text using such an MP3 audio file, it is necessary not only to embed corresponding text in English text and image synchronization information for pronunciation display for each frame of the MP3 audio file. Even if a silent period is set for reading practice, as described above, text and images cannot be displayed during the silent period unless the voice reproduction process is continued.

また、前記従来の特許文献1に記載の装置にあっても、音声信号に対応する文字が予め関連付けされて音声及び文字の同期再生が成されるだけであるため、音声出力及び文字を同期表示させるのと共に、対応画像を同期表示させたりすることはできない。   Further, even in the conventional device described in Patent Document 1, since the characters corresponding to the audio signal are associated in advance and only the voice and characters are reproduced synchronously, the audio output and the characters are synchronously displayed. In addition, the corresponding image cannot be displayed synchronously.

一方、カラオケのモニタなど、音声出力と同期して文字列や背景画像などを表示するものもあるが、前述したMP3ファイルのように、音声,文字列,画像それぞれ別々でそのもののデータを予め合わせて組み込んだ同期再生用のファイルを作成しなければならない。   On the other hand, some karaoke monitors display character strings and background images in synchronization with audio output. However, as in the MP3 file described above, the sound, character strings, and images are separately combined in advance. A file for synchronized playback must be created.

本発明は、前記のような問題に鑑みてなされたもので、テキストデータと音声データと画像データとの同期出力に際し、音声出力、テキスト表示、発音用画像表示を簡単に同期して出力することが可能になる音声表示出力制御装置、編集装置、音声テキスト再生装置、および音声表示出力制御処理プログラム、編集処理プログラム、音声テキスト再生処理プログラムを提供することを目的とる。   The present invention has been made in view of the above-described problems. When synchronous output of text data, audio data, and image data, audio output, text display, and pronunciation image display are easily output in synchronization. An object is to provide a voice display output control device, an editing device, a voice text reproduction device, a voice display output control processing program, an editing processing program, and a voice text reproduction processing program.

すなわち、本発明の請求項1に係る音声表示出力制御装置では、音声データ出力手段により出力される音声データに同期するようにテキスト同期表示制御手段によりテキストデータが表示され、この音声データに同期するように表示されるテキストの同期表示部分に対応して画像表示制御手段により口の動きを表現する画像が表示される。   That is, in the voice display output control device according to the first aspect of the present invention, the text data is displayed by the text synchronization display control means so as to be synchronized with the voice data output by the voice data output means, and is synchronized with the voice data. Thus, an image expressing mouth movement is displayed by the image display control means corresponding to the synchronous display portion of the displayed text.

これによれば、音声出力に対応するテキスト表示が同期するように行われるだけでなく、当該音声,テキストに対応した口の動きの表現画像をも表示できることになる。   According to this, not only the text display corresponding to the voice output is synchronized, but also the expression image of the mouth movement corresponding to the voice and the text can be displayed.

また、本発明の請求項2に係る音声表示出力制御装置は、前記請求項1に係る音声表示出力制御装置にあって、前記画像表示制御手段には、前記テキストデータの各部に応じて異なる口の動きを表現した複数の画像を記憶する画像記憶手段が備えられ、前記テキスト同期表示制御手段により音声データに同期するように表示されるテキストの同期表示部分に対応した画像が前記画像記憶手段により記憶された複数の画像の中から読み出されて表示される。   A voice display output control device according to a second aspect of the present invention is the voice display output control device according to the first aspect, wherein the image display control means has different mouths depending on each part of the text data. Image storage means for storing a plurality of images expressing the movement of the image, and an image corresponding to a synchronous display portion of the text displayed so as to be synchronized with audio data by the text synchronous display control means is provided by the image storage means. It is read out from a plurality of stored images and displayed.

これによれば、テキストデータの各部に応じて異なる口の動きを表現した複数の画像の中から、音声出力,テキスト表示に最も対応した口の動きの表現画像を表示できることになる。   According to this, it is possible to display an expression image of mouth movement most corresponding to voice output and text display from a plurality of images expressing mouth movements that differ depending on each part of the text data.

また、本発明の請求項3に係る音声表示出力制御装置は、前記請求項1に係る音声表示出力制御装置にあって、前記画像表示制御手段として、画像を表示する画像表示手段と、種々の発音に応じて異なる口の動きを表現した複数の口画像を記憶する口画像記憶手段とが備えられ、テキスト同期表示制御手段により音声データに同期するように表示されるテキストの同期表示部分の発音に対応した口画像が口画像表示制御手段によって前記口画像記憶手段により記憶された複数の口画像の中から読み出され、前記画像表示手段により表示された画像の口の位置に表示される。   An audio display output control apparatus according to claim 3 of the present invention is the audio display output control apparatus according to claim 1, wherein the image display control means includes an image display means for displaying an image, Mouth image storage means for storing a plurality of mouth images expressing different mouth movements according to pronunciation, and pronunciation of a synchronous display portion of text displayed to be synchronized with voice data by a text synchronization display control means The mouth image corresponding to is read from the plurality of mouth images stored by the mouth image storage means by the mouth image display control means and displayed at the mouth position of the image displayed by the image display means.

これによれば、テキストデータの各部の発音に応じて異なる口の動きを表現した複数の画像の中から、音声出力,テキスト表示部分の発音に最も対応した口の動きの表現画像を、表示されている画像の口の位置に表示できることになる。   According to this, the expression image of the mouth movement most corresponding to the sound output and the pronunciation of the text display portion is displayed from among a plurality of images expressing the mouth movements different according to the pronunciation of each part of the text data. Can be displayed at the mouth position of the image.

また、本発明の請求項4に係る音声表示出力制御装置は、前記請求項3に係る音声表示出力制御装置にあって、前記口画像記憶手段には、種々の発音に応じて異なる口の動きを表現した複数の口画像と共に、この複数の口画像のそれぞれに対応付けて当該口の内部画像が記憶される。そして、前記口画像表示制御手段により表示された口画像に対応して、口内拡大表示手段により当該口の内部画像が読み出されて拡大表示される。   The voice display output control device according to claim 4 of the present invention is the voice display output control device according to claim 3, wherein the mouth image storage means has different mouth movements according to various pronunciations. And an internal image of the mouth is stored in association with each of the plurality of mouth images. Corresponding to the mouth image displayed by the mouth image display control means, the inside image of the mouth is read and enlarged and displayed by the mouth enlargement display means.

これによれば、テキストデータの各部の発音に応じて異なる口の動きを表現した複数の画像の中から、音声出力,テキスト表示部分の発音に最も対応した口の動きの表現画像を、表示されている画像の口の位置に表示できるだけでなく、その発音に対応する口の内部画像も明確に表示できることになる。   According to this, the expression image of the mouth movement most corresponding to the sound output and the pronunciation of the text display portion is displayed from among a plurality of images expressing the mouth movements different according to the pronunciation of each part of the text data. In addition to being displayed at the position of the mouth of the image, the internal image of the mouth corresponding to the pronunciation can be clearly displayed.

また、本発明の請求項5に係る音声表示出力制御装置は、前記請求項1乃至請求項4の何れか1項に係る音声表示出力制御装置にあって、前記テキスト同期表示制御手段には、予め設定された経過時間に従い前記テキストデータを前記音声データ出力手段により出力される音声データに同期するように表示させるための命令コードを記憶する命令コード記憶手段が備えられ、この命令コード記憶手段により記憶された命令コードに応じて、前記テキストデータが音声データに同期するように表示される。そして、前記画像表示制御手段では、前記命令コード記憶手段により記憶された命令コードに応じて音声,テキストに対応した画像の表示が行われる。   A voice display output control apparatus according to claim 5 of the present invention is the voice display output control apparatus according to any one of claims 1 to 4, wherein the text synchronous display control means includes: Instruction code storage means for storing an instruction code for causing the text data to be displayed in synchronization with the voice data output by the voice data output means in accordance with a preset elapsed time is provided. In accordance with the stored instruction code, the text data is displayed so as to be synchronized with the voice data. The image display control means displays an image corresponding to voice and text according to the instruction code stored by the instruction code storage means.

これによれば、命令コード記憶手段により記憶された命令コードによる設定経過時間に応じた指示に従い、テキストデータおよび当該テキストに対応した画像を音声データに同期させて表示できることになる。   According to this, the text data and the image corresponding to the text can be displayed in synchronization with the audio data in accordance with the instruction according to the set elapsed time by the instruction code stored by the instruction code storage means.

また、本発明の請求項6に係る音声表示出力制御処理プログラムでは、当該プログラムを電子機器のコンピュータにインストールすることで、この電子機器のコンピュータにおいて、音声データ出力手段により出力される音声データに同期するようにテキスト同期表示制御手段によりテキストデータが表示され、この音声データに同期するように表示されるテキストの同期表示部分に対応して画像表示制御手段により口の動きを表現する画像が表示される。   In the audio display output control processing program according to claim 6 of the present invention, the program is installed in the computer of the electronic device so that the computer of the electronic device synchronizes with the audio data output by the audio data output means. Thus, text data is displayed by the text synchronous display control means, and an image expressing mouth movement is displayed by the image display control means corresponding to the synchronous display portion of the text displayed so as to be synchronized with the voice data. The

これにより電子機器では、音声出力に対応するテキスト表示が同期するように行われるだけでなく、当該音声,テキストに対応した口の動きの表現画像をも表示できることになる。   As a result, in the electronic device, not only the text display corresponding to the voice output is synchronized, but also the expression image of the mouth movement corresponding to the voice and the text can be displayed.

また、本発明の請求項7に係る編集装置は、音声にテキストと画像を同期させて出力させるための対応データを編集する編集装置であって、種々の音声データに対応付けてそれぞれ異なる複数の口の画像を記憶する口画像記憶手段を有し、対応データ編集手段により、出力対象のテキストに応じた音声データに対応付けられて前記口画像記憶手段により記憶された口の画像が読み出され、当該出力対象のテキストまたは音声データの位置に対応付けて記憶される。   An editing apparatus according to claim 7 of the present invention is an editing apparatus that edits correspondence data for outputting a text and an image in synchronization with voice, and is associated with various audio data, and is different from each other. Mouth image storage means for storing the mouth image is stored, and the corresponding data editing means reads the mouth image stored in the mouth image storage means in association with the voice data corresponding to the text to be output. And stored in association with the position of the text or audio data to be output.

これによれば、音声にテキストと画像を同期させて出力させるための対応データとして、出力対象のテキストに応じた音声データに対応する口の画像を、当該出力対象のテキストまたは音声データの位置に対応付けて記憶し編集できることになる。   According to this, as the corresponding data for outputting the text and the image in synchronization with the voice, the mouth image corresponding to the voice data corresponding to the output target text is placed at the position of the output target text or voice data. It can be stored and edited in association with each other.

また、本発明の請求項8に係る音声テキスト再生装置は、前記請求項7に係る編集装置を備えた音声テキスト再生装置であって、同期再生手段により前記音声にテキストが同期されて出力されるのと共に、前記対応データ編集手段により記憶された対応データに基づいて、出力対象のテキストに対応付けられた口の画像が読み出されて表示される。   An audio text reproduction apparatus according to claim 8 of the present invention is an audio text reproduction apparatus provided with the editing apparatus according to claim 7, wherein the text is synchronized with the audio and output by the synchronous reproduction means. At the same time, based on the correspondence data stored by the correspondence data editing means, the mouth image associated with the text to be output is read and displayed.

これによれば、編集された対応データに基づいて、音声およびテキストの同期出力に対応させた口の画像を容易に表示できることになる。   According to this, it is possible to easily display the mouth image corresponding to the synchronized output of the voice and the text based on the edited correspondence data.

また、本発明の請求項9に係るテキスト再生装置では、複数の見出語と当該各見出語に対応付けて口の画像データを記憶する辞書記憶手段が備えられ、見出語検索手段により前記辞書記憶手段に記憶された見出語が検索されると、この検索された見出語と共に当該見出語に対応付けられて前記辞書記憶手段により記憶された口の画像データが表示制御手段により読み出され、その見出語の各文字と口の画像データとが順次同期表示される。   The text reproduction apparatus according to claim 9 of the present invention further includes a dictionary storage unit that stores a plurality of headwords and image data of the mouth in association with the headwords. When the headword stored in the dictionary storage means is searched, the mouth image data stored in the dictionary storage means in association with the headword is displayed together with the searched headword. The characters of the headword and the image data of the mouth are sequentially displayed in synchronization with each other.

これによれば、辞書検索に伴い検索した見出語と共にその見出語に対応する発音口型などの口の画像データを同期して表示できることになる。   According to this, it is possible to synchronously display mouth image data such as a pronunciation mouth type corresponding to the headword together with the headword searched with the dictionary search.

また、本発明の請求項10に係る音声テキスト再生装置では、複数の見出語と当該各見出語に対応付けて音声データと口の画像データを記憶する辞書記憶手段が備えられ、見出語検索手段により前記辞書記憶手段に記憶された見出語が検索されると、この検索された見出語に対応付けられて前記辞書記憶手段により記憶された音声データが音声出力手段により出力され、また当該見出語に対応付けられて前記辞書記憶手段により記憶された口の画像データが表示制御手段により読み出され、前記音声出力に同期してその見出語と口の画像データが順次同期表示される。   The speech text reproduction apparatus according to claim 10 of the present invention further includes dictionary storage means for storing voice data and mouth image data in association with a plurality of headwords and the headwords. When the word search means searches for the headword stored in the dictionary storage means, the voice data stored in the dictionary storage means in association with the searched headword is output by the voice output means. Further, the mouth image data associated with the headword and stored by the dictionary storage means is read by the display control means, and the headword and mouth image data are sequentially sequentially synchronized with the voice output. Displayed synchronously.

これによれば、辞書検索に伴い検索した見出語表示と共にその見出語に対応する音声同期出力およびその発音口型などの口画像同期表示ができることになる。   According to this, it is possible to display the headword searched in accordance with the dictionary search, and the voice synchronized output corresponding to the headword and the mouth image synchronous display such as the pronunciation mouth type.

また、本発明の請求項11に係る編集処理プログラムでは、当該プログラムを電子機器のコンピュータにインストールすることで、この電子機器のコンピュータにおいて、種々の音声データに対応付けてそれぞれ異なる複数の口の画像を記憶する口画像記憶手段が備えられ、対応データ編集手段により、出力対象のテキストに応じた音声データに対応付けられて前記口画像記憶手段により記憶された口の画像が読み出され、当該出力対象のテキストまたは音声データの位置に対応付けて記憶される。   In the editing processing program according to the eleventh aspect of the present invention, by installing the program in the computer of the electronic device, the computer of the electronic device has a plurality of different mouth images associated with various audio data. Mouth image storage means is stored, and the corresponding data editing means reads the mouth image stored in the mouth image storage means in association with the voice data corresponding to the text to be output, and the output It is stored in association with the position of the target text or audio data.

これにより電子機器では、音声にテキストと画像を同期させて出力させるための対応データとして、出力対象のテキストに応じた音声データに対応する口の画像を、当該出力対象のテキストまたは音声データの位置に対応付けて記憶し編集できることになる。   Accordingly, in the electronic device, as the corresponding data for outputting the text and the image in synchronization with the voice, the mouth image corresponding to the voice data corresponding to the text to be output is converted to the position of the text or the voice data to be output. It is possible to store and edit in association with each other.

また、本発明の請求項12に係る音声テキスト再生処理プログラムは、前記請求項11に係る編集処理プログラムを備えた音声テキスト再生処理プログラムであり、当該プログラムを電子機器のコンピュータにインストールすることで、この電子機器のコンピュータにおいて、同期再生手段により音声にテキストが同期されて出力されるのと共に、対応データ編集手段により記憶された対応データに基づいて、出力対象のテキストに対応付けられた口の画像が読み出されて表示される。   A speech text reproduction processing program according to claim 12 of the present invention is a speech text reproduction processing program including the editing processing program according to claim 11, and the program is installed in a computer of an electronic device. In the computer of the electronic device, the synchronized reproduction means outputs the text in synchronization with the voice, and the mouth image associated with the output target text based on the correspondence data stored by the correspondence data editing means. Is read and displayed.

これにより電子機器では、編集された対応データに基づいて、音声およびテキストの同期出力に対応させた口の画像を容易に表示できることになる。   Thus, the electronic device can easily display the mouth image corresponding to the synchronized output of the voice and the text based on the edited correspondence data.

また、本発明の請求項13に係る音声表示出力制御装置では、テキストの発音記号と口型画像とを対応付けて複数組み記憶している第1の記憶手段と、文字と音声とを対応付けて複数組み記憶している第2の記憶手段とが備えられ、第1の制御手段により前記第2の記憶手段に記憶されている音声が外部に順次出力されると共に、この出力される音声に同期して前記第2の記憶手段に対応付けて記憶されている文字が順次識別表示される。するとこの第1の制御手段の制御により順次識別表示される文字に同期して、第2の制御手段により当該識別表示される文字の発音記号に対応して前記第1の記憶手段に対応付けて記憶されている口型画像が読み出され、この読み出された口型画像が順次切換表示される。   In the voice display output control device according to the thirteenth aspect of the present invention, the first storage means that stores a plurality of sets of text phonetic symbols and mouth-type images in association with each other, and the characters and voices are associated with each other. A plurality of sets of second storage means, and the first control means sequentially outputs the sound stored in the second storage means to the outside and outputs the sound to the output sound. Synchronously, the characters stored in association with the second storage means are sequentially identified and displayed. Then, in synchronization with the characters sequentially identified and displayed by the control of the first control means, the second control means is associated with the first storage means in correspondence with the phonetic symbols of the characters to be identified and displayed. The stored mouth shape image is read out, and the read mouth shape images are sequentially switched and displayed.

これによれば、音声を順次出力するのに同期してこれに対応記憶されている文字を順次識別表示でき、さらに、この順次識別表示される文字に同期して、当該識別表示文字の発音記号に対応した口型画像を順次切換表示できることになる。   According to this, it is possible to sequentially identify and display the characters stored correspondingly in synchronism with the sequential output of the voice, and further, to synchronize with the sequentially identified and displayed characters, the phonetic symbols of the identification display characters It is possible to sequentially switch and display the mouth type images corresponding to.

以上のように、本発明の請求項1に係る音声表示出力制御装置によれば、音声データ出力手段により出力される音声データに同期するようにテキスト同期表示制御手段によりテキストデータが表示され、この音声データに同期するように表示されるテキストの同期表示部分に対応して画像表示制御手段により口の動きを表現する画像が表示されるので、音声出力に対応するテキスト表示が同期するように行われるだけでなく、当該音声,テキストに対応した口の動きの表現画像をも表示できるようになる。   As described above, according to the voice display output control device of the first aspect of the present invention, the text data is displayed by the text synchronous display control means so as to be synchronized with the voice data output by the voice data output means. An image representing the movement of the mouth is displayed by the image display control means corresponding to the synchronous display portion of the text displayed so as to be synchronized with the voice data, so that the text display corresponding to the voice output is synchronized. In addition to this, it is possible to display an expression image of mouth movement corresponding to the voice and text.

また、本発明の請求項2に係る音声表示出力制御装置によれば、前記請求項1に係る音声表示出力制御装置にあって、前記画像表示制御手段には、前記テキストデータの各部に応じて異なる口の動きを表現した複数の画像を記憶する画像記憶手段が備えられ、前記テキスト同期表示制御手段により音声データに同期するように表示されるテキストの同期表示部分に対応した画像が前記画像記憶手段により記憶された複数の画像の中から読み出されて表示されるので、テキストデータの各部に応じて異なる口の動きを表現した複数の画像の中から、音声出力,テキスト表示に最も対応した口の動きの表現画像を表示できるようになる。   According to the voice display output control device according to claim 2 of the present invention, in the voice display output control device according to claim 1, the image display control means is provided according to each part of the text data. Image storage means for storing a plurality of images representing different mouth movements is provided, and an image corresponding to a synchronous display portion of text displayed to be synchronized with audio data by the text synchronous display control means is stored in the image storage Since it is read out and displayed from multiple images stored by the means, it is most compatible with audio output and text display from among multiple images that express different mouth movements according to each part of the text data An expression image of mouth movement can be displayed.

また、本発明の請求項3に係る音声表示出力制御装置によれば、前記請求項1に係る音声表示出力制御装置にあって、前記画像表示制御手段として、画像を表示する画像表示手段と、種々の発音に応じて異なる口の動きを表現した複数の口画像を記憶する口画像記憶手段とが備えられ、テキスト同期表示制御手段により音声データに同期するように表示されるテキストの同期表示部分の発音に対応した口画像が口画像表示制御手段によって前記口画像記憶手段により記憶された複数の口画像の中から読み出され、前記画像表示手段により表示された画像の口の位置に表示されるので、テキストデータの各部の発音に応じて異なる口の動きを表現した複数の画像の中から、音声出力,テキスト表示部分の発音に最も対応した口の動きの表現画像を、表示されている画像の口の位置に表示できるようになる。   According to the voice display output control device according to claim 3 of the present invention, the voice display output control device according to claim 1, wherein the image display control means is an image display means for displaying an image; Mouth image storage means for storing a plurality of mouth images expressing different mouth movements according to various pronunciations, and a synchronous display portion of text displayed to be synchronized with voice data by a text synchronization display control means The mouth image corresponding to the pronunciation of the mouth is read from the plurality of mouth images stored by the mouth image storage means by the mouth image display control means and displayed at the mouth position of the image displayed by the image display means. Therefore, from the multiple images that represent different mouth movements according to the pronunciation of each part of the text data, the mouth movement expression image that best corresponds to the sound output and text display part pronunciation , It becomes possible to display the position of the mouth of the image displayed.

また、本発明の請求項4に係る音声表示出力制御装置によれば、前記請求項3に係る音声表示出力制御装置にあって、前記口画像記憶手段には、種々の発音に応じて異なる口の動きを表現した複数の口画像と共に、この複数の口画像のそれぞれに対応付けて当該口の内部画像が記憶される。そして、前記口画像表示制御手段により表示された口画像に対応して、口内拡大表示手段により当該口の内部画像が読み出されて拡大表示されるので、テキストデータの各部の発音に応じて異なる口の動きを表現した複数の画像の中から、音声出力,テキスト表示部分の発音に最も対応した口の動きの表現画像を、表示されている画像の口の位置に表示できるだけでなく、その発音に対応する口の内部画像も明確に表示できるようになる。   According to the voice display output control device according to claim 4 of the present invention, in the voice display output control device according to claim 3, the mouth image storage means has different mouths according to various pronunciations. In addition to a plurality of mouth images representing the movement of the mouth, an internal image of the mouth is stored in association with each of the plurality of mouth images. Then, in response to the mouth image displayed by the mouth image display control means, the inner image of the mouth is read and enlarged and displayed by the mouth enlargement display means, so that it varies depending on the pronunciation of each part of the text data. Out of multiple images that represent mouth movements, not only can you display the mouth movement expression image that best corresponds to the sound output and text display pronunciation at the mouth position of the displayed image, but also its pronunciation The internal image of the mouth corresponding to can be clearly displayed.

また、本発明の請求項5に係る音声表示出力制御装置によれば、前記請求項1乃至請求項4の何れか1項に係る音声表示出力制御装置にあって、前記テキスト同期表示制御手段には、予め設定された経過時間に従い前記テキストデータを前記音声データ出力手段により出力される音声データに同期するように表示させるための命令コードを記憶する命令コード記憶手段が備えられ、この命令コード記憶手段により記憶された命令コードに応じて、前記テキストデータが音声データに同期するように表示される。そして、前記画像表示制御手段では、前記命令コード記憶手段により記憶された命令コードに応じて音声,テキストに対応した画像の表示が行われるので、命令コード記憶手段により記憶された命令コードによる設定経過時間に応じた指示に従い、テキストデータおよび当該テキストに対応した画像を音声データに同期させて表示できるようになる。   According to a voice display output control device according to claim 5 of the present invention, in the voice display output control device according to any one of claims 1 to 4, in the text synchronous display control means, Comprises an instruction code storage means for storing an instruction code for displaying the text data in synchronization with the voice data output by the voice data output means in accordance with a preset elapsed time. The text data is displayed in synchronization with the voice data in accordance with the instruction code stored by the means. The image display control means displays an image corresponding to the voice and text in accordance with the instruction code stored in the instruction code storage means, so that the setting process by the instruction code stored in the instruction code storage means is performed. According to the instruction according to time, the text data and the image corresponding to the text can be displayed in synchronization with the audio data.

また、本発明の請求項6に係る音声表示出力制御処理プログラムによれば、当該プログラムを電子機器のコンピュータにインストールすることで、この電子機器のコンピュータにおいて、音声データ出力手段により出力される音声データに同期するようにテキスト同期表示制御手段によりテキストデータが表示され、この音声データに同期するように表示されるテキストの同期表示部分に対応して画像表示制御手段により口の動きを表現する画像が表示されるので、この電子機器では、音声出力に対応するテキスト表示が同期するように行われるだけでなく、当該音声,テキストに対応した口の動きの表現画像をも表示できるようになる。   According to the voice display output control processing program of claim 6 of the present invention, the voice data output by the voice data output means in the computer of the electronic device by installing the program in the computer of the electronic device. Text data is displayed by the text synchronous display control means so as to be synchronized with the image, and an image expressing mouth movements by the image display control means corresponding to the synchronous display portion of the text displayed so as to be synchronized with the audio data is displayed. Therefore, in this electronic device, not only the text display corresponding to the voice output is synchronized, but also the expression image of the mouth movement corresponding to the voice and the text can be displayed.

また、本発明の請求項7に係る編集装置によれば、音声にテキストと画像を同期させて出力させるための対応データを編集する編集装置であって、種々の音声データに対応付けてそれぞれ異なる複数の口の画像を記憶する口画像記憶手段を有し、対応データ編集手段により、出力対象のテキストに応じた音声データに対応付けられて前記口画像記憶手段により記憶された口の画像が読み出され、当該出力対象のテキストまたは音声データの位置に対応付けて記憶されるので、音声にテキストと画像を同期させて出力させるための対応データとして、出力対象のテキストに応じた音声データに対応する口の画像を、当該出力対象のテキストまたは音声データの位置に対応付けて記憶し編集できるようになる。   The editing device according to claim 7 of the present invention is an editing device that edits correspondence data for outputting a text and an image in synchronism with speech, and is different in correspondence with various speech data. Mouth image storage means for storing a plurality of mouth images, and the corresponding data editing means reads the mouth image stored in the mouth image storage means in association with voice data corresponding to the text to be output. Since it is stored in association with the position of the text or audio data to be output, it corresponds to the audio data corresponding to the text to be output as the corresponding data for outputting the text and the image in synchronization with the audio The mouth image to be stored can be stored and edited in association with the position of the text or audio data to be output.

また、本発明の請求項8に係る音声テキスト再生装置によれば、前記請求項7に係る編集装置を備えた音声テキスト再生装置であって、同期再生手段により前記音声にテキストが同期されて出力されるのと共に、前記対応データ編集手段により記憶された対応データに基づいて、出力対象のテキストに対応付けられた口の画像が読み出されて表示されるので、編集された対応データに基づいて、音声およびテキストの同期出力に対応させた口の画像を容易に表示できるようになる。   According to an eighth aspect of the present invention, there is provided an audio text reproduction device comprising the editing device according to the seventh aspect, wherein the text is synchronized with the audio and output by the synchronous reproduction means. At the same time, based on the correspondence data stored by the correspondence data editing means, the mouth image associated with the text to be output is read and displayed. The mouth image corresponding to the synchronous output of voice and text can be easily displayed.

また、本発明の請求項9に係るテキスト再生装置によれば、複数の見出語と当該各見出語に対応付けて口の画像データを記憶する辞書記憶手段が備えられ、見出語検索手段により前記辞書記憶手段に記憶された見出語が検索されると、この検索された見出語と共に当該見出語に対応付けられて前記辞書記憶手段により記憶された口の画像データが表示制御手段により読み出され、その見出語の各文字と口の画像データとが順次同期表示されるので、辞書検索に伴い検索した見出語と共にその見出語に対応する発音口型などの口の画像データを同期して表示できるようになる。   The text reproduction apparatus according to claim 9 of the present invention further includes dictionary storage means for storing mouth image data in association with a plurality of headwords and the headwords. When the headword stored in the dictionary storage means is retrieved by the means, the mouth image data stored in the dictionary storage means in association with the headword is displayed together with the retrieved headword. Since each character of the headword and the image data of the mouth are sequentially and synchronously read out by the control means, the pronunciation mouth type corresponding to the headword and the headword searched along with the dictionary search Mouth image data can be displayed synchronously.

また、本発明の請求項10に係る音声テキスト再生装置によれば、複数の見出語と当該各見出語に対応付けて音声データと口の画像データを記憶する辞書記憶手段が備えられ、見出語検索手段により前記辞書記憶手段に記憶された見出語が検索されると、この検索された見出語に対応付けられて前記辞書記憶手段により記憶された音声データが音声出力手段により出力され、また当該見出語に対応付けられて前記辞書記憶手段により記憶された口の画像データが表示制御手段により読み出され、前記音声出力に同期してその見出語と口の画像データが順次同期表示されるので、辞書検索に伴い検索した見出語表示と共にその見出語に対応する音声同期出力およびその発音口型などの口画像同期表示ができるようになる。   In addition, according to the speech text reproduction apparatus according to claim 10 of the present invention, a dictionary storage means for storing a plurality of headwords and voice data and mouth image data in association with each headword is provided, When the headword stored in the dictionary storage means is searched by the headword search means, the voice data stored in the dictionary storage means in association with the searched headword is output by the voice output means. The mouth image data output and stored in the dictionary storage means in association with the headword is read out by the display control means, and the headword and mouth image data are synchronized with the voice output. Are sequentially displayed in synchronization with each other, so that it is possible to display the headword searched in accordance with the dictionary search, and the voice synchronized output corresponding to the headword and the mouth image synchronous display such as the pronunciation mouth type.

また、本発明の請求項11に係る編集処理プログラムによれば、当該プログラムを電子機器のコンピュータにインストールすることで、この電子機器のコンピュータにおいて、種々の音声データに対応付けてそれぞれ異なる複数の口の画像を記憶する口画像記憶手段が備えられ、対応データ編集手段により、出力対象のテキストに応じた音声データに対応付けられて前記口画像記憶手段により記憶された口の画像が読み出され、当該出力対象のテキストまたは音声データの位置に対応付けて記憶されるので、この電子機器では、音声にテキストと画像を同期させて出力させるための対応データとして、出力対象のテキストに応じた音声データに対応する口の画像を、当該出力対象のテキストまたは音声データの位置に対応付けて記憶し編集できるようになる。   According to the editing processing program of the eleventh aspect of the present invention, by installing the program in the computer of the electronic device, the computer of the electronic device has a plurality of different mouths associated with various audio data. The mouth image storage means for storing the image of the mouth, and the corresponding data editing means reads the mouth image stored in the mouth image storage means in association with the voice data corresponding to the text to be output, Since it is stored in association with the position of the text or audio data to be output, in this electronic device, the audio data corresponding to the text to be output is used as the corresponding data for outputting the text and the image in synchronization with the audio. The mouth image corresponding to is stored in correspondence with the position of the text or audio data to be output and edited. It becomes so that.

また、本発明の請求項12に係る音声テキスト再生処理プログラムは、前記請求項11に係る編集処理プログラムを備えた音声テキスト再生処理プログラムであり、当該プログラムを電子機器のコンピュータにインストールすることで、この電子機器のコンピュータにおいて、同期再生手段により音声にテキストが同期されて出力されるのと共に、対応データ編集手段により記憶された対応データに基づいて、出力対象のテキストに対応付けられた口の画像が読み出されて表示される。これによりこの電子機器では、編集された対応データに基づいて、音声およびテキストの同期出力に対応させた口の画像を容易に表示できるようになる。   A speech text reproduction processing program according to claim 12 of the present invention is a speech text reproduction processing program including the editing processing program according to claim 11, and the program is installed in a computer of an electronic device. In the computer of the electronic device, the synchronized reproduction means outputs the text in synchronization with the voice, and the mouth image associated with the output target text based on the correspondence data stored by the correspondence data editing means. Is read and displayed. As a result, the electronic device can easily display the mouth image corresponding to the synchronized output of the voice and the text based on the edited correspondence data.

また、本発明の請求項13に係る音声表示出力制御装置によれば、テキストの発音記号と口型画像とを対応付けて複数組み記憶している第1の記憶手段と、文字と音声とを対応付けて複数組み記憶している第2の記憶手段とが備えられ、第1の制御手段により前記第2の記憶手段に記憶されている音声が外部に順次出力されると共に、この出力される音声に同期して前記第2の記憶手段に対応付けて記憶されている文字が順次識別表示される。するとこの第1の制御手段の制御により順次識別表示される文字に同期して、第2の制御手段により当該識別表示される文字の発音記号に対応して前記第1の記憶手段に対応付けて記憶されている口型画像が読み出され、この読み出された口型画像が順次切換表示されるので、音声を順次出力するのに同期してこれに対応記憶されている文字を順次識別表示でき、さらに、この順次識別表示される文字に同期して、当該識別表示文字の発音記号に対応した口型画像を順次切換表示できるようになる。   According to the voice display output control apparatus of the thirteenth aspect of the present invention, the first storage means for storing a plurality of sets of text phonetic symbols and mouth-shaped images in association with each other, and the characters and voices. And a second storage means for storing a plurality of sets in association with each other, and the sound stored in the second storage means is sequentially outputted to the outside by the first control means and outputted. The characters stored in association with the second storage means are sequentially identified and displayed in synchronization with the voice. Then, in synchronization with the characters sequentially identified and displayed by the control of the first control means, the second control means is associated with the first storage means in correspondence with the phonetic symbols of the characters to be identified and displayed. The stored mouth-shaped images are read out, and the read mouth-shaped images are sequentially switched and displayed, so that the characters stored correspondingly are sequentially identified and displayed in synchronization with the sequential output of voice. Furthermore, in synchronization with the characters that are sequentially identified and displayed, the mouth-shaped images corresponding to the phonetic symbols of the identified and displayed characters can be sequentially switched and displayed.

よって、本発明によれば、テキストデータと音声データと画像データとの同期出力に際し、音声出力、テキスト表示、発音用画像表示を簡単に同期して出力することが可能になる音声表示出力制御装置、編集装置、音声テキスト再生装置、および音声表示出力制御処理プログラム、編集処理プログラム、音声テキスト再生処理プログラムを提供できる。   Therefore, according to the present invention, a voice display output control device that can easily synchronize and output voice output, text display, and image display for pronunciation at the time of synchronous output of text data, voice data, and image data. An editing device, a voice text reproduction device, a voice display output control processing program, an editing processing program, and a voice text reproduction processing program can be provided.

以下、図面を参照して本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(第1実施形態)
図1は本発明の音声表示出力制御装置(編集装置)(音声テキスト再生装置)の実施形態に係る携帯機器10の電子回路の構成を示すブロック図である。
(First embodiment)
FIG. 1 is a block diagram showing a configuration of an electronic circuit of a portable device 10 according to an embodiment of a voice display output control device (editing device) (voice text reproduction device) of the present invention.

この携帯機器(PDA:personal digital assistants)10は、各種の記録媒体に記録されたプログラム、又は、通信伝送されたプログラムを読み込んで、その読み込んだプログラムによって動作が制御されるコンピュータによって構成され、その電子回路には、CPU(central processing unit)11が備えられる。   The portable device (PDA: personal digital assistants) 10 is configured by a computer that reads a program recorded on various recording media or a program transmitted by communication and whose operation is controlled by the read program. The electronic circuit includes a CPU (central processing unit) 11.

CPU11は、メモリ12内のROM12Aに予め記憶されたPDA制御プログラム、あるいはROMカードなどの外部記録媒体13から記録媒体読取部14を介して前記メモリ12に読み込まれたPDA制御プログラム、あるいはインターネットなどの通信ネットワークN上の他のコンピュータ端末(30)から電送制御部15を介して前記メモリ12に読み込まれたPDA制御プログラムに応じて、回路各部の動作を制御するもので、前記メモリ12に記憶されたPDA制御プログラムは、スイッチやキーからなる入力部17aおよびマウスやタブレットからなる座標入力装置17bからのユーザ操作に応じた入力信号、あるいは電送制御部15に受信される通信ネットワークN上の他のコンピュータ端末(30)からの通信信号、あるいはBluetooth(R)による近距離無線接続や有線接続による通信部16を介して受信される外部の通信機器(PC:personal computer)20からの通信信号に応じて起動される。   The CPU 11 is a PDA control program stored in advance in the ROM 12A in the memory 12, or a PDA control program read into the memory 12 from the external recording medium 13 such as a ROM card via the recording medium reading unit 14, or the Internet. The operation of each part of the circuit is controlled according to the PDA control program read into the memory 12 from the other computer terminal (30) on the communication network N via the power transmission control unit 15, and is stored in the memory 12. The PDA control program is an input signal in response to a user operation from the input unit 17a composed of switches and keys and the coordinate input device 17b composed of a mouse and a tablet, or another communication network N received by the transmission control unit 15. There is a communication signal from the computer terminal (30). The external communication device is received via the communication unit 16 by the short-range wireless connection or a wired connection using Bluetooth (R): is activated in response to the communication signal from the (PC personal computer) 20.

前記CPU11には、前記メモリ12、記録媒体読取部14、電送制御部15、通信部16、入力部17a、座標入力装置17bが接続される他に、LCDからなる表示部18、マイクを備え音声を入力する音声入力部19a、左右チャンネルのスピーカL,Rを備え音声を出力するステレオ音声出力部19bなどが接続される。   The CPU 11 is connected to the memory 12, the recording medium reading unit 14, the power transmission control unit 15, the communication unit 16, the input unit 17a, and the coordinate input device 17b. Are connected to a sound input unit 19a for inputting a sound, a stereo sound output unit 19b for outputting sound with left and right channel speakers L and R, and the like.

また、CPU11には、処理時間計時用のタイマが内蔵される。   The CPU 11 has a built-in timer for processing time counting.

この携帯機器10のメモリ12は、ROM12A、FLASHメモリ(EEP-ROM)12B、RAM12Cを備えて構成される。   The memory 12 of the portable device 10 includes a ROM 12A, a FLASH memory (EEP-ROM) 12B, and a RAM 12C.

ROM12Aには、当該携帯機器10の全体の動作を司るシステムプログラムや電送制御部15を介して通信ネットワークN上の各コンピュータ端末(30)とデータ通信するためのネット通信プログラム、通信部16を介して外部の通信機器(PC)20とデータ通信するための外部機器通信プログラムが記憶される他に、スケジュール管理プログラムやアドレス管理プログラム、そして音声・テキスト・画像などの各種のファイルを同期再生するための再生処理プログラム12a1など、種々のPDA制御プログラムが記憶される。   The ROM 12A includes a system program that controls the overall operation of the mobile device 10 and a network communication program for data communication with each computer terminal (30) on the communication network N via the transmission control unit 15 and a communication unit 16. In addition to storing an external device communication program for data communication with an external communication device (PC) 20, a schedule management program, an address management program, and various files such as voice, text, and images are synchronously reproduced. Various PDA control programs such as the reproduction processing program 12a1 are stored.

また、ROM12Aにはさらに、辞書データ12a2、口型データ12a3(図2参照)、および見出語音声データ12a4が記憶される。辞書データ12a2sとしては、英和辞書、和英辞書、国語辞書など、各種の辞書のデータが記憶される。   Further, the ROM 12A further stores dictionary data 12a2, mouthpiece data 12a3 (see FIG. 2), and headword voice data 12a4. As the dictionary data 12a2s, data of various dictionaries such as an English-Japanese dictionary, a Japanese-English dictionary, and a national language dictionary are stored.

図2は前記携帯機器10のROM12Aに記憶される口型データ12a3の内容を示す図である。   FIG. 2 is a diagram showing the contents of the mouthpiece data 12a3 stored in the ROM 12A of the portable device 10.

この口型データ12a3としては、例えば英語の各発音記号とその口型番号のそれぞれに対応付けられて、正面方向から見た口型画像と、これを拡大した口の内部の横方向からの口型断面画像と、その小説明(コメント)データが記憶される。   As the mouth shape data 12a3, for example, the mouth shape image viewed from the front direction in association with each English phonetic symbol and the mouth shape number, and the mouth from the lateral direction inside the mouth expanded. A mold section image and a small explanation (comment) data thereof are stored.

なお、見出語音声データ12a4については、後述の第2実施形態において説明する。   The headword audio data 12a4 will be described in a second embodiment described later.

FLASHメモリ(EEP−ROM)12Bには、前記再生処理プログラム12a1に基づき再生処理の対象となる暗号化された再生用ファイル(CASファイル)12bが記憶される他に、前記スケジュール管理プログラムやアドレス管理プログラムに基づき管理されるユーザのスケジュール及び友人・知人のアドレスなどが記憶される。   The FLASH memory (EEP-ROM) 12B stores an encrypted reproduction file (CAS file) 12b to be subjected to reproduction processing based on the reproduction processing program 12a1, as well as the schedule management program and address management. A user's schedule managed based on the program and addresses of friends / acquaintances are stored.

ここで、前記FLASHメモリ(EEP-ROM)12B内に記憶される暗号化再生用ファイル12bは、例えば英語や歌の練習をテキスト・音声・画像の同期再生により行うためのファイルであり、所定のアルゴリズムにより圧縮・暗号化されている。   Here, the encrypted playback file 12b stored in the FLASH memory (EEP-ROM) 12B is a file for performing, for example, practice of English and singing by synchronized playback of text, sound, and images. It is compressed and encrypted by an algorithm.

この暗号化再生用ファイル12bは、例えばCD−ROMに記録されて配布されたり、通信ネットワーク(インターネット)N上のファイル配信サーバ30から配信配布されたりするもので、前記CD−ROMあるいはネットサーバ(30)により配布された暗号化再生用ファイル12bは、例えばユーザ自宅PCとしての通信機器(PC)20に読み込まれた後、携帯機器(PDA)10の通信部16を介してFLASHメモリ(EEP-ROM)12Bに転送格納される。   The encrypted reproduction file 12b is recorded and distributed on a CD-ROM, for example, or distributed and distributed from a file distribution server 30 on a communication network (Internet) N. 30) is read into the communication device (PC) 20 as the user's home PC, for example, and then the FLASH memory (EEP-) is transmitted via the communication unit 16 of the portable device (PDA) 10. ROM) 12B.

RAM12Cには、前記暗号化された再生用ファイル12bを伸張・復号化した解読された再生用ファイル(CASファイル)12cが記憶されると共に、この解読再生ファイル12cの中の画像ファイルが展開されて記憶される画像展開バッファ12kが備えられる。解読されたCASファイル12cは、再生命令の処理単位時間(12c1a)を記憶するヘッダ情報(12c1)、および後述するファイルシーケンステーブル(12c2)、タイムコードファイル(12c3)、コンテンツ内容データ(12c4)で構成される。そして、RAM12Cには、この画像展開バッファ12kに展開されて記憶された画像ファイルそれぞれの展開済の画像番号を示す画像展開済フラグ12jが記憶される。   The RAM 12C stores a decrypted playback file (CAS file) 12c obtained by decompressing and decrypting the encrypted playback file 12b, and an image file in the decrypted playback file 12c is expanded. A stored image expansion buffer 12k is provided. The decrypted CAS file 12c is composed of header information (12c1) for storing a processing unit time (12c1a) of a reproduction command, a file sequence table (12c2), a time code file (12c3), and content content data (12c4) described later. Composed. The RAM 12C stores an image developed flag 12j indicating the developed image number of each image file developed and stored in the image development buffer 12k.

また、RAM12Cには、再生用ファイル12b(12c)の選択コンテンツにおける指定テキスト番号12d、指定されたテキスト番号に対応する英会話テキストに対しユーザにより指定された指定パート番号12e、指定されたテキスト番号に対応する英会話テキストの各英単語それぞれの全発音記号とその口型番号が前記辞書データ12a2および口型データ12a3から検索されて記憶されるテキスト対応発音口型データ12f(図7参照)、前記再生用ファイル12b(12c)基づき英会話テキストの各文字がその読み上げ音声と読み上げアニメ画像に同期付けられてハイライト識別表示された際に、現時点のハイライト識別文字としてリアルタイムに検知記憶されるテキストハイライト指定文字12g、そして前記再生用ファイル12b(12c)内の同期再生ファイルとして含まれる画像ファイルの同期再生する/しないを設定するための画像(オン/オフ)フラグ12h、前記再生用ファイル12b(12c)内の同期再生ファイルとして含まれる音声ファイルの同期再生する/しないを設定するための音声(オン/オフ)フラグ12iが記憶される。   The RAM 12C also stores the designated text number 12d in the selected content of the reproduction file 12b (12c), the designated part number 12e designated by the user for the English conversation text corresponding to the designated text number, and the designated text number. Text-corresponding pronunciation type data 12f (see FIG. 7) in which all pronunciation symbols and mouth type numbers of each English word of the corresponding English conversation text are retrieved from the dictionary data 12a2 and mouth type data 12a3 and stored, and the reproduction Text highlight that is detected and stored in real time as the current highlight identification character when each character of the English conversation text is synchronized with the reading voice and the reading animation image and is highlighted and displayed based on the file 12b (12c) The designated character 12g and the playback file 1 2b (12c) includes an image (on / off) flag 12h for setting whether to perform synchronous playback of an image file included as a synchronized playback file, and is included as a synchronized playback file in the playback file 12b (12c). A sound (on / off) flag 12i for setting whether or not the sound file is synchronously reproduced is stored.

さらに、RAM12Cには、その他各種の処理に応じてCPU11に入出力される種々のデータを一時記憶するためワークエリアが用意される。   Further, the RAM 12C is provided with a work area for temporarily storing various data input / output to / from the CPU 11 according to various other processes.

図3は前記携帯機器10のメモリ12に格納された再生用ファイル12b(12c)を構成するタイムコードファイル12c3を示す図である。   FIG. 3 is a diagram showing a time code file 12c3 constituting the reproduction file 12b (12c) stored in the memory 12 of the portable device 10. As shown in FIG.

図4は前記携帯機器10のメモリ12に格納された再生用ファイル12b(12c)を構成するファイルシーケンステーブル12c2を示す図である。   FIG. 4 is a view showing a file sequence table 12c2 constituting the reproduction file 12b (12c) stored in the memory 12 of the portable device 10. As shown in FIG.

図5は前記携帯機器10のメモリ12に格納される再生用ファイル12b(12c)を構成するコンテンツ内容データ12c4を示す図である。   FIG. 5 is a diagram showing content content data 12c4 constituting the reproduction file 12b (12c) stored in the memory 12 of the portable device 10. As shown in FIG.

この携帯機器10の再生対象ファイルとなる再生用ファイル12b(12c)は、図3〜図5で示すように、タイムコードファイル12c3とファイルシーケンステーブル12c2とコンテンツ内容データ12c4との組み合わせにより構成される。   The reproduction file 12b (12c), which is the reproduction target file of the portable device 10, is composed of a combination of a time code file 12c3, a file sequence table 12c2, and content content data 12c4, as shown in FIGS. .

図3で示すタイムコードファイル12c3には、個々のファイル毎に予め設定される一定時間間隔の元の(基準)処理単位時間(例えば25ms)で各種ファイル同期再生のコマンド処理を行うためのタイムコードが記述配列されるもので、この各タイムコードは、命令を指示するコマンドコードと、当該コマンドに関わるファイル内容(図5参照)を対応付けするためのファイルシーケンステーブル12c2(図4)の参照番号や指定数値からなるパラメータデータとの組み合わせにより構成される。   The time code file 12c3 shown in FIG. 3 includes a time code for performing various file synchronous playback command processing at an original (reference) processing unit time (for example, 25 ms) at a predetermined time interval preset for each file. Each time code is a reference number of the file sequence table 12c2 (FIG. 4) for associating the command code indicating the instruction with the file contents related to the command (see FIG. 5). And parameter data consisting of specified numerical values.

なお、このタイムコードに従い順次コマンド処理を行うための一定時間間隔の元の(基準)処理単位時間12c1aは、当該タイムコードファイル12c3のヘッダ情報12c1に記述設定される。   Note that the original (reference) processing unit time 12c1a at a fixed time interval for sequentially executing command processing according to the time code is described and set in the header information 12c1 of the time code file 12c3.

例えば図3で示すタイムコードファイル12c3からなる再生用ファイル12b(12c)のファイル再生時間は、予め設定された元の(基準)処理単位時間が25msである場合、2400ステップのタイムコードからなる再生処理を経て60秒間となる。   For example, the file playback time of the playback file 12b (12c) consisting of the time code file 12c3 shown in FIG. 3 is a playback consisting of a time code of 2400 steps when the original (reference) processing unit time set in advance is 25 ms. After processing, it becomes 60 seconds.

図4で示すファイルシーケンステーブル12c2は、複数種類のファイル(HTML/画像/テキスト/音声)の各種類毎に、前記タイムコードファイル12c3(図3参照)に記述される各コマンドのパラメータデータと実際のファイル内容の格納先(ID)番号とを対応付けたテーブルである。   The file sequence table 12c2 shown in FIG. 4 includes parameter data and actual data of each command described in the time code file 12c3 (see FIG. 3) for each type of a plurality of types of files (HTML / image / text / sound). Is a table in which the file content storage destination (ID) numbers are associated with each other.

図5で示すコンテンツ内容データ12c4は、前記ファイルシーケンステーブル12c2(図4参照)により前記各コマンドコードと対応付けされる実際の音声,画像,テキストなどのファイルデータが、そのそれぞれのID番号を対応付けて記憶される。   In the content content data 12c4 shown in FIG. 5, the file data such as actual voice, image, and text associated with each command code by the file sequence table 12c2 (see FIG. 4) corresponds to the respective ID numbers. It is memorized.

本実施形態のファイルシーケンステーブル12c2においてリンク付けされるコンテンツ内容データ12c4について簡単に説明すると、例えばID=5に対応するデータ内容には、3人の会話パートによる英会話テキストの基本画像G0(図15参照)が用意され、ID=6に対応するデータ内容には、前記基本画像G0に基づいたパート1の会話中画像G1(図12(A)(D)参照)が用意され、ID=7に対応するデータ内容には、前記基本画像G0に基づいたパート2の会話中画像G2(図12(B)参照)が用意され、ID=8に対応するデータ内容には、前記基本画像G0に基づいたパート3の会話中画像G3(図12(C)参照)が用意される。   The content content data 12c4 linked in the file sequence table 12c2 of this embodiment will be briefly described. For example, the data content corresponding to ID = 5 has a basic image G0 of English conversation text by three conversation parts (FIG. 15). (Refer to FIG. 12 (A) and (D)) is prepared for the data content corresponding to ID = 6, and the part 1 conversation image G1 (see FIGS. 12A and 12D) based on the basic image G0 is prepared. Corresponding data contents include a conversation image G2 of part 2 based on the basic image G0 (see FIG. 12B), and the data contents corresponding to ID = 8 are based on the basic image G0. Then, a conversation image G3 (see FIG. 12C) of Part 3 is prepared.

なお、前記コンテンツ内容データ12c4のID=5に対応する英会話テキストの基本画像G0(図15参照)には、各パート人物画像毎の口エリアの座標データx1y1,x2y2(図15のM1〜M3参照)が対応付けられて記憶される。   Note that the English conversation text basic image G0 (see FIG. 15) corresponding to ID = 5 of the content content data 12c4 has the mouth area coordinate data x1y1, x2y2 (see M1 to M3 in FIG. 15) for each part person image. ) Are stored in association with each other.

また、例えばID=21に対応するデータ内容には、前記3人の会話パートによる英会話テキストの会話中画像G1〜G3が同期付けされる英会話テキストデータ(2)(図12・図15参照)が用意され、さらに、例えばID=32に対応するデータ内容には、同3人の会話パートによる英会話テキストの会話中画像G1〜G3および英会話テキストデータ(2)が同期付けされる英会話音声データ(2)(図12・図15の19b参照)が用意される。   For example, the data content corresponding to ID = 21 includes English conversation text data (2) (see FIGS. 12 and 15) to which the conversation images G1 to G3 of the English conversation text by the three conversation parts are synchronized. Further, for example, in the data content corresponding to ID = 32, the English conversation voice data (2) to which the conversational images G1 to G3 of the English conversation text by the three conversation parts and the English conversation text data (2) are synchronized. (See 19b in FIGS. 12 and 15).

図6は前記携帯機器10のタイムコードファイル12c3(図3参照)にて記述される各種コマンドのコマンドコードとそのパラメータデータおよび再生処理プログラム12a1に基づき解析処理される命令内容を対応付けて示す図である。   FIG. 6 is a diagram showing the command codes of various commands described in the time code file 12c3 (see FIG. 3) of the mobile device 10 in association with the command data to be analyzed based on the parameter data and the reproduction processing program 12a1. It is.

タイムコードファイル12c3に使用されるコマンドとしては、標準コマンドと拡張コマンドがあり、標準コマンドには、LT(i番目テキストロード).VD(i番目テキスト文節表示).BL(文字カウンタリセット・i番目文節ブロック指定).HN(ハイライト無し・文字カウンタカウントアップ).HL(i番目文字までハイライト・文字カウント).LS(1行スクロール・文字カウンタカウントアップ).DH(i番目HTMLファイル表示).DI(i番目イメージファイル表示).PS(i番目サウンドファイルプレイ).CS(クリアオールファイル).PP(基本タイムi秒間停止).FN(処理終了).NP(無効)の各コマンドがあり、拡張コマンドには、PT(i番目パート指定).PI(パート別イメージファイル表示)などの各コマンドがある。   Commands used for the time code file 12c3 include standard commands and extended commands. The standard commands include LT (i-th text load). VD (i-th text phrase display). BL (Character counter reset / i-th phrase block designation). HN (no highlight, character counter count up). HL (up to i-th character, character count). LS (1 line scrolling / character counter count up). DH (i-th HTML file display). DI (i-th image file display). PS (i-th sound file play). CS (Clear All File). PP (pause for basic time i seconds). FN (end of processing). There are NP (invalid) commands, and extended commands include PT (i-th part designation). There are various commands such as PI (image file display for each part).

図7は前記携帯機器10のRAM12Cに記憶されるテキスト対応発音口型データ12fの内容を示す図である。   FIG. 7 is a diagram showing the contents of the text corresponding mouthpiece type data 12f stored in the RAM 12C of the portable device 10.

すなわち、この携帯機器(PDA)10のROM12Aに記憶されている再生処理プログラム12a1を起動させて、FLASHメモリ12Bから解読されRAM12Cに記憶された解読再生用ファイル12cが、例えば図3乃至図5で示したファイル内容であり、設定処理単位時間毎のコマンド処理に伴い3番目のコマンドコード“DI”およびパラメータデータ“00”が読み込まれた場合には、このコマンド“DI”はi番目のイメージファイル表示命令であるため、パラメータデータi=00からファイルシーケンステーブル12c2(図4参照)にリンク付けられる画像ファイルのID番号=5に従い、コンテンツ内容データ12c4(図5参照)の英会話テキスト基本画像G0が読み出されて表示される。   That is, the reproduction processing program 12a1 stored in the ROM 12A of the portable device (PDA) 10 is activated, and the decryption / reproduction file 12c decrypted from the FLASH memory 12B and stored in the RAM 12C is shown in FIGS. 3 to 5, for example. If the third command code “DI” and parameter data “00” are read during command processing for each set processing unit time, the command “DI” is the i-th image file. Since this is a display command, the English conversation text basic image G0 of the content content data 12c4 (see FIG. 5) is determined according to the ID number = 5 of the image file linked to the file sequence table 12c2 (see FIG. 4) from the parameter data i = 00. It is read and displayed.

また、設定処理単位時間毎のコマンド処理に伴い6番目のコマンドコード“VD”およびパラメータデータ“00”が読み込まれた場合には、このコマンド“VD”はi番目のテキスト文節表示命令であるため、パラメータデータi=00に従い、テキストの0番目の文節が表示される。   When the sixth command code “VD” and parameter data “00” are read in accordance with the command processing for each set processing unit time, this command “VD” is the i-th text phrase display command. According to the parameter data i = 00, the 0th clause of the text is displayed.

また、設定処理単位時間毎のコマンド処理に伴い8番目のコマンドコード“PI”およびパラメータデータ“00”が読み込まれた場合には、このコマンド“PI”はパート別イメージファイル表示命令であるため、これ以降のコマンドコードPT(i番目パート指定)に従い指定されたパートの画像表示が指示される。   When the eighth command code “PI” and parameter data “00” are read in accordance with the command processing for each set processing unit time, this command “PI” is an image file display command for each part. The image display of the designated part is instructed according to the subsequent command code PT (i-th part designation).

また、設定処理単位時間毎のコマンド処理に伴い9番目のコマンドコード“PT”およびパラメータデータ“01”が読み込まれた場合には、このコマンド“PT”はi番目パート指定命令であるため、パラメータデータi=01に従い、再生対象ファイルにおける1番目のパートが指定される。   When the ninth command code “PT” and parameter data “01” are read in accordance with the command processing for each set processing unit time, the command “PT” is the i-th part designation command, so the parameter According to the data i = 01, the first part in the reproduction target file is designated.

さらに、設定処理単位時間毎のコマンド処理に伴い11番目のコマンドコード“NP”およびパラメータデータ“00”が読み込まれた場合には、このコマンド“NP”は無効命令であるため、現状のファイル出力状態が維持される。   Further, when the eleventh command code “NP” and parameter data “00” are read in accordance with the command processing for each set processing unit time, the command “NP” is an invalid instruction, and therefore the current file output State is maintained.

なお、この図3乃至図5で示したファイル内容の再生用ファイル12b(12c)についての詳細な再生動作は、後述にて改めて説明する。   The detailed reproduction operation for the reproduction file 12b (12c) having the file contents shown in FIGS. 3 to 5 will be described later.

次に、前記構成の携帯機器10によるファイル再生機能について説明する。   Next, the file reproduction function by the portable device 10 having the above-described configuration will be described.

図8は前記携帯機器10の再生処理プログラム12a1に従った再生処理を示すフローチャートである。   FIG. 8 is a flowchart showing a reproduction process according to the reproduction process program 12a1 of the portable device 10.

図9は前記携帯機器10の再生処理に伴う発音口型データ作成処理を示すフローチャートである。   FIG. 9 is a flowchart showing the sound output type data creation process accompanying the reproduction process of the portable device 10.

図10は前記携帯機器10の再生処理に伴う対応パート別画像表示処理Aを示すフローチャートである。   FIG. 10 is a flowchart showing image display processing A for each corresponding part accompanying the playback processing of the portable device 10.

図11は前記携帯機器10の再生処理に伴う学習内容の選択操作・表示状態を示す図であり、同図(A)は学習内容選択画面Gを示す図、同図(B)(C)は当該学習内容選択画面Gを対象とする選択操作キーを示す図である。   FIG. 11 is a diagram showing a learning content selection operation / display state associated with the reproduction processing of the mobile device 10, where FIG. 11A shows a learning content selection screen G, and FIGS. It is a figure which shows the selection operation key which makes the said learning content selection screen G object.

例えば英語の勉強がテキストと画像と音声で行える英語教材再生ファイルを、CD−ROMや通信ネットワーク(インターネット)N上のサーバ30から自宅PCである通信機器(PC)20に取り込み、携帯機器(PDA)10の通信部16を介して当該再生用ファイル(CASファイル)12bがFLASHメモリ12Bに、あるいは解読された再生用ファイル12cとしてRAM12Cに格納された状態において、入力部17aあるいは座標入力装置(マウス/タブレット)17bの操作によりこの再生用ファイル12b(12c)の再生が指示されると、まず、図11(A)に示すように、学習内容をユーザ選択させるための学習内容選択画面Gが表示部18に表示される(ステップS1)。   For example, an English teaching material playback file in which English study can be performed with text, images, and voices is imported from a server 30 on a CD-ROM or communication network (Internet) N to a communication device (PC) 20 that is a home PC, and a portable device (PDA) ) In a state where the reproduction file (CAS file) 12b is stored in the FLASH memory 12B or the decoded reproduction file 12c in the RAM 12C via the communication unit 16, the input unit 17a or the coordinate input device (mouse) When the reproduction of the reproduction file 12b (12c) is instructed by the operation of the / tablet 17b, first, as shown in FIG. 11A, a learning content selection screen G for allowing the user to select learning content is displayed. It is displayed on the part 18 (step S1).

この学習内容選択画面Gにあって、図11(B)(C)に示すように、入力部17aのカーソルキー17a1および「決定」キー17a2の操作により、英会話の全体を聞く、またはパート別練習における各会話パート(1:2:3)の何れかが選択されると、RAM12C内の各ワークエリアのクリア処理などのイニシャライズ処理が行われ、前記選択された英会話パートのパート番号が指定パート番号12eとしてRAM12Cに記憶される(ステップS1,S2)。   In this learning content selection screen G, as shown in FIGS. 11 (B) and 11 (C), listening to the entire English conversation by operating the cursor key 17a1 and the “decision” key 17a2 of the input unit 17a, or practice by part When any one of the conversation parts (1: 2: 3) is selected, initialization processing such as clearing of each work area in the RAM 12C is performed, and the part number of the selected English conversation part is the designated part number. 12e is stored in the RAM 12C (steps S1 and S2).

そして、前記FLASHメモリ12Bに格納された再生用ファイル(CASファイル)12bが読み込まれ(ステップS3)、当該再生用ファイル(CASファイル)12bは暗号化ファイルであるか否か判断される(ステップS4)。   Then, the reproduction file (CAS file) 12b stored in the FLASH memory 12B is read (step S3), and it is determined whether or not the reproduction file (CAS file) 12b is an encrypted file (step S4). ).

ここで、暗号化された再生用ファイル(CASファイル)12bであると判断された場合には、当該CASファイル12bは解読復号化され(ステップS4→S5)、RAM12Cに転送されて格納される(ステップS6)。   If it is determined that the file is an encrypted reproduction file (CAS file) 12b, the CAS file 12b is decrypted and decrypted (step S4 → S5), transferred to the RAM 12C, and stored (step S4). Step S6).

ここで、図9における発音口型データ作成処理が実行される(ステップSA)。   Here, the sound output type data creation processing in FIG. 9 is executed (step SA).

この発音口型データ作成処理では、まず、コンテンツ内容データ12c4として記憶されている英会話テキストデータが、例えば図7に示すように、RAM12C内のテキスト対応発音口型データ12fとして読み込まれる(ステップA1)。   In the pronunciation type data creation processing, first, the English conversation text data stored as the content content data 12c4 is read as text corresponding pronunciation type data 12f in the RAM 12C as shown in FIG. 7, for example (step A1). .

すると、このテキスト対応発音口型データ12fに読み込まれた英会話テキストデータのすべての単語が、ROM12Aに記憶されている辞書データ12a2に基づいて順次辞書引きされ、そのそれぞれの発音記号が読み出される(ステップA2)。   Then, all the words of the English conversation text data read into the text-corresponding pronunciation type data 12f are sequentially looked up based on the dictionary data 12a2 stored in the ROM 12A, and the respective phonetic symbols are read out (step). A2).

そして、前記英会話テキストデータの全ての単語について読み出された発音記号の各々に対応する口型番号データが、ROM12Aに記憶されている口型データ12a3(図2参照)から読み出され、各会話パート毎のテキスト単語、発音記号、口型番号として対応付けられて前記RAM12C内のテキスト対応発音口型データ12fに編集記憶される。   Then, the mouth shape number data corresponding to each of the phonetic symbols read for all the words of the English conversation text data is read from the mouth shape data 12a3 (see FIG. 2) stored in the ROM 12A. The text words, phonetic symbols, and mouth type numbers for each part are associated and edited and stored in the text corresponding phonetic mouth type data 12f in the RAM 12C.

なお、この発音口型データ作成処理では、コンテンツ内容データ12c4として記憶されている英会話テキストデータが、RAM12C内のテキスト対応発音口型データ12fとして読み込まれた際に、既に同一の英会話テキストデータについて前回の再生処理に伴いその発音口型データとの対応付け編集が完了している場合には、この同一の英会話テキストデータについての発音口型データ作成処理は省略されて行われない。   In the pronunciation type data creation process, when the English conversation text data stored as the content content data 12c4 is read as the text corresponding pronunciation type data 12f in the RAM 12C, the same English conversation text data has already been previously recorded. When the editing of the association with the pronunciation type data is completed with the reproduction process, the pronunciation type data creation process for the same English conversation text data is omitted and not performed.

こうして、発音口型データ作成処理により英会話テキストとその発音口型データとの対応付け編集が完了すると、CPU11による再生用ファイル(CASファイル)12cの処理単位時間12c1a(例えば25ms)がタイムコードファイル12c3のヘッダ情報12c1として設定される(ステップS7)。   In this way, when the correspondence editing between the English conversation text and the pronunciation type data is completed by the pronunciation type data creation processing, the processing unit time 12c1a (for example, 25 ms) of the reproduction file (CAS file) 12c by the CPU 11 is the time code file 12c3. Header information 12c1 is set (step S7).

そして、RAM12Cに格納された解読済再生用ファイル(CASファイル)12cの先頭に読み出しポインタがセットされ(ステップS8)、当該再生用ファイル12cの再生処理タイミングを計時するためのタイマがスタートされる(ステップS9)。   Then, a read pointer is set at the head of the decrypted reproduction file (CAS file) 12c stored in the RAM 12C (step S8), and a timer for timing the reproduction processing timing of the reproduction file 12c is started ( Step S9).

ここで、先読み処理が当該再生処理に並行して起動される(ステップS10)。   Here, the prefetch process is started in parallel with the reproduction process (step S10).

この先読み処理では、再生用ファイル12cのタイムコードファイル12c3(図3参照)に従った現在の読み出しポインタの位置のコマンド処理よりも後に画像ファイル表示の“DI”コマンドがある場合は、予め当該“DI”コマンドのパラメータデータにより指示される画像ファイルを先読みして画像展開バッファ12kに展開しておくことで、前記読み出しポインタが実際に後の“DI”コマンドの位置まで移動した場合に、処理に遅れなく指定の画像ファイルを直ちに出力表示できるようにする。   In this pre-reading process, if there is a “DI” command for displaying an image file after the command processing at the position of the current read pointer according to the time code file 12c3 (see FIG. 3) of the reproduction file 12c, the “ By pre-reading the image file designated by the parameter data of the “DI” command and developing it in the image development buffer 12k, the processing can be performed when the read pointer has actually moved to the position of the subsequent “DI” command. The specified image file can be output and displayed immediately without delay.

前記ステップS9において、処理タイマがスタートされると、前記ステップS7にて設定された今回の再生対象ファイル12cに応じた処理単位時間(25ms)毎に、前記ステップS8にて設定された読み出しポインタの位置の当該再生用ファイル12cを構成するタイムコードファイル12c3(図3参照)のコマンドコードおよびそのパラメータデータが読み出される(ステップS11)。   When the processing timer is started in step S9, the read pointer set in step S8 is set every processing unit time (25 ms) corresponding to the current reproduction target file 12c set in step S7. The command code and its parameter data of the time code file 12c3 (see FIG. 3) constituting the reproduction file 12c at the position are read (step S11).

そして、前記再生用ファイル12cにおけるタイムコードファイル12c3(図3参照)から読み出されたコマンドコードが、“FN”か否か判断され(ステップS12)、“FN”と判断された場合には、その時点で当該ファイル再生処理の停止処理が指示実行される(ステップS12→S13)。   Then, it is determined whether or not the command code read from the time code file 12c3 (see FIG. 3) in the reproduction file 12c is “FN” (step S12), and if “FN” is determined, At that time, the stop process of the file reproduction process is instructed and executed (steps S12 → S13).

一方、前記再生用ファイル12cにおけるタイムコードファイル12c3(図3参照)から読み出されたコマンドコードが、“FN”ではないと判断された場合には、当該コマンドコードが、“PT”か否か判断される(ステップS12→S14)。   On the other hand, if it is determined that the command code read from the time code file 12c3 (see FIG. 3) in the reproduction file 12c is not “FN”, whether or not the command code is “PT”. Determination is made (steps S12 → S14).

そして、コマンドコード“PT”と判断された場合には、図10における対応パート別画像表示処理Aが実行される(ステップSB)。   When it is determined that the command code is “PT”, the corresponding part-by-part image display processing A in FIG. 10 is executed (step SB).

この対応パート別画像表示処理Aでは、まず、前記コマンドコード“PT”およびそのパラメータデータにより指定された英会話テキストのパート番号pが検知され(ステップBa1)、このパート番号pを前記タイムコードファイル12c3(図3参照)のコマンドコード“DI”およびそのパラメータデータで指定される英会話テキスト基本画像G0の画像番号に加算した値が、再生対象パートの画像番号iとして設定される(ステップBa2)。例えば、タイムコードファイル12c3(図3参照)の最初のコマンドコード“DI”のパラメータデータにより指定される基本画像番号が“00”であり、前記コマンドコード“PT”のパラメータデータにより指定されたパート番号p=“01”である場合には、再生対象パートの画像番号i=01(00+01)となる。   In the corresponding part-by-part image display process A, first, the part number p of the English conversation text designated by the command code “PT” and its parameter data is detected (step Ba1), and this part number p is used as the time code file 12c3. A value added to the command number “DI” (see FIG. 3) and the image number of the English conversation basic image G0 specified by the parameter data is set as the image number i of the reproduction target part (step Ba2). For example, the basic image number specified by the parameter data of the first command code “DI” in the time code file 12c3 (see FIG. 3) is “00”, and the part specified by the parameter data of the command code “PT”. When the number p = “01”, the reproduction target part image number i = 01 (00 + 01).

すると、コマンドコード“DI”に対応する命令(i番目の画像表示命令)が実行され、例えばファイルシーケンステーブル12c2の画像番号i=01に対応付けられてコンテンツ内容データ12c4に記憶されているID番号=6のパート1の会話中画像G1が表示される(ステップBa3)。   Then, a command (i-th image display command) corresponding to the command code “DI” is executed. For example, the ID number associated with the image number i = 01 in the file sequence table 12c2 and stored in the content content data 12c4. = 6 during conversation G1 of the part 1 is displayed (step Ba3).

こうして、コマンドコード“PT”により指定されたパート別画像の表示が行われると、該コマンドコード“PT”のパラメータデータにより指定される英会話パートのパート番号pが、前記学習内容の選択処理(ステップS1)においてユーザ選択されて記憶されたパート別練習を行う場合の指定パート番号12eと一致するか否か判断される(ステップS15)。   Thus, when the part-by-part image designated by the command code “PT” is displayed, the part number p of the English conversation part designated by the parameter data of the command code “PT” is selected from the learning content selection process (step In S1), it is determined whether or not it matches the designated part number 12e when performing the part-specific practice selected and stored by the user (step S15).

ここで、コマンドコード“PT”のパラメータデータにより指定される英会話パートのパート番号pが、ユーザ選択された指定パート番号12eと一致しない場合、つまりユーザ所望の会話練習パートと異なる会話パートであると判断された場合には、当該会話パート部分における音声出力を行うために音声オンフラグ12iがRAM12Cにセットされると共に(ステップS15→S16)、コマンドコード“HL”に応じて該当会話パートのテキスト文字列を識別表示させるためのハイライトの種類が、アンダーラインによる識別表示形態に変更設定される(ステップS17)。   Here, when the part number p of the English conversation part designated by the parameter data of the command code “PT” does not match the designated part number 12e selected by the user, that is, the conversation part is different from the conversation practice part desired by the user. If it is determined, the voice-on flag 12i is set in the RAM 12C in order to perform voice output in the conversation part portion (steps S15 to S16), and the text character string of the relevant conversation part according to the command code “HL”. The highlight type for identifying and displaying is changed and set to the identification display form by underlining (step S17).

一方、コマンドコード“PT”のパラメータデータにより指定される英会話パートのパート番号pが、ユーザ選択された指定パート番号12eと一致した場合、つまりユーザ所望の会話練習パートであると判断された場合には、当該会話パート部分における音声出力を停止させるために音声オフフラグ12iがRAM12Cにセットされると共に(ステップS15→S18)、コマンドコード“HL”に応じて該当会話パートのテキスト文字列を識別表示させるためのハイライトの種類が、反転による識別表示形態に変更設定される(ステップS19)。   On the other hand, when the part number p of the English conversation part designated by the parameter data of the command code “PT” matches the designated part number 12e selected by the user, that is, when it is determined that the conversation practice part is desired by the user. The voice off flag 12i is set in the RAM 12C in order to stop the voice output in the conversation part portion (steps S15 → S18), and the text character string of the conversation part is identified and displayed according to the command code “HL”. The type of highlight for this is changed and set to the identification display form by inversion (step S19).

すると、再び処理タイマによる計時動作に基づいて、当該タイマによる計時時間が次の処理単位時間12c1aに到達したか否か判断される(ステップS20)。   Then, based on the timing operation by the processing timer again, it is determined whether or not the time measured by the timer has reached the next processing unit time 12c1a (step S20).

一方、前記ステップS14において、前記再生用ファイル12cにおけるタイムコードファイル12c3(図3参照)から読み出されたコマンドコードが、“PT”ではないと判断された場合には、他のコマンド処理へ移行されて各コマンド内容(図6参照)に対応する処理が実行される(ステップSC)。   On the other hand, if it is determined in step S14 that the command code read from the time code file 12c3 (see FIG. 3) in the reproduction file 12c is not “PT”, the process proceeds to another command process. Then, processing corresponding to each command content (see FIG. 6) is executed (step SC).

そして、ステップS20において、前記タイマによる計時時間が次の処理単位時間12c1aに到達したと判断された場合には、RAM12Cに格納された解読済再生用ファイル(CASファイル)12cに対する読み出しポインタが次の位置に更新セットされ(ステップS20→S21)、前記ステップS11における当該読み出しポインタの位置のタイムコードファイル12c3(図3参照)のコマンドコードおよびそのパラメータデータ読み出しからの処理が繰り返される(ステップS21→S11〜S19(SC))。   If it is determined in step S20 that the time measured by the timer has reached the next processing unit time 12c1a, the read pointer for the decrypted reproduction file (CAS file) 12c stored in the RAM 12C is the next. The position is updated and set (step S20 → S21), and the process from reading the command code and its parameter data in the time code file 12c3 (see FIG. 3) at the position of the read pointer in step S11 is repeated (step S21 → S11). ~ S19 (SC)).

すなわち、携帯機器10のCPU11は、ROM12Aに記憶された同期コンテンツ再生処理プログラム12a2に従って、再生用ファイル12b(12c)に予め設定記述されているコマンド処理の単位時間毎に、タイムコードファイル12c3(図3参照)に配列されたコマンドコードおよびそのパラメータデータを読み出し、そのコマンドに対応する処理を指示するだけで、当該タイムコードファイル12c3に記述された各コマンドに応じたテキスト,音声,画像の同期再生出力処理が実行される。   That is, the CPU 11 of the portable device 10 performs a time code file 12c3 (see FIG. 5) for each command processing unit time preset in the reproduction file 12b (12c) according to the synchronized content reproduction processing program 12a2 stored in the ROM 12A. 3), the command code and its parameter data are read out, and the text, sound, and image are synchronously played back according to each command described in the time code file 12c3 simply by instructing the processing corresponding to the command. Output processing is executed.

そして、このように再生用ファイル12cにおけるタイムコードファイル12c3(図3参照)からのコマンドコードの読み出しに応じて、音声,テキスト,画像の同期再生出力の指示を行う場合に、前記対応パート別画像表示処理Aに従い、コマンドコード“PT”によって指示された次の再生パートに対応する会話中画像Gnの表示が行われるので、簡単に各会話パート別の口の動きを表した画像表示を行うことができ、ユーザはより効果的に会話の練習を行うことができる。   When the instruction for synchronous playback output of voice, text, and image is issued in accordance with the reading of the command code from the time code file 12c3 (see FIG. 3) in the playback file 12c, the corresponding part-by-part image In accordance with the display process A, the in-conversation image Gn corresponding to the next playback part instructed by the command code “PT” is displayed, so that an image representing the movement of the mouth for each conversation part can be easily displayed. The user can practice the conversation more effectively.

また、コマンドコード“PT”によって指示された次の再生パートが、ユーザ設定された練習対象のパートであるときには、当該パート部分の音声出力は停止され、テキスト,パート別画像Gnのみの同期再生出力状態となることで、ユーザは該ユーザ自身で設定した練習パートにおいて表示出力されるテキスト,パート別画像Gnを見ながら該テキストを自身で読み上げて会話の練習を行うことができる。   When the next playback part designated by the command code “PT” is the part to be practiced set by the user, the sound output of the part part is stopped, and the synchronous playback output of only the text and part-specific image Gn is performed. By entering the state, the user can practice the conversation by reading the text himself / herself while viewing the text and the part-by-part image Gn displayed and output in the practice part set by the user himself / herself.

また、同コマンドコード“PT”によって指示された次の再生パートが、ユーザ設定された練習対象のパートでないときには、当該パート部分の音声出力は停止されず、テキスト,音声,画像の同期再生出力状態となることで、ユーザは他のパートについて表示出力されるテキスト,画像を見ながら該テキストの音声出力を聞いて会話の練習を行うことができる。   When the next playback part designated by the command code “PT” is not the part to be practiced set by the user, the sound output of the part part is not stopped, and the synchronous playback output state of text, sound, and image Thus, the user can practice the conversation by listening to the voice output of the text while viewing the text and images displayed and output for the other parts.

ここで、図3で示す英語教材再生ファイル12cに基づいた、前記同期コンテンツ再生処理プログラム12a1(図8〜図10参照)による音声・テキスト・画像ファイルの同期再生出力動作について詳細に説明する。   Here, the synchronized playback output operation of audio / text / image files by the synchronized content playback processing program 12a1 (see FIGS. 8 to 10) based on the English teaching material playback file 12c shown in FIG. 3 will be described in detail.

図12は前記図3乃至図5における英語教材再生ファイル12cに基づいた英会話テキスト・音声・画像ファイルの同期再生状態(その1)を示す図である。   FIG. 12 is a diagram showing the synchronized playback state (part 1) of the English conversation text / sound / image file based on the English teaching material playback file 12c in FIGS.

この英語教材ファイル(12c)は、そのヘッダに予め記述設定された(基準)処理単位時間(例えば25ms)12c1a毎にコマンド処理が実行されるもので、まず、タイムコードファイル12c3(図3参照)の第1コマンドコード“CS”(クリアオールファイル)およびそのパラメータデータ“00”が読み出されると、全ファイルの出力をクリアする指示が行われ、テキスト・音声・画像ファイルの出力がクリアされる(ステップSC)。   This English teaching material file (12c) is one in which command processing is executed every (c) processing unit time (for example, 25 ms) 12c1a preset in its header. First, a time code file 12c3 (see FIG. 3). When the first command code “CS” (clear all file) and its parameter data “00” are read out, an instruction to clear the output of all the files is given, and the output of the text / audio / image file is cleared ( Step SC).

第2コマンドコード“DH”(i番目HTMLファイル表示)およびそのパラメータデータ“01”が読み出されると、当該コマンドコードDHと共に読み出されたパラメータデータ(i=1)に応じて、ファイルシーケンステーブル12c2(図4参照)からHTML番号1のID番号=2が読み出される。   When the second command code “DH” (i-th HTML file display) and its parameter data “01” are read, the file sequence table 12c2 according to the parameter data (i = 1) read together with the command code DH. The ID number = 2 of HTML number 1 is read from (see FIG. 4).

そして、このID番号=2に対応付けられてコンテンツ内容データ12c4(図5参照)から読み出されるHTMLデータの英会話テキスト・画像フレームデータに応じて、図12(A)に示すように、表示部18に対するテキスト表示フレームXや画像表示フレームYが設定される(ステップSC)。   Then, in accordance with the English conversation text / image frame data of the HTML data read from the content content data 12c4 (see FIG. 5) in association with the ID number = 2, as shown in FIG. A text display frame X and an image display frame Y for are set (step SC).

第3コマンドコード“DI”(i番目イメージファイル表示)およびそのパラメータデータ“00”が読み出されると、当該コマンドコードDIと共に読み出されたパラメータデータ(i=0)に応じて、ファイルシーケンステーブル12c2(図4参照)から画像番号1のID番号=5が読み出される。   When the third command code “DI” (i-th image file display) and its parameter data “00” are read, the file sequence table 12c2 is determined according to the parameter data (i = 0) read together with the command code DI. The ID number = 5 of the image number 1 is read from (see FIG. 4).

そして、このID番号=5に対応付けられてコンテンツ内容データ12c4(図5参照)から読み出されて画像展開バッファ12kに展開された画像データ(英会話テキスト基本画像G0)が、前記HTMLファイルで設定された画像表示フレームY内に表示される(ステップSC)。   Then, the image data (English conversation text basic image G0) read from the content content data 12c4 (see FIG. 5) and expanded in the image expansion buffer 12k in association with the ID number = 5 is set in the HTML file. Is displayed in the displayed image display frame Y (step SC).

第4コマンドコード“PS”(i番目サウンドファイルプレイ)およびそのパラメータデータ“02”が読み出されると、当該コマンドコードPSと共に読み出されたパラメータデータ(i=2)に応じて、ファイルシーケンステーブル12c2(図4参照)から音声番号2のID番号=32が読み出される。   When the fourth command code “PS” (i-th sound file play) and its parameter data “02” are read, the file sequence table 12c2 is determined according to the parameter data (i = 2) read together with the command code PS. The ID number = 32 of the voice number 2 is read from (see FIG. 4).

そして、このID番号=32に対応付けられてコンテンツ内容データ12c4(図5参照)から読み出された英会話音声データ(2)がステレオ音声出力部19bから出力開始される(ステップSC)。   Then, the English voice data (2) read from the content content data 12c4 (see FIG. 5) in association with the ID number = 32 is output from the stereo voice output unit 19b (step SC).

第5コマンドコード“LT”(i番目テキストロード)およびそのパラメータデータ“02”が読み出されると、当該コマンドコードLTと共に読み出されたパラメータデータ(i=2)に応じて、ファイルシーケンステーブル12c2(図4参照)からテキスト番号2のID番号=21が読み出される。   When the fifth command code “LT” (i-th text load) and its parameter data “02” are read, the file sequence table 12c2 (i = 2) is read according to the parameter data (i = 2) read together with the command code LT. ID number = 21 of text number 2 is read from (see FIG. 4).

そして、このID番号=21に対応付けられてコンテンツ内容データ12c4(図5参照)から読み出された英会話テキストデータ(2)
がRAM12Cのワークエリアにロードされる(ステップSC)。
The English conversation text data (2) read from the content content data 12c4 (see FIG. 5) in association with the ID number = 21.
Is loaded into the work area of the RAM 12C (step SC).

第6コマンドコード“VD”(i番目テキスト文節表示)およびそのパラメータデータ“00”が読み出されると、当該コマンドコードVDと共に読み出されたパラメータデータ(i=0)に応じて、ファイルシーケンステーブル12c2(図4参照)からテキスト番号0のID番号=19が読み出され、これに対応付けられてコンテンツ内容データ12c4(図5参照)にて指定された英会話タイトル文字の文節が、前記RAM12Cにロードされた英会話テキストデータ(2)の中から呼び出されて表示画面上のテキスト表示フレームX内に表示される(ステップSC)。   When the sixth command code “VD” (i-th text phrase display) and its parameter data “00” are read, the file sequence table 12c2 is determined according to the parameter data (i = 0) read together with the command code VD. The ID number = 19 of the text number 0 is read from (see FIG. 4), and the phrase of the English conversation title character specified in the content content data 12c4 (see FIG. 5) is loaded into the RAM 12C. It is called out from the English conversation text data (2), and is displayed in the text display frame X on the display screen (step SC).

第7コマンドコード“BL”(文字カウンタリセット・i番目文節ブロック指定)およびそのパラメータデータ“00”が読み出されると、前記テキスト表示フレームXで表示中の英会話文節の文字カウンタがリセットされ、0番目のブロックが指定される(ステップSC)。   When the seventh command code “BL” (character counter reset / i-th phrase block designation) and its parameter data “00” are read, the character counter of the English conversation phrase being displayed in the text display frame X is reset, and the 0th Are designated (step SC).

第8コマンドコード“PI”(パート別イメージファイル表示)およびそのパラメータデータ“00”が読み出されると、これ以降に指定されたパートの画像を表示する指示が行われる(ステップSC)。   When the eighth command code “PI” (part-by-part image file display) and its parameter data “00” are read, an instruction to display the image of the designated part is issued (step SC).

第9コマンドコード“PT”(i番目パート指定)およびそのパラメータデータ“01”が読み出されると、前記英会話テキスト基本画像G0に基づき、これから同期再生すべき前記英会話音声データ(2)および前記英会話テキストデータ(2)における会話パート1(Aさん)が指定される(ステップS14)。   When the ninth command code “PT” (i-th part designation) and its parameter data “01” are read, based on the English conversation basic image G0, the English conversation voice data (2) and the English conversation text to be reproduced from now on The conversation part 1 (Mr. A) in the data (2) is designated (step S14).

すると、図9における対応パート別画像表示処理Aに従い、前記指定のパート番号p=1に応じた画像番号i=1に対応して、パート1の人物の口の動作を表した会話中画像G1が読み出され、図12(A)に示すように表示される(ステップSB)。   Then, according to the corresponding part-by-part image display processing A in FIG. 9, the in-conversation image G1 representing the movement of the mouth of the part 1 person corresponding to the image number i = 1 corresponding to the specified part number p = 1. Is read and displayed as shown in FIG. 12A (step SB).

そして、予めユーザ設定された指定パート番号12eが会話パート2(Bさん)である場合には、前記第9コマンドコード“PT”により指定された会話パート1(Aさん)と一致しないので(ステップS15)、該当パート1の音声出力オンにされ(ステップS16)、また、コマンドコード“HL”に応じた処理内容のハイライト処理がアンダーライン処理に変更設定される(ステップS17)。   If the designated part number 12e preset by the user is the conversation part 2 (Mr. B), it does not coincide with the conversation part 1 (Mr. A) designated by the ninth command code “PT” (step A). S15), the audio output of the corresponding part 1 is turned on (step S16), and the highlight processing of the processing content corresponding to the command code “HL” is changed to underline processing (step S17).

そして、第10コマンドコード“HL”(i番目文字までハイライト・文字カウント)およびそのパラメータデータ“07”が読み出されると、当該コマンドコードHLと共に読み出されたパラメータデータ(i=7)に応じて、図12(A)に示すように、テキストデータの7番目の文字「A:What 」(スペース含む)までアンダーライン表示(下線表示)され、文字カウンタが同7番目の文字までカウントアップされる(ステップSC)。   Then, when the 10th command code “HL” (highlight / character count up to the i-th character) and its parameter data “07” are read, according to the parameter data (i = 7) read together with the command code HL. Then, as shown in FIG. 12A, the seventh character “A: What” (including space) of the text data is underlined (underlined), and the character counter is counted up to the seventh character. (Step SC).

この際、前記テキストデータのパート1(Aさん)部分である会話文字列のアンダーライン表示中には、音声出力オンに設定されているので、前記第4コマンドコード“PS”に応じてステレオ音声出力部19bから出力されている英会話音声データ(2)は、同会話パート1(Aさん)のアンダーライン表示部分を読み上げるところの音声が出力されることになる。   At this time, during the underline display of the conversation character string which is the part 1 (Mr. A) portion of the text data, since the voice output is set to ON, the stereo voice according to the fourth command code “PS” is set. As for the English conversation voice data (2) output from the output unit 19b, the voice of reading the underline display part of the same conversation part 1 (Mr. A) is output.

第11コマンドコード“NP”が読み出されると、現在の画像および英会話テキストデータの同期表示画面および英会話音声データの同期出力状態が維持される。   When the eleventh command code “NP” is read, the current image and the English conversation text data synchronous display screen and the English conversation voice data synchronous output state are maintained.

この後、第13コマンドコード“HL”、第35コマンドコード“HL”、第58コマンドコード“HL”に従い、パート1会話中画像G1の表示状態において、会話パート1(Aさん)部分のテキストデータが、順次、12番目の文字「high 」、19番目の文字「school 」、22番目の文字「do 」というように、アンダーライン表示(下線表示)されて行くのと共に、前記第4コマンドコード“PS”に応じてステレオ音声出力部19bから出力されている英会話音声データ(2)も、同会話パート1(Aさん)のアンダーライン表示部分を読み上げるところの音声が順次出力される(ステップS11〜S14→SC,S20,S21→S11)。   Thereafter, in accordance with the 13th command code “HL”, the 35th command code “HL”, and the 58th command code “HL”, the text data of the conversation part 1 (Mr. A) portion in the display state of the part 1 conversation-in-progress image G1. Are sequentially displayed as underlined (underlined) as the 12th character “high”, the 19th character “school”, and the 22nd character “do”, and the fourth command code “ As for the English conversation voice data (2) output from the stereo voice output unit 19b in response to “PS”, the voice that reads out the underline display part of the conversation part 1 (Mr. A) is sequentially output (steps S11 to S11). S14 → SC, S20, S21 → S11).

つまり、コマンドコード“PT”によって指示された次の英会話再生パートが、ユーザ設定された練習対象のパート(例えばパート2(Bさん))でないときには、当該他のパート部分の音声出力は停止されず、英会話テキスト,その読み上げ音声,対応パート別画像Gnの同期再生出力状態となることで、ユーザは他のパートについて表示出力されるテキスト,画像を見ながら該テキストの音声出力を聞いて会話の練習を行うことができる。   That is, when the next English conversation playback part designated by the command code “PT” is not the part to be practiced set by the user (for example, Part 2 (Mr. B)), the audio output of the other part part is not stopped. , The English conversation text, its reading voice, and the synchronized playback output state of the corresponding part-by-part image Gn, the user can practice the conversation by listening to the voice output of the text while viewing the text and images displayed for other parts. It can be performed.

そして、第119コマンドコード“PT”(i番目パート指定)およびそのパラメータデータ“02”が読み出されると、次に同期再生すべき前記英会話音声データ(2)および前記英会話テキストデータ(2)およびパート別画像Gnにおける会話パート2(Bさん)が指定される(ステップS14)。   When the 119 command code “PT” (i-th part designation) and its parameter data “02” are read out, the English conversation voice data (2), the English conversation text data (2) and the part to be reproduced next are synchronized. A conversation part 2 (Mr. B) in another image Gn is designated (step S14).

すると、図9における対応パート別画像表示処理Aに従い、前記指定のパート番号p=2に応じた画像番号i=2に対応して、パート2の人物の口の動作を表した会話中画像G2が読み出され、図12(B)に示すように表示される(ステップSB)。   Then, in accordance with the corresponding part-by-part image display processing A in FIG. 9, the in-conversation image G2 representing the movement of the mouth of the part 2 person corresponding to the image number i = 2 corresponding to the designated part number p = 2. Is read and displayed as shown in FIG. 12B (step SB).

ここで、予めユーザ設定された指定パート番号12eが会話パート2(Bさん)である場合には、前記第119コマンドコード“PT”により指定された会話パート2(Bさん)と一致するので(ステップS15)、該当パート2の音声出力オフにされ(ステップS18)、また、コマンドコード“HL”に応じた処理内容のハイライト処理が反転処理に変更設定される(ステップS19)。   Here, when the designated part number 12e set in advance by the user is the conversation part 2 (Mr. B), it matches the conversation part 2 (Mr. B) designated by the 119th command code “PT” ( In step S15), the audio output of the corresponding part 2 is turned off (step S18), and the highlight processing of the processing content corresponding to the command code “HL” is changed to the inversion processing (step S19).

そして、第120コマンドコード“HL”(i番目文字までハイライト・文字カウント)およびそのパラメータデータ“37”が読み出されると、当該コマンドコードHLと共に読み出されたパラメータデータ(i=37)に応じて、図12(B)に示すように、テキストデータの37番目の文字、つまり会話パート2の文字「B:I 」(スペース含む)まで今度は反転により表示され、文字カウンタが同37番目の文字までカウントアップされる(ステップSC)。   When the 120th command code “HL” (highlight / character count up to i-th character) and its parameter data “37” are read, according to the parameter data (i = 37) read together with the command code HL. Then, as shown in FIG. 12 (B), the 37th character of the text data, that is, the character “B: I” (including the space) of the conversation part 2 is now displayed by inversion, and the character counter is the 37th character. Counts up to characters (step SC).

この際、前記テキストデータのパート2(Bさん)部分である会話文字列の反転表示中には、音声出力オフに設定されているので、前記第4コマンドコード“PS”に応じてステレオ音声出力部19bから順次出力されていた英会話音声データ(2)は停止される。   At this time, during the reverse display of the conversation character string which is the part 2 (Mr. B) portion of the text data, since the voice output is set to OFF, the stereo voice output is performed according to the fourth command code “PS”. The English conversation voice data (2) sequentially output from the unit 19b is stopped.

この後、第132コマンドコード“HL”、第140コマンドコード“HL”に従い、パート2会話中画像G2の表示状態において、会話パート2(Bさん)部分のテキストデータが、音声出力無しのままで、順次、40番目の文字「go 」、43番目の文字「to 」というように、反転表示されて行く(ステップS11〜S14→SC,S20,S21→S11)。   Thereafter, in accordance with the 132nd command code “HL” and the 140th command code “HL”, the text data of the conversation part 2 (Mr. B) portion remains without sound output in the display state of the part 2 conversation-in-progress image G2. The 40th character “go” and the 43rd character “to” are sequentially displayed in reverse video (steps S11 to S14 → SC, S20, S21 → S11).

つまり、コマンドコード“PT”によって指示された次の英会話再生パートが、ユーザ設定された練習対象のパート(例えばパート2(Bさん))であるときには、当該パート部分の音声出力は停止され、英会話テキストパート1,対応パート別画像G2のみの同期再生出力状態となることで、ユーザは該ユーザ自身で設定した練習パートにおいて表示出力されるテキスト,画像を見ながら該テキストを自身で読み上げて会話の練習を行うことができる。   That is, when the next English conversation playback part instructed by the command code “PT” is the part to be practiced set by the user (for example, Part 2 (Mr. B)), the sound output of the part part is stopped and the English conversation is stopped. By entering the synchronized playback output state of only the text part 1 and the corresponding part-specific image G2, the user reads the text himself / herself while viewing the text / image displayed and output in the practice part set by the user himself / herself. Can practice.

さらに、第159コマンドコード“PT”(i番目パート指定)およびそのパラメータデータ“03”が読み出されると、次に同期再生すべき前記英会話音声データ(2)および前記英会話テキストデータ(2)およびパート別画像Gnにおける会話パート3(Cさん)が指定される(ステップS14)。   Further, when the 159th command code “PT” (i-th part designation) and its parameter data “03” are read, the English conversation voice data (2), the English conversation text data (2), and the part to be synchronously reproduced next are read. A conversation part 3 (Mr. C) in another image Gn is designated (step S14).

すると、図9における対応パート別画像表示処理Aに従い、前記指定のパート番号p=3に応じた画像番号i=3に対応して、パート3の人物の口の動作を表した会話中画像G3が読み出され、図12(C)に示すように表示される(ステップSB)。   Then, in accordance with the corresponding part-by-part image display processing A in FIG. 9, the in-conversation image G3 representing the movement of the mouth of the part 3 person corresponding to the image number i = 3 corresponding to the designated part number p = 3. Is read and displayed as shown in FIG. 12C (step SB).

ここで、予めユーザ設定された指定パート番号12eが会話パート2(Bさん)である場合には、前記第159コマンドコード“PT”により指定された会話パート3(Cさん)と一致しないので(ステップS15)、該当パート3の音声出力オンにされ(ステップS16)、また、コマンドコード“HL”に応じた処理内容のハイライト処理がアンダーライン処理に変更設定される(ステップS17)。   If the designated part number 12e preset by the user is the conversation part 2 (Mr. B), it does not match the conversation part 3 (Mr. C) designated by the 159th command code “PT” ( In step S15), the audio output of the corresponding part 3 is turned on (step S16), and the highlight processing of the processing content corresponding to the command code “HL” is changed to underline processing (step S17).

そして、第160コマンドコード“HL”(i番目文字までハイライト・文字カウント)およびそのパラメータデータ“70”が読み出されると、当該コマンドコードHLと共に読み出されたパラメータデータ(i=70)に応じて、図12(C)に示すように、テキストデータの70番目の文字「C:Me, 」(スペース含む)までアンダーライン表示(下線表示)され、文字カウンタが同70番目の文字までカウントアップされる(ステップSC)。   Then, when the 160th command code “HL” (highlight / character count up to i-th character) and its parameter data “70” are read out, according to the parameter data (i = 70) read out together with the command code HL. Then, as shown in FIG. 12C, the text data is underlined (underlined) up to the 70th character “C: Me,” (including spaces), and the character counter counts up to the 70th character. (Step SC).

この際、前記テキストデータのパート3(Cさん)部分である会話文字列のアンダーライン表示中には、音声出力オンに設定されているので、前記第4コマンドコード“PS”に応じてステレオ音声出力部19bから出力されている英会話音声データ(2)は、同会話パート3(Cさん)のアンダーライン表示部分を読み上げるところの音声が出力されることになる。   At this time, during the underline display of the conversation character string which is the part 3 (Mr. C) portion of the text data, since the voice output is set to ON, the stereo voice according to the fourth command code “PS” is set. As for the English conversation voice data (2) output from the output unit 19b, the voice of reading the underline display part of the conversation part 3 (Mr. C) is output.

この後、第172コマンドコード“HL”に従い、パート3会話中画像G3の表示状態において、会話パート3(Cさん)部分のテキストデータが75番目の文字「too.」までアンダーライン表示(下線表示)されて行くのと共に、前記第4コマンドコード“PS”に応じてステレオ音声出力部19bから出力されている英会話音声データ(2)も、同会話パート3(Cさん)のアンダーライン表示部分を読み上げるところの音声が続けて出力される(ステップS11〜S14→SC,S20,S21→S11)。   Thereafter, in accordance with the 172nd command code “HL”, the text data of the conversation part 3 (Mr. C) part is underlined (underlined) until the 75th character “too.” In the display state of the part 3 in-conversation image G3. ) And the English conversation voice data (2) output from the stereo voice output unit 19b in response to the fourth command code “PS” is also displayed in the underline display part of the same conversation part 3 (Mr. C). The voice to be read out is continuously output (steps S11 to S14 → SC, S20, S21 → S11).

つまり、コマンドコード“PT”によって指示された次の英会話再生パートが、再び、ユーザ設定された練習対象のパート(例えばパート2(Bさん))でなくなったときには、当該他のパート部分の音声出力が再開され、英会話テキスト,その読み上げ音声,対応パート画像Gnの同期再生出力状態となることで、ユーザは再び他のパートについて表示出力されるテキスト,画像を見ながら該テキストの音声出力を聞いて会話の練習を行うことができる。   That is, when the next English conversation playback part instructed by the command code “PT” is no longer the part to be practiced set by the user (for example, part 2 (Mr. B)), the audio output of the other part part is performed. Is resumed, and the English conversation text, its reading voice, and the corresponding part image Gn are in a synchronized playback output state, so that the user again listens to the text output displayed for the other parts and the voice output of the text while viewing the image. Can practice conversation.

このように、前記英会話教材再生ファイル(12c)におけるタイムコードファイル12c3(図3参照)・ファイルシーケンステーブル12c2(図4参照)・コンテンツ内容データ12c4(図5参照)に従って、当該再生ファイルに予め設定された(基準)処理単位時間(例えば25ms)12c1a毎のコマンド処理を行うことで、図12(A)〜(D)で示したように、表示画面上のテキスト表示フレームX内に英会話テキストデータがそのパート部分を識別表示されながら表示されると共に、画像表示フレームY内にそのパート人物の口の動きを示したパート別画像Gnが同期表示され、さらに、ステレオ音声出力部19bから識別表示中の英会話パートのテキストを読み上げる英会話音声データが同期出力されると共に、当該英会話テキストの読み上げ文節が各文字毎に順次同期ハイライト(強調)表示されるようになる。   Thus, the playback file is set in advance according to the time code file 12c3 (see FIG. 3), the file sequence table 12c2 (see FIG. 4), and the content content data 12c4 (see FIG. 5) in the English conversation teaching material playback file (12c). As shown in FIGS. 12 (A) to 12 (D), by executing command processing every (standard) processing unit time (for example, 25 ms) 12c1a, the English text data is displayed in the text display frame X on the display screen. Is displayed while the part portion is being identified and displayed, and the part-by-part image Gn showing the movement of the part person's mouth is synchronously displayed in the image display frame Y, and is further being identified and displayed from the stereo sound output unit 19b. English conversation voice data that reads out the text of the English conversation part of Reading clause is to be sequential synchronization highlighted (highlighted) display for each character.

この際、対応パート別画像表示処理Aに従い、コマンドコード“PT”によって指示された次の再生パートに対応するパート人物の口の動きを示した会話中画像Gnの表示が行われるので、簡単に各会話パート別の口の動きを表した画像表示を行うことができ、ユーザはより効果的に会話の練習を行うことができる。   At this time, according to the corresponding part-by-part image display processing A, the conversational image Gn indicating the movement of the part person's mouth corresponding to the next reproduction part instructed by the command code “PT” is displayed. Image display representing mouth movement for each conversation part can be performed, and the user can practice conversation more effectively.

また、ユーザが指定した会話パートの再生出力期間においては、その音声データの同期出力が停止されるので、ユーザは該ユーザ自身で設定した練習パートにおいて表示出力されるテキスト,パート別画像Gnを見ながら該テキストを自身で読み上げて会話の練習を行うことができ、他の会話パートにおいては、テキスト,パート別画像Gnを見ながらその読み上げ音声出力を聞いて練習することができる。   Also, during the playback output period of the conversation part specified by the user, the synchronized output of the audio data is stopped, so that the user views the text and the part-specific image Gn displayed and output in the practice part set by the user himself / herself. However, it is possible to practice the conversation by reading the text by itself, and in other conversation parts, it is possible to practice by listening to the speech output while viewing the text and the image by part Gn.

したがって、前記構成の携帯機器10によるファイル再生機能によれば、ROM12Aに予め記憶された再生処理プログラム12a1に従って、再生用ファイル12b(12c)に予め設定記述されているコマンド処理の基準単位時間(25ms/50ms)毎に、タイムコードファイル12c3に配列されたコマンドコードおよびそのパラメータデータを読み出し、そのコマンドに対応する処理を指示するだけで、当該タイムコードファイル12c3に記述された各コマンドに応じたテキスト・画像・音声ファイルなどの同期再生処理が実行される。   Therefore, according to the file playback function of the mobile device 10 having the above-described configuration, the command processing reference unit time (25 ms) preset in the playback file 12b (12c) according to the playback processing program 12a1 stored in advance in the ROM 12A. / 50 ms), the command code and its parameter data arranged in the time code file 12c3 are read out, and the text corresponding to each command described in the time code file 12c3 can be obtained simply by instructing the processing corresponding to the command. -Synchronous playback processing for images and audio files is executed.

そして、例えば英会話教材の再生用ファイル12b(12c)による複数の会話パートからなるテキスト・音声・画像の同期再生出力が行われる場合に、対応パート別画像表示処理Aに従い、コマンドコード“PT”およびそのパラメータデータによって指示された次の再生対象会話パートに対応するパート別人物の口の動きを示した会話中画像Gnの表示が行われるので、簡単に各会話パート別の口の動きを表した画像表示を行うことができ、ユーザはより効果的に会話の練習を行うことができる。   For example, when synchronous playback output of text, sound, and images consisting of a plurality of conversation parts is performed using the English conversation teaching material playback file 12b (12c), the command code “PT” and Since the in-conversation image Gn indicating the movement of the mouth of the person corresponding to the part to be reproduced next designated by the parameter data is displayed, the movement of the mouth for each conversation part is easily expressed. Images can be displayed, and the user can practice conversation more effectively.

また、前記コマンドコードおよびそのパラメータデータに応じて指定される次の出力対象会話パートが、ユーザにより設定した練習対象の会話パートと一致した場合には、当該設定会話パートでは音声出力を停止させてパート別テキストの識別・対応パーツ別画像Gnの同期表示出力のみ行い、また、練習対象の会話パートと一致しない場合には、音声出力を再開させてパート別テキストの識別・対応パーツ別画像Gnと共に同期再生が行われるので、ユーザ所望の会話パートのみテキストの読み上げ音声出力を簡単に消してユーザ自身が発音練習することができ、パート別の練習を容易且つ効果的に行うことができる。   Further, when the next output target conversation part specified in accordance with the command code and its parameter data matches the practice target conversation part set by the user, the set conversation part stops the voice output. Identification of part-by-part text / Synchronized display output of corresponding part-by-part image Gn is performed, and if it does not match the conversation part to be practiced, voice output is resumed and identification of part-by-part text and corresponding part-by-part image Gn Since synchronized playback is performed, the user can practice the pronunciation by simply turning off the text-to-speech output of only the conversation part desired by the user, and the practice for each part can be performed easily and effectively.

また、前記構成の携帯機器10によるファイル再生機能によれば、タイムコードファイル12c3に記述された基準処理単位時間毎のコマンドコードに応じて、音声データの出力指示“PS”や該音声データに合わせたテキストデータの表示指示“VD”“HL”およびパート別画像Gnの表示指示“DI”“PI”を行う場合に、各会話パートの開始の指定を“PT”により行って、対応するパート別画像Gnを表示したり、ユーザ設定された練習パートと一致した場合には当該パートの音声出力をオフにしたりする構成としたので、非常に簡単にパート別の練習を行うことができる。   Further, according to the file playback function by the mobile device 10 having the above-described configuration, the audio data output instruction “PS” or the audio data is matched according to the command code for each reference processing unit time described in the time code file 12c3. When the text data display instruction “VD” “HL” and the part-by-part image Gn display instruction “DI” “PI” are given, the start of each conversation part is designated by “PT”, and the corresponding part-by-part is designated. Since the image Gn is displayed or the voice output of the part is turned off when it matches the practice part set by the user, the practice for each part can be performed very easily.

また、前記構成の携帯機器10によるファイル再生機能によれば、タイムコードファイル12c3のコマンドコード“PT”によって指定されるパート番号(種類)は、当該コマンドコード“PT”と対に記述されたパラメータデータによって設定されるので、簡単に各再生パート指定を行ったタイムコードファイル12c3を作成することができる。   Further, according to the file playback function of the mobile device 10 having the above-described configuration, the part number (type) specified by the command code “PT” of the time code file 12c3 is a parameter described in a pair with the command code “PT”. Since it is set by data, it is possible to easily create a time code file 12c3 in which each playback part is designated.

なお、本第1実施形態の再生処理に伴う対応パート別画像表示処理A(図10参照)では、タイムコードファイル12c3のコマンドコードPTによって指定されたパート番号pに応じて、予め各会話パート毎にそのパート人物の口の動きを表現して用意したパート別の会話中画像Gnを切り替え表示させ、各パートの会話の状態を画像の上でも同期して表現する構成としたが、次の図13〜図15において示す対応パート別画像表示処理Bおよびテキスト対応口表示処理に従い説明するように、各パートの何れにも口の動きがない英会話テキスト基本画像G0をベースとして、前記コマンドコードPTにより指定される各パート人物の口エリアM1〜M3に対し、各パート英会話テキストの現在の識別表示文字に対応してテキスト対応発音口型データ12fから読み出される該当テキスト文字の発音口型画像を合成表示することで、各パートの会話の状態を画像の上でよりリアルに同期して表現する構成としもよい。   In the corresponding part-by-part image display process A (see FIG. 10) associated with the reproduction process of the first embodiment, each conversation part is previously set according to the part number p specified by the command code PT of the time code file 12c3. The conversation image Gn for each part prepared by expressing the movement of the mouth of the part person is switched and displayed, and the conversation state of each part is also expressed synchronously on the image. As described in accordance with the corresponding part-specific image display processing B and the text corresponding mouth display processing shown in FIGS. 13 to 15, the command code PT is based on the English conversation basic image G0 having no mouth movement in any of the parts. For each designated part person's mouth area M1 to M3, a text corresponding pronunciation mouth corresponding to the current identification display character of each part English conversation text By the sound outlet type image of the relevant text characters to composite display to be read from the data 12f, it may be configured cities representing synchronously more realistic conversational state of each part on the image.

図13は前記携帯機器10の再生処理に伴う対応パート別画像表示処理Bを示すフローチャートである。   FIG. 13 is a flowchart showing the corresponding part-specific image display process B accompanying the reproduction process of the portable device 10.

図14は前記携帯機器10の再生処理におけるコマンドコードHLに応じたパート別テキストのハイライト(強調)表示処理に伴い割り込みで実行されるテキスト対応口表示処理を示すフローチャートである。   FIG. 14 is a flowchart showing the text corresponding mouth display process executed by interruption in accordance with the highlight (highlight) display process of the text by part according to the command code HL in the reproduction process of the portable device 10.

図15は前記図3乃至図5における英語教材再生ファイル12cに基づいた英会話テキスト・音声・画像ファイルの同期再生状態(その2)を示す図である。   FIG. 15 is a diagram showing the synchronized playback state (part 2) of the English conversation text / sound / image file based on the English teaching material playback file 12c in FIGS.

すなわち、前記図8を参照して説明した再生処理のステップS14において、タイムコードファイル12c3からコマンドコードPTが読み出された場合に、図13における対応パート別画像表示処理Bに移行されると、まず、コンテンツ内容データ12c4の英会話テキスト基本画像G0が読み出されて、図15に示すように、表示画面上の画像表示フレームY内に表示される(ステップBb1)。   That is, when the command code PT is read from the time code file 12c3 in step S14 of the reproduction process described with reference to FIG. 8, the process proceeds to the corresponding part-specific image display process B in FIG. First, the English conversation text basic image G0 of the content content data 12c4 is read and displayed in the image display frame Y on the display screen as shown in FIG. 15 (step Bb1).

すると、前記コマンドコードPTのパラメータデータにより指定された次の再生対象パート番号pが検知され(ステップBb2)、当該指定のパート番号pに対応する前記英会話テキスト基本画像G0上での対応パート人物画像の口位置の矩形エリアデータ(位置座標)Mnが、当該英会話テキスト基本画像G0が記憶されたコンテンツ内容データ12c4から読み出される(ステップBb3)。   Then, the next reproduction target part number p designated by the parameter data of the command code PT is detected (step Bb2), and the corresponding part person image on the English conversation text basic image G0 corresponding to the designated part number p is detected. The rectangular area data (position coordinates) Mn of the mouth position is read from the content content data 12c4 in which the English conversation text basic image G0 is stored (step Bb3).

そして、再生処理のステップSCにおいて、タイムコードファイル12c3から読み出されたコマンドコードHLに従い、表示中にある英会話テキストの現在の読み上げ文字までがハイライト処理により識別表示されるのに伴い、図14におけるテキスト対応口表示処理が割り込みで起動されると、現在のテキストハイライト処理位置の文字が、当該コマンドコードHLのパラメータデータに基づき検知される(ステップD1)。   Then, in step SC of the reproduction process, according to the command code HL read from the time code file 12c3, up to the current read-out character of the English conversation text being displayed is identified and displayed by the highlight process. When the text corresponding mouth display process is activated by interruption, the character at the current text highlight processing position is detected based on the parameter data of the command code HL (step D1).

すると、このテキストハイライト位置の文字に対応する発音の口型画像データが、前記図9における発音口型データ作成処理により作成されたテキスト対応発音口型データ12f(図7参照)の口番号に従いROM12A内の口型データ12a3(図2参照)から読み出される(ステップD2)。   Then, the mouth shape image data of the pronunciation corresponding to the character at the text highlight position is in accordance with the mouth number of the text corresponding mouthpiece data 12f (see FIG. 7) created by the pronunciation mouth data creation processing in FIG. It is read from the mouth shape data 12a3 (see FIG. 2) in the ROM 12A (step D2).

そして、この現在のテキストハイライト位置の文字に対応する発音の口型画像データが、前記対応パート別画像表示処理BのステップBb3において読み出された指定パート人物画像の口位置の矩形エリアデータ(位置座標)Mnに従い、図15に示すように、表示中の英会話テキスト基本画像G0上に合成表示される(ステップD3)。   Then, the mouth shape image data of the pronunciation corresponding to the character at the current text highlight position is the rectangular area data (the mouth position of the designated part person image read out in step Bb3 of the corresponding part image display processing B) ( According to the position coordinates (Mn), as shown in FIG. 15, it is synthesized and displayed on the displayed English conversation basic image G0 (step D3).

これにより、現在再生中の英会話テキストの各パート別に、その発音に応じた口型を対応パート人物画像の口位置に合成して表示させることができ、各パートの会話の状態を画像の上でよりリアルに同期表現し、さらに効果的な会話の練習を行うことができる。   As a result, for each part of the English conversation text currently being played, the mouth shape corresponding to the pronunciation can be synthesized and displayed at the mouth position of the corresponding part person image, and the conversation status of each part can be displayed on the image. It is possible to express more realistically and to practice more effective conversation.

そして、入力部17aあるいは座標入力装置17bによって、「口内拡大表示」を指示するキー(ボタン)操作が行われると(ステップD4)、例えば図15(D)に示すように、前記パート別のテキストハイライト表示に対応して英会話テキスト基本画像G0上で合成表示中の口型画像の拡大画像G4が、前記ROM12A内の口型データ12a3(図2参照)から読み出され(ステップD5)、前記英会話テキスト基本画像G0上のパート別口エリアM1とは別の表示エリアにウインドウ表示される(ステップD6)。   When a key (button) operation for instructing “in-mouth enlarged display” is performed by the input unit 17a or the coordinate input device 17b (step D4), for example, as shown in FIG. Corresponding to the highlight display, an enlarged image G4 of the mouth shape image being synthesized and displayed on the English conversation basic image G0 is read from the mouth shape data 12a3 (see FIG. 2) in the ROM 12A (step D5), and A window is displayed in a display area different from the part-by-part mouth area M1 on the English conversation basic image G0 (step D6).

この場合、図15(D)では、パート1(Aさん)に対応するテキストハイライト表示「Oh,both」および読み上げ音声出力(19b)に同期された、「both」の「th」に対応する口型画像のパート1口エリアM1への合成表示および当該発音口型拡大画像G4のウインドウ表示状態を示している。   In this case, in FIG. 15D, it corresponds to “th” of “both” synchronized with the text highlight display “Oh, both” corresponding to Part 1 (Mr. A) and the reading voice output (19b). The combined display of the mouth-shaped image in the part-one mouth area M1 and the window display state of the pronunciation-mouthed enlarged image G4 are shown.

これにより、ユーザは会話練習中の発音の口型をリアルタイムに且つより詳しく知ることができ、最も効果的に英会話の練習を実施することができる。   Thereby, the user can know the mouth shape of pronunciation during the conversation practice in real time and in more detail, and can practice English conversation most effectively.

なお、このテキストハイライト位置に応じた口型合成表示の実施形態では、実際の発音に対応した口型画像を口型データ12a3から読み出して各パート別人物画像の口エリアMnに合成表示する構成としたが、全パートの人物画像が口を閉じている英会話テキスト基本画像G0に対して、単に開いた口画像をパート別に合成表示する構成としてもよい。   In the embodiment of the mouth type composition display according to the text highlight position, the mouth type image corresponding to the actual pronunciation is read from the mouth type data 12a3 and is synthesized and displayed in the mouth area Mn of the individual image for each part. However, it may be configured such that the opened mouth image is simply combined and displayed for each part with respect to the English conversation text basic image G0 in which the person images of all the parts are closed.

(第2実施形態)
次に、本発明の音声表示出力制御装置(編集装置)の第2実施形態に係る携帯機器10について説明する。
(Second Embodiment)
Next, the portable device 10 according to the second embodiment of the voice display output control device (editing device) of the present invention will be described.

この第2実施形態の携帯機器10では、辞書データ12a2に基づく見出語の検索に伴い、各見出語毎に用意した前記第1実施形態と同様のタイムコードファイル12c3に従って、当該見出語テキストの表示およびその読み上げ音声の出力に同期させた、発音の口型画像の表示を行う構成とする。   In the mobile device 10 according to the second embodiment, in accordance with the search for the headword based on the dictionary data 12a2, according to the time code file 12c3 similar to the first embodiment prepared for each headword, the headword. It is configured to display the mouth-shaped image of the pronunciation synchronized with the display of the text and the output of the reading voice.

図16は本発明の第2実施形態の携帯機器10のROM12Aに記憶された辞書データ12a2のデータ内容を示す図である。   FIG. 16 is a diagram showing data contents of the dictionary data 12a2 stored in the ROM 12A of the portable device 10 according to the second embodiment of the present invention.

図17は本発明の第2実施形態の携帯機器10のROM12Aに記憶された見出語音声データ12a4のデータ内容を示す図である。   FIG. 17 is a diagram showing data contents of the headword audio data 12a4 stored in the ROM 12A of the mobile device 10 according to the second embodiment of the present invention.

辞書データ12a2には、例えば英単語の見出語とその意味内容が、発音記号、この発音記号に応じた発声を行うための口型データ12a3(図2参照)内の口型の種類を示す口型番号および見出語音声データ12a4(図17参照)内の見出語音声データを示す見出語音声番号と対応付けられて記憶される。   In the dictionary data 12a2, for example, a headword of an English word and its meaning content indicate a phonetic symbol and the type of mouth shape in the mouth shape data 12a3 (see FIG. 2) for uttering according to the phonetic symbol. The mouth type number and the headword voice data indicating the headword voice data in the headword voice data 12a4 (see FIG. 17) are stored in association with each other.

見出語音声データ12a4には、前記辞書データ12a2として記憶された全ての英単語の見出語それぞれの読み上げ音声データがPCM音源からなるデータとして記憶される。   In the headword voice data 12a4, the read-out voice data of each headword of all English words stored as the dictionary data 12a2 is stored as data consisting of a PCM sound source.

図18は前記第2実施形態の携帯機器10による辞書検索・表示処理を示すフローチャートである。   FIG. 18 is a flowchart showing dictionary search / display processing by the mobile device 10 of the second embodiment.

図19は前記第2実施形態の携帯機器10による辞書検索・表示処理に伴う検索見出語表示・音声出力・口型画像表示の同期再生状態を示す図である。   FIG. 19 is a diagram showing a synchronized playback state of search headword display / voice output / mouth-shaped image display associated with dictionary search / display processing by the portable device 10 of the second embodiment.

例えば英単語「able」の検索を行う場合に、図19(A)に示すように、入力部17aの「英和」キー17a3が操作されると、英和辞典の見出語入力画面G5が表示される。この見出語入力画面G5において、検索対象見出語「able」が入力表示され、図示しない「決定」キーが操作されると(ステップE1)、辞書データ12a2(図16参照)に基づいて当該検索対象見出語「able」の検索が実行され(ステップE2)、該当する複数の見出語が検索されたか否か判断される(ステップE3)。   For example, when searching for the English word “able”, as shown in FIG. 19A, when the “English-Japanese” key 17a3 of the input unit 17a is operated, an English-Japanese dictionary entry word input screen G5 is displayed. The In this headword input screen G5, when the search target headword “able” is input and displayed and a “determine” key (not shown) is operated (step E1), the search is performed based on the dictionary data 12a2 (see FIG. 16). A search for the search target headword “able” is executed (step E2), and it is determined whether or not a plurality of corresponding headwords have been searched (step E3).

ここで、検索対象見出語「able」に該当する複数の見出語が、辞書データ12a2から検索された場合には、当該検索された複数の見出語が表示部18に一覧表示される(ステップE3→E4)。   Here, when a plurality of headwords corresponding to the search target headword “able” are searched from the dictionary data 12 a 2, the searched headwords are displayed in a list on the display unit 18. (Step E3 → E4).

この見出し語一覧表示において表示された複数の見出語の中から前記検索対象見出語「able」に対応する一つの見出語がキー入力により選択操作されるか(ステップE5)、または前記ステップE3において、該当の見出語が一つだけ検索されたと判断された場合には、この検索された一つの見出し単語「able」と共に辞書データ12a2として記憶されている発音記号が読み出され、表示部18に表示される(ステップE6)。   One headword corresponding to the search target headword “able” is selected from a plurality of headwords displayed in the headword list display by a key input (step E5), or If it is determined in step E3 that only one relevant headword has been searched, the phonetic symbol stored as the dictionary data 12a2 together with the one heading word “able” is read out. It is displayed on the display unit 18 (step E6).

そして、この検索表示された見出し単語「able」の発音を練習するために、図19(B)に示すように、入力部17aにおける「発音」キー17a4が操作されると(ステップE7)、当該見出し単語「able」のテキスト表示および音声出力に同期させて、発音の口型画像を表示させるための音声・テキスト・口画像同期処理に移行される(ステップES)。   Then, in order to practice the pronunciation of the headline word “able” displayed by the search, as shown in FIG. 19B, when the “pronunciation” key 17a4 in the input unit 17a is operated (step E7), In synchronization with the text display and voice output of the heading word “able”, the process proceeds to a voice / text / mouth image synchronization process for displaying a mouth image of the pronunciation (step ES).

この辞書検索・表示処理に伴う音声・テキスト・口画像同期処理は、前記第1実施形態と同様に各見出語毎に用意されたタイムコードファイル12c3に従い再生処理(図8参照)のステップS3〜S21(除くSA)によって実行される。   The voice / text / mouth image synchronization processing associated with the dictionary search / display processing is performed in step S3 of the reproduction processing (see FIG. 8) according to the time code file 12c3 prepared for each headword as in the first embodiment. To S21 (excluding SA).

例えばタイムコードファイル12c3のコマンドコード“PS”とそのパラメータデータによって、今回の見出し単語「able」の音声データが見出語音声データ12a4(図17参照)の中から読み出されてその音声出力が指示され、またコマンドコード“VD”とそのパラメータデータによって、当該見出し単語「able」のテキスト表示が指示され、コマンドコード“HL”とそのパラメータデータによって、テキスト表示された見出し単語「able」に対する前記音声データの出力に合わせた各文字毎のハイライト表示が指示され、コマンドコード“PT”とそのパラメータデータによって、前記見出し単語「able」のハイライト表示や音声データの出力に合わせた発音口型画像のイメージファイル表示が指示される。   For example, by using the command code “PS” of the time code file 12c3 and its parameter data, the voice data of the current headword “able” is read from the headword voice data 12a4 (see FIG. 17), and the voice output is obtained. The command code “VD” and its parameter data indicate the text display of the heading word “able”, and the command code “HL” and its parameter data indicate the text for the heading word “able”. A highlight display for each character in accordance with the output of the voice data is instructed, and by using the command code “PT” and its parameter data, the heading word “able” is highlighted and the pronunciation type adapted to the output of the voice data An instruction to display an image file is displayed.

これにより、図19(B)に示すように、辞書検索された見出し単語「able」の音声データ「エイブル」がステレオ音声出力部19bから出力されるのに合わせて、テキスト表示された見出し単語「able」が各文字毎に順次ハイライト表示され、更に、その発音の口型画像が順次切換表示される。   Accordingly, as shown in FIG. 19B, the heading word “Able” of the heading word “able” searched for the dictionary is output from the stereo voice output unit 19b, and the heading word “ "Able" is sequentially highlighted for each character, and the mouth-shaped images of the pronunciation are sequentially switched and displayed.

そして、前記検索された見出し単語に対応する発音口型画像の読み出し切換表示が終了すると(ステップE8)、当該検索対象見出し単語「able」に対応した一連の辞書検索・表示処理は終了される。   Then, when the readout switching display of the pronunciation-portion image corresponding to the searched headword is completed (step E8), a series of dictionary search / display processing corresponding to the search target headword “able” is ended.

したがって、前記構成の第2実施形態の携帯機器10によるファイル再生機能によれば、辞書検索モードにおいて、辞書データ12a2にある各見出し単語に対応付けられて見出語音声データ12a4に記憶されている音声データおよび口型データ12に記憶されている各発音記号毎の口型画像データを利用して、非常に簡単に、見出語テキストの表示およびその読み上げ音声の出力に同期させた、発音口型画像の表示を行うことができる。   Therefore, according to the file reproduction function by the mobile device 10 of the second embodiment having the above-described configuration, in the dictionary search mode, it is stored in the entry word data 12a4 in association with each entry word in the dictionary data 12a2. Using the mouth image data for each phonetic symbol stored in the speech data and the mouth shape data 12, the pronunciation mouth synchronized with the display of the headword text and the output of the reading speech very easily The mold image can be displayed.

なお、前記実施形態において記載した携帯機器10による各処理の手法、すなわち、図8のフローチャートに示すファイル再生処理、図9のフローチャートに示す前記ファイル再生処理に伴う発音口型データ作成処理、図10のフローチャートに示す前記ファイル再生処理に伴う対応パート別画像表示処理A、図13のフローチャートに示す前記ファイル再生処理に伴う対応パート別画像表示処理B、図14のフローチャートに示す前記ファイル再生処理におけるコマンドコードHLに応じたパート別テキストのハイライト(強調)表示処理に伴うテキスト対応口表示処理、図18のフローチャートに示す辞書検索・表示処理などの手法は、何れもコンピュータに実行させることができるプログラムとして、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記録媒体13に格納して配布することができる。そして、通信ネットワーク(インターネット)Nとの通信機能を備えた種々のコンピュータ端末は、この外部記録媒体13に記憶されたプログラムを記録媒体読取部14によってメモリ12に読み込み、この読み込んだプログラムによって動作が制御されることにより、前記第1実施形態および第2実施形態において説明したテキスト,音声,画像の同期再生機能を実現し、前述した手法による同様の処理を実行することができる。   Note that each processing method by the mobile device 10 described in the embodiment, that is, the file reproduction process shown in the flowchart of FIG. 8, the pronunciation type data creation process associated with the file reproduction process shown in the flowchart of FIG. Corresponding part-by-part image display process A accompanying the file reproduction process shown in the flowchart of FIG. 13, Corresponding part-by-part image display process B accompanying the file reproduction process shown in the flowchart of FIG. 13, and commands in the file reproduction process shown in the flowchart of FIG. A program that can cause a computer to execute any of the text-corresponding mouth display processing that accompanies the highlight (highlight) display processing of part-by-part text according to the code HL and the dictionary search / display processing shown in the flowchart of FIG. Memory card (ROM card, R M card), a magnetic disk (floppy disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.) can be distributed and stored in the external recording medium 13 such as a semiconductor memory. Various computer terminals having a communication function with the communication network (Internet) N read the program stored in the external recording medium 13 into the memory 12 by the recording medium reading unit 14, and the operation is performed by the read program. By being controlled, the synchronized playback function of text, sound, and image described in the first embodiment and the second embodiment can be realized, and the same processing by the above-described method can be executed.

また、前記各手法を実現するためのプログラムのデータは、プログラムコードの形態として通信ネットワーク(インターネット)N上を伝送させることができ、この通信ネットワーク(インターネット)Nに接続されたコンピュータ端末から前記のプログラムデータを取り込み、前述した各実施形態のテキスト,音声,画像の同期再生機能を実現することもできる。   The program data for realizing each of the above methods can be transmitted on a communication network (Internet) N in the form of a program code, and the above-mentioned data can be transmitted from a computer terminal connected to the communication network (Internet) N. The program data can be fetched to realize the synchronized reproduction function of the text, sound, and image of each of the above-described embodiments.

なお、本願発明は、前記各実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。さらに、前記各実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、各実施形態に示される全構成要件から幾つかの構成要件が削除されたり、幾つかの構成要件が組み合わされても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除されたり組み合わされた構成が発明として抽出され得るものである。   Note that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention at the stage of implementation. Further, each of the embodiments includes inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in each embodiment or some constituent features are combined, the problems described in the column of the problem to be solved by the invention can be solved. When the effects described in the column of the effect of the invention can be obtained, a configuration in which these constituent elements are deleted or combined can be extracted as an invention.

本発明の音声表示出力制御装置(編集装置)(音声テキスト再生装置)の実施形態に係る携帯機器10の電子回路の構成を示すブロック図。The block diagram which shows the structure of the electronic circuit of the portable apparatus 10 which concerns on embodiment of the audio | voice display output control apparatus (editing apparatus) (voice text reproduction apparatus) of this invention. 前記携帯機器10のROM12Aに記憶される口型データ12a3の内容を示す図。The figure which shows the content of the mouth type data 12a3 memorize | stored in ROM12A of the said portable apparatus 10. FIG. 前記携帯機器10のメモリ12に格納された再生用ファイル12b(12c)を構成するタイムコードファイル12c3を示す図。The figure which shows the time code file 12c3 which comprises the file 12b (12c) for reproduction | regeneration stored in the memory 12 of the said portable device 10. FIG. 前記携帯機器10のメモリ12に格納された再生用ファイル12b(12c)を構成するファイルシーケンステーブル12c2を示す図。The figure which shows file sequence table 12c2 which comprises the file 12b (12c) for reproduction | regeneration stored in the memory 12 of the said portable device 10. FIG. 前記携帯機器10のメモリ12に格納される再生用ファイル12b(12c)を構成するコンテンツ内容データ12c4を示す図。The figure which shows the content content data 12c4 which comprises the file 12b (12c) for reproduction | regeneration stored in the memory 12 of the said portable apparatus 10. FIG. 前記携帯機器10のタイムコードファイル12c3(図3参照)にて記述される各種コマンドのコマンドコードとそのパラメータデータおよび再生処理プログラム12a1に基づき解析処理される命令内容を対応付けて示す図。The figure which matches and shows the command code of the various commands described in the time code file 12c3 (refer FIG. 3) of the said portable apparatus 10, the parameter data, and the command content analyzed based on the reproduction | regeneration processing program 12a1. 前記携帯機器10のRAM12Cに記憶されるテキスト対応発音口型データ12fの内容を示す図。The figure which shows the content of the text corresponding sound-mouth type | mold data 12f memorize | stored in RAM12C of the said portable apparatus 10. FIG. 前記携帯機器10の再生処理プログラム12a1に従った再生処理を示すフローチャート。7 is a flowchart showing a playback process according to the playback process program 12a1 of the portable device 10. 前記携帯機器10の再生処理に伴う発音口型データ作成処理を示すフローチャート。6 is a flowchart showing sound generation type data creation processing that accompanies the reproduction processing of the mobile device 10. 前記携帯機器10の再生処理に伴う対応パート別画像表示処理Aを示すフローチャート。6 is a flowchart showing image display processing A for each corresponding part that accompanies playback processing of the mobile device 10. 前記携帯機器10の再生処理に伴う学習内容の選択操作・表示状態を示す図であり、同図(A)は学習内容選択画面Gを示す図、同図(B)(C)は当該学習内容選択画面Gを対象とする選択操作キーを示す図。It is a figure which shows the selection operation and display state of the learning content accompanying the reproduction | regeneration processing of the said mobile device 10, The figure (A) is a figure which shows the learning content selection screen G, The figure (B) (C) is the said learning content. The figure which shows the selection operation key which makes selection screen G object. 前記図3乃至図5における英語教材再生ファイル12cに基づいた英会話テキスト・音声・画像ファイルの同期再生状態(その1)を示す図。The figure which shows the synchronous reproduction | regeneration state (the 1) of an English conversation text, an audio | voice, and an image file based on the English teaching material reproduction | regeneration file 12c in the said FIG. 3 thru | or FIG. 前記携帯機器10の再生処理に伴う対応パート別画像表示処理Bを示すフローチャート。6 is a flowchart showing a corresponding part-by-part image display process B accompanying a reproduction process of the mobile device 10. 前記携帯機器10の再生処理におけるコマンドコードHLに応じたパート別テキストのハイライト(強調)表示処理に伴い割り込みで実行されるテキスト対応口表示処理を示すフローチャート。6 is a flowchart showing a text corresponding mouth display process executed by interruption in accordance with a highlight display process of part-by-part text according to a command code HL in the reproduction process of the mobile device 10. 前記図3乃至図5における英語教材再生ファイル12cに基づいた英会話テキスト・音声・画像ファイルの同期再生状態(その2)を示す図。The figure which shows the synchronous reproduction | regeneration state (the 2) of an English conversation text, an audio | voice, and an image file based on the English teaching material reproduction | regeneration file 12c in the said FIG. 3 thru | or FIG. 本発明の第2実施形態の携帯機器10のROM12Aに記憶された辞書データ12a2のデータ内容を示す図。The figure which shows the data content of the dictionary data 12a2 memorize | stored in ROM12A of the portable apparatus 10 of 2nd Embodiment of this invention. 本発明の第2実施形態の携帯機器10のROM12Aに記憶された見出語音声データ12a4のデータ内容を示す図。The figure which shows the data content of the headword audio | voice data 12a4 memorize | stored in ROM12A of the portable apparatus 10 of 2nd Embodiment of this invention. 前記第2実施形態の携帯機器10による辞書検索・表示処理を示すフローチャート。The flowchart which shows the dictionary search and display process by the portable apparatus 10 of the said 2nd Embodiment. 前記第2実施形態の携帯機器10による辞書検索・表示処理に伴う検索見出語表示・音声出力・口型画像表示の同期再生状態を示す図。The figure which shows the synchronous reproduction | regeneration state of the search headword display, audio | voice output, and mouth type | mold image display accompanying the dictionary search and display process by the portable apparatus 10 of the said 2nd Embodiment.

符号の説明Explanation of symbols

10 …携帯機器
11 …CPU
12 …メモリ
12A…ROM
12a1…ファイル再生処理プログラム
12a2…辞書データ
12a3…口型データ
12a4…見出語音声データ
12B…FLASHメモリ
12b…暗号化された再生用ファイル(CASファイル)
12C…RAM
12c…解読された再生用ファイル(CASファイル)
12c1…ヘッダ情報
12c1a…処理単位時間
12c2…ファイルシーケンステーブル
12c3…タイムコードファイル
12c4…コンテンツ内容データ
12d…指定テキスト番号
12e…指定パート番号
12f…テキスト対応発音口型データ
12g…テキストハイライト指定文字
12h…画像(オン/オフ)フラグ
12i…音声(オン/オフ)フラグ
12j…画像展開済みフラグ
12k…画像展開バッファ
13 …外部記録媒体
14 …記録媒体読取部
15 …電送制御部
16 …通信部
17a…入力部
17b…座標入力装置
18 …表示部
19a…音声入力部
19b…ステレオ音声出力部
20 …通信機器(自宅PC)
30 …Webサーバ
N …通信ネットワーク(インターネット)
X …テキスト表示フレーム
Y …画像表示フレーム
G0 …英会話テキスト基本画像
G1〜G3…パート1〜パート3会話中画像
G4 …発音口型拡大画像
G5 …見出語入力画面
M1〜M3…パート1〜パート3口エリア
10 ... Mobile device 11 ... CPU
12 ... Memory 12A ... ROM
12a1... File reproduction processing program 12a2... Dictionary data 12a3... Mouth data 12a4 .. entry speech data 12B... FLASH memory 12b... Encrypted reproduction file (CAS file)
12C ... RAM
12c: Decoded playback file (CAS file)
12c1 ... Header information 12c1a ... Processing unit time 12c2 ... File sequence table 12c3 ... Time code file 12c4 ... Content content data 12d ... Designated text number 12e ... Designated part number 12f ... Text-corresponding pronunciation type data 12g ... Text highlight designated character 12h ... Image (on / off) flag 12i ... Audio (on / off) flag 12j ... Image developed flag 12k ... Image developed buffer 13 ... External recording medium 14 ... Recording medium reading unit 15 ... Electric transmission control unit 16 ... Communication unit 17a ... Input unit 17b ... Coordinate input device 18 ... Display unit 19a ... Audio input unit 19b ... Stereo audio output unit 20 ... Communication equipment (home PC)
30 ... Web server N ... Communication network (Internet)
X ... Text display frame Y ... Image display frame G0 ... English conversation text basic images G1 to G3 ... Part 1 to Part 3 conversation-in-progress image G4 ... Sound-entry type enlarged image G5 ... Headword input screen M1 to M3 ... Part 1 to part 3 mouth area

Claims (14)

音声データを出力する音声データ出力手段と、
テキストデータを前記音声データ出力手段により出力される音声データに同期するように表示させるテキスト同期表示制御手段と、
このテキスト同期表示制御手段により前記音声データに同期するように表示されるテキストの同期表示部分に対応して口の動きを表現する画像を表示させる画像表示制御手段と、
を備えたことを特徴とする音声表示出力制御装置。
Audio data output means for outputting audio data;
Text synchronization display control means for displaying text data so as to be synchronized with the voice data output by the voice data output means;
Image display control means for displaying an image expressing the movement of the mouth corresponding to the synchronous display portion of the text displayed so as to be synchronized with the audio data by the text synchronous display control means;
An audio display output control device comprising:
前記画像表示制御手段は、
前記テキストデータの各部に応じて異なる口の動きを表現した複数の画像を記憶する画像記憶手段を有し、
前記テキスト同期表示制御手段により音声データに同期するように表示されるテキストの同期表示部分に対応した画像を前記画像記憶手段により記憶された複数の画像の中から読み出して表示させる、
ことを特徴とする請求項1に記載の音声表示出力制御装置。
The image display control means includes
Image storage means for storing a plurality of images expressing different mouth movements according to each part of the text data;
The image corresponding to the synchronous display portion of the text displayed so as to be synchronized with the audio data by the text synchronous display control means is read out from the plurality of images stored by the image storage means and displayed.
The voice display output control device according to claim 1.
前記画像表示制御手段は、
画像を表示する画像表示手段と、
種々の発音に応じて異なる口の動きを表現した複数の口画像を記憶する口画像記憶手段と、
前記テキスト同期表示制御手段により音声データに同期するように表示されるテキストの同期表示部分の発音に対応した口画像を前記口画像記憶手段により記憶された複数の口画像の中から読み出し、前記画像表示手段により表示された画像の口の位置に表示させる口画像表示制御手段と、
を備えてなることを特徴とする請求項1に記載の音声表示出力制御装置。
The image display control means includes
Image display means for displaying an image;
Mouth image storage means for storing a plurality of mouth images expressing different mouth movements according to various pronunciations;
The mouth image corresponding to the pronunciation of the synchronous display portion of the text displayed so as to be synchronized with the voice data by the text synchronization display control means is read out from the plurality of mouth images stored by the mouth image storage means, and the image Mouth image display control means for displaying the mouth position of the image displayed by the display means;
The voice display output control device according to claim 1, comprising:
前記口画像記憶手段は、種々の発音に応じて異なる口の動きを表現した複数の口画像と共に、この複数の口画像のそれぞれに対応付けて当該口の内部画像を記憶し、
前記口画像表示制御手段により表示された口画像に対応して、当該口の内部画像を読み出し拡大して表示する口内拡大表示手段をさらに備えたことを特徴とする請求項3に記載の音声表示出力制御装置。
The mouth image storage means stores a plurality of mouth images expressing different mouth movements according to various pronunciations, and stores an internal image of the mouth in association with each of the plurality of mouth images,
4. The voice display according to claim 3, further comprising an intra-mouth enlarged display unit that reads and enlarges and displays an internal image of the mouth corresponding to the mouth image displayed by the mouth image display control unit. Output control device.
前記テキスト同期表示制御手段は、
予め設定された経過時間に従い前記テキストデータを前記音声データ出力手段により出力される音声データに同期するように表示させるための命令コードを記憶する命令コード記憶手段を有し、この命令コード記憶手段により記憶された命令コードに応じて、前記テキストデータを音声データに同期して表示させ、
前記画像表示制御手段は、前記命令コード記憶手段により記憶された命令コードに応じて画像の表示を行わせる、
ことを特徴とする請求項1乃至請求項4の何れか1項に記載の音声表示出力制御装置。
The text synchronous display control means includes:
There is an instruction code storage means for storing an instruction code for displaying the text data in synchronization with the voice data output by the voice data output means in accordance with a preset elapsed time, and the instruction code storage means In accordance with the stored instruction code, the text data is displayed in synchronization with the voice data,
The image display control means causes an image to be displayed according to the instruction code stored by the instruction code storage means.
The voice display output control apparatus according to any one of claims 1 to 4, wherein the voice display output control apparatus is configured as described above.
電子機器のコンピュータを制御して音声データとテキストデータと画像データとを同期再生するための音声表示出力制御処理プログラムであって、
前記コンピュータを、
音声データを出力する音声データ出力手段、
テキストデータを前記音声データ出力手段により出力される音声データに同期するように表示させるテキスト同期表示制御手段、
このテキスト同期表示制御手段により前記音声データに同期するように表示されるテキストの同期表示部分に対応して口の動きを表現する画像を表示させる画像表示制御手段、
として機能させるようにしたコンピュータ読み込み可能な音声表示出力制御処理プログラム。
An audio display output control processing program for controlling a computer of an electronic device to synchronously reproduce audio data, text data, and image data,
The computer,
Audio data output means for outputting audio data;
Text synchronization display control means for displaying text data so as to be synchronized with voice data output by the voice data output means;
Image display control means for displaying an image expressing mouth movement corresponding to a synchronous display portion of text displayed so as to be synchronized with the audio data by the text synchronous display control means;
A computer-readable audio display output control processing program designed to function as a computer.
音声にテキストと画像を同期させて出力させるための対応データを編集する編集装置であって、
種々の音声データに対応付けてそれぞれ異なる複数の口の画像を記憶する口画像記憶手段と、
出力対象のテキストに応じた音声データに対応付けられて前記口画像記憶手段により記憶された口の画像を読み出し、当該出力対象のテキストまたは音声データの位置に対応付けて記憶する対応データ編集手段と、
を備えたことを特徴とする編集装置。
An editing device that edits corresponding data for outputting text and images in synchronization with audio,
Mouth image storage means for storing a plurality of different mouth images in association with various audio data;
Corresponding data editing means for reading out the mouth image stored in the mouth image storage means in association with the voice data corresponding to the output target text and storing it in correspondence with the position of the output target text or voice data; ,
An editing apparatus comprising:
前記音声にテキストを同期させて出力させるのと共に、前記対応データ編集手段により記憶された対応データに基づいて、出力対象のテキストに対応付けられた口の画像を読み出して表示する同期再生手段を備えたことを特徴とする請求項7に記載の編集装置を備えた音声テキスト再生装置。   Synchronous playback means for outputting text in synchronization with the voice and reading and displaying an image of the mouth associated with the text to be output based on the correspondence data stored by the correspondence data editing means. A speech text reproducing apparatus comprising the editing apparatus according to claim 7. 複数の見出語と当該各見出語に対応付けて口の画像データを記憶する辞書記憶手段と、
この辞書記憶手段により記憶された見出語を検索する見出語検索手段と、
この見出語検索手段により検索された見出語と共に当該見出語に対応付けられて前記辞書記憶手段により記憶された口の画像データを読み出し、その見出語の各文字と口の画像データとを順次同期して表示させる同期表示制御手段と、
を備えたことを特徴とする音声テキスト再生装置。
Dictionary storage means for storing mouth image data in association with a plurality of headwords and each headword;
An entry word search means for searching for an entry word stored by the dictionary storage means;
The mouth image data stored in the dictionary storage means in association with the headword searched by the headword search means is read out, and each character of the headword and the mouth image data are read out. Synchronous display control means for sequentially and synchronously displaying,
A speech text reproducing apparatus comprising:
複数の見出語と当該各見出語に対応付けて音声データと口の画像データを記憶する辞書記憶手段と、
この辞書記憶手段により記憶された見出語を検索する見出語検索手段と、
この見出し語検索手段により検索された見出語に対応付けられて前記辞書記憶手段により記憶された音声データを出力する音声出力手段と、
前記見出し語検索手段により検索された見出語の各文字を前記音声出力手段により出力される音声データに順次同期して表示させると共に、当該見出語に対応付けられて前記辞書記憶手段により記憶された口の画像データを読み出しその見出語各文字の表示に順次同期して表示させる同期表示制御手段と、
を備えたことを特徴とする音声テキスト再生装置。
Dictionary storage means for storing voice data and mouth image data in association with a plurality of headwords and each headword;
An entry word search means for searching for an entry word stored by the dictionary storage means;
Voice output means for outputting voice data stored in the dictionary storage means in association with the headword searched by the headword search means;
Each character of the headword searched by the headword search means is sequentially displayed in synchronization with the voice data output by the voice output means, and stored in association with the headword by the dictionary storage means. Synchronous display control means for reading out the image data of the mouth and sequentially displaying it in synchronism with the display of each character of the headword;
A speech text reproducing apparatus comprising:
コンピュータを制御して音声にテキストと画像を同期させて出力させるための対応データを編集する編集処理プログラムであって、
前記コンピュータを、
種々の音声データに対応付けてそれぞれ異なる複数の口の画像を記憶する口画像記憶手段、
出力対象のテキストに応じた音声データに対応付けられて前記口画像記憶手段により記憶された口の画像を読み出し、当該出力対象のテキストまたは音声データの位置に対応付けて記憶する対応データ編集手段、
として機能させるようにしたコンピュータ読み込み可能な編集処理プログラム。
An edit processing program for editing correspondence data for controlling a computer to output text and images in synchronization with voice,
The computer,
Mouth image storage means for storing a plurality of different mouth images in association with various audio data;
Corresponding data editing means for reading out the mouth image stored in the mouth image storage means in association with the voice data corresponding to the output target text, and storing it in correspondence with the position of the output target text or voice data,
A computer-readable editing processing program designed to function as a computer.
前記コンピュータをさらに、
前記音声にテキストを同期させて出力させるのと共に、前記対応データ編集手段により記憶された対応データに基づいて、出力対象のテキストに対応付けられた口の画像を読み出して表示する同期再生手段、
として機能させるようにした請求項11に記載の編集処理プログラムを備えた音声テキスト再生処理プログラム。
The computer further
Synchronous reproduction means for reading out and displaying an image of the mouth associated with the text to be output based on the correspondence data stored by the correspondence data editing means, while outputting the text in synchronization with the voice;
A speech text reproduction processing program comprising the editing processing program according to claim 11, which is configured to function as
テキストの発音記号と口型画像とを対応付けて複数組み記憶している第1の記憶手段と、
文字と音声とを対応付けて複数組み記憶している第2の記憶手段と、
この第2の記憶手段に記憶されている音声を外部に順次出力させると共に、この出力される音声に同期して前記第2の記憶手段に対応付けて記憶されている文字を順次識別表示させる第1の制御手段と、
この第1の制御手段の制御により順次識別表示される文字に同期して、当該識別表示される文字の発音記号に対応して前記第1の記憶手段に対応付けて記憶されている口型画像を読み出し、この読み出された口型画像を順次切換表示させる第2の制御手段と、
を備えたことを特徴とする音声表示出力制御装置。
First storage means for storing a plurality of sets of text phonetic symbols and mouth-shaped images in association with each other;
Second storage means for storing a plurality of sets of characters and voices in association with each other;
The voice stored in the second storage means is sequentially output to the outside, and the characters stored in association with the second storage means are sequentially identified and displayed in synchronization with the output voice. 1 control means;
Mouth-shaped images stored in association with the first storage means in correspondence with the phonetic symbols of the characters to be identified and displayed in synchronization with the characters that are sequentially identified and displayed by the control of the first control means Second control means for sequentially switching and displaying the read mouth-shaped images,
An audio display output control device comprising:
電子機器のコンピュータを制御して音声とテキストと画像を同期させて出力させるための音声表示出力制御処理プログラムであって、
前記コンピュータを、
テキストの発音記号と口型画像とを対応付けて複数組み記憶する第1の記憶手段、
文字と音声とを対応付けて複数組み記憶する第2の記憶手段、
この第2の記憶手段により記憶された音声を外部に順次出力させると共に、この出力される音声に同期して前記第2の記憶手段により対応付けて記憶された文字を順次識別表示させる第1の制御手段、
この第1の制御手段の制御により順次識別表示される文字に同期して、当該識別表示される文字の発音記号に対応して前記第1の記憶手段により対応付けて記憶された口型画像を読み出し、この読み出された口型画像を順次切換表示させる第2の制御手段、
として機能させるようにしたコンピュータ読み込み可能な音声表示出力制御処理プログラム。
An audio display output control processing program for controlling a computer of an electronic device to output audio, text, and an image in synchronization with each other,
The computer,
First storage means for storing a plurality of sets of text phonetic symbols and mouth-shaped images in association with each other;
Second storage means for storing a plurality of sets of characters and voices in association with each other;
First, the voice stored by the second storage means is sequentially output to the outside, and the characters stored in association with the second storage means are sequentially identified and displayed in synchronization with the output voice. Control means,
In synchronization with the characters that are sequentially identified and displayed under the control of the first control means, the mouth image stored in association with the first storage means in correspondence with the phonetic symbols of the characters that are identified and displayed. A second control means for sequentially reading and displaying the read mouth-shaped images;
A computer-readable audio display output control processing program designed to function as a computer.
JP2007196114A 2007-07-27 2007-07-27 Display control apparatus and display control processing program Expired - Fee Related JP4591481B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007196114A JP4591481B2 (en) 2007-07-27 2007-07-27 Display control apparatus and display control processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007196114A JP4591481B2 (en) 2007-07-27 2007-07-27 Display control apparatus and display control processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2003054829A Division JP4111005B2 (en) 2003-02-28 2003-02-28 Voice display output control device and voice display output control processing program

Publications (2)

Publication Number Publication Date
JP2007328806A true JP2007328806A (en) 2007-12-20
JP4591481B2 JP4591481B2 (en) 2010-12-01

Family

ID=38929171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007196114A Expired - Fee Related JP4591481B2 (en) 2007-07-27 2007-07-27 Display control apparatus and display control processing program

Country Status (1)

Country Link
JP (1) JP4591481B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010045757A1 (en) * 2008-10-24 2010-04-29 无敌科技(西安)有限公司 Emulated video and audio synchronous display device and mrthod
JP2016157042A (en) * 2015-02-26 2016-09-01 カシオ計算機株式会社 Electronic apparatus and program

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05313686A (en) * 1992-04-02 1993-11-26 Sony Corp Display controller
JPH06274596A (en) * 1993-03-19 1994-09-30 Internatl Business Mach Corp <Ibm> Terminal for virtual conference system and virtual conference system
JPH06282248A (en) * 1993-03-25 1994-10-07 Nec Corp Scenario editing method
JPH10268753A (en) * 1997-03-25 1998-10-09 Tokai Univ Computer-readable recording medium recording chinese learning program, and chinese learning device
JPH11338862A (en) * 1998-05-22 1999-12-10 Sharp Corp Electronic dictionary retrieval device and method and storage medium recording the method
JP2000020683A (en) * 1998-06-30 2000-01-21 Victor Co Of Japan Ltd Communication conference system
JP2000250402A (en) * 1999-03-01 2000-09-14 Kono Biru Kk Device for learning pronunciation of foreign language and recording medium where data for learning foreign language pronunciation are recorded
JP2001042879A (en) * 1999-08-04 2001-02-16 Matsushita Electric Ind Co Ltd Karaoke device
JP2002150317A (en) * 2000-11-08 2002-05-24 Minolta Co Ltd Image display device
JP2002189403A (en) * 2000-12-20 2002-07-05 Iti Joho Kogaku Kenkyusho:Kk Education system for foreign language
JP2002536720A (en) * 1999-01-31 2002-10-29 フローマー ヤコブ Electronic translation device

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05313686A (en) * 1992-04-02 1993-11-26 Sony Corp Display controller
JPH06274596A (en) * 1993-03-19 1994-09-30 Internatl Business Mach Corp <Ibm> Terminal for virtual conference system and virtual conference system
JPH06282248A (en) * 1993-03-25 1994-10-07 Nec Corp Scenario editing method
JPH10268753A (en) * 1997-03-25 1998-10-09 Tokai Univ Computer-readable recording medium recording chinese learning program, and chinese learning device
JPH11338862A (en) * 1998-05-22 1999-12-10 Sharp Corp Electronic dictionary retrieval device and method and storage medium recording the method
JP2000020683A (en) * 1998-06-30 2000-01-21 Victor Co Of Japan Ltd Communication conference system
JP2002536720A (en) * 1999-01-31 2002-10-29 フローマー ヤコブ Electronic translation device
JP2000250402A (en) * 1999-03-01 2000-09-14 Kono Biru Kk Device for learning pronunciation of foreign language and recording medium where data for learning foreign language pronunciation are recorded
JP2001042879A (en) * 1999-08-04 2001-02-16 Matsushita Electric Ind Co Ltd Karaoke device
JP2002150317A (en) * 2000-11-08 2002-05-24 Minolta Co Ltd Image display device
JP2002189403A (en) * 2000-12-20 2002-07-05 Iti Joho Kogaku Kenkyusho:Kk Education system for foreign language

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010045757A1 (en) * 2008-10-24 2010-04-29 无敌科技(西安)有限公司 Emulated video and audio synchronous display device and mrthod
JP2016157042A (en) * 2015-02-26 2016-09-01 カシオ計算機株式会社 Electronic apparatus and program

Also Published As

Publication number Publication date
JP4591481B2 (en) 2010-12-01

Similar Documents

Publication Publication Date Title
JP4370811B2 (en) Voice display output control device and voice display output control processing program
JP2005070645A (en) Text and voice synchronizing device and text and voice synchronization processing program
JP4741406B2 (en) Nonlinear editing apparatus and program thereof
JP2001215979A (en) Karaoke device
JP2004266576A (en) Media data storage apparatus, and media data storage processing program
JP2005073138A (en) Information regenerating device and information regeneration processing program
JP5083155B2 (en) Electronic device and program with dictionary function
JP4591481B2 (en) Display control apparatus and display control processing program
JP4277512B2 (en) Electronic device and program
JP4111005B2 (en) Voice display output control device and voice display output control processing program
JP4407119B2 (en) Instruction code creation device
JP2018146961A (en) Voice reproduction device and voice reproduction program
JP2004212646A (en) Voice data display output control device and voice data display output control processing program
JP2005326811A (en) Voice synthesizer and voice synthesis method
JP2005077678A (en) Text and voice synchronizing device and text and voice synchronization processing program
JP3794355B2 (en) Reproduction control device and reproduction control processing program
JP2004302285A (en) Device and program for information output
JP2012098753A (en) Audio display output control device, image display control device, audio display output control process program and image display control process program
JP4985714B2 (en) Voice display output control device and voice display output control processing program
KR100383061B1 (en) A learning method using a digital audio with caption data
JP2008009221A (en) Voice reproduction control apparatus and control program
JP2004205782A (en) Speech display output controller and speech display output control processing program
JP4970392B2 (en) Voice recording and playback method and electronic dictionary using the method
JP2006284645A (en) Speech reproducing device, and reproducing program and reproducing method therefor
JP2007188175A (en) Server device, terminal device, and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100817

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100830

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130924

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4591481

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees