JP4111005B2 - 音声表示出力制御装置および音声表示出力制御処理プログラム - Google Patents
音声表示出力制御装置および音声表示出力制御処理プログラム Download PDFInfo
- Publication number
- JP4111005B2 JP4111005B2 JP2003054829A JP2003054829A JP4111005B2 JP 4111005 B2 JP4111005 B2 JP 4111005B2 JP 2003054829 A JP2003054829 A JP 2003054829A JP 2003054829 A JP2003054829 A JP 2003054829A JP 4111005 B2 JP4111005 B2 JP 4111005B2
- Authority
- JP
- Japan
- Prior art keywords
- mouth
- image
- display
- data
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
Description
【発明の属する技術分野】
本発明は、音声,テキスト,画像などのデータを出力するための音声表示出力制御装置および音声表示出力制御処理プログラムに関する。
【0002】
【従来の技術】
従来、音楽,テキスト,画像などを同時並行して再生する技術としては、例えばMPEG-3により情報圧縮された音声ファイルのフレーム毎に、当該各フレームに設けられた付加データエリアに対して、音声ファイルに同期再生すべきテキストファイルや画像ファイルの同期情報を埋め込んでおくことにより、例えばカラオケの場合では、カラオケ音声とそのイメージ画像および歌詞のテキストを同期再生するものがある。
【0003】
また、音声に対する文字の時間的な対応情報が予め用意されていることを前提に、当該音声信号の特徴量を抽出し対応する文字と関連付けて表示する装置も考えられている。(例えば、特許文献1参照。)
【0004】
【特許文献1】
特公平06−025905号公報
【0005】
【発明が解決しようとする課題】
しかしながら、このように従来行われているMPEGファイルの付加データエリアを利用した複数種類のファイルの同期再生技術では、同期情報の埋め込みが主たるMP3音声ファイルの各フレーム毎の付加データエリアに規定されるため、当該MP3音声ファイルを再生させない限り同期情報を取り出すことが出来ず、MP3ファイルの再生を軸としてしか他の種類のファイルの同期再生を行うことが出来ない。
【0006】
このため、例えばMP3音声ファイルにテキストファイルおよび画像ファイルの同期情報を埋め込んだ場合に、音声ファイルの再生を行わない期間にあっても無音声のデータとして音声再生処理を継続的に行っていないと同期対象テキストおよび画像の再生を行うことが出来ない問題がある。
【0007】
例えば英会話テキストによってヒヤリング練習やリーディング練習を行う際は、テキストの表示および当該テキストの読み上げ音声の出力と共に、具体的にどのような発音をすれば良いのか明確に示すための画像表示を行う方が望ましい。しかし、このようなMP3音声ファィルによる英会話テキストを作成した場合、当該MP3音声ファィルの各フレーム毎に対応部分の英文テキスト,発音表示のための画像の同期情報を埋め込んでおく必要があるばかりか、リーディング練習用として無音声期間を設定しても、前述した通り、当該無音声期間でも音声再生処理を継続して行わないと該当期間のテキスト,画像表示を行うことができない。
【0008】
また、前記従来の特許文献1に記載の装置にあっても、音声信号に対応する文字が予め関連付けされて音声及び文字の同期再生が成されるだけであるため、音声出力及び文字を同期表示させるのと共に、対応画像を同期表示させたりすることはできない。
【0009】
一方、カラオケのモニタなど、音声出力と同期して文字列や背景画像などを表示するものもあるが、前述したMP3ファイルのように、音声,文字列,画像それぞれ別々でそのもののデータを予め合わせて組み込んだ同期再生用のファイルを作成しなければならない。
【0010】
本発明は、前記のような問題に鑑みてなされたもので、テキストデータと音声データと画像データとの出力に際し、音声出力、テキスト表示、発音用画像表示を簡単に出力することが可能になる音声表示出力制御装置および音声表示出力制御処理プログラムを提供することを目的とる。
【0011】
【課題を解決するための手段】
すなわち、本発明の請求項1に係る音声表示出力制御装置は、音声データを出力する音声データ出力手段と、テキストデータを表示するとともに、人物の画像を表示する表示手段とを備えている音声表示出力制御装置において、前記音声データ出力手段による音声データの音声出力と前記表示手段によるテキストデータの表示出力とを制御する音声・テキスト制御手段と、音声データによる音声出力に応じて異なる口の形状をした複数の口画像を記憶している口画像記憶手段と、前記音声・テキスト制御手段の制御により前記音声データ出力手段から出力される音声データの音声出力に対応した口画像を前記口画像記憶手段に記憶された複数の口画像の中から読み出し、前記表示手段に表示された人物画像の口の位置に表示させる口画像表示制御手段と、を備えたことを特徴としている。
【0012】
これによれば、音声出力に応じて異なる口の形状をした複数の口画像の中から、音声出力に対応した口の形状の口画像を順次読み出し、この読み出された口画像を、表示されている人物画像の口の位置で順次表示できることになる。
【0037】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態について説明する。
【0038】
(第1実施形態)
図1は本発明の音声表示出力制御装置(編集装置)(音声テキスト再生装置)の実施形態に係る携帯機器10の電子回路の構成を示すブロック図である。
【0039】
この携帯機器(PDA:personal digital assistants)10は、各種の記録媒体に記録されたプログラム、又は、通信伝送されたプログラムを読み込んで、その読み込んだプログラムによって動作が制御されるコンピュータによって構成され、その電子回路には、CPU(central processing unit)11が備えられる。
【0040】
CPU11は、メモリ12内のROM12Aに予め記憶されたPDA制御プログラム、あるいはROMカードなどの外部記録媒体13から記録媒体読取部14を介して前記メモリ12に読み込まれたPDA制御プログラム、あるいはインターネットなどの通信ネットワークN上の他のコンピュータ端末(30)から電送制御部15を介して前記メモリ12に読み込まれたPDA制御プログラムに応じて、回路各部の動作を制御するもので、前記メモリ12に記憶されたPDA制御プログラムは、スイッチやキーからなる入力部17aおよびマウスやタブレットからなる座標入力装置17bからのユーザ操作に応じた入力信号、あるいは電送制御部15に受信される通信ネットワークN上の他のコンピュータ端末(30)からの通信信号、あるいはBluetooth(R)による近距離無線接続や有線接続による通信部16を介して受信される外部の通信機器(PC:personal computer)20からの通信信号に応じて起動される。
【0041】
前記CPU11には、前記メモリ12、記録媒体読取部14、電送制御部15、通信部16、入力部17a、座標入力装置17bが接続される他に、LCDからなる表示部18、マイクを備え音声を入力する音声入力部19a、左右チャンネルのスピーカL,Rを備え音声を出力するステレオ音声出力部19bなどが接続される。
【0042】
また、CPU11には、処理時間計時用のタイマが内蔵される。
【0043】
この携帯機器10のメモリ12は、ROM12A、FLASHメモリ(EEP-ROM)12B、RAM12Cを備えて構成される。
【0044】
ROM12Aには、当該携帯機器10の全体の動作を司るシステムプログラムや電送制御部15を介して通信ネットワークN上の各コンピュータ端末(30)とデータ通信するためのネット通信プログラム、通信部16を介して外部の通信機器(PC)20とデータ通信するための外部機器通信プログラムが記憶される他に、スケジュール管理プログラムやアドレス管理プログラム、そして音声・テキスト・画像などの各種のファイルを同期再生するための再生処理プログラム12a1など、種々のPDA制御プログラムが記憶される。
【0045】
また、ROM12Aにはさらに、辞書データ12a2、口型データ12a3(図2参照)、および見出語音声データ12a4が記憶される。辞書データ12a2sとしては、英和辞書、和英辞書、国語辞書など、各種の辞書のデータが記憶される。
【0046】
図2は前記携帯機器10のROM12Aに記憶される口型データ12a3の内容を示す図である。
【0047】
この口型データ12a3としては、例えば英語の各発音記号とその口型番号のそれぞれに対応付けられて、正面方向から見た口型画像と、これを拡大した口の内部の横方向からの口型断面画像と、その小説明(コメント)データが記憶される。
【0048】
なお、見出語音声データ12a4については、後述の第2実施形態において説明する。
【0049】
FLASHメモリ(EEP-ROM)12Bには、前記再生処理プログラム12a1に基づき再生処理の対象となる暗号化された再生用ファイル(CASファイル)12bが記憶される他に、前記スケジュール管理プログラムやアドレス管理プログラムに基づき管理されるユーザのスケジュール及び友人・知人のアドレスなどが記憶される。
【0050】
ここで、前記FLASHメモリ(EEP-ROM)12B内に記憶される暗号化再生用ファイル12bは、例えば英語や歌の練習をテキスト・音声・画像の同期再生により行うためのファイルであり、所定のアルゴリズムにより圧縮・暗号化されている。
【0051】
この暗号化再生用ファイル12bは、例えばCD−ROMに記録されて配布されたり、通信ネットワーク(インターネット)N上のファイル配信サーバ30から配信配布されたりするもので、前記CD−ROMあるいはネットサーバ(30)により配布された暗号化再生用ファイル12bは、例えばユーザ自宅PCとしての通信機器(PC)20に読み込まれた後、携帯機器(PDA)10の通信部16を介してFLASHメモリ(EEP-ROM)12Bに転送格納される。
【0052】
RAM12Cには、前記暗号化された再生用ファイル12bを伸張・復号化した解読された再生用ファイル(CASファイル)12cが記憶されると共に、この解読再生ファイル12cの中の画像ファイルが展開されて記憶される画像展開バッファ12kが備えられる。解読されたCASファイル12cは、再生命令の処理単位時間(12c1a)を記憶するヘッダ情報(12c1)、および後述するファイルシーケンステーブル(12c2)、タイムコードファイル(12c3)、コンテンツ内容データ(12c4)で構成される。そして、RAM12Cには、この画像展開バッファ12kに展開されて記憶された画像ファイルそれぞれの展開済の画像番号を示す画像展開済フラグ12jが記憶される。
【0053】
また、RAM12Cには、再生用ファイル12b(12c)の選択コンテンツにおける指定テキスト番号12d、指定されたテキスト番号に対応する英会話テキストに対しユーザにより指定された指定パート番号12e、指定されたテキスト番号に対応する英会話テキストの各英単語それぞれの全発音記号とその口型番号が前記辞書データ12a2および口型データ12a3から検索されて記憶されるテキスト対応発音口型データ12f(図7参照)、前記再生用ファイル12b(12c)基づき英会話テキストの各文字がその読み上げ音声と読み上げアニメ画像に同期付けられてハイライト識別表示された際に、現時点のハイライト識別文字としてリアルタイムに検知記憶されるテキストハイライト指定文字12g、そして前記再生用ファイル12b(12c)内の同期再生ファイルとして含まれる画像ファイルの同期再生する/しないを設定するための画像(オン/オフ)フラグ12h、前記再生用ファイル12b(12c)内の同期再生ファイルとして含まれる音声ファイルの同期再生する/しないを設定するための音声(オン/オフ)フラグ12iが記憶される。
【0054】
さらに、RAM12Cには、その他各種の処理に応じてCPU11に入出力される種々のデータを一時記憶するためワークエリアが用意される。
【0055】
図3は前記携帯機器10のメモリ12に格納された再生用ファイル12b(12c)を構成するタイムコードファイル12c3を示す図である。
【0056】
図4は前記携帯機器10のメモリ12に格納された再生用ファイル12b(12c)を構成するファイルシーケンステーブル12c2を示す図である。
【0057】
図5は前記携帯機器10のメモリ12に格納される再生用ファイル12b(12c)を構成するコンテンツ内容データ12c4を示す図である。
【0058】
この携帯機器10の再生対象ファイルとなる再生用ファイル12b(12c)は、図3〜図5で示すように、タイムコードファイル12c3とファイルシーケンステーブル12c2とコンテンツ内容データ12c4との組み合わせにより構成される。
【0059】
図3で示すタイムコードファイル12c3には、個々のファイル毎に予め設定される一定時間間隔の元の(基準)処理単位時間(例えば25ms)で各種ファイル同期再生のコマンド処理を行うためのタイムコードが記述配列されるもので、この各タイムコードは、命令を指示するコマンドコードと、当該コマンドに関わるファイル内容(図5参照)を対応付けするためのファイルシーケンステーブル12c2(図4)の参照番号や指定数値からなるパラメータデータとの組み合わせにより構成される。
【0060】
なお、このタイムコードに従い順次コマンド処理を行うための一定時間間隔の元の(基準)処理単位時間12c1aは、当該タイムコードファイル12c3のヘッダ情報12c1に記述設定される。
【0061】
例えば図3で示すタイムコードファイル12c3からなる再生用ファイル12b(12c)のファイル再生時間は、予め設定された元の(基準)処理単位時間が25msである場合、2400ステップのタイムコードからなる再生処理を経て60秒間となる。
【0062】
図4で示すファイルシーケンステーブル12c2は、複数種類のファイル(HTML/画像/テキスト/音声)の各種類毎に、前記タイムコードファイル12c3(図3参照)に記述される各コマンドのパラメータデータと実際のファイル内容の格納先(ID)番号とを対応付けたテーブルである。
【0063】
図5で示すコンテンツ内容データ12c4は、前記ファイルシーケンステーブル12c2(図4参照)により前記各コマンドコードと対応付けされる実際の音声,画像,テキストなどのファイルデータが、そのそれぞれのID番号を対応付けて記憶される。
【0064】
本実施形態のファイルシーケンステーブル12c2においてリンク付けされるコンテンツ内容データ12c4について簡単に説明すると、例えばID=5に対応するデータ内容には、3人の会話パートによる英会話テキストの基本画像G0(図15参照)が用意され、ID=6に対応するデータ内容には、前記基本画像G0に基づいたパート1の会話中画像G1(図12(A)(D)参照)が用意され、ID=7に対応するデータ内容には、前記基本画像G0に基づいたパート2の会話中画像G2(図12(B)参照)が用意され、ID=8に対応するデータ内容には、前記基本画像G0に基づいたパート3の会話中画像G3(図12(C)参照)が用意される。
【0065】
なお、前記コンテンツ内容データ12c4のID=5に対応する英会話テキストの基本画像G0(図15参照)には、各パート人物画像毎の口エリアの座標データx1y1,x2y2(図15のM1〜M3参照)が対応付けられて記憶される。
【0066】
また、例えばID=21に対応するデータ内容には、前記3人の会話パートによる英会話テキストの会話中画像G1〜G3が同期付けされる英会話テキストデータ▲2▼(図12・図15参照)が用意され、さらに、例えばID=32に対応するデータ内容には、同3人の会話パートによる英会話テキストの会話中画像G1〜G3および英会話テキストデータ▲2▼が同期付けされる英会話音声データ▲2▼(図12・図15の19b参照)が用意される。
【0067】
図6は前記携帯機器10のタイムコードファイル12c3(図3参照)にて記述される各種コマンドのコマンドコードとそのパラメータデータおよび再生処理プログラム12a1に基づき解析処理される命令内容を対応付けて示す図である。
【0068】
タイムコードファイル12c3に使用されるコマンドとしては、標準コマンドと拡張コマンドがあり、標準コマンドには、LT(i番目テキストロード).VD(i番目テキスト文節表示).BL(文字カウンタリセット・i番目文節ブロック指定).HN(ハイライト無し・文字カウンタカウントアップ).HL(i番目文字までハイライト・文字カウント).LS(1行スクロール・文字カウンタカウントアップ).DH(i番目HTMLファイル表示).DI(i番目イメージファイル表示).PS(i番目サウンドファイルプレイ).CS(クリアオールファイル).PP(基本タイムi秒間停止).FN(処理終了).NP(無効)の各コマンドがあり、拡張コマンドには、PT(i番目パート指定).PI(パート別イメージファイル表示)などの各コマンドがある。
【0069】
図7は前記携帯機器10のRAM12Cに記憶されるテキスト対応発音口型データ12fの内容を示す図である。
【0070】
すなわち、この携帯機器(PDA)10のROM12Aに記憶されている再生処理プログラム12a1を起動させて、FLASHメモリ12Bから解読されRAM12Cに記憶された解読再生用ファイル12cが、例えば図3乃至図5で示したファイル内容であり、設定処理単位時間毎のコマンド処理に伴い3番目のコマンドコード“DI”およびパラメータデータ“00”が読み込まれた場合には、このコマンド“DI”はi番目のイメージファイル表示命令であるため、パラメータデータi=00からファイルシーケンステーブル12c2(図4参照)にリンク付けられる画像ファイルのID番号=5に従い、コンテンツ内容データ12c4(図5参照)の英会話テキスト基本画像G0が読み出されて表示される。
【0071】
また、設定処理単位時間毎のコマンド処理に伴い6番目のコマンドコード“VD”およびパラメータデータ“00”が読み込まれた場合には、このコマンド“VD”はi番目のテキスト文節表示命令であるため、パラメータデータi=00に従い、テキストの0番目の文節が表示される。
【0072】
また、設定処理単位時間毎のコマンド処理に伴い8番目のコマンドコード“PI”およびパラメータデータ“00”が読み込まれた場合には、このコマンド“PI”はパート別イメージファイル表示命令であるため、これ以降のコマンドコードPT(i番目パート指定)に従い指定されたパートの画像表示が指示される。
【0073】
また、設定処理単位時間毎のコマンド処理に伴い9番目のコマンドコード“PT”およびパラメータデータ“01”が読み込まれた場合には、このコマンド“PT”はi番目パート指定命令であるため、パラメータデータi=01に従い、再生対象ファイルにおける1番目のパートが指定される。
【0074】
さらに、設定処理単位時間毎のコマンド処理に伴い11番目のコマンドコード“NP”およびパラメータデータ“00”が読み込まれた場合には、このコマンド“NP”は無効命令であるため、現状のファイル出力状態が維持される。
【0075】
なお、この図3乃至図5で示したファイル内容の再生用ファイル12b(12c)についての詳細な再生動作は、後述にて改めて説明する。
【0076】
次に、前記構成の携帯機器10によるファイル再生機能について説明する。
【0077】
図8は前記携帯機器10の再生処理プログラム12a1に従った再生処理を示すフローチャートである。
【0078】
図9は前記携帯機器10の再生処理に伴う発音口型データ作成処理を示すフローチャートである。
【0079】
図10は前記携帯機器10の再生処理に伴う対応パート別画像表示処理Aを示すフローチャートである。
【0080】
図11は前記携帯機器10の再生処理に伴う学習内容の選択操作・表示状態を示す図であり、同図(A)は学習内容選択画面Gを示す図、同図(B)(C)は当該学習内容選択画面Gを対象とする選択操作キーを示す図である。
【0081】
例えば英語の勉強がテキストと画像と音声で行える英語教材再生ファイルを、CD−ROMや通信ネットワーク(インターネット)N上のサーバ30から自宅PCである通信機器(PC)20に取り込み、携帯機器(PDA)10の通信部16を介して当該再生用ファイル(CASファイル)12bがFLASHメモリ12Bに、あるいは解読された再生用ファイル12cとしてRAM12Cに格納された状態において、入力部17aあるいは座標入力装置(マウス/タブレット)17bの操作によりこの再生用ファイル12b(12c)の再生が指示されると、まず、図11(A)に示すように、学習内容をユーザ選択させるための学習内容選択画面Gが表示部18に表示される(ステップS1)。
【0082】
この学習内容選択画面Gにあって、図11(B)(C)に示すように、入力部17aのカーソルキー17a1および「決定」キー17a2の操作により、英会話の全体を聞く、またはパート別練習における各会話パート(1:2:3)の何れかが選択されると、RAM12C内の各ワークエリアのクリア処理などのイニシャライズ処理が行われ、前記選択された英会話パートのパート番号が指定パート番号12eとしてRAM12Cに記憶される(ステップS1,S2)。
【0083】
そして、前記FLASHメモリ12Bに格納された再生用ファイル(CASファイル)12bが読み込まれ(ステップS3)、当該再生用ファイル(CASファイル)12bは暗号化ファイルであるか否か判断される(ステップS4)。
【0084】
ここで、暗号化された再生用ファイル(CASファイル)12bであると判断された場合には、当該CASファイル12bは解読復号化され(ステップS4→S5)、RAM12Cに転送されて格納される(ステップS6)。
【0085】
ここで、図9における発音口型データ作成処理が実行される(ステップSA)。
【0086】
この発音口型データ作成処理では、まず、コンテンツ内容データ12c4として記憶されている英会話テキストデータが、例えば図7に示すように、RAM12C内のテキスト対応発音口型データ12fとして読み込まれる(ステップA1)。
【0087】
すると、このテキスト対応発音口型データ12fに読み込まれた英会話テキストデータのすべての単語が、ROM12Aに記憶されている辞書データ12a2に基づいて順次辞書引きされ、そのそれぞれの発音記号が読み出される(ステップA2)。
【0088】
そして、前記英会話テキストデータの全ての単語について読み出された発音記号の各々に対応する口型番号データが、ROM12Aに記憶されている口型データ12a3(図2参照)から読み出され、各会話パート毎のテキスト単語、発音記号、口型番号として対応付けられて前記RAM12C内のテキスト対応発音口型データ12fに編集記憶される。
【0089】
なお、この発音口型データ作成処理では、コンテンツ内容データ12c4として記憶されている英会話テキストデータが、RAM12C内のテキスト対応発音口型データ12fとして読み込まれた際に、既に同一の英会話テキストデータについて前回の再生処理に伴いその発音口型データとの対応付け編集が完了している場合には、この同一の英会話テキストデータについての発音口型データ作成処理は省略されて行われない。
【0090】
こうして、発音口型データ作成処理により英会話テキストとその発音口型データとの対応付け編集が完了すると、CPU11による再生用ファイル(CASファイル)12cの処理単位時間12c1a(例えば25ms)がタイムコードファイル12c3のヘッダ情報12c1として設定される(ステップS7)。
【0091】
そして、RAM12Cに格納された解読済再生用ファイル(CASファイル)12cの先頭に読み出しポインタがセットされ(ステップS8)、当該再生用ファイル12cの再生処理タイミングを計時するためのタイマがスタートされる(ステップS9)。
【0092】
ここで、先読み処理が当該再生処理に並行して起動される(ステップS10)。
【0093】
この先読み処理では、再生用ファイル12cのタイムコードファイル12c3(図3参照)に従った現在の読み出しポインタの位置のコマンド処理よりも後に画像ファイル表示の“DI”コマンドがある場合は、予め当該“DI”コマンドのパラメータデータにより指示される画像ファイルを先読みして画像展開バッファ12kに展開しておくことで、前記読み出しポインタが実際に後の“DI”コマンドの位置まで移動した場合に、処理に遅れなく指定の画像ファイルを直ちに出力表示できるようにする。
【0094】
前記ステップS9において、処理タイマがスタートされると、前記ステップS7にて設定された今回の再生対象ファイル12cに応じた処理単位時間(25ms)毎に、前記ステップS8にて設定された読み出しポインタの位置の当該再生用ファイル12cを構成するタイムコードファイル12c3(図3参照)のコマンドコードおよびそのパラメータデータが読み出される(ステップS11)。
【0095】
そして、前記再生用ファイル12cにおけるタイムコードファイル12c3(図3参照)から読み出されたコマンドコードが、“FN”か否か判断され(ステップS12)、“FN”と判断された場合には、その時点で当該ファイル再生処理の停止処理が指示実行される(ステップS12→S13)。
【0096】
一方、前記再生用ファイル12cにおけるタイムコードファイル12c3(図3参照)から読み出されたコマンドコードが、“FN”ではないと判断された場合には、当該コマンドコードが、“PT”か否か判断される(ステップS12→S14)。
【0097】
そして、コマンドコード“PT”と判断された場合には、図10における対応パート別画像表示処理Aが実行される(ステップSB)。
【0098】
この対応パート別画像表示処理Aでは、まず、前記コマンドコード“PT”およびそのパラメータデータにより指定された英会話テキストのパート番号pが検知され(ステップBa1)、このパート番号pを前記タイムコードファイル12c3(図3参照)のコマンドコード“DI”およびそのパラメータデータで指定される英会話テキスト基本画像G0の画像番号に加算した値が、再生対象パートの画像番号iとして設定される(ステップBa2)。例えば、タイムコードファイル12c3(図3参照)の最初のコマンドコード“DI”のパラメータデータにより指定される基本画像番号が“00”であり、前記コマンドコード“PT”のパラメータデータにより指定されたパート番号p=“01”である場合には、再生対象パートの画像番号i=01(00+01)となる。
【0099】
すると、コマンドコード“DI”に対応する命令(i番目の画像表示命令)が実行され、例えばファイルシーケンステーブル12c2の画像番号i=01に対応付けられてコンテンツ内容データ12c4に記憶されているID番号=6のパート1の会話中画像G1が表示される(ステップBa3)。
【0100】
こうして、コマンドコード“PT”により指定されたパート別画像の表示が行われると、該コマンドコード“PT”のパラメータデータにより指定される英会話パートのパート番号pが、前記学習内容の選択処理(ステップS1)においてユーザ選択されて記憶されたパート別練習を行う場合の指定パート番号12eと一致するか否か判断される(ステップS15)。
【0101】
ここで、コマンドコード“PT”のパラメータデータにより指定される英会話パートのパート番号pが、ユーザ選択された指定パート番号12eと一致しない場合、つまりユーザ所望の会話練習パートと異なる会話パートであると判断された場合には、当該会話パート部分における音声出力を行うために音声オンフラグ12iがRAM12Cにセットされると共に(ステップS15→S16)、コマンドコード“HL”に応じて該当会話パートのテキスト文字列を識別表示させるためのハイライトの種類が、アンダーラインによる識別表示形態に変更設定される(ステップS17)。
【0102】
一方、コマンドコード“PT”のパラメータデータにより指定される英会話パートのパート番号pが、ユーザ選択された指定パート番号12eと一致した場合、つまりユーザ所望の会話練習パートであると判断された場合には、当該会話パート部分における音声出力を停止させるために音声オフフラグ12iがRAM12Cにセットされると共に(ステップS15→S18)、コマンドコード“HL”に応じて該当会話パートのテキスト文字列を識別表示させるためのハイライトの種類が、反転による識別表示形態に変更設定される(ステップS19)。
【0103】
すると、再び処理タイマによる計時動作に基づいて、当該タイマによる計時時間が次の処理単位時間12c1aに到達したか否か判断される(ステップS20)。
【0104】
一方、前記ステップS14において、前記再生用ファイル12cにおけるタイムコードファイル12c3(図3参照)から読み出されたコマンドコードが、“PT”ではないと判断された場合には、他のコマンド処理へ移行されて各コマンド内容(図6参照)に対応する処理が実行される(ステップSC)。
【0105】
そして、ステップS20において、前記タイマによる計時時間が次の処理単位時間12c1aに到達したと判断された場合には、RAM12Cに格納された解読済再生用ファイル(CASファイル)12cに対する読み出しポインタが次の位置に更新セットされ(ステップS20→S21)、前記ステップS11における当該読み出しポインタの位置のタイムコードファイル12c3(図3参照)のコマンドコードおよびそのパラメータデータ読み出しからの処理が繰り返される(ステップS21→S11〜S19(SC))。
【0106】
すなわち、携帯機器10のCPU11は、ROM12Aに記憶された同期コンテンツ再生処理プログラム12a2に従って、再生用ファイル12b(12c)に予め設定記述されているコマンド処理の単位時間毎に、タイムコードファイル12c3(図3参照)に配列されたコマンドコードおよびそのパラメータデータを読み出し、そのコマンドに対応する処理を指示するだけで、当該タイムコードファイル12c3に記述された各コマンドに応じたテキスト,音声,画像の同期再生出力処理が実行される。
【0107】
そして、このように再生用ファイル12cにおけるタイムコードファイル12c3(図3参照)からのコマンドコードの読み出しに応じて、音声,テキスト,画像の同期再生出力の指示を行う場合に、前記対応パート別画像表示処理Aに従い、コマンドコード“PT”によって指示された次の再生パートに対応する会話中画像Gnの表示が行われるので、簡単に各会話パート別の口の動きを表した画像表示を行うことができ、ユーザはより効果的に会話の練習を行うことができる。
【0108】
また、コマンドコード“PT”によって指示された次の再生パートが、ユーザ設定された練習対象のパートであるときには、当該パート部分の音声出力は停止され、テキスト,パート別画像Gnのみの同期再生出力状態となることで、ユーザは該ユーザ自身で設定した練習パートにおいて表示出力されるテキスト,パート別画像Gnを見ながら該テキストを自身で読み上げて会話の練習を行うことができる。
【0109】
また、同コマンドコード“PT”によって指示された次の再生パートが、ユーザ設定された練習対象のパートでないときには、当該パート部分の音声出力は停止されず、テキスト,音声,画像の同期再生出力状態となることで、ユーザは他のパートについて表示出力されるテキスト,画像を見ながら該テキストの音声出力を聞いて会話の練習を行うことができる。
【0110】
ここで、図3で示す英語教材再生ファイル12cに基づいた、前記同期コンテンツ再生処理プログラム12a1(図8〜図10参照)による音声・テキスト・画像ファイルの同期再生出力動作について詳細に説明する。
【0111】
図12は前記図3乃至図5における英語教材再生ファイル12cに基づいた英会話テキスト・音声・画像ファイルの同期再生状態(その1)を示す図である。
【0112】
この英語教材ファイル(12c)は、そのヘッダに予め記述設定された(基準)処理単位時間(例えば25ms)12c1a毎にコマンド処理が実行されるもので、まず、タイムコードファイル12c3(図3参照)の第1コマンドコード“CS”(クリアオールファイル)およびそのパラメータデータ“00”が読み出されると、全ファイルの出力をクリアする指示が行われ、テキスト・音声・画像ファイルの出力がクリアされる(ステップSC)。
【0113】
第2コマンドコード“DH”(i番目HTMLファイル表示)およびそのパラメータデータ“01”が読み出されると、当該コマンドコードDHと共に読み出されたパラメータデータ(i=1)に応じて、ファイルシーケンステーブル12c2(図4参照)からHTML番号1のID番号=2が読み出される。
【0114】
そして、このID番号=2に対応付けられてコンテンツ内容データ12c4(図5参照)から読み出されるHTMLデータの英会話テキスト・画像フレームデータに応じて、図12(A)に示すように、表示部18に対するテキスト表示フレームXや画像表示フレームYが設定される(ステップSC)。
【0115】
第3コマンドコード“DI”(i番目イメージファイル表示)およびそのパラメータデータ“00”が読み出されると、当該コマンドコードDIと共に読み出されたパラメータデータ(i=0)に応じて、ファイルシーケンステーブル12c2(図4参照)から画像番号1のID番号=5が読み出される。
【0116】
そして、このID番号=5に対応付けられてコンテンツ内容データ12c4(図5参照)から読み出されて画像展開バッファ12kに展開された画像データ(英会話テキスト基本画像G0)が、前記HTMLファイルで設定された画像表示フレームY内に表示される(ステップSC)。
【0117】
第4コマンドコード“PS”(i番目サウンドファイルプレイ)およびそのパラメータデータ“02”が読み出されると、当該コマンドコードPSと共に読み出されたパラメータデータ(i=2)に応じて、ファイルシーケンステーブル12c2(図4参照)から音声番号2のID番号=32が読み出される。
【0118】
そして、このID番号=32に対応付けられてコンテンツ内容データ12c4(図5参照)から読み出された英会話音声データ▲2▼がステレオ音声出力部19bから出力開始される(ステップSC)。
【0119】
第5コマンドコード“LT”(i番目テキストロード)およびそのパラメータデータ“02”が読み出されると、当該コマンドコードLTと共に読み出されたパラメータデータ(i=2)に応じて、ファイルシーケンステーブル12c2(図4参照)からテキスト番号2のID番号=21が読み出される。
【0120】
そして、このID番号=21に対応付けられてコンテンツ内容データ12c4(図5参照)から読み出された英会話テキストデータ▲2▼がRAM12Cのワークエリアにロードされる(ステップSC)。
【0121】
第6コマンドコード“VD”(i番目テキスト文節表示)およびそのパラメータデータ“00”が読み出されると、当該コマンドコードVDと共に読み出されたパラメータデータ(i=0)に応じて、ファイルシーケンステーブル12c2(図4参照)からテキスト番号0のID番号=19が読み出され、これに対応付けられてコンテンツ内容データ12c4(図5参照)にて指定された英会話タイトル文字の文節が、前記RAM12Cにロードされた英会話テキストデータ▲2▼の中から呼び出されて表示画面上のテキスト表示フレームX内に表示される(ステップSC)。
【0122】
第7コマンドコード“BL”(文字カウンタリセット・i番目文節ブロック指定)およびそのパラメータデータ“00”が読み出されると、前記テキスト表示フレームXで表示中の英会話文節の文字カウンタがリセットされ、0番目のブロックが指定される(ステップSC)。
【0123】
第8コマンドコード“PI”(パート別イメージファイル表示)およびそのパラメータデータ“00”が読み出されると、これ以降に指定されたパートの画像を表示する指示が行われる(ステップSC)。
【0124】
第9コマンドコード“PT”(i番目パート指定)およびそのパラメータデータ“01”が読み出されると、前記英会話テキスト基本画像G0に基づき、これから同期再生すべき前記英会話音声データ▲2▼および前記英会話テキストデータ▲2▼における会話パート1(Aさん)が指定される(ステップS14)。
【0125】
すると、図9における対応パート別画像表示処理Aに従い、前記指定のパート番号p=1に応じた画像番号i=1に対応して、パート1の人物の口の動作を表した会話中画像G1が読み出され、図12(A)に示すように表示される(ステップSB)。
【0126】
そして、予めユーザ設定された指定パート番号12eが会話パート2(Bさん)である場合には、前記第9コマンドコード“PT”により指定された会話パート1(Aさん)と一致しないので(ステップS15)、該当パート1の音声出力オンにされ(ステップS16)、また、コマンドコード“HL”に応じた処理内容のハイライト処理がアンダーライン処理に変更設定される(ステップS17)。
【0127】
そして、第10コマンドコード“HL”(i番目文字までハイライト・文字カウント)およびそのパラメータデータ“07”が読み出されると、当該コマンドコードHLと共に読み出されたパラメータデータ(i=7)に応じて、図12(A)に示すように、テキストデータの7番目の文字「A:What 」(スペース含む)までアンダーライン表示(下線表示)され、文字カウンタが同7番目の文字までカウントアップされる(ステップSC)。
【0128】
この際、前記テキストデータのパート1(Aさん)部分である会話文字列のアンダーライン表示中には、音声出力オンに設定されているので、前記第4コマンドコード“PS”に応じてステレオ音声出力部19bから出力されている英会話音声データ▲2▼は、同会話パート1(Aさん)のアンダーライン表示部分を読み上げるところの音声が出力されることになる。
【0129】
第11コマンドコード“NP”が読み出されると、現在の画像および英会話テキストデータの同期表示画面および英会話音声データの同期出力状態が維持される。
【0130】
この後、第13コマンドコード“HL”、第35コマンドコード“HL”、第58コマンドコード“HL”に従い、パート1会話中画像G1の表示状態において、会話パート1(Aさん)部分のテキストデータが、順次、12番目の文字「high 」、19番目の文字「school 」、22番目の文字「do 」というように、アンダーライン表示(下線表示)されて行くのと共に、前記第4コマンドコード“PS”に応じてステレオ音声出力部19bから出力されている英会話音声データ▲2▼も、同会話パート1(Aさん)のアンダーライン表示部分を読み上げるところの音声が順次出力される(ステップS11〜S14→SC,S20,S21→S11)。
【0131】
つまり、コマンドコード“PT”によって指示された次の英会話再生パートが、ユーザ設定された練習対象のパート(例えばパート2(Bさん))でないときには、当該他のパート部分の音声出力は停止されず、英会話テキスト,その読み上げ音声,対応パート別画像Gnの同期再生出力状態となることで、ユーザは他のパートについて表示出力されるテキスト,画像を見ながら該テキストの音声出力を聞いて会話の練習を行うことができる。
【0132】
そして、第119コマンドコード“PT”(i番目パート指定)およびそのパラメータデータ“02”が読み出されると、次に同期再生すべき前記英会話音声データ▲2▼および前記英会話テキストデータ▲2▼およびパート別画像Gnにおける会話パート2(Bさん)が指定される(ステップS14)。
【0133】
すると、図9における対応パート別画像表示処理Aに従い、前記指定のパート番号p=2に応じた画像番号i=2に対応して、パート2の人物の口の動作を表した会話中画像G2が読み出され、図12(B)に示すように表示される(ステップSB)。
【0134】
ここで、予めユーザ設定された指定パート番号12eが会話パート2(Bさん)である場合には、前記第119コマンドコード“PT”により指定された会話パート2(Bさん)と一致するので(ステップS15)、該当パート2の音声出力オフにされ(ステップS18)、また、コマンドコード“HL”に応じた処理内容のハイライト処理が反転処理に変更設定される(ステップS19)。
【0135】
そして、第120コマンドコード“HL”(i番目文字までハイライト・文字カウント)およびそのパラメータデータ“37”が読み出されると、当該コマンドコードHLと共に読み出されたパラメータデータ(i=37)に応じて、図12(B)に示すように、テキストデータの37番目の文字、つまり会話パート2の文字「B:I 」(スペース含む)まで今度は反転により表示され、文字カウンタが同37番目の文字までカウントアップされる(ステップSC)。
【0136】
この際、前記テキストデータのパート2(Bさん)部分である会話文字列の反転表示中には、音声出力オフに設定されているので、前記第4コマンドコード“PS”に応じてステレオ音声出力部19bから順次出力されていた英会話音声データ▲2▼は停止される。
【0137】
この後、第132コマンドコード“HL”、第140コマンドコード“HL”に従い、パート2会話中画像G2の表示状態において、会話パート2(Bさん)部分のテキストデータが、音声出力無しのままで、順次、40番目の文字「go 」、43番目の文字「to 」というように、反転表示されて行く(ステップS11〜S14→SC,S20,S21→S11)。
【0138】
つまり、コマンドコード“PT”によって指示された次の英会話再生パートが、ユーザ設定された練習対象のパート(例えばパート2(Bさん))であるときには、当該パート部分の音声出力は停止され、英会話テキストパート1,対応パート別画像G2のみの同期再生出力状態となることで、ユーザは該ユーザ自身で設定した練習パートにおいて表示出力されるテキスト,画像を見ながら該テキストを自身で読み上げて会話の練習を行うことができる。
【0139】
さらに、第159コマンドコード“PT”(i番目パート指定)およびそのパラメータデータ“03”が読み出されると、次に同期再生すべき前記英会話音声データ▲2▼および前記英会話テキストデータ▲2▼およびパート別画像Gnにおける会話パート3(Cさん)が指定される(ステップS14)。
【0140】
すると、図9における対応パート別画像表示処理Aに従い、前記指定のパート番号p=3に応じた画像番号i=3に対応して、パート3の人物の口の動作を表した会話中画像G3が読み出され、図12(C)に示すように表示される(ステップSB)。
【0141】
ここで、予めユーザ設定された指定パート番号12eが会話パート2(Bさん)である場合には、前記第159コマンドコード“PT”により指定された会話パート3(Cさん)と一致しないので(ステップS15)、該当パート3の音声出力オンにされ(ステップS16)、また、コマンドコード“HL”に応じた処理内容のハイライト処理がアンダーライン処理に変更設定される(ステップS17)。
【0142】
そして、第160コマンドコード“HL”(i番目文字までハイライト・文字カウント)およびそのパラメータデータ“70”が読み出されると、当該コマンドコードHLと共に読み出されたパラメータデータ(i=70)に応じて、図12(C)に示すように、テキストデータの70番目の文字「C:Me, 」(スペース含む)までアンダーライン表示(下線表示)され、文字カウンタが同70番目の文字までカウントアップされる(ステップSC)。
【0143】
この際、前記テキストデータのパート3(Cさん)部分である会話文字列のアンダーライン表示中には、音声出力オンに設定されているので、前記第4コマンドコード“PS”に応じてステレオ音声出力部19bから出力されている英会話音声データ▲2▼は、同会話パート3(Cさん)のアンダーライン表示部分を読み上げるところの音声が出力されることになる。
【0144】
この後、第172コマンドコード“HL”に従い、パート3会話中画像G3の表示状態において、会話パート3(Cさん)部分のテキストデータが75番目の文字「too.」までアンダーライン表示(下線表示)されて行くのと共に、前記第4コマンドコード“PS”に応じてステレオ音声出力部19bから出力されている英会話音声データ▲2▼も、同会話パート3(Cさん)のアンダーライン表示部分を読み上げるところの音声が続けて出力される(ステップS11〜S14→SC,S20,S21→S11)。
【0145】
つまり、コマンドコード“PT”によって指示された次の英会話再生パートが、再び、ユーザ設定された練習対象のパート(例えばパート2(Bさん))でなくなったときには、当該他のパート部分の音声出力が再開され、英会話テキスト,その読み上げ音声,対応パート画像Gnの同期再生出力状態となることで、ユーザは再び他のパートについて表示出力されるテキスト,画像を見ながら該テキストの音声出力を聞いて会話の練習を行うことができる。
【0146】
このように、前記英会話教材再生ファイル(12c)におけるタイムコードファイル12c3(図3参照)・ファイルシーケンステーブル12c2(図4参照)・コンテンツ内容データ12c4(図5参照)に従って、当該再生ファイルに予め設定された(基準)処理単位時間(例えば25ms)12c1a毎のコマンド処理を行うことで、図12(A)〜(D)で示したように、表示画面上のテキスト表示フレームX内に英会話テキストデータがそのパート部分を識別表示されながら表示されると共に、画像表示フレームY内にそのパート人物の口の動きを示したパート別画像Gnが同期表示され、さらに、ステレオ音声出力部19bから識別表示中の英会話パートのテキストを読み上げる英会話音声データが同期出力されると共に、当該英会話テキストの読み上げ文節が各文字毎に順次同期ハイライト(強調)表示されるようになる。
【0147】
この際、対応パート別画像表示処理Aに従い、コマンドコード“PT”によって指示された次の再生パートに対応するパート人物の口の動きを示した会話中画像Gnの表示が行われるので、簡単に各会話パート別の口の動きを表した画像表示を行うことができ、ユーザはより効果的に会話の練習を行うことができる。
【0148】
また、ユーザが指定した会話パートの再生出力期間においては、その音声データの同期出力が停止されるので、ユーザは該ユーザ自身で設定した練習パートにおいて表示出力されるテキスト,パート別画像Gnを見ながら該テキストを自身で読み上げて会話の練習を行うことができ、他の会話パートにおいては、テキスト,パート別画像Gnを見ながらその読み上げ音声出力を聞いて練習することができる。
【0149】
したがって、前記構成の携帯機器10によるファイル再生機能によれば、ROM12Aに予め記憶された再生処理プログラム12a1に従って、再生用ファイル12b(12c)に予め設定記述されているコマンド処理の基準単位時間(25ms/50ms)毎に、タイムコードファイル12c3に配列されたコマンドコードおよびそのパラメータデータを読み出し、そのコマンドに対応する処理を指示するだけで、当該タイムコードファイル12c3に記述された各コマンドに応じたテキスト・画像・音声ファイルなどの同期再生処理が実行される。
【0150】
そして、例えば英会話教材の再生用ファイル12b(12c)による複数の会話パートからなるテキスト・音声・画像の同期再生出力が行われる場合に、対応パート別画像表示処理Aに従い、コマンドコード“PT”およびそのパラメータデータによって指示された次の再生対象会話パートに対応するパート別人物の口の動きを示した会話中画像Gnの表示が行われるので、簡単に各会話パート別の口の動きを表した画像表示を行うことができ、ユーザはより効果的に会話の練習を行うことができる。
【0151】
また、前記コマンドコードおよびそのパラメータデータに応じて指定される次の出力対象会話パートが、ユーザにより設定した練習対象の会話パートと一致した場合には、当該設定会話パートでは音声出力を停止させてパート別テキストの識別・対応パーツ別画像Gnの同期表示出力のみ行い、また、練習対象の会話パートと一致しない場合には、音声出力を再開させてパート別テキストの識別・対応パーツ別画像Gnと共に同期再生が行われるので、ユーザ所望の会話パートのみテキストの読み上げ音声出力を簡単に消してユーザ自身が発音練習することができ、パート別の練習を容易且つ効果的に行うことができる。
【0152】
また、前記構成の携帯機器10によるファイル再生機能によれば、タイムコードファイル12c3に記述された基準処理単位時間毎のコマンドコードに応じて、音声データの出力指示“PS”や該音声データに合わせたテキストデータの表示指示“VD”“HL”およびパート別画像Gnの表示指示“DI”“PI”を行う場合に、各会話パートの開始の指定を“PT”により行って、対応するパート別画像Gnを表示したり、ユーザ設定された練習パートと一致した場合には当該パートの音声出力をオフにしたりする構成としたので、非常に簡単にパート別の練習を行うことができる。
【0153】
また、前記構成の携帯機器10によるファイル再生機能によれば、タイムコードファイル12c3のコマンドコード“PT”によって指定されるパート番号(種類)は、当該コマンドコード“PT”と対に記述されたパラメータデータによって設定されるので、簡単に各再生パート指定を行ったタイムコードファイル12c3を作成することができる。
【0154】
なお、本第1実施形態の再生処理に伴う対応パート別画像表示処理A(図10参照)では、タイムコードファイル12c3のコマンドコードPTによって指定されたパート番号pに応じて、予め各会話パート毎にそのパート人物の口の動きを表現して用意したパート別の会話中画像Gnを切り替え表示させ、各パートの会話の状態を画像の上でも同期して表現する構成としたが、次の図13〜図15において示す対応パート別画像表示処理Bおよびテキスト対応口表示処理に従い説明するように、各パートの何れにも口の動きがない英会話テキスト基本画像G0をベースとして、前記コマンドコードPTにより指定される各パート人物の口エリアM1〜M3に対し、各パート英会話テキストの現在の識別表示文字に対応してテキスト対応発音口型データ12fから読み出される該当テキスト文字の発音口型画像を合成表示することで、各パートの会話の状態を画像の上でよりリアルに同期して表現する構成としもよい。
【0155】
図13は前記携帯機器10の再生処理に伴う対応パート別画像表示処理Bを示すフローチャートである。
【0156】
図14は前記携帯機器10の再生処理におけるコマンドコードHLに応じたパート別テキストのハイライト(強調)表示処理に伴い割り込みで実行されるテキスト対応口表示処理を示すフローチャートである。
【0157】
図15は前記図3乃至図5における英語教材再生ファイル12cに基づいた英会話テキスト・音声・画像ファイルの同期再生状態(その2)を示す図である。
【0158】
すなわち、前記図8を参照して説明した再生処理のステップS14において、タイムコードファイル12c3からコマンドコードPTが読み出された場合に、図13における対応パート別画像表示処理Bに移行されると、まず、コンテンツ内容データ12c4の英会話テキスト基本画像G0が読み出されて、図15に示すように、表示画面上の画像表示フレームY内に表示される(ステップBb1)。
【0159】
すると、前記コマンドコードPTのパラメータデータにより指定された次の再生対象パート番号pが検知され(ステップBb2)、当該指定のパート番号pに対応する前記英会話テキスト基本画像G0上での対応パート人物画像の口位置の矩形エリアデータ(位置座標)Mnが、当該英会話テキスト基本画像G0が記憶されたコンテンツ内容データ12c4から読み出される(ステップBb3)。
【0160】
そして、再生処理のステップSCにおいて、タイムコードファイル12c3から読み出されたコマンドコードHLに従い、表示中にある英会話テキストの現在の読み上げ文字までがハイライト処理により識別表示されるのに伴い、図14におけるテキスト対応口表示処理が割り込みで起動されると、現在のテキストハイライト処理位置の文字が、当該コマンドコードHLのパラメータデータに基づき検知される(ステップD1)。
【0161】
すると、このテキストハイライト位置の文字に対応する発音の口型画像データが、前記図9における発音口型データ作成処理により作成されたテキスト対応発音口型データ12f(図7参照)の口番号に従いROM12A内の口型データ12a3(図2参照)から読み出される(ステップD2)。
【0162】
そして、この現在のテキストハイライト位置の文字に対応する発音の口型画像データが、前記対応パート別画像表示処理BのステップBb3において読み出された指定パート人物画像の口位置の矩形エリアデータ(位置座標)Mnに従い、図15に示すように、表示中の英会話テキスト基本画像G0上に合成表示される(ステップD3)。
【0163】
これにより、現在再生中の英会話テキストの各パート別に、その発音に応じた口型を対応パート人物画像の口位置に合成して表示させることができ、各パートの会話の状態を画像の上でよりリアルに同期表現し、さらに効果的な会話の練習を行うことができる。
【0164】
そして、入力部17aあるいは座標入力装置17bによって、「口内拡大表示」を指示するキー(ボタン)操作が行われると(ステップD4)、例えば図15(D)に示すように、前記パート別のテキストハイライト表示に対応して英会話テキスト基本画像G0上で合成表示中の口型画像の拡大画像G4が、前記ROM12A内の口型データ12a3(図2参照)から読み出され(ステップD5)、前記英会話テキスト基本画像G0上のパート別口エリアM1とは別の表示エリアにウインドウ表示される(ステップD6)。
【0165】
この場合、図15(D)では、パート1(Aさん)に対応するテキストハイライト表示「Oh,both」および読み上げ音声出力(19b)に同期された、「both」の「th」に対応する口型画像のパート1口エリアM1への合成表示および当該発音口型拡大画像G4のウインドウ表示状態を示している。
【0166】
これにより、ユーザは会話練習中の発音の口型をリアルタイムに且つより詳しく知ることができ、最も効果的に英会話の練習を実施することができる。
【0167】
なお、このテキストハイライト位置に応じた口型合成表示の実施形態では、実際の発音に対応した口型画像を口型データ12a3から読み出して各パート別人物画像の口エリアMnに合成表示する構成としたが、全パートの人物画像が口を閉じている英会話テキスト基本画像G0に対して、単に開いた口画像をパート別に合成表示する構成としてもよい。
【0168】
(第2実施形態)
次に、本発明の音声表示出力制御装置(編集装置)の第2実施形態に係る携帯機器10について説明する。
【0169】
この第2実施形態の携帯機器10では、辞書データ12a2に基づく見出語の検索に伴い、各見出語毎に用意した前記第1実施形態と同様のタイムコードファイル12c3に従って、当該見出語テキストの表示およびその読み上げ音声の出力に同期させた、発音の口型画像の表示を行う構成とする。
【0170】
図16は本発明の第2実施形態の携帯機器10のROM12Aに記憶された辞書データ12a2のデータ内容を示す図である。
【0171】
図17は本発明の第2実施形態の携帯機器10のROM12Aに記憶された見出語音声データ12a4のデータ内容を示す図である。
【0172】
辞書データ12a2には、例えば英単語の見出語とその意味内容が、発音記号、この発音記号に応じた発声を行うための口型データ12a3(図2参照)内の口型の種類を示す口型番号および見出語音声データ12a4(図17参照)内の見出語音声データを示す見出語音声番号と対応付けられて記憶される。
【0173】
見出語音声データ12a4には、前記辞書データ12a2として記憶された全ての英単語の見出語それぞれの読み上げ音声データがPCM音源からなるデータとして記憶される。
【0174】
図18は前記第2実施形態の携帯機器10による辞書検索・表示処理を示すフローチャートである。
【0175】
図19は前記第2実施形態の携帯機器10による辞書検索・表示処理に伴う検索見出語表示・音声出力・口型画像表示の同期再生状態を示す図である。
【0176】
例えば英単語「able」の検索を行う場合に、図19(A)に示すように、入力部17aの「英和」キー17a3が操作されると、英和辞典の見出語入力画面G5が表示される。この見出語入力画面G5において、検索対象見出語「able」が入力表示され、図示しない「決定」キーが操作されると(ステップE1)、辞書データ12a2(図16参照)に基づいて当該検索対象見出語「able」の検索が実行され(ステップE2)、該当する複数の見出語が検索されたか否か判断される(ステップE3)。
【0177】
ここで、検索対象見出語「able」に該当する複数の見出語が、辞書データ12a2から検索された場合には、当該検索された複数の見出語が表示部18に一覧表示される(ステップE3→E4)。
【0178】
この見出し語一覧表示において表示された複数の見出語の中から前記検索対象見出語「able」に対応する一つの見出語がキー入力により選択操作されるか(ステップE5)、または前記ステップE3において、該当の見出語が一つだけ検索されたと判断された場合には、この検索された一つの見出し単語「able」と共に辞書データ12a2として記憶されている発音記号が読み出され、表示部18に表示される(ステップE6)。
【0179】
そして、この検索表示された見出し単語「able」の発音を練習するために、図19(B)に示すように、入力部17aにおける「発音」キー17a4が操作されると(ステップE7)、当該見出し単語「able」のテキスト表示および音声出力に同期させて、発音の口型画像を表示させるための音声・テキスト・口画像同期処理に移行される(ステップES)。
【0180】
この辞書検索・表示処理に伴う音声・テキスト・口画像同期処理は、前記第1実施形態と同様に各見出語毎に用意されたタイムコードファイル12c3に従い再生処理(図8参照)のステップS3〜S21(除くSA)によって実行される。
【0181】
例えばタイムコードファイル12c3のコマンドコード“PS”とそのパラメータデータによって、今回の見出し単語「able」の音声データが見出語音声データ12a4(図17参照)の中から読み出されてその音声出力が指示され、またコマンドコード“VD”とそのパラメータデータによって、当該見出し単語「able」のテキスト表示が指示され、コマンドコード“HL”とそのパラメータデータによって、テキスト表示された見出し単語「able」に対する前記音声データの出力に合わせた各文字毎のハイライト表示が指示され、コマンドコード“PT”とそのパラメータデータによって、前記見出し単語「able」のハイライト表示や音声データの出力に合わせた発音口型画像のイメージファイル表示が指示される。
【0182】
これにより、図19(B)に示すように、辞書検索された見出し単語「able」の音声データ「エイブル」がステレオ音声出力部19bから出力されるのに合わせて、テキスト表示された見出し単語「able」が各文字毎に順次ハイライト表示され、更に、その発音の口型画像が順次切換表示される。
【0183】
そして、前記検索された見出し単語に対応する発音口型画像の読み出し切換表示が終了すると(ステップE8)、当該検索対象見出し単語「able」に対応した一連の辞書検索・表示処理は終了される。
【0184】
したがって、前記構成の第2実施形態の携帯機器10によるファイル再生機能によれば、辞書検索モードにおいて、辞書データ12a2にある各見出し単語に対応付けられて見出語音声データ12a4に記憶されている音声データおよび口型データ12に記憶されている各発音記号毎の口型画像データを利用して、非常に簡単に、見出語テキストの表示およびその読み上げ音声の出力に同期させた、発音口型画像の表示を行うことができる。
【0185】
なお、前記実施形態において記載した携帯機器10による各処理の手法、すなわち、図8のフローチャートに示すファイル再生処理、図9のフローチャートに示す前記ファイル再生処理に伴う発音口型データ作成処理、図10のフローチャートに示す前記ファイル再生処理に伴う対応パート別画像表示処理A、図13のフローチャートに示す前記ファイル再生処理に伴う対応パート別画像表示処理B、図14のフローチャートに示す前記ファイル再生処理におけるコマンドコードHLに応じたパート別テキストのハイライト(強調)表示処理に伴うテキスト対応口表示処理、図18のフローチャートに示す辞書検索・表示処理などの手法は、何れもコンピュータに実行させることができるプログラムとして、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記録媒体13に格納して配布することができる。そして、通信ネットワーク(インターネット)Nとの通信機能を備えた種々のコンピュータ端末は、この外部記録媒体13に記憶されたプログラムを記録媒体読取部14によってメモリ12に読み込み、この読み込んだプログラムによって動作が制御されることにより、前記第1実施形態および第2実施形態において説明したテキスト,音声,画像の同期再生機能を実現し、前述した手法による同様の処理を実行することができる。
【0186】
また、前記各手法を実現するためのプログラムのデータは、プログラムコードの形態として通信ネットワーク(インターネット)N上を伝送させることができ、この通信ネットワーク(インターネット)Nに接続されたコンピュータ端末から前記のプログラムデータを取り込み、前述した各実施形態のテキスト,音声,画像の同期再生機能を実現することもできる。
【0187】
なお、本願発明は、前記各実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。さらに、前記各実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、各実施形態に示される全構成要件から幾つかの構成要件が削除されたり、幾つかの構成要件が組み合わされても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除されたり組み合わされた構成が発明として抽出され得るものである。
【0188】
【発明の効果】
以上のように、本発明の請求項1に係る音声表示出力制御装置によれば、音声データ出力手段から出力される音声データによる音声に対応して口画像表示制御手段により口の形状を表現する人物画像が表示される。このために、前記口画像表示制御手段として、出力される音声データによる音声に応じて異なる口の形状をした複数の口画像を記憶している口画像記憶手段が備えられ、音声データによる音声出力に対応した口画像が口画像表示制御手段の制御によって前記口画像記憶手段に記憶された複数の口画像の中から読み出され、表示手段に表示された人物画像の口の位置に表示される。このため、音声出力に応じて異なる口の形状をした複数の画像の中から、音声出力に対応した口の形状の口画像を、表示されている人物画像の口の位置で表示できるようになる。
【0201】
よって、本発明によれば、テキストデータと音声データと画像データとの出力に際し、音声出力、テキスト表示、発音用画像表示を簡単に出力することが可能になる音声表示出力制御装置および音声表示出力制御処理プログラムを提供できる。
【図面の簡単な説明】
【図1】本発明の音声表示出力制御装置(編集装置)(音声テキスト再生装置)の実施形態に係る携帯機器10の電子回路の構成を示すブロック図。
【図2】前記携帯機器10のROM12Aに記憶される口型データ12a3の内容を示す図。
【図3】前記携帯機器10のメモリ12に格納された再生用ファイル12b(12c)を構成するタイムコードファイル12c3を示す図。
【図4】前記携帯機器10のメモリ12に格納された再生用ファイル12b(12c)を構成するファイルシーケンステーブル12c2を示す図。
【図5】前記携帯機器10のメモリ12に格納される再生用ファイル12b(12c)を構成するコンテンツ内容データ12c4を示す図。
【図6】前記携帯機器10のタイムコードファイル12c3(図3参照)にて記述される各種コマンドのコマンドコードとそのパラメータデータおよび再生処理プログラム12a1に基づき解析処理される命令内容を対応付けて示す図。
【図7】前記携帯機器10のRAM12Cに記憶されるテキスト対応発音口型データ12fの内容を示す図。
【図8】前記携帯機器10の再生処理プログラム12a1に従った再生処理を示すフローチャート。
【図9】前記携帯機器10の再生処理に伴う発音口型データ作成処理を示すフローチャート。
【図10】前記携帯機器10の再生処理に伴う対応パート別画像表示処理Aを示すフローチャート。
【図11】前記携帯機器10の再生処理に伴う学習内容の選択操作・表示状態を示す図であり、同図(A)は学習内容選択画面Gを示す図、同図(B)(C)は当該学習内容選択画面Gを対象とする選択操作キーを示す図。
【図12】前記図3乃至図5における英語教材再生ファイル12cに基づいた英会話テキスト・音声・画像ファイルの同期再生状態(その1)を示す図。
【図13】前記携帯機器10の再生処理に伴う対応パート別画像表示処理Bを示すフローチャート。
【図14】前記携帯機器10の再生処理におけるコマンドコードHLに応じたパート別テキストのハイライト(強調)表示処理に伴い割り込みで実行されるテキスト対応口表示処理を示すフローチャート。
【図15】前記図3乃至図5における英語教材再生ファイル12cに基づいた英会話テキスト・音声・画像ファイルの同期再生状態(その2)を示す図。
【図16】本発明の第2実施形態の携帯機器10のROM12Aに記憶された辞書データ12a2のデータ内容を示す図。
【図17】本発明の第2実施形態の携帯機器10のROM12Aに記憶された見出語音声データ12a4のデータ内容を示す図。
【図18】前記第2実施形態の携帯機器10による辞書検索・表示処理を示すフローチャート。
【図19】前記第2実施形態の携帯機器10による辞書検索・表示処理に伴う検索見出語表示・音声出力・口型画像表示の同期再生状態を示す図。
【符号の説明】
10 …携帯機器
11 …CPU
12 …メモリ
12A…ROM
12a1…ファイル再生処理プログラム
12a2…辞書データ
12a3…口型データ
12a4…見出語音声データ
12B…FLASHメモリ
12b…暗号化された再生用ファイル(CASファイル)
12C…RAM
12c…解読された再生用ファイル(CASファイル)
12c1…ヘッダ情報
12c1a…処理単位時間
12c2…ファイルシーケンステーブル
12c3…タイムコードファイル
12c4…コンテンツ内容データ
12d…指定テキスト番号
12e…指定パート番号
12f…テキスト対応発音口型データ
12g…テキストハイライト指定文字
12h…画像(オン/オフ)フラグ
12i…音声(オン/オフ)フラグ
12j…画像展開済みフラグ
12k…画像展開バッファ
13 …外部記録媒体
14 …記録媒体読取部
15 …電送制御部
16 …通信部
17a…入力部
17b…座標入力装置
18 …表示部
19a…音声入力部
19b…ステレオ音声出力部
20 …通信機器(自宅PC)
30 …Webサーバ
N …通信ネットワーク(インターネット)
X …テキスト表示フレーム
Y …画像表示フレーム
G0 …英会話テキスト基本画像
G1〜G3…パート1〜パート3会話中画像
G4 …発音口型拡大画像
G5 …見出語入力画面
M1〜M3…パート1〜パート3口エリア
Claims (7)
- 音声データを出力する音声データ出力手段と、テキストデータを表示するとともに、人物の画像を表示する表示手段とを備えている音声表示出力制御装置において、
前記音声データ出力手段による音声データの音声出力と前記表示手段によるテキストデータの表示出力とを制御する音声・テキスト制御手段と、
音声データによる音声出力に応じて異なる口の形状をした複数の口画像を記憶している口画像記憶手段と、
前記音声・テキスト制御手段の制御により前記音声データ出力手段から出力される音声データの音声出力に対応した口画像を前記口画像記憶手段に記憶された複数の口画像の中から読み出し、前記表示手段に表示された人物画像の口の位置に表示させる口画像表示制御手段と、
を備えたことを特徴とする音声表示出力制御装置。 - 人物画像と当該人物画像の口の位置座標とを対応付けて記憶している人物画像・口位置座標記憶手段を備え、
前記表示手段は、前記人物画像・口位置座標記憶手段から読み出した人物画像を表示し、
前記口画像表示制御手段は、前記音声・テキスト制御手段により前記音声データ出力手段から出力される音声データの音声出力に対応した口画像を、前記口画像記憶手段に記憶された複数の口画像の中から読み出し、前記人物画像・口位置座標記憶手段から読み出した口の位置座標に従って、前記表示手段に表示された人物画像の口の位置に表示させる、
ことを特徴とする請求項1に記載の音声表示出力制御装置。 - 前記音声・テキスト制御手段による音声データの音声出力とテキストデータの表示出力の制御は、当該音声データが読み上げるところのテキストデータを強調表示して同期制御することを特徴とする請求項1または請求項2に記載の音声表示出力制御装置。
- 前記口画像記憶手段は、音声データによる音声出力に応じて異なる口の形状をした複数の口画像と共に、この複数の口画像のそれぞれに対応付けて当該口の内部画像を記憶し、
前記口画像表示制御手段により表示された口画像に対応して、当該口の内部画像を読み出し拡大して表示する口内拡大表示手段をさらに備えたことを特徴とする請求項1乃至請求項3の何れか1項に記載の音声表示出力制御装置。 - ユーザ操作に応じて、口内拡大表示を指示する拡大表示指示手段を備え、
前記口内拡大表示手段は、前記拡大表示指示手段により口内拡大表示が指示された際に、前記口画像表示制御手段により表示された口画像に対応して、当該口の内部画像を読み出し拡大して表示する、
ことを特徴とする請求項4に記載の音声表示出力制御装置。 - 前記音声・テキスト制御手段は、
予め設定された経過時間に従い前記テキストデータの表示出力と前記音声データの音声出力と前記画像の表示とを同期させるための命令コードを記憶する命令コード記憶手段を有し、この命令コード記憶手段に記憶された命令コードに応じて、前記テキストデータの表示出力と音声データの音声出力とを同期させ、
前記口画像表示制御手段は、前記命令コード記憶手段に記憶された命令コードに応じて口画像の表示を行わせる、
ことを特徴とする請求項1乃至請求項5の何れか1項に記載の音声表示出力制御装置。 - 音声データを音声出力する音声データ出力手段と、テキストデータを表示するとともに人物の画像を表示する表示手段とを備えている電子機器のコンピュータを制御するための音声表示出力制御処理プログラムであって、
前記コンピュータを、
前記音声データ出力手段による音声データの音声出力と前記表示手段によるテキストデータの表示出力とを制御する音声・テキスト制御手段、
音声データの音声出力に応じて異なる口の形状をした複数の口画像を記憶している口画像記憶手段をアクセスし、前記音声・テキスト制御手段の制御により前記音声データ出力手段から出力される音声データによる音声出力に対応した口画像を前記口画像記憶手段に記憶された複数の口画像の中から読み出し、前記表示手段に表示された人物画像の口の位置に表示させる口画像表示制御手段、
として機能させるようにしたコンピュータ読み込み可能な音声表示出力制御処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003054829A JP4111005B2 (ja) | 2003-02-28 | 2003-02-28 | 音声表示出力制御装置および音声表示出力制御処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003054829A JP4111005B2 (ja) | 2003-02-28 | 2003-02-28 | 音声表示出力制御装置および音声表示出力制御処理プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007196114A Division JP4591481B2 (ja) | 2007-07-27 | 2007-07-27 | 表示制御装置および表示制御処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004265144A JP2004265144A (ja) | 2004-09-24 |
JP4111005B2 true JP4111005B2 (ja) | 2008-07-02 |
Family
ID=33119057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003054829A Expired - Fee Related JP4111005B2 (ja) | 2003-02-28 | 2003-02-28 | 音声表示出力制御装置および音声表示出力制御処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4111005B2 (ja) |
-
2003
- 2003-02-28 JP JP2003054829A patent/JP4111005B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004265144A (ja) | 2004-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4370811B2 (ja) | 音声表示出力制御装置、および音声表示出力制御処理プログラム | |
US10088976B2 (en) | Systems and methods for multiple voice document narration | |
US8352269B2 (en) | Systems and methods for processing indicia for document narration | |
US8370151B2 (en) | Systems and methods for multiple voice document narration | |
US20020054073A1 (en) | Electronic book with indexed text-to-audio switching capabilities | |
JP2005070645A (ja) | テキスト音声同期装置およびテキスト音声同期処理プログラム | |
JP4741406B2 (ja) | ノンリニア編集装置およびそのプログラム | |
JP4591481B2 (ja) | 表示制御装置および表示制御処理プログラム | |
JP2005073138A (ja) | 情報再生装置および情報再生処理プログラム | |
JP2010085727A (ja) | 辞書機能を備えた電子装置およびプログラム | |
JP4277512B2 (ja) | 電子機器及びプログラム | |
JP4111005B2 (ja) | 音声表示出力制御装置および音声表示出力制御処理プログラム | |
JP4407119B2 (ja) | 命令コード作成装置 | |
JP2012098753A (ja) | 音声表示出力制御装置、画像表示制御装置、および音声表示出力制御処理プログラム、画像表示制御処理プログラム | |
JP4985714B2 (ja) | 音声表示出力制御装置、および音声表示出力制御処理プログラム | |
JP3794355B2 (ja) | 再生制御装置および再生制御処理プログラム | |
JP2004212646A (ja) | 音声表示出力制御装置および音声表示出力制御処理プログラム | |
JP2004302285A (ja) | 情報出力装置、情報出力プログラム | |
KR100383061B1 (ko) | 디지털 오디오와 그의 캡션 데이터를 이용한 학습방법 | |
JP2005077678A (ja) | テキスト音声同期装置およびテキスト音声同期処理プログラム | |
JP2004205782A (ja) | 音声表示出力制御装置および音声表示出力制御処理プログラム | |
JP2008009221A (ja) | 音声再生制御装置及び音声再生制御プログラム | |
JP3818235B2 (ja) | 情報再生装置および情報再生処理プログラム | |
JP2004185680A (ja) | 再生制御装置および再生制御処理プログラム | |
JP2005024742A (ja) | テキスト音声画像記憶装置、テキスト音声画像再生装置、およびテキスト音声画像記憶処理プログラム、テキスト音声画像再生処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070518 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070529 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070727 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080318 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080331 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4111005 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110418 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120418 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120418 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130418 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130418 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140418 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |