JP2004266576A - Media data storage apparatus, and media data storage processing program - Google Patents
Media data storage apparatus, and media data storage processing program Download PDFInfo
- Publication number
- JP2004266576A JP2004266576A JP2003054832A JP2003054832A JP2004266576A JP 2004266576 A JP2004266576 A JP 2004266576A JP 2003054832 A JP2003054832 A JP 2003054832A JP 2003054832 A JP2003054832 A JP 2003054832A JP 2004266576 A JP2004266576 A JP 2004266576A
- Authority
- JP
- Japan
- Prior art keywords
- media
- data
- text
- url
- stored
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Transfer Between Computers (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、テキストデータ,音声データ,画像データなどの各メディアのデータを同期して再生するためのメディアデータ記憶装置、およびメディアデータ記憶処理プログラムに関する。
【0002】
【従来の技術】
従来、音楽,画像,テキストなどのデータを同時並行して再生する技術としては、例えばMPEG−3により情報圧縮された音声データのフレーム毎に、当該各フレームに設けられた付加データエリアに対して、音声データに同期再生すべきテキストデータや画像データの同期情報を埋め込んでおくことにより、例えばカラオケの場合では、カラオケ音声とそのイメージ画像および歌詞のテキストを同期再生するものがある。
【0003】
しかしながら、このように従来行われているMPEGデータの付加データエリアを利用した複数種類のデータの同期再生技術では、同期情報の埋め込みが主たるMP3音声データの各フレーム毎の付加データエリアに規定されるため、当該MP3音声データを再生させない限り同期情報を取り出すことが出来ず、MP3データの再生を軸としてしか他の種類のデータの同期再生を行うことが出来ない。
【0004】
このため、例えばMP3音声データにテキストデータの同期情報を埋め込んだ場合に、音声データの再生を行わない期間にあっても無音声データとして音声再生処理を継続的に行っていないと同期対象データの再生を行うことが出来ない問題がある。
【0005】
従って、従来この複数種類のデータの同期再生処理は、MP3データの再生処理をベースとして行われるため、再生装置のCPUにおける処理の負荷が重くなる問題がある。
【0006】
一方、各種のインターネットサイトのメディアで提供される様々な番組を、時間の経過情報(タイムテーブル)に従って予め設定された各ネットサイトのアドレスにアクセスしてダウンロードし、これを単に再生することで時間の経過に伴い各種メディアの番組を順次連続再生するようにしたマルチメディアの再生処理技術も考えられている。(例えば、特許文献1参照。)
【0007】
【特許文献1】
特開2002−261715号公報
【0008】
【発明が解決しようとする課題】
しかしながら、このようなマルチメディアの再生処理技術にあっても、あくまで音声,テキスト,画像の各データが前記PM3データなどをベースとして既に同期付けされている番組データそのものを再生処理するものであり、前記同様に再生装置のCPUにおける処理の負荷が重くなる問題が有るばかりか、同期再生すべき音声,テキスト,画像の各データは常に同期付けられて一体化されており、複数種類のメディアのデータを組み合わせて同期再生することはできない。
【0009】
本発明は、前記のような問題に鑑みてなされたもので、複数種類のメディアの同期再生に先立ってそのメディアデータをインターネット経由で取得することが可能になるメディアデータ記憶装置、およびメディアデータ記憶処理プログラムを提供することを目的とする。
【0010】
【課題を解決するための手段】
すなわち、本発明の請求項1に係るメディアデータ記憶装置では、同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段を有し、この記憶手段により記憶された各メディアのURLに対応付けられたメディアのデータが複数種類のメディアの同期再生に先立って、メディアデータ取得手段によりインターネット経由で取得される。
【0011】
これによれば、前記記憶手段により記憶された各メディアのURLが設定された経過時間に従って順次読み出され、この読み出されたURLに対応付けられて前記メディアデータ取得手段により取得された各メディアのデータを迅速且つ確実に同期再生させることができることになる。
【0012】
また、本発明の請求項2に係るメディアデータ記憶装置では、同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段を有し、この記憶手段により記憶された各メディアのURLに対応付けられて記憶装置に記憶されている複数種類のメディアのデータが複数種類のメディアの同期再生に先立って、メディアデータ取得手段によりインターネット経由で取得され、メディアデータ記憶手段により記憶される。
【0013】
これによれば、前記記憶手段により記憶された各メディアのURLが設定された経過時間に従って順次読み出され、この読み出されたURLに対応付けられて前記メディアデータ記憶手段により記憶された各メディアのデータを迅速且つ確実に同期再生させることができることになる。
【0014】
また、本発明の請求項3に係るメディアデータ記憶装置では、同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段を有し、メディアデータ取得手段によって、前記記憶手段により記憶された各メディアのURLが設定された経過時間に従って順次読み出され、この読み出されたURLに対応付けられたメディアのデータがインターネット経由で取得される。
【0015】
これによれば、各メディアのネットサイト上から同期再生すべき各種のデータを、設定経過時間に応じて各サイトのURLに従い順次取り込み、この取り込んだ複数メディアのデータを迅速且つ確実に同期再生させることができることになる。
【0016】
また、本発明の請求項4に係るメディアデータ記憶装置では、前記請求項1または請求項2に係るメディアデータ記憶装置にあって、前記記憶手段は、複数種類のメディアのデータが同期再生されるように当該各メディア毎に予め経過時間を設定して配列された制御命令に、各メディアのURLを対応付けて記憶する制御命令記憶手段とされる。
【0017】
これによれば、制御命令記憶手段により記憶された設定経過時間毎の制御命令に従い、これに対応付けられたURLにより各メディアのネットサイト上から同期再生すべき各種のデータを取り込み、この取り込んだ複数メディアのデータを迅速且つ確実に同期再生させることができることになる。
【0018】
また、本発明の請求項5に係るメディアデータ記憶装置では、前記請求項1乃至請求項4の何れか1項に係るメディアデータ記憶装置にあって、前記複数種類のメディアのデータにはテキストデータが含まれ、このテキストデータは予め他の種類のメディアのデータとの同期再生のための時間情報を有する。
【0019】
これによれば、各メディアのネットサイト上から取り込まれた同期再生すべき各種のデータのうち、テキストデータについては当該テキストデータに含まれる同期再生のための時間情報に従い、他の種類のメディアのデータと共に迅速且つ確実に同期再生させることができることになる。
【0020】
また、本発明の請求項6に係るメディアデータ記憶装置では、前記請求項1または請求項2に係るメディアデータ記憶装置にあって、前記記憶手段は、複数種類のメディアの少なくともテキストを含むデータが同期再生されるように当該各メディア毎に予め経過時間を設定して配列された制御命令に、各メディアのURLを対応付けて記憶すると共に、前記テキストデータに対する表示制御命令を記憶する制御命令記憶手段とされる。
【0021】
これによれば、各メディアのネットサイト上から取り込まれた同期再生すべき各種のデータのうち、テキストデータについては制御命令記憶手段により記憶された設定経過時間毎の表示制御命令に従い、他の種類のメディアのデータと共に迅速且つ確実に同期再生させることができることになる。
【0022】
また、本発明の請求項7に係るメディアデータ記憶装置では、前記請求項1乃至請求項6の何れか1項に係るメディアデータ記憶装置にあって、前記複数種類のメディアのデータには複数の言語からなるデータが用意され、前記記憶手段により記憶されるURLは言語の指定記号を含み、前記メディアデータ取得手段は、前記記憶手段により記憶された各メディアのURLに対応付けられたメディアの指定の言語のデータをインターネット経由で取得する。
【0023】
これによれば、指定の言語からなる各メディアのデータも単にURLで指定された各ネットサイトから取り込むだけで、言語の指定された複数メディアのデータも迅速且つ確実に同期再生させることができることになる。
【0024】
また、本発明の請求項8に係るメディアデータ記憶処理プログラムによれば、当該プログラムをメディアデータ記憶装置にインストールすることで、このメディアデータ記憶装置のコンピュータにおいて、同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段をアクセスし、この記憶手段により記憶された各メディアのURLに対応付けられたメディアのデータが複数種類のメディアの同期再生に先立って、メディアデータ取得手段によりインターネット経由で取得される。
【0025】
これによれば、メディアデータ記憶装置では、記憶手段により記憶された各メディアのURLが設定された経過時間に従って順次読み出され、この読み出されたURLに対応付けられて前記メディアデータ取得手段により取得された各メディアのデータを迅速且つ確実に同期再生させることができることになる。
【0026】
また、本発明の請求項9に係るメディアデータ記憶処理プログラムによれば、当該プログラムをメディアデータ記憶装置にインストールすることで、このメディアデータ記憶装置のコンピュータにおいて、同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段をアクセスし、この記憶手段により記憶された各メディアのURLに対応付けられて記憶装置に記憶されている複数種類のメディアのデータが複数種類のメディアの同期再生に先立って、メディアデータ取得手段によりインターネット経由で取得され、メディアデータ記憶手段により記憶される。
【0027】
これによれば、メディアデータ記憶装置では、記憶手段により記憶された各メディアのURLが設定された経過時間に従って順次読み出され、この読み出されたURLに対応付けられて前記メディアデータ記憶手段により記憶された各メディアのデータを迅速且つ確実に同期再生させることができることになる。
【0028】
また、本発明の請求項10に係るメディアデータ記憶処理プログラムによれば、当該プログラムをメディアデータ記憶装置にインストールすることで、このメディアデータ記憶装置のコンピュータにおいて、同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段をアクセスし、メディアデータ取得手段によって、前記記憶手段により記憶された各メディアのURLが設定された経過時間に従って順次読み出され、この読み出されたURLに対応付けられたメディアのデータがインターネット経由で取得される。
【0029】
これによれば、メディアデータ記憶装置では、各メディアのネットサイト上から同期再生すべき各種のデータを、設定経過時間に応じて各サイトのURLに従い順次取り込み、この取り込んだ複数メディアのデータを迅速且つ確実に同期再生させることができることになる。
【0030】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態について説明する。
【0031】
(第1実施形態)
図1は、本発明のメディアデータ記憶装置の実施形態に係る携帯機器10を備えたマルチメディア記憶再生システムの全体の構成を示す図である。
【0032】
このマルチメディア記憶再生システムは、例えばPDA(personal digital assistants)などの携帯機器10をマルチディア再生用の端末装置とし、通信ネットワーク(インターネット)Nを介してアクセス可能なサーバ30や各種メディアのネットサイト30a〜30cにより提供される種々のデータを選択的にダウンロードして同期再生する。
【0033】
例えばサーバ30から提供されるマルチメディアの再生用ファイル(CASファイル)(図3参照)に記述されたコマンドコードとURL(uniform resource locator)に従い、ネットサイトA30aから所定のテキストデータを、ネットサイトB30bから所定の音声データを、ネットサイトC30cから所定の画像データをダウンロードし、同期再生の処理を行う。
【0034】
携帯機器(PDA)10は、各種の記録媒体に記録されたプログラム、又は、通信伝送されたプログラムを読み込んで、その読み込んだプログラムによって動作が制御されるコンピュータによって構成され、その電子回路には、CPU(central processing unit)11が備えられる。
【0035】
CPU11は、メモリ12内のROM12Aに予め記憶されたPDA制御プログラム、あるいはROMカードなどの外部記録媒体13から記録媒体読取部14を介して前記メモリ12に読み込まれたPDA制御プログラム、あるいはインターネットなどの通信ネットワークN上の他のコンピュータ端末(30)から電送制御部15を介して前記メモリ12に読み込まれたPDA制御プログラムに応じて、回路各部の動作を制御するもので、前記メモリ12に記憶されたPDA制御プログラムは、キー入力部17aからのユーザ操作に応じたキー入力信号、マウスやタブレットからなる座標入力装置17bからのユーザ操作に応じた座標入力信号、あるいは電送制御部15に受信される通信ネットワークN上の他のコンピュータ端末(30,30a〜30c)からの通信信号、あるいはBluetooth(R)による近距離無線接続や有線接続による通信部16を介して受信される外部の通信機器(PC:personal computer)20からの通信信号に応じて起動される。
【0036】
前記CPU11には、前記メモリ12、記録媒体読取部14、電送制御部15、通信部16、キー入力部17a、座標入力装置17bが接続される他に、LCDからなる表示部18、マイクを備え音声を入力する音声入力部19a、スピーカを備え音声を出力する音声出力部19bなどが接続される。
【0037】
また、CPU11には、処理時間計時用のタイマが内蔵される。
【0038】
この携帯機器10のメモリ12は、ROM12A、FLASHメモリ(EEP−ROM)12B、RAM12Cを備えて構成される。
【0039】
ROM12Aには、当該携帯機器10の全体の動作を司るシステムプログラムや電送制御部15を介して通信ネットワークN上の各コンピュータ端末(30,30a〜30c)とデータ通信するためのネット通信プログラム、通信部16を介して外部の通信機器(PC)20とデータ通信するための外部機器通信プログラムが記憶される他に、スケジュール管理プログラムやアドレス管理プログラム、そしてテキストデータの表示部18への表示/音声データの音声出力部19bからの音声出力/画像データの表示部18への表示をそれぞれ独立に行うための各駆動プログラムである(テキスト/音声/画像)出力用プログラム12a1、各種メディアにより提供される音声/テキスト/画像などのデータを同期再生するためのメディア同期再生処理プログラム12a2など、種々のPDA制御プログラムが記憶される。
【0040】
FLASHメモリ(EEP−ROM)12Bには、前記メディア同期再生処理プログラム12a2に基づき再生処理の対象となる例えば外国語会話テキスト用の暗号化されたマルチメディアの再生用ファイル(CASファイル)12bが記憶される他に、前記スケジュール管理プログラムやアドレス管理プログラムに基づき管理されるユーザのスケジュール及び友人・知人のアドレスなどが記憶される。
【0041】
ここで、前記FLASHメモリ(EEP−ROM)12B内に記憶される暗号化マルチメディア再生用ファイル12bは、例えば外国語会話の練習を各種メディアのネットサイト30a〜30cから選択的にダウンロードしたテキスト・音声・画像の同期再生により行うためのファイルであり、所定のアルゴリズムにより圧縮・暗号化されている。
【0042】
この暗号化再生用ファイル12bは、例えばCD−ROMに記録されて配布されたり、通信ネットワーク(インターネット)N上のファイル配信サーバ30から配信配布されたりするもので、前記CD−ROMあるいはネットサーバ(30)により配布された暗号化再生用ファイル12bは、例えばユーザ自宅PCとしての通信機器(PC)20に読み込まれた後、携帯機器(PDA)10の通信部16を介してFLASHメモリ(EEP−ROM)12Bに転送格納される。
【0043】
RAM12Cには、前記暗号化された再生用ファイル12bを伸張・復号化した解読されたマルチメディア再生用ファイル(CASファイル)12cが記憶されると共に、この解読再生ファイル12cの中の画像ファイルが展開されて記憶される画像展開バッファ12eが備えられる。解読されたCASファイル12cは、再生命令の処理単位時間(12c1a)を記憶するヘッダ情報(12c1)、および後述するタイムコードファイル(12c2)、メディア内容データ(12c3)で構成される。
【0044】
このメディア内容データ(12c3)は、タイムコードファイル(12c2)のコマンドコードに対応して記述されたURL(uniform resource locator)に従って、ネットサイトA30a〜A30cから別々にダウンロードされた同期再生用の時間情報を含むテキストデータ、音声データ、画像データである。これらのメディア内容データ(12c3)であるテキストデータ、音声データ、画像データは、タイムコードファイル(12c2)の各対応するコマンドコード“URL”に従い再生が指示され、前記(テキスト/音声/画像)出力用プログラム12a1によって再生処理される。
【0045】
そして、RAM12Cには、例えば外国語会話テキストの学習内容の指定データおよびその言語(英語/独語/仏語/…)の指定データである(学習/言語)指定データ12dが記憶される。
【0046】
さらに、RAM12Cには、その他各種の処理に応じてCPU11に入出力される種々のデータを一時記憶するためワークエリアが用意される。
【0047】
図2は前記マルチメディア記憶再生システムにおける第1実施形態の各メディアのネットサイト30a〜30cにて提供されるデータ内容を示す図であり、同図(A)はサイトA30aにて用意された外国語会話練習用の字幕テキストデータを示す図、同図(B)はサイトB30bにて用意された外国語会話練習用の音声データを示す図、同図(C)はサイトC30cにて用意された外国語会話練習用の画像データを示す図である。
【0048】
図2(A)に示すように、ネットサイトA30a<http://abc.co.jp>にて用意されたテキストデータは、例えば各外国語会話練習テキストが同一のテキスト内容であり、使用言語毎に各対応する文字のテキストデータが用意されるもので、ユーザにより任意に指定される使用言語の種類は例えば英語/独語/仏語に分けられ、各言語毎のデータは1センテンス毎に異なるURLに対応付けられて格納される。なお、このテキストデータは、携帯機器10にダウンロードされた場合、前記テキスト出力用プログラム12a1によって再生表示され、再生開始からの所定速度の練習時間経過に応じてそのテキスト文字列を順次反転表示させるための時間情報(→…)を含んでいる。この文字列反転表示用の時間情報を含んだテキストデータのURLには、字幕を意味する”caption”の頭文字”c”が付加され”…ctxt”とされる。また、同URLには、指定言語に応じた頭文字e(英語),g(独語),f(仏語)が付加され、例えば会話テキスト7−1の英語版は”…ekaiwa7−1.ctext”、同7−1の独語版は”…gkaiwa7−1.ctext”とされる。
【0049】
図2(B)に示すように、ネットサイトB30b<http://def.co.jp>にて用意された音声データは、前記サイトA30aにて用意された各外国語会話練習テキストの各テキストデータに対応する読み上げ音声データであり、各音声データのURLはそのデータ形式を示す部分のみ”mp3”として異なり、例えば会話テキスト7−1の英語版音声データは”…ekaiwa7−1.mp3”、同7−1の独語版音声データは”…gkaiwa7−1.mp3”とされる。
【0050】
そして、この音声データにあっても、再生開始からの所定速度の練習時間経過に応じて前記テキストデータの反転表示に合うように、前記音声出力用プログラム12a1によって当該音声データを再生出力させるための時間情報を含んでいる。
【0051】
図2(C)に示すように、ネットサイトB30c<http://hij.co.jp>にて用意された画像データは、前記サイトA30aおよびサイトB30bにて用意された各外国語会話練習テキストの各国語会話用に共通する動画の画像データであり、例えばテキスト7−1用には女性が会話している状態を示す画像データが、テキスト7−2用には男性が会話している状態を示す画像データが用意される。そして、各画像データのURLには、その指定言語の種類を示す頭文字e(英語),g(独語),f(仏語)は付加されず、データ形式を示す部分のみ”mpeg”として異なり、例えば会話テキスト7−1の画像データは”…kaiwa7−1.mpeg”、7−2の画像データは”…kaiwa7−2.mpeg”とされる。
【0052】
そして、この画像データにあっても、再生開始からの所定速度の練習時間経過に応じて前記テキストデータの反転表示および音声データの出力に合うように、前記画像出力用プログラム12a1によって当該画像データを再生表示させるための時間情報を含んでいる。
【0053】
これらの各ネットサイト30a〜30cに用意された例えば外国語会話練習テキストのテキストデータ、音声データ、画像データは、携帯機器10でのマルチメディア再生用ファイル(CAS)12cにおけるタイムコードファイル12c2に従ったマルチメディア再生処理に伴い、当該携帯機器10にダウンロードされてメディア内容データ12c3として格納され、各種データに応じた(テキスト/音声/画像)出力用プログラム12a1に従って同期再生される。
【0054】
図3は前記携帯機器10のメモリ12に格納された第1実施形態のマルチメディア再生用ファイル12b(12c)を構成するタイムコードファイル12c2を示す図である。
【0055】
この携帯機器10の再生対象ファイルとなるマルチメディア再生用ファイル12b(12c)は、タイムコードファイル12c2とメディア内容データ12c3との組み合わせにより構成される。
【0056】
図3で示すタイムコードファイル12c2には、個々のメディアデータ毎に予め設定される一定時間間隔(例えば25ms)で各種データ同期再生のコマンド処理を行うためのタイムコードが記述配列されるもので、この各タイムコードは、命令を指示するコマンドコードと、当該コマンドに関わるメディアデータの内容(図2参照)を対応付けするためのパラメータデータ、各メディアデータの取得先であるネットサイト30a〜30cのURL、それと各サイト名A〜C、各メディアデータの種類(字幕テキスト/音声/画像)との組み合わせにより構成される。
【0057】
なお、このタイムコードファイル12c2がユーザによる言語指定前である場合、図3(B)に示すように、各メディアデータの取得先であるURLは、そのテキストデータのURLと音声データのURLにおいて、指定言語を示す記号部分が「*」で記述され、例えば会話テキスト7−1のテキストデータのURLは<http://abc.co.jp/*kaiwa7−1.ctxt>として言語未指定のURLとなる。そして、言語指定が行われた場合、図3(C)に示すように、前記指定言語の記号部分「*」が当該指定の言語に応じた記号(英語「e」、独語「g」、仏語「f」…)に変換され、例えば英語を指定言語とした場合には、前記会話テキスト7−1のテキストデータのURLは<…ekaiwa7−1.ctxt>に変換される。これにより、ユーザ指定の学習データ,指定言語である英会話テキスト7−1のテキストデータを、ネットサイトA30aから取得可能とする。
【0058】
また、このタイムコードファイル12c2に従い順次コマンド処理を行うための一定時間間隔は、図3(A)に示すように、当該タイムコードファイル12c2のヘッダ情報12c1に処理単位時間12c1aとして記述設定される。
【0059】
そして、メディア内容データ12c3としては、前記タイムコードファイル12c2に記述された各URLに対応するメディアのネットサイトA30a〜C30cからダウンロードされた、ユーザ指定の学習データで且つ指定言語の同期再生用のテキストデータ、音声データ、画像データが記憶される。
【0060】
タイムコードファイル12c2に使用されるコマンドとしては、例えばURL(URLメディアデータの再生指示),FN(処理終了),NP(無効)などの各コマンドがある。
【0061】
すなわち、この携帯機器(PDA)10のROM12Aに記憶されているメディア同期再生処理プログラム12a2を起動させて、FLASHメモリ12Bから解読されRAM12cに記憶された解読マルチメディア再生用ファイル12cが、指定の学習データに応じた、例えば図3(A)で示した外国語会話練習テキスト用のファイル内容であり、図3(B)で示したように、指定の言語「英語」に従ってURLの言語指定記号が変換「*」→「e」されると、当該タイムコードファイル12c2に記述されている各URLに対応するネットサイトA30a〜C30cから英会話テキスト7−1,7−2のテキストデータ、音声データ、画像データ(図2参照)がダウンロードされ、メモリ12内のメディア内容データ12c3として格納される。
【0062】
そして、一定時間毎のコマンド処理に伴い1番目のコマンドコード“URL”が読み込まれた場合には、対応記述されたURLアドレス「…ekaiwa7−1.ctxt」に従い前記メディア内容データ12c3として格納された英会話テキスト7−1のテキストデータが読み出され、テキスト出力用プログラム12a1に対してその表示処理が指示される。
【0063】
また、同一定時間毎のコマンド処理に伴い2番目のコマンドコード“URL”が読み込まれた場合には、対応記述されたURLアドレス「…ekaiwa7−1.mp3」に従い前記メディア内容データ12c3として格納された英会話テキスト7−1の音声データが読み出され、音声出力用プログラム12a1に対してその音声出力処理が指示される。
【0064】
さらに、同一定時間毎のコマンド処理に伴い3番目のコマンドコード“URL”が読み込まれた場合には、対応記述されたURLアドレス「…kaiwa7−1.mpeg」に従い前記メディア内容データ12c3として格納された英会話テキスト7−1の画像データが読み出され、画像出力用プログラム12a1に対してその表示処理が指示される。
【0065】
そして、前記メディア内容データ12c3から読み出されて再生処理される英会話テキストのテキストデータ、音声データ、画像データには、何れのデータにも、予め設定された時間間隔で再生開始することで、その相互に出力経過時間が合うようにした同期時間情報が予め含まれており、タイムコードファイル12c2上で予め時間経過を設定した各コマンドコード“URL”に従って(テキスト/音声/画像)出力用プログラム12a1による再生処理が開始されるので、メディア同期再生処理プログラム12a2では、CPU11によって特に同期付けのタイミング合わせ制御を行わなくとも、必然的に同期制御されて再生されることになる。
【0066】
なお、この図3で示したマルチメディア再生用ファイル12b(12c)についての詳細な再生動作は、後述にて改めて説明する。
【0067】
次に、前記構成のマルチメディア記憶再生システムの携帯機器10による第1実施形態のメディア再生機能について説明する。
【0068】
図4は前記携帯機器10の第1実施形態のメディア同期再生処理プログラム12a2に従った第1のマルチメディア再生処理を示すフローチャートである。
【0069】
例えば外国語会話の練習をテキストと音声と画像のマルチメディアの同期再生によって行う際に、入力部17aあるいは座標入力装置17bの操作によりユーザ所望の学習データ(例えば外国語会話学習)が指定されると(ステップS1)、例えばCD−ROMから自宅PCである通信機器(PC)20に取り込まれた当該指定の学習データの暗号化されたマルチメディア再生ファイル(タイムコードファイル12c2含む)12bは、携帯機器(PDA)10の通信部16を介して読み込まれFLASHメモリ12Bに格納されるか、または通信ネットワーク(インターネット)N上のサーバ30から電送制御部15を介してダウンロードされ、FLASHメモリ12Bに格納される(ステップS2)。
【0070】
この際、FLASHメモリ12Bに格納された暗号化マルチメディア再生用ファイル(CASファイル)12bは、解読復号化され、例えば図3(A)(B)で示した言語指定変換前のタイムコードファイル12c2を伴い、RAM12Cに転送されて格納される。
【0071】
そして、この外国語会話の学習データについて、練習したい言語(英語/独語/仏語/…)が選択されて指定されると(ステップS3)、当該指定の言語が判断され(ステップS4)、「英語」が指定された場合には前記RAM12Cに格納された指定の会話学習データのマルチメディア再生用ファイル(CASファイル)12cにおけるタイムコードファイル12c2の中のテキストデータおよび音声データに対応する各URL上の言語未指定記号「*」が、図3(C)に示すように、英語指定記号「e」に変換修正される(ステップS5e)。
【0072】
また、「独語」が指定された場合には前記RAM12Cに格納されたタイムコードファイル12c2の中のテキストデータおよび音声データに対応する各URL上の言語未指定記号「*」が、独語指定記号「g」に変換修正される(ステップS4→S5g)。
【0073】
さらに、「仏語」が指定された場合には前記RAM12Cに格納されたタイムコードファイル12c2の中のテキストデータおよび音声データに対応する各URL上の言語未指定記号「*」が、仏語指定記号「f」に変換修正される(ステップS5f)。
【0074】
こうして、ユーザ指定の言語(例えば「英語」)に応じて、前記指定の会話学習データのマルチメディア再生用ファイル(CASファイル)12cにおけるタイムコードファイル12c2が変換修正されると(図3(C)参照)、当該タイムコードファイル12c2上の各コマンドコード“URL”に対応付けられて記述されているHPアドレスに従い、各対応するメディアのネットサイトA30a〜C30cにアクセスされ、指定の学習データで且つ指定言語「英語」の会話学習用のテキストデータ、音声データ、および各言語共通の画像データがそれぞれダウンロードされてRAM12C内のメディア内容データ12c3として保存される(ステップS6)。
【0075】
つまり、図3(C)で示したタイムコードファイル12c2に記述されたHPアドレス<http://abc.co.jp/ekaiwa7−1.ctxt><…7−2.ctxt><…7−3.ctxt>…に従って、ネットサイトA30aから図2(A)で示した英語版の各字幕テキストデータ「Excuse me.」「May I help you?」…が順次ダウンロードされ、また、HPアドレス<http://def.co.jp/ekaiwa7−1.mp3><…7−2.mp3><…7−3.mp3>…に従って、ネットサイトB30bから図2(B)で示した英語版の各音声データ「イクスキューズ ミー」「メイ アイ ヘウプ ユー」…が順次ダウンロードされ、さらに、HPアドレス<http://hij.co.jp/kaiwa7−1.mpeg><…7−2.mpeg><…7−3.mpeg>…に従って、ネットサイトC30cから図2(C)で示した各言語共通の画像データ「女性動画像」「男性動画像」…が順次ダウンロードされる。
【0076】
すると、このRAM12Cに格納されたタイムコードファイル12c2およびメディア内容データ12c3からなる解読済のマルチメディア再生用ファイル(CASファイル)12cのヘッダ情報12c1に記述された処理単位時間12c1a(例えば25ms/50ms/…)が、CPU11による当該マルチメディア再生用ファイル(CASファイル)12cの一定時間間隔の読み出し時間として設定される(ステップS7)。
【0077】
そして、RAM12Cに格納されたメディア再生用ファイル(CASファイル)12cの先頭に読み出しポインタがセットされ(ステップS8)、当該再生用ファイル12cの再生処理タイミングを計時するためのタイマがスタートされる(ステップS9)。
【0078】
ここで、先読み処理が当該再生処理に並行して起動される(ステップS10)。
【0079】
この先読み処理では、再生用ファイル12cのタイムコードファイル12c2(図3(C)参照)に従った現在の読み出しポインタの位置のコマンド処理よりも後に画像データを表示させるためのコマンドがある場合は、予め当該画像データ表示用のコマンドのパラメータデータにより指示される画像データを先読みして画像展開バッファ12eに展開しておくことで、前記読み出しポインタが実際に後の画像表示用のコマンドの位置まで移動した場合に、処理に遅れなく指定の画像ファイルを直ちに出力表示できるようにする。
【0080】
前記ステップS9において、処理タイマがスタートされると、前記ステップS7にて設定された今回の外国語会話学習用のマルチメディア再生対象ファイル12cに応じた処理単位時間毎に、前記ステップS8にて設定された読み出しポインタの位置の当該メディア再生用ファイル12cを構成するタイムコードファイル12c2(図3参照)のコマンドコードおよびそのパラメータデータが読み出される(ステップS11)。
【0081】
そして、前記再生用ファイル12cにおけるタイムコードファイル12c2(図3参照)から読み出されたコマンドコードが、“FN”か否か判断され(ステップS12)、“FN”と判断された場合には、その時点で当該マルチメディア再生処理の停止処理が指示実行される(ステップS12→S13)。
【0082】
一方、前記再生用ファイル12cにおけるタイムコードファイル12c2(図3参照)から読み出されたコマンドコードが、“FN”ではないと判断された場合には、当該コマンドコードが、“URL”か否か判断される(ステップS12→S14)。そして、“URL”と判断された場合には、該当ポインタ位置のURLに対応するHPアドレスに従いメディア内容データ12c3として保存されているテキストデータまたは音声データまたは画像データが読み出され、そのデータの種類に応じた(テキスト/音声/画像)出力用プログラム12a2によって再生開始される(ステップS14→S15A)。
【0083】
つまり、コマンドコードURLの対応HPアドレスに従い、メディア内容データ12c3からテキストデータ(図2(A)参照)が読み出された場合には、テキスト出力用プログラム12a2によって再生表示が開始され、また、音声データ(図2(B)参照)が読み出された場合には、音声出力用プログラム12a2によって再生出力が開始され、また、画像データ(図2(C)参照)が読み出された場合には、音声出力用プログラム12a2によって再生出力が開始される。
【0084】
すると、再び処理タイマによる計時動作が開始され、当該タイマによる計時時間が次の処理単位時間12c1aに到達したか否か判断される(ステップS17)。
【0085】
一方、前記ステップS14において、前記再生用ファイル12cにおけるタイムコードファイル12c2(図3参照)から読み出されたコマンドコードが、“URL”ではないと判断された場合には、他のコマンド処理へ移行される(ステップS16)。この他のコマンド処理とは、他のコマンドコードのそれぞれに応じた指令の処理である。
【0086】
そして、ステップS17において、前記タイマによる計時時間が次の処理単位時間12c1aに到達したと判断された場合には、RAM12Cに格納されたマルチメディア再生用ファイル(CASファイル)12cに対する読み出しポインタが次の位置に更新セットされ(ステップS17→S18)、前記ステップS11における当該読み出しポインタの位置のタイムコードファイル12c2(図3参照)のコマンドコードおよびそのパラメータデータ読み出しからの処理が繰り返される(ステップS18→S11〜S17)。
【0087】
すなわち、携帯機器10のCPU11は、ROM12Aに記憶されたメディア同期再生処理プログラム12a2に従って、マルチメディア再生用ファイル12b(12c)に予め設定記述されているコマンド処理の単位時間毎に、タイムコードファイル12c2(図3参照)に配列されたコマンドコードおよびそのパラメータデータを読み出し、そのコマンドに対応する処理を指示するだけで、当該タイムコードファイル12c2に記述された各コマンドに応じた各種メディアデータの同期再生処理が実行される。
【0088】
ここで、図3(C)で示す英会話学習用のマルチメディア再生ファイル12cに基づいた、前記メディア同期再生処理プログラム12a1(図4参照)によるテキスト・音声・画像データの同期再生出力動作について詳細に説明する。
【0089】
図5は前記図3(C)における英会話学習用のマルチメディア再生ファイル12cに基づいた英会話テキスト・音声・画像データの同期再生状態を示す図である。
【0090】
この英会話学習用のマルチメディア再生ファイル(12c)は、そのヘッダ情報(12c1)に記述設定された処理単位時間(25ms)(図3(A))毎にコマンド処理が実行されるもので、まず、タイムコードファイル12c2(図3参照)の第1コマンドコード“URL”およびそのパラメータデータ“00”が読み出されると、当該第1コマンドコードに対応記述されたHPアドレス<http://abc.co.jp/ekaiwa7−1.ctxt>に従い、メディア内容データ12c3としてダウンロード保存されている英会話テキスト7−1の字幕テキストデータ「Excuse me.」(図2(A)参照)が読み出され、テキスト出力用プログラム12a1に対して、図5(A)〜図5(C)に示すように、再生表示処理が指示される。
【0091】
これにより、英会話テキスト7−1の字幕テキストデータ「Excuse me.」は、表示部18において各文字毎に下線強調表示されながらその再生表示が開始される。
【0092】
第2コマンドコード“URL”およびそのパラメータデータ“02”が読み出されると、当該第2コマンドコードに対応記述されたHPアドレス<http://def.co.jp/ekaiwa7−1.mp3>に従い、メディア内容データ12c3としてダウンロード保存されている英会話テキスト7−1の音声データ「イクスキューズ ミー」(図2(B)参照)が読み出され、音声出力用プログラム12a1に対して、同図5(A)〜図5(C)に示すように、再生出力処理が指示される。
【0093】
これにより、英会話テキスト7−1の音声データ「イクスキューズ ミー」は、音声出力部19bにおいて順次再生出力が開始される。
【0094】
第3コマンドコード“URL”およびそのパラメータデータ“02”が読み出されると、当該第3コマンドコードに対応記述されたHPアドレス<http://hij.co.jp/kaiwa7−1.mpeg>に従い、メディア内容データ12c3としてダウンロード保存されている会話テキスト7−1の言語共通画像データ「女性動画像」(図2(C)参照)が読み出され、画像出力用プログラム12a1に対して、同図5(A)〜図5(C)に示すように、再生表示処理が指示される。
【0095】
これにより、会話テキスト7−1の言語共通画像データ「女性動画像」は、表
示部18において順次切り替えられながら再生表示が開始される。
【0096】
さらに、タイムコードファイル12c2(図3参照)の第5コマンドコード“URL”およびそのパラメータデータ“02”が読み出されると、当該第5コマンドコードに対応記述されたHPアドレス<http://abc.co.jp/ekaiwa7−2.ctxt>に従い、メディア内容データ12c3としてダウンロード保存されている英会話テキスト7−2の字幕テキストデータ「May I help you?」(図2(A)参照)が読み出され、テキスト出力用プログラム12a1に対して、図5(D)〜図5(F)に示すように、再生表示処理が指示される。
【0097】
これにより、英会話テキスト7−2の字幕テキストデータ「May I help you?」は、表示部18において各文字毎に下線強調表示されながらその再生表示が開始される。
【0098】
第6コマンドコード“URL”およびそのパラメータデータ“00”が読み出されると、当該第6コマンドコードに対応記述されたHPアドレス<http://def.co.jp/ekaiwa7−2.mp3>に従い、メディア内容データ12c3としてダウンロード保存されている英会話テキスト7−2の音声データ「メイ アイ ヘウプ ユー」(図2(B)参照)が読み出され、音声出力用プログラム12a1に対して、同図5(D)〜図5(F)に示すように、再生出力処理が指示される。
【0099】
これにより、英会話テキスト7−2の音声データ「メイ アイ ヘウプ ユー」は、音声出力部19bにおいて順次再生出力が開始される。
【0100】
第7コマンドコード“URL”およびそのパラメータデータ“00”が読み出されると、当該第7コマンドコードに対応記述されたHPアドレス<http://hij.co.jp/kaiwa7−2.mpeg>に従い、メディア内容データ12c3としてダウンロード保存されている会話テキスト7−2の言語共通画像データ「男性動画像」(図2(C)参照)が読み出され、画像出力用プログラム12a1に対して、同図5(D)〜図5(F)に示すように、再生表示処理が指示される。
【0101】
これにより、会話テキスト7−2の言語共通画像データ「男性動画像」は、表示部18において順次切り替えられながら再生表示が開始される。
【0102】
この場合、前記字幕テキストデータ「Excuse me.」「May I help you?」は、前記テキスト出力用プログラム12a1により再生表示されるのに伴い、その再生開始からの所定速度の時間経過に応じて各テキスト文字列を順次反転(下線強調)表示させるための時間情報(→…)を含んでおり、また、前記音声データ「イクスキューズ ミー」「メイ アイ ヘウプ ユー」にあっても、前記音声出力用プログラム12a1により再生出力されるのに伴い、その再生開始からの所定速度の時間経過に応じて前記字幕テキストデータの反転表示に合うように当該音声データを再生出力させるための時間情報を含んでおり、さらに、言語共通画像データ「女性動画像」「男性動画像」にあっても、前記画像出力用プログラム12a1により再生表示されるのに伴い、その再生開始からの所定速度の時間経過に応じて前記字幕テキストデータの反転表示および音声データの出力に合うように当該画像データを切り替え再生表示させるための時間情報を含んでいるので、マルチメディア再生用ファイル12b(12c)に予め設定記述されているコマンド処理の基準単位時間(25ms/50ms)毎に、タイムコードファイル12c2に配列されたコマンドコードおよびそのパラメータデータを読み出し、そのURLコマンドに対応して読み出される各メディアデータの再生処理を指示するだけで、当該タイムコードファイル12c2に記述されたURLアドレスに従いダウンロードした会話学習用のテキスト・音声・画像データの同期再生処理を実行できる。
【0103】
従って、CPUのメイン処理の負担が軽くなり、例えば携帯機器(PDA)10という処理能力の比較的小さいCPUでも容易にテキスト・画像・音声を含む複数種類のネットメディアデータの同期再生処理が行えるので、高性能なCPUを用いない簡単な再生装置でも、これを実現できるようになる。
【0104】
図6は前記図3(B)における外国語会話学習用のマルチメディア再生ファイル12cに対して独語を言語指定した場合の独語会話テキスト・音声・画像データの同期再生状態を示す図である。
【0105】
外国語会話学習用テキストの指定言語として独語を指定した場合には、RAM12Cに格納されたタイムコードファイル12c2の中のテキストデータおよび音声データに対応する各URL上の言語未指定記号「*」が、独語指定記号「g」に変換修正され(ステップS4→S5g)、この独語指定修正後のHPアドレス<http://abc.co.jp/gkaiwa7−1.ctxt><…7−2.ctxt><…7−3.ctxt>…に従って、ネットサイトA30aから図2(A)で示した独語版の各字幕テキストデータ「Entschuldigung.」「Was kann ich…Sie tun?」…が順次ダウンロードされ、また、HPアドレス<http://def.co.jp/gkaiwa7−1.mp3><…7−2.mp3><…7−3.mp3>…に従って、ネットサイトB30bから図2(B)で示した独語版の各音声データ「エントシュルディグング」「… カン イッヒ フュア ズィ…」…が順次ダウンロードされ、さらに、HPアドレス<http://hij.co.jp/kaiwa7−1.mpeg><…7−2.mpeg><…7−3.mpeg>…に従って、ネットサイトC30cから図2(C)で示した各言語共通の画像データ「女性動画像」「男性動画像」…が順次ダウンロードされる(ステップS6)。
【0106】
よって、独語指定修正後のタイムコードファイル12c2の各コマンドコードの読み出しに従い、当該コマンドコード“URL”に対応付けられたHPアドレスに対応するメディアデータ(独語版字幕テキストデータ/独語版音声データ/共通動画像データ)が読み出されてその再生が指示されることで、前記図5を参照して説明した英語版でのマルチメディア同期再生処理と全く同様に、独語での会話学習用のテキスト・音声・画像データの同期再生処理を実行できる。
【0107】
なお、この第1実施形態において、前記図4を参照して説明した第1のマルチメディア再生処理では、指定言語に応じてタイムコードファイル12c2に記述されている各URL上の言語未指定記号「*」が、言語指定記号「e」「g」…に変換修正されると(ステップS3〜S5)、直ちにそのHPアドレスに従ったネットサイトA30a〜C30cへのアクセスを行い、同期再生すべき各メディアデータ(指定言語版字幕テキストデータ/指定言語版音声データ/共通動画像データ)をダウンロードしてRAM12C内にメディア内容データ12c3として保存しておき(ステップS6)、タイムコードファイル12c2に従ったコマンドコード“URL”の読み出しに伴いそのHPアドレスに対応付けられた各メディアデータを前記メディア内容データ12c3から順次読み出して再生指示する手順(ステップS14→S15A)としたが、次の図7を参照して説明する第2のマルチメディア再生処理にあるように、同期再生すべき各メディアデータ(指定言語版字幕テキストデータ/指定言語版音声データ/共通動画像データ)をタイムコードファイル12c2に従ったコマンドコード“URL”の読み出しに伴い、その都度HPアドレスに従ったネットサイトA30a〜C30cへのアクセスを行い順次ダウンロードして再生指示する手順としてもよい。
【0108】
図7は前記携帯機器10の第1実施形態のメディア同期再生処理プログラム12a2に従った第2のマルチメディア再生処理を示すフローチャートである。
【0109】
この第1実施形態の第2のマルチメディア再生処理において、前記図4における第1のマルチメディア再生処理(ステップS1〜S18)と同一の処理ステップについては、同一のステップ符号を付してその説明を省略する。
【0110】
すなわち、この第2のマルチメディア再生処理では、タイムコードファイル12c2に従ったコマンドコード“URL”の読み出しに伴い、その都度HPアドレスに従ったネットサイトA30a〜C30cへのアクセスを行い、同期再生すべき各メディアデータ(指定言語版字幕テキストデータ/指定言語版音声データ/共通動画像データ)を順次ダウンロードしながら再生指示する手順(ステップS14→S15B)とする。
【0111】
すなわち、ステップS14において、再生用ファイル12cにおけるタイムコードファイル12c2(図3参照)から読み出されたコマンドコードが“URL”と判断された場合には、該当ポインタ位置のURLに対応するHPアドレスに従い各対応するメディアのネットサイトA30a〜C30cにアクセスされ、指定の学習データで且つ指定言語の会話学習用のテキストデータ、音声データ、および各言語共通の画像データがそれぞれダウンロードされ、そのデータの種類に応じた(テキスト/音声/画像)出力用プログラム12a2によって再生開始される(ステップS14→S15B)。
【0112】
つまり、コマンドコードURLの対応HPアドレスに従い、ネットサイトA30aからテキストデータ(図2(A)参照)をダウンロードした場合に、テキスト出力用プログラム12a2によって再生表示を開始し、また、音声データ(図2(B)参照)をダウンロードした場合に、音声出力用プログラム12a2によって再生出力を開始し、また、画像データ(図2(C)参照)をダウンロードした場合に、音声出力用プログラム12a2によって再生出力を開始する。
【0113】
これによれば、同期再生すべき各メディアデータ(指定言語版字幕テキストデータ/指定言語版音声データ/共通動画像データ)の全てを予めダウンロードしてRAM12C内のメディア内容データ12c3として保存しておく必要がなくなるので、例えば携帯機器10といった少ない容量のメモリ領域を、大きく・長い間占有せずとも、マルチメディアデータの同期再生を行うことができる。
【0114】
また、この第1実施形態において、前記図4、図7を参照して説明した第1、第2のマルチメディア再生処理では、何れの再生処理の場合でも、ユーザ指定された学習データに対応するマルチメディア再生用ファイル12b(12c[12c1,12c2])を、CD−ROMから通信機器(PC)20→通信部16を介してRAM12Cに読み込んだり、サーバ30から通信ネットワークN→電送制御部15を介してRAM12Cにダウンロードしたりして、一旦携帯機器10内に取り込んだ後に、ユーザ指定された言語に応じて、当該マルチメディア再生用ファイル12cを構成するタイムコードファイル12c2中の各URL上の言語未指定記号「*」を言語指定記号「e」「g」…に変換修正する構成としたが、次の図8を参照して説明する携帯機器10側でのメディア再生処理とサーバ30側でのサーバ処理とにあるように構成してもよい。
【0115】
図8は前記第1実施形態のマルチメディア記憶再生システムにおける他の実施形態に伴う携帯機器10側でのメディア再生処理とサーバ30側でのサーバ処理とを示すフローチャートである。
【0116】
すなわち、携帯機器10において、学習するデータがユーザにより指定されると、この学習データの指定信号がサーバ30へ送信される(ステップS1′)。
【0117】
サーバ30において、前記携帯機器10から送信された学習データの指定信号が受信されると(ステップB1)、指定の学習データ(例えば外国語会話学習テキスト)のタイムコードファイル12c2を有するマルチメディア再生用ファイル12b(12c)が読み出される(ステップB2)。
【0118】
また、携帯機器10において、ユーザ所望の言語が指定されると、この言語の指定信号がサーバ10へ送信される(ステップS2′)。
【0119】
サーバ30において、前記携帯機器10から送信された言語の指定信号が受信されると(ステップB3)、当該指定の言語が判断され(ステップB4)、「英語」が指定された場合には前記ステップB2において読み出されたユーザ指定の会話学習データのマルチメディア再生用ファイル(CASファイル)12cにおけるタイムコードファイル12c2の中のテキストデータおよび音声データに対応する各URL上の言語未指定記号「*」が、図3(C)に示すように、英語指定記号「e」に変換修正される(ステップB5e)。
【0120】
また、「独語」が指定された場合には前記サーバ30にて読み出されたタイムコードファイル12c2の中のテキストデータおよび音声データに対応する各URL上の言語未指定記号「*」が、独語指定記号「g」に変換修正される(ステップB4→B5g)。
【0121】
さらに、「仏語」が指定された場合には前記サーバ30にて読み出されたタイムコードファイル12c2の中のテキストデータおよび音声データに対応する各URL上の言語未指定記号「*」が、仏語指定記号「f」に変換修正される(ステップB4→B5f)。
【0122】
こうして、サーバ30側において、ユーザ指定の言語(例えば「英語」)に応じて、指定の会話学習データのマルチメディア再生用ファイル(CASファイル)12cにおけるタイムコードファイル12c2が変換修正されると(図3(C)参照)、当該タイムコードファイル12c2を有するマルチメディア再生用ファイル(CASファイル)12cが前記学習データおよび言語指定元の携帯機器10へ送信される(ステップB6)。
【0123】
すると、携帯機器10では、ユーザ指定に応じた学習データで且つ指定の言語に応じた例えば英会話学習用のタイムコードファイル12c2を有するマルチメディア再生用ファイル(CASファイル)12cが前記サーバ30から受信され、メモリ12内に格納される(ステップS3′)。
【0124】
なお、この携帯機器10でのメディア再生処理におけるこれ以後の処理については、前記図4における第1のメディア再生処理では、ステップS6以降の処理に続き同様であり、また図7における第2のメディア再生処理では、ステップS7以降の処理に続き同様であるため、その説明は省略する。
【0125】
これによれば、携帯機器10では、ユーザ所望の学習データと言語の指定を行うだけで、当該指定の学習データおよび指定の言語に応じたタイムコードファイル12c2を有するマルチメディア再生用ファイル(CASファイル)12cはサーバ30側にて生成されて受信取得されるので、携帯機器10でのメディア再生処理に伴うCPU11の負担をより軽減することができる。
【0126】
したがって、前記構成のマルチメディア記憶再生システムの携帯機器10による第1実施形態のメディア再生機能によれば、マルチメディア再生用ファイル12b(12c)のタイムコードファイル12c2にて予め設定された処理単位時間12c1a毎に読み出されるコマンドコード“URL”に対応付けて、同期再生すべき予め再生速度の時間情報を有する各メディアデータ(字幕テキストデータ/音声データ/画像データ)の格納先ネットサイトA30a/B30b/C30cを示すURL(HPアドレス)を記述し、前記設定処理単位時間12c1a毎のコマンドコード“URL”に対応してそのHPアドレスに従いダウンロードされた各メディアデータ(字幕テキストデータ/音声データ/画像データ)それぞれの再生指示を行うだけで、携帯機器10には元々記憶していないテキスト・音声・画像データの再生処理が必然的に同期実行される。よって、CPU11の負荷を非常に小さくして、高性能なCPUを用いない簡単な再生装置でもテキスト/音声/画像の同期再生を実現することができる。
【0127】
また、前記タイムコードファイル12c2に記述される同期再生すべき時間情報を有する各メディアデータ(字幕テキストデータ/音声データ/画像データ)の格納先ネットサイトA30a/B30b/C30cを示すURL(HPアドレス)には、指定の言語に応じて変換修正される記号を付加設定し、この言語指定記号に応じて異なるHPアドレスに従って、指定の言語に対応する字幕テキストデータとその音声データがダウンロードされるので、各国語別に用意されたテキストデータや音声データでも、1つのタイムコードファイル12c2に基づいて容易に所望の言語のテキスト,音声データを選択的にダウンロードして同期再生することができる。
【0128】
なお、前記マルチメディア記憶再生システムの第1実施形態では、タイムコードファイル12c2の各コマンドコード“URL”に対応して記述したHPアドレスに従いネットサイトA30aからダウンロードされて再生処理される字幕テキストデータは、当該テキストデータ自体にその再生処理に伴い各文字を順次強調表示させるための時間情報を有するものとし、音声データや画像データの再生処理に必然的に同期表示させる構成としたが、次の第2実施形態において説明するように、タイムコードファイル12c2に記述して設定処理単位時間12c1a毎に実行されるコマンドコード“HL”(ハイライト表示)に従い、同期再生すべきテキストデータに対する各文字毎の強調表示を指示する構成としてもよい。
【0129】
(第2実施形態)
図9は前記マルチメディア記憶再生システムにおける第2実施形態の各メディアのネットサイト30a〜30cにて提供されるデータ内容を示す図であり、同図(A)はサイトA30aにて用意された外国語会話練習用のテキストデータを示す図、同図(B)はサイトB30bにて用意された外国語会話練習用の音声データを示す図、同図(C)はサイトC30cにて用意された外国語会話練習用の画像データを示す図である。
【0130】
図9にて示す第2実施形態の各メディアのネットサイト30a〜30cにて提供されるデータ内容おいて、前記図2において示した第1実施形態での各メディアデータと同一のデータ内容である音声データ(図9(B)参照)および画像データ(図9(C)参照)についてはその説明を省略する。
【0131】
すなわち、図9(A)に示すように、この第2実施形態のネットサイトA30a<http://abc.co.jp>にて用意されたテキストデータは、使用言語毎に各対応する文字のテキストデータが用意され、各言語毎のデータは1センテンス毎に異なるURLに対応付けられて格納される点で、前記第1実施形態と同様であるが、テキスト文字列を順次反転表示させるための時間情報(→…)を含んでいない点で異なる。
【0132】
従って、この第2実施形態のテキストデータのURLには、字幕を意味する”caption”の頭文字”c”は付加されず、例えば会話テキスト7−1の英語版は”…ekaiwa7−1.text”、同7−1の独語版は”…gkaiwa7−1.text”とされる。
【0133】
図10は前記携帯機器10のメモリ12に格納された第2実施形態のマルチメディア再生用ファイル12b(12c)を構成するタイムコードファイル12c2を示す図である。
【0134】
この第2実施形態のタイムコードファイル12c2には、まず、前記第1実施形態と同様に、個々のメディアデータ毎に予め設定される一定時間間隔(例えば25ms)で各種データ同期再生のコマンド処理を行うためのタイムコードが記述配列されるもので、この各タイムコードは、命令を指示するコマンドコードと、当該コマンドに関わるメディアデータの内容(図9参照)を対応付けするためのパラメータデータ、各メディアデータの取得先であるネットサイト30a〜30cのURL、それと各サイト名A〜C、各メディアデータの種類(テキスト/音声/画像)との組み合わせにより構成される。
【0135】
そして、命令を指示するコマンドコードとしては、対応付けられたネットサイト30a〜30cのURLに従い読み出されるテキストデータ,音声データ,画像データの再生を指示するためのコマンドコード“URL”を主体として、例えばテキスト1センテンス分相当のテキスト,音声,画像の再生指示毎に当該テキストデータの各文字の音声に合わせた強調表示を指示するためのコマンドコード“HL”がその強調表示すべき文字数をパラメータデータとして対応付けて記述される。
【0136】
このコマンドコード“HL”に従ったテキストデータの各文字毎の強調表示は、そのパラメータデータとして記述する強調表示文字数が使用言語に応じて異なるため、当該タイムコードファイル12c2自体が使用言語に応じて専用のものとなり、同一内容の外国語会話学習テキストでも、英語版タイムコードファイル、独語版タイムコードファイル、仏語版タイムコードファイルなどとしてCD−ROMやサーバ30に用意される。
【0137】
すなわち、この携帯機器(PDA)10のROM12Aに記憶されているメディア同期再生処理プログラム12a2を起動させて、学習データおよび例えば「英語」を指定すると、当該指定の学習データ、指定の言語「英語」に応じた英語版タイムコードファイル12c2(図10参照)を有するマルチメディア再生用ファイル12b(12c)がCD−ROMやサーバ30から本携帯機器10のメモリ12に取り込まれ、当該タイムコードファイル12c2に記述されている各URLに対応するネットサイトA30a〜C30cから英会話テキスト7−1,7−2のテキストデータ、音声データ、画像データ(図9参照)がダウンロードされ、メモリ12内のメディア内容データ12c3として格納される。
【0138】
そして、一定時間毎のコマンド処理に伴い1番目のコマンドコード“URL”が読み込まれた場合には、対応記述されたURLアドレス「…ekaiwa7−1.txt」に従い前記メディア内容データ12c3として格納された英会話テキスト7−1のテキストデータが読み出され、テキスト出力用プログラム12a1に対してその表示処理が指示される。
【0139】
また、同一定時間毎のコマンド処理に伴い2番目のコマンドコード“URL”が読み込まれた場合には、対応記述されたURLアドレス「…ekaiwa7−1.mp3」に従い前記メディア内容データ12c3として格納された英会話テキスト7−1の音声データが読み出され、音声出力用プログラム12a1に対してその音声出力処理が指示される。
【0140】
さらに、同一定時間毎のコマンド処理に伴い3番目のコマンドコード“URL”が読み込まれた場合には、対応記述されたURLアドレス「…kaiwa7−1.mpeg」に従い前記メディア内容データ12c3として格納された英会話テキスト7−1の画像データが読み出され、画像出力用プログラム12a1に対してその表示処理が指示される。
【0141】
そして、5番目,41番目,59番目に記述されたコマンドコード“HL”が読み込まれた場合には、このパラメータデータ“02”“07”“10”によって示される文字数分だけ、前記1番目のコマンドコード“URL”に従い表示中の英会話テキスト7−1の各表示文字が順次強調表示される。
【0142】
また、これと共に再生処理される英会話テキストの音声データ、画像データには、何れのデータにも、予め設定された時間間隔で再生開始することで、その相互に出力経過時間が合うようにした同期時間情報が予め含まれており、タイムコードファイル12c2上で予め時間経過を設定した各コマンドコード“URL”に従って(テキスト/音声/画像)出力用プログラム12a1による再生処理が開始されるので、メディア同期再生処理プログラム12a2では、CPU11によって特に同期付けのタイミング合わせ制御を行わなくとも、必然的に同期制御されて再生されることになる。
【0143】
なお、この図10で示したマルチメディア再生用ファイル12b(12c)についての詳細な再生動作は、後述にて改めて説明する。
【0144】
次に、前記構成のマルチメディア記憶再生システムの携帯機器10による第2実施形態のメディア再生機能について説明する。
【0145】
図11は前記携帯機器10の第2実施形態のメディア同期再生処理プログラム12a2に従った第1のマルチメディア再生処理を示すフローチャートである。
【0146】
例えば外国語会話の練習をテキストと音声と画像のマルチメディアの同期再生によって行う際に、入力部17aあるいは座標入力装置17bの操作によりユーザ所望の学習データ(例えば外国語会話学習)が指定されると共に(ステップA1)、この外国語会話の学習データについて、練習したい言語(英語/独語/仏語/…)が選択されて指定されると(ステップA2)、例えばCD−ROMから自宅PCである通信機器(PC)20に取り込まれた当該指定の学習データに応じた指定言語版の暗号化マルチメディア再生ファイル(タイムコードファイル12c2含む)12bが、携帯機器(PDA)10の通信部16を介して読み込まれFLASHメモリ12Bに格納されるか、または通信ネットワーク(インターネット)N上のサーバ30から電送制御部15を介してダウンロードされ、FLASHメモリ12Bに格納される(ステップA3)。
【0147】
この際、FLASHメモリ12Bに格納された暗号化マルチメディア再生用ファイル(CASファイル)12bは、解読復号化され、例えば図10で示した指定言語版タイムコードファイル12c2を伴い、RAM12Cに転送されて格納される。
【0148】
すると、ユーザ指定の言語(例えば「英語」)に応じた英語版タイムコードファイル12c2上の各コマンドコード“URL”に対応付けられて記述されているHPアドレスに従い、各対応するメディアのネットサイトA30a〜C30cにアクセスされ、指定の学習データで且つ指定言語「英語」の会話学習用のテキストデータ、音声データ、および各言語共通の画像データがそれぞれダウンロードされてRAM12C内のメディア内容データ12c3として保存される(ステップA4)。
【0149】
つまり、図10で示した英語版タイムコードファイル12c2に記述されたHPアドレス<http://abc.co.jp/ekaiwa7−1.txt><…7−2.txt><…7−3.txt>…に従って、ネットサイトA30aから図9(A)で示した英語版の各テキストデータ「Excuse me.」「May I help you?」…が順次ダウンロードされ、また、HPアドレス<http://def.co.jp/ekaiwa7−1.mp3><…7−2.mp3><…7−3.mp3>…に従って、ネットサイトB30bから図9(B)で示した英語版の各音声データ「イクスキューズ ミー」「メイ アイ ヘウプ ユー」…が順次ダウンロードされ、さらに、HPアドレス<http://hij.co.jp/kaiwa7−1.mpeg><…7−2.mpeg><…7−3.mpeg>…に従って、ネットサイトC30cから図9(C)で示した各言語共通の画像データ「女性動画像」「男性動画像」…が順次ダウンロードされる。
【0150】
すると、このRAM12Cに格納された英語版タイムコードファイル12c2およびメディア内容データ12c3からなる解読済のマルチメディア再生用ファイル(CASファイル)12cのヘッダ情報12c1に記述された処理単位時間12c1a(例えば25ms/50ms/…)が、CPU11による当該マルチメディア再生用ファイル(CASファイル)12cの一定時間間隔の読み出し時間として設定される(ステップA5)。
【0151】
そして、RAM12Cに格納されたメディア再生用ファイル(CASファイル)12cの先頭に読み出しポインタがセットされ(ステップA6)、当該再生用ファイル12cの再生処理タイミングを計時するためのタイマがスタートされる(ステップA7)。
【0152】
ここで、先読み処理が当該再生処理に並行して起動される(ステップA8)。
【0153】
前記ステップA7において、処理タイマがスタートされると、前記ステップA5にて設定された今回の英会話学習用のマルチメディア再生対象ファイル12cに応じた処理単位時間毎に、前記ステップA6にて設定された読み出しポインタの位置の当該メディア再生用ファイル12cを構成する英語版タイムコードファイル12c2(図10参照)のコマンドコードおよびそのパラメータデータが読み出される(ステップA9)。
【0154】
そして、前記再生用ファイル12cにおける英語版タイムコードファイル12c2(図10参照)から読み出されたコマンドコードが、“FN”か否か判断され(ステップA10)、“FN”と判断された場合には、その時点で当該マルチメディア再生処理の停止処理が指示実行される(ステップA10→A11)。
【0155】
一方、前記再生用ファイル12cにおけるタイムコードファイル12c2(図10参照)から読み出されたコマンドコードが、“FN”ではないと判断された場合には、当該コマンドコードが、“URL”か否か判断される(ステップA10→A12)。そして、“URL”と判断された場合には、該当ポインタ位置のURLに対応するHPアドレスに従いメディア内容データ12c3として保存されているテキストデータまたは音声データまたは画像データが読み出され、そのデータの種類に応じた(テキスト/音声/画像)出力用プログラム12a2によって再生開始される(ステップA12→A13A)。
【0156】
すると、再び処理タイマによる計時動作が開始され、当該タイマによる計時時間が次の処理単位時間12c1aに到達したか否か判断される(ステップA17)。
【0157】
一方、前記ステップA12において、前記再生用ファイル12cにおける英語版タイムコードファイル12c2(図10参照)から読み出されたコマンドコードが、“URL”ではないと判断された場合には、当該コマンドコードが、“HL”か否か判断される(ステップA12→A14)。そして、“HL”と判断された場合には、そのパラメータデータによって示される文字数の位置まで、前記“URL”コマンドに応じて再生表示されているテキストデータの各文字が反転により強調表示される(ステップA14→A15)。
【0158】
また、前記ステップA14において、前記英語版タイムコードファイル12c2(図10参照)から読み出されたコマンドコードが、“HL”ではないと判断された場合には、他のコマンド処理へ移行される(ステップA16)。この他のコマンド処理とは、他のコマンドコードのそれぞれに応じた指令の処理である。
【0159】
そして、ステップA17において、前記タイマによる計時時間が次の処理単位時間12c1aに到達したと判断された場合には、RAM12Cに格納されたマルチメディア再生用ファイル(CASファイル)12cに対する読み出しポインタが次の位置に更新セットされ(ステップA17→A18)、前記ステップA9における当該読み出しポインタの位置のタイムコードファイル12c2(図10参照)のコマンドコードおよびそのパラメータデータ読み出しからの処理が繰り返される(ステップA18→A9〜A17)。
【0160】
すなわち、携帯機器10のCPU11は、ROM12Aに記憶されたメディア同期再生処理プログラム12a2に従って、マルチメディア再生用ファイル12b(12c)に予め設定記述されているコマンド処理の単位時間毎に、タイムコードファイル12c2(図10参照)に配列されたコマンドコードおよびそのパラメータデータを読み出し、そのコマンドに対応する処理を指示するだけで、当該タイムコードファイル12c2に記述された各コマンドに応じた各種メディアデータの同期再生処理が実行される。
【0161】
ここで、図10で示す英語版会話学習用のマルチメディア再生ファイル12cに基づいた、前記メディア同期再生処理プログラム12a1(図11参照)によるテキスト・音声・画像データの同期再生出力動作について、前記図5で示した英会話テキスト・音声・画像データの同期再生状態を参照しながら詳細に説明する。
【0162】
この英語版会話学習用のマルチメディア再生ファイル(12c)は、そのヘッダ情報(12c1)に記述設定された処理単位時間(25ms)毎にコマンド処理が実行されるもので、まず、タイムコードファイル12c2(図10参照)の第1コマンドコード“URL”およびそのパラメータデータ“00”が読み出されると、当該第1コマンドコードに対応記述されたHPアドレス<http://abc.co.jp/ekaiwa7−1.txt>に従い、メディア内容データ12c3としてダウンロード保存されている英会話テキスト7−1のテキストデータ「Excuse me.」(図9(A)参照)が読み出され、テキスト出力用プログラム12a1に対して、図5(A)〜図5(C)に示すように、再生表示処理が指示される。
【0163】
この時点で、英会話テキスト7−1のテキストデータ「Excuse me.」は、表示部18において単にその全体文字列が再生表示される。
【0164】
第2コマンドコード“URL”およびそのパラメータデータ“02”が読み出されると、当該第2コマンドコードに対応記述されたHPアドレス<http://def.co.jp/ekaiwa7−1.mp3>に従い、メディア内容データ12c3としてダウンロード保存されている英会話テキスト7−1の音声データ「イクスキューズ ミー」(図9(B)参照)が読み出され、音声出力用プログラム12a1に対して、同図5(A)〜図5(C)に示すように、再生出力処理が指示される。
【0165】
これにより、英会話テキスト7−1の音声データ「イクスキューズ ミー」は、音声出力部19bにおいて順次再生出力が開始される。
【0166】
第3コマンドコード“URL”およびそのパラメータデータ“02”が読み出されると、当該第3コマンドコードに対応記述されたHPアドレス<http://hij.co.jp/kaiwa7−1.mpeg>に従い、メディア内容データ12c3としてダウンロード保存されている会話テキスト7−1の言語共通画像データ「女性動画像」(図9(C)参照)が読み出され、画像出力用プログラム12a1に対して、同図5(A)〜図5(C)に示すように、再生表示処理が指示される。
【0167】
これにより、会話テキスト7−1の言語共通画像データ「女性動画像」は、表
示部18において順次切り替えられながら再生表示が開始される。
【0168】
そして、第5コマンドコード“HL”およびそのパラメータデータ“02”が読み出されると、図5(A)で示すように、表示中のテキストデータ「Excuse me.」の2文字目までの反転強調表示が指示される。
【0169】
また、第41コマンドコード“HL”およびそのパラメータデータ“07”が読み出されると、図5(B)で示すように、表示中のテキストデータ「Excuse me.」の7文字目までの反転強調表示が指示される。
【0170】
さらに、第59コマンドコード“HL”およびそのパラメータデータ“10”が読み出されると、図5(C)で示すように、表示中のテキストデータ「Excuse
me.」の10文字目までの反転強調表示が指示される。
【0171】
この後、タイムコードファイル12c2(図10参照)の第81コマンドコード“URL”およびそのパラメータデータ“02”が読み出されると、当該第81コマンドコードに対応記述されたHPアドレス<http://abc.co.jp/ekaiwa7−2.txt>に従い、メディア内容データ12c3としてダウンロード保存されている英会話テキスト7−2の字幕テキストデータ「May I help you?」(図9(A)参照)が読み出され、テキスト出力用プログラム12a1に対して、図5(D)〜図5(F)に示すように、再生表示処理が指示される。
【0172】
この時点で、英会話テキスト7−2のテキストデータ「May I help you?」は、表示部18において単にその全体文字列が再生表示される。
【0173】
第82コマンドコード“URL”およびそのパラメータデータ“00”が読み出されると、当該第82コマンドコードに対応記述されたHPアドレス<http://def.co.jp/ekaiwa7−2.mp3>に従い、メディア内容データ12c3としてダウンロード保存されている英会話テキスト7−2の音声データ「メイ アイ ヘウプ ユー」(図9(B)参照)が読み出され、音声出力用プログラム12a1に対して、同図5(D)〜図5(F)に示すように、再生出力処理が指示される。
【0174】
これにより、英会話テキスト7−2の音声データ「メイ アイ ヘウプ ユー」は、音声出力部19bにおいて順次再生出力が開始される。
【0175】
第83コマンドコード“URL”およびそのパラメータデータ“00”が読み出されると、当該第83コマンドコードに対応記述されたHPアドレス<http://hij.co.jp/kaiwa7−2.mpeg>に従い、メディア内容データ12c3としてダウンロード保存されている会話テキスト7−2の言語共通画像データ「男性動画像」(図9(C)参照)が読み出され、画像出力用プログラム12a1に対して、同図5(D)〜図5(F)に示すように、再生表示処理が指示される。
【0176】
これにより、会話テキスト7−2の言語共通画像データ「男性動画像」は、表示部18において順次切り替えられながら再生表示が開始される。
【0177】
この場合、前記テキストデータ「Excuse me.」「May I help you?」は、前記テキスト出力用プログラム12a1により再生表示されると共にコマンドコード“HL”に応じて、その再生開始からの所定速度の時間経過に応じて各テキスト文字列が順次反転(下線強調)表示されるものであり、また、前記音声データ「イクスキューズ ミー」「メイ アイ ヘウプ ユー」にあっても、前記音声出力用プログラム12a1により再生出力されるのに伴い、その再生開始からの所定速度の時間経過に応じて前記テキストデータの反転表示に合うように当該音声データを再生出力させるための時間情報を含んでおり、さらに、言語共通画像データ「女性動画像」「男性動画像」にあっても、前記画像出力用プログラム12a1により再生表示されるのに伴い、その再生開始からの所定速度の時間経過に応じて前記テキストデータの反転表示および音声データの出力に合うように当該画像データを切り替え再生表示させるための時間情報を含んでいるので、マルチメディア再生用ファイル12b(12c)に予め設定記述されているコマンド処理の基準単位時間(25ms/50ms)毎に、タイムコードファイル12c2に配列されたコマンドコードおよびそのパラメータデータを読み出し、そのURLコマンドに対応して読み出される各メディアデータの再生処理、HLコマンドに対応したテキスト文字列の反転強調表示を指示するだけで、当該タイムコードファイル12c2に記述されたURLアドレスに従いダウンロードした会話学習用のテキスト・音声・画像データの同期再生処理を実行できる。
【0178】
従って、CPUのメイン処理の負担が軽くなり、例えば携帯機器(PDA)10という処理能力の比較的小さいCPUでも容易にテキスト・画像・音声を含む複数種類のネットメディアデータの同期再生処理が行えるので、高性能なCPUを用いない簡単な再生装置でも、これを実現できるようになる。
【0179】
なお、この第2実施形態において、前記図11を参照して説明した第1のマルチメディア再生処理では、指定の学習データおよび指定の言語に応じた指定言語版タイムコードファイル12c2を有するマルチメディア再生ファイル12b(12c)が携帯機器10に取り込まれると(ステップA1〜A3)、直ちにそのタイムコードファイル12c2に記述されているURLコマンドのHPアドレスに従ったネットサイトA30a〜C30cへのアクセスを行い、同期再生すべき各メディアデータ(指定言語版テキストデータ/指定言語版音声データ/共通動画像データ)をダウンロードしてRAM12C内にメディア内容データ12c3として保存しておき(ステップA4)、タイムコードファイル12c2に従ったコマンドコード“URL”の読み出しに伴いそのHPアドレスに対応付けられた各メディアデータを前記メディア内容データ12c3から順次読み出して再生指示する手順(ステップA12〜A13A)としたが、次の図12を参照して説明する第2のマルチメディア再生処理にあるように、同期再生すべき各メディアデータ(指定言語版テキストデータ/指定言語版音声データ/共通動画像データ)をタイムコードファイル12c2に従ったコマンドコード“URL”の読み出しに伴い、その都度HPアドレスに従ったネットサイトA30a〜C30cへのアクセスを行い順次ダウンロードして再生指示する手順としてもよい。
【0180】
図12は前記携帯機器10の第2実施形態のメディア同期再生処理プログラム12a2に従った第2のマルチメディア再生処理を示すフローチャートである。
【0181】
この第2実施形態の第2のマルチメディア再生処理において、前記図11における第1のマルチメディア再生処理(ステップA1〜A18)と同一の処理ステップについては、同一のステップ符号を付してその説明を省略する。
【0182】
すなわち、この第2のマルチメディア再生処理では、タイムコードファイル12c2に従ったコマンドコード“URL”の読み出しに伴い、その都度HPアドレスに従ったネットサイトA30a〜C30cへのアクセスを行い、同期再生すべき各メディアデータ(指定言語版テキストデータ/指定言語版音声データ/共通動画像データ)を順次ダウンロードしながら再生指示する手順(ステップA12→A13B)とする。
【0183】
すなわち、ステップA12において、再生用ファイル12cにおけるタイムコードファイル12c2(図10参照)から読み出されたコマンドコードが“URL”と判断された場合には、該当ポインタ位置のURLに対応するHPアドレスに従い各対応するメディアのネットサイトA30a〜C30cにアクセスされ、指定の学習データで且つ指定言語の会話学習用のテキストデータ、音声データ、および各言語共通の画像データがそれぞれダウンロードされ、そのデータの種類に応じた(テキスト/音声/画像)出力用プログラム12a2によって再生開始される(ステップA12→A13B)。
【0184】
つまり、コマンドコードURLの対応HPアドレスに従い、ネットサイトA30aからテキストデータ(図9(A)参照)をダウンロードした場合に、テキスト出力用プログラム12a2によって再生表示を開始し、また、音声データ(図9(B)参照)をダウンロードした場合に、音声出力用プログラム12a2によって再生出力を開始し、また、画像データ(図9(C)参照)をダウンロードした場合に、音声出力用プログラム12a2によって再生出力を開始する。
【0185】
これによれば、同期再生すべき各メディアデータ(指定言語版テキストデータ/指定言語版音声データ/共通動画像データ)の全てを予めダウンロードしてRAM12C内のメディア内容データ12c3として保存しておく必要がなくなるので、例えば携帯機器10といった少ない容量のメモリ領域を、大きく・長い間占有せずとも、マルチメディアデータの同期再生を行うことができる。
【0186】
したがって、前記構成のマルチメディア記憶再生システムの携帯機器10による第2実施形態のメディア再生機能によれば、マルチメディア再生用ファイル12b(12c)のタイムコードファイル12c2にて予め設定された処理単位時間12c1a毎に読み出されるコマンドコード“URL”に対応付けて、同期再生すべき各メディアデータ(テキストデータ/音声データ/画像データ)の格納先ネットサイトA30a/B30b/C30cを示すURL(HPアドレス)を記述し、前記設定処理単位時間12c1a毎のコマンドコード“URL”に対応してそのHPアドレスに従いダウンロードされた各メディアデータ(テキストデータ/音声データ/画像データ)それぞれの再生指示を行うと共に、コマンドコード“HL”に応じてテキストデータ文字列の順次反転表示を指示するだけで、携帯機器10には元々記憶していないテキスト・音声・画像データの再生処理が必然的に同期実行される。よって、CPU11の負荷を非常に小さくして、高性能なCPUを用いない簡単な再生装置でもテキスト/音声/画像の同期再生を実現することができる。
【0187】
なお、前記実施形態において記載した携帯機器10による各処理の手法、すなわち、図4のフローチャートに示す第1実施形態での第1のマルチメディア再生処理、図7のフローチャートに示す第1実施形態での第2のマルチメディア再生処理、図8のフローチャートに示す第1実施形態の各マルチメディア再生処理における他の実施形態に伴う携帯機器10側でのメディア再生処理とサーバ30側でのサーバ処理、図11のフローチャートに示す第2実施形態での第1のマルチメディア再生処理、図12のフローチャートに示す第2実施形態での第2のマルチメディア再生処理などの各手法は、何れもコンピュータに実行させることができるプログラムとして、メモリカード(ROMカード、RAMカード、DATA・CARD等)、磁気ディスク(フロッピディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記録媒体13に格納して配布することができる。そして、通信ネットワーク(インターネット)Nとの通信機能を備えた種々のコンピュータ端末は、この外部記録媒体13に記憶されたプログラムを記録媒体読取部14によってメモリ12に読み込み、この読み込んだプログラムによって動作が制御されることにより、前記各実施形態において説明したマルチメディアデータの同期再生機能を実現し、前述した手法による同様の処理を実行することができる。
【0188】
また、前記各手法を実現するためのプログラムのデータは、プログラムコードの形態として通信ネットワーク(インターネット)N上を伝送させることができ、この通信ネットワーク(インターネット)Nに接続されたコンピュータ端末から前記のプログラムデータを取り込み、前述したマルチメディアデータの同期再生機能を実現することもできる。
【0189】
なお、本願発明は、前記各実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。さらに、前記各実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、各実施形態に示される全構成要件から幾つかの構成要件が削除されたり、幾つかの構成要件が組み合わされても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除されたり組み合わされた構成が発明として抽出され得るものである。
【0190】
【発明の効果】
以上のように、本発明の請求項1に係るメディアデータ記憶装置によれば、同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段をアクセスし、この記憶手段により記憶された各メディアのURLに対応付けられたメディアのデータを複数種類のメディアの同期再生に先立って、メディアデータ取得手段によりインターネット経由で取得することができる。このため、前記記憶手段により記憶された各メディアのURLが設定された経過時間に従って順次読み出され、この読み出されたURLに対応付けられて前記メディアデータ取得手段により取得された各メディアのデータを迅速且つ確実に同期再生させることができる。
【0191】
また、本発明の請求項2に係るメディアデータ記憶装置によれば、同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段をアクセスし、この記憶手段により記憶された各メディアのURLに対応付けられて記憶装置に記憶されている複数種類のメディアのデータを複数種類のメディアの同期再生に先立って、メディアデータ取得手段によりインターネット経由で取得でき、メディアデータ記憶手段により記憶することができる。このため、前記記憶手段により記憶された各メディアのURLが設定された経過時間に従って順次読み出され、この読み出されたURLに対応付けられて前記メディアデータ記憶手段により記憶された各メディアのデータを迅速且つ確実に同期再生させることができる。
【0192】
また、本発明の請求項3に係るメディアデータ記憶装置によれば、同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段をアクセスし、メディアデータ取得手段によって、前記記憶手段により記憶された各メディアのURLが設定された経過時間に従って順次読み出され、この読み出されたURLに対応付けられたメディアのデータをインターネット経由で取得できる。このため、各メディアのネットサイト上から同期再生すべき各種のデータを、設定経過時間に応じて各サイトのURLに従い順次取り込み、この取り込んだ複数メディアのデータを迅速且つ確実に同期再生させることができる。
【0193】
また、本発明の請求項4に係るメディアデータ記憶装置によれば、前記請求項1または請求項2に係るメディアデータ記憶装置にあって、前記記憶手段は、複数種類のメディアのデータが同期再生されるように当該各メディア毎に予め経過時間を設定して配列された制御命令に、各メディアのURLを対応付けて記憶する制御命令記憶手段とされるので、制御命令記憶手段により記憶された設定経過時間毎の制御命令に従い、これに対応付けられたURLにより各メディアのネットサイト上から同期再生すべき各種のデータを取り込み、この取り込んだ複数メディアのデータを迅速且つ確実に同期再生させることができる。
【0194】
また、本発明の請求項5に係るメディアデータ記憶装置によれば、前記請求項1乃至請求項4の何れか1項に係るメディアデータ記憶装置にあって、前記複数種類のメディアのデータにはテキストデータが含まれ、このテキストデータは予め他の種類のメディアのデータとの同期再生のための時間情報を有するので、各メディアのネットサイト上から取り込まれた同期再生すべき各種のデータのうち、テキストデータについては当該テキストデータに含まれる同期再生のための時間情報に従い、他の種類のメディアのデータと共に迅速且つ確実に同期再生させることができる。
【0195】
また、本発明の請求項6に係るメディアデータ記憶装置によれば、前記請求項1または請求項2に係るメディアデータ記憶装置にあって、前記記憶手段は、複数種類のメディアの少なくともテキストを含むデータが同期再生されるように当該各メディア毎に予め経過時間を設定して配列された制御命令に、各メディアのURLを対応付けて記憶すると共に、前記テキストデータに対する表示制御命令を記憶する制御命令記憶手段とされるので、各メディアのネットサイト上から取り込まれた同期再生すべき各種のデータのうち、テキストデータについては制御命令記憶手段により記憶された設定経過時間毎の表示制御命令に従い、他の種類のメディアのデータと共に迅速且つ確実に同期再生させることができる。
【0196】
また、本発明の請求項7に係るメディアデータ記憶装置によれば、前記請求項1乃至請求項6の何れか1項に係るメディアデータ記憶装置にあって、前記複数種類のメディアのデータには複数の言語からなるデータが用意され、前記記憶手段により記憶されるURLは言語の指定記号を含み、前記メディアデータ取得手段は、前記記憶手段により記憶された各メディアのURLに対応付けられたメディアの指定の言語のデータをインターネット経由で取得するので、指定の言語からなる各メディアのデータも単にURLで指定された各ネットサイトから取り込むだけで、言語の指定された複数メディアのデータも迅速且つ確実に同期再生させることができる。
【0197】
また、本発明の請求項8に係るメディアデータ記憶処理プログラムによれば、当該プログラムをメディアデータ記憶装置にインストールすることで、このメディアデータ記憶装置のコンピュータにおいて、同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段をアクセスし、この記憶手段により記憶された各メディアのURLに対応付けられたメディアのデータを複数種類のメディアの同期再生に先立って、メディアデータ取得手段によりインターネット経由で取得することができる。このため、メディアデータ記憶装置では、記憶手段により記憶された各メディアのURLが設定された経過時間に従って順次読み出され、この読み出されたURLに対応付けられて前記メディアデータ取得手段により取得された各メディアのデータを迅速且つ確実に同期再生させることができる。
【0198】
また、本発明の請求項9に係るメディアデータ記憶処理プログラムによれば、当該プログラムをメディアデータ記憶装置にインストールすることで、このメディアデータ記憶装置のコンピュータにおいて、同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段をアクセスし、この記憶手段により記憶された各メディアのURLに対応付けられて記憶装置に記憶されている複数種類のメディアのデータを複数種類のメディアの同期再生に先立って、メディアデータ取得手段によりインターネット経由で取得でき、メディアデータ記憶手段により記憶することができる。このため、メディアデータ記憶装置では、記憶手段により記憶された各メディアのURLが設定された経過時間に従って順次読み出され、この読み出されたURLに対応付けられて前記メディアデータ記憶手段により記憶された各メディアのデータを迅速且つ確実に同期再生させることができる。
【0199】
また、本発明の請求項10に係るメディアデータ記憶処理プログラムによれば、当該プログラムをメディアデータ記憶装置にインストールすることで、このメディアデータ記憶装置のコンピュータにおいて、同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段をアクセスし、メディアデータ取得手段によって、前記記憶手段により記憶された各メディアのURLが設定された経過時間に従って順次読み出され、この読み出されたURLに対応付けられたメディアのデータをインターネット経由で取得することができる。このため、メディアデータ記憶装置では、各メディアのネットサイト上から同期再生すべき各種のデータを、設定経過時間に応じて各サイトのURLに従い順次取り込み、この取り込んだ複数メディアのデータを迅速且つ確実に同期再生させることができる。
【0200】
よって、本発明によれば、複数種類のメディアの同期再生に先立って、そのメディアデータをインターネット経由で取得することが可能になるメディアデータ記憶装置、およびメディアデータ記憶処理プログラムを提供できる。
【図面の簡単な説明】
【図1】本発明のメディアデータ記憶装置の実施形態に係る携帯機器10を備えたマルチメディア記憶再生システムの全体の構成を示す図。
【図2】前記マルチメディア記憶再生システムにおける第1実施形態の各メディアのネットサイト30a〜30cにて提供されるデータ内容を示す図であり、同図(A)はサイトA30aにて用意された外国語会話練習用の字幕テキストデータを示す図、同図(B)はサイトB30bにて用意された外国語会話練習用の音声データを示す図、同図(C)はサイトC30cにて用意された外国語会話練習用の画像データを示す図。
【図3】前記携帯機器10のメモリ12に格納された第1実施形態のマルチメディア再生用ファイル12b(12c)を構成するタイムコードファイル12c2を示す図。
【図4】前記携帯機器10の第1実施形態のメディア同期再生処理プログラム12a2に従った第1のマルチメディア再生処理を示すフローチャート。
【図5】前記図3(C)における英会話学習用のマルチメディア再生ファイル12cに基づいた英会話テキスト・音声・画像データの同期再生状態を示す図。
【図6】前記図3(B)における外国語会話学習用のマルチメディア再生ファイル12cに対して独語を言語指定した場合の独語会話テキスト・音声・画像データの同期再生状態を示す図。
【図7】前記携帯機器10の第1実施形態のメディア同期再生処理プログラム12a2に従った第2のマルチメディア再生処理を示すフローチャート。
【図8】前記第1実施形態のマルチメディア記憶再生システムにおける他の実施形態に伴う携帯機器10側でのメディア再生処理とサーバ30側でのサーバ処理とを示すフローチャート。
【図9】前記マルチメディア記憶再生システムにおける第2実施形態の各メディアのネットサイト30a〜30cにて提供されるデータ内容を示す図であり、同図(A)はサイトA30aにて用意された外国語会話練習用のテキストデータを示す図、同図(B)はサイトB30bにて用意された外国語会話練習用の音声データを示す図、同図(C)はサイトC30cにて用意された外国語会話練習用の画像データを示す図。
【図10】前記携帯機器10のメモリ12に格納された第2実施形態のマルチメディア再生用ファイル12b(12c)を構成するタイムコードファイル12c2を示す図。
【図11】前記携帯機器10の第2実施形態のメディア同期再生処理プログラム12a2に従った第1のマルチメディア再生処理を示すフローチャート。
【図12】前記携帯機器10の第2実施形態のメディア同期再生処理プログラム12a2に従った第2のマルチメディア再生処理を示すフローチャート。
【符号の説明】
10 …携帯機器
11 …CPU
12 …メモリ
12A…ROM
12a…携帯機器制御プログラム
12a1…(テキスト/音声/画像)出力用プログラム
12a2…メディア同期再生処理プログラム
12B…FLASHメモリ
12b…暗号化されたマルチメディア再生用ファイル(CASファイル)
12C…RAM
12c…解読されたマルチメディア再生用ファイル(CASファイル)
12c1…ヘッダ情報
12c1a…処理単位時間
12c2…タイムコードファイル
12c3…メディア内容データ
12d…(学習/言語)指定データ
12e…画像展開バッファ
13 …外部記録媒体
14 …記録媒体読取部
15 …電送制御部
16 …通信部
17a…入力部
17b…座標入力装置
18 …表示部
19a…音声入力部
19b…音声出力部
20 …通信機器(自宅PC)
30 …Webサーバ
30a…ネットサイトA(テキスト)
30b…ネットサイトB(音声)
30c…ネットサイトC(画像)
N …通信ネットワーク(インターネット)[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a media data storage device for synchronously reproducing data of each medium such as text data, audio data, and image data, and a media data storage processing program.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, as a technique for simultaneously reproducing data such as music, images, texts, and the like, for example, for each frame of audio data information-compressed according to MPEG-3, an additional data area provided in each frame is provided. For example, in the case of karaoke, some karaoke voices are reproduced synchronously with the karaoke voice and the image and lyrics by embedding the synchronization information of text data and image data to be reproduced synchronously with the audio data.
[0003]
However, in the conventional synchronous reproduction technique of a plurality of types of data using the additional data area of the MPEG data, the embedding of the synchronization information is defined in the additional data area of each MP3 audio data frame. Therefore, synchronization information cannot be extracted unless the MP3 audio data is reproduced, and synchronous reproduction of other types of data can be performed only by reproducing MP3 data.
[0004]
For this reason, for example, when the synchronization information of the text data is embedded in the MP3 audio data, even if the audio data is not reproduced, the audio reproduction process must be continuously performed as the non-audio data even if the reproduction of the audio data is not performed. There is a problem that playback cannot be performed.
[0005]
Therefore, conventionally, the synchronous reproduction processing of a plurality of types of data is performed based on the reproduction processing of MP3 data, and thus there is a problem that the processing load on the CPU of the reproduction apparatus becomes heavy.
[0006]
On the other hand, various programs provided on media of various Internet sites are downloaded by accessing the addresses of the respective Internet sites set in advance according to the time lapse information (time table), and are simply played back. Multimedia playback processing technology that sequentially and continuously plays back programs of various media with the passage of time has been considered. (For example, refer to
[0007]
[Patent Document 1]
JP-A-2002-261715
[0008]
[Problems to be solved by the invention]
However, even in such a multimedia reproduction processing technology, audio data, text data, and image data only reproduce the program data itself that is already synchronized based on the PM3 data and the like. As described above, there is a problem that the processing load on the CPU of the reproducing apparatus becomes heavy, and the audio, text, and image data to be reproduced synchronously are always synchronized and integrated, and the data of a plurality of types of media are reproduced. Cannot be synchronized for playback.
[0009]
The present invention has been made in view of the above-described problems, and has a media data storage device and a media data storage device capable of acquiring media data via the Internet prior to synchronous reproduction of a plurality of types of media. It is intended to provide a processing program.
[0010]
[Means for Solving the Problems]
That is, the media data storage device according to
[0011]
According to this, the URLs of the respective media stored by the storage unit are sequentially read out according to the set elapsed time, and the respective media obtained by the media data obtaining unit are associated with the read URLs. Can be synchronously reproduced quickly and reliably.
[0012]
Further, the media data storage device according to
[0013]
According to this, the URLs of the respective media stored by the storage means are sequentially read out according to the set elapsed time, and the respective media stored by the media data storage means are associated with the read URLs. Can be synchronously reproduced quickly and reliably.
[0014]
Also, the media data storage device according to
[0015]
According to this, various data to be synchronously reproduced from the net site of each media are sequentially fetched in accordance with the URL of each site according to the set elapsed time, and the fetched data of the plurality of media is synchronously and rapidly reproduced. You can do it.
[0016]
Also, in the media data storage device according to
[0017]
According to this, in accordance with the control command for each set elapsed time stored by the control command storage means, various data to be synchronously reproduced from a net site of each medium are fetched by the URL associated therewith, and the fetched data is obtained. The data of a plurality of media can be synchronously and quickly reproduced.
[0018]
A media data storage device according to a fifth aspect of the present invention is the media data storage device according to any one of the first to fourth aspects, wherein the data of the plurality of types of media is text data. , And the text data has time information for synchronized reproduction with data of another type of media in advance.
[0019]
According to this, among the various data to be synchronously reproduced, which are taken in from the media website of each medium, the text data is recorded according to the time information for synchronous reproduction included in the text data, and the other types of media are reproduced. Synchronous reproduction with data can be performed quickly and reliably.
[0020]
Also, in the media data storage device according to
[0021]
According to this, of the various data to be synchronously reproduced taken from the media site of each medium, the text data is of another type according to the display control command for each set elapsed time stored by the control command storage means. And quickly and reliably perform synchronous reproduction together with the data of the other media.
[0022]
Further, in the media data storage device according to
[0023]
According to this, it is possible to quickly and surely synchronously reproduce data of a plurality of media in a specified language by simply taking in data of each media in a specified language from each net site specified by a URL. Become.
[0024]
According to the media data storage processing program according to
[0025]
According to this, in the media data storage device, the URLs of the respective media stored by the storage unit are sequentially read out according to the set elapsed time, and are associated with the read out URLs by the media data acquisition unit. The acquired data of each medium can be synchronized and reproduced quickly and reliably.
[0026]
According to the media data storage processing program of the ninth aspect of the present invention, by installing the program in the media data storage device, a plurality of types of media to be synchronously reproduced on a computer of the media data storage device. The storage means storing the URLs of the media arranged with the elapsed time set in advance for each of the media is accessed, and stored in the storage device in association with the URLs of the media stored by the storage means. Prior to synchronous reproduction of a plurality of types of media, data of a plurality of types of media is acquired by the media data acquisition unit via the Internet, and stored by the media data storage unit.
[0027]
According to this, in the media data storage device, the URLs of the respective media stored by the storage unit are sequentially read out according to the set elapsed time, and are associated with the read URLs by the media data storage unit. The stored data of each medium can be synchronized and reproduced quickly and reliably.
[0028]
According to the media data storage processing program according to claim 10 of the present invention, by installing the program in the media data storage device, a plurality of types of media to be synchronously reproduced on a computer of the media data storage device The storage means storing the URLs of the media arranged in advance with the elapsed time set for each is accessed, and the media data acquisition means sets the elapsed time at which the URLs of the media stored by the storage means are set. , And the media data associated with the read URL is obtained via the Internet.
[0029]
According to this, in the media data storage device, various data to be synchronously reproduced from the net site of each media are sequentially fetched according to the URL of each site in accordance with the set elapsed time, and the fetched data of the plurality of media is quickly read. In addition, synchronous reproduction can be reliably performed.
[0030]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0031]
(1st Embodiment)
FIG. 1 is a diagram showing an overall configuration of a multimedia storage / playback system including a portable device 10 according to an embodiment of a media data storage device of the present invention.
[0032]
The multimedia storage / playback system uses a portable device 10 such as a PDA (personal digital assistants) as a terminal device for multimedia playback, a
[0033]
For example, in accordance with a command code and a URL (uniform resource locator) described in a multimedia reproduction file (CAS file) (see FIG. 3) provided from the
[0034]
The mobile device (PDA) 10 is configured by a computer that reads a program recorded on various types of recording media or a program transmitted via communication and whose operation is controlled by the read program. A CPU (central processing unit) 11 is provided.
[0035]
The
[0036]
The
[0037]
The
[0038]
The
[0039]
The
[0040]
The FLASH memory (EEP-ROM) 12B stores, for example, an encrypted multimedia playback file (CAS file) 12b for a foreign language conversation text to be played back based on the media synchronous playback processing program 12a2. In addition, the schedule of the user and the addresses of friends and acquaintances managed based on the schedule management program and the address management program are stored.
[0041]
Here, the encrypted
[0042]
The
[0043]
In the
[0044]
The media content data (12c3) includes time information for synchronous reproduction separately downloaded from the net sites A30a to A30c according to a URL (uniform resource locator) described in correspondence with the command code of the time code file (12c2). , Text data, audio data, and image data. The text data, audio data, and image data, which are the media content data (12c3), are instructed to be reproduced according to the corresponding command codes “URL” of the time code file (12c2), and are output as the (text / audio / image). Is reproduced by the application program 12a1.
[0045]
The
[0046]
Further, the
[0047]
FIG. 2 is a diagram showing data contents provided at the
[0048]
As shown in FIG. 2 (A), net site A30a <http: // abc. co. jp>, for example, each foreign language conversation practice text has the same text content, and text data of each corresponding character is prepared for each language used, and is arbitrarily specified by the user. The type of language used is divided into, for example, English / German / French, and data for each language is stored in association with a different URL for each sentence. When the text data is downloaded to the portable device 10, the text data is reproduced and displayed by the text output program 12a1, and the text character strings are sequentially inverted in accordance with the elapse of the practice time at a predetermined speed from the start of the reproduction. Time information (→). The URL of the text data including the time information for the character string inversion display is added with an initial letter “c” of “caption” meaning caption, and is set to “... ctxt”. In addition, initials e (English), g (German), and f (French) according to the designated language are added to the URL. For example, the English version of the conversation text 7-1 is “... ekaiwa7-1.text”. , The German version of 7-1 is "... gkaiwa 7-1.text".
[0049]
As shown in FIG. 2B, the net site B30b <http: // def. co. jp> is read-out voice data corresponding to each text data of each foreign language conversation practice text prepared at the site A30a, and the URL of each voice data is a part indicating the data format. For example, the English text data of the conversation text 7-1 is "... ekai 7-1.mp3", and the German text data of the conversation text 7-1 is "... gkaiwa 7-1.mp3".
[0050]
Then, even with this audio data, the audio output program 12a1 reproduces and outputs the audio data so as to match the reverse display of the text data in accordance with the elapse of the practice time at a predetermined speed from the start of reproduction. Contains time information.
[0051]
As shown in FIG. 2 (C), net site B30c <http: // hij. co. jp> is image data of a moving image common to each foreign language conversation text of each foreign language conversation practice text prepared at the
[0052]
Then, even with this image data, the image data is output by the image output program 12a1 so as to match the reverse display of the text data and the output of the audio data in accordance with the elapse of the practice time at a predetermined speed from the start of reproduction. It contains time information for playback and display.
[0053]
For example, text data, voice data, and image data of a foreign language conversation practice text prepared in each of the
[0054]
FIG. 3 is a diagram showing a time code file 12c2 included in the
[0055]
The
[0056]
In the time code file 12c2 shown in FIG. 3, time codes for performing command processing of various data synchronous reproduction at predetermined time intervals (for example, 25 ms) preset for each piece of media data are described and arranged. Each of the time codes includes a command code for instructing an instruction, parameter data for associating the contents of the media data (see FIG. 2) relating to the command, and the
[0057]
When the time code file 12c2 is before the language is specified by the user, as shown in FIG. 3B, the URL from which each media data is obtained is the URL of the text data and the URL of the audio data. The symbol part indicating the designated language is described with "*". For example, the URL of the text data of the conversation text 7-1 is <http: // abc. co. jp / * kaiwa 7-1. ctxt> is a URL for which a language is not specified. Then, when the language is specified, as shown in FIG. 3C, the symbol part “*” of the specified language is changed to a symbol (English “e”, German “g”, French “F”..., For example, when English is the designated language, the URL of the text data of the conversation text 7-1 is <... Ekaiwa 7-1. ctxt>. As a result, the learning data specified by the user and the text data of the English conversation text 7-1 as the specified language can be acquired from the net site A30a.
[0058]
As shown in FIG. 3A, a fixed time interval for sequentially executing command processing according to the time code file 12c2 is described and set as a processing unit time 12c1a in the header information 12c1 of the time code file 12c2.
[0059]
As the media content data 12c3, user-designated learning data downloaded from the media net sites A30a to C30c corresponding to the URLs described in the time code file 12c2 and text for synchronous playback in a designated language. Data, audio data, and image data are stored.
[0060]
Commands used for the time code file 12c2 include, for example, URL (instruction to reproduce URL media data), FN (end of processing), and NP (invalid).
[0061]
That is, by activating the media synchronous playback processing program 12a2 stored in the
[0062]
When the first command code “URL” is read in accordance with the command processing at regular time intervals, the first command code “URL” is stored as the media content data 12c3 according to the URL address “... Ekaiwa7-1.txt” described in the corresponding manner. The text data of the English conversation text 7-1 is read, and the display processing is instructed to the text output program 12a1.
[0063]
If the second command code “URL” is read in accordance with the command processing at the same fixed time, the command code is stored as the media content data 12c3 according to the URL address “... Ekaiwa7-1.mp3” described correspondingly. The voice data of the English conversation text 7-1 is read, and the voice output processing is instructed to the voice output program 12a1.
[0064]
Further, when the third command code "URL" is read in accordance with the command processing at the same fixed time, the command code is stored as the media content data 12c3 according to the URL address "... kaiwa7-1.mpeg" described correspondingly. The image data of the English conversation text 7-1 is read, and the display processing is instructed to the image output program 12a1.
[0065]
The text data, audio data, and image data of the English conversation text read from the media content data 12c3 and reproduced are processed by starting reproduction of any data at predetermined time intervals. Synchronization time information in which the output elapsed times match each other is included in advance, and the (text / sound / image) output program 12a1 is output in accordance with each command code “URL” for which the time elapse is set in advance in the time code file 12c2. In the media synchronous reproduction processing program 12a2, the reproduction is inevitably synchronously controlled by the media synchronous reproduction program 12a2, without the need for the
[0066]
The detailed reproduction operation of the
[0067]
Next, the media playback function of the portable device 10 of the multimedia storage / playback system configured as described above according to the first embodiment will be described.
[0068]
FIG. 4 is a flowchart showing a first multimedia reproduction process of the portable device 10 according to the media synchronous reproduction program 12a2 of the first embodiment.
[0069]
For example, when practicing a foreign language conversation is performed by synchronous reproduction of text, voice, and image multimedia, learning data (for example, foreign language conversation learning) desired by the user is designated by operating the
[0070]
At this time, the encrypted multimedia playback file (CAS file) 12b stored in the
[0071]
When the language (English / German / French / ...) to be practiced is selected and designated for the learning data of the foreign language conversation (step S3), the designated language is determined (step S4) and "English Is specified, the specified conversation learning data stored in the
[0072]
When "German" is designated, the language unspecified symbol "*" on each URL corresponding to text data and audio data in the time code file 12c2 stored in the
[0073]
Further, when "French" is designated, the language unspecified symbol "*" on each URL corresponding to text data and audio data in the time code file 12c2 stored in the
[0074]
In this way, when the time code file 12c2 in the multimedia playback file (CAS file) 12c of the specified conversation learning data is converted and corrected according to the user-specified language (for example, "English") (FIG. 3C). According to the HP address described in association with each command code “URL” on the time code file 12c2, the corresponding media net sites A30a to C30c are accessed, and the designated learning data is designated and designated. The text data for speech learning of the language "English", the voice data, and the image data common to each language are downloaded and stored as the media content data 12c3 in the
[0075]
That is, the HP address <http: //abc.html described in the time code file 12c2 shown in FIG. co. jp / ekaiwa 7-1. ctxt><... 7-2. ctxt><... 7-3. ctxt>, the English subtitle text data “Exceme me.” “May I help you?” shown in FIG. 2A is sequentially downloaded from the net site A30a, and the HP address <http: // / Def. co. jp / ekaiwa 7-1. mp3><... 7-2. mp3><... 7-3. mp3>, the English-language audio data “Excuse Me” and “May I Help U” shown in FIG. 2B are sequentially downloaded from the net site B30b, and further, the HP address <http: // hij. . co. jp / kaiwa 7-1. mpeg><... 7-2. mpeg><... 7-3. According to mpeg>, the image data “female moving image”, “male moving image” common to each language shown in FIG. 2C is sequentially downloaded from the net site C30c.
[0076]
Then, the processing unit time 12c1a (for example, 25 ms / 50 ms / 25 ms / 50 ms / 50 ms) described in the header information 12c1 of the decrypted multimedia playback file (CAS file) 12c including the time code file 12c2 and the media content data 12c3 stored in the
[0077]
Then, a read pointer is set at the head of the media playback file (CAS file) 12c stored in the
[0078]
Here, the pre-reading process is started in parallel with the reproduction process (step S10).
[0079]
In this pre-reading process, when there is a command for displaying image data after the command processing of the position of the current read pointer according to the time code file 12c2 (see FIG. 3C) of the
[0080]
In step S9, when the processing timer is started, the processing timer is set in step S8 for each processing unit time corresponding to the multimedia
[0081]
Then, it is determined whether or not the command code read from the time code file 12c2 (see FIG. 3) in the
[0082]
On the other hand, if it is determined that the command code read from the time code file 12c2 (see FIG. 3) in the
[0083]
That is, when text data (see FIG. 2A) is read from the media content data 12c3 in accordance with the HP address corresponding to the command code URL, reproduction and display are started by the text output program 12a2, When the data (see FIG. 2B) is read, the reproduction output is started by the audio output program 12a2, and when the image data (see FIG. 2C) is read. The reproduction output is started by the audio output program 12a2.
[0084]
Then, the time counting operation by the processing timer is started again, and it is determined whether or not the time counted by the timer has reached the next processing unit time 12c1a (step S17).
[0085]
On the other hand, if it is determined in step S14 that the command code read from the time code file 12c2 (see FIG. 3) in the
[0086]
If it is determined in step S17 that the time measured by the timer has reached the next processing unit time 12c1a, the read pointer to the multimedia playback file (CAS file) 12c stored in the
[0087]
That is, the
[0088]
Here, the synchronous reproduction output operation of text / voice / image data by the media synchronous reproduction processing program 12a1 (see FIG. 4) based on the
[0089]
FIG. 5 is a diagram showing a synchronized playback state of English conversation text / voice / image data based on the
[0090]
In the multimedia playback file (12c) for learning English conversation, command processing is executed for each processing unit time (25 ms) (FIG. 3A) described and set in the header information (12c1). When the first command code “URL” and its parameter data “00” of the time code file 12c2 (see FIG. 3) are read, the HP address <http: // abc. co. jp / ekaiwa 7-1. ctxt>, subtitle text data “Exuse me.” (see FIG. 2A) of the English conversation text 7-1 that is downloaded and stored as the media content data 12c3 is read out, and the text output program 12a1 is read out. As shown in FIGS. 5A to 5C, a reproduction display process is instructed.
[0091]
As a result, the subtitle text data “Exuse me.” Of the English conversation text 7-1 is reproduced and displayed while the underline is highlighted for each character on the
[0092]
When the second command code “URL” and its parameter data “02” are read, the HP address <http: // def. co. jp / ekaiwa 7-1. mp3>, the audio data “Excuse Me” (see FIG. 2 (B)) of the English conversation text 7-1 downloaded and stored as the media content data 12c3 is read out, and the same is sent to the audio output program 12a1. As shown in FIGS. 5A to 5C, a reproduction output process is instructed.
[0093]
As a result, the
[0094]
When the third command code “URL” and its parameter data “02” are read, the HP address <http: // hij. co. jp / kaiwa 7-1. mpeg>, the language common image data “female moving image” (see FIG. 2C) of the conversation text 7-1 that is downloaded and stored as the media content data 12c3 is read out, and the image output program 12a1 is read. 5 (A) to 5 (C), the reproduction display processing is instructed.
[0095]
Thereby, the language common image data “female moving image” of the conversation text 7-1 is displayed in the table.
The reproduction display is started while being sequentially switched in the
[0096]
Further, when the fifth command code “URL” and its parameter data “02” of the time code file 12c2 (see FIG. 3) are read, the HP address <http: // abc. co. jp / ekaiwa7-2. ctxt>, the subtitle text data “May I help you?” (see FIG. 2A) of the English conversation text 7-2, which is downloaded and stored as the media content data 12c3, is read and sent to the text output program 12a1. Then, as shown in FIGS. 5 (D) to 5 (F), a reproduction display process is instructed.
[0097]
As a result, the subtitle text data "May I help you?" Of the English conversation text 7-2 is reproduced and displayed while the underline is highlighted for each character on the
[0098]
When the sixth command code “URL” and its parameter data “00” are read, the HP address <http: // def. co. jp / ekaiwa7-2. mp3>, the audio data “May I Help You” (see FIG. 2 (B)) of the English conversation text 7-2 downloaded and stored as the media content data 12c3 is read out, and the audio output program 12a1 is read out. As shown in FIGS. 5D to 5F, a reproduction output process is instructed.
[0099]
As a result, the
[0100]
When the seventh command code “URL” and its parameter data “00” are read, the HP address <http: // hij. co. jp / kaiwa 7-2. mpeg>, the language common image data “male moving image” (see FIG. 2C) of the conversation text 7-2 that is downloaded and stored as the media content data 12c3 is read out, and the image output program 12a1 is read out. As shown in FIGS. 5 (D) to 5 (F), reproduction display processing is instructed.
[0101]
As a result, the language common image data “male moving image” of the conversation text 7-2 is reproduced and displayed while being sequentially switched on the
[0102]
In this case, as the subtitle text data “Exuse me.” And “May I help you?” Are reproduced and displayed by the text output program 12a1, each of the subtitle text data “Exuse me.” It contains time information (→...) For sequentially inverting (underlining emphasized) the text character string, and even if the audio data “Excuse Me” or “May I Help U”, When the audio data is reproduced and output by the program 12a1, it includes time information for reproducing and outputting the audio data so as to match the reverse display of the subtitle text data in accordance with the elapse of a predetermined speed from the start of the reproduction. Further, even in the language common image data “female moving image” and “male moving image”, the
[0103]
Accordingly, the burden on the main processing of the CPU is reduced, and even a CPU having a relatively small processing capability, for example, the portable device (PDA) 10 can easily perform synchronous reproduction processing of a plurality of types of net media data including text, images, and sounds. This can be realized even with a simple reproducing apparatus that does not use a high-performance CPU.
[0104]
FIG. 6 is a diagram showing a synchronized reproduction state of German-language conversation text, voice, and image data when a German language is specified for the
[0105]
When German is specified as the designated language of the foreign language conversation learning text, the language unspecified symbol “*” on each URL corresponding to the text data and the voice data in the time code file 12c2 stored in the
[0106]
Therefore, according to the reading of each command code of the time code file 12c2 after the German language designation correction, the media data (German version subtitle text data / German version audio data / common language) corresponding to the HP address associated with the command code “URL” is read. The moving image data) is read out and the reproduction thereof is instructed, so that the text / text for learning the conversation in German is exactly the same as the multimedia synchronized reproduction processing in the English version described with reference to FIG. Synchronous reproduction processing of audio / image data can be executed.
[0107]
In the first embodiment, in the first multimedia reproduction process described with reference to FIG. 4, in the first multimedia reproduction process, a language-unspecified symbol "E" in each URL described in the time code file 12c2 according to the specified language. (*) Is converted into the language designation symbols "e", "g", etc. (steps S3 to S5), and immediately access to the net sites A30a to C30c according to the HP addresses to perform synchronous reproduction. The media data (specified language version caption text data / specified language version audio data / common moving image data) is downloaded and stored in the
[0108]
FIG. 7 is a flowchart showing a second multimedia reproduction process of the portable device 10 according to the media synchronous reproduction program 12a2 of the first embodiment.
[0109]
In the second multimedia reproduction processing of the first embodiment, the same processing steps as those of the first multimedia reproduction processing (steps S1 to S18) in FIG. Is omitted.
[0110]
That is, in the second multimedia reproduction processing, the command code “URL” according to the time code file 12c2 is read, and each time the access to the net sites A30a to C30c according to the HP address is performed, and the synchronous reproduction is performed. It is assumed that each media data (designated language version caption text data / designated language version audio data / common moving image data) is sequentially downloaded and a reproduction instruction is given (step S14 → S15B).
[0111]
That is, in step S14, when it is determined that the command code read from the time code file 12c2 (see FIG. 3) in the
[0112]
That is, when text data (see FIG. 2A) is downloaded from the net site A30a in accordance with the HP address corresponding to the command code URL, reproduction and display are started by the text output program 12a2, and audio data (FIG. (See FIG. 2B), the reproduction output is started by the audio output program 12a2, and when the image data (see FIG. 2C) is downloaded, the reproduction output is started by the audio output program 12a2. Start.
[0113]
According to this, all the media data (designated language version caption text data / designated language version audio data / common moving image data) to be synchronously reproduced are downloaded in advance and stored as media content data 12c3 in
[0114]
In the first embodiment, in the first and second multimedia reproduction processes described with reference to FIGS. 4 and 7, any of the reproduction processes corresponds to the learning data designated by the user. The
[0115]
FIG. 8 is a flowchart showing a media playback process on the portable device 10 side and a server process on the
[0116]
That is, in the portable device 10, when data to be learned is designated by the user, a designation signal of the learning data is transmitted to the server 30 (step S1 ').
[0117]
When the
[0118]
When a language desired by the user is specified in the mobile device 10, a signal specifying the language is transmitted to the server 10 (step S2 ').
[0119]
When the
[0120]
When "German" is designated, the language unspecified symbol "*" on each URL corresponding to the text data and the audio data in the time code file 12c2 read by the
[0121]
Further, when "French" is designated, the language unspecified symbol "*" on each URL corresponding to the text data and the audio data in the time code file 12c2 read by the
[0122]
In this manner, when the
[0123]
Then, the portable device 10 receives, from the
[0124]
Note that the subsequent processing in the media reproduction processing in the portable device 10 is the same as the processing in the first media reproduction processing in FIG. 4 following the processing in step S6 and subsequent steps. The reproduction processing is the same as the processing following step S7 and subsequent steps, and a description thereof will be omitted.
[0125]
According to this, the portable device 10 simply designates the learning data and language desired by the user, and executes a multimedia playback file (CAS file) having the time code file 12c2 corresponding to the designated learning data and the designated language. ) 12c is generated, received and acquired on the
[0126]
Therefore, according to the media playback function of the portable device 10 of the multimedia storage and playback system having the above-described configuration according to the first embodiment, the processing unit time preset in the time code file 12c2 of the
[0127]
Also, a URL (HP address) indicating the storage destination net site A30a / B30b / C30c of each media data (caption text data / audio data / image data) having time information to be synchronously reproduced described in the time code file 12c2. , A subtitle text data corresponding to the specified language and its audio data are downloaded according to a different HP address according to the language specification symbol. Even with text data and audio data prepared for each language, text and audio data in a desired language can be easily selectively downloaded and synchronously reproduced based on one time code file 12c2.
[0128]
In the first embodiment of the multimedia storage / playback system, the subtitle text data downloaded from the net site A30a and played back according to the HP address described corresponding to each command code “URL” of the time code file 12c2 is The text data itself has time information for sequentially highlighting each character in accordance with the reproduction processing, and the text data itself is inevitably displayed synchronously with the reproduction processing of audio data and image data. As described in the second embodiment, in accordance with a command code “HL” (highlighted display) described in the time code file 12c2 and executed for each set processing unit time 12c1a, text-to-synchronous text data to be reproduced synchronously is described. A configuration for instructing highlighting may be adopted.
[0129]
(2nd Embodiment)
FIG. 9 is a diagram showing data contents provided at the
[0130]
The data contents provided by the
[0131]
That is, as shown in FIG. 9A, the net site A30a <http: // abc. co. jp>, text data of each corresponding character is prepared for each language used, and data for each language is stored in association with a different URL for each sentence. This is the same as the first embodiment, except that time information (→...) For sequentially inverting and displaying a text character string is not included.
[0132]
Therefore, the initial “c” of “caption” meaning caption is not added to the URL of the text data of the second embodiment. For example, the English version of the conversation text 7-1 is “... ekaiwa7-1.text” And the German version of 7-1 is "... gkaiwa 7-1.text".
[0133]
FIG. 10 is a diagram showing a time code file 12c2 included in the
[0134]
First, similarly to the first embodiment, the time code file 12c2 of the second embodiment includes command processing of various data synchronous reproduction at a fixed time interval (for example, 25 ms) preset for each piece of media data. A time code for performing the command is described and arranged. Each time code includes parameter data for associating a command code designating a command with the contents of media data (see FIG. 9) related to the command. It is configured by a combination of the URLs of the
[0135]
The command code for instructing the command mainly includes a command code “URL” for instructing reproduction of text data, audio data, and image data read according to the URLs of the associated
[0136]
In the highlighting of each character of the text data according to the command code “HL”, the number of highlighted characters described as the parameter data varies depending on the language used, so that the time code file 12c2 itself depends on the language used. It is a dedicated language learning textbook having the same contents, and is prepared in the CD-ROM or the
[0137]
That is, when the media synchronous playback processing program 12a2 stored in the
[0138]
When the first command code “URL” is read in accordance with the command processing at regular time intervals, the first command code is stored as the media content data 12c3 according to the URL address “... Ekaiwa7-1.txt” described correspondingly. The text data of the English conversation text 7-1 is read, and the display processing is instructed to the text output program 12a1.
[0139]
If the second command code “URL” is read in accordance with the command processing at the same fixed time, the command code is stored as the media content data 12c3 according to the URL address “... Ekaiwa7-1.mp3” described correspondingly. The voice data of the English conversation text 7-1 is read, and the voice output processing is instructed to the voice output program 12a1.
[0140]
Further, when the third command code "URL" is read in accordance with the command processing at the same fixed time, the command code is stored as the media content data 12c3 according to the URL address "... kaiwa7-1.mpeg" described correspondingly. The image data of the English conversation text 7-1 is read, and the display processing is instructed to the image output program 12a1.
[0141]
When the command code “HL” described in the fifth, 41st, and 59th is read, the first code is written by the number of characters indicated by the parameter data “02”, “07”, and “10”. In accordance with the command code "URL", each display character of the English conversation text 7-1 being displayed is sequentially highlighted.
[0142]
In addition, the audio data and the image data of the English conversation text to be reproduced at the same time are reproduced at a preset time interval, so that the output elapsed times are synchronized with each other. Time information is included in advance, and the reproduction process by the (text / audio / image) output program 12a1 is started in accordance with each command code “URL” in which time elapse is set in advance on the time code file 12c2. In the reproduction processing program 12a2, the reproduction is inevitably synchronized and controlled by the
[0143]
The detailed reproduction operation of the
[0144]
Next, a description will be given of a media playback function according to the second embodiment of the portable device 10 of the multimedia storage / playback system configured as described above.
[0145]
FIG. 11 is a flowchart showing a first multimedia reproduction process of the portable device 10 according to the media synchronous reproduction process program 12a2 of the second embodiment.
[0146]
For example, when practicing a foreign language conversation is performed by synchronous reproduction of text, voice, and image multimedia, learning data (for example, foreign language conversation learning) desired by the user is designated by operating the
[0147]
At this time, the encrypted multimedia playback file (CAS file) 12b stored in the
[0148]
Then, according to the HP address described in association with each command code “URL” on the English time code file 12c2 corresponding to the language specified by the user (for example, “English”), the corresponding media net site A30a To C30c, the designated learning data and the text data for conversation learning in the designated language "English", the voice data, and the image data common to each language are downloaded and stored as the media content data 12c3 in the
[0149]
That is, the HP address <http: //abc.http described in the English version time code file 12c2 shown in FIG. co. jp / ekaiwa 7-1. txt><... 7-2. txt><... 7-3. txt>, the English-language text data “Exceme me.” and “May I help you?” shown in FIG. 9A are sequentially downloaded from the net site A30a, and the HP address <http: ///. def. co. jp / ekaiwa 7-1. mp3><... 7-2. mp3><... 7-3. mp3>, the respective English-language audio data “Excuse Me” and “Mei Heap You” shown in FIG. 9B are sequentially downloaded from the net site B30b, and further, the HP address <http: // hij. . co. jp / kaiwa 7-1. mpeg><... 7-2. mpeg><... 7-3. In accordance with mpeg>, image data “female moving image”, “male moving image” common to each language shown in FIG. 9C is sequentially downloaded from the net site C30c.
[0150]
Then, the processing unit time 12c1a (for example, 25 ms / sec.) Described in the header information 12c1 of the decrypted multimedia reproduction file (CAS file) 12c including the English time code file 12c2 and the media content data 12c3 stored in the RAM 12C. 50 ms /...) Is set as a read time of the multimedia reproduction file (CAS file) 12c at a constant time interval by the CPU 11 (step A5).
[0151]
Then, a read pointer is set at the beginning of the media playback file (CAS file) 12c stored in the
[0152]
Here, the pre-reading process is started in parallel with the reproduction process (step A8).
[0153]
In step A7, when the processing timer is started, the processing timer is set in step A6 for each processing unit time corresponding to the multimedia
[0154]
Then, it is determined whether the command code read from the English version time code file 12c2 (see FIG. 10) in the
[0155]
On the other hand, when it is determined that the command code read from the time code file 12c2 (see FIG. 10) in the
[0156]
Then, the time counting operation by the processing timer is started again, and it is determined whether or not the time counted by the timer has reached the next processing unit time 12c1a (step A17).
[0157]
On the other hand, if it is determined in step A12 that the command code read from the English time code file 12c2 (see FIG. 10) in the
[0158]
When it is determined in step A14 that the command code read from the English version time code file 12c2 (see FIG. 10) is not "HL", the process proceeds to another command process ( Step A16). The other command processing is processing of a command corresponding to each of the other command codes.
[0159]
If it is determined in step A17 that the time measured by the timer has reached the next processing unit time 12c1a, the read pointer to the multimedia playback file (CAS file) 12c stored in the
[0160]
That is, the
[0161]
Here, the synchronous reproduction output operation of text / voice / image data by the media synchronous reproduction processing program 12a1 (see FIG. 11) based on the
[0162]
In the English language conversation learning multimedia playback file (12c), command processing is executed for each processing unit time (25 ms) described and set in the header information (12c1). First, the time code file 12c2 When the first command code “URL” and its parameter data “00” (see FIG. 10) are read out, the HP address <http: // abc. co. jp / ekaiwa 7-1. txt>, the text data “Exuse me.” (see FIG. 9A) of the English conversation text 7-1 downloaded and stored as the media content data 12c3 is read out, and the text output program 12a1 is sent to the text output program 12a1. As shown in FIGS. 5 (A) to 5 (C), a reproduction display process is instructed.
[0163]
At this point, the entire text string of the text data “Exceme me.” Of the English conversation text 7-1 is simply reproduced and displayed on the
[0164]
When the second command code “URL” and its parameter data “02” are read, the HP address <http: // def. co. jp / ekaiwa 7-1. mp3>, the audio data “Excuse Me” (see FIG. 9B) of the English conversation text 7-1 that has been downloaded and stored as the media content data 12c3 is read out, and sent to the audio output program 12a1. As shown in FIGS. 5A to 5C, a reproduction output process is instructed.
[0165]
As a result, the
[0166]
When the third command code “URL” and its parameter data “02” are read, the HP address <http: // hij. co. jp / kaiwa 7-1. mpeg>, the language common image data “female moving image” (see FIG. 9C) of the conversation text 7-1 which is downloaded and stored as the media content data 12c3 is read out, and the image output program 12a1 is read. 5 (A) to 5 (C), the reproduction display processing is instructed.
[0167]
Thereby, the language common image data “female moving image” of the conversation text 7-1 is displayed in the table.
The reproduction display is started while being sequentially switched in the
[0168]
When the fifth command code “HL” and its parameter data “02” are read, as shown in FIG. 5A, the highlighted text data of the second text of the displayed text data “Exuse me.” Is displayed. Is indicated.
[0169]
When the 41st command code “HL” and its parameter data “07” are read, as shown in FIG. 5B, reverse highlighting of the displayed text data “Excuse me.” Up to the seventh character is performed. Is indicated.
[0170]
Further, when the 59th command code “HL” and its parameter data “10” are read, as shown in FIG. 5C, the text data “Excuse” being displayed is displayed.
me. "Is highlighted.
[0171]
Thereafter, when the 81st command code “URL” and its parameter data “02” of the time code file 12c2 (see FIG. 10) are read, the HP address <http: // abc described corresponding to the 81st command code is read. . co. jp / ekaiwa7-2. txt>, the subtitle text data “May I help you?” (see FIG. 9A) of the English conversation text 7-2, which is downloaded and stored as the media content data 12c3, is read out and read to the text output program 12a1. Then, as shown in FIGS. 5D to 5F, a reproduction display process is instructed.
[0172]
At this point, the entire character string of the text data “May I help you?” Of the English conversation text 7-2 is simply reproduced and displayed on the
[0173]
When the 82nd command code “URL” and its parameter data “00” are read, the HP address <http: // def. co. jp / ekaiwa7-2. mp3>, the audio data “May I Help You” (see FIG. 9B) of the English conversation text 7-2 downloaded and stored as the media content data 12c3 is read out, and the audio output program 12a1 is read out. As shown in FIGS. 5D to 5F, a reproduction output process is instructed.
[0174]
As a result, the
[0175]
When the 83rd command code “URL” and its parameter data “00” are read, the HP address <http: // hij. co. jp / kaiwa 7-2. mpeg>, the language common image data “male moving image” (see FIG. 9C) of the conversation text 7-2 that is downloaded and stored as the media content data 12c3 is read out, and the image output program 12a1 is read out. As shown in FIGS. 5 (D) to 5 (F), reproduction display processing is instructed.
[0176]
As a result, the language common image data “male moving image” of the conversation text 7-2 is reproduced and displayed while being sequentially switched on the
[0177]
In this case, the text data "Exuse me." And "May I help you?" Are reproduced and displayed by the text output program 12a1 and, in response to a command code "HL", a predetermined time from the start of the reproduction. The text strings are sequentially inverted (underlined) according to the progress, and even if the voice data “Excuse me” or “Mei eye help u”, the voice output program 12a1 performs In response to the reproduction and output, the information includes time information for reproducing and outputting the audio data so as to match the reverse display of the text data in accordance with the lapse of time at a predetermined speed from the start of the reproduction. Even in the common image data “female moving image” and “male moving image”, the image output program 12a1 The time information for switching and displaying the image data in accordance with the reverse display of the text data and the output of the audio data in accordance with the lapse of a predetermined speed from the start of the reproduction along with the reproduction display. Therefore, the command codes arranged in the time code file 12c2 and the parameter data thereof are stored for each reference unit time (25 ms / 50 ms) of the command processing set and described in advance in the
[0178]
Accordingly, the burden on the main processing of the CPU is reduced, and even a CPU having a relatively small processing capability, for example, the portable device (PDA) 10 can easily perform synchronous reproduction processing of a plurality of types of net media data including text, images, and sounds. This can be realized even with a simple reproducing apparatus that does not use a high-performance CPU.
[0179]
In the second embodiment, in the first multimedia playback processing described with reference to FIG. 11, the multimedia playback having the designated language data and the designated language version time code file 12c2 corresponding to the designated language is performed. As soon as the
[0180]
FIG. 12 is a flowchart showing a second multimedia reproduction process of the portable device 10 according to the media synchronous reproduction program 12a2 of the second embodiment.
[0181]
In the second multimedia reproduction process of the second embodiment, the same processing steps as those of the first multimedia reproduction process (steps A1 to A18) in FIG. Is omitted.
[0182]
In other words, in the second multimedia reproduction process, each time the command code “URL” is read in accordance with the time code file 12c2, access is made to the net sites A30a to C30c in accordance with the HP address, and synchronous reproduction is performed. It is assumed that the media data (designated language version text data / designated language version audio data / common moving image data) to be sequentially downloaded and the reproduction instruction is given (step A12 → A13B).
[0183]
That is, in step A12, when it is determined that the command code read from the time code file 12c2 (see FIG. 10) in the
[0184]
That is, when text data (see FIG. 9A) is downloaded from the net site A30a in accordance with the HP address corresponding to the command code URL, reproduction display is started by the text output program 12a2, and audio data (FIG. (See FIG. 9B), the reproduction output is started by the audio output program 12a2, and when the image data (see FIG. 9C) is downloaded, the reproduction output is started by the audio output program 12a2. Start.
[0185]
According to this, all media data (designated language version text data / designated language version audio data / common moving image data) to be synchronously reproduced must be downloaded in advance and stored as media content data 12c3 in
[0186]
Therefore, according to the media playback function of the portable device 10 of the multimedia storage / playback system having the above-described configuration according to the second embodiment, the processing unit time preset in the time code file 12c2 of the
[0187]
Note that the method of each processing by the mobile device 10 described in the above embodiment, that is, the first multimedia reproduction processing in the first embodiment shown in the flowchart of FIG. 4 and the first embodiment shown in the flowchart of FIG. A second multimedia playback process, a media playback process on the portable device 10 side and a server process on the
[0188]
Further, data of a program for realizing each of the above methods can be transmitted on a communication network (Internet) N in the form of a program code, and a computer terminal connected to the communication network (Internet) N transmits the program data. It is also possible to take in program data and realize the above-mentioned synchronous reproduction function of multimedia data.
[0189]
It should be noted that the present invention is not limited to the above-described embodiments, and can be variously modified in an implementation stage without departing from the scope of the invention. Furthermore, the embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some components are deleted from all the components shown in each embodiment or some components are combined, the problem described in the section of the problem to be solved by the invention can be solved. In the case where the effects described in the section of the effects of the invention can be obtained, a configuration in which this component is deleted or combined can be extracted as the invention.
[0190]
【The invention's effect】
As described above, according to the media data storage device of
[0191]
Further, according to the media data storage device of the present invention, the storage means for storing the URL of each of the media arranged in advance by setting the elapsed time for each of a plurality of types of media to be synchronously reproduced. Prior to the synchronous reproduction of the plurality of types of media, the data of the plurality of types of media stored in the storage device in association with the URLs of the respective media stored by the storage unit. It can be obtained via the Internet and stored by media data storage means. For this reason, the URLs of the respective media stored by the storage means are sequentially read out according to the set elapsed time, and the data of the respective media stored by the media data storage means are associated with the read URLs. Can be played back quickly and reliably.
[0192]
According to the media data storage device of the present invention, the storage means stores the URL of each of the media arranged in advance by setting the elapsed time for each of a plurality of types of media to be synchronously reproduced. And the media data acquisition unit sequentially reads out the URLs of the respective media stored by the storage unit in accordance with the set elapsed time, and transmits the media data associated with the read URLs via the Internet. Can be obtained with For this reason, it is possible to sequentially fetch various data to be synchronously reproduced from the net site of each medium in accordance with the URL of each site according to the set elapsed time, and to quickly and surely synchronously reproduce the fetched data of a plurality of media. it can.
[0193]
According to the media data storage device of
[0194]
Also, according to the media data storage device according to
[0195]
According to the media data storage device of
[0196]
Further, according to the media data storage device of the present invention, in the media data storage device of any one of the above-mentioned claims, the data of the plurality of types of media is Data in a plurality of languages is prepared, the URL stored by the storage means includes a language designation symbol, and the media data acquisition means includes a medium associated with the URL of each medium stored by the storage means. The data of the specified language is obtained via the Internet, so that the data of each medium in the specified language is also simply taken from each net site specified by the URL, and the data of a plurality of media specified in the language can be quickly and quickly obtained. Synchronous playback can be performed reliably.
[0197]
According to the media data storage processing program according to
[0198]
According to the media data storage processing program of the ninth aspect of the present invention, by installing the program in the media data storage device, a plurality of types of media to be synchronously reproduced in the computer of the media data storage device The storage means storing the URLs of the media arranged with the elapsed time set in advance for each of the media is accessed, and stored in the storage device in association with the URLs of the media stored by the storage means. Prior to synchronous reproduction of a plurality of types of media, data of a plurality of types of media can be acquired by the media data acquisition unit via the Internet, and can be stored by the media data storage unit. For this reason, in the media data storage device, the URLs of the respective media stored by the storage means are sequentially read out according to the set elapsed time, and are stored by the media data storage means in association with the read URLs. The data of each of the media can be quickly and reliably reproduced synchronously.
[0199]
According to the media data storage processing program according to claim 10 of the present invention, by installing the program in the media data storage device, a plurality of types of media to be synchronously reproduced on the computer of the media data storage device The storage means storing the URLs of the media arranged in advance with the elapsed time set for each is accessed, and the media data acquisition means sets the elapsed time at which the URLs of the media stored by the storage means are set. , And the media data associated with the read URL can be obtained via the Internet. For this reason, the media data storage device sequentially captures various data to be synchronously reproduced from the net site of each media in accordance with the URL of each site according to the set elapsed time, and quickly and reliably captures the captured data of the plurality of media. Can be played back synchronously.
[0200]
Therefore, according to the present invention, it is possible to provide a media data storage device and a media data storage processing program capable of acquiring media data via the Internet prior to synchronous reproduction of a plurality of types of media.
[Brief description of the drawings]
FIG. 1 is a diagram showing an overall configuration of a multimedia storage / playback system including a portable device 10 according to an embodiment of a media data storage device of the present invention.
FIG. 2 is a diagram showing data contents provided at
FIG. 3 is a view showing a time code file 12c2 included in the
FIG. 4 is a flowchart showing a first multimedia playback process of the portable device 10 according to a media synchronous playback program 12a2 of the first embodiment.
FIG. 5 is a diagram showing a synchronized playback state of English conversation text, voice, and image data based on the
FIG. 6 is a diagram showing a synchronized reproduction state of German-language conversation text, voice, and image data when a German language is specified for the multimedia reproduction file for foreign language conversation learning 12c in FIG. 3B.
FIG. 7 is a flowchart showing a second multimedia reproduction process of the portable device 10 according to the media synchronous reproduction program 12a2 of the first embodiment.
FIG. 8 is a flowchart showing a media playback process on the portable device 10 and a server process on the
FIG. 9 is a diagram showing data contents provided at
FIG. 10 is a view showing a time code file 12c2 constituting a
FIG. 11 is a flowchart showing a first multimedia playback process of the portable device 10 according to a media synchronous playback program 12a2 of the second embodiment.
FIG. 12 is a flowchart showing a second multimedia reproduction process of the portable device 10 according to a media synchronous reproduction program 12a2 of the second embodiment.
[Explanation of symbols]
10… Portable equipment
11 ... CPU
12 ... memory
12A… ROM
12a: Portable device control program
12a1 ... (text / sound / image) output program
12a2: Media synchronous playback processing program
12B: FLASH memory
12b: Encrypted multimedia playback file (CAS file)
12C ... RAM
12c: Decoded multimedia playback file (CAS file)
12c1 ... header information
12c1a: Processing unit time
12c2: Time code file
12c3 ... Media content data
12d ... (learning / language) designation data
12e: Image expansion buffer
13. External recording medium
14: Recording medium reading unit
15 ... Transmission control unit
16… Communication unit
17a ... input section
17b Coordinate input device
18 Display part
19a: Voice input unit
19b: audio output unit
20… Communication equipment (home PC)
30… Web server
30a: Net site A (text)
30b: Net site B (voice)
30c: Net site C (image)
N: Communication network (Internet)
Claims (10)
この記憶手段により記憶された各メディアのURLに対応付けられたメディアのデータを複数種類のメディアの同期再生に先立ってインターネット経由で取得するメディアデータ取得手段と、を備えたことを特徴とするメディアデータ記憶装置。Storage means for storing URLs of media arranged in advance by setting an elapsed time for each of a plurality of types of media to be synchronously reproduced;
Media data acquisition means for acquiring media data associated with the URL of each medium stored by the storage means via the Internet prior to synchronous playback of a plurality of types of media. Data storage device.
この記憶手段により記憶された各メディアのURLに対応付けられて記憶装置にそれぞれ記憶されている複数種類のメディアのデータを複数種類のメディアの同期再生に先立ってインターネット経由で取得するメディアデータ取得手段と、このメディアデータ取得手段により取得された各メディアのデータを記憶するメディアデータ記憶手段と、を備えたことを特徴とするメディアデータ記憶装置。Storage means for storing URLs of media arranged in advance by setting an elapsed time for each of a plurality of types of media to be synchronously reproduced;
Media data acquisition means for acquiring data of a plurality of types of media stored in a storage device in association with URLs of respective media stored by the storage means via the Internet prior to synchronous reproduction of the plurality of types of media. And a media data storage unit for storing data of each medium acquired by the media data acquisition unit.
この記憶手段により記憶された各メディアのURLを設定された経過時間に従って順次読み出し、この読み出されたURLに対応付けられたメディアのデータをインターネット経由で取得するメディアデータ取得手段と、を備えたことを特徴とするメディアデータ記憶装置。Storage means for storing URLs of media arranged in advance by setting an elapsed time for each of a plurality of types of media to be synchronously reproduced;
Media data acquisition means for sequentially reading out the URLs of the respective media stored by the storage means in accordance with the set elapsed time and acquiring data of the media associated with the read out URLs via the Internet. A media data storage device, characterized in that:
前記記憶手段により記憶されるURLは言語の指定記号を含み、
前記メディアデータ取得手段は、前記記憶手段により記憶された各メディアのURLに対応付けられたメディアの指定の言語のデータをインターネット経由で取得する、ことを特徴とする請求項1乃至請求項6の何れか1項に記載のメディアデータ記憶装置。Data of a plurality of languages is prepared for the data of the plurality of types of media,
The URL stored by the storage means includes a language designation symbol,
7. The media data acquiring device according to claim 1, wherein the media data acquiring device acquires, via the Internet, data in a specified language of the media associated with the URL of each media stored in the storage device. A media data storage device according to any one of the preceding claims.
前記コンピュータを、
同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段をアクセスし、この記憶手段により記憶された各メディアのURLに対応付けられたメディアのデータを複数種類のメディアの同期再生に先立ってインターネット経由で取得するメディアデータ取得手段、として機能させるようにしたコンピュータ読み込み可能なメディアデータ記憶処理プログラム。A media data storage processing program for controlling a computer of a media data storage device,
Said computer,
The storage means storing the URLs of the media arranged in such a manner that the elapsed time is set in advance for each of a plurality of types of media to be synchronously reproduced is associated with the URLs of the media stored by the storage means. A computer-readable medium data storage processing program functioning as media data obtaining means for obtaining the data of the obtained media via the Internet prior to the synchronous reproduction of a plurality of types of media.
前記コンピュータを、
同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段をアクセスし、この記憶手段により記憶された各メディアのURLに対応付けられて記憶装置にそれぞれ記憶されている複数種類のメディアのデータを複数種類のメディアの同期再生に先立ってインターネット経由で取得するメディアデータ取得手段、
このメディアデータ取得手段により取得された各メディアのデータを記憶するメディアデータ記憶手段、として機能させるようにしたコンピュータ読み込み可能なメディアデータ記憶処理プログラム。A media data storage processing program for controlling a computer of a media data storage device,
Said computer,
The storage means storing the URLs of the media arranged in advance by setting the elapsed time for each of a plurality of types of media to be played back in synchronization is accessed, and the storage means is associated with the URLs of the media stored by the storage means. Media data acquisition means for acquiring data of a plurality of types of media stored in the storage device via the Internet prior to the synchronized playback of the plurality of types of media,
A computer-readable media data storage processing program functioning as media data storage means for storing data of each medium acquired by the media data acquisition means.
前記コンピュータを、
同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段をアクセスし、この記憶手段により記憶された各メディアのURLを設定された経過時間に従って順次読み出し、この読み出されたURLに対応付けられたメディアのデータをインターネット経由で取得するメディアデータ取得手段、として機能させるようにしたコンピュータ読み込み可能なメディアデータ記憶処理プログラム。A media data storage processing program for controlling a computer of a media data storage device,
Said computer,
The storage means storing the URLs of the media arranged in such a manner that the elapsed time is set in advance for each of a plurality of types of media to be played back in synchronization is accessed, and the URL of each media stored by the storage means is set. A computer-readable medium data storage processing program that functions as media data acquisition means for sequentially acquiring data of the medium associated with the read URL via the Internet, according to the elapsed time.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003054832A JP2004266576A (en) | 2003-02-28 | 2003-02-28 | Media data storage apparatus, and media data storage processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003054832A JP2004266576A (en) | 2003-02-28 | 2003-02-28 | Media data storage apparatus, and media data storage processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004266576A true JP2004266576A (en) | 2004-09-24 |
Family
ID=33119060
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003054832A Abandoned JP2004266576A (en) | 2003-02-28 | 2003-02-28 | Media data storage apparatus, and media data storage processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004266576A (en) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012048812A (en) * | 2011-10-03 | 2012-03-08 | Toshiba Corp | Information storage medium, program, information reproduction method, information reproduction device, data transfer method, and data processing method |
JP2012529694A (en) * | 2009-06-08 | 2012-11-22 | サムスン エレクトロニクス カンパニー リミテッド | Remote user interface providing method and apparatus |
JP2013536639A (en) * | 2010-08-13 | 2013-09-19 | ネットフリックス・インコーポレイテッド | System and method for synchronous playback of streaming digital content |
CN103733159A (en) * | 2011-03-23 | 2014-04-16 | 奥德伯公司 | Synchronizing digital content |
US9087508B1 (en) | 2012-10-18 | 2015-07-21 | Audible, Inc. | Presenting representative content portions during content navigation |
US9099089B2 (en) | 2012-08-02 | 2015-08-04 | Audible, Inc. | Identifying corresponding regions of content |
US9141257B1 (en) | 2012-06-18 | 2015-09-22 | Audible, Inc. | Selecting and conveying supplemental content |
US9223830B1 (en) | 2012-10-26 | 2015-12-29 | Audible, Inc. | Content presentation analysis |
US9280906B2 (en) | 2013-02-04 | 2016-03-08 | Audible. Inc. | Prompting a user for input during a synchronous presentation of audio content and textual content |
US9317486B1 (en) | 2013-06-07 | 2016-04-19 | Audible, Inc. | Synchronizing playback of digital content with captured physical content |
US9367196B1 (en) | 2012-09-26 | 2016-06-14 | Audible, Inc. | Conveying branched content |
US9472113B1 (en) | 2013-02-05 | 2016-10-18 | Audible, Inc. | Synchronizing playback of digital content with physical content |
US9489360B2 (en) | 2013-09-05 | 2016-11-08 | Audible, Inc. | Identifying extra material in companion content |
US9536439B1 (en) | 2012-06-27 | 2017-01-03 | Audible, Inc. | Conveying questions with content |
US9632647B1 (en) | 2012-10-09 | 2017-04-25 | Audible, Inc. | Selecting presentation positions in dynamic content |
US9679608B2 (en) | 2012-06-28 | 2017-06-13 | Audible, Inc. | Pacing content |
US9703781B2 (en) | 2011-03-23 | 2017-07-11 | Audible, Inc. | Managing related digital content |
US9734153B2 (en) | 2011-03-23 | 2017-08-15 | Audible, Inc. | Managing related digital content |
US9792027B2 (en) | 2011-03-23 | 2017-10-17 | Audible, Inc. | Managing playback of synchronized content |
-
2003
- 2003-02-28 JP JP2003054832A patent/JP2004266576A/en not_active Abandoned
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012529694A (en) * | 2009-06-08 | 2012-11-22 | サムスン エレクトロニクス カンパニー リミテッド | Remote user interface providing method and apparatus |
US9420350B2 (en) | 2009-06-08 | 2016-08-16 | Samsung Electronics Co., Ltd. | Method and apparatus for providing a remote user interface |
US10712771B2 (en) | 2010-08-13 | 2020-07-14 | Netflix, Inc. | System and method for synchronized playback of streaming digital content |
JP2013536639A (en) * | 2010-08-13 | 2013-09-19 | ネットフリックス・インコーポレイテッド | System and method for synchronous playback of streaming digital content |
JP2015216679A (en) * | 2010-08-13 | 2015-12-03 | ネットフリックス・インコーポレイテッドNetflix, Inc. | System and method for synchronized playback of streaming digital content |
JP2014514644A (en) * | 2011-03-23 | 2014-06-19 | オーディブル・インコーポレイテッド | Synchronous digital content |
US9792027B2 (en) | 2011-03-23 | 2017-10-17 | Audible, Inc. | Managing playback of synchronized content |
CN103733159B (en) * | 2011-03-23 | 2017-08-22 | 奥德伯公司 | Synchronous digital content |
US9734153B2 (en) | 2011-03-23 | 2017-08-15 | Audible, Inc. | Managing related digital content |
US9703781B2 (en) | 2011-03-23 | 2017-07-11 | Audible, Inc. | Managing related digital content |
CN103733159A (en) * | 2011-03-23 | 2014-04-16 | 奥德伯公司 | Synchronizing digital content |
US9697265B2 (en) | 2011-03-23 | 2017-07-04 | Audible, Inc. | Synchronizing digital content |
JP2012048812A (en) * | 2011-10-03 | 2012-03-08 | Toshiba Corp | Information storage medium, program, information reproduction method, information reproduction device, data transfer method, and data processing method |
US9141257B1 (en) | 2012-06-18 | 2015-09-22 | Audible, Inc. | Selecting and conveying supplemental content |
US9536439B1 (en) | 2012-06-27 | 2017-01-03 | Audible, Inc. | Conveying questions with content |
US9679608B2 (en) | 2012-06-28 | 2017-06-13 | Audible, Inc. | Pacing content |
US9099089B2 (en) | 2012-08-02 | 2015-08-04 | Audible, Inc. | Identifying corresponding regions of content |
US9799336B2 (en) | 2012-08-02 | 2017-10-24 | Audible, Inc. | Identifying corresponding regions of content |
US10109278B2 (en) | 2012-08-02 | 2018-10-23 | Audible, Inc. | Aligning body matter across content formats |
US9367196B1 (en) | 2012-09-26 | 2016-06-14 | Audible, Inc. | Conveying branched content |
US9632647B1 (en) | 2012-10-09 | 2017-04-25 | Audible, Inc. | Selecting presentation positions in dynamic content |
US9087508B1 (en) | 2012-10-18 | 2015-07-21 | Audible, Inc. | Presenting representative content portions during content navigation |
US9223830B1 (en) | 2012-10-26 | 2015-12-29 | Audible, Inc. | Content presentation analysis |
US9280906B2 (en) | 2013-02-04 | 2016-03-08 | Audible. Inc. | Prompting a user for input during a synchronous presentation of audio content and textual content |
US9472113B1 (en) | 2013-02-05 | 2016-10-18 | Audible, Inc. | Synchronizing playback of digital content with physical content |
US9317486B1 (en) | 2013-06-07 | 2016-04-19 | Audible, Inc. | Synchronizing playback of digital content with captured physical content |
US9489360B2 (en) | 2013-09-05 | 2016-11-08 | Audible, Inc. | Identifying extra material in companion content |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004266576A (en) | Media data storage apparatus, and media data storage processing program | |
EP2242043A1 (en) | Information processing apparatus with text display function, and data acquisition method | |
JP4127668B2 (en) | Information processing apparatus, information processing method, and program | |
JP2005070645A (en) | Text and voice synchronizing device and text and voice synchronization processing program | |
JP3927962B2 (en) | Data processing apparatus and data processing program | |
JP2011030224A (en) | System and method for displaying multimedia subtitle | |
JP2005073138A (en) | Information regenerating device and information regeneration processing program | |
JP6865701B2 (en) | Speech recognition error correction support device and its program | |
JP6949075B2 (en) | Speech recognition error correction support device and its program | |
JP2004266577A (en) | Media synchronously reproducing apparatus, server and media synchronous reproduction processing program, and server processing program | |
JP2007041302A (en) | Voice reproducing apparatus and voice reproduction processing program | |
JP4277512B2 (en) | Electronic device and program | |
JP4407119B2 (en) | Instruction code creation device | |
JP2007199574A (en) | Music reproducing apparatus and music telop retrieval server | |
JP3846416B2 (en) | Reproduction control device and reproduction control processing program | |
JP2005077678A (en) | Text and voice synchronizing device and text and voice synchronization processing program | |
KR20010076136A (en) | portable reading apparatus | |
JP7197688B2 (en) | Playback control device, program and playback control method | |
JP2006222568A (en) | Narration support device, and document editing method and program thereof | |
KR102025903B1 (en) | Apparatus and method for language learning | |
JP3818235B2 (en) | Information reproducing apparatus and information reproducing processing program | |
JP4796985B2 (en) | Synthesis method, synthesis apparatus, and program | |
KR20110060773A (en) | Multimedia file playing method and player | |
JP4587966B2 (en) | Data processing device | |
JP2000099308A (en) | Electronic book player |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080917 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080924 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20081125 |