JP2004266576A - Media data storage apparatus, and media data storage processing program - Google Patents

Media data storage apparatus, and media data storage processing program Download PDF

Info

Publication number
JP2004266576A
JP2004266576A JP2003054832A JP2003054832A JP2004266576A JP 2004266576 A JP2004266576 A JP 2004266576A JP 2003054832 A JP2003054832 A JP 2003054832A JP 2003054832 A JP2003054832 A JP 2003054832A JP 2004266576 A JP2004266576 A JP 2004266576A
Authority
JP
Japan
Prior art keywords
media
data
text
url
stored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2003054832A
Other languages
Japanese (ja)
Inventor
Yoshiyuki Murata
嘉行 村田
Takashi Koshiro
孝 湖城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2003054832A priority Critical patent/JP2004266576A/en
Publication of JP2004266576A publication Critical patent/JP2004266576A/en
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a media data storage apparatus capable of acquiring media data via the Internet prior to synchronous reproduction of a variety of media. <P>SOLUTION: URLs (user requirement languages) (HP addresses) indicating Internet sites A30a/B30b/C30c for storing each of media data (caption text data/voice data/image data) to be synchronously reproduced which has time information of a reproduction speed in advance are described, correlating to a command code "URL" to be read at every processing time unit 12c1a previously set in a time code file 12c2 of a file 12b (12c) for multimedia reproduction. By only downloading each of the media data (text/voice/image) according to its HP address in response to the command code "URL" for every processing time unit 12c1a which is set, the reproduction processing of the text/voice/image data which are not originally stored in a portable device 10 can be synchronously executed as a necessary consequence. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、テキストデータ,音声データ,画像データなどの各メディアのデータを同期して再生するためのメディアデータ記憶装置、およびメディアデータ記憶処理プログラムに関する。
【0002】
【従来の技術】
従来、音楽,画像,テキストなどのデータを同時並行して再生する技術としては、例えばMPEG−3により情報圧縮された音声データのフレーム毎に、当該各フレームに設けられた付加データエリアに対して、音声データに同期再生すべきテキストデータや画像データの同期情報を埋め込んでおくことにより、例えばカラオケの場合では、カラオケ音声とそのイメージ画像および歌詞のテキストを同期再生するものがある。
【0003】
しかしながら、このように従来行われているMPEGデータの付加データエリアを利用した複数種類のデータの同期再生技術では、同期情報の埋め込みが主たるMP3音声データの各フレーム毎の付加データエリアに規定されるため、当該MP3音声データを再生させない限り同期情報を取り出すことが出来ず、MP3データの再生を軸としてしか他の種類のデータの同期再生を行うことが出来ない。
【0004】
このため、例えばMP3音声データにテキストデータの同期情報を埋め込んだ場合に、音声データの再生を行わない期間にあっても無音声データとして音声再生処理を継続的に行っていないと同期対象データの再生を行うことが出来ない問題がある。
【0005】
従って、従来この複数種類のデータの同期再生処理は、MP3データの再生処理をベースとして行われるため、再生装置のCPUにおける処理の負荷が重くなる問題がある。
【0006】
一方、各種のインターネットサイトのメディアで提供される様々な番組を、時間の経過情報(タイムテーブル)に従って予め設定された各ネットサイトのアドレスにアクセスしてダウンロードし、これを単に再生することで時間の経過に伴い各種メディアの番組を順次連続再生するようにしたマルチメディアの再生処理技術も考えられている。(例えば、特許文献1参照。)
【0007】
【特許文献1】
特開2002−261715号公報
【0008】
【発明が解決しようとする課題】
しかしながら、このようなマルチメディアの再生処理技術にあっても、あくまで音声,テキスト,画像の各データが前記PM3データなどをベースとして既に同期付けされている番組データそのものを再生処理するものであり、前記同様に再生装置のCPUにおける処理の負荷が重くなる問題が有るばかりか、同期再生すべき音声,テキスト,画像の各データは常に同期付けられて一体化されており、複数種類のメディアのデータを組み合わせて同期再生することはできない。
【0009】
本発明は、前記のような問題に鑑みてなされたもので、複数種類のメディアの同期再生に先立ってそのメディアデータをインターネット経由で取得することが可能になるメディアデータ記憶装置、およびメディアデータ記憶処理プログラムを提供することを目的とする。
【0010】
【課題を解決するための手段】
すなわち、本発明の請求項1に係るメディアデータ記憶装置では、同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段を有し、この記憶手段により記憶された各メディアのURLに対応付けられたメディアのデータが複数種類のメディアの同期再生に先立って、メディアデータ取得手段によりインターネット経由で取得される。
【0011】
これによれば、前記記憶手段により記憶された各メディアのURLが設定された経過時間に従って順次読み出され、この読み出されたURLに対応付けられて前記メディアデータ取得手段により取得された各メディアのデータを迅速且つ確実に同期再生させることができることになる。
【0012】
また、本発明の請求項2に係るメディアデータ記憶装置では、同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段を有し、この記憶手段により記憶された各メディアのURLに対応付けられて記憶装置に記憶されている複数種類のメディアのデータが複数種類のメディアの同期再生に先立って、メディアデータ取得手段によりインターネット経由で取得され、メディアデータ記憶手段により記憶される。
【0013】
これによれば、前記記憶手段により記憶された各メディアのURLが設定された経過時間に従って順次読み出され、この読み出されたURLに対応付けられて前記メディアデータ記憶手段により記憶された各メディアのデータを迅速且つ確実に同期再生させることができることになる。
【0014】
また、本発明の請求項3に係るメディアデータ記憶装置では、同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段を有し、メディアデータ取得手段によって、前記記憶手段により記憶された各メディアのURLが設定された経過時間に従って順次読み出され、この読み出されたURLに対応付けられたメディアのデータがインターネット経由で取得される。
【0015】
これによれば、各メディアのネットサイト上から同期再生すべき各種のデータを、設定経過時間に応じて各サイトのURLに従い順次取り込み、この取り込んだ複数メディアのデータを迅速且つ確実に同期再生させることができることになる。
【0016】
また、本発明の請求項4に係るメディアデータ記憶装置では、前記請求項1または請求項2に係るメディアデータ記憶装置にあって、前記記憶手段は、複数種類のメディアのデータが同期再生されるように当該各メディア毎に予め経過時間を設定して配列された制御命令に、各メディアのURLを対応付けて記憶する制御命令記憶手段とされる。
【0017】
これによれば、制御命令記憶手段により記憶された設定経過時間毎の制御命令に従い、これに対応付けられたURLにより各メディアのネットサイト上から同期再生すべき各種のデータを取り込み、この取り込んだ複数メディアのデータを迅速且つ確実に同期再生させることができることになる。
【0018】
また、本発明の請求項5に係るメディアデータ記憶装置では、前記請求項1乃至請求項4の何れか1項に係るメディアデータ記憶装置にあって、前記複数種類のメディアのデータにはテキストデータが含まれ、このテキストデータは予め他の種類のメディアのデータとの同期再生のための時間情報を有する。
【0019】
これによれば、各メディアのネットサイト上から取り込まれた同期再生すべき各種のデータのうち、テキストデータについては当該テキストデータに含まれる同期再生のための時間情報に従い、他の種類のメディアのデータと共に迅速且つ確実に同期再生させることができることになる。
【0020】
また、本発明の請求項6に係るメディアデータ記憶装置では、前記請求項1または請求項2に係るメディアデータ記憶装置にあって、前記記憶手段は、複数種類のメディアの少なくともテキストを含むデータが同期再生されるように当該各メディア毎に予め経過時間を設定して配列された制御命令に、各メディアのURLを対応付けて記憶すると共に、前記テキストデータに対する表示制御命令を記憶する制御命令記憶手段とされる。
【0021】
これによれば、各メディアのネットサイト上から取り込まれた同期再生すべき各種のデータのうち、テキストデータについては制御命令記憶手段により記憶された設定経過時間毎の表示制御命令に従い、他の種類のメディアのデータと共に迅速且つ確実に同期再生させることができることになる。
【0022】
また、本発明の請求項7に係るメディアデータ記憶装置では、前記請求項1乃至請求項6の何れか1項に係るメディアデータ記憶装置にあって、前記複数種類のメディアのデータには複数の言語からなるデータが用意され、前記記憶手段により記憶されるURLは言語の指定記号を含み、前記メディアデータ取得手段は、前記記憶手段により記憶された各メディアのURLに対応付けられたメディアの指定の言語のデータをインターネット経由で取得する。
【0023】
これによれば、指定の言語からなる各メディアのデータも単にURLで指定された各ネットサイトから取り込むだけで、言語の指定された複数メディアのデータも迅速且つ確実に同期再生させることができることになる。
【0024】
また、本発明の請求項8に係るメディアデータ記憶処理プログラムによれば、当該プログラムをメディアデータ記憶装置にインストールすることで、このメディアデータ記憶装置のコンピュータにおいて、同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段をアクセスし、この記憶手段により記憶された各メディアのURLに対応付けられたメディアのデータが複数種類のメディアの同期再生に先立って、メディアデータ取得手段によりインターネット経由で取得される。
【0025】
これによれば、メディアデータ記憶装置では、記憶手段により記憶された各メディアのURLが設定された経過時間に従って順次読み出され、この読み出されたURLに対応付けられて前記メディアデータ取得手段により取得された各メディアのデータを迅速且つ確実に同期再生させることができることになる。
【0026】
また、本発明の請求項9に係るメディアデータ記憶処理プログラムによれば、当該プログラムをメディアデータ記憶装置にインストールすることで、このメディアデータ記憶装置のコンピュータにおいて、同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段をアクセスし、この記憶手段により記憶された各メディアのURLに対応付けられて記憶装置に記憶されている複数種類のメディアのデータが複数種類のメディアの同期再生に先立って、メディアデータ取得手段によりインターネット経由で取得され、メディアデータ記憶手段により記憶される。
【0027】
これによれば、メディアデータ記憶装置では、記憶手段により記憶された各メディアのURLが設定された経過時間に従って順次読み出され、この読み出されたURLに対応付けられて前記メディアデータ記憶手段により記憶された各メディアのデータを迅速且つ確実に同期再生させることができることになる。
【0028】
また、本発明の請求項10に係るメディアデータ記憶処理プログラムによれば、当該プログラムをメディアデータ記憶装置にインストールすることで、このメディアデータ記憶装置のコンピュータにおいて、同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段をアクセスし、メディアデータ取得手段によって、前記記憶手段により記憶された各メディアのURLが設定された経過時間に従って順次読み出され、この読み出されたURLに対応付けられたメディアのデータがインターネット経由で取得される。
【0029】
これによれば、メディアデータ記憶装置では、各メディアのネットサイト上から同期再生すべき各種のデータを、設定経過時間に応じて各サイトのURLに従い順次取り込み、この取り込んだ複数メディアのデータを迅速且つ確実に同期再生させることができることになる。
【0030】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態について説明する。
【0031】
(第1実施形態)
図1は、本発明のメディアデータ記憶装置の実施形態に係る携帯機器10を備えたマルチメディア記憶再生システムの全体の構成を示す図である。
【0032】
このマルチメディア記憶再生システムは、例えばPDA(personal digital assistants)などの携帯機器10をマルチディア再生用の端末装置とし、通信ネットワーク(インターネット)Nを介してアクセス可能なサーバ30や各種メディアのネットサイト30a〜30cにより提供される種々のデータを選択的にダウンロードして同期再生する。
【0033】
例えばサーバ30から提供されるマルチメディアの再生用ファイル(CASファイル)(図3参照)に記述されたコマンドコードとURL(uniform resource locator)に従い、ネットサイトA30aから所定のテキストデータを、ネットサイトB30bから所定の音声データを、ネットサイトC30cから所定の画像データをダウンロードし、同期再生の処理を行う。
【0034】
携帯機器(PDA)10は、各種の記録媒体に記録されたプログラム、又は、通信伝送されたプログラムを読み込んで、その読み込んだプログラムによって動作が制御されるコンピュータによって構成され、その電子回路には、CPU(central processing unit)11が備えられる。
【0035】
CPU11は、メモリ12内のROM12Aに予め記憶されたPDA制御プログラム、あるいはROMカードなどの外部記録媒体13から記録媒体読取部14を介して前記メモリ12に読み込まれたPDA制御プログラム、あるいはインターネットなどの通信ネットワークN上の他のコンピュータ端末(30)から電送制御部15を介して前記メモリ12に読み込まれたPDA制御プログラムに応じて、回路各部の動作を制御するもので、前記メモリ12に記憶されたPDA制御プログラムは、キー入力部17aからのユーザ操作に応じたキー入力信号、マウスやタブレットからなる座標入力装置17bからのユーザ操作に応じた座標入力信号、あるいは電送制御部15に受信される通信ネットワークN上の他のコンピュータ端末(30,30a〜30c)からの通信信号、あるいはBluetooth(R)による近距離無線接続や有線接続による通信部16を介して受信される外部の通信機器(PC:personal computer)20からの通信信号に応じて起動される。
【0036】
前記CPU11には、前記メモリ12、記録媒体読取部14、電送制御部15、通信部16、キー入力部17a、座標入力装置17bが接続される他に、LCDからなる表示部18、マイクを備え音声を入力する音声入力部19a、スピーカを備え音声を出力する音声出力部19bなどが接続される。
【0037】
また、CPU11には、処理時間計時用のタイマが内蔵される。
【0038】
この携帯機器10のメモリ12は、ROM12A、FLASHメモリ(EEP−ROM)12B、RAM12Cを備えて構成される。
【0039】
ROM12Aには、当該携帯機器10の全体の動作を司るシステムプログラムや電送制御部15を介して通信ネットワークN上の各コンピュータ端末(30,30a〜30c)とデータ通信するためのネット通信プログラム、通信部16を介して外部の通信機器(PC)20とデータ通信するための外部機器通信プログラムが記憶される他に、スケジュール管理プログラムやアドレス管理プログラム、そしてテキストデータの表示部18への表示/音声データの音声出力部19bからの音声出力/画像データの表示部18への表示をそれぞれ独立に行うための各駆動プログラムである(テキスト/音声/画像)出力用プログラム12a1、各種メディアにより提供される音声/テキスト/画像などのデータを同期再生するためのメディア同期再生処理プログラム12a2など、種々のPDA制御プログラムが記憶される。
【0040】
FLASHメモリ(EEP−ROM)12Bには、前記メディア同期再生処理プログラム12a2に基づき再生処理の対象となる例えば外国語会話テキスト用の暗号化されたマルチメディアの再生用ファイル(CASファイル)12bが記憶される他に、前記スケジュール管理プログラムやアドレス管理プログラムに基づき管理されるユーザのスケジュール及び友人・知人のアドレスなどが記憶される。
【0041】
ここで、前記FLASHメモリ(EEP−ROM)12B内に記憶される暗号化マルチメディア再生用ファイル12bは、例えば外国語会話の練習を各種メディアのネットサイト30a〜30cから選択的にダウンロードしたテキスト・音声・画像の同期再生により行うためのファイルであり、所定のアルゴリズムにより圧縮・暗号化されている。
【0042】
この暗号化再生用ファイル12bは、例えばCD−ROMに記録されて配布されたり、通信ネットワーク(インターネット)N上のファイル配信サーバ30から配信配布されたりするもので、前記CD−ROMあるいはネットサーバ(30)により配布された暗号化再生用ファイル12bは、例えばユーザ自宅PCとしての通信機器(PC)20に読み込まれた後、携帯機器(PDA)10の通信部16を介してFLASHメモリ(EEP−ROM)12Bに転送格納される。
【0043】
RAM12Cには、前記暗号化された再生用ファイル12bを伸張・復号化した解読されたマルチメディア再生用ファイル(CASファイル)12cが記憶されると共に、この解読再生ファイル12cの中の画像ファイルが展開されて記憶される画像展開バッファ12eが備えられる。解読されたCASファイル12cは、再生命令の処理単位時間(12c1a)を記憶するヘッダ情報(12c1)、および後述するタイムコードファイル(12c2)、メディア内容データ(12c3)で構成される。
【0044】
このメディア内容データ(12c3)は、タイムコードファイル(12c2)のコマンドコードに対応して記述されたURL(uniform resource locator)に従って、ネットサイトA30a〜A30cから別々にダウンロードされた同期再生用の時間情報を含むテキストデータ、音声データ、画像データである。これらのメディア内容データ(12c3)であるテキストデータ、音声データ、画像データは、タイムコードファイル(12c2)の各対応するコマンドコード“URL”に従い再生が指示され、前記(テキスト/音声/画像)出力用プログラム12a1によって再生処理される。
【0045】
そして、RAM12Cには、例えば外国語会話テキストの学習内容の指定データおよびその言語(英語/独語/仏語/…)の指定データである(学習/言語)指定データ12dが記憶される。
【0046】
さらに、RAM12Cには、その他各種の処理に応じてCPU11に入出力される種々のデータを一時記憶するためワークエリアが用意される。
【0047】
図2は前記マルチメディア記憶再生システムにおける第1実施形態の各メディアのネットサイト30a〜30cにて提供されるデータ内容を示す図であり、同図(A)はサイトA30aにて用意された外国語会話練習用の字幕テキストデータを示す図、同図(B)はサイトB30bにて用意された外国語会話練習用の音声データを示す図、同図(C)はサイトC30cにて用意された外国語会話練習用の画像データを示す図である。
【0048】
図2(A)に示すように、ネットサイトA30a<http://abc.co.jp>にて用意されたテキストデータは、例えば各外国語会話練習テキストが同一のテキスト内容であり、使用言語毎に各対応する文字のテキストデータが用意されるもので、ユーザにより任意に指定される使用言語の種類は例えば英語/独語/仏語に分けられ、各言語毎のデータは1センテンス毎に異なるURLに対応付けられて格納される。なお、このテキストデータは、携帯機器10にダウンロードされた場合、前記テキスト出力用プログラム12a1によって再生表示され、再生開始からの所定速度の練習時間経過に応じてそのテキスト文字列を順次反転表示させるための時間情報(→…)を含んでいる。この文字列反転表示用の時間情報を含んだテキストデータのURLには、字幕を意味する”caption”の頭文字”c”が付加され”…ctxt”とされる。また、同URLには、指定言語に応じた頭文字e(英語),g(独語),f(仏語)が付加され、例えば会話テキスト7−1の英語版は”…ekaiwa7−1.ctext”、同7−1の独語版は”…gkaiwa7−1.ctext”とされる。
【0049】
図2(B)に示すように、ネットサイトB30b<http://def.co.jp>にて用意された音声データは、前記サイトA30aにて用意された各外国語会話練習テキストの各テキストデータに対応する読み上げ音声データであり、各音声データのURLはそのデータ形式を示す部分のみ”mp3”として異なり、例えば会話テキスト7−1の英語版音声データは”…ekaiwa7−1.mp3”、同7−1の独語版音声データは”…gkaiwa7−1.mp3”とされる。
【0050】
そして、この音声データにあっても、再生開始からの所定速度の練習時間経過に応じて前記テキストデータの反転表示に合うように、前記音声出力用プログラム12a1によって当該音声データを再生出力させるための時間情報を含んでいる。
【0051】
図2(C)に示すように、ネットサイトB30c<http://hij.co.jp>にて用意された画像データは、前記サイトA30aおよびサイトB30bにて用意された各外国語会話練習テキストの各国語会話用に共通する動画の画像データであり、例えばテキスト7−1用には女性が会話している状態を示す画像データが、テキスト7−2用には男性が会話している状態を示す画像データが用意される。そして、各画像データのURLには、その指定言語の種類を示す頭文字e(英語),g(独語),f(仏語)は付加されず、データ形式を示す部分のみ”mpeg”として異なり、例えば会話テキスト7−1の画像データは”…kaiwa7−1.mpeg”、7−2の画像データは”…kaiwa7−2.mpeg”とされる。
【0052】
そして、この画像データにあっても、再生開始からの所定速度の練習時間経過に応じて前記テキストデータの反転表示および音声データの出力に合うように、前記画像出力用プログラム12a1によって当該画像データを再生表示させるための時間情報を含んでいる。
【0053】
これらの各ネットサイト30a〜30cに用意された例えば外国語会話練習テキストのテキストデータ、音声データ、画像データは、携帯機器10でのマルチメディア再生用ファイル(CAS)12cにおけるタイムコードファイル12c2に従ったマルチメディア再生処理に伴い、当該携帯機器10にダウンロードされてメディア内容データ12c3として格納され、各種データに応じた(テキスト/音声/画像)出力用プログラム12a1に従って同期再生される。
【0054】
図3は前記携帯機器10のメモリ12に格納された第1実施形態のマルチメディア再生用ファイル12b(12c)を構成するタイムコードファイル12c2を示す図である。
【0055】
この携帯機器10の再生対象ファイルとなるマルチメディア再生用ファイル12b(12c)は、タイムコードファイル12c2とメディア内容データ12c3との組み合わせにより構成される。
【0056】
図3で示すタイムコードファイル12c2には、個々のメディアデータ毎に予め設定される一定時間間隔(例えば25ms)で各種データ同期再生のコマンド処理を行うためのタイムコードが記述配列されるもので、この各タイムコードは、命令を指示するコマンドコードと、当該コマンドに関わるメディアデータの内容(図2参照)を対応付けするためのパラメータデータ、各メディアデータの取得先であるネットサイト30a〜30cのURL、それと各サイト名A〜C、各メディアデータの種類(字幕テキスト/音声/画像)との組み合わせにより構成される。
【0057】
なお、このタイムコードファイル12c2がユーザによる言語指定前である場合、図3(B)に示すように、各メディアデータの取得先であるURLは、そのテキストデータのURLと音声データのURLにおいて、指定言語を示す記号部分が「*」で記述され、例えば会話テキスト7−1のテキストデータのURLは<http://abc.co.jp/*kaiwa7−1.ctxt>として言語未指定のURLとなる。そして、言語指定が行われた場合、図3(C)に示すように、前記指定言語の記号部分「*」が当該指定の言語に応じた記号(英語「e」、独語「g」、仏語「f」…)に変換され、例えば英語を指定言語とした場合には、前記会話テキスト7−1のテキストデータのURLは<…ekaiwa7−1.ctxt>に変換される。これにより、ユーザ指定の学習データ,指定言語である英会話テキスト7−1のテキストデータを、ネットサイトA30aから取得可能とする。
【0058】
また、このタイムコードファイル12c2に従い順次コマンド処理を行うための一定時間間隔は、図3(A)に示すように、当該タイムコードファイル12c2のヘッダ情報12c1に処理単位時間12c1aとして記述設定される。
【0059】
そして、メディア内容データ12c3としては、前記タイムコードファイル12c2に記述された各URLに対応するメディアのネットサイトA30a〜C30cからダウンロードされた、ユーザ指定の学習データで且つ指定言語の同期再生用のテキストデータ、音声データ、画像データが記憶される。
【0060】
タイムコードファイル12c2に使用されるコマンドとしては、例えばURL(URLメディアデータの再生指示),FN(処理終了),NP(無効)などの各コマンドがある。
【0061】
すなわち、この携帯機器(PDA)10のROM12Aに記憶されているメディア同期再生処理プログラム12a2を起動させて、FLASHメモリ12Bから解読されRAM12cに記憶された解読マルチメディア再生用ファイル12cが、指定の学習データに応じた、例えば図3(A)で示した外国語会話練習テキスト用のファイル内容であり、図3(B)で示したように、指定の言語「英語」に従ってURLの言語指定記号が変換「*」→「e」されると、当該タイムコードファイル12c2に記述されている各URLに対応するネットサイトA30a〜C30cから英会話テキスト7−1,7−2のテキストデータ、音声データ、画像データ(図2参照)がダウンロードされ、メモリ12内のメディア内容データ12c3として格納される。
【0062】
そして、一定時間毎のコマンド処理に伴い1番目のコマンドコード“URL”が読み込まれた場合には、対応記述されたURLアドレス「…ekaiwa7−1.ctxt」に従い前記メディア内容データ12c3として格納された英会話テキスト7−1のテキストデータが読み出され、テキスト出力用プログラム12a1に対してその表示処理が指示される。
【0063】
また、同一定時間毎のコマンド処理に伴い2番目のコマンドコード“URL”が読み込まれた場合には、対応記述されたURLアドレス「…ekaiwa7−1.mp3」に従い前記メディア内容データ12c3として格納された英会話テキスト7−1の音声データが読み出され、音声出力用プログラム12a1に対してその音声出力処理が指示される。
【0064】
さらに、同一定時間毎のコマンド処理に伴い3番目のコマンドコード“URL”が読み込まれた場合には、対応記述されたURLアドレス「…kaiwa7−1.mpeg」に従い前記メディア内容データ12c3として格納された英会話テキスト7−1の画像データが読み出され、画像出力用プログラム12a1に対してその表示処理が指示される。
【0065】
そして、前記メディア内容データ12c3から読み出されて再生処理される英会話テキストのテキストデータ、音声データ、画像データには、何れのデータにも、予め設定された時間間隔で再生開始することで、その相互に出力経過時間が合うようにした同期時間情報が予め含まれており、タイムコードファイル12c2上で予め時間経過を設定した各コマンドコード“URL”に従って(テキスト/音声/画像)出力用プログラム12a1による再生処理が開始されるので、メディア同期再生処理プログラム12a2では、CPU11によって特に同期付けのタイミング合わせ制御を行わなくとも、必然的に同期制御されて再生されることになる。
【0066】
なお、この図3で示したマルチメディア再生用ファイル12b(12c)についての詳細な再生動作は、後述にて改めて説明する。
【0067】
次に、前記構成のマルチメディア記憶再生システムの携帯機器10による第1実施形態のメディア再生機能について説明する。
【0068】
図4は前記携帯機器10の第1実施形態のメディア同期再生処理プログラム12a2に従った第1のマルチメディア再生処理を示すフローチャートである。
【0069】
例えば外国語会話の練習をテキストと音声と画像のマルチメディアの同期再生によって行う際に、入力部17aあるいは座標入力装置17bの操作によりユーザ所望の学習データ(例えば外国語会話学習)が指定されると(ステップS1)、例えばCD−ROMから自宅PCである通信機器(PC)20に取り込まれた当該指定の学習データの暗号化されたマルチメディア再生ファイル(タイムコードファイル12c2含む)12bは、携帯機器(PDA)10の通信部16を介して読み込まれFLASHメモリ12Bに格納されるか、または通信ネットワーク(インターネット)N上のサーバ30から電送制御部15を介してダウンロードされ、FLASHメモリ12Bに格納される(ステップS2)。
【0070】
この際、FLASHメモリ12Bに格納された暗号化マルチメディア再生用ファイル(CASファイル)12bは、解読復号化され、例えば図3(A)(B)で示した言語指定変換前のタイムコードファイル12c2を伴い、RAM12Cに転送されて格納される。
【0071】
そして、この外国語会話の学習データについて、練習したい言語(英語/独語/仏語/…)が選択されて指定されると(ステップS3)、当該指定の言語が判断され(ステップS4)、「英語」が指定された場合には前記RAM12Cに格納された指定の会話学習データのマルチメディア再生用ファイル(CASファイル)12cにおけるタイムコードファイル12c2の中のテキストデータおよび音声データに対応する各URL上の言語未指定記号「*」が、図3(C)に示すように、英語指定記号「e」に変換修正される(ステップS5e)。
【0072】
また、「独語」が指定された場合には前記RAM12Cに格納されたタイムコードファイル12c2の中のテキストデータおよび音声データに対応する各URL上の言語未指定記号「*」が、独語指定記号「g」に変換修正される(ステップS4→S5g)。
【0073】
さらに、「仏語」が指定された場合には前記RAM12Cに格納されたタイムコードファイル12c2の中のテキストデータおよび音声データに対応する各URL上の言語未指定記号「*」が、仏語指定記号「f」に変換修正される(ステップS5f)。
【0074】
こうして、ユーザ指定の言語(例えば「英語」)に応じて、前記指定の会話学習データのマルチメディア再生用ファイル(CASファイル)12cにおけるタイムコードファイル12c2が変換修正されると(図3(C)参照)、当該タイムコードファイル12c2上の各コマンドコード“URL”に対応付けられて記述されているHPアドレスに従い、各対応するメディアのネットサイトA30a〜C30cにアクセスされ、指定の学習データで且つ指定言語「英語」の会話学習用のテキストデータ、音声データ、および各言語共通の画像データがそれぞれダウンロードされてRAM12C内のメディア内容データ12c3として保存される(ステップS6)。
【0075】
つまり、図3(C)で示したタイムコードファイル12c2に記述されたHPアドレス<http://abc.co.jp/ekaiwa7−1.ctxt><…7−2.ctxt><…7−3.ctxt>…に従って、ネットサイトA30aから図2(A)で示した英語版の各字幕テキストデータ「Excuse me.」「May I help you?」…が順次ダウンロードされ、また、HPアドレス<http://def.co.jp/ekaiwa7−1.mp3><…7−2.mp3><…7−3.mp3>…に従って、ネットサイトB30bから図2(B)で示した英語版の各音声データ「イクスキューズ ミー」「メイ アイ ヘウプ ユー」…が順次ダウンロードされ、さらに、HPアドレス<http://hij.co.jp/kaiwa7−1.mpeg><…7−2.mpeg><…7−3.mpeg>…に従って、ネットサイトC30cから図2(C)で示した各言語共通の画像データ「女性動画像」「男性動画像」…が順次ダウンロードされる。
【0076】
すると、このRAM12Cに格納されたタイムコードファイル12c2およびメディア内容データ12c3からなる解読済のマルチメディア再生用ファイル(CASファイル)12cのヘッダ情報12c1に記述された処理単位時間12c1a(例えば25ms/50ms/…)が、CPU11による当該マルチメディア再生用ファイル(CASファイル)12cの一定時間間隔の読み出し時間として設定される(ステップS7)。
【0077】
そして、RAM12Cに格納されたメディア再生用ファイル(CASファイル)12cの先頭に読み出しポインタがセットされ(ステップS8)、当該再生用ファイル12cの再生処理タイミングを計時するためのタイマがスタートされる(ステップS9)。
【0078】
ここで、先読み処理が当該再生処理に並行して起動される(ステップS10)。
【0079】
この先読み処理では、再生用ファイル12cのタイムコードファイル12c2(図3(C)参照)に従った現在の読み出しポインタの位置のコマンド処理よりも後に画像データを表示させるためのコマンドがある場合は、予め当該画像データ表示用のコマンドのパラメータデータにより指示される画像データを先読みして画像展開バッファ12eに展開しておくことで、前記読み出しポインタが実際に後の画像表示用のコマンドの位置まで移動した場合に、処理に遅れなく指定の画像ファイルを直ちに出力表示できるようにする。
【0080】
前記ステップS9において、処理タイマがスタートされると、前記ステップS7にて設定された今回の外国語会話学習用のマルチメディア再生対象ファイル12cに応じた処理単位時間毎に、前記ステップS8にて設定された読み出しポインタの位置の当該メディア再生用ファイル12cを構成するタイムコードファイル12c2(図3参照)のコマンドコードおよびそのパラメータデータが読み出される(ステップS11)。
【0081】
そして、前記再生用ファイル12cにおけるタイムコードファイル12c2(図3参照)から読み出されたコマンドコードが、“FN”か否か判断され(ステップS12)、“FN”と判断された場合には、その時点で当該マルチメディア再生処理の停止処理が指示実行される(ステップS12→S13)。
【0082】
一方、前記再生用ファイル12cにおけるタイムコードファイル12c2(図3参照)から読み出されたコマンドコードが、“FN”ではないと判断された場合には、当該コマンドコードが、“URL”か否か判断される(ステップS12→S14)。そして、“URL”と判断された場合には、該当ポインタ位置のURLに対応するHPアドレスに従いメディア内容データ12c3として保存されているテキストデータまたは音声データまたは画像データが読み出され、そのデータの種類に応じた(テキスト/音声/画像)出力用プログラム12a2によって再生開始される(ステップS14→S15A)。
【0083】
つまり、コマンドコードURLの対応HPアドレスに従い、メディア内容データ12c3からテキストデータ(図2(A)参照)が読み出された場合には、テキスト出力用プログラム12a2によって再生表示が開始され、また、音声データ(図2(B)参照)が読み出された場合には、音声出力用プログラム12a2によって再生出力が開始され、また、画像データ(図2(C)参照)が読み出された場合には、音声出力用プログラム12a2によって再生出力が開始される。
【0084】
すると、再び処理タイマによる計時動作が開始され、当該タイマによる計時時間が次の処理単位時間12c1aに到達したか否か判断される(ステップS17)。
【0085】
一方、前記ステップS14において、前記再生用ファイル12cにおけるタイムコードファイル12c2(図3参照)から読み出されたコマンドコードが、“URL”ではないと判断された場合には、他のコマンド処理へ移行される(ステップS16)。この他のコマンド処理とは、他のコマンドコードのそれぞれに応じた指令の処理である。
【0086】
そして、ステップS17において、前記タイマによる計時時間が次の処理単位時間12c1aに到達したと判断された場合には、RAM12Cに格納されたマルチメディア再生用ファイル(CASファイル)12cに対する読み出しポインタが次の位置に更新セットされ(ステップS17→S18)、前記ステップS11における当該読み出しポインタの位置のタイムコードファイル12c2(図3参照)のコマンドコードおよびそのパラメータデータ読み出しからの処理が繰り返される(ステップS18→S11〜S17)。
【0087】
すなわち、携帯機器10のCPU11は、ROM12Aに記憶されたメディア同期再生処理プログラム12a2に従って、マルチメディア再生用ファイル12b(12c)に予め設定記述されているコマンド処理の単位時間毎に、タイムコードファイル12c2(図3参照)に配列されたコマンドコードおよびそのパラメータデータを読み出し、そのコマンドに対応する処理を指示するだけで、当該タイムコードファイル12c2に記述された各コマンドに応じた各種メディアデータの同期再生処理が実行される。
【0088】
ここで、図3(C)で示す英会話学習用のマルチメディア再生ファイル12cに基づいた、前記メディア同期再生処理プログラム12a1(図4参照)によるテキスト・音声・画像データの同期再生出力動作について詳細に説明する。
【0089】
図5は前記図3(C)における英会話学習用のマルチメディア再生ファイル12cに基づいた英会話テキスト・音声・画像データの同期再生状態を示す図である。
【0090】
この英会話学習用のマルチメディア再生ファイル(12c)は、そのヘッダ情報(12c1)に記述設定された処理単位時間(25ms)(図3(A))毎にコマンド処理が実行されるもので、まず、タイムコードファイル12c2(図3参照)の第1コマンドコード“URL”およびそのパラメータデータ“00”が読み出されると、当該第1コマンドコードに対応記述されたHPアドレス<http://abc.co.jp/ekaiwa7−1.ctxt>に従い、メディア内容データ12c3としてダウンロード保存されている英会話テキスト7−1の字幕テキストデータ「Excuse me.」(図2(A)参照)が読み出され、テキスト出力用プログラム12a1に対して、図5(A)〜図5(C)に示すように、再生表示処理が指示される。
【0091】
これにより、英会話テキスト7−1の字幕テキストデータ「Excuse me.」は、表示部18において各文字毎に下線強調表示されながらその再生表示が開始される。
【0092】
第2コマンドコード“URL”およびそのパラメータデータ“02”が読み出されると、当該第2コマンドコードに対応記述されたHPアドレス<http://def.co.jp/ekaiwa7−1.mp3>に従い、メディア内容データ12c3としてダウンロード保存されている英会話テキスト7−1の音声データ「イクスキューズ ミー」(図2(B)参照)が読み出され、音声出力用プログラム12a1に対して、同図5(A)〜図5(C)に示すように、再生出力処理が指示される。
【0093】
これにより、英会話テキスト7−1の音声データ「イクスキューズ ミー」は、音声出力部19bにおいて順次再生出力が開始される。
【0094】
第3コマンドコード“URL”およびそのパラメータデータ“02”が読み出されると、当該第3コマンドコードに対応記述されたHPアドレス<http://hij.co.jp/kaiwa7−1.mpeg>に従い、メディア内容データ12c3としてダウンロード保存されている会話テキスト7−1の言語共通画像データ「女性動画像」(図2(C)参照)が読み出され、画像出力用プログラム12a1に対して、同図5(A)〜図5(C)に示すように、再生表示処理が指示される。
【0095】
これにより、会話テキスト7−1の言語共通画像データ「女性動画像」は、表
示部18において順次切り替えられながら再生表示が開始される。
【0096】
さらに、タイムコードファイル12c2(図3参照)の第5コマンドコード“URL”およびそのパラメータデータ“02”が読み出されると、当該第5コマンドコードに対応記述されたHPアドレス<http://abc.co.jp/ekaiwa7−2.ctxt>に従い、メディア内容データ12c3としてダウンロード保存されている英会話テキスト7−2の字幕テキストデータ「May I help you?」(図2(A)参照)が読み出され、テキスト出力用プログラム12a1に対して、図5(D)〜図5(F)に示すように、再生表示処理が指示される。
【0097】
これにより、英会話テキスト7−2の字幕テキストデータ「May I help you?」は、表示部18において各文字毎に下線強調表示されながらその再生表示が開始される。
【0098】
第6コマンドコード“URL”およびそのパラメータデータ“00”が読み出されると、当該第6コマンドコードに対応記述されたHPアドレス<http://def.co.jp/ekaiwa7−2.mp3>に従い、メディア内容データ12c3としてダウンロード保存されている英会話テキスト7−2の音声データ「メイ アイ ヘウプ ユー」(図2(B)参照)が読み出され、音声出力用プログラム12a1に対して、同図5(D)〜図5(F)に示すように、再生出力処理が指示される。
【0099】
これにより、英会話テキスト7−2の音声データ「メイ アイ ヘウプ ユー」は、音声出力部19bにおいて順次再生出力が開始される。
【0100】
第7コマンドコード“URL”およびそのパラメータデータ“00”が読み出されると、当該第7コマンドコードに対応記述されたHPアドレス<http://hij.co.jp/kaiwa7−2.mpeg>に従い、メディア内容データ12c3としてダウンロード保存されている会話テキスト7−2の言語共通画像データ「男性動画像」(図2(C)参照)が読み出され、画像出力用プログラム12a1に対して、同図5(D)〜図5(F)に示すように、再生表示処理が指示される。
【0101】
これにより、会話テキスト7−2の言語共通画像データ「男性動画像」は、表示部18において順次切り替えられながら再生表示が開始される。
【0102】
この場合、前記字幕テキストデータ「Excuse me.」「May I help you?」は、前記テキスト出力用プログラム12a1により再生表示されるのに伴い、その再生開始からの所定速度の時間経過に応じて各テキスト文字列を順次反転(下線強調)表示させるための時間情報(→…)を含んでおり、また、前記音声データ「イクスキューズ ミー」「メイ アイ ヘウプ ユー」にあっても、前記音声出力用プログラム12a1により再生出力されるのに伴い、その再生開始からの所定速度の時間経過に応じて前記字幕テキストデータの反転表示に合うように当該音声データを再生出力させるための時間情報を含んでおり、さらに、言語共通画像データ「女性動画像」「男性動画像」にあっても、前記画像出力用プログラム12a1により再生表示されるのに伴い、その再生開始からの所定速度の時間経過に応じて前記字幕テキストデータの反転表示および音声データの出力に合うように当該画像データを切り替え再生表示させるための時間情報を含んでいるので、マルチメディア再生用ファイル12b(12c)に予め設定記述されているコマンド処理の基準単位時間(25ms/50ms)毎に、タイムコードファイル12c2に配列されたコマンドコードおよびそのパラメータデータを読み出し、そのURLコマンドに対応して読み出される各メディアデータの再生処理を指示するだけで、当該タイムコードファイル12c2に記述されたURLアドレスに従いダウンロードした会話学習用のテキスト・音声・画像データの同期再生処理を実行できる。
【0103】
従って、CPUのメイン処理の負担が軽くなり、例えば携帯機器(PDA)10という処理能力の比較的小さいCPUでも容易にテキスト・画像・音声を含む複数種類のネットメディアデータの同期再生処理が行えるので、高性能なCPUを用いない簡単な再生装置でも、これを実現できるようになる。
【0104】
図6は前記図3(B)における外国語会話学習用のマルチメディア再生ファイル12cに対して独語を言語指定した場合の独語会話テキスト・音声・画像データの同期再生状態を示す図である。
【0105】
外国語会話学習用テキストの指定言語として独語を指定した場合には、RAM12Cに格納されたタイムコードファイル12c2の中のテキストデータおよび音声データに対応する各URL上の言語未指定記号「*」が、独語指定記号「g」に変換修正され(ステップS4→S5g)、この独語指定修正後のHPアドレス<http://abc.co.jp/gkaiwa7−1.ctxt><…7−2.ctxt><…7−3.ctxt>…に従って、ネットサイトA30aから図2(A)で示した独語版の各字幕テキストデータ「Entschuldigung.」「Was kann ich…Sie tun?」…が順次ダウンロードされ、また、HPアドレス<http://def.co.jp/gkaiwa7−1.mp3><…7−2.mp3><…7−3.mp3>…に従って、ネットサイトB30bから図2(B)で示した独語版の各音声データ「エントシュルディグング」「… カン イッヒ フュア ズィ…」…が順次ダウンロードされ、さらに、HPアドレス<http://hij.co.jp/kaiwa7−1.mpeg><…7−2.mpeg><…7−3.mpeg>…に従って、ネットサイトC30cから図2(C)で示した各言語共通の画像データ「女性動画像」「男性動画像」…が順次ダウンロードされる(ステップS6)。
【0106】
よって、独語指定修正後のタイムコードファイル12c2の各コマンドコードの読み出しに従い、当該コマンドコード“URL”に対応付けられたHPアドレスに対応するメディアデータ(独語版字幕テキストデータ/独語版音声データ/共通動画像データ)が読み出されてその再生が指示されることで、前記図5を参照して説明した英語版でのマルチメディア同期再生処理と全く同様に、独語での会話学習用のテキスト・音声・画像データの同期再生処理を実行できる。
【0107】
なお、この第1実施形態において、前記図4を参照して説明した第1のマルチメディア再生処理では、指定言語に応じてタイムコードファイル12c2に記述されている各URL上の言語未指定記号「*」が、言語指定記号「e」「g」…に変換修正されると(ステップS3〜S5)、直ちにそのHPアドレスに従ったネットサイトA30a〜C30cへのアクセスを行い、同期再生すべき各メディアデータ(指定言語版字幕テキストデータ/指定言語版音声データ/共通動画像データ)をダウンロードしてRAM12C内にメディア内容データ12c3として保存しておき(ステップS6)、タイムコードファイル12c2に従ったコマンドコード“URL”の読み出しに伴いそのHPアドレスに対応付けられた各メディアデータを前記メディア内容データ12c3から順次読み出して再生指示する手順(ステップS14→S15A)としたが、次の図7を参照して説明する第2のマルチメディア再生処理にあるように、同期再生すべき各メディアデータ(指定言語版字幕テキストデータ/指定言語版音声データ/共通動画像データ)をタイムコードファイル12c2に従ったコマンドコード“URL”の読み出しに伴い、その都度HPアドレスに従ったネットサイトA30a〜C30cへのアクセスを行い順次ダウンロードして再生指示する手順としてもよい。
【0108】
図7は前記携帯機器10の第1実施形態のメディア同期再生処理プログラム12a2に従った第2のマルチメディア再生処理を示すフローチャートである。
【0109】
この第1実施形態の第2のマルチメディア再生処理において、前記図4における第1のマルチメディア再生処理(ステップS1〜S18)と同一の処理ステップについては、同一のステップ符号を付してその説明を省略する。
【0110】
すなわち、この第2のマルチメディア再生処理では、タイムコードファイル12c2に従ったコマンドコード“URL”の読み出しに伴い、その都度HPアドレスに従ったネットサイトA30a〜C30cへのアクセスを行い、同期再生すべき各メディアデータ(指定言語版字幕テキストデータ/指定言語版音声データ/共通動画像データ)を順次ダウンロードしながら再生指示する手順(ステップS14→S15B)とする。
【0111】
すなわち、ステップS14において、再生用ファイル12cにおけるタイムコードファイル12c2(図3参照)から読み出されたコマンドコードが“URL”と判断された場合には、該当ポインタ位置のURLに対応するHPアドレスに従い各対応するメディアのネットサイトA30a〜C30cにアクセスされ、指定の学習データで且つ指定言語の会話学習用のテキストデータ、音声データ、および各言語共通の画像データがそれぞれダウンロードされ、そのデータの種類に応じた(テキスト/音声/画像)出力用プログラム12a2によって再生開始される(ステップS14→S15B)。
【0112】
つまり、コマンドコードURLの対応HPアドレスに従い、ネットサイトA30aからテキストデータ(図2(A)参照)をダウンロードした場合に、テキスト出力用プログラム12a2によって再生表示を開始し、また、音声データ(図2(B)参照)をダウンロードした場合に、音声出力用プログラム12a2によって再生出力を開始し、また、画像データ(図2(C)参照)をダウンロードした場合に、音声出力用プログラム12a2によって再生出力を開始する。
【0113】
これによれば、同期再生すべき各メディアデータ(指定言語版字幕テキストデータ/指定言語版音声データ/共通動画像データ)の全てを予めダウンロードしてRAM12C内のメディア内容データ12c3として保存しておく必要がなくなるので、例えば携帯機器10といった少ない容量のメモリ領域を、大きく・長い間占有せずとも、マルチメディアデータの同期再生を行うことができる。
【0114】
また、この第1実施形態において、前記図4、図7を参照して説明した第1、第2のマルチメディア再生処理では、何れの再生処理の場合でも、ユーザ指定された学習データに対応するマルチメディア再生用ファイル12b(12c[12c1,12c2])を、CD−ROMから通信機器(PC)20→通信部16を介してRAM12Cに読み込んだり、サーバ30から通信ネットワークN→電送制御部15を介してRAM12Cにダウンロードしたりして、一旦携帯機器10内に取り込んだ後に、ユーザ指定された言語に応じて、当該マルチメディア再生用ファイル12cを構成するタイムコードファイル12c2中の各URL上の言語未指定記号「*」を言語指定記号「e」「g」…に変換修正する構成としたが、次の図8を参照して説明する携帯機器10側でのメディア再生処理とサーバ30側でのサーバ処理とにあるように構成してもよい。
【0115】
図8は前記第1実施形態のマルチメディア記憶再生システムにおける他の実施形態に伴う携帯機器10側でのメディア再生処理とサーバ30側でのサーバ処理とを示すフローチャートである。
【0116】
すなわち、携帯機器10において、学習するデータがユーザにより指定されると、この学習データの指定信号がサーバ30へ送信される(ステップS1′)。
【0117】
サーバ30において、前記携帯機器10から送信された学習データの指定信号が受信されると(ステップB1)、指定の学習データ(例えば外国語会話学習テキスト)のタイムコードファイル12c2を有するマルチメディア再生用ファイル12b(12c)が読み出される(ステップB2)。
【0118】
また、携帯機器10において、ユーザ所望の言語が指定されると、この言語の指定信号がサーバ10へ送信される(ステップS2′)。
【0119】
サーバ30において、前記携帯機器10から送信された言語の指定信号が受信されると(ステップB3)、当該指定の言語が判断され(ステップB4)、「英語」が指定された場合には前記ステップB2において読み出されたユーザ指定の会話学習データのマルチメディア再生用ファイル(CASファイル)12cにおけるタイムコードファイル12c2の中のテキストデータおよび音声データに対応する各URL上の言語未指定記号「*」が、図3(C)に示すように、英語指定記号「e」に変換修正される(ステップB5e)。
【0120】
また、「独語」が指定された場合には前記サーバ30にて読み出されたタイムコードファイル12c2の中のテキストデータおよび音声データに対応する各URL上の言語未指定記号「*」が、独語指定記号「g」に変換修正される(ステップB4→B5g)。
【0121】
さらに、「仏語」が指定された場合には前記サーバ30にて読み出されたタイムコードファイル12c2の中のテキストデータおよび音声データに対応する各URL上の言語未指定記号「*」が、仏語指定記号「f」に変換修正される(ステップB4→B5f)。
【0122】
こうして、サーバ30側において、ユーザ指定の言語(例えば「英語」)に応じて、指定の会話学習データのマルチメディア再生用ファイル(CASファイル)12cにおけるタイムコードファイル12c2が変換修正されると(図3(C)参照)、当該タイムコードファイル12c2を有するマルチメディア再生用ファイル(CASファイル)12cが前記学習データおよび言語指定元の携帯機器10へ送信される(ステップB6)。
【0123】
すると、携帯機器10では、ユーザ指定に応じた学習データで且つ指定の言語に応じた例えば英会話学習用のタイムコードファイル12c2を有するマルチメディア再生用ファイル(CASファイル)12cが前記サーバ30から受信され、メモリ12内に格納される(ステップS3′)。
【0124】
なお、この携帯機器10でのメディア再生処理におけるこれ以後の処理については、前記図4における第1のメディア再生処理では、ステップS6以降の処理に続き同様であり、また図7における第2のメディア再生処理では、ステップS7以降の処理に続き同様であるため、その説明は省略する。
【0125】
これによれば、携帯機器10では、ユーザ所望の学習データと言語の指定を行うだけで、当該指定の学習データおよび指定の言語に応じたタイムコードファイル12c2を有するマルチメディア再生用ファイル(CASファイル)12cはサーバ30側にて生成されて受信取得されるので、携帯機器10でのメディア再生処理に伴うCPU11の負担をより軽減することができる。
【0126】
したがって、前記構成のマルチメディア記憶再生システムの携帯機器10による第1実施形態のメディア再生機能によれば、マルチメディア再生用ファイル12b(12c)のタイムコードファイル12c2にて予め設定された処理単位時間12c1a毎に読み出されるコマンドコード“URL”に対応付けて、同期再生すべき予め再生速度の時間情報を有する各メディアデータ(字幕テキストデータ/音声データ/画像データ)の格納先ネットサイトA30a/B30b/C30cを示すURL(HPアドレス)を記述し、前記設定処理単位時間12c1a毎のコマンドコード“URL”に対応してそのHPアドレスに従いダウンロードされた各メディアデータ(字幕テキストデータ/音声データ/画像データ)それぞれの再生指示を行うだけで、携帯機器10には元々記憶していないテキスト・音声・画像データの再生処理が必然的に同期実行される。よって、CPU11の負荷を非常に小さくして、高性能なCPUを用いない簡単な再生装置でもテキスト/音声/画像の同期再生を実現することができる。
【0127】
また、前記タイムコードファイル12c2に記述される同期再生すべき時間情報を有する各メディアデータ(字幕テキストデータ/音声データ/画像データ)の格納先ネットサイトA30a/B30b/C30cを示すURL(HPアドレス)には、指定の言語に応じて変換修正される記号を付加設定し、この言語指定記号に応じて異なるHPアドレスに従って、指定の言語に対応する字幕テキストデータとその音声データがダウンロードされるので、各国語別に用意されたテキストデータや音声データでも、1つのタイムコードファイル12c2に基づいて容易に所望の言語のテキスト,音声データを選択的にダウンロードして同期再生することができる。
【0128】
なお、前記マルチメディア記憶再生システムの第1実施形態では、タイムコードファイル12c2の各コマンドコード“URL”に対応して記述したHPアドレスに従いネットサイトA30aからダウンロードされて再生処理される字幕テキストデータは、当該テキストデータ自体にその再生処理に伴い各文字を順次強調表示させるための時間情報を有するものとし、音声データや画像データの再生処理に必然的に同期表示させる構成としたが、次の第2実施形態において説明するように、タイムコードファイル12c2に記述して設定処理単位時間12c1a毎に実行されるコマンドコード“HL”(ハイライト表示)に従い、同期再生すべきテキストデータに対する各文字毎の強調表示を指示する構成としてもよい。
【0129】
(第2実施形態)
図9は前記マルチメディア記憶再生システムにおける第2実施形態の各メディアのネットサイト30a〜30cにて提供されるデータ内容を示す図であり、同図(A)はサイトA30aにて用意された外国語会話練習用のテキストデータを示す図、同図(B)はサイトB30bにて用意された外国語会話練習用の音声データを示す図、同図(C)はサイトC30cにて用意された外国語会話練習用の画像データを示す図である。
【0130】
図9にて示す第2実施形態の各メディアのネットサイト30a〜30cにて提供されるデータ内容おいて、前記図2において示した第1実施形態での各メディアデータと同一のデータ内容である音声データ(図9(B)参照)および画像データ(図9(C)参照)についてはその説明を省略する。
【0131】
すなわち、図9(A)に示すように、この第2実施形態のネットサイトA30a<http://abc.co.jp>にて用意されたテキストデータは、使用言語毎に各対応する文字のテキストデータが用意され、各言語毎のデータは1センテンス毎に異なるURLに対応付けられて格納される点で、前記第1実施形態と同様であるが、テキスト文字列を順次反転表示させるための時間情報(→…)を含んでいない点で異なる。
【0132】
従って、この第2実施形態のテキストデータのURLには、字幕を意味する”caption”の頭文字”c”は付加されず、例えば会話テキスト7−1の英語版は”…ekaiwa7−1.text”、同7−1の独語版は”…gkaiwa7−1.text”とされる。
【0133】
図10は前記携帯機器10のメモリ12に格納された第2実施形態のマルチメディア再生用ファイル12b(12c)を構成するタイムコードファイル12c2を示す図である。
【0134】
この第2実施形態のタイムコードファイル12c2には、まず、前記第1実施形態と同様に、個々のメディアデータ毎に予め設定される一定時間間隔(例えば25ms)で各種データ同期再生のコマンド処理を行うためのタイムコードが記述配列されるもので、この各タイムコードは、命令を指示するコマンドコードと、当該コマンドに関わるメディアデータの内容(図9参照)を対応付けするためのパラメータデータ、各メディアデータの取得先であるネットサイト30a〜30cのURL、それと各サイト名A〜C、各メディアデータの種類(テキスト/音声/画像)との組み合わせにより構成される。
【0135】
そして、命令を指示するコマンドコードとしては、対応付けられたネットサイト30a〜30cのURLに従い読み出されるテキストデータ,音声データ,画像データの再生を指示するためのコマンドコード“URL”を主体として、例えばテキスト1センテンス分相当のテキスト,音声,画像の再生指示毎に当該テキストデータの各文字の音声に合わせた強調表示を指示するためのコマンドコード“HL”がその強調表示すべき文字数をパラメータデータとして対応付けて記述される。
【0136】
このコマンドコード“HL”に従ったテキストデータの各文字毎の強調表示は、そのパラメータデータとして記述する強調表示文字数が使用言語に応じて異なるため、当該タイムコードファイル12c2自体が使用言語に応じて専用のものとなり、同一内容の外国語会話学習テキストでも、英語版タイムコードファイル、独語版タイムコードファイル、仏語版タイムコードファイルなどとしてCD−ROMやサーバ30に用意される。
【0137】
すなわち、この携帯機器(PDA)10のROM12Aに記憶されているメディア同期再生処理プログラム12a2を起動させて、学習データおよび例えば「英語」を指定すると、当該指定の学習データ、指定の言語「英語」に応じた英語版タイムコードファイル12c2(図10参照)を有するマルチメディア再生用ファイル12b(12c)がCD−ROMやサーバ30から本携帯機器10のメモリ12に取り込まれ、当該タイムコードファイル12c2に記述されている各URLに対応するネットサイトA30a〜C30cから英会話テキスト7−1,7−2のテキストデータ、音声データ、画像データ(図9参照)がダウンロードされ、メモリ12内のメディア内容データ12c3として格納される。
【0138】
そして、一定時間毎のコマンド処理に伴い1番目のコマンドコード“URL”が読み込まれた場合には、対応記述されたURLアドレス「…ekaiwa7−1.txt」に従い前記メディア内容データ12c3として格納された英会話テキスト7−1のテキストデータが読み出され、テキスト出力用プログラム12a1に対してその表示処理が指示される。
【0139】
また、同一定時間毎のコマンド処理に伴い2番目のコマンドコード“URL”が読み込まれた場合には、対応記述されたURLアドレス「…ekaiwa7−1.mp3」に従い前記メディア内容データ12c3として格納された英会話テキスト7−1の音声データが読み出され、音声出力用プログラム12a1に対してその音声出力処理が指示される。
【0140】
さらに、同一定時間毎のコマンド処理に伴い3番目のコマンドコード“URL”が読み込まれた場合には、対応記述されたURLアドレス「…kaiwa7−1.mpeg」に従い前記メディア内容データ12c3として格納された英会話テキスト7−1の画像データが読み出され、画像出力用プログラム12a1に対してその表示処理が指示される。
【0141】
そして、5番目,41番目,59番目に記述されたコマンドコード“HL”が読み込まれた場合には、このパラメータデータ“02”“07”“10”によって示される文字数分だけ、前記1番目のコマンドコード“URL”に従い表示中の英会話テキスト7−1の各表示文字が順次強調表示される。
【0142】
また、これと共に再生処理される英会話テキストの音声データ、画像データには、何れのデータにも、予め設定された時間間隔で再生開始することで、その相互に出力経過時間が合うようにした同期時間情報が予め含まれており、タイムコードファイル12c2上で予め時間経過を設定した各コマンドコード“URL”に従って(テキスト/音声/画像)出力用プログラム12a1による再生処理が開始されるので、メディア同期再生処理プログラム12a2では、CPU11によって特に同期付けのタイミング合わせ制御を行わなくとも、必然的に同期制御されて再生されることになる。
【0143】
なお、この図10で示したマルチメディア再生用ファイル12b(12c)についての詳細な再生動作は、後述にて改めて説明する。
【0144】
次に、前記構成のマルチメディア記憶再生システムの携帯機器10による第2実施形態のメディア再生機能について説明する。
【0145】
図11は前記携帯機器10の第2実施形態のメディア同期再生処理プログラム12a2に従った第1のマルチメディア再生処理を示すフローチャートである。
【0146】
例えば外国語会話の練習をテキストと音声と画像のマルチメディアの同期再生によって行う際に、入力部17aあるいは座標入力装置17bの操作によりユーザ所望の学習データ(例えば外国語会話学習)が指定されると共に(ステップA1)、この外国語会話の学習データについて、練習したい言語(英語/独語/仏語/…)が選択されて指定されると(ステップA2)、例えばCD−ROMから自宅PCである通信機器(PC)20に取り込まれた当該指定の学習データに応じた指定言語版の暗号化マルチメディア再生ファイル(タイムコードファイル12c2含む)12bが、携帯機器(PDA)10の通信部16を介して読み込まれFLASHメモリ12Bに格納されるか、または通信ネットワーク(インターネット)N上のサーバ30から電送制御部15を介してダウンロードされ、FLASHメモリ12Bに格納される(ステップA3)。
【0147】
この際、FLASHメモリ12Bに格納された暗号化マルチメディア再生用ファイル(CASファイル)12bは、解読復号化され、例えば図10で示した指定言語版タイムコードファイル12c2を伴い、RAM12Cに転送されて格納される。
【0148】
すると、ユーザ指定の言語(例えば「英語」)に応じた英語版タイムコードファイル12c2上の各コマンドコード“URL”に対応付けられて記述されているHPアドレスに従い、各対応するメディアのネットサイトA30a〜C30cにアクセスされ、指定の学習データで且つ指定言語「英語」の会話学習用のテキストデータ、音声データ、および各言語共通の画像データがそれぞれダウンロードされてRAM12C内のメディア内容データ12c3として保存される(ステップA4)。
【0149】
つまり、図10で示した英語版タイムコードファイル12c2に記述されたHPアドレス<http://abc.co.jp/ekaiwa7−1.txt><…7−2.txt><…7−3.txt>…に従って、ネットサイトA30aから図9(A)で示した英語版の各テキストデータ「Excuse me.」「May I help you?」…が順次ダウンロードされ、また、HPアドレス<http://def.co.jp/ekaiwa7−1.mp3><…7−2.mp3><…7−3.mp3>…に従って、ネットサイトB30bから図9(B)で示した英語版の各音声データ「イクスキューズ ミー」「メイ アイ ヘウプ ユー」…が順次ダウンロードされ、さらに、HPアドレス<http://hij.co.jp/kaiwa7−1.mpeg><…7−2.mpeg><…7−3.mpeg>…に従って、ネットサイトC30cから図9(C)で示した各言語共通の画像データ「女性動画像」「男性動画像」…が順次ダウンロードされる。
【0150】
すると、このRAM12Cに格納された英語版タイムコードファイル12c2およびメディア内容データ12c3からなる解読済のマルチメディア再生用ファイル(CASファイル)12cのヘッダ情報12c1に記述された処理単位時間12c1a(例えば25ms/50ms/…)が、CPU11による当該マルチメディア再生用ファイル(CASファイル)12cの一定時間間隔の読み出し時間として設定される(ステップA5)。
【0151】
そして、RAM12Cに格納されたメディア再生用ファイル(CASファイル)12cの先頭に読み出しポインタがセットされ(ステップA6)、当該再生用ファイル12cの再生処理タイミングを計時するためのタイマがスタートされる(ステップA7)。
【0152】
ここで、先読み処理が当該再生処理に並行して起動される(ステップA8)。
【0153】
前記ステップA7において、処理タイマがスタートされると、前記ステップA5にて設定された今回の英会話学習用のマルチメディア再生対象ファイル12cに応じた処理単位時間毎に、前記ステップA6にて設定された読み出しポインタの位置の当該メディア再生用ファイル12cを構成する英語版タイムコードファイル12c2(図10参照)のコマンドコードおよびそのパラメータデータが読み出される(ステップA9)。
【0154】
そして、前記再生用ファイル12cにおける英語版タイムコードファイル12c2(図10参照)から読み出されたコマンドコードが、“FN”か否か判断され(ステップA10)、“FN”と判断された場合には、その時点で当該マルチメディア再生処理の停止処理が指示実行される(ステップA10→A11)。
【0155】
一方、前記再生用ファイル12cにおけるタイムコードファイル12c2(図10参照)から読み出されたコマンドコードが、“FN”ではないと判断された場合には、当該コマンドコードが、“URL”か否か判断される(ステップA10→A12)。そして、“URL”と判断された場合には、該当ポインタ位置のURLに対応するHPアドレスに従いメディア内容データ12c3として保存されているテキストデータまたは音声データまたは画像データが読み出され、そのデータの種類に応じた(テキスト/音声/画像)出力用プログラム12a2によって再生開始される(ステップA12→A13A)。
【0156】
すると、再び処理タイマによる計時動作が開始され、当該タイマによる計時時間が次の処理単位時間12c1aに到達したか否か判断される(ステップA17)。
【0157】
一方、前記ステップA12において、前記再生用ファイル12cにおける英語版タイムコードファイル12c2(図10参照)から読み出されたコマンドコードが、“URL”ではないと判断された場合には、当該コマンドコードが、“HL”か否か判断される(ステップA12→A14)。そして、“HL”と判断された場合には、そのパラメータデータによって示される文字数の位置まで、前記“URL”コマンドに応じて再生表示されているテキストデータの各文字が反転により強調表示される(ステップA14→A15)。
【0158】
また、前記ステップA14において、前記英語版タイムコードファイル12c2(図10参照)から読み出されたコマンドコードが、“HL”ではないと判断された場合には、他のコマンド処理へ移行される(ステップA16)。この他のコマンド処理とは、他のコマンドコードのそれぞれに応じた指令の処理である。
【0159】
そして、ステップA17において、前記タイマによる計時時間が次の処理単位時間12c1aに到達したと判断された場合には、RAM12Cに格納されたマルチメディア再生用ファイル(CASファイル)12cに対する読み出しポインタが次の位置に更新セットされ(ステップA17→A18)、前記ステップA9における当該読み出しポインタの位置のタイムコードファイル12c2(図10参照)のコマンドコードおよびそのパラメータデータ読み出しからの処理が繰り返される(ステップA18→A9〜A17)。
【0160】
すなわち、携帯機器10のCPU11は、ROM12Aに記憶されたメディア同期再生処理プログラム12a2に従って、マルチメディア再生用ファイル12b(12c)に予め設定記述されているコマンド処理の単位時間毎に、タイムコードファイル12c2(図10参照)に配列されたコマンドコードおよびそのパラメータデータを読み出し、そのコマンドに対応する処理を指示するだけで、当該タイムコードファイル12c2に記述された各コマンドに応じた各種メディアデータの同期再生処理が実行される。
【0161】
ここで、図10で示す英語版会話学習用のマルチメディア再生ファイル12cに基づいた、前記メディア同期再生処理プログラム12a1(図11参照)によるテキスト・音声・画像データの同期再生出力動作について、前記図5で示した英会話テキスト・音声・画像データの同期再生状態を参照しながら詳細に説明する。
【0162】
この英語版会話学習用のマルチメディア再生ファイル(12c)は、そのヘッダ情報(12c1)に記述設定された処理単位時間(25ms)毎にコマンド処理が実行されるもので、まず、タイムコードファイル12c2(図10参照)の第1コマンドコード“URL”およびそのパラメータデータ“00”が読み出されると、当該第1コマンドコードに対応記述されたHPアドレス<http://abc.co.jp/ekaiwa7−1.txt>に従い、メディア内容データ12c3としてダウンロード保存されている英会話テキスト7−1のテキストデータ「Excuse me.」(図9(A)参照)が読み出され、テキスト出力用プログラム12a1に対して、図5(A)〜図5(C)に示すように、再生表示処理が指示される。
【0163】
この時点で、英会話テキスト7−1のテキストデータ「Excuse me.」は、表示部18において単にその全体文字列が再生表示される。
【0164】
第2コマンドコード“URL”およびそのパラメータデータ“02”が読み出されると、当該第2コマンドコードに対応記述されたHPアドレス<http://def.co.jp/ekaiwa7−1.mp3>に従い、メディア内容データ12c3としてダウンロード保存されている英会話テキスト7−1の音声データ「イクスキューズ ミー」(図9(B)参照)が読み出され、音声出力用プログラム12a1に対して、同図5(A)〜図5(C)に示すように、再生出力処理が指示される。
【0165】
これにより、英会話テキスト7−1の音声データ「イクスキューズ ミー」は、音声出力部19bにおいて順次再生出力が開始される。
【0166】
第3コマンドコード“URL”およびそのパラメータデータ“02”が読み出されると、当該第3コマンドコードに対応記述されたHPアドレス<http://hij.co.jp/kaiwa7−1.mpeg>に従い、メディア内容データ12c3としてダウンロード保存されている会話テキスト7−1の言語共通画像データ「女性動画像」(図9(C)参照)が読み出され、画像出力用プログラム12a1に対して、同図5(A)〜図5(C)に示すように、再生表示処理が指示される。
【0167】
これにより、会話テキスト7−1の言語共通画像データ「女性動画像」は、表
示部18において順次切り替えられながら再生表示が開始される。
【0168】
そして、第5コマンドコード“HL”およびそのパラメータデータ“02”が読み出されると、図5(A)で示すように、表示中のテキストデータ「Excuse me.」の2文字目までの反転強調表示が指示される。
【0169】
また、第41コマンドコード“HL”およびそのパラメータデータ“07”が読み出されると、図5(B)で示すように、表示中のテキストデータ「Excuse me.」の7文字目までの反転強調表示が指示される。
【0170】
さらに、第59コマンドコード“HL”およびそのパラメータデータ“10”が読み出されると、図5(C)で示すように、表示中のテキストデータ「Excuse
me.」の10文字目までの反転強調表示が指示される。
【0171】
この後、タイムコードファイル12c2(図10参照)の第81コマンドコード“URL”およびそのパラメータデータ“02”が読み出されると、当該第81コマンドコードに対応記述されたHPアドレス<http://abc.co.jp/ekaiwa7−2.txt>に従い、メディア内容データ12c3としてダウンロード保存されている英会話テキスト7−2の字幕テキストデータ「May I help you?」(図9(A)参照)が読み出され、テキスト出力用プログラム12a1に対して、図5(D)〜図5(F)に示すように、再生表示処理が指示される。
【0172】
この時点で、英会話テキスト7−2のテキストデータ「May I help you?」は、表示部18において単にその全体文字列が再生表示される。
【0173】
第82コマンドコード“URL”およびそのパラメータデータ“00”が読み出されると、当該第82コマンドコードに対応記述されたHPアドレス<http://def.co.jp/ekaiwa7−2.mp3>に従い、メディア内容データ12c3としてダウンロード保存されている英会話テキスト7−2の音声データ「メイ アイ ヘウプ ユー」(図9(B)参照)が読み出され、音声出力用プログラム12a1に対して、同図5(D)〜図5(F)に示すように、再生出力処理が指示される。
【0174】
これにより、英会話テキスト7−2の音声データ「メイ アイ ヘウプ ユー」は、音声出力部19bにおいて順次再生出力が開始される。
【0175】
第83コマンドコード“URL”およびそのパラメータデータ“00”が読み出されると、当該第83コマンドコードに対応記述されたHPアドレス<http://hij.co.jp/kaiwa7−2.mpeg>に従い、メディア内容データ12c3としてダウンロード保存されている会話テキスト7−2の言語共通画像データ「男性動画像」(図9(C)参照)が読み出され、画像出力用プログラム12a1に対して、同図5(D)〜図5(F)に示すように、再生表示処理が指示される。
【0176】
これにより、会話テキスト7−2の言語共通画像データ「男性動画像」は、表示部18において順次切り替えられながら再生表示が開始される。
【0177】
この場合、前記テキストデータ「Excuse me.」「May I help you?」は、前記テキスト出力用プログラム12a1により再生表示されると共にコマンドコード“HL”に応じて、その再生開始からの所定速度の時間経過に応じて各テキスト文字列が順次反転(下線強調)表示されるものであり、また、前記音声データ「イクスキューズ ミー」「メイ アイ ヘウプ ユー」にあっても、前記音声出力用プログラム12a1により再生出力されるのに伴い、その再生開始からの所定速度の時間経過に応じて前記テキストデータの反転表示に合うように当該音声データを再生出力させるための時間情報を含んでおり、さらに、言語共通画像データ「女性動画像」「男性動画像」にあっても、前記画像出力用プログラム12a1により再生表示されるのに伴い、その再生開始からの所定速度の時間経過に応じて前記テキストデータの反転表示および音声データの出力に合うように当該画像データを切り替え再生表示させるための時間情報を含んでいるので、マルチメディア再生用ファイル12b(12c)に予め設定記述されているコマンド処理の基準単位時間(25ms/50ms)毎に、タイムコードファイル12c2に配列されたコマンドコードおよびそのパラメータデータを読み出し、そのURLコマンドに対応して読み出される各メディアデータの再生処理、HLコマンドに対応したテキスト文字列の反転強調表示を指示するだけで、当該タイムコードファイル12c2に記述されたURLアドレスに従いダウンロードした会話学習用のテキスト・音声・画像データの同期再生処理を実行できる。
【0178】
従って、CPUのメイン処理の負担が軽くなり、例えば携帯機器(PDA)10という処理能力の比較的小さいCPUでも容易にテキスト・画像・音声を含む複数種類のネットメディアデータの同期再生処理が行えるので、高性能なCPUを用いない簡単な再生装置でも、これを実現できるようになる。
【0179】
なお、この第2実施形態において、前記図11を参照して説明した第1のマルチメディア再生処理では、指定の学習データおよび指定の言語に応じた指定言語版タイムコードファイル12c2を有するマルチメディア再生ファイル12b(12c)が携帯機器10に取り込まれると(ステップA1〜A3)、直ちにそのタイムコードファイル12c2に記述されているURLコマンドのHPアドレスに従ったネットサイトA30a〜C30cへのアクセスを行い、同期再生すべき各メディアデータ(指定言語版テキストデータ/指定言語版音声データ/共通動画像データ)をダウンロードしてRAM12C内にメディア内容データ12c3として保存しておき(ステップA4)、タイムコードファイル12c2に従ったコマンドコード“URL”の読み出しに伴いそのHPアドレスに対応付けられた各メディアデータを前記メディア内容データ12c3から順次読み出して再生指示する手順(ステップA12〜A13A)としたが、次の図12を参照して説明する第2のマルチメディア再生処理にあるように、同期再生すべき各メディアデータ(指定言語版テキストデータ/指定言語版音声データ/共通動画像データ)をタイムコードファイル12c2に従ったコマンドコード“URL”の読み出しに伴い、その都度HPアドレスに従ったネットサイトA30a〜C30cへのアクセスを行い順次ダウンロードして再生指示する手順としてもよい。
【0180】
図12は前記携帯機器10の第2実施形態のメディア同期再生処理プログラム12a2に従った第2のマルチメディア再生処理を示すフローチャートである。
【0181】
この第2実施形態の第2のマルチメディア再生処理において、前記図11における第1のマルチメディア再生処理(ステップA1〜A18)と同一の処理ステップについては、同一のステップ符号を付してその説明を省略する。
【0182】
すなわち、この第2のマルチメディア再生処理では、タイムコードファイル12c2に従ったコマンドコード“URL”の読み出しに伴い、その都度HPアドレスに従ったネットサイトA30a〜C30cへのアクセスを行い、同期再生すべき各メディアデータ(指定言語版テキストデータ/指定言語版音声データ/共通動画像データ)を順次ダウンロードしながら再生指示する手順(ステップA12→A13B)とする。
【0183】
すなわち、ステップA12において、再生用ファイル12cにおけるタイムコードファイル12c2(図10参照)から読み出されたコマンドコードが“URL”と判断された場合には、該当ポインタ位置のURLに対応するHPアドレスに従い各対応するメディアのネットサイトA30a〜C30cにアクセスされ、指定の学習データで且つ指定言語の会話学習用のテキストデータ、音声データ、および各言語共通の画像データがそれぞれダウンロードされ、そのデータの種類に応じた(テキスト/音声/画像)出力用プログラム12a2によって再生開始される(ステップA12→A13B)。
【0184】
つまり、コマンドコードURLの対応HPアドレスに従い、ネットサイトA30aからテキストデータ(図9(A)参照)をダウンロードした場合に、テキスト出力用プログラム12a2によって再生表示を開始し、また、音声データ(図9(B)参照)をダウンロードした場合に、音声出力用プログラム12a2によって再生出力を開始し、また、画像データ(図9(C)参照)をダウンロードした場合に、音声出力用プログラム12a2によって再生出力を開始する。
【0185】
これによれば、同期再生すべき各メディアデータ(指定言語版テキストデータ/指定言語版音声データ/共通動画像データ)の全てを予めダウンロードしてRAM12C内のメディア内容データ12c3として保存しておく必要がなくなるので、例えば携帯機器10といった少ない容量のメモリ領域を、大きく・長い間占有せずとも、マルチメディアデータの同期再生を行うことができる。
【0186】
したがって、前記構成のマルチメディア記憶再生システムの携帯機器10による第2実施形態のメディア再生機能によれば、マルチメディア再生用ファイル12b(12c)のタイムコードファイル12c2にて予め設定された処理単位時間12c1a毎に読み出されるコマンドコード“URL”に対応付けて、同期再生すべき各メディアデータ(テキストデータ/音声データ/画像データ)の格納先ネットサイトA30a/B30b/C30cを示すURL(HPアドレス)を記述し、前記設定処理単位時間12c1a毎のコマンドコード“URL”に対応してそのHPアドレスに従いダウンロードされた各メディアデータ(テキストデータ/音声データ/画像データ)それぞれの再生指示を行うと共に、コマンドコード“HL”に応じてテキストデータ文字列の順次反転表示を指示するだけで、携帯機器10には元々記憶していないテキスト・音声・画像データの再生処理が必然的に同期実行される。よって、CPU11の負荷を非常に小さくして、高性能なCPUを用いない簡単な再生装置でもテキスト/音声/画像の同期再生を実現することができる。
【0187】
なお、前記実施形態において記載した携帯機器10による各処理の手法、すなわち、図4のフローチャートに示す第1実施形態での第1のマルチメディア再生処理、図7のフローチャートに示す第1実施形態での第2のマルチメディア再生処理、図8のフローチャートに示す第1実施形態の各マルチメディア再生処理における他の実施形態に伴う携帯機器10側でのメディア再生処理とサーバ30側でのサーバ処理、図11のフローチャートに示す第2実施形態での第1のマルチメディア再生処理、図12のフローチャートに示す第2実施形態での第2のマルチメディア再生処理などの各手法は、何れもコンピュータに実行させることができるプログラムとして、メモリカード(ROMカード、RAMカード、DATA・CARD等)、磁気ディスク(フロッピディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記録媒体13に格納して配布することができる。そして、通信ネットワーク(インターネット)Nとの通信機能を備えた種々のコンピュータ端末は、この外部記録媒体13に記憶されたプログラムを記録媒体読取部14によってメモリ12に読み込み、この読み込んだプログラムによって動作が制御されることにより、前記各実施形態において説明したマルチメディアデータの同期再生機能を実現し、前述した手法による同様の処理を実行することができる。
【0188】
また、前記各手法を実現するためのプログラムのデータは、プログラムコードの形態として通信ネットワーク(インターネット)N上を伝送させることができ、この通信ネットワーク(インターネット)Nに接続されたコンピュータ端末から前記のプログラムデータを取り込み、前述したマルチメディアデータの同期再生機能を実現することもできる。
【0189】
なお、本願発明は、前記各実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。さらに、前記各実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、各実施形態に示される全構成要件から幾つかの構成要件が削除されたり、幾つかの構成要件が組み合わされても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除されたり組み合わされた構成が発明として抽出され得るものである。
【0190】
【発明の効果】
以上のように、本発明の請求項1に係るメディアデータ記憶装置によれば、同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段をアクセスし、この記憶手段により記憶された各メディアのURLに対応付けられたメディアのデータを複数種類のメディアの同期再生に先立って、メディアデータ取得手段によりインターネット経由で取得することができる。このため、前記記憶手段により記憶された各メディアのURLが設定された経過時間に従って順次読み出され、この読み出されたURLに対応付けられて前記メディアデータ取得手段により取得された各メディアのデータを迅速且つ確実に同期再生させることができる。
【0191】
また、本発明の請求項2に係るメディアデータ記憶装置によれば、同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段をアクセスし、この記憶手段により記憶された各メディアのURLに対応付けられて記憶装置に記憶されている複数種類のメディアのデータを複数種類のメディアの同期再生に先立って、メディアデータ取得手段によりインターネット経由で取得でき、メディアデータ記憶手段により記憶することができる。このため、前記記憶手段により記憶された各メディアのURLが設定された経過時間に従って順次読み出され、この読み出されたURLに対応付けられて前記メディアデータ記憶手段により記憶された各メディアのデータを迅速且つ確実に同期再生させることができる。
【0192】
また、本発明の請求項3に係るメディアデータ記憶装置によれば、同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段をアクセスし、メディアデータ取得手段によって、前記記憶手段により記憶された各メディアのURLが設定された経過時間に従って順次読み出され、この読み出されたURLに対応付けられたメディアのデータをインターネット経由で取得できる。このため、各メディアのネットサイト上から同期再生すべき各種のデータを、設定経過時間に応じて各サイトのURLに従い順次取り込み、この取り込んだ複数メディアのデータを迅速且つ確実に同期再生させることができる。
【0193】
また、本発明の請求項4に係るメディアデータ記憶装置によれば、前記請求項1または請求項2に係るメディアデータ記憶装置にあって、前記記憶手段は、複数種類のメディアのデータが同期再生されるように当該各メディア毎に予め経過時間を設定して配列された制御命令に、各メディアのURLを対応付けて記憶する制御命令記憶手段とされるので、制御命令記憶手段により記憶された設定経過時間毎の制御命令に従い、これに対応付けられたURLにより各メディアのネットサイト上から同期再生すべき各種のデータを取り込み、この取り込んだ複数メディアのデータを迅速且つ確実に同期再生させることができる。
【0194】
また、本発明の請求項5に係るメディアデータ記憶装置によれば、前記請求項1乃至請求項4の何れか1項に係るメディアデータ記憶装置にあって、前記複数種類のメディアのデータにはテキストデータが含まれ、このテキストデータは予め他の種類のメディアのデータとの同期再生のための時間情報を有するので、各メディアのネットサイト上から取り込まれた同期再生すべき各種のデータのうち、テキストデータについては当該テキストデータに含まれる同期再生のための時間情報に従い、他の種類のメディアのデータと共に迅速且つ確実に同期再生させることができる。
【0195】
また、本発明の請求項6に係るメディアデータ記憶装置によれば、前記請求項1または請求項2に係るメディアデータ記憶装置にあって、前記記憶手段は、複数種類のメディアの少なくともテキストを含むデータが同期再生されるように当該各メディア毎に予め経過時間を設定して配列された制御命令に、各メディアのURLを対応付けて記憶すると共に、前記テキストデータに対する表示制御命令を記憶する制御命令記憶手段とされるので、各メディアのネットサイト上から取り込まれた同期再生すべき各種のデータのうち、テキストデータについては制御命令記憶手段により記憶された設定経過時間毎の表示制御命令に従い、他の種類のメディアのデータと共に迅速且つ確実に同期再生させることができる。
【0196】
また、本発明の請求項7に係るメディアデータ記憶装置によれば、前記請求項1乃至請求項6の何れか1項に係るメディアデータ記憶装置にあって、前記複数種類のメディアのデータには複数の言語からなるデータが用意され、前記記憶手段により記憶されるURLは言語の指定記号を含み、前記メディアデータ取得手段は、前記記憶手段により記憶された各メディアのURLに対応付けられたメディアの指定の言語のデータをインターネット経由で取得するので、指定の言語からなる各メディアのデータも単にURLで指定された各ネットサイトから取り込むだけで、言語の指定された複数メディアのデータも迅速且つ確実に同期再生させることができる。
【0197】
また、本発明の請求項8に係るメディアデータ記憶処理プログラムによれば、当該プログラムをメディアデータ記憶装置にインストールすることで、このメディアデータ記憶装置のコンピュータにおいて、同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段をアクセスし、この記憶手段により記憶された各メディアのURLに対応付けられたメディアのデータを複数種類のメディアの同期再生に先立って、メディアデータ取得手段によりインターネット経由で取得することができる。このため、メディアデータ記憶装置では、記憶手段により記憶された各メディアのURLが設定された経過時間に従って順次読み出され、この読み出されたURLに対応付けられて前記メディアデータ取得手段により取得された各メディアのデータを迅速且つ確実に同期再生させることができる。
【0198】
また、本発明の請求項9に係るメディアデータ記憶処理プログラムによれば、当該プログラムをメディアデータ記憶装置にインストールすることで、このメディアデータ記憶装置のコンピュータにおいて、同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段をアクセスし、この記憶手段により記憶された各メディアのURLに対応付けられて記憶装置に記憶されている複数種類のメディアのデータを複数種類のメディアの同期再生に先立って、メディアデータ取得手段によりインターネット経由で取得でき、メディアデータ記憶手段により記憶することができる。このため、メディアデータ記憶装置では、記憶手段により記憶された各メディアのURLが設定された経過時間に従って順次読み出され、この読み出されたURLに対応付けられて前記メディアデータ記憶手段により記憶された各メディアのデータを迅速且つ確実に同期再生させることができる。
【0199】
また、本発明の請求項10に係るメディアデータ記憶処理プログラムによれば、当該プログラムをメディアデータ記憶装置にインストールすることで、このメディアデータ記憶装置のコンピュータにおいて、同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段をアクセスし、メディアデータ取得手段によって、前記記憶手段により記憶された各メディアのURLが設定された経過時間に従って順次読み出され、この読み出されたURLに対応付けられたメディアのデータをインターネット経由で取得することができる。このため、メディアデータ記憶装置では、各メディアのネットサイト上から同期再生すべき各種のデータを、設定経過時間に応じて各サイトのURLに従い順次取り込み、この取り込んだ複数メディアのデータを迅速且つ確実に同期再生させることができる。
【0200】
よって、本発明によれば、複数種類のメディアの同期再生に先立って、そのメディアデータをインターネット経由で取得することが可能になるメディアデータ記憶装置、およびメディアデータ記憶処理プログラムを提供できる。
【図面の簡単な説明】
【図1】本発明のメディアデータ記憶装置の実施形態に係る携帯機器10を備えたマルチメディア記憶再生システムの全体の構成を示す図。
【図2】前記マルチメディア記憶再生システムにおける第1実施形態の各メディアのネットサイト30a〜30cにて提供されるデータ内容を示す図であり、同図(A)はサイトA30aにて用意された外国語会話練習用の字幕テキストデータを示す図、同図(B)はサイトB30bにて用意された外国語会話練習用の音声データを示す図、同図(C)はサイトC30cにて用意された外国語会話練習用の画像データを示す図。
【図3】前記携帯機器10のメモリ12に格納された第1実施形態のマルチメディア再生用ファイル12b(12c)を構成するタイムコードファイル12c2を示す図。
【図4】前記携帯機器10の第1実施形態のメディア同期再生処理プログラム12a2に従った第1のマルチメディア再生処理を示すフローチャート。
【図5】前記図3(C)における英会話学習用のマルチメディア再生ファイル12cに基づいた英会話テキスト・音声・画像データの同期再生状態を示す図。
【図6】前記図3(B)における外国語会話学習用のマルチメディア再生ファイル12cに対して独語を言語指定した場合の独語会話テキスト・音声・画像データの同期再生状態を示す図。
【図7】前記携帯機器10の第1実施形態のメディア同期再生処理プログラム12a2に従った第2のマルチメディア再生処理を示すフローチャート。
【図8】前記第1実施形態のマルチメディア記憶再生システムにおける他の実施形態に伴う携帯機器10側でのメディア再生処理とサーバ30側でのサーバ処理とを示すフローチャート。
【図9】前記マルチメディア記憶再生システムにおける第2実施形態の各メディアのネットサイト30a〜30cにて提供されるデータ内容を示す図であり、同図(A)はサイトA30aにて用意された外国語会話練習用のテキストデータを示す図、同図(B)はサイトB30bにて用意された外国語会話練習用の音声データを示す図、同図(C)はサイトC30cにて用意された外国語会話練習用の画像データを示す図。
【図10】前記携帯機器10のメモリ12に格納された第2実施形態のマルチメディア再生用ファイル12b(12c)を構成するタイムコードファイル12c2を示す図。
【図11】前記携帯機器10の第2実施形態のメディア同期再生処理プログラム12a2に従った第1のマルチメディア再生処理を示すフローチャート。
【図12】前記携帯機器10の第2実施形態のメディア同期再生処理プログラム12a2に従った第2のマルチメディア再生処理を示すフローチャート。
【符号の説明】
10 …携帯機器
11 …CPU
12 …メモリ
12A…ROM
12a…携帯機器制御プログラム
12a1…(テキスト/音声/画像)出力用プログラム
12a2…メディア同期再生処理プログラム
12B…FLASHメモリ
12b…暗号化されたマルチメディア再生用ファイル(CASファイル)
12C…RAM
12c…解読されたマルチメディア再生用ファイル(CASファイル)
12c1…ヘッダ情報
12c1a…処理単位時間
12c2…タイムコードファイル
12c3…メディア内容データ
12d…(学習/言語)指定データ
12e…画像展開バッファ
13 …外部記録媒体
14 …記録媒体読取部
15 …電送制御部
16 …通信部
17a…入力部
17b…座標入力装置
18 …表示部
19a…音声入力部
19b…音声出力部
20 …通信機器(自宅PC)
30 …Webサーバ
30a…ネットサイトA(テキスト)
30b…ネットサイトB(音声)
30c…ネットサイトC(画像)
N …通信ネットワーク(インターネット)
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a media data storage device for synchronously reproducing data of each medium such as text data, audio data, and image data, and a media data storage processing program.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, as a technique for simultaneously reproducing data such as music, images, texts, and the like, for example, for each frame of audio data information-compressed according to MPEG-3, an additional data area provided in each frame is provided. For example, in the case of karaoke, some karaoke voices are reproduced synchronously with the karaoke voice and the image and lyrics by embedding the synchronization information of text data and image data to be reproduced synchronously with the audio data.
[0003]
However, in the conventional synchronous reproduction technique of a plurality of types of data using the additional data area of the MPEG data, the embedding of the synchronization information is defined in the additional data area of each MP3 audio data frame. Therefore, synchronization information cannot be extracted unless the MP3 audio data is reproduced, and synchronous reproduction of other types of data can be performed only by reproducing MP3 data.
[0004]
For this reason, for example, when the synchronization information of the text data is embedded in the MP3 audio data, even if the audio data is not reproduced, the audio reproduction process must be continuously performed as the non-audio data even if the reproduction of the audio data is not performed. There is a problem that playback cannot be performed.
[0005]
Therefore, conventionally, the synchronous reproduction processing of a plurality of types of data is performed based on the reproduction processing of MP3 data, and thus there is a problem that the processing load on the CPU of the reproduction apparatus becomes heavy.
[0006]
On the other hand, various programs provided on media of various Internet sites are downloaded by accessing the addresses of the respective Internet sites set in advance according to the time lapse information (time table), and are simply played back. Multimedia playback processing technology that sequentially and continuously plays back programs of various media with the passage of time has been considered. (For example, refer to Patent Document 1.)
[0007]
[Patent Document 1]
JP-A-2002-261715
[0008]
[Problems to be solved by the invention]
However, even in such a multimedia reproduction processing technology, audio data, text data, and image data only reproduce the program data itself that is already synchronized based on the PM3 data and the like. As described above, there is a problem that the processing load on the CPU of the reproducing apparatus becomes heavy, and the audio, text, and image data to be reproduced synchronously are always synchronized and integrated, and the data of a plurality of types of media are reproduced. Cannot be synchronized for playback.
[0009]
The present invention has been made in view of the above-described problems, and has a media data storage device and a media data storage device capable of acquiring media data via the Internet prior to synchronous reproduction of a plurality of types of media. It is intended to provide a processing program.
[0010]
[Means for Solving the Problems]
That is, the media data storage device according to claim 1 of the present invention has storage means for storing URLs of media arranged in advance by setting an elapsed time for each of a plurality of types of media to be synchronously reproduced. Then, the data of the medium associated with the URL of each medium stored by the storage means is obtained via the Internet by the media data obtaining means prior to the synchronous reproduction of a plurality of types of media.
[0011]
According to this, the URLs of the respective media stored by the storage unit are sequentially read out according to the set elapsed time, and the respective media obtained by the media data obtaining unit are associated with the read URLs. Can be synchronously reproduced quickly and reliably.
[0012]
Further, the media data storage device according to claim 2 of the present invention has storage means for storing URLs of media arranged in advance by setting an elapsed time for each of a plurality of types of media to be synchronously reproduced. Prior to the synchronized playback of the plurality of types of media, the data of the plurality of types of media stored in the storage device in association with the URLs of the respective media stored by the storage unit are transmitted by the media data acquisition unit via the Internet. And stored by the media data storage means.
[0013]
According to this, the URLs of the respective media stored by the storage means are sequentially read out according to the set elapsed time, and the respective media stored by the media data storage means are associated with the read URLs. Can be synchronously reproduced quickly and reliably.
[0014]
Also, the media data storage device according to claim 3 of the present invention has a storage means for storing URLs of media arranged in advance by setting an elapsed time for each of a plurality of types of media to be synchronously reproduced. Then, the media data acquisition unit sequentially reads out the URLs of the respective media stored by the storage unit according to the set elapsed time, and acquires the media data associated with the read URLs via the Internet. Is done.
[0015]
According to this, various data to be synchronously reproduced from the net site of each media are sequentially fetched in accordance with the URL of each site according to the set elapsed time, and the fetched data of the plurality of media is synchronously and rapidly reproduced. You can do it.
[0016]
Also, in the media data storage device according to claim 4 of the present invention, in the media data storage device according to claim 1 or 2, the storage means reproduces data of a plurality of types of media synchronously. As described above, the control command storage means stores the control commands arranged with the elapsed time set in advance for each medium in association with the URL of each medium.
[0017]
According to this, in accordance with the control command for each set elapsed time stored by the control command storage means, various data to be synchronously reproduced from a net site of each medium are fetched by the URL associated therewith, and the fetched data is obtained. The data of a plurality of media can be synchronously and quickly reproduced.
[0018]
A media data storage device according to a fifth aspect of the present invention is the media data storage device according to any one of the first to fourth aspects, wherein the data of the plurality of types of media is text data. , And the text data has time information for synchronized reproduction with data of another type of media in advance.
[0019]
According to this, among the various data to be synchronously reproduced, which are taken in from the media website of each medium, the text data is recorded according to the time information for synchronous reproduction included in the text data, and the other types of media are reproduced. Synchronous reproduction with data can be performed quickly and reliably.
[0020]
Also, in the media data storage device according to claim 6 of the present invention, in the media data storage device according to claim 1 or 2, the storage means stores data of at least text of a plurality of types of media. A control command storage for storing a control command arranged with an elapsed time set in advance for each medium so as to be played back in synchronization with a URL of each medium, and storing a display control command for the text data. Means.
[0021]
According to this, of the various data to be synchronously reproduced taken from the media site of each medium, the text data is of another type according to the display control command for each set elapsed time stored by the control command storage means. And quickly and reliably perform synchronous reproduction together with the data of the other media.
[0022]
Further, in the media data storage device according to claim 7 of the present invention, in the media data storage device according to any one of claims 1 to 6, the data of the plurality of types of media includes a plurality of media. Language data is prepared, the URL stored by the storage unit includes a language designation symbol, and the media data acquisition unit specifies a medium associated with the URL of each medium stored by the storage unit. Data in different languages via the Internet.
[0023]
According to this, it is possible to quickly and surely synchronously reproduce data of a plurality of media in a specified language by simply taking in data of each media in a specified language from each net site specified by a URL. Become.
[0024]
According to the media data storage processing program according to claim 8 of the present invention, by installing the program in the media data storage device, a plurality of types of media to be synchronously reproduced on the computer of the media data storage device The storage means storing the URLs of the respective media arranged with the elapsed time set in advance for each of them is accessed, and the data of the media associated with the URLs of the respective media stored by the storage means are stored in a plurality of types. Prior to the synchronized playback of the media, the media data is obtained by the media data obtaining means via the Internet.
[0025]
According to this, in the media data storage device, the URLs of the respective media stored by the storage unit are sequentially read out according to the set elapsed time, and are associated with the read out URLs by the media data acquisition unit. The acquired data of each medium can be synchronized and reproduced quickly and reliably.
[0026]
According to the media data storage processing program of the ninth aspect of the present invention, by installing the program in the media data storage device, a plurality of types of media to be synchronously reproduced on a computer of the media data storage device. The storage means storing the URLs of the media arranged with the elapsed time set in advance for each of the media is accessed, and stored in the storage device in association with the URLs of the media stored by the storage means. Prior to synchronous reproduction of a plurality of types of media, data of a plurality of types of media is acquired by the media data acquisition unit via the Internet, and stored by the media data storage unit.
[0027]
According to this, in the media data storage device, the URLs of the respective media stored by the storage unit are sequentially read out according to the set elapsed time, and are associated with the read URLs by the media data storage unit. The stored data of each medium can be synchronized and reproduced quickly and reliably.
[0028]
According to the media data storage processing program according to claim 10 of the present invention, by installing the program in the media data storage device, a plurality of types of media to be synchronously reproduced on a computer of the media data storage device The storage means storing the URLs of the media arranged in advance with the elapsed time set for each is accessed, and the media data acquisition means sets the elapsed time at which the URLs of the media stored by the storage means are set. , And the media data associated with the read URL is obtained via the Internet.
[0029]
According to this, in the media data storage device, various data to be synchronously reproduced from the net site of each media are sequentially fetched according to the URL of each site in accordance with the set elapsed time, and the fetched data of the plurality of media is quickly read. In addition, synchronous reproduction can be reliably performed.
[0030]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0031]
(1st Embodiment)
FIG. 1 is a diagram showing an overall configuration of a multimedia storage / playback system including a portable device 10 according to an embodiment of a media data storage device of the present invention.
[0032]
The multimedia storage / playback system uses a portable device 10 such as a PDA (personal digital assistants) as a terminal device for multimedia playback, a server 30 accessible via a communication network (Internet) N, and a network site for various media. Various data provided by 30a to 30c are selectively downloaded and synchronously reproduced.
[0033]
For example, in accordance with a command code and a URL (uniform resource locator) described in a multimedia reproduction file (CAS file) (see FIG. 3) provided from the server 30, predetermined text data is transmitted from the net site A30a to the net site B30b. And predetermined image data from the net site C30c, and performs synchronous reproduction processing.
[0034]
The mobile device (PDA) 10 is configured by a computer that reads a program recorded on various types of recording media or a program transmitted via communication and whose operation is controlled by the read program. A CPU (central processing unit) 11 is provided.
[0035]
The CPU 11 executes a PDA control program stored in the ROM 12A in the memory 12 in advance, a PDA control program read from the external recording medium 13 such as a ROM card into the memory 12 via the recording medium reading unit 14, or the Internet or the like. In accordance with the PDA control program read from the other computer terminal (30) on the communication network N via the transmission control unit 15 into the memory 12, the operation of each circuit unit is controlled. The PDA control program is received by the key input signal corresponding to the user operation from the key input unit 17a, the coordinate input signal corresponding to the user operation from the coordinate input device 17b including a mouse or a tablet, or received by the transmission control unit 15. Other computer terminals (30, 3) on the communication network N a to 30c) or a communication signal from an external communication device (PC: personal computer) 20 which is received via the communication unit 16 by short-range wireless connection or wired connection by Bluetooth (R). Is activated.
[0036]
The CPU 11 is connected to the memory 12, the recording medium reading unit 14, the transmission control unit 15, the communication unit 16, the key input unit 17a, the coordinate input device 17b, and further includes a display unit 18 composed of an LCD and a microphone. An audio input unit 19a for inputting audio, an audio output unit 19b having a speaker and outputting audio are connected.
[0037]
The CPU 11 has a built-in timer for measuring the processing time.
[0038]
The memory 12 of the portable device 10 includes a ROM 12A, a flash memory (EEP-ROM) 12B, and a RAM 12C.
[0039]
The ROM 12A includes a system program for controlling the entire operation of the portable device 10 and a network communication program for performing data communication with each of the computer terminals (30, 30a to 30c) on the communication network N via the transmission control unit 15, In addition to storing an external device communication program for performing data communication with an external communication device (PC) 20 via the unit 16, a schedule management program, an address management program, and display / audio of text data on the display unit 18 A (text / sound / image) output program 12a1, which is a drive program for independently outputting data from the sound output unit 19b and displaying image data on the display unit 18, is provided by various media. Media synchronization for synchronous playback of audio / text / image data Such as raw processing program 12a2, various PDA control program is stored.
[0040]
The FLASH memory (EEP-ROM) 12B stores, for example, an encrypted multimedia playback file (CAS file) 12b for a foreign language conversation text to be played back based on the media synchronous playback processing program 12a2. In addition, the schedule of the user and the addresses of friends and acquaintances managed based on the schedule management program and the address management program are stored.
[0041]
Here, the encrypted multimedia playback file 12b stored in the FLASH memory (EEP-ROM) 12B is, for example, a text / language file which is obtained by selectively downloading foreign language conversation practice from various media net sites 30a to 30c. This file is used for synchronous playback of audio and video, and is compressed and encrypted by a predetermined algorithm.
[0042]
The encrypted reproduction file 12b is recorded and distributed on a CD-ROM, for example, or distributed and distributed from a file distribution server 30 on a communication network (Internet) N. 30), the encrypted playback file 12b is read into, for example, a communication device (PC) 20 as a user's home PC, and then transmitted via a communication unit 16 of the portable device (PDA) 10. (ROM) 12B.
[0043]
In the RAM 12C, a decrypted multimedia playback file (CAS file) 12c obtained by expanding and decrypting the encrypted playback file 12b is stored, and image files in the decrypted playback file 12c are expanded. An image development buffer 12e for storing and storing the image data is provided. The decrypted CAS file 12c is composed of header information (12c1) for storing the processing unit time (12c1a) of the playback command, a time code file (12c2) described later, and media content data (12c3).
[0044]
The media content data (12c3) includes time information for synchronous reproduction separately downloaded from the net sites A30a to A30c according to a URL (uniform resource locator) described in correspondence with the command code of the time code file (12c2). , Text data, audio data, and image data. The text data, audio data, and image data, which are the media content data (12c3), are instructed to be reproduced according to the corresponding command codes “URL” of the time code file (12c2), and are output as the (text / audio / image). Is reproduced by the application program 12a1.
[0045]
The RAM 12C stores (learning / language) designation data 12d which is, for example, designation data of learning content of a foreign language conversation text and designation data of the language (English / German / French / ...).
[0046]
Further, the RAM 12C is provided with a work area for temporarily storing various data input to and output from the CPU 11 in accordance with other various processes.
[0047]
FIG. 2 is a diagram showing data contents provided at the net sites 30a to 30c of respective media of the first embodiment in the multimedia storage / reproduction system, and FIG. 2 (A) shows foreign data prepared at the site A 30a. FIG. 4B shows caption text data for practicing language conversation, FIG. 4B shows voice data for practicing foreign language conversation prepared at site B30b, and FIG. 4C shows data prepared at site C30c. It is a figure which shows the image data for foreign language conversation practice.
[0048]
As shown in FIG. 2 (A), net site A30a <http: // abc. co. jp>, for example, each foreign language conversation practice text has the same text content, and text data of each corresponding character is prepared for each language used, and is arbitrarily specified by the user. The type of language used is divided into, for example, English / German / French, and data for each language is stored in association with a different URL for each sentence. When the text data is downloaded to the portable device 10, the text data is reproduced and displayed by the text output program 12a1, and the text character strings are sequentially inverted in accordance with the elapse of the practice time at a predetermined speed from the start of the reproduction. Time information (→). The URL of the text data including the time information for the character string inversion display is added with an initial letter “c” of “caption” meaning caption, and is set to “... ctxt”. In addition, initials e (English), g (German), and f (French) according to the designated language are added to the URL. For example, the English version of the conversation text 7-1 is “... ekaiwa7-1.text”. , The German version of 7-1 is "... gkaiwa 7-1.text".
[0049]
As shown in FIG. 2B, the net site B30b <http: // def. co. jp> is read-out voice data corresponding to each text data of each foreign language conversation practice text prepared at the site A30a, and the URL of each voice data is a part indicating the data format. For example, the English text data of the conversation text 7-1 is "... ekai 7-1.mp3", and the German text data of the conversation text 7-1 is "... gkaiwa 7-1.mp3".
[0050]
Then, even with this audio data, the audio output program 12a1 reproduces and outputs the audio data so as to match the reverse display of the text data in accordance with the elapse of the practice time at a predetermined speed from the start of reproduction. Contains time information.
[0051]
As shown in FIG. 2 (C), net site B30c <http: // hij. co. jp> is image data of a moving image common to each foreign language conversation text of each foreign language conversation practice text prepared at the site A 30a and the site B 30b, for example, for the text 7-1. Is image data indicating a state in which women are talking, and image data indicating a state in which men are talking is prepared for text 7-2. The initials e (English), g (German) and f (French) indicating the type of the designated language are not added to the URL of each image data, and only the part indicating the data format is different as “mpeg”. For example, the image data of the conversation text 7-1 is "... kaiwa7-1.mpeg", and the image data of the conversation text 7-1 is "... kaiwa7-2.mpeg".
[0052]
Then, even with this image data, the image data is output by the image output program 12a1 so as to match the reverse display of the text data and the output of the audio data in accordance with the elapse of the practice time at a predetermined speed from the start of reproduction. It contains time information for playback and display.
[0053]
For example, text data, voice data, and image data of a foreign language conversation practice text prepared in each of the net sites 30a to 30c follow a time code file 12c2 in a multimedia playback file (CAS) 12c in the portable device 10. Along with the multimedia reproduction process, the data is downloaded to the portable device 10 and stored as media content data 12c3, and is reproduced synchronously according to a (text / audio / image) output program 12a1 corresponding to various data.
[0054]
FIG. 3 is a diagram showing a time code file 12c2 included in the multimedia playback file 12b (12c) of the first embodiment stored in the memory 12 of the portable device 10.
[0055]
The multimedia playback file 12b (12c) serving as a playback target file of the portable device 10 is configured by a combination of a time code file 12c2 and media content data 12c3.
[0056]
In the time code file 12c2 shown in FIG. 3, time codes for performing command processing of various data synchronous reproduction at predetermined time intervals (for example, 25 ms) preset for each piece of media data are described and arranged. Each of the time codes includes a command code for instructing an instruction, parameter data for associating the contents of the media data (see FIG. 2) relating to the command, and the net sites 30a to 30c from which the respective media data is obtained. It is composed of a combination of a URL, the site name A to C, and the type of each media data (caption text / audio / image).
[0057]
When the time code file 12c2 is before the language is specified by the user, as shown in FIG. 3B, the URL from which each media data is obtained is the URL of the text data and the URL of the audio data. The symbol part indicating the designated language is described with "*". For example, the URL of the text data of the conversation text 7-1 is <http: // abc. co. jp / * kaiwa 7-1. ctxt> is a URL for which a language is not specified. Then, when the language is specified, as shown in FIG. 3C, the symbol part “*” of the specified language is changed to a symbol (English “e”, German “g”, French “F”..., For example, when English is the designated language, the URL of the text data of the conversation text 7-1 is <... Ekaiwa 7-1. ctxt>. As a result, the learning data specified by the user and the text data of the English conversation text 7-1 as the specified language can be acquired from the net site A30a.
[0058]
As shown in FIG. 3A, a fixed time interval for sequentially executing command processing according to the time code file 12c2 is described and set as a processing unit time 12c1a in the header information 12c1 of the time code file 12c2.
[0059]
As the media content data 12c3, user-designated learning data downloaded from the media net sites A30a to C30c corresponding to the URLs described in the time code file 12c2 and text for synchronous playback in a designated language. Data, audio data, and image data are stored.
[0060]
Commands used for the time code file 12c2 include, for example, URL (instruction to reproduce URL media data), FN (end of processing), and NP (invalid).
[0061]
That is, by activating the media synchronous playback processing program 12a2 stored in the ROM 12A of the portable device (PDA) 10, the decrypted multimedia playback file 12c decrypted from the FLASH memory 12B and stored in the RAM 12c is converted into the designated learning data. This is the file content for the foreign language conversation practice text shown in FIG. 3A, for example, according to the data, and as shown in FIG. 3B, the URL language designation symbol is changed according to the designated language “English”. When the conversion is changed from "*" to "e", the text data, voice data, and image of English conversation texts 7-1 and 7-2 are transmitted from the net sites A30a to C30c corresponding to the URLs described in the time code file 12c2. Data (see FIG. 2) is downloaded and stored as media content data 12c3 in memory 12. It is.
[0062]
When the first command code “URL” is read in accordance with the command processing at regular time intervals, the first command code “URL” is stored as the media content data 12c3 according to the URL address “... Ekaiwa7-1.txt” described in the corresponding manner. The text data of the English conversation text 7-1 is read, and the display processing is instructed to the text output program 12a1.
[0063]
If the second command code “URL” is read in accordance with the command processing at the same fixed time, the command code is stored as the media content data 12c3 according to the URL address “... Ekaiwa7-1.mp3” described correspondingly. The voice data of the English conversation text 7-1 is read, and the voice output processing is instructed to the voice output program 12a1.
[0064]
Further, when the third command code "URL" is read in accordance with the command processing at the same fixed time, the command code is stored as the media content data 12c3 according to the URL address "... kaiwa7-1.mpeg" described correspondingly. The image data of the English conversation text 7-1 is read, and the display processing is instructed to the image output program 12a1.
[0065]
The text data, audio data, and image data of the English conversation text read from the media content data 12c3 and reproduced are processed by starting reproduction of any data at predetermined time intervals. Synchronization time information in which the output elapsed times match each other is included in advance, and the (text / sound / image) output program 12a1 is output in accordance with each command code “URL” for which the time elapse is set in advance in the time code file 12c2. In the media synchronous reproduction processing program 12a2, the reproduction is inevitably synchronously controlled by the media synchronous reproduction program 12a2, without the need for the CPU 11 to control the synchronization timing.
[0066]
The detailed reproduction operation of the multimedia reproduction file 12b (12c) shown in FIG. 3 will be described later.
[0067]
Next, the media playback function of the portable device 10 of the multimedia storage / playback system configured as described above according to the first embodiment will be described.
[0068]
FIG. 4 is a flowchart showing a first multimedia reproduction process of the portable device 10 according to the media synchronous reproduction program 12a2 of the first embodiment.
[0069]
For example, when practicing a foreign language conversation is performed by synchronous reproduction of text, voice, and image multimedia, learning data (for example, foreign language conversation learning) desired by the user is designated by operating the input unit 17a or the coordinate input device 17b. (Step S1), for example, the encrypted multimedia playback file (including the time code file 12c2) 12b of the designated learning data taken from the CD-ROM into the communication device (PC) 20, which is a home PC, is The data is read via the communication unit 16 of the device (PDA) 10 and stored in the flash memory 12B, or downloaded from the server 30 on the communication network (Internet) N via the transmission control unit 15 and stored in the flash memory 12B. Is performed (step S2).
[0070]
At this time, the encrypted multimedia playback file (CAS file) 12b stored in the FLASH memory 12B is decrypted and decrypted, for example, the time code file 12c2 before the language designation conversion shown in FIGS. 3A and 3B. Are transferred to and stored in the RAM 12C.
[0071]
When the language (English / German / French / ...) to be practiced is selected and designated for the learning data of the foreign language conversation (step S3), the designated language is determined (step S4) and "English Is specified, the specified conversation learning data stored in the RAM 12C is stored in the URL corresponding to the text data and the audio data in the time code file 12c2 in the multimedia playback file (CAS file) 12c. The language-unspecified symbol "*" is converted and corrected into the English-specified symbol "e" as shown in FIG. 3C (step S5e).
[0072]
When "German" is designated, the language unspecified symbol "*" on each URL corresponding to text data and audio data in the time code file 12c2 stored in the RAM 12C is replaced with the German designation symbol " g ”(step S4 → S5g).
[0073]
Further, when "French" is designated, the language unspecified symbol "*" on each URL corresponding to text data and audio data in the time code file 12c2 stored in the RAM 12C is replaced with the French designation symbol " f ”(step S5f).
[0074]
In this way, when the time code file 12c2 in the multimedia playback file (CAS file) 12c of the specified conversation learning data is converted and corrected according to the user-specified language (for example, "English") (FIG. 3C). According to the HP address described in association with each command code “URL” on the time code file 12c2, the corresponding media net sites A30a to C30c are accessed, and the designated learning data is designated and designated. The text data for speech learning of the language "English", the voice data, and the image data common to each language are downloaded and stored as the media content data 12c3 in the RAM 12C (step S6).
[0075]
That is, the HP address <http: //abc.html described in the time code file 12c2 shown in FIG. co. jp / ekaiwa 7-1. ctxt><... 7-2. ctxt><... 7-3. ctxt>, the English subtitle text data “Exceme me.” “May I help you?” shown in FIG. 2A is sequentially downloaded from the net site A30a, and the HP address <http: // / Def. co. jp / ekaiwa 7-1. mp3><... 7-2. mp3><... 7-3. mp3>, the English-language audio data “Excuse Me” and “May I Help U” shown in FIG. 2B are sequentially downloaded from the net site B30b, and further, the HP address <http: // hij. . co. jp / kaiwa 7-1. mpeg><... 7-2. mpeg><... 7-3. According to mpeg>, the image data “female moving image”, “male moving image” common to each language shown in FIG. 2C is sequentially downloaded from the net site C30c.
[0076]
Then, the processing unit time 12c1a (for example, 25 ms / 50 ms / 25 ms / 50 ms / 50 ms) described in the header information 12c1 of the decrypted multimedia playback file (CAS file) 12c including the time code file 12c2 and the media content data 12c3 stored in the RAM 12C. ..) Is set as a read time of the multimedia reproduction file (CAS file) 12c at a constant time interval by the CPU 11 (step S7).
[0077]
Then, a read pointer is set at the head of the media playback file (CAS file) 12c stored in the RAM 12C (step S8), and a timer for measuring the playback processing timing of the playback file 12c is started (step S8). S9).
[0078]
Here, the pre-reading process is started in parallel with the reproduction process (step S10).
[0079]
In this pre-reading process, when there is a command for displaying image data after the command processing of the position of the current read pointer according to the time code file 12c2 (see FIG. 3C) of the reproduction file 12c, By pre-reading the image data specified by the parameter data of the image data display command and expanding the image data in the image expansion buffer 12e, the read pointer actually moves to the position of the later image display command. In this case, the designated image file can be immediately output and displayed without delay.
[0080]
In step S9, when the processing timer is started, the processing timer is set in step S8 for each processing unit time corresponding to the multimedia playback target file 12c for foreign language conversation learning set in step S7. The command code and its parameter data of the time code file 12c2 (see FIG. 3) constituting the media playback file 12c at the position of the read pointer thus read are read (step S11).
[0081]
Then, it is determined whether or not the command code read from the time code file 12c2 (see FIG. 3) in the reproduction file 12c is “FN” (step S12), and when it is determined that the command code is “FN”, At that time, a stop process of the multimedia reproduction process is instructed and executed (step S12 → S13).
[0082]
On the other hand, if it is determined that the command code read from the time code file 12c2 (see FIG. 3) in the reproduction file 12c is not "FN", it is determined whether the command code is "URL". It is determined (step S12 → S14). If it is determined that the URL is "URL", the text data, audio data, or image data stored as the media content data 12c3 is read according to the HP address corresponding to the URL at the corresponding pointer position, and the type of the data is read. The reproduction is started by the (text / sound / image) output program 12a2 corresponding to (step S14 → S15A).
[0083]
That is, when text data (see FIG. 2A) is read from the media content data 12c3 in accordance with the HP address corresponding to the command code URL, reproduction and display are started by the text output program 12a2, When the data (see FIG. 2B) is read, the reproduction output is started by the audio output program 12a2, and when the image data (see FIG. 2C) is read. The reproduction output is started by the audio output program 12a2.
[0084]
Then, the time counting operation by the processing timer is started again, and it is determined whether or not the time counted by the timer has reached the next processing unit time 12c1a (step S17).
[0085]
On the other hand, if it is determined in step S14 that the command code read from the time code file 12c2 (see FIG. 3) in the reproduction file 12c is not "URL", the process proceeds to another command process. Is performed (step S16). The other command processing is processing of a command corresponding to each of the other command codes.
[0086]
If it is determined in step S17 that the time measured by the timer has reached the next processing unit time 12c1a, the read pointer to the multimedia playback file (CAS file) 12c stored in the RAM 12C is set to the next. The position is updated and set (steps S17 → S18), and the process from the reading of the command code and the parameter data of the time code file 12c2 (see FIG. 3) at the position of the read pointer in the step S11 is repeated (step S18 → S11). To S17).
[0087]
That is, the CPU 11 of the portable device 10 executes the time code file 12c2 for each command processing unit time set and described in advance in the multimedia playback file 12b (12c) in accordance with the media synchronous playback processing program 12a2 stored in the ROM 12A. By simply reading out the command codes and their parameter data arranged in (see FIG. 3) and instructing a process corresponding to the command, synchronous reproduction of various media data corresponding to each command described in the time code file 12c2 is performed. Processing is executed.
[0088]
Here, the synchronous reproduction output operation of text / voice / image data by the media synchronous reproduction processing program 12a1 (see FIG. 4) based on the multimedia reproduction file 12c for English conversation learning shown in FIG. 3C will be described in detail. explain.
[0089]
FIG. 5 is a diagram showing a synchronized playback state of English conversation text / voice / image data based on the multimedia playback file 12c for English conversation learning in FIG. 3 (C).
[0090]
In the multimedia playback file (12c) for learning English conversation, command processing is executed for each processing unit time (25 ms) (FIG. 3A) described and set in the header information (12c1). When the first command code “URL” and its parameter data “00” of the time code file 12c2 (see FIG. 3) are read, the HP address <http: // abc. co. jp / ekaiwa 7-1. ctxt>, subtitle text data “Exuse me.” (see FIG. 2A) of the English conversation text 7-1 that is downloaded and stored as the media content data 12c3 is read out, and the text output program 12a1 is read out. As shown in FIGS. 5A to 5C, a reproduction display process is instructed.
[0091]
As a result, the subtitle text data “Exuse me.” Of the English conversation text 7-1 is reproduced and displayed while the underline is highlighted for each character on the display unit 18.
[0092]
When the second command code “URL” and its parameter data “02” are read, the HP address <http: // def. co. jp / ekaiwa 7-1. mp3>, the audio data “Excuse Me” (see FIG. 2 (B)) of the English conversation text 7-1 downloaded and stored as the media content data 12c3 is read out, and the same is sent to the audio output program 12a1. As shown in FIGS. 5A to 5C, a reproduction output process is instructed.
[0093]
As a result, the audio output unit 19b sequentially starts reproducing and outputting the audio data “Excuse Me” of the English conversation text 7-1.
[0094]
When the third command code “URL” and its parameter data “02” are read, the HP address <http: // hij. co. jp / kaiwa 7-1. mpeg>, the language common image data “female moving image” (see FIG. 2C) of the conversation text 7-1 that is downloaded and stored as the media content data 12c3 is read out, and the image output program 12a1 is read. 5 (A) to 5 (C), the reproduction display processing is instructed.
[0095]
Thereby, the language common image data “female moving image” of the conversation text 7-1 is displayed in the table.
The reproduction display is started while being sequentially switched in the display unit 18.
[0096]
Further, when the fifth command code “URL” and its parameter data “02” of the time code file 12c2 (see FIG. 3) are read, the HP address <http: // abc. co. jp / ekaiwa7-2. ctxt>, the subtitle text data “May I help you?” (see FIG. 2A) of the English conversation text 7-2, which is downloaded and stored as the media content data 12c3, is read and sent to the text output program 12a1. Then, as shown in FIGS. 5 (D) to 5 (F), a reproduction display process is instructed.
[0097]
As a result, the subtitle text data "May I help you?" Of the English conversation text 7-2 is reproduced and displayed while the underline is highlighted for each character on the display unit 18.
[0098]
When the sixth command code “URL” and its parameter data “00” are read, the HP address <http: // def. co. jp / ekaiwa7-2. mp3>, the audio data “May I Help You” (see FIG. 2 (B)) of the English conversation text 7-2 downloaded and stored as the media content data 12c3 is read out, and the audio output program 12a1 is read out. As shown in FIGS. 5D to 5F, a reproduction output process is instructed.
[0099]
As a result, the audio output unit 19b sequentially starts reproducing and outputting the audio data “May I Help You” of the English conversation text 7-2.
[0100]
When the seventh command code “URL” and its parameter data “00” are read, the HP address <http: // hij. co. jp / kaiwa 7-2. mpeg>, the language common image data “male moving image” (see FIG. 2C) of the conversation text 7-2 that is downloaded and stored as the media content data 12c3 is read out, and the image output program 12a1 is read out. As shown in FIGS. 5 (D) to 5 (F), reproduction display processing is instructed.
[0101]
As a result, the language common image data “male moving image” of the conversation text 7-2 is reproduced and displayed while being sequentially switched on the display unit 18.
[0102]
In this case, as the subtitle text data “Exuse me.” And “May I help you?” Are reproduced and displayed by the text output program 12a1, each of the subtitle text data “Exuse me.” It contains time information (→...) For sequentially inverting (underlining emphasized) the text character string, and even if the audio data “Excuse Me” or “May I Help U”, When the audio data is reproduced and output by the program 12a1, it includes time information for reproducing and outputting the audio data so as to match the reverse display of the subtitle text data in accordance with the elapse of a predetermined speed from the start of the reproduction. Further, even in the language common image data “female moving image” and “male moving image”, the image output program 12 a Time information for switching and displaying the image data in accordance with the reverse display of the subtitle text data and the output of the audio data in accordance with the elapse of a predetermined speed from the start of the reproduction. The command code and its parameter data arranged in the time code file 12c2 for each reference unit time (25 ms / 50 ms) of the command processing set and described in advance in the multimedia playback file 12b (12c). Is read, and only by instructing reproduction processing of each piece of media data read in response to the URL command, synchronization of text / voice / image data for conversation learning downloaded according to the URL address described in the time code file 12c2 is performed. Playback processing can be performed.
[0103]
Accordingly, the burden on the main processing of the CPU is reduced, and even a CPU having a relatively small processing capability, for example, the portable device (PDA) 10 can easily perform synchronous reproduction processing of a plurality of types of net media data including text, images, and sounds. This can be realized even with a simple reproducing apparatus that does not use a high-performance CPU.
[0104]
FIG. 6 is a diagram showing a synchronized reproduction state of German-language conversation text, voice, and image data when a German language is specified for the multimedia reproduction file 12c for foreign language conversation learning in FIG. 3B.
[0105]
When German is specified as the designated language of the foreign language conversation learning text, the language unspecified symbol “*” on each URL corresponding to the text data and the voice data in the time code file 12c2 stored in the RAM 12C is displayed. , Is converted to the German designation symbol "g" (steps S4 → S5g), and the HP address after the German designation modification <http: // abc. co. jp / gkaiwa 7-1. ctxt><... 7-2. ctxt><... 7-3. ctxt>, the German-language subtitle text data “Entschuldigung.” “Was kanich ... Sie tun?” shown in FIG. 2A are sequentially downloaded from the net site A30a, and the HP address <http: // def. co. jp / gkaiwa 7-1. mp3><... 7-2. mp3><... 7-3. In accordance with mp3>, the German-language version of each of the audio data “entssurdigung”, “... kan ich für zi…” shown in FIG. 2 (B) is sequentially downloaded from the net site B30b, and further, the HP address <http: // hij. co. jp / kaiwa 7-1. mpeg><... 7-2. mpeg><... 7-3. In accordance with mpeg>, the image data “female moving image”, “male moving image” common to each language shown in FIG. 2C is sequentially downloaded from the net site C30c (step S6).
[0106]
Therefore, according to the reading of each command code of the time code file 12c2 after the German language designation correction, the media data (German version subtitle text data / German version audio data / common language) corresponding to the HP address associated with the command code “URL” is read. The moving image data) is read out and the reproduction thereof is instructed, so that the text / text for learning the conversation in German is exactly the same as the multimedia synchronized reproduction processing in the English version described with reference to FIG. Synchronous reproduction processing of audio / image data can be executed.
[0107]
In the first embodiment, in the first multimedia reproduction process described with reference to FIG. 4, in the first multimedia reproduction process, a language-unspecified symbol "E" in each URL described in the time code file 12c2 according to the specified language. (*) Is converted into the language designation symbols "e", "g", etc. (steps S3 to S5), and immediately access to the net sites A30a to C30c according to the HP addresses to perform synchronous reproduction. The media data (specified language version caption text data / specified language version audio data / common moving image data) is downloaded and stored in the RAM 12C as media content data 12c3 (step S6), and a command according to the time code file 12c2 is stored. When the code “URL” is read, each piece of media data associated with the Although the procedure for sequentially reading from the media content data 12c3 and instructing reproduction is performed (step S14 → S15A), as in the second multimedia reproduction process described with reference to FIG. The media data (specified language version subtitle text data / specified language version audio data / common moving image data) is read out of the command code “URL” according to the time code file 12c2, and each time the net site A 30a to the Internet address according to the HP address is read. A procedure may be adopted in which the C30c is accessed, sequentially downloaded, and a reproduction instruction is issued.
[0108]
FIG. 7 is a flowchart showing a second multimedia reproduction process of the portable device 10 according to the media synchronous reproduction program 12a2 of the first embodiment.
[0109]
In the second multimedia reproduction processing of the first embodiment, the same processing steps as those of the first multimedia reproduction processing (steps S1 to S18) in FIG. Is omitted.
[0110]
That is, in the second multimedia reproduction processing, the command code “URL” according to the time code file 12c2 is read, and each time the access to the net sites A30a to C30c according to the HP address is performed, and the synchronous reproduction is performed. It is assumed that each media data (designated language version caption text data / designated language version audio data / common moving image data) is sequentially downloaded and a reproduction instruction is given (step S14 → S15B).
[0111]
That is, in step S14, when it is determined that the command code read from the time code file 12c2 (see FIG. 3) in the reproduction file 12c is "URL", the command code is determined according to the HP address corresponding to the URL at the corresponding pointer position. Access is made to the corresponding media net sites A30a to C30c, and the specified learning data and the text data for conversation learning in the specified language, the voice data, and the image data common to each language are downloaded. The reproduction is started by the corresponding (text / audio / image) output program 12a2 (step S14 → S15B).
[0112]
That is, when text data (see FIG. 2A) is downloaded from the net site A30a in accordance with the HP address corresponding to the command code URL, reproduction and display are started by the text output program 12a2, and audio data (FIG. (See FIG. 2B), the reproduction output is started by the audio output program 12a2, and when the image data (see FIG. 2C) is downloaded, the reproduction output is started by the audio output program 12a2. Start.
[0113]
According to this, all the media data (designated language version caption text data / designated language version audio data / common moving image data) to be synchronously reproduced are downloaded in advance and stored as media content data 12c3 in RAM 12C. This eliminates the necessity, so that the multimedia data can be synchronously reproduced without occupying a large-capacity and long memory area such as the portable device 10 for a long time.
[0114]
In the first embodiment, in the first and second multimedia reproduction processes described with reference to FIGS. 4 and 7, any of the reproduction processes corresponds to the learning data designated by the user. The multimedia playback file 12b (12c [12c1, 12c2]) is read from the CD-ROM to the RAM 12C via the communication device (PC) 20 → the communication unit 16, or the server 30 is connected to the communication network N → the transmission control unit 15. After being downloaded to the RAM 12C via the RAM 12C or once taken into the portable device 10, the language on each URL in the time code file 12c2 constituting the multimedia playback file 12c is specified in accordance with the language specified by the user. The unspecified symbol “*” is converted and corrected into the language specification symbols “e”, “g”... It may be configured to reside on a server process in the media reproducing processing and the server 30 side in a bright carrying device 10 side.
[0115]
FIG. 8 is a flowchart showing a media playback process on the portable device 10 side and a server process on the server 30 side according to another embodiment in the multimedia storage and playback system of the first embodiment.
[0116]
That is, in the portable device 10, when data to be learned is designated by the user, a designation signal of the learning data is transmitted to the server 30 (step S1 ').
[0117]
When the server 30 receives the designated signal of the learning data transmitted from the portable device 10 (step B1), the server 30 has a time code file 12c2 of the designated learning data (for example, a foreign language learning text) for multimedia reproduction. The file 12b (12c) is read (step B2).
[0118]
When a language desired by the user is specified in the mobile device 10, a signal specifying the language is transmitted to the server 10 (step S2 ').
[0119]
When the server 30 receives the language designation signal transmitted from the mobile device 10 (step B3), the designated language is determined (step B4), and if "English" is designated, the step is performed. A language unspecified symbol "*" on each URL corresponding to text data and audio data in the time code file 12c2 in the multimedia reproduction file (CAS file) 12c of the user-specified conversation learning data read in B2 Is converted and corrected into the English designation symbol "e" as shown in FIG. 3C (step B5e).
[0120]
When "German" is designated, the language unspecified symbol "*" on each URL corresponding to the text data and the audio data in the time code file 12c2 read by the server 30 is replaced with the German It is converted and corrected to the designated symbol "g" (step B4 → B5g).
[0121]
Further, when "French" is designated, the language unspecified symbol "*" on each URL corresponding to the text data and the audio data in the time code file 12c2 read by the server 30 is changed to French. It is converted and corrected to the designated symbol "f" (step B4 → B5f).
[0122]
In this manner, when the server 30 converts and corrects the time code file 12c2 in the multimedia playback file (CAS file) 12c of the specified conversation learning data according to the user-specified language (for example, "English") (FIG. 3 (C)), a multimedia playback file (CAS file) 12c having the time code file 12c2 is transmitted to the learning data and the portable device 10 which is the language designation source (step B6).
[0123]
Then, the portable device 10 receives, from the server 30, a multimedia playback file (CAS file) 12c having learning data according to the user's designation and having, for example, a time code file 12c2 for English conversation learning according to the designated language. Are stored in the memory 12 (step S3 ').
[0124]
Note that the subsequent processing in the media reproduction processing in the portable device 10 is the same as the processing in the first media reproduction processing in FIG. 4 following the processing in step S6 and subsequent steps. The reproduction processing is the same as the processing following step S7 and subsequent steps, and a description thereof will be omitted.
[0125]
According to this, the portable device 10 simply designates the learning data and language desired by the user, and executes a multimedia playback file (CAS file) having the time code file 12c2 corresponding to the designated learning data and the designated language. ) 12c is generated, received and acquired on the server 30 side, so that the burden on the CPU 11 associated with the media reproduction processing in the portable device 10 can be further reduced.
[0126]
Therefore, according to the media playback function of the portable device 10 of the multimedia storage and playback system having the above-described configuration according to the first embodiment, the processing unit time preset in the time code file 12c2 of the multimedia playback file 12b (12c) is used. In association with the command code “URL” read out for each 12c1a, the storage destination net site A30a / B30b / of each media data (caption text data / audio data / image data) having time information of the reproduction speed to be synchronously reproduced in advance. A URL (HP address) indicating C30c is described, and each media data (subtitle text data / audio data / image data) downloaded according to the HP address corresponding to the command code "URL" for each setting processing unit time 12c1a. Perform each playback instruction Only the playback process of the text, audio, and image data to the portable device 10 that is not originally stored is executed necessarily synchronized. Therefore, the load on the CPU 11 can be made very small, and synchronous playback of text / voice / image can be realized even with a simple playback device that does not use a high-performance CPU.
[0127]
Also, a URL (HP address) indicating the storage destination net site A30a / B30b / C30c of each media data (caption text data / audio data / image data) having time information to be synchronously reproduced described in the time code file 12c2. , A subtitle text data corresponding to the specified language and its audio data are downloaded according to a different HP address according to the language specification symbol. Even with text data and audio data prepared for each language, text and audio data in a desired language can be easily selectively downloaded and synchronously reproduced based on one time code file 12c2.
[0128]
In the first embodiment of the multimedia storage / playback system, the subtitle text data downloaded from the net site A30a and played back according to the HP address described corresponding to each command code “URL” of the time code file 12c2 is The text data itself has time information for sequentially highlighting each character in accordance with the reproduction processing, and the text data itself is inevitably displayed synchronously with the reproduction processing of audio data and image data. As described in the second embodiment, in accordance with a command code “HL” (highlighted display) described in the time code file 12c2 and executed for each set processing unit time 12c1a, text-to-synchronous text data to be reproduced synchronously is described. A configuration for instructing highlighting may be adopted.
[0129]
(2nd Embodiment)
FIG. 9 is a diagram showing data contents provided at the net sites 30a to 30c of respective media of the second embodiment in the multimedia storage / reproduction system, and FIG. 9 (A) shows foreign data prepared at the site A 30a. FIG. 7B shows text data for practicing language conversation, FIG. 6B shows voice data for practicing foreign language conversation prepared at site B30b, and FIG. 6C shows foreign language data prepared at site C30c. It is a figure which shows the image data for word conversation practice.
[0130]
The data contents provided by the net sites 30a to 30c of the respective media of the second embodiment shown in FIG. 9 have the same data contents as the respective media data of the first embodiment shown in FIG. The description of audio data (see FIG. 9B) and image data (see FIG. 9C) is omitted.
[0131]
That is, as shown in FIG. 9A, the net site A30a <http: // abc. co. jp>, text data of each corresponding character is prepared for each language used, and data for each language is stored in association with a different URL for each sentence. This is the same as the first embodiment, except that time information (→...) For sequentially inverting and displaying a text character string is not included.
[0132]
Therefore, the initial “c” of “caption” meaning caption is not added to the URL of the text data of the second embodiment. For example, the English version of the conversation text 7-1 is “... ekaiwa7-1.text” And the German version of 7-1 is "... gkaiwa 7-1.text".
[0133]
FIG. 10 is a diagram showing a time code file 12c2 included in the multimedia playback file 12b (12c) of the second embodiment stored in the memory 12 of the portable device 10.
[0134]
First, similarly to the first embodiment, the time code file 12c2 of the second embodiment includes command processing of various data synchronous reproduction at a fixed time interval (for example, 25 ms) preset for each piece of media data. A time code for performing the command is described and arranged. Each time code includes parameter data for associating a command code designating a command with the contents of media data (see FIG. 9) related to the command. It is configured by a combination of the URLs of the net sites 30a to 30c from which the media data is obtained, the site names A to C, and the types (text / voice / image) of each media data.
[0135]
The command code for instructing the command mainly includes a command code “URL” for instructing reproduction of text data, audio data, and image data read according to the URLs of the associated net sites 30a to 30c. The command code "HL" for instructing the highlighting in accordance with the voice of each character of the text data for each text, voice, and image reproduction instruction corresponding to one sentence of text corresponds to the number of characters to be highlighted as parameter data. Described in association with each other.
[0136]
In the highlighting of each character of the text data according to the command code “HL”, the number of highlighted characters described as the parameter data varies depending on the language used, so that the time code file 12c2 itself depends on the language used. It is a dedicated language learning textbook having the same contents, and is prepared in the CD-ROM or the server 30 as an English time code file, a German time code file, a French time code file, or the like.
[0137]
That is, when the media synchronous playback processing program 12a2 stored in the ROM 12A of the portable device (PDA) 10 is started and learning data and, for example, “English” are designated, the designated learning data and the designated language “English” are designated. The multimedia playback file 12b (12c) having the English version time code file 12c2 (see FIG. 10) corresponding to the time code is read from the CD-ROM or the server 30 into the memory 12 of the portable device 10, and is stored in the time code file 12c2. Text data, audio data, and image data (see FIG. 9) of English conversation texts 7-1 and 7-2 are downloaded from the net sites A30a to C30c corresponding to the described URLs, and the media content data 12c3 in the memory 12 is downloaded. Is stored as
[0138]
When the first command code “URL” is read in accordance with the command processing at regular time intervals, the first command code is stored as the media content data 12c3 according to the URL address “... Ekaiwa7-1.txt” described correspondingly. The text data of the English conversation text 7-1 is read, and the display processing is instructed to the text output program 12a1.
[0139]
If the second command code “URL” is read in accordance with the command processing at the same fixed time, the command code is stored as the media content data 12c3 according to the URL address “... Ekaiwa7-1.mp3” described correspondingly. The voice data of the English conversation text 7-1 is read, and the voice output processing is instructed to the voice output program 12a1.
[0140]
Further, when the third command code "URL" is read in accordance with the command processing at the same fixed time, the command code is stored as the media content data 12c3 according to the URL address "... kaiwa7-1.mpeg" described correspondingly. The image data of the English conversation text 7-1 is read, and the display processing is instructed to the image output program 12a1.
[0141]
When the command code “HL” described in the fifth, 41st, and 59th is read, the first code is written by the number of characters indicated by the parameter data “02”, “07”, and “10”. In accordance with the command code "URL", each display character of the English conversation text 7-1 being displayed is sequentially highlighted.
[0142]
In addition, the audio data and the image data of the English conversation text to be reproduced at the same time are reproduced at a preset time interval, so that the output elapsed times are synchronized with each other. Time information is included in advance, and the reproduction process by the (text / audio / image) output program 12a1 is started in accordance with each command code “URL” in which time elapse is set in advance on the time code file 12c2. In the reproduction processing program 12a2, the reproduction is inevitably synchronized and controlled by the CPU 11, even if the synchronization of the synchronization is not performed by the CPU 11.
[0143]
The detailed reproduction operation of the multimedia reproduction file 12b (12c) shown in FIG. 10 will be described later.
[0144]
Next, a description will be given of a media playback function according to the second embodiment of the portable device 10 of the multimedia storage / playback system configured as described above.
[0145]
FIG. 11 is a flowchart showing a first multimedia reproduction process of the portable device 10 according to the media synchronous reproduction process program 12a2 of the second embodiment.
[0146]
For example, when practicing a foreign language conversation is performed by synchronous reproduction of text, voice, and image multimedia, learning data (for example, foreign language conversation learning) desired by the user is designated by operating the input unit 17a or the coordinate input device 17b. At the same time (step A1), when a language (English / German / French / ...) to be practiced is selected and designated (step A2) for the learning data of the foreign language conversation, for example, communication from a CD-ROM to a home PC is performed. The specified language version of the encrypted multimedia playback file (including the time code file 12c2) 12b corresponding to the specified learning data taken into the device (PC) 20 is transmitted via the communication unit 16 of the portable device (PDA) 10. A server which is read and stored in the FLASH memory 12B or on a communication network (Internet) N 0 is downloaded via the electrical transmission control unit 15, is stored in the FLASH memory 12B (step A3).
[0147]
At this time, the encrypted multimedia playback file (CAS file) 12b stored in the FLASH memory 12B is decrypted and decoded, and is transferred to the RAM 12C with the designated language version time code file 12c2 shown in FIG. 10, for example. Is stored.
[0148]
Then, according to the HP address described in association with each command code “URL” on the English time code file 12c2 corresponding to the language specified by the user (for example, “English”), the corresponding media net site A30a To C30c, the designated learning data and the text data for conversation learning in the designated language "English", the voice data, and the image data common to each language are downloaded and stored as the media content data 12c3 in the RAM 12C. (Step A4).
[0149]
That is, the HP address <http: //abc.http described in the English version time code file 12c2 shown in FIG. co. jp / ekaiwa 7-1. txt><... 7-2. txt><... 7-3. txt>, the English-language text data “Exceme me.” and “May I help you?” shown in FIG. 9A are sequentially downloaded from the net site A30a, and the HP address <http: ///. def. co. jp / ekaiwa 7-1. mp3><... 7-2. mp3><... 7-3. mp3>, the respective English-language audio data “Excuse Me” and “Mei Heap You” shown in FIG. 9B are sequentially downloaded from the net site B30b, and further, the HP address <http: // hij. . co. jp / kaiwa 7-1. mpeg><... 7-2. mpeg><... 7-3. In accordance with mpeg>, image data “female moving image”, “male moving image” common to each language shown in FIG. 9C is sequentially downloaded from the net site C30c.
[0150]
Then, the processing unit time 12c1a (for example, 25 ms / sec.) Described in the header information 12c1 of the decrypted multimedia reproduction file (CAS file) 12c including the English time code file 12c2 and the media content data 12c3 stored in the RAM 12C. 50 ms /...) Is set as a read time of the multimedia reproduction file (CAS file) 12c at a constant time interval by the CPU 11 (step A5).
[0151]
Then, a read pointer is set at the beginning of the media playback file (CAS file) 12c stored in the RAM 12C (step A6), and a timer for measuring the playback processing timing of the playback file 12c is started (step A6). A7).
[0152]
Here, the pre-reading process is started in parallel with the reproduction process (step A8).
[0153]
In step A7, when the processing timer is started, the processing timer is set in step A6 for each processing unit time corresponding to the multimedia playback target file 12c for English conversation learning set in step A5. The command code and its parameter data of the English time code file 12c2 (see FIG. 10) constituting the media reproduction file 12c at the position of the read pointer are read (step A9).
[0154]
Then, it is determined whether the command code read from the English version time code file 12c2 (see FIG. 10) in the reproduction file 12c is "FN" (step A10), and when it is determined that the command code is "FN", Is instructed and executed at that time to stop the multimedia reproduction process (step A10 → A11).
[0155]
On the other hand, when it is determined that the command code read from the time code file 12c2 (see FIG. 10) in the reproduction file 12c is not “FN”, it is determined whether the command code is “URL”. It is determined (step A10 → A12). If it is determined that the URL is "URL", the text data, audio data, or image data stored as the media content data 12c3 is read according to the HP address corresponding to the URL at the corresponding pointer position, and the type of the data is read. The reproduction is started by the (text / sound / image) output program 12a2 corresponding to (A12 → A13A).
[0156]
Then, the time counting operation by the processing timer is started again, and it is determined whether or not the time counted by the timer has reached the next processing unit time 12c1a (step A17).
[0157]
On the other hand, if it is determined in step A12 that the command code read from the English time code file 12c2 (see FIG. 10) in the reproduction file 12c is not "URL", the command code is , “HL” (steps A12 → A14). If it is determined to be "HL", each character of the text data reproduced and displayed in response to the "URL" command is highlighted by highlighting up to the position of the number of characters indicated by the parameter data ( Step A14 → A15).
[0158]
When it is determined in step A14 that the command code read from the English version time code file 12c2 (see FIG. 10) is not "HL", the process proceeds to another command process ( Step A16). The other command processing is processing of a command corresponding to each of the other command codes.
[0159]
If it is determined in step A17 that the time measured by the timer has reached the next processing unit time 12c1a, the read pointer to the multimedia playback file (CAS file) 12c stored in the RAM 12C is set to the next. The position is updated and set (steps A17 → A18), and the processing from the reading of the command code and the parameter data of the time code file 12c2 (see FIG. 10) at the position of the read pointer in step A9 is repeated (steps A18 → A9). ~ A17).
[0160]
That is, the CPU 11 of the portable device 10 executes the time code file 12c2 for each command processing unit time set and described in advance in the multimedia playback file 12b (12c) in accordance with the media synchronous playback processing program 12a2 stored in the ROM 12A. By simply reading the command codes and their parameter data arranged in (see FIG. 10) and instructing the processing corresponding to the commands, synchronous reproduction of various media data corresponding to each command described in the time code file 12c2 is performed. Processing is executed.
[0161]
Here, the synchronous reproduction output operation of text / voice / image data by the media synchronous reproduction processing program 12a1 (see FIG. 11) based on the multimedia reproduction file 12c for learning English conversation shown in FIG. This will be described in detail with reference to the synchronized playback state of the English conversation text / voice / image data indicated by 5.
[0162]
In the English language conversation learning multimedia playback file (12c), command processing is executed for each processing unit time (25 ms) described and set in the header information (12c1). First, the time code file 12c2 When the first command code “URL” and its parameter data “00” (see FIG. 10) are read out, the HP address <http: // abc. co. jp / ekaiwa 7-1. txt>, the text data “Exuse me.” (see FIG. 9A) of the English conversation text 7-1 downloaded and stored as the media content data 12c3 is read out, and the text output program 12a1 is sent to the text output program 12a1. As shown in FIGS. 5 (A) to 5 (C), a reproduction display process is instructed.
[0163]
At this point, the entire text string of the text data “Exceme me.” Of the English conversation text 7-1 is simply reproduced and displayed on the display unit 18.
[0164]
When the second command code “URL” and its parameter data “02” are read, the HP address <http: // def. co. jp / ekaiwa 7-1. mp3>, the audio data “Excuse Me” (see FIG. 9B) of the English conversation text 7-1 that has been downloaded and stored as the media content data 12c3 is read out, and sent to the audio output program 12a1. As shown in FIGS. 5A to 5C, a reproduction output process is instructed.
[0165]
As a result, the audio output unit 19b sequentially starts reproducing and outputting the audio data “Excuse Me” of the English conversation text 7-1.
[0166]
When the third command code “URL” and its parameter data “02” are read, the HP address <http: // hij. co. jp / kaiwa 7-1. mpeg>, the language common image data “female moving image” (see FIG. 9C) of the conversation text 7-1 which is downloaded and stored as the media content data 12c3 is read out, and the image output program 12a1 is read. 5 (A) to 5 (C), the reproduction display processing is instructed.
[0167]
Thereby, the language common image data “female moving image” of the conversation text 7-1 is displayed in the table.
The reproduction display is started while being sequentially switched in the display unit 18.
[0168]
When the fifth command code “HL” and its parameter data “02” are read, as shown in FIG. 5A, the highlighted text data of the second text of the displayed text data “Exuse me.” Is displayed. Is indicated.
[0169]
When the 41st command code “HL” and its parameter data “07” are read, as shown in FIG. 5B, reverse highlighting of the displayed text data “Excuse me.” Up to the seventh character is performed. Is indicated.
[0170]
Further, when the 59th command code “HL” and its parameter data “10” are read, as shown in FIG. 5C, the text data “Excuse” being displayed is displayed.
me. "Is highlighted.
[0171]
Thereafter, when the 81st command code “URL” and its parameter data “02” of the time code file 12c2 (see FIG. 10) are read, the HP address <http: // abc described corresponding to the 81st command code is read. . co. jp / ekaiwa7-2. txt>, the subtitle text data “May I help you?” (see FIG. 9A) of the English conversation text 7-2, which is downloaded and stored as the media content data 12c3, is read out and read to the text output program 12a1. Then, as shown in FIGS. 5D to 5F, a reproduction display process is instructed.
[0172]
At this point, the entire character string of the text data “May I help you?” Of the English conversation text 7-2 is simply reproduced and displayed on the display unit 18.
[0173]
When the 82nd command code “URL” and its parameter data “00” are read, the HP address <http: // def. co. jp / ekaiwa7-2. mp3>, the audio data “May I Help You” (see FIG. 9B) of the English conversation text 7-2 downloaded and stored as the media content data 12c3 is read out, and the audio output program 12a1 is read out. As shown in FIGS. 5D to 5F, a reproduction output process is instructed.
[0174]
As a result, the audio output unit 19b sequentially starts reproducing and outputting the audio data “May I Help You” of the English conversation text 7-2.
[0175]
When the 83rd command code “URL” and its parameter data “00” are read, the HP address <http: // hij. co. jp / kaiwa 7-2. mpeg>, the language common image data “male moving image” (see FIG. 9C) of the conversation text 7-2 that is downloaded and stored as the media content data 12c3 is read out, and the image output program 12a1 is read out. As shown in FIGS. 5 (D) to 5 (F), reproduction display processing is instructed.
[0176]
As a result, the language common image data “male moving image” of the conversation text 7-2 is reproduced and displayed while being sequentially switched on the display unit 18.
[0177]
In this case, the text data "Exuse me." And "May I help you?" Are reproduced and displayed by the text output program 12a1 and, in response to a command code "HL", a predetermined time from the start of the reproduction. The text strings are sequentially inverted (underlined) according to the progress, and even if the voice data “Excuse me” or “Mei eye help u”, the voice output program 12a1 performs In response to the reproduction and output, the information includes time information for reproducing and outputting the audio data so as to match the reverse display of the text data in accordance with the lapse of time at a predetermined speed from the start of the reproduction. Even in the common image data “female moving image” and “male moving image”, the image output program 12a1 The time information for switching and displaying the image data in accordance with the reverse display of the text data and the output of the audio data in accordance with the lapse of a predetermined speed from the start of the reproduction along with the reproduction display. Therefore, the command codes arranged in the time code file 12c2 and the parameter data thereof are stored for each reference unit time (25 ms / 50 ms) of the command processing set and described in advance in the multimedia playback file 12b (12c). By simply instructing the reading and playback processing of each piece of media data read in response to the URL command, and inverting and highlighting a text character string corresponding to the HL command, downloading is performed according to the URL address described in the time code file 12c2. Text / sound / image data for conversation learning Data can be played back synchronously.
[0178]
Accordingly, the burden on the main processing of the CPU is reduced, and even a CPU having a relatively small processing capability, for example, the portable device (PDA) 10 can easily perform synchronous reproduction processing of a plurality of types of net media data including text, images, and sounds. This can be realized even with a simple reproducing apparatus that does not use a high-performance CPU.
[0179]
In the second embodiment, in the first multimedia playback processing described with reference to FIG. 11, the multimedia playback having the designated language data and the designated language version time code file 12c2 corresponding to the designated language is performed. As soon as the file 12b (12c) is taken into the portable device 10 (steps A1 to A3), access is made to the net sites A30a to C30c according to the HP address of the URL command described in the time code file 12c2, The respective media data (designated language version text data / designated language version audio data / common moving image data) to be synchronously reproduced are downloaded and stored in the RAM 12C as media content data 12c3 (step A4), and the time code file 12c2 Command code “UR Is read (steps A12 to A13A) in order to sequentially read out each piece of media data associated with the HP address from the media content data 12c3 (steps A12 to A13A). This will be described with reference to FIG. As in the second multimedia playback processing, each media data (designated language version text data / designated language version audio data / common moving image data) to be synchronously played back is command code "URL" according to the time code file 12c2. Each time the data is read, the network site A30a to C30c may be accessed in accordance with the HP address each time, and sequentially downloaded and reproduced.
[0180]
FIG. 12 is a flowchart showing a second multimedia reproduction process of the portable device 10 according to the media synchronous reproduction program 12a2 of the second embodiment.
[0181]
In the second multimedia reproduction process of the second embodiment, the same processing steps as those of the first multimedia reproduction process (steps A1 to A18) in FIG. Is omitted.
[0182]
In other words, in the second multimedia reproduction process, each time the command code “URL” is read in accordance with the time code file 12c2, access is made to the net sites A30a to C30c in accordance with the HP address, and synchronous reproduction is performed. It is assumed that the media data (designated language version text data / designated language version audio data / common moving image data) to be sequentially downloaded and the reproduction instruction is given (step A12 → A13B).
[0183]
That is, in step A12, when it is determined that the command code read from the time code file 12c2 (see FIG. 10) in the reproduction file 12c is “URL”, the command code is determined according to the HP address corresponding to the URL at the corresponding pointer position. The corresponding media web sites A30a to C30c are accessed, and specified learning data and text data for speech learning in a specified language, voice data, and image data common to each language are downloaded, and the data type is determined. The reproduction is started by the corresponding (text / voice / image) output program 12a2 (step A12 → A13B).
[0184]
That is, when text data (see FIG. 9A) is downloaded from the net site A30a in accordance with the HP address corresponding to the command code URL, reproduction display is started by the text output program 12a2, and audio data (FIG. (See FIG. 9B), the reproduction output is started by the audio output program 12a2, and when the image data (see FIG. 9C) is downloaded, the reproduction output is started by the audio output program 12a2. Start.
[0185]
According to this, all media data (designated language version text data / designated language version audio data / common moving image data) to be synchronously reproduced must be downloaded in advance and stored as media content data 12c3 in RAM 12C. Therefore, multimedia data can be synchronously reproduced without occupying a large-capacity memory area such as the portable device 10 for a long time.
[0186]
Therefore, according to the media playback function of the portable device 10 of the multimedia storage / playback system having the above-described configuration according to the second embodiment, the processing unit time preset in the time code file 12c2 of the multimedia playback file 12b (12c) is used. The URL (HP address) indicating the storage destination net site A30a / B30b / C30c of each media data (text data / audio data / image data) to be synchronously reproduced is associated with the command code "URL" read for each 12c1a. In accordance with the command code "URL" for each set processing unit time 12c1a, the reproduction instruction of each media data (text data / audio data / image data) downloaded in accordance with the HP address is performed, and the command code According to "HL" Text only instructs the sequential highlighting of the data string, the reproduction processing of text, audio, and image data to the portable device 10 that is not originally stored is executed necessarily synchronized. Therefore, the load on the CPU 11 can be made very small, and synchronous playback of text / voice / image can be realized even with a simple playback device that does not use a high-performance CPU.
[0187]
Note that the method of each processing by the mobile device 10 described in the above embodiment, that is, the first multimedia reproduction processing in the first embodiment shown in the flowchart of FIG. 4 and the first embodiment shown in the flowchart of FIG. A second multimedia playback process, a media playback process on the portable device 10 side and a server process on the server 30 side according to the other embodiments in each multimedia playback process of the first embodiment shown in the flowchart of FIG. Each of the techniques such as the first multimedia playback processing in the second embodiment shown in the flowchart of FIG. 11 and the second multimedia playback processing in the second embodiment shown in the flowchart of FIG. 12 is executed by the computer. Examples of programs that can be executed include a memory card (ROM card, RAM card, DATA / CARD, etc.), a magnetic card, Disk (floppy disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.) can be distributed and stored in the external recording medium 13 such as a semiconductor memory. Various computer terminals having a communication function with the communication network (Internet) N read the program stored in the external recording medium 13 into the memory 12 by the recording medium reading unit 14, and operate according to the read program. By being controlled, the synchronous reproduction function of the multimedia data described in each of the embodiments can be realized, and the same processing can be performed by the above-described method.
[0188]
Further, data of a program for realizing each of the above methods can be transmitted on a communication network (Internet) N in the form of a program code, and a computer terminal connected to the communication network (Internet) N transmits the program data. It is also possible to take in program data and realize the above-mentioned synchronous reproduction function of multimedia data.
[0189]
It should be noted that the present invention is not limited to the above-described embodiments, and can be variously modified in an implementation stage without departing from the scope of the invention. Furthermore, the embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some components are deleted from all the components shown in each embodiment or some components are combined, the problem described in the section of the problem to be solved by the invention can be solved. In the case where the effects described in the section of the effects of the invention can be obtained, a configuration in which this component is deleted or combined can be extracted as the invention.
[0190]
【The invention's effect】
As described above, according to the media data storage device of claim 1 of the present invention, the elapsed time is set in advance for each of a plurality of types of media to be synchronously reproduced and the URL of each media is stored. Access to the storage means, and acquiring the data of the media associated with the URL of each medium stored by the storage means via the Internet by the media data acquisition means prior to the synchronous reproduction of a plurality of types of media. it can. For this reason, the URLs of the respective media stored by the storage means are sequentially read out according to the set elapsed time, and the data of the respective media obtained by the media data obtaining means in association with the read URLs. Can be reproduced quickly and reliably.
[0191]
Further, according to the media data storage device of the present invention, the storage means for storing the URL of each of the media arranged in advance by setting the elapsed time for each of a plurality of types of media to be synchronously reproduced. Prior to the synchronous reproduction of the plurality of types of media, the data of the plurality of types of media stored in the storage device in association with the URLs of the respective media stored by the storage unit. It can be obtained via the Internet and stored by media data storage means. For this reason, the URLs of the respective media stored by the storage means are sequentially read out according to the set elapsed time, and the data of the respective media stored by the media data storage means are associated with the read URLs. Can be played back quickly and reliably.
[0192]
According to the media data storage device of the present invention, the storage means stores the URL of each of the media arranged in advance by setting the elapsed time for each of a plurality of types of media to be synchronously reproduced. And the media data acquisition unit sequentially reads out the URLs of the respective media stored by the storage unit in accordance with the set elapsed time, and transmits the media data associated with the read URLs via the Internet. Can be obtained with For this reason, it is possible to sequentially fetch various data to be synchronously reproduced from the net site of each medium in accordance with the URL of each site according to the set elapsed time, and to quickly and surely synchronously reproduce the fetched data of a plurality of media. it can.
[0193]
According to the media data storage device of claim 4 of the present invention, in the media data storage device of claim 1 or claim 2, the storage means reproduces data of a plurality of types of media synchronously. The control command storage means stores the control commands arranged with the elapsed time set in advance for each of the media in such a manner that the URLs of the respective media are associated with each other. In accordance with a control command for each set elapsed time, various types of data to be synchronously reproduced are fetched from a net site of each medium by a URL associated therewith, and the fetched data of a plurality of media is synchronously and rapidly reproduced. Can be.
[0194]
Also, according to the media data storage device according to claim 5 of the present invention, in the media data storage device according to any one of claims 1 to 4, the data of the plurality of types of media is Text data is included, and this text data has time information for synchronous reproduction with data of another type of media in advance. In accordance with the time information for synchronous reproduction included in the text data, the text data can be synchronously reproduced with data of other types of media quickly and reliably.
[0195]
According to the media data storage device of claim 6 of the present invention, in the media data storage device of claim 1 or 2, the storage means includes at least text of a plurality of types of media. A control for storing a control command arranged with an elapsed time set in advance for each medium so that data is reproduced synchronously with a URL of each medium and storing a display control command for the text data. Since the command storage means is used, the text data among the various data to be synchronously read in from the media site of each medium is displayed in accordance with the display control command for each set elapsed time stored by the control command storage means, Synchronous playback can be performed quickly and reliably with data of other types of media.
[0196]
Further, according to the media data storage device of the present invention, in the media data storage device of any one of the above-mentioned claims, the data of the plurality of types of media is Data in a plurality of languages is prepared, the URL stored by the storage means includes a language designation symbol, and the media data acquisition means includes a medium associated with the URL of each medium stored by the storage means. The data of the specified language is obtained via the Internet, so that the data of each medium in the specified language is also simply taken from each net site specified by the URL, and the data of a plurality of media specified in the language can be quickly and quickly obtained. Synchronous playback can be performed reliably.
[0197]
According to the media data storage processing program according to claim 8 of the present invention, by installing the program in the media data storage device, a plurality of types of media to be synchronously reproduced on the computer of the media data storage device The storage means storing the URLs of the respective media arranged with the elapsed time set in advance for each of the media is accessed, and the data of the media associated with the URLs of the respective media stored by the storage means are stored in a plurality of types. Prior to the synchronized reproduction of the media, the media data can be acquired by the media data acquiring means via the Internet. For this reason, in the media data storage device, the URLs of the respective media stored by the storage unit are sequentially read out according to the set elapsed time, and are obtained by the media data obtaining unit in association with the read URLs. The data of each of the media can be quickly and reliably reproduced synchronously.
[0198]
According to the media data storage processing program of the ninth aspect of the present invention, by installing the program in the media data storage device, a plurality of types of media to be synchronously reproduced in the computer of the media data storage device The storage means storing the URLs of the media arranged with the elapsed time set in advance for each of the media is accessed, and stored in the storage device in association with the URLs of the media stored by the storage means. Prior to synchronous reproduction of a plurality of types of media, data of a plurality of types of media can be acquired by the media data acquisition unit via the Internet, and can be stored by the media data storage unit. For this reason, in the media data storage device, the URLs of the respective media stored by the storage means are sequentially read out according to the set elapsed time, and are stored by the media data storage means in association with the read URLs. The data of each of the media can be quickly and reliably reproduced synchronously.
[0199]
According to the media data storage processing program according to claim 10 of the present invention, by installing the program in the media data storage device, a plurality of types of media to be synchronously reproduced on the computer of the media data storage device The storage means storing the URLs of the media arranged in advance with the elapsed time set for each is accessed, and the media data acquisition means sets the elapsed time at which the URLs of the media stored by the storage means are set. , And the media data associated with the read URL can be obtained via the Internet. For this reason, the media data storage device sequentially captures various data to be synchronously reproduced from the net site of each media in accordance with the URL of each site according to the set elapsed time, and quickly and reliably captures the captured data of the plurality of media. Can be played back synchronously.
[0200]
Therefore, according to the present invention, it is possible to provide a media data storage device and a media data storage processing program capable of acquiring media data via the Internet prior to synchronous reproduction of a plurality of types of media.
[Brief description of the drawings]
FIG. 1 is a diagram showing an overall configuration of a multimedia storage / playback system including a portable device 10 according to an embodiment of a media data storage device of the present invention.
FIG. 2 is a diagram showing data contents provided at net sites 30a to 30c of respective media of the first embodiment in the multimedia storage / reproduction system, and FIG. 2 (A) is prepared at site A 30a. Figure showing subtitle text data for practicing foreign language conversation, Figure (B) is a figure showing audio data for practicing foreign language conversation prepared at site B30b, and Figure (C) is prepared at site C30c. The figure which shows the image data for foreign language conversation practice.
FIG. 3 is a view showing a time code file 12c2 included in the multimedia playback file 12b (12c) of the first embodiment stored in the memory 12 of the portable device 10.
FIG. 4 is a flowchart showing a first multimedia playback process of the portable device 10 according to a media synchronous playback program 12a2 of the first embodiment.
FIG. 5 is a diagram showing a synchronized playback state of English conversation text, voice, and image data based on the multimedia playback file 12c for learning English conversation in FIG. 3C.
FIG. 6 is a diagram showing a synchronized reproduction state of German-language conversation text, voice, and image data when a German language is specified for the multimedia reproduction file for foreign language conversation learning 12c in FIG. 3B.
FIG. 7 is a flowchart showing a second multimedia reproduction process of the portable device 10 according to the media synchronous reproduction program 12a2 of the first embodiment.
FIG. 8 is a flowchart showing a media playback process on the portable device 10 and a server process on the server 30 according to another embodiment in the multimedia storage and playback system of the first embodiment.
FIG. 9 is a diagram showing data contents provided at net sites 30a to 30c of respective media of the second embodiment in the multimedia storage / playback system, and FIG. 9 (A) is prepared at site A 30a. Diagram showing text data for foreign language practice, FIG. (B) shows voice data for foreign language practice prepared at site B30b, and FIG. (C) shows data at site C30c. The figure which shows the image data for a foreign language conversation practice.
FIG. 10 is a view showing a time code file 12c2 constituting a multimedia playback file 12b (12c) of the second embodiment stored in the memory 12 of the portable device 10.
FIG. 11 is a flowchart showing a first multimedia playback process of the portable device 10 according to a media synchronous playback program 12a2 of the second embodiment.
FIG. 12 is a flowchart showing a second multimedia reproduction process of the portable device 10 according to a media synchronous reproduction program 12a2 of the second embodiment.
[Explanation of symbols]
10… Portable equipment
11 ... CPU
12 ... memory
12A… ROM
12a: Portable device control program
12a1 ... (text / sound / image) output program
12a2: Media synchronous playback processing program
12B: FLASH memory
12b: Encrypted multimedia playback file (CAS file)
12C ... RAM
12c: Decoded multimedia playback file (CAS file)
12c1 ... header information
12c1a: Processing unit time
12c2: Time code file
12c3 ... Media content data
12d ... (learning / language) designation data
12e: Image expansion buffer
13. External recording medium
14: Recording medium reading unit
15 ... Transmission control unit
16… Communication unit
17a ... input section
17b Coordinate input device
18 Display part
19a: Voice input unit
19b: audio output unit
20… Communication equipment (home PC)
30… Web server
30a: Net site A (text)
30b: Net site B (voice)
30c: Net site C (image)
N: Communication network (Internet)

Claims (10)

同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段と、
この記憶手段により記憶された各メディアのURLに対応付けられたメディアのデータを複数種類のメディアの同期再生に先立ってインターネット経由で取得するメディアデータ取得手段と、を備えたことを特徴とするメディアデータ記憶装置。
Storage means for storing URLs of media arranged in advance by setting an elapsed time for each of a plurality of types of media to be synchronously reproduced;
Media data acquisition means for acquiring media data associated with the URL of each medium stored by the storage means via the Internet prior to synchronous playback of a plurality of types of media. Data storage device.
同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段と、
この記憶手段により記憶された各メディアのURLに対応付けられて記憶装置にそれぞれ記憶されている複数種類のメディアのデータを複数種類のメディアの同期再生に先立ってインターネット経由で取得するメディアデータ取得手段と、このメディアデータ取得手段により取得された各メディアのデータを記憶するメディアデータ記憶手段と、を備えたことを特徴とするメディアデータ記憶装置。
Storage means for storing URLs of media arranged in advance by setting an elapsed time for each of a plurality of types of media to be synchronously reproduced;
Media data acquisition means for acquiring data of a plurality of types of media stored in a storage device in association with URLs of respective media stored by the storage means via the Internet prior to synchronous reproduction of the plurality of types of media. And a media data storage unit for storing data of each medium acquired by the media data acquisition unit.
同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段と、
この記憶手段により記憶された各メディアのURLを設定された経過時間に従って順次読み出し、この読み出されたURLに対応付けられたメディアのデータをインターネット経由で取得するメディアデータ取得手段と、を備えたことを特徴とするメディアデータ記憶装置。
Storage means for storing URLs of media arranged in advance by setting an elapsed time for each of a plurality of types of media to be synchronously reproduced;
Media data acquisition means for sequentially reading out the URLs of the respective media stored by the storage means in accordance with the set elapsed time and acquiring data of the media associated with the read out URLs via the Internet. A media data storage device, characterized in that:
前記記憶手段は、複数種類のメディアのデータが同期再生されるように当該各メディア毎に予め経過時間を設定して配列された制御命令に、各メディアのURLを対応付けて記憶する制御命令記憶手段である、ことを特徴とする請求項1または請求項2に記載のメディアデータ記憶装置。The storage means stores a control command in which the elapsed time is set in advance for each of the media such that data of a plurality of types of media are synchronously reproduced and the URL of each media is stored in association with the control command. 3. The media data storage device according to claim 1, wherein the media data storage device is a unit. 前記複数種類のメディアのデータにはテキストデータが含まれ、このテキストデータは予め他の種類のメディアのデータとの同期再生のための時間情報を有する、ことを特徴とする請求項1乃至請求項4の何れか1項に記載のメディアデータ記憶装置。The data of the plurality of types of media includes text data, and the text data has time information for synchronized playback with data of another type of media in advance. 5. The media data storage device according to claim 4. 前記記憶手段は、複数種類のメディアの少なくともテキストを含むデータが同期再生されるように当該各メディア毎に予め経過時間を設定して配列された制御命令に、各メディアのURLを対応付けて記憶すると共に、前記テキストデータに対する表示制御命令を記憶する制御命令記憶手段である、ことを特徴とする請求項1または請求項2に記載のメディアデータ記憶装置。The storage means stores control instructions arranged in advance by setting an elapsed time for each of the media so that data including at least text of a plurality of types of media is synchronously reproduced, and associates a URL of each media with the URL. 3. The media data storage device according to claim 1, further comprising control command storage means for storing a display control command for the text data. 前記複数種類のメディアのデータには複数の言語からなるデータが用意され、
前記記憶手段により記憶されるURLは言語の指定記号を含み、
前記メディアデータ取得手段は、前記記憶手段により記憶された各メディアのURLに対応付けられたメディアの指定の言語のデータをインターネット経由で取得する、ことを特徴とする請求項1乃至請求項6の何れか1項に記載のメディアデータ記憶装置。
Data of a plurality of languages is prepared for the data of the plurality of types of media,
The URL stored by the storage means includes a language designation symbol,
7. The media data acquiring device according to claim 1, wherein the media data acquiring device acquires, via the Internet, data in a specified language of the media associated with the URL of each media stored in the storage device. A media data storage device according to any one of the preceding claims.
メディアデータ記憶装置のコンピュータを制御するためのメディアデータ記憶処理プログラムであって、
前記コンピュータを、
同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段をアクセスし、この記憶手段により記憶された各メディアのURLに対応付けられたメディアのデータを複数種類のメディアの同期再生に先立ってインターネット経由で取得するメディアデータ取得手段、として機能させるようにしたコンピュータ読み込み可能なメディアデータ記憶処理プログラム。
A media data storage processing program for controlling a computer of a media data storage device,
Said computer,
The storage means storing the URLs of the media arranged in such a manner that the elapsed time is set in advance for each of a plurality of types of media to be synchronously reproduced is associated with the URLs of the media stored by the storage means. A computer-readable medium data storage processing program functioning as media data obtaining means for obtaining the data of the obtained media via the Internet prior to the synchronous reproduction of a plurality of types of media.
メディアデータ記憶装置のコンピュータを制御するためのメディアデータ記憶処理プログラムであって、
前記コンピュータを、
同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段をアクセスし、この記憶手段により記憶された各メディアのURLに対応付けられて記憶装置にそれぞれ記憶されている複数種類のメディアのデータを複数種類のメディアの同期再生に先立ってインターネット経由で取得するメディアデータ取得手段、
このメディアデータ取得手段により取得された各メディアのデータを記憶するメディアデータ記憶手段、として機能させるようにしたコンピュータ読み込み可能なメディアデータ記憶処理プログラム。
A media data storage processing program for controlling a computer of a media data storage device,
Said computer,
The storage means storing the URLs of the media arranged in advance by setting the elapsed time for each of a plurality of types of media to be played back in synchronization is accessed, and the storage means is associated with the URLs of the media stored by the storage means. Media data acquisition means for acquiring data of a plurality of types of media stored in the storage device via the Internet prior to the synchronized playback of the plurality of types of media,
A computer-readable media data storage processing program functioning as media data storage means for storing data of each medium acquired by the media data acquisition means.
メディアデータ記憶装置のコンピュータを制御するためのメディアデータ記憶処理プログラムであって、
前記コンピュータを、
同期再生されるべき複数種類のメディア毎に予め経過時間を設定して配列された各メディアのURLを記憶している記憶手段をアクセスし、この記憶手段により記憶された各メディアのURLを設定された経過時間に従って順次読み出し、この読み出されたURLに対応付けられたメディアのデータをインターネット経由で取得するメディアデータ取得手段、として機能させるようにしたコンピュータ読み込み可能なメディアデータ記憶処理プログラム。
A media data storage processing program for controlling a computer of a media data storage device,
Said computer,
The storage means storing the URLs of the media arranged in such a manner that the elapsed time is set in advance for each of a plurality of types of media to be played back in synchronization is accessed, and the URL of each media stored by the storage means is set. A computer-readable medium data storage processing program that functions as media data acquisition means for sequentially acquiring data of the medium associated with the read URL via the Internet, according to the elapsed time.
JP2003054832A 2003-02-28 2003-02-28 Media data storage apparatus, and media data storage processing program Abandoned JP2004266576A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003054832A JP2004266576A (en) 2003-02-28 2003-02-28 Media data storage apparatus, and media data storage processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003054832A JP2004266576A (en) 2003-02-28 2003-02-28 Media data storage apparatus, and media data storage processing program

Publications (1)

Publication Number Publication Date
JP2004266576A true JP2004266576A (en) 2004-09-24

Family

ID=33119060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003054832A Abandoned JP2004266576A (en) 2003-02-28 2003-02-28 Media data storage apparatus, and media data storage processing program

Country Status (1)

Country Link
JP (1) JP2004266576A (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012048812A (en) * 2011-10-03 2012-03-08 Toshiba Corp Information storage medium, program, information reproduction method, information reproduction device, data transfer method, and data processing method
JP2012529694A (en) * 2009-06-08 2012-11-22 サムスン エレクトロニクス カンパニー リミテッド Remote user interface providing method and apparatus
JP2013536639A (en) * 2010-08-13 2013-09-19 ネットフリックス・インコーポレイテッド System and method for synchronous playback of streaming digital content
CN103733159A (en) * 2011-03-23 2014-04-16 奥德伯公司 Synchronizing digital content
US9087508B1 (en) 2012-10-18 2015-07-21 Audible, Inc. Presenting representative content portions during content navigation
US9099089B2 (en) 2012-08-02 2015-08-04 Audible, Inc. Identifying corresponding regions of content
US9141257B1 (en) 2012-06-18 2015-09-22 Audible, Inc. Selecting and conveying supplemental content
US9223830B1 (en) 2012-10-26 2015-12-29 Audible, Inc. Content presentation analysis
US9280906B2 (en) 2013-02-04 2016-03-08 Audible. Inc. Prompting a user for input during a synchronous presentation of audio content and textual content
US9317486B1 (en) 2013-06-07 2016-04-19 Audible, Inc. Synchronizing playback of digital content with captured physical content
US9367196B1 (en) 2012-09-26 2016-06-14 Audible, Inc. Conveying branched content
US9472113B1 (en) 2013-02-05 2016-10-18 Audible, Inc. Synchronizing playback of digital content with physical content
US9489360B2 (en) 2013-09-05 2016-11-08 Audible, Inc. Identifying extra material in companion content
US9536439B1 (en) 2012-06-27 2017-01-03 Audible, Inc. Conveying questions with content
US9632647B1 (en) 2012-10-09 2017-04-25 Audible, Inc. Selecting presentation positions in dynamic content
US9679608B2 (en) 2012-06-28 2017-06-13 Audible, Inc. Pacing content
US9703781B2 (en) 2011-03-23 2017-07-11 Audible, Inc. Managing related digital content
US9734153B2 (en) 2011-03-23 2017-08-15 Audible, Inc. Managing related digital content
US9792027B2 (en) 2011-03-23 2017-10-17 Audible, Inc. Managing playback of synchronized content

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012529694A (en) * 2009-06-08 2012-11-22 サムスン エレクトロニクス カンパニー リミテッド Remote user interface providing method and apparatus
US9420350B2 (en) 2009-06-08 2016-08-16 Samsung Electronics Co., Ltd. Method and apparatus for providing a remote user interface
US10712771B2 (en) 2010-08-13 2020-07-14 Netflix, Inc. System and method for synchronized playback of streaming digital content
JP2013536639A (en) * 2010-08-13 2013-09-19 ネットフリックス・インコーポレイテッド System and method for synchronous playback of streaming digital content
JP2015216679A (en) * 2010-08-13 2015-12-03 ネットフリックス・インコーポレイテッドNetflix, Inc. System and method for synchronized playback of streaming digital content
JP2014514644A (en) * 2011-03-23 2014-06-19 オーディブル・インコーポレイテッド Synchronous digital content
US9792027B2 (en) 2011-03-23 2017-10-17 Audible, Inc. Managing playback of synchronized content
CN103733159B (en) * 2011-03-23 2017-08-22 奥德伯公司 Synchronous digital content
US9734153B2 (en) 2011-03-23 2017-08-15 Audible, Inc. Managing related digital content
US9703781B2 (en) 2011-03-23 2017-07-11 Audible, Inc. Managing related digital content
CN103733159A (en) * 2011-03-23 2014-04-16 奥德伯公司 Synchronizing digital content
US9697265B2 (en) 2011-03-23 2017-07-04 Audible, Inc. Synchronizing digital content
JP2012048812A (en) * 2011-10-03 2012-03-08 Toshiba Corp Information storage medium, program, information reproduction method, information reproduction device, data transfer method, and data processing method
US9141257B1 (en) 2012-06-18 2015-09-22 Audible, Inc. Selecting and conveying supplemental content
US9536439B1 (en) 2012-06-27 2017-01-03 Audible, Inc. Conveying questions with content
US9679608B2 (en) 2012-06-28 2017-06-13 Audible, Inc. Pacing content
US9099089B2 (en) 2012-08-02 2015-08-04 Audible, Inc. Identifying corresponding regions of content
US9799336B2 (en) 2012-08-02 2017-10-24 Audible, Inc. Identifying corresponding regions of content
US10109278B2 (en) 2012-08-02 2018-10-23 Audible, Inc. Aligning body matter across content formats
US9367196B1 (en) 2012-09-26 2016-06-14 Audible, Inc. Conveying branched content
US9632647B1 (en) 2012-10-09 2017-04-25 Audible, Inc. Selecting presentation positions in dynamic content
US9087508B1 (en) 2012-10-18 2015-07-21 Audible, Inc. Presenting representative content portions during content navigation
US9223830B1 (en) 2012-10-26 2015-12-29 Audible, Inc. Content presentation analysis
US9280906B2 (en) 2013-02-04 2016-03-08 Audible. Inc. Prompting a user for input during a synchronous presentation of audio content and textual content
US9472113B1 (en) 2013-02-05 2016-10-18 Audible, Inc. Synchronizing playback of digital content with physical content
US9317486B1 (en) 2013-06-07 2016-04-19 Audible, Inc. Synchronizing playback of digital content with captured physical content
US9489360B2 (en) 2013-09-05 2016-11-08 Audible, Inc. Identifying extra material in companion content

Similar Documents

Publication Publication Date Title
JP2004266576A (en) Media data storage apparatus, and media data storage processing program
EP2242043A1 (en) Information processing apparatus with text display function, and data acquisition method
JP4127668B2 (en) Information processing apparatus, information processing method, and program
JP2005070645A (en) Text and voice synchronizing device and text and voice synchronization processing program
JP3927962B2 (en) Data processing apparatus and data processing program
JP2011030224A (en) System and method for displaying multimedia subtitle
JP2005073138A (en) Information regenerating device and information regeneration processing program
JP6865701B2 (en) Speech recognition error correction support device and its program
JP6949075B2 (en) Speech recognition error correction support device and its program
JP2004266577A (en) Media synchronously reproducing apparatus, server and media synchronous reproduction processing program, and server processing program
JP2007041302A (en) Voice reproducing apparatus and voice reproduction processing program
JP4277512B2 (en) Electronic device and program
JP4407119B2 (en) Instruction code creation device
JP2007199574A (en) Music reproducing apparatus and music telop retrieval server
JP3846416B2 (en) Reproduction control device and reproduction control processing program
JP2005077678A (en) Text and voice synchronizing device and text and voice synchronization processing program
KR20010076136A (en) portable reading apparatus
JP7197688B2 (en) Playback control device, program and playback control method
JP2006222568A (en) Narration support device, and document editing method and program thereof
KR102025903B1 (en) Apparatus and method for language learning
JP3818235B2 (en) Information reproducing apparatus and information reproducing processing program
JP4796985B2 (en) Synthesis method, synthesis apparatus, and program
KR20110060773A (en) Multimedia file playing method and player
JP4587966B2 (en) Data processing device
JP2000099308A (en) Electronic book player

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080924

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20081125