JP3706621B2 - Multimedia presentation method and system - Google Patents

Multimedia presentation method and system Download PDF

Info

Publication number
JP3706621B2
JP3706621B2 JP2003178009A JP2003178009A JP3706621B2 JP 3706621 B2 JP3706621 B2 JP 3706621B2 JP 2003178009 A JP2003178009 A JP 2003178009A JP 2003178009 A JP2003178009 A JP 2003178009A JP 3706621 B2 JP3706621 B2 JP 3706621B2
Authority
JP
Japan
Prior art keywords
sound
data
image
recording medium
read
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003178009A
Other languages
Japanese (ja)
Other versions
JP2003333536A (en
Inventor
典久 羽田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2003178009A priority Critical patent/JP3706621B2/en
Publication of JP2003333536A publication Critical patent/JP2003333536A/en
Application granted granted Critical
Publication of JP3706621B2 publication Critical patent/JP3706621B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)

Description

【0001】
【技術分野】
この発明は,画像(文字画像を含む)と音(音楽,ナレーションを含む)とからなるマルチメディアを発生させるマルチメディア・プレゼンテーション方法およびシステムに関する。
【0002】
【背景技術】
店頭における商品案内,美術館,博物館等における展示物の案内のために,静止画とナレーション,および必要に応じてバックグランド・ミュージック(BGMという)が組合わされて用いられる。とくに,ナレーションとBGMとはともに音であるから,これらは一つのスピーカから出力されることが多い。一般にはナレーションとBGMとを別個に録音しておき(または別個に録音したものを用い),ナレーションの音信号とBGMの音信号とを再生して適当なタイミングでミキシングして記録媒体に記録(録音)することが行なわれている。
【0003】
ナレーションと音楽とを一旦ミキシングしてしまうと,これらの信号の組合せが固定されてしまうので,いずれか一方のタイミングをずらしたり,修正したりするためには,はじめからやり直さなければならない。
【0004】
画像と音との場合にも,これらを表わす信号(データ)を記録媒体上に出現順序で固定的に配列して記録してしまうと,同じように修正,変更が容易でないという問題がある。
【0005】
【発明の開示】
この発明は複数の異なるメディア(ナレーション,音楽,画像等)を自在に容易に組合せることができ,しかもその組合せ,タイミング等の修正,変更等が容易なマルチメディア・プレゼンテーション方法およびシステムを提供するものである。
【0006】
この発明によるマルチメディア・プレゼンテーション方法は,複数の画像データをそれらの識別情報と関連づけて記録した第1の記録媒体と,複数の第1の音データをそれらの識別情報と関連づけて記録した第2の記録媒体と,複数の第2の音データを記録した第3の記録媒体とを用い,少なくとも表示すべき画像を表わす画像データを示す識別情報と画像表示の開始時間データとを含む画像キャスト,少なくとも発生させるべき音を表わす第1の音データを示す識別情報と音発生の開始時間データとを含む音キャスト,プレゼンテーションのために用いる画像キャストと音キャストとのリスト,およびプレゼンテーションのために用いる第2の音データのアクセス情報とその開始時間データとを記述したテーブルをあらかじめ作成して第4の記録媒体に格納しておき,第4の記録媒体から上記リストに含まれる画像キャストおよび音キャストを読出すとともに上記テーブルを読出し,読出した画像キャストおよび音キャストに含まれる識別情報にしたがって第1の記録媒体および第2の記録媒体から画像データおよび第1の音データを読出し,読出した上記テーブルのアクセス情報にしたがって第3の記録媒体から第2の音データを読出し,画像キャスト,音キャストおよび上記テーブルに記述された開始時間にしたがって,読出した画像データによって表わされる画像を表示装置に表示し,読出した第1および第2の音データによって表わされる音をスピーカから出力させるものである。
【0007】
この発明によるマルチメディア・プレゼンテーション・システムは,複数の画像データをそれらの識別情報と関連づけて格納した第1の記録媒体から,指示された識別情報に対応する画像データを読出す第1の読取装置,複数の第1の音データをそれらの識別情報と関連づけて格納した第2の記録媒体から,指示された識別情報に対応する第1の音データを読出す第2の読取装置,第2の音データを格納した第3の記録媒体から,与えられたアクセス情報によって指定される第2の音データを読出す第3の読取装置,第1の記録媒体から読出された画像データによって表わされる画像を表示する表示装置,第2の記録媒体から読出された第1の音データによって表わされる第1の音を発生する第1の音発生装置,第3の記録媒体から読出された第2の音データによって表わされる第2の音を発生する第2の音発生装置,ならびに少なくとも表示すべき画像を表わす画像データを示す識別情報と画像表示の開始時間データとを含む画像キャスト,少なくとも発生させるべき音を表わす第1の音データを示す識別情報と音発生の開始時間データとを含む音キャスト,プレゼンテーションのために用いる画像キャストと音キャストとのリスト,およびプレゼンテーションのために用いる第2の音データのアクセス情報とその開始時間データとを記述したテーブルを格納した第4の記録媒体から上記リストに含まれる画像キャストおよび音キャストを読出すとともに上記テーブルを読出し,読出した画像キャストおよび音キャストに含まれる識別情報にしたがって第1の記録媒体および第2の記録媒体から画像データおよび第1の音データを読出し,読出した上記テーブルのアクセス情報にしたがって第3の記録媒体から第2の音データを読出し,画像キャスト,音キャストおよび上記テーブルに記述された開始時間にしたがって,読出した画像データによって表わされる画像を上記表示装置に表示し,読出した第1および第2の音データによって表わされる第1および第2の音を上記第1および第2の音発生装置から出力させるように制御する制御装置を備えている。
【0008】
上記第1の記録媒体,第2の記録媒体および第3の記録媒体のうちの少なくとも2つが同一の記録媒体であってもよい。第1の記録媒体と第2の記録媒体とが同一の場合には上記第1の読取装置と上記第2の読取装置が同一の装置となる。
【0009】
上記第1の音発生装置と上記第2の音発生装置の少なくとも一部を共用することもできる。
【0010】
一例を挙げると,画像データによって表わされる画像は静止画であり,第1の音データによって表わされる音はナレーションであり,第2の音データによって表わされる音はBGMである。したがって,BGMを流しながら,静止画を表示し,その静止画の説明を音(ナレーション)で出力することができる。
【0011】
静止画は画像キャストによって管理される。ナレーション(第1の音)は音キャストによって管理される。BGM(第2の音)は上記テーブルによって管理される。したがって,すべてのメディアがそれぞれ別個独立に管理されるので,その作成,修正,変更が他のメディアに影響されることがなくなり,その作業が容易となる。これらのメディアは開始時間データによって組合わされる。したがって開始時間データのみによってメディアの出力タイミングを選定することができる。BGM(第2の音)のための第3の記録媒体としては,BGM専用のもの(たとえば市販のコンパクト・ディスク,光磁気ディスク等)をそのまま(何ら加工することなく)用いることができる。画像,音の素材もまた元のまま(加工しない状態で)保存することもできる。
【0012】
好ましい実施態様においては,表示すべき画像の解像度,位置または拡大,縮小倍率を画像キャストにあらかじめ記述しておくことにより,この記述にしたがう画像の表示が行なわれる。
【0013】
画像表示の最初の段階で実行すべき効果およびその時間を画像キャストにあらかじめ記述しておくと,この記述にしたがう効果表示を行うことができる。
【0014】
他の好ましい実施態様においては,音データのうち発生させるべき部分を表わす時点データを音キャストにあらかじめ記述しておくことにより,この時点データによって規定される時間帯の音を発生させることができる。
【0015】
いわゆる合体型画像データを利用することもできる。すなわち,複数の画像データとこれらの画像データの合成に関するデータとを含む合体型画像ファイルを,上記画像データとして第1の記録媒体にあらかじめ格納しておき,画像キャストに合体型画像ファイルの識別情報を含ませておく。これにより,画像キャストによって合体型画像ファイルが指示されているときに,合体型画像ファイルに規定された少くとも2つの画像を合成して表示することができる。
【0016】
合体型画像データのフォーマットおよびその合成方法については本願と同一出願人による同日出願の特許願(整理番号 94086)の明細書に詳述されている。
【0017】
この発明はナレーション(第1の音)とBGM(第2の音)との組合せ(画像がないもの)にも適用可能である。この明細書では2種類の音もまたマルチメディアの概念に含まれる。
【0018】
この発明によるマルチメディア・プレゼンテーション方法は,複数の第1の音データをそれらの識別情報と関連づけて記録した第1の記録媒体と,複数の第2の音データを記録した第2の記録媒体とを用い,少なくとも発生させるべき音を表わす第1の音データを示す識別情報と音発生の開始時間データとを含む音キャスト,プレゼンテーションのために用いる音キャストのリスト,およびプレゼンテーションのために用いる第2の音データのアクセス情報とその開始時間データとを記述したテーブルをあらかじめ作成して第3の記録媒体に格納しておき,第3の記録媒体から上記リストに含まれる音キャストを読出すとともに上記テーブルを読出し,読出した音キャストに含まれる識別情報にしたがって第1の記録媒体から第1の音データを読出し,読出した上記テーブルのアクセス情報にしたがって第2の記録媒体から第2の音データを読出し,音キャストおよび上記テーブルに記述された開始時間にしたがって,読出した第1および第2の音データによって表わされる音をスピーカから出力させるものである。
【0019】
上述の方法に対応するマルチメディア・プレゼンテーション・システムは,複数の第1の音データをそれらの識別情報と関連づけて格納した第1の記録媒体から,指示された識別情報に対応する第1の音データを読出す第1の読取装置,第2の音データを格納した第2の記録媒体から,与えられたアクセス情報によって指定される第2の音データを読出す第2の読取装置,第1の記録媒体から読出された第1の音データによって表わされる第1の音を発生する第1の音発生装置,第2の記録媒体から読出された第2の音データによって表わされる第2の音を発生する第2の音発生装置,ならびに少なくとも発生させるべき音を表わす第1の音データを示す識別情報と音発生の開始時間データとを含む音キャスト,プレゼンテーションのために用いる音キャストのリスト,およびプレゼンテーションのために用いる第2の音データのアクセス情報とその開始時間データとを記述したテーブルを格納した第3の記録媒体から上記リストに含まれる音キャストを読出すとともに上記テーブルを読出し,読出した音キャストに含まれる識別情報にしたがって第1の記録媒体から第1の音データを読出し,読出した上記テーブルのアクセス情報にしたがって第2の記録媒体から第2の音データを読出し,音キャストおよび上記テーブルに記述された開始時間にしたがって,読出した第1および第2の音データによって表わされる第1および第2の音を上記第1および第2の音発生装置から出力させるように制御する制御装置を備えている。
【0020】
この発明は静止画(画像)とBGM(音)とを提示する場合にも適用できる(ナレーションがない)。このマルチメディア・プレゼンテーション方法は,複数の画像データをそれらの識別情報と関連づけて記録した第1の記録媒体と,複数の音データを記録した第2の記録媒体とを用い,少なくとも表示すべき画像を表わす画像データを示す識別情報と画像表示の開始時間データとを含む画像キャスト,プレゼンテーションのために用いる画像キャストのリスト,およびプレゼンテーションのために用いる音データのアクセス情報とその開始時間データとを記述したテーブルをあらかじめ作成して第3の記録媒体に格納しておき,第3の記録媒体から上記リストに含まれる画像キャストを読出すとともに上記テーブルを読出し,読出した画像キャストに含まれる識別情報にしたがって第1の記録媒体から画像データを読出し,読出した上記テーブルのアクセス情報にしたがって第2の記録媒体から音データを読出し,画像キャストおよび上記テーブルに記述された開始時間にしたがって,読出した画像データによって表わされる画像を表示装置に表示し,読出した音データによって表わされる音をスピーカから出力させるものである。
【0021】
この方法に対応するマルチメディア・プレゼンテーション・システムは,複数の画像データをそれらの識別情報と関連づけて格納した第1の記録媒体から,指示された識別情報に対応する画像データを読出す第1の読取装置,音データを格納した第2の記録媒体から,与えられたアクセス情報によって指定される音データを読出す第2の読取装置,第1の記録媒体から読出された画像データによって表わされる画像を表示する表示装置,第2の記録媒体から読出された音データによって表わされる音を発生する音発生装置,ならびに少なくとも表示すべき画像を表わす画像データを示す識別情報と画像表示の開始時間データとを含む画像キャスト,プレゼンテーションのために用いる画像キャストのリスト,およびプレゼンテーションのために用いる音データのアクセス情報とその開始時間データとを記述したテーブルを格納した第3の記録媒体から上記リストに含まれる画像キャストを読出すとともに上記テーブルを読出し,読出した画像キャストに含まれる識別情報にしたがって第1の記録媒体から画像データを読出し,読出した上記テーブルのアクセス情報にしたがって第2の記録媒体から音データを読出し,画像キャストおよび上記テーブルに記述された開始時間にしたがって,読出した画像データによって表わされる画像を上記表示装置に表示し,読出した音データによって表わされる音を上記音発生装置から出力させるように制御する制御装置を備えている。
【0022】
以上のようにして,この発明によると,複数のメディアを自在にかつ容易に組合せることができる。メディア素材に必ずしも加工を加える必要はない。組合せるべき複数のメディアまたはその組合せの修正,変更を容易である。
【0023】
【実施例】
図1はマルチメディア・プレゼンテーション・システムの全体的構成の概要を示している。このシステムはマルチメディア・データ作成にも用いることができる。
【0024】
コンピュータ・システム10はマルチメディア・プレゼンテーション(およびマルチメディア・データ作成)専用のものでもよいし,汎用のコンピュータ・システムをマルチメディア・プレゼンテーション用(ならびにマルチメディア・データ作成用)にプログラムしたものでもよい。
【0025】
コンピュータ・システム10はCPU11,メモリ12,入力装置13,および表示装置14を備えている。メモリ12は半導体メモリ,フロッピィ・ディスク,ハード・ディスク等を含み,CPU11の実行するプログラムを格納したり,ワーク・エリアとして用いられる。入力装置13はキーボード,マウス等を含み,CPU11にコマンド,データ等を与えるものである。表示装置14はたとえばCRT表示装置,液晶表示装置等により実現される。
【0026】
コンピュータ・システム10にはSCSI(Small Computer System Interface )バスを介して,ディスク・ドライバ15,画像システムおよび2つの音システムが接続されている。
【0027】
ディスク・ドライバ15はディスク状記録媒体(光ディスク,光磁気ディスク,磁気ディスク等)にデータを書込む,およびこの記録媒体からデータを読出すものである。ディスク・ドライバ15によって読み書きされる記録媒体を,他の記録媒体と区別するために管理用記録媒体ということにする。管理用記録媒体には後に詳述する再生管理ファイル,メディア記述テーブル,画像キャスト・ファイル,音キャスト・ファイル等が記録される,または記録されている。
【0028】
画像システムはディスク・ドライバ21,画像再生装置22,および表示装置23を含む。ディスク・ドライバ21によって読み書きされるディスク状記録媒体を画像用記録媒体ということにする。画像用記録媒体には画像ファイル(一画面分の画像を表わす画像データ(データ圧縮または符号化された画像データ,文字画像データ,後述する合体型画像ファイルを含む)を画像ファイルといい,画像ファイルの集まりをアルバムということにする)等がアクセス可能に記録される,または記録されている。
【0029】
画像用記録媒体に格納される各画像ファイルには,そのアルバム名,ファイル名を含むヘッダ,画像再生のための詳細情報,画像データ等が格納される。一つの絵または文字画像について,複数種類の解像度をもつ画像データを画像ファイルに格納しておくとよい。
【0030】
画像再生装置22はディスク・ドライバ21によって画像用記録媒体から読出された画像データまたはコンピュータ・システム10から与えられた画像データによって表わされる画像を表示装置23に表示する処理を行うものであり,VRAM,D/A変換回路,画像処理回路,表示制御回路等を含む。
【0031】
表示装置23はCRT表示装置または液晶表示装置(ビデオプロジェクタの一部として用いられるものを含む)により実現される。マルチメディア・プレゼンテーション・システムには,コンピュータ・システム10の表示装置14またはこの表示装置23の少なくともいずれか一方が設けられればよい。
【0032】
第1の音システムには,ディスク・ドライバ31,音再生装置32およびスピーカ33が含まれる。ディスク・ドライバ31によって読み書きされるディスク状記録媒体を第1の音用記録媒体ということにする。第1の音用記録媒体はナレーション等の音を表わすディジタル・データ(ADPCM;Adaptive Differential Pulse Code Modulation されたものを含む)を記録するものである。一つのまとまりのあるナレーション等,一単位の音データを音ファイルという。第1の音用記録媒体に音楽を記録してもよい。
【0033】
第1の音用記録媒体に格納される音ファイルもまたアルバム名,ファイル名を含むヘッダ,再生等のために必要な情報,および音データを含むように構成される。もっとも,アルバム名,ファイル名,情報はディレクトリに格納してもよい。
【0034】
音再生装置32は第1の音用記録媒体から読出された音データを音信号に変換してスピーカ33を駆動するものであり,ADPCM復号化回路,D/A変換回路等を含む。
【0035】
音用記録媒体はMIDI(Musical Instrument Digital Interface)データを一部または全部に格納したものでもよい。この場合には音再生装置32は電子楽器を含むものとなる。
【0036】
画像用記録媒体の画像ファイルと第1の音用記録媒体の音ファイルとを一つの記録媒体に格納するようにしてもよい。この場合にはドライバは1つで足りる。高速のディスク・ドライバは画像ファイルと音ファイルとを時分割で読出すことができ,これらの読出されたデータに基づいて画像の表示と音の発生(出力)とを同時に行うことができる。画像用記録媒体,第1の音用記録媒体および管理用記録媒体を一つの記録媒体で実現することもできる。この場合には,ドライバ15,21,31は一台のドライバで実現できる。いずれにしても,上記の3種類の記録媒体のうちの少なくとも2つを一つの記録媒体で実現することができる。
【0037】
第2の音システムには,ディスク・ドライバ41,音再生装置42およびスピーカ43が含まれる。第2の音システムの構成は基本的には第1の音システムの構成と同じである。ディスク・ドライバ41によって読み書きされるディスク状記録媒体を第2の音用記録媒体ということにする。第2の音用記録媒体は,この実施例ではBGM信号(データ)を記録している。この第2の音用記録媒体としては市販のコンパクト・ディスクや光磁気ディスクをそのまま用いることができる。第1の音システムのスピーカ33を第2の音システムのスピーカ43と兼用することができる。
【0038】
好ましくは第2の音システムのディスク・ドライバ41にはディスクのオートチェンジャが設けられる。これにより,ディスク・ドライバ41に複数枚の第2の音用記録媒体を装填しておくことができる。
【0039】
ディスク状記録媒体に代えて,半導体メモリやテープ状記録媒体を用いることができる。
【0040】
マルチメディア・プレゼンテーション・システム(またはマルチメディア・データ作成システム)には,画像データの入力装置,音データの入力装置等を接続してもよい。画像データ入力装置にはたとえば,入力する映像信号をA/D変換し,データ圧縮する装置などが含まれよう。音データの入力装置にはマイク,A/D変換回路,バッファ・メモリ,ADPCM符号化回路等が含まれよう。
【0041】
図2はこの実施例のマルチメディア・プレゼンテーション・システムにおいて発生する静止画,ナレーションおよびBGMのシーケンスの一例を示している。
【0042】
BGMはプレゼンテーションの間中,流されている。1つのBGMが終了したのちに空時間を置いて次のBGMを流すようにしてもよい。3種類のBGM#1〜BGM#3が示されている。これらのBGM#1〜BGM#3はイベント・ディスクリプタ(1) 〜(3) によって記述される。
【0043】
静止画は適当な時間にわたって表示されながら,画像が順次切替えられていく。一つの静止画と次の静止画との間に,何も表示されない時間帯が存在してもよい。5種類の静止画#1〜#5が示されており,これらの静止画は画像キャスト(1) 〜(5) によってそれぞれ記述される。
【0044】
各静止画に対応してナレーションが出力される。あるナレーションが終わるとすぐに次のナレーションが始まるようにすることもできる。5種類のナレーション#1〜#5が示され,これらは音キャスト(1) 〜(5) によって記述される。
【0045】
これらのBGM,静止画およびナレーションを発生させる開始時間が,後述するように,イベント・ディスクリプタ,画像キャストおよび音キャストに記述されている。開始時間は時分秒で表わされ,プレゼンテーションの開始時点(最初に発生するBGM,静止画またはナレーションの開始時点)を基準として(零時零分零秒として)定められる。
【0046】
図3は管理用記録媒体における記録構造を示すものである。管理用記録媒体には,再生管理ファイル,メディア記述テーブル,画像キャスト・ファイルおよび音キャスト・ファイルが設けられている。
【0047】
再生管理ファイルは,イベント・ディスクリプタ,画像キャストおよび音キャストを管理するものであり,マルチメディア・プレゼンテーションの流れ(シーケンス)を規定する。
【0048】
再生管理ファイルの詳細な構造が図4に示されている。再生管理ファイルは再生管理ファイル・ヘッダ,タイム・コントロール・テーブル(TCT)およびシーケンス・テーブルから構成される。
【0049】
再生管理ファイル・ヘッダは,再生管理ファイルID,このファイルに含まれる各データのポインタ,キャストの数等を記述している。
【0050】
タイム・コントロール・テーブルは一つのプレゼンテーションで発生するすべてのGBMに関するイベント・ディスクリプタを格納している。イベント・ディスクリプタは各BGMのID(BGMを発生させるオーディオ・トラックを識別するデータ,たとえば後述するメディア記述テーブルに記述された該当するオーディオ・トラックをアクセスするためのパス)と,各BGMの開始時間を表わすデータとを含む。
【0051】
この例では2枚の第2の音用記録媒体が用いられ,その一方をNo.1,他方をNo.2とする。BGM#1はNo.1の記録媒体の第1トラックに記録されているもので,したがってオーディオ・トラックNo.1−1と表現される。BGM#2はNo.1の記録媒体の第3トラック(オーディオ・トラックNo.1−3),BGM#3はNo.2の記録媒体の第4トラック(オーディオ・トラックNo.2−4)にそれぞれ記録されたデータに基づいて再生される。
【0052】
タイム・コントロール・テーブルにはそのヘッダと,格納されているイベント・ディスクリプタの数(イベント数)を表わすデータもまた記述されている。
【0053】
シーケンス・テーブルは,一つのプレゼンテーションで再生されるすべての静止画およびナレーションに関する画像キャストおよび音キャストを列挙して記述したものである。好ましくは,これらはその開始時間の順に配列される。
【0054】
メディア記述テーブルは,図5に示すように,各BGMを流すために使用する音楽データが記録された第2の音用記録媒体の識別番号(ディスクNo.またはディスク・ボリュウム名)とトラックNo.(トラックを示すID)を格納するものである。ここに記述されたオーディオ・トラックIDを用いて第2の音用記録媒体の再生すべきトラックがアクセスされる。このメディア記述テーブルの内容はイベント・ディスクリプタに含ませてもよい。
【0055】
画像キャスト・ファイルには既に作成された多くの画像キャストがストアされている。各画像キャストの構造例が図6に示されている。
【0056】
画像キャストは,ヘッダ,アルバム名,画像ファイル名,開始時間,画像出現効果,画像出現効果時間,画像の解像度,位置情報,拡大倍率等を含む。
【0057】
ヘッダは画像キャストであることを示すものである。
【0058】
アルバム名および画像ファイル名は,再生すべき画像ファイルを示すものである。
【0059】
開始時間は上述したように静止画の表示開始時間である。
【0060】
画像出現効果は,画像の表示を開始するときに,いきなり全画面を表示するのか(全画面を瞬間的に切替えるのか),両開きのドア(またはカーテン)を開けるような態様で次の画像を表示するのか,右から左に掃引しながら次の画像を表示するのか,上から下に掃引しながら画像を表示しはじめるのか,中心から徐々に表示領域を拡大しながら絵を出現させるのかというような画面効果を選択するものである。画像出現効果時間は,画像の一部の出現開始から全部が出現するまでの時間である。
【0061】
画像の解像度は,画像ファイルが複数種類の解像度の画像データを含む場合に,いずれかの画像データを選択するためのものである。この解像度の指定により,結果的に画像データが選択される。
【0062】
位置情報は,表示すべき画像の表示画面上における位置を表わす。例えば,表示すべき画像の中心のX,Y座標で表現される。
【0063】
拡大倍率(縮小倍率も含む)は表示する画像を拡大または縮小するときの倍率を表わす。
【0064】
その他に画像キャストには,必要に応じて,圧縮情報や回転情報が含まれる。圧縮情報は,画像ファイルに含まれる画像データがデータ圧縮されているかどうか,圧縮されていればその圧縮方式(たとえばJPEG方式)を含む。回転情報は画像ファイルの画像データを表示したときに,観察者に正しく見せるためには反時計回りに何度回転して表示すればよいかを示すものである。たとえば,この情報には0度,90度,180 度,270 度などがある。
【0065】
さらに必要ならば画像キャストに表示時間を記述する。表示時間は静止画を表示している時間帯を示すものである。静止画の表示開始後,この表示時間が経過したときにその静止画の表示が消えるように制御される。
【0066】
音キャスト・ファイルには多くの音キャストが格納されている。音キャストの構成例が図7に示されている。
【0067】
音キャストにはヘッダ,音ファイル名,トラック番号,開始時間,属性,スタート・ポインタおよびストップ・ポインタ等が含まれる。
【0068】
ヘッダは音キャストであることを示すものである。
【0069】
ファイル名は再生すべき音ファイルを同定するものである。トラック番号は,再生すべき音ファイルが存在する第1の音用記録媒体上のトラック番号を示す。ファイル名によってトラック番号が一義的に定まる場合にはトラック番号は必ずしも必要ない。
【0070】
開始時間は上述のようにナレーションの発生を開始させるべき時間である。
【0071】
属性は音の性質等,たとえばモノ/ステレオの別,チャネル数,変調方式等を示す。
【0072】
音については音ファイル内のすべての音(ナレーション)が再生されるとは限らない。たとえば一連のナレーション(一つの音のファイル)の中の特定の部分(これをクリップという)のみを再生することが要求されることがある。スタート・ポインタおよびストップ・ポインタは,再生すべきクリップの開始位置および終了位置を,音ファイルにおける最初の音の位置を基準として,時間で表現するものである。
【0073】
図8および図9はマルチメディア・プレゼンテーション・システムにおいて,マルチメディアを発生(再生)する処理手順を示している。この処理は主にコンピュータ・システム10におけるCPU11によって実行される。
【0074】
上述したように図3に示す再生管理ファイル,メディア記述テーブル,画像キャスト・ファイルおよび音キャスト・ファイルは,ディスク・ドライバ15によってアクセスされる管理用記録媒体に格納されている。
【0075】
静止画の画像ファイルはディスク・ドライバ21によってアクセスされる画像用記録媒体に格納されている。ナレーションの音データ・ファイルはディスク・ドライバ31によってアクセスされる第1の音用記録媒体に格納されている。BGMの音データはディスク・ドライバ41によってアクセスされる第2の音用記録媒体(複数)に格納されている。
【0076】
入力装置13から再生すべき再生管理ファイルを指定する入力が与えられると,CPU11はディスク・ドライバ15を起動して,管理用記録媒体から,指定された再生管理ファイルを読出してメモリ12のワーク・エリアに格納する(ステップ51)。
【0077】
再生管理ファイルのタイム・コントロール・ファイルのイベント・ディスクリプタに基づいて,CPU11は管理用記録媒体のメディア記述テーブルを読出す。このメディア記述テーブルに記述されたオーディオ・トラックIDを用いて,ディスク・ドライバ41に第2の音用記録媒体をアクセスさせ,そのボリュウム・ラベル,テーブル・オブ・コンテンツ等を読出し,それに基づいてメディア記述テーブルに記述されたすべての記録媒体およびトラックが存在するかどうかをチェックする(ステップ52)。
【0078】
所定の第2の音用記録媒体とトラックが存在することが分ると,次にCPU11は再生管理ファイルのシーケンス・テーブルに記述された画像キャストおよび音キャストを管理用記録媒体の画像キャスト・ファイルおよび音キャスト・ファイルから読出し,ワーク・エリアに記憶する(ステップ53)。
【0079】
これらの読出された画像キャストおよび音キャストに基づいて,シーケンス・テーブルに記述されたすべての画像キャストおよび音キャストが存在するかどうかがチェックされる。存在すれば,CPU11はさらに,ディスク・ドライバ21および31を起動して,先に読出したキャストに記述されているすべての画像ファイルおよび第1の音ファイルが画像用記録媒体および第1の音用記録媒体に記録されているかどうかをチェックする(ステップ54)。
【0080】
タイム・コントロール・テーブルのイベント・ディスクリプタによって指定された第2の音用記録媒体もしくはトラックが存在しなければ,シーケンス・テーブルに記述されたキャストが一つでも管理用記録媒体内に存在しなければ,またはキャストに記述されたファイルが画像用または第1の音用記録媒体内に一つでも存在しなければエラーということになり,その旨が表示装置14または他の表示装置23等に表示される。
【0081】
エラーがなければ,読出されたワーク・エリアに格納された再生管理ファイルにしたがって再生動作が行なわれていく。
【0082】
図9を参照して,CPU11はタイム・コントロール・テーブルに記述されたすべての開始時間,およびシーケンス・テーブルに記述されたすべての画像キャストおよび音キャストに含まれる開始時間を,時間の順序に配列したタイム・テーブルを作成する(ステップ55)。このタイム・テーブルにしたがって,イベント(BGM)およびキャスト(静止画,ナレーション)のシーケンスが管理されることになる。
【0083】
圧縮された画像データの伸張,画像データのその他の加工処理,画像の合成等の前処理のために必要な時間がある場合には,この前処理時間をタイム・テーブルに書込んでおくことが好ましい。そうすることによって,イベント・キャストにしたがう出力処理(表示,音の発生)の前に前もって前処理を行うことができる。
【0084】
時間を管理するためのタイマをスタートさせ(ステップ56),タイマの計時している時間(時間零を含む)とタイム・テーブルに列挙された時間が比較される。両時間が一致すると(ステップ57),その時間を開始時間とするイベントまたはキャストについての出力処理が行なわれる(ステップ59)。
【0085】
イベント(BGM)の場合には,メディア記述テーブルからオーディオ・トラックNo.が取得され,このデータに基づいてディスク・ドライバ41が制御される。したがって,指定されたオーディオ・トラックNo.に記録された第2の音データによって表わされるGBMがスピーカ43から出力されることになる。
【0086】
画像キャストの場合には画像キャストに含まれているアルバム名およびファイル名を用いて画像用記録媒体がアクセスされ,該当する画像ファイルが読出され,ワーク・エリアに格納される。読出された画像データが,データ圧縮されている場合には伸張処理が行なわれる。画像ファイルに記述されている画像回転情報にしたがって,必要に応じて,ワーク・エリア内の画像データが回転される。画像キャストに記述されている拡大,縮小倍率にしたがって,必要に応じて,画像データの拡大,または縮小処理が行なわれる。さらに必要ならば画像キャスト内の位置情報にしたがって画像データの位置決め,切り出し等が行なわれる。
【0087】
好ましくは画像再生装置22には2個のVRAMが設けられている。1個は現在表示されている画像用であり,もう1個は次に表示すべき画像用である。このような場合には,ワーク・エリアの画像データが前もって画像再生装置22のVRAMに転送されて格納される。そして,開始時間になったときに,表示命令とともに画像出現効果および効果時間が画像再生装置22に与えられ,VRAM上の画像データによって表わされる画像が,指示された効果を伴って表示装置23に表示されることになる。
【0088】
画像再生装置22に1個のVRAMしかないときには開始時間になったときに画像データがVRAMに書込まれ,ただちに表示される。
【0089】
音キャストの場合には,音キャストに含まれるスタート・ポインタおよびストップ・ポインタ(時間で表現されている)が,それぞれ音用記録媒体上の物理アドレスに変換される。音キャストに記述されたデータおよび上記物理アドレスを含む再生指令が音再生装置32に与えられる。これに応答して,音再生装置32は音用記録媒体から指令された音ファイルの中の指示されたクリップ(ナレーション)を再生し,スピーカ33からナレーションを出力することになる。
【0090】
タイム・テーブルには好ましくはすべての音,画像を終了させる時間が記述され,この終了時間になると(ステップ58),プレゼンテーションが終る。音(BGMやナレーション)が終了したときには音再生装置32,42から音再生終了の旨の報告が届くので,この報告の受理により終了時間と判定することもできる。また,静止画の場合には,静止画の表示時間が経過すれば終了ということになる。
【0091】
画像ファイルの一態様として合体型画像ファイルがある。合体型画像ファイルは複数種類の画像データ(たとえば自然画,文字画像)と,合体情報とを含む。合体情報は合体型画像ファイルに含まれる複数の画像データのうちのどれを用いるのかという情報(合体させる画像の種類)と,合成(合体)方法とを含む。合体させるべき画像の種類に関する情報には,合体させるか,させないかの情報も含まれる。合体させる場合には合体させるべき画像データが明示される。合体させない場合には,どの画像(自然画,文字画像)を用いるかが記述される。合体方法にはOR,AND,NOR等がある。
【0092】
このような合体型画像ファイルが画像キャストによって指定された場合には,合体情報にしたがって複数の画像データが合成されて表示されることになる。
【0093】
マルチメディア・プレゼンテーション・システムは,店頭における商品案内,美術館等における展示物(絵画)の案内,会議,パーティ等における情報の提示,報告等に利用されよう。
【図面の簡単な説明】
【図1】マルチメディア・プレゼンテーション・システムを示すブロック図である。
【図2】マルチメディア・プレゼンテーションのシーケンスの一例を示す。
【図3】管理用記録媒体の記録構造の例を示す。
【図4】再生管理ファイルの構造例を示す。
【図5】メディア記述テーブルの構造例を示す。
【図6】画像キャストの構造例を示す。
【図7】音キャストの構造例を示す。
【図8】マルチメディア・プレゼンテーション処理の一例を示すフロー・チャートである。
【図9】マルチメディア・プレゼンテーション処理の一例を示すフロー・チャートである。
【符号の説明】
10 コンピュータ・システム
11 CPU
15,21,31,41 ディスク・ドライバ
22 画像再生装置
23 表示装置
32,42 音再生装置
33,43 スピーカ
[0001]
【Technical field】
The present invention relates to a multimedia presentation method and system for generating multimedia composed of images (including character images) and sounds (including music and narration).
[0002]
[Background]
Still images, narration, and background music (referred to as BGM) are used in combination for the purpose of merchandise guidance at stores and exhibition guidance at museums and museums. In particular, since narration and BGM are both sounds, they are often output from a single speaker. In general, narration and BGM are recorded separately (or separately recorded), and the narration sound signal and BGM sound signal are reproduced, mixed at an appropriate timing, and recorded on a recording medium ( Recording).
[0003]
Once the narration and music are mixed, the combination of these signals is fixed, so in order to shift or correct the timing of either one, you must start over.
[0004]
Even in the case of images and sounds, if signals (data) representing them are fixedly arranged and recorded on the recording medium in the order of appearance, there is a problem that correction and change are similarly not easy.
[0005]
DISCLOSURE OF THE INVENTION
The present invention provides a multimedia presentation method and system in which a plurality of different media (narration, music, images, etc.) can be freely and easily combined, and the combination, timing, etc. can be easily corrected and changed. Is.
[0006]
In the multimedia presentation method according to the present invention, a first recording medium on which a plurality of image data is recorded in association with their identification information, and a second recording medium in which a plurality of first sound data are recorded in association with their identification information. An image cast including at least identification information indicating image data representing an image to be displayed and image display start time data, and a third recording medium on which a plurality of second sound data are recorded. A sound cast including identification information indicating at least first sound data representing a sound to be generated and sound generation start time data, a list of image casts and sound casts used for presentation, and a first used for presentation A table describing the access information and start time data of the second sound data is created in advance and the fourth The image cast and sound cast included in the list are read from the fourth recording medium and the table is read from the fourth recording medium, and the first table is read according to the identification information included in the read image cast and sound cast. The image data and the first sound data are read from the recording medium and the second recording medium, the second sound data is read from the third recording medium in accordance with the access information of the read table, and the image cast, the sound cast, and the above According to the start time described in the table, an image represented by the read image data is displayed on the display device, and the sound represented by the read first and second sound data is output from the speaker.
[0007]
A multimedia presentation system according to the present invention includes a first reading device for reading image data corresponding to instructed identification information from a first recording medium storing a plurality of image data in association with the identification information. , A second reading device for reading the first sound data corresponding to the instructed identification information from the second recording medium in which the plurality of first sound data are stored in association with the identification information; A third reading device for reading the second sound data designated by the given access information from the third recording medium storing the sound data, and an image represented by the image data read from the first recording medium , A first sound generator for generating the first sound represented by the first sound data read from the second recording medium, and a third recording medium A second sound generation device for generating a second sound represented by the second sound data, and an image cast including at least identification information indicating image data representing an image to be displayed and image display start time data, at least Sound cast including identification information indicating first sound data representing sound to be generated and start time data of sound generation, list of image cast and sound cast used for presentation, and second used for presentation The image cast and the sound cast included in the list are read from the fourth recording medium storing the table describing the access information of the sound data and the start time data thereof, the table is read, and the read image cast and sound are read. The first recording medium and the second recording medium according to the identification information included in the cast The image data and the first sound data are read from the recording medium, the second sound data is read from the third recording medium according to the read access information of the table, the image cast, the sound cast and the start described in the table According to the time, an image represented by the read image data is displayed on the display device, and the first and second sounds represented by the read first and second sound data are generated as the first and second sounds. A control device is provided for controlling the output from the device.
[0008]
At least two of the first recording medium, the second recording medium, and the third recording medium may be the same recording medium. When the first recording medium and the second recording medium are the same, the first reading device and the second reading device are the same device.
[0009]
At least a part of the first sound generator and the second sound generator may be shared.
[0010]
For example, the image represented by the image data is a still image, the sound represented by the first sound data is narration, and the sound represented by the second sound data is BGM. Therefore, it is possible to display a still image while playing BGM and to output a description of the still image as sound (narration).
[0011]
Still images are managed by image casting. Narration (first sound) is managed by sound cast. BGM (second sound) is managed by the above table. Accordingly, since all media are managed independently, the creation, modification, and change are not affected by other media, and the work is facilitated. These media are combined by start time data. Therefore, it is possible to select the output timing of the media based only on the start time data. As the third recording medium for BGM (second sound), a dedicated BGM (for example, a commercially available compact disk, magneto-optical disk, etc.) can be used as it is (without any processing). Images and sound materials can also be saved as is (unprocessed).
[0012]
In a preferred embodiment, the resolution, position or enlargement / reduction ratio of the image to be displayed is described in advance in the image cast, and the image is displayed according to this description.
[0013]
If the effect to be executed at the first stage of image display and the time for the effect are described in advance in the image cast, the effect display according to this description can be performed.
[0014]
In another preferred embodiment, the time data representing the portion to be generated in the sound data is described in advance in the sound cast, so that the sound in the time zone defined by the time data can be generated.
[0015]
So-called combined image data can also be used. That is, a coalesced image file including a plurality of image data and data related to the synthesis of these image data is stored in advance in the first recording medium as the image data, and the identification information of the coalesced image file is included in the image cast. Is included. Thus, when a coalesced image file is instructed by image casting, at least two images defined in the coalesced image file can be combined and displayed.
[0016]
The format of the combined image data and the synthesizing method thereof are described in detail in the specification of a patent application (Docket No. 94086) filed on the same day as the present applicant.
[0017]
The present invention is also applicable to a combination of narration (first sound) and BGM (second sound) (without an image). In this specification, two types of sounds are also included in the concept of multimedia.
[0018]
The multimedia presentation method according to the present invention includes a first recording medium that records a plurality of first sound data in association with identification information thereof, a second recording medium that records a plurality of second sound data, and , A sound cast including at least identification information indicating first sound data representing a sound to be generated and sound generation start time data, a list of sound casts used for presentation, and a second used for presentation A table describing the access information of the sound data and its start time data is created in advance and stored in the third recording medium, and the sound cast included in the list is read from the third recording medium and The table is read, and the first sound data from the first recording medium according to the identification information included in the read sound cast The second sound data is read from the second recording medium in accordance with the read access information of the table, and is read by the first and second sound data read in accordance with the sound cast and the start time described in the table. The sound to be expressed is output from the speaker.
[0019]
The multimedia presentation system corresponding to the above-described method has a first sound medium corresponding to the instructed identification information from a first recording medium storing a plurality of first sound data in association with the identification information. A first reading device for reading data, a second reading device for reading second sound data designated by given access information, from a second recording medium storing second sound data; The first sound generator for generating the first sound represented by the first sound data read from the recording medium, and the second sound represented by the second sound data read from the second recording medium For a sound cast and presentation including identification information indicating at least first sound data representing sound to be generated and sound generation start time data The sound cast included in the list is read out from a third recording medium storing a list describing the access information of the second sound data used for the presentation and the start time data of the second sound data used for the presentation. The table is read, the first sound data is read from the first recording medium according to the identification information included in the read sound cast, and the second sound data is read from the second recording medium according to the read access information of the table. The first and second sounds represented by the read first and second sound data are output from the first and second sound generators according to the sound cast and the start time described in the table. A control device is provided for performing control.
[0020]
The present invention can also be applied to the case where a still image (image) and BGM (sound) are presented (no narration). This multimedia presentation method uses at least an image to be displayed using a first recording medium on which a plurality of image data is recorded in association with their identification information and a second recording medium on which a plurality of sound data is recorded. Describes an image cast including identification information indicating image data and image display start time data, a list of image casts used for presentation, and access information of sound data used for presentation and its start time data The table is created in advance and stored in the third recording medium, the image cast included in the list is read from the third recording medium, the table is read out, and the identification information included in the read image cast is Therefore, the image data is read from the first recording medium, and the read table is read. The sound data is read from the second recording medium according to the access information of the image, the image represented by the read image data is displayed on the display device according to the start time described in the image cast and the table, and the read sound data Is output from the speaker.
[0021]
A multimedia presentation system corresponding to this method reads out first image data corresponding to instructed identification information from a first recording medium storing a plurality of image data in association with the identification information. A reading device, a second reading device for reading sound data designated by given access information from a second recording medium storing sound data, and an image represented by image data read from the first recording medium A display device for displaying the sound, a sound generating device for generating sound represented by the sound data read from the second recording medium, identification information indicating image data representing at least an image to be displayed, and image display start time data, For image casts, lists of image casts used for presentations, and presentations The image cast included in the list is read out from the third recording medium storing the table describing the access information of the sound data to be used and the start time data, and the table is read out, and the identification information included in the read image cast The image data is read from the first recording medium according to the above, the sound data is read from the second recording medium according to the access information of the read table, and the read image is read according to the image cast and the start time described in the table. A control device is provided for controlling the image represented by the data to be displayed on the display device and to output the sound represented by the read sound data from the sound generating device.
[0022]
As described above, according to the present invention, a plurality of media can be freely and easily combined. It is not always necessary to add processing to the media material. It is easy to modify or change a plurality of media to be combined or a combination thereof.
[0023]
【Example】
FIG. 1 shows an overview of the overall configuration of the multimedia presentation system. This system can also be used for multimedia data creation.
[0024]
The computer system 10 may be dedicated to multimedia presentation (and multimedia data creation) or a general-purpose computer system programmed for multimedia presentation (and multimedia data creation) .
[0025]
The computer system 10 includes a CPU 11, a memory 12, an input device 13, and a display device 14. The memory 12 includes a semiconductor memory, a floppy disk, a hard disk, etc., and stores a program executed by the CPU 11 or is used as a work area. The input device 13 includes a keyboard, a mouse, etc., and gives commands, data, etc. to the CPU 11. The display device 14 is realized by a CRT display device, a liquid crystal display device or the like, for example.
[0026]
The computer system 10 is connected to a disk driver 15, an image system, and two sound systems via a SCSI (Small Computer System Interface) bus.
[0027]
The disk driver 15 writes data to a disk-shaped recording medium (optical disk, magneto-optical disk, magnetic disk, etc.) and reads data from this recording medium. The recording medium read / written by the disk driver 15 is referred to as a management recording medium in order to distinguish it from other recording media. On the management recording medium, a reproduction management file, a media description table, an image cast file, a sound cast file, etc., which will be described in detail later, are recorded or recorded.
[0028]
The image system includes a disk driver 21, an image reproduction device 22, and a display device 23. A disk-shaped recording medium read / written by the disk driver 21 is referred to as an image recording medium. An image recording medium is an image file (image data representing an image for one screen (including image data that has been compressed or encoded, character image data, and a combined image file described later) is called an image file. Is referred to as an album) or is recorded.
[0029]
Each image file stored in the image recording medium stores an album name, a header including the file name, detailed information for image reproduction, image data, and the like. For one picture or character image, image data having a plurality of types of resolutions may be stored in an image file.
[0030]
The image reproducing device 22 performs a process of displaying on the display device 23 the image data read from the image recording medium by the disk driver 21 or the image represented by the image data given from the computer system 10. , A D / A conversion circuit, an image processing circuit, a display control circuit, and the like.
[0031]
The display device 23 is realized by a CRT display device or a liquid crystal display device (including those used as part of a video projector). The multimedia presentation system may be provided with at least one of the display device 14 of the computer system 10 or the display device 23.
[0032]
The first sound system includes a disk driver 31, a sound reproduction device 32, and a speaker 33. A disk-shaped recording medium read / written by the disk driver 31 is referred to as a first sound recording medium. The first sound recording medium records digital data (including ADPCM: Adaptive Differential Pulse Code Modulation) representing sound such as narration. A unit of sound data, such as a single narration, is called a sound file. Music may be recorded on the first sound recording medium.
[0033]
The sound file stored in the first sound recording medium is also configured to include an album name, a header including the file name, information necessary for reproduction, and sound data. However, the album name, file name, and information may be stored in a directory.
[0034]
The sound reproducing device 32 converts sound data read from the first sound recording medium into a sound signal and drives the speaker 33, and includes an ADPCM decoding circuit, a D / A conversion circuit, and the like.
[0035]
The sound recording medium may store a part or all of MIDI (Musical Instrument Digital Interface) data. In this case, the sound reproducing device 32 includes an electronic musical instrument.
[0036]
The image file of the image recording medium and the sound file of the first sound recording medium may be stored in one recording medium. In this case, one driver is sufficient. The high-speed disk driver can read the image file and the sound file in a time-sharing manner, and can simultaneously display an image and generate (output) sound based on the read data. The image recording medium, the first sound recording medium, and the management recording medium can be realized by a single recording medium. In this case, the drivers 15, 21, and 31 can be realized by a single driver. In any case, at least two of the above three types of recording media can be realized by one recording medium.
[0037]
The second sound system includes a disk driver 41, a sound reproduction device 42, and a speaker 43. The configuration of the second sound system is basically the same as the configuration of the first sound system. The disk-shaped recording medium read / written by the disk driver 41 is referred to as a second sound recording medium. In this embodiment, the second sound recording medium records a BGM signal (data). As the second sound recording medium, a commercially available compact disk or magneto-optical disk can be used as it is. The speaker 33 of the first sound system can also be used as the speaker 43 of the second sound system.
[0038]
Preferably, the disk driver 41 of the second sound system is provided with a disk autochanger. Thus, a plurality of second sound recording media can be loaded in the disk driver 41.
[0039]
Instead of a disk-shaped recording medium, a semiconductor memory or a tape-shaped recording medium can be used.
[0040]
An image data input device, sound data input device, or the like may be connected to the multimedia presentation system (or multimedia data creation system). The image data input device may include, for example, a device for A / D converting an input video signal and compressing the data. The sound data input device may include a microphone, an A / D conversion circuit, a buffer memory, an ADPCM encoding circuit, and the like.
[0041]
FIG. 2 shows an example of a sequence of still images, narration and BGM generated in the multimedia presentation system of this embodiment.
[0042]
BGM is streamed throughout the presentation. After one BGM is completed, the next BGM may be played after a free time. Three types of BGM # 1 to BGM # 3 are shown. These BGM # 1 to BGM # 3 are described by event descriptors (1) to (3).
[0043]
While still images are displayed for an appropriate time, the images are sequentially switched. There may be a time zone in which nothing is displayed between one still image and the next still image. Five types of still images # 1 to # 5 are shown, and these still images are described by image casts (1) to (5), respectively.
[0044]
Narration is output corresponding to each still image. You can also start the next narration as soon as one narration ends. Five types of narrations # 1 to # 5 are shown, which are described by sound casts (1) to (5).
[0045]
The start time for generating these BGM, still image, and narration is described in the event descriptor, image cast, and sound cast, as will be described later. The start time is expressed in hours, minutes, and seconds, and is determined on the basis of the start time of the presentation (first time of BGM, still image or narration start time) (zero time, zero minute, zero second).
[0046]
FIG. 3 shows a recording structure in the management recording medium. The management recording medium is provided with a reproduction management file, a media description table, an image cast file, and a sound cast file.
[0047]
The playback management file manages event descriptors, image casts, and sound casts, and defines the flow (sequence) of multimedia presentation.
[0048]
The detailed structure of the playback management file is shown in FIG. The reproduction management file includes a reproduction management file header, a time control table (TCT), and a sequence table.
[0049]
The reproduction management file header describes a reproduction management file ID, a pointer of each data included in the file, the number of casts, and the like.
[0050]
The time control table stores event descriptors related to all GBMs that occur in one presentation. The event descriptor includes an ID of each BGM (data for identifying an audio track that generates the BGM, for example, a path for accessing a corresponding audio track described in a media description table described later), and a start time of each BGM. And data representing.
[0051]
In this example, two second sound recording media are used, one of which is No. 1 and the other is No. 2. BGM # 1 is recorded on the first track of the recording medium of No. 1, and is therefore expressed as an audio track No. 1-1. BGM # 2 is the third track (audio track No.1-3) of the recording medium No.1, and BGM # 3 is the fourth track (audio track No.2-4) of the recording medium of No.2. Each is reproduced based on the recorded data.
[0052]
The time control table also describes its header and data representing the number of event descriptors stored (number of events).
[0053]
The sequence table lists and describes the image casts and sound casts related to all still images and narration that are played back in one presentation. Preferably, they are arranged in order of their start times.
[0054]
As shown in FIG. 5, the media description table includes the identification number (disc No. or disc volume name) and track No. of the second sound recording medium on which the music data used to play each BGM is recorded. (ID indicating a track) is stored. The track to be reproduced on the second sound recording medium is accessed using the audio track ID described here. The contents of this media description table may be included in the event descriptor.
[0055]
The image cast file stores a number of already created image casts. An example of the structure of each image cast is shown in FIG.
[0056]
The image cast includes a header, album name, image file name, start time, image appearance effect, image appearance effect time, image resolution, position information, enlargement magnification, and the like.
[0057]
The header indicates an image cast.
[0058]
The album name and the image file name indicate the image file to be reproduced.
[0059]
As described above, the start time is the display start time of the still image.
[0060]
The effect of image appearance is to display the next image in such a way that the full screen is suddenly displayed (whether the full screen is switched instantaneously) or the double door (or curtain) is opened at the start of image display. Whether to display the next image while sweeping from right to left, whether to start displaying an image while sweeping from top to bottom, or whether to make the picture appear while gradually expanding the display area from the center Select the screen effect. The image appearance effect time is the time from the start of the appearance of a part of the image until the entire appearance.
[0061]
The image resolution is for selecting any image data when the image file includes image data of a plurality of types of resolutions. By designating this resolution, image data is selected as a result.
[0062]
The position information represents the position on the display screen of the image to be displayed. For example, it is expressed by the X and Y coordinates of the center of the image to be displayed.
[0063]
The enlargement magnification (including the reduction magnification) represents the magnification at which the displayed image is enlarged or reduced.
[0064]
In addition, the image cast includes compression information and rotation information as necessary. The compression information includes whether or not the image data included in the image file is data-compressed, and if it is compressed, the compression method (for example, JPEG method). The rotation information indicates how many times it should be rotated counterclockwise in order to display the image data of the image file correctly to the observer. For example, this information includes 0 degrees, 90 degrees, 180 degrees, and 270 degrees.
[0065]
If necessary, display time is described in the image cast. The display time indicates a time zone during which a still image is displayed. Control is performed so that the display of the still image disappears when the display time has elapsed after the start of the display of the still image.
[0066]
Many sound casts are stored in the sound cast file. A configuration example of the sound cast is shown in FIG.
[0067]
The sound cast includes a header, sound file name, track number, start time, attribute, start pointer, stop pointer, and the like.
[0068]
The header indicates a sound cast.
[0069]
The file name identifies the sound file to be played. The track number indicates the track number on the first sound recording medium where the sound file to be reproduced exists. When the track number is uniquely determined by the file name, the track number is not always necessary.
[0070]
The start time is the time at which the occurrence of narration should start as described above.
[0071]
The attribute indicates the nature of the sound, such as mono / stereo, number of channels, modulation method, and the like.
[0072]
For sounds, not all sounds (narration) in a sound file are played. For example, it may be required to play back only a specific part (this is called a clip) in a series of narrations (one sound file). The start pointer and stop pointer express the start position and end position of a clip to be reproduced in time with the position of the first sound in the sound file as a reference.
[0073]
8 and 9 show a processing procedure for generating (reproducing) multimedia in the multimedia presentation system. This process is mainly executed by the CPU 11 in the computer system 10.
[0074]
As described above, the reproduction management file, media description table, image cast file, and sound cast file shown in FIG. 3 are stored in the management recording medium accessed by the disk driver 15.
[0075]
The still image file is stored in an image recording medium accessed by the disk driver 21. The narration sound data file is stored in the first sound recording medium accessed by the disk driver 31. The BGM sound data is stored in the second sound recording medium (s) that is accessed by the disk driver 41.
[0076]
When an input designating a reproduction management file to be reproduced is given from the input device 13, the CPU 11 activates the disk driver 15 to read the designated reproduction management file from the management recording medium and to read the work Store in the area (step 51).
[0077]
Based on the event descriptor of the time control file of the reproduction management file, the CPU 11 reads the media description table of the management recording medium. Using the audio track ID described in this media description table, the disk driver 41 is made to access the second sound recording medium, and its volume label, table of contents, etc. are read out, and the medium is based on this. It is checked whether all the recording media and tracks described in the description table exist (step 52).
[0078]
When the CPU 11 finds that the predetermined second sound recording medium and track are present, the CPU 11 then transmits the image cast and sound cast described in the sequence table of the reproduction management file to the image cast file of the management recording medium. Then, it is read from the sound cast file and stored in the work area (step 53).
[0079]
Based on these read image and sound casts, it is checked whether there are all image and sound casts described in the sequence table. If it exists, the CPU 11 further activates the disk drivers 21 and 31, and all the image files and first sound files described in the previously read cast are stored in the image recording medium and the first sound file. It is checked whether it is recorded on the recording medium (step 54).
[0080]
If the second sound recording medium or track specified by the event descriptor of the time control table does not exist, at least one cast described in the sequence table does not exist in the management recording medium. If there is no file in the cast or in the first sound recording medium, an error occurs, and that fact is displayed on the display device 14 or other display device 23. The
[0081]
If there is no error, the reproduction operation is performed according to the reproduction management file stored in the read work area.
[0082]
Referring to FIG. 9, CPU 11 arranges all start times described in the time control table and start times included in all image casts and sound casts described in the sequence table in order of time. A time table is created (step 55). According to this time table, sequences of events (BGM) and casts (still images, narration) are managed.
[0083]
If there is time required for preprocessing such as decompression of compressed image data, other processing of image data, and image synthesis, this preprocessing time may be written in the time table. preferable. By doing so, pre-processing can be performed in advance before output processing (display, sound generation) according to the event cast.
[0084]
A timer for managing time is started (step 56), and the time counted by the timer (including time zero) is compared with the time listed in the time table. When both times coincide (step 57), an output process is performed for an event or cast whose start time is the time (step 59).
[0085]
In the case of an event (BGM), the audio track No. is acquired from the media description table, and the disk driver 41 is controlled based on this data. Therefore, the GBM represented by the second sound data recorded on the designated audio track No. is output from the speaker 43.
[0086]
In the case of an image cast, the image recording medium is accessed using the album name and file name included in the image cast, and the corresponding image file is read out and stored in the work area. When the read image data is compressed, an expansion process is performed. According to the image rotation information described in the image file, the image data in the work area is rotated as necessary. In accordance with the enlargement / reduction ratio described in the image cast, the image data is enlarged or reduced as necessary. If necessary, the image data is positioned and cut out according to the position information in the image cast.
[0087]
Preferably, the image reproducing device 22 is provided with two VRAMs. One is for the currently displayed image and the other is for the next image to be displayed. In such a case, the image data of the work area is transferred to the VRAM of the image reproducing device 22 and stored in advance. When the start time comes, an image appearance effect and an effect time are given to the image reproducing device 22 together with a display command, and an image represented by the image data on the VRAM is displayed on the display device 23 with the instructed effect. Will be displayed.
[0088]
When the image reproducing device 22 has only one VRAM, the image data is written into the VRAM at the start time and displayed immediately.
[0089]
In the case of sound cast, the start pointer and stop pointer (expressed in time) included in the sound cast are converted into physical addresses on the sound recording medium, respectively. A reproduction command including the data described in the sound cast and the physical address is given to the sound reproduction device 32. In response to this, the sound reproducing device 32 reproduces the instructed clip (narration) in the sound file instructed from the sound recording medium, and outputs the narration from the speaker 33.
[0090]
The time table preferably describes the time to end all sounds and images, and when this end time is reached (step 58), the presentation ends. When the sound (BGM or narration) is completed, a report to the effect that the sound reproduction has ended is received from the sound reproducing devices 32 and 42, and the end time can be determined by accepting this report. In the case of a still image, the processing ends when the display time of the still image elapses.
[0091]
As one mode of the image file, there is a combined image file. The combined image file includes a plurality of types of image data (for example, natural images and character images) and combined information. The merge information includes information (type of image to be merged) on which of the plurality of image data included in the merged image file is used, and a synthesis (merging) method. Information on the types of images to be merged includes information on whether to merge or not. In the case of combining, image data to be combined is specified. If they are not merged, it is described which image (natural image, character image) is used. The merge method includes OR, AND, NOR, and the like.
[0092]
When such a coalesced image file is designated by image casting, a plurality of pieces of image data are synthesized and displayed according to the coalescing information.
[0093]
The multimedia presentation system will be used for product guidance at stores, guidance for exhibits (paintings) at museums, presentation of information at conferences, parties, etc., and reports.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a multimedia presentation system.
FIG. 2 shows an example of a sequence of multimedia presentation.
FIG. 3 shows an example of a recording structure of a management recording medium.
FIG. 4 shows a structure example of a reproduction management file.
FIG. 5 shows an example of the structure of a media description table.
FIG. 6 shows an example of the structure of an image cast.
FIG. 7 shows a structure example of sound cast.
FIG. 8 is a flowchart showing an example of multimedia presentation processing.
FIG. 9 is a flowchart showing an example of multimedia presentation processing.
[Explanation of symbols]
10 Computer system
11 CPU
15, 21, 31, 41 Disk driver
22 Image playback device
23 Display device
32, 42 sound playback device
33, 43 Speaker

Claims (11)

複数の画像データをそれらの識別情報と関連づけて記録した第1の記録媒体と,
複数の第1の音データをそれらの識別情報と関連づけて記録した第2の記録媒体と,
複数の第2の音データを記録した第3の記録媒体とを用い,
少なくとも表示すべき画像を表わす画像データを示す識別情報と画像表示の開始時間データとを含む複数の画像キャスト,少なくとも発生させるべき音を表わす第1の音データを示す識別情報音発生の開始時間データおよび音データのうち発生させるべき部分を表わす時点データを含む複数の音キャスト,プレゼンテーションのために表示すべき画像の画像キャストと発生させるべき音の音キャストとを,それらの出力させるべき順序に配列して記述したシーケンス・テーブルならびにプレゼンテーションのために用いる第2の音データのアクセス情報とその開始時間データとを記述したタイム・コントロール・テーブルをあらかじめ作成して第4の記録媒体に格納しておき,
第4の記録媒体から上記シーケンス・テーブルに含まれる画像キャストおよび音キャストを読出すとともに上記タイム・コントロール・テーブルを読出し,
読出した画像キャストおよび音キャストに含まれる識別情報にしたがって第1の記録媒体および第2の記録媒体から画像データおよび第1の音データのうち少なくとも上記時点データによって規定される時間帯の音を表す部分を読出し,読出した上記タイム・コントロール・テーブルのアクセス情報にしたがって第3の記録媒体から第2の音データを読出し,画像キャスト,音キャストおよび上記タイム・コントロール・テーブルに記述された開始時間にしたがって,読出した画像データによって表わされる画像を表示装置に表示し,読出した第1音データによって表わされる音のうち上記時点データによって規定される時間帯の音および読出した第2の音データによって表わされる音をスピーカから出力させる,
マルチメディア・プレゼンテーション方法。
A first recording medium on which a plurality of image data is recorded in association with their identification information;
A second recording medium on which a plurality of first sound data are recorded in association with their identification information;
Using a third recording medium on which a plurality of second sound data is recorded,
A plurality of image casts including at least identification information indicating image data representing an image to be displayed and image display start time data; identification information indicating at least first sound data representing a sound to be generated ; and sound generation start time Multiple sound casts containing point-in-time data representing data and sound data to be generated, image casts of images to be displayed for presentation and sound casts of sounds to be generated in the order in which they should be output stored in the fourth recording medium and create sequences to sequence table describing, and the second sound data access information and time control table describing its start time data used for presentation in advance And
Reading the image cast and sound cast included in the sequence table from the fourth recording medium and reading the time control table;
In accordance with the identification information included in the read image cast and sound cast, the sound of the time zone defined by at least the time point data among the image data and the first sound data from the first recording medium and the second recording medium is represented. the partial readout reads out the second sound data from the third recording medium according to the access information read out the time control table, the image cast, sound casting and the time control start time described in the table Therefore, an image represented by the read image data is displayed on the display device, and is represented by the sound in the time zone defined by the time point data and the read second sound data among the sounds represented by the read first sound data. Sound output from the speaker,
Multimedia presentation method.
上記第1の記録媒体,第2の記録媒体および第3の記録媒体のうちの少なくとも2つが同一の記録媒体である,請求項1に記載のマルチメディア・プレゼンテーション方法。  The multimedia presentation method according to claim 1, wherein at least two of the first recording medium, the second recording medium, and the third recording medium are the same recording medium. 表示すべき画像の解像度,位置または拡大,縮小倍率を画像キャストにあらかじめ記述しておき,この記述にしたがう画像を表示する,請求項1または2に記載のマルチメディア・プレゼンテーション方法。  The multimedia presentation method according to claim 1 or 2, wherein the resolution, position or enlargement / reduction ratio of an image to be displayed is described in advance in an image cast, and an image according to the description is displayed. 複数の画像データとこれらの画像データの合成に関するデータとを含む合体型画像ファイルを,上記画像データとして第1の記録媒体にあらかじめ格納しておき,画像キャストに合体型画像ファイルの識別情報を含ませておき,
画像キャストによって合体型画像ファイルが指示されているときに,合体型画像ファイルに規定された少くとも2つの画像を合成して表示する,
請求項1からのいずれか一項に記載のマルチメディア・プレゼンテーション方法。
A coalesced image file including a plurality of image data and data relating to the synthesis of these image data is stored in advance on the first recording medium as the image data, and the identification information of the coalesced image file is included in the image cast. Aside,
When a coalesced image file is specified by an image cast, at least two images specified in the coalesced image file are combined and displayed.
The multimedia presentation method according to any one of claims 1 to 3 .
複数の画像データをそれらの識別情報と関連づけて格納した第1の記録媒体から,指示された識別情報に対応する画像データを読出す第1の読取装置,
複数の第1の音データをそれらの識別情報と関連づけて格納した第2の記録媒体から,指示された識別情報に対応する第1の音データを読出す第2の読取装置,
第2の音データを格納した第3の記録媒体から,与えられたアクセス情報によって指定される第2の音データを読出す第3の読取装置,
第1の記録媒体から読出された画像データによって表わされる画像を表示する表示装置,
第2の記録媒体から読出された第1の音データによって表わされる第1の音を発生する第1の音発生装置,
第3の記録媒体から読出された第2の音データによって表わされる第2の音を発生する第2の音発生装置,ならびに
少なくとも表示すべき画像を表わす画像データを示す識別情報と画像表示の開始時間データとを含む複数の画像キャスト,少なくとも発生させるべき音を表わす第1の音データを示す識別情報音発生の開始時間データおよび音データのうち発生させるべき部分を表わす時点データを含む複数の音キャスト,プレゼンテーションのために表示すべき画像の画像キャストと発生させるべき音の音キャストとを,それらの出力させるべき順序に配列して記述したシーケンス・テーブルならびにプレゼンテーションのために用いる第2の音データのアクセス情報とその開始時間データとを記述したタイム・コントロール・テーブルを格納した第4の記録媒体から上記シーケンス・テーブルに含まれる画像キャストおよび音キャストを読出すとともに上記タイム・コントロール・テーブルを読出し,読出した画像キャストおよび音キャストに含まれる識別情報にしたがって第1の記録媒体および第2の記録媒体から画像データおよび第1の音データのうち少なくとも上記時点データによって規定される時間帯の音を表す部分を読出し,読出した上記タイム・コントロール・テーブルのアクセス情報にしたがって第3の記録媒体から第2の音データを読出し,画像キャスト,音キャストおよび上記タイム・コントロール・テーブルに記述された開始時間にしたがって,読出した画像データによって表わされる画像を上記表示装置に表示し,読出した第1の音データによって表わされる第1の音のうち上記時点データによって規定される時間帯の音および読出した第2の音データによって表わされる第2の音を上記第1および第2の音発生装置から出力させるように制御する制御装置,
を備えたマルチメディア・プレゼンテーション・システム。
A first reading device for reading image data corresponding to instructed identification information from a first recording medium storing a plurality of pieces of image data in association with the identification information;
A second reading device for reading the first sound data corresponding to the instructed identification information from the second recording medium storing the plurality of first sound data in association with the identification information;
A third reading device for reading the second sound data specified by the given access information from the third recording medium storing the second sound data;
A display device for displaying an image represented by image data read from the first recording medium;
A first sound generator for generating a first sound represented by first sound data read from a second recording medium;
Second sound generator for generating second sound represented by second sound data read from third recording medium, identification information indicating image data representing at least image to be displayed, and start of image display plurality of images cast including the time data, a plurality of containing the time data representing a portion to be generated out of at least the first identification information indicating the sound data representing the sound to be generated, start time data, the sound data of the sound generation A sound table , a sequence table in which image casts of images to be displayed for presentation and sound casts of sounds to be generated are arranged in the order to be output , and a second table used for presentation Time control table describing access information and start time data of sound data The image cast and sound cast included in the sequence table are read out from the fourth recording medium storing the image and the time control table is read out, and the first information is included in accordance with the identification information included in the read image cast and sound cast. Read out at least a portion of the image data and the first sound data representing the sound in the time zone defined by the time point data from the recording medium and the second recording medium, and the read access information of the time control table Therefore, the second sound data is read from the third recording medium, and the image represented by the read image data is displayed on the display device in accordance with the image cast, the sound cast and the start time described in the time control table. Displayed by the read first sound data. A second sound represented by the second sound data were sound and reading of the time zone that is defined by the time data of the first sound to be output from the first and second sound generating device to be Control device to control,
Multimedia presentation system with
上記第1の記録媒体,第2の記録媒体および第3の記録媒体のうちの少なくとも2つが同一の記録媒体である,請求項に記載のマルチメディア・プレゼンテーション・システム。6. The multimedia presentation system according to claim 5 , wherein at least two of the first recording medium, the second recording medium, and the third recording medium are the same recording medium. 上記第1の音発生装置と上記第2の音発生装置の少なくとも一部が共用される,請求項に記載のマルチメディア・プレゼンテーション・システム。6. The multimedia presentation system according to claim 5 , wherein at least a part of the first sound generator and the second sound generator are shared. 複数の第1の音データをそれらの識別情報と関連づけて記録した第1の記録媒体と,
複数の第2の音データを記録した第2の記録媒体とを用い,
少なくとも発生させるべき音を表わす第1の音データを示す識別情報音発生の開始時間データおよび音データのうち発生させるべき部分を表す時点データを含む複数の音キャスト,プレゼンテーションのために発生させるべき音の音キャストを出力させるべき順序に配列して記述したシーケンス・テーブルならびにプレゼンテーションのために用いる第2の音データのアクセス情報とその開始時間データとを記述したタイム・コントロール・テーブルをあらかじめ作成して第3の記録媒体に格納しておき,
第3の記録媒体から上記シーケンス・テーブルに含まれる音キャストを読出すとともに上記タイム・コントロール・テーブルを読出し,
読出した音キャストに含まれる識別情報にしたがって第1の記録媒体から第1の音データのうち少なくとも上記時点データによって規定される時間帯の音を表す部分を読出し,読出した上記タイム・コントロール・テーブルのアクセス情報にしたがって第2の記録媒体から第2の音データを読出し,音キャストおよび上記タイム・コントロール・テーブルに記述された開始時間にしたがって,読出した第1の音データによって表わされる音のうち上記時点データによって規定される時間帯の音および読出した第2の音データによって表される音をスピーカから出力させる,
マルチメディア・プレゼンテーション方法。
A first recording medium on which a plurality of first sound data is recorded in association with their identification information;
Using a second recording medium on which a plurality of second sound data is recorded,
First identification information indicating the sound data representing the sound to be at least generating a plurality of sound cast including time data representing a portion to be generated out of the start time data, the sound data of the sound generation, to be generated for presentation A sequence table in which the sound casts of the sounds are arranged and described in the order to be output , and a time control table in which the access information of the second sound data used for the presentation and its start time data are created in advance Stored in a third recording medium,
Reading the sound cast included in the sequence table from the third recording medium and reading the time control table,
According to the identification information included in the read sound cast, the time control table is read out by reading out the portion representing the sound in the time zone defined by at least the time point data from the first recording medium from the first recording medium. follow the read second audio data from the second recording medium according to the access information, the sound casting and the time control table described start time, of the sound represented by the first sound data read Outputting the sound of the time zone specified by the time data and the sound represented by the read second sound data from the speaker;
Multimedia presentation method.
複数の第1の音データをそれらの識別情報と関連づけて格納した第1の記録媒体から,指示された識別情報に対応する第1の音データを読出す第1の読取装置,
第2の音データを格納した第2の記録媒体から,与えられたアクセス情報によって指定される第2の音データを読出す第2の読取装置,
第1の記録媒体から読出された第1の音データによって表わされる第1の音を発生する第1の音発生装置,
第2の記録媒体から読出された第2の音データによって表わされる第2の音を発生する第2の音発生装置,ならびに
少なくとも発生させるべき音を表わす第1の音データを示す識別情報音発生の開始時間データおよび音データのうち発生させるべき部分を表す時点データを含む複数の音キャスト,プレゼンテーションのために発生させるべき音の音キャストを出力させるべき順序に配列して記述したシーケンス・テーブルならびにプレゼンテーションのために用いる第2の音データのアクセス情報とその開始時間データとを記述したタイム・コントロール・テーブルを格納した第3の記録媒体から上記シーケンス・テーブルに含まれる音キャストを読出すとともに上記タイム・コントロール・テーブルを読出し,読出した音キャストに含まれる識別情報にしたがって第1の記録媒体から第1の音データのうち少なくとも上記時点データによって規定される時間帯の音を表す部分を読出し,読出した上記タイム・コントロール・テーブルのアクセス情報にしたがって第2の記録媒体から第2の音データを読出し,音キャストおよび上記タイム・コントロール・テーブルに記述された開始時間にしたがって,読出した第1の音データによって表わされる第1の音をのうち上記時点データによって規定される時間帯の音および読出した第2の音データによって表される音を上記第1および第2の音発生装置から出力させるように制御する制御装置,
を備えたマルチメディア・プレゼンテーション・システム。
A first reading device for reading first sound data corresponding to instructed identification information from a first recording medium storing a plurality of first sound data in association with the identification information;
A second reading device for reading second sound data designated by given access information from a second recording medium storing second sound data;
A first sound generating device for generating a first sound represented by first sound data read from a first recording medium;
A second sound generating device for generating a second sound represented by the second sound data read from the second recording medium, and at least identification information and sound indicating the first sound data representing the sound to be generated Sequence table described by arranging multiple sound casts including generation start time data and time data representing the portion to be generated among sound data, and sound casts of sounds to be generated for presentation in the order to be output , and reads the sound cast contained in the third the sequence table from the recording medium storing the second sound data time control table describing the access information and its start time data to be used for presentation The above time control table is read and included in the read sound cast. According to the identification information, at least a portion representing the sound in the time zone defined by the time point data is read from the first sound data from the first recording medium, and according to the read access information of the time control table. reads the second sound data from the second recording medium, in accordance with sound casting and the time control table described start time, the first sound above among represented by the first sound data read A control device for controlling to output from the first and second sound generators the sound of the time zone defined by the time point data and the sound represented by the read second sound data ;
Multimedia presentation system with
複数の画像データをそれらの識別情報と関連づけて記録した第1の記録媒体と,
複数の音データを記録した第2の記録媒体とを用い,
少なくとも表示すべき画像を表わす画像データを示す識別情報と画像表示の開始時間データとを含む複数の画像キャスト,プレゼンテーションのために表示すべき画像の画像キャストのシーケンス・テーブル,およびプレゼンテーションのために用いる音データのアクセス情報とその開始時間データとを記述したタイム・コントロール・テーブルをあらかじめ作成して第3の記録媒体に格納しておき,
第3の記録媒体から上記シーケンス・テーブルに含まれる画像キャストを読出すとともに上記タイム・コントロール・テーブルを読出し,
読出した画像キャストに含まれる識別情報にしたがって第1の記録媒体から画像データを読出し,読出した上記タイム・コントロール・テーブルのアクセス情報にしたがって第2の記録媒体から音データを読出し,画像キャストおよび上記タイム・コントロール・テーブルに記述された開始時間にしたがって,読出した画像データによって表わされる画像を表示装置に表示し,読出した音データによって表わされる音をスピーカから出力させる,
マルチメディア・プレゼンテーション方法。
A first recording medium on which a plurality of image data is recorded in association with their identification information;
Using a second recording medium that records a plurality of sound data,
A plurality of image casts including at least identification information indicating image data representing an image to be displayed and image display start time data, an image cast sequence table of images to be displayed for presentation, and used for presentation A time control table describing the access information of the sound data and its start time data is created in advance and stored in the third recording medium,
Reading the image cast included in the sequence table from the third recording medium and reading the time control table;
The image data is read from the first recording medium in accordance with the identification information included in the read image cast, and the sound data is read from the second recording medium in accordance with the access information of the read time control table. According to the start time described in the time control table, the image represented by the read image data is displayed on the display device, and the sound represented by the read sound data is output from the speaker.
Multimedia presentation method.
複数の画像データをそれらの識別情報と関連づけて格納した第1の記録媒体から,指示された識別情報に対応する画像データを読出す第1の読取装置,
音データを格納した第2の記録媒体から,与えられたアクセス情報によって指定される音データを読出す第2の読取装置,
第1の記録媒体から読出された画像データによって表わされる画像を表示する表示装置,
第2の記録媒体から読出された音データによって表わされる音を発生する音発生装置,ならびに
少なくとも表示すべき画像を表わす画像データを示す識別情報と画像表示の開始時間データとを含む複数の画像キャスト,プレゼンテーションのために表示すべき画像の画像キャストのシーケンス・テーブル,およびプレゼンテーションのために用いる音データのアクセス情報とその開始時間データとを記述したタイム・コントロール・テーブルを格納した第3の記録媒体から上記シーケンス・テーブルに含まれる画像キャストを読出すとともに上記タイム・コントロール・テーブルを読出し,読出した画像キャストに含まれる識別情報にしたがって第1の記録媒体から画像データを読出し,読出した上記タイム・コントロール・テーブルのアクセス情報にしたがって第2の記録媒体から音データを読出し,画像キャストおよび上記タイム・コントロール・テーブルに記述された開始時間にしたがって,読出した画像データによって表わされる画像を上記表示装置に表示し,読出した音データによって表わされる音を上記音発生装置から出力させるように制御する制御装置,
を備えたマルチメディア・プレゼンテーション・システム。
A first reading device for reading image data corresponding to instructed identification information from a first recording medium storing a plurality of pieces of image data in association with the identification information;
A second reading device for reading sound data specified by given access information from a second recording medium storing sound data;
A display device for displaying an image represented by image data read from the first recording medium;
A sound generating device for generating sound represented by sound data read from the second recording medium, and a plurality of image casts including at least identification information indicating image data representing an image to be displayed and image display start time data , A third recording medium storing a sequence table of image casts of images to be displayed for presentation, and a time control table describing access information and start time data of sound data used for presentation The image cast included in the sequence table is read out, the time control table is read out, the image data is read out from the first recording medium according to the identification information included in the read image cast, and the time Control table access The sound data is read from the second recording medium according to the access information, the image represented by the read image data is displayed on the display device according to the start time described in the image cast and the time control table, and read out. A control device for controlling the sound represented by the sound data to be output from the sound generator;
Multimedia presentation system with
JP2003178009A 2003-06-23 2003-06-23 Multimedia presentation method and system Expired - Fee Related JP3706621B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003178009A JP3706621B2 (en) 2003-06-23 2003-06-23 Multimedia presentation method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003178009A JP3706621B2 (en) 2003-06-23 2003-06-23 Multimedia presentation method and system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP19621694A Division JP3491982B2 (en) 1994-07-29 1994-07-29 Multimedia presentation method and system

Publications (2)

Publication Number Publication Date
JP2003333536A JP2003333536A (en) 2003-11-21
JP3706621B2 true JP3706621B2 (en) 2005-10-12

Family

ID=29707591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003178009A Expired - Fee Related JP3706621B2 (en) 2003-06-23 2003-06-23 Multimedia presentation method and system

Country Status (1)

Country Link
JP (1) JP3706621B2 (en)

Also Published As

Publication number Publication date
JP2003333536A (en) 2003-11-21

Similar Documents

Publication Publication Date Title
JP2003297022A (en) Storage medium for storing catalog information
JP2895064B2 (en) Still image file method, still image reproducing device, still image file storage medium system, and still image file device
JP2736070B2 (en) Still image file editing device
JP3491982B2 (en) Multimedia presentation method and system
JP3706621B2 (en) Multimedia presentation method and system
JP3491981B2 (en) Multimedia presentation method and system, and multimedia data creation method and system
JP2006509442A (en) Additional data presentation method for interactive recording media
JP2919484B2 (en) Synchronous playback control method for still image and audio
JP3730639B2 (en) Multimedia presentation method and system, multimedia data creation method and system
JP2004343472A (en) Reproduction information file creating program
JP2002010205A (en) Image system and recording medium for retrospective method
JP2000284787A (en) Mood video editing method for karaoke system
JP3412633B1 (en) Recording method
JP3646609B2 (en) Automatic playback control file creation device and automatic playback control file creation method
JP3486235B2 (en) Branching method and system using merged image file, and branching screen creation method
JP2002074850A (en) Voice information recording device and method voice information reproducing device and method, voice information recording medium
JPH05153552A (en) Multi-medium processor and its method
JP2736071B2 (en) Still image file device
JP2002074853A (en) Information recording device, information recording method, information reproducing device, information reproducing method, information recording medium and electronic distribution system
JP3410457B2 (en) Recording method
JP3412630B1 (en) Recording method
JP3412635B1 (en) Recording / playback method
JP3412634B1 (en) optical disk
JP2004118989A (en) Reproducing device and method, recording medium, and program
JP3412629B1 (en) optical disk

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050330

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050729

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080805

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees