JP3730639B2 - Multimedia presentation method and system, multimedia data creation method and system - Google Patents

Multimedia presentation method and system, multimedia data creation method and system Download PDF

Info

Publication number
JP3730639B2
JP3730639B2 JP2003178008A JP2003178008A JP3730639B2 JP 3730639 B2 JP3730639 B2 JP 3730639B2 JP 2003178008 A JP2003178008 A JP 2003178008A JP 2003178008 A JP2003178008 A JP 2003178008A JP 3730639 B2 JP3730639 B2 JP 3730639B2
Authority
JP
Japan
Prior art keywords
image
sound
cast
data
recording medium
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003178008A
Other languages
Japanese (ja)
Other versions
JP2004007742A (en
Inventor
典久 羽田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2003178008A priority Critical patent/JP3730639B2/en
Publication of JP2004007742A publication Critical patent/JP2004007742A/en
Application granted granted Critical
Publication of JP3730639B2 publication Critical patent/JP3730639B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)

Description

【0001】
【技術分野】
この発明は,画像(文字画像を含む)と音(音楽,ナレーション等を含む)とからなるマルチメディアを発生させるマルチメディア・プレゼンテーション方法およびシステム,このプレゼンテーション方法およびシステムで用いられるマルチメディア・データを作成する方法およびシステム,ならびにマルチメディアに含まれる画像または他の用途に用いられる画像を合成する方法およびシステムに関する。
【0002】
【背景技術】
画像(主に静止画)と音とを時間順序でシーケンシャルに(画像と音が同時であるかどうかを問わない)発生させるためには,その時間順序で画像データと音データとを記録媒体上に配列しておかなければならない。このようなマルチメディア・データ(画像データと音データとからなるデータ)の一部を修正(データの加入,削除,置換または変更)する場合には,マルチメディア・全体の流れを再構築しかつ全データを書換え(少なくとも修正箇所以降のデータ)ることが必要であるので,その作業が煩雑とならざるを得ない。
【0003】
一方,マルチメディアで用いる静止画または他の用途で用いる静止画を,2つ以上の画像を合成することにより作成することがある。たとえば,絵と文字とを組合せるような場合である。このような場合に,合成前の絵と,文字と,合成後の画像とを保存しようとすれば,合成前の絵を表わす画像データ,文字を表わす画像データおよび合成された画像データの3種類を記録媒体に記録しておかなければならず,記録容量が多く必要である。合成画像データのみを保存したとすると,合成前の絵や文字の画像データが必要となったときに,これを正しく復元するのは困難である。
【0004】
【発明の開示】
この発明はマルチメディア・データの作成および修正を容易にするものである。
【0005】
この発明は記録容量を少なくして合成前の画像データを保存しかつ画像の合成を行なえるようにするものである。
【0006】
この発明によるマルチメディア・データの作成方法は,複数の画像データをそれらの識別情報と関連づけて格納した第1の記録媒体と,複数の音データをそれらの識別情報と関連づけて格納した第2の記録媒体とを用い,少なくとも表示すべき画像を表わす画像データを示す識別情報を含む画像キャスト,少なくとも発生させるべき音を表わす音データを示す識別情報を含む音キャスト,および出力させるべき順序に画像キャストと音キャストとを配列したスクリプト・ファイルを作成して第3の記録媒体に格納するものである。
【0007】
上記第1の記録媒体,第2の記録媒体および第3の記録媒体のうちの少なくとも2つが同一の記録媒体であってもよい。
【0008】
好ましい実施態様においては,先行する画像キャストにしたがう画像表示の基準時点もしくは音キャストにしたがう音発生の基準時点から,それに続く画像キャストにしたがう画像表示の基準時点もしくは音キャストにしたがう音発生の基準時点までの遷移時間を,またはプレゼンテーションの開始時点から画像キャストにしたがう画像表示の基準時点もしくは音キャストにしたがう音発生の基準時点までの遷移時間を,画像キャストまたはスクリプト・ファイルに含ませる。
【0009】
さらに好ましい実施態様においては,画像の表示時間を画像キャストまたはスクリプト・ファイルに含ませる。
【0010】
他の実施態様では,表示すべき画像の解像度,位置または拡大,縮小倍率を画像キャストに含ませる。
【0011】
さらに他の実施態様では,画像表示の最初の段階で実行すべき効果およびその時間を画像キャストに含ませる。
【0012】
さらに望ましくは,音データのうち発生させるべき部分を表わす時点データを音キャストに含ませる。
【0013】
好ましい実施態様では,複数の画像データとこれらの画像データの合成に関するデータとを含む合体型画像ファイルを,上記画像データとして第1の記録媒体に格納し,画像キャストに合体型画像ファイルの識別情報を含ませる。
【0014】
この発明によるマルチメディア・データ作成システムは,複数の画像データをそれらの識別情報と関連づけて格納した第1の記録媒体から,指示された識別情報に対応する画像データを読出す第1の読取装置,複数の音データをそれらの識別情報と関連づけて格納した第2の記録媒体から,指示された識別情報に対応する音データを読出す第2の読取装置,ならびに少なくとも表示すべき画像を表わす画像データを示す識別情報を含む画像キャスト,少なくとも発生させるべき音を表わす音データを示す識別情報を含む音キャスト,および出力させるべき順序に画像キャストと音キャストとを配列したスクリプト・ファイルを第3の記録媒体に記録する記録装置を備えている。
【0015】
この発明によると,表示すべき画像に関する記述を画像キャストに,発生させるべき音に関する記述を音キャストに,画像と音の再生順序をスクリプト・ファイルにそれぞれ含ませている。これらの画像情報と音情報と順序情報とをそれぞれ別個に取扱うことができるので,その作成および修正が容易となる。
【0016】
この発明はこのようにして作成されたマルチメディア・データを利用したマルチメディア・プレゼンテーション方法およびシステムを提供している。
【0017】
この発明によるマルチメディア・プレゼンテーション方法は,複数の画像データをそれらの識別情報と関連づけて第1の記録媒体にあらかじめ格納しておき,複数の音データをそれらの識別情報と関連づけて第2の記録媒体にあらかじめ格納しておき,少なくとも表示すべき画像を表わす画像データを示す識別情報を含む画像キャスト,少なくとも発生させるべき音を表わす音データを示す識別情報を含む音キャスト,および出力させるべき順序に画像キャストと音キャストとを配列したスクリプト・ファイルを作成して第3の記録媒体に格納しておき,第3の記録媒体からスクリプト・ファイルを読出し,読出したスクリプト・ファイルに記述された画像キャストおよび音キャストを読出し,読出した画像キャストおよび音キャストに含まれる識別情報にしたがって第1の記録媒体および第2の記録媒体から画像データおよび音データを読出し,スクリプト・ファイルに記述された順序で,読出した画像データによって表わされる画像を表示装置に表示し,読出した音データによって表わされる音をスピーカから出力させるものである。
【0018】
この発明によるマルチメディア・プレゼンテーション・システムは,複数の画像データをそれらの識別情報と関連づけて格納した第1の記録媒体から,指示された識別情報に対応する画像データを読出す第1の読取装置,複数の音データをそれらの識別情報と関連づけて格納した第2の記録媒体から,指示された識別情報に対応する音データを読出す第2の読取装置,第1の記録媒体から読出された画像データによって表わされる画像を表示する表示装置,第2の記録媒体から読出された音データによって表わされる音を発生する音発生装置,ならびに少なくとも表示すべき画像を表わす画像データを示す識別情報を含む画像キャスト,少なくとも発生させるべき音を表わす音データを示す識別情報を含む音キャスト,および出力させるべき順序に画像キャストと音キャストとを配列したスクリプト・ファイルを格納した第3の記録媒体からスクリプト・ファイルを読出し,読出したスクリプト・ファイルに記述された画像キャストおよび音キャストを読出し,読出した画像キャストおよび音キャストに含まれる識別情報にしたがって第1の記録媒体および第2の記録媒体から画像データおよび音データを読出し,スクリプト・ファイルに記述された順序で,読出した画像データによって表わされる画像を上記表示装置に表示し,読出した音データによって表わされる音を上記音発生装置から出力させるように制御する制御装置を備えている。
【0019】
上記第1の記録媒体,第2の記録媒体および第3の記録媒体のうちの少なくともいずれか2つが同一の記録媒体であってもよい。第1の記録媒体と第2の記録媒体とが同一の記録媒体の場合には,上記第1の読取装置と第2の読取装置が同一の装置となる。
【0020】
このようにして,先の方法で作成されたマルチメディア・データに基づいて有効にプレゼンテーションが行なわれる。
【0021】
この発明はさらに,合体型画像ファイルを利用した画像合成方法およびシステムを提供している。
【0022】
この発明による画像合成方法は,複数の画像データと,これらの画像データの合成に関するデータとを含む合体型画像ファイルを記録媒体にあらかじめ格納しておき,上記記録媒体から合体型画像ファイルを読出し,読出した合体型画像ファイル内の合成に関するデータにしたがって少なくとも2つの画像データをメモリ上で合成し,合成により得られた画像データによって表わされる画像を表示装置に表示するものである。
【0023】
この発明による画像合成方法は,複数の画像データと,これらの画像データの合成に関するデータとを含む合体型画像ファイルを格納した記録媒体から合体型画像ファイルを読出す読取装置,読出した合体型画像ファイル内の合成に関するデータにしたがって少なくとも2つの画像データをメモリ上で合成する画像合成手段,および合成により得られた画像データによって表わされる画像を表示する表示装置を備えている。
【0024】
この発明によると,合体後の画像データを記録媒体に格納する必要がないので,その容量を有効に使える。しかも,合体前後のすべての画像データを容易に入手できる。
【0025】
【実施例】
図1はマルチメディア・プレゼンテーション・システムの全体的構成の概要を示している。このシステムはマルチメディア・データ作成および画像合成にも用いることができる。
【0026】
コンピュータ・システム10はマルチメディア・プレゼンテーション(ならびにマルチメディア・データ作成および画像合成)専用のものでもよいし,汎用のコンピュータ・システムをマルチメディア・プレゼンテーション用(ならびにマルチメディア・データ作成および画像合成)にプログラムしたものでもよい。
【0027】
コンピュータ・システム10はCPU11,メモリ12,入力装置13,および表示装置14を備えている。メモリ12は半導体メモリ,フロッピィ・ディスク,ハード・ディスク等を含み,CPU11の実行するプログラムを格納したり,ワーク・エリアとして用いられる。入力装置13はキーボード,マウス等を含み,CPU11にコマンド,データ等を与えるものである。表示装置14はたとえばCRT表示装置,液晶表示装置等により実現される。
【0028】
コンピュータ・システム10にはSCSI(Small Computer System Interface )バスを介して,ディスク・ドライバ15,画像システムおよび音システムが接続されている。
【0029】
ディスク・ドライバ15はディスク状記録媒体(光ディスク,光磁気ディスク,磁気ディスク等)にデータを書込む,およびこの記録媒体からデータを読出すものである。ディスク・ドライバ15によって読み書きされる記録媒体を,他の記録媒体と区別するために管理用記録媒体ということにする。管理用記録媒体には後に詳述するスクリプト・ファイル,画像キャスト,音キャスト等が記録される,または記録されている。
【0030】
画像システムはディスク・ドライバ21,画像再生装置22,および表示装置23を含む。ディスク・ドライバ21によって読み書きされるディスク状記録媒体を画像用記録媒体ということにする。画像用記録媒体には後述する合体型画像ファイル,画像ファイル(一画面分の画像を表わす画像データ(データ圧縮または符号化された画像データ,文字画像データを含む)を画像ファイルといい,画像ファイルまたは合体型画像ファイルの集まりをアルバムということにする)等がアクセス可能に記録される,または記録されている。
【0031】
画像再生装置22はディスク・ドライバ21によって画像用記録媒体から読出された画像データまたはコンピュータ・システム10から与えられた画像データによって表わされる画像を表示装置23に表示する処理を行うものであり,VRAM,D/A変換回路,画像処理回路,表示制御回路等を含む。
【0032】
表示装置23はCRT表示装置または液晶表示装置(ビデオプロジェクタの一部として用いられるものを含む)により実現される。マルチメディア・プレゼンテーション・システムには,コンピュータ・システム10の表示装置14またはこの表示装置23の少なくともいずれか一方が設けられればよい。
【0033】
音システムは,ディスク・ドライバ31,音再生装置32およびスピーカ33が含まれる。ディスク・ドライバ31によって読み書きされるディスク状記録媒体を音用記録媒体ということにする。音用記録媒体は音を表わすディジタル・データ(ADPCM;Adaptive Differential Pulse Code Modulation されたものを含む)を記録するものである。一曲の音楽,一つのまとまりのあるナレーション等,一単位の音データを音ファイルという。
【0034】
音再生装置32は音用記録媒体から読出された音データを音信号に変換してスピーカ33を駆動するものであり,ADPCM復号化回路,D/A変換回路等を含む。
【0035】
音用記録媒体はMIDI(Musical Instrument Digital Interface)データを一部または全部に格納したものでもよい。この場合には音再生装置32は電子楽器を含むものとなる。
【0036】
画像ファイルと音ファイルとを一つの記録媒体に格納するようにしてもよい。この場合にはドライバは1つで足りる。高速のディスク・ドライバは画像ファイルと音ファイルとを時分割で読出すことができ,これらの読出されたデータに基づいて画像の表示と音の発生(出力)とを同時に行うことができる。さらに,画像用記録媒体と画像用記録媒体と音用記録媒体とが同一の記録媒体であってもよい。この場合には,ドライバ15とドライバ21とドライバ31は一台のドライバで兼用される。これらの3種類の記録媒体のうちの少なくとも任意の2つが同一の記録媒体であってもよい。
【0037】
ディスク状記録媒体に代えて,画像ファイルや音ファイルを記録するために半導体メモリやテープ状記録媒体(光テープ,磁気テープ等)を用いることができる。
【0038】
マルチメディア・プレゼンテーション・システム(またはマルチメディア・データ作成システム,画像合成システム)には,画像データの入力装置,音データの入力装置等を接続してもよい。画像データ入力装置はたとえば,入力する映像信号をA/D変換し,データ圧縮する装置などが含まれよう。音データの入力装置にはマイク,A/D変換回路,バッファ・メモリ,ADPCM符号化回路等が含まれよう。
【0039】
合体型画像ファイルについて説明しておく。分りやすくするために,図2に示す自然画(絵)と図3に示す文字画像とを用いて,図4に示すような合成画像を作成する合体型画像ファイルについて説明する。合体型画像ファイルには,基本的には自然画を表わす画像データと,文字画像を表わす画像データと,これらの画像データを合成するのに必要な情報(データ)とが含まれる。合体型画像ファイルには合成後の画像を表わす画像データは含まれない。
【0040】
図5は合体型画像ファイルの構成の一例を示している。合体型画像ファイルは,ヘッダ,情報領域,パス領域,および画像データ領域から構成されている。
【0041】
画像データ領域には,図2に示す自然画を表わす画像データと,図3に示す文字画像を表わす画像データとが格納される。
【0042】
図2に示す自然画を表わす画像データには3種類あり,それは検索用縮小画像データA1と,標準画像データA2と,ハイビジョン用画像データA3とである。
【0043】
縮小画像データA1は標準画像データA2を間引き処理,平均化処理等により縮小(たとえば1/64)することにより作成されたもので,主に検索処理に用いられる。すなわち,検索処理時には,多数の合体型画像ファイルから縮小画像データがそれぞれ読出され,これらの縮小画像データによって表わされる縮小画像がマルチ画面を構成するように表示画面に表示される。
【0044】
標準画像データA2はテレビジョン画面に表示するのに適した解像度をもつ画像データである。マルチメディア・プレゼンテーション・システムで画像表示のために用いられる画像データは,基本的には,この標準画像データA2である。もちろん,他の画像データA1,A3もマルチメディア・プレゼンテーションに用いることができる。
【0045】
ハイビジョン用画像データA3は高解像度(たとえば標準画像データの4倍)のもので,ハイビジョン表示またはプリント用に用いられる。さらに高解像度(たとえば,ハイビジョン用の4倍の解像度をもつもの,より大きなプリント画を得るため)の画像データを合体型画像ファイルに含ませることができる。自然画を表わす画像データの種類数は任意である。
【0046】
図3に示す文字を表わす文字画像データBは一種類のみ用意されている。この文字画像データBは少くとも文字の領域分だけあればよく,一画面分は必ずしも必要ない。文字画像データについても,解像度の異なるものを複数種類用意してもよい。
【0047】
さらに異なる絵や文字を表わす画像データを合体型画像ファイルに設けてもよいのはいうまでもない。合体型画像ファイルは2種類以上の画像を合成するものであるからである。カラー画像のみならず,白黒画像のデータを用意しておいてもよい。
【0048】
パス領域には,上述した各画像データA1,A2,A3およびBをアクセスするためのデータ(パスまたはオフセット,その他のアドレスに関連するデータ)がそれぞれ記憶される。
【0049】
ヘッダには合体型画像ファイルであることを示すコード,この合体型画像ファイルが属するアルバムの名称(名),合体型画像ファイルの名称(名)等が格納される。
【0050】
情報領域には,バージョン番号,圧縮方式,画像回転情報,テーブル,作成年月日等が記述される。
【0051】
バージョン番号はバージョンを識別するためのVersion 1.2 とかVersion 3.5 とかの番号である。
【0052】
圧縮方式は画像データ領域の画像データがデータ圧縮されている場合に,その方式(たとえばJPEG方式等)を示すものであり,これは主に自然画について適用される。
【0053】
画像回転情報は画像データ領域の画像データ(時に自然画の)を表示したときに,観察者に正しく見せるためには反時計回りに何度回転して表示すればよいかを示すものである。たとえば,この情報には0度,90度,180 度,270 度などがある。
【0054】
テーブルは,画像データ領域に格納した画像データの種類と解像度を示すものである。たとえば,カラー(24ビット)自然画(縮小1/64,標準1/1,ハイビジョン4/1),文字(8ビット),画像(標準1/1)というデータが,テーブルの形で一定の配列で記述されている。この配列は,パス領域に記述したパス・データの順序と一致している。
【0055】
作成年月日はこの合体型画像ファイルを作成した年月日である。
【0056】
画像用記録媒体にはこのような合体型画像ファイルが複数個格納される。この合体型画像ファイルの作成は,図1に示すシステムを用いて行なうことができる。必要な画像データとその情報とを作成して図5に示すような形式で記録媒体に格納すればよい。
【0057】
画像用記録媒体には合体型画像ファイル以外の画像ファイルも格納される。この画像ファイルにも,そのアルバム名,ファイル名を含むヘッダ,図5の情報領域に示されるような情報,パスおよび画像データが格納される。一つの絵または文字画像について,複数種類の解像度をもつ画像データを格納しておくとよい。
【0058】
音用記録媒体に格納される音ファイルもまた,アルバム名,ファイル名を含むヘッダ,再生等のために必要な情報,および音データを含むように構成される。もっとも,アルバム名,ファイル名,情報はディレクトリに格納してもよい。
【0059】
図6はこのマルチメディア・プレゼンテーション・システムにおいて発生する画像(静止画)と音のシーケンスの一例を示している。
【0060】
まず導入音楽(1) (音)がスピーカ33から流れ,この音楽(1) が流れている間に表示装置23に画像(1) が表示される。画像(1) が表示されている間に,導入音楽(1) がナレーション(2) (音)に切替わる。ナレーション(2) が終った後に,一時的に音の発生が止む。この間に,画像(1) から画像(2) に切替わり,続いてナレーション(3) が流れる。この例では,画像と音とが同時に出力されることがある。
【0061】
ある音の出力または画像の表示が開始された時点から,次の音の出力または画像の表示が開始されるまでの時間を,この例において,遷移時間という。一つの画像が表示されている時間を表示時間という。
【0062】
図7は発生する画像(静止画)と音のシーケンスの他の例を示している。このシーケンスでは,音と画像は同時には発生しない。ある一時点では音または画像のいずれか一方が再生されているか,またはいずれも再生されていない。
【0063】
このシーケンスの例では,ある音の出力の停止または画像の表示終了の時点から,次の音の出力の開始または画像の表示開始までの時間を遷移時間と定義している。一つの画像が表示されている時間が表示時間である。破線で示すように,画像についてはある画像の表示開始から次の画像の表示開始までを遷移時間とすることもできる。さらに,プレゼンテーションの開始(第1番目の音の発生または画像表示)の時点からの時間(開始時間)(これも遷移時間という)を,上述した遷移時間に代えて定義してもよい。
【0064】
このような再生すべき1つの画像または一つづきの音は画像キャストまたは音キャストによって記述され,それらの再生の順序はスクリプト・ファイルに記述される。
【0065】
スクリプト・ファイルの一例が図8に示されている。このスクリプト・ファイルは図6に示すシーケンスを表わしたものである。PLAYは再生命令をAudio Cast は音キャストを,Image Castは画像キャストをそれぞれ表わしている。PLAY Audio Cast (1) が一つの命令文(ステートメント)であり,これは音キャスト(1) を再生せよということを意味している。これらの命令文は再生すべき順番に記述される。したがって,音(1) ,画像(1) ,音(2) ,画像(2) ,音(3) の順番に再生される。これは図6のシーケンスと同じである。スクリプト・ファイルにおいて,命令PLAYはその記述を省略することができる。画像キャストや音キャストに記述されている遷移時間,表示時間をスクリプト・ファイルに記述してもよい。
【0066】
図9は画像キャスト(Image Cast)の構造の一例を示している。画像キャストは,ヘッダ,アルバム名,(合体型)画像ファイル名,合体情報,遷移時間,表示時間,画像出現効果,画像出現効果時間,画像の解像度,位置情報,拡大倍率等を含む。
【0067】
ヘッダは画像キャストであることを示すものである。
【0068】
アルバム名および(合体型)画像ファイル名は,再生すべき画像ファイル(合体型画像ファイルまたはそれ以外の画像ファイル)を示すものである。
【0069】
合体情報は合体型画像ファイルが指示されていた場合に用いられるもので,合体型画像ファイルに含まれる複数の画像データのうちのどれを用いるのかという情報(合体させる画像の種類)と,合成(合体)方法とを含む。合体させるべき画像の種類に関する情報には,合体させるか,させないかの情報も含まれる。合体させる場合には合体させるべき画像データが明示される(この例では,合体させるべき画像データは画像の解像度によって指示されている)。合体させない場合には,どの画像(自然画,文字画像)を用いるかが記述される。合体方法にはOR,AND,NOR等がある。
【0070】
遷移時間および表示時間は上述した通りのものである。
【0071】
画像出現効果は,画像の表示を開始するときに,いきなり全画面を表示するのか(全画面を瞬間的に切替えるのか),両開きのドア(またはカーテン)を開けるような態様で次の画像を表示するのか,右から左に掃引しながら次の画像を表示するか,上から下に掃引しながら画像を表示しはじめるのか,中心から徐々に表示領域を拡大しながら絵を出現させるのかというような画面効果を選択するものである。画像出現効果時間は,画像の一部の出現開始から全部が出現するまでの時間である。
【0072】
画像の解像度は上述したように表示すべき画像(自然画)の解像度を示し,図5の例では1/64,1/1,4/1のいずれかが選択される。この解像度の指定により,結果的に画像データが選択される。
【0073】
位置情報は,表示すべき画像の表示画面上における位置を表わす。例えば,表示すべき画像の中心のX,Y座標で表現される。
【0074】
拡大倍率(縮小倍率も含む)は表示する画像を拡大または縮小するときの倍率を表わす。
【0075】
図10は音キャスト(Audio Cast)の構造の一例を示している。音キャストにはヘッダ,アルバム名,音ファイル名,トラック番号,属性,遷移時間,スタート・ポインタおよびストップ・ポインタ等が含まれる。
【0076】
ヘッダは音キャストであることを示すものである。
【0077】
アルバム名およびファイル名は再生すべき音ファイルを同定するものである。トラック番号は,再生すべき音ファイルが存在する音用記録媒体上のトラック番号を示す。ファイル名によってトラック番号が一義的に定まる場合にはトラック番号は必ずしも必要ない。
【0078】
属性は音の性質等,たとえばモノ/ステレオの別,チャネル数を示す。
【0079】
遷移時間は上述した通りである。
【0080】
音については音ファイル内のすべての音が再生されるとは限らない。たとえば一曲(一つの音のファイル)の中の特定の部分(これをクリップという)のみを再生することが要求されることがある。スタート・ポインタおよびストップ・ポインタは,再生すべきクリップの開始位置および終了位置を,音ファイルにおける最初の音の位置を基準として,時間で表現するものである。
【0081】
このようなスクリプト・ファイル,画像キャスト,音キャストは管理用記録媒体に格納される。
【0082】
図11から図13はマルチメディア・プレゼンテーション・システムにおいて,マルチメディアを発生(再生)する処理手順を示している。この処理は主にコンピュータ・システム10におけるCPU11によって実行される。またこの処理は,図6に示す遷移時間の定義にしたがうものである。
【0083】
管理用記録媒体には1または複数のスクリプト・ファイルが格納されている。入力装置13から再生すべきスクリプト・ファイルを指定する入力が与えられると,CPU11はディスク・ドライバ15を起動して,管理用記録媒体から,指定されたスクリプト・ファイルを読出してメモリ12のワーク・エリアに格納する(ステップ41)。
【0084】
読出したスクリプト・ファイルに列挙されているすべてのキャスト(画像キャストおよび音キャスト)が同様に管理用記録媒体から読出されてワーク・エリアに記憶される(ステップ42)。CPU11はスクリプト・ファイルにリストされているすべてのキャストが存在するかどうかをチェックする(ステップ43)。
【0085】
CPU11はさらに,ディスク・ドライバ21および31を起動して,先に読出したキャストに記述されているすべての画像ファイルおよび音ファイルが画像用記録媒体および音用記録媒体に記録されているかどうかをチェックする(ステップ44〜46)。一般に一つのキャストには一つのファイルが記述されているからステップ45の処理は必ずしも必要ない。
【0086】
スクリプト・ファイルに記述されたキャストが一つでも管理用記録媒体内に存在しなければ,またはキャストに記述されたファイルが画像用または音用記録媒体内に一つでも存在しなければエラーということになる。
【0087】
エラーがなければ,読出されたワーク・エリアに格納されたスクリプト・ファイルおよびキャストにしたがって再生動作が行なわれていく。
【0088】
スクリプト・ファイル内の現在再生しているキャストを指示するためにキャスト・カウンタが設けられている。このキャスト・カウンタに1が設定される(ステップ47)。
【0089】
キャスト・カウンタによって指示されるキャストが解読され,それが画像キャストか音キャストかが判断される(ステップ51)。画像キャストの場合には図12に示す処理に進み,音キャストの場合には図13に示す処理に進む。
【0090】
画像キャストの場合にはまず画像合成処理が行なわれる。画像キャストに含まれているアルバム名およびファイル名を用いて画像用記録媒体がアクセスされ,該当する画像ファイルが読出され,ワーク・エリアに格納される。合体型画像ファイルの場合には,解像度情報により指定された一または複数の画像データが読出される。読出された画像データが,データ圧縮されている場合には伸張処理が行なわれる。画像ファイル(合体型画像ファイル)に記述されている画像回転情報にしたがって,必要に応じて,ワーク・エリア内の画像データが回転される。画像キャストに記述されている拡大,縮小倍率にしたがって,必要に応じて,画像データの拡大,または縮小処理が行なわれる。さらに必要ならば画像キャスト内の位置情報にしたがって画像データの位置決め,切り出し等が行なわれる。
【0091】
好ましくは画像再生装置22には2個のVRAMが設けられている。1個は現在表示されている画像用であり,もう1個は次に表示すべき画像用である。このような場合には,ワーク・エリアの画像データが画像再生装置22のVRAMに転送されて格納される。合体型画像データの場合にはVRAM上で2つ以上の画像データの合成が行なわれる(以上ステップ52)。
【0092】
第1番目のキャストの場合には(ステップ53でYES ),画像の合成処理ののち,ただちに(ステップ54〜58をスキップ)合成画像出力処理,表示命令処理に移る(ステップ59)。表示命令とともに画像出現効果および効果時間が画像再生装置22に与えられ,VRAM上の画像データによって表わされる画像が,指示された効果を伴って表示装置23に表示されることになる。
【0093】
この実施例では,現在のキャストを再生している間に,次の画像キャストのための画像合成処理が行なわれる。遷移時間および表示時間を計時するためにそれぞれのタイマが設けられている。現在のキャストの再生を開始するときに遷移時間タイマに遷移時間が設定される(ステップ62)。現在のキャストが画像キャストの場合にはその表示時間が表示時間タイマに設定される(ステップ61)。
【0094】
キャスト・カウンタが1以外の場合には(ステップ53でNO),遷移時間タイマがタイム・アップするのを待って(タイマ割込み)(ステップ58),合成画像出力および表示命令処理に進むことになる(ステップ59)。
【0095】
この後,キャスト・カウンタに+1され(ステップ60),表示時間カウンタおよび遷移時間カウンタにそれぞれ今回の画像キャスト内の表示時間および遷移時間がセットされる(ステップ61,62)。この後,ステップ50に戻って,次のキャストについての準備が開始される。
【0096】
遷移時間タイマのタイム・アップの待時間の間に,表示時間タイマがタイム・アップしたときには(タイマ割込があったときには)画像再生装置22に消去指令が与えられるので(ステップ56,57),表示装置23に表示されていた画像が消える。ステップ59の処理により次の画像がただちに表示されるときには,画像が切替えられたように見えることになる。
【0097】
現在のキャストが音キャストで,音再生装置32から,指示されたクリップの再生が終了した旨の通知が届いたときには,CPU11はその旨を認識する(ステップ54,55)。
【0098】
画像再生装置22に1個のVRAMしかない場合には,ステップ52におけるVRAM上での画像合成(または書込み)処理は,ステップ59で行なわれるであろう。
【0099】
音キャストの場合には,音キャストに含まれるスタート・ポインタおよびストップ・ポインタ(時間で表現されている)が,それぞれ音用記録媒体上の物理アドレスに変換される(ステップ63)。この後,遷移タイマ58のタイム・アップを待って(ステップ58),音キャストに記述されたデータおよび上記物理アドレスを含む再生指令が音再生装置32に与えられる(ステップ64)。これに応答して,音再生装置32は音用記録媒体から指令された音ファイルの中の指示されたクリップを再生し,スピーカ33から音を出力することになる。他の処理は図12に示すものと同じであり,同一ステップに同一符号を付し重複説明を避ける。図13の処理では表示時間の設定処理は無い。
【0100】
スクリプト・ファイルに記述されたすべてのキャストについての処理が終ると(ステップ48でYES ),最後の画像キャストについての表示時間タイマのタイム・アップを待って,または音キャストの場合には音再生装置からの音再生終了報告を待って,すべての処理を終える(ステップ49)。
【0101】
図14および図15は図7に定義された遷移時間にしたがう処理を示しており,図12および図13にそれぞれ対応するものである。図11はこの例でもそのまま使用される。
【0102】
図14において,図12に示すステップ52の画像合成処理とステップ59の合成画像出力,表示命令処理が連続的に行なわれ(ステップ71),画像キャストによって指示される画像が表示装置23に表示される。この後,キャスト・カウンタがインクレメントされ(ステップ60),表示時間タイマに表示時間がセットされる(ステップ61)。
【0103】
表示時間タイマがタイム・アップするのを待って(ステップ56),画像消去指令を出力するとともに(ステップ57),遷移時間タイマに遷移時間がセットされる(ステップ62)。
【0104】
遷移時間タイマがタイム・アップすると(ステップ58),次のキャストについての処理に進む(ステップ50)。
【0105】
遷移時間が零の場合にはステップ62,58はスキップされる。
【0106】
図7に破線で示す遷移時間が定義されている場合には,ステップ61の表示時間のセットとともに,遷移時間のセット(ステップ62)が行なわれる。
【0107】
図15の音キャストについての処理においても同じように,ステップ72において,図13のステップ63と64の処理が行なわれる。これにより音の再生が行なわれる。この後,キャスト・カウンタがインクレメントされる(ステップ60)。
【0108】
音再生装置32から指示されたクリップの再生が終了した旨の通知が届いたのちに(ステップ54),遷移時間がセットされる(ステップ62)。遷移時間タイマがタイム・アップしたのちに(ステップ58),次のキャストの処理に進む(ステップ50)。
【0109】
プレゼンテーションの開始時点から各キャストにしたがう画像表示または音の発生までの時間(開始時間)が遷移時間として定義されている場合には,全キャストから遷移時間を読出してその順番に並べておき(タイム・テーブル),プレゼンテーションの開始時点からスタートしたタイマの計時時間と各遷移時間を比較し,両時間が一致したときに各キャストにしたがう音の発生または画像表示を行なうようにすることになる(このとき音の発生または画像表示のための前処理に要する時間を考慮して,少し早目に前処理を行なっておくとよい)。
【0110】
画像キャストの作成処理について説明しておく。この処理は,画像のおおまかな選択と,画像キャスト・データの詳細の指定とに分けることができる。
【0111】
画像のおおまかな選択では,画像用記録媒体に格納されている画像ファイル(合体型画像ファイルを含む)のうち所望のものが選択される。このとき,上述した検索用画像データが有効に用いられよう。選択した画像ファイルによって表わされる画像が表示装置14または23に表示される(データ伸張,画像合成が行われる)。オペレータは表示された画像をみて,最終的に選択するかどうかを決定する。最終的に選択された画像ファイルのプログラム名およびファイル名はメモリ12のワーク・エリアに格納される。
【0112】
必要な画像ファイルの選択が終了すると,選択された各画像ファイルについて画像キャストが作成される。画像キャストに必要な合体情報,遷移時間,表示時間,画像出現効果とその時間,位置情報,拡大倍率等が順次入力される。作成された画像キャストはワーク・エリアに保存される。必要なすべての画像キャストの作成が終了すると,これらの画像キャストは管理用記録媒体に格納される。
【0113】
音キャストの作成もほぼ同じ手順で行なわれる。まず音ファイルの選択が行なわれる。音用記録媒体において音ファイルが指定され,音が再生される。再生された音を聞いてオペレータは最終的に選択するかどうかを決定する。決定された音ファイルのアルバム名およびファイル名がワーク・エリアに保存される。
【0114】
音キャストの詳細データのうちで入力が必要なものは遷移時間,スタート・ポインタおよびストップ・ポインタである。選択した音ファイルが再生される。スタート・ポインタとしたい音が出力された時点で,その時点を指定する入力が入力装置13から与えられると,CPU11はそのときの時間が音再生装置32に問合わせる。音再生装置32から返答された時間がスタート・ポインタとなる。同じようにストップ・ポインタが設定される。最後に遷移時間が入力される。
【0115】
スクリプト・ファイルは既に作成したキャストを再生の順番で入力することにより作成される。
【0116】
一旦作成されたスクリプト・ファイルおよびキャストは上述した手順で再生される。オペレータは再生されたマルチメディアを観賞しながら,必要な部分を修正する。各メディアについての情報は画像キャスト,音キャストに,全体の流れはスクリプト・ファイルにそれぞれ記述されているので,これらを個々に修正すれば足り,修正作業が容易である。
【0117】
マルチメディア・プレゼンテーション・システムは,店頭における商品案内,美術館等における展示物(絵画)の案内,会議,パーティ等における情報の提示,報告等に利用されよう。
【図面の簡単な説明】
【図1】マルチメディア・プレゼンテーション・システムを示すブロック図である。
【図2】合成前の自然画を示す。
【図3】合成前の文字画像を示す。
【図4】合成画像を示す。
【図5】合体型画像ファイルの構造例を示す。
【図6】マルチメディア・プレゼンテーションのシーケンスの一例を示す。
【図7】マルチメディア・プレゼンテーションのシーケンスの他の例を示す。
【図8】スクリプト・ファイルの例を示す。
【図9】画像キャストの構造例を示す。
【図10】音キャストの構造例を示す。
【図11】マルチメディア・プレゼンテーション処理の一例を示すフロー・チャートである。
【図12】マルチメディア・プレゼンテーション処理の一例を示すフロー・チャートである。
【図13】マルチメディア・プレゼンテーション処理の一例を示すフロー・チャートである。
【図14】マルチメディア・プレゼンテーション処理の他の例を示すフロー・チャートである。
【図15】マルチメディア・プレゼンテーション処理の他の例を示すフロー・チャートである。
【符号の説明】
10 コンピュータ・システム
11 CPU
15,21,31 ディスク・ドライバ
22 画像再生装置
23 表示装置
32 音再生装置
33 スピーカ
[0001]
【Technical field】
The present invention relates to a multimedia presentation method and system for generating multimedia composed of images (including character images) and sounds (including music, narration, etc.), and multimedia data used in the presentation method and system. The present invention relates to a method and system for creating, and a method and system for synthesizing images included in multimedia or used for other purposes.
[0002]
[Background]
In order to generate images (mainly still images) and sound sequentially in time order (regardless of whether the image and sound are simultaneous), the image data and sound data are recorded on the recording medium in that time order. Must be arranged in When modifying a part of such multimedia data (data consisting of image data and sound data) (subscribing, deleting, replacing or changing data), the multimedia flow is reconstructed and Since it is necessary to rewrite all the data (at least the data after the corrected part), the work must be complicated.
[0003]
On the other hand, a still image used in multimedia or another application may be created by combining two or more images. For example, a case where a picture and a character are combined. In such a case, if an attempt is made to save the pre-combination picture, characters, and post-combination image, there are three types: image data representing the picture before composition, image data representing the character, and composited image data. Must be recorded on a recording medium, and a large recording capacity is required. If only the composite image data is saved, it is difficult to correctly restore the image data of the picture or character before the composition when it is needed.
[0004]
DISCLOSURE OF THE INVENTION
The present invention facilitates the creation and modification of multimedia data.
[0005]
According to the present invention, the recording capacity is reduced so that image data before synthesis can be stored and images can be synthesized.
[0006]
The multimedia data creating method according to the present invention includes a first recording medium storing a plurality of image data in association with their identification information, and a second recording medium storing a plurality of sound data in association with their identification information. And at least an image cast including identification information indicating image data representing an image to be displayed, a sound cast including identification information indicating sound data representing a sound to be generated, and an image cast in an order to be output And a sound file are created and stored in a third recording medium.
[0007]
At least two of the first recording medium, the second recording medium, and the third recording medium may be the same recording medium.
[0008]
In a preferred embodiment, the reference time point of the image display according to the preceding image cast or the reference time point of the sound generation according to the sound cast to the reference time point of the image display according to the subsequent image cast or the reference time point of the sound generation according to the sound cast. The transition time from the start time of the presentation to the reference time point of image display according to the image cast or the reference time point of sound generation according to the sound cast is included in the image cast or script file.
[0009]
In a further preferred embodiment, the image display time is included in the image cast or script file.
[0010]
In another embodiment, the image cast includes the resolution, position or enlargement / reduction ratio of the image to be displayed.
[0011]
In yet another embodiment, the image cast includes the effect to be performed at the initial stage of image display and the time thereof.
[0012]
More preferably, the time cast representing the portion of the sound data to be generated is included in the sound cast.
[0013]
In a preferred embodiment, a combined image file including a plurality of image data and data relating to the synthesis of these image data is stored as the image data in the first recording medium, and identification information of the combined image file is included in the image cast. Is included.
[0014]
A multimedia data creation system according to the present invention includes a first reader for reading image data corresponding to instructed identification information from a first recording medium storing a plurality of pieces of image data in association with the identification information. , A second reading device for reading the sound data corresponding to the instructed identification information from the second recording medium storing the plurality of sound data in association with the identification information, and at least an image representing the image to be displayed An image cast including identification information indicating data, a sound cast including at least identification information indicating sound data to be generated, and a script file in which the image cast and the sound cast are arranged in an order to be output A recording device for recording on a recording medium is provided.
[0015]
According to the present invention, the description regarding the image to be displayed is included in the image cast, the description regarding the sound to be generated is included in the sound cast, and the reproduction order of the image and sound is included in the script file. Since these image information, sound information, and order information can be handled separately, the creation and correction thereof are facilitated.
[0016]
The present invention provides a multimedia presentation method and system using multimedia data thus created.
[0017]
In the multimedia presentation method according to the present invention, a plurality of image data are stored in advance in a first recording medium in association with their identification information, and a plurality of sound data are associated with their identification information in a second recording. An image cast including identification information indicating image data representing an image to be displayed at least stored in a medium in advance, a sound cast including identification information indicating sound data representing at least sound to be generated, and an order of output A script file in which image casts and sound casts are arranged is created and stored in a third recording medium, the script file is read from the third recording medium, and the image cast described in the read script file is read. And sound casts, included in read image and sound casts Image data and sound data are read from the first recording medium and the second recording medium according to the identification information, and the image represented by the read image data is displayed on the display device in the order described in the script file, The sound represented by the read sound data is output from the speaker.
[0018]
A multimedia presentation system according to the present invention includes a first reading device for reading image data corresponding to instructed identification information from a first recording medium storing a plurality of image data in association with the identification information. , A second reading device that reads sound data corresponding to the instructed identification information from a second recording medium that stores a plurality of sound data in association with the identification information, and is read from the first recording medium A display device for displaying an image represented by image data, a sound generating device for generating sound represented by sound data read from the second recording medium, and identification information indicating at least image data representing the image to be displayed Image cast, at least sound cast including identification information indicating sound data representing sound to be generated, and output First, the script file is read from the third recording medium storing the script file in which the image cast and the sound cast are arranged, the image cast and the sound cast described in the read script file are read, and the read image cast The image data and the sound data are read from the first recording medium and the second recording medium in accordance with the identification information included in the sound cast, and the image represented by the read image data in the order described in the script file is described above. A control device is provided for controlling the sound generating device to output the sound displayed on the display device and represented by the read sound data.
[0019]
At least any two of the first recording medium, the second recording medium, and the third recording medium may be the same recording medium. When the first recording medium and the second recording medium are the same recording medium, the first reading device and the second reading device are the same device.
[0020]
In this way, the presentation is effectively performed based on the multimedia data created by the previous method.
[0021]
The present invention further provides an image composition method and system using a combined image file.
[0022]
In the image composition method according to the present invention, a coalesced image file including a plurality of image data and data relating to the synthesis of these image data is stored in advance in a recording medium, and the coalesced image file is read from the recording medium, At least two pieces of image data are combined on the memory in accordance with the combined data in the read merged image file, and an image represented by the image data obtained by combining is displayed on the display device.
[0023]
An image composition method according to the present invention includes a reading device that reads a combined image file from a recording medium that stores a combined image file that includes a plurality of image data and data relating to the combination of these image data, and the read combined image. Image composing means for composing at least two image data on a memory in accordance with data relating to compositing in the file, and a display device for displaying an image represented by the image data obtained by compositing.
[0024]
According to the present invention, it is not necessary to store the combined image data in the recording medium, so that the capacity can be used effectively. Moreover, all image data before and after the merge can be easily obtained.
[0025]
【Example】
FIG. 1 shows an overview of the overall configuration of the multimedia presentation system. This system can also be used for multimedia data creation and image composition.
[0026]
The computer system 10 may be dedicated to multimedia presentations (and multimedia data creation and image composition), or a general-purpose computer system for multimedia presentations (and multimedia data creation and image composition). It may be programmed.
[0027]
The computer system 10 includes a CPU 11, a memory 12, an input device 13, and a display device 14. The memory 12 includes a semiconductor memory, a floppy disk, a hard disk, etc., and stores a program executed by the CPU 11 or is used as a work area. The input device 13 includes a keyboard, a mouse, etc., and gives commands, data, etc. to the CPU 11. The display device 14 is realized by a CRT display device, a liquid crystal display device or the like, for example.
[0028]
A disk driver 15, an image system, and a sound system are connected to the computer system 10 via a SCSI (Small Computer System Interface) bus.
[0029]
The disk driver 15 writes data to a disk-shaped recording medium (optical disk, magneto-optical disk, magnetic disk, etc.) and reads data from this recording medium. The recording medium read / written by the disk driver 15 is referred to as a management recording medium in order to distinguish it from other recording media. The management recording medium records or records a script file, an image cast, a sound cast, etc., which will be described in detail later.
[0030]
The image system includes a disk driver 21, an image reproduction device 22, and a display device 23. A disk-shaped recording medium read / written by the disk driver 21 is referred to as an image recording medium. The image recording medium includes a coalesced image file, which will be described later, and an image file (image data representing an image for one screen (including image data that has been compressed or encoded, and character image data) is called an image file. Or a collection of combined image files is referred to as an album) or the like.
[0031]
The image reproducing device 22 performs a process of displaying on the display device 23 the image data read from the image recording medium by the disk driver 21 or the image represented by the image data given from the computer system 10. , A D / A conversion circuit, an image processing circuit, a display control circuit, and the like.
[0032]
The display device 23 is realized by a CRT display device or a liquid crystal display device (including those used as part of a video projector). The multimedia presentation system may be provided with at least one of the display device 14 of the computer system 10 or the display device 23.
[0033]
The sound system includes a disk driver 31, a sound reproduction device 32, and a speaker 33. A disk-shaped recording medium read / written by the disk driver 31 is referred to as a sound recording medium. The sound recording medium records digital data (including ADPCM; Adaptive Differential Pulse Code Modulation) representing sound. A unit of sound data, such as a piece of music or a single narration, is called a sound file.
[0034]
The sound reproducing device 32 converts sound data read from the sound recording medium into a sound signal and drives the speaker 33, and includes an ADPCM decoding circuit, a D / A conversion circuit, and the like.
[0035]
The sound recording medium may store a part or all of MIDI (Musical Instrument Digital Interface) data. In this case, the sound reproducing device 32 includes an electronic musical instrument.
[0036]
The image file and the sound file may be stored in one recording medium. In this case, one driver is sufficient. The high-speed disk driver can read the image file and the sound file in a time-sharing manner, and can simultaneously display an image and generate (output) sound based on the read data. Furthermore, the image recording medium, the image recording medium, and the sound recording medium may be the same recording medium. In this case, the driver 15, the driver 21, and the driver 31 are shared by a single driver. At least any two of these three types of recording media may be the same recording medium.
[0037]
Instead of the disk-shaped recording medium, a semiconductor memory or a tape-shaped recording medium (optical tape, magnetic tape, etc.) can be used for recording image files and sound files.
[0038]
An image data input device, a sound data input device, or the like may be connected to the multimedia presentation system (or multimedia data creation system or image composition system). The image data input device may include, for example, a device that A / D converts an input video signal and compresses the data. The sound data input device may include a microphone, an A / D conversion circuit, a buffer memory, an ADPCM encoding circuit, and the like.
[0039]
The combined image file will be described. For ease of understanding, a combined image file for creating a composite image as shown in FIG. 4 using the natural image (picture) shown in FIG. 2 and the character image shown in FIG. 3 will be described. The combined image file basically includes image data representing a natural image, image data representing a character image, and information (data) necessary to synthesize these image data. The combined image file does not include image data representing the combined image.
[0040]
FIG. 5 shows an example of the configuration of a combined image file. The combined image file is composed of a header, an information area, a path area, and an image data area.
[0041]
In the image data area, image data representing a natural image shown in FIG. 2 and image data representing a character image shown in FIG. 3 are stored.
[0042]
There are three types of image data representing a natural image shown in FIG. 2, which are reduced image data for search A1, standard image data A2, and image data for high vision A3.
[0043]
The reduced image data A1 is created by reducing (for example, 1/64) the standard image data A2 by thinning, averaging, etc., and is mainly used for search processing. That is, at the time of search processing, reduced image data is read from a large number of combined image files, and reduced images represented by these reduced image data are displayed on a display screen so as to constitute a multi-screen.
[0044]
The standard image data A2 is image data having a resolution suitable for display on a television screen. The image data used for image display in the multimedia presentation system is basically this standard image data A2. Of course, other image data A1, A3 can also be used for multimedia presentation.
[0045]
The high-definition image data A3 has a high resolution (for example, four times the standard image data) and is used for high-definition display or printing. Furthermore, image data having a high resolution (for example, one having a resolution four times as high as that for high-definition, for obtaining a larger print image) can be included in the combined image file. The number of types of image data representing a natural image is arbitrary.
[0046]
Only one type of character image data B representing characters shown in FIG. 3 is prepared. This character image data B only needs to be at least the character area, and one screen is not necessarily required. A plurality of types of character image data having different resolutions may be prepared.
[0047]
It goes without saying that image data representing different pictures and characters may be provided in the combined image file. This is because the merged image file combines two or more types of images. Not only color images but also monochrome image data may be prepared.
[0048]
In the path area, data for accessing each of the above-described image data A1, A2, A3 and B (data related to a path or offset and other addresses) is stored.
[0049]
The header stores a code indicating that it is a combined image file, the name (name) of the album to which the combined image file belongs, the name (name) of the combined image file, and the like.
[0050]
In the information area, version number, compression method, image rotation information, table, creation date, etc. are described.
[0051]
The version number is a number such as Version 1.2 or Version 3.5 for identifying the version.
[0052]
The compression method indicates a method (for example, JPEG method) when image data in the image data area is compressed, and this is mainly applied to a natural image.
[0053]
The image rotation information indicates how many times the image data area should be rotated counterclockwise to display the image data (sometimes a natural image) in the image data area so that the image is correctly displayed to the observer. For example, this information includes 0 degrees, 90 degrees, 180 degrees, and 270 degrees.
[0054]
The table shows the type and resolution of image data stored in the image data area. For example, color (24-bit) natural images (reduced 1/64, standard 1/1, high-definition 4/1), characters (8-bit), and images (standard 1/1) are arranged in a table. It is described in. This array matches the order of the path data described in the path area.
[0055]
The creation date is the date on which this combined image file was created.
[0056]
A plurality of such combined image files are stored in the image recording medium. The merged image file can be created using the system shown in FIG. Necessary image data and its information may be created and stored in a recording medium in a format as shown in FIG.
[0057]
An image file other than the combined image file is also stored in the image recording medium. This image file also stores the album name, a header including the file name, information as shown in the information area of FIG. 5, a path, and image data. It is preferable to store image data having a plurality of types of resolution for one picture or character image.
[0058]
The sound file stored in the sound recording medium is also configured to include an album name, a header including the file name, information necessary for reproduction, and sound data. However, the album name, file name, and information may be stored in a directory.
[0059]
FIG. 6 shows an example of a sequence of images (still images) and sounds generated in this multimedia presentation system.
[0060]
First, the introduction music (1) (sound) flows from the speaker 33, and the image (1) is displayed on the display device 23 while the music (1) is flowing. While the image (1) is displayed, the introductory music (1) switches to narration (2) (sound). After the narration (2) is over, the sound is temporarily stopped. During this time, the image (1) is switched to the image (2), followed by the narration (3). In this example, an image and sound may be output simultaneously.
[0061]
In this example, the time from the start of the output of a certain sound or image display until the start of the output of the next sound or image display is referred to as a transition time. The time during which one image is displayed is called display time.
[0062]
FIG. 7 shows another example of a sequence of generated images (still images) and sounds. In this sequence, sound and image do not occur simultaneously. Either a sound or an image is played at a certain point, or neither is played.
[0063]
In this sequence example, the transition time is defined as the time from the stop of the output of a certain sound or the end of image display until the start of the output of the next sound or the start of image display. The time during which one image is displayed is the display time. As indicated by the broken line, the transition time from the start of display of one image to the start of display of the next image can be set as the transition time. Furthermore, the time (start time) from the start of the presentation (generation of the first sound or image display) (also referred to as transition time) may be defined instead of the above-described transition time.
[0064]
Such an image or sound to be reproduced is described by image cast or sound cast, and the order of reproduction is described in a script file.
[0065]
An example of a script file is shown in FIG. This script file represents the sequence shown in FIG. PLAY represents a playback command, Audio Cast represents a sound cast, and Image Cast represents an image cast. PLAY Audio Cast (1) is one statement, which means that the sound cast (1) should be played. These statements are described in the order to be reproduced. Therefore, sound (1), image (1), sound (2), image (2), and sound (3) are reproduced in this order. This is the same as the sequence of FIG. In the script file, the description of the command PLAY can be omitted. The transition time and display time described in the image cast and sound cast may be described in the script file.
[0066]
FIG. 9 shows an example of the structure of an image cast. The image cast includes a header, album name, (combination type) image file name, coalescence information, transition time, display time, image appearance effect, image appearance effect time, image resolution, position information, enlargement magnification, and the like.
[0067]
The header indicates an image cast.
[0068]
The album name and the (union type) image file name indicate the image file to be reproduced (union type image file or other image file).
[0069]
The coalescing information is used when a coalesced image file is instructed. Information indicating which of a plurality of image data included in the coalesced image file is used (the type of image to be merged) and the composition ( Coalescing) method. Information on the types of images to be merged includes information on whether to merge or not. In the case of merging, the image data to be merged is specified (in this example, the image data to be merged is indicated by the resolution of the image). If they are not merged, it is described which image (natural image, character image) is used. The coalescence method includes OR, AND, NOR, and the like.
[0070]
The transition time and display time are as described above.
[0071]
The effect of image appearance is to display the next image in such a way that the full screen is suddenly displayed (when the full screen is switched instantaneously) or the double door (or curtain) is opened at the start of image display. Do you want to display the next image while sweeping from right to left, start displaying the image while sweeping from top to bottom, or whether to make the picture appear while gradually expanding the display area from the center? Select the screen effect. The image appearance effect time is the time from the start of the appearance of a part of the image until the entire appearance.
[0072]
The resolution of the image indicates the resolution of the image (natural image) to be displayed as described above, and in the example of FIG. 5, one of 1/64, 1/1, and 4/1 is selected. By designating this resolution, image data is selected as a result.
[0073]
The position information represents the position on the display screen of the image to be displayed. For example, it is expressed by the X and Y coordinates of the center of the image to be displayed.
[0074]
The enlargement magnification (including the reduction magnification) represents the magnification at which the displayed image is enlarged or reduced.
[0075]
FIG. 10 shows an example of the structure of a sound cast (Audio Cast). The sound cast includes a header, album name, sound file name, track number, attribute, transition time, start pointer, stop pointer, and the like.
[0076]
The header indicates a sound cast.
[0077]
The album name and file name identify the sound file to be reproduced. The track number indicates the track number on the sound recording medium where the sound file to be reproduced exists. When the track number is uniquely determined by the file name, the track number is not always necessary.
[0078]
The attribute indicates the nature of the sound, such as mono / stereo and the number of channels.
[0079]
The transition time is as described above.
[0080]
For sounds, not all sounds in the sound file are played. For example, it may be required to play back only a specific part (this is called a clip) in one song (one sound file). The start pointer and stop pointer express the start position and end position of a clip to be reproduced in time with the position of the first sound in the sound file as a reference.
[0081]
Such script files, image casts, and sound casts are stored in the management recording medium.
[0082]
FIG. 11 to FIG. 13 show processing procedures for generating (reproducing) multimedia in the multimedia presentation system. This process is mainly executed by the CPU 11 in the computer system 10. Further, this processing conforms to the transition time definition shown in FIG.
[0083]
One or more script files are stored in the management recording medium. When an input specifying a script file to be reproduced is given from the input device 13, the CPU 11 activates the disk driver 15, reads the specified script file from the management recording medium, and reads the work file in the memory 12. Store in the area (step 41).
[0084]
All casts (image cast and sound cast) listed in the read script file are similarly read from the management recording medium and stored in the work area (step 42). CPU 11 checks whether all casts listed in the script file exist (step 43).
[0085]
The CPU 11 also activates the disk drivers 21 and 31 to check whether all the image files and sound files described in the previously read cast are recorded on the image recording medium and the sound recording medium. (Steps 44 to 46). In general, since one file is described in one cast, the processing in step 45 is not necessarily required.
[0086]
An error occurs if at least one cast described in the script file does not exist in the management recording medium, or if at least one file described in the cast does not exist in the image or sound recording medium. become.
[0087]
If there is no error, the reproduction operation is performed according to the script file and cast stored in the read work area.
[0088]
A cast counter is provided to indicate the currently playing cast in the script file. 1 is set in this cast counter (step 47).
[0089]
The cast indicated by the cast counter is decoded, and it is determined whether it is an image cast or a sound cast (step 51). In the case of image cast, the process proceeds to the process shown in FIG. 12, and in the case of sound cast, the process proceeds to the process shown in FIG.
[0090]
In the case of an image cast, an image composition process is first performed. The image recording medium is accessed using the album name and file name included in the image cast, and the corresponding image file is read out and stored in the work area. In the case of a combined image file, one or a plurality of image data designated by the resolution information is read out. When the read image data is compressed, an expansion process is performed. The image data in the work area is rotated as necessary according to the image rotation information described in the image file (union type image file). In accordance with the enlargement / reduction ratio described in the image cast, the image data is enlarged or reduced as necessary. If necessary, the image data is positioned and cut out according to the position information in the image cast.
[0091]
Preferably, the image reproducing device 22 is provided with two VRAMs. One is for the currently displayed image and the other is for the next image to be displayed. In such a case, the image data of the work area is transferred to the VRAM of the image reproducing device 22 and stored. In the case of combined image data, two or more image data are synthesized on the VRAM (step 52).
[0092]
In the case of the first cast (YES in step 53), after the image composition process, the process immediately proceeds (skips steps 54 to 58) and proceeds to the composite image output process and the display command process (step 59). The image appearance effect and the effect time are given to the image reproducing device 22 together with the display command, and the image represented by the image data on the VRAM is displayed on the display device 23 with the instructed effect.
[0093]
In this embodiment, image composition processing for the next image cast is performed while the current cast is being reproduced. Each timer is provided for measuring the transition time and the display time. The transition time is set in the transition time timer when playback of the current cast is started (step 62). If the current cast is an image cast, the display time is set in the display time timer (step 61).
[0094]
If the cast counter is other than 1 (NO in step 53), it waits for the transition time timer to expire (timer interrupt) (step 58), and proceeds to composite image output and display command processing. (Step 59).
[0095]
Thereafter, the cast counter is incremented by 1 (step 60), and the display time and the transition time in the current image cast are set in the display time counter and the transition time counter, respectively (steps 61 and 62). Thereafter, returning to step 50, preparation for the next cast is started.
[0096]
When the display time timer expires during the waiting time of the transition time timer (when a timer interrupt occurs), an erase command is given to the image playback device 22 (steps 56 and 57). The image displayed on the display device 23 disappears. When the next image is immediately displayed by the processing of step 59, it appears that the image has been switched.
[0097]
When the current cast is a sound cast, and the notification that the reproduction of the instructed clip has been completed is received from the sound reproduction device 32, the CPU 11 recognizes that fact (steps 54 and 55).
[0098]
If the image reproducing device 22 has only one VRAM, the image composition (or writing) processing on the VRAM in step 52 will be performed in step 59.
[0099]
In the case of sound cast, the start pointer and stop pointer (expressed in time) included in the sound cast are converted into physical addresses on the sound recording medium, respectively (step 63). Thereafter, the transition timer 58 waits for time up (step 58), and a reproduction command including the data described in the sound cast and the physical address is given to the sound reproducing device 32 (step 64). In response to this, the sound reproducing device 32 reproduces the instructed clip in the sound file instructed from the sound recording medium, and outputs the sound from the speaker 33. The other processes are the same as those shown in FIG. 12, and the same steps are denoted by the same reference numerals to avoid redundant description. In the process of FIG. 13, there is no display time setting process.
[0100]
When all the casts described in the script file have been processed (YES in step 48), the sound playback device waits for the display time timer to expire for the last image cast, or in the case of sound casts. All processing ends after waiting for the sound reproduction end report from (step 49).
[0101]
FIGS. 14 and 15 show processing according to the transition time defined in FIG. 7, and correspond to FIGS. 12 and 13, respectively. FIG. 11 is also used as it is in this example.
[0102]
In FIG. 14, the image composition processing in step 52 shown in FIG. 12, the composite image output in step 59, and the display command processing are continuously performed (step 71), and the image designated by the image cast is displayed on the display device 23. The Thereafter, the cast counter is incremented (step 60), and the display time is set in the display time timer (step 61).
[0103]
Waiting for the display time timer to expire (step 56), outputting an image deletion command (step 57), and setting the transition time to the transition time timer (step 62).
[0104]
When the transition time timer expires (step 58), the process proceeds to the next cast (step 50).
[0105]
If the transition time is zero, steps 62 and 58 are skipped.
[0106]
When the transition time indicated by the broken line in FIG. 7 is defined, the transition time is set (step 62) together with the display time set in step 61.
[0107]
Similarly, in the processing for the sound cast in FIG. 15, the processing in steps 63 and 64 in FIG. As a result, sound is reproduced. Thereafter, the cast counter is incremented (step 60).
[0108]
After the notification that the reproduction of the instructed clip has been completed is received from the sound reproducing device 32 (step 54), the transition time is set (step 62). After the transition time timer expires (step 58), the process proceeds to the next cast process (step 50).
[0109]
When the time (start time) from the start of the presentation to the image display or sound generation according to each cast is defined as the transition time, the transition time is read from all casts and arranged in that order (time Table), the time measured by the timer started from the start of the presentation and each transition time are compared, and when the two times match, the sound that follows each cast is generated or the image is displayed (at this time) Considering the time required for preprocessing for sound generation or image display, preprocessing should be performed a little earlier.)
[0110]
An image cast creation process will be described. This processing can be divided into rough selection of images and specification of details of image cast data.
[0111]
In the rough selection of an image, a desired one is selected from among image files (including a combined image file) stored in an image recording medium. At this time, the above-described search image data will be used effectively. An image represented by the selected image file is displayed on the display device 14 or 23 (data expansion and image synthesis are performed). The operator looks at the displayed image and decides whether or not to make a final selection. The program name and file name of the finally selected image file are stored in the work area of the memory 12.
[0112]
When the selection of necessary image files is completed, an image cast is created for each selected image file. Merge information necessary for image casting, transition time, display time, image appearance effect and time, position information, magnification, etc. are sequentially input. The created image cast is saved in the work area. When the creation of all necessary image casts is completed, these image casts are stored in the management recording medium.
[0113]
The sound cast is created in almost the same procedure. First, a sound file is selected. A sound file is specified on the sound recording medium, and the sound is reproduced. Upon listening to the reproduced sound, the operator finally decides whether to make a selection. The album name and file name of the determined sound file are stored in the work area.
[0114]
Among the detailed data of the sound cast, those that require input are the transition time, start pointer, and stop pointer. The selected sound file is played. When an input designating the time point is given from the input device 13 when the sound desired to be the start pointer is output, the CPU 11 inquires of the sound reproduction device 32 at that time. The time returned from the sound reproducing device 32 becomes the start pointer. Similarly, the stop pointer is set. Finally, the transition time is input.
[0115]
The script file is created by inputting the already created cast in the playback order.
[0116]
Once created, the script file and cast are played back in the above-described procedure. The operator corrects necessary parts while viewing the reproduced multimedia. Information about each media is described in the image cast and sound cast, and the entire flow is described in the script file. Therefore, it is sufficient to individually correct these, and the correction work is easy.
[0117]
The multimedia presentation system will be used for product guidance at stores, guidance for exhibits (paintings) at museums, presentation of information at conferences, parties, etc., and reporting.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a multimedia presentation system.
FIG. 2 shows a natural image before synthesis.
FIG. 3 shows a character image before synthesis.
FIG. 4 shows a composite image.
FIG. 5 shows an example of the structure of a combined image file.
FIG. 6 shows an exemplary sequence of multimedia presentation.
FIG. 7 shows another example of a sequence of multimedia presentations.
FIG. 8 shows an example of a script file.
FIG. 9 shows an example of the structure of an image cast.
FIG. 10 shows a structure example of sound cast.
FIG. 11 is a flowchart showing an example of multimedia presentation processing.
FIG. 12 is a flowchart showing an example of multimedia presentation processing.
FIG. 13 is a flowchart showing an example of multimedia presentation processing.
FIG. 14 is a flowchart showing another example of multimedia presentation processing.
FIG. 15 is a flowchart showing another example of multimedia presentation processing.
[Explanation of symbols]
10 Computer system
11 CPU
15, 21, 31 Disk driver
22 Image playback device
23 Display device
32 sound player
33 Speaker

Claims (17)

複数の画像データをそれらの識別情報と関連づけて第1の記録媒体にあらかじめ格納しておき,
複数の音データをそれらの識別情報と関連づけて第2の記録媒体にあらかじめ格納しておき,
少なくとも表示すべき画像を表わす画像データを示す識別情報および画像出力開始時間を表わす画像に関する遷移時間データを記述した複数の画像キャスト,少なくとも発生させるべき音を表わす音データを示す識別情報,音出力開始時間を表わす音に関する遷移時間データおよび音データのうち発生させるべき部分を表わす時点データを記述した複数の音キャスト,ならびに表示すべき画像の画像キャストと発生させるべき音の音キャストとを,それらの出力させるべき順序に配列して記述したスクリプト・ファイルを作成して第3の記録媒体に格納しておき,
第3の記録媒体からスクリプト・ファイルを読出し,読出したスクリプト・ファイルに記述された画像キャストおよび音キャストを読出し,
スクリプト・ファイルに記述された画像キャストおよび音キャストの順序で,読出した画像キャストに含まれる識別情報にしたがって第1の記録媒体から画像データを読出してこの読出した画像データによって表わされる画像を上記画像に関する遷移時間データによって規定される時間に表示装置に表示し,読出した音キャストに含まれる識別情報によって指定される第2の記録媒体の音データのうち上記時点データによって規定される時間帯の音を発生させ,この音を上記音に関する遷移時間データによって規定される時間にスピーカから出力させる,
マルチメディア・プレゼンテーション方法
A plurality of image data is stored in advance in the first recording medium in association with the identification information,
A plurality of sound data are stored in advance in the second recording medium in association with their identification information,
At least identification information indicating image data representing an image to be displayed and a plurality of image casts describing transition time data relating to the image representing image output start time, identification information indicating at least sound data representing sound to be generated, and sound output start A plurality of sound casts describing transition time data relating to sound representing time and time point data representing a portion of sound data to be generated, an image cast of an image to be displayed, and a sound cast of a sound to be generated. Create a script file written in the order in which it should be output and store it in the third recording medium.
Read the script file from the third recording medium, read the image cast and sound cast described in the read script file,
In the order of image cast and sound cast described in the script file, the image data is read from the first recording medium in accordance with the identification information included in the read image cast, and the image represented by the read image data is displayed as the image. The sound in the time zone specified by the time data among the sound data of the second recording medium displayed on the display device at the time specified by the transition time data and specified by the identification information included in the read sound cast And output this sound from the speaker at the time specified by the transition time data for the sound.
Multimedia presentation method
上記第1の記録媒体,第2の記録媒体および第3の記録媒体のうちの少なくともいずれか2つが同一の記録媒体である,請求項1に記載のマルチメディア・プレゼンテーション方法。  The multimedia presentation method according to claim 1, wherein at least any two of the first recording medium, the second recording medium, and the third recording medium are the same recording medium. 上記遷移時間が,先行する画像キャストにしたがう画像表示の基準時点もしくは音キャストにしたがう音発生の基準時点から,それに続く画像キャストにしたがう画像表示の基準時点もしくは音キャストにしたがう音発生の基準時点までの時間,またはプレゼンテーションの開始時点から画像キャストにしたがう画像表示の基準時点もしくは音キャストにしたがう音発生の基準時点までの時間である,請求項1または2に記載のマルチメディア・プレゼンテーション方法。  The transition time from the reference time point of the image display according to the preceding image cast or the reference time point of the sound generation according to the sound cast to the reference time point of the image display according to the subsequent image cast or the reference time point of the sound generation according to the sound cast The multimedia presentation method according to claim 1, wherein the time is from a start time of presentation to a reference time point of image display according to image cast or a reference time point of sound generation according to sound cast. 画像の表示時間を画像キャストまたはスクリプト・ファイルにあらかじめ記述しておき,この表示時間の間,画像を表示する,請求項1から3のいずれか一項に記載のマルチメディア・プレゼンテーション方法。  4. The multimedia presentation method according to claim 1, wherein an image display time is described in advance in an image cast or a script file, and the image is displayed during the display time. 表示すべき画像の解像度,位置または拡大,縮小倍率を画像キャストにあらかじめ記述しておき,この記述にしたがう画像を表示する,請求項1から4のいずれか一項に記載のマルチメディア・プレゼンテーション方法。  The multimedia presentation method according to any one of claims 1 to 4, wherein the resolution, position or enlargement / reduction ratio of an image to be displayed is described in advance in an image cast, and an image according to the description is displayed. . 複数の画像データとこれらの画像データの合成に関するデータとを含む合体型画像ファイルを,上記画像データとして第1の記録媒体にあらかじめ格納しておき,画像キャストに合体型画像ファイルの識別情報を含ませておき,
画像キャストによって合体型画像ファイルが指示されているときに,合体型画像ファイルに規定された少くとも2つの画像を合成して表示する,
請求項1から4のいずれか一項に記載のマルチメディア・プレゼンテーション方法。
A coalesced image file including a plurality of image data and data relating to the synthesis of these image data is stored in advance on the first recording medium as the image data, and the identification information of the coalesced image file is included in the image cast. Aside,
When a coalesced image file is specified by the image cast, at least two images specified in the coalesced image file are combined and displayed.
The multimedia presentation method according to any one of claims 1 to 4.
複数の画像データをそれらの識別情報と関連づけて格納した第1の記録媒体から,指示された識別情報に対応する画像データを読出す第1の読取装置,
複数の音データをそれらの識別情報と関連づけて格納した第2の記録媒体から,指示された識別情報に対応する音データを読出す第2の読取装置,
第1の記録媒体から読出された画像データによって表わされる画像を表示する表示装置,
第2の記録媒体から読出された音データによって表わされる音を発生する音発生装置,ならびに
少なくとも表示すべき画像を表わす画像データを示す識別情報および画像出力開始時間を表わす画像に関する遷移時間データを記述した複数の画像キャスト,少なくとも発生させるべき音を表わす音データを示す識別情報,音出力開始時間を表わす音に関する遷移時間データおよび音データのうち発生させるべき部分を表わす時点データを記述した複数の音キャスト,ならびに表示すべき画像の画像キャストと発生させるべき音の音キャストとをそれらの出力させるべき順序に配列して記述したスクリプト・ファイルを格納した第3の記録媒体からスクリプト・ファイルを読出し,読出したスクリプト・ファイルに記述された画像キャストおよび音キャストを読出し,スクリプト・ファイルに記述された画像キャストおよび音キャストの順序で,読出した画像キャストに含まれる識別情報にしたがって第1の記録媒体から画像データを読出してこの読出した画像データによって表わされる画像を上記画像に関する遷移時間データによって規定される時間に上記表示装置に表示し,読出した音キャストに含まれる識別情報によって指定される第2の記録媒体の音データのうち上記時点データによって規定される時間帯の音を発生させ,この音を上記音に関する遷移時間データによって規定される時間に上記音発生装置から出力させるように制御する制御装置,
を備えたマルチメディア・プレゼンテーション・システム。
A first reading device for reading image data corresponding to instructed identification information from a first recording medium storing a plurality of pieces of image data in association with the identification information;
A second reading device for reading sound data corresponding to the instructed identification information from a second recording medium storing a plurality of sound data in association with the identification information;
A display device for displaying an image represented by image data read from the first recording medium;
A sound generator for generating sound represented by sound data read from the second recording medium, and at least identification information indicating image data representing an image to be displayed and transition time data relating to an image representing an image output start time A plurality of sound casts, identification information indicating sound data representing sound to be generated, transition time data relating to sound representing sound output start time, and sound data describing time point data representing a portion to be generated among sound data A script file is read from a third recording medium storing a cast and a script file in which an image cast of an image to be displayed and a sound cast of a sound to be generated are arranged in the order to be output; The image cast described in the read script file and The sound cast is read, and the image data is read from the first recording medium according to the identification information included in the read image cast in the order of the image cast and the sound cast described in the script file, and is represented by the read image data. The image to be displayed is displayed on the display device at a time specified by the transition time data relating to the image, and is defined by the time data among the sound data of the second recording medium specified by the identification information included in the read sound cast A control device for generating a sound in a specified time zone and controlling the sound to be output from the sound generator at a time defined by transition time data relating to the sound;
Multimedia presentation system with
上記第1の記録媒体,第2の記録媒体および第3の記録媒体のうちの少なくともいずれか2つが同一の記録媒体である,請求項7に記載のマルチメディア・プレゼンテーション・システム。  The multimedia presentation system according to claim 7, wherein at least two of the first recording medium, the second recording medium, and the third recording medium are the same recording medium. 上記遷移時間が,先行する画像キャストにしたがう画像表示の基準時点もしくは音キャストにしたがう音発生の基準時点から,それに続く画像キャストにしたがう画像表示の基準時点もしくは音キャストにしたがう音発生の基準時点までの時間,またはプレゼンテーションの開始時点から画像キャストにしたがう画像表示の基準時点もしくは音キャストにしたがう音発生の基準時点までの時間である,請求項7または8に記載のマルチメディア・プレゼンテーション・システム。  The transition time from the reference time point of the image display according to the preceding image cast or the reference time point of the sound generation according to the sound cast to the reference time point of the image display according to the subsequent image cast or the reference time point of the sound generation according to the sound cast The multimedia presentation system according to claim 7 or 8, wherein the time is from a start time of a presentation to a reference time point of image display according to image cast or a reference time point of sound generation according to sound cast. 複数の画像データとこれらの画像データの合成に関するデータとを含む合体型画像ファイルが,上記画像データとして第1の記録媒体にあらかじめ格納されており,画像キャストに合体型画像ファイルの識別情報が含まれており,
画像キャストによって合体型画像ファイルが指示されているときに,合体型画像ファイルに規定された少くとも2つの画像を合成する画像合成手段がさらに設けられている,
請求項7から9のいずれか一項に記載のマルチメディア・プレゼンテーション・システム。
A coalesced image file including a plurality of image data and data relating to the synthesis of these image data is stored in advance on the first recording medium as the image data, and the identification information of the coalesced image file is included in the image cast. And
Image synthesizing means for synthesizing at least two images defined in the coalesced image file when the coalesced image file is instructed by the image cast;
The multimedia presentation system according to any one of claims 7 to 9.
複数の画像データをそれらの識別情報と関連づけて格納した第1の記録媒体と,複数の音データをそれらの識別情報と関連づけて格納した第2の記録媒体とを用い,
少なくとも表示すべき画像を表わす画像データを示す識別情報および画像出力開始時間を表わす画像に関する遷移時間データを記述した複数の画像キャスト,少なくとも発生させるべき音を表わす音データを示す識別情報,音出力開始時間を表わす音に関する遷移時間データおよび音データのうち発生させるべき部分を表わす時点データを記述した複数の音キャスト,ならびに表示すべき画像の画像キャストと発生させるべき音の音キャストとをそれらの出力させるべき順序に配列して記述したスクリプト・ファイルを作成して第3の記録媒体に格納する,
マルチメディア・データ作成方法。
Using a first recording medium storing a plurality of image data in association with their identification information, and a second recording medium storing a plurality of sound data in association with their identification information,
At least identification information indicating image data representing an image to be displayed and a plurality of image casts describing transition time data relating to the image representing image output start time, identification information indicating at least sound data representing sound to be generated, and sound output start Multiple sound casts describing transition time data relating to sound representing time and point-in-time data representing the portion to be generated of the sound data, and image cast of the image to be displayed and sound cast of the sound to be generated Create a script file that is arranged and described in the order to be stored and store it in the third recording medium.
How to create multimedia data.
上記第1の記録媒体と第2の記録媒体が同一の記録媒体である,請求項11に記載のマルチメディア・データ作成方法。  12. The multimedia data creation method according to claim 11, wherein the first recording medium and the second recording medium are the same recording medium. 上記遷移時間が,先行する画像キャストにしたがう画像表示の基準時点もしくは音キャストにしたがう音発生の基準時点から,それに続く画像キャストにしたがう画像表示の基準時点もしくは音キャストにしたがう音発生の基準時点までの時間,またはプレゼンテーションの開始時点から画像キャストにしたがう画像表示の基準時点もしくは音キャストにしたがう音発生の基準時点までの時間である,請求項11または12に記載のマルチメディア・データ作成方法。  The transition time from the reference time point of the image display according to the preceding image cast or the reference time point of the sound generation according to the sound cast to the reference time point of the image display according to the subsequent image cast or the reference time point of the sound generation according to the sound cast 13. The method of creating multimedia data according to claim 11 or 12, wherein the time is from a start time of a presentation to a reference time point of image display according to image cast or a reference time point of sound generation according to sound cast. 画像の表示時間を画像キャストまたはスクリプト・ファイルに格納する,請求項11から13のいずれか一項に記載のマルチメディア・データ作成方法。  The multimedia data creation method according to any one of claims 11 to 13, wherein the display time of the image is stored in an image cast or a script file. 表示すべき画像の解像度,位置または拡大,縮小倍率を画像キャストに格納する,請求項11から14のいずれか一項に記載のマルチメディア・データ作成方法。  15. The multimedia data creation method according to any one of claims 11 to 14, wherein the resolution, position or enlargement / reduction ratio of an image to be displayed is stored in an image cast. 複数の画像データとこれらの画像データの合成に関するデータとを含む合体型画像ファイルを,上記画像データとして第1の記録媒体に格納し,画像キャストに合体型画像ファイルの識別情報を含ませる,請求項11から14のいずれか一項に記載のマルチメディア・データ作成方法。  A merged image file including a plurality of image data and data relating to the synthesis of these image data is stored as the image data in the first recording medium, and the identification information of the merged image file is included in the image cast. Item 15. The multimedia data creation method according to any one of Items 11 to 14. 複数の画像データをそれらの識別情報と関連づけて格納した第1の記録媒体から,指示された識別情報に対応する画像データを読出す第1の読取装置,
複数の音データをそれらの識別情報と関連づけて格納した第2の記録媒体から,指示された識別情報に対応する音データを読出す第2の読取装置,ならびに
少なくとも表示すべき画像を表わす画像データを示す識別情報および画像出力開始時間を表わす画像に関する遷移時間データを記述した複数の画像キャスト,少なくとも発生させるべき音を表わす音データを示す識別情報,音出力開始時間を表わす音に関する遷移時間データおよび音データのうち発生させるべき部分を表わす時点データを記述した複数の音キャスト,ならびに表示すべき画像の画像キャストと発生させるべき音の音キャストとをそれらの出力させるべき順序に配列して記述したスクリプト・ファイルを第3の記録媒体に記録する記録装置,
を備えたマルチメディア・データ作成システム。
A first reading device for reading image data corresponding to instructed identification information from a first recording medium storing a plurality of pieces of image data in association with the identification information;
A second reading device for reading out sound data corresponding to the instructed identification information from a second recording medium storing a plurality of sound data in association with the identification information, and image data representing at least an image to be displayed A plurality of image casts describing transition time data related to an image representing the image output start time, identification information indicating sound data representing at least sound to be generated, transition time data relating to sound representing the sound output start time, and Multiple sound casts describing time point data representing the portion of sound data to be generated, and image casts of images to be displayed and sound casts of sounds to be generated arranged in the order in which they should be output A recording device for recording the script file on a third recording medium;
Multimedia data creation system with
JP2003178008A 2003-06-23 2003-06-23 Multimedia presentation method and system, multimedia data creation method and system Expired - Fee Related JP3730639B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003178008A JP3730639B2 (en) 2003-06-23 2003-06-23 Multimedia presentation method and system, multimedia data creation method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003178008A JP3730639B2 (en) 2003-06-23 2003-06-23 Multimedia presentation method and system, multimedia data creation method and system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP19621594A Division JP3491981B2 (en) 1994-07-29 1994-07-29 Multimedia presentation method and system, and multimedia data creation method and system

Publications (2)

Publication Number Publication Date
JP2004007742A JP2004007742A (en) 2004-01-08
JP3730639B2 true JP3730639B2 (en) 2006-01-05

Family

ID=30438363

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003178008A Expired - Fee Related JP3730639B2 (en) 2003-06-23 2003-06-23 Multimedia presentation method and system, multimedia data creation method and system

Country Status (1)

Country Link
JP (1) JP3730639B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010098648A (en) * 2008-10-20 2010-04-30 Nikon Corp Electronic camera
CN111813970A (en) * 2020-07-14 2020-10-23 广州酷狗计算机科技有限公司 Multimedia content display method, device, terminal and storage medium

Also Published As

Publication number Publication date
JP2004007742A (en) 2004-01-08

Similar Documents

Publication Publication Date Title
TW412735B (en) Information reproducing method and device and information recording and reproducing device
JPH11341350A (en) Multimedia information editing and reproducing device, recording medium with multimedia information reproduction program and recording medium with sequence information respectively recorded on them
JPH10285527A (en) Video processing system, device and method
JP2895064B2 (en) Still image file method, still image reproducing device, still image file storage medium system, and still image file device
JP2003032612A (en) Moving image reproducing describing method, moving image reproduction recording device, record medium and control program
JPH05137103A (en) Presentation device
JP3730639B2 (en) Multimedia presentation method and system, multimedia data creation method and system
JP3491981B2 (en) Multimedia presentation method and system, and multimedia data creation method and system
JP2736070B2 (en) Still image file editing device
JP3491982B2 (en) Multimedia presentation method and system
JP3486235B2 (en) Branching method and system using merged image file, and branching screen creation method
JP2919484B2 (en) Synchronous playback control method for still image and audio
JPH07175909A (en) Data processor
JP3706621B2 (en) Multimedia presentation method and system
JPH0686222A (en) Still picture reproducing device
JP3614074B2 (en) Image and audio playback apparatus and method
JP6089922B2 (en) Information processing apparatus and information editing program
JP3646609B2 (en) Automatic playback control file creation device and automatic playback control file creation method
US20040239804A1 (en) System and method for editing the cyber teaching data having multi-layer and recording medium
JP3292509B2 (en) Moving image reproducing apparatus and apparatus using the same
JP3554021B2 (en) Multimedia program editing system and method
JP3646608B2 (en) Automatic playback control file creation device, automatic playback control file creation method, data file playback device, and data file playback method
JP5170205B2 (en) Information storage medium and moving picture audio recording and reproducing apparatus
JP2736071B2 (en) Still image file device
JPH05153552A (en) Multi-medium processor and its method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050301

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050621

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051006

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081014

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081014

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees