JP2009500909A5 - - Google Patents

Download PDF

Info

Publication number
JP2009500909A5
JP2009500909A5 JP2008519381A JP2008519381A JP2009500909A5 JP 2009500909 A5 JP2009500909 A5 JP 2009500909A5 JP 2008519381 A JP2008519381 A JP 2008519381A JP 2008519381 A JP2008519381 A JP 2008519381A JP 2009500909 A5 JP2009500909 A5 JP 2009500909A5
Authority
JP
Japan
Prior art keywords
time
presentation
application
video
timing signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008519381A
Other languages
English (en)
Other versions
JP5349962B2 (ja
JP2009500909A (ja
Filing date
Publication date
Priority claimed from US11/352,571 external-priority patent/US20070006062A1/en
Application filed filed Critical
Publication of JP2009500909A publication Critical patent/JP2009500909A/ja
Publication of JP2009500909A5 publication Critical patent/JP2009500909A5/ja
Application granted granted Critical
Publication of JP5349962B2 publication Critical patent/JP5349962B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

対話型マルチメディア・プレゼンテーション管理の同期性 関連発明
この出願は、2005年7月1日に出願された米国特許仮出願第60/695,944号に基づく優先権を主張する特許出願である。上記米国特許仮出願は、この出願において援用する。
技術分野及び背景技術
マルチメディア・プレーヤは、ユーザが消費するためにビデオ、オーディオ又はデータ・コンテンツの組合せ(マルチメディア・プレゼンテーション)をレンダリングする装置である。
DVDプレーヤのようなマルチメディア・プレーヤは、現在は、ビデオ・コンテンツの再生の間に、いくぶんはあるとしても、それほど多くのユーザ対話機能を備えていない。ビデオ・コンテンツの再生は、再生速度調節以外のユーザ入力を受け取るために中断されるのが一般的である。例えば、DVDプレーヤのユーザは、オーディオ注釈、俳優の伝記又はゲームなどの機能を彼が選択し受け取ることを可能にするオプションを含むメニュに戻るには、彼が再生している映画を停止しなければならないのが一般的である。
インタラクティブ(対話型の)マルチメディア・プレーヤは、従来のビデオ、オーディオ又はデータ・コンテンツ(「インタラクティブ・マルチメディア・プレゼンテーション」)と同時に、対話型コンテンツの組合せをレンダリングするデバイス(そのようなデバイスはハードウェア、ソフトウェア、ファームウェア又はそれの任意の組合せを含むことがある)である。任意のタイプのデバイスがインタラクティブ・マルチメディア・プレーヤでありうるが、光学的なメディア・プレーヤ(例えばDVDプレーヤ)、コンピューター及び他の電子機器のようなデバイスは、商業的に価値のある対話型マルチメディアの提供の作成を可能にしそれらに対する消費者の需要を可能にする立場にある。というのは、それらが大量の比較的安価なポータブル・データ記憶装置へのアクセスを提供するからである。
対話型コンテンツは、一般に、単独で又は他のビデオ、オーディオ又はデータ・コンテンツと同時に提供可能な任意のユーザが選択可能な可視的又は可聴的なオブジェクトである。ひとつの種類の可視的オブジェクトとして、例えば、映画に現われる人々、自動車又は建物などのビデオ・コンテンツの中であるものを識別し及び/又はそれに従うために用いることができる円などのグラフィック・オブジェクトがある。ひとつの種類の可聴的なオブジェクトとして、ユーザが円のような可視のオブジェクトを選択したことを、リモート・コントロール又はマウスのようなデバイスを使用して円などの視覚的オブをユーザが選択したことを示すために再生されるクリック音がある。対話型コンテンツの他の例には、これらに制限はされないのであるが、メニュ、キャプション及びアニメーションなどがある。
インタラクティブ・マルチメディア・プレーヤ及びインタラクティブ・マルチメディア・プレゼンテーションへの投資を向上させるために、インタラクティブ・マルチメディア・プレゼンテーションのインタラクティブ・コンテンツ・コンポーネントとそのようなプレゼンテーションの従来のビデオ、オーディオ又はデータ・コンテンツとを正確な同期を保証することが望ましい。正確な同期は、一般に、ビデオ、オーディオ又はデータ・コンテンツ・コンポーネントの予測可能でグリッチのない再生よりも優先される。例えば、映画の中で円が自動車の周囲に示される場合、映画は円が描かれるのを待つために一般に休止するべきでなく、自動車が移動するのにつれて円が自動車に続くべきである。
特許請求の範囲に記載されている主題は、特定のインタラクティブ・マルチメディア・プレゼンテーション・システム又はその特徴の欠点の任意のもの又は全部を解決するインプリメンテーションに限定されないことを理解すべきである。
一般に、対話型マルチメディア・プレゼンテーションは、所定のプレゼンテーション再生期間と、ビデオ・コンテンツ・コンポーネントと、対話型コンテンツ・コンポーネントとの中の1つ又は複数を含む。ビデオ・コンテンツ・コンポーネントは、例として映画として言及されるが、実際には、ビデオ、オーディオ、データ又はこれらの任意の組合せでありうる。ビデオ・コンテンツ・コンポーネントは、ビデオ・コンテンツ・マネジャによってレンダリングされるように、多数のフレーム及び/又はサンプルとして構成されている。ビデオ・コンテンツ・マネジャは、1又は複数のソース(例えば、光媒体やそれ以外のソース)から、クロック信号などのタイミング信号に基づくレートで、ビデオ・データ(ビデオ、オーディオ、データ・サンプル又はこれらの組合せ)を受け取る。タイミング信号のレートは、ビデオ・コンテンツの再生速度に基づいて変動する。すなわち、例えば、映画が休止したり、低速で順方向に再生、高速で順方向に再生、低速で逆方向に再生又は高速で逆方向に再生される。
対話型コンテンツは、連続的なクロック信号などのタイミング信号に基づくレートで対話型コンテンツ・マネジャによってレンダリングされるように構成されている。プレゼンテーションの対話型コンテンツ・コンポーネントは、1又は複数のアプリケーションという形式を有する。宣言型の形式の1つのタイプとして、エクステンシブル・マークアップ・ランゲージ(XML)データ構造がある。アプリケーション命令は、メディアのプレゼンテーションを編成し、フォーマット化し、同期させるために、ときにはビデオ・コンテンツ・コンポーネントと同時に提供される。
アプリケーションは、多くの場合にビデオ・コンテンツ・コンポーネントと同時になされるユーザへのメディア・オブジェクトのプレゼンテーション(提示)を編成しフォーマット化し同期させる命令を提供する。アプリケーションは、アプリケーション再生期間とアプリケーション・プレゼンテーション間隔とを有し、この後者は、対話型マルチメディア・プレゼンテーションのプレゼンテーション再生期間の中の時間間隔である。アプリケーションによって用いられるメディア・オブジェクトは、アプリケーション・プレゼンテーション間隔の間はレンダリング可能である。アプリケーションは、また、初期(イニシャルの、当初の)アプリケーション・ページを有し、以後のアプリケーション・ページを有する。アプリケーション・ページは、当該アプリケーションのメディア・オブジェクトを参照する。それぞれのページは、ページ再生期間とアプリケーション・プレゼンテーション間隔の範囲に含まれるページ・プレゼンテーション間隔とを有する。ページによって用いられるメディア・オブジェクトは、ページ・プレゼンテーション間隔の間はレンダリングが可能である。
何らかの時間信号の値を決定する方法、システム、装置及び製造物は、プレゼンテーションの対話型コンテンツ・コンポーネントとビデオ・コンテンツ・コンポーネントとの間の同期を保証するのに用いることができる。
プレゼンテーションの再生の間、プレゼンテーション再生期間の経過時間が、プレゼンテーションの再生速度に基づくレートで作成されビデオ・コンテンツ・マネジャによって用いられるタイミング信号などの第1のタイミング信号を基準にして測定される。この経過時間は、タイトル時間基準を形成する。
タイトル時間基準がアプリケーション・プレゼンテーション間隔の範囲に含まれるときには、アプリケーション時間基準が形成される。アプリケーション時間基準は、対話型コンテンツ・マネジャによって用いられるタイミング信号などの連続的な所定のレートで作成される第2のタイミング信号を基準にしてアプリケーション再生期間の経過時間を測定することによって形成される。アプリケーション時間基準は、アプリケーション・プレゼンテーション間隔の終了時に、そして、プレゼンテーションの速度変更(トリック再生を含む)の間、リセットする(例えば、非アクティブになる及び/又は再開する)。
プレゼンテーション再生期間の経過時間がアプリケーション・プレゼンテーション間隔と特定のページ再生期間との範囲に含まれるときには、ページ時間基準が、第2のタイミング信号に基づいて特定のページ再生期間の経過時間を測定することによって形成される。ページ時間基準は、ページ・プレゼンテーション間隔の終了時に、そして、プレゼンテーションの速度変更(トリック再生を含む)の間、リセットする(例えば、非アクティブになる及び/又は再開する)。
メディア・オブジェクトをレンダリングする時間は、第1のタイミング信号か第2のタイミング信号かのいずれかを基準にして、又は、タイトル時間基準かアプリケーション時間基準かページ時間基準を基準にして、特定可能である。マークアップ要素などのアプリケーション命令は、特定のメディア・オブジェクトがレンダリング可能であるときには、時間又は時間間隔を特定するのに用いられる。マークアップ要素の例としては、イベント要素やタイミング要素があり、例えば、par、タイミング又はseq要素である。マークアップ要素は、タイミング・コンテナや別のタイプのコンテナなどのXMLデータ構造と関連付けが可能である。高精細DVD映画と共に用いられるXML方式によって定義される属性など、マークアップ要素の属性は、例えば、タイトル時間、アプリケーション時間又はページ時間の値を特定するのに用いることができる。
アプリケーションが当初有効になるときや、アプリケーションがトリック再生やプレゼンテーションの再生速度の別の変更の後で有効になるときなど、アプリケーションを再生するのに先立って、そのアプリケーションのためのリソースが、ファイル・キャッシュなどのメモリにロードされる。アプリケーション・リソースは、メディア・オブジェクトをレンダリングする命令と同様にアプリケーションによって用いられるメディア・オブジェクトを含み、集合的にリソース・パッケージと称される。あるアプリケーションのためのリソース・パッケージの要素の記憶位置を参照するデータ構造は、ビデオ・コンテンツ・コンポーネントの中に埋め込むことができ、ビデオ・コンテンツ・ストリームの中から探してアプリケーション・リソースを見付けることを強いられることなく、ビデオ・コンテンツ・コンポーネントから直接に読み出すことが可能である。
この概要は、概念の選択肢を単純化された形態で導入するために提供されている。これらの概念は、以下の詳細な説明において更に説明がなされる。この概要に記載されたもの以外の要素又はステップも可能であり、どの要素又はステップも必須ではない。この概要は、特許請求された主題のキーとなる特徴又は本質的な特徴を識別することを意図したものではない。また、特許請求の範囲を決定するためのものという意図もない。
次に図面を参照する。図面では、同じ参照番号は同じコンポーネントを示している。図1は、対話型(インタラクティブ)マルチメディア・プレゼンテーション・システム(「プレゼンテーション・システム」)100の単純化された機能ブロック図である。プレゼンテーション・システム100は、オーディオ/ビデオ・コンテンツ(「AVC」)マネジャ102、対話型コンテンツ(「IC」)マネジャ104、プレゼンテーション・マネージャ106、タイミング信号管理ブロック108及びミキサー/レンダラ(レンダリング装置)110を含む。一般に、プレゼンテーション・システム100の特定の機能がどのようにインプリメントされるかは、設計上の選択によって決定される。そのような機能は、ハードウェア、ソフトウェア、ファームウェア又はこれらの組合せを使用してインプリメントすることができる。
オペレーション(動作)では、プレゼンテーション・システム100は、インタラクティブ・マルチメディア・プレゼンテーション・コンテンツ(「プレゼンテーション・コンテンツ」)120を扱う。プレゼンテーション・コンテンツ120は、ビデオ・コンテンツ・コンポーネント(「ビデオ・コンポーネント」)122及び対話型コンテンツ・コンポーネント(「構成エレメントのIC」)124を含む。ビデオ・コンポーネント122及びICコンポーネント124は、それぞれが、AVCマネジャ102及びICマネジャ104によって、別のデータ・ストリームとして扱われるのが一般的であるが、これは必ずそうである必要はない。
プレゼンテーション・システム100は、さらに、再生されたプレゼンテーション127としてユーザ(図示せず)へのプレゼンテーション・コンテンツ120のプレゼンテーションを促進する。再生されたプレゼンテーション127は、ミキサ/レンダラ110によって作成されディスプレイ又はスピーカ(図示せず)のようなデバイスによってユーザが受け取ることが可能なプレゼンテーション・コンテンツ120と関連付けられている可視的及び/又は可聴的な情報を表す。説明目的のために、プレゼンテーション・コンテンツ120及び再生されたプレゼンテーション127は任意のフォーマットの高解像度DVD映画コンテンツを表わすと仮定する。しかし、プレゼンテーション・コンテンツ120及び再生されたプレゼンテーション127が現在既知であるか又は今後開発される任意のタイプのインタラクティブ・マルチメディア・プレゼンテーションであることは理解されるはずである。
ビデオ・コンポーネント122は、プレゼンテーション・コンテンツ120の従来型のビデオ、オーディオ又はデータ・コンポーネントを表わす。例えば、一般的に、映画には、1又は複数のバージョン(例えば、成人の聴衆のためのバージョン及びより若い聴衆のためのバージョン)と、各タイトル(タイトルについてはプレゼンテーション・マネージャ106との関係で後述する)と関連する1又は複数の章(図示せず)を備えた1又は複数のタイトル131と、1又は複数のオーディオ・トラック(例えば、映画は字幕付き又は字幕なしで1又は複数の言語で再生される)と、監督のコメントや追加場面や予告編などの特別コンテンツとが含まれる。タイトルと章との区別は純粋に論理的な区別であることが認識されるだろう。例えば、単一の知覚された媒体セグメントは、単一のタイトル/章の一部でありえるし、又は、複数のタイトル/章から構成されていることもありうる。適用可能な論理的な区別を決定することは、コンテンツ・オーサリング・ソースに依存する。ビデオ・コンポーネント122は、映画と呼ばれることがあるが、実際には、ビデオ、オーディオ、データ又はこれらの任意の組合せでもありうる。
ビデオ・コンポーネント122を形成するビデオ、オーディオ又はデータは、1又は複数のメディア・ソース160(典型的な目的のために、2つのメディア・ソース160がA/Vマネジャ102内に示される)から生じる。メディア・ソースとは、ビデオ、オーディオ又はデータが由来するかそこから得られるあらゆるデバイス、場所又はデータである。メディア・ソースの例には、制限は意味しないが、ネットワーク、ハード・ドライブ、光媒体、代替的な物理ディスク、及び特定のビデオ、オーディオ又はデータの記憶装置での位置を参照するデータ構造が含まれる。
特別のメディア・ソースからのビデオ、オーディオ又はデータのサンプルのグループは、クリップ123(ビデオ・コンポーネント122、AVCマネジャ102及びプレイリスト128の中に示されている)として参照される。AVCマネジャ102を参照すると、クリップ123と関連する情報は、1又は複数のメディア・ソース160から受け取られ、デコーダ・ブロック161でデコードされる。デコーダ・ブロック161は、メディア・ソース160から受け取られた情報からレンダリング可能なビデオ、オーディオ又はデータ・コンテンツを検索するために用いられる任意のデバイス、テクニック又はステップを表わす。例えば、デコーダ・ブロック161は、エンコーダ/デコーダのペア、デマルチプレクサ又は復号器(デクリプタ)を含むことがある。デコーダとメディア・ソースの1対1の関係が示されているが、1台のデコーダが複数のメディア・ソースに役立つことがあり、その逆が正しいこともある。
オーディオ/ビデオ・コンテンツ・データ(「A/Vデータ」)132は、AVCマネジャ102によってレンダリングされる準備がなされたビデオ・コンポーネント122と関連付けられたデータであり、ミキサー/レンダラ110に送信される。A/Vデータ134のフレームは、一般に、個々のアクティブなクリップ123に対して、当該クリップの一部のレンダリングを含む。特定のフレーム中でレンダリングされるクリップの正確な部分又は量は、クリップのビデオ、オーディオ又はデータ・コンテンツの特性や、クリップをエンコード又はデコードするのに用いられるフォーマット、テクニック又はレートなどいくつかのファクタに基づく。
ICコンポーネント124は、メディア・オブジェクト125を含む。このメディア・オブジェクト125は、ユーザによる選択が可能な可視的又は可聴的なオブジェクトであり、この可視的又は可聴的なオブジェクトのプレゼンテーションのための任意の命令(アプリケーション155として示されており、後述する)と共に、オプションではあるがビデオ・コンポーネント122と同時にプレゼンテーションが可能である。メディア・オブジェクト125は静的な場合もアニメーション(動画)である場合もある。メディア・オブジェクトの例としては、他のものもありうるが、ビデオ・サンプル又はクリップ、オーディオ・サンプル又はクリップ、グラフィクス、テキスト及びこれらの組合せを含む。
メディア・オブジェクト125は、1又は複数のソース(図示せず)から生じる。ソースは、メディア・オブジェクトが由来するかそこから得られる任意のデバイス、場所又はデータである。メディア・オブジェクト125のためのソースの例には、制限は意味しないが、ネットワーク、ハードドライブ、光媒体、代替的な物理ディスク、及び特定のメディア・オブジェクトの記憶位置を参照するデータ構造が含まれる。メディア・オブジェクト125のフォーマットの例には、これらに制限されないが、ポータブル・ネットワーク・グラフィクス(「PNG」)、ジョイント写真エキスパート・グループ(「JPEG」)、動画エキスパート・グループ(「MPEG」)、マルチプル・イメージ・ネットワーク・グラフィックス(「MNG」)、オーディオ・ビデオ・インタリーブ(「AVI」)、エクステンシブル・マークアップ・ランゲージ(「XML」)、ハイパーテキスト・マークアップ・ランゲージ(「HTML」)及び拡張可能なHTML(「XHTML」)が含まれる。
アプリケーション155は、プレゼンテーション・システム100がユーザにメディア・オブジェクト125を与える際の機構(メカニズム)を提供する。アプリケーション155は、任意の信号処理方法、又は、データに対する所定の動作を電子的に制御する格納された命令を表わす。ここでの説明のために、ICコンポーネント124が図2及び3との関係で後述される3つのアプリケーション155を含むと仮定する。第1のアプリケーションは、映画に先立って著作権表示を示す。第2のアプリケーションは、映画の視覚的な側面と同時に、ユーザが選択可能な複数のアイテムを有するメニュを提供するメディア・オブジェクトを提供する。第3のアプリケーションは、映画の中に現れる1又は複数のアイテム(例えば、人、自動車、ビルディング又は製品(プロダクト))を識別及び/又はそれらに続くために用いられるグラフィック・オーバーレイ(円など)を提供する1又は複数のメディア・オブジェクトを示す。
対話型コンテンツ・データ(「ICデータ」)134は、ICマネジャ104によってレンダリングされるように準備されミキサ/レンダラ110に送信されるICコンポーネント124に関連するデータである。それぞれのアプリケーションは関連するキュー(図示せず)を有し、このキューはアプリケーションのレンダリングに関連する1又は複数の作業項目(ワーク・アイテム)(図示せず)を保持する。
プレゼンテーション・マネージャ106は、AVCマネジャ104及びICマネジャ102の両方と通信するように構成されており、プレゼンテーション・コンテンツ120の取り扱いと、ユーザへの再生されたプレゼンテーション127の提供とを促進する。プレゼンテーション・マネージャ106は、プレイリスト128へのアクセスを有する。プレイリスト128は、他のものに加えて、ユーザへのプレゼンテーションが可能なクリップ123及びアプリケーション155(メディア・オブジェクト125を含んで)の時系列シーケンスを含む。クリップ123及びアプリケーション155/メディア・オブジェクト125は、1又は複数のタイトル131を形成するように構成されうる。例示的な目的のために、ここで1つのタイトル131について論じる。プレイリスト128は、エクステンシブル・マークアップ・ランゲージ(「XML」)ドキュメント又は別のデータ構造を使用してインプリメントできる。
プレゼンテーション・マネージャ106は、プレイリスト128を用いて、タイトル131のためのプレゼンテーション・タイムライン130を確認する。概念的には、特定のクリップ123及びアプリケーション155をユーザにプレゼンテーション可能である場合に、プレゼンテーション・タイムライン130はタイトル131の中での時刻を示す。サンプル・プレゼンテーション・タイムライン130は、クリップ123とアプリケーション155との間の例示的な関係を図解しているのであるが、図2との関係で示され論じられる。状況によっては、プレイリスト128及び/又はプレゼンテーション・タイムライン130を用いてビデオ・コンテンツ・タイムライン(「ビデオ・タイムライン」)142及び対話型コンテンツ・タイムライン(「ICタイムライン」)144を確認するのが有用である。
プレゼンテーション・マネージャ106は、これだけには限定されないがプレゼンテーション・タイムライン130に関する情報を含む情報を、AVCマネジャ102及びICマネジャ104に提供する。プレゼンテーション・マネジャ206からの入力に基づいて、AVCマネジャ102はレンダリングのためにA/Vデータ132を準備し、ICマネジャ104はレンダリングのためにICデータ134を準備する。
タイミング信号管理ブロック108は様々なタイミング信号158を生じ、このタイミング信号158は、AVCマネジャ102及びICマネジャ104のそれぞれによるA/Vデータ132及びICデータ134の準備及び作成のタイミングを制御するのに用いられる。特に、タイミング信号158は、A/Vデータ132とICデータ134とのフレームレベルでの同期を達成するのに用いられる。タイミング信号管理ブロック108及びタイミング信号158の詳細は、図4との関係で後述する。
ミキサ/レンダラは、ビデオ平面(図示せず)においてA/Vデータ132をレンダリングし、グラフィクス平面において(図示せず)でICデータ134をレンダリングする。グラフィクス平面は、必ずではないが一般的にはビデオ平面の上にオーバレイされて、ユーザのために再生されたプレゼンテーション127を作成する。
図1への参照を継続するが、図2は、プレイリスト128の中のタイトル131のためのサンプル・プレゼンテーション・タイムライン130の図解である。時間は水平軸220に示さていれる。ビデオ・コンポーネント122(クリップ123が図解されている)及びICコンポーネント124(メディア・オブジェクト125を提供するアプリケーション155が図解されている)が垂直軸225に示されている。2個のクリップ123が示されていて、第1のビデオ・クリップ(「ビデオ・クリップ1」)230と、第2のビデオ・クリップ(「ビデオ・クリップ2」)250とである。ここで論じるために、図1に関して上述したように、第1のアプリケーションは、著作権表示260を含む1又は複数のメディア・オブジェクト(例えばイメージ及び/又はテキスト)を提供する役割を有すると仮定される。第2のアプリケーションは、メニュ280のユーザが選択可能なアイテム(例えば関連するテキスト又はグラフィックスを備えたボタン)を提供するメディア・オブジェクトを提供する役割を有する。第3のアプリケーションは、グラフィック・オーバーレイ290を提供する1又は複数のメディア・オブジェクトを提供する役割を有する。メニュ280は、ビデオ・クリップ1(230)及びビデオ・クリップ2(250)と同時に表示される。また、グラフィック・オーバーレイ290は、ビデオ・クリップ1(230)及びメニュ280と同時に表示することができる。
タイトル131をユーザに提供可能な水平軸220に沿った特定の長さの時間は、タイトル131の再生期間292と呼ばれる。再生期間292の中の特定の時間はタイトル時間と呼ばれる。プレゼンテーション・タイムライン130には、4つのタイトル時間(TT)が示されている。すなわち、TT1(293)、TT2(294)、TT3(295)及びTT4(296)である。1つのタイトルは一度再生されるか、又は、二度以上(例えば、ループの態様で)再生されることがあるので、再生期間292はタイトル131の反復に基づいて決定される。再生期間292は、これらには限定されないが所定の再生速度(例えば、通常のすなわち1倍の再生速度)、所定のフレーム・レート、又は所定のタイミング信号状態を含む任意の所望の基準との関係で決定されうる。再生速度、フレーム・レート及びタイミング信号は、図4との関係で後述される。エンコード技術やディスプレイ技術やそれぞれのタイトルに対するクリップ及びメディア・オブジェクトの間の再生シーケンス及びタイミング関係に関する特別な規則などのインプリメンテーションに特有のファクタはタイトルの再生期間及びその中のタイトル時間の正確な値に影響すると考えられる。再生期間及びタイトル時間という用語は、そのようなインプリメンテーションに特有の詳細をすべて包含することが意図されている。ICコンポーネント124と関連するコンテンツがプレゼンテーション可能であるタイトルは既に決定されているのが一般的であるが、ユーザがそのようなコンテンツと対話するときに講じられた行動は、再生されたプレゼンテーション127が再生されている間のユーザ入力に基づいてのみ決定されると考えられる。例えば、ユーザは、あるアプリケーション、メディア・オブジェクト及び/又は再生されたプレゼンテーション127の再生の間と関連する付加的なコンテンツを、選択、付勢(アクティブ化)又は消勢(非アクティブ化)することができる。
再生期間292の中の他の時間及び/又は期間も定義され、ここで論じられる。映像(ビデオ)プレゼンテーション間隔240は、ビデオ・コンポーネント122と関連する特定のコンテンツがその間に再生可能である再生期間292の開始及び終了時間によって定義される。例えば、ビデオ・クリップ1(230)は、タイトル時間TT2(294)とTT4(294)との間のプレゼンテーション間隔240を有し、ビデオ・クリップ2(250)は、タイトル時間TT3(295)とTT4(296)との間のプレゼンテーション間隔240を有する。アプリケーション・プレゼンテーション間隔、アプリケーション再生期間、プレゼンテーション間隔、及びページ期間も定義され、図3との関係で後述する。
更に図2を参照すると、2つのタイプの時間間隔が、再生期間292の中に存在する。第1のタイプの時間間隔は、ビデオ・コンポーネント122がプレゼンテーションを予定されていないものである。時間間隔1(297)は、映画のプレゼンテーションに先行して著作権表示260が表示される時間であるが、第1のタイプの時間間隔の例である。著作権表示260を示すアプリケーションは時間間隔1(297)にプレゼンテーションを予定されているが、アプリケーションが第1のタイプの時間間隔の間にプレゼンテーションを予定されていることは必要ないと考えられる。
第2のタイプの時間間隔はビデオ・コンポーネント122がプレゼンテーションを予定されているものである。時間間隔2(298)及び時間間隔3(299)は、第2のタイプの時間間隔の例である。時には、複数のビデオが第2のタイプの時間間隔の間にプレゼンテーションを予定されていることがある。常にではないが多くの場合には、対話型コンテンツは第2のタイプの時間間隔の間にプレゼンテーション可能である。例えば、時間間隔2(298)では、メニュ280及びグラフィック・オーバーレイ290が、ビデオ・クリップ230と同時にプレゼンテーションを予定されている。時間間隔3(299)では、メニュ280は、ビデオ・クリップ1(230)及びビデオ・クリップ2(250)と同時のプレゼンテーションが予定されている。
図1及び2を更に参照しながら図3を参照すると、図3は、単独のアプリケーション155の機能ブロック図である。アプリケーション155は、一般的に、メディア・オブジェクトに260、280及び290を提供する役割を有するアプリケーションを表している。アプリケーション155は命令304(後述する)を含む。アプリケーション155は、リソース・パッケージ・データ構造340(後述する)、アプリケーション再生期間320及び1又は複数のアプリケーション・プレゼンテーション間隔321と関連している。
アプリケーション再生期間320は、アプリケーション155と関連したメディア・オブジェクト125が再生されたプレゼンテーション127の受信者にプレゼンテーション可能及び/又はその受信者に選択可能な再生期間292の長さ(一部又は全体)との関係で、特定の長さの時間である。図2のコンテキストでは、例えば、著作権表示260の役割を有するアプリケーション155は、TT1(293)とTT2(294)との間の時間の長さで構成されるアプリケーション再生期間を有する。メニュ280の役割を有するアプリケーションは、TT2(294)とTT4(296)との間の時間の長さで構成されるアプリケーション再生期間を有する。グラフィカル・オーバーレイ290の役割を有するアプリケーションは、TT2(294)とTT3(295)との間の時間の長さで構成されるアプリケーション再生期間を有する。
特定のアプリケーションと関連するアプリケーション再生期間320がプレゼンテーション・タイムライン上で概念化されるときに得られた開始及び終了タイトル時間より定義された間隔は、アプリケーション・プレゼンテーション間隔321と呼ばれる。例えば、著作権表示206の役割を有するアプリケーションは、TT1(293)で始まりTT2(294)で終了するアプリケーション・プレゼンテーション間隔を有する。メニュ280の役割を有するアプリケーションは、TT2(294)及びTT4(296)で始まるアプリケーション・プレゼンテーション間隔を有する。また、グラフィック・オーバーレイ290の役割を有するアプリケーションは、TT2(294)及びTT3(295)で始まるアプリケーション・プレゼンテーション間隔を有する。
図3を再び参照すると、ある場合には、アプリケーション155は、複数のページを有することがある。ページは、特定のアプリケーション再生期間320及び/又はアプリケーション・プレゼンテーション間隔321の間に同時にプレゼンテーション可能な1又は複数のメディア・オブジェクトの論理的なグルーピングである。しかし、特別のページと関連するメディア・オブジェクトは、同時に、シリアルに、又はこれらの組合せで提供されることがある。示されているように、最初のページ330は最初のメディア・オブジェクト331と関連しており、また、後続のページ335はメディア・オブジェクト336と関連している。それぞれのページは、それ自身のページ期間を有する。示されているように、最初のページ330はページ期間332を有する。また、後続のページ335はページ期間337を有する。ページ期間は、特定のページと関連するメディア・オブジェクト125がユーザにプレゼンテーション可能(又は、ユーザによって選択可能)であるアプリケーション再生期間330の長さ(一部又は全体)との関係で、特定の長さの時間である。特定のページと関連するページ再生期間がプレゼンテーション・タイムライン上で概念化される時に得られた開始及び終了タイトル時間によって定義された間隔は、ページ・プレゼンテーション間隔343と呼ばれる。ページ・プレゼンテーション間隔343は、アプリケーション・プレゼンテーション間隔321のサブ間隔である。特別のメディア・オブジェクト・プレゼンテーション間隔345も、ページ・プレゼンテーション間隔343の中で定義されることがある。
与えられたタイトルと関連するアプリケーション及びページの数と、各アプリケーション又はページと関連するメディア・オブジェクトとは、一般的に、設計選択事項である論理的な区別である。アプリケーションの実行の間にメモリにロードされるアプリケーションと関連するリソースの数又は量を管理する(例えば制限する)ことが望ましい場合には、複数のページが用いられることがある。アプリケーションのためのリソースは、メディア・オブジェクトをレンダリングするための命令304と同様に、アプリケーションによって用いられるメディア・オブジェクトを含む。例えば、複数のページを備えたアプリケーションがプレゼンテーション可能である場合には、そのアプリケーションの現在プレゼンテーション可能なページと関連するリソースだけをメモリにロードするだけのことが可能な場合がある。
リソース・パッケージ・データ構造340は、アプリケーションの実行に先立ってメモリにアプリケーション・リソースをロードすることを容易にするのに用いられる。リソース・パッケージ・データ構造340は、そのアプリケーションのためのリソースが位置するメモリ位置を参照する。リソース・パッケージ・データ構造340は、それが参照するリソースと一緒に又は別個に、任意の望ましい場所に格納される。例えば、リソース・パッケージ・データ構造340は、ビデオ・コンポーネント122と離れたエリアにおいて、高解像度DVDなどの光媒体に配置されることがある。あるいは、リソース・パッケージ・データ構造340は、ビデオ・コンポーネント122の中に埋め込まれることがある。更には、リソース・パッケージ・データ構造は、遠隔的に配置されることがある。遠隔的な配置の例は、ネットワーク・サーバである。アプリケーション実行のための及びアプリケーションの間のリソースのトランジションの扱いに関するトピックの詳細は、ここでは論じない。
アプリケーション155それ自体を再び参照すると、命令304は、実行されると、ユーザ入力に基づいて、アプリケーション155と関連するメディア・オブジェクト125のレンダリングと関係するタスクを行なう。1つのタイプのユーザ入力(又はその結果)は、ユーザ・イベントである。ユーザ・イベントは、ICコンポーネント124に関係のある再生されたプレゼンテーション127の受信者によって始められたアクション又は発生(オカレンス)である。ユーザ・イベントは、必ずというわけではないが、一般的には非同期である。ユーザ・イベントの例には、制限的ではないが、メニュ280の中のボタンの選択や、グラフィカル・オーバーレイ290と関連する円の選択など、再生されたプレゼンテーション127の中のメディア・オブジェクトとのユーザの対話(インタラクション)が含まれる。そのようなインタラクションは、現時点で既知であるか将来開発される任意のタイプのユーザ入力デバイスを用いて生じる。そのデバイスには、キーボード、リモート・コントロール、マウス、スタイラス又は音声コマンドが含まれる。アプリケーション155はユーザ・イベント以外のイベントに応答することがあるが、そのようなイベントについてはここでは論じない。
あるインプリメンテーションでは、命令304は、コンピュータ可読媒体(図9との関係で後述する)においてエンコードされたコンピュータ実行可能な命令である。ここに論じる例では、命令304は、スクリプト308又はマークアップ・エレメント302、306、310、312、360のいずれかを使用してインプリメントされる。スクリプト又はマークアップ・エレメントのいずれかが単独で用いられることもありうるが、一般に、スクリプト及びマークアップ・エレメントの組合せは高解像度DVD映画のための対話型機能の包括的なセットの生成を可能にする。
スクリプト308は、命令的なプログラミング言語のような非宣言的なプログラミング言語で書かれた命令304を含む。命令的なプログラミング言語は、プロセッサによって実行される一連のコマンドにより計算について記述する。スクリプト308が用いられるほとんどの場合、スクリプトはユーザ・イベントに応答するのに用いられる。しかし、スクリプト308は、マークアップ・エレメントを単独で使用しても容易に又は効率的にインプリメントされない問題を処理する場合など、それ以外のコンテキストでも役立つ。そのようなコンテキストの例には、システム・イベントやリソース管理(例えば、キャッシュに入れられたリソースや永久的に記憶されているリソースへのアクセスなど)が含まれる。あるインプリメンテーションでは、スクリプト308は、ECMA−262仕様においてECMAインターナショナルによって定義されたECMAScriptである。ECMA−262に含まれる一般的なスクリプト用のプログラミング言語には、JavaScriptとJScriptとが含まれる。いくつかの設定では、ホスト環境及び1セットのアプリケーション・プログラム・インターフェースと共にECMA−327のようなECMAScript262の部分集合を用いて308をインプリメントするのが望ましいことがある。
マークアップ・エレメント302、306、310、312及び360は、エクステンシブル・マークアップ・ランゲージ(「XML」)のような宣言的なプログラミング言語で書かれた命令304を表現する。XMLでは、エレメントは、XML文書において開始タグと終了タグとを使用して定義された情報の論理的単位である。XML文書はエンティティ(コンテナとも称される)と呼ばれる記憶装置から構成されるデータ・オブジェクトであり、解析(パーシング)された(parsed)データ又は解析(パーシング)されていない(unparsed)データを含む。解析されたデータは、キャラクタから構成される。それらのうちのいくつかはキャラクタ・データを形成し、また、それらのうちのいくつかがマークアップを形成する。マークアップは、ドキュメントの記憶領域レイアウト及び論理構造の記述をエンコードする。XML文書には1つのルート・エレメントが存在し、そのどの部分も他のエレメントのコンテンツに現われない。他のすべてのエレメントのために、開始タグと終了タグとは互い内部に入れ子状になった状態で他のエレメントのコンテンツの中にある。
XMLスキーマは、XML文書のクラスのシンタックスの定義である。1つのタイプのXMLスキーマは、汎用のスキーマである。いくつかの汎用のスキーマはワールド・ワイド・ウェブ・コンソーシアム(W3C)によって定義される。別のタイプのXMLスキーマは、専用スキーマである。例えば、高解像度DVDコンテキストでは、1又は複数の専用XMLスキーマが高精細度ビデオ用のDVD仕様に従ってXML文書と共に用いるためにDVDフォーラムによって発布された。他のインタラクティブ・マルチメディア・プレゼンテーション用スキーマと同様に高解像度DVD映画用の他のスキーマも可能であることが認識されるだろう。
ハイ・レベルでは、XMLスキーマは、(1)エレメント名とエレメント・タイプとを関連付ける、グローバル・エレメントの宣言と、(2)そのタイプのエレメントに対して属性、サブエレメント及びキャラクタ・データを定義するタイプ定義とを含む。エレメントの属性は、名前/値のペアを用いてエレメントの特定のプロパティを指定する。ここで、1つの属性は単一のエレメントのプロパティを特定している。
コンテンツ・エレメント302は、ユーザ・イベント・エレメント360を含む場合もあるが、アプリケーション155によってユーザにプレゼンテーション可能な特定のメディア・オブジェクト・エレメント312を識別するのに用いられる。メディア・オブジェクト・エレメント312は、これに対し、特定のメディア・オブジェクト125を定義するデータが配置されている場所を指定するのが一般的である。そのような場所は、例えば、継続的なローカル又はリモートの記憶装置における場所であり、インターネット、私的に管理されるネットワーク又はワールド・ワイド・ウェブなどの有線又は無線、公的又は私的なネットワーク上の場所を含めた、有線や無線の公的又は私的なネットワークの上や光媒体上の場所などが含まれる。メディア・オブジェクト・エレメント312によって指定された場所は、更に、リソース・パッケージ・データ構造340への参照など、場所への参照であることもある。このように、メディア・オブジェクト125の場所は間接的に指定されることがある。
タイミング・エレメント306は、一般的に、特定のアプリケーション155によってユーザにプレゼンテーション可能である特定のコンテンツ・エレメント302の外観を指定するのに用いられる。タイミング・エレメントの例には、XML文書の時間コンテナの中にある、パー(par)、タイミング又はseqエレメントが含まれる。
スタイル・エレメント310は、特定のアプリケーションによってユーザにプレゼンテーション可能な特定のコンテンツ・エレメント302の外観を指定するために一般に用いられる。
ユーザ・イベント・エレメント360は、ユーザ・イベントを定義する又はユーザ・イベントに応答するのに用いられるコンテンツ・エレメント302、タイミング・エレメント306又はスタイル・エレメント310を表わす。
マークアップ・エレメント302、306、310及び360は、それらの関連するメディア・オブジェクト・エレメント312/メディア・オブジェクト125のあるプロパティを指定するのに使用可能な属性を有する。あるインプリメンテーションでは、これらの属性/プロパティは、1又は複数のクロック又はタイミング信号(図4との関係で後述する)の値を表わす。時間又は時間期間を表すプロパティを有するマークアップ・エレメントの属性の使用は、ユーザは再生されたプレゼンテーション127を受け取る間にICコンポーネント124とビデオ・コンポーネント122との間の同期を達成する1つの方法である。
マークアップ・エレメントを含むサンプルXML文書が、下に示されている(ただし、スクリプト308は示されない)。サンプルXML文書は、コンテンツ・エレメント302上でクロップ・アニメーションを実行するスタイル310及びタイミング306エレメントを含む。ここで、コンテンツ・エレメント302は「id」と呼ばれるメディア・オブジェクト・エレメント312を参照する。「id」メディア・オブジェクト・エレメントと関連するメディア・オブジェクト125を定義するデータの場所は示されていない。
このサンプルXML文書は、「xml」と呼ばれるルート・エレメントから始まる。ルート・エレメントに続いて、いくつかのネームスペース「xmlns」フィールドが、このサンプルXML文書のためのシンタックスとその中のコンテナとを定義する様々なスキーマを見つけることができるワールド・ワイド・ウェブ上の場所を参照する。高解像度DVD映画と共に用いるためのXML文書のコンテキストでは、例えば、ネームスペース・フィールドは、DVDフォーラムと関連するウェブサイトを参照することがある。
「id」と呼ばれる1つのコンテンツ・エレメント302が、「ボデイ」とラベル付けされたタグによって記述されるコンテナの中で定義される。コンテンツ・エレメント「id」と関連するスタイル・エレメント310(この例では、「スタイリング」というラベルの下にあるエレメント)は、「head」とラベル付けされたタグによって記述されるコンテナの中で定義される。タイミング素子306(「タイミング」というラベルの下にあるエレメント)も、「ヘッド」とラベル付けされたタグによって記述されるコンテナの中で定義される。
図1ないし3を継続して参照しながら図4を参照すると、図4は、タイミング信号管理ブロック108様々なコンポーネントとタイミング信号158とをより詳細に図解する単純化された機能ブロック図である。
タイミング信号管理ブロック108は、プレゼンテーション・システム100の中の特定の時間又は時間期間を決定するために用いられるクロック及び/又はタイミング信号を取り扱う役割を有する。示されているように、連続タイミング信号401が、クロック・ソース402によって所定のレートで作成される。クロック・ソース402は、汎用コンピュータ又は専用電子機器のような処理システムと関連するクロックでありうる。クロック・ソース402によって作成されるタイミング信号401は、一般に、現実世界のクロックがそうであるように連続的に変化するのであるが、現実時間の1秒の間に、クロック・ソース402は、所定のレートで、タイミング信号401に相当する1秒を生じる。タイミング信号401は、ICフレーム・レート計算機404、A/Vフレーム・レート計算機406、時間基準計算機408及び時間基準計算機490に入力される。
ICフレーム・レート計算機404は、タイミング信号401に基づいてタイミング信号405を生成する。タイミング信号405は、「ICフレーム・レート」と呼ばれ、ICデータ134のフレームがICマネジャ104によって生成されるレートを表わす。ICフレーム・レートの例示的な1つの値は、30フレーム/秒である。ICフレーム・レート計算機404は、タイミング信号405を生成するタイミング信号401のレートを低下又は増加させる。
ICデータ134のフレームは、一般に、個々の有効なアプリケーション155及び/又はそのページに対して、それぞれのユーザ・イベントに従う有効なアプリケーション及び/又はそのページと関連するした各メディア・オブジェクト125のレンダリングを含む。例示目的ではあるが、有効なアプリケーションは、再生期間292の現在のタイトル時間がプレゼンテーション・タイムライン130に基づいて含まれるアプリケーション・プレゼンテーション間隔321を有する。アプリケーションは、複数のアプリケーション・プレゼンテーション間隔を有しうると考えられる。アプリケーションの状態に関しては、ユーザ入力又は資源(リソース)の利用性に基づいて何の特別の区別もなされないと考えられる。
A/Vフレーム・レート計算機406は、また、タイミング信号401に基づいて、タイミング信号407を生成する。タイミング信号407は、「A/Vフレーム・レート」と呼ばれ、A/Vデータ132のフレームがAVCマネジャ102によって生成されるレートを表わす。A/Vフレーム・レートは、ICフレーム・レート405と同じ場合と異なる場合とがある。A/Vフレーム・レートの例示的な値は、24フレーム/秒である。A/Vフレーム・レート計算機406は、タイミング信号407を生成するタイミング信号401のレートを低下又は増加させる。
クロック・ソース470はタイミング信号471を生成し、このタイミング信号471はクリップ123と関連する情報がメディア・ソース161から生成されるレートを管理する。クロック・ソース470は、クロック402と同じクロックであるか又はクロック・ソース402と同じクロックに基づく。あるいは、クロック470及び402はまったく異なり、及び/又は異なるソースを有する。クロック・ソース470は、再生速度入力480に基づいてタイミング信号471のレートを調節する。再生速度入力480は、再生されたプレゼンテーション127の再生速度に影響する受け取られたユーザ入力を表す。例えば、再生速度は、ユーザが映画のある部分から別の部分にジャンプするとき(「トリック再生」と呼ばれる)や、ユーザが映画を停止、遅い順送り、早い順送り、遅い逆再生又は速い逆再生をするときに影響を受ける。トリック再生は、メニュ280(図2に示される)から選択することによって、又は、他の態様で達成される。
時間基準452は、アクティブ・クリップ123と関連する特定のプレゼンテーション間隔240の中で経過した時間の長さを表す。ここでの説明のため、アクティブ・クリップは、再生期間292の現在のタイトル時間が含まれるプレゼンテーション間隔240を有しプレゼンテーション・タイムライン130に基づくものである。時間基準452は、「経過したクリップ再生時間」と称される。時間基準計算機454は、時間基準452を受け取り、メディア時間基準455を生成する。メディア時間基準455は、1又は複数の時間基準452に基づいて経過した再生期間292の全体量を表わす。一般に、2以上のクリップが同時に再生されている場合には、ただ1つの時間基準452が用いられて、メディア時間基準455が生成される。メディア時間基準455を決定するのに用いられる特定のクリップと、複数のクリップに基づいてメディア時間基準455がどのように決定されるかとは、インプリメンテーションの好適性の問題である。
時間基準計算機408は、タイミング信号401とメディア時間基準455と再生速度入力480とを受け取り、タイトル時間基準409を生成する。タイトル時間基準409は、時間基準計算機408への入力の1つ以上に基づいた再生期間292の間に経過した時の全体量を表わす。タイトル時間を計算する例示的な方法が、図6に関して示され説明される。
時間基準計算機490は、タイミング信号401及びタイトル時間基準409を受け取り、アプリケーション時間参照492及びページ時間基準494を生じる。単一のアプリケーション時間基準492は、連続タイミング信号401に関して、特定のアプリケーション再生期間320(図3との関係で示され論じられる)の経過時間の量を表わす。アプリケーション時間参照492は、現在のタイトル時間が特定のアプリケーションのアプリケーション・プレゼンテーション間隔321の中にあることをタイトル時間基準409が示すときに決定される。アプリケーション時間参照492は、アプリケーション・プレゼンテーション間隔321の満了時にリセットされる(例えば、非アクティブになるか、再びスタートする)。アプリケーション時間参照492は、また、ユーザ・イベントに応答してやトリック再生が生じるときなど他の状況でもリセットされる。
ページ時間基準494は、連続タイミング信号401に関して、単一のページ・再生期間332、337(図3との関係でも示され論じられる)の経過時間の量を表わす。現在のタイトル時間が適用可能なページ・プレゼンテーション間隔343の中に含まれることをタイトル時間基準409が示すときに、アプリケーションの特定のページのページ時間基準494が決定される。ページ・プレゼンテーション間隔は、アプリケーション・プレゼンテーション間隔321のサブ間隔である。ページ時間基準494は、適用可能なページ・プレゼンテーション間隔343の終了時にリセットされることがある。ページ時間基準494は、また、ユーザ・イベント応じてやトリック再生が生じるときなどそれ以外の状況でもリセットされることがある。メディア・オブジェクト・プレゼンテーション間隔345は、アプリケーション・プレゼンテーション間隔321及び/又はページ・プレゼンテーション間隔343のサブ間隔でありうるが、定義可能でもあると考えられる。
表2は、プレゼンテーション・システム100による再生されたプレゼンテーション127の再生の間の例示的な発生と、アプリケーション時間参照492、ページ時間基準494、タイトル時間基準409及びメディア時間基準455におけるそのような発生の影響を図解する。
図5は、アプリケーション時間基準492とページ時間基準4とタイトル時間基準409とメディア時間基準455とにおける再生されたプレゼンテーション127の再生の間のいくつかのオカレンス502の効果をより詳細に示している概略図である。オカレンス502及びその結果は、タイミング信号401のような連続的なタイミング信号の値との関係で示されている。特に示されていない場合には、高精細DVD映画の特定のタイトルが、通常の速度で再生されており、3つのシリアルにプレゼンテーション可能なページを有する単一のアプリケーションが、ユーザ対話機能を提供する。
タイミング信号がゼロの値を有するときには、映画の再生が開始される。タイミング信号が10の値を有するときに、アプリケーションは有効になりアクティブになる。アプリケーションの1ページと関連するページ時間494と同様に、アプリケーション時間492も、0の値を仮定する。ページ2及びページ3は、非アクティブである。タイトル時間409及びメディア時間455は、両方とも、10の値を有する。
アプリケーションのページ2は、タイミング信号値15においてロードする。アプリケーション時間及びページ1の時間は5の値を有し、他方で、タイトル時間及びメディア時間は15の値を有する。
タイミング信号が20の値を有するときに、アプリケーションの3ページがロードする。アプリケーション時間は10の値を有し、2ページの時間は5の値を有し、ページ1の時間は非アクティブである。タイトル時間及びメディア時間は、20の値を有する。
タイミング信号の値が22において、映画が休止する。アプリケーション時間は12の値を有し、3ページ時間は2の値を有し、1ページと2ページは非アクティブである。タイトル時間及びメディア時間は、22の値を有する。映画は、タイミング信号の値24において再開する。ここで、アプリケーション時間は14の有し、3ページの時間は4の値を有し、タイトル時間及びメディア時間は22の値を有する。
タイミング信号値27では、新たなクリップが開始する。アプリケーション時間は17の値を有し、3ページの時間は7の値を有し、タイトル時間は25の値を有する。メディア時間は0にリセットされる。
ユーザは、タイミング信号の値32において、アプリケーションを非アクティブ化する。アプリケーション時間は22の値を有し、ページ時間は12の値を有し。タイトル時間は30の値を有する。また、メディア時間は5の値を有する。
タイミング信号の値39では、ユーザは、同じクリップの別の部分まで逆方向にジャンプする。そのアプリケーションは、ジャンプによって移動した場所で有効であると仮定され、すぐに再度アクティブとなる。アプリケーション時間は0の値を有し、ページ1の時間はゼロの値を有し、それ以外のページは非アクティブであり、タイトル時間は27の値を有し、メディア時間は2の値を有する。
タイミング信号値46では、ユーザは、通常の速度の2倍で順方向に高速で再生されている映画の再生速度を変更する。高速で順方向の再生は、タイミング信号の値53まで継続する。示されるように、アプリケーション及びページ時間は、映画の再生速度の変化に影響されずに、連続的なタイミング信号を用いて一定のペースで変化し続ける。その一方で、タイトル及びメディア時間は、映画の再生速度に比例して変化する。アプリケーションの特定のページがいつロードされるかはタイトル時間409及び/又はメディア時間455に結び付けられていることは注目されるべきである(図3に関して、アプリケーション・プレゼンテーション間隔321及びページ・プレゼンテーション間隔343を論じている箇所を参照のこと)。
タイミング信号の値48では、新たなタイトルが開始し、タイトル時間409及びメディア時間455は0の値にリセットされる。最初のタイトルに関しては、これは、タイトル時間が62の値を有しメディア時間が36の値を有するときに発生する。アプリケーション時間492及びページ期間494のリセット(図示せず)は、タイトル時間409及びメディア時間455のリセットの後に続く。
様々なタイムライン、クロック・ソース、タイミング信号及びタイミング信号基準にアクセスすることにより、プレゼンテーション・システム100が再生されたプレゼンテーション127の中でICデータ124とA/Vデータ132とのフレーム・レベルの同期を達成し、ユーザ対話機能の期間にそのようなフレーム・レベルの同期を維持する能力が向上する。
図1ないし図4も更に参照するが、図6は、プレゼンテーション・システム100のような対話型マルチメディア・プレゼンテーション・システムがプレゼンテーション・コンテンツ120/再生されたプレゼンテーション127のICコンポーネント124及びビデオ・コンポーネント(コンポーネント)122のような対話型マルチメディア・プレゼンテーションの現在の対話型及びビデオ・コンポーネントを同期して提供する能力を向上させる1つの方法の流れ図である。この方法は、2つの異なる信号を用いて、プレゼンテーションの再生期間292のような再生期間の少なくとも一部の(タイトル時間409によって表される)経過再生時間の全体を測定する。
この方法はブロック600で始まり、ブロック602に進み、そこで、プレゼンテーションの再生期間の中の非ビデオ時間間隔が識別される。非ビデオ時間間隔とは、ビデオ・コンポーネント122がプレゼンテーションされる予定になっていない時間間隔である。ビデオ・コンポーネント122はプレゼンテーションの予定ではないことがあるが、その他のビデオ(例えばアプリケーション155に関連したビデオ・データ)は、プレゼンテーションが予定されていることがありうることに注意すべきである。
非ビデオ時間間隔が識別されうるのは、プレゼンテーション・タイムライン130上の再生期間292を参照する場合である。これは、プレイリスト128のようなプレゼンテーション用の再生リストから確認される。例示目的のために図2を参照すると、時間間隔1である297(これは、著作権表示260の表示する責任を負うアプリケーションが有効な場合に映画に先行する時間間隔である)は、非ビデオ時間間隔である。時間間隔1である297は、タイトル時間TT1である293とTT2である294との間で定義される。アプリケーションは時間間隔1 297にプレゼンテーションの予定であるが、アプリケーションが非ビデオ時間間隔中にプレゼンテーションの予定である必要がないことが認識されるだろう。
更に図6を参照すると、非ビデオ時間間隔中に、ブロック604で、第1の経過した再生時間が連続タイミング信号を用いて測定される。第1の経過した再生時間は、再生期間262の部分的な経過した再生時間である。タイトル時間409までに表わされる第1の経過した再生時間は、タイミング信号401を使用して時間基準計算機408によって計算されうる。
プレゼンテーションの再生期間の中のビデオ時間間隔は、ブロック606で識別される。ビデオ時間間隔とは、ビデオ・コンポーネント122がプレゼンテーションの予定の時間間隔である。ビデオ・コンポーネント122はビデオ、オーディオ、データ又はそれらの任意の組合せを含むことがあり、単に視覚的な情報だけを意味しないことを注意すべきである。図2に示されている典型的なプレゼンテーション・タイムライン130では、時間間隔2の298及び時間間隔3の299は、両方ともビデオ時間間隔である。複数のクリップが1つのビデオ時間間隔中にプレゼンテーションの予定のことがある。複数のクリップが特定のビデオ時間間隔(例えば、メインの映画とピクチャ・イン・ピクチャ型の映画との両方が再生されている場合)でプレゼンテーション可能なときには、特定のクリップはメイン・クリップであると考えられる。一般に、必ずではないが、メインの映画は、メインのクリップであると考えられる。対話型のコンテンツもまた時間間隔298及び299の間にプレゼンテーション可能であるが、対話型のコンテンツは、ビデオ時間間隔中にプレゼンテーション可能であることは必要ない。
図6を再び参照すると、ビデオ時間間隔中に、ブロック608で、第2の経過した再生時間が、プレゼンテーションの再生速度に基づくタイミング信号を使用して測定される。1番目の経過した再生時間のように、第2の経過した再生時間は、タイトル時間409(図4に示される)によって表わされる再生期間262の部分的な経過した再生時間である。第2の経過した再生時間は、メディア時間基準455を用いて時間基準計算機408によって計算されることがある。メディア時間基準455は、クロック・ソース470によって発生されたタイミング信号471に間接的に基づく。メディア時間基準455がタイミング信号471に間接的に基づく方法は、以下のように説明できる。クロック・ソース470は再生速度入力480に基づいたタイミング信号471のレートを調節する、クリップ123はタイミング信号471に基づいたメディア・ソース160から検索される、経過したクリップ再生時間452が時間基準計算機454に受け取られる、この計算機は経過したクリップ再生時間452に基づいたメディア時間基準455を発生する。あるいは、時間基準計算機408は、タイトル時間409を計算するためにタイミング信号471を直接使用することがある。
図6のダイヤモンド610及びそれ以後のボックス612で示されるように、再生されたプレゼンテーション127は、ビデオ時間間隔中に進むときに、合計の経過した再生時間であるタイトル時間409は、第2の経過した再生時間を用いて決定される。このように、合計の経過した再生時間の値は、ビデオ・コンポーネント122の再生の間に起こっていることを反映し、優先順位を決める。メディア・ソース160からの読み出しクリップに関して問題があるか遅れがある場合には、1又は複数の経過したクリップ再生時間452が休止し、また、タイトル時間409も休止する。ICコンポーネント124は、タイトル時間409に基づいたアプリケーション・プレゼンテーション間隔321を有するアプリケーション155を含むが、ビデオ・コンポーネント122のプレゼンテーションと同期状態に維持されることが可能となる。グラフィカルなオーバレイ290が後に続く動いている自動車の例では、メディア・ソース160からの自動車の読み出しフッテージと関係する問題又は遅れが出ているときであっても、円は自動車と共に移動する。
ダイヤモンド614及び後の箱616で示されるように、再生されたプレゼンテーション127が非ビデオ時間間隔中に進む場合には、全体の経過した再生時間であるタイトル時間409は、第1の経過した再生時間を持ちインターネット・テレビ決定される。従って、非ビデオ時間間隔中は、再生されたプレゼンテーション127の正確な前進は、タイミング信号401のような連続タイミング信号に基づいたタイトル時間409の計算により達成される。
再生の速度に基づいたタイミング信号(タイミング信号471及び(又は)メディア時間基準455)又は連続タイミング信号(タイミング信号401)のいずれかに基づいたタイトル時間409の正確な計算を促進するためにトランジションに先立つ少なくとも1つのもうユニットのタイトル時間409への1つのタイプの時間間隔からのトランジションを認識することは望ましい。例えば、非ビデオ間隔からビデオ間隔へのトランジションに先立って、レンダリングのためにビデオ間隔の中で示されるA/Vデータ132(例えば主映像クリップの最初のフレーム)の最初のフレームを準備していることができることがある。その後、A/Vデータ132の最初のフレームは、プレゼンテーション・タイムライン130に基づいたプレゼンテーションのそれが予定のタイトル時にプレゼンテーション可能であろう。ビデオ間隔からビデオ間隔(最初のフレーム(あらかじめICデータ134を与えることができた場合))までのトランジションと同様である。
図1ないし4に続き、図7は、プレゼンテーション・システム100のようなインタラクティブ・マルチメディア・プレゼンテーション・システムの能力を向上させ、プレゼンテーション・コンテンツ120/再生されたプレゼンテーション127のICコンポーネント124及びビデオ・コンポーネント122のようなインタラクティブ・マルチメディア・プレゼンテーションの対話及びビデオ・プレゼンテーション同期して提示する別の方法のフローチャートである。この方法は、クロック・ソースにアクセスし様々な時間基準を形成することを含む。
プレゼンテーション・システム100のコンテキストにおいて、プレゼンテーション・コンテンツ120/再生されたプレゼンテーション127は、再生期間292を有する。ICコンポーネント124は、1又は複数のメディア・オブジェクト125をレンダリングする命令304を有するアプリケーション155を含む。アプリケーション155は、再生期間292のコンテキストではアプリケーション・プレゼンテーション間隔321によって表わされるアプリケーション再生期間320を有する。ビデオ・コンポーネント122は、1又は複数のクリップ123を含む。
この方法はブロック700で始まり、ブロック702に進む。ここでは、プレゼンテーションの再生速度に基づいて、第1のタイミング信号が生成される。プレゼンテーション・システム100のコンテキストでは、タイミング信号471がクロック・ソース470によって生成される。クロック・ソース470は、再生速度入力480に基づいてタイミング信号471のレートを調節する。
ブロック704では、第2のタイミング信号が連続的な所定のレートで生成される。プレゼンテーション・システム100のコンテキストでは、タイミング信号401はクロック・ソース402によって生成される。
タイトル時間基準はブロック706で形成される。プレゼンテーション・システム100のコンテキストでは、時間基準計算機408は、タイミング信号401に基づいた再生期間292の経過再生時間を測定することによって、タイトル時間基準409を形成する。タイトル時間基準409は、図6との関係で後述するように、クロック・ソース470によって生成されたタイミング信号471に間接的に基づくことがある。あるいは、タイトル時間基準409は、再生速度入力480に基づいたタイミング信号471又は別のタイミング信号に直接基づくことがある。メディア時間基準455は、タイトル時間基準409を形成するために時間基準計算機408へ入力される。
ダイヤモンド708では、タイトル時間がアプリケーション・プレゼンテーション間隔の範囲内にあるかどうかが決定される。タイトル時間がアプリケーション・プレゼンテーション間隔の中にない場合には、アプリケーションはブロック715で非アクティブであると考えられる。タイトル時間がアプリケーション・プレゼンテーション間の中にある場合には、上述したようにアプリケーションは有効である。プレゼンテーション・システム100のコンテキストでは、タイトル時間基準409が適用可能なアプリケーション・プレゼンテーション間隔321の中に含まれる場合には、関連するアプリケーション155は有効であると考えられる。
ダイヤモンド710では、更に、アプリケーション・リソース(例えばリソース・パッケージ・データ構造340によって参照されるリソース)がロードされているかどうかが判断される。必要ならば、リソース・ローディングはブロック712で行なわれる。プレゼンテーション・システム100のコンテキストでは、アプリケーションが当初は有効になるときや、アプリケーションがプレゼンテーションの(例えば、トリック再生の後での)再生速度の変化に基づいて有効になるときなど、特定のアプリケーション155を再生する前に、アプリケーション155のためのリソースはファイル・キャッシュのようなメモリにロードされる。リソースには、メディア・オブジェクトをレンダリングする命令304と同様に、アプリケーションに関連したメディア・オブジェクト125が含まれる。特定のアプリケーションのためのメディア・オブジェクト125及び命令304は、集合的にリソース・パッケージと呼ばれる。図3との関係で論じたように、リソース・パッケージ・データ構造340は、特定のアプリケーション・リソース・パッケージのエレメントの記憶位置を参照する。リソース・パッケージ・データ構造340は、ビデオ・コンポーネント122に埋め込まれることがあり、アプリケーション・リソースを見つけるためにビデオ・コンテンツ・ストリームから求めなければならないのではなくて、ビデオ・コンポーネントから直接に読み出すことができる。あるいは、リソースは、ビデオ・ストリームの中に直接埋め込まれるか、又は、個別のアプリケーション・パッケージ(例えば、光学媒体に置かれた)からロードされる。
図7のフローチャートを再び参照すると、アプリケーション時間基準がブロック714で形成される。アプリケーション時間参照は、第2のタイミング信号に基づいたアプリケーション再生期間の経過再生時間を測定することによって形成される。プレゼンテーション・システム100のコンテキストの中では、タイトル時間基準409がアプリケーション・プレゼンテーション間隔321以内にある場合、アプリケーション時間参照492が形成される。時間基準計算機490は、タイミング信号401に基づいてアプリケーション時間参照492を生じる。アプリケーション・プレゼンテーション間隔321が完了すると、アプリケーション時間参照492はリセットする(例えば、非アクティブになるか、再びスタートする)。アプリケーション時間参照492は、また、トリック再生が生じるときなど他の状況でリセットすることもある。
ダイヤモンド716では、現在の経過再生時間が適用可能なページ・プレゼンテーション間隔の中にあるかどうかが判断され、そうである場合には、ページ時間基準はブロック718で形成される。ページ時間基準は、第2のタイミング信号(タイミング信号401)に基づいて適用可能なページ再生期間332及び337の経過再生時間を測定することにより形成される。現在の経過再生時間が適用可能なページ・プレゼンテーション間隔の中にない場合には、ブロック717で、適用可能なページは非アクティブであると考えられる。プレゼンテーション・システム100のコンテキストでは、タイトル時間基準409が適用可能なページ・プレゼンテーション間隔343の中にある場合には、ページ時間基準494が形成される。
アプリケーション及びページ時間基準は、アプリケーション・プレゼンテーション間隔が終了するときや、ユーザ・イベントや再生速度入力480に応答するときなどそれ以外の状況でリセットすることがある。例えば、トリック再生の後で、タイトル時間409がアプリケーション・プレゼンテーション間隔321の中にあると仮定して、アプリケーション(及び適用可能なものとしてのページ時間基準)が再開することがある(ゼロ又は別の開始値において)。
ブロック720では、命令は、メディア・オブジェクトに関係付けられている。プレゼンテーション・システム100のコンテキストでは、1つのタイプの命令は、アプリケーション155に関連した命令304である。命令304は、単独で用いられる又はスクリプト308と組み合わされて用いられるXMLマークアップ・エレメント302、306、310、312、360又はそれらの属性のような1又は複数の宣言型言語データ構造を表し、メディア・オブジェクト125がレンダリングされる時間又は時間期間を確立するために、1又は複数のクロック又はタイミング信号の状態を参照する。コンテンツ・コンテナ、タイミング・コンテナ又はスタイル・コンテナの中のマークアップ・エレメントは、タイミング信号401又はタイミング信号471を参照するか、又は、それらの信号を参照する1又は複数の属性を有する。
エレメント及びその属性は、タイミング信号401及び/又はタイミング信号407を直接的又は間接的に参照することができる。例えば、タイミング信号401は、クロック・ソース402、ICフレーム・レート計算機404、A/Vフレーム・レート計算機406、アプリケーション時間492又はページ期間494を介して間接的に参照されることがある。同様に、例えば、タイミング信号407は、クロック・ソース470、経過クリップ再生時間452、時間基準計算機454、メディア時間基準455、時間基準計算機408又はタイトル時間基準409を介して間接的に引用されることがある。
1例において、1又は複数の属性が、ある高解像度DVD映画と共に用いるためのXMLスキーマのような専用XMLスキーマの中で定義されることがある。そのような属性の1つの例は、ここで「クロック属性」と呼ばれる。このクロック属性は、高精細度ビデオ用のDVD仕様に従うXML文書と共に用いるためのDVDフォーラムによって制定された1又は複数のXMLスキーマによって定義される。クロック属性は、コンテンツ、タイミング又はスタイル・コンテナの中の様々なエレメントと共に用いることができて、タイミング信号401又はタイミング信号471を直接的又は間接的に参照する。別の例では、時間コンテナの中のパー(par)、タイミング又はseqエレメントが、タイミング信号401又はタイミング信号471があることがある。このように、XML文書のタイミング・コンテナの中のマークアップ・エレメントは、ページ時間及びタイトル時間の両者との関係でメディア・オブジェクト・プレゼンテーション間隔345を定義するのに用いられる。更に別の例では、ある特定の期間がいつ経過したか通知されるアプリケーションによって用いられるタイマ要素が定義されることがある。更に別の例では、ユーザ・イベント及び他のタイプのイベントが、異なる時間スケールにリンクされた時間によって定義されることがある。特定のイベントが有効である時間又は時間間隔を、タイミング信号401又はタイミング信号471を参照することによって確立することができる。
クロック、タイミング信号、時間基準計算機及び/又は時間基準への論理的な言及に関する表現も、XML文書の中のエレメント又はエレメントの属性を用いてメディア・オブジェクト125を提示する条件を定義するのに用いられることがある。例えば、「AND」、「OR」及び「NOT」のようなブール・オペランドは、それ以外のオペランド又はタイプと共に、そのような表現又は条件を定義するのに用いられることがある。
ダイヤモンド722及びブロック724で示されているように、メディア・オブジェクトは、メディア・オブジェクトをレンダリングする時間に達したときに、命令に基づいてレンダリングされる。ユーザ入力がメディア・オブジェクトがレンダリングされるかどうか及びいつレンダリングされるのかを決定することがあるので、メディア・オブジェクトは常にレンダリングとは限らないと考えられる。
プレゼンテーション・システム100のコンテキストでは、特定のアプリケーション155の実行中に、このアプリケーションに関連したドキュメント・オブジェクト・モデル(「DOM」)ツリー(図示せず)が、マークアップ・エレメントの状態のためにコンテキストを維持する。また、このアプリケーションに関連したスクリプト・ホスト(図示せず)が、スクリプトの変数、関数及びそれ以外の状態のためのコンテキストを維持する。アプリケーション命令304の実行が進行してユーザ入力が受け取られると、任意の影響を受けたエレメントの特性が記録され、再生されたプレゼンテーション127の中のメディア・オブジェクト125の振る舞いトリガするのに用いられることがある。プレゼンテーション・コンテンツ120/再生されたプレゼンテーション127の対話型及びビデオ・コンポーネントの間の同期はDOMに関連したクロックではなくDOMの外部にある1又は複数のクロックに基づいて達成されることがわかる。
命令304の実行に起因する作業項目(図示せず)はキュー(図示せず)に置かれ、ICフレーム・レート405によって提供されるレートで実行される。作業項目の性能に起因するICデータ134は、レンダラ/ミキサー110に伝送される。ミキサー/レンダラ110はグラフィックス平面においてICデータ134をレンダリングし、再生されたプレゼンテーション127の対話型部分をユーザのために生成する。
図6及び7に図解されているプロセスは、図8を参照して以下で論じるプロセッサ802のような、1又は複数の汎用でマルチパーパスの又はシングルパーパスのプロセッサにおいて実装できる。もし特に断らない限り、ここで説明する方法は特定の順序又はシーケンスに限定されない。また、ここで説明する方法又はそのエレメントの一部は、同時的な発生又は実行が可能である。
図8は、プレゼンテーション・システム100の様々な機能コンポーネントをインプリメントするのに用いられる、そのような機能コンポーネントによってアクセスされる、又はそのような機能コンポーネントに含まれるある機能コンポーネントを図解する汎用の計算ユニット800のブロック図である。計算ユニット800の1又は複数のコンポーネントは、ICマネジャ104、プレゼンテーション・マネージャ106及びAVCマネジャ102をインプリメントするために使用され、それらによってアクセス可能であり、又は中に含まれる。例えば、図8の1又は複数のコンポーネントが、様々な方法でプレゼンテーション・システム100の機能(その全体又は一部)をインプリメントするために、一緒に又は別々にパッケージにされることがある。
プロセッサ802は、コンピュータ可読媒体804及びコンピュータプログラム806に応答する。プロセッサ802は、現実の又は仮想的な処理装置でありうるが、コンピュータ実行可能な命令を実行することにより電子デバイスの機能を制御する。プロセッサ802は、コンパイルされている又はマシンレベルであって特定のプロセスを実行するための命令をアセンブリで実行することができる。そのような命令は、ソース・コード又はそれ以外の任意の既知のコンピュータ・プログラム設計ツールを用いて作成できる。
コンピュータ可読な媒体804は、ローカル又は遠隔的な装置の任意の数の組合せを表し、プロセッサ802によって実行可能な命令のように、コンピュータ可読なデータを記録、格納又は送信するコンピュータが読める既知の又は今後開発されうる任意の形式を有することができる。特に、コンピュータ可読な媒体804は、半導体メモリ(例えば、ROM、任意のタイプのプログラマブルROM(PROM)、RAM又はフラッシュ・メモリなど)、磁気記憶装置(フロッピ・ディスク(登録商標)ドライブ、ハードディスク・ドライブ、磁気ドラム、磁気テープ又は光磁気ディスクなど)、光学的記憶デバイス(任意のタイプのコンパクト・ディスク、ディジタル・バーサタイル・ディスクなど)、バブル・メモリ、キャッシュ・メモリ、コア・メモリ、ホログラフィック・メモリ、メモリ・スティック(登録商標)、紙テープ、穿孔カード、又はこれらの任意の組合せを含む。コンピュータ可読媒体804は、更に、伝送メディア及びそれと関連するデータを含むことがある。伝送メディア/データの例は、制限を意味しないが、ワイヤ線又は無線送信の任意のフォームで具体化されたデータ、変調搬送波信号によって運ばれるパケット化された又は非パケット化データを含む。
コンピュータ・プログラム806は、任意の信号処理方法を、又は、データに対する所定のオペレーションを電子的に制御する格納されている命令を表わす。一般に、コンピュータプログラム806は、コンポーネント・ベースのソフトウェア開発のための周知のプラクティスによってソフトウエア・コンポーネントとしてインプリメントされたコンピュータ実行可能命令であり、(コンピュータ可読媒体804のような)コンピュータ可読媒体においてエンコードされている。コンピュータ・プログラムは、様々な態様で組み合わせられる又は配信されることがある。
プレゼンテーション・システム100のコンテキストで説明した機能/部品は、コンピュータ・プログラムのどのような特定の実施例によるインプリメンテーションには制限されない。むしろ、機能は、データを伝達し変換するプロセスであって、プレゼンテーション・システム100の機能エレメントの任意の組合せに配置され、又は、それによってアクセスされるハードウェア、ソフトウェア、ファームウェア又はそれらの任意の組合せによって実装され又はそれらにおいて実行される。
図8に続いて、図9は、プレゼンテーション・システム100のすべて又は部分がインプリメントされることがあるし用いられることがある動作環境900の典型的な構成のブロック図である。動作環境900は、種々様々の汎用のコンピュータ環境又は専用コンピュータ環境を一般的に示している。動作環境900は適切な動作環境の単なる1つの例で、ここに記述されているシステム及び方法の使用又は機能の範囲に関してどんな制限の示唆も意図していない。例えば、動作環境900は、パーソナルコンピュータ、ワークステーション、サーバ、携帯機器、ラップトップ、タブレット、光学のメディア・プレーヤのような他のタイプの電子機器、別のタイプのメディア・プレーヤ(今知られているか今後開発される)又はその任意の特徴部分などのコンピュータのタイプでありうる。例えば、動作環境900は、また、分散コンピューティング・ネットワーク又はウェブ・サービスでありうる。動作環境900の具体例は、高精細DVD映画の再生を容易にするような、DVDプレーヤやそれと関連するオペレーティング・システムなどの環境である。
示されているように、動作環境900は、プロセッサ902、コンピュータ可読媒体904及びコンピュータプログラム906を含む計算ユニット900のコンポーネントを含む又はそれらにアクセスする。記憶装置904は、光ディスク・ドライブ906によって処理される光ディスクのような動作環境900と特に関連する追加的又は異なるコンピュータ可読媒体を含む。1又は複数の内部バス920は、周知であり広く利用可能なエレメントであるが、コンピュータ環境900又はそれのエレメントの中の、それらへの又はそれらからのデータ、アドレス、制御信号及び他の情報を運ぶのに用いられる。
入力インターフェース908は、コンピュータ環境900に入力を供給する。入力は、ユーザ・インターフェースなど現時点で既知の又は今後開発されるインターフェースの任意のタイプを用いて、集められる。ユーザ・インターフェースは、リモート・コントロール、ディスプレイ、マウス、ペン、スタイラス、トラックボール、キーボード、マイクロホン、スキャニング装置、及びデータの入力に用いられるあらゆるタイプのデバイスなど、タッチ入力装置でありうる。
出力インターフェース910は、コンピュータ環境900からの出力を提供する。出力インターフェース910の例には、ディスプレイ、プリンター、スピーカ、ドライブなど(光ディスク・ドライブ906及び他のディスクドライブのような)が含まれる。
外部通信インターフェース912は、チャンネル信号、データ信号又はコンピュータ可読媒体などの通信媒体を介して、別の実体から情報を受け取る、又は、別の実体へ情報を送信するコンピュータ環境の能力を強化するのに用いることができる。外部通信インターフェース912は、関連するネットワーク・サポート・デバイス、ソフトウェア又はインターフェースと共に、ケーブル・モデム、データ端末装置、メディア・プレーヤ、データ記憶装置、携帯情報端末、それ以外のデバイス又はそれらの組合せでありうるし、又は、これらを含むこともある。
図10は、プレゼンテーション・システム100又は動作環境1000が共に用いられうるクライアント・サーバのアーキテクチャ1000の単純化された機能ダイアグラムである。プレゼンテーション・システム100及び/又は動作環境900の1又は複数の特徴が、アーキテクチャ1000のクライアント側1002又はアーキテクチャ1000のサーバ側1004に表わされている。示されているように、通信フレーム・ワーク1303(例えば有線又は無線の任意のタイプの任意の公的又は私的なネットワークでありうる)は、クライアント側1002とサーバサイドの1004の間の通信を容易にする。
クライアント側1002においては、ハードウェア、ソフトウェア、ファームウェア又はこれらの任意の組合せにおいてインプリメント可能な1又は複数のクライアント1006が、クライアント・データ・ストア1008に応答する。クライアント・データ・ストア1008は、クライアント1006に対してローカルな情報を記憶するのに用いられるコンピュータ可読媒体804でありうる。サーバ側1004においては、1又は複数のサーバ1010が、サーバ・データ・ストア1012に応答する。クライアント・データ・ストア1008のように、サーバ・データ・ストア1012は、サーバ1110に対してローカルな情報を記憶するのに用いられるコンピュータ可読媒体804でありうる。
オーディオ/ビデオ・コンテンツと同期して対話型コンテンツをユーザに提示するために用いられるインタラクティブ・マルチメディア・プレゼンテーション・システムの様々な特徴について、以上で説明してきた。インタラクティブ・マルチメディア・プレゼンテーションについて、再生期間、可変再生速度、ビデオ・コンポーネント及びICコンポーネントを有するものとして、一般的に説明した。しかし、上述したコンポーネントのすべてを使用する必要はないし、用いられる場合であってもこれらのコンポーネントを同時に用いなければならないなどということはないことは理解されるはずである。コンピュータプログラムであるとしてプレゼンテーション・システム100のコンテキストにおいて説明された機能/コンポーネントは、コンピュータ・プログラムの任意の特定の実施例によるインプリメンテーションには制限されない。むしろ、機能は、データを伝達する又は変換するプロセスであって、一般的に、ハードウェア、ソフトウェア、ファームウェア又はそれらの任意の組合せにおいて実装(インプリメント)され、それらにおいて実行される。
ここでは本発明を構造的な特徴及び/又は方法的な行為に特有の言語に述べられているが、特許請求の範囲において定義されている本発明は、上述した特定の特徴又は行為に必ずしも制限されないと理解すべきである。むしろ、上述した特定の特徴及び行為は、特許請求の範囲を実現する例示的な携帯として開示されている。
ある1つのエレメントが別のエレメントに応答するものとして示される場合に、これらのエレメントが直接的又は間接的に結合されている場合があることも理解すべきである。ここで示されている接続は、エレメント間の結合のため又は通信のためのインターフェースを実際に達成するための論理的又は物理的なものでありうる。接続は、ソフトウェア・プロセスの間のプロセス間の通信として、又は、ネットワーク接続されたコンピュータの間でのマシン間の通信として、他の方法と共に実装することが可能である。
ここで用いられている「典型的(例示的)」という用語は、例示、インスタンス又は図解として役立つということを意味している。ここで「例示的」として説明された実装(インプリメンテーション)や特徴は、必ずしも、他の実装や特徴と比較して特に好適であるとか効果的であるように構成されているわけではない。
以上で説明した特定の実施例以外の実施例は、特許請求の範囲に記載された発明の精神及び範囲から逸脱せずに想到可能であり、本願発明の範囲は、特許請求の範囲の記載によって画定される。
対話型マルチメディア・プレゼンテーション・システムの単純化された機能ブロック図である。 図1に示されているプレイリストから確認可能な例示的なプレゼンテーション・タイムラインのグラフィカルな図解である。 図1に示されている対話型マルチメディア・プレゼンテーションと関連付けられたアプリケーションの単純化された機能ブロック図である。 図1に示されたタイミング信号管理ブロックをより詳細に図解する単純化された機能ブロック図である。 図4に示されたいくつかの時間基準の値における例示的な発生(オカレンス)の効果を連続タイミング信号との関係で示す図である。 図2に図解されたいくつかの時間間隔を参照して図1に示された対話型マルチメディア・プレゼンテーションの経過した再生時間の全体を決定する方法の流れ図である。 図4に示されたタイミング信号管理ブロックのいくつかの特徴を用いて対話型マルチメディア・プレゼンテーションを再生する方法の流れ図である。 図1に示された対話型マルチメディア・プレゼンテーション・システムの特徴と関係して使用可能な汎用計算ユニットの単純化された機能ブロック図である。 図1に示された対話型マルチメディア・プレゼンテーション・システムを実装可能又は使用可能な動作環境の例示的なコンフィギュレーションの単純化された機能ブロック図である。 図1に示された対話型マルチメディア・プレゼンテーション・システムを実装可能又は使用可能なクライアント・サーバ・アーキテクチャの単純化された機能ブロック図である。
JP2008519381A 2005-07-01 2006-06-20 対話型マルチメディア・プレゼンテーション管理の同期性 Expired - Fee Related JP5349962B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US69594405P 2005-07-01 2005-07-01
US60/695,944 2005-07-01
US11/352,571 US20070006062A1 (en) 2005-07-01 2006-02-13 Synchronization aspects of interactive multimedia presentation management
US11/352,571 2006-02-13
PCT/US2006/023907 WO2007005270A2 (en) 2005-07-01 2006-06-20 Synchronization aspects of interactive multimedia presentation management

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012194726A Division JP5619838B2 (ja) 2005-07-01 2012-09-05 対話型マルチメディア・プレゼンテーション管理の同期性

Publications (3)

Publication Number Publication Date
JP2009500909A JP2009500909A (ja) 2009-01-08
JP2009500909A5 true JP2009500909A5 (ja) 2009-09-10
JP5349962B2 JP5349962B2 (ja) 2013-11-20

Family

ID=37591292

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2008519381A Expired - Fee Related JP5349962B2 (ja) 2005-07-01 2006-06-20 対話型マルチメディア・プレゼンテーション管理の同期性
JP2012194726A Expired - Fee Related JP5619838B2 (ja) 2005-07-01 2012-09-05 対話型マルチメディア・プレゼンテーション管理の同期性

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2012194726A Expired - Fee Related JP5619838B2 (ja) 2005-07-01 2012-09-05 対話型マルチメディア・プレゼンテーション管理の同期性

Country Status (5)

Country Link
US (1) US20070006062A1 (ja)
EP (1) EP1899969A4 (ja)
JP (2) JP5349962B2 (ja)
KR (1) KR101265840B1 (ja)
WO (1) WO2007005270A2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7814412B2 (en) * 2007-01-05 2010-10-12 Microsoft Corporation Incrementally updating and formatting HD-DVD markup
CN111615729A (zh) 2017-08-29 2020-09-01 英特尔利特然有限公司 记录和渲染多媒体的装置、系统和方法

Family Cites Families (107)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5195092A (en) * 1987-08-04 1993-03-16 Telaction Corporation Interactive multimedia presentation & communication system
US5208745A (en) * 1988-07-25 1993-05-04 Electric Power Research Institute Multimedia interface and method for computer system
AU2010192A (en) * 1991-05-21 1992-12-30 Videotelecom Corp. A multiple medium message recording system
JP2512250B2 (ja) * 1991-09-13 1996-07-03 松下電器産業株式会社 動画表示ワ―クステ―ション
US5394547A (en) * 1991-12-24 1995-02-28 International Business Machines Corporation Data processing system and method having selectable scheduler
US5452435A (en) * 1993-03-31 1995-09-19 Kaleida Labs, Inc. Synchronized clocks and media players
US5515490A (en) * 1993-11-05 1996-05-07 Xerox Corporation Method and system for temporally formatting data presentation in time-dependent documents
US5574934A (en) * 1993-11-24 1996-11-12 Intel Corporation Preemptive priority-based transmission of signals using virtual channels
JP2701724B2 (ja) * 1993-12-28 1998-01-21 日本電気株式会社 シナリオ編集装置
USRE44685E1 (en) * 1994-04-28 2013-12-31 Opentv, Inc. Apparatus for transmitting and receiving executable applications as for a multimedia system, and method and system to order an item using a distributed computing system
US6122433A (en) * 1994-10-20 2000-09-19 Thomson Licensing S.A. HDTV trick play stream derivation for VCR
US5717468A (en) * 1994-12-02 1998-02-10 International Business Machines Corporation System and method for dynamically recording and displaying comments for a video movie
JP3701051B2 (ja) * 1995-07-04 2005-09-28 パイオニア株式会社 情報記録装置及び情報再生装置
US5659539A (en) * 1995-07-14 1997-08-19 Oracle Corporation Method and apparatus for frame accurate access of digital audio-visual information
JP3471526B2 (ja) * 1995-07-28 2003-12-02 松下電器産業株式会社 情報提供装置
US5966121A (en) * 1995-10-12 1999-10-12 Andersen Consulting Llp Interactive hypervideo editing system and interface
US5760780A (en) * 1996-01-31 1998-06-02 Hewlett-Packard Company Computer graphics system using caching of pixel Z values to improve rendering performance
US6240555B1 (en) * 1996-03-29 2001-05-29 Microsoft Corporation Interactive entertainment system for presenting supplemental interactive content together with continuous video programs
JP3617887B2 (ja) * 1996-10-14 2005-02-09 シャープ株式会社 撮像装置
US5949410A (en) * 1996-10-18 1999-09-07 Samsung Electronics Company, Ltd. Apparatus and method for synchronizing audio and video frames in an MPEG presentation system
US5877763A (en) * 1996-11-20 1999-03-02 International Business Machines Corporation Data processing system and method for viewing objects on a user interface
US6128712A (en) * 1997-01-31 2000-10-03 Macromedia, Inc. Method and apparatus for improving playback of interactive multimedia works
US6069633A (en) * 1997-09-18 2000-05-30 Netscape Communications Corporation Sprite engine
US6100881A (en) * 1997-10-22 2000-08-08 Gibbons; Hugh Apparatus and method for creating interactive multimedia presentation using a shoot lost to keep track of audio objects of a character
US5956026A (en) * 1997-12-19 1999-09-21 Sharp Laboratories Of America, Inc. Method for hierarchical summarization and browsing of digital video
US6665835B1 (en) * 1997-12-23 2003-12-16 Verizon Laboratories, Inc. Real time media journaler with a timing event coordinator
US6453459B1 (en) * 1998-01-21 2002-09-17 Apple Computer, Inc. Menu authoring system and method for automatically performing low-level DVD configuration functions and thereby ease an author's job
US6385596B1 (en) * 1998-02-06 2002-05-07 Liquid Audio, Inc. Secure online music distribution system
US6426778B1 (en) * 1998-04-03 2002-07-30 Avid Technology, Inc. System and method for providing interactive components in motion video
US6067638A (en) * 1998-04-22 2000-05-23 Scientific Learning Corp. Simulated play of interactive multimedia applications for error detection
JP2002518898A (ja) * 1998-06-11 2002-06-25 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ディジタルビデオレコーダのトリックプレイ信号生成
US20030025599A1 (en) * 2001-05-11 2003-02-06 Monroe David A. Method and apparatus for collecting, sending, archiving and retrieving motion video and still images and notification of detected events
US6715126B1 (en) * 1998-09-16 2004-03-30 International Business Machines Corporation Efficient streaming of synchronized web content from multiple sources
JP3961693B2 (ja) * 1998-09-28 2007-08-22 株式会社東芝 映像表示装置
US6700588B1 (en) * 1998-11-09 2004-03-02 Broadcom Corporation Apparatus and method for blending graphics and video surfaces
GB2344453B (en) * 1998-12-01 2002-12-11 Eidos Technologies Ltd Multimedia editing and composition system having temporal display
US6384846B1 (en) * 1998-12-11 2002-05-07 Hitachi America Ltd. Methods and apparatus for rendering multiple images using a limited rendering resource
US6430570B1 (en) * 1999-03-01 2002-08-06 Hewlett-Packard Company Java application manager for embedded device
EP2352276B1 (en) * 1999-03-30 2016-08-17 TiVo, Inc. Television viewer interface system
US6340977B1 (en) * 1999-05-07 2002-01-22 Philip Lui System and method for dynamic assistance in software applications using behavior and host application models
US6369830B1 (en) * 1999-05-10 2002-04-09 Apple Computer, Inc. Rendering translucent layers in a display system
US6629150B1 (en) * 1999-06-18 2003-09-30 Intel Corporation Platform and method for creating and using a digital container
US20040220926A1 (en) * 2000-01-03 2004-11-04 Interactual Technologies, Inc., A California Cpr[P Personalization services for entities from multiple sources
WO2001050401A1 (en) * 2000-01-06 2001-07-12 Hd Media, Inc. System and method for distributing and controlling the output of media in public spaces
US20050251732A1 (en) * 2000-01-20 2005-11-10 Interactual Technologies, Inc. System, method and article of manufacture for executing a multimedia event on a plurality of client computers using a synchronization host engine
US7367042B1 (en) * 2000-02-29 2008-04-29 Goldpocket Interactive, Inc. Method and apparatus for hyperlinking in a television broadcast
US7725812B1 (en) * 2000-03-31 2010-05-25 Avid Technology, Inc. Authoring system for combining temporal and nontemporal digital media
US6628283B1 (en) * 2000-04-12 2003-09-30 Codehorse, Inc. Dynamic montage viewer
DE10021286B4 (de) * 2000-05-02 2005-03-10 Kara Can Verfahren und Vorrichtung zur Kompression und/oder Dekompression von Daten
US6505153B1 (en) * 2000-05-22 2003-01-07 Compaq Information Technologies Group, L.P. Efficient method for producing off-line closed captions
US7669238B2 (en) * 2000-06-21 2010-02-23 Microsoft Corporation Evidence-based application security
US8495679B2 (en) * 2000-06-30 2013-07-23 Thomson Licensing Method and apparatus for delivery of television programs and targeted de-coupled advertising
US7350204B2 (en) * 2000-07-24 2008-03-25 Microsoft Corporation Policies for secure software execution
WO2002015564A1 (en) * 2000-08-16 2002-02-21 Koninklijke Philips Electronics N.V. Method of playing multimedia applications
US6967725B2 (en) * 2000-10-13 2005-11-22 Lucent Technologies Inc. System and method for optical scanning
US20020099738A1 (en) * 2000-11-22 2002-07-25 Grant Hugh Alexander Automated web access for back-end enterprise systems
JP2002176638A (ja) * 2000-12-07 2002-06-21 Cyberspace:Kk データ通信システムおよび装置、データ通信方法、記録媒体
US6728681B2 (en) * 2001-01-05 2004-04-27 Charles L. Whitham Interactive multimedia book
US6792426B2 (en) * 2001-01-10 2004-09-14 International Business Machines Corporation Generic servlet for browsing EJB entity beans
US6500188B2 (en) * 2001-01-29 2002-12-31 Ethicon Endo-Surgery, Inc. Ultrasonic surgical instrument with finger actuator
US20020138593A1 (en) * 2001-03-26 2002-09-26 Novak Michael J. Methods and systems for retrieving, organizing, and playing media content
AUPR464601A0 (en) * 2001-04-30 2001-05-24 Commonwealth Of Australia, The Shapes vector
US20020188616A1 (en) * 2001-06-07 2002-12-12 Chinnici Roberto R. Database access bridge system and process
US6565153B2 (en) * 2001-07-31 2003-05-20 Johnson Controls Technology Corporation Upper back support for a seat
EP1286349A1 (en) * 2001-08-21 2003-02-26 Canal+ Technologies Société Anonyme File and content management
US7356763B2 (en) * 2001-09-13 2008-04-08 Hewlett-Packard Development Company, L.P. Real-time slide presentation multimedia data object and system and method of recording and browsing a multimedia data object
US7161599B2 (en) * 2001-10-18 2007-01-09 Microsoft Corporation Multiple-level graphics processing system and method
US20030152904A1 (en) * 2001-11-30 2003-08-14 Doty Thomas R. Network based educational system
US20030142137A1 (en) * 2002-01-28 2003-07-31 International Business Machines Corporation Selectively adjusting the order of windows in response to a scroll wheel rotation
TWI247295B (en) * 2002-03-09 2006-01-11 Samsung Electronics Co Ltd Reproducing method and apparatus for interactive mode using markup documents
US7080043B2 (en) * 2002-03-26 2006-07-18 Microsoft Corporation Content revocation and license modification in a digital rights management (DRM) system on a computing device
JP2003284003A (ja) * 2002-03-27 2003-10-03 Sanyo Electric Co Ltd デジタル映像信号再生装置
JP4436617B2 (ja) * 2002-04-26 2010-03-24 パナソニック株式会社 逆多重化装置
US7496599B2 (en) * 2002-04-30 2009-02-24 Microsoft Corporation System and method for viewing relational data using a hierarchical schema
US6928619B2 (en) * 2002-05-10 2005-08-09 Microsoft Corporation Method and apparatus for managing input focus and z-order
US20040039909A1 (en) * 2002-08-22 2004-02-26 David Cheng Flexible authentication with multiple levels and factors
US20040107179A1 (en) * 2002-08-22 2004-06-03 Mdt, Inc. Method and system for controlling software execution in an event-driven operating system environment
CA2497697C (en) * 2002-09-12 2013-07-09 Matsushita Electric Industrial Co., Ltd. Recording medium, playback device, program, playback method, and recording method
US7519616B2 (en) * 2002-10-07 2009-04-14 Microsoft Corporation Time references for multimedia objects
US7840856B2 (en) * 2002-11-07 2010-11-23 International Business Machines Corporation Object introspection for first failure data capture
US7580761B2 (en) * 2002-11-15 2009-08-25 Texas Instruments Incorporated Fixed-size cross-correlation computation method for audio time scale modification
KR100484181B1 (ko) * 2002-12-02 2005-04-20 삼성전자주식회사 멀티미디어 문서 저작 장치 및 방법
CA2414053A1 (en) * 2002-12-09 2004-06-09 Corel Corporation System and method for manipulating a document object model
JP2007524875A (ja) * 2003-01-10 2007-08-30 ネクサウェブ テクノロジーズ インコーポレイテッド ネットワーク・ベースの処理のためのシステムおよび方法
JP3840183B2 (ja) * 2003-01-10 2006-11-01 株式会社東芝 情報再生装置及び情報再生方法
US20040187157A1 (en) * 2003-03-18 2004-09-23 Yen-Hwong Chong Multifunctional integrated multimedia viewer system
US7735104B2 (en) * 2003-03-20 2010-06-08 The Directv Group, Inc. System and method for navigation of indexed video content
US7620301B2 (en) * 2003-04-04 2009-11-17 Lg Electronics Inc. System and method for resuming playback
JP2004357275A (ja) * 2003-05-07 2004-12-16 Nec Corp 映像記録装置、記録媒体、映像記録方法及びプログラム
US20040244003A1 (en) * 2003-05-30 2004-12-02 Vidiator Enterprises Inc. Apparatus and method for task scheduling for media processing
CA2528509C (en) * 2003-06-30 2015-11-24 Matsushita Electric Industrial Co., Ltd. Recording medium, reproduction device, recording method, program, and reproduction method
GB2403697B (en) * 2003-07-09 2006-05-24 Peter Gordon Martin Cycle saddle suspension assembly
KR20050022072A (ko) * 2003-08-26 2005-03-07 삼성전자주식회사 인터렉티브 데이터 처리방법 및 장치
US7511718B2 (en) * 2003-10-23 2009-03-31 Microsoft Corporation Media integration layer
US7436535B2 (en) * 2003-10-24 2008-10-14 Microsoft Corporation Real-time inking
US8065616B2 (en) * 2003-10-27 2011-11-22 Nokia Corporation Multimedia presentation editor for a small-display communication terminal or computing device
KR101076130B1 (ko) * 2003-11-12 2011-10-21 파나소닉 주식회사 기록매체, 재생장치 및 방법, 기록방법, 및 컴퓨터-판독가능한 기록매체
US7882034B2 (en) * 2003-11-21 2011-02-01 Realnetworks, Inc. Digital rights management for content rendering on playback devices
US7681114B2 (en) * 2003-11-21 2010-03-16 Bridgeborn, Llc Method of authoring, deploying and using interactive, data-driven two or more dimensional content
BRPI0407057A (pt) * 2003-11-28 2006-01-17 Sony Corp Aparelho de reprodução, método de reprodução, programa de reprodução, e, meio de gravação
US7801303B2 (en) * 2004-03-01 2010-09-21 The Directv Group, Inc. Video on demand in a broadcast network
JP2005318472A (ja) * 2004-04-30 2005-11-10 Toshiba Corp 動画像のメタデータ
US7509497B2 (en) * 2004-06-23 2009-03-24 Microsoft Corporation System and method for providing security to an application
US8201191B2 (en) * 2004-06-30 2012-06-12 Time Warner Cable Inc. Apparatus and methods for implementation of network software interfaces
JP4039417B2 (ja) * 2004-10-15 2008-01-30 株式会社日立製作所 記録再生装置
US20060123451A1 (en) * 2004-12-07 2006-06-08 Showtime Networks Inc. Enhanced content in an on-demand environment
EP1900206B1 (en) * 2005-05-18 2010-09-22 Panasonic Corporation Content reproduction apparatus

Similar Documents

Publication Publication Date Title
JP5015149B2 (ja) 対話型マルチメディア・プレゼンテーション管理の同期方法
JP4959695B2 (ja) 対話型マルチメディア・プレゼンテーション管理の同期性
JP4959696B2 (ja) 対話型マルチメディアプレゼンテーションの状態ベースタイミング
JP5015150B2 (ja) 対話式マルチメディア環境の状態変化への宣言式応答
JP4812833B2 (ja) 対話型マルチメディアプレゼンテーション管理の同期化の態様
US20070006065A1 (en) Conditional event timing for interactive multimedia presentations
JP2008545335A5 (ja)
JP5619838B2 (ja) 対話型マルチメディア・プレゼンテーション管理の同期性
JP2009500909A5 (ja)