JP4959696B2 - 対話型マルチメディアプレゼンテーションの状態ベースタイミング - Google Patents

対話型マルチメディアプレゼンテーションの状態ベースタイミング Download PDF

Info

Publication number
JP4959696B2
JP4959696B2 JP2008519403A JP2008519403A JP4959696B2 JP 4959696 B2 JP4959696 B2 JP 4959696B2 JP 2008519403 A JP2008519403 A JP 2008519403A JP 2008519403 A JP2008519403 A JP 2008519403A JP 4959696 B2 JP4959696 B2 JP 4959696B2
Authority
JP
Japan
Prior art keywords
application
presentation
interactive
time
instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008519403A
Other languages
English (en)
Other versions
JP2009500912A (ja
Inventor
ジューズバリー,アンドリュー・ウィリアム
ヘイズ,シーン
コール,オリビア
フィンガー,ジェームズ・シー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2009500912A publication Critical patent/JP2009500912A/ja
Application granted granted Critical
Publication of JP4959696B2 publication Critical patent/JP4959696B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • G06F16/4387Presentation of query results by the use of playlists
    • G06F16/4393Multimedia presentations, e.g. slide shows, multimedia albums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/14Tree-structured documents
    • G06F40/143Markup, e.g. Standard Generalized Markup Language [SGML] or Document Type Definition [DTD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Stored Programmes (AREA)

Description

マルチメディアプレイヤは、ビデオコンテンツ、オーディオコンテンツ、又はデータコンテンツの組み合わせ(「マルチメディアプレゼンテーション」)をユーザによる消費のためにレンダリングするデバイスである。DVDプレイヤ等のマルチメディアプレイヤは、現在、ビデオコンテンツの再生中にユーザ対話性があったとしても、多くのユーザ対話性を提供していない。ビデオコンテンツの再生は、一般に、再生速度の調整以外のユーザ入力を受け取るために中断される。たとえば、DVDプレイヤのユーザは、一般に、オーディオコメンタリー、俳優の経歴、ゲーム等の機能を選択して受け取ることを可能にするオプションを含んだメニューに戻るために、再生中の映画を停止しなければならない。
対話型マルチメディアプレイヤは、従来のビデオコンテンツ、オーディオコンテンツ、又はデータコンテンツと同時に対話型コンテンツの組み合わせ(「対話型マルチメディアプレゼンテーション」)をレンダリングするデバイスである(このようなデバイスには、ハードウェア、ソフトウェア、ファームウェア、又はそれらの任意の組み合わせが含まれ得る)。どのタイプのデバイスも対話型マルチメディアプレイヤとなり得るが、光媒体プレイヤ(たとえば、DVDプレイヤ)、コンピュータ、他の電子デバイス等のデバイスは、比較的安価な大量のポータブルデータストレージへのアクセスを提供することから、特に、商業的に価値のある対話型マルチメディアプレゼンテーションの作成及び消費者の需要を可能にするのに好位置に付けている。
対話型コンテンツは、一般に、単独でプレゼンテーション可能な、又は他のビデオコンテンツ、オーディオコンテンツ、若しくはデータコンテンツと同時にプレゼンテーション可能なあらゆるユーザ選択可能な可視オブジェクト又は可聴オブジェクトである。可視オブジェクトの1つの種類は、たとえば、映画に登場する人々、車、又は建物といった、ビデオコンテンツ内の一定のものを識別、且つ/又は、一定のものに追従するのに使用できる円等のグラフィカルオブジェクトである。可聴オブジェクトの1つの種類は、ユーザが、リモコン又はマウスのようなデバイスを使用して円等の可視オブジェクトを選択したことを示すために再生されるクリック音である。対話型コンテンツの他の例には、メニュー、キャプション、及びアニメーションが含まれるが、これらに限定されるものではない。
対話型マルチメディアプレイヤ及び対話型マルチメディアプレゼンテーションの投資を高めるには、対話型マルチメディアプレゼンテーションの対話型コンテンツコンポーネントを、このようなプレゼンテーションの従来のビデオコンテンツコンポーネント、オーディオコンテンツコンポーネント、又はデータコンテンツコンポーネントと正確に同期させることを確実にすることが望ましい。正確な同期は、一般に、ビデオコンテンツコンポーネント、オーディオコンテンツコンポーネント、又はデータコンテンツコンポーネントの予測可能で且つ誤動作のない再生を優先する。たとえば、円が、映画中の車の周りにプレゼンテーションされた時、その映画は、一般に、円が描かれるのを待つために一時停止すべきではなく、円は、車が移動するにつれて車に追従すべきである。
請求された主題は、特定の対話型マルチメディアプレゼンテーションシステム又はその態様の不利な点のいずれか又はすべてを解決する実施態様に限定されるものではないことが十分認識されよう。
[関連出願の表明]
本願は、2005年7月1日に出願された仮出願第60/695,944号の利益を主張する。この仮出願は、参照により本明細書に援用される。
一般に、対話型マルチメディアプレゼンテーションは、ビデオコンテンツコンポーネント及び対話型コンテンツコンポーネントを含む。ビデオコンテンツコンポーネントは、例示の目的で、映画と呼ばれるが、実際には、ビデオ、オーディオ、データ、又はそれらの任意の組み合わせとすることができる。
プレゼンテーションの対話型コンテンツコンポーネントは、タイミング信号に基づくレートで対話型コンテンツマネージャによってレンダリングするために準備され、1つ又は2つ以上のアプリケーションの形式にされる。アプリケーションは、宣言型形式又はスクリプト形式の命令を含む。1つのタイプの宣言型形式は、拡張マークアップ言語(「XML」)データ構造を含む。メディアオブジェクトのユーザへのプレゼンテーションを編成するためのアプリケーション命令、メディアオブジェクトのユーザへのプレゼンテーションをフォーマットするためのアプリケーション命令、及びメディアオブジェクトのユーザへのプレゼンテーションを多くの場合にビデオコンテンツコンポーネントと同時に同期させるためのアプリケーション命令が提供される。
本明細書で解説する方法、システム、装置、及び製品は、宣言型形式のアプリケーション命令を使用して、対話型マルチメディアプレゼンテーションの対話型コンテンツコンポーネントを再生することに関連付けられている動作をトリガする。詳細には、一定のアプリケーション命令は、プレゼンテーションの再生中に(たとえば、ユーザ入力に基づいて)状態を変更できる特定のメディアオブジェクトの特性を指定する。他のアプリケーション命令は、特性の状態変化に基づく、対話型コンテンツコンポーネントを再生することに関連付けられている1つ又は2つ以上の動作(たとえば、1つ又は2つ以上のメディアオブジェクトがレンダリング可能である時、イベント生成、スクリプト実行、又は変数値の変化)を指定する。状態変化は、アプリケーションの構造化表現に問い合わせることによって検出される。この構造化表現は、アプリケーション命令、メディアオブジェクト、及び/又は特性に関連付けられているノードを含む。状態変化が検出されると、対話型コンテンツコンポーネントを再生することに関連付けられている、指定された動作がトリガされる。
上述したように使用可能なアプリケーション命令の例には、マークアップエレメント及び属性が含まれる。メディアオブジェクトの特性は、メディアオブジェクトに関連付けられているコンテンツエレメントのスタイル属性又は非スタイル属性によって指定することができる。いくつかの役立つ属性が、1つ又は2つ以上のXMLスキーマによって定義されている。たとえば、DVDフォーラムによって公表された1つ又は2つ以上のXMLスキーマは、対話型高品位DVD映画の再生中に受け取られたユーザ入力に基づいて値を変更する属性(foreground属性、focused属性、pointer属性、actioned属性、enabled属性、及びvalue属性)を説明している。対話型コンテンツを再生することに関連付けられている動作は、タイミングエレメント内で指定することができる。このように使用できるいくつかのタイミングエレメントは、DVDフォーラムによって公表されたXMLスキーマで説明されている。他のタイミングエレメントは、同期化マルチメディア統合言語(「SMIL」)用のXMLスキーマによって定義されている。SMILは、ワールドワイドウェブコンソーシアム(「W3C」)によって公開されている。XPATH問い合わせを使用して、文書オブジェクトモデル(「DOM」)等のアプリケーションの構造化表現に問い合わせして、属性の値及びこのような値の変化を検出することができる。
この概要は、複数の概念のうちの選択したものを簡単化した形式で紹介するために提供されている。これらの概念は、詳細な説明の節でさらに説明される。この概要で説明したエレメント又はステップ以外のエレメント又はステップが可能であり、どのエレメントもステップも、必ずしも必要とされない。この概要は、請求された主題の重要な特徴も本質的な特徴も識別することを意図しておらず、請求された主題の範囲を決定することに役立つものとしての使用も意図していない。
図面を参照する。図面において、同様の数字は、同様のコンポーネントを示している。図1は、対話型マルチメディアプレゼンテーションシステム(「プレゼンテーションシステム」)100の簡単化した機能ブロック図である。プレゼンテーションシステム100は、オーディオ/ビデオコンテンツ(「AVC」)マネージャ102、対話型コンテンツ(「IC」)マネージャ104、プレゼンテーションマネージャ106、タイミング信号管理ブロック108、及びミキサ/レンダラ110を含む。一般に、設計上の選択によって、プレゼンテーションシステム100の特定の機能がどのように実施されるかが決定付けられる。このような機能は、ハードウェア、ソフトウェア、若しくはファームウェア、又はそれらの組み合わせを使用して実施することができる。
作動中、プレゼンテーションシステム100は、対話型マルチメディアプレゼンテーションコンテンツ(「プレゼンテーションコンテンツ」)120をハンドリングする。プレゼンテーションコンテンツ120は、ビデオコンテンツコンポーネント(「ビデオコンポーネント」)122及び対話型コンテンツコンポーネント(「ICコンポーネント」)124を含む。ビデオコンポーネント122及びICコンポーネント124は、一般に、AVCマネージャ102及びICマネージャ104によってそれぞれ別個のデータストリームとしてハンドリングされるが、そのようにハンドリングされなくてもよい。
また、プレゼンテーションシステム100は、プレゼンテーションコンテンツ120を再生プレゼンテーション127としてユーザ(図示せず)にプレゼンテーションすることも容易にする。再生プレゼンテーション127は、プレゼンテーションコンテンツ120に関連付けられている可視情報及び/又は可聴情報であって、ミキサ/レンダラ110によって生成され、ディスプレイ又はスピーカ(図示せず)等のデバイスを介してユーザが受け取ることができる可視情報及び/又は可聴情報を表す。解説の目的で、プレゼンテーションコンテンツ120及び再生プレゼンテーション127は、任意のフォーマットの高品位DVD映画コンテンツを表すものとする。しかしながら、プレゼンテーションコンテンツ120及び再生プレゼンテーション127は、現在既知であるか又は後に開発される任意のタイプの対話型マルチメディアプレゼンテーションとできることが十分認識されよう。
ビデオコンポーネント122は、プレゼンテーションコンテンツ120の従来のビデオコンポーネント、オーディオコンポーネント、又はデータコンポーネントを表す。たとえば、映画は、一般に、1つ又は2つ以上のバージョン(たとえば、成人観客向けバージョン及び青少年観客向けバージョン);1つ又は2つ以上のチャプタ(図示せず)が各タイトルに関連付けられている1つ又は2つ以上のタイトル131(タイトルは、プレゼンテーションマネージャ106に関連して以下でさらに解説する);1つ又は2つ以上のオーディオトラック(たとえば、映画は、サブタイトルの有無を問わず、1つ又は2つ以上の言語で再生することができる);及び、監督コメンタリー、追加映像、予告編等のエキストラフィーチャを有する。タイトルとチャプタとの相違は、単に論理的な相違にすぎないことが十分認識されよう。たとえば、知覚された単一のメディアセグメントは、単一のタイトル/チャプタの一部である可能性もあるし、複数のタイトル/チャプタで構成されている可能性もある。適用可能な論理的相違を決定するのは、コンテンツオーサリングソース次第である。また、ビデオコンポーネント122は、映画と呼ばれるが、実際は、ビデオ、オーディオ、データ、又はそれらの任意の組み合わせとすることができることも十分認識されよう。
ビデオコンポーネント122を形成するビデオ、オーディオ、又はデータのサンプル群は、クリップ123と呼ばれる(クリップ123は、ビデオコンポーネント122内、AVCマネージャ102内、及び再生リスト128内に示されている)。AVCマネージャ102を参照すると、クリップ123に関連付けられている情報が、1つ又は2つ以上のメディアソース160から受信され、復号器ブロック161において復号される。メディアソースは、ビデオ、オーディオ、又はデータの導出元又は取得元となる任意のデバイス、ロケーション、又はデータである。メディアソースの例には、ネットワーク、ハードドライブ、光媒体、代替的な物理ディスク、及び特定のビデオ、オーディオ、又はデータのストレージロケーションを参照するデータ構造が含まれるが、これらに限定されるものではない。
復号器ブロック161は、レンダリング可能なビデオコンテンツ、オーディオコンテンツ、又はデータコンテンツを、メディアソース160から受信された情報から取り出すのに使用される任意のデバイス、技法、又はステップを表す。復号器ブロック161には、たとえば、符号化器/復号器対、デマルチプレクサ、又は解読器が含まれ得る。復号器とメディアソースとの間の1対1の関係が示されているが、1つの復号器が複数のメディアソースを受け持つこともできるし、その逆も可能であることが十分認識されよう。
オーディオ/ビデオコンテンツデータ(「A/Vデータ」)132は、AVCマネージャ102によるレンダリングのために準備されてミキサ/レンダラ110へ送信されたビデオコンポーネント122に関連付けられているデータである。A/Vデータ134のフレームは、一般に、アクティブな各クリップ123について、そのクリップの一部をレンダリングしたものを含む。特定のフレームにおいてレンダリングされるクリップの正確な部分又は量は、そのクリップのビデオコンテンツ、オーディオコンテンツ、若しくはデータコンテンツの特性、又はそのクリップを符号化又は復号するのに使用されるフォーマット、技法、若しくはレート等のいくつかの因子に基づくことができる。
再びプレゼンテーションコンテンツ120を参照すると、ICコンポーネント124は、メディアオブジェクト125を含む。メディアオブジェクト125は、ユーザ選択可能な可視オブジェクト又は可聴オブジェクトであり、オプションとして、可視オブジェクト又は可聴オブジェクトをプレゼンテーションするための(アプリケーション155として示され、以下でさらに解説される)任意の命令と協力して、ビデオコンポーネント122と同時にプレゼンテーション可能である。メディアオブジェクト125は、静的なもの又は動画とすることができる。メディアオブジェクトの例には、特に、ビデオサンプル又はビデオクリップ、オーディオサンプル又はオーディオクリップ、グラフィックス、テキスト、及びそれらの組み合わせが含まれる。
メディアオブジェクト125は、1つ又は2つ以上のソース(図示せず)を発信源とする。ソースは、メディアオブジェクトの導出元又は取得元となる任意のデバイス、ロケーション、又はデータである。メディアオブジェクト125のソースの例には、ネットワーク、ハードドライブ、光媒体、代替的な物理ディスク、及び特定のメディアオブジェクトのストレージロケーションを参照するデータ構造が含まれるが、これらに限定されるものではない。メディアオブジェクト125のフォーマットの例には、ポータブルネットワークグラフィックス(「PNG」)、ジョイントフォトグラフィックエキスパートグループ(「JPEG」)、ムービングピクチャエキスパートグループ(「MPEG」)、マルチプルイメージネットワークグラフィックス(「MNG」)、オーディオビデオインタリーブ(「AVI」)、拡張マークアップ言語(「XML」)、ハイパーテキストマークアップ言語(「HTML」)、拡張HTML(「XHTML」)、拡張スタイルシート言語(「XSL」)、及びWAVが含まれるが、これらに限定されるものではない。
アプリケーション155は、プレゼンテーションシステム100がメディアオブジェクト125をユーザにプレゼンテーションするメカニズムを提供する。アプリケーション155は、データに対する所定のオペレーションを電子的に制御する任意の信号処理方法又は記憶された命令(複数可)を表す。解説の目的で、ICコンポーネント124は、3つのアプリケーション155を含むものとする。これら3つのアプリケーション155は、図2及び図3に関連して以下でさらに解説する。第1のアプリケーションは、映画に先立って著作権表示をプレゼンテーションし、第2のアプリケーションは、映画の視覚的側面と同時に、複数のユーザ選択可能なアイテムを有するメニューを提供する一定のメディアオブジェクトをプレゼンテーションし、第3のアプリケーションは、映画に登場する人又はアイテム(たとえば、人物、車、建物、又は製品)を識別し且つ/又はそれらに追従するのに使用できるグラフィックオーバレイ(円等)を提供する1つ又は2つ以上のメディアオブジェクトをプレゼンテーションする。
対話型コンテンツデータ(「ICデータ」)134は、ICマネージャ104によるレンダリングのために準備されてミキサ/レンダラ110へ送信された、ICコンポーネント124に関連付けられているデータである。各アプリケーションは、関連付けられているキュー(図示せず)を有する。このキューは、そのアプリケーションをレンダリングすることに関連付けられている1つ又は2つ以上の作業アイテム(図示せず)を保持する。
プレゼンテーションマネージャ106は、AVCマネージャ104及びICマネージャ102の双方と通信するように構成され、プレゼンテーションコンテンツ120のハンドリング及び再生プレゼンテーション127のユーザへのプレゼンテーションを容易にする。プレゼンテーションマネージャ106は、再生リスト128にアクセスすることができる。再生リスト128は、特に、ユーザにプレゼンテーション可能な時間順序列のクリップ123及びアプリケーション155(メディアオブジェクト125を含む)を含む。クリップ123及びアプリケーション155/メディアオブジェクト125は、1つ又は2つ以上のタイトル131を形成するように配置することができる。例示の目的で、1つのタイトル131を本明細書では解説する。再生リスト128は、拡張マークアップ言語(「XML」)文書を使用して実施することもできるし、別のデータ構造を使用して実施することもできる。
プレゼンテーションマネージャ106は、再生リスト128を使用して、タイトル131のプレゼンテーション時刻表を確認する。概念的には、プレゼンテーション時刻表130は、特定のクリップ123及びアプリケーション155がユーザにプレゼンテーション可能である時の、タイトル131内における時刻を示す。サンプルのプレゼンテーション時刻表130は、クリップ123及びアプリケーション155のプレゼンテーション間の例示的な関係を示している。このサンプルのプレゼンテーション時刻表130は、図2に関連して、図示して解説する。一定の状況では、ビデオコンテンツ時刻表(「ビデオ時刻表」)142及び対話型コンテンツ時刻表(「IC時刻表」)144を確認するために、再生リスト128及び/又はプレゼンテーション時刻表130を使用することも有益である。
プレゼンテーションマネージャ106は、AVCマネージャ102及びICマネージャ104に情報を提供する。この情報には、プレゼンテーション時刻表130についての情報が含まれるが、これに限定されるものではない。プレゼンテーションマネージャ206からの入力に基づいて、AVCマネージャ102は、A/Vデータ132をレンダリングのために準備し、ICマネージャ104は、ICデータ134をレンダリングのために準備する。
タイミング信号管理ブロック108は、さまざまなタイミング信号158を生成する。これらのタイミング信号158は、AVCマネージャ102によるA/Vデータ132の準備及び生成のタイミング並びにICマネージャ104によるICデータ134の準備及び生成のタイミングを制御するのに使用される。詳細には、タイミング信号158は、A/Vデータ132及びICデータ134のフレームレベルの同期を達成するのに使用される。タイミング信号管理ブロック108及びタイミング信号158の詳細は、図4に関連して以下でさらに解説する。
ミキサ/レンダラは、A/Vデータ132をビデオプレーン(図示せず)にレンダリングし、ICデータ134をグラフィックスプレーン(図示せず)にレンダリングする。グラフィックスプレーンは、必ずしもそうではないが、一般には、ユーザ用の再生プレゼンテーション127を生成するように、ビデオプレーン上にオーバーレイされている。
図1の参照を続けながら、図2は、再生リスト128内のタイトル131のサンプルのプレゼンテーション時刻表130の図的な説明図である。時間は、横軸220上に示されている。ビデオコンポーネント122についての情報(クリップ123が示されている)及びICコンポーネント124についての情報(メディアオブジェクト125をプレゼンテーションするアプリケーション155が示されている)が、縦軸225上に示されている。ビデオコンポーネント122に関して、第1のビデオクリップ(「ビデオクリップ1」)230及び第2のビデオクリップ(「ビデオクリップ2」)250の2つのクリップ123が示されている。
ICコンポーネント124に関しては、図1に関連して上述したように、第1のアプリケーションは、著作権表示260を含む1つ又は2つ以上のメディアオブジェクト(たとえば、画像及び/又はテキスト)をプレゼンテーションすることを担当する。第2のアプリケーションは、メニュー280のユーザ選択可能アイテム(たとえば、関連付けられているテキスト又はグラフィックスを有するボタン)を提供する一定のメディアオブジェクトをプレゼンテーションすることを担当する。第3のアプリケーションは、グラフィックオーバーレイ290を提供する1つ又は2つ以上のメディアオブジェクトをプレゼンテーションすることを担当する。図示するように、メニュー280は、ビデオクリップ1 230及びビデオクリップ2 250と同時に表示され、グラフィックオーバーレイ290は、ビデオクリップ1 230及びメニュー280と同時に表示可能である。
タイトル131がユーザにプレゼンテーション可能である横軸220に沿った特定の時間量は、タイトル131の再生継続期間292と呼ばれる。再生継続期間292内の特定の時間は、タイトル時間と呼ばれる。4つのタイトル時間(「TT」)、すなわち、TT1 293、TT2 294、TT3 295、及びTT4 296がプレゼンテーション時刻表130に示されている。タイトルは1回再生することもできるし、(たとえば、ループ形式で)2回以上再生することもできるので、再生継続期間292は、タイトル131の1回の反復に基づいて決定される。再生継続期間292は、任意の所望の基準値を基準にして決定することができる。この基準値には、所定の再生速度(たとえば、通常再生速度、すなわち1倍再生速度)、所定のフレームレート、又は所定のタイミング信号ステータスが含まれるが、これらに限定されるものではない。再生速度、フレームレート、及びタイミング信号は、図4に関連して以下でさらに解説する。
表示技法、並びに再生シーケンス並びに各タイトルについてのクリップ及びメディアオブジェクトの間のタイミング関係に関する特定のルール等、実施態様特有の因子が、タイトルの再生継続期間及びその再生継続期間におけるタイトル時間の正確な値に影響を与える場合があることが十分認識されよう。再生継続期間及びタイトル時間という用語は、このようなすべての実施態様特有の詳細を包含することを意図している。
ICコンポーネント124に関連付けられているコンテンツがその時刻/時間内においてプレゼンテーション可能であるタイトル時間は、一般に、あらかじめ定められているが、ユーザがこのようなコンテンツと対話する時に行われる動作は、再生プレゼンテーション127が再生されている間のユーザ入力に基づいてのみ決定できることが十分認識されよう。たとえば、ユーザは、再生プレゼンテーション127の再生中に、一定のアプリケーション、メディアオブジェクト、及び/又はそれらに関連付けられている追加コンテンツを選択したり、アクティブ化したり、非アクティブ化したりすることができる。
再生継続期間292内の他の時刻及び/又は継続期間も、本明細書で定義及び解説される。ビデオプレゼンテーション間隔240は、ビデオコンポーネント122に関連付けられている特定のコンテンツがその間に再生可能である再生継続期間292の開始時刻及び終了時刻によって画定される。たとえば、ビデオクリップ1 230は、タイトル時間TT2 294とTT4 296との間のプレゼンテーション間隔240を有し、ビデオクリップ2 250は、タイトル時間TT3 295とTT4 296との間のプレゼンテーション間隔240を有する。アプリケーションプレゼンテーション間隔、アプリケーション再生継続期間、ページプレゼンテーション間隔、及びページ継続期間も、図3に関連して以下で定義及び解説される。
図1及び図2の参照を続けながら、図3は、単一のアプリケーション155の機能ブロック図である。アプリケーション155は、一般に、メディアオブジェクト260、280、及び290(図2に図示)をプレゼンテーションすることを担当するアプリケーションを代表している。アプリケーション155は、コンテンツ命令302、タイミング命令306、スクリプト命令308、スタイル命令310、メディアオブジェクト命令312、及びイベント命令360を含む命令304(以下でさらに解説)を含む。アプリケーション155は、自身に関連付けられている0個又は1つ以上の資源パッケージデータ構造340(以下でさらに解説)、アプリケーション再生継続期間320、及び1つ又は2つ以上のアプリケーションプレゼンテーション間隔321を有する。
アプリケーション再生継続期間320は、アプリケーション155に関連付けられているメディアオブジェクト125が再生プレゼンテーション127の受け手にプレゼンテーション可能であり且つ/又は当該受け手によって選択可能である再生継続期間292の量(一部又は全部)に関する特定の時間量である。図2との関連では、たとえば、著作権表示260を担当するアプリケーション155は、TT1 293とTT2 294との間の時間量から成るアプリケーション再生継続期間を有する。メニュー280を担当するアプリケーションは、TT2 294とTT4 296との間の時間量から成るアプリケーション再生継続期間を有する。グラフィカルオーバーレイ290を担当するアプリケーションは、TT2 294とTT3 295との間の時間量から成るアプリケーション再生継続期間を有する。
特定のアプリケーションに関連付けられているアプリケーション再生継続期間320がプレゼンテーション時刻表上で概念化された時に取得される開始タイトル時間及び終了タイトル時間によって画定される間隔は、アプリケーションプレゼンテーション間隔321と呼ばれる。たとえば、図2を参照すると、著作権表示260を担当するアプリケーションは、TT1 293で開始してTT2 294で終了するアプリケーションプレゼンテーション間隔を有し、メニュー280を担当するアプリケーションは、TT2 294及びTT4 296で開始するアプリケーションプレゼンテーション間隔を有し、グラフィックオーバーレイ290を担当するアプリケーションは、TT2 294で開始してTT3 295で終了するアプリケーションプレゼンテーション間隔を有する。
再び図3を参照すると、場合によっては、アプリケーション155は、2つ以上のページを有する場合がある。ページは、特定のアプリケーション再生継続期間320及び/又はアプリケーションプレゼンテーション間隔321内で同時にプレゼンテーション可能な1つ又は2つ以上のメディアオブジェクトの論理グループである。初期ページ330及び後続ページ(複数可)335が示されている。各ページは、それ自身のページ継続期間を有する。ページ継続期間は、特定のページに関連付けられているメディアオブジェクトがユーザにプレゼンテーション可能である(且つ/又はユーザによって選択可能である)、アプリケーション再生継続期間320の量(一部又は全部)に関する特定の時間量である。図示するように、初期ページ330はページ継続期間332を有し、後続ページ(複数可)335はページ継続期間337を有する。
特定のページに関連付けられているメディアオブジェクトは、同時にプレゼンテーションすることもできるし、連続的にプレゼンテーションすることもできるし、それらの組み合わせでプレゼンテーションすることもできる。図示するように、初期ページ330は、関連付けられている初期メディアオブジェクト(複数可)331を有し、後続ページ335は、関連付けられているメディアオブジェクト(複数可)336を有する。特定のページに関連付けられているページ継続期間がプレゼンテーション時刻表(図2参照)上で概念化された時に取得される開始タイトル時間及び終了タイトル時間によって画定される間隔は、ページプレゼンテーション間隔343と呼ばれる。ページプレゼンテーション間隔343は、特定のメディアオブジェクト331、336がプレゼンテーション可能であるアプリケーションプレゼンテーション間隔321の部分間隔である。特定のメディアオブジェクトプレゼンテーション間隔345も、ページプレゼンテーション間隔343内に画定することができる。
所与のタイトルに関連付けられているアプリケーション及びページの個数、並びに、各アプリケーション又は各ページに関連付けられているメディアオブジェクトの個数は、一般に、設計上の選択事項である相違である。たとえば、特定の初期ページの指定が必要でなかったり、アプリケーションの2つ以上のページを同時にプレゼンテーションすることができたり、アプリケーションをページなしで(又は、何も含まない初期ページで)起動できたりする。アプリケーションのページは、アプリケーション及びスクリプトが完全な状態に保たれている間にロード又はアンロードすることができる。アプリケーションの実行中にメモリにロードされる、そのアプリケーションに関連付けられている資源の個数又は量を管理する(たとえば、制限する)ことが望ましいときは、複数のページを使用することができる。アプリケーションの資源は、そのアプリケーションによって使用されるメディアオブジェクトに加えて、それらのメディアオブジェクトをレンダリングするための命令304も含む。たとえば、複数のページを有するアプリケーションがプレゼンテーション可能であるとき、そのアプリケーションの現在プレゼンテーション可能なページに関連付けられている資源のみをメモリにロードすることのみが可能な場合がある。
資源パッケージデータ構造340は、(オプションとして、アプリケーションの実行前に)アプリケーション資源のメモリ内へのロードを容易にするのに使用される。資源パッケージデータ構造340は、そのアプリケーションの資源が配置されているメモリロケーションを参照する。資源パッケージデータ構造340は、該資源パッケージデータ構造340が参照する資源と共に又はその資源とは別に任意の望ましいロケーションに記憶することができる。たとえば、資源パッケージデータ構造340は、高品位DVD等の光媒体上において、ビデオコンポーネント122とは別のエリアに配置することができる。代替的に、資源パッケージデータ構造340は、ビデオコンポーネント122内に埋め込むこともできる。さらなる代替形態では、資源パッケージデータ構造は、遠隔に配置することもできる。遠隔ロケーションの一例は、ネットワーク接続されたサーバである。アプリケーション実行用の資源のアプリケーション間での遷移をハンドリングすることに関する話題は、本明細書では詳細に解説しない。
再びアプリケーション155自体を参照すると、命令304は、実行されると、ユーザ入力に基づいて、アプリケーション155に関連付けられているメディアオブジェクト125のレンダリングに関係したタスクを遂行する。1つのタイプのユーザ入力(又はその結果)は、ユーザイベントである。ユーザイベントは、ICコンポーネント124に関係する、再生プレゼンテーション127の受け手によって起動された動作又は出来事である。ユーザイベントは、必ずしもそうではないが、一般には非同期である。ユーザイベントの例には、メニュー280内のボタンの選択又はグラフィカルオーバーレイ290に関連付けられている円の選択等、再生プレゼンテーション127内におけるメディアオブジェクトとのユーザ対話が含まれるが、これに限定されるものではない。このような対話は、キーボード、リモコン、マウス、スタイラス、又は音声コマンドを含めて、現在知られているか又は後に開発される、任意のタイプのユーザ入力デバイスを使用して行うことができる。アプリケーション155は、システムイベント、文書オブジェクトモデルイベント、他のタイプのイベント等、ユーザイベント以外のイベントに応答できることが十分認識されよう。
一実施態様では、命令304は、コンピュータ可読媒体にコード化されたコンピュータ実行可能命令である(図8及び図9に関連して、以下でさらに解説)。本明細書で述べる例では、命令304は、スクリプト308又はマークアップエレメント302、306、310、312、360のうちのいずれかを使用して実施される。スクリプト又はマークアップエレメントのいずれかを単独で使用することができるが、一般には、スクリプト及びマークアップエレメントの組み合わせによって、高品位DVD映画の包括的な一組の対話機能の作成が可能になる。
スクリプト308は、命令型プログラミング言語等の非宣言型プログラミング言語で記述された命令304を含む。命令型プログラミング言語は、プロセッサによって遂行されるコマンドシーケンスの点から計算を記述する。スクリプト308が使用されるほとんどの場合において、スクリプトは、ユーザイベントに応答するために使用される。しかしながら、スクリプト308は、マークアップエレメントのみを使用しただけでは容易に又は効率的に実施されない問題のハンドリング等、他の状況にも役立つ。このような状況の例には、システムイベント、状態管理、及び資源管理(たとえば、キャッシュされた資源又は永続的に記憶された資源へのアクセス)が含まれる。一実施態様では、スクリプト308は、ECMAインターナショナルによってECMA−262仕様に定義されたECMAScriptである。ECMA−262の分類に入る一般的なスクリプトプログラミング言語には、JavaScript及びJScriptが含まれる。いくつかの設定では、ECMA−327等、ECMAScript262のサブセットを使用してスクリプト308を実施することが望ましい場合がある。
マークアップエレメント302、306、310、312、及び360は、拡張マークアップ言語(「XML」)等の宣言型プログラミング言語で記述された命令304を表す。XMLでは、エレメントは、XML文書内において、開始タグ及び終了タグを使用して定義される情報の論理ユニットである。XML文書は、エンティティと呼ばれる(コンテナとも呼ばれる)ストレージユニットで構成されるデータオブジェクトである。これらのエンティティは、パースされたデータ又はパースされていないデータのいずれかを含む。パースされたデータは文字で構成される。文字の或るものは文字データを形成し、また或るものはマークアップを形成する。マークアップは、文書のストレージレイアウト及び論理構造の記述をコード化する。XML文書には1つのルートエレメントがある。ルートエレメントのどの部分も、他のどのエレメントのコンテンツにも現れない。他のすべてのエレメントについては、開始タグ及び終了タグが、互いの内部にネストされた他のエレメントのコンテンツ内にある。
XMLスキーマは、XML文書のクラスのシンタックス(複数可)の定義である。いくつかのXMLスキーマは、ワールドワイドウェブコンソーシアム(「W3C」)によって定義されている。他のXMLスキーマは、高品位ビデオ及び他の使用のためのDVD仕様に準拠したXML文書と共に使用するためのDVDフォーラムによって公表されている。高品位DVD映画の他のスキーマに加えて、他の対話型マルチメディアプレゼンテーションのスキーマも可能であることが十分認識されよう。
高いレベルにおいて、XMLスキーマは、(1)グローバルエレメント宣言、及び、(2)タイプ定義を含む。グローバルエレメント宣言は、エレメント名をエレメントタイプに関連付けるものである。タイプ定義は、そのタイプのエレメントについての属性、サブエレメント、及び文字データを定義するものである。エレメントの属性は、名前/値の対を使用して、そのエレメントの特定のプロパティを指定する。1つの属性は、単一のエレメントプロパティを指定する。
コンテンツエレメント302は、イベントエレメント360を含むことができ、アプリケーション155によってユーザにプレゼンテーション可能な特定のメディアオブジェクトエレメント312を識別するのに使用される。次に、メディアオブジェクトエレメント312は、一般に、特定のメディアオブジェクト125を定義するデータが配置されるロケーションを指定する。このようなロケーションは、たとえば、ローカルストレージ又はリモートストレージのロケーションとすることができる。このロケーションには、光媒体上のロケーション、又は、インターネット、プライベート管理ネットワーク、ワールドワイドウェブ等の有線若しくは無線の公衆ネットワーク上のロケーション若しくはプライベートネットワーク上のロケーションが含まれる。メディアオブジェクトエレメント312によって指定されるロケーションは、資源パッケージデータ構造340への参照子等、ロケーションへの参照子とすることもできる。このように、メディアオブジェクト125のロケーションは、間接的に指定することができる。
タイミングエレメント306は、特定のコンテンツエレメント302が特定のアプリケーション155によってユーザにプレゼンテーション可能である時刻又は時間間隔を指定するのに使用される。タイミングエレメントの例には、XML文書の時間コンテナ内のparエレメント、timingエレメント、又はseqエレメントが含まれる。いくつかのタイミングエレメントは、同期化マルチメディア統合言語(「SMIL」)についてW3Cにより公開された標準規格により定義されている。他のタイミングエレメントは、DVDフォーラムによって公開された標準規格(たとえば、高品位ビデオ用のDVD仕様)によって定義されている。これらの標準規格は、あらゆる目的で本明細書に参照により援用される。宣言型言語文書と共に使用するための他のタイミングモデルに関連付けられている異なるタイミングエレメントも可能である。
スタイルエレメント310は、一般に、特定のアプリケーションによってユーザにプレゼンテーション可能な特定のコンテンツエレメント302の出現を指定するのに使用される。一定のスタイルエレメントは、W3C及び/又はDVDフォーラムによって1つ又は2つ以上の公開仕様で定義されている。W3Cによって公開された仕様の例には、XSLに関する仕様及びカスケーディンスタイルシート(「CSS」)に関する仕様が含まれる。
イベントを定義するのに使用されるか又はイベントに応答するのに使用されるイベントエレメント360は、コンテンツエレメント320、タイミングエレメント306、又はスタイルエレメント310を表す。イベントは、ユーザイベント、システムイベント、文書オブジェクトモデルイベント、他のイベント(高品位DVD映画に関連付けられているアプリケーションで使用するための1つ又は2つ以上のXMLスキーマにより指定されるか又はそれらのXMLスキーマと共に使用されるイベント等)等である。このようなイベントタグは、W3Cによって指定されたイベントタグから導出することもできるし、W3Cによって指定されたイベントタグに類似したものとすることもできるし、或いは、W3Cによって指定されたイベントタグとは異なるものとすることもできる。
マークアップエレメント302、306、310、及び360は、それらに関連付けられているメディアオブジェクトエレメント312/メディアオブジェクト125の一定のプロパティを指定するのに使用可能な属性を有する。一実施態様では、これらの属性/プロパティは、1つ又は2つ以上のクロック又はタイミング信号の値を表す(図4に関連して以下でさらに解説)。時刻又は時間継続期間を表すプロパティを有するマークアップエレメントの属性を使用することは、ユーザが再生プレゼンテーション127を受け取っている間、ICコンポーネント124とビデオコンポーネント122との間の同期を達成する1つの方法である。別の実施態様(図6に関連して以下でさらに解説)では、これらの属性/プロパティの構造化表現が定期的に問い合わせされ、それらの構造化表現の特定の値又は変化が、再生プレゼンテーション127内でICコンポーネント124を再生することに関連付けられている1つ又は2つ以上の動作をトリガするのに使用可能である。
マークアップエレメントを含むサンプルのXML文書を以下で述べる(スクリプト308は示されていない)。サンプルのXML文書は、コンテンツエレメント302上で動画のトリミング(crop animation)を行うためのスタイルエレメント310及びタイミングエレメント306を含む。コンテンツエレメント302は、「id」と呼ばれるメディアオブジェクトエレメント312を参照する。「id」メディアオブジェクトエレメントに関連付けられているメディアオブジェクト125を定義するデータのロケーションは示されていない。以下のサンプルのXML文書は、例示の目的で提供されたものであり、構文的には適法でない場合があることが十分認識されよう。
サンプルのXML文書は、「root」と呼ばれるルートエレメントから始まる。ルートエレメントに続いて、数個の名前空間「xmlns」フィールドが、このサンプルのXML文書のシンタックスを定義するさまざまなスキーマ及びその中のコンテナを見つけることができるワールドワイドウェブ上のロケーションを参照する。高品位DVD映画と共に使用するためのXML文書の関連では、たとえば、名前空間フィールドは、DVDフォーラムに関連付けられているウェブサイトを参照することができる。
「id」と呼ばれる1つのコンテンツエレメント302は、「body」とラベル付けされたタグによって記述されるコンテナ内に定義される。コンテンツエレメント「id」に関連付けられているスタイルエレメント310(この例では、ラベル「styling」の下のエレメント)は、「head」とラベル付けされたタグによって記述されるコンテナ内に定義される。タイミングエレメント306(ラベル「timing」の下のエレメント)も、「head」とラベル付けされたタグによって記述されるコンテナ内に定義される。
Figure 0004959696
Figure 0004959696
図1〜図3を続けて参照しながら、図4は、タイミング信号管理ブロック108及びタイミング信号158のさまざまなコンポーネントをより詳細に示す簡単化した機能ブロック図である。
タイミング信号管理ブロック108は、プレゼンテーションシステム100内の特定の時刻又は時間継続期間を決定するのに使用されるクロック及び/又はタイミング信号のハンドリングを担当する。図示するように、連続的なタイミング信号401が、クロックソース402によって所定のレートで生成される。クロックソース402は、汎用コンピュータ又は専用電子デバイス等の処理システムに関連付けられているクロックとすることができる。クロックソース402によって生成されたタイミング信号401は、一般に、現実世界の時計が変化するように絶えず変化し、実時間の1秒以内に、クロックソース402は、所定のレートでタイミング信号401の1秒分を生成する。タイミング信号401は、ICフレームレート計算機404、A/Vフレームレート計算機406、時間基準(time reference)計算機408、及び時間基準計算機490に入力される。
ICフレームレート計算機404は、タイミング信号401に基づいてタイミング信号405を生成する。タイミング信号405は、「ICフレームレート」と呼ばれる。このICフレームレートは、ICデータ134のフレームがICマネージャ104によって生成されるレートを表す。ICフレームレートの1つの例示的な値は、毎秒30フレームである。ICフレームレート計算機404は、タイミング信号401のレートを増減させて、タイミング信号405を生成することができる。
ICデータ134のフレームは、一般に、有効な各アプリケーション155及び/又はそのアプリケーションの有効な各ページについて、関連のあるユーザイベントに従い、その有効なアプリケーション及び/又はページに関連付けられている各メディアオブジェクト125のレンダリングを含む。例示の目的で、有効なアプリケーションは、プレゼンテーション時刻表130に基づいて、再生継続期間292の現在のタイトル時間が含まれるアプリケーションプレゼンテーション間隔321を有するアプリケーションである。アプリケーションは、2つ以上のアプリケーションプレゼンテーション間隔を有することができることが十分認識されよう。また、ユーザ入力又は資源の可用性に基づくアプリケーションの状態について本明細書では、特定の区別を行なっていないことも十分認識されよう。
A/Vフレームレート計算機406も、タイミング信号401に基づいて、タイミング信号、すなわちタイミング信号407を生成する。タイミング信号407は、「A/Vフレームレート」と呼ばれる。このA/Vフレームレートは、A/Vデータ132のフレームがAVCマネージャ102によって生成されるレートを表す。A/Vフレームレートは、ICフレームレート405と同じであってもよいし、異なってもよい。A/Vフレームレートの1つの例示的な値は、毎秒24フレームである。A/Vフレームレート計算機406は、タイミング信号401のレートを増減させて、タイミング信号407を生成することができる。
クロックソース470は、タイミング信号471を生成する。タイミング信号471は、クリップ123に関連付けられている情報がメディアソース(複数可)161から生成されるレートを統制する。クロックソース470は、クロック402と同じクロックとすることもできるし、クロック402と同じクロックに基づくこともできる。代替的に、クロック470及び402は、全く異なったものとすることもでき、且つ/又は、異なるソースを有することもできる。クロックソース470は、再生速度入力480に基づいてタイミング信号471のレートを調整する。再生速度入力480は、再生プレゼンテーション127の再生速度に影響を与える、受け取られたユーザ入力を表す。再生速度は、たとえば、ユーザが映画の或る部分から別の部分へジャンプした時(「トリック再生」と呼ばれる)、又は、ユーザが映画を一時停止、低速早送り、高速早送り、低速巻き戻し、又は高速巻き戻しをした時に、影響を受ける。トリック再生は、メニュー280(図2に図示)から選択を行うことにより達成することもできるし、他の方法で達成することもできる。
時間基準452は、アクティブなクリップ123に関連付けられている特定のプレゼンテーション間隔240内で経過した時間量を表す。本明細書での解説の目的で、アクティブなクリップは、再生継続期間292の現在のタイトル時間が含まれるプレゼンテーション間隔240を有するクリップである。時間基準452は、「経過クリップ再生時間(複数可)」と呼ばれる。時間基準計算機454は、時間基準452を受け取って、メディア時間基準455を生成する。メディア時間基準455は、1つ又は2つ以上の時間基準452に基づいて経過した再生継続期間292の総量を表す。一般に、2つ以上のクリップが同時に再生されている時、メディア時間基準455を生成するのに、1つの時間基準452しか使用されない。メディア時間基準455を求めるのに使用され、且つ、メディア時間基準455を複数のクリップに基づいてどのように求めるかを決定するのに使用される特定のクリップは、実施の選択事項である。
時間基準計算機408は、タイミング信号401、メディア時間基準455、及び再生速度入力480を受け取って、タイトル時間基準409を生成する。タイトル時間基準409は、時間基準計算機408への入力のうちの1つ又は2つ以上に基づいて再生継続期間292内で経過した総時間量を表す。
時間基準計算機490は、タイミング信号401及びタイトル時間基準409を受け取って、アプリケーション時間基準(複数可)492及びページ時間基準(複数可)494を生成する。単一のアプリケーション時間基準492は、連続的なタイミング信号401に関して、特定のアプリケーション再生継続期間320(図3に関連して図示して解説)の経過時間量を表す。アプリケーション時間基準492は、現在のタイトル時間が特定のアプリケーションのアプリケーションプレゼンテーション間隔321に含まれることをタイトル時間基準409が示しているときに求められる。アプリケーション時間基準492は、アプリケーションプレゼンテーション間隔321の完了時にリセットされる(たとえば、非アクティブになるか又は再起動する)。アプリケーション時間基準492は、ユーザイベントへの応答や、トリック再生が行われた時等の他の状況においてもリセットすることができる。
ページ時間基準494は、連続的なタイミング信号401に関して、単一のページ再生継続期間332、337の経過時間量を表す(同様に、図3に関連して図示して解説)。アプリケーションの特定のページのページ時間基準494は、現在のタイトル時間が適用可能ページプレゼンテーション間隔343に含まれることをタイトル時間基準409が示しているときに求められる。ページプレゼンテーション間隔は、アプリケーションプレゼンテーション間隔321の部分間隔である。ページ時間基準(複数可)494は、適用可能ページプレゼンテーション間隔(複数可)343の完了時にリセットすることができる。また、ページ時間基準494は、ユーザイベントへの応答、又はトリック再生が行われた時等の他の状況においてもリセットすることができる。メディアオブジェクトプレゼンテーション間隔345は、アプリケーションプレゼンテーション間隔321及び/又はページプレゼンテーション間隔343の部分間隔とすることができ、これらの間隔も画定可能であることが十分認識されよう。
表1は、プレゼンテーションシステム100による再生プレゼンテーション127の再生中の例示的な出来事と、アプリケーション時間基準492、ページ時間基準494、タイトル時間基準409、及びメディア時間基準455に対するこのような出来事の影響とを示している。
Figure 0004959696
図5は、アプリケーション時間基準492、ページ時間基準(複数可)494、タイトル時間基準409、及びメディア時間基準455に対する、再生プレゼンテーション127の再生中の一定の出来事502の影響をより詳細に示す概略図である。出来事502及びその影響は、タイミング信号401等の連続的なタイミング信号の値を基準にして示されている。別段の指定のない限り、高品位DVD映画の特定のタイトルが、通常速度で再生されており、3つの連続してプレゼンテーション可能なページを有する単一のアプリケーションがユーザ対話性を提供する。
映画は、タイミング信号が0の値を有する時に再生を開始する。タイミング信号が10の値を有する時、アプリケーションは有効となり、アクティブになる。アプリケーション時間492、及び、アプリケーションのページ1に関連付けられているページ時間494は、0の値とする。ページ2及び3は非アクティブである。タイトル時間409及びメディア時間455は共に、10の値を有する。
アプリケーションのページ2が、タイミング信号値15でロードされる。アプリケーション時間及びページ1の時間は5の値を有する一方、タイトル時間及びメディア時間は15の値を有する。
タイミング信号が20の値を有する時に、アプリケーションのページ3がロードされる。アプリケーション時間は10の値を有し、ページ2の時間は5の値を有し、ページ1の時間は非アクティブである。タイトル時間及びメディア時間は20の値を有する。
映画は、タイミング信号値22で一時停止する。アプリケーション時間は12の値を有し、ページ3の時間は2の値を有し、ページ1及び2は非アクティブである。タイトル時間及びメディア時間は22の値を有する。映画は、タイミング信号値24で再開する。この時、アプリケーション時間は14の値を有し、ページ3の時間は4の値を有し、タイトル時間及びメディア時間は22の値を有する。
タイミング信号値27において、新しいクリップが開始する。アプリケーション時間は17の値を有し、ページ3の時間は7の値を有し、タイトル時間は25の値を有し、メディア時間は0にリセットされる。
ユーザが、タイミング信号値32でアプリケーションを非アクティブにする。アプリケーション時間は22の値を有し、ページ時間は12の値を有し、タイトル時間は30の値を有し、メディア時間は5の値を有する。
タイミング信号値39において、ユーザは、同じクリップの別の部分への巻き戻しであるジャンプを行う。アプリケーションは、ジャンプ先のロケーションで有効であるものとし、その後まもなくして再びアクティブになる。アプリケーション時間は0の値を有し、ページ1の時間は0の値を有し、他のページは非アクティブであり、タイトル時間は27の値を有し、メディア時間は2の値を有する。
タイミング信号値46において、ユーザは、映画の再生速度を変更して、通常速度の2倍の高速早送りを行う。高速早送りは、タイミング信号値53まで続く。図示するように、アプリケーション時間及びページ時間は、連続的なタイミング信号と共に一定のペースで変化し続け、映画の再生速度の変化による影響を受けない一方、タイトル時間及びメディア時間は、映画の再生速度に比例して変化する。アプリケーションの特定のページがロードされた時は、タイトル時間409及び/又はメディア時間455に関係していることに留意すべきである(図3に関連したアプリケーションプレゼンテーション間隔(複数可)321及びページプレゼンテーション間隔(複数可)343の解説を参照)。
タイミング信号値48において、新しいタイトルが開始し、タイトル時間409及びメディア時間455は、0の値にリセットされる。初期タイトルを基準にすると、これは、タイトル時間が62の値を有し、且つ、メディア時間が36の値を有する時に行われる。アプリケーション時間492及びページ時間494のリセットが、タイトル時間409及びメディア時間455のリセットに続く。
さまざまな時刻表、クロックソース、タイミング信号、及びタイミング信号基準にアクセスできることによって、プレゼンテーションシステム100が、再生プレゼンテーション127内でICデータ124及びA/Vデータ132のフレームレベルの同期を達成し、こうようなフレームレベルの同期をユーザ対話期間中に維持する能力が高められる。
図1〜図4の参照を続けながら、図6は、プレゼンテーションシステム100等の対話型マルチメディアプレゼンテーションシステムが、プレゼンテーションコンテンツ120/再生プレゼンテーション127のICコンポーネント124及びビデオコンポーネント122等の対話型マルチメディアプレゼンテーションの対話型コンポーネント及びビデオコンポーネントを同期してプレゼンテーションする能力を高めるための1つの方法のフローチャートである。この方法は、ICコンポーネント124を再生することに関連付けられている一定の動作を条件付きでトリガする宣言型形式の一定のアプリケーション命令を使用することを伴う。これらの動作は、(たとえば、ユーザ入力に基づいて)対話型マルチメディアプレゼンテーションの再生中に1つ又は2つ以上のメディアオブジェクトの1つ又は2つ以上の特性の状態に基づいてトリガされる。
この方法は、ブロック600で開始し、ブロック602に続く。ブロック602において、宣言型言語命令を有するアプリケーションがアクセスされる。このアプリケーションの第1の命令は、1つ又は2つ以上のメディアオブジェクトの1つ又は2つ以上の特性を指定する。対話型マルチメディアプレゼンテーションの再生中、特性(複数可)は、複数の状態を前提とすることができる。第2の命令は、特性(複数可)の状態変化(複数可)に基づいて、プレゼンテーションの対話型コンテンツを再生することに関連付けられている1つ又は2つ以上の動作を指定する。
ブロック604において、アプリケーションの構造化表現が、状態変化(複数可)を検出するために定期的に問い合わせされる。関連のある状態変化が検出されたと菱形606で判断されると、第2の命令によって指定された動作(複数可)がブロック608でトリガされ、ブロック604の定期的な問い合わせが続く。関連のある状態変化が菱形606で検出されない場合、ブロック604の定期的な問い合わせが続く。
ブロック602を参照して、1つ又は2つ以上のメディアオブジェクトの1つ又は2つ以上の特性を指定する第1の命令を、プレゼンテーションシステム100との関連で解説する。コンテンツエレメント302、スタイルエレメント310、メディアオブジェクトエレメント312、又はイベントエレメント360及びそれらの属性等のアプリケーション命令304(図3に図示)は、再生プレゼンテーション127の再生中に前提とすることができる特定のメディアオブジェクト125及び関連付けられている特性状態(たとえば、属性の値)を指定する機能を有する。高品位DVD映画アプリケーションに現れるマークアップエレメントと共に使用するための一定の属性は、DVDフォーラムによって公表された1つ又は2つ以上のXMLスキーマにより定義されている。このような属性の例には、スタイル属性、並びに、foreground、focused、pointer、actioned、enabled、及びvalueの属性(本明細書では「ディスプレイ属性」と呼ぶ)が含まれる。
一定のスタイル属性及びディスプレイ属性をユーザイベントに関して定義することができる。スタイル属性又はディスプレイ属性の値に影響を与えることができる1つのタイプのユーザイベントは、ジェスチャイベントである。ジェスチャイベントは、再生プレゼンテーション127内におけるメディアオブジェクトのプレゼンテーションに影響を与える任意のユーザ起動イベント(キーボード、リモコン、又はマウス等のデバイスからの入力等)である。一般には特徴的な状態及び属性の値、並びに、詳細にはスタイル属性又はディスプレイ属性の値は、交番状態、すなわち2値状態を前提とすることができる。このような交番状態又は2値状態の例には、真又は偽、オン又はオフ、0又は1等が含まれる。代替的に、特徴的な状態及び属性の値は、文字列値又は数値等の一般的な値を前提とすることもできる。さらなる代替形態として、特徴的な状態及び属性の値は、所定の色の集合内の特定の色を表す値等、所定の集合内の値を前提とすることもできる。
再びブロック602を参照して、対話型コンテンツを再生することに関連付けられている1つ又は2つ以上の動作を指定する第2の命令も、プレゼンテーションシステム100との関連で解説する。タイミングエレメント306等のアプリケーション命令304(図3に図示)内では、特徴的な状態の変化に基づいてトリガすることができる、ICコンポーネント124を再生することに関連付けられている1つ又は2つ以上の動作が指定される。このような動作の例には、コンテンツレンダリング、イベント生成、スクリプト実行、変数値の変化、及び他の動作が含まれる。アプリケーション内又はアプリケーションのページ内では、複数のタイミングエレメントを使用することができ、それらのタイミングエレメントは、同じクロック又は異なるクロックと同期させることができる。たとえば、タイミング信号401及び471を直接又は間接に参照して、タイミングエレメントを同期させるクロックを確立することができる。たとえば、タイミング信号401は、クロックソース402、ICフレームレート計算機404、A/Vフレームレート計算機406、アプリケーション時間492、又はページ時間494を介して間接的に参照することができる。同様に、タイミング信号471は、たとえば、クロックソース470、経過クリップ再生時間(複数可)452、時間基準計算機454、メディア時間基準455、時間基準計算機408、又はタイトル時間基準409を介して間接的に参照することができる。加えて、クロック、タイミング信号、時間基準計算機、及び/又は時間基準への論理的な参照を伴う式を使用して、タイミングエレメントの同期を指定することもできる。たとえば、「AND」、「OR」、「NOT」等のブールオペランドを他のオペランド又は他のタイプのオペランドと共に使用して、このような式又は条件を定義することができる。
図6のフローチャートを再び参照して、ブロック604、菱形606、及びブロック608に示すステップをプレゼンテーションシステム100との関連で解説する。プレゼンテーションコンテンツ120/再生プレゼンテーション127の再生中、特定のアプリケーション155に関連付けられている宣言型言語命令(コンテンツエレメント302、タイミングエレメント306、スタイルエレメント310、メディアオブジェクトエレメント312、イベントエレメント360、並びに/又はそれぞれの属性(及び、オプションとしてそれらの属性の属性))の状態は、アプリケーションの構造化表現内に保持される。このような構造化表現の一例は、文書オブジェクトモデル(「DOM」)である。DOMの構造及び機能は、W3Cによって公開された1つ又は2つ以上の仕様により説明されている。
図7は、DOM700の図である。DOM700は、文書ノード702、エレメントノード704、属性ノード706、及びテキストノード708を含むいくつかのタイプのノードのツリー状の階層である。文書ノード702はルートノードである。多くの場合、タイミングデータ構造は、DOMにおいて、コンテンツデータ構造から分離されている。DOM700の構造は、例示の目的でのみ提示されたものである。どのエレメントも、属性又は属性そのものを含むテキストを有することができることが理解されよう。
属性ノード(スタイル属性又はディスプレイ属性等)が特定の値を有する時を求めるために、XPATH問い合わせ又は他のタイプの問い合わせ(たとえば、XQUERY)を使用してDOM700(又はその一部)に定期的に問い合わせを行うことができる。一実施態様では、XPATH問い合わせは、属性ノードが値を変更する時を求める。上記で解説したように、属性は、2値、数値、文字列値、又は他のタイプの値を有することができる。(DOM700のノード704及び706によってそれぞれ表される)属性ノードは、対話型マルチメディアプレゼンテーションが再生している時及び/又はユーザイベント等のイベントに応答して特定の値に変わる。一実施態様では、XPATH問い合わせは、問い合わせられた値に基づいて真又は偽に変わる。このように、特定のメディアオブジェクトのアクティブな時間間隔を形成することができ、XPATHは、コンテンツデータ構造内の情報を参照し且つ/又は監視するためにタイミング構造内で好都合に使用することができる。問い合わせは、1つ又は2つ以上の属性ノードに対して同時に行うことができ、属性への論理参照子を伴う式又は条件も、問い合わせを定義するのに使用することができる。たとえば、「AND」、「OR」、及び「NOT」等のブールオペランドを他のオペランド又は他のタイプのオペランドと共に使用して、このような式又は条件を定義することができる。場合によっては、一部の定期的な問い合わせをスキップすることも可能な場合がある。たとえば、取り合わせ結果の解析及び/又は他の情報に基づいて、問い合わせ結果が変化しない期間を識別することができ、それらの期間の間、問い合わせをスキップすることができる。
XPATH問い合わせは、タイミング信号401又はタイミング信号471等のタイミング信号に基づくレートでDOMに対して行うことができる。DOMに問い合わせを行う時刻を確立するためにタイミング信号401及び471を直接的又は間接的に参照できることが理解されよう。たとえば、クロックソース402、ICフレームレート計算機404、A/Vフレームレート計算機406、アプリケーション時間492、又はページ時間494を介してタイミング信号401を間接的に参照することができる。同様に、タイミング信号471も、たとえば、クロックソース470、経過クリップ再生時間(複数可)452、時間基準計算機454、メディア時間基準455、時間基準計算機408、又はタイトル時間基準409を介して間接的に参照することができる。加えて、クロック、タイミング信号、時間基準計算機、及び/又は時間基準への論理参照子を伴う式を使用して、DOMに対して問い合わせを行う時を定義することもできる。たとえば、「AND」、「OR」、及び「NOT」等のブールオペランドを他のオペランド又は他のタイプのオペランドと共に使用して、このような式又は条件を定義することができる。
特定の動作が、DOMの問い合わせを介して検出された状態変化によりトリガされると、適切なコンテンツがアクセスされ、それらの動作に関係する命令が実行される。たとえば、外部イベントハンドラが、一般に、イベント関係コンテンツにアクセスして、イベントに関係する命令の実行の準備をする。トリガされた動作に関係する命令の実行の結果生じた作業アイテム(図示せず)は、キュー(複数可)(図示せず)に配置され、ICフレームレート405によって提供されるレート等の所定のレートで遂行される。作業アイテムの遂行の結果生じたICデータ134(たとえば、ユーザ入力による特定のメディアオブジェクトのレンダリング)は、ミキサ/レンダラ110へ送信される。ミキサ/レンダラ110は、ICデータ134をグラフィックスプレーンにレンダリングして、ユーザ用の再生プレゼンテーション127の対話型部分を生成する。
このように、アプリケーションは、メディアオブジェクトの特定の特性の状態を指定する一定の宣言型言語命令、及び、その特性の状態変化に基づいて対話型マルチメディアプレゼンテーションの対話型コンテンツを再生することに関連付けられている動作(メディアオブジェクトのレンダリング、イベント生成、変数の変更、及び他の動作等)を指定する他の宣言型言語命令を提供する。対話型コンテンツを再生することに関連付けられている動作は、アプリケーションの構造化表現に定期的に問い合わせを行って状態変化を検出することにより条件付きでトリガすることができる。XPATH機能は、DOMに問い合わせを行ってこのような状態変化を検出するのによく適している。
図6の方法がプレゼンテーションシステム100でどのように使用可能になって、再生プレゼンテーション127内で特定のメディアオブジェクト125 ICコンポーネント124/ICデータ134をプレゼンテーションするのかの一例を提供する。解説の目的で、再生プレゼンテーション127は高品位DVD映画であると仮定し、メディアオブジェクトはボタングラフィックであると仮定し、その対話性は、少なくとも映画のいくつかの部分と同時に、ボタングラフィックをメニュー280(図2に図示)内のユーザ選択可能アイテムとしてプレゼンテーションするアプリケーション155によって提供されるものと仮定する。アプリケーションは、「mybutton」と呼ばれるコンテンツエレメントを含み、このmybuttonは、「focused」と呼ばれる属性を有する。focused属性は、ユーザのジェスチャイベントに基づいて、focused及び非focusedの状態を仮定することができる。focusedの状態を真にさせるジェスチャイベントの一例は、ユーザが特定のボタンの「ホットスポット」エリアを操作した(たとえば、ユーザがカーソルの先端をホットスポット内に移動させた)時である。focusedの状態を偽にさせるジェスチャイベントの一例は、ユーザがメニュー280から異なるアイテムを選択した時である。
コンテンツエレメント「MyButton」に関連付けられているメディアオブジェクトのレンダリングを条件付きでトリガするのに使用可能な宣言型言語命令を示す擬似コードを以下に示す。このコンテンツエレメント「MyButton」は、特定のジェスチャイベントに基づいて真又は偽のいずれかになることができる「focused」と呼ばれる属性を有する。
Figure 0004959696
「par」タイミングエレメントが、「mybutton」エレメントに関連付けられているメディアオブジェクトをレンダリングする動作を説明していることが分かる。この動作は、mybuttonエレメントのfocused属性を表すDOMノードの問い合わせが真に変わる時にトリガされ(すなわち、メディアオブジェクトがレンダリングされる)、この動作は、mybuttonエレメントのfocused属性を表すDOMノードの問い合わせが偽に変わる時に停止される(すなわち、メディアオブジェクトはレンダリングされない)。この例では、レンダリング可能なメディアオブジェクトは、複数の状態を前提とするように構成された特性を有する同じメディアオブジェクトであるが、レンダリング可能なメディアオブジェクト(複数可)は異なってもよい。
図6に示すプロセス(複数可)は、図8に関連して以下で解説するプロセッサ802等の1つ又は2つ以上の汎用多目的プロセッサ又は単一目的プロセッサで実施することができる。特に言明されていない限り、本明細書で説明する方法は、特定の順序又はシーケンスに制約されない。加えて、説明される方法及びその方法のエレメントのうちのいくつかは、同時に生じることができるか又は同時に遂行することができる。
図8は、プレゼンテーションシステム100のさまざまな機能コンポーネントを実施するのに使用できるか、それらの機能コンポーネントがアクセスすることができるか、又は、それらの機能コンポーネントに含めることができる一定の機能コンポーネントを示す汎用コンピューティングユニット800のブロック図である。コンピューティングユニット800の1つ又は2つ以上のコンポーネントは、ICマネージャ104、プレゼンテーションマネージャ106、及びAVCマネージャ102を実施するのに使用できるか、それらによってアクセス可能とできるか、又は、それらに含めることができる。たとえば、図8の1つ又は2つ以上のコンポーネントは、さまざまな方法でプレゼンテーションシステム100の機能を(全体的又は部分的に)実施するように共にパッケージ化することもできるし、別個にパッケージ化することもできる。
プロセッサ802は、コンピュータ可読媒体804及びコンピュータプログラム806に応答する。プロセッサ802は、実プロセッサとすることもできるし、仮想プロセッサとすることもでき、コンピュータ実行可能命令を実行することによって電子デバイスの機能を制御する。プロセッサ802は、特定のプロセスを遂行するアセンブリレベル、コンパイルレベル、又はマシンレベルで命令を実行することができる。このような命令は、ソースコード又は他の任意の既知のコンピュータプログラム設計ツールを使用して作成することができる。
コンピュータ可読媒体804は、プロセッサ802によって実行可能な命令等のコンピュータ可読データを記録、記憶、又は伝送できる、現在知られているか又は後に開発される、任意の形態の任意の個数のローカルデバイス又はリモートデバイス、及び、そのようなローカルデバイス又はリモートデバイスの任意の組み合わせを表す。詳細には、コンピュータ可読媒体804は、半導体メモリ(たとえば、読み出し専用メモリ(「ROM」)、任意のタイプのプログラマブルROM(「PROM」)、ランダムアクセスメモリ(「RAM」)、又はフラッシュメモリ等)、磁気ストレージデバイス(フロッピーディスクドライブ、ハードディスクドライブ、磁気ドラム、磁気テープ、又は光磁気ディスク等)、光ストレージデバイス(任意のタイプのコンパクトディスク、又はデジタル多用途ディスク等)、バブルメモリ、キャッシュメモリ、コアメモリ、ホログラフィックメモリ、メモリスティック、紙テープ、パンチカード、又はそれらの任意の組み合わせとすることもできるし、それらの半導体メモリ等を含むこともできる。また、コンピュータ可読媒体804は、伝送媒体及びその伝送媒体に関連付けられているデータも含むことができる。伝送媒体/データの例には、変調された搬送波信号によって搬送されるパケット化データ又は非パケット化データ等、任意の形態の有線伝送又は無線伝送で実施されたデータが含まれるが、これに限定されるものではない。
コンピュータプログラム806は、データに対する所定のオペレーションを電子的に制御する任意の信号処理方法又は記憶された命令を表す。一般に、コンピュータプログラム806は、コンポーネントベースのソフトウェア開発の既知の慣行に従いソフトウェアコンポーネントとして実施されたコンピュータ実行可能命令であって、コンピュータ可読媒体(コンピュータ可読媒体804等)にコード化されたコンピュータ実行可能命令である。コンピュータプログラムは、さまざまな方法で結合することもできるし、分散させることもできる。
プレゼンテーションシステム100との関連で説明した機能/コンポーネントは、コンピュータプログラムのどの特定の実施形態による実施態様にも限定されるものではない。それどころか、機能は、データを運ぶプロセス又は変換するプロセスであり、一般に、プレゼンテーションシステム100の機能エレメントの任意の組み合わせに配置されるか又は当該組み合わせによってアクセスされるハードウェア、ソフトウェア、ファームウェア、又はそれらの任意の組み合わせによって実施することもできるし、それらのハードウェア等で実行することもできる。
図8を続けて参照しながら、図9は、プレゼンテーションシステム100のすべて又は一部を実施又は使用できる動作環境900の1つの例示的な構成のブロック図である。動作環境900は、一般に、多種多様な汎用コンピューティング環境又は専用コンピューティング環境を示す。動作環境900は、適した動作環境の単なる一例にすぎず、本明細書で説明したシステム(複数可)及び方法の使用の範囲又は機能の範囲について何ら限定を示唆することを意図していない。たとえば、動作環境900は、パーソナルコンピュータ、ワークステーション、サーバ、ポータブルデバイス、ラップトップ、タブレット、又は他の任意のタイプの電子デバイス等の或るタイプのコンピュータとすることができる。他の任意のタイプの電子デバイスは、現在知られているか若しくは後に開発される、光媒体プレイヤ若しくは別のタイプの媒体プレイヤ、又はそれらの媒体プレイヤの任意の態様等である。また、動作環境900は、たとえば、分散コンピューティングネットワーク又はウェブサービスとすることもできる。動作環境900の具体例は、高品位DVD映画の再生を容易にするDVDプレイヤ又はDVDプレイヤに関連付けられているオペレーティングシステム等の環境である。
図示するように、動作環境900は、コンピューティングユニット800のコンポーネントを含むか又はそれらのコンポーネントにアクセスする。コンピューティングユニット800のコンポーネントは、プロセッサ802、コンピュータ可読媒体804、及びコンピュータプログラム806を含む。ストレージ904は、特に動作環境900に関連付けられている追加のコンピュータ可読媒体又は異なるコンピュータ可読媒体を含む。このコンピュータ可読媒体は、光ディスク等であり、光ディスクドライブ906によってハンドリングされる。1つ又は2つ以上の内部バス920は、既知且つ広く利用可能なエレメントであり、コンピューティング環境900若しくはそのエレメント内において、又は、コンピューティング環境900若しくはそのエレメントへ、又は、コンピューティング環境900若しくはそのエレメントから、データ、アドレス、制御信号、及び他の情報を搬送するのに使用することができる。
入力インターフェース(複数可)908は、コンピューティング環境900に入力を提供する。入力は、ユーザインターフェース等の任意のタイプの現在知られているインターフェース又は後に開発されるインターフェースを使用して収集することができる。ユーザインターフェースは、リモコン、ディスプレイ、マウス、ペン、スタイラス、トラックボール、キーボード等のタッチ入力デバイス、マイク、スキャンデバイス、及びデータを入力するのに使用されるすべてのタイプのデバイスとすることができる。
出力インターフェース(複数可)910は、コンピューティング環境900からの出力を提供する。出力インターフェース(複数可)910の例には、ディスプレイ、プリンタ、スピーカ、ドライブ(光ディスクドライブ906及び他のディスクドライブ等)等が含まれる。
外部通信インターフェース(複数可)912は、コンピューティング環境900が、チャネル信号、データ信号、コンピュータ可読媒体等の通信媒体を介して別のエンティティから情報を受信する能力又は当該別のエンティティへ情報を送信する能力を高めるのに利用可能である。外部通信インターフェース(複数可)912は、関連付けられているネットワークサポートデバイス及び/若しくはソフトウェア又はインターフェースと協力する、ケーブルモデム、データ端末装置、メディアプレイヤ、データストレージデバイス、携帯情報端末、他の任意のデバイス又はコンポーネント/それらの組み合わせ等のエレメントとすることもできるし、それらのエレメントを含むこともできる。
図10は、クライアント・サーバアーキテクチャ1000の簡単化した機能図である。プレゼンテーションシステム100又は動作環境900は、このクライアント・サーバアーキテクチャ1000と共に使用することができる。プレゼンテーションシステム100及び/又は動作環境900の1つ又は2つ以上の態様は、アーキテクチャ1000のクライアントサイド1002又はアーキテクチャ1000のサーバサイド1004において表すことができる。図示するように、通信フレームワーク1003(たとえば、有線又は無線の任意のタイプの任意の公衆ネットワーク又はプライベートネットワークとすることができる)は、クライアントサイド1002とサーバサイド1004との間の通信を容易にする。
クライアントサイド1002では、1つ又は2つ以上のクライアント1006が、クライアントデータストア1008に応答する。クライアント1006は、ハードウェア、ソフトウェア、ファームウェア、又はそれらの任意の組み合わせで実施することができる。クライアントデータストア1008は、クライアント1006にローカルな情報を記憶するのに用いられるコンピュータ可読媒体804とすることができる。サーバサイド1004では、1つ又は2つ以上のサーバ1010が、サーバデータストア1012に応答する。クライアントデータストア1008と同様に、サーバデータストア1012は、サーバ1010にローカルな情報を記憶するのに用いられる1つ又は2つ以上のコンピュータ可読媒体804を含むことができる。
オーディオ/ビデオコンテンツと同期してユーザに対話型コンテンツをプレゼンテーションするのに使用される対話型マルチメディアプレゼンテーションシステムのさまざまな態様を説明してきた。対話型マルチメディアプレゼンテーションは、再生継続期間、可変再生速度、ビデオコンポーネント、及びICコンポーネントを有するものとして一般的に説明されてきた。しかしながら、上記コンポーネントのすべてを使用しなくてもよく、また、使用されるときは、それらのコンポーネントは同時に存在してはならないことが理解されよう。プレゼンテーションシステム100との関連でコンピュータプログラムであるとして説明された機能/コンポーネントは、コンピュータプログラムのどの特定の実施形態による実施態様にも限定されるものではない。それどころか、機能は、データを伝達又は変換するプロセスであり、一般に、ハードウェア、ソフトウェア、ファームウェア、又はそれらの任意の組み合わせによって実施することもできるし、それらのハードウェア等で実行することもできる。
本明細書の主題を、構造的特徴及び/又は方法論的動作に特有の文言で説明してきたが、特許請求の範囲で画定される主題は、必ずしも、上述した特定の特徴にも動作にも限定されるものでないことも理解されよう。それどころか、上述した特定の特徴及び動作は、特許請求の範囲を実施する形態例として開示されている。
さらに、或るエレメントが別のエレメントに応答するものとして示されているとき、それらのエレメントを直接的又は間接的に結合できることが理解されよう。本明細書に示す接続は、エレメント間の結合又は通信インターフェースを達成するように論理的又は物理的に実施することができる。接続は、数ある方法の中でも、ソフトウェアプロセス間のプロセス間通信又はネットワーク接続コンピュータ間のマシン間通信として実施することができる。
「例示的な(exemplary)」という言葉は、本明細書では、一例、1つのインスタンス、又は1つの実例として働くことを意味するために使用される。「例示的なもの」として本明細書で説明したあらゆる実施態様又は実態態様のあらゆる態様は、必ずしも、他の実施態様又は他の実施態様の態様よりも好ましい又は有利であると解釈されない。
上述した特定の実施形態以外の実施形態は、添付の特許請求の範囲の趣旨及び範囲から逸脱することなく案出できるものと理解されるので、本明細書の主題の範囲は、添付の特許請求の範囲によって決定されることが意図されている。
対話型マルチメディアプレゼンテーションシステムの簡単化した機能ブロック図である。 図1に示す再生リストから確認可能な1つの例示的なプレゼンテーション時刻表の図的な説明図である。 図1に示す対話型マルチメディアプレゼンテーションに関連付けられているアプリケーションの簡単化した機能ブロック図である。 図1のタイミング信号管理ブロックをより詳細に示す簡単化した機能ブロック図である。 図4に示す一定の時間基準の値に対する例示的な出来事の影響を、連続的なタイミング信号を基準にして示す概略図である。 図3に示す一定のアプリケーション命令を使用して対話型マルチメディアプレゼンテーションを再生するための方法のフローチャートである。 図6に示す方法の態様と共に使用可能な文書オブジェクトモデルの図である。 図1に示す対話型マルチメディアプレゼンテーションシステムの態様と共に使用可能な汎用コンピューティングユニットの簡単化した機能ブロック図である。 図1に示す対話型マルチメディアプレゼンテーションシステムを実施又は使用できる動作環境の1つの例示的な構成の簡単化した機能ブロック図である。 図1に示す対話型マルチメディアプレゼンテーションシステムを実施又は使用できるクライアント・サーバアーキテクチャの簡単化した機能図である。

Claims (17)

  1. 宣言型マークアップ言語文書で表された文書オブジェクトモデル(「DOM」)によってもたらされる状態変化を利用するための方法であって、前記宣言型マークアップ言語文書は、対話型マルチメディアプレイヤによってサポートされた対話型マルチメディア環境においてレンダリングされる1つ又は2つ以上のメディアオブジェクトを参照し、該方法は、
    対話型マルチメディアプレゼンテーションの対話型コンテンツコンポーネントを再生するタイミングを制御するタイミングエレメントを識別するステップであって、該タイミングエレメントが、前記対話型マルチメディア環境において処理を実施するアプリケーションに含まれる命令の実行により実施される、ステップ、
    前記識別されたタイミングエレメントを使用して、前記DOMにおいてもたらされる前記対話型マルチメディア環境における状態変化を生じさせるステップ、
    前記DOMにおけるノードにアクセスする問い合わせを実施するステップ
    前記問い合わせに基づいて、前記ノードの所定の値が変化したか否かを判断するステップ、
    前記判断に基づいて、問い合わせ結果を確立するステップ、及び、
    前記問い合わせ結果を使用し、前記対話型マルチメディアプレイヤに前記対話型コンテンツコンポーネントの再生に関連付けられている動作を前記タイミングに応じてトリガさせるステップ
    を含む、方法。
  2. 請求項に記載の方法において、
    前記ノードは、前記XML文書に関連付けられているコンテンツデータを表す、方法。
  3. 請求項1に記載の方法において、
    前記問い合わせは、XPATH問い合わせを含む、方法。
  4. 対話型マルチメディアプレゼンテーションに関連付けられている対話型コンテンツを再生するための方法であって、該方法は、
    前記対話型コンテンツを再生するための命令を有するアプリケーションにアクセスするステップであって、該命令は、
    宣言型形式を有すると共にメディアオブジェクトの特性を指定する第1の命令であって、該特性は、前記対話型マルチメディアプレゼンテーションの再生中に第1の状態及び第2の状態の一方を仮定するように構成されている、第1の命令と、
    宣言型形式を有すると共に前記第1の状態から前記第2の状態への前記特性の状態変化に基づいて、前記対話型コンテンツを再生することに関連付けられている動作を指定する第2の命令と
    を含む、アクセスするステップと、
    アプリケーションの構造化表現を使用して、前記アプリケーションが処理を実施する対話型マルチメディア環境の状態を示すステップであって、前記構造化表現が、前記アプリケーションに含まれる第3の命令に応答して前記特性の状態変化をさらにもたらし、前記第3の命令が、前記対話コンテンツの再生のタイミングを制御するための少なくとも1つのタイミングエレメントを実施する、ステップと、
    前記特性の前記状態変化を検出するために、前記アプリケーションの構造化表現の定期的な問い合わせの準備をするステップ、及び
    前記状態変化の検出に基づいて、前記対話型コンテンツを再生することに関連付けられている前記動作を前記タイミングに応じてトリガすることを準備するステップ
    を含む、方法。
  5. 請求項に記載の方法において、
    前記対話型コンテンツは、メディアオブジェクトを含み、前記第2の命令は、前記特性の前記状態変化に基づいて、前記メディアオブジェクトがレンダリング可能である時を指定し、前記状態変化の検出は、前記メディアオブジェクトのレンダリングをトリガする、方法。
  6. 請求項に記載の方法において、
    前記第1の命令は、XMLコンテンツエレメントに関連付けられている属性を含む、方法。
  7. 請求項に記載の方法において、
    前記属性は、スタイル属性及び非スタイル属性の一方を含む、方法。
  8. 請求項に記載の方法において、
    前記第1の状態及び前記第2の状態は、前記属性の値を含む、方法。
  9. 請求項に記載の方法において、
    前記属性の値は、バイナリ値、数値、文字列値、及び所定の値の集合から成る群から選択される、方法。
  10. 請求項に記載の方法において、
    前記第2の命令は、XMLタイミングエレメントを含む、方法。
  11. 請求項に記載の方法において、
    前記第2の命令は、前記状態変化に基づいて可変の値変化を指定する、方法。
  12. 請求項に記載の方法において、
    前記第2の命令は、前記状態変化に基づいてスクリプト命令の実行を指定する、方法。
  13. 請求項に記載の方法において、
    前記アプリケーションの前記構造化表現は、前記第1の命令に対応する第1のノード及び前記第2の命令に対応する第2のノードを有する、方法。
  14. 請求項13に記載の方法において、
    前記構造化表現の定期的な問い合わせの準備をするステップは、前記第1のノード及び前記第2のノードの一方を調べるためのXPATH問い合わせを使用するステップを含む、方法。
  15. 請求項に記載の方法において、
    前記定期的な問い合わせは、可変レートで行われる、方法。
  16. 請求項に記載の方法において、
    前記構造化表現は、文書オブジェクトモデル(「DOM」)を含む、方法。
  17. コンピュータに請求項1〜16の何れか1項に記載のステップを実行させるプログラムを記録したコンピュータ可読記録媒体。
JP2008519403A 2005-07-01 2006-06-22 対話型マルチメディアプレゼンテーションの状態ベースタイミング Expired - Fee Related JP4959696B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US69594405P 2005-07-01 2005-07-01
US60/695,944 2005-07-01
US11/405,737 2006-04-18
US11/405,737 US20070006079A1 (en) 2005-07-01 2006-04-18 State-based timing for interactive multimedia presentations
PCT/US2006/024225 WO2007005301A2 (en) 2005-07-01 2006-06-22 State-based timing for interactive multimedia presentations

Publications (2)

Publication Number Publication Date
JP2009500912A JP2009500912A (ja) 2009-01-08
JP4959696B2 true JP4959696B2 (ja) 2012-06-27

Family

ID=37591306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008519403A Expired - Fee Related JP4959696B2 (ja) 2005-07-01 2006-06-22 対話型マルチメディアプレゼンテーションの状態ベースタイミング

Country Status (5)

Country Link
US (1) US20070006079A1 (ja)
EP (1) EP1908072A4 (ja)
JP (1) JP4959696B2 (ja)
KR (1) KR101354739B1 (ja)
WO (1) WO2007005301A2 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8656268B2 (en) 2005-07-01 2014-02-18 Microsoft Corporation Queueing events in an interactive media environment
US8799757B2 (en) * 2005-07-01 2014-08-05 Microsoft Corporation Synchronization aspects of interactive multimedia presentation management
US7941522B2 (en) * 2005-07-01 2011-05-10 Microsoft Corporation Application security in an interactive media environment
US7721308B2 (en) 2005-07-01 2010-05-18 Microsoft Corproation Synchronization aspects of interactive multimedia presentation management
US8305398B2 (en) 2005-07-01 2012-11-06 Microsoft Corporation Rendering and compositing multiple applications in an interactive media environment
US8020084B2 (en) 2005-07-01 2011-09-13 Microsoft Corporation Synchronization aspects of interactive multimedia presentation management
US8108787B2 (en) * 2005-07-01 2012-01-31 Microsoft Corporation Distributing input events to multiple applications in an interactive media environment
US20080165281A1 (en) * 2007-01-05 2008-07-10 Microsoft Corporation Optimizing Execution of HD-DVD Timing Markup
US7814412B2 (en) * 2007-01-05 2010-10-12 Microsoft Corporation Incrementally updating and formatting HD-DVD markup
NL2000992C2 (nl) 2007-11-09 2009-05-12 Nunhems Bv Nieuwe komkommerplanten met compacte groeiwijze.
US8230039B2 (en) * 2008-04-16 2012-07-24 Adobe Systems, Incorporated Systems and methods for accelerated playback of rich internet applications
US8739019B1 (en) 2011-07-01 2014-05-27 Joel Nevins Computer-implemented methods and computer program products for integrating and synchronizing multimedia content, including content displayed via interactive televisions, smartphones, electronic book readers, holographic imagery projectors, and other computerized devices
USRE47059E1 (en) 2010-07-24 2018-09-25 Joel Nevins Computer-implemented methods and computer program products for integrating and synchronizing multimedia content, including content displayed via interactive televisions, smartphones, electronic book readers, holographic imagery projectors, and other computerized devices
US8982132B2 (en) * 2011-02-28 2015-03-17 Adobe Systems Incorporated Value templates in animation timelines
US9742836B2 (en) 2014-01-03 2017-08-22 Yahoo Holdings, Inc. Systems and methods for content delivery
US9940099B2 (en) 2014-01-03 2018-04-10 Oath Inc. Systems and methods for content processing
US10503357B2 (en) * 2014-04-03 2019-12-10 Oath Inc. Systems and methods for delivering task-oriented content using a desktop widget
USD775183S1 (en) 2014-01-03 2016-12-27 Yahoo! Inc. Display screen with transitional graphical user interface for a content digest
US9971756B2 (en) 2014-01-03 2018-05-15 Oath Inc. Systems and methods for delivering task-oriented content
US9558180B2 (en) 2014-01-03 2017-01-31 Yahoo! Inc. Systems and methods for quote extraction
US10127210B1 (en) * 2015-09-25 2018-11-13 Amazon Technologies, Inc. Content rendering
US20170344523A1 (en) * 2016-05-25 2017-11-30 Samsung Electronics Co., Ltd Method and apparatus for presentation customization and interactivity
WO2020175845A1 (ko) * 2019-02-26 2020-09-03 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법
CN113163246A (zh) * 2020-01-22 2021-07-23 阿里巴巴集团控股有限公司 处理方法、处理装置及电子设备

Family Cites Families (99)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2512250B2 (ja) * 1991-09-13 1996-07-03 松下電器産業株式会社 動画表示ワ―クステ―ション
US5394547A (en) * 1991-12-24 1995-02-28 International Business Machines Corporation Data processing system and method having selectable scheduler
US5574934A (en) * 1993-11-24 1996-11-12 Intel Corporation Preemptive priority-based transmission of signals using virtual channels
JP2701724B2 (ja) * 1993-12-28 1998-01-21 日本電気株式会社 シナリオ編集装置
USRE44685E1 (en) * 1994-04-28 2013-12-31 Opentv, Inc. Apparatus for transmitting and receiving executable applications as for a multimedia system, and method and system to order an item using a distributed computing system
US6122433A (en) * 1994-10-20 2000-09-19 Thomson Licensing S.A. HDTV trick play stream derivation for VCR
US5717468A (en) * 1994-12-02 1998-02-10 International Business Machines Corporation System and method for dynamically recording and displaying comments for a video movie
JP3701051B2 (ja) * 1995-07-04 2005-09-28 パイオニア株式会社 情報記録装置及び情報再生装置
US5659539A (en) * 1995-07-14 1997-08-19 Oracle Corporation Method and apparatus for frame accurate access of digital audio-visual information
JP3471526B2 (ja) * 1995-07-28 2003-12-02 松下電器産業株式会社 情報提供装置
US5631694A (en) * 1996-02-01 1997-05-20 Ibm Corporation Maximum factor selection policy for batching VOD requests
US6240555B1 (en) * 1996-03-29 2001-05-29 Microsoft Corporation Interactive entertainment system for presenting supplemental interactive content together with continuous video programs
US5949410A (en) * 1996-10-18 1999-09-07 Samsung Electronics Company, Ltd. Apparatus and method for synchronizing audio and video frames in an MPEG presentation system
US5877763A (en) * 1996-11-20 1999-03-02 International Business Machines Corporation Data processing system and method for viewing objects on a user interface
US6069633A (en) * 1997-09-18 2000-05-30 Netscape Communications Corporation Sprite engine
US5956026A (en) * 1997-12-19 1999-09-21 Sharp Laboratories Of America, Inc. Method for hierarchical summarization and browsing of digital video
US6665835B1 (en) * 1997-12-23 2003-12-16 Verizon Laboratories, Inc. Real time media journaler with a timing event coordinator
US6385596B1 (en) * 1998-02-06 2002-05-07 Liquid Audio, Inc. Secure online music distribution system
US6426778B1 (en) * 1998-04-03 2002-07-30 Avid Technology, Inc. System and method for providing interactive components in motion video
BR9906523A (pt) * 1998-06-11 2000-07-25 Koninkl Philips Electonics N V Aparelho e processo para gravar um sinal de informação de vìdeo digital em um portador de gravação, e, portador de gravação
US6212595B1 (en) * 1998-07-29 2001-04-03 International Business Machines Corporation Computer program product for fencing a member of a group of processes in a distributed processing environment
US20030025599A1 (en) * 2001-05-11 2003-02-06 Monroe David A. Method and apparatus for collecting, sending, archiving and retrieving motion video and still images and notification of detected events
US6715126B1 (en) * 1998-09-16 2004-03-30 International Business Machines Corporation Efficient streaming of synchronized web content from multiple sources
GB2344453B (en) * 1998-12-01 2002-12-11 Eidos Technologies Ltd Multimedia editing and composition system having temporal display
US6637031B1 (en) * 1998-12-04 2003-10-21 Microsoft Corporation Multimedia presentation latency minimization
US6430570B1 (en) * 1999-03-01 2002-08-06 Hewlett-Packard Company Java application manager for embedded device
US6369830B1 (en) * 1999-05-10 2002-04-09 Apple Computer, Inc. Rendering translucent layers in a display system
US6629150B1 (en) * 1999-06-18 2003-09-30 Intel Corporation Platform and method for creating and using a digital container
US6772413B2 (en) * 1999-12-21 2004-08-03 Datapower Technology, Inc. Method and apparatus of data exchange using runtime code generator and translator
US20040220926A1 (en) * 2000-01-03 2004-11-04 Interactual Technologies, Inc., A California Cpr[P Personalization services for entities from multiple sources
US20010039571A1 (en) * 2000-01-06 2001-11-08 Atkinson Paul D. System and method for facilitating electronic commerce within public spaces
US20020157103A1 (en) * 2000-01-07 2002-10-24 Deyang Song Method for digital media playback in a broadcast network
US7725812B1 (en) * 2000-03-31 2010-05-25 Avid Technology, Inc. Authoring system for combining temporal and nontemporal digital media
US6505153B1 (en) * 2000-05-22 2003-01-07 Compaq Information Technologies Group, L.P. Efficient method for producing off-line closed captions
US7669238B2 (en) * 2000-06-21 2010-02-23 Microsoft Corporation Evidence-based application security
US7131143B1 (en) * 2000-06-21 2006-10-31 Microsoft Corporation Evaluating initially untrusted evidence in an evidence-based security policy manager
KR100424481B1 (ko) * 2000-06-24 2004-03-22 엘지전자 주식회사 디지털 방송 부가서비스 정보의 기록 재생장치 및 방법과그에 따른 기록매체
US8495679B2 (en) * 2000-06-30 2013-07-23 Thomson Licensing Method and apparatus for delivery of television programs and targeted de-coupled advertising
US7350204B2 (en) * 2000-07-24 2008-03-25 Microsoft Corporation Policies for secure software execution
WO2002015564A1 (en) * 2000-08-16 2002-02-21 Koninklijke Philips Electronics N.V. Method of playing multimedia applications
US6785729B1 (en) * 2000-08-25 2004-08-31 International Business Machines Corporation System and method for authorizing a network user as entitled to access a computing node wherein authenticated certificate received from the user is mapped into the user identification and the user is presented with the opprtunity to logon to the computing node only after the verification is successful
US6967725B2 (en) * 2000-10-13 2005-11-22 Lucent Technologies Inc. System and method for optical scanning
US20020099738A1 (en) * 2000-11-22 2002-07-25 Grant Hugh Alexander Automated web access for back-end enterprise systems
US6792426B2 (en) * 2001-01-10 2004-09-14 International Business Machines Corporation Generic servlet for browsing EJB entity beans
US6500188B2 (en) * 2001-01-29 2002-12-31 Ethicon Endo-Surgery, Inc. Ultrasonic surgical instrument with finger actuator
US20020188616A1 (en) * 2001-06-07 2002-12-12 Chinnici Roberto R. Database access bridge system and process
WO2003005190A1 (en) * 2001-07-06 2003-01-16 E-Genie Australia Pty Limited Method and system for computer software application execution
US6565153B2 (en) * 2001-07-31 2003-05-20 Johnson Controls Technology Corporation Upper back support for a seat
EP1286349A1 (en) * 2001-08-21 2003-02-26 Canal+ Technologies Société Anonyme File and content management
US6920613B2 (en) * 2001-08-27 2005-07-19 Xerox Corporation Video/text bi-directional linkage for software fault clearance applications
JP3852568B2 (ja) * 2001-09-11 2006-11-29 ソニー株式会社 マルチメディアプレゼンテーション作成装置および方法
US7356763B2 (en) * 2001-09-13 2008-04-08 Hewlett-Packard Development Company, L.P. Real-time slide presentation multimedia data object and system and method of recording and browsing a multimedia data object
US20040205479A1 (en) * 2001-10-30 2004-10-14 Seaman Mark D. System and method for creating a multimedia presentation
US20030152904A1 (en) * 2001-11-30 2003-08-14 Doty Thomas R. Network based educational system
US6925499B1 (en) * 2001-12-19 2005-08-02 Info Value Computing, Inc. Video distribution system using disk load balancing by file copying
US20030142137A1 (en) * 2002-01-28 2003-07-31 International Business Machines Corporation Selectively adjusting the order of windows in response to a scroll wheel rotation
EP1472694A1 (en) * 2002-02-07 2004-11-03 Samsung Electronics Co., Ltd. Information storage medium containing display mode information, and reproducing apparatus and method therefor
TWI247295B (en) * 2002-03-09 2006-01-11 Samsung Electronics Co Ltd Reproducing method and apparatus for interactive mode using markup documents
US7127700B2 (en) * 2002-03-14 2006-10-24 Openwave Systems Inc. Method and apparatus for developing web services using standard logical interfaces to support multiple markup languages
US20030182364A1 (en) * 2002-03-14 2003-09-25 Openwave Systems Inc. Method and apparatus for requesting and performing batched operations for web services
US7496845B2 (en) * 2002-03-15 2009-02-24 Microsoft Corporation Interactive presentation viewing system employing multi-media components
US7080043B2 (en) * 2002-03-26 2006-07-18 Microsoft Corporation Content revocation and license modification in a digital rights management (DRM) system on a computing device
US20030204602A1 (en) * 2002-04-26 2003-10-30 Hudson Michael D. Mediated multi-source peer content delivery network architecture
US7496599B2 (en) * 2002-04-30 2009-02-24 Microsoft Corporation System and method for viewing relational data using a hierarchical schema
US6928619B2 (en) * 2002-05-10 2005-08-09 Microsoft Corporation Method and apparatus for managing input focus and z-order
US20040034622A1 (en) * 2002-08-13 2004-02-19 Espinoza Danny Javier Applications software and method for authoring and communicating multimedia content in a multimedia object communication and handling platform
US7290057B2 (en) * 2002-08-20 2007-10-30 Microsoft Corporation Media streaming of web content data
US7038581B2 (en) * 2002-08-21 2006-05-02 Thomson Licensing S.A. Method for adjusting parameters for the presentation of multimedia objects
US20040039909A1 (en) * 2002-08-22 2004-02-26 David Cheng Flexible authentication with multiple levels and factors
US20040107179A1 (en) * 2002-08-22 2004-06-03 Mdt, Inc. Method and system for controlling software execution in an event-driven operating system environment
US7519616B2 (en) * 2002-10-07 2009-04-14 Microsoft Corporation Time references for multimedia objects
US7840856B2 (en) * 2002-11-07 2010-11-23 International Business Machines Corporation Object introspection for first failure data capture
US7328076B2 (en) * 2002-11-15 2008-02-05 Texas Instruments Incorporated Generalized envelope matching technique for fast time-scale modification
KR20040045101A (ko) * 2002-11-22 2004-06-01 삼성전자주식회사 마크업 화면에 매립된 오브젝트 화면의 입력 아이템을포커싱하는 방법 및 그 정보저장매체
KR100484181B1 (ko) * 2002-12-02 2005-04-20 삼성전자주식회사 멀티미디어 문서 저작 장치 및 방법
EP1588230A4 (en) * 2003-01-10 2008-05-07 Nexaweb Technologies Inc NETWORK ORIENTED COMPUTING SYSTEM AND METHOD
US7302057B2 (en) * 2003-01-31 2007-11-27 Realnetworks, Inc. Method and process for transmitting video content
US7735104B2 (en) * 2003-03-20 2010-06-08 The Directv Group, Inc. System and method for navigation of indexed video content
US7620301B2 (en) * 2003-04-04 2009-11-17 Lg Electronics Inc. System and method for resuming playback
US6906643B2 (en) * 2003-04-30 2005-06-14 Hewlett-Packard Development Company, L.P. Systems and methods of viewing, modifying, and interacting with “path-enhanced” multimedia
JP2004357275A (ja) * 2003-05-07 2004-12-16 Nec Corp 映像記録装置、記録媒体、映像記録方法及びプログラム
US20040244003A1 (en) * 2003-05-30 2004-12-02 Vidiator Enterprises Inc. Apparatus and method for task scheduling for media processing
US7739715B2 (en) * 2003-06-24 2010-06-15 Microsoft Corporation Variable play speed control for media streams
GB2403697B (en) * 2003-07-09 2006-05-24 Peter Gordon Martin Cycle saddle suspension assembly
US7511718B2 (en) * 2003-10-23 2009-03-31 Microsoft Corporation Media integration layer
US8065616B2 (en) * 2003-10-27 2011-11-22 Nokia Corporation Multimedia presentation editor for a small-display communication terminal or computing device
US7882034B2 (en) * 2003-11-21 2011-02-01 Realnetworks, Inc. Digital rights management for content rendering on playback devices
US7681114B2 (en) * 2003-11-21 2010-03-16 Bridgeborn, Llc Method of authoring, deploying and using interactive, data-driven two or more dimensional content
US7821881B2 (en) * 2003-11-28 2010-10-26 Sony Corporation Reproduction device, reproduction method, reproduction program, and recording medium
US20050149729A1 (en) * 2003-12-24 2005-07-07 Zimmer Vincent J. Method to support XML-based security and key management services in a pre-boot execution environment
JP4166707B2 (ja) * 2004-01-20 2008-10-15 パイオニア株式会社 映像内容認識装置、録画装置、映像内容認識方法、録画方法、映像内容認識プログラム、および録画プログラム
US7801303B2 (en) * 2004-03-01 2010-09-21 The Directv Group, Inc. Video on demand in a broadcast network
JP2005318472A (ja) * 2004-04-30 2005-11-10 Toshiba Corp 動画像のメタデータ
US7509497B2 (en) * 2004-06-23 2009-03-24 Microsoft Corporation System and method for providing security to an application
US8201191B2 (en) * 2004-06-30 2012-06-12 Time Warner Cable Inc. Apparatus and methods for implementation of network software interfaces
US20060041522A1 (en) * 2004-08-18 2006-02-23 Xerox Corporation. Abstract document management systems and methods
JP4039417B2 (ja) * 2004-10-15 2008-01-30 株式会社日立製作所 記録再生装置
US7593980B2 (en) * 2004-11-30 2009-09-22 Cisco Technology, Inc. Application server system and method
US20060123451A1 (en) * 2004-12-07 2006-06-08 Showtime Networks Inc. Enhanced content in an on-demand environment

Also Published As

Publication number Publication date
EP1908072A2 (en) 2008-04-09
US20070006079A1 (en) 2007-01-04
EP1908072A4 (en) 2010-12-22
WO2007005301A2 (en) 2007-01-11
JP2009500912A (ja) 2009-01-08
WO2007005301A3 (en) 2007-05-31
KR20080019255A (ko) 2008-03-03
KR101354739B1 (ko) 2014-01-22

Similar Documents

Publication Publication Date Title
JP4959696B2 (ja) 対話型マルチメディアプレゼンテーションの状態ベースタイミング
JP5015149B2 (ja) 対話型マルチメディア・プレゼンテーション管理の同期方法
JP5015150B2 (ja) 対話式マルチメディア環境の状態変化への宣言式応答
JP4959695B2 (ja) 対話型マルチメディア・プレゼンテーション管理の同期性
US20070006065A1 (en) Conditional event timing for interactive multimedia presentations
JP4812833B2 (ja) 対話型マルチメディアプレゼンテーション管理の同期化の態様
JP2008545335A5 (ja)
JP2009502049A (ja) メディア・コンテンツのレンダリングの諸側面
JP5619838B2 (ja) 対話型マルチメディア・プレゼンテーション管理の同期性
JP2009500909A5 (ja)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090619

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20110908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111020

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120126

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120321

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150330

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees