JP2004166253A - マルチメディアオブジェクトのための時間基準 - Google Patents

マルチメディアオブジェクトのための時間基準 Download PDF

Info

Publication number
JP2004166253A
JP2004166253A JP2003348860A JP2003348860A JP2004166253A JP 2004166253 A JP2004166253 A JP 2004166253A JP 2003348860 A JP2003348860 A JP 2003348860A JP 2003348860 A JP2003348860 A JP 2003348860A JP 2004166253 A JP2004166253 A JP 2004166253A
Authority
JP
Japan
Prior art keywords
document
elements
multimedia
timing
xml
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003348860A
Other languages
English (en)
Inventor
Sean Hayes
ヘイズ ショーン
Robert K Hughes Jr
ロバート ケー.ヒューズ ジュニア
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2004166253A publication Critical patent/JP2004166253A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • G11B27/3036Time code signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2562DVDs [digital versatile discs]; Digital video discs; MMCDs; HDCDs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99941Database schema or data structure
    • Y10S707/99942Manipulating data structure, e.g. compression, compaction, compilation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99941Database schema or data structure
    • Y10S707/99943Generating database or data structure, e.g. via user interface
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99941Database schema or data structure
    • Y10S707/99944Object-oriented database structure
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99941Database schema or data structure
    • Y10S707/99944Object-oriented database structure
    • Y10S707/99945Object-oriented database structure processing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99941Database schema or data structure
    • Y10S707/99948Application of database or data structure, e.g. distributed, multimedia, or image

Abstract

【課題】 マルチメディアオブジェクトを参照するエレメントを含む別個のドキュメントにより参照されるマルチメディアオブジェクトに、タイミング基準を提供する。
【解決手段】 エレメントは、別の外部ドキュメントの一部である可能性のある他のエレメントに関連付けられる。外部ドキュメントのエレメントは複数のタイムコンテナにおいてグループ化され、これらは、いつエレメントが描画されるべきであるかを記述し、いつ別個のドキュメントのエレメントが描画されるべきであるかを記述し、いつマルチメディアオブジェクトが描画されるべきであるかを記述する。他のドキュメントは、別個のドキュメントとの関連付けから描画タイミングを受信することができる。イベントリスナエレメントは外部ドキュメント内に含めることができ、別個のドキュメントにおけるエレメントに影響を及ぼすイベントに応答する。
【選択図】 図1

Description

本発明は、マルチメディアオブジェクト(multimedia objects)のための時間基準(time references)に関する。
本明細書で説明するシステムおよび方法は、時間をマルチメディアオブジェクトに関連付けることに関し、より具体的には、マルチメディアオブジェクトのための時間基準を提供および/または再定義(redefine)するシステムおよび方法に関する。
マルチメディアプレゼンテーション(multimedia presentations)は、離散的マルチメデ
ィア(discrete multimedia)またはオーディオビデオ(A/V)オブジェクト(マルチメディアオブジェクト)で構成される。マルチメディアオブジェクトは、パーソナルコンピュータ(PC)上のドライブ上で再生されるDVD(digital versatile disc)ディスクなど、1つのソースから発することができる。他の場合では、マルチメディアオブジェクトは多数のソースから発する(すなわち、ストリームする)ことができ、共通の宛先で再生することができる。たとえば、マルチメディアオブジェクトは多数のwebサイトから発し、PCで再生することができる。マルチメディアのプレゼンテーションは、ビデオテープ、テレビ放送、DVDから、またインターネット上のwebサイト(すなわち、進化したWebブロードキャスト)からのマルチメディアオブジェクトを含み、組み合わせることができる。
マルチメディアオブジェクトには、A/Vフレーム、画像(picture)、ビデオクリップ(video clip)、オーディオクリップ(audio clip)およびオーディオサンプルが含まれる。様々なフォーマットによりマルチメディアオブジェクトを記述することができ、これには静止画像、アニメーション、ビデオおよびテキスト形式を含むことができる。静止画像フォーマット(static image format)には、ポータブルネットワークグラフィックス(PNG)、JPEG(joint photographic experts group)およびMPEG(motion picture experts group)が含まれる。アニメーションフォーマットには、MNG(multiple-image network graphics)が含まれる。ビデオフォーマットには、MPEGビデオ、AVI(オーディオビデオインターリーブ)および様々なストリーミングフォーマットが含まれる。テキストフォーマットには、拡張可能マークアップ言語(XML:extensible markup language)、ハイパーテキストマークアップ言語(HTML:hypertext markup language)および拡張可能HTML(XHTML:extensible HTML)が含まれる。
同期マルチメディア統合言語(SMIL:synchronized multimedia integration language)は、プレゼンテーションにおけるアニメーションなど、構造的・空間的および時間的効果を記述するための宣言言語(declarative language)である。SMILリスティング(SMIL listing)またはドキュメントは、いつマルチメディアオブジェクトが表示されるかを記述する。特に、SMILドキュメント(SMIL document)は、データ(すなわち、マルチメディアオブジェクト)をグループ化する「タイムコンテナ(time container)」を利用する。SMILタイムコンテナは、データの複数の部分を並行して(すなわち、同時に)「再生(play)」するタグ<par>、データを順次(すなわち、タイムコンテナリストにおいて相次いで)再生するタグ<seq>、および、他のデータを除いてデータの一部を再生する(すなわち、特定の順番がない)タグ<excl>を含む。
データまたはメディアオブジェクトは1つまたは複数のソースから発することができるが、SMILを使用中であるとき、データまたはメディアオブジェクトは共に単一のSMILドキュメントによって「リンク」されなければならない。すなわち、単一のSMILドキュメントが、複数のマルチメディアオブジェクトを互いにリンクさせるために必要とされる。
「エレメント(element)」はXMLドキュメントの基本単位である。一つのエレメント(an element)は他の複数のエレメント(elements)およびテキスト(text)を含むことができ、開始タグ<名前>(opening tag <name>)で開始し、終了タグ</名前>(closing tag </name>)で終了する。<?で開始し、?>で終了するタグは、使用されるべき特定のスタイルシート(style sheet)を指定(specify)する処理命令(processing instruction)である。スタイルシートは、XMLドキュメントのタグのためのフォーマットを定義する別個のドキュメント(distinct document)である。
XMLタグは、エレメントに含まれるかあるいはエレメントによって参照される、データまたはマルチメディアオブジェクトを識別し且つ記述する。エレメントの属性(attribute)はさらに、エレメントのデータまたはマルチメディアエレメントの目的およびコンテンツを記述する。XMLドキュメントの一部であるデータ、特にエレメントは、他のXMLドキュメントで使用可能である。
どのタグをどのXMLドキュメントで使用することができるかを記述するために使用されるスキーマ(schema)が、XMLドキュメントに関連付けられる。このようなスキーマには、XSL−FO(eXtensible Stylesheet Language for Formatting Objects)またはカスケーディングスタイルシート(cascading style sheet)によって実行された、タグフォーマッティング(tag formatting)が含まれる。
XSL−FOドキュメントは、変換されたXMLドキュメント(transformed XML document)であり、構造(structure)および外観(appearance)についての情報を含む。
外部スタイルシート(external style sheet)を、構造情報および外観情報に関するドキュメントのための参照(reference)として提供することができる。すなわち、外部スタイルシートは、他のドキュメント内のオブジェクトの外観および構造を記述する能力を提供するが、外部スタイルシートおよびXMLドキュメントは、いつオブジェクトが再生(play)または提示(present)されるべきであるかを記述(describe)する能力を有する。
XMLはマルチメディアオブジェクトのための時間的基準(temporal reference)を提供しない。SMILはマルチメディアオオブジェクトのための時間的基準を提供するが、SMILは比較的柔軟性がなく、マルチメディアオブジェクトが単一の(single)SMILドキュメントによって直接参照されることを要する。すなわち、XML,SMILのような拡張可能テキストマークアップ言語(extensible textual markup language)とは異なり、SMILは、ドキュメントが他のドキュメントをコントロールすることを可能としない。
本発明の目的は、マルチメディアオブジェクトをドキュメント内のエレメントによって参照できるようにした、方法,マルチメディアデバイス,パーソナルコンピュータ,コンピュータ可読媒体およびシステムを提供することにある。
本発明に係る方法,マルチメディアデバイス,パーソナルコンピュータ,コンピュータ可読媒体およびシステムでは、マルチメディアオブジェクトをドキュメント内のエレメントによって参照する。そして、これらのエレメントはさらに、描画タイミング(レンディションタイミング:rendition timing)を表示(indicate)するように構成(arrange)された他のエレメントと関連付けられる。
本発明のある実施形態では、外部ドキュメント(external document)を使用することにより、描画タイミング(レンディションタイミング:rendition timing)が提供される。
特定の実施形態によれば、外部ドキュメントが、ドキュメントに影響を及ぼすイベントを認識するようにされる。
図1は、マルチメディアプレゼンテーション(multimedia presentation)100を定義するために使用されるドキュメントおよびオブジェクトを示す。マルチメディアプレゼンテーション100は、オブジェクト105を含む。オブジェクト105は1つまたは複数のマルチメディアオブジェクトにすることができ、これらマルチメディアオブジェクトは様々なフォーマットによって記述され、これには静止画像、アニメーション、ビデオおよびテキストフォーマットが含まれる。フォーマットには、PNG、JPEG、MPEG、MNG、AVI、XML、HTMLおよびXHTMLを含むことができる。この実施形態において、オブジェクト105はオブジェクト1 105(1)およびオブジェクト2 105(2)を含む。本図ではグループとして示し、単一のソース(single source)(すなわち、オブジェクト105)から発している(originate)が、オブジェクト1 105(1)およびオブジェクト2 105(2)は、異なるソース(different source)から発することができる。
マルチメディアプレゼンテーション100は、Doc01.xml 110を含む。Doc01.xmlは「コンテンツドキュメント(content document)」であり、XMLまたはSGML(HTML)などのテキストマークアップ言語でフォーマットされる。Doc01.xml 110は、マルチメディアオブジェクトを参照するタグ付きエレメント(tagged element)を含む。Doc01.xml 110のタグ付きエレメントは、エレメント1およびエレメント2である。この実施形態では、Doc01.xml 110のタグ付きエレメントはオブジェクト1 105(1)およびオブジェクト2 105(2)を参照する。親エレメント(parent element)であるエレメントnは、エレメント1およびエレメント2を含むことができる。エレメントnは、エレメント1およびエレメント2から1レベルだけ上であるとみなされる。
識別子(identifier)をDoc01.xml 110によって使用することにより、エレメントnを識別することができる。このような識別子は、「ID1」とすることができる。固有(unique)の識別子を使用することにより、エレメント1およびエレメント2を識別することもできる。
図1においてグループ112として示すようなDoc01.xml 110のエレメントは、以下のようにリストされる。
<element n>
<element1>object1</element1>
<element2>object2</element1>
</element n>
他の実施形態では、エレメント1およびエレメント2が別々にグループ化される。
マルチメディアプレゼンテーション100はさらに、ドキュメントTiming.xml 115を含む。Doc01.xml 110およびTiming.xml 115は論理的に別個のドキュメントタイプ(distinct document type)であるが、これらを共に単一の論理ファイル(single logical file)としてパッケージ化することができる。Timing.xml 115は「タイミングドキュメント(timing document)」であり、これもXMLなどのテキストマークアップ言語でフォーマットすることができる。Timing.xml 115はタイムコンテナ(time container)117を含み、これはDoc01.xml 110のエレメント1およびエレメント2の挙動を記述する。このタイムコンテナはエレメントのための描画タイミング(レンディションタイミング:rendition timing)を提供し、これはマルチメディアオブジェクトを参照することができる。図1に示すようなTiming.xml 115のタイムコンテナ117は、以下のようにリストされる。
<par>
<cue select="element1"/>
<cue select="element2"/>
</par>
エレメント「cue」は、計時されたドキュメント(timed document)における特定のエレメントをターゲットまたは参照するために使用される。この例では、「cue」が、Doc01.xml 110のエレメント1およびエレメント2を参照するために使用される。Doc1.xml110は、計時されたドキュメントとみなされる。
Timing.xml 115に例示されたタイムコンテナ117はエレメント「par」を含み、これはエレメント、詳細にはエレメント1およびエレメント2を参照する「cue」エレメントをグループ化するために使用される。エレメント「par」を有するタイムコンテナは、タイムコンテナの複数のエレメントが同時に、あるいは互いに並行して描画(render)または再生(play)されることを規定する。したがって、上にリストした例では、「cue」の使用を通じて、エレメント1およびエレメント2が同時に開始して再生または描画される。エレメント1がオブジェクト1 105(1)を参照し、エレメント2がオブジェクト2 105(2)を参照し、オブジェクト1 105(1)およびオブジェクト2 105(2)が同時に再生または描画される。
タイムコンテナはまたエレメント「seq」および「excl」を使用して、特定の複数のエレメント、およびこれらの特定のエレメントによって参照されたマルチメディアオブジェクトをグループ化することもできる。エレメント「seq」を有するタイムコンテナの一例は、以下の通りである。
<seq>
<cue select="element1"/>
<cue select="element2"/>
</seq>
エレメント「seq」を含む上のタイムコンテナでは、エレメント1がエレメント2の前に、これらがタイムコンテナにおいてリストされる順序で描画または再生される。すなわち、順序付けされたリスト(ordered list)においてエレメント1がエレメント2の後に描画(render)される。エレメント1によって参照されたマルチメディアオブジェクトが、エレメント2によって参照されたマルチメディアオブジェクトの前に、描画または再生されるようになる。
エレメント「excl」を有するタイムコンテナの一例は、以下の通りである。
<excl>
<cue select="element1"/>
<cue select="element2"/>
</excl>
エレメント「excl」を含む上のタイムコンテナでは、エレメント1をエレメント2の前または後に描画(render)または再生(play)することができる。エレメント「excl」は、エレメント1またはエレメント2が互いを除いて描画または再生されることを規定する。どの順序でこれらのエレメントがタイムコンテナにおいてリストされるかは問題ではない。エレメント1によって参照されたマルチメディアオブジェクトが、エレメント2によって参照されたマルチメディアオブジェクトを除いて描画または再生される。タイムコンテナは、詳細にはSMIL規定を、<cue>エレメントを付けて使用することができる。タイミングドキュメントTiming.xml 115における<cue>エレメントは子エレメント(child element)を有することができ、これは、計時されたドキュメント(timed element)Doc01.xml 110における別のエレメント「エレメントi」に適用されたアクションを記述することができる。
計時されたドキュメントDoc01.xml 110におけるエレメントに影響を及ぼすイベントが発生する可能性がある。イベントは特殊なオブジェクトであり、ユーザからの入力など、何かが発生するときに作成される。イベントの一例は、ユーザが「ポーズボタン」を起動することによって再生(play)を休止することである。
Doc01.xmlにおけるイベントは、「EventListener」ドキュメントオブジェクトモデル(DOM)構成体(construct)を通じて処理することができ、これはWorld Wide Web Consortium(W3C)によって定義されるものである。特に、イベントは、エレメント「リスナ(listener)」を定義する構成体(construct)を通じて探し、処理することができる。
この例では、イベント「ポーズボタン」120が発生し、Doc01.xml 110のエレメント1またはエレメント2に影響を及ぼすことができる。Doc1.xml110はリスナエレメント124を含むことができ、これが以下のようにリストされる。
<listener
event="pause button"
observer="ID1"
handler="stop"
/>
リスナエレメント124は、イベント「ポーズボタン」120を待機するように設定(configure)される。「ID1」はエレメントnを識別し、これをたとえば、エレメント1またはエレメント2のうちの1つにすることができる。エレメントを「ターゲット(target)」にすることができ、これがイベントによって影響を受ける。たとえば、エレメント1および/またはエレメント2を、イベント「ポーズボタン」120によって影響を受けるターゲットエレメントにすることができる。「オブザーバ(observer)」エレメントをターゲットエレメントにすることもしないこともできるが、これはそれより下のレベル(すなわち、親オブザーバエレメントの子エレメント)であるエレメント(すなわち、ターゲットエレメント)に影響を及ぼすイベントを認識するようにされる。たとえば、エレメント1およびエレメント2がターゲットであるとき、エレメントnをオブザーバにすることができる。エレメント124におけるオブザーバ属性(observer attribute)は、識別子「ID1」を使用してエレメントnを識別する。
属性「ハンドラ(handler)」は、イベントがターゲットエレメントにおいて発生するときに、起動される。この例では、属性ハンドラは、起動されるべきアプリケーション「stop」を指名する。アプリケーション「stop」を、エレメントに再生を停止するように命令するための、Doc01.xml内で定義された命令にすることができる。
タイミングドキュメントTiming.xml 115は、計時されたドキュメントDoc01.xml 110のためのタイミングを定義するので、これを、Doc01.xml 110におけるエレメントに影響を及ぼすイベント「ポーズボタン」120を認識するようにすることができる。
Timing.xml 115にプロキシリスナ(proxy listner)エレメント126が提供され、これは以下のようにリストされる。
<listener="proxy"
event="pause button"
observer=pointer to "ID1"
handler="pause"
/>
プロキシリスナ126はまた、イベント「ポーズボタン」120を探すようにも設定される。識別子「ID1」を通じてエレメントnを直接識別するオブザーバ属性の代わりに、「ID1」へのポインタがプロキシリスナエレメント126のオブザーバ属性において使用される。この例では、プロキシリスナエレメント126のオブザーバ属性がセレクタとなるように拡張される(すなわち、XMLにおけるXpointerなどのポインタを使用する)。構文(syntax)「ID1」は、Doc01.xml 110におけるエレメント(すなわちエレメントn)の識別子を指し、Timing.xml 115におけるエレメントではない。イベント「ポーズボタン」120がターゲットエレメント(たとえば、エレメント1またはエレメント2)において発生するとき、属性ハンドラを起動することができる。プロキシリスナ126では、属性ハンドラがアプリケーション「pause」を指名し、これはタイムコンテナ117に再生を停止するように命令する。
タイミングドキュメントTiming.xml 115におけるプロキシリスナエレメント126は、リスナエレメント124をDoc01.xmlにおいて有することを必要とせず、あるいはそれに依拠しない。プロキシリスナエレメント126は、「ID1」へのポインタを使用してエレメントに直接ポイントする。
Doc01.xml 110は、別のコンテンツドキュメントの挙動、および具体的には他のコンテンツドキュメントのエレメントを含むことができる。この例では、Doc01.xml 110のエレメント1およびエレメント2は、Doc02.xml130のエレメント3およびエレメント4の挙動を含む。
図1に示すようなDoc02.xml130のエレメントを、以下に概念的に示す。
<element3>element1</element3>
<element4>element2</element4>
この構成(arrangement)では、Doc02.xmlをそれ自体のタイミングドキュメント(すなわち、別個のTiming2.xml)に関連付けることができる。Doc01.xmlおよびDoc02.xmlは同じタイミングドキュメントを使用することができるが、通常これはより一般的な構成の特殊な場合である可能性がある。タイミングドキュメントTiming.xml 115を直接、いくつかのコンテンツドキュメントに、直接的または間接的に適用することができる。タイミングの変更を行う必要がある場合、変更がタイミングドキュメントTiming.xml 115に行われるか、あるいはTiming.xml 115を、Doc01.xml 110におけるエレメントを参照する別のタイミングドキュメントによって置き換えることができる。
Timing.xml 115をXMLドキュメントとして例示するが、代替タイミングドキュメント構成体(timing document construct)を適用することができる。たとえば、カスケーディングスタイルシート(CSS:cascading style sheet)を使用することができる。CSSはW3Cによって定義され、XMLコンテンツドキュメントを完全に記述するための言語である。
次に、マルチメディアオブジェクトのための描画タイミング(rendition timing)について、以下に説明する。
図2は、描画タイミングをマルチメディアオブジェクトに提供するプロセス200を示す。
ブロック205において、第1セットのエレメント(first set of elements)は、図1のXMLドキュメントDoc01.xml 110のような、拡張可能テキストマークアップ言語で書かれたドキュメントにおけるものとすることができる。この第1セットのエレメントは、1つまたは複数のソースから発することができる1つまたは複数のマルチメディアオブジェクトを参照する。この参照は、特にドキュメントのエレメントにおけるマルチメディアオブジェクトを呼び出すことによって、実行することができる。この参照はまた、マルチメディアオブジェクトに向けて送られたエレメントにおけるポインタの使用を通じて実行することもできる。
ブロック210において、第1セットのエレメント(first set of elements)は、タイミングを表示(indicate)するように構成された第2セットのエレメント(second set of elements)に関連付けられる。第2セットのエレメントは第1のドキュメントの一部にすることができ、第1のドキュメントはXSL−FOファイルにすることができる。他の場合では、第2セットのエレメントが第2のドキュメント内にあり、これは外部のスタイルシートなどである。
ブロック215においては、第2セットのエレメントが、タイミングを表示するように構成される。特に、この構成は、図1のタイミングドキュメントTiming.xml 115において例示したように、タイムコンテナの使用を通じて実行される。上述のように、エレメント「cue」がタイミングドキュメントTiming.xml 115において使用され、第1のドキュメントDoc01.xml 110におけるエレメントが関連付けられる。
ブロック220において、マルチメディアオブジェクトは、第2セットのエレメントのタイミング構成に基づいて描画される。その理由は、第2セットのエレメントが、マルチメディアオブジェクトを参照する第1セットのエレメントに関連付けられるからである。
次に、例示的システムについて説明する。
図3は、マルチメディアオブジェクトおよびマルチメディアプレゼンテーションを提供するための、マルチメディアデバイスおよび放送装置(broadcaster)のシステム300を示す。各マルチメディアオブジェクトは、特定の名前によって識別されることが企図される。その名前は、マルチメディアオブジェクトのヘッダ内またはファイルリスティング内に配置することができ、マルチメディアデバイスによって読み取ることができる。
ネットワーク305は、インターネットを含む、ローカルエリア、広域、専用および公衆専用ネットワーク(public private network)を含む。ハードワイヤード(たとえば、ケーブル)および/またはワイヤレスネットワークは、ネットワーク305を構成することができる。ネットワーク305は、様々なエンティティからの、かつそれへの通信(すなわち、マルチメディアオブジェクト)を提供するように設計される。
テレビ放送ポイント(television broadcast point)310は、マルチメディアプレゼンテーションをシステム300において提供する。テレビ放送ポイント310は、A/Vソース315からのマルチメディアオブジェクトを再生(play)する。テレビ放送ポイント310は、A/Vソース315からのマルチメディアオブジェクトに、付加されたコンテンツソース(added content source)320からのコマーシャルまたはプロモーションなどのマルチメディアオブジェクトを散在(intersperse)させることができる。
テレビ放送ポイント310が衛星放送用アンテナ(satellite dish)325に接続され、衛星330にアップリンクする。衛星放送用アンテナ325は、マルチメディアオブジェクトを担持する信号を衛星330に送信する。衛星放送用アンテナ335は、マルチメディアオブジェクトを担持する信号を衛星330からダウンリンクする。ネットワーク305は、衛星放送用アンテナ335に直接接続されており、マルチメディアオブジェクトが受信される。テレビ放送ポイント310はまた、マルチメディアオブジェクトを担持する無線周波数(RF)信号を、アンテナ340を通じて送信することもできる。このようなRF信号は、テレビを含む様々なマルチメディアデバイスによって受信することができる。
マルチメディアデバイス345はスタンドアロンユニットであり、ネットワーク305に結合されていないが、テレビ放送ポイント310からのマルチメディアオブジェクトを受信することができる。マルチメディアデバイス345は、チューナ,A/V入力およびA/V出力を有するテレビ受像機またはモニタのような、A/V表示ユニット345−Aを含む。マルチメディアデバイス345はさらに、DVDプレイヤなどのマルチメディアプレイヤ345−B、およびマルチメディアレコーダ345−Cを含むことができる。マルチメディアデバイス345はアンテナ350に接続される。アンテナ350は、RF信号をアンテナ340などのソースから受信する。このRF信号は、マルチメディアオブジェクトを担持する。マルチメディアオブジェクトは、さらにマルチメディアデバイス345によって、衛星放送用アンテナ355を通じて受信することができ、衛星放送用アンテナ355は衛星330からの信号を受信する。マルチメディアオブジェクトは、マルチメディアレコーダ345−Cによって記録することができる。
マルチメディアオブジェクトのブロードキャストは、インターネットを通じて実行することもできる。通常、これは「Webブロードキャスト」として知られており、マルチメディアオブジェクトのデジタル伝送を提供する。Webブロードキャストポイント360は、ネットワーク305を通じてアクセス可能な、インタラクティブなwebサイトを含むことができる。Webブロードキャスト360は、付加されたコンテンツソース370からのマルチメディアオブジェクトが散在された、A/Vソース365からのマルチメディアプレゼンテーションを受信する。別の実施形態として、このようなオブジェクトを他のソースから入力することができる。
Webブロードキャストポイント360は、マルチメディアオブジェクトをネットワーク305へ伝送する。このことにより、ネットワーク305に接続された様々なマルチメディアデバイスにより、そのマルチメディアオブジェクトがアクセスされる。他の実施形態によるWebブロードキャストポイント360は、上述のような衛星を通じてマルチメディアオブジェクトを配信することができる。
マルチメディアデバイス375はネットワーク305に結合され、テレビ放送ポイント310およびWebブロードキャストポイント360を含む様々なソースからのマルチメディアオブジェクトを受信する。マルチメディアデバイス375は、チューナ,A/V入力およびA/V出力を有するテレビ受像機またはモニタのようなA/V表示ユニット375−Aを含む。マルチメディアデバイス375はさらに、DVDプレイヤなどのマルチメディアプレイヤ375−B、およびマルチメディアレコーダ375−Cを含むことができる。マルチメディアオブジェクトおよび散在されたマルチメディアオブジェクトは、マルチメディアレコーダ375−Cによって記録することができる。マルチメディアデバイスおよびスタンドアロンユニットには、WebTVユニットおよびパーソナルビデオレコーダ(PVR)ユニットが含まれる。パーソナルコンピュータ380もまた、マルチメディアデバイスとみなすことができる。
図3に例示したwebサイト385は、付加されたコンテンツにアクセスするマルチメディアデバイスのための信号源(ソース)を示している。この付加されたコンテンツは、例えば、図1に示したTiming.xml 110のようなタイミングドキュメントを含む、更新されたファイル(updated file)である。テレビ放送ポイント310およびWebブロードキャストポイント360のようなブロードキャストポイントは、新しいマルチメディアオブジェクトを、様々なマルチメディアデバイスに予め存在するコンテンツと共に順番付けして配信(stream)する。
次に、例示的コンピュータ(マルチメディアデバイス)環境について説明する。
ここでは、図3のマルチメディアデバイス345,375および380のような1つまたは複数のマルチメディアデバイスによって実行されるコンピュータ実行可能命令、例えばプログラムモジュール、に関して説明する。一般に、プログラムモジュールにはルーチン,プログラム,オブジェクト,コンポーネント,データ構造などが含まれ、これらは特定のタスクを実行するか、あるいは特定のアブストラクトデータタイプ(abstract data type)を実行する。さらに、本発明が属する分野の当業者は、他のコンピュータシステム構成により本発明を実施可能である。他のコンピュータシステム構成として、ハンドヘルドデバイス,マルチプロセッサシステム,マイクロプロセッサベースまたはプログラマブルなコンシューマエレクトロニクス,ネットワークPC,ミニコンピュータ,メインフレームコンピュータなどが含まれることは、当業者には理解されよう。分散型コンピューティング環境では、プログラムモジュールをローカルメモリデバイス内およびリモートメモリデバイス内の双方に配置することができる。
図4は、本実施の形態で使用されるコンピュータ430の一般的な例を示す。コンピュータ430は、マルチメディアデバイスの機能を実行することができるコンピュータの一実施形態として示す。コンピュータ430は、1つまたは複数のプロセッサまたは処理装置432、システムメモリ434、および、システムメモリ434を含む様々なシステムコンポーネントをプロセッサ432に結合するバス436を含む。
バス436は、いくつかのタイプのバス構造のいずれかのうち1つまたは複数を表し、これには、様々なバスアーキテクチャのいずれかを使用する、メモリバスまたはメモリコントローラ、周辺バス、アクセラレーテッドグラフィックスポート、およびプロセッサまたはローカルバスが含まれる。システムメモリは読み取り専用メモリ(ROM)438およびランダムアクセスメモリ(RAM)440を含む。基本入力/出力システム(BIOS)442は、起動中など、コンピュータ430内の複数の要素の間で情報を転送する助けとなる基本ルーチンを含み、ROM438に格納される。コンピュータ430はさらに、図示しないハードディスクに対する読み書きを行うためのハードディスクドライブ444、リムーバブル磁気ディスク448に対する読み書きを行うための磁気ディスクドライブ446、および、CD−ROMまたは他の光媒体など、リムーバブル光ディスク452に対する読み書きを行うための光ディスクドライブ450を含む。ハードディスクドライブ444、磁気ディスクドライブ446および光ディスクドライブ450はバス436に、SCSIインターフェイス454またはある他の適切なインターフェイスによって接続される。これらのドライブおよびそれらの関連付けられたコンピュータ可読媒体は、コンピュータ430のためのコンピュータ可読命令、データ構造、プログラムモジュールおよび他のデータの不揮発性記憶を提供する。
本明細書で説明する例示的環境は、ハードディスク、リムーバル磁気ディスク448およびリムーバブル光ディスク452を使用しているが、コンピュータによってアクセス可能であるデータを格納することができる他のタイプのコンピュータ可読媒体も例示的オペレーティング環境において使用することができ、これは磁気カセット、フラッシュメモリカード、デジタルビデオディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)などであることは、当業者には理解されよう。
いくつかのプログラムモジュールは、ハードディスク、磁気ディスク448、光ディスク452、ROM438またはRAM440に格納することができ、これにはオペレーティングシステム458、1つまたは複数のアプリケーションプログラム460、他のプログラムモジュール462およびプログラムデータ464が含まれる。
ユーザはコマンドおよび情報をパーソナルコンピュータ430へ、キーボード466およびポインティングデバイス468などの入力デバイスを通じて入力することができる。他の入力デバイス(図示せず)には、マイクロフォン、ジョイスティック、ゲームパッド、衛星放送用アンテナ、スキャナなどが含まれる可能性がある。これらおよび他の入力デバイスが処理装置432へ、バス436に結合されるインターフェイス470を通じて接続される。モニタ472または他のタイプの表示デバイスもバス436へ、ビデオアダプタ474などのインターフェイスを介して接続される。
コンピュータ430はネットワーク化環境において、リモートコンピュータ476など、1つまたは複数のリモートコンピュータへの論理接続を使用して動作する。リモートコンピュータ476は、別のパーソナルコンピュータ、サーバ、ルータ、ネットワークPC、ピアデバイスまたは他の共通ネットワークノードとすることができる。これは通常、コンピュータ430に関して上述した要素の多数またはすべてを含むが、図4では、メモリ記憶デバイス478のみを例示してある。図4に示す論理接続には、ローカルエリアネットワーク(LAN)480および広域ネットワーク(WAN)482が含まれる。このようなネットワーキング環境は、オフィス、企業全体のコンピュータネットワーク、イントラネットおよびインターネットにおいて一般的である。
LANネットワーキング環境において使用されるとき、コンピュータ430はローカルネットワーク480に、ネットワークインターフェイスまたはアダプタ484を通じて接続される。WANネットワーキング環境において使用されるとき、コンピュータ430は通常、モデム486、または、インターネットなどの広域ネットワーク482を介して通信を確立するための他の手段を含む。モデム486は内部または外部に配置することができ、バス436へ、シリアルポートインターフェイス456を介して接続される。ネットワーク化環境において、パーソナルコンピュータ430に関して示したプログラムモジュールまたはその一部は、リモートメモリ記憶デバイスに格納することができる。図示のネットワーク接続は例示的であり、通信リンクを複数のコンピュータの間で確立する他の手段も使用できることは理解されよう。
一般に、コンピュータ430のデータプロセッサは、異なる時間にコンピュータの様々なコンピュータ可読記憶媒体に格納された命令を用いてプログラムされる。プログラムおよびオペレーティングシステムは通常、たとえばフロッピー(登録商標)ディスクまたはCD−ROM上に分散されている。そこから、これらがコンピュータの2次メモリにインストールまたはロードされる。実行時に、これらが少なくとも部分的にはコンピュータの1次電子メモリにロードされる。
本明細書で説明した主題は、これらおよび他の様々なタイプのコンピュータ可読記憶媒体が、図4を参照して説明したステップをマイクロプロセッサまたは他のデータプロセッサと共に実施するための命令またはプログラムを含むとき、このような媒体を含む。
本主題はまた、コンピュータが説明した方法および技術に従ってプログラムされるとき、そのコンピュータ自体も含む。さらに、コンピュータのあるサブコンポーネントを、説明した機能およびステップを実行するようにプログラムすることができる。本主題は、このようなサブコンポーネントが説明したようにプログラムされるとき、これらのサブコンポーネントを含む。加えて、本明細書で説明した主題は、様々なタイプのメモリ媒体上で実施されるようなデータ構造を含む。
例示のため、データ、プログラム、および、オペレーティングシステムなどの他の実行可能プログラムコンポーネントを本明細書では離散的ブロックとして例示してあるが、このようなプログラムおよびコンポーネントが様々な時間にコンピュータの異なる記憶コンポーネント内に存在し、コンピュータのデータプロセッサによって実行されることは理解されよう。
本発明を構造的特徴および/または方法的動作に固有の言語により説明したが、付属の特許請求の範囲に定義された本発明が必ずしも、これまで説明した特定の特徴または動作に限定されないことを理解されたい。むしろ、特定の特徴および動作は、主張された本発明を実施する例示的フォーマットとして開示されたものである。
オブジェクト、コンテンツドキュメント、タイミングドキュメント、およびコンテンツドキュメントにおけるエレメントに影響を及ぼすイベントの関係によって記述されたマルチメディアプレゼンテーションを例示するブロック図である。 マルチメディアオブジェクトに描画タイミングが提供される方法を例示した流れ図である。 マルチメディアオブジェクトおよびプレゼンテーションを、マルチメディアデバイスに接続されたネットワークに提供して、マルチメディアオブジェクトおよびプレゼンテーションを再生する、マルチメディア放送装置のシステムを例示したブロック図である。 マルチメディアデバイスとして使用して、マルチメディアオブジェクトを描画タイミングに基づいて再生することができるコンピュータの一般的な例を例示したブロック図である。
符号の説明
105 オブジェクト
105(1) オブジェクト1
105(2) オブジェクト2
110 Doc01.xml
112 エレメント
115 Timing.xml
117 タイムコンテナ
120 ポーズボタン
124 エレメント
126 プロキシリスナエレメント
130 Doc02.xml

Claims (47)

  1. 1つまたは複数のマルチメディアオブジェクトを、1つまたは複数のエレメントを有する第1のセットを通じて参照するステップと、
    前記1つまたは複数のエレメントを有する第1のセットを、1つまたは複数のエレメントを有する第2のセットと関連付けるステップと、
    前記1つまたは複数のエレメントを有する第2のセットを、前記1つまたは複数のエレメントを有する第1のセットにより参照された前記マルチメディアオブジェクトのためのタイミングを表示するように構成するステップと、
    を含むことを特徴とする方法。
  2. 前記参照するステップは、前記マルチメディアオブジェクトをポイントする、前記1つまたは複数のエレメントを有する第1のセットにおけるポインタによって、実行されることを特徴とする請求項1に記載の方法。
  3. 前記参照するステップおよび前記関連付けるステップは、同じドキュメントによって実行されることを特徴とする請求項1に記載の方法。
  4. 前記構成するステップは、前記1つまたは複数のエレメントを有する第2のセットを定義するタイムコンテナを通じて実行されることを特徴とする請求項1に記載の方法。
  5. 前記タイムコンテナは、SMIL規定によって定義されることを特徴とする請求項4に記載の方法。
  6. 前記タイムコンテナは、前記1つまたは複数のエレメントを有する第2のセットのエレメントが同時にレンダリングされることを定義することを特徴とする請求項4に記載の方法。
  7. 前記タイムコンテナは、前記1つまたは複数のエレメントを有する第2のセットのエレメントが、順序付けされたリストにおいて次々に描画されることを定義することを特徴とする請求項4に記載の方法。
  8. 前記タイムコンテナは、前記1つまたは複数のエレメントを有する第2のセットのエレメントが互いを除いて描画されることを定義することを特徴とする請求項4に記載の方法。
  9. 前記マルチメディアオブジェクトを、前記1つまたは複数のエレメントを有する第2のセットの前記構成に基づいて描画するステップをさらに含むことを特徴とする請求項1に記載の方法。
  10. 前記1つまたは複数のエレメントを有する第2のセットを、1つまたは複数のエレメントを有する第3のセットと関連付けるステップをさらに含むことを特徴とする請求項1に記載の方法。
  11. 前記参照するステップは第1のドキュメントによって実行され、前記関連付けるステップは第2のドキュメントによって実行されることを特徴とする請求項1に記載の方法。
  12. 前記第1のドキュメントおよび前記第2のドキュメントはXMLで書かれていることを特徴とする請求項11に記載の方法。
  13. 前記第1のドキュメントはXMLで書かれており、前記第2のドキュメントはスタイルシートであることを特徴とする請求項11に記載の方法。
  14. 入力を受信して、前記1つまたは複数のエレメントを有する第1のセットにおけるエレメントに影響を及ぼすイベントを開始させるステップと、
    前記イベントのアプリケーションを参照するように設定される、前記エレメントを有する第2のセットにおけるプロキシエレメントを提供するステップと、
    をさらに含むことを特徴とする請求項1に記載の方法。
  15. 前記構成するステップは、前記1つまたは複数のエレメントを有する第2のセットを定義するタイムコンテナを通じて実行されることを特徴とする請求項14に記載の方法。
  16. 前記タイムコンテナは、SMIL規定によって定義されることを特徴とする請求項15に記載の方法。
  17. 請求項1に記載の方法を実行することを特徴とするマルチメディアデバイス。
  18. 請求項1に記載の方法を実行することを特徴とするパーソナルコンピュータ。
  19. 1つまたは複数のマルチメディアオブジェクトを、第1のドキュメントにおける、1つまたは複数のエレメントを有する第1のセットを通じて参照するステップと、
    前記第1のドキュメントにおける前記1つまたは複数のエレメントを有する第1のセットを、第2のドキュメントにおける1つまたは複数のエレメントを有する第2のセットと関連付けるステップと、
    前記第2のドキュメントにおける前記1つまたは複数のエレメントを有する第2のセットを、前記第1のドキュメントにおける前記1つまたは複数のエレメントを有する第1のセットによって参照される前記マルチメディアオブジェクトのための、タイミングを表示するように構成するステップと、
    を含むことを特徴とする方法。
  20. 前記参照するステップは、前記第1のドキュメントにおける前記1つまたは複数のエレメントを有する第1のセットにおける、前記1つまたは複数のマルチメディアオブジェクトをポイントするポインタによって、実行されることを特徴とする請求項19に記載の方法。
  21. 前記構成するステップは、前記1つまたは複数のエレメントを有する第2のセットを定義するタイムコンテナを通じて実行されることを特徴とする請求項19に記載の方法。
  22. 前記タイムコンテナは、SMIL規定によって定義されることを特徴とする請求項21に記載の方法。
  23. 前記タイムコンテナは、前記1つまたは複数のエレメントを有する第2のセットのエレメントが同時に描画されることを定義することを特徴とする請求項21に記載の方法。
  24. 前記タイムコンテナは、前記1つまたは複数のエレメントを有する第2のセットのエレメントが、順序付けされたリストにおいて次々に描画されることを定義することを特徴とする請求項21に記載の方法。
  25. 前記タイムコンテナは、前記1つまたは複数のエレメントを有する第2のセットのエレメントが互いを除いて描画されることを定義することを特徴とする請求項21に記載の方法。
  26. 前記第2のドキュメントにおける前記1つまたは複数のエレメントを有する第2のセットを、第3のドキュメントにおける1つまたは複数のエレメントを有する第3のセットと関連付けるステップをさらに含むことを特徴とする請求項19に記載の方法。
  27. 前記第1のドキュメント、前記第2のドキュメントおよび前記第3のドキュメントは、XMLで書かれていることを特徴とする請求項26に記載の方法。
  28. 前記第1のドキュメントおよび前記第2のドキュメントは、XMLで書かれていることを特徴とする請求項19に記載の方法。
  29. 前記第1のドキュメントはXMLで書かれ、前記第2のドキュメントはスタイルシートであることを特徴とする請求項19に記載の方法。
  30. 入力を受信して、前記第1のドキュメントの前記1つまたは複数のエレメントを有する第1のセットにおけるエレメントに影響を及ぼすイベントを開始させるステップと、
    前記第2のドキュメントにおいて、前記イベントの開始を参照するように設定されるプロキシエレメントを提供するステップと、
    をさらに含むことを特徴とする請求項19に記載の方法。
  31. 前記構成するステップは、前記第2のドキュメントにおける前記1つまたは複数のエレメントを有する第2のセットを定義するタイムコンテナを通じて実行されることを特徴とする請求項19に記載の方法。
  32. 請求項19に記載の方法を実行することを特徴とするマルチメディアデバイス。
  33. 請求項19に記載の方法を実行することを特徴とするパーソナルコンピュータ。
  34. マルチメディアデバイスであって、
    プロセッサと、
    第1のドキュメントを第2のドキュメントと関連付けるに際して、前記第1のドキュメントにおける第1のセットのエレメントおよび前記第2のドキュメントにおける第2のセットのエレメントを通じて関連付けるように設定された、前記プロセッサ上で実行可能であるメモリに格納された命令とを含み、
    前記第1のセットのエレメントはマルチメディアオブジェクトを参照し、前記第2のセットのエレメントは、前記マルチメディアオブジェクトのための描画タイミングを提供することを特徴とするマルチメディアデバイス。
  35. 前記描画タイミングは、タイムコンテナであることを特徴とする請求項34に記載のマルチメディアデバイス。
  36. 前記タイムコンテナは、SMIL規定によって定義されることを特徴とする請求項34に記載のマルチメディアデバイス。
  37. 前記命令は、さらに、第3のドキュメントにおける第3のセットのエレメントを前記第2のドキュメントにおける前記第2のセットのエレメントと関連付けるように設定されることを特徴とする請求項34に記載のマルチメディアデバイス。
  38. 前記命令は、さらに、イベント開始入力を受信し、前記第2のドキュメントに前記イベントの発生を通知するように設定されることを特徴とする請求項34に記載のマルチメディアデバイス。
  39. 前記命令は、さらに、前記第1のドキュメントにおける前記第1のセットのエレメントを第3のドキュメントにおける第3のセットのエレメントと関連付けるように設定されることを特徴とする請求項34に記載のマルチメディアデバイス。
  40. データ構造を担持する1つまたは複数のコンピュータ可読媒体であって、
    テキストマークアップ言語でフォーマットされ、1つまたは複数のマルチメディアオブジェクトを参照するタグ付きエレメントを有する第1のコンテンツドキュメントと、
    テキストマークアップ言語でフォーマットされ、複数のタグ付きエレメントを有するタイミングドキュメントとを含み、
    前記タイミングドキュメントの前記タグ付きエレメントの少なくともいくつかは、前記第1のコンテンツドキュメントの前記エレメントを参照し、且つ、前記タイミングドキュメントの前記タグ付きエレメントは、前記第1のコンテンツドキュメントの前記タグ付きエレメントによって参照される前記マルチメディアオブジェクトのための描画タイミングを指定する、ことを特徴とする1つまたは複数のコンピュータ可読媒体。
  41. 前記描画タイミングがタイムコンテナによって定義されることを特徴とする請求項40に記載の1つまたは複数のコンピュータ可読媒体。
  42. テキストマークアップ言語でフォーマットされ、前記第1のコンテンツドキュメントの前記タグ付きエレメントを参照するタグ付きエレメントを有する、第2のコンテンツドキュメントをさらに含むことを特徴とする請求項40に記載の1つまたは複数のコンピュータ可読媒体。
  43. データ構造を担持する1つまたは複数のコンピュータ可読媒体であって、
    テキストマークアップ言語でフォーマットされ、イベントに応答した複数のタグ付きエレメントを有する第1のドキュメントと、
    テキストマークアップ言語でフォーマットされ、複数のタグ付きエレメントを有する第2のドキュメントとを含み、
    前記第2のドキュメントの前記タグ付きエレメントの少なくともいくつかは、前記第1のドキュメントの前記タグ付きエレメントに影響を及ぼす前記イベントを参照することを特徴とする1つまたは複数のコンピュータ可読媒体。
  44. 前記第2のドキュメントの前記タグ付きエレメントは、前記第1のドキュメントの前記タグ付きエレメントにより参照されるマルチメディアオブジェクトのための描画タイミングを指定することを特徴とする請求項43に記載の1つまたは複数のコンピュータ可読媒体。
  45. システムであって、
    マルチメディアオブジェクトを提供するブロードキャストポイントと、
    前記マルチメディアオブジェクトと、前記マルチメディアオブジェクトを参照する第1のドキュメントと、前記マルチメディアオブジェクトのための描画タイミングを提供する第2のドキュメントとを受信するマルチメディアデバイスと、を含むことを特徴とするシステム。
  46. 前記マルチメディアデバイスは、さらに、前記第1のドキュメントにおけるイベントを開始し、前記第2のドキュメントに通知する入力を受信することを特徴とする請求項45に記載のシステム。
  47. 前記マルチメディアデバイスは、さらに、前記第2のドキュメントによって参照される第3のドキュメントを受信することを特徴とする請求項45に記載のシステム。

JP2003348860A 2002-10-07 2003-10-07 マルチメディアオブジェクトのための時間基準 Pending JP2004166253A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US41697602P 2002-10-07 2002-10-07
US10/610,492 US7519616B2 (en) 2002-10-07 2003-06-30 Time references for multimedia objects

Publications (1)

Publication Number Publication Date
JP2004166253A true JP2004166253A (ja) 2004-06-10

Family

ID=32045431

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003348860A Pending JP2004166253A (ja) 2002-10-07 2003-10-07 マルチメディアオブジェクトのための時間基準

Country Status (4)

Country Link
US (1) US7519616B2 (ja)
EP (1) EP1445710A3 (ja)
JP (1) JP2004166253A (ja)
KR (1) KR20040031658A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008539483A (ja) * 2005-04-27 2008-11-13 インターナショナル・ビジネス・マシーンズ・コーポレーション Smilベース・マルチメディア・コンテンツを再生するためのシステム、方法、及びエンジン
JP2009500912A (ja) * 2005-07-01 2009-01-08 マイクロソフト コーポレーション 対話型マルチメディアプレゼンテーションの状態ベースタイミング
JP2009501459A (ja) * 2005-07-01 2009-01-15 マイクロソフト コーポレーション 対話式マルチメディア環境の状態変化への宣言式応答
JP2016522916A (ja) * 2013-03-26 2016-08-04 サムスン エレクトロニクス カンパニー リミテッド Htmlページの提示装置及び方法

Families Citing this family (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100573685B1 (ko) * 2003-03-07 2006-04-25 엘지전자 주식회사 대화형 광디스크의 애니메이션 데이터 재생방법 및 장치
CN1777945B (zh) * 2003-04-23 2012-10-31 Lg电子株式会社 对记录在交互记录介质上的主内容以及其附加内容进行同步再现的方法和设备
JP2005318472A (ja) * 2004-04-30 2005-11-10 Toshiba Corp 動画像のメタデータ
FR2878116B1 (fr) * 2004-11-15 2007-05-18 France Telecom Procede et systeme d'indexation d'un flux de donnees multimedia et procede et systeme de traitement correspondants
US7941522B2 (en) 2005-07-01 2011-05-10 Microsoft Corporation Application security in an interactive media environment
US20070006065A1 (en) * 2005-07-01 2007-01-04 Microsoft Corporation Conditional event timing for interactive multimedia presentations
US8020084B2 (en) 2005-07-01 2011-09-13 Microsoft Corporation Synchronization aspects of interactive multimedia presentation management
US8656268B2 (en) 2005-07-01 2014-02-18 Microsoft Corporation Queueing events in an interactive media environment
US8305398B2 (en) 2005-07-01 2012-11-06 Microsoft Corporation Rendering and compositing multiple applications in an interactive media environment
US8799757B2 (en) * 2005-07-01 2014-08-05 Microsoft Corporation Synchronization aspects of interactive multimedia presentation management
US7721308B2 (en) 2005-07-01 2010-05-18 Microsoft Corproation Synchronization aspects of interactive multimedia presentation management
US20070006062A1 (en) * 2005-07-01 2007-01-04 Microsoft Corporation Synchronization aspects of interactive multimedia presentation management
US8108787B2 (en) * 2005-07-01 2012-01-31 Microsoft Corporation Distributing input events to multiple applications in an interactive media environment
US10614626B2 (en) 2005-10-26 2020-04-07 Cortica Ltd. System and method for providing augmented reality challenges
US9256668B2 (en) 2005-10-26 2016-02-09 Cortica, Ltd. System and method of detecting common patterns within unstructured data elements retrieved from big data sources
US9235557B2 (en) 2005-10-26 2016-01-12 Cortica, Ltd. System and method thereof for dynamically associating a link to an information resource with a multimedia content displayed in a web-page
US9953032B2 (en) 2005-10-26 2018-04-24 Cortica, Ltd. System and method for characterization of multimedia content signals using cores of a natural liquid architecture system
US9477658B2 (en) 2005-10-26 2016-10-25 Cortica, Ltd. Systems and method for speech to speech translation using cores of a natural liquid architecture system
US10380623B2 (en) 2005-10-26 2019-08-13 Cortica, Ltd. System and method for generating an advertisement effectiveness performance score
US10621988B2 (en) 2005-10-26 2020-04-14 Cortica Ltd System and method for speech to text translation using cores of a natural liquid architecture system
US10848590B2 (en) 2005-10-26 2020-11-24 Cortica Ltd System and method for determining a contextual insight and providing recommendations based thereon
US9191626B2 (en) 2005-10-26 2015-11-17 Cortica, Ltd. System and methods thereof for visual analysis of an image on a web-page and matching an advertisement thereto
US10691642B2 (en) 2005-10-26 2020-06-23 Cortica Ltd System and method for enriching a concept database with homogenous concepts
US10380164B2 (en) 2005-10-26 2019-08-13 Cortica, Ltd. System and method for using on-image gestures and multimedia content elements as search queries
US8818916B2 (en) 2005-10-26 2014-08-26 Cortica, Ltd. System and method for linking multimedia data elements to web pages
US9646005B2 (en) 2005-10-26 2017-05-09 Cortica, Ltd. System and method for creating a database of multimedia content elements assigned to users
US11032017B2 (en) 2005-10-26 2021-06-08 Cortica, Ltd. System and method for identifying the context of multimedia content elements
US9396435B2 (en) 2005-10-26 2016-07-19 Cortica, Ltd. System and method for identification of deviations from periodic behavior patterns in multimedia content
US8326775B2 (en) 2005-10-26 2012-12-04 Cortica Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
US11604847B2 (en) 2005-10-26 2023-03-14 Cortica Ltd. System and method for overlaying content on a multimedia content element based on user interest
US10535192B2 (en) 2005-10-26 2020-01-14 Cortica Ltd. System and method for generating a customized augmented reality environment to a user
US10360253B2 (en) 2005-10-26 2019-07-23 Cortica, Ltd. Systems and methods for generation of searchable structures respective of multimedia data content
US9286623B2 (en) 2005-10-26 2016-03-15 Cortica, Ltd. Method for determining an area within a multimedia content element over which an advertisement can be displayed
US11019161B2 (en) 2005-10-26 2021-05-25 Cortica, Ltd. System and method for profiling users interest based on multimedia content analysis
US9529984B2 (en) 2005-10-26 2016-12-27 Cortica, Ltd. System and method for verification of user identification based on multimedia content elements
US11403336B2 (en) 2005-10-26 2022-08-02 Cortica Ltd. System and method for removing contextually identical multimedia content elements
US8266185B2 (en) 2005-10-26 2012-09-11 Cortica Ltd. System and methods thereof for generation of searchable structures respective of multimedia data content
US11620327B2 (en) 2005-10-26 2023-04-04 Cortica Ltd System and method for determining a contextual insight and generating an interface with recommendations based thereon
US10180942B2 (en) * 2005-10-26 2019-01-15 Cortica Ltd. System and method for generation of concept structures based on sub-concepts
US9384196B2 (en) 2005-10-26 2016-07-05 Cortica, Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
US9466068B2 (en) 2005-10-26 2016-10-11 Cortica, Ltd. System and method for determining a pupillary response to a multimedia data element
US10607355B2 (en) 2005-10-26 2020-03-31 Cortica, Ltd. Method and system for determining the dimensions of an object shown in a multimedia content item
US9372940B2 (en) 2005-10-26 2016-06-21 Cortica, Ltd. Apparatus and method for determining user attention using a deep-content-classification (DCC) system
US10191976B2 (en) 2005-10-26 2019-01-29 Cortica, Ltd. System and method of detecting common patterns within unstructured data elements retrieved from big data sources
US10742340B2 (en) 2005-10-26 2020-08-11 Cortica Ltd. System and method for identifying the context of multimedia content elements displayed in a web-page and providing contextual filters respective thereto
US10387914B2 (en) 2005-10-26 2019-08-20 Cortica, Ltd. Method for identification of multimedia content elements and adding advertising content respective thereof
US10585934B2 (en) 2005-10-26 2020-03-10 Cortica Ltd. Method and system for populating a concept database with respect to user identifiers
US9031999B2 (en) 2005-10-26 2015-05-12 Cortica, Ltd. System and methods for generation of a concept based database
US9558449B2 (en) 2005-10-26 2017-01-31 Cortica, Ltd. System and method for identifying a target area in a multimedia content element
US11003706B2 (en) 2005-10-26 2021-05-11 Cortica Ltd System and methods for determining access permissions on personalized clusters of multimedia content elements
US9218606B2 (en) 2005-10-26 2015-12-22 Cortica, Ltd. System and method for brand monitoring and trend analysis based on deep-content-classification
US10635640B2 (en) 2005-10-26 2020-04-28 Cortica, Ltd. System and method for enriching a concept database
US10372746B2 (en) 2005-10-26 2019-08-06 Cortica, Ltd. System and method for searching applications using multimedia content elements
US11386139B2 (en) 2005-10-26 2022-07-12 Cortica Ltd. System and method for generating analytics for entities depicted in multimedia content
US10949773B2 (en) 2005-10-26 2021-03-16 Cortica, Ltd. System and methods thereof for recommending tags for multimedia content elements based on context
US11216498B2 (en) 2005-10-26 2022-01-04 Cortica, Ltd. System and method for generating signatures to three-dimensional multimedia data elements
US8312031B2 (en) 2005-10-26 2012-11-13 Cortica Ltd. System and method for generation of complex signatures for multimedia data content
US10380267B2 (en) 2005-10-26 2019-08-13 Cortica, Ltd. System and method for tagging multimedia content elements
US9639532B2 (en) 2005-10-26 2017-05-02 Cortica, Ltd. Context-based analysis of multimedia content items using signatures of multimedia elements and matching concepts
US9330189B2 (en) 2005-10-26 2016-05-03 Cortica, Ltd. System and method for capturing a multimedia content item by a mobile device and matching sequentially relevant content to the multimedia content item
US10698939B2 (en) 2005-10-26 2020-06-30 Cortica Ltd System and method for customizing images
US10193990B2 (en) 2005-10-26 2019-01-29 Cortica Ltd. System and method for creating user profiles based on multimedia content
US9767143B2 (en) 2005-10-26 2017-09-19 Cortica, Ltd. System and method for caching of concept structures
US10776585B2 (en) 2005-10-26 2020-09-15 Cortica, Ltd. System and method for recognizing characters in multimedia content
US11361014B2 (en) 2005-10-26 2022-06-14 Cortica Ltd. System and method for completing a user profile
US9489431B2 (en) 2005-10-26 2016-11-08 Cortica, Ltd. System and method for distributed search-by-content
US10733326B2 (en) 2006-10-26 2020-08-04 Cortica Ltd. System and method for identification of inappropriate multimedia content
US20080165281A1 (en) * 2007-01-05 2008-07-10 Microsoft Corporation Optimizing Execution of HD-DVD Timing Markup
US20150286623A1 (en) * 2014-04-02 2015-10-08 Samsung Electronics Co., Ltd. Method and apparatus for marking relevant updates to html 5
US20170344523A1 (en) * 2016-05-25 2017-11-30 Samsung Electronics Co., Ltd Method and apparatus for presentation customization and interactivity

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5367621A (en) * 1991-09-06 1994-11-22 International Business Machines Corporation Data processing method to provide a generalized link from a reference point in an on-line book to an arbitrary multimedia object which can be dynamically updated
US5613134A (en) * 1993-09-17 1997-03-18 Digital Equipment Corporation Document display system using documents having ephemeral attributes for sharing information regarding the location of the display of each document on multiple display devices
US5659790A (en) * 1995-02-23 1997-08-19 International Business Machines Corporation System and method for globally scheduling multimedia stories
JP3826604B2 (ja) * 1998-10-16 2006-09-27 富士ゼロックス株式会社 プレゼンテーション資料のシナリオ生成装置およびシナリオ生成方法
US6490564B1 (en) * 1999-09-03 2002-12-03 Cisco Technology, Inc. Arrangement for defining and processing voice enabled web applications using extensible markup language documents
WO2001018678A2 (en) 1999-09-07 2001-03-15 Liberate Technologies, L.L.C. Methods, apparatus, and systems for storing, retrieving and playing multimedia data
US6779154B1 (en) * 2000-02-01 2004-08-17 Cisco Technology, Inc. Arrangement for reversibly converting extensible markup language documents to hypertext markup language documents
US7725812B1 (en) * 2000-03-31 2010-05-25 Avid Technology, Inc. Authoring system for combining temporal and nontemporal digital media
AUPQ867700A0 (en) * 2000-07-10 2000-08-03 Canon Kabushiki Kaisha Delivering multimedia descriptions
AU2002224573A1 (en) * 2000-07-14 2002-02-05 Infinite Broadcast Corporation Multimedia player and browser system
US20020083469A1 (en) * 2000-12-22 2002-06-27 Koninklijke Philips Electronics N.V. Embedding re-usable object-based product information in audiovisual programs for non-intrusive, viewer driven usage
KR20030095048A (ko) * 2002-06-11 2003-12-18 엘지전자 주식회사 멀티미디어 재생 방법 및 장치

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008539483A (ja) * 2005-04-27 2008-11-13 インターナショナル・ビジネス・マシーンズ・コーポレーション Smilベース・マルチメディア・コンテンツを再生するためのシステム、方法、及びエンジン
JP4726949B2 (ja) * 2005-04-27 2011-07-20 インターナショナル・ビジネス・マシーンズ・コーポレーション Smilベース・マルチメディア・コンテンツを再生するためのシステム、方法、及びエンジン
JP2009500912A (ja) * 2005-07-01 2009-01-08 マイクロソフト コーポレーション 対話型マルチメディアプレゼンテーションの状態ベースタイミング
JP2009501459A (ja) * 2005-07-01 2009-01-15 マイクロソフト コーポレーション 対話式マルチメディア環境の状態変化への宣言式応答
JP2016522916A (ja) * 2013-03-26 2016-08-04 サムスン エレクトロニクス カンパニー リミテッド Htmlページの提示装置及び方法

Also Published As

Publication number Publication date
EP1445710A3 (en) 2005-03-23
US20040068510A1 (en) 2004-04-08
US7519616B2 (en) 2009-04-14
EP1445710A2 (en) 2004-08-11
KR20040031658A (ko) 2004-04-13

Similar Documents

Publication Publication Date Title
JP2004166253A (ja) マルチメディアオブジェクトのための時間基準
RU2328040C2 (ru) Устройство воспроизведения мультимедийных данных, способ приема аудиоданных и структура аудиоданных в них
JP3880517B2 (ja) 文書処理方法
US7139869B2 (en) Data format for a streaming information appliance
US7000245B1 (en) System and method for recording pushed data
US7743032B2 (en) Scalable programmable video recorder
EP1224806B1 (en) System and method for recording pushed data
US8490147B2 (en) System and method for collecting contents on audio/video network and controlling execution of the contents
RU2292584C2 (ru) Способ и устройство для синхронизации интерактивного содержимого
US20070006065A1 (en) Conditional event timing for interactive multimedia presentations
KR20110056476A (ko) 향상된 메타데이터 구조들을 사용하는 멀티미디어 배포 및 재생 시스템들 및 방법들
US9219950B2 (en) Reproduction apparatus, reproduction method, and program
US20100185765A1 (en) Content information providing and reproducing method and apparatus
JP2002354423A (ja) コンテンツを格納するための方法
KR20100045189A (ko) Ait를 이용한 애플리케이션의 제공 방법 및 그 장치
WO2007064438A1 (en) Triggerless interactive television
US20190158928A1 (en) Video summary information playback device and method and video summary information providing server and method
AU2003244622A1 (en) Time references for multimedia objects
RU2342692C2 (ru) Временные ссылки для объектов мультимедиа
US20160322080A1 (en) Unified Processing of Multi-Format Timed Data
US8565579B2 (en) Method of updating additional data and apparatus for reproducing the same
KR20050048416A (ko) 프리로딩 정보가 기록된 저장 매체, 재생 장치 및 그 재생방법
JP4590464B2 (ja) 放送受信装置及びその制御方法
JP2008060945A (ja) 配信システムおよび配信方法
JP2009100451A (ja) コンテンツ及びコンテンツについてのアプリケーションの録画方法及びその装置、コンテンツの再生方法及びその装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090925

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100302