JP2006514806A - マルチメディアデータの提供装置及びその提供方法並びにその方法を記録した記録媒体 - Google Patents

マルチメディアデータの提供装置及びその提供方法並びにその方法を記録した記録媒体 Download PDF

Info

Publication number
JP2006514806A
JP2006514806A JP2005518157A JP2005518157A JP2006514806A JP 2006514806 A JP2006514806 A JP 2006514806A JP 2005518157 A JP2005518157 A JP 2005518157A JP 2005518157 A JP2005518157 A JP 2005518157A JP 2006514806 A JP2006514806 A JP 2006514806A
Authority
JP
Japan
Prior art keywords
asset
data
audio data
time
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2005518157A
Other languages
English (en)
Other versions
JP2006514806A5 (ja
Inventor
ポルトニク,ヴラジミール
キム,ドック−ホ
キム,ドゥ−イル
キム,ヨン−ユン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020030036612A external-priority patent/KR100781507B1/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2006514806A publication Critical patent/JP2006514806A/ja
Publication of JP2006514806A5 publication Critical patent/JP2006514806A5/ja
Ceased legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • G06F16/4387Presentation of query results by the use of playlists
    • G06F16/4393Multimedia presentations, e.g. slide shows, multimedia albums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

MPVフォーマットによって記述されるマルチメディアデータの表示装置が提供されるが、前記表示装置は、ユーザが選択したアセットが、単一のオーディオデータと少なくとも1以上の静止画像データとで構成されるアセットである場合に前記オーディオデータを提供し、前記オーディオデータが提供される間に、所定の表示方法によって前記少なくとも1以上の静止画像データを順次に表示させる。

Description

本発明は、マルチメディアデータの提供装置及びその提供方法並びにその方法を記録した記録媒体に関し、より詳しくは、多様な形態のマルチメディアデータをAV機器向けのCD/DVD記録規格であるMPV(ミュージックフォトビデオ)フォーマットの形態で管理し、これをユーザに提供するものに関する。
MPVは、光記憶装置メーカが結成した標準化団体であるOSTA(Optical Storage Technology Association)が開発して2002年11月に発表したマルチメディアタイトルの業界標準規格であって、CDやDVDに収録された多様な形態の音楽、画像、ビデオなどのコンテンツをより便利に楽しむように、ユーザに提供したり、マルチメディアデータを操作して処理できるようにするための規格である。MPVに関する定義及びその他の標準規格は、OSTA公式ウェブサイトを通じて提供され利用できる。
既存に存在する多様なオーディオ、ビデオ、イメージファイルなどを実行するためには、各々に対するアプリケーションプログラムが必要であり、異なる形態のマルチメディアデータファイルを実行するアプリケーションプログラムが存在してはいるが、これは、制限的な範囲内のマルチメディアデータファイルにのみ適用されているので、より多様なマルチメディアデータ間の互換を維持しつつ、ユーザがマルチメディアデータを実行できるには限界がある。
これに対し、MPVは、ユーザの意図通り、記憶媒体に記録された各種マルチメディアデータが再生されるように、XML(eXtensible Markup Language)メタデータを利用して多様なファイル連結を管理するなどの機能を支援し、特に、JPEG、MP3、WMA、WMV、MPEG-1、MPEG-2、MPEG-4を支援し、デジタルカメラフォーマットであるAVI及びクイックタイムMJPEGビデオを支援し、MPV規格ディスクは、ISO9660レベル1及びJolietと互換性があり、マルチセッションCD、DVD、メモリカード、ハードディスク及びインターネットとも互換されることによって、ユーザがより多様なマルチメディアデータを管理し処理できる。しかし、MPVフォーマットに関する標準において、標準で定義されていないマルチメディアデータの形態(以下、アセットという)を示すより多様なエレメントが必要となり、多様なマルチメディアデータをユーザに提供する方法においても、マルチメディアデータの多様な表示機能の追加が要求されている。
本発明では、現在、MPVフォーマットが提案している多様な形態のマルチメディアエレメントに加えて、新しいマルチメディアデータに関するエレメントを提案し、また、より多様にMPVフォーマットのマルチメディアデータをユーザに提供する方法を提案することによって、MPVフォーマットの活用をより一層多様にしようとする。
前記の目的を達成するために本発明の実施によって、MPVフォーマットによって記述されるマルチメディアデータの表示装置が提供されるが、前記表示装置は、ユーザが選択したアセットが、単一のオーディオデータと少なくとも1以上の静止画像データとで構成されるアセットである場合に前記オーディオデータを提供し、前記オーディオデータが提供される間に、所定の表示方法によって前記少なくとも1以上の静止画像データを順次に表示させる。望ましくは、前記所定の表示方法は、前記オーディオデータが提供される間に前記それぞれの静止画像データが表示される時間を表す時間情報によって表示されることを含む。望ましくは、前記時間情報が存在していない場合には、該当静止画像データを表示しないことをさらに含む。
また、前記の目的を達成するために、MPVフォーマットによって記述されるマルチメディアデータの表示方法が提供されるが、前記表示方法は、ユーザが選択したアセットが、単一のオーディオデータと少なくとも1以上の静止画像データとで構成されるアセットであるかどうかを確認する第1段階と、ユーザが選択したアセットが、単一のオーディオデータと少なくともオーディオ1以上の静止画像データとで構成されるアセットである場合には、前記オーディオデータと前記静止画像データとを提供するための参照情報を前記アセットから抽出する第2段階と、前記参照情報を利用して前記オーディオデータを抽出して提供する第3段階と、前記オーディオデータが提供される間に、所定の表示方法によって前記参照情報を利用して少なくとも1以上の前記静止画像データを抽出して順次に表示する第4段階とを含む。望ましくは、前記表示方法は、前記オーディオデータが提供される間に、前記それぞれの静止画像データが表示される時間を表す時間情報によって表示されることを含む。望ましくは、前記時間情報が存在していない場合には、該当静止画像データを表示しないことをさらに含む。
また、前記の目的を達成するために、MPVフォーマットによって記述されるマルチメディアデータのさらに他の表示方法が提供されるが、前記表示方法は、ユーザが選択したアセットが、単一のオーディオデータに対する一部分で構成されるアセットであるかどうかを確認する第1段階と、ユーザが選択したアセットが単一のオーディオデータに対する一部分で構成されるアセットである場合には、前記オーディオデータに対する一部分を提供するための参照情報を前記アセットから抽出する第2段階と、前記参照情報を利用して所定の表示方法によって前記オーディオデータに対する一部分を提供する第3段階と、を含む。望ましくは、前記所定の表示方法は、前記オーディオデータのうち提供される部分についての位置情報を利用するが、前記位置情報は、前記オーディオデータが再生される時間についての時間位置情報であることを含む。望ましくは、前記時間位置情報は、前記オーディオデータのうち再生開始時点を表す時間情報であるか、前記オーディオデータのうち再生される時間を表す時間情報であるか、前記オーディオデータのうち再生終了時点を表す時間情報であるか、または前記時間情報の2つ以上の組合わせであることを含む。
また、前記の目的を達成するために、MPVフォーマットによって記述されるマルチメディアデータのさらに他の表示方法が提供されるが、前記表示方法は、ユーザが選択したアセットが単一のビデオデータに対する一部分で構成されるアセットであるかどうかを確認する第1段階と、ユーザが選択したアセットが単一のビデオデータに対する一部分で構成されるアセットである場合には、前記ビデオデータに対する一部分を提供するための参照情報を前記アセットから抽出する第2段階と、前記参照情報を利用して、所定の表示方法によって前記ビデオデータに対する一部分を表示する第3段階とを含む。望ましくは、前記所定の表示方法は、前記ビデオデータのうち表示される部分についての位置情報を利用するが、前記位置情報は、前記ビデオデータが再生される時間についての時間位置情報であることを含む。望ましくは、前記時間位置情報は、前記ビデオデータのうち表示され始める時点を表す時間情報であるか、前記ビデオデータのうち表示される時間を表す時間情報であるか、前記ビデオデータのうち表示が終了する時点を表す時間情報であるか、または前記時間情報の2つ以上の組合わせであることを含む。
また、前記の目的を達成するために、MPVフォーマットによって記述されるマルチメディアデータの表示のためのプログラムが記録された記録媒体が提供されるが、前記プログラムは、ユーザが選択したアセットが、単一のオーディオデータと少なくとも1以上の静止画像データとで構成されるアセットであるかどうかを確認し、ユーザが選択したアセットが、単一のオーディオデータと少なくとも1以上の静止画像データとで構成されるアセットである場合には、前記オーディオデータと前記静止画像データとを提供するための参照情報を前記アセットから抽出し、前記参照情報を利用して前記オーディオデータを抽出して提供した後、前記オーディオデータが提供される間に、所定の表示方法によって前記参照情報を利用して少なくとも1以上の前記静止画像データを抽出して順次に表示させるが、前記所定の表示方法は、前記オーディオデータが提供される間に、前記それぞれの静止画像データが表示される時間を表す時間情報によって表示させることを特徴とする。
本発明のさらに他の実施例によって、MPVフォーマットによって記述されるマルチメディアデータの表示のためのプログラムが記録された記録媒体が提供されるが、前記プログラムは、ユーザが選択したアセットが、単一のオーディオデータに対する一部分で構成されるアセットであるかどうかを確認し、ユーザが選択したアセットが、単一のオーディオデータに対する一部分で構成されるアセットである場合には、前記オーディオデータに対する一部分を提供するための参照情報を前記アセットから抽出し、前記参照情報を利用して所定の表示方法によって前記オーディオデータに対する一部分を提供するが、前記所定の表示方法は、前記オーディオデータのうち提供される部分についての位置情報を利用して表示させることを特徴とする。
本発明のさらに他の実施例によって、MPVフォーマットによって記述されるマルチメディアデータの表示のためのプログラムが記録された記録媒体が提供されるが、前記プログラムは、ユーザが選択したアセットが、単一のビデオデータに対する一部分で構成されるアセットであるかどうかを確認し、ユーザが選択したアセットが、単一のビデオデータに対する一部分で構成されるアセットである場合には、前記ビデオデータに対する一部分を提供するための参照情報を前記アセットから抽出し、前記参照情報を利用して所定の表示方法によって前記ビデオデータに対する一部分を表示するが、前記所定の表示方法は、前記ビデオデータのうち表示される部分についての位置情報を利用して表示させることを特徴とする。
以下、添付の図面を参照して本発明の一実施例によるMPVフォーマットを用いたマルチメディアデータの提供装置及びその提供方法を説明する。
一方、本発明では、MPVフォーマットに対応したマルチメディアデータを提供するために、XMLを利用しており、以下、XML-スキーマによって記述する。
本発明では、OSTAで提案しない‘AudioWithStill’、‘AudioPart’、‘VideoPart’、‘AudioWithStilsRef’、‘AudioPartRef’、‘VideoPartRef’のような6つの新しいエレメントを提示することによって、より多様なマルチメディアデータを提供している。
以下では、これら6つの新しいエレメントに関する定義と使用例について説明する。
1.‘AudioWithStill’エレメント
‘AudioWithStill’エレメントは、単一のオーディオアセット(audio asset)と1つ以上のスチールアセット(still assets)とを結合した形態のエレメントであって、このスチールアセットは、一般的にスクリーン解像度のイメージファイルを利用する。前記‘AudioWithStill’エレメントをXML-スキーマによって定義すると次の通りである。
(1)element mpv:AudioWithStill,complexType mpv:AudioWithStillType
(2)namespace http://samsung.co.kr/digitalmediaRd/avstation2
(3)type SMPV:AudioWithStillType
(4)children
mpv:ContentID,mpv:DocumentID,mpv:InstanceID,mpv:Metadata,
nmf:Metadata,mpv:StillRef,mpv:AudioRef,SMPV:DisplayTime,
mpv:Related,mpv:Rendition
(5)attributes
Name Type Use Default Fixed
mpv:id xs:ID
(6)
source<xs:element name=“AudioWithStill”type=“SMPV:AudioWithStillType”substitutionGroup=“mpv:CompositeAssetBase”/>
source<xs:complexType name=“AudioWithStillType”>
<xs:complexContent>
<xs:extension base=“mpv:CompositeAssetBaseType”>
<xs:sequence>
<xs:element ref=“mpv:StillRef”maxOccurs=“unbounded”/>
<xs:element ref=“mpv:AudioRef”/>
<xs:element name=“DisplaySchema”type=“xs:string”minOccurs=“0”/>
<xs:group ref=“mpv:RelationsElemGroup”/>
</xs:sequence>
</xs:extension>
</xs:complexContent>
</xs:complexType>
前記‘DisplayTime’エレメントの属性値は、‘秒(second)’単位でそれぞれのスチールアセットを表示する時間を示す。‘DisplayTime’エレメントの属性値には、常に相対的な時間値が入るが、少数点単位でも表すことができる。もし、‘DisplayTime’属性値が指定されないと、表示時間はないこととする。‘DisplayTime’エレメントに関する定義を整理すると次の通りである。
DisplayTime=<clock-value>(“;”<clock-value>)*
clock-value=(<seconds>|<unknown-dur>)
unknown-dur=the empty string
seconds=<decimalnumber>(“.”<decimal number>)?
decimal-number=[0-9][0-9]*
前記‘DisplayTime’エレメントの使用例を見れば、‘DisplayTime’属性値が“3”である場合には、3秒間スチールアセットを表示することを意味し、‘DisplayTime’属性値が“3;5”ある場合には、1番目のスチールアセットは3秒間、2番目のスチールアセットは5秒間表示することを意味する。一方、‘DisplayTime’属性値が“3.5;6;2.7”である場合には、1番目スチールアセットは3.5秒間、2番目のスチールアセットは6秒間、3番目のスチールアセットは2.7秒間表示することを意味する。
2.‘AudioPart’エレメント
‘AudioPart’エレメントは、オーディオアセットの一部分を示す。前記‘AudioPart’エレメントをXML-スキーマによって定義すると次の通りである。
(1)namespace http://samsung.co.kr/digitalmediaRd/avstation2
(2)type SMPV:AssetPartBaseType
(3)children
mpv:Metadata,nmf:Metadata,SMPV:start,SMPV:stop,SMPV:dur,mpv:AudioRef
(4)attributes
Name Type UseDefault Fixed
manifestLinkIDRef xs:NCName optional
listIDRef xs:NCName optional
mpv:id
xs:ID
idRef xs:NCName required
<xs:complexType name=“AudioPart”>
<xs:complexContent>
<xs:sequence>
<xs:element ref=“mpv:Metadata”minOccurs=“0”/>
<xs:element ref=“nmf:Metadata”minOccurs=“0”/>
<xs:element ref=“SMPV:start”minOccurs=“0”/>
<xs:element ref=“SMPV:stop”minOccurs=“0”/>
<xs:element ref=“SMPV:dur”minOccurs=“0”/>
<xs:element ref=“mpv:AudioRef”minOccurs=“1”/>
</xs:sequence>
</xs:complexContent>
</xs:complexType>
前記‘AudioPart’エレメントの属性を示す‘manifestLinkIDRef’は、参照されるアセットを含む‘ManifestLink’アセットのID(mpv:id)値を提供する。もし、前記‘manifestLinkIDRef’が存在しなければ、現在の定義目録(前記定義目録は、‘OSTA XML MANIFEST’を意味する)が使われる。
一方、‘listIDRef’は、参照されるアセットを含む‘AssetList’または‘MarkList’のID(mpv:id)値を提供する。もし、前記‘listIDRef’が存在しなければ、同じ定義目録にある‘AssetList’が使われる。
また、‘idRef’は、参照されるアセットのID(mpv:id)値を提供するが、もし、前記‘listIDRef’がなければ、現在の定義目録にある‘AssetList’が使われる。もし、前記‘manifestLinkIDRef’がなければ、現在の定義目録が使われる。
一方、前記‘AudioPart’エレメントの下位エレメントとして、‘SMPV:start’、‘SMPV:stop’、‘SMPV:dur’を定義しているが、前記3つの下位エレメントのうち少なくとも1つ以上は、必ずその属性値が指定されなければならない。
‘SMPV:start’エレメントは、<xs:element name=“SMPV:start”type=“xs:long”minOccurs=“0”/>のように定義されることができるが、参照されるオーディオアセットの全体時間中の一部分に対して始める地点を‘秒’単位で示す。もし、どんな値も与えられないと、開始時間は、‘SMPV:stop’、‘SMPV:dur’の属性値を基礎にして[SMPV:start]=[SMPV:stop]-[SMPV:dur]のように計算される。‘SMPV:stop’または‘SMPV:dur’の属性値が指定されないと、‘SMPV:start’の属性値は0になる。
‘SMPV:stop’エレメントは、<xs:element name=“SMPV:stop”type=“xs:long”minOccurs=“0”/>のように定義されることができるが、参照されるオーディオアセットの全体時間中の一部分に対して終わる地点を‘秒’単位で示す。もし、どんな値も与えられないと、終了時間は、‘SMPV:start’、‘SMPV:dur’の属性値を基礎にして[SMPV:stop]=[SMPV:start]+[SMPV:dur]のように計算される。‘SMPV:dur’の属性値が指定されずに、‘SMPV:start’の属性値が指定されれば、‘SMPV:stop’の属性値は、参照されるアセットの終了時間になる。反面、‘SMPV:start’の属性値が指定されずに、‘SMPV:dur’の属性値が指定されれば、‘SMPV:stop’の属性値は、‘SMPV:dur’の値になる。
‘SMPV:dur’エレメントは、<xs:element name=“SMPV:dur”type=“xs:long”minOccurs=“0”/>のように定義されることができるが、参照されるオーディオアセットの全体時間中の一部分に対する時間を示す。もし、‘SMPV:dur’の属性値が与えられないと、‘[SMPV:dur]=[SMPV:stop]-[SMPV:start]’のような方法で計算できる。もし、‘SMPV:stop’または‘SMPV:dur’の属性値が指定されないと、‘SMPV:dur’の値は定義されない。
3.‘VideoPart’エレメント
‘VideoPart’エレメントは、ビデオアセットの一部分を示す。前記‘VideoPart’エレメントをXML-スキーマによって定義すると次の通りである。
(1)namespace http://samsung.co.kr/digitalmediaRd/avstation2
(2)type SMPV:AssetPartBaseType
(3)children
mpv:Metadata,nmf:Metadata,SMPV:start,SMPV:stop,SMPV:dur,mpv:VideoRef
(4)attributes
Name Type Use Default Fixed
manifestLinkIDRef
xs:NCName optional
listIDRef
xs:NCName optional
mpv:id xs:ID
idRef xs:NCName
required
xs:complexType name=“VideoPart”>
<xs:complexContent>
<xs:sequence>
<xs:element ref=“mpv:Metadata”minOccurs=“0”/>
<xs:element ref=“nmf:Metadata”minOccurs=“0”/>
<xs:element ref=“SMPV:start”minOccurs=“0”/>
<xs:element ref=“SMPV:stop”minOccurs=“0”/>
<xs:element ref=“SMPV:dur”minOccurs=“0”/>
<xs:element ref=“mpv:VideoRef”minOccurs=“1”/>
</xs:sequence>
</xs:complexContent>
</xs:complexType>
4.‘AudioWithStilsRef’エレメント
‘AudioWithStilsRef’エレメントは、‘AudioWithStill’エレメントを参照するが、前記‘AudioWithStilsRef’エレメントをXML-スキーマによって定義すると次の通りである。
(1)Attributes
Name Type Use Default Fixed
manifestLinkIDRef xs:NCName optional
listIDRef xs:NCName optional
mpv:id xs:ID
idRef xs:NCName required
5.‘AudioPartRef’エレメント
‘AudioPartRef’エレメントは‘AudioPart’エレメントを参照するが、前記‘AudioPartRef’エレメントをXML-スキーマによって定義すると次の通りである。
(1)Attributes
Name Type Use Default Fixed
manifestLinkIDRef xs:NCName optional
listIDRef xs:NCName optional
mpv:id xs:ID
idRef xs:NCName required
前記‘AudioPartRef’エレメントの属性を示す‘manifestLinkIDRef’は、参照されるアセットを含む‘ManifestLink’アセットのID(mpv:id)値を提供する。もし、前記‘manifestLinkIDRef’が存在しなければ、現在の定義目録(前記定義目録は、‘OSTA XML MANIFEST’を意味する)が使われる。
一方、‘listIDRef’は、参照されるアセットを含む‘AssetList’または‘MarkList’のID(mpv:id)値を提供する。もし、前記‘listIDRef’が存在しなければ、同じ定義目録にある。‘AssetList’が使われる。
また、‘idRef’は、参照されるアセットのID(mpv:id)値を提供するが、もし、前記‘listIDRef’がなければ、現在の定義目録にある‘AssetList’が使われる。もし、前記‘manifestLinkIDRef’がなければ、現在の定義目録が使われる。
6.‘VideoPartRef’エレメント
‘VideoPartRef’エレメントは、‘VideoPart’エレメントを参照するが、前記‘VideoPartRef’エレメントをXML-スキーマによって定義すると次の通りである。
(1)Attributes
Name Type Use Default Fixed
manifestLinkIDRef
xs:NCName optional
listIDRef
xs:NCName optional
mpv:id xs:ID
idRef xs:NCName
required
上述のように提示した新しいエレメントを用いてユーザにマルチメディアデータを提供するための方法をXMLで表せば、次の通りである。便宜上、前記6つのエレメントの中で‘AudioPart’エレメントを例に取る。
例)
01−<mpv:Audio mpv:id=”ID000100”>
02−<mpv:LastURL>music.mp3</mpv:LastURL>
03−</mpv:Audio>
04−<SMPV:AudioPart mpv:id=”ID0001001”>
05−<mpv:AudioRef mpv:idRef=”ID000100”/>
06−<SMPV:start>2</SMPV:start>
07−<SMPV:stop>7</SMPV:stop>
08−</SMPV:AudioPart>
09−<SMPV:AudioPart mpv:id=”ID0001002”>
10−<mpv:AudioRef mpv:idRef=”ID000100”/>
11−<SMPV:start>2</SMPV:start>
12−<SMPV:dur>5</SMPV:dur>
13−</SMPV:AudioPart>
14−<SMPV:AudioPart mpv:id=”ID0001002”>
15−<mpv:AudioRef mpv:idRef=”ID000100”/>
16−<SMPV:stop>7</SMPV:stop>
17−<SMPV:dur>5</SMPV:dur>
18−</SMPV:AudioPart>
前記例の‘01’ないし‘03’は、MPVフォーマット標準で提案している‘Audio’アセットのID(id)を‘ID000100’に設定し、実際‘Audio’アセットに該当するオーディオファイルは、‘music.mp3’に設定していることを表している。
また、前記例の‘04’ないし‘08’は、本発明による‘AudioPart’アセットのID(id)を‘ID0001001’に設定し、参照される‘Audio’アセットを、IDが‘ID000100’である前記‘music.mp3’に設定していることを表しているが、この時、前記‘music.mp3’が実行される全体長さにおいて曲の開始点を基準にして2秒から7秒までのみを実行されるようにしていることを表している。
また、前記例の‘09’ないし‘13’は、本発明による‘AudioPart’アセットのID(id)を‘ID0001002’に設定し、参照される‘Audio’アセットを、IDが‘ID000100’である前記‘music.mp3’に設定していることを表しているが、この時、前記‘music.mp3’が実行される全体長さにおいて曲の開始点を基準にして2秒となる部分から始めて5秒間実行されるようにしていることを表している。
また、前記例の‘14’ないし‘18’は、本発明による‘AudioPart’アセットのID(id)を‘ID0001002’に設定し、参照される‘Audio’アセットをIDが‘ID000100’である前記‘music.mp3’に設定していることを表しているが、この時、前記‘music.mp3’が実行される全体長さにおいて曲の開始点を基準にして7秒となる部分で終わり、終わる前の5秒間、すなわち結果的に2秒から7秒まで実行されるようにしていることを表している。
図1は、本発明によるマルチメディアデータの提供装置100のブロック構成図を示す例示図であって、ユーザにより分類されたMPVフォーマットに対応した複数のマルチメディアデータのうちユーザが選択した単一のマルチメディアデータを表示する第1の表示モードと、前記分類された複数のマルチメディアデータを順次に表示(以下、トランジションという)する第2の表示モードとを選択的に提供する表示部110と、前記表示モードを選択するためのユーザ入力部130と、前記ユーザ入力部から入力された制御情報に対応する表示モードを前記表示部に伝達する制御部120とから構成される。この際、ユーザ入力140により第1の表示モードが選択された場合、表示されたマルチメディアデータ、例えばイメージデータを拡大、縮小したり、回転することができる機能を提供し、第2の表示モードが選択された場合には、複数のマルチメディアデータがユーザにより選択されたデータトランジション時間およびデータ表示時間によって順次にトランジションすることができる機能を提供する。一方、MPVフォーマットに対応したマルチメディアデータは、XML文書の形態で記述されて表すことができるが、XML文書に適用されるスタイルシートによって複数のアプリケーション文書に変換できる。本発明では、XML文書をHTML文書に変換するスタイルシートを適用して、ブラウザーを通じてユーザがマルチメディアデータを管理できるようにしているが、この他にも、WML、cHTML(コンパクトHTML)文書に変換するスタイルシートを適用して、PDA、セルラーホーン、スマートホーンなどのようなモバイル端末機を介してユーザがMPVフォーマットに対応したマルチメディアデータに対する接近が可能である。
図2は、本発明によるマルチメディアデータの提供方法により具現されたアプリケーションプログラムの一実施例を示している。図2に示されたアプリケーションプログラム200は、プレゼンテーション領域210、制御領域220及びサムネイル領域230に分けられることができる。前記サムネイル領域230は、予めユーザにより分類されたマルチメディアデータを提供し、前記プレゼンテーション領域210は、前記サムネイル領域でユーザにより選択されたマルチメディアデータをスクリーンイメージ形態で拡大して示したり、前記サムネイル領域で表示されたマルチメディアデータを順次にスライド形態でユーザに示す。前記制御領域220は、前記プレゼンテーション領域210で表示されるマルチメディアデータの画面制御、例えば、複数のイメージデータを連続的に示す場合、その実行を一時中断させたり、1つのイメージデータから次のイメージデータにトランジションされる時間設定、又は、1つのイメージデータを示す時間設定などを行う。
図3は、本発明によるマルチメディアデータの提供方法により具現されたアプリケーションプログラムにおいて、プレゼンテーション領域310で複数のマルチメディアデータが順次に表示されている様子を示す一実施例である。制御領域320では、前記マルチメディアデータがトランジションされる時間および1つのマルチメディアデータが表示される時間をユーザの入力により設定できる機能を具備している。図3では、前記トランジションされる時間を‘Transition duration’として2秒に設定し、前記表示される時間を‘Display duration’として2秒に設定している。一方、前記プレゼンテーション領域310では、順次に続くマルチメディアデータが前記プレゼンテーション領域310の右側下段部から部分的にトランジションされる様子を示しているが、このようなトランジション機能は、SMPTEで定義しているが、本発明では、MPVフォーマットのマルチメディアデータを、XMLメタデータを使用してトランジションする前記トランジション機能を提供している。
図4ないし図8は、多様な前記トランジション機能を例示したものである。図4は、マルチメディアデータが粉砕されながら次のマルチメディアデータが現れる様子を示しており、図5は、プレゼンテーション領域310の右側上段から次のマルチメディアデータが現れる様子を示しており、図6は、プレゼンテーション領域310の中央部から上下左右方向に次のマルチメディアデータが現れる様子を示しており、図7は、プレゼンテーション領域310からグリッド状でマルチメディアデータがトランジションされる様子を示しており、図8は、プレゼンテーション領域310の中央から両側に次のマルチメディアデータが現れる様子を示している。
図2ないし図8に示した本発明による実施例のような機能を具現するためのアルゴリズムを、それぞれのステップ別に示す。
ステップ1.SMPV文書の初期化
ステップ2.アセット客体に対するポインタ目録生成
ステップ3.サムネイルグリッド表示
ステップ4.ユーザ実行によってステップ5、ステップ6、ステップ7に分類
ステップ5.アルバムオプーン
ステップ6.スクリーンレンディション(screen rendition)表示
ステップ6-1.‘オプション’表示
ステップ6-1-1.ズーム
ステップ6-1-2.回転
ステップ7.スライドショー開始
ステップ7-1.スライドショー表示制御
ステップ7-1-1.スライドショー一時停止
ステップ7-1-2.スライドショー終了
ステップ7-1-3. スライドショー表示オプション
ステップ7-1-3-1.表示時間とトランジション時間設定
ステップ7-1-3-2.適用
ステップ7-1-3-3.クローズ
ステップ7-2.スライドショー表示
ステップ8.次のアセット表示
一方、下記の表1から表3は、前記アルゴリズムを具現するために使われた特別なクラスに対する関数名称、それぞれの関数機能を示す説明、前記それぞれの関数が使用された前記ステップを示している。


一方、図9は、前記それぞれのステップをフローチャートで示しているが、先ず、本発明による新しいエレメントを含むMPVフォーマットで構成されたSMPV文書を初期化(S901)した後、アセット客体に対するポインタの目録を生成する(S903)。サムネイルグリッドを表示(S905)した後、ユーザの実行を待つ(S907)。もし、ユーザが新しいアルバムを選択すれば、新しいアルバムをオプーンし(S911)、さらにSMPV文書の初期化ステップを経るようになる(S901)。もし、ユーザがスクリーンレンディションを表示すれば(S921)、前記スクリーンレンディションを制御できる機能を提供するが(S923)、ユーザの実行によってズーム機能を実行したり(S929)、回転機能を実行する(S927)。または、次のアセットを表示することもできる(S963)。一方、ユーザがスライドショーを選択すれば、スライドショーが開始され(S941)、この際、スライドショーが実行されながら(S945)、スライドショーを制御できる機能を提供する(S943)。この際、ユーザは、スライドショーを一時的に停止したり(S949)、スライドショーを終了することもでき(S961)、‘オプション’メニューを選択し(S951)、トランジション時間と表示時間を変更(S953)して適用することによって(S959)、前記変更されたトランジション時間と表示時間によってスライドショーを実行することができる。
図10は、前記ステップ3においてサムネイルグリッドを表示した後、ステップ4においてユーザの実行を待つまでの過程を具体的に示す実施例の処理フローチャートである。サムネイルグリッドを表示すれば(S1010)、アセット目録を要請し(S1015)、目録にある全てのアセットに対してアセットタイプを得る(S1020)。以後、前記アセットタイプを検査し(S1025)、アセットタイプによってサムネイルレンディションを表示したり(S1030)、文書アイコンを得たり(S1035)、アルバムアイコンを得たり(S1040)、サウンドアイコン(S1045)を得る。それから、HTMLを生成し(S1050)、イベント処理者(event handler)を登録(S1055)した後、ユーザの実行を待ち(S1060)、前記ステップS1020の過程を繰り返す。
図11は、スライドショーを実行する過程を具体的に示す一実施例の処理フローチャートであり、アルバムにあるアセットを順次にユーザに提供するが、この際、各々のアセットは、次のアセットが現れる方法を規定しているトランジションに対してあらかじめ定義できる。まず、スライドショー目録を初期化(S1110)した後、利用可能なトランジション目録を示す‘MSTransitions’、現在のトランジションIDを示す‘TransInd’、アセット客体目録を示す‘ArAlbumItem’、アルバムにあるアセットに対するインデックスを示す‘i’、トランジションされる間に所要される時間を示す‘TransDur’、1つのアセットが表示される時間を示す‘DisplayDuration’を設定する(S1115)。この際、‘MSTransitions’と‘ArAlbumItem’は、データタイプがアレイのような構造を有する。前記変数が設定されれば、現在のアセットを得(S1120)、前記アセットが予め定義されたトランジションを有しているかを検査し(S1125)、もし、有していなければ、前記‘TransInd’を媒介変数としてこれに対応するトランジション客体を得る(S1130)。それから、次のアセットのためトランジション客体を得るために、‘TransInd’の値を1増加させ(S1135)、トランジション時間を前記‘TransDur’と同様に設定(S1140)した後、トランジションを実行する(S1170)。一方、前記S1125ステップで、予め定義されたトランジションを有していれば、前記予め定義されたトランジションは、前記‘MSTransitions’、‘TransInd’、‘ArAlbumItem’、‘TransDur’、‘DisplayDuration’のような変数より高い優先順位を有する。多様なトランジション方法を有しているデータベースから捜し出して(S1145)、トランジションタイプまたはトランジションサブタイプをユーザに提供するトランジションタイプに変換される(S1150)。このように変換されたトランジションタイプを‘TransType’とする。また、予め定義されたトランジションは、トランジションされる時間に対する情報を含むことができるが、この値を‘TDur’として(S1155)、トランジション客体を初期化し(S1160)、トランジションされる時間を前記‘TDur’と同様に設定(S1165)した後、トランジションを実行する(S1170)。トランジションが実行された後、前記‘i’を増加させ(S1175)、前記増加された‘i’値が前記‘ArAlbumItem’の大きさ、すなわちスライドショーを提供しているアルバムに属する全体アセット客体の数よりも小さければ、前記アルバムに属する次の順序のアセットへ移動した後、前記ステップS720から繰り返すようになる(S1180、S1185、S1120)。しかし、もし、‘i’値が、‘ArAlbumItem’の値と同じか大きければ、スライドショーは停止する(S1190)。
以上説明したように、本発明によると、多様なマルチメディアデータをユーザに提供することができ、新しい概念のマルチメディアデータを定義し、ユーザに提供されている形態を多様に具現することによって、ユーザは、より效率的に多様なマルチメディアデータを管理し処理することができる。
本発明は、本発明の技術的思想から逸脱することなく、他の種々の形態で実施することができる。前述の実施例は、あくまでも、本発明の技術内容を明らかにするものであって、そのような具体例のみに限定して狭義に解釈されるべきものではなく、本発明の精神と特許請求の範囲内で、いろいろと変更して実施することができるものである。
本発明によるマルチメディアデータの提供装置のブロック構成を示す例示図である。 本発明によるマルチメディアデータの提供方法により具現されたアプリケーションプログラムの構成を示す例示図である。 本発明によるマルチメディアデータの提供方法により具現されたアプリケーションプログラムにおいて、ユーザの機能設定によるマルチメディアデータの表示を示す例示図である。 本発明による多様なトランジションを示す例示図である。 本発明による多様なトランジションを示す例示図である。 本発明による多様なトランジションを示す例示図である。 本発明による多様なトランジションを示す例示図である。 本発明による多様なトランジションを示す例示図である。 本発明によるマルチメディアデータの提供方法を示す一実施例の処理フローチャートである。 本発明によるサムネイルグリッドを表示した後、ユーザの実行を待つまでの過程を示す一実施例の処理フローチャートである。 本発明によるスライドショーを実行する過程を示す一実施例の処理フローチャートである。

Claims (15)

  1. MPVフォーマットによって記述されるマルチメディアデータの表示装置において、
    ユーザが選択したアセットが、単一のオーディオデータと少なくとも1以上の静止画像データとで構成されるアセットである場合に前記オーディオデータを提供し、前記オーディオデータが提供される間に、所定の表示方法によって前記少なくとも1以上の静止画像データを順次に表示させるマルチメディアデータ表示装置。
  2. 前記所定の表示方法は、前記オーディオデータが提供される間に前記それぞれの静止画像データが表示される時間を表す時間情報によって表示されることを含む請求項1に記載のマルチメディアデータ表示装置。
  3. 前記時間情報が存在していない場合には、該当静止画像データを表示しないことをさらに含む請求項2に記載のマルチメディアデータ表示装置。
  4. MPVフォーマットによって記述されるマルチメディアデータの表示方法において、
    ユーザが選択したアセットが、単一のオーディオデータと少なくとも1以上の静止画像データとで構成されるアセットであるかどうかを確認する第1段階と、
    ユーザが選択したアセットが、単一のオーディオデータと少なくともオーディオ1以上の静止画像データとで構成されるアセットである場合には、前記オーディオデータと前記静止画像データとを提供するための参照情報を前記アセットから抽出する第2段階と、
    前記参照情報を利用して前記オーディオデータを抽出して提供する第3段階と、
    前記オーディオデータが提供される間に、所定の表示方法によって前記参照情報を利用して少なくとも1以上の前記静止画像データを抽出して順次に表示する第4段階と、を含むマルチメディアデータ表示方法。
  5. 前記表示方法は、前記オーディオデータが提供される間に、前記それぞれの静止画像データが表示される時間を表す時間情報によって表示されることを含む請求項4に記載のマルチメディアデータ表示方法。
  6. 前記時間情報が存在していない場合には、該当静止画像データを表示しないことをさらに含む請求項5に記載のマルチメディアデータ表示方法。
  7. MPVフォーマットによって記述されるマルチメディアデータの表示方法において、
    ユーザが選択したアセットが、単一のオーディオデータに対する一部分で構成されるアセットであるかどうかを確認する第1段階と、
    ユーザが選択したアセットが単一のオーディオデータに対する一部分で構成されるアセットである場合には、前記オーディオデータに対する一部分を提供するための参照情報を前記アセットから抽出する第2段階と、
    前記参照情報を利用して所定の表示方法によって前記オーディオデータに対する一部分を提供する第3段階と、を含むマルチメディアデータ表示方法。
  8. 前記所定の表示方法は、前記オーディオデータのうち提供される部分についての位置情報を利用するが、前記位置情報は、前記オーディオデータが再生される時間についての時間位置情報であることを含む請求項7に記載のマルチメディアデータ表示方法。
  9. 前記時間位置情報は、前記オーディオデータのうち再生開始時点を表す時間情報であるか、前記オーディオデータのうち再生される時間を表す時間情報であるか、前記オーディオデータのうち再生終了時点を表す時間情報であるか、または前記時間情報の2つ以上の組合わせであることを含む請求項8に記載のマルチメディアデータ表示方法。
  10. MPVフォーマットによって記述されるマルチメディアデータの表示方法において、
    ユーザが選択したアセットが単一のビデオデータに対する一部分で構成されるアセットであるかどうかを確認する第1段階と、
    ユーザが選択したアセットが単一のビデオデータに対する一部分で構成されるアセットである場合には、前記ビデオデータに対する一部分を提供するための参照情報を前記アセットから抽出する第2段階と、
    前記参照情報を利用して、所定の表示方法によって前記ビデオデータに対する一部分を表示する第3段階とを含むマルチメディアデータ表示方法。
  11. 前記所定の表示方法は、前記ビデオデータのうち表示される部分についての位置情報を利用するが、前記位置情報は、前記ビデオデータが再生される時間についての時間位置情報であることを含む請求項10に記載のマルチメディアデータ表示方法。
  12. 前記時間位置情報は、前記ビデオデータのうち表示され始める時点を表す時間情報であるか、前記ビデオデータのうち表示される時間を表す時間情報であるか、前記ビデオデータのうち表示が終了する時点を表す時間情報であるか、または前記時間情報の2つ以上の組合わせであることを含む請求項11に記載のマルチメディアデータ表示方法。
  13. MPVフォーマットによって記述されるマルチメディアデータの表示のためのプログラムが記録された記録媒体において、
    前記プログラムは、ユーザが選択したアセットが、単一のオーディオデータと少なくとも1以上の静止画像データとで構成されるアセットであるかどうかを確認し、ユーザが選択したアセットが、単一のオーディオデータと少なくとも1以上の静止画像データとで構成されるアセットである場合には、前記オーディオデータと前記静止画像データとを提供するための参照情報を前記アセットから抽出し、前記参照情報を利用して前記オーディオデータを抽出して提供した後、前記オーディオデータが提供される間に、所定の表示方法によって前記参照情報を利用して少なくとも1以上の前記静止画像データを抽出して順次に表示させるが、前記所定の表示方法は、前記オーディオデータが提供される間に、前記それぞれの静止画像データが表示される時間を表す時間情報によって表示させることを特徴とする記録媒体。
  14. MPVフォーマットによって記述されるマルチメディアデータの表示のためのプログラムが記録された記録媒体において、
    前記プログラムは、ユーザが選択したアセットが、単一のオーディオデータに対する一部分で構成されるアセットであるかどうかを確認し、ユーザが選択したアセットが、単一のオーディオデータに対する一部分で構成されるアセットである場合には、前記オーディオデータに対する一部分を提供するための参照情報を前記アセットから抽出し、前記参照情報を利用して所定の表示方法によって前記オーディオデータに対する一部分を提供するが、前記所定の表示方法は、前記オーディオデータのうち提供される部分についての位置情報を利用して表示させることを特徴とする記録媒体。
  15. MPVフォーマットによって記述されるマルチメディアデータの表示のためのプログラムが記録された記録媒体において、
    前記プログラムは、ユーザが選択したアセットが、単一のビデオデータに対する一部分で構成されるアセットであるかどうかを確認し、ユーザが選択したアセットが、単一のビデオデータに対する一部分で構成されるアセットである場合には、前記ビデオデータに対する一部分を提供するための参照情報を前記アセットから抽出し、前記参照情報を利用して所定の表示方法によって前記ビデオデータに対する一部分を表示するが、前記所定の表示方法は、前記ビデオデータのうち表示される部分についての位置情報を利用して表示させることを特徴とする記録媒体。
JP2005518157A 2003-06-07 2004-03-10 マルチメディアデータの提供装置及びその提供方法並びにその方法を記録した記録媒体 Ceased JP2006514806A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020030036612A KR100781507B1 (ko) 2003-06-07 2003-06-07 멀티미디어 데이터 전시 장치 및 전시 방법과 상기 방법을 기록한 기록매체
US48993603P 2003-07-25 2003-07-25
PCT/KR2004/000489 WO2004109538A1 (en) 2003-06-07 2004-03-10 Apparatus and method for organization and interpretation of multimedia data on a recording medium

Publications (2)

Publication Number Publication Date
JP2006514806A true JP2006514806A (ja) 2006-05-11
JP2006514806A5 JP2006514806A5 (ja) 2007-10-18

Family

ID=36539283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005518157A Ceased JP2006514806A (ja) 2003-06-07 2004-03-10 マルチメディアデータの提供装置及びその提供方法並びにその方法を記録した記録媒体

Country Status (9)

Country Link
US (3) US20060177019A1 (ja)
EP (1) EP1631918A4 (ja)
JP (1) JP2006514806A (ja)
AU (1) AU2004246532B2 (ja)
BR (1) BRPI0406185A (ja)
CA (1) CA2528261A1 (ja)
MX (1) MXPA05013237A (ja)
RU (1) RU2312390C2 (ja)
WO (1) WO2004109538A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277339A (ja) * 2005-03-29 2006-10-12 Seiko Epson Corp ファイル管理装置、印刷装置、ファイル管理方法及びそのプログラム
JP2007534056A (ja) * 2004-04-02 2007-11-22 サムスン エレクトロニクス カンパニー リミテッド サイクリックレファレンシング管理方法及び装置並びにパージング方法及び装置

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7068729B2 (en) 2001-12-21 2006-06-27 Digital Fountain, Inc. Multi-stage code generator and decoder for communication systems
US6307487B1 (en) 1998-09-23 2001-10-23 Digital Fountain, Inc. Information additive code generator and decoder for communication systems
US9240810B2 (en) 2002-06-11 2016-01-19 Digital Fountain, Inc. Systems and processes for decoding chain reaction codes through inactivation
JP4546246B2 (ja) 2002-10-05 2010-09-15 デジタル ファウンテン, インコーポレイテッド 連鎖的暗号化反応の系統的記号化および復号化
CN1954501B (zh) 2003-10-06 2010-06-16 数字方敦股份有限公司 通过通信信道接收从源发射的数据的方法
EP1743431A4 (en) 2004-05-07 2007-05-02 Digital Fountain Inc SYSTEM FOR DOWNLOADING AND RECORDING AND CONTINUOUS READING OF FILES
KR20060037951A (ko) * 2004-10-29 2006-05-03 삼성전자주식회사 프린트 오더링 파일을 기록한 저장매체, 그 파일의 생성방법 및 장치
EP1771002B1 (en) * 2005-09-30 2017-12-27 LG Electronics Inc. Mobile video communication terminal
CN101686107B (zh) 2006-02-13 2014-08-13 数字方敦股份有限公司 使用可变fec开销和保护周期的流送和缓冲
US9270414B2 (en) 2006-02-21 2016-02-23 Digital Fountain, Inc. Multiple-field based code generator and decoder for communications systems
US7971129B2 (en) 2006-05-10 2011-06-28 Digital Fountain, Inc. Code generator and decoder for communications systems operating using hybrid codes to allow for multiple efficient users of the communications systems
US9209934B2 (en) 2006-06-09 2015-12-08 Qualcomm Incorporated Enhanced block-request streaming using cooperative parallel HTTP and forward error correction
US9419749B2 (en) 2009-08-19 2016-08-16 Qualcomm Incorporated Methods and apparatus employing FEC codes with permanent inactivation of symbols for encoding and decoding processes
US9386064B2 (en) 2006-06-09 2016-07-05 Qualcomm Incorporated Enhanced block-request streaming using URL templates and construction rules
US9178535B2 (en) 2006-06-09 2015-11-03 Digital Fountain, Inc. Dynamic stream interleaving and sub-stream based delivery
US9380096B2 (en) 2006-06-09 2016-06-28 Qualcomm Incorporated Enhanced block-request streaming system for handling low-latency streaming
US9432433B2 (en) 2006-06-09 2016-08-30 Qualcomm Incorporated Enhanced block-request streaming system using signaling or block creation
US9237101B2 (en) 2007-09-12 2016-01-12 Digital Fountain, Inc. Generating and communicating source identification information to enable reliable communications
JP4735991B2 (ja) * 2008-03-18 2011-07-27 ソニー株式会社 画像処理装置および方法、プログラム並びに記録媒体
KR100962704B1 (ko) * 2008-07-02 2010-06-11 유상규 일측 단말의 제어로 타 단말의 주변장치를 이용하는 단말장치 및 그 인터페이스 방법
US8108777B2 (en) * 2008-08-11 2012-01-31 Microsoft Corporation Sections of a presentation having user-definable properties
US9281847B2 (en) 2009-02-27 2016-03-08 Qualcomm Incorporated Mobile reception of digital video broadcasting—terrestrial services
US8621044B2 (en) * 2009-03-16 2013-12-31 Microsoft Corporation Smooth, stateless client media streaming
US9081783B2 (en) 2009-06-08 2015-07-14 International Business Machines Corporation Automated dynamic reprioritization of presentation materials
US9288010B2 (en) 2009-08-19 2016-03-15 Qualcomm Incorporated Universal file delivery methods for providing unequal error protection and bundled file delivery services
US20110096828A1 (en) * 2009-09-22 2011-04-28 Qualcomm Incorporated Enhanced block-request streaming using scalable encoding
US9917874B2 (en) 2009-09-22 2018-03-13 Qualcomm Incorporated Enhanced block-request streaming using block partitioning or request controls for improved client-side handling
CN101820545B (zh) * 2010-05-04 2012-01-25 北京数码视讯科技股份有限公司 视频帧插入区宏块的编码方法
US9485546B2 (en) 2010-06-29 2016-11-01 Qualcomm Incorporated Signaling video samples for trick mode video representations
US8918533B2 (en) 2010-07-13 2014-12-23 Qualcomm Incorporated Video switching for streaming video data
US9185439B2 (en) 2010-07-15 2015-11-10 Qualcomm Incorporated Signaling data for multiplexing video components
US9596447B2 (en) 2010-07-21 2017-03-14 Qualcomm Incorporated Providing frame packing type information for video coding
US9456015B2 (en) 2010-08-10 2016-09-27 Qualcomm Incorporated Representation groups for network streaming of coded multimedia data
US9270299B2 (en) 2011-02-11 2016-02-23 Qualcomm Incorporated Encoding and decoding using elastic codes with flexible source block mapping
US8958375B2 (en) 2011-02-11 2015-02-17 Qualcomm Incorporated Framing for an improved radio link protocol including FEC
US9253233B2 (en) 2011-08-31 2016-02-02 Qualcomm Incorporated Switch signaling methods providing improved switching between representations for adaptive HTTP streaming
US9843844B2 (en) 2011-10-05 2017-12-12 Qualcomm Incorporated Network streaming of media data
US9294226B2 (en) 2012-03-26 2016-03-22 Qualcomm Incorporated Universal object delivery and template-based file delivery
WO2015165549A1 (en) * 2014-05-02 2015-11-05 Saronikos Trading And Services, Unipessoal Lda Sequential method for the presentation of images with enhanced functionality, and apparatus thereof
US10644955B2 (en) * 2015-08-21 2020-05-05 Huawei Technologies Co., Ltd. Method and apparatus for network slicing

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0915470A3 (en) * 1995-08-21 2004-03-24 Matsushita Electric Industrial Co., Ltd. Multimedia optical disk, reproduction apparatus and method for achieving variable scene development based on interactive control
US5752244A (en) * 1996-07-15 1998-05-12 Andersen Consulting Llp Computerized multimedia asset management system
US5971767A (en) * 1996-09-16 1999-10-26 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination
US6215523B1 (en) * 1997-06-10 2001-04-10 Flashpoint Technology, Inc. Method and system for accelerating a user interface of an image capture unit during review mode
US6301586B1 (en) * 1997-10-06 2001-10-09 Canon Kabushiki Kaisha System for managing multimedia objects
US6564263B1 (en) * 1998-12-04 2003-05-13 International Business Machines Corporation Multimedia content description framework
JP3590577B2 (ja) * 1999-12-27 2004-11-17 ヴィジョネア株式会社 再生モード切替方法及びマルチメディア情報再生方法及びマルチメディア情報再生装置
TW497954B (en) * 2000-03-24 2002-08-11 Gamakatsu Co Ltd Fishhook
TWI236599B (en) * 2000-06-02 2005-07-21 Yamaha Corp Multimedia system with synchronization of music and image tracks
JP2002149673A (ja) * 2000-06-14 2002-05-24 Matsushita Electric Ind Co Ltd データ処理装置およびデータ処理方法
KR100398610B1 (ko) * 2001-01-30 2003-09-19 한국전자통신연구원 멀티미디어 컨텐츠에 동기화된 메타데이터 전송 장치 및방법
FI113131B (fi) * 2002-05-31 2004-02-27 Oplayo Oy Järjestely multimediaesityksen luomiseksi

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007534056A (ja) * 2004-04-02 2007-11-22 サムスン エレクトロニクス カンパニー リミテッド サイクリックレファレンシング管理方法及び装置並びにパージング方法及び装置
JP2006277339A (ja) * 2005-03-29 2006-10-12 Seiko Epson Corp ファイル管理装置、印刷装置、ファイル管理方法及びそのプログラム
JP4692041B2 (ja) * 2005-03-29 2011-06-01 セイコーエプソン株式会社 ファイル管理装置、ファイル管理方法及びそのプログラム

Also Published As

Publication number Publication date
BRPI0406185A (pt) 2005-07-05
AU2004246532B2 (en) 2008-03-13
EP1631918A1 (en) 2006-03-08
WO2004109538A1 (en) 2004-12-16
US20060193484A1 (en) 2006-08-31
RU2312390C2 (ru) 2007-12-10
US20060177019A1 (en) 2006-08-10
EP1631918A4 (en) 2006-09-20
AU2004246532A1 (en) 2004-12-16
CA2528261A1 (en) 2004-12-16
MXPA05013237A (es) 2006-03-09
US20070067286A1 (en) 2007-03-22
RU2005109929A (ru) 2005-08-27

Similar Documents

Publication Publication Date Title
JP2006514806A (ja) マルチメディアデータの提供装置及びその提供方法並びにその方法を記録した記録媒体
US7917553B2 (en) System and methods for enhanced metadata entry
US8504922B2 (en) Enhanced user navigation to previously visited areas in a media environment
US20060176403A1 (en) Distributed software construction for user interfaces
US20070067709A1 (en) Apparatus and method for organization and interpretation of multimedia data on a recording medium
MX2007001170A (es) Medio de almacenamiento que incluye metadatos y aparato de reproduccion y metodo del mismo.
US20050071368A1 (en) Apparatus and method for displaying multimedia data combined with text data and recording medium containing a program for performing the same method
US20050071762A1 (en) Apparatus and method for displaying photo and video data and recording medium containing a program for performing the same method
JP2001008136A (ja) マルチメディアデータのオーサリング装置
KR20070062956A (ko) 멀티미디어 데이터 전시 장치 및 전시 방법과 상기 방법을기록한 기록매체
KR100772885B1 (ko) 자산 전시 장치 및 전시 방법과 상기 방법을 기록한 기록매체
KR20050005142A (ko) 멀티미디어 데이터 제공 장치 및 제공 방법과 상기 방법을기록한 기록 매체
KR100678884B1 (ko) 텍스트 데이터가 결합된 멀티미디어 데이터 전시 장치 및전시방법과 상기 방법을 수행하는 프로그램이 기록된기록매체
KR101399825B1 (ko) 디스플레이장치 및 그 제어 방법
KR100678883B1 (ko) 오디오 및 비디오 데이터 전시 장치 및 전시 방법과 상기방법을 수행하는 프로그램이 기록된 기록매체
KR100678885B1 (ko) 이미지 및 비디오 데이터 전시 장치 및 전시 방법과 상기방법을 수행하는 프로그램이 기록된 기록매체

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070815

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071211

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080311

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080318

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080610

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080910

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090203

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20090623