JP2009171621A - ヒント情報記述方法 - Google Patents

ヒント情報記述方法 Download PDF

Info

Publication number
JP2009171621A
JP2009171621A JP2009111988A JP2009111988A JP2009171621A JP 2009171621 A JP2009171621 A JP 2009171621A JP 2009111988 A JP2009111988 A JP 2009111988A JP 2009111988 A JP2009111988 A JP 2009111988A JP 2009171621 A JP2009171621 A JP 2009171621A
Authority
JP
Japan
Prior art keywords
metadata
scene
unit
content
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009111988A
Other languages
English (en)
Inventor
Yoshimi Moriya
芳美 守屋
Hirobumi Nishikawa
博文 西川
Shunichi Sekiguchi
俊一 関口
Etsuhisa Yamada
悦久 山田
Kenji Otoi
研二 乙井
Shinichi Kuroda
慎一 黒田
Fuminobu Ogawa
文伸 小川
Kotaro Asai
光太郎 浅井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2009111988A priority Critical patent/JP2009171621A/ja
Publication of JP2009171621A publication Critical patent/JP2009171621A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8543Content authoring using a description language, e.g. Multimedia and Hypermedia information coding Expert Group [MHEG], eXtensible Markup Language [XML]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/785Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using colour or luminescence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1415Saving, restoring, recovering or retrying at system level
    • G06F11/1435Saving, restoring, recovering or retrying at system level using file system or storage system metadata
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/71Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/786Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using motion, e.g. object motion or camera motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/80Information retrieval; Database structures therefor; File system structures therefor of semi-structured data, e.g. markup language structured data such as SGML, XML or HTML
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234336Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by media transcoding, e.g. video is transformed into a slideshow of still pictures or audio is converted into text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4668Learning process for intelligent management, e.g. learning user preferences for recommending movies for recommending content, e.g. movies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • H04N21/8405Generation or processing of descriptive data, e.g. content descriptors represented by keywords
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Quality & Reliability (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

【課題】メタデータの解析及び再生成に伴う処理コスト(処理量やメモリ使用量等)を低減することができるヒント情報記述方法を得る。
【解決手段】動画像や音声を含むマルチメディアコンテンツを複数のシーンに分割し、分割したシーン毎にメタデータを生成する。シーンの区間情報やタイトルのほかに、前記コンテンツの階層的な構造を記述するシーン構造情報メタデータを含むメタデータを生成することができる。また、メタデータに含まれる記述子の名称または識別子が、コンテンツの意味内容、構造、特徴を記述する1つまたは複数の記述子から成るメタデータを操作する際のヒント情報として、記述されている。
【選択図】図16

Description

この発明は、メタデータ再生成のためのヒント情報を記述するヒント情報記述方法に関するものである。
従来の動画像管理装置では、映像を複数のシーンに分割してから、各シーンの再生に必要な区間情報とシーン番号とシーンを代表する画像の集まりであるインデックスを編集し、1つ以上のインデックスを作成する手段と、各インデックスには検索目的を示したタイトルを付与する手段と、検索時には、タイトルでインデックスを検索し、シーン番号の順番に従ってインデックスのシーンを次々に再生する手段とから構成することで、必要なシーンが並ぶようにインデックスを編集することで、必要なシーンだけを再生することができる(例えば、特許文献1参照)。
特開2001−028722号公報(第1頁、図1)
しかしながら、上述した従来の動画像管理装置では、メタデータ再生成のためにメタデータに含まれるすべての記述子を解析しなければならないという問題点があった。
この発明は、前述した問題点を解決するためになされたもので、メタデータ再生成のためのメタデータ自体の解析を省くことができ、また出現位置や出現回数により、再生成条件に合致しない記述子の解析を省くことができるため、メタデータの解析及び再生成に伴う処理コスト(処理量やメモリ使用量等)を低減することができるヒント情報記述方法を得ることを目的とする。
この発明に係るヒント情報記述方法は、コンテンツの意味内容、構造、特徴を記述する1つまたは複数の記述子から成るメタデータを操作する際のヒント情報として、メタデータに含まれる記述子の名称または識別子を記述するものである。
この発明に係るヒント情報記述方法は、メタデータ再生成のためのメタデータ自体の解析を省くことができ、また出現位置や出現回数により、再生成条件に合致しない記述子の解析を省くことができるため、メタデータの解析及び再生成に伴う処理コスト(処理量やメモリ使用量等)を低減することができるという効果を奏する。
この発明の実施の形態1に係るメタデータ編集装置の構成を示すブロック図である。 この発明の実施の形態1に係るメタデータ編集装置の編集対象の一例であるニュース映像を示す図である。 この発明の実施の形態1に係るメタデータ編集装置のシーン分割部のシーンの区間情報メタデータの一例を示す図である。 この発明の実施の形態1に係るメタデータ編集装置のシーン記述編集部のシーン構造情報メタデータの一例を示す図である。 この発明の実施の形態1に係るメタデータ編集装置のコンテンツ再生・表示部、ユーザ入力部の画面イメージ例を示す図である。 この発明の実施の形態2に係るメタデータ編集装置の構成を示すブロック図である。 この発明の実施の形態2に係るメタデータ編集装置の動作を説明するための図である。 この発明の実施の形態3に係るメタデータ再生装置の構成を示すブロック図である。 この発明の実施の形態3に係るメタデータ再生装置の動作を説明するための図である。 この発明の実施の形態4に係るコンテンツ配信システムの構成を示すブロック図である。 この発明の実施の形態4に係るメタデータ配信サーバのメタデータ解析部から出力されるコンテンツ(ニュース映像の例)の構造情報を示す図である。 この発明の実施の形態4に係るコンテンツ配信システムのメタデータ再生成部による再構成後のコンテンツの構造例を示す図である。 この発明の実施の形態5に係るメタデータ配信サーバの構成を示すブロック図である。 この発明の実施の形態5に係るメタデータ配信サーバによる、メタデータ最適化ヒント情報について説明するためのビデオコンテンツの一例を示す図である。 この発明の実施の形態5に係るメタデータ配信サーバによる、MPEG−7を用いた場合のメタデータの記述例を示す図である。 この発明の実施の形態5に係るメタデータ配信サーバが用いるメタデータ最適化ヒント情報のフォーマット例を示す図である。 この発明の実施の形態5に係るメタデータ配信サーバが用いるメタデータ最適化ヒント情報を示す図である。 この発明の実施の形態5に係るメタデータ配信サーバのメタデータ解析・再生成部の動作を示すフローチャートである。 この発明の実施の形態5に係るメタデータ配信サーバのメタデータ解析・再生成部の動作を示すフローチャートである。 この発明の実施の形態6に係るメタデータ検索サーバの構成を示すブロック図である。 この発明の実施の形態6に係るメタデータ検索サーバのメタデータ解析部の動作を示すフローチャートである。 この発明の実施の形態7に係るクライアント端末の構成を示すブロック図である。 この発明の実施の形態8に係るコンテンツ配信サーバの構成を示すブロック図である。
以下、この発明の実施の形態1及び2に係るメタデータ編集装置、実施の形態3に係るメタデータ再生装置、実施の形態4に係るコンテンツ配信システム、実施の形態5に係るメタデータ配信サーバ、実施の形態6に係るメタデータ検索サーバ、実施の形態7に係るクライアント端末、並びに実施の形態8に係るコンテンツ配信サーバについて、図面に基づき説明する。
実施の形態1.
この実施の形態1では、動画像や音声を含むマルチメディアコンテンツを複数のシーンに分割し、シーンの階層的な構造記述や、各シーンの特徴量を含むメタデータ(インデックス情報)を作成するメタデータ編集装置について説明する。
この発明の実施の形態1に係るメタデータ編集装置について図面を参照しながら説明する。図1は、この発明の実施の形態1に係るメタデータ編集装置の構成を示すブロック図である。なお、各図中、同一符号は同一又は相当部分を示す。
図1において、メタデータ編集装置100は、コンテンツ再生・表示部2と、シーン分割部3と、サムネイル画像生成部4と、シーン記述編集部5と、テキスト情報付与部6と、特徴抽出部7と、ユーザ入力部8と、メタデータ記述部9とを備える。
コンテンツ再生・表示部2は、映像データや音声データ等からなる編集対象のマルチメディアコンテンツ10を再生・表示する。シーン分割部3は、コンテンツを複数のシーンに分割する。サムネイル画像生成部4は、シーンの代表フレームをサムネイル画像として抽出する。シーン記述編集部5は、シーン分割部3により分割されたシーンのグループ化、シーンの結合、シーンの削除、シーンの関係情報の生成などによりシーンを階層的に編集する。テキスト情報付与部6は、各シーンに対して各種のテキスト情報を付加する。特徴抽出部7は、シーンの特徴を抽出する。
また、ユーザ入力部8は、コンテンツ再生・表示部2、シーン分割部3、サムネイル画像生成部4、シーン記述編集部5およびテキスト情報付与部6に対して、ユーザからの指示情報をユーザ入力情報11として出力する。
さらに、メタデータ記述部9は、シーン分割部3、サムネイル画像生成部4、シーン記述編集部5、テキスト情報付与部6および特徴抽出部7より出力されるシーンの区間情報メタデータ12、シーンのサムネイル画像情報メタデータ13、シーン構造情報メタデータ14、テキスト情報メタデータ15、及び特徴記述メタデータ16を統合し、規定のフォーマットに従ってマルチメディアコンテンツの内容及び構造を記述したメタデータ17を生成する。
つぎに、この実施の形態1に係るメタデータ編集装置の動作について図面を参照しながら説明する。図2は、この実施の形態1に係るメタデータ編集装置の編集対象の一例であるニュース映像の構成を示す図である。
図2に示す構成のニュース映像を編集する場合を例に説明する。
まず、メタデータ編集装置100のコンテンツ再生・表示部2は、コンテンツ記憶部(図示せず)に記憶されている映像コンテンツ等のマルチメディアコンテンツ10がネットワーク等を介し入力されと、編集用に再生・表示する。
メタデータ編集装置100のユーザがその再生映像を見ながら、シーンとして切り出す位置、すなわちシーンの開始位置と、終了位置とをユーザ入力部8より入力すると、シーン分割部3は、ユーザから入力されたシーンの開始位置と終了位置とを示すシーンの区間情報メタデータ12を生成する。
図3は、本実施の形態1に係るメタデータ編集装置のシーン分割部のシーンの区間情報メタデータの一例を示す図である。
この図3に示す区間情報メタデータ12は、図2に示すニュース映像から生成した例を示す。図3に示すように、シーン分割部3によって、ニュース映像コンテンツから切り出された“ニュースダイジェスト”、“国内ニュース”や、“国際ニュース”等の各シーンに対して、シーンの開始位置と、終了位置の区間情報を示すシーンの区間情報メタデータ12が生成される。
シーン記述編集部5では、ユーザからユーザ入力部8を介しシーン編集の指示があると、シーン分割部3からのシーンの区間情報メタデータ12に基づき、シーン分割部3で連続的に切り出されたシーンの階層的な編集を行ない、シーン構造情報メタデータ14を出力する。シーンの階層的編集とは、例えば、シーンのグループ化、シーンの再分割、シーンの結合、シーンの削除がある。シーンのグループ化とは、例えば、図2に示すニュース映像から、例えば図4に示すように「国内ニュース」、「国際ニュース」、「経済ニュース」等のある特定の特徴で関連あるシーンをひとつの「ニュース」グループにまとめることをいう。また、シーンの再分割とは、1つのシーンを複数のシーンに分割することである。シーンの結合とは、複数のシーンをまとめて1つのシーンとすることである。
図4は、本実施の形態1に係るメタデータ編集装置のシーン記述編集部のシーン構造情報メタデータの一例を示す図である。
この図4に示すシーン構造情報メタデータ14は、シーン記述編集部5での編集の結果、生成された映像コンテンツの階層的な構造を記述する。図4では、シーン記述編集部5で、シーンのグループ化や、シーンの再分割、シーンの結合等のシーンの編集により、“ニュース”というシーンが、“ニュースダイジェスト”、“ニュース”、“特集”、“スポーツ”等に編集され、さらにその“ニュース”が“国内ニュース”、“国際ニュース”、“経済ニュース”の階層的に編集されたことを示している。
そして、シーン記述編集部5で生成された例えば図4に示すメタデータ14は、メタデータ記述部9へ出力される。
一方、サムネイル画像生成部4では、シーン分割部3からのシーンの区間情報メタデータ12に基づき、シーン分割部3で切り出された各シーンの中から代表フレームをサムネイル画像として生成し、生成したサムネイル情報をサムネイル画像情報メタデータ13としてメタデータ記述部9へ出力し、メタデータ記述部9に登録する。ここで、ユーザはユーザ入力部8より、サムネイルの選択を行うこともできるが、自動的に、先頭フレームや固定時間間隔の複数フレームを代表フレームとしたり、シーンチェンジ点を自動検出し、それらのフレームを代表フレームとしたりすることもできる。サムネイル画像情報メタデータ13は、映像コンテンツの中のサムネイルの位置情報(フレーム番号または時間)、または、サムネイル画像のURLなどのロケーション情報になる。
また、特徴抽出部7では、シーン分割部3からのシーンの区間情報メタデータ12に基づき、各シーンの中から、動き、色、あるいはシーン内に含まれるオブジェクトの形状など、シーンがもつ視覚的特徴量を抽出する。抽出された特徴量は、特徴記述メタデータ16として、メタデータ記述部9へ出力され、登録される。
また、テキスト情報付与部6では、シーン分割部3からのシーンの区間情報メタデータ12に基づき、各シーンに対して、ユーザがタイトル、アブストラクト、キーワード、コメント、シーンの重要度などの各種のテキスト情報を付与する。テキスト情報の付与は、ユーザ入力部8よりユーザが入力する場合と、コンテンツに含まれる音声情報やキャプションを解析することにより、自動的に付与する場合がある。テキスト情報は、テキスト情報メタデータ15として、メタデータ記述部9へ出力し、メタデータ記述部9に登録する。
図5は、この実施の形態1に係るメタデータ編集装置のコンテンツ再生・表示部や、ユーザ入力部8の画面イメージ例を示す。図5において、ビデオ再生画面G1は、コンテンツ再生・表示部2における画面イメージ例に相当し、このビデオ再生画面G1では、編集用のコンテンツを再生・表示する。図5には、明示していないが、「再生」、「停止」、「巻き戻し」、「早送り」、「コマ送り」再生用の指示ボタンなど、通常のビデオ再生装置に備えられているユーザインタフェースを備えているものとする。そして、このビデオ再生画面G1の下方にはシーン分割指示画面G2が表示されている。このシーン分割指示画面G2は、例えば、スライダー形式になっており、ビデオ再生画面G1に表示される映像を見ながら、ユーザがビデオ再生画面G1に表示される映像シーンの開始位置と終了位置とを指示することができる。また、シーン分割指示画面G2は、同時に、シーンの開始位置と終了位置との間で、サムネイルの位置を指示することができる。ここで、シーン分割指示画面G2によりサムネイルの位置が指定されると、映像コンテンツの指定された位置のフレームからサムネイル画像生成部4がサムネイル画像を生成することになる。
また、シーン分割指示画面G2により位置が指定されたサムネイル画像は、シーンの分割情報として、シーン分割情報表示画面G3に表示される。このシーン分割情報表示画面G3では、サムネイル画像のほか、図3に示すようにシーンごとにシーンの開始位置と終了位置とを示す情報を表示することもできる。
次に、ツリー構造生成指示・表示画面G4では、シーンの編集をユーザに対し指示する。ユーザは、シーン分割情報表示画面G3に表示されているサムネイル画像等のシーン分割情報を見ながら、映像コンテンツのもつ階層構造を表すツリーを生成する。
操作方法としては、例えば、シーンのグループ化を行う場合には、ツリー上に新しいノードを追加し、そのノードにグループ化したいシーンを追加していく。シーンの追加の操作は、追加したいシーンをシーン分割情報表示画面G3上で選択し、ドラッグ・アンド・ドロップにより、ノードにシーンを追加するなどの方法が考えられる。シーン分割情報表示画面G3、ツリー構造生成指示・表示画面G4では、シーンを選択することにより、そのシーンに対してテキスト情報付与部6を介してテキスト情報を付与するためのユーザインタフェースとしてユーザ入力部8が提供され、シーンに対するテキスト情報を入力することができる。
メタデータ記述部9は、シーン分割部3、サムネイル画像生成部4、シーン記述編集部5、テキスト情報付与部6および特徴抽出部7より出力される各種メタデータを統合し、規定の記述フォーマットに従って記述したメタデータファイルを生成する。メタデータの規定の記述フォーマットは、独自に定めたフォーマットで記述することもできるが、本実施の形態1では、ISOで標準化されているMPEG−7を使うことにする。このMPEG−7は、コンテンツの構造や特徴を記述するフォーマットを規定するものであり、XMLファイルフォーマットとバイナリフォーマットがある。
従って、本実施の形態1のメタデータ編集装置100によれば、シーンを階層的に編集するシーン記述編集部5や、シーンから特徴を抽出する特徴抽出部7を設けるようにしたので、ビデオデータ等のコンテンツのもつ階層的な構造や各シーンの特徴量を記述したメタデータを生成することができる。
なお、コンテンツ再生・表示部2に入力されるマルチメディアコンテンツ10は、ネットワーク上にあるコンテンツサーバ(図示せず)から取得する場合や、メタデータ編集装置100内にあるコンテンツ記憶部(図示せず)より取得する場合、CDやDVD等の蓄積媒体(図示せず)より取得する場合など様々な場合が想定される。同様に、メタデータ記述部9より出力されるメタデータは、ネットワーク上にあるメタデータサーバ(図示せず)に蓄積される場合や、メタデータ編集装置内にあるメタデータ蓄積部(図示せず)に蓄積される場合、CDやDVD等の蓄積媒体(図示せず)にコンテンツとともに蓄積される場合などが想定される。
また、本実施の形態1では、シーン記述編集部5と、特徴抽出部7との両者を設けて説明したが、これに限らず、シーン記述編集部5のみを設けたり、特徴抽出部7のみを設けるようにしても勿論良い。
実施の形態2.
上記の実施の形態1では、シーンの分割をすべて手動で行っていたが、この実施の形態2では、シーンチェンジ点を自動検出するシーンチェンジ検出部を備えたことを特徴とするデータ編集装置について説明する。
この発明の実施の形態2に係るメタデータ編集装置について図面を参照しながら説明する。図6は、この発明の実施の形態2に係るメタデータ編集装置の構成を示すブロック図である。
図6において、メタデータ編集装置100Aは、コンテンツ再生・表示部2と、シーン分割部3と、サムネイル画像生成部4と、シーン記述編集部5と、テキスト情報付与部6と、特徴抽出部7と、ユーザ入力部8と、メタデータ記述部9と、シーンチェンジ検出部39とを備える。なお、符号40は、自動検出されたシーン開始位置情報である。
つぎに、この実施の形態2に係るメタデータ編集装置の動作について図面を参照しながら説明する。
図7は、この発明の実施の形態2に係るメタデータ編集装置の動作を説明するための図である。
シーンチェンジ検出部39と、シーン分割部3以外の動作は、上記実施の形態1と同じである。実施の形態2特有の動作を説明する。
シーンチェンジ検出部39は、自動的にシーンチェンジ、カット点検出を行う。シーンチェンジ検出は、例えば、フレーム間画素差分や、フレーム間の色や、輝度のヒストグラム差分などに基づいて行う。シーン分割部3は、シーンチェンジ検出部39で検出されたシーンチェンジ点に基づき、シーンの開始位置と終了位置を決定する。
ここで、シーンチェンジ検出部39とシーン分割部3の処理について、編集対象のコンテンツがニュース映像の場合を例に詳述する。
シーンチェンジ検出のための特徴量として、色のヒストグラムを用いる場合を例に説明する。
シーンチェンジ検出部39では、1フレームごとに色のヒストグラムを算出する。表色系としては、HSV、RGB、YCbCrなどがあるが、ここでは、HSV色空間を用いる。このHSV色空間は、色相(H)、彩度(S)、明度(V)の3要素から構成される。各要素のヒストグラムを算出する。次に、求められたヒストグラムから、例えば下記の(式1)に基づき、フレーム間のヒストグラム差分を算出する。シーンの開始フレームから、Nフレーム(例えばN=3)は、同一シーン、すなわち、シーンチェンジ点がないものと仮定する。なお、シーンの初期特徴量として、下記の(式2)に基づき、最初のNフレーム間のヒストグラム差分の平均(mean)と標準偏差(sd)を求める。
Figure 2009171621
そして、N+1フレーム以降は、ヒストグラムのフレーム間差分がmean+λ・sdより大きくなったフレームをシーンチェンジ点とし、新しいシーンの開始位置候補とする。
シーンの開始位置候補が複数得られたら、次に、ニュース映像のように、ニュースの切り替わりなどで決まったパターンの画像が挿入される場合を考える。
ニュース映像は、ニュースの切り替わりで、例えば、アナウンサーと背景のスタジオセット、説明の文字(キャプション)により構成された画像など、決まったパターンの画像が挿入されることが多い。従って、これらの決まったパターンの画像(テンプレート画像と称する)、またはテンプレート画像の特徴量を記述したメタデータを予め登録しておく。テンプレート画像の特徴量とはテンプレート画像の色のヒストグラム、あるいは、動きのパターン(ニュースの切り替わりで、アナウンサーが写る部分は動きが少ないなど)などが挙げられる。
テンプレート画像が予め登録されている場合には、例えば図7に示すように、シーンチェンジ点に対応する画像と、テンプレート画像とのマッチングをとり、類似度が高い場合には、そのシーンチェンジ点をシーンの開始位置として登録する。類似度のマッチングとしては、フレーム間差分やフレーム間の色のヒストグラム差分などがある。
また、テンプレート画像の特徴量が予め登録されている場合には、シーンチェンジ点に対応する画像から特徴量を抽出し、テンプレート画像の特徴量とのマッチングをとり、類似度が高い場合には、そのシーンチェンジ点をシーンの開始位置として登録する。シーン開始位置の情報はシーン分割部3へ出力される。
シーン分割部3では、シーンチェンジ検出部39で自動検出されたシーン開始位置情報に基づき、シーンの開始位置および終了位置を決定する。なお、本実施の形態2のシーン分割部3では、上記実施の形態1と同様に、ユーザからの指示に基づき、シーンの開始位置および終了位置を決定することもできる。
シーン分割部3では、シーンの開始位置および終了位置を記述したシーンの区間情報メタデータ12をシーンチェンジ検出部39へ出力し、このシーンチェンジ検出部39で、そのシーンに含まれるシーンチェンジ点を検出することもできる。
シーン記述編集部5では、シーン分割部3からのシーンの区間情報メタデータ12に基づき、シーンチェンジ検出部39で自動検出されたシーンを再分割や統合することができる。なお、シーン記述編集部5の詳細は、上記実施の形態1と同様である。
従って、本実施の形態2に係るメタデータ編集装置100Aによれば、上記実施の形態1と同様に、ビデオデータ等のコンテンツのもつ階層的な構造や各シーンの特徴量を記述したメタデータを生成することができると共に、シーンチェンジ検出部39を設けたことにより、コンテンツのシーンチェンジ点を自動検出することが可能となる。
実施の形態3.
この実施の形態3では、上記実施の形態1及び2のメタデータ編集装置により生成されたメタデータを利用して、画像の要約再生や、検索などを行うメタデータ再生装置について説明する。
この発明の実施の形態3に係るメタデータ再生装置について図面を参照しながら説明する。図8は、この発明の実施の形態3に係るメタデータ再生装置の構成を示すブロック図である。
図8において、メタデータ再生装置200は、メタデータ解析部19と、構造表示部20と、サムネイル画像表示部21と、ユーザ入力部22と、検索部23と、検索結果表示部24と、要約作成部25と、要約構造表示部26と、コンテンツ再生部27とを備える。
メタデータ解析部19は、コンテンツのもつ階層的なシーン構造や各シーンのサムネイルに関する情報、各シーンの特徴量などが記述されたメタデータ28の解析を行う。構造表示部20は、メタデータ解析結果から取得されるシーン構造29、つまりコンテンツの階層的な構造を表示する。サムネイル画像表示部21は、メタデータ解析結果から取得されるサムネイル画像情報30を表示する。
ユーザ入力部22は、検索や再生等の指示を行う。検索部23は、ユーザからの検索指示(検索条件31)と、メタデータから取得されるシーンの特徴量やテキスト情報32とに基づき検索を行う。検索結果表示部24は、検索結果33を表示する。要約作成部25は、ユーザからの要約作成指示(要約作成条件34)に基づき要約作成を行う。要約構造表示部26は、要約されたコンテンツの構造38を表示する。コンテンツ再生部27は、要約情報35、コンテンツ再生指示36、再生するコンテンツ37に基づきコンテンツを再生・表示する。
つぎに、この実施の形態3に係るメタデータ再生装置の動作について図面を参照しながら説明する。
まず、メタデータ解析部19は、コンテンツのもつ階層的なシーン構造や、各シーンのサムネイルに関する情報、各シーンの特徴量などが記述されたメタデータ28を入力とし、メタデータの解析を行う。
本実施の形態3では、このメタデータ28は、上記実施の形態1、2のメタデータ記述部9が生成したMPEG‐7規定のフォーマットで記述されているため、メタデータはXMLで記述されたテキストファイルでもよいし、バイナリフォーマットで符号化されたバイナリファイルであってもよい。
このため、メタデータ解析部19は、メタデータ28がXMLで記述されているならば、XMLファイルの解析を行うXMLパーザの機能をもつ。また、メタデータ28がバイナリフォーマットで符号化されているならば、メタデータ28の復号を行うデコーダの機能を有する。
構造表示部20は、メタデータ解析部19の解析結果を入力して、コンテンツの階層的なシーン構造29を表示する。コンテンツのシーン構造は、例えば、図4に示すように、各シーンのタイトルとともにツリー表示される。
サムネイル画像表示部21は、メタデータ解析部19の解析結果(サムネイル画像情報30)を入力して、コンテンツのサムネイル画像一覧を表示する。
検索部23は、ユーザ入力部22を介したユーザからの検索指示により、コンテンツに含まれるシーンの検索を行う。その際、ユーザ入力部22では、キーワードやサンプル画像の提示等により、検索条件を入力する。検索部23では、メタデータに記述されているシーンの特徴量や、シーンのタイトルなどのテキスト情報32に基づき、ユーザから提示された検索条件(キーワードやサンプル画像の特徴)31に合致するシーンの検索を行う。
検索部23による検索が終了すると、検索結果表示部24は、検索部23の検索結果33を入力とし、検索結果の表示を行う。検索結果の表示方法としては、例えば、検索条件に合致したシーンのサムネイル画像を表示する。
また、要約作成部25は、ユーザ入力部22を介したユーザからの要約作成指示に基づき、コンテンツの要約を作成する。その際、ユーザ入力部22では、要約されたコンテンツの再生時間や、ユーザ嗜好などの情報を入力する。例えば、コンテンツがニュース映像の場合には、ニュースの中のスポーツを中心に見たい、あるいは、1時間のニュースを20分に要約してみたいなどのユーザの嗜好情報を入力する。また、要約作成部25では、メタデータに記述されているシーンの再生時間や、シーンのタイトルなどのテキスト情報32に基づき、要約条件に合致した要約情報35を作成する。この要約情報35とは、例えば、要約されたコンテンツに含まれるシーンの再生リストであり、コンテンツのURLなどのロケーション情報と、そのコンテンツの中の再生したいシーンの開始位置と終了位置を列記したリストである。
また、コンテンツ再生・表示部27では、要約情報35に含まれるコンテンツのロケーション情報に基づき、対象コンテンツを特定し、要約情報に含まれるシーンリストに基づき、再生するシーンの取得・再生・表示を行う。また、別の例として、要約情報が要約されたシーンの構造を階層的に記述したものである場合も考えられる。
図9は、要約されたシーン構造を階層的に記述したものの一例を示す図である。同図(a)は、オリジナルコンテンツのシーン構造の例を示す。各シーンに対して、重要度が0.0〜1.0の範囲で付加されている。1.0は重要度が最も高く、0.0は重要度が最も低いことを意味する。重要度は、例えば、ユーザ嗜好に基づいて計算されたものであるとする。例えば、チームAのサッカーの試合に関するシーン、特に、試合結果と得点シーンは必ず見たいというユーザ嗜好を予め登録しておくと、各シーンにはユーザ嗜好を反映した重要度が付加される。
そして、図9(a)において、重要度が最も高いシーンのみで要約を生成すると、要約されたシーン構造は同図(b)に示すようになる。なお、各シーンは、そのシーンを含むコンテンツのURLなどのロケーション情報と、そのシーンのコンテンツ内での位置情報(開始位置と終了位置)などのメタデータをもつ。要約されたシーン構造38に関する情報は、要約構造表示部26へ渡され、この要約構造表示部26は、要約されたシーン構造を例えば、図9(b)に示すようなツリー形式で表示する。
また、ユーザ入力部22を介しユーザが構造表示部20または要約構造表示部26に表示されているシーン構造や、サムネイル画像表示部21や検索結果表示部24に表示されている各シーンのサムネイルの中から再生したい1つ以上のシーンを選択すると、コンテンツ再生・表示部27ではコンテンツに含まれるシーンを再生・表示することができる。
従って、本実施の形態3に係るメタデータ再生装置200によれば、上記実施の形態1、2で説明したメタデータ編集装置により生成されたメタデータを用いて、ユーザが見たいシーンだけを集めて再生したり、メタデータに記述されている特徴量を用いて、見たいシーンを検索することができる。
また、本実施の形態3では、コンテンツ再生・表示部27が、メタデータ再生装置200内にあったが、コンテンツ再生・表示部が別の装置内にあってもよい。これは、例えば、シーンの構造やサムネイル画像の表示等、メタデータ再生に関わる操作や表示は、携帯電話や携帯情報端末等で行い、マルチメディアコンテンツの再生に関わる処理や表示は、携帯電話や、携帯情報端末等にネットワークを介して接続した端末(例えば、PC等)で行う場合が考えられる。
実施の形態4.
この実施の形態4では、コンテンツのメタデータをクライアント端末に対して配信するメタデータ配信サーバ(メタデータ配信装置)と、そのコンテンツをクライアント端末の端末能力に応じてスケーラブルに構成して配信するコンテンツ配信サーバと、について説明する。
この発明の実施の形態4に係るコンテンツ配信システムについて図面を参照しながら説明する。図10は、この発明の実施の形態4に係るコンテンツ配信システムの構成を示すブロック図である。
図10において、コンテンツ配信システム300は、メタデータ配信サーバ400と、各種のクライアント端末481〜48nと、コンテンツ配信サーバ500とを備える。
メタデータ配信サーバ400は、メタデータ蓄積部41と、メタデータ解析部42と、端末能力判定部43と、メタデータ再生成部44と、メタデータ配信部45とから構成されている。
メタデータ蓄積部41には、例えば上記実施の形態1、2のメタデータ編集装置が生成したメタデータが蓄積されている。メタデータ解析部42は、コンテンツの構造や特徴を記述したメタデータ49の解析を行う。端末能力判定部43は、クライアント端末の性能に関する情報51に基づいて、クライアント端末の端末能力を判定する。メタデータ再生成部44は、メタデータ解析結果50に基づき、クライアント端末の端末能力に応じてコンテンツを再構成し、その内容を記述したメタデータ52を再生成する。メタデータ配信部45は、メタデータ再生成部44で再生成されたメタデータ53を各種クライアント端末481〜48nに配信する。
なお、メタデータ蓄積部41は、本実施の形態4のメタデータ配信サーバ400外に設けても良い。その場合には、メタデータ配信サーバ400は、ネットワーク(図示せず)等を介しメタデータ蓄積部41からメタデータ49を入力する。
また、コンテンツ配信サーバ500は、コンテンツ蓄積部46と、コンテンツ配信部47とから構成されている。
コンテンツ蓄積部46は、コンテンツ55を蓄積する。コンテンツ配信部47は、クライアント端末481〜48nからのコンテンツ配信要求54に応じてコンテンツ56を配信する。
上述したメタデータ配信サーバ400の場合と同様に、コンテンツ蓄積部46はコンテンツ配信サーバ500外に設けてもよい。その場合、コンテンツ配信サーバ500は、ネットワーク(図示せず)を介してコンテンツデータ55を入力する。
つぎに、この実施の形態4に係るコンテンツ配信システムの動作について図面を参照しながら説明する。
まず、メタデータ配信サーバ400側では、メタデータ解析部42がメタデータ蓄積部41に蓄積されているメタデータの解析を行う。メタデータ解析部42の動作は、上記実施の形態3のメタデータ再生装置200のメタデータ解析部19と同様である。メタデータ解析部42は、メタデータを解析することにより、各コンテンツの構造や特徴に関する情報を取得する。
図11は、この実施の形態4に係るメタデータ配信サーバのメタデータ解析部から出力されるコンテンツ(ニュース映像の例)の構造情報を示す図である。図11では、コンテンツの階層的なシーン構造を、ツリーを用いて表示している。ツリーの各ノードは、各々のシーンに対応し、各ノードには各種のシーン情報が対応付けられている。シーン情報とは、シーンのタイトル、アブストラクト、シーンの開始位置と終了位置の時間情報、シーンのサムネイル、代表フレーム、サムネイルショット、代表ショット、色や動きなど視覚的な特徴量等であるシーンの特徴である。なお、図11には、各種のシーン情報のうち、シーンのタイトルのみを図示している。
ここで、クライアント端末は、端末能力の異なる各種の情報家電機器を想定する。端末能力とは、通信速度、処理速度や、再生・表示可能な画像フォーマット、画像解像度、ユーザ入力機能、などである。例えば、クライアント端末481は、通信速度、処理速度、表示性能、ユーザ入力機能において、十分な性能を有するPC(パソコン)を想定する。また、クライアント端末482は携帯電話を想定し、その他のクライアント端末はPDA等を想定する。各クライアント端末481〜48nからは、それぞれの端末性能に関する情報が送信される。
端末能力判定部43は、各クライアント端末481〜48nから送信される端末性能に関する情報51を解析して、配信可能な画像フォーマット、最大画像解像度、コンテンツの長さ等を決定し、メタデータ再生成部44へ出力する。例えば、オリジナルのコンテンツがMPEG−2で符号化された解像度の大きなビデオコンテンツの場合、十分な性能を有するクライアント端末481では、オリジナルのコンテンツを再生できる。また、このクライアント端末481は、上記実施の形態3で説明した画像の要約再生や検索が可能な機能を有するものとする。一方、クライアント端末482では、MPEG−4で符号化された短いビデオショットのみ再生可能で、かつ、表示可能な最大解像度も小さいものとする。
メタデータ再生成部44では、端末能力判定部43からの各クライアント端末481〜48nの端末性能に応じてコンテンツを再構成し、その構造や内容を記述したメタデータ52を再生成し、メタデータ配信部45へ出力する。例えば、クライアント端末481に対しては、オリジナルのメタデータをそのまま配信するため、コンテンツの再構成は行わない。一方、クライアント端末482に対しては、短いビデオショットの再生機能のみを有するため、すべてのシーンを再生することはできない。従って、重要なシーンの短いビデオショットでコンテンツを再構成する。
図12は、実施の形態4に係るコンテンツ配信システムのメタデータ再生成部による再構成後のコンテンツの構造例を示す図である。図12に示すように、各ニュースのシーンの中から、重要なシーンを抽出し、そのシーンの代表ショットまたは、代表フレームのみで構成されるようにする。また、クライアント端末482は、上記実施の形態3で説明した検索機能を有しないため、シーンの各種情報のうち、検索に使用するシーンの特徴量をメタデータに記述する必要はない。そこで、メタデータ再生成部44は、再構成されたシーン構造と、そのシーンの代表ショットまたは代表フレームの位置情報のみを記述したメタデータを再生成し、メタデータ配信部45へ出力する。
このメタデータ配信部45は、メタデータ再生成部44で生成されたメタデータ53をクライアント端末481〜48nに配信する。
各クライアント端末481〜48nは、メタデータ配信部45より配信されたメタデータ53を解析し、コンテンツのシーン構造情報を取得する。各クライアント端末481〜48nのユーザは、再生したいシーンを選択すると、選択されたシーンの位置情報が各クライアント端末481〜48nからコンテンツ配信サーバ500のコンテンツ配信部47へ送信される。
コンテンツ配信サーバ500のコンテンツ配信部47では、各クライアント端末481〜48nより送信されるシーンの位置情報を取得し、コンテンツ蓄積部46より対応するコンテンツ55を取得し、クライアント端末481〜48nへ配信する。クライアント端末481の場合には、シーンの開始位置と終了位置を送信し、オリジナルのコンテンツの対応するシーンを配信する。また、クライアント端末482の場合は、シーンの代表ショットの所在情報(URIなど)を送信する。なお、代表ショットが、クライアント端末482で再生・表示不可能な画像フォーマットや、画像解像度、画像ファイルサイズ等の場合には、コンテンツ配信部47で、フォーマット変換や解像度変換、ファイルサイズを小さくするためのコンテンツの要約等を行い、送信する。
従って、本実施の形態4のメタデータ配信サーバ400によれば、各クライアント端末481〜48nの能力に応じてメタデータを再生成して各クライアント端末に配信することが可能となる。
なお、図10では、メタデータ配信サーバ400とコンテンツ配信サーバ500とを別々に構成して示しているが、本発明では、これに限らず、メタデータ配信サーバの中にコンテンツ配信サーバを設けたり、あるいはコンテンツ配信サーバの中にメタデータ配信サーバを設けたりしてもよい。また、メタデータ配信サーバとコンテンツ配信サーバとを同一サーバ内に設けても勿論良い。このようにすれば、コンテンツ配信部47は、端末能力判定部43から各クライアント端末481〜48nの能力を簡単に知ることができるので、各クライアント端末481〜48nの能力に応じてフォーマット変換などコンテンツを再構成して各クライアント端末481〜48nに配信することが可能となる。
また、この実施の形態4では、メタデータ蓄積部41に蓄積されているメタデータは、例えば上記実施の形態1、2のメタデータ編集装置が生成したものであると説明したが、これに限らず、上記実施の形態1、2のメタデータ編集装置以外が生成したメタデータを蓄積したものでも勿論良い。
実施の形態5.
この実施の形態5では、上記実施の形態4で説明したメタデータ配信サーバの別の例を説明する。上記実施の形態4のメタデータ配信サーバでは、クライアント端末から送信される端末情報に基づいて、メタデータの再生成を行っていた。この実施の形態5では、より適切なメタデータの再生成を行うために、メタデータ再生成のためのヒント情報であるメタデータ最適化ヒント情報を用いて、メタデータの再生成を行うメタデータ解析・再生成部を備えたことを特徴とするメタデータ配信サーバ(メタデータ配信装置)について説明する。
この発明の実施の形態5に係るメタデータ配信サーバについて図面を参照しながら説明する。図13は、この発明の実施の形態5に係るメタデータ配信サーバの構成を示すブロック図である。
図13において、メタデータ配信サーバ400Aは、ヒント情報解析部61と、メタデータ解析・再生成部63と、メタデータ配信部45とを備える。
ヒント情報解析部61は、メタデータ最適化ヒント情報60を解析しその結果を出力する。メタデータ解析・再生成部63は、解析されたメタデータ最適化ヒント情報62と、クライアント端末の性能に関する情報、あるいは、ユーザ嗜好等のメタデータ再生成に関する条件65とに基づいて、コンテンツの構造や特徴を記述したメタデータ49を解析して再構成したメタデータ64を出力する。メタデータ配信部45は、メタデータ53をクライアント端末に配信する。
メタデータ蓄積部41(図10参照)には、コンテンツの構造や特徴を記述したメタデータ49と、そのメタデータ49を再生成するためのヒント情報のメタデータ最適化ヒント情報60が蓄積されている。メタデータ49を再生成するためのメタデータ最適化ヒント情報60とは、そのメタデータ49に、どのような種類の情報が、どのくらい含まれているか、メタデータ49の概要や複雑度を記したものである。
つぎに、この実施の形態5に係るメタデータ配信サーバの動作について図面を参照しながら説明する。
図14に示す構造をもったビデオコンテンツを例に、メタデータ最適化ヒント情報60について詳述する。
ビデオコンテンツ(Root)(Soccer game program)は、大きく2つのシーン(Scene1,Scene2)の前半戦と後半戦から構成され、前半戦のシーンは、さらに複数のシーン(Scene1−1,Scene1−2,...,Scene1−n)(ゴールシーン、コーナーキックシーンなど)から構成されている。図14では、シーン間の時間的な階層構造をツリー構造により示している。
対応するメタデータ49には、このようなコンテンツの時間的な階層構造、すなわち、シーン間の時間的関係や各シーンの開始時間と長さが記述されている。また、各シーンに対しては、階層のレベルに応じてそのシーンがもつ特徴(例えば、色のヒストグラムや動きの複雑性)のほか、タイトル、アブストラクト、ジャンル、注釈等のテキスト情報、重要度、などが記述されている。なお、本実施の形態5では、メタデータの記述フォーマットとして、ISOで標準化されているMPEG−7を用いるものとする。
図15は、MPEG−7を用いた場合のメタデータの記述例を示す。MPEG−7では、各シーンは「ビデオセグメント」と呼ばれる単位で記述される。各ビデオセグメントには、時間情報(シーンの開始点と長さ)、タイトル、概要、ジャンル、などが記述される。なお、ビデオセグメントの階層に応じてビデオセグメント内で記述される情報が異なる場合がある。図15の例では、レベル2とレベル3のビデオセグメントには、重要度が記述されているが、レベル4では重要度は記述されない。また、色や動きの特徴量はレベル4のビデオセグメント内でのみ記述されている。
シーン間の時間的な階層関係は、ビデオセグメントを再帰的に記述することにより表現することができる。図15の記述例では、「時間分割」という記述により、1つのビデオセグメントが時間的に分割された複数のビデオセグメントから構成されていることを記述している。MPEG−7では、コンテンツのもつ空間的な階層構造も同様に記述することができる。この場合には、「時間分割」という記述の替わりに、1つのセグメントが空間的に分割された複数のセグメントから構成されていることを示す「空間分割」という記述を用いる。
メタデータ49の再生成のためのメタデータ最適化ヒント情報60は、そのメタデータ49に含まれる情報(記述子)の種類や内容を記述したものである。従って、メタデータ最適化ヒント情報60には、図15のメタデータに対しては、コンテンツのもつ時間的な階層構造を表現する記述子(「時間分割」)と、色のヒストグラムや動きの複雑性を表現する記述子、タイトル、アブストラクト、ジャンル、重要度を表現する記述子が含まれている。また、記述の内容や複雑性を表す指標として、ビデオセグメントの階層構造の深さは最大で4(レベル1〜レベル4)である。重要度は、5つの離散的な値({0.0,0.25,0.5,0.75,1.0})をとる。この重要度の視点として、“TeamA”の視点で観たときの重要度と、“TeamB”の視点で観たときの重要度が記述されている。また、重要度が記述されている階層位置(ビデオセグメントのどのレベルに記述されているか)も含まれている。
図16は、メタデータ最適化ヒント情報60のフォーマット例を示す。図16に示すメタデータ最適化ヒント情報60には、メタデータファイル情報と、メタデータ構成要素情報とが含まれる。
メタデータファイル情報は、メタデータファイルの所在、メタデータファイルサイズ、メタデータファイルフォーマット(XMLフォーマット、バイナリフォーマットなどファイルフォーマットを示す)、シンタックスファイル情報(メタデータの文法を規定するシンタックスファイルの所在)、メタデータに含まれる(出現する)要素の数を示す出現要素数など、メタデータを処理するために必要なリソース(メタデータの蓄積・解析を行うために必要とするメモリサイズやメタデータを解析するために必要な処理系(S/W)など)を予測するための情報を記述する。なお、メタデータファイルのフォーマットを規定したシンタックスファイルとは、例えば、メタデータがXMLで記述されている場合には、その記述フォーマット(文法)を規定するDTDファイルやschemaファイルなどがそれに相当し、シンタックスファイル情報とは、DTDファイルやschemaファイルなどのシンタックスファイルの所在を記述する。
メタデータ構成要素情報とは、メタデータを構成する記述子の種類とその内容を記述する情報である。このメタデータ構成要素情報には、メタデータに含まれている記述子の名称、その記述子がメタデータ内に出現する頻度(回数)、その記述子が文法的に含む可能性のあるすべての記述子を含んでいるかどうかの記述(完全記述性)、またその記述子が再帰的に記述される場合には、その記述子がもつ時間または空間における階層性(深さの最大値)が含まれる。例えば、図15に示すメタデータ記述例では、「ビデオセグメント」が再帰的に記述される記述子であり、最大で4階層の構造をもっているため、「ビデオセグメント」記述子がもつ階層の深さは最大4になる。
さらに、再帰的に記述される記述子内に含まれる記述子については、その記述子が出現する出現位置(階層)もヒント情報である。例えば、「重要度」は「ビデオセグメント」内に含まれる記述子であるが、レベル3以上の「ビデオセグメント」に含まれる、すなわち、レベル4のビデオセグメントには含まれないときに、「重要度」が出現する位置は、最大で3までになる。なお、このように、出現位置を階層レベルで指定することもできるが、「重要度」を含む「ビデオセグメント」、あるいは「ビデオセグメント」自体にIDが振られている場合には、出現位置をIDのリストとして記述することも可能である。また、値をもつ記述子の場合には記述子の型や記述子がとり得る値の範囲もヒント情報の一つである。例えば、重要度が“TeamA”,“TeamB”のそれぞれの視点から、5つの離散的な値({0.0,0.25,0.5,0.75,1.0})で表現されている場合には、「重要度」のとり得る値は、浮動小数点の型をもつリスト{0.0,0.25,0.5,0.75,1.0}である。以上の記述をメタデータの構成要素である記述子毎に繰り返す。
図17は、図16のフォーマットに従って記述されたメタデータ最適化ヒント情報の一例を示す。図17に示すメタデータ最適化ヒント情報60の一例には、メタデータファイル情報と、“ビデオセグメント”と“タイトル”というメタデータ構成要素情報とが含まれていることがわかる。
次に、メタデータ最適化ヒント情報60を使って、メタデータの再生成を行う手法について図13を用いて説明する。
ヒント情報解析部61では、規定のフォーマットで記述されたメタデータ最適化ヒント情報60の解析を行う。メタデータ解析・再生成部63では、ヒント情報解析部61より出力される解析されたメタデータ最適化ヒント情報62を使って、メタデータ49の解析を行い、メタデータ再生成に関わる条件65に基づいて再生成したメタデータ64を出力する。
図18は、解析されたメタデータ最適化ヒント情報62を使ったメタデータ解析・再生成部63によるメタデータの解析方法の一例を示す。この例では、もとのメタデータ49から重要度が0.5以上の特徴をもつビデオセグメントのみを抽出し、抽出したビデオセグメントに関する記述のみで構成されたメタデータを再生成するものとする。
まず、メタデータ解析・再生成部63は、メタデータ再生成のための条件65より、再生成に必要なメタデータを特定する(ステップS1)。ここでは、重要度が0.5以上の特徴をもつビデオセグメントのみを抽出するため、「重要度」や「ビデオセグメント」が再生成に必要な記述子である。
次に、解析されたメタデータ最適化ヒント情報62より、メタデータ49にステップS1で特定した記述子(以下、記述子「重要度」を例に説明する)が含まれるかどうかを判定する(ステップS2)。
メタデータに「重要度」の記述子が含まれている場合には、メタデータの解析を行い(ステップS3)、「重要度」の記述子が含まれていない場合には、メタデータの解析処理を終了する(ステップS4)。
また、解析されたメタデータ最適化ヒント情報62に、「重要度」の出現位置が階層構造のレベル3までと指定されている場合には、レベル3までのビデオセグメントの解析を終了した時点で(ステップS5)、レベル4以下の階層についての解析を行わずに解析処理を終了する(ステップS6)。
なお、必要に応じて別のメタデータ49の解析を行うため、ステップS1以降の処理を繰り返す。また、メタデータ最適化ヒント情報62に「重要度」記述子の出現回数が20と指定されている場合には、20個の「重要度」記述子を解析し終えた時点で(ステップS5)、メタデータの解析を終了する(ステップS6)。さらに、ステップS4またはステップS6でメタデータの解析処理を終了後、必要に応じて別のメタデータの解析を行うため、ステップS1以降の処理を繰り返す。
図19は、解析されたメタデータ最適化ヒント情報62を使ったメタデータの解析方法の別の例を示す。この例では、「タイトル」記述子を含むビデオセグメントのみを抽出してメタデータを再生成するものとする。メタデータに「タイトル」記述子を含むかどうかの判定は、図18の例と同じである。
メタデータ解析・再生成部63は、メタデータに「タイトル」記述子を含む場合には、メタデータ最適化ヒント情報62に記述されている出現位置のIDに一致するビデオセグメントかどうかを判定する(ステップS13)。
IDに一致しない場合には、「タイトル」記述子を含まないビデオセグメントのため、そのビデオセグメントの記述の解析をスキップする(ステップS16)。
IDに一致する場合には、「タイトル」記述子を取得するため、そのビデオセグメントの記述の解析を行う(S15)。
次に、出現位置のIDに一致するすべてのビデオセグメントを解析し終えた場合(ステップS17)には、これ以上、「タイトル」記述子を含むビデオセグメントはメタデータ内に存在しないため、解析処理を終了する(ステップS18)。
なお、必要に応じて別のメタデータの解析を行うため、ステップS11以降の処理を繰り返す。以上の解析処理を通して抽出された記述子で再構成したメタデータ64を出力する。
メタデータ配信部45では、再構成されたメタデータ64を各種クライアント端末へ配信する。
なお、図示はしていないが、メタデータ再生成後にはメタデータファイルの所在やメタデータファイルサイズ、メタデータに出現する要素数、メタデータ構成要素に関する情報も変わるため、再生成後のメタデータに対応するメタデータ最適化ヒント情報を再生成してもよい。
以上のように、従来はメタデータ再生成のためにメタデータに含まれるすべての記述子を解析しなければならなかったが、本実施の形態5においては、メタデータ49に含まれる記述子のリストや記述子の出現位置、出現回数等が記述されたメタデータ最適化ヒント情報60を使ってメタデータ49の記述子を解析を行うようにしたため、メタデータ再生成のためのメタデータ49自体の解析を省くことができ、また出現位置や出現回数により、再生成条件に合致しない記述子の解析を省くことができるため、メタデータの解析及び再生成に伴う処理コスト(処理量やメモリ使用量等)を低減することができる。
実施の形態6.
上記の実施の形態5では、メタデータ再生成のためのメタデータ最適化ヒント情報を用いて、メタデータの解析および再生成に伴う処理コストを低減するメタデータ配信サーバについて説明したが、この実施の形態6では、メタデータ最適化ヒント情報を用いて、メタデータの検索に伴う処理を軽減するメタデータ検索サーバ(メタデータ検索装置)について説明する。
この発明の実施の形態6に係るメタデータ検索サーバについて図面を参照しながら説明する。図20は、この発明の実施の形態6に係るメタデータ検索サーバの構成を示すブロック図である。
図20において、メタデータ検索サーバ600は、ヒント情報解析部61と、メタデータ解析部71と、検索部73とを備えている。
ヒント情報解析部61は、上記実施の形態5と同じであるので、説明を省略する。メタデータ解析部71は、解析されたメタデータ最適化ヒント情報62と検索条件70を用いて、コンテンツの構造や特徴を記述した膨大なメタデータ49の解析を少ない処理コストで効率的に行う。検索部73は、メタデータの解析結果72を利用して、検索条件に適合するコンテンツを検索する。
つぎに、この実施の形態6に係るメタデータ検索サーバの動作について図面を参照しながら説明する。
図21は、この実施の形態6に係るメタデータ検索サーバのメタデータ解析部の動作を示すフローチャートである。
メタデータ解析部71は、1つ以上のメタデータの解析を各メタデータに対応するメタデータ最適化ヒント情報62を用いて行う。メタデータの解析とは、ここでは、メタデータから検索に必要な特徴記述の抽出を行うことである。例えば、検索条件としてビデオセグメントの色の特徴量が与えられ、そのビデオセグメントに近い特徴をもつビデオセグメントを検索する場合には、色に関する特徴記述をもつビデオセグメントを抽出する必要がある。図15に示すメタデータ例では、レベル4のビデオセグメントに対し、色の特徴記述(「色のヒストグラム」)が付加されているため、レベル4のビデオセグメントに関する記述を抽出する。
メタデータ解析部71は、検索条件70を解析し、検索に有効な記述子の特定を行う(ステップS21)。検索条件として、MPEG−7に規定された記述に従った特徴量が与えられる場合と、画像やキーワードが与えられる場合などがある。検索条件がMPEG−7の記述に従った特徴量(例えば色配置情報)として与えられる場合には、その記述子(色配置情報)が検索に有効な記述子となる。また、キーワードとして検索条件が与えられる場合には、テキスト形式の記述子(タイトル、アブストラクト、注釈など)が、検索に有効な記述子となる。
次に、メタデータ最適化ヒント情報62を参照して、選択された記述子がメタデータ49に含まれるかどうかの判定を行う(ステップS22)。検索に用いる記述子がメタデータ49に含まれない場合には、そのメタデータ49の解析処理を終了(ステップS24)し、必要に応じて別のメタデータ49の解析を行う。
選択された記述子がメタデータ49に含まれる場合には、メタデータの解析を行う(ステップS23)。メタデータの解析方法については上記実施の形態5の場合と同様にメタデータ最適化ヒント情報62を用いて図18や図19に示すメタデータ解析処理を効率的に行う(ステップS25〜S26)。以上の処理を通して、メタデータ解析部71より検索に必要な特徴記述が抽出される。
検索部73では、メタデータ解析部71より出力されるメタデータの解析結果(検索に必要な特徴記述)72を利用して、検索条件に適合するコンテンツを検索する。上述した例では、色の特徴記述(「色のヒストグラム」)をもったビデオセグメントに関する記述がメタデータ解析部71より出力されるので、検索条件として与えられた色の特徴量(ヒストグラム)との適合性を判定し、適合したビデオセグメントの情報(例えば「時間情報」)を検索結果74として出力する。
以上のように、本実施の形態6では、メタデータ最適化ヒント情報60を使ってメタデータ49の解析を行うため、メタデータ再生成のためのメタデータ49自体の解析を省くことができる。また、出現位置や出現回数により、検索に必要ではない記述子の解析を省くことができるため、メタデータの検索に伴う処理コスト(処理量やメモリ使用量等)を低減することができる。
実施の形態7.
上記の実施の形態5または実施の形態6では、メタデータ最適化ヒント情報を利用するサーバ側について説明したが、この実施の形態7では、メタデータ最適化ヒント情報を利用するクライアント端末(メタデータ再生成条件設定装置)について説明する。
この発明の実施の形態7に係るクライアント端末について図面を参照しながら説明する。図22は、この発明の実施の形態7に係るクライアント端末の構成を示すブロック図である。
図22において、クライアント端末48Aは、ヒント情報解析部80と、メタデータ再生成条件設定部82とを備えている。
なお、図22には、クライアント端末48Aに備わる機能のうち、メタデータ最適化ヒント情報60を利用してメタデータ再生成のための条件を設定する手段に関わる部分のみを示している。
つぎに、この実施の形態7に係るクライアント端末の動作について図面を参照しながら説明する。
ヒント情報解析部80は、規定のフォーマットで記述されたメタデータ最適化ヒント情報60の解析を行う。このヒント情報解析部80は、上記実施の形態5と同じであるので、詳細な説明を省略する。
メタデータ再生成条件設定部82は、ヒント情報解析部80より出力される解析結果81をもとに、メタデータ再生成の条件設定83を行う。条件設定とは、例えば、メタデータ最適化ヒント情報60に含まれる記述子の種類の中からクライアント端末48Aに不必要な記述子の選択がある。クライアント端末48Aが特徴量を用いた検索機能を備えない場合には、色のヒストグラムや動きの複雑性などの特徴量を表現する記述子は不要である。
条件設定の別の例として、コンテンツのシーン関係を記述する階層構造が深くなるほどメタデータの複雑度が増すときに、メタデータ最適化ヒント情報60に記述されている階層構造の深さの最大値をもとに、クライアント端末で処理可能な階層構造の深さを設定する。また、別の例では、メタデータ最適化ヒント情報60に記述されている重要度がとり得る値の情報をもとに、ユーザが着目する視点と、選択するシーンの重要度の閾値を設定する。
上述したように、重要度が“TeamA”、“TeamB”のそれぞれの視点から、5つの離散的な値({0.0,0.25,0.5,0.75,1.0})をとる場合には、“TeamA”の視点で0.5以上の重要度をもつシーンのみを選択するなどの設定を行うことができる。
メタデータ再生成条件設定部82で設定されたメタデータ再生成のための条件83は、メタデータ配信サーバに送信される。メタデータ配信サーバ側では、メタデータ再生成のための条件と、クライアント端末の端末性能とに基づいてメタデータを再構成する。例えば、もとのメタデータの階層構造の深さの最大値が4で、メタデータ再生成条件に、クライアント端末で処理可能な階層構造の深さが2と設定されている場合には、階層構造の深さの最大値が2となるように、メタデータの構造を再構成する。
また、メタデータ再生成条件に、“TeamA”の視点で重要度が0.5以上のシーンのみを選択すると設定されている場合には、同条件に合致するシーンのみで構成されたメタデータを再生成する。メタデータ再生成は、上記実施の形態5と同様にメタデータ最適化ヒント情報を用いて効率的に行うことができる。
以上のように、本実施の形態7では、メタデータ最適化ヒント情報60を使ってメタデータ再生成のための条件を設定することができるため、クライアント端末やアプリケーションに応じて適切なメタデータを生成することができる。
実施の形態8.
上記の実施の形態5または実施の形態6では、メタデータ最適化ヒント情報を用いてメタデータを再生成し、再生成したメタデータを配信するサーバについて説明したが、この実施の形態8では、メタデータ最適化ヒント情報を用いてメタデータを解析し、解析結果を利用してクライアント端末やユーザ嗜好に適したコンテンツを再生成して配信するコンテンツ配信サーバ(コンテンツ配信装置)について説明する。
この発明の実施の形態8に係るコンテンツ配信サーバについて図面を参照しながら説明する。図23は、この発明の実施の形態8に係るコンテンツ配信サーバの構成を示すブロック図である。
図23において、コンテンツ配信サーバ500Aは、ヒント情報解析部61と、メタデータ解析部86と、コンテンツ再構成・配信部88とを備える。
つぎに、この実施の形態8に係るコンテンツ配信サーバの動作について図面を参照しながら説明する。
ヒント情報解析部61の動作は、上記実施の形態5と同様であるので、説明を省略する。
メタデータ解析部86は、ヒント情報解析部61より出力される解析されたメタデータ最適化ヒント情報62を使って、メタデータ49の解析を行い、クライアント端末に関する情報、あるいは、ユーザ嗜好等のコンテンツ再構成に関する条件85に合致する記述を抽出する。ヒント情報を使った解析方法は、上記実施の形態5と同様であるが、実施の形態5と異なる点は、抽出した記述を使ってメタデータを再生成するのではなく、コンテンツを再構成する点である。このメタデータ解析部86で抽出された記述、すなわち解析されたメタデータ87は、コンテンツ再構成・配信部88へ出力される。
コンテンツ再構成・配信部88は、メタデータ解析部86で抽出された記述を元に、コンテンツ89の再構成を行う。ここでは、上記実施の形態5で述べた例を用いて説明する。実施の形態5の例では、メタデータ49から重要度が0.5以上の特徴をもつビデオセグメントのみを抽出し、抽出したビデオセグメントに関する記述のみで構成されたメタデータを再生成した。
この実施の形態8では、メタデータ49から重要度が0.5以上の特徴をもつビデオセグメントのみを抽出し、抽出したビデオセグメントに対応するシーンのみで構成されたコンテンツ90を再構成して配信する。抽出したビデオセグメントに関する記述には、対応するコンテンツの所在とそのビデオセグメントのコンテンツ内での位置(時間情報)が記述されているので、コンテンツから対応するシーンを切り出し、一つのコンテンツ90に再構成した上で配信することもできるが、コンテンツから対応するシーンを切り出し、切り出したシーンを順次配信することもできる。
以上のように、本実施の形態8に係るコンテンツ配信サーバ500Aでは、メタデータ49に含まれる記述子のリストや記述子の出現位置、出現回数等が記述されたメタデータ最適化ヒント情報60を使ってメタデータの解析を行うため、メタデータ再生成のためのメタデータ49自体の解析を省くことができる。また、出現位置や出現回数により、再生成条件に合致しない記述子の解析を省くことができるため、クライアント端末やユーザ嗜好に適したコンテンツを再生成して配信する際のメタデータの解析及びコンテンツの再構成に伴う処理コスト(処理量やメモリ使用量等)を低減することができる。
この発明は、以上説明したとおり、動画像や音声を含むマルチメディアコンテンツを複数のシーンに分割し、複数に分割したシーンを編集してマルチメディアコンテンツの階層的な構造を記述するシーン構造情報メタデータを生成するようにしたので、ビデオデータ等を含むマルチメディアコンテンツのもつ階層的な構造を記述したメタデータを生成することができる。

Claims (1)

  1. コンテンツの意味内容、構造、特徴を記述する1つまたは複数の記述子から成るメタデータを操作する際のヒント情報として、メタデータに含まれる記述子の名称または識別子を記述するヒント情報記述方法。
JP2009111988A 2002-04-12 2009-05-01 ヒント情報記述方法 Pending JP2009171621A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009111988A JP2009171621A (ja) 2002-04-12 2009-05-01 ヒント情報記述方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002110259 2002-04-12
JP2002178169 2002-06-19
JP2009111988A JP2009171621A (ja) 2002-04-12 2009-05-01 ヒント情報記述方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2003585438A Division JPWO2003088665A1 (ja) 2002-04-12 2003-03-20 メタデータ編集装置、メタデータ再生装置、メタデータ配信装置、メタデータ検索装置、メタデータ再生成条件設定装置、及びメタデータ配信方法

Publications (1)

Publication Number Publication Date
JP2009171621A true JP2009171621A (ja) 2009-07-30

Family

ID=29253534

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2003585438A Pending JPWO2003088665A1 (ja) 2002-04-12 2003-03-20 メタデータ編集装置、メタデータ再生装置、メタデータ配信装置、メタデータ検索装置、メタデータ再生成条件設定装置、及びメタデータ配信方法
JP2009111990A Expired - Fee Related JP4652462B2 (ja) 2002-04-12 2009-05-01 メタデータ処理方法
JP2009111991A Expired - Fee Related JP4987907B2 (ja) 2002-04-12 2009-05-01 メタデータ処理装置
JP2009111989A Pending JP2009171622A (ja) 2002-04-12 2009-05-01 ヒント情報記述方法
JP2009111988A Pending JP2009171621A (ja) 2002-04-12 2009-05-01 ヒント情報記述方法

Family Applications Before (4)

Application Number Title Priority Date Filing Date
JP2003585438A Pending JPWO2003088665A1 (ja) 2002-04-12 2003-03-20 メタデータ編集装置、メタデータ再生装置、メタデータ配信装置、メタデータ検索装置、メタデータ再生成条件設定装置、及びメタデータ配信方法
JP2009111990A Expired - Fee Related JP4652462B2 (ja) 2002-04-12 2009-05-01 メタデータ処理方法
JP2009111991A Expired - Fee Related JP4987907B2 (ja) 2002-04-12 2009-05-01 メタデータ処理装置
JP2009111989A Pending JP2009171622A (ja) 2002-04-12 2009-05-01 ヒント情報記述方法

Country Status (10)

Country Link
US (7) US7826709B2 (ja)
EP (7) EP2202977A1 (ja)
JP (5) JPWO2003088665A1 (ja)
KR (4) KR100918725B1 (ja)
CN (1) CN100367794C (ja)
AU (1) AU2003221185A1 (ja)
CA (2) CA2664732C (ja)
SG (1) SG152905A1 (ja)
TW (1) TWI231140B (ja)
WO (1) WO2003088665A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020523825A (ja) * 2017-05-30 2020-08-06 ホーム ボックス オフィス, インコーポレイテッド 拡張メタデータを含むビデオコンテンツグラフ
CN112150778A (zh) * 2019-06-29 2020-12-29 华为技术有限公司 环境音处理方法及相关装置

Families Citing this family (145)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050162515A1 (en) * 2000-10-24 2005-07-28 Objectvideo, Inc. Video surveillance system
US7116716B2 (en) * 2002-11-01 2006-10-03 Microsoft Corporation Systems and methods for generating a motion attention model
WO2005004480A1 (en) * 2003-07-08 2005-01-13 Matsushita Electric Industrial Co., Ltd. Contents storage system, home server apparatus, information supply apparatus, integrated circuit, and program
TWI478154B (zh) * 2003-10-04 2015-03-21 Samsung Electronics Co Ltd 儲存搜尋資訊的再生方法
EP1531626B1 (en) * 2003-11-12 2008-01-02 Sony Deutschland GmbH Automatic summarisation for a television programme suggestion engine based on consumer preferences
WO2005074275A1 (ja) * 2004-01-30 2005-08-11 Matsushita Electric Industrial Co., Ltd. コンテンツ再生装置
CA2568060A1 (en) * 2004-05-25 2005-12-08 Samsung Electronics Co., Ltd. Method of reproducing multimedia data using musicphotovideo profiles and reproducing apparatus using the method
US20050289593A1 (en) * 2004-05-26 2005-12-29 Skipjam Corp. Method and system for displaying and selecting content of an electronic program guide
US8953908B2 (en) * 2004-06-22 2015-02-10 Digimarc Corporation Metadata management and generation using perceptual features
US8156123B2 (en) * 2004-06-25 2012-04-10 Apple Inc. Method and apparatus for processing metadata
US9053754B2 (en) * 2004-07-28 2015-06-09 Microsoft Technology Licensing, Llc Thumbnail generation and presentation for recorded TV programs
KR100619064B1 (ko) 2004-07-30 2006-08-31 삼성전자주식회사 메타 데이터를 포함하는 저장 매체, 그 재생 장치 및 방법
JP2006066015A (ja) 2004-08-30 2006-03-09 Sony Corp 画像情報記録装置および画像情報表示装置
KR100565080B1 (ko) * 2004-09-13 2006-03-30 삼성전자주식회사 대표 타이틀 정보가 부가된 메타 데이터를 포함한 av데이터를 기록한 정보저장매체, 그 재생장치 및 메타데이터 검색방법
KR100602388B1 (ko) * 2004-11-17 2006-07-20 주식회사 픽스트리 엠펙-21 멀티미디어 프레임워크에서의 리소스 참조 방법
KR20060065476A (ko) 2004-12-10 2006-06-14 엘지전자 주식회사 기록매체, 기록매체 내의 콘텐츠 서치방법 및 기록매체재생방법과 재생장치
JP4349277B2 (ja) * 2004-12-24 2009-10-21 株式会社日立製作所 動画再生装置
JP5522896B2 (ja) * 2004-12-24 2014-06-18 コーニンクレッカ フィリップス エヌ ヴェ 番組検索情報を編集する方法および装置
WO2006073283A1 (en) 2005-01-07 2006-07-13 Electronics And Telecommunications Research Institute Apparatus and method for providing adaptive broadcast service using game metadata
JP4978894B2 (ja) * 2005-01-25 2012-07-18 日本電気株式会社 構造化文書検索装置、構造化文書検索方法および構造化文書検索プログラム
FR2883441A1 (fr) * 2005-03-17 2006-09-22 Thomson Licensing Sa Procede de selection de parties d'une emission audiovisuelle et dispositif mettant en oeuvre le procede
TWI309389B (en) * 2005-05-06 2009-05-01 Sunplus Technology Co Ltd Digital audio-video information reproducing apparatus and reproducing method thereof
KR100654455B1 (ko) 2005-05-26 2006-12-06 삼성전자주식회사 확장형 자막 파일을 이용하여 부가정보를 제공하는 장치 및방법
CN101243675B (zh) * 2005-06-27 2016-05-11 核心无线许可有限公司 用于动态丰富媒体场景的传送机制
US20070022215A1 (en) * 2005-07-19 2007-01-25 Singer David W Method and apparatus for media data transmission
US20080130989A1 (en) * 2005-07-22 2008-06-05 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
JP4514671B2 (ja) * 2005-08-03 2010-07-28 シャープ株式会社 コンテンツ編集装置、コンピュータ読み取り可能なプログラム及びそれを記録した記録媒体
US20070078898A1 (en) * 2005-09-30 2007-04-05 Yahoo! Inc. Server-based system and method for retrieving tagged portions of media files
US20070078896A1 (en) * 2005-09-30 2007-04-05 Yahoo! Inc. Identifying portions within media files with location tags
US20070078883A1 (en) * 2005-09-30 2007-04-05 Yahoo! Inc. Using location tags to render tagged portions of media files
US7743363B2 (en) * 2005-10-13 2010-06-22 Microsoft Corporation Extensible meta-data
WO2007043824A1 (en) * 2005-10-13 2007-04-19 Lg Electronics Inc. Method and apparatus for encoding/decoding
US8856118B2 (en) * 2005-10-31 2014-10-07 Qwest Communications International Inc. Creation and transmission of rich content media
US8180826B2 (en) * 2005-10-31 2012-05-15 Microsoft Corporation Media sharing and authoring on the web
US20090123086A1 (en) * 2005-10-31 2009-05-14 Sharp Kabushiki Kaisha View environment control system
US8196032B2 (en) * 2005-11-01 2012-06-05 Microsoft Corporation Template-based multimedia authoring and sharing
JP2007179435A (ja) * 2005-12-28 2007-07-12 Sony Corp 情報処理装置、情報処理方法、プログラム
US20070204238A1 (en) * 2006-02-27 2007-08-30 Microsoft Corporation Smart Video Presentation
US7421455B2 (en) * 2006-02-27 2008-09-02 Microsoft Corporation Video search and services
US7873946B2 (en) * 2006-03-23 2011-01-18 Oracle America, Inc. Scalable vector graphics, tree and tab as drag and drop objects
JP2007265341A (ja) * 2006-03-30 2007-10-11 Sony Corp コンテンツ利用方法、コンテンツ利用装置、コンテンツ記録方法、コンテンツ記録装置、コンテンツ提供システム、コンテンツ受信方法、コンテンツ受信装置およびコンテンツデータフォーマット
JP4377887B2 (ja) * 2006-03-30 2009-12-02 株式会社東芝 映像分割装置
US8549492B2 (en) * 2006-04-21 2013-10-01 Microsoft Corporation Machine declarative language for formatted data processing
US7827155B2 (en) * 2006-04-21 2010-11-02 Microsoft Corporation System for processing formatted data
JP4760572B2 (ja) * 2006-06-30 2011-08-31 ソニー株式会社 編集装置および編集方法、並びにプログラム
WO2008007905A1 (en) 2006-07-12 2008-01-17 Lg Electronics Inc. Method and apparatus for encoding/decoding signal
US20080019281A1 (en) * 2006-07-21 2008-01-24 Microsoft Corporation Reuse of available source data and localizations
US7769363B2 (en) * 2006-08-01 2010-08-03 Chew Gregory T H User-initiated communications during multimedia content playback on a mobile communications device
US20080065693A1 (en) * 2006-09-11 2008-03-13 Bellsouth Intellectual Property Corporation Presenting and linking segments of tagged media files in a media services network
WO2008032739A1 (fr) * 2006-09-12 2008-03-20 Panasonic Corporation Dispositif de formation d'image de contenu
US20100215334A1 (en) * 2006-09-29 2010-08-26 Sony Corporation Reproducing device and method, information generation device and method, data storage medium, data structure, program storage medium, and program
JP2008099012A (ja) * 2006-10-12 2008-04-24 Mitsubishi Electric Corp コンテンツ再生システム及びコンテンツ蓄積システム
WO2008048067A1 (en) 2006-10-19 2008-04-24 Lg Electronics Inc. Encoding method and apparatus and decoding method and apparatus
KR101317204B1 (ko) * 2006-11-27 2013-10-10 삼성전자주식회사 동적 영상물의 프레임 정보를 생성하는 방법 및 이를이용한 장치
KR100827241B1 (ko) * 2006-12-18 2008-05-07 삼성전자주식회사 동적 영상물을 생성하기 위한 템플릿을 편집하는 장치 및방법
FR2910769B1 (fr) * 2006-12-21 2009-03-06 Thomson Licensing Sas Procede de creation d'un resume d'un document audiovisuel comportant un sommaire et des reportages, et recepteur mettant en oeuvre le procede
EP2122482B1 (en) 2007-01-05 2018-11-14 Sonic IP, Inc. Video distribution system including progressive playback
US8671346B2 (en) * 2007-02-09 2014-03-11 Microsoft Corporation Smart video thumbnail
KR100864524B1 (ko) * 2007-02-14 2008-10-21 주식회사 드리머 디지털 방송 데이터 어플리케이션 실행 방법 및 이를실현시키기 위한 프로그램을 기록한 컴퓨터로 판독 가능한기록 매체
JP4511569B2 (ja) * 2007-03-26 2010-07-28 株式会社エヌ・ティ・ティ・ドコモ 遠隔視聴システム及び遠隔視聴方法
JP4469868B2 (ja) * 2007-03-27 2010-06-02 株式会社東芝 説明表現付加装置、プログラムおよび説明表現付加方法
WO2008129600A1 (ja) * 2007-04-05 2008-10-30 Sony Computer Entertainment Inc. コンテンツ再生装置、コンテンツ配信装置、コンテンツ配信システム及びメタデータ生成方法
EP1983755A1 (en) * 2007-04-17 2008-10-22 Thomson Licensing Method to transmit video data in a data stream and associated metadata
WO2008136466A1 (ja) * 2007-05-01 2008-11-13 Dep Co., Ltd. 動画編集装置
KR100935862B1 (ko) * 2007-07-06 2010-01-07 드리머 매체 재생 장치 기반 컨텐츠 제공 시스템
JP4360428B2 (ja) * 2007-07-19 2009-11-11 ソニー株式会社 記録装置、記録方法、コンピュータプログラムおよび記録媒体
JP4420085B2 (ja) * 2007-08-20 2010-02-24 ソニー株式会社 データ処理装置、データ処理方法、プログラムおよび記録媒体
KR101268987B1 (ko) * 2007-09-11 2013-05-29 삼성전자주식회사 메타데이터를 자동적으로 생성/갱신하는 멀티미디어 데이터기록 방법 및 장치
KR20090031142A (ko) * 2007-09-21 2009-03-25 삼성전자주식회사 컨텐츠 생성시 관련된 컨텐츠를 표시하는 gui 제공방법및 이를 적용한 멀티미디어 기기
KR101034758B1 (ko) * 2007-10-04 2011-05-17 에스케이 텔레콤주식회사 통합 멀티미디어 파일의 초기 실행 방법과 이를 위한시스템
US20090158157A1 (en) * 2007-12-14 2009-06-18 Microsoft Corporation Previewing recorded programs using thumbnails
JP2009152927A (ja) * 2007-12-21 2009-07-09 Sony Corp コンテンツの再生方法および再生システム
KR20090079010A (ko) * 2008-01-16 2009-07-21 삼성전자주식회사 프로그램 정보 표시 방법 및 장치
JP5033653B2 (ja) * 2008-01-21 2012-09-26 株式会社日立製作所 映像記録再生装置及び映像再生装置
JP5188260B2 (ja) * 2008-05-08 2013-04-24 キヤノン株式会社 画像処理装置、画像処理方法ならびにそのプログラムおよび記憶媒体
US20090287655A1 (en) * 2008-05-13 2009-11-19 Bennett James D Image search engine employing user suitability feedback
JP2011523309A (ja) * 2008-06-06 2011-08-04 ディヴィクス インコーポレイテッド マルチメディアファイルのためのフォントファイル最適化システム及び方法
US20090315980A1 (en) * 2008-06-24 2009-12-24 Samsung Electronics Co., Image processing method and apparatus
US20090317062A1 (en) * 2008-06-24 2009-12-24 Samsung Electronics Co., Ltd. Image processing method and apparatus
WO2009157707A2 (en) * 2008-06-24 2009-12-30 Samsung Electronics Co,. Ltd. Image processing method and apparatus
KR101539935B1 (ko) * 2008-06-24 2015-07-28 삼성전자주식회사 3차원 비디오 영상 처리 방법 및 장치
JP5649273B2 (ja) * 2008-08-25 2015-01-07 株式会社東芝 情報処理装置、情報処理方法および情報処理プログラム
JP5091806B2 (ja) * 2008-09-01 2012-12-05 株式会社東芝 映像処理装置及びその方法
JP5322550B2 (ja) * 2008-09-18 2013-10-23 三菱電機株式会社 番組推奨装置
US8239359B2 (en) * 2008-09-23 2012-08-07 Disney Enterprises, Inc. System and method for visual search in a video media player
KR101592943B1 (ko) * 2008-12-11 2016-02-12 엘지전자 주식회사 이동 단말기 및 이동 단말기의 데이터 관리 방법
KR20110032610A (ko) * 2009-09-23 2011-03-30 삼성전자주식회사 장면 분할 장치 및 방법
KR20110047768A (ko) * 2009-10-30 2011-05-09 삼성전자주식회사 멀티미디어 컨텐츠 재생 장치 및 방법
CN102065237B (zh) * 2009-11-13 2014-12-24 新奥特(北京)视频技术有限公司 一种方便处理字幕文件的字幕机
KR101733793B1 (ko) * 2009-11-13 2017-05-11 삼성전자주식회사 데이터 관리 방법 및 장치
JP2011130279A (ja) * 2009-12-18 2011-06-30 Sony Corp コンテンツ提供サーバ、コンテンツ再生装置、コンテンツ提供方法、コンテンツ再生方法、プログラムおよびコンテンツ提供システム
US20110154405A1 (en) * 2009-12-21 2011-06-23 Cambridge Markets, S.A. Video segment management and distribution system and method
JP2011188342A (ja) * 2010-03-10 2011-09-22 Sony Corp 情報処理装置、情報処理方法及びプログラム
JP5913788B2 (ja) * 2010-03-25 2016-04-27 ソニー株式会社 コンテンツサーバ、コンテンツ提供システム及びコンテンツ提供方法
KR101746453B1 (ko) * 2010-04-12 2017-06-13 삼성전자주식회사 실감 효과 처리 시스템 및 방법
US9191639B2 (en) 2010-04-12 2015-11-17 Adobe Systems Incorporated Method and apparatus for generating video descriptions
US9276986B2 (en) * 2010-04-27 2016-03-01 Nokia Technologies Oy Systems, methods, and apparatuses for facilitating remote data processing
GB2481185A (en) * 2010-05-28 2011-12-21 British Broadcasting Corp Processing audio-video data to produce multi-dimensional complex metadata
US8806340B2 (en) * 2010-09-01 2014-08-12 Hulu, LLC Method and apparatus for embedding media programs having custom user selectable thumbnails
JP5671288B2 (ja) * 2010-09-24 2015-02-18 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理方法及び情報処理システム
US9753609B2 (en) * 2010-12-03 2017-09-05 Facebook, Inc. User interface with media wheel facilitating viewing of media objects
US8587672B2 (en) 2011-01-31 2013-11-19 Home Box Office, Inc. Real-time visible-talent tracking system
US9264484B1 (en) * 2011-02-09 2016-02-16 Google Inc. Attributing preferences to locations for serving content
CN102143001B (zh) * 2011-04-02 2013-10-09 西南科技大学 一种基于语义理解的音频资源管理方法
GB2491894A (en) * 2011-06-17 2012-12-19 Ant Software Ltd Processing supplementary interactive content in a television system
US9146909B2 (en) * 2011-07-27 2015-09-29 Qualcomm Incorporated Web browsing enhanced by cloud computing
KR101315608B1 (ko) * 2011-09-27 2013-10-18 엘지전자 주식회사 컨텐츠 관리 방법 및 그를 이용한 영상 표시 장치
US20130089301A1 (en) * 2011-10-06 2013-04-11 Chi-cheng Ju Method and apparatus for processing video frames image with image registration information involved therein
US9536044B2 (en) 2011-12-06 2017-01-03 Microsoft Technology Licensing, Llc Metadata extraction pipeline
US9525642B2 (en) 2012-01-31 2016-12-20 Db Networks, Inc. Ordering traffic captured on a data connection
US9100291B2 (en) * 2012-01-31 2015-08-04 Db Networks, Inc. Systems and methods for extracting structured application data from a communications link
TWI461955B (zh) * 2012-02-20 2014-11-21 Univ Nat Cheng Kung 惡意程式破壞系統及其破壞方法
JP2015517233A (ja) 2012-02-29 2015-06-18 ドルビー ラボラトリーズ ライセンシング コーポレイション 改善された画像処理およびコンテンツ送達のための画像メタデータ生成
KR101952260B1 (ko) 2012-04-03 2019-02-26 삼성전자주식회사 다수의 동영상 썸네일을 동시에 표시하기 위한 영상 재생 장치 및 방법
KR101332834B1 (ko) * 2012-04-03 2013-11-27 모젼스랩(주) 온톨로지 기반 전시관련 서비스 제공방법
SE537206C2 (sv) * 2012-04-11 2015-03-03 Vidispine Ab Metod och system för sökningar i digitalt innehåll
EP2680601A1 (en) * 2012-06-29 2014-01-01 Moda e Technologia S.r.l. Video streams management system for a television apparatus
US20140136545A1 (en) 2012-10-05 2014-05-15 International Business Machines Corporation Multi-tier Indexing Methodology for Scalable Mobile Device Data Collection
TWI474201B (zh) * 2012-10-17 2015-02-21 Inst Information Industry Construction system scene fragment, method and recording medium
KR101537665B1 (ko) * 2013-02-26 2015-07-20 주식회사 알티캐스트 콘텐츠 재생 방법 및 장치
EP2809078A1 (en) * 2013-05-27 2014-12-03 Thomson Licensing Method and apparatus for managing metadata files
EP2809077A1 (en) * 2013-05-27 2014-12-03 Thomson Licensing Method and apparatus for classification of a file
US9197926B2 (en) 2013-06-05 2015-11-24 International Business Machines Corporation Location based determination of related content
CN105409203B (zh) 2013-07-30 2018-07-31 杜比实验室特许公司 用于产生场景稳定元数据的系统和方法
US20150331551A1 (en) * 2014-05-14 2015-11-19 Samsung Electronics Co., Ltd. Image display apparatus, image display method, and computer-readable recording medium
EP3651421B1 (en) * 2014-05-19 2023-05-10 Huawei Technologies Co., Ltd. Multimedia display method, apparatus, and device
KR102190233B1 (ko) 2014-10-06 2020-12-11 삼성전자주식회사 영상 처리 장치 및 이의 영상 처리 방법
KR101640317B1 (ko) 2014-11-20 2016-07-19 소프트온넷(주) 오디오 및 비디오 데이터를 포함하는 영상의 저장 및 검색 장치와 저장 및 검색 방법
KR102380979B1 (ko) * 2015-01-05 2022-04-01 삼성전자 주식회사 이미지의 메타데이터 관리 방법 및 장치
KR102306538B1 (ko) 2015-01-20 2021-09-29 삼성전자주식회사 콘텐트 편집 장치 및 방법
JP2016144080A (ja) * 2015-02-03 2016-08-08 ソニー株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
KR102310241B1 (ko) * 2015-04-29 2021-10-08 삼성전자주식회사 소스 디바이스, 그의 제어 방법, 싱크 디바이스 및 그의 화질 개선 처리 방법
US9554160B2 (en) * 2015-05-18 2017-01-24 Zepp Labs, Inc. Multi-angle video editing based on cloud video sharing
US10462524B2 (en) * 2015-06-23 2019-10-29 Facebook, Inc. Streaming media presentation system
US10187684B2 (en) 2015-06-23 2019-01-22 Facebook, Inc. Streaming media presentation system
US10375443B2 (en) 2015-07-31 2019-08-06 Rovi Guides, Inc. Method for enhancing a user viewing experience when consuming a sequence of media
WO2017066736A1 (en) * 2015-10-16 2017-04-20 Tribune Broadcasting Company, Llc Media-production system with social media content interface feature
US10645465B2 (en) * 2015-12-21 2020-05-05 Centurylink Intellectual Property Llc Video file universal identifier for metadata resolution
CN108829881B (zh) * 2018-06-27 2021-12-03 深圳市腾讯网络信息技术有限公司 视频标题生成方法及装置
JP6688368B1 (ja) * 2018-11-13 2020-04-28 西日本電信電話株式会社 映像コンテンツ構造化装置、映像コンテンツ構造化方法、及びコンピュータプログラム
KR102250642B1 (ko) * 2019-10-31 2021-05-11 테크온미디어(주) 효율적인 콘텐츠 유통을 위한 탈중앙화된 콘텐츠 분산 관리 시스템 및 이를 수행하기 위한 컴퓨팅 장치
JP2021132281A (ja) * 2020-02-19 2021-09-09 Jcc株式会社 メタデータ生成システムおよびメタデータ生成方法
US20210319230A1 (en) * 2020-04-10 2021-10-14 Gracenote, Inc. Keyframe Extractor
CN113840099B (zh) 2020-06-23 2023-07-07 北京字节跳动网络技术有限公司 视频处理方法、装置、设备及计算机可读存储介质
US11526612B2 (en) 2020-09-22 2022-12-13 International Business Machines Corporation Computer file metadata segmentation security system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001167109A (ja) * 1999-12-08 2001-06-22 Kddi Corp オーディオビデオ情報の特徴記述群構成方法
WO2002005089A1 (en) * 2000-07-10 2002-01-17 Canon Kabushiki Kaisha Delivering multimedia descriptions

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5119465A (en) * 1989-06-19 1992-06-02 Digital Equipment Corporation System for selectively converting plurality of source data structures through corresponding source intermediate structures, and target intermediate structures into selected target structure
US5758180A (en) * 1993-04-15 1998-05-26 Sony Corporation Block resizing function for multi-media editing which moves other blocks in response to the resize only as necessary
JP3194837B2 (ja) 1994-07-19 2001-08-06 日本電信電話株式会社 代表画面抽出方法および装置
JP3144285B2 (ja) 1995-11-30 2001-03-12 松下電器産業株式会社 映像処理装置
JP3529540B2 (ja) * 1996-03-07 2004-05-24 Kddi株式会社 動画像検索装置
WO1997034240A1 (en) 1996-03-15 1997-09-18 University Of Massachusetts Compact tree for storage and retrieval of structured hypermedia documents
US5986675A (en) * 1996-05-24 1999-11-16 Microsoft Corporation System and method for animating an object in three-dimensional space using a two-dimensional input device
US20010038719A1 (en) * 1996-10-14 2001-11-08 Nikon Corporation Information processing apparatus
JP3633229B2 (ja) * 1997-09-01 2005-03-30 セイコーエプソン株式会社 発光素子の製造方法および多色表示装置の製造方法
AUPO918697A0 (en) * 1997-09-15 1997-10-09 Canon Information Systems Research Australia Pty Ltd Enhanced information gathering apparatus and method
KR100284574B1 (ko) * 1997-10-27 2001-03-15 정선종 객체자동저장시스템및그운용방법
US6134558A (en) * 1997-10-31 2000-10-17 Oracle Corporation References that indicate where global database objects reside
US6751623B1 (en) * 1998-01-26 2004-06-15 At&T Corp. Flexible interchange of coded multimedia facilitating access and streaming
JPH11238071A (ja) 1998-02-20 1999-08-31 Toshiba Corp ダイジェスト作成装置及びダイジェスト作成方法
US6085198A (en) * 1998-06-05 2000-07-04 Sun Microsystems, Inc. Integrated three-tier application framework with automated class and table generation
US6711590B1 (en) * 1998-07-10 2004-03-23 Canon Kabushiki Kaisha Linking metadata with a time-sequential digital signal
KR100279735B1 (ko) * 1998-11-20 2001-02-01 정선종 메타데이터를 이용한 멀티미디어 컨텐츠 전달방법
JP2000253337A (ja) * 1999-02-24 2000-09-14 Sony Corp 画面の制御方法および画面の制御装置および映像再生方法および映像再生装置および映像情報の記録方法および映像情報の記録装置およびコンピュータが読み取り可能な記録媒体
US7362946B1 (en) * 1999-04-12 2008-04-22 Canon Kabushiki Kaisha Automated visual image editing system
JP4227241B2 (ja) 1999-04-13 2009-02-18 キヤノン株式会社 画像処理装置及び方法
JP2001008136A (ja) * 1999-06-21 2001-01-12 Victor Co Of Japan Ltd マルチメディアデータのオーサリング装置
JP2001028722A (ja) 1999-07-13 2001-01-30 Matsushita Electric Ind Co Ltd 動画像管理装置及び動画像管理システム
JP2001119666A (ja) * 1999-08-16 2001-04-27 Univ Of Washington ビデオシーケンスの対話型処理方法と、その記憶媒体およびシステム
AU7588100A (en) * 1999-09-16 2001-04-17 Ixl Enterprises, Inc. System and method for linking media content
KR100373371B1 (ko) * 1999-09-20 2003-02-25 한국전자통신연구원 메타데이터의 중요도 결정기법을 적용한 비디오 데이터 검색방법
JP3738631B2 (ja) * 1999-09-27 2006-01-25 三菱電機株式会社 画像検索システムおよび画像検索方法
AU6973900A (en) 1999-09-29 2001-04-30 Xml-Global Technologies, Inc. Authoring, altering, indexing, storing and retrieving electronic documents embedded with contextual markup
KR100371813B1 (ko) 1999-10-11 2003-02-11 한국전자통신연구원 효율적인 비디오 개관 및 브라우징을 위한 요약 비디오 기술구조 및 이의 기록매체, 이를 이용한 요약 비디오 기술 데이터 생성 방법 및 생성시스템, 요약 비디오 기술 데이터의 브라우징 장치 및 브라우징 방법.
KR100305964B1 (ko) 1999-10-22 2001-11-02 구자홍 사용자 적응적인 다단계 요약 스트림 제공방법
JP3478331B2 (ja) * 1999-10-29 2003-12-15 株式会社リコー 構造表示方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2001167099A (ja) * 1999-12-07 2001-06-22 Nippon Hoso Kyokai <Nhk> 映像・音声オブジェクトを基本としたデータベース装置
US7212972B2 (en) 1999-12-08 2007-05-01 Ddi Corporation Audio features description method and audio video features description collection construction method
CA2374067C (en) * 2000-03-13 2012-09-25 Sony Corporation Method and apparatus for generating compact transcoding hints metadata
KR100739031B1 (ko) * 2000-03-27 2007-07-25 주식회사 큐론 멀티미디어 검색시스템에서 mpeg-7 표준 메타데이터의 은닉 및 검출 방법과 이를 이용한 멀티미디어 데이터의 검색 방법
JP3517631B2 (ja) * 2000-05-08 2004-04-12 株式会社リコー ダイジェスト映像蓄積方法およびダイジェスト映像蓄積装置
JP2001320693A (ja) 2000-05-12 2001-11-16 Sony Corp サービス提供装置および方法、受信端末装置および方法、サービス提供システム
JP4953496B2 (ja) * 2000-05-15 2012-06-13 ソニー株式会社 コンテンツ検索・提示システム及び方法、並びに、ソフトウェア記憶媒体
US6646676B1 (en) * 2000-05-17 2003-11-11 Mitsubishi Electric Research Laboratories, Inc. Networked surveillance and control system
JP2001326901A (ja) 2000-05-18 2001-11-22 Sharp Corp 動画像シーン情報管理装置
JP3600186B2 (ja) * 2000-05-19 2004-12-08 株式会社リコー 映像検索装置
JP2001357008A (ja) 2000-06-14 2001-12-26 Mitsubishi Electric Corp コンテンツ検索配信装置およびコンテンツ検索配信方法
KR100369222B1 (ko) * 2000-07-26 2003-01-24 (학)창성학원 디지털 비디오 검색 및 저작기
US7054508B2 (en) * 2000-08-03 2006-05-30 Canon Kabushiki Kaisha Data editing apparatus and method
JP4403643B2 (ja) * 2000-08-04 2010-01-27 ソニー株式会社 番組視聴サービスシステム
US6959326B1 (en) * 2000-08-24 2005-10-25 International Business Machines Corporation Method, system, and program for gathering indexable metadata on content at a data repository
EP1346559A4 (en) * 2000-11-16 2006-02-01 Mydtv Inc SYSTEM AND METHOD FOR DETERMINING THE POPULARITY OF VIDEO PROGRAM EVENTS
JP4536940B2 (ja) * 2001-01-26 2010-09-01 キヤノン株式会社 画像処理装置、画像処理方法、記憶媒体、及びコンピュータプログラム
US7254570B2 (en) * 2001-03-21 2007-08-07 Nokia Corporation Query resolution system and service
JP2003067397A (ja) 2001-06-11 2003-03-07 Matsushita Electric Ind Co Ltd コンテンツ管理システム
US20030088876A1 (en) * 2001-11-08 2003-05-08 Liberate Technologies Video on demand gateway
US20030110501A1 (en) * 2001-12-12 2003-06-12 Rafey Richter A. Personalizing media presentations based on a target duration
JP3826048B2 (ja) * 2002-02-15 2006-09-27 キヤノン株式会社 情報処理装置及び方法
JP3826043B2 (ja) * 2002-01-31 2006-09-27 キヤノン株式会社 情報処理装置及び方法
JP2007179435A (ja) * 2005-12-28 2007-07-12 Sony Corp 情報処理装置、情報処理方法、プログラム
US8386438B2 (en) * 2009-03-19 2013-02-26 Symantec Corporation Method for restoring data from a monolithic backup

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001167109A (ja) * 1999-12-08 2001-06-22 Kddi Corp オーディオビデオ情報の特徴記述群構成方法
WO2002005089A1 (en) * 2000-07-10 2002-01-17 Canon Kabushiki Kaisha Delivering multimedia descriptions

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020523825A (ja) * 2017-05-30 2020-08-06 ホーム ボックス オフィス, インコーポレイテッド 拡張メタデータを含むビデオコンテンツグラフ
JP7163316B2 (ja) 2017-05-30 2022-10-31 ホーム ボックス オフィス, インコーポレイテッド 拡張メタデータを含むビデオコンテンツグラフ
US11960446B2 (en) 2017-05-30 2024-04-16 Home Box Office, Inc. Video content graph including enhanced metadata
CN112150778A (zh) * 2019-06-29 2020-12-29 华为技术有限公司 环境音处理方法及相关装置

Also Published As

Publication number Publication date
EP2202979A1 (en) 2010-06-30
KR100997599B1 (ko) 2010-11-30
JPWO2003088665A1 (ja) 2005-08-25
EP2202649A1 (en) 2010-06-30
JP2009171622A (ja) 2009-07-30
TWI231140B (en) 2005-04-11
SG152905A1 (en) 2009-06-29
EP2202977A1 (en) 2010-06-30
WO2003088665A1 (fr) 2003-10-23
KR20060097767A (ko) 2006-09-15
EP1496701A4 (en) 2009-01-14
JP2009171624A (ja) 2009-07-30
AU2003221185A1 (en) 2003-10-27
JP4987907B2 (ja) 2012-08-01
US20100005070A1 (en) 2010-01-07
KR20040108726A (ko) 2004-12-24
CA2482431C (en) 2013-03-19
US20080075431A1 (en) 2008-03-27
EP2202648A1 (en) 2010-06-30
US20080071838A1 (en) 2008-03-20
JP4652462B2 (ja) 2011-03-16
EP2202978A1 (en) 2010-06-30
CN1647528A (zh) 2005-07-27
US20080065697A1 (en) 2008-03-13
US20080071837A1 (en) 2008-03-20
EP2200315A1 (en) 2010-06-23
KR100912984B1 (ko) 2009-08-20
US8811800B2 (en) 2014-08-19
EP1496701A1 (en) 2005-01-12
US7826709B2 (en) 2010-11-02
CA2664732A1 (en) 2003-10-23
KR100986401B1 (ko) 2010-10-08
US20080071836A1 (en) 2008-03-20
CA2664732C (en) 2013-07-02
KR20080064875A (ko) 2008-07-09
US20050149557A1 (en) 2005-07-07
CN100367794C (zh) 2008-02-06
KR20100055541A (ko) 2010-05-26
CA2482431A1 (en) 2003-10-23
JP2009171623A (ja) 2009-07-30
TW200306114A (en) 2003-11-01
KR100918725B1 (ko) 2009-09-24

Similar Documents

Publication Publication Date Title
JP4652462B2 (ja) メタデータ処理方法
US7181757B1 (en) Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing
CA2387404A1 (en) Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing
JP4732418B2 (ja) メタデータ処理方法
CN101132528A (zh) 元数据再生、分发、检索装置、元数据再生成条件设定装置
JP4652389B2 (ja) メタデータ処理方法
Kim et al. MPEG-7-based metadata generator and its browser

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100903

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101214