JP2005033619A - Contents management device and contents management method - Google Patents
Contents management device and contents management method Download PDFInfo
- Publication number
- JP2005033619A JP2005033619A JP2003272049A JP2003272049A JP2005033619A JP 2005033619 A JP2005033619 A JP 2005033619A JP 2003272049 A JP2003272049 A JP 2003272049A JP 2003272049 A JP2003272049 A JP 2003272049A JP 2005033619 A JP2005033619 A JP 2005033619A
- Authority
- JP
- Japan
- Prior art keywords
- scene
- processing
- keyword
- content
- metadata
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Television Signal Processing For Recording (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Abstract
Description
本発明は、コンテンツデータの内容を記述したメタデータを管理するコンテンツ管理装置およびコンテンツ管理方法に関する。 The present invention relates to a content management apparatus and a content management method for managing metadata describing the contents of content data.
近年、動画をデジタルファイルとして保存することが普及している。それに伴い膨大な量の動画ファイルから所望のものを迅速に検索したり、効率的に管理したりすることが困難になってきている。これを解決するために動画へインデックス情報を付与する情報管理方法およびインデックス情報を使用した映像検索や映像要約の方法が提案されている(例えば、特許文献1参照)。 In recent years, storing moving images as digital files has become widespread. Accordingly, it has become difficult to quickly search for a desired one from an enormous amount of video files and to manage it efficiently. In order to solve this problem, an information management method for adding index information to a moving image and a video search and video summarization method using the index information have been proposed (for example, see Patent Document 1).
特許文献1には、特定の時間区間の映像と対応させたキーワード情報等を動画ファイルとは別のファイルで用意しておき、そのファイルを検索等に用いる方法が具体的に示されている。インデックス情報ファイルの書式は広く普及しているXMLフォーマットで記述するのが一般的である。
さらに、今日では映像コンテンツの記述を目的としたMPEG−7規格も提案されている。 Furthermore, the MPEG-7 standard for the purpose of describing video contents has been proposed today.
また、動画の内容を記述したメタデータを作成するオーサリングシステムについても提案されている。従来のオーサリングプログラムでは、オペレータが特定の映像の区間とインデックス情報として特定のキーワードを関連付ける入力を行うと、キーワードの内容がメタデータに記述されるようになっている(例えば、非特許文献2参照)。
しかしながら、従来の動画インデックス情報の管理方法には、以下のような課題があった。 However, the conventional video index information management method has the following problems.
つまり、従来の方法では、各シーンに対してキーワードは付与されているが、各シーンに対する詳細な処理内容は付与されていない。 In other words, in the conventional method, a keyword is assigned to each scene, but detailed processing content is not assigned to each scene.
具体的には、従来の方法は、コンテンツデータから特定のキーワードが関連付けられたシーンを検索して抽出するような場合に、検索結果の合計時間を所望の時間に合わせたくてもキーワードが付与された映像の区間が離散的であるために微調整する方法を提供していない。 Specifically, in the conventional method, when a scene associated with a specific keyword is searched for and extracted from content data, the keyword is assigned even if the total time of the search result is set to a desired time. The method of fine-tuning is not provided because the segment of the video is discrete.
例えば、「ゴールシーン」に関する要約映像を1分で提供する必要が生じた場合、「ゴールシーン」というキーワードが付与された25秒のシーンが3つ検索されたとすれば、これらのシーンの合計は1分15秒になる。この場合、検索された全てシーンを提供すると指定時間より超過してしまう。そこで、1つのシーンを削除することが考えられるが、この場合シーンの合計時間が50秒となり、1分で提供するはずの要約映像が50秒と短くなってしまう。 For example, if it is necessary to provide a summary video related to “goal scene” in one minute, if three 25-second scenes with the keyword “goal scene” are searched, the total of these scenes is 1 minute 15 seconds. In this case, if all the searched scenes are provided, the specified time will be exceeded. Therefore, it is conceivable to delete one scene. In this case, the total time of the scene is 50 seconds, and the summary video that should be provided in 1 minute is shortened to 50 seconds.
本発明は、かかる点に鑑みてなされたものであり、動画インデックス情報に記述されていない処理方法等について補完する情報を管理することを目的とする。 The present invention has been made in view of such a point, and an object thereof is to manage information that complements a processing method or the like that is not described in moving image index information.
本発明は、コンテンツデータの内容を記述したメタデータと、メタデータで使用するキーワードに対応する処理方法を記述した処理テーブルを用いてコンテンツデータの管理をし、この処理テーブルを用いてコンテンツデータの処理を行うようにした。 The present invention manages content data using metadata describing the content of the content data and a processing table describing a processing method corresponding to a keyword used in the metadata, and using this processing table, It was made to process.
本発明は、コンテンツデータに対して処理テーブルを用いることにより、コンテンツデータの処理方法を細かく設定できる。この結果、コンテンツデータから特定のキーワードが関連付けられたシーンを検索して抽出するような場合に、検索結果の合計時間を所望の時間に微調整する等できる。 In the present invention, the processing method of content data can be set in detail by using the processing table for the content data. As a result, when a scene associated with a specific keyword is searched and extracted from the content data, the total time of the search result can be finely adjusted to a desired time.
本発明の第1の態様にかかるコンテンツ管理装置は、コンテンツデータの内容を記述したメタデータを参照するメタデータ参照手段と、前記メタデータで使用するキーワードに対応する処理内容を記述した処理テーブルを参照するテーブル参照手段と、具備した構成を採る。 A content management apparatus according to a first aspect of the present invention includes a metadata reference unit that refers to metadata that describes content data content, and a processing table that describes processing content corresponding to a keyword used in the metadata. A table referring means to be referred to and a configuration provided are employed.
これにより、コンテンツデータを、メタデータと処理テーブルで管理することができる。この結果、メタデータ内で使用されるキーワードの言葉の特徴を生かした検索や要約生成を実現することができる。また、処理テーブルの内容を変更すればシステムを変更しなくても処理の内容を任意に変更できる。 Thereby, the content data can be managed by the metadata and the processing table. As a result, it is possible to realize search and summary generation that make use of the characteristics of the keyword words used in the metadata. Further, if the contents of the processing table are changed, the contents of the processing can be arbitrarily changed without changing the system.
本発明の第2の態様にかかる処理テーブル提供装置は、第1の態様に記載のコンテンツ管理装置に対して、前記処理テーブルを提供する処理テーブル提供装置である。 The processing table provision apparatus concerning the 2nd aspect of this invention is a processing table provision apparatus which provides the said processing table with respect to the content management apparatus as described in a 1st aspect.
これにより、キーワードに対応した処理内容を記述した処理テーブルを提供することができる。 As a result, it is possible to provide a processing table describing the processing content corresponding to the keyword.
本発明の第3の態様にかかるコンテンツデータ検索装置は、複数のシーンからなるコンテンツデータを参照するコンテンツデータ参照手段と、前記シーンの内容をキーワードで記述したメタデータを参照するメタデータ参照手段と、前記メタデータで使用するキーワードに対応する処理内容を記述した処理テーブルを参照するテーブル参照手段と、検索用のキーワードを入力し前記検索用のキーワードが付与された前記シーンを前記コンテンツデータ参照手段から検索するシーン検索手段と、検索した前記シーンに付与された前記キーワードに対応する前記処理内容を前記処理テーブルから抽出し、抽出した前記処理内容に対応した処理を前記検索したシーンに対して行うデータ処理手段と、を具備した構成を採る。 A content data search device according to a third aspect of the present invention includes content data reference means for referring to content data composed of a plurality of scenes, and metadata reference means for referring to metadata in which the contents of the scene are described by keywords. Table reference means for referring to a processing table in which processing content corresponding to a keyword used in the metadata is described; and the content data reference means for inputting the search keyword and adding the search keyword to the scene. The scene search means for searching from the above, the processing content corresponding to the keyword assigned to the searched scene is extracted from the processing table, and the processing corresponding to the extracted processing content is performed on the searched scene And a data processing means.
このように、コンテンツデータを、メタデータと処理テーブルで管理することにより、メタデータ内で使用されるキーワードの言葉の特徴を生かした検索を実現することができる。また、処理テーブルの内容を変更すればコンテンツデータ検索装置を変更しなくても処理の内容を任意に変更できる。これは、コンテンツデータ検索装置自体に手を加えずに処理を変更する場合に利便性が高い。 As described above, by managing the content data with the metadata and the processing table, it is possible to realize a search that makes use of the characteristics of the keyword words used in the metadata. Further, if the contents of the processing table are changed, the contents of the processing can be arbitrarily changed without changing the content data search device. This is highly convenient when processing is changed without changing the content data search apparatus itself.
本発明の第4の態様は、第3の態様にかかるコンテンツデータ検索装置において、前記処理内容は前記シーンを伸張する処理であり、前記データ処理手段は前記検索したシーンの合計時間が所望の指定時間に満たない場合に、前記合計時間が前記指定時間になるように前記検索したシーンを伸張する。 According to a fourth aspect of the present invention, in the content data search device according to the third aspect, the processing content is a process of expanding the scene, and the data processing means specifies a desired total time of the searched scene. If it is less than the time, the searched scene is expanded so that the total time becomes the specified time.
これにより、検索したシーンの合計時間が指定時間に合わない場合に、検索したシーンの合計時間を指定時間に合わすことができる。 Thereby, when the total time of the searched scene does not match the specified time, the total time of the searched scene can be adjusted to the specified time.
本発明の第5の態様は、第4の態様にかかるコンテンツデータ検索装置において、前記シーンを伸張する処理は、前記シーンに付与されたキーワードの特性に応じて、前記検索したシーンに前記検索したシーンの前のシーンもしくは後ろのシーンの一部を付加する処理である。 According to a fifth aspect of the present invention, in the content data search device according to the fourth aspect, the process of expanding the scene is performed by searching the searched scene according to a keyword characteristic assigned to the scene. This is a process of adding a part of the scene before or after the scene.
これにより、シーンに付与したキーワードの特性に応じた伸張方法でシーンを伸張することにより、シーンの特徴をより明確にできるようにシーンを伸張できる。 As a result, the scene can be expanded so that the features of the scene can be made clearer by expanding the scene by the expansion method according to the characteristics of the keyword assigned to the scene.
本発明の第6の態様は、第4の態様または第5の態様にかかるコンテンツデータ検索装置において、前記シーンには重要度が付与されていて、前記データ処理手段は前記検索したシーンの中で最も前記重要度の高いシーンを伸張する。 According to a sixth aspect of the present invention, in the content data search device according to the fourth aspect or the fifth aspect, the scene is given importance, and the data processing means is included in the searched scene. The most important scene is stretched.
これにより、重要な内容を多く持つシーンを伸長することができる。 Thereby, a scene having a lot of important contents can be expanded.
本発明の第7の態様にかかるオーサリング処理装置は、複数のシーンからなるコンテンツデータを参照するコンテンツデータ参照手段と、所定のキーワードに対応する処理内容を記述した処理テーブルを参照するテーブル参照手段と、前記シーンに対して付与するキーワードを入力し、入力した前記キーワードに対応する前記処理内容を前記処理テーブルから抽出し、抽出した前記処理内容に対応した記述を前記シーンに対して行うことにより、前記コンテンツデータの内容を示すメタデータを生成するデータ作成手段と、を具備した構成を採る。 An authoring processing apparatus according to a seventh aspect of the present invention includes content data reference means for referring to content data composed of a plurality of scenes, and table reference means for referring to a processing table that describes processing details corresponding to a predetermined keyword. , By inputting a keyword to be given to the scene, extracting the processing content corresponding to the input keyword from the processing table, and performing a description corresponding to the extracted processing content on the scene, And a data creation means for generating metadata indicating the content data.
これにより、処理テーブルを使用したオーサリング処理を行うことができる。この結果、ユーザーのキーワード付与操作をサポートすることができ、作業効率が著しく向上することができる。また、処理テーブルの内容を変更すればオーサリング処理装置を全く変更しなくても処理内容を任意のものに変更できるため、オーサリング処理装置自体に手を加えずに処理を変更する場合に利便性が高い。 As a result, authoring processing using the processing table can be performed. As a result, the user keyword assignment operation can be supported, and the work efficiency can be remarkably improved. In addition, if the content of the processing table is changed, the processing content can be changed to an arbitrary one without changing the authoring processing device at all, which is convenient when changing the processing without changing the authoring processing device itself. high.
本発明の第8の態様は、第7の態様にかかるオーサリング処理装置において、前記処理内容は排他的処理であり、前記データ作成手段は前記入力したキーワードを付与する前記シーン以外のシーンに対して、前記入力したキーワードと排他的な意味のキーワードを付与する。 According to an eighth aspect of the present invention, in the authoring processing apparatus according to the seventh aspect, the processing content is exclusive processing, and the data creation means applies to a scene other than the scene to which the input keyword is assigned. , A keyword having a meaning exclusive to the input keyword is assigned.
これにより、排他的なキーワード付与を行う必要がなくなるので、オーサリングの作業量が減るというメリットがある。また、排他的なキーワードが同一のシーンに関連付けられることは矛盾するので、オーサリング操作において、そういう矛盾した操作を禁止することは、利便性が高い。 This eliminates the need for exclusive keyword assignment, which has the advantage of reducing the amount of authoring work. Further, since it is contradictory that exclusive keywords are associated with the same scene, it is highly convenient to prohibit such contradictory operations in the authoring operation.
本発明の第9の態様は、第7の態様にかかるオーサリング処理装置において、前記処理内容は重要度付与処理であり、前記データ作成手段は前記入力したキーワードを付与する前記シーンに対して、所定の重要度を付与する。 According to a ninth aspect of the present invention, in the authoring processing apparatus according to the seventh aspect, the processing content is an importance level assigning process, and the data creation unit is configured to perform a predetermined process on the scene to which the input keyword is assigned. Gives importance.
これにより、自動的に重要度を付与することができるので、ユーザーの作業量が減る。 Thereby, since the importance can be automatically given, the amount of work of the user is reduced.
本発明の第10の態様は、第7の態様にかかるオーサリング処理装置において、前記処理内容は段階的に重要度を付与する処理であり、前記データ作成手段は前記入力したキーワードを付与する前記シーンの前後のシーンに対して、前記キーワードを付与するシーンの重要度を頂点に段階的に重要度を付与する。 According to a tenth aspect of the present invention, in the authoring processing apparatus according to the seventh aspect, the processing content is processing for assigning importance in stages, and the data creation means is the scene for assigning the input keyword. With respect to the scenes before and after, the importance is assigned stepwise with the importance of the scene to which the keyword is assigned as the vertex.
このように、自動的に現在処理中の前後のシーンに段階的に重要度を付与することにより、ユーザーが現在処理中の前後のシーンに対して段階的に重要度を付与する必要がなくなるので、非常に利便性が高い。 In this way, by automatically assigning importance to the previous and next scenes that are currently being processed, it is not necessary for the user to assign importance to the previous and subsequent scenes that are currently being processed. Very convenient.
本発明の第11の態様は、第10の態様にかかるオーサリング処理装置において、前記処理内容は前に重点を置いて重要度を付与する処理であり、前記データ作成手段は前記入力したキーワードを付与する前記シーンの前のシーンに対して、前記キーワードを付与するシーンの後ろのシーンより高い重要度を付与する。 According to an eleventh aspect of the present invention, in the authoring processing apparatus according to the tenth aspect, the processing content is processing for assigning importance with emphasis before, and the data creation means assigns the input keyword. A higher importance is assigned to a scene before the scene than a scene behind the scene to which the keyword is assigned.
これにより、例えば「ゴール」のように前に重点のあるキーワードに対し、前のシーンに重点が置かれるようになる。 As a result, for example, with respect to a keyword having a prior focus such as “goal”, the previous scene is emphasized.
本発明の第12の態様は、第10の態様にかかるオーサリング処理装置において、前記処理内容は後ろに重点を置いて重要度を付与する処理であり、前記データ作成手段は前記入力したキーワードを付与する前記シーンの後ろのシーンに対して、前記キーワードを付与するシーンの前のシーンより高い重要度を付与する。 According to a twelfth aspect of the present invention, in the authoring processing apparatus according to the tenth aspect, the process content is a process of assigning importance with emphasis on the back, and the data creation means assigns the input keyword. The higher importance is assigned to the scene behind the scene than the scene before the scene to which the keyword is assigned.
これにより、例えば「フリーキック」のように後に重点のあるキーワードに対し、後のシーンに重点が置かれるようになる。 As a result, for example, a keyword with a later emphasis such as “free kick” is emphasized in the later scene.
本発明の第13の態様にかかるオーサリング処理装置は、複数のシーンからなるコンテンツデータを参照するコンテンツデータ参照手段と、所定のキーワードに対応する処理内容と前記処理内容に対する識別情報を記述した処理テーブルを参照するテーブル参照手段と、前記シーンに対して付与するキーワードを入力し、入力した前記キーワードに対応する前記識別情報を前記処理テーブルから抽出し、抽出した前記識別情報を前記シーンに記述することにより、前記コンテンツデータの内容を示すメタデータを生成するデータ作成手段と、を具備した構成を採る。 An authoring processing apparatus according to a thirteenth aspect of the present invention includes a content data reference means for referencing content data composed of a plurality of scenes, a processing content corresponding to a predetermined keyword, and a processing table describing identification information for the processing content A table reference means for referring to the image, a keyword to be assigned to the scene, the identification information corresponding to the input keyword is extracted from the processing table, and the extracted identification information is described in the scene Thus, a configuration is provided that includes data creation means for generating metadata indicating the contents of the content data.
これにより、メタデータに処理内容そのものを記述するのではなく、処理内容に対応した識別情報を記述することができる。このような方法でメタデータを記述することによりメタデータの大きさを小さくすることができる。 As a result, it is possible to describe identification information corresponding to the processing content, instead of describing the processing content itself in the metadata. By describing the metadata in this way, the size of the metadata can be reduced.
本発明の第14の態様は、コンテンツデータの内容を記述したメタデータと、メタデータで使用するキーワードに対応する処理方法を記述した処理テーブルと、を用いて前記コンテンツデータの管理することを特徴とするコンテンツ管理方法である。 According to a fourteenth aspect of the present invention, the content data is managed using metadata describing the content data and a processing table describing a processing method corresponding to a keyword used in the metadata. This is a content management method.
本発明の第15の態様は、複数のシーンからなるコンテンツデータを参照するステップと、前記シーンの内容をキーワードで記述したメタデータを参照するステップと、前記メタデータで使用するキーワードに対応する処理内容を記述した処理テーブルを参照するステップと、検索用のキーワードを入力し前記検索用のキーワードが付与された前記シーンを前記コンテンツデータから検索するステップと、検索した前記シーンに付与された前記キーワードに対応する前記処理内容を前記処理テーブルから抽出するステップと、抽出した前記処理内容に対応した処理を前記検出したシーンに対して行うステップと、を具備したことを特徴とするコンテンツデータ検索方法である。 According to a fifteenth aspect of the present invention, there is provided a step of referring to content data composed of a plurality of scenes, a step of referring to metadata describing the contents of the scene with keywords, and a process corresponding to the keywords used in the metadata A step of referring to a processing table describing contents; a step of inputting a search keyword and searching the scene to which the search keyword is assigned; and the keyword assigned to the searched scene. A content data search method comprising: extracting the processing content corresponding to the processing scene from the processing table; and performing the processing corresponding to the extracted processing content on the detected scene. is there.
本発明の第16の態様は、複数のシーンからなるコンテンツデータを参照するステップと、所定のキーワードに対応する処理内容を記述した処理テーブルを参照するステップと、前記シーンに対して付与するキーワードを入力するステップと、入力した前記キーワードに対応する前記処理内容を前記処理テーブルから抽出するステップと、抽出した前記処理内容に対応した記述を前記シーンに対して行うことにより、前記コンテンツデータの内容を示すメタデータを生成するステップと、を具備したことを特徴とするオーサリング処理方法である。 According to a sixteenth aspect of the present invention, there are provided a step of referring to content data composed of a plurality of scenes, a step of referring to a processing table describing processing details corresponding to a predetermined keyword, and a keyword to be assigned to the scene. The step of inputting, the step of extracting the processing content corresponding to the input keyword from the processing table, and the description corresponding to the extracted processing content for the scene, An authoring processing method comprising: generating metadata to be displayed.
本発明の第17の態様は、コンピュータに、複数のシーンからなるコンテンツデータを参照するステップと、前記シーンの内容をキーワードで記述したメタデータを参照するステップと、前記メタデータで使用するキーワードに対応する処理内容を記述した処理テーブルを参照するステップと、検索用のキーワードを入力し前記検索用のキーワードが付与された前記シーンを前記コンテンツデータから検索するステップと、検索した前記シーンに付与された前記キーワードに対応する前記処理内容を前記処理テーブルから抽出するステップと、抽出した前記処理内容に対応した処理を前記検出したシーンに対して行うステップと、を行わせることを特徴とするプログラムである。 According to a seventeenth aspect of the present invention, a computer includes a step of referring to content data including a plurality of scenes, a step of referring to metadata in which the contents of the scene are described by keywords, and a keyword used in the metadata. A step of referring to a processing table describing a corresponding processing content, a step of inputting a search keyword and searching the scene to which the search keyword is assigned from the content data, and a step assigned to the searched scene And a step of extracting the processing content corresponding to the keyword from the processing table and a step of performing processing corresponding to the extracted processing content on the detected scene. is there.
本発明の第18の態様は、コンピュータに、複数のシーンからなるコンテンツデータを参照するステップと、所定のキーワードに対応する処理内容を記述した処理テーブルを参照するステップと、前記シーンに対して付与するキーワードを入力するステップと、入力した前記キーワードに対応する前記処理内容を前記処理テーブルから抽出するステップと、抽出した前記処理内容に対応した記述を前記シーンに対して行うことにより、前記コンテンツデータの内容を示すメタデータを生成するステップと、を行わせることを特徴とするプログラムである。 According to an eighteenth aspect of the present invention, a step of referring to content data including a plurality of scenes, a step of referring to a processing table describing processing details corresponding to a predetermined keyword, and giving to the scene Inputting the keyword to be processed, extracting the processing content corresponding to the input keyword from the processing table, and performing description corresponding to the extracted processing content on the scene, thereby performing the content data Generating metadata indicating the contents of the program.
以下、本発明の実施の形態について、添付図面を用いて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
(実施の形態1)
本発明の実施の形態1では、コンテンツデータの内容を記述したメタデータと、メタデータで使用する言葉に対応する処理方法を記述した処理テーブルを用いて、コンテンツデータを管理するデータ管理方法および、この管理方法を使用した検索方法について具体的に説明する。
(Embodiment 1)
In
まず、実施の形態1にかかるコンテンツデータ検索システムについて図1を用いて説明する。図1は、実施の形態1にかかるコンテンツデータ検索システムの構成図である。 First, the content data search system according to the first embodiment will be described with reference to FIG. FIG. 1 is a configuration diagram of the content data search system according to the first embodiment.
コンテンツデータ検索システム100は、コンテンツデータの内容を記述したメタデータと、メタデータで使用する言葉に対応する処理方法を記述した処理テーブルを用いて、コンテンツデータを管理するデータ管理方法を用いてコンテンツデータから指定された部分を検索して出力する。
The content
コンテンツデータとは、創作・著作物であり、デジタル、アナログを問わないが、電子的に検索可能な状態でメディアに保持されたデータである。コンテンツデータの形式はインターネットのwebページのようにhtml形式であったり、放送で用いられるようなbml形式であったり、音声のファイルであったりし、特に限定されるべきものではないが、実施の形態1では説明の便宜上、動画映像データとする。 Content data is a work of creation and copyrighted work, which may be digital or analog, but is stored in the media in an electronically searchable state. The content data format is not particularly limited, such as an html format such as a web page on the Internet, a bml format used in broadcasting, or an audio file. In the first embodiment, for convenience of explanation, it is assumed to be moving image data.
コンテンツデータ検索システム100は、通信処理部101と、要約生成部105と、コンテンツデータ提供部108と、がデータを受け渡すバスであるデータバス104で接続された構成を持つ。
The content
通信処理部101は、リクエスト入力部102と映像データ送出部103を持つ。
The
リクエスト入力部102は、どのようなデータを検索するかというユーザーからのリクエストを入力する。
The
映像データ送出部103は、コンテンツデータ検索システム100が検索したデータをユーザーに送出する。
The video
また、通信処理部101が行う通信処理は、LANやインターネット等の技術によって行われる。
Communication processing performed by the
なお、実施の形態1は通信処理部101が入出力を行う構成で説明しているが、例えば一台のパソコンが全てのデータや操作手段を備えているような場合には、通信を使用しなくてもシステム内部の接続で入出力を行えるので、通信処理部101がない構成であっても良い。
The first embodiment has been described with the configuration in which the
コンテンツデータ提供部108は、複数の映像データ109、111を保管する映像データ保管部114と、メタデータ110、112を保管するメタデータ保管部115を備える。
The content
メタデータ110、112内には、どの映像データ109、111についてのメタデータであるかのリンクが記述されており、映像データ109、111とメタデータ110、112はそれぞれ関連付けられている。
In the
実施の形態1では、メタデータ110は映像データ109に関する記述であり、メタデータ112は映像データ111に関する記述である。
In the first embodiment, the
また、コンテンツデータ提供部108は、処理テーブル113を保管するテーブル保管部116を備える。
In addition, the content
処理テーブル113は、メタデータ110、112内で使用されるキーワードと、キーワードに対する処理との組を複数格納したテーブルである。
The processing table 113 is a table that stores a plurality of pairs of keywords used in the
コンテンツデータ提供部108としてはハードディスク、光ディスク、磁気ディスク等の情報保持メディアが使用できる。
As the content
なお、コンテンツデータ提供部108は、必ずしも単一の機器である必要は無く複数の機器をネットワークで接続した形態でもよい。
Note that the content
例えば、映像データ1は海外にあるサーバーのハードディスク内にあり、映像データ2は国内の別のサーバーにあり、メタデータはデジタル放送のデータ放送で提供されて放送受信機器に蓄積されていて、処理テーブルはまた別のサーバーで提供されていてもそれらがネットワークで接続されていれば仮想的に一つの機器内にすべての必要なデータがあるのと同じことになる。
For example,
このようにデータが分散的にネットワーク上に存在する場合には一つの映像データに対応するメタデータや、メタデータに対応する処理テーブルが重複して複数存在してしまうことがある。このような場合には、映像データやメタデータの内部に対応するデータのURLを明示して、はっきり一つのファイルに特定できるようにすればよい。あるいは、ファイル名だけでなく、ファイルのハッシュ値のような各ファイル固有の値も併記して複数のファイルから一つのファイルを選択できるようにしてもよい。 As described above, when data exists on the network in a distributed manner, a plurality of metadata corresponding to one video data and a plurality of processing tables corresponding to the metadata may exist. In such a case, the URL of the data corresponding to the inside of the video data or metadata may be clearly specified so that it can be clearly specified as one file. Alternatively, not only the file name but also a value unique to each file such as a hash value of the file may be written so that one file can be selected from a plurality of files.
また、映像データ109、111は、MPEG等の符号化フォーマットを使用したデジタルファイルである。
The
要約生成部105には、シーン検索部106と、データ管理部107が設けられている。
The
シーン検索部106は、コンテンツデータ提供部108に保管された映像データ109、111から、キーワードや指定時間などから構成される検索リクエストに応じたシーン検索処理を行う。
The
データ管理部107は、コンテンツデータ提供部108に格納された、映像データ109、111、メタデータ110、112と処理テーブル113に参照(アクセス)する参照手段としての機能を有し、さらに、映像データ109、111に処理テーブル113に従った処理を加える。
The
要約生成部105は、CPUとRAMからなり、ソフトウエアモジュールであるシーン検索部106とデータ管理部107を動作させる。
The
次に、図1に示したメタデータ110、112について図2を用いて説明する。図2は、実施の形態1にかかるメタデータ110、112の具体例を示す図である。
Next, the
図2に示すメタデータ110、112は、実際に使用するメタデータの一部であり、MPEG−7規格に準拠したXMLフォーマットで記述されている。また、メタデータ110、112は、基本的に一つの動画ファイルに一つのファイルとして記述されている。
The
なお、複数の動画ファイルの内容を一つのメタデータファイルに記述することも可能であり、一つの動画ファイルの内容を複数のメタデータに記述することも可能である。 The contents of a plurality of moving image files can be described in one metadata file, and the contents of one moving image file can be described in a plurality of metadata.
また、メタデータ110、112は、MPEG−7規格に準拠したXMLフォーマットでなくても、他の形式や独自形式ででも記述することは可能である。
Further, the
また、メタデータ110、112には、どの動画ファイルに関する情報かを示すMediaのUriが記述されている。さらに、メタデータ110、112には、動画ファイル中の開始時間と終了時間で定義される映像区間すなわちシーン毎にそのシーンの内容が記述される。
In addition, in the
図2を用いて説明すると、201で示される部分に、対応する動画ファイルのMediaのUriが記述されている。 Referring to FIG. 2, the media URI of the corresponding moving image file is described in a portion indicated by 201.
また、202で示される部分に、シーン(セグメント)の定義が記述されている。また、205で示される部分に、シーンの開始時間と終了時間(durationで現わしてもよい)が記述されている。 In addition, a definition of a scene (segment) is described in a portion indicated by 202. Also, in the portion indicated by 205, the start time and end time of the scene (which may appear as duration) are described.
また、203で示される部分には、シーンに関連付けるキーワードが記述されている。シーンのキーワードを203に示されるような観点すなわちPointOfViewで記述する場合は、その観点から見てどのくらい重要かを示す重要度すなわちImportanceの値204も記述される。
Further, in a portion indicated by 203, a keyword associated with the scene is described. When the scene keyword is described in the viewpoint as indicated by 203, that is, PointOfView, the importance indicating the importance from the viewpoint, that is, the
また、206で示すように、キーワードは注釈すなわちAnnotationとして付与してもよい。 Further, as indicated by 206, the keyword may be given as an annotation, ie, Annotation.
このようにメタデータは構成されている。 In this way, metadata is configured.
次に、メタデータにおけるキーワードの付与状態を模式的に図3に示す。 Next, FIG. 3 schematically shows a keyword assignment state in the metadata.
横軸309は、ある動画ファイルの時間の経過を示す。
A
301a〜301dで示されるものはシーンの模式図であり、長方形の左辺の位置が開始時間であり、長さがDURATIONである。この例では複数のシーン301a〜301dは隙間なく連続しており、1つのシーンの終了時間が次のシーンの開始時間と一致している。
縦軸310には、各シーン301a〜301cに付与されたキーワード311〜314が配置されている。各キーワード311〜314の右側には、キーワード311〜314が、どのシーンに付与されているかの状況を示す帯302a〜302fが配置されている。例えばキーワード「日本代表」311の右側には、シーン301b、301cに対応する帯302a、302bが配置されているので、キーワード311がシーン301bとシーン301cに付与されていることがわかる。
On the vertical axis 310,
これは実際のデータでは、図2におけるシーン定義202内に、PointOfView203等でキーワードが定義されている状況である。各シーンには複数のキーワードを付与することが可能で、例えばシーン301dには3つのキーワード(大阪、ゴール、ハイライト)312〜314が付与されている。
This is a situation in which keywords are defined by
また、キーワード311〜314には、その重要度も付与できることを前述したが、例えばキーワード314は、シーン301cに対しては重要度0.8が付与され、シーン301dに対しては重要度1.0が付与されている。
In addition, it has been described above that
XML表記されたメタデータそのものを、メタデータを扱うユーザーやオペレータが見ても、メタデータのキーワードや重要度の付与状況を鳥瞰的に理解することは難しい。しかし、ディスプレイ装置等を使用して図3のような模式図を表示すれば、ユーザーやオペレータがメタデータのキーワードや重要度を鳥瞰的に理解でき、利便性が高まる。 It is difficult for a user or operator who handles metadata to see the metadata itself expressed in XML, and to understand the assignment of metadata keywords and importance from a bird's-eye view. However, if the schematic diagram as shown in FIG. 3 is displayed using a display device or the like, the user and the operator can understand the keywords and importance of the metadata from a bird's-eye view, which increases convenience.
また、キーワードの付与を行うオーサリングシステムのGUI(Graphical User Interface)としても図3のような表示は有効である。 The display as shown in FIG. 3 is also effective as a GUI (Graphical User Interface) of an authoring system that assigns keywords.
この表示の際に、重要度の値を視覚的に示せばよりわかりやすい。例えば、キーワードの付与を示す帯302a〜302fの色が濃いほど重要度が高いとしたり、模様や記号を配したりすることにより、一見して重要度の付与状況を確認することができ利便性が高まる。例えば、図3の例では、帯302eより帯302fのほうの色が濃いので、シーン301cよりシーン301dのほうが重要度が高いということがわかる。
In this display, it is easier to understand if the importance value is visually shown. For example, the darker the colors of the
また、図3に示すメタデータの模式図では、(1)シーンは連続しており、重なりがない、(2)各シーンには複数のキーワードを付与することができる、という2つの特徴があったが、シーンの定義のしかたはこれに限られるものではない。別の定義によるメタデータの付与状況を示す模式図を図4に示す。 In addition, the schematic diagram of metadata shown in FIG. 3 has two characteristics: (1) scenes are continuous and do not overlap, and (2) a plurality of keywords can be assigned to each scene. However, the definition of the scene is not limited to this. FIG. 4 is a schematic diagram showing a state of giving metadata according to another definition.
図4における401〜404はそれぞれ1つのシーンであり、それぞれ日本代表、大阪、ゴール、ハイライトという一つのキーワード311〜314が関連付けられている。シーンはシーン401とシーン404のように重なっていてもかまわない。また、シーンとシーンの間隔が空いていてもかまわない。
Each of 401 to 404 in FIG. 4 is one scene, and one
図4のようなシーンの定義の方法により、時間区間に対して自由にキーワードを付与できるので、キーワードの付与の重なりがあるようなケースでは視覚的にも作業的にも利便性が上がる場合がある。 Since keywords can be freely assigned to the time interval by the scene definition method as shown in FIG. 4, in cases where there are overlapping keyword assignments, convenience may be improved both visually and in terms of work. is there.
ところで、図3と図4はシーンの定義の方法は異なるが、情報量としては均等である。すなわち、図5に示すように全てのシーン301a〜301dの開始時間と終了時間で501、502のような仕切りを設け、そこをシーンの分割点とすれば、図4に示す例においても、図3の4つのシーン301a〜301dと同様に4つのシーンを定義することができる。そして、そのシーンそれぞれに複数のキーワードが付与されていると見れば、実は図4も図3も特定の時間区間に付与されているキーワードという意味では全く同じになる。
3 and 4 are different in the definition method of the scene, but the amount of information is equal. That is, if partitions such as 501 and 502 are provided at the start time and end time of all the
このように、情報量的には全く同じメタデータもシーンの定義の仕方によって図3に示す方法と、図4に示す方法の二通りの表現方法があり、それらは相互に変換可能である。動画データの時間区間へキーワードを関連付ける際には、GUIに表示する際にも、メタデータとしてXML形式のファイルとして出力する際にもいずれか都合のよい表現方法を選択すると利便性が高い。また、入力したデータ異なる表現方法に変換することも有効である。 As described above, there are two ways of expressing the same metadata in terms of information amount, the method shown in FIG. 3 and the method shown in FIG. 4 depending on how the scene is defined, and they can be converted into each other. When associating a keyword with a time interval of moving image data, it is convenient to select an expression method that is convenient for either displaying on the GUI or outputting as an XML file as metadata. It is also effective to convert the input data into a different representation method.
次に、実施の形態1にかかる処理テーブル113について図6を用いて説明する。図6は、実施の形態1にかかる処理テーブル113の構成図である。 Next, the processing table 113 according to the first embodiment will be described with reference to FIG. FIG. 6 is a configuration diagram of the processing table 113 according to the first embodiment.
処理テーブル113には、キーワード601と、キーワード601に対する処理内容602と、キーワード601に対する備考603と、キーワード601を識別する識別番号であるキーワードID604と、処理内容602を識別するための識別番号である処理ID605と、の組が複数格納されている。
The processing table 113 includes a
処理テーブル113は、C言語等のプログラム内で使用する配列データとして記述されてもよいし、図2に示したようなXML形式のデータでもよく、このようなテーブルをデータとして保持することに格段の工夫は必要ない。 The processing table 113 may be described as array data used in a program such as C language, or may be data in the XML format as shown in FIG. 2. No need for ingenuity.
また、各キーワード601に関連付ける処理内容602は1つでも、複数でも、0でもよい。
Further, the
例えばキーワード「ハイライト」601aには、「重要度」602aという処理内容が対応している。これはハイライトというキーワード601aは重要度602aという属性を持つという意味であり、図2に示すようにメタデータ内にハイライト601aは重要度Importanceの値0.7が関連付けられる言葉であるということを示す。
For example, the processing content “importance” 602a corresponds to the keyword “highlight” 601a. This means that the keyword 601a of highlight has an attribute of
例えば、「昼」とか「夜」というキーワードはそうであるか、そうでないかのどちらかという絶対的な概念であり、レベルを持たない。このため、昼というキーワードが関連付けられたシーンはレベルを持たずどれも等しく昼なのである。つまり、昼に重要度を付与し、このシーンがより昼に当てはまるという記載はナンセンスなのである。 For example, the keyword “day” or “night” is an absolute concept of whether or not, and has no level. For this reason, scenes associated with the keyword daytime have no level and are equally daytime. In other words, a statement that importance is given at noon and this scene is more applicable to noon is nonsense.
これに対して「ハイライト」というキーワード601aは、レベルを持つ相対的な概念である。ある動画ファイルのハイライトシーンだけを集める場合、そのシーンのレベルによって任意の長さのハイライトが作成できるように、各ハイライトシーンはレベルを持つ。よって、このように相対的なレベルを持つキーワードに重要度という処理内容が対応付けられる。 On the other hand, the keyword 601a “highlight” is a relative concept having a level. When only highlight scenes of a moving image file are collected, each highlight scene has a level so that a highlight of an arbitrary length can be created according to the level of the scene. Therefore, the processing content called importance is associated with keywords having such relative levels.
図6の処理テーブル113においてキーワード「ゴール」601bには、前後コンテキスト(前長め、後ろ短め)という処理602bが対応付けられている。このキーワード601bは前後にコンテキストを持つことを示し、前側により長いコンテキスト、後ろ側に短めのコンテキストを持つ。
In the processing table 113 of FIG. 6, the keyword “goal” 601b is associated with a
具体的に説明すると、サッカーのゴールシーンというのはゴールの瞬間を頂点として、ゴールに至るまでの選手の技術的な過程が興味深く、ゴールした後は選手の表情等は興味深くてもサッカーの技術としての興味は低い。つまりゴールシーンの長さを伸張するとすれば前側を伸ばすのが適切である。ただし、ゴールの瞬間から時間が遠ざかるにつれてゴールシーンから関係なくなって行くので、ゴールの瞬間から時間が離れた前側よりは、ゴールの瞬間に近い後ろ側を伸ばすほうがよい。この意味でゴールというキーワードは前長め、後ろ短めのコンテキストを持つ。 More specifically, the goal scene of soccer is the soccer technology, even if the player's facial expression is interesting after the goal. Is less interested. In other words, if the length of the goal scene is extended, it is appropriate to extend the front side. However, as the time moves away from the goal moment, it becomes irrelevant from the goal scene, so it is better to extend the back side closer to the goal moment than the front side away from the goal moment. In this sense, the goal word has a longer front and a shorter back context.
図6におけるキーワード「フリーキック」601cは、ゴール601bと反対に後ろ側にコンテキストという処理602cを持つ。これは、フリーキックの場合、キックの瞬間の後により多くの意味があるからである。したがって「フリーキック」601cには、処理602cとして「後コンテキスト」が関連付けられている。
The keyword “free kick” 601c in FIG. 6 has a
さらに、処理602cには、「曲線c」という注釈がついているがこれは別途定義された処理曲線の形を指す。
Further, the
このように処理テーブル113には、処理方法の記述だけでなく、別途定義された処理方法へのリンクを記述してもよい。この場合、処理方法を変更しても処理テーブルは変更する必要がないなどの利便性が生まれる。 As described above, the processing table 113 may describe not only a description of the processing method but also a link to a separately defined processing method. In this case, the convenience that the processing table does not need to be changed even when the processing method is changed is obtained.
なお、処理テーブル113の処理内容602は、図6に示したもの以外であっても良い。例えば、処理内容602をアクセス制御にしても良い。これにより、キーワード601に関する情報を取得するのがふさわしくない人物が、この情報にアクセスすることを禁止できる。
Note that the
ここで、処理テーブル113とは別途定義した処理方法の例について、図7(a)〜図7(c)を用いて説明する。図7(a)〜図7(c)は、別途定義した処理方法の例を示す図である。図7(a)〜図7(c)は、それぞれシーンの長さを伸縮する場合の曲線の形状を示している。 Here, an example of a processing method defined separately from the processing table 113 will be described with reference to FIGS. 7A to 7C. Fig.7 (a)-FIG.7 (c) are figures which show the example of the processing method defined separately. FIGS. 7A to 7C show the shapes of curves when the length of the scene is expanded or contracted.
図7(a)は、前後に等しくコンテキストがある場合で、しきい値のラインを上下することにより新たなシーンの開始、終了時間を得ることができる。黒い帯がメタデータに記述されたシーンの長さで、斜線掛けの帯が伸長されたシーンの長さである。 FIG. 7A shows a case where there are equal contexts before and after, and a new scene start and end time can be obtained by moving the threshold line up and down. The black band is the length of the scene described in the metadata, and the hatched band is the length of the expanded scene.
図7(b)、図7(c)はそれぞれ前コンテキスト、後コンテキストの曲線の例であり、しきい値を上下させることにより前または後に比重を置いたシーンの伸長が行われる。 FIG. 7B and FIG. 7C are examples of curves of the front context and the rear context, respectively, and scene expansion with a specific gravity before or after is performed by raising or lowering the threshold value.
なお、処理の定義は図7に示すような曲線を数式で定義しても、図形で定義してもよい。図6の処理テーブル113内で曲線cを指定すると図7(c)の曲線が参照される。 The definition of the process may be a curve as shown in FIG. When the curve c is designated in the processing table 113 in FIG. 6, the curve in FIG. 7C is referred to.
図6の処理テーブルにおいてキーワード「日本代表攻撃」601dと「大阪攻撃」601eには「排他的(チーム)」という処理602d、602eが関連付けられている。日本代表601dと大阪601eはそれぞれサッカーのチームであり、それらが対戦するときには一方が攻撃中は他方は守備であり、両方同時に攻撃することはありえないという意味で排他的であるという意味である。
In the processing table of FIG. 6, the keywords “Japan representative attack” 601d and “Osaka attack” 601e are associated with
図6の備考欄603には、キーワード601に関するその他の情報を記述する。図6の例では備考欄603には、URLを記述しているが、キーワード601または処理内容602のより詳細な指示が記述されている場所や名前空間として用いることができる。
In the
また、処理テーブル113には、キーワード601とキーワードID604が対応付けられているので、キーワード601の変わりにキーワードID604を用いた記述を行うことができる。
Further, since the
また、処理テーブル113には、処理内容602と処理ID605が対応付けられているので、処理内容602の変わりに処理ID605を用いた記述を行うことができる。
Further, since the
以上のように、処理テーブル113には、キーワード601とキーワード601に適応した処理内容602とが対応付けて格納されている。これにより、処理テーブル113を用いることのより、キーワード601の言葉の特徴を生かした処理が可能となる。
As described above, the processing table 113 stores the
次に、リクエスト入力部102から入力される映像データ検索のための検索リクエストについて図8を用いて説明する。図8は、実施の形態1にかかる検索リクエストを示す図である。
Next, a search request for video data search input from the
実施の形態1では、コンテンツデータ検索システム100が、リクエスト入力部102から検索リクエストを入力し、入力した検索リクエストに応じた映像データを送出する。
In the first embodiment, the content
図8に示す検索リクエスト800は、検索する項目801とその入力値802と備考803とが記述されている。
The
検索する項目801には、キーワード801aと、時間801bと、優先度801cと、課金方法801dと、画質801eと、送出順序801fと、ソース優先度801gと、がある。
Items to be searched 801 include a
キーワード801aは、ユーザーが見たいシーンの内容を指定する個所である。
The
時間801bは、ユーザーが映像を送出して欲しい時間を指定する個所である。
The
優先度801cは、キーワードで指定されたシーンの合計時間が指定された時間と異なるときに、時間を優先してシーン長さを短縮するか、シーンを優先してシーン長さをそのままにするかを選択する個所である。
The
例えば、優先度801cの項目に「シーン>時間」と入力されると、時間を考慮せずシーンの長さを変えない検索結果が出力されることになる(シーン優先)。
For example, if “scene> time” is input to the item of
課金方法801dは、コンテンツ視聴の対価の支払い方法を指定する個所である。例えば、課金方法801dには、クレジットカード決済、携帯電話会社の通話料金としての支払い、プリペイド等様々な形態がありえるが、図8の例ではクーポン決済を選択している。クーポン決済とは、商品購入に伴って購入者に与えられたポイント(いわゆるポイントカード)や、広告映像の視聴時間に応じたクーポンの付与、ユーザーが取得した広告に含まれるクーポン等、動画配信提供者から直接または間接的にユーザーに贈呈されたクーポンの類による決済である。
The
画質801eは、画像の圧縮率や1分間辺りのコマ数、色彩の階調数、画素数等、画質に関わる指定をする個所である。画質が良いほどストリーミングやダウンロードの帯域が必要となるため、ユーザーは通信手段や回線の状態により画質801eを選択する。あるいは、ストリーミングやダウンロードする情報量に応じて課金されるような場合は、ユーザーはその料金を参照して画質を指定することもできる。
The
送出順序801fは、複数のシーンを連続して配信してもらう際に、シーンを時刻の古い順に配信するか、シーンに関連付けられた重要度の順に配信するかの選択を指定する個所である。図8の例では、送出順序801fには、時系列>重要度と記述してあるので、シーンに関連した重要度の順に配信することが選択されている。 The sending order 801f is a part for designating selection of whether the scenes are delivered in order of oldest time or in the order of importance associated with the scene when a plurality of scenes are delivered continuously. In the example of FIG. 8, since the transmission order 801f describes time series> importance, distribution is selected in the order of importance related to the scene.
ソース優先度801gは、ユーザーがリクエストした内容に合致するコンテンツが複数のソースから提供されている場合に、どのようなソースを選択するか指定する個所である。例えば、ソース優先度801gには、ソースの提供料金が異なる場合に、より安価な、または無料のソースを優先するという入力がされる。図8の例では、ソース優先度801gに無料ソース優先と記載されているので、無料のソースを優先するという指定になっている。 The source priority 801g is a part for designating what source is selected when content that matches the content requested by the user is provided from a plurality of sources. For example, the source priority 801g is input to give priority to a cheaper or free source when the source provision fee is different. In the example of FIG. 8, since the source priority 801g is described as free source priority, it is specified to give priority to the free source.
このように、ユーザーが実施の形態1のコンテンツデータ検索システム100に入力または送信する検索リクエスト800は、多くの情報を持つ。
Thus, the
なお、検索リクエスト800が持つ項目801および値802は、図8に示した以外のものであっても良い。また、検索リクエスト800は、図8に示す項目801を全ては備えなくても良い。
Note that the
次に、要約生成部105のシーン検索部106が、検索リクエスト800を入力し、入力した検索リクエスト800に基づいて行う映像データの検索処理について図9を用いて詳細に説明する。図9は、実施の形態1にかかるシーン検索部106のシーン検索アルゴリズムのフローチャートである。
Next, the
図9を用いてリクエスト入力からシーン送出まで順に説明する。 The processing from request input to scene transmission will be described in order with reference to FIG.
まず、通信処理部101のリクエスト入力部102が検索リクエスト800を入力する。次に、リクエスト入力部102は、要約生成部105に検索リクエスト800を送る。これに対して、要約生成部105は、シーン検索部106において、検索リクエスト800を受信し、入力する(ステップ101)。
First, the
次に、シーン検索部106は、検索リクエスト800の項目801に指定されたキーワードに該当するシーンをメタデータから検索する処理に移行する。
Next, the
メタデータ内にはその動画ファイル内のある時間区間(開始時間と終了時間)を定義したシーン(セグメント)の記述があり、それぞれのシーンにはキーワードが関連付けられている。 In the metadata, there is a description of a scene (segment) defining a certain time section (start time and end time) in the moving image file, and a keyword is associated with each scene.
シーン検索部106は、検索リクエスト800で指定されたキーワードが関連つけられているシーンを全て抽出する(ステップ102)。
The
ところが、単純に検索リクエスト800で指定されたキーワードのいずれかに関連するシーンを全て抽出したのでは、検索リクエスト800で指定された時間を超えてしまう場合がある。
However, if all scenes related to any of the keywords specified in the
そこで、シーン検索部106は、ステップ102で抽出したシーンの合計時間が、検索リクエスト800に記述された指定時間801bを超えるか判断する(ステップ103)。
Therefore, the
ステップ102で抽出したシーンの合計時間が指定時間801bを超過していない場合は、シーン検索部106は、それ以上の検索を行わない。
If the total time of the scene extracted in
一方、ステップ102で抽出したシーンの合計時間が指定時間801bを超えた場合は、シーン検索部106は、検索したシーンの削除する処理に移行する。
On the other hand, if the total time of the scene extracted in
まず、シーン検索部106は、検索リクエスト800に複数のキーワードが指定されている場合は、指定キーワードがより少なく関連付けられているシーンを優先度の低いシーンとして検索する。
First, when a plurality of keywords are specified in the
まず、シーン検索部106は、最も優先度の低いシーン、つまり指定されたキーワードの数が少なく関連つけられているシーンを抽出する。次に、シーン検索部106は、抽出した最も優先度の低いシーンを検索候補シーンから削除する(ステップ104)。
First, the
例えば、指定キーワード「大阪攻撃」と「ハイライト」という2つのキーワードが関連付けられているシーン(セグメント)は、どちらか1つのキーワードしか関連付けられていないシーン(セグメント)より優先度は高い。 For example, a scene (segment) associated with two keywords, the designated keywords “Osaka attack” and “highlight”, has a higher priority than a scene (segment) associated with only one of the keywords.
図3に示すようなシーン定義の重なりがなく各シーンが複数のキーワードの関連を持ちうるメタデータの場合は、上記のように優先度の高いシーンを選択することができるが、図4のように一つのシーンが一つのキーワードの関連しか持たない場合は、上記のように優先度の高いシーンを選択することができない。よって、シーン検索部106は、シーンの重なり時間を抽出するように検索する。
In the case of metadata in which scene definitions do not overlap as shown in FIG. 3 and each scene can have a plurality of keyword associations, a high priority scene can be selected as described above, but as shown in FIG. If one scene has only one keyword relationship, a scene with high priority cannot be selected as described above. Therefore, the
例えば、「大阪攻撃」が関連付けられたシーンのファイル内での時間が0:1:15〜0:2:30、「ハイライト」が関連付けられたシーンのファイル内での時間が0:2:00〜0:3:30だった場合、それらの重なりの時間0:2:00〜0:2:30には「大阪攻撃」と「ハイライト」両方のキーワードが付与されていると見ることができる。よって、シーン検索部106は、時間0:2:00〜0:2:30のシーンを優先度の高いシーンとする。
For example, the time in the file of the scene associated with “Osaka attack” is 0: 1: 15-0: 2: 30, and the time in the file of the scene associated with “highlight” is 0: 2: If it was 00-0: 3: 30, it might be seen that the keywords “Osaka Attack” and “Highlight” were assigned at the overlap time of 0: 2: 0 to 0: 2: 30 it can. Therefore, the
次に、シーン検索部106は、ステップ104において優先度の低いシーンを削除した後のシーンの合計時間が、検索リクエスト800に記述された指定時間801bを超えるか判断する(ステップ105)。
Next, the
そして、ステップ105において、シーンの合計時間が指定時間801bを超えないと判断すると、シーン検索部106は、それ以上の検索を行わない。
If it is determined in
一方、ステップ105において、シーンの合計時間が指定時間801bを超えると判断すると、シーン検索部106は、ステップ104に戻り、次に優先順位の低いシーンを検索し、削除する。そして、シーン検索部106は、ステップ104、105の繰り返しによりシーンの合計時間が指定時間の近傍になるようにシーンを検索する。
On the other hand, if it is determined in
このようにして、キーワードに合致するシーンを検索するが、検索リクエストでキーワード毎に優先度が指定されている場合には所定のアルゴリズムに従って検索されるシーンの割合を調整する。 In this way, a scene matching the keyword is searched. When the priority is specified for each keyword in the search request, the ratio of the scene to be searched is adjusted according to a predetermined algorithm.
なお、実施の形態1では、シーン検索部106が、シーンの優先度をシーンに関連つけられた指定キーワードの数で決めたが、これ以外の方法でシーンの優先度を決めても良い。
In the first embodiment, the
例えば、シーン検索部106が、シーンの優先度をメタデータ内に記述されたシーンの重要度に基づいて決定しても良い。例えば、図2の204で記された部分にはシーンの重要度の値として0.7が記述されている。シーン検索部106は、この重要度の値を比較することでシーンに優先順位をつけることができる。このようにして、シーン検索部106は、シーンの優先度を決定しても良い。
For example, the
また、シーン検索部106がシーンの優先度を決める方法について、二通りの例を出したが、特定の計算式を用いてこれらの2つの方法を併用してもよい。これにより、シーンの優先度がより適切な結果が得られる場合がある。
In addition, although two examples of how the
ところで、上述した処理により、指定時間801bを超えないように検索リクエストに合致したシーンを抽出できるが、メタデータに記述されたシーンの長さによっては抽出したシーンの合計時間と指定時間の差が無視できないほどになる場合がある。
By the way, by the above-described processing, a scene that matches the search request can be extracted so as not to exceed the specified
そこで、この問題を解決するため、実施の形態1では、次に、データ管理部107が、時間最適化処理のアルゴリズムを行う。この処理は、図6に示した処理テーブル113を使用して抽出されたシーンの長さを伸縮する処理である。
Therefore, in order to solve this problem, in the first embodiment, the
まず、データ管理部107は、ステップ105までの処理でシーン検索部106が抽出したシーンに関連付けられたキーワードを列挙する(ステップ106)。
First, the
次に、データ管理部107は、列挙したキーワードと同じものが、処理テーブル113に記述されたコンテキスト処理指定のキーワードの中にあるか検索する(ステップ107)。
Next, the
ステップ105までの処理で抽出したシーンの合計時間が指定時間より短いので、次に、データ管理部107は、抽出したシーンの合計時間を指定時間に合わせるためにシーンを伸長する処理に移行する。
Since the total time of the scenes extracted in the processes up to step 105 is shorter than the specified time, the
まず、データ管理部107は、重要な内容を多く持つシーン、つまりより重要度の高いシーンを伸長することが一般には望ましい。よって、データ管理部107は、ステップ107で検索されたキーワードの付与されたシーンの中からより高い重要度が付与されているものを選択する(ステップ108)。
First, it is generally desirable for the
次に、データ管理部107は、処理テーブル113を参照して、コンテキストの指示を調べる。そして、データ管理部107は、処理テーブル113に記述されたコンテキストの指示に従いステップ108で選択したシーンを伸張する(ステップ109)。
Next, the
例えば、キーワードが図6におけるフリーキックであれば、データ管理部107は、処理内容は後コンテキスト(曲線C)であるので図7(c)を参照する。次に、データ管理部107は、シーンの開始、終了時間を図7(c)の黒長方形の前後に割り当て、しきい値のラインを、斜線網掛けの長方形の長さが目標の時間になるように上下させる。
For example, if the keyword is a free kick in FIG. 6, the
次に、データ管理部107は、斜線網掛けの長方形に対応する開始時間と、終了時間を取得する。そして、データ管理部107は、取得した、開始時間と、終了時間に対応する映像データ109、111を取得する。つまり、データ管理部107は、現在処理中のシーンに対する前後のシーンを取得し、現在処理中のシーンに繋ぐ処理をする。
Next, the
なお、目標の時間は、指定時間と合計時間のずれであるが、複数のシーン(セグメント)の時間を調整する場合は、所定の比率で調整時間を割り振ってもよい。 The target time is a difference between the specified time and the total time. However, when adjusting the time of a plurality of scenes (segments), the adjustment time may be allocated at a predetermined ratio.
次に、データ管理部107は、ステップ109においてシーンの伸張処理を行った後のシーンの合計時間が検索リクエスト800の指定時間801bを超えるか否かを判断する(ステップ110)。
Next, the
そして、データ管理部107は、シーンの合計時間が検索リクエスト800の指定時間801bを超えるまで、ステップ109、ステップ110の処理を繰り返し行う。
Then, the
なお、ステップ109、110のループにおいて、一度に伸長する長さaを大きくすると少ないループ数でループを抜けることができ処理時間が短縮できるというメリットがあるが、その場合、指定時間からの誤差が大きくなってしまう可能性がある。
In the loops of
そこで、実施の形態1では、シーンの長さの微調整を行うようにしている。 Therefore, in the first embodiment, fine adjustment of the scene length is performed.
具体的には、まず、データ管理部107が、ステップ110までの処理で処理したシーンの合計時間の指定時間に対する超過時間が許容範囲内か判断する(ステップ111)。
Specifically, first, the
そして、ステップ111において、シーンの超過時間が許容範囲を超えていると判断すると、データ管理部107は、ステップ109において使用した伸張する長さaより小さい長さbを用いてシーン長さを短縮する(ステップ112)。そして、データ管理部107は、シーンの超過時間が許容範囲内に入るまで、ステップ111、ステップ112の処理を繰り返す。
If it is determined in
このようにして検索されたシーンを図10に示す。図10は、データ管理部107が、指定時間1分でハイライトシーンを検索する場合の処理を説明するための図である。
The scene searched in this way is shown in FIG. FIG. 10 is a diagram for explaining processing when the
図10では、4番目のシーン301dの重要度が1.0であるが40秒としかないため、データ管理部107は、重要度が0.8の3番目のシーン301cも選択する。
In FIG. 10, since the importance level of the
しかし、シーン301cとシーン301dの合計時間が60秒を超過するため、データ管理部107は、3番目のシーン301cの長さを処理テーブル113の指示に従って伸縮して合計時間が60秒の区間を検索結果としている。
However, since the total time of the
このようにして、データ管理部107は、処理テーブル113を用いて、検索リクエスト800に対応するシーンを検索し、検索したシーンの合計時間が指定時間に合うように調整する。また、このようにして、データ管理部107は、シーンに付与したキーワードの特性に応じた伸張方法でシーンを伸張することにより、シーンの特徴をより明確にできるようにシーンを伸張できる。
In this way, the
そして、データ管理部107は、検索したシーンを、検索リクエスト800に記載された送信順序801fの順で映像データ送出部103に送り、映像データ送出部103が送られてきたシーンを順次送出する(ステップ113)。
Then, the
以上説明したように、実施の形態1によれば、コンテンツデータを、メタデータと処理テーブル113で管理することにより、メタデータ内で使用されるキーワードの言葉の特徴を生かした検索や要約生成を実現することができる。 As described above, according to the first embodiment, content data is managed by the metadata and the processing table 113, so that searches and summaries can be made using the characteristics of the keywords used in the metadata. Can be realized.
また、実施の形態1によれば、処理テーブル113の内容を変更すればコンテンツデータ検索システム100を変更しなくても処理の内容を任意に変更できる。これにより、コンテンツデータ検索システム100自体に手を加えずに処理を変更する場合は利便性が高い。また、複数の処理テーブル113を用意して状況に応じて最適な処理テーブル113を選択するようにすれば、状況に応じて最適な検索が実現できる。
Further, according to the first embodiment, if the content of the processing table 113 is changed, the content of the processing can be arbitrarily changed without changing the content
なお、実施の形態1では処理テーブル113のコンテキスト処理のみの例を説明したが、他の処理指示も同様に処理テーブル113を参照すればよい。 In the first embodiment, an example of only context processing in the processing table 113 has been described, but other processing instructions may be referred to the processing table 113 in the same manner.
例えば「排他的」という処理内容の場合は、検索リクエストのキーワード指定に矛盾があるかどうかのチェックが可能である。 For example, in the case of the processing content “exclusive”, it is possible to check whether there is a contradiction in the keyword specification of the search request.
具体的に説明すると、図8のキーワード801aに大阪攻撃と東京攻撃が指定されたとする。大阪と東京はそれぞれサッカーのチーム名であり、それらは図6の601eなどによって「排他的(チーム)」と処理内容が指定されている。これはそれぞれのキーワードが排他的であり、同時に成立しないことを示している。したがって、サッカーがサッカーボール二つを使用するようにルール改正でもなされない限り、大阪攻撃と東京攻撃を両方満たすシーンは存在せず、検索リクエストに答えることはできない。このような場合に、検索リクエストの妥当性を、処理テーブルを参照してまずチェックすれば、無駄な検索を行わずにリクエストの矛盾を検索リクエスト作成者に指摘することができ、検索効率が上がる。
More specifically, it is assumed that an Osaka attack and a Tokyo attack are designated as the
例えば「重要度」という処理内容の場合には、仮にそのキーワードに重要度の値が付与されていなかったとしても基準値となる0.5等の値が付与されているものとして処理を進めれば、シーンの評価の利便性が高まる。 For example, in the case of the processing content of “importance”, even if the importance value is not assigned to the keyword, the processing can be performed assuming that a value such as 0.5 as a reference value is assigned. In this case, the convenience of scene evaluation is increased.
また、検索対象が複数のファイルにまたがっているような場合には、そのファイルの優先度に応じてシーン(セグメント)の重要度にバイアスをかけたり下駄を履かせたりして数値をコントロールすることも可能であり、利便性が高い。 In addition, when the search target is spread over multiple files, control the numerical value by biasing the importance of the scene (segment) or putting on clogs according to the priority of the file. It is also possible and highly convenient.
また、複数のファイルそれぞれへのキーワードの付与の仕方や重要度の値の決め方が異なる場合、あるファイルでは同じようなシーンの重要度が0.7で別のファイルでは1.0であるような場合、値の整合性を取るために、ファイル全体に付与されている値を補正することもできる。 In addition, when the method of assigning keywords to each of a plurality of files and how to determine the importance value are different, the importance level of a similar scene is 0.7 in one file and 1.0 in another file. In this case, the value given to the entire file can be corrected in order to ensure consistency of values.
なお、図9に示すアルゴリズムではシーンの合計時間が指定時間に収まるまで繰り返し処理を実行していたが、指定時間に合致させるためには他の方法でもよい。例えば、指定時間との差や比率を算出して、一度で修正後の時間が指定時間と一致するように処理すれば処理のループは不要になる。 In the algorithm shown in FIG. 9, the process is repeated until the total time of the scene falls within the specified time. However, another method may be used to match the specified time. For example, if a difference or ratio with respect to the specified time is calculated, and processing is performed so that the corrected time coincides with the specified time at once, the processing loop becomes unnecessary.
また、図9に示すアルゴリズムでは合計時間が指定時間を超えた場合について説明したが、指定時間より短い場合は合計時間が指定時間を越えるように逆の処理を行えばよい。 In the algorithm shown in FIG. 9, the case where the total time exceeds the specified time has been described. However, if the total time is shorter than the specified time, the reverse process may be performed so that the total time exceeds the specified time.
指定時間と一致するようにシーンの時間を伸縮する場合、時間が全く同じになるように伸縮するのは、処理時間やシーン構成のバランス等の理由から適切でない場合がある。このような場合は、一定の時間の間に入れば可というふうに若干の誤差を残す形でもよい。 When the scene time is expanded or contracted so as to coincide with the designated time, it may not be appropriate to expand or contract the time so as to be exactly the same for reasons such as the processing time and the balance of the scene configuration. In such a case, a slight error may be left as long as it is possible to enter during a certain period of time.
また、コンテンツデータ、動画データ、映像データはネットワーク等の通信手段を使用したオンライン配信以外に、DVDディスクやフラッシュメモリー等の可搬性を持つメディアに保持して配布するオフライン配布により作り手から視聴者に渡される形態であってもよい。この場合、メディアにコンテンツデータを記録する際に、メタデータと処理テーブルをメディアに記録して同時に配布するようにする。これにより、以下のような効果がある。 In addition to online distribution using communication means such as a network, content data, video data, and video data can be distributed from creators to viewers through offline distribution that is held and distributed on portable media such as DVD disks and flash memory. The form passed to In this case, when content data is recorded on the medium, the metadata and the processing table are recorded on the medium and simultaneously distributed. This has the following effects.
第1に、コンテンツデータとメタデータだけと比較して、検索時に前述したような処理テーブル113に記述されたキーワード毎の詳細な指示を反映できる。これによりに、検索結果がよりユーザーの望む結果に近くなる。 First, in comparison with only content data and metadata, detailed instructions for each keyword described in the processing table 113 as described above can be reflected at the time of retrieval. This makes the search result closer to the result desired by the user.
第2に、処理テーブル113は1つのファイルを各メタデータで共通に使用できる。これにより、メタデータ毎に処理テーブル113を持つ必要がなく、メディアの容量を節約できる。 Second, the processing table 113 can use one file in common for each metadata. Thereby, it is not necessary to have the processing table 113 for each metadata, and the capacity of the medium can be saved.
なお、コンテンツデータ検索システム100が行う処理をプログラムとし、汎用のコンピュータにプログラムを実行させる形態であっても良い。
Note that the processing performed by the content
また、実施の形態1では、キーワードに対する処理内容を処理テーブル113で所有する形態で説明したが、メタデータにキーワードに対する処理内容を直接書き込む形態であっても良い。 In the first embodiment, the processing content for the keyword is described as being owned by the processing table 113. However, the processing content for the keyword may be directly written in the metadata.
(実施の形態2)
本発明の実施の形態2では、コンテンツデータの内容を記述したメタデータを作成するオーサリングシステムについて説明する。
(Embodiment 2)
In the second embodiment of the present invention, an authoring system that creates metadata describing the content data will be described.
まず、実施の形態2にかかるオーサリングシステムの構成について、図11を用いて説明する。図11は、実施の形態2にかかるオーサリングシステムの構成図である。 First, the configuration of the authoring system according to the second embodiment will be described with reference to FIG. FIG. 11 is a configuration diagram of an authoring system according to the second embodiment.
実施の形態2にかかるオーサリングシステム1300は、入出力処理部(GUI)1301と、オーサリング処理部1305と、コンテンツデータ提供部1308と、がデータバス1304により接続された構成を採る。
An
入出力処理部1301には、操作入力部1302と、ディスプレイ部1303が設けられている。
The input /
操作入力部1302は、ユーザーの操作を入力し、入力したユーザーの操作をディスプレイ部1303、オーサリング処理部1305、コンテンツデータ提供部1308に送る。操作入力部1302はキーボードやマウス、タッチパネルのような入力機器であり、この入出力処理はいわゆるGUIである。なお、操作入力はユーザーによるものだけでなく音声認識等の自動処理入力も含む。
The operation input unit 1302 inputs a user operation and sends the input user operation to the
ディスプレイ部1303は、ユーザーの操作した状況を表示する。
The
データバス1304は、データを受け渡すバスである。
The
コンテンツデータ提供部1308は、複数の映像データ109、111を保管、管理する映像データ保管部114を備える。また、コンテンツデータ提供部1308は、オーサリング処理部1305が作成したメタデータ1310、1312も保管、管理するメタデータ保管部1313を備える。オーサリング処理部1305が作成するメタデータ1310、1312には実施の形態1で述べたような情報が記述される。
The content
メタデータ1310、1312内にはどの映像データ109、111についてのメタデータであるかのリンクが記述されており、映像データ109、111とメタデータ1310、1312はそれぞれ関連付けられている。
In the
なお、映像データ109、111とメタデータ1310、1312は一対一である場合が多いが、必ずしもそうである必要はなく、複数の映像データに関する情報を1つのメタデータが保持してもよいし、1つの映像データに関するメタデータが複数存在してもよい。
Note that the
また、コンテンツデータ提供部1308は、処理テーブル133を保管、管理するテーブル保管部116を備える。処理テーブル133はメタデータ1310、1312内で使用されるキーワードと処理の対応テーブルである。
In addition, the content
コンテンツデータ提供部1308としてはハードディスク、光ディスク、磁気ディスク等の情報保持メディアが使用できる。
As the content
映像データ109、111はMPEG等の符号化フォーマットを使用したデジタルファイルである。
The
オーサリング処理部1305には、動画アクセス部1306と、データ作成部1307が設けられている。
The
動画アクセス部1306は、ユーザーからの操作入力に応じて映像データ109、111を読み出し、ディスプレイ部1303に表示する。ユーザーは、操作入力部1302において、映像データ109、111の所望の区間にキーワードを付与する操作を行い、それをデータ作成部1307が受け取り、メタデータ1310、1312を作成してコンテンツデータ提供部1308に保管する。
The moving
なお、実施の形態2にかかるオーサリングシステム1300は図11に示したような複数の手段から構成されるが、これらは1つのパソコンで実現することもできるし、複数の装置の組み合わせでも実現できる。
The
例えば、コンテンツデータ提供部1308をネットワーク接続されたストレージに保管し、処理をサーバーが行い、ユーザーへの入出力をパソコンで行うということが可能である。
For example, it is possible to store the content
また、オーサリングシステムのソフトウエアも装置組み込み、ネットワークを通じたWEBサービス、ディスクメディアでの保持等、様々な形態で使用することが可能である。 In addition, the authoring system software can be used in various forms such as a device built-in, a WEB service via a network, and retention on a disk medium.
次に、実施の形態2にかかるオーサリングシステム1300のGUIについて図12を用いて説明する。図12は、実施の形態2にかかるオーサリングシステム1300のGUIの一例を示す図である。
Next, the GUI of the
GUIの操作画面1400はディスプレイ部1303に表示される。操作画面1400を使用してユーザーの意図を入力するにはマウスやキーボードなどの入力手段である操作入力部1302を使用する。
A
操作画面1400の上部左方には、メニュー部1401が設けられている。メニュー1401部は、メニュー1401aおよびメニューボタン1401bから構成され、ファイルの選択や保存する際に使用される。
A
操作画面1400の中央やや上方には、動画映像表示部1402が設けられている。動画映像表示部1402には、ユーザーにより選択された動画ファイルの映像が表示される。
A moving
また、操作画面1400の動画映像表示部1402の右方には、ファイル情報ボタン1405が設けられている。ファイル情報選択ボタン1405は、動画映像表示部1402に表示する動画ファイルを選択する場合に使用される。
Further, a
操作画面1400のほぼ中央には、時間軸1408が設けられている。時間軸1408は、マーカー1408aにより、現在動画映像表示部1402で表示されている動画ファイルのどの時間を再生しているかを示す。
A
また、ユーザーがマーカー1408aを移動させることにより映像をシークさせることができる。
Further, the user can seek the video by moving the
操作画面1400の動画映像表示部1402の右方には、キーワード選択ボタン1406が設けられている。キーワード選択ボタン1406は、キーワードリストを表示させ、表示させたキーワードリストからオーサリングに使用するキーワードを選択するために使用される。
A
また、操作画面1400のキーワード選択ボタン1406の下方近傍には、複数のキーワードボタン1407が設けられている。キーワードボタン1407は、キーワード選択ボタン1406により選択されたキーワードに対応するボタンである。
Further, a plurality of keyword buttons 1407 are provided near the lower portion of the
また、操作画面1400の下部左端部には、リスト1411が設けられている。リスト1411は、キーワードボタン1407に対応するキーワードを列挙したリストである。
A
また、操作画面1400の時間軸1408の下方近傍には、動画映像表示部1402で表示している動画ファイルの複数のシーン(セグメント)1412が時間系列順に配置されている。図3に示したようにシーンは連続しており重なりはない。
A plurality of scenes (segments) 1412 of the moving image file displayed on the moving
また、シーン1412はボタンになっており、押下することによって映像をそのシーンの開始時間にシークする機能がある。
The
また、操作画面1400の動画映像表示部1402の右方近傍には、シーン分割ボタン1403が設けられている。シーン分割ボタン1403は、シーンの区切りをつける場合に使用される。
In addition, a
また、操作画面1400の上部左端部には、複数の映像シークボタン1409が設けられている。映像シークボタン1409は、映像の再生や前後のシークを行う。また、映像シークボタン1409で動画ファイルの再生中にシーン分割ボタン1403を押下すると、その位置(時間)がシーンの区切りとなる。
A plurality of video seek
初めてオーサリングを行う際に動画ファイルを読み込むとまず、動画ファイル全体の開始時間から終了時間までが1つのシーンとして定義され、シーン分割ボタン1403によって複数のシーンに定義し直される。
When a moving image file is read when authoring for the first time, the start time to the end time of the entire moving image file are defined as one scene, and are redefined as a plurality of scenes by a
また、操作画面1400のシーン分割ボタン1403の右方近傍には、シーン結合ボタン1404が設けられている。シーン結合ボタン1404は、動画ファイルの現在の位置が含まれるシーンを前後どちらかのシーンと結合するために使用される。
Further, a
ユーザーは、シーン分割ボタン1403とシーン結合ボタン1404の操作によって自在にシーン(セグメント)を定義することが可能となる。
The user can freely define a scene (segment) by operating the
映像シークボタン1409を用いて動画ファイルを再生またはシークして、その位置でキーワードボタン1407を押すとその時間を含むシーンにキーワードが付与され、操作画面1401の時間軸1408の下方であって、時間軸1408の対応する位置にタグボタン1413として表示される。また、タグボタン1413は、キーワードリスト1411と同じ列に配置されてどのキーワードが関連付けられているか対応がわかるようになっている。タグボタン1413の色の濃淡は重要度の強さを表しており、タグボタン1413をクリック等の操作することで重要度を変更することができる。
When a video file is played or seeked using the video seek
また、操作画面1400のキーワードリスト1411の上部近傍には、シーン表示ボタン1410が設けられている。シーン表示ボタン1410は、各シーンのサムネール画像の一覧を表示させる場合に押下される。
In addition, a
以上説明したように、本GUIにより、動画ファイルを任意のシーンに分割し、分割したそれぞれのシーンに任意のキーワードを付与することが可能になる。 As described above, this GUI makes it possible to divide a moving image file into arbitrary scenes and to assign arbitrary keywords to the divided scenes.
また、シーンの定義やキーワードの関連付けは操作毎にメタデータとしてコンテンツデータ提供部1308に書き込んでもよいが、通常はオーサリング処理部1305のメモリに保持して、オーサリング作業の最後に一括してコンテンツデータ提供部1308に書き込む。
In addition, scene definitions and keyword associations may be written in the content
次に、実施の形態2にかかるオーサリングシステム1300のアルゴリズムについて、図13を用いて説明する。図13は、実施の形態2にかかるオーサリングシステム1300の動作フローチャートである。
Next, an algorithm of the
入出力処理部1301の操作入力部1302から動画ファイルを選択する旨の入力があると、オーサリング処理部1305の動画アクセス部1306がコンテンツデータ提供部1308にアクセスし、操作入力部1302から選択された動画ファイル(映像ファイル)109、111を読み込む(ステップ1301)。
When there is an input to select a moving image file from the operation input unit 1302 of the input /
次に、動画アクセス部1306は、読み込んだ動画ファイルを入出力部(GUI)1301のディスプレイ部1303に表示することで、ユーザーに提示する(ステップ1302)。
Next, the moving
これに対して、ユーザーが映像シークボタン1409を操作することにより動画再生や動画のシークを行い、さらにキーワード選択ボタン1406を操作することにより、所望のシーンにキーワードを関連付けたり、タグボタン1413を操作することにより重要度をセットしたりする。
On the other hand, the user operates the video seek
これに対して、操作入力部1302が動画再生や動画のシークに関する情報、ユーザーが選択したキーワードや重要度などの情報をデータ作成部1307に送る(ステップ1303)。 In response to this, the operation input unit 1302 sends information related to moving image playback and moving image seeking, information such as a keyword selected by the user and importance, to the data creation unit 1307 (step 1303).
そして、データ作成部1307が、ユーザーが選択したシーンに、ユーザーが選択したキーワードを関連付けたり重要度をセットしたりする(ステップ1304)。
Then, the
次に、データ作成部1307は、ユーザーにより選択されたキーワードが処理テーブル133に定義されているか検索する(ステップ1305)。
Next, the
もし処理テーブル133に一致するキーワードがあれば、データ作成部1307は、処理テーブル133に指定されている処理内容を行う(ステップ1306)。
If there is a keyword that matches the processing table 133, the
具体的には、例えば、処理テーブル133に「排他的(チーム)」という処理内容が定義されていれば、データ作成部1307は、そのキーワードが関連付けられていないところは自動的に対戦チームのキーワードを関連付ける。また、データ作成部1307は、対戦チームはファイル全体に付与されるファイル情報等の情報から取得する。こうすれば、ユーザーが、排他的なキーワード、つまり対戦チームに関するキーワード付与を行う必要がなくなるので、オーサリングの作業量が減るというメリットがある。
Specifically, for example, if the processing content “exclusive (team)” is defined in the processing table 133, the
また、排他的なキーワードが同一の時間区間(シーン)に関連付けられることは矛盾するので、オーサリング操作において、そういう矛盾した操作を禁止することは利便性が高い。 In addition, since it is contradictory that exclusive keywords are associated with the same time interval (scene), it is convenient to prohibit such contradictory operations in the authoring operation.
また、例えば、処理テーブル133に「重要度」という処理内容が定義されていれば、データ作成部1307はユーザーからの重要度の入力がなくてもデフォルト値を自動的に関連付ける。このように自動的に重要度を付与することにより、ユーザーの作業量が減る。
Further, for example, if the processing content “importance” is defined in the processing table 133, the
また、重要度のデフォルト値はあらかじめユーザーがセットしておく値である。例えば、重要度のレンジが0から1の場合は中間点である0.5をセットしておいてもいいし、他の値でも良い。 Further, the default value of importance is a value set in advance by the user. For example, when the importance range is from 0 to 1, 0.5, which is the midpoint, may be set, or another value may be used.
また、そのファイルの内容が全ての時間帯において重要であるような場合、オフセット値を加えて、他のファイルに比べて高めの値をデフォルト重要度値としてセットするのも効果的である。なぜなら、全体的につまらないコンテンツと非常に面白いコンテンツを同時に検索対象とするとき面白いコンテンツのほうが優先的に検索されるべきであり、重要度のオフセット値を高めにしておけばそれが実現できるからである。 If the contents of the file are important in all time zones, it is also effective to add an offset value and set a higher value as the default importance value than other files. This is because when content that is boring as a whole and very interesting content are searched simultaneously, interesting content should be searched preferentially, and this can be achieved by increasing the importance offset value. is there.
また、例えば、処理テーブル133に「コンテキスト」という処理が定義されていれば、データ作成部1307は、ユーザーからキーワードと重要度の入力があったときに前後のシーンに段階的に重要度の関連付けを行う。このように、自動的に現在処理中の前後のシーンに段階的に重要度を付与することにより、ユーザーが現在処理中の前後のシーンに対して段階的に重要度を付与する必要がなくなるので、非常に利便性が高い。
For example, if the process “133” is defined in the processing table 133, the
この重要度のつけ方の一例について図14(a)、図14(b)を用いて説明する。 An example of how to assign this importance will be described with reference to FIGS. 14 (a) and 14 (b).
図14(a)は、ユーザー操作によって、シーンに対して入力されたキーワードと重要度を示す図である。 FIG. 14A is a diagram illustrating keywords and importance levels input to a scene by a user operation.
図14(a)の例では、開始時間0時30分00秒、終了時間0時32分30秒の区間にキーワード「ゴール」、重要度「0.8」が関連付けられている。 In the example of FIG. 14A, the keyword “goal” and the importance “0.8” are associated with a section having a start time of 0:30:30 and an end time of 0:32:30.
図14(a)に示す、シーン、キーワード、および重要度の状態は、図13に示すステップ1304における状態に当たる。
The scene, keyword, and importance state shown in FIG. 14A corresponds to the state in
次の、ステップ1305では、データ作成部1307は、処理テーブル133の検索を行う。
In the
処理テーブル133には、キーワード「ゴール」に対する処理内容として「前後コンテキスト(前長め、後ろ短め)」が定義されている。 In the processing table 133, “front and back context (longer front, shorter rear)” is defined as the processing content for the keyword “goal”.
したがって、データ作成部1307は、前に2つのシーン、後ろに1つのシーンに対して、重要度を段階的に付加する。データ作成部1307が自動的に重要度を付加したシーンを図14(b)に示す。
Therefore, the
キーワード「ゴール」は前に重点を置く。このため、図14(b)からわかるように、データ作成部1307は後ろのシーンより前のシーンの重要度を高くしている。
The keyword “goal” is focused on before. For this reason, as can be seen from FIG. 14B, the
なお、図14(b)の例では合計3つのシーンに対して重要度を自動付加したが、重要度を付加するシーンの数や重要度の値、それぞれの時間の長さはオーサリングシステムで適当に決めればよい。 In the example of FIG. 14B, importance is automatically added to a total of three scenes. However, the number of scenes to which importance is added, the value of importance, and the length of each time are appropriate for the authoring system. You can decide.
また、重要度を付加するシーンの数や重要度の値、時間の長さ等の詳細な設定の指示を処理テーブル133か処理テーブル133に記述した備考欄のリンク先に記述しても良い。これによれば、より細かくキーワードにあった処理を選択することができる。 Further, detailed setting instructions such as the number of scenes to which importance is added, the value of importance, and the length of time may be described in the processing table 133 or the link destination in the remarks column described in the processing table 133. According to this, it is possible to select a process according to the keyword more finely.
このようにして、データ作成部1307は、メタデータのシーン情報を更新する(ステップ1307)。
In this way, the
そして、データ作成部1307は、ユーザーによるキーワード関連付けのオーサリング操作が完了するまで、ステップ1303〜ステップ1307のループを繰り返す(ステップ1308)。
Then, the
そして、ユーザーによるキーワード関連つけのオーサリング操作が終了し、ユーザーにより、生成したメタデータを保存する旨の入力があると(ステップ1309)、データ作成部1307は、コンテンツデータ提供部1308にファイルとしてメタデータ1310、1312を保存する(ステップ1310)。
Then, when the authoring operation for keyword association by the user ends and the user inputs to save the generated metadata (step 1309), the
一方、ユーザーにより、生成したメタデータを保存する旨の入力がないと、データ作成部1307は、コンテンツデータ提供部1308にメタデータを作成しない。
On the other hand, if the user does not input to save the generated metadata, the
例えば、ユーザーが、既に存在しているメタデータを読み出して編集したような場合には、ステップ1309において保存を選択しなければ、コンテンツデータ提供部1308のメタデータは更新されない。
For example, if the user reads and edits the existing metadata, the metadata of the content
以上説明したように、実施の形態2のオーサリングシステムによれば、処理テーブル133を使用したオーサリング処理を行うことができる。これにより、ユーザーのキーワード付与操作をサポートすることができ、作業効率が著しく向上することができる。 As described above, according to the authoring system of the second embodiment, authoring processing using the processing table 133 can be performed. Thereby, it is possible to support the user's keyword assignment operation, and work efficiency can be significantly improved.
また、実施の形態2によれば、処理テーブル133の内容を変更すればオーサリングシステムを全く変更しなくても処理内容を任意のものに変更できるため、オーサリングシステム自体に手を加えずに処理を変更する場合は利便性が高い。 Further, according to the second embodiment, if the content of the processing table 133 is changed, the processing content can be changed to an arbitrary one without changing the authoring system at all. Therefore, the processing can be performed without changing the authoring system itself. Convenient to change.
なお、複数の処理テーブルを用意して状況に応じて最適な処理テーブルを選択するようにすれば、状況に応じて最適な自動オーサリングが実現できる。 If a plurality of processing tables are prepared and the optimum processing table is selected according to the situation, the optimum automatic authoring can be realized according to the situation.
(実施の形態3)
実施の形態3は、実施の形態2を改良したものであり、メタデータが伝える情報量は維持したままメタデータが大きくならないようにしたものである。
(Embodiment 3)
The third embodiment is an improvement of the second embodiment, in which the amount of information conveyed by the metadata is maintained and the metadata is not increased.
具体的には、実施の形態2においては、処理テーブルに定義された処理内容に従ってメタデータへ情報追加をしたが、実施の形態3では、処理テーブルに定義された処理のIDをメタデータのキーワードに関連付けするようにした。 Specifically, in the second embodiment, information is added to the metadata according to the processing content defined in the processing table. However, in the third embodiment, the ID of the processing defined in the processing table is used as a keyword of the metadata. Associate with.
以下、実施の形態3にかかるオーサリングシステムのアルゴリズムについて、図15を用いて説明する。図15は、実施の形態3にかかるオーサリングシステム1300の動作フローチャートである。なお、実施の形態3にかかるオーサリングシステムの構成は実施の形態2と同一であるので説明を省略する。
Hereinafter, the algorithm of the authoring system according to the third embodiment will be described with reference to FIG. FIG. 15 is an operation flowchart of the
入出力処理部1301の操作入力部1302から動画ファイルを選択する旨の入力があると、オーサリング処理部1305の動画アクセス部1306がコンテンツデータ提供部1308にアクセスし、操作入力部1302から選択された動画ファイル(映像ファイル)109、111を読み込む(ステップ1501)。
When there is an input to select a moving image file from the operation input unit 1302 of the input /
次に、動画アクセス部1306は、読み込んだ動画ファイルを入出力部(GUI)1301のディスプレイ部1303に表示することで、ユーザーに提示する(ステップ1502)。
Next, the moving
これに対して、ユーザーが映像シークボタン1409を操作することにより動画再生や動画のシークを行い、さらにキーワード選択ボタン1406を操作することにより、所望のシーンにキーワードを関連付けたり、タグボタン1413を操作することにより重要度をセットしたりする。
On the other hand, the user operates the video seek
これに対して、操作入力部1302が動画再生や動画のシークに関する情報、ユーザーが選択したキーワードや重要度などの情報をデータ作成部1307に送る(ステップ1503)。 In response to this, the operation input unit 1302 sends information related to the reproduction of the moving image and the seeking of the moving image, information such as the keyword selected by the user and importance, to the data creation unit 1307 (step 1503).
そして、データ作成部1307が、ユーザーが選択したシーンに、ユーザーが選択したキーワードを関連付けたり重要度をセットしたりする(ステップ1504)。
Then, the
次に、データ作成部1307は、ユーザーにより選択されたキーワードが処理テーブル133に定義されているか検索する(ステップ1505)。
Next, the
もし、処理テーブル133に一致するキーワードがあれば、データ作成部1307は、処理テーブル133に指定されている処理IDをメタデータに記述する処理を行う(ステップ1506)。
If there is a matching keyword in the processing table 133, the
具体的には、例えばキーワード「ゴール」であれば、データ作成部1307は、図6の処理テーブル113の「ゴール」に対応する処理ID3をメタデータに記述する。処理ID605とは、処理を特定するために割り振られた番号で、処理ID605と処理内容602の対応テーブルを利用することによりキーワードに関連付けられた処理内容602を特定することができる。
Specifically, for example, for the keyword “goal”, the
メタデータに処理ID602を記述した例を図16に示す。図16中の1801で示される部分には、XMLの属性値の一つとして処理ID602が記述されている。
An example in which the
なお、メタデータに処理ID602を記述する仕方はこの方法以外にも、XMLのNODEとして併記する方法や、キーワードの値の一部として「ゴール:処理ID:3」のように記述してしまう方法等ある。
In addition to this method, the method of describing the
また、処理ID602の代わりに図6のキーワードID604をメタ−データに記述しても同様の効果が得られる。
The same effect can be obtained by describing the
このようにして、データ作成部1307は、メタデータのシーン情報を更新する(ステップ1507)。
In this way, the
そして、データ作成部1307は、ユーザーによるキーワード関連付けのオーサリング操作が完了するまで、ステップ1503〜ステップ1507のループを繰り返す(ステップ1508)。
Then, the
そして、ユーザーによるキーワード関連つけのオーサリング操作が終了し、ユーザーにより、生成したメタデータを保存する旨の入力があると(ステップ1509)、データ作成部1307は、コンテンツデータ提供部1308にファイルとしてメタデータ1310、1312を保存する(ステップ1510)。
Then, when the authoring operation for keyword association by the user ends and the user inputs to save the generated metadata (step 1509), the
以上説明したように、実施の形態3によれば、メタデータに処理内容そのものを記述するのではなく、処理内容に対応したIDを記述することができる。このような方法で記述されたメタデータは実施の形態2で作成されたメタデータよりもファイルの大きさを小さくすることができる。 As described above, according to the third embodiment, it is possible to describe the ID corresponding to the processing content instead of describing the processing content itself in the metadata. The metadata described by such a method can be smaller in file size than the metadata created in the second embodiment.
また、実施の形態3により生成したメタデータを使用する検索システムは、メタデータと処理テーブル(または処理IDと処理の対応テーブル)を併用して、メタデータを使用する際に実施の形態2で説明したようなデータの自動付与を行い、実施の形態3のメタデータを実施の形態2で作成したメタデータに復元すればよい。これにより、実施の形態2で説明したのと同様の効果が得られる。
In addition, the search system that uses the metadata generated in the third embodiment uses the metadata and the processing table (or the processing ID and the processing correspondence table) together, and uses the metadata in the second embodiment. What is necessary is just to perform the automatic assignment | providing of data as demonstrated and to restore | restore the metadata of
実施の形態2と実施の形態3は、メタデータの処理テーブルで指示された拡張解釈をオーサリング時に行うか、メタデータの使用時に行うかという違いであり、効果には差はなく、処理負荷をどちらに持たせたほうが有利か、メタデータの大きさを小さくする必要があるかのどの観点で選択するべきものである。 The difference between the second embodiment and the third embodiment is whether the extended interpretation specified in the metadata processing table is performed at the time of authoring or when the metadata is used. There is no difference in effect, and the processing load is reduced. It should be selected from the viewpoint of which one is more advantageous and whether the size of the metadata needs to be reduced.
以上説明したように、本発明によれば、コンテンツデータに対して処理テーブルを用いることにより、コンテンツデータの処理方法を細かく設定できる。この結果、コンテンツデータから特定のキーワードが関連付けられたシーンを検索して抽出するような場合に、検索結果の合計時間を所望の時間に微調整する等できる。 As described above, according to the present invention, the processing method of content data can be set in detail by using the processing table for the content data. As a result, when a scene associated with a specific keyword is searched and extracted from the content data, the total time of the search result can be finely adjusted to a desired time.
100 コンテンツデータ検索システム
101 通信処理部
102 リクエスト入力部
103 映像データ送出部
105 要約生成部
106 シーン検索部
107 データ管理部
108、1308 コンテンツデータ提供部
114 映像データ保管部
115、1313 メタデータ保管部
116 テーブル保管部
1300 オーサリングシステム
1301 入出力処理部
1302 操作入力部
1303 ディスプレイ部
1305 オーサリング処理部
1306 動画アクセス部
1307 データ作成部
DESCRIPTION OF
Claims (18)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003272049A JP2005033619A (en) | 2003-07-08 | 2003-07-08 | Contents management device and contents management method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003272049A JP2005033619A (en) | 2003-07-08 | 2003-07-08 | Contents management device and contents management method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005033619A true JP2005033619A (en) | 2005-02-03 |
Family
ID=34209730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003272049A Pending JP2005033619A (en) | 2003-07-08 | 2003-07-08 | Contents management device and contents management method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005033619A (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006303746A (en) * | 2005-04-19 | 2006-11-02 | Hitachi Ltd | Moving picture processor |
WO2007058067A1 (en) * | 2005-11-16 | 2007-05-24 | Murata Manufacturing Co., Ltd. | Mobile communication terminal, digital broadcast complementing device, and digital broadcast complementing system |
JP2008211796A (en) * | 2007-02-27 | 2008-09-11 | Sony United Kingdom Ltd | System for automatically generating highlight summary, ingestion processor, event logging processor, method for automatically generating highlight summary |
WO2008136466A1 (en) * | 2007-05-01 | 2008-11-13 | Dep Co., Ltd. | Dynamic image editing device |
JP2009503966A (en) * | 2005-07-25 | 2009-01-29 | トムソン ライセンシング | Method for generating a summary of a document based on criteria defined by a user and associated audiovisual apparatus |
JP2009157460A (en) * | 2007-12-25 | 2009-07-16 | Hitachi Ltd | Information presentation device and method |
JP2009182762A (en) * | 2008-01-31 | 2009-08-13 | Nippon Telegr & Teleph Corp <Ntt> | Image editing apparatus, image editing program, and computer readable memory medium in which program thereof recorded |
JP2009536490A (en) * | 2006-05-05 | 2009-10-08 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | How to update a video summary with relevant user feedback |
WO2010021102A1 (en) * | 2008-08-22 | 2010-02-25 | パナソニック株式会社 | Related scene addition device and related scene addition method |
WO2012086616A1 (en) * | 2010-12-22 | 2012-06-28 | 株式会社Jvcケンウッド | Video processing device, video processing method, and video processing program |
JP2014507699A (en) * | 2010-12-17 | 2014-03-27 | オーディブル・インコーポレイテッド | Schematic representation of the relationship between the referenced object and the story |
JP2014096776A (en) * | 2012-11-12 | 2014-05-22 | Samsung R&D Institute Japan Co Ltd | Chapter setting device |
US9436741B2 (en) | 2010-12-17 | 2016-09-06 | Audible, Inc. | Graphically representing associations between referents and stories |
JP2018528731A (en) * | 2015-07-31 | 2018-09-27 | プロンプチュ システムズ コーポレーション | Natural language navigation and assisted viewing of indexed audio-video streams (especially sports competitions) |
JP2019212308A (en) * | 2018-06-01 | 2019-12-12 | ネイバー コーポレーションNAVER Corporation | Video service providing method and service server using the same |
JP7390877B2 (en) | 2019-11-29 | 2023-12-04 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | Video editing device, video editing method, and computer program |
-
2003
- 2003-07-08 JP JP2003272049A patent/JP2005033619A/en active Pending
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4525437B2 (en) * | 2005-04-19 | 2010-08-18 | 株式会社日立製作所 | Movie processing device |
JP2006303746A (en) * | 2005-04-19 | 2006-11-02 | Hitachi Ltd | Moving picture processor |
JP2009503966A (en) * | 2005-07-25 | 2009-01-29 | トムソン ライセンシング | Method for generating a summary of a document based on criteria defined by a user and associated audiovisual apparatus |
US8645830B2 (en) | 2005-07-25 | 2014-02-04 | Thomson Licensing | Method of creating a summary of a document based on user-defined criteria, and related audio-visual device |
WO2007058067A1 (en) * | 2005-11-16 | 2007-05-24 | Murata Manufacturing Co., Ltd. | Mobile communication terminal, digital broadcast complementing device, and digital broadcast complementing system |
JP2009536490A (en) * | 2006-05-05 | 2009-10-08 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | How to update a video summary with relevant user feedback |
JP2008211796A (en) * | 2007-02-27 | 2008-09-11 | Sony United Kingdom Ltd | System for automatically generating highlight summary, ingestion processor, event logging processor, method for automatically generating highlight summary |
WO2008136466A1 (en) * | 2007-05-01 | 2008-11-13 | Dep Co., Ltd. | Dynamic image editing device |
JP2009157460A (en) * | 2007-12-25 | 2009-07-16 | Hitachi Ltd | Information presentation device and method |
JP2009182762A (en) * | 2008-01-31 | 2009-08-13 | Nippon Telegr & Teleph Corp <Ntt> | Image editing apparatus, image editing program, and computer readable memory medium in which program thereof recorded |
WO2010021102A1 (en) * | 2008-08-22 | 2010-02-25 | パナソニック株式会社 | Related scene addition device and related scene addition method |
JPWO2010021102A1 (en) * | 2008-08-22 | 2012-01-26 | パナソニック株式会社 | Related scene assigning apparatus and related scene assigning method |
US8174579B2 (en) | 2008-08-22 | 2012-05-08 | Panasonic Corporation | Related scene addition apparatus and related scene addition method |
JP4487018B2 (en) * | 2008-08-22 | 2010-06-23 | パナソニック株式会社 | Related scene assigning apparatus and related scene assigning method |
JP2014507699A (en) * | 2010-12-17 | 2014-03-27 | オーディブル・インコーポレイテッド | Schematic representation of the relationship between the referenced object and the story |
US9436741B2 (en) | 2010-12-17 | 2016-09-06 | Audible, Inc. | Graphically representing associations between referents and stories |
WO2012086616A1 (en) * | 2010-12-22 | 2012-06-28 | 株式会社Jvcケンウッド | Video processing device, video processing method, and video processing program |
JP2014096776A (en) * | 2012-11-12 | 2014-05-22 | Samsung R&D Institute Japan Co Ltd | Chapter setting device |
JP2018528731A (en) * | 2015-07-31 | 2018-09-27 | プロンプチュ システムズ コーポレーション | Natural language navigation and assisted viewing of indexed audio-video streams (especially sports competitions) |
US10609454B2 (en) | 2015-07-31 | 2020-03-31 | Promptu Systems Corporation | Natural language navigation and assisted viewing of indexed audio video streams, notably sports contests |
US11363338B2 (en) | 2015-07-31 | 2022-06-14 | Promptu Systems Corporation | Natural language navigation relative to events in content of an audio video stream |
JP2019212308A (en) * | 2018-06-01 | 2019-12-12 | ネイバー コーポレーションNAVER Corporation | Video service providing method and service server using the same |
JP7390877B2 (en) | 2019-11-29 | 2023-12-04 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | Video editing device, video editing method, and computer program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11990157B2 (en) | Method, system and computer program product for editing movies in distributed scalable media environment | |
CN101300567B (en) | Method for media sharing and authoring on the web | |
US8717367B2 (en) | Automatically generating audiovisual works | |
JP3449671B2 (en) | System and method for enabling creation of personal movie presentations and personal movie collections | |
JP5048488B2 (en) | Recording medium including metadata, reproducing apparatus and method thereof | |
US20070033225A1 (en) | Media data representation and management | |
JP2005033619A (en) | Contents management device and contents management method | |
KR101406332B1 (en) | Recording-and-reproducing apparatus and recording-and-reproducing method | |
JP2009004999A (en) | Video data management device | |
KR20090031142A (en) | A method for providing gui to display related contents when contents are made by user, and a multimedia apparatus thereof | |
WO2014103374A1 (en) | Information management device, server and control method | |
JP4129162B2 (en) | Content creation demonstration system and content creation demonstration method | |
US20120150927A1 (en) | System and method for identifying media assets | |
JP2018125702A (en) | Video control system and program | |
JP2006085379A (en) | Information processor and its control method, and program | |
Yang et al. | Serving a video into an image carousel: system design and implementation | |
KR100862955B1 (en) | Multimedia service player being capable of storing and replaying data service information | |
JP2003256446A (en) | Data management system, data management method and program | |
JP2006053794A (en) | Metadata distribution system and method, program, and recording medium |