JP2005033619A - Contents management device and contents management method - Google Patents

Contents management device and contents management method Download PDF

Info

Publication number
JP2005033619A
JP2005033619A JP2003272049A JP2003272049A JP2005033619A JP 2005033619 A JP2005033619 A JP 2005033619A JP 2003272049 A JP2003272049 A JP 2003272049A JP 2003272049 A JP2003272049 A JP 2003272049A JP 2005033619 A JP2005033619 A JP 2005033619A
Authority
JP
Japan
Prior art keywords
scene
processing
keyword
content
metadata
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003272049A
Other languages
Japanese (ja)
Inventor
Yuji Okada
雄治 岡田
Wataru Fujikawa
渡 藤川
Koichi Emura
恒一 江村
Katsunao Takahashi
克直 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2003272049A priority Critical patent/JP2005033619A/en
Publication of JP2005033619A publication Critical patent/JP2005033619A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform fine adjustment of the total time of the retrieval results in a desired time when a scene with which a specific keyword is associated from the content data is retrieved and extracted. <P>SOLUTION: The content data are managed by using metadata with the contents of the content data described and a processing table with a processing method described corresponding to the keyword to be used in the metadata, the processing method of content data is finely set and the total time of retrieval results are finely adjusted by using the processing table for the content data by processing the content data by using the processing table. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、コンテンツデータの内容を記述したメタデータを管理するコンテンツ管理装置およびコンテンツ管理方法に関する。   The present invention relates to a content management apparatus and a content management method for managing metadata describing the contents of content data.

近年、動画をデジタルファイルとして保存することが普及している。それに伴い膨大な量の動画ファイルから所望のものを迅速に検索したり、効率的に管理したりすることが困難になってきている。これを解決するために動画へインデックス情報を付与する情報管理方法およびインデックス情報を使用した映像検索や映像要約の方法が提案されている(例えば、特許文献1参照)。   In recent years, storing moving images as digital files has become widespread. Accordingly, it has become difficult to quickly search for a desired one from an enormous amount of video files and to manage it efficiently. In order to solve this problem, an information management method for adding index information to a moving image and a video search and video summarization method using the index information have been proposed (for example, see Patent Document 1).

特許文献1には、特定の時間区間の映像と対応させたキーワード情報等を動画ファイルとは別のファイルで用意しておき、そのファイルを検索等に用いる方法が具体的に示されている。インデックス情報ファイルの書式は広く普及しているXMLフォーマットで記述するのが一般的である。   Patent Document 1 specifically shows a method of preparing keyword information or the like associated with a video in a specific time section as a file different from a moving image file and using the file for searching or the like. The format of the index information file is generally described in a widely used XML format.

さらに、今日では映像コンテンツの記述を目的としたMPEG−7規格も提案されている。   Furthermore, the MPEG-7 standard for the purpose of describing video contents has been proposed today.

また、動画の内容を記述したメタデータを作成するオーサリングシステムについても提案されている。従来のオーサリングプログラムでは、オペレータが特定の映像の区間とインデックス情報として特定のキーワードを関連付ける入力を行うと、キーワードの内容がメタデータに記述されるようになっている(例えば、非特許文献2参照)。
特開平11−288424号公報 パイオニアR&D Vol.11 No.2(2001年9月)27ページ「MPEG−7アプリケーションの開発」
An authoring system that creates metadata describing the contents of a moving image has also been proposed. In a conventional authoring program, when an operator performs an input that associates a specific video section with a specific keyword as index information, the content of the keyword is described in the metadata (for example, see Non-Patent Document 2). ).
JP-A-11-288424 Pioneer R & D Vol. 11 No. 2 (September 2001), page 27 “Development of MPEG-7 Applications”

しかしながら、従来の動画インデックス情報の管理方法には、以下のような課題があった。   However, the conventional video index information management method has the following problems.

つまり、従来の方法では、各シーンに対してキーワードは付与されているが、各シーンに対する詳細な処理内容は付与されていない。   In other words, in the conventional method, a keyword is assigned to each scene, but detailed processing content is not assigned to each scene.

具体的には、従来の方法は、コンテンツデータから特定のキーワードが関連付けられたシーンを検索して抽出するような場合に、検索結果の合計時間を所望の時間に合わせたくてもキーワードが付与された映像の区間が離散的であるために微調整する方法を提供していない。   Specifically, in the conventional method, when a scene associated with a specific keyword is searched for and extracted from content data, the keyword is assigned even if the total time of the search result is set to a desired time. The method of fine-tuning is not provided because the segment of the video is discrete.

例えば、「ゴールシーン」に関する要約映像を1分で提供する必要が生じた場合、「ゴールシーン」というキーワードが付与された25秒のシーンが3つ検索されたとすれば、これらのシーンの合計は1分15秒になる。この場合、検索された全てシーンを提供すると指定時間より超過してしまう。そこで、1つのシーンを削除することが考えられるが、この場合シーンの合計時間が50秒となり、1分で提供するはずの要約映像が50秒と短くなってしまう。   For example, if it is necessary to provide a summary video related to “goal scene” in one minute, if three 25-second scenes with the keyword “goal scene” are searched, the total of these scenes is 1 minute 15 seconds. In this case, if all the searched scenes are provided, the specified time will be exceeded. Therefore, it is conceivable to delete one scene. In this case, the total time of the scene is 50 seconds, and the summary video that should be provided in 1 minute is shortened to 50 seconds.

本発明は、かかる点に鑑みてなされたものであり、動画インデックス情報に記述されていない処理方法等について補完する情報を管理することを目的とする。   The present invention has been made in view of such a point, and an object thereof is to manage information that complements a processing method or the like that is not described in moving image index information.

本発明は、コンテンツデータの内容を記述したメタデータと、メタデータで使用するキーワードに対応する処理方法を記述した処理テーブルを用いてコンテンツデータの管理をし、この処理テーブルを用いてコンテンツデータの処理を行うようにした。   The present invention manages content data using metadata describing the content of the content data and a processing table describing a processing method corresponding to a keyword used in the metadata, and using this processing table, It was made to process.

本発明は、コンテンツデータに対して処理テーブルを用いることにより、コンテンツデータの処理方法を細かく設定できる。この結果、コンテンツデータから特定のキーワードが関連付けられたシーンを検索して抽出するような場合に、検索結果の合計時間を所望の時間に微調整する等できる。   In the present invention, the processing method of content data can be set in detail by using the processing table for the content data. As a result, when a scene associated with a specific keyword is searched and extracted from the content data, the total time of the search result can be finely adjusted to a desired time.

本発明の第1の態様にかかるコンテンツ管理装置は、コンテンツデータの内容を記述したメタデータを参照するメタデータ参照手段と、前記メタデータで使用するキーワードに対応する処理内容を記述した処理テーブルを参照するテーブル参照手段と、具備した構成を採る。   A content management apparatus according to a first aspect of the present invention includes a metadata reference unit that refers to metadata that describes content data content, and a processing table that describes processing content corresponding to a keyword used in the metadata. A table referring means to be referred to and a configuration provided are employed.

これにより、コンテンツデータを、メタデータと処理テーブルで管理することができる。この結果、メタデータ内で使用されるキーワードの言葉の特徴を生かした検索や要約生成を実現することができる。また、処理テーブルの内容を変更すればシステムを変更しなくても処理の内容を任意に変更できる。   Thereby, the content data can be managed by the metadata and the processing table. As a result, it is possible to realize search and summary generation that make use of the characteristics of the keyword words used in the metadata. Further, if the contents of the processing table are changed, the contents of the processing can be arbitrarily changed without changing the system.

本発明の第2の態様にかかる処理テーブル提供装置は、第1の態様に記載のコンテンツ管理装置に対して、前記処理テーブルを提供する処理テーブル提供装置である。   The processing table provision apparatus concerning the 2nd aspect of this invention is a processing table provision apparatus which provides the said processing table with respect to the content management apparatus as described in a 1st aspect.

これにより、キーワードに対応した処理内容を記述した処理テーブルを提供することができる。   As a result, it is possible to provide a processing table describing the processing content corresponding to the keyword.

本発明の第3の態様にかかるコンテンツデータ検索装置は、複数のシーンからなるコンテンツデータを参照するコンテンツデータ参照手段と、前記シーンの内容をキーワードで記述したメタデータを参照するメタデータ参照手段と、前記メタデータで使用するキーワードに対応する処理内容を記述した処理テーブルを参照するテーブル参照手段と、検索用のキーワードを入力し前記検索用のキーワードが付与された前記シーンを前記コンテンツデータ参照手段から検索するシーン検索手段と、検索した前記シーンに付与された前記キーワードに対応する前記処理内容を前記処理テーブルから抽出し、抽出した前記処理内容に対応した処理を前記検索したシーンに対して行うデータ処理手段と、を具備した構成を採る。   A content data search device according to a third aspect of the present invention includes content data reference means for referring to content data composed of a plurality of scenes, and metadata reference means for referring to metadata in which the contents of the scene are described by keywords. Table reference means for referring to a processing table in which processing content corresponding to a keyword used in the metadata is described; and the content data reference means for inputting the search keyword and adding the search keyword to the scene. The scene search means for searching from the above, the processing content corresponding to the keyword assigned to the searched scene is extracted from the processing table, and the processing corresponding to the extracted processing content is performed on the searched scene And a data processing means.

このように、コンテンツデータを、メタデータと処理テーブルで管理することにより、メタデータ内で使用されるキーワードの言葉の特徴を生かした検索を実現することができる。また、処理テーブルの内容を変更すればコンテンツデータ検索装置を変更しなくても処理の内容を任意に変更できる。これは、コンテンツデータ検索装置自体に手を加えずに処理を変更する場合に利便性が高い。   As described above, by managing the content data with the metadata and the processing table, it is possible to realize a search that makes use of the characteristics of the keyword words used in the metadata. Further, if the contents of the processing table are changed, the contents of the processing can be arbitrarily changed without changing the content data search device. This is highly convenient when processing is changed without changing the content data search apparatus itself.

本発明の第4の態様は、第3の態様にかかるコンテンツデータ検索装置において、前記処理内容は前記シーンを伸張する処理であり、前記データ処理手段は前記検索したシーンの合計時間が所望の指定時間に満たない場合に、前記合計時間が前記指定時間になるように前記検索したシーンを伸張する。   According to a fourth aspect of the present invention, in the content data search device according to the third aspect, the processing content is a process of expanding the scene, and the data processing means specifies a desired total time of the searched scene. If it is less than the time, the searched scene is expanded so that the total time becomes the specified time.

これにより、検索したシーンの合計時間が指定時間に合わない場合に、検索したシーンの合計時間を指定時間に合わすことができる。   Thereby, when the total time of the searched scene does not match the specified time, the total time of the searched scene can be adjusted to the specified time.

本発明の第5の態様は、第4の態様にかかるコンテンツデータ検索装置において、前記シーンを伸張する処理は、前記シーンに付与されたキーワードの特性に応じて、前記検索したシーンに前記検索したシーンの前のシーンもしくは後ろのシーンの一部を付加する処理である。   According to a fifth aspect of the present invention, in the content data search device according to the fourth aspect, the process of expanding the scene is performed by searching the searched scene according to a keyword characteristic assigned to the scene. This is a process of adding a part of the scene before or after the scene.

これにより、シーンに付与したキーワードの特性に応じた伸張方法でシーンを伸張することにより、シーンの特徴をより明確にできるようにシーンを伸張できる。   As a result, the scene can be expanded so that the features of the scene can be made clearer by expanding the scene by the expansion method according to the characteristics of the keyword assigned to the scene.

本発明の第6の態様は、第4の態様または第5の態様にかかるコンテンツデータ検索装置において、前記シーンには重要度が付与されていて、前記データ処理手段は前記検索したシーンの中で最も前記重要度の高いシーンを伸張する。   According to a sixth aspect of the present invention, in the content data search device according to the fourth aspect or the fifth aspect, the scene is given importance, and the data processing means is included in the searched scene. The most important scene is stretched.

これにより、重要な内容を多く持つシーンを伸長することができる。   Thereby, a scene having a lot of important contents can be expanded.

本発明の第7の態様にかかるオーサリング処理装置は、複数のシーンからなるコンテンツデータを参照するコンテンツデータ参照手段と、所定のキーワードに対応する処理内容を記述した処理テーブルを参照するテーブル参照手段と、前記シーンに対して付与するキーワードを入力し、入力した前記キーワードに対応する前記処理内容を前記処理テーブルから抽出し、抽出した前記処理内容に対応した記述を前記シーンに対して行うことにより、前記コンテンツデータの内容を示すメタデータを生成するデータ作成手段と、を具備した構成を採る。   An authoring processing apparatus according to a seventh aspect of the present invention includes content data reference means for referring to content data composed of a plurality of scenes, and table reference means for referring to a processing table that describes processing details corresponding to a predetermined keyword. , By inputting a keyword to be given to the scene, extracting the processing content corresponding to the input keyword from the processing table, and performing a description corresponding to the extracted processing content on the scene, And a data creation means for generating metadata indicating the content data.

これにより、処理テーブルを使用したオーサリング処理を行うことができる。この結果、ユーザーのキーワード付与操作をサポートすることができ、作業効率が著しく向上することができる。また、処理テーブルの内容を変更すればオーサリング処理装置を全く変更しなくても処理内容を任意のものに変更できるため、オーサリング処理装置自体に手を加えずに処理を変更する場合に利便性が高い。   As a result, authoring processing using the processing table can be performed. As a result, the user keyword assignment operation can be supported, and the work efficiency can be remarkably improved. In addition, if the content of the processing table is changed, the processing content can be changed to an arbitrary one without changing the authoring processing device at all, which is convenient when changing the processing without changing the authoring processing device itself. high.

本発明の第8の態様は、第7の態様にかかるオーサリング処理装置において、前記処理内容は排他的処理であり、前記データ作成手段は前記入力したキーワードを付与する前記シーン以外のシーンに対して、前記入力したキーワードと排他的な意味のキーワードを付与する。   According to an eighth aspect of the present invention, in the authoring processing apparatus according to the seventh aspect, the processing content is exclusive processing, and the data creation means applies to a scene other than the scene to which the input keyword is assigned. , A keyword having a meaning exclusive to the input keyword is assigned.

これにより、排他的なキーワード付与を行う必要がなくなるので、オーサリングの作業量が減るというメリットがある。また、排他的なキーワードが同一のシーンに関連付けられることは矛盾するので、オーサリング操作において、そういう矛盾した操作を禁止することは、利便性が高い。   This eliminates the need for exclusive keyword assignment, which has the advantage of reducing the amount of authoring work. Further, since it is contradictory that exclusive keywords are associated with the same scene, it is highly convenient to prohibit such contradictory operations in the authoring operation.

本発明の第9の態様は、第7の態様にかかるオーサリング処理装置において、前記処理内容は重要度付与処理であり、前記データ作成手段は前記入力したキーワードを付与する前記シーンに対して、所定の重要度を付与する。   According to a ninth aspect of the present invention, in the authoring processing apparatus according to the seventh aspect, the processing content is an importance level assigning process, and the data creation unit is configured to perform a predetermined process on the scene to which the input keyword is assigned. Gives importance.

これにより、自動的に重要度を付与することができるので、ユーザーの作業量が減る。   Thereby, since the importance can be automatically given, the amount of work of the user is reduced.

本発明の第10の態様は、第7の態様にかかるオーサリング処理装置において、前記処理内容は段階的に重要度を付与する処理であり、前記データ作成手段は前記入力したキーワードを付与する前記シーンの前後のシーンに対して、前記キーワードを付与するシーンの重要度を頂点に段階的に重要度を付与する。   According to a tenth aspect of the present invention, in the authoring processing apparatus according to the seventh aspect, the processing content is processing for assigning importance in stages, and the data creation means is the scene for assigning the input keyword. With respect to the scenes before and after, the importance is assigned stepwise with the importance of the scene to which the keyword is assigned as the vertex.

このように、自動的に現在処理中の前後のシーンに段階的に重要度を付与することにより、ユーザーが現在処理中の前後のシーンに対して段階的に重要度を付与する必要がなくなるので、非常に利便性が高い。   In this way, by automatically assigning importance to the previous and next scenes that are currently being processed, it is not necessary for the user to assign importance to the previous and subsequent scenes that are currently being processed. Very convenient.

本発明の第11の態様は、第10の態様にかかるオーサリング処理装置において、前記処理内容は前に重点を置いて重要度を付与する処理であり、前記データ作成手段は前記入力したキーワードを付与する前記シーンの前のシーンに対して、前記キーワードを付与するシーンの後ろのシーンより高い重要度を付与する。   According to an eleventh aspect of the present invention, in the authoring processing apparatus according to the tenth aspect, the processing content is processing for assigning importance with emphasis before, and the data creation means assigns the input keyword. A higher importance is assigned to a scene before the scene than a scene behind the scene to which the keyword is assigned.

これにより、例えば「ゴール」のように前に重点のあるキーワードに対し、前のシーンに重点が置かれるようになる。   As a result, for example, with respect to a keyword having a prior focus such as “goal”, the previous scene is emphasized.

本発明の第12の態様は、第10の態様にかかるオーサリング処理装置において、前記処理内容は後ろに重点を置いて重要度を付与する処理であり、前記データ作成手段は前記入力したキーワードを付与する前記シーンの後ろのシーンに対して、前記キーワードを付与するシーンの前のシーンより高い重要度を付与する。   According to a twelfth aspect of the present invention, in the authoring processing apparatus according to the tenth aspect, the process content is a process of assigning importance with emphasis on the back, and the data creation means assigns the input keyword. The higher importance is assigned to the scene behind the scene than the scene before the scene to which the keyword is assigned.

これにより、例えば「フリーキック」のように後に重点のあるキーワードに対し、後のシーンに重点が置かれるようになる。   As a result, for example, a keyword with a later emphasis such as “free kick” is emphasized in the later scene.

本発明の第13の態様にかかるオーサリング処理装置は、複数のシーンからなるコンテンツデータを参照するコンテンツデータ参照手段と、所定のキーワードに対応する処理内容と前記処理内容に対する識別情報を記述した処理テーブルを参照するテーブル参照手段と、前記シーンに対して付与するキーワードを入力し、入力した前記キーワードに対応する前記識別情報を前記処理テーブルから抽出し、抽出した前記識別情報を前記シーンに記述することにより、前記コンテンツデータの内容を示すメタデータを生成するデータ作成手段と、を具備した構成を採る。   An authoring processing apparatus according to a thirteenth aspect of the present invention includes a content data reference means for referencing content data composed of a plurality of scenes, a processing content corresponding to a predetermined keyword, and a processing table describing identification information for the processing content A table reference means for referring to the image, a keyword to be assigned to the scene, the identification information corresponding to the input keyword is extracted from the processing table, and the extracted identification information is described in the scene Thus, a configuration is provided that includes data creation means for generating metadata indicating the contents of the content data.

これにより、メタデータに処理内容そのものを記述するのではなく、処理内容に対応した識別情報を記述することができる。このような方法でメタデータを記述することによりメタデータの大きさを小さくすることができる。   As a result, it is possible to describe identification information corresponding to the processing content, instead of describing the processing content itself in the metadata. By describing the metadata in this way, the size of the metadata can be reduced.

本発明の第14の態様は、コンテンツデータの内容を記述したメタデータと、メタデータで使用するキーワードに対応する処理方法を記述した処理テーブルと、を用いて前記コンテンツデータの管理することを特徴とするコンテンツ管理方法である。   According to a fourteenth aspect of the present invention, the content data is managed using metadata describing the content data and a processing table describing a processing method corresponding to a keyword used in the metadata. This is a content management method.

本発明の第15の態様は、複数のシーンからなるコンテンツデータを参照するステップと、前記シーンの内容をキーワードで記述したメタデータを参照するステップと、前記メタデータで使用するキーワードに対応する処理内容を記述した処理テーブルを参照するステップと、検索用のキーワードを入力し前記検索用のキーワードが付与された前記シーンを前記コンテンツデータから検索するステップと、検索した前記シーンに付与された前記キーワードに対応する前記処理内容を前記処理テーブルから抽出するステップと、抽出した前記処理内容に対応した処理を前記検出したシーンに対して行うステップと、を具備したことを特徴とするコンテンツデータ検索方法である。   According to a fifteenth aspect of the present invention, there is provided a step of referring to content data composed of a plurality of scenes, a step of referring to metadata describing the contents of the scene with keywords, and a process corresponding to the keywords used in the metadata A step of referring to a processing table describing contents; a step of inputting a search keyword and searching the scene to which the search keyword is assigned; and the keyword assigned to the searched scene. A content data search method comprising: extracting the processing content corresponding to the processing scene from the processing table; and performing the processing corresponding to the extracted processing content on the detected scene. is there.

本発明の第16の態様は、複数のシーンからなるコンテンツデータを参照するステップと、所定のキーワードに対応する処理内容を記述した処理テーブルを参照するステップと、前記シーンに対して付与するキーワードを入力するステップと、入力した前記キーワードに対応する前記処理内容を前記処理テーブルから抽出するステップと、抽出した前記処理内容に対応した記述を前記シーンに対して行うことにより、前記コンテンツデータの内容を示すメタデータを生成するステップと、を具備したことを特徴とするオーサリング処理方法である。   According to a sixteenth aspect of the present invention, there are provided a step of referring to content data composed of a plurality of scenes, a step of referring to a processing table describing processing details corresponding to a predetermined keyword, and a keyword to be assigned to the scene. The step of inputting, the step of extracting the processing content corresponding to the input keyword from the processing table, and the description corresponding to the extracted processing content for the scene, An authoring processing method comprising: generating metadata to be displayed.

本発明の第17の態様は、コンピュータに、複数のシーンからなるコンテンツデータを参照するステップと、前記シーンの内容をキーワードで記述したメタデータを参照するステップと、前記メタデータで使用するキーワードに対応する処理内容を記述した処理テーブルを参照するステップと、検索用のキーワードを入力し前記検索用のキーワードが付与された前記シーンを前記コンテンツデータから検索するステップと、検索した前記シーンに付与された前記キーワードに対応する前記処理内容を前記処理テーブルから抽出するステップと、抽出した前記処理内容に対応した処理を前記検出したシーンに対して行うステップと、を行わせることを特徴とするプログラムである。   According to a seventeenth aspect of the present invention, a computer includes a step of referring to content data including a plurality of scenes, a step of referring to metadata in which the contents of the scene are described by keywords, and a keyword used in the metadata. A step of referring to a processing table describing a corresponding processing content, a step of inputting a search keyword and searching the scene to which the search keyword is assigned from the content data, and a step assigned to the searched scene And a step of extracting the processing content corresponding to the keyword from the processing table and a step of performing processing corresponding to the extracted processing content on the detected scene. is there.

本発明の第18の態様は、コンピュータに、複数のシーンからなるコンテンツデータを参照するステップと、所定のキーワードに対応する処理内容を記述した処理テーブルを参照するステップと、前記シーンに対して付与するキーワードを入力するステップと、入力した前記キーワードに対応する前記処理内容を前記処理テーブルから抽出するステップと、抽出した前記処理内容に対応した記述を前記シーンに対して行うことにより、前記コンテンツデータの内容を示すメタデータを生成するステップと、を行わせることを特徴とするプログラムである。   According to an eighteenth aspect of the present invention, a step of referring to content data including a plurality of scenes, a step of referring to a processing table describing processing details corresponding to a predetermined keyword, and giving to the scene Inputting the keyword to be processed, extracting the processing content corresponding to the input keyword from the processing table, and performing description corresponding to the extracted processing content on the scene, thereby performing the content data Generating metadata indicating the contents of the program.

以下、本発明の実施の形態について、添付図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

(実施の形態1)
本発明の実施の形態1では、コンテンツデータの内容を記述したメタデータと、メタデータで使用する言葉に対応する処理方法を記述した処理テーブルを用いて、コンテンツデータを管理するデータ管理方法および、この管理方法を使用した検索方法について具体的に説明する。
(Embodiment 1)
In Embodiment 1 of the present invention, a data management method for managing content data using metadata describing the contents of the content data and a processing table describing a processing method corresponding to a word used in the metadata, and A search method using this management method will be specifically described.

まず、実施の形態1にかかるコンテンツデータ検索システムについて図1を用いて説明する。図1は、実施の形態1にかかるコンテンツデータ検索システムの構成図である。   First, the content data search system according to the first embodiment will be described with reference to FIG. FIG. 1 is a configuration diagram of the content data search system according to the first embodiment.

コンテンツデータ検索システム100は、コンテンツデータの内容を記述したメタデータと、メタデータで使用する言葉に対応する処理方法を記述した処理テーブルを用いて、コンテンツデータを管理するデータ管理方法を用いてコンテンツデータから指定された部分を検索して出力する。   The content data search system 100 uses a data management method for managing content data by using metadata describing the contents of the content data and a processing table describing a processing method corresponding to a word used in the metadata. Search for the specified part from the data and output it.

コンテンツデータとは、創作・著作物であり、デジタル、アナログを問わないが、電子的に検索可能な状態でメディアに保持されたデータである。コンテンツデータの形式はインターネットのwebページのようにhtml形式であったり、放送で用いられるようなbml形式であったり、音声のファイルであったりし、特に限定されるべきものではないが、実施の形態1では説明の便宜上、動画映像データとする。   Content data is a work of creation and copyrighted work, which may be digital or analog, but is stored in the media in an electronically searchable state. The content data format is not particularly limited, such as an html format such as a web page on the Internet, a bml format used in broadcasting, or an audio file. In the first embodiment, for convenience of explanation, it is assumed to be moving image data.

コンテンツデータ検索システム100は、通信処理部101と、要約生成部105と、コンテンツデータ提供部108と、がデータを受け渡すバスであるデータバス104で接続された構成を持つ。   The content data search system 100 has a configuration in which a communication processing unit 101, a summary generation unit 105, and a content data providing unit 108 are connected by a data bus 104 that is a bus for transferring data.

通信処理部101は、リクエスト入力部102と映像データ送出部103を持つ。   The communication processing unit 101 includes a request input unit 102 and a video data transmission unit 103.

リクエスト入力部102は、どのようなデータを検索するかというユーザーからのリクエストを入力する。   The request input unit 102 inputs a request from the user as to what kind of data is to be searched.

映像データ送出部103は、コンテンツデータ検索システム100が検索したデータをユーザーに送出する。   The video data sending unit 103 sends the data searched by the content data search system 100 to the user.

また、通信処理部101が行う通信処理は、LANやインターネット等の技術によって行われる。   Communication processing performed by the communication processing unit 101 is performed by a technique such as a LAN or the Internet.

なお、実施の形態1は通信処理部101が入出力を行う構成で説明しているが、例えば一台のパソコンが全てのデータや操作手段を備えているような場合には、通信を使用しなくてもシステム内部の接続で入出力を行えるので、通信処理部101がない構成であっても良い。   The first embodiment has been described with the configuration in which the communication processing unit 101 performs input / output. However, for example, when a single personal computer includes all data and operation means, communication is used. Since the input / output can be performed by connection within the system without the communication processing unit 101, the communication processing unit 101 may be omitted.

コンテンツデータ提供部108は、複数の映像データ109、111を保管する映像データ保管部114と、メタデータ110、112を保管するメタデータ保管部115を備える。   The content data providing unit 108 includes a video data storage unit 114 that stores a plurality of video data 109 and 111, and a metadata storage unit 115 that stores metadata 110 and 112.

メタデータ110、112内には、どの映像データ109、111についてのメタデータであるかのリンクが記述されており、映像データ109、111とメタデータ110、112はそれぞれ関連付けられている。   In the metadata 110 and 112, a link as to which video data 109 and 111 is the metadata is described, and the video data 109 and 111 and the metadata 110 and 112 are associated with each other.

実施の形態1では、メタデータ110は映像データ109に関する記述であり、メタデータ112は映像データ111に関する記述である。   In the first embodiment, the metadata 110 is a description regarding the video data 109, and the metadata 112 is a description regarding the video data 111.

また、コンテンツデータ提供部108は、処理テーブル113を保管するテーブル保管部116を備える。   In addition, the content data providing unit 108 includes a table storage unit 116 that stores the processing table 113.

処理テーブル113は、メタデータ110、112内で使用されるキーワードと、キーワードに対する処理との組を複数格納したテーブルである。   The processing table 113 is a table that stores a plurality of pairs of keywords used in the metadata 110 and 112 and processing for the keywords.

コンテンツデータ提供部108としてはハードディスク、光ディスク、磁気ディスク等の情報保持メディアが使用できる。   As the content data providing unit 108, an information holding medium such as a hard disk, an optical disk, or a magnetic disk can be used.

なお、コンテンツデータ提供部108は、必ずしも単一の機器である必要は無く複数の機器をネットワークで接続した形態でもよい。   Note that the content data providing unit 108 does not necessarily have to be a single device, and a plurality of devices may be connected via a network.

例えば、映像データ1は海外にあるサーバーのハードディスク内にあり、映像データ2は国内の別のサーバーにあり、メタデータはデジタル放送のデータ放送で提供されて放送受信機器に蓄積されていて、処理テーブルはまた別のサーバーで提供されていてもそれらがネットワークで接続されていれば仮想的に一つの機器内にすべての必要なデータがあるのと同じことになる。   For example, video data 1 is in the hard disk of a server overseas, video data 2 is in another server in Japan, metadata is provided by digital broadcast data broadcasting, stored in broadcast receiving equipment, and processed Even if the table is provided by another server, if they are connected via a network, it is virtually the same as having all the necessary data in one device.

このようにデータが分散的にネットワーク上に存在する場合には一つの映像データに対応するメタデータや、メタデータに対応する処理テーブルが重複して複数存在してしまうことがある。このような場合には、映像データやメタデータの内部に対応するデータのURLを明示して、はっきり一つのファイルに特定できるようにすればよい。あるいは、ファイル名だけでなく、ファイルのハッシュ値のような各ファイル固有の値も併記して複数のファイルから一つのファイルを選択できるようにしてもよい。   As described above, when data exists on the network in a distributed manner, a plurality of metadata corresponding to one video data and a plurality of processing tables corresponding to the metadata may exist. In such a case, the URL of the data corresponding to the inside of the video data or metadata may be clearly specified so that it can be clearly specified as one file. Alternatively, not only the file name but also a value unique to each file such as a hash value of the file may be written so that one file can be selected from a plurality of files.

また、映像データ109、111は、MPEG等の符号化フォーマットを使用したデジタルファイルである。   The video data 109 and 111 are digital files using an encoding format such as MPEG.

要約生成部105には、シーン検索部106と、データ管理部107が設けられている。   The summary generation unit 105 is provided with a scene search unit 106 and a data management unit 107.

シーン検索部106は、コンテンツデータ提供部108に保管された映像データ109、111から、キーワードや指定時間などから構成される検索リクエストに応じたシーン検索処理を行う。   The scene search unit 106 performs a scene search process according to a search request including a keyword and a specified time from the video data 109 and 111 stored in the content data providing unit 108.

データ管理部107は、コンテンツデータ提供部108に格納された、映像データ109、111、メタデータ110、112と処理テーブル113に参照(アクセス)する参照手段としての機能を有し、さらに、映像データ109、111に処理テーブル113に従った処理を加える。   The data management unit 107 has a function as a reference unit that references (accesses) the video data 109 and 111, the metadata 110 and 112, and the processing table 113 stored in the content data providing unit 108, and further, the video data The processing according to the processing table 113 is added to 109 and 111.

要約生成部105は、CPUとRAMからなり、ソフトウエアモジュールであるシーン検索部106とデータ管理部107を動作させる。   The summary generation unit 105 includes a CPU and a RAM, and operates a scene search unit 106 and a data management unit 107 which are software modules.

次に、図1に示したメタデータ110、112について図2を用いて説明する。図2は、実施の形態1にかかるメタデータ110、112の具体例を示す図である。   Next, the metadata 110 and 112 shown in FIG. 1 will be described with reference to FIG. FIG. 2 is a diagram illustrating a specific example of the metadata 110 and 112 according to the first embodiment.

図2に示すメタデータ110、112は、実際に使用するメタデータの一部であり、MPEG−7規格に準拠したXMLフォーマットで記述されている。また、メタデータ110、112は、基本的に一つの動画ファイルに一つのファイルとして記述されている。   The metadata 110 and 112 shown in FIG. 2 are part of metadata that is actually used, and are described in an XML format that conforms to the MPEG-7 standard. The metadata 110 and 112 are basically described as one file in one moving image file.

なお、複数の動画ファイルの内容を一つのメタデータファイルに記述することも可能であり、一つの動画ファイルの内容を複数のメタデータに記述することも可能である。   The contents of a plurality of moving image files can be described in one metadata file, and the contents of one moving image file can be described in a plurality of metadata.

また、メタデータ110、112は、MPEG−7規格に準拠したXMLフォーマットでなくても、他の形式や独自形式ででも記述することは可能である。   Further, the metadata 110 and 112 can be described in another format or a unique format, even if they are not in the XML format compliant with the MPEG-7 standard.

また、メタデータ110、112には、どの動画ファイルに関する情報かを示すMediaのUriが記述されている。さらに、メタデータ110、112には、動画ファイル中の開始時間と終了時間で定義される映像区間すなわちシーン毎にそのシーンの内容が記述される。   In addition, in the metadata 110 and 112, a Media URI indicating which moving image file is related is described. Further, in the metadata 110 and 112, the contents of the scene are described for each video section defined by the start time and end time in the moving image file, that is, for each scene.

図2を用いて説明すると、201で示される部分に、対応する動画ファイルのMediaのUriが記述されている。   Referring to FIG. 2, the media URI of the corresponding moving image file is described in a portion indicated by 201.

また、202で示される部分に、シーン(セグメント)の定義が記述されている。また、205で示される部分に、シーンの開始時間と終了時間(durationで現わしてもよい)が記述されている。   In addition, a definition of a scene (segment) is described in a portion indicated by 202. Also, in the portion indicated by 205, the start time and end time of the scene (which may appear as duration) are described.

また、203で示される部分には、シーンに関連付けるキーワードが記述されている。シーンのキーワードを203に示されるような観点すなわちPointOfViewで記述する場合は、その観点から見てどのくらい重要かを示す重要度すなわちImportanceの値204も記述される。   Further, in a portion indicated by 203, a keyword associated with the scene is described. When the scene keyword is described in the viewpoint as indicated by 203, that is, PointOfView, the importance indicating the importance from the viewpoint, that is, the importance value 204 is also described.

また、206で示すように、キーワードは注釈すなわちAnnotationとして付与してもよい。   Further, as indicated by 206, the keyword may be given as an annotation, ie, Annotation.

このようにメタデータは構成されている。   In this way, metadata is configured.

次に、メタデータにおけるキーワードの付与状態を模式的に図3に示す。   Next, FIG. 3 schematically shows a keyword assignment state in the metadata.

横軸309は、ある動画ファイルの時間の経過を示す。   A horizontal axis 309 indicates the passage of time of a certain moving image file.

301a〜301dで示されるものはシーンの模式図であり、長方形の左辺の位置が開始時間であり、長さがDURATIONである。この例では複数のシーン301a〜301dは隙間なく連続しており、1つのシーンの終了時間が次のシーンの開始時間と一致している。   Reference numerals 301a to 301d are schematic views of a scene, where the left side of the rectangle is the start time and the length is DURATION. In this example, the plurality of scenes 301a to 301d are continuous without a gap, and the end time of one scene coincides with the start time of the next scene.

縦軸310には、各シーン301a〜301cに付与されたキーワード311〜314が配置されている。各キーワード311〜314の右側には、キーワード311〜314が、どのシーンに付与されているかの状況を示す帯302a〜302fが配置されている。例えばキーワード「日本代表」311の右側には、シーン301b、301cに対応する帯302a、302bが配置されているので、キーワード311がシーン301bとシーン301cに付与されていることがわかる。   On the vertical axis 310, keywords 311 to 314 assigned to the scenes 301a to 301c are arranged. On the right side of each keyword 311 to 314, bands 302 a to 302 f indicating the scene to which the keywords 311 to 314 are assigned are arranged. For example, since the bands 302a and 302b corresponding to the scenes 301b and 301c are arranged on the right side of the keyword “Japan representative” 311, it can be seen that the keyword 311 is assigned to the scenes 301b and 301c.

これは実際のデータでは、図2におけるシーン定義202内に、PointOfView203等でキーワードが定義されている状況である。各シーンには複数のキーワードを付与することが可能で、例えばシーン301dには3つのキーワード(大阪、ゴール、ハイライト)312〜314が付与されている。   This is a situation in which keywords are defined by PointOfView 203 or the like in the scene definition 202 in FIG. 2 in actual data. A plurality of keywords can be assigned to each scene. For example, three keywords (Osaka, goal, highlight) 312 to 314 are assigned to the scene 301d.

また、キーワード311〜314には、その重要度も付与できることを前述したが、例えばキーワード314は、シーン301cに対しては重要度0.8が付与され、シーン301dに対しては重要度1.0が付与されている。   In addition, it has been described above that keywords 311 to 314 can be given importance, but for example, keyword 314 is given importance 0.8 for scene 301c and importance 1. 0 is given.

XML表記されたメタデータそのものを、メタデータを扱うユーザーやオペレータが見ても、メタデータのキーワードや重要度の付与状況を鳥瞰的に理解することは難しい。しかし、ディスプレイ装置等を使用して図3のような模式図を表示すれば、ユーザーやオペレータがメタデータのキーワードや重要度を鳥瞰的に理解でき、利便性が高まる。   It is difficult for a user or operator who handles metadata to see the metadata itself expressed in XML, and to understand the assignment of metadata keywords and importance from a bird's-eye view. However, if the schematic diagram as shown in FIG. 3 is displayed using a display device or the like, the user and the operator can understand the keywords and importance of the metadata from a bird's-eye view, which increases convenience.

また、キーワードの付与を行うオーサリングシステムのGUI(Graphical User Interface)としても図3のような表示は有効である。   The display as shown in FIG. 3 is also effective as a GUI (Graphical User Interface) of an authoring system that assigns keywords.

この表示の際に、重要度の値を視覚的に示せばよりわかりやすい。例えば、キーワードの付与を示す帯302a〜302fの色が濃いほど重要度が高いとしたり、模様や記号を配したりすることにより、一見して重要度の付与状況を確認することができ利便性が高まる。例えば、図3の例では、帯302eより帯302fのほうの色が濃いので、シーン301cよりシーン301dのほうが重要度が高いということがわかる。   In this display, it is easier to understand if the importance value is visually shown. For example, the darker the colors of the bands 302a to 302f indicating the assignment of keywords, the higher the degree of importance, or the arrangement of patterns and symbols, so that the degree of importance can be confirmed at a glance. Will increase. For example, in the example of FIG. 3, since the color of the band 302f is darker than the band 302e, it can be seen that the importance of the scene 301d is higher than that of the scene 301c.

また、図3に示すメタデータの模式図では、(1)シーンは連続しており、重なりがない、(2)各シーンには複数のキーワードを付与することができる、という2つの特徴があったが、シーンの定義のしかたはこれに限られるものではない。別の定義によるメタデータの付与状況を示す模式図を図4に示す。   In addition, the schematic diagram of metadata shown in FIG. 3 has two characteristics: (1) scenes are continuous and do not overlap, and (2) a plurality of keywords can be assigned to each scene. However, the definition of the scene is not limited to this. FIG. 4 is a schematic diagram showing a state of giving metadata according to another definition.

図4における401〜404はそれぞれ1つのシーンであり、それぞれ日本代表、大阪、ゴール、ハイライトという一つのキーワード311〜314が関連付けられている。シーンはシーン401とシーン404のように重なっていてもかまわない。また、シーンとシーンの間隔が空いていてもかまわない。   Each of 401 to 404 in FIG. 4 is one scene, and one keyword 311 to 314 of Japan representative, Osaka, goal, and highlight is associated with each scene. The scenes may overlap like the scene 401 and the scene 404. Also, there may be an interval between scenes.

図4のようなシーンの定義の方法により、時間区間に対して自由にキーワードを付与できるので、キーワードの付与の重なりがあるようなケースでは視覚的にも作業的にも利便性が上がる場合がある。   Since keywords can be freely assigned to the time interval by the scene definition method as shown in FIG. 4, in cases where there are overlapping keyword assignments, convenience may be improved both visually and in terms of work. is there.

ところで、図3と図4はシーンの定義の方法は異なるが、情報量としては均等である。すなわち、図5に示すように全てのシーン301a〜301dの開始時間と終了時間で501、502のような仕切りを設け、そこをシーンの分割点とすれば、図4に示す例においても、図3の4つのシーン301a〜301dと同様に4つのシーンを定義することができる。そして、そのシーンそれぞれに複数のキーワードが付与されていると見れば、実は図4も図3も特定の時間区間に付与されているキーワードという意味では全く同じになる。   3 and 4 are different in the definition method of the scene, but the amount of information is equal. That is, if partitions such as 501 and 502 are provided at the start time and end time of all the scenes 301a to 301d as shown in FIG. 5 and used as scene division points, the example shown in FIG. Four scenes can be defined similarly to the three scenes 301a to 301d. If it is considered that a plurality of keywords are assigned to each scene, both FIG. 4 and FIG. 3 are exactly the same in terms of keywords assigned to a specific time interval.

このように、情報量的には全く同じメタデータもシーンの定義の仕方によって図3に示す方法と、図4に示す方法の二通りの表現方法があり、それらは相互に変換可能である。動画データの時間区間へキーワードを関連付ける際には、GUIに表示する際にも、メタデータとしてXML形式のファイルとして出力する際にもいずれか都合のよい表現方法を選択すると利便性が高い。また、入力したデータ異なる表現方法に変換することも有効である。   As described above, there are two ways of expressing the same metadata in terms of information amount, the method shown in FIG. 3 and the method shown in FIG. 4 depending on how the scene is defined, and they can be converted into each other. When associating a keyword with a time interval of moving image data, it is convenient to select an expression method that is convenient for either displaying on the GUI or outputting as an XML file as metadata. It is also effective to convert the input data into a different representation method.

次に、実施の形態1にかかる処理テーブル113について図6を用いて説明する。図6は、実施の形態1にかかる処理テーブル113の構成図である。   Next, the processing table 113 according to the first embodiment will be described with reference to FIG. FIG. 6 is a configuration diagram of the processing table 113 according to the first embodiment.

処理テーブル113には、キーワード601と、キーワード601に対する処理内容602と、キーワード601に対する備考603と、キーワード601を識別する識別番号であるキーワードID604と、処理内容602を識別するための識別番号である処理ID605と、の組が複数格納されている。   The processing table 113 includes a keyword 601, a processing content 602 for the keyword 601, a remark 603 for the keyword 601, a keyword ID 604 that is an identification number for identifying the keyword 601, and an identification number for identifying the processing content 602. A plurality of sets of process IDs 605 are stored.

処理テーブル113は、C言語等のプログラム内で使用する配列データとして記述されてもよいし、図2に示したようなXML形式のデータでもよく、このようなテーブルをデータとして保持することに格段の工夫は必要ない。   The processing table 113 may be described as array data used in a program such as C language, or may be data in the XML format as shown in FIG. 2. No need for ingenuity.

また、各キーワード601に関連付ける処理内容602は1つでも、複数でも、0でもよい。   Further, the processing content 602 associated with each keyword 601 may be one, plural, or zero.

例えばキーワード「ハイライト」601aには、「重要度」602aという処理内容が対応している。これはハイライトというキーワード601aは重要度602aという属性を持つという意味であり、図2に示すようにメタデータ内にハイライト601aは重要度Importanceの値0.7が関連付けられる言葉であるということを示す。   For example, the processing content “importance” 602a corresponds to the keyword “highlight” 601a. This means that the keyword 601a of highlight has an attribute of importance 602a, and as shown in FIG. 2, the highlight 601a is a word associated with a value 0.7 of importance Importance in the metadata. Indicates.

例えば、「昼」とか「夜」というキーワードはそうであるか、そうでないかのどちらかという絶対的な概念であり、レベルを持たない。このため、昼というキーワードが関連付けられたシーンはレベルを持たずどれも等しく昼なのである。つまり、昼に重要度を付与し、このシーンがより昼に当てはまるという記載はナンセンスなのである。   For example, the keyword “day” or “night” is an absolute concept of whether or not, and has no level. For this reason, scenes associated with the keyword daytime have no level and are equally daytime. In other words, a statement that importance is given at noon and this scene is more applicable to noon is nonsense.

これに対して「ハイライト」というキーワード601aは、レベルを持つ相対的な概念である。ある動画ファイルのハイライトシーンだけを集める場合、そのシーンのレベルによって任意の長さのハイライトが作成できるように、各ハイライトシーンはレベルを持つ。よって、このように相対的なレベルを持つキーワードに重要度という処理内容が対応付けられる。   On the other hand, the keyword 601a “highlight” is a relative concept having a level. When only highlight scenes of a moving image file are collected, each highlight scene has a level so that a highlight of an arbitrary length can be created according to the level of the scene. Therefore, the processing content called importance is associated with keywords having such relative levels.

図6の処理テーブル113においてキーワード「ゴール」601bには、前後コンテキスト(前長め、後ろ短め)という処理602bが対応付けられている。このキーワード601bは前後にコンテキストを持つことを示し、前側により長いコンテキスト、後ろ側に短めのコンテキストを持つ。   In the processing table 113 of FIG. 6, the keyword “goal” 601b is associated with a processing 602b called a front and rear context (longer front, shorter rear). This keyword 601b indicates that there are contexts before and after, and has a longer context on the front side and a shorter context on the rear side.

具体的に説明すると、サッカーのゴールシーンというのはゴールの瞬間を頂点として、ゴールに至るまでの選手の技術的な過程が興味深く、ゴールした後は選手の表情等は興味深くてもサッカーの技術としての興味は低い。つまりゴールシーンの長さを伸張するとすれば前側を伸ばすのが適切である。ただし、ゴールの瞬間から時間が遠ざかるにつれてゴールシーンから関係なくなって行くので、ゴールの瞬間から時間が離れた前側よりは、ゴールの瞬間に近い後ろ側を伸ばすほうがよい。この意味でゴールというキーワードは前長め、後ろ短めのコンテキストを持つ。   More specifically, the goal scene of soccer is the soccer technology, even if the player's facial expression is interesting after the goal. Is less interested. In other words, if the length of the goal scene is extended, it is appropriate to extend the front side. However, as the time moves away from the goal moment, it becomes irrelevant from the goal scene, so it is better to extend the back side closer to the goal moment than the front side away from the goal moment. In this sense, the goal word has a longer front and a shorter back context.

図6におけるキーワード「フリーキック」601cは、ゴール601bと反対に後ろ側にコンテキストという処理602cを持つ。これは、フリーキックの場合、キックの瞬間の後により多くの意味があるからである。したがって「フリーキック」601cには、処理602cとして「後コンテキスト」が関連付けられている。   The keyword “free kick” 601c in FIG. 6 has a process 602c called context behind the goal 601b. This is because the free kick has more meaning after the moment of kick. Therefore, “free context” is associated with “free kick” 601c as processing 602c.

さらに、処理602cには、「曲線c」という注釈がついているがこれは別途定義された処理曲線の形を指す。   Further, the process 602c is annotated with “curve c”, which indicates the shape of the process curve defined separately.

このように処理テーブル113には、処理方法の記述だけでなく、別途定義された処理方法へのリンクを記述してもよい。この場合、処理方法を変更しても処理テーブルは変更する必要がないなどの利便性が生まれる。   As described above, the processing table 113 may describe not only a description of the processing method but also a link to a separately defined processing method. In this case, the convenience that the processing table does not need to be changed even when the processing method is changed is obtained.

なお、処理テーブル113の処理内容602は、図6に示したもの以外であっても良い。例えば、処理内容602をアクセス制御にしても良い。これにより、キーワード601に関する情報を取得するのがふさわしくない人物が、この情報にアクセスすることを禁止できる。   Note that the processing content 602 of the processing table 113 may be other than that shown in FIG. For example, the processing content 602 may be access control. As a result, it is possible to prevent a person who is not appropriate to acquire information on the keyword 601 from accessing this information.

ここで、処理テーブル113とは別途定義した処理方法の例について、図7(a)〜図7(c)を用いて説明する。図7(a)〜図7(c)は、別途定義した処理方法の例を示す図である。図7(a)〜図7(c)は、それぞれシーンの長さを伸縮する場合の曲線の形状を示している。   Here, an example of a processing method defined separately from the processing table 113 will be described with reference to FIGS. 7A to 7C. Fig.7 (a)-FIG.7 (c) are figures which show the example of the processing method defined separately. FIGS. 7A to 7C show the shapes of curves when the length of the scene is expanded or contracted.

図7(a)は、前後に等しくコンテキストがある場合で、しきい値のラインを上下することにより新たなシーンの開始、終了時間を得ることができる。黒い帯がメタデータに記述されたシーンの長さで、斜線掛けの帯が伸長されたシーンの長さである。   FIG. 7A shows a case where there are equal contexts before and after, and a new scene start and end time can be obtained by moving the threshold line up and down. The black band is the length of the scene described in the metadata, and the hatched band is the length of the expanded scene.

図7(b)、図7(c)はそれぞれ前コンテキスト、後コンテキストの曲線の例であり、しきい値を上下させることにより前または後に比重を置いたシーンの伸長が行われる。   FIG. 7B and FIG. 7C are examples of curves of the front context and the rear context, respectively, and scene expansion with a specific gravity before or after is performed by raising or lowering the threshold value.

なお、処理の定義は図7に示すような曲線を数式で定義しても、図形で定義してもよい。図6の処理テーブル113内で曲線cを指定すると図7(c)の曲線が参照される。   The definition of the process may be a curve as shown in FIG. When the curve c is designated in the processing table 113 in FIG. 6, the curve in FIG. 7C is referred to.

図6の処理テーブルにおいてキーワード「日本代表攻撃」601dと「大阪攻撃」601eには「排他的(チーム)」という処理602d、602eが関連付けられている。日本代表601dと大阪601eはそれぞれサッカーのチームであり、それらが対戦するときには一方が攻撃中は他方は守備であり、両方同時に攻撃することはありえないという意味で排他的であるという意味である。   In the processing table of FIG. 6, the keywords “Japan representative attack” 601d and “Osaka attack” 601e are associated with processing 602d and 602e “exclusive (team)”. The Japanese national team 601d and the Osaka 601e are soccer teams, respectively, and when they play, it means that when one is attacking, the other is defensive, and both are exclusive in the sense that they cannot attack at the same time.

図6の備考欄603には、キーワード601に関するその他の情報を記述する。図6の例では備考欄603には、URLを記述しているが、キーワード601または処理内容602のより詳細な指示が記述されている場所や名前空間として用いることができる。   In the remarks column 603 of FIG. 6, other information related to the keyword 601 is described. In the example of FIG. 6, a URL is described in the remarks column 603, but it can be used as a place or name space in which more detailed instructions for the keyword 601 or the processing content 602 are described.

また、処理テーブル113には、キーワード601とキーワードID604が対応付けられているので、キーワード601の変わりにキーワードID604を用いた記述を行うことができる。   Further, since the keyword 601 and the keyword ID 604 are associated with each other in the processing table 113, a description using the keyword ID 604 can be performed instead of the keyword 601.

また、処理テーブル113には、処理内容602と処理ID605が対応付けられているので、処理内容602の変わりに処理ID605を用いた記述を行うことができる。   Further, since the processing content 602 and the processing ID 605 are associated with each other in the processing table 113, a description using the processing ID 605 can be performed instead of the processing content 602.

以上のように、処理テーブル113には、キーワード601とキーワード601に適応した処理内容602とが対応付けて格納されている。これにより、処理テーブル113を用いることのより、キーワード601の言葉の特徴を生かした処理が可能となる。   As described above, the processing table 113 stores the keyword 601 and the processing content 602 adapted to the keyword 601 in association with each other. As a result, by using the processing table 113, processing that makes use of the characteristics of the words of the keyword 601 becomes possible.

次に、リクエスト入力部102から入力される映像データ検索のための検索リクエストについて図8を用いて説明する。図8は、実施の形態1にかかる検索リクエストを示す図である。   Next, a search request for video data search input from the request input unit 102 will be described with reference to FIG. FIG. 8 is a diagram illustrating a search request according to the first embodiment.

実施の形態1では、コンテンツデータ検索システム100が、リクエスト入力部102から検索リクエストを入力し、入力した検索リクエストに応じた映像データを送出する。   In the first embodiment, the content data search system 100 inputs a search request from the request input unit 102 and transmits video data corresponding to the input search request.

図8に示す検索リクエスト800は、検索する項目801とその入力値802と備考803とが記述されている。   The search request 800 shown in FIG. 8 describes an item 801 to be searched, an input value 802, and a remark 803.

検索する項目801には、キーワード801aと、時間801bと、優先度801cと、課金方法801dと、画質801eと、送出順序801fと、ソース優先度801gと、がある。   Items to be searched 801 include a keyword 801a, a time 801b, a priority 801c, a charging method 801d, an image quality 801e, a transmission order 801f, and a source priority 801g.

キーワード801aは、ユーザーが見たいシーンの内容を指定する個所である。   The keyword 801a is a part that specifies the content of the scene that the user wants to see.

時間801bは、ユーザーが映像を送出して欲しい時間を指定する個所である。   The time 801b is a part for designating the time that the user wants to send the video.

優先度801cは、キーワードで指定されたシーンの合計時間が指定された時間と異なるときに、時間を優先してシーン長さを短縮するか、シーンを優先してシーン長さをそのままにするかを選択する個所である。   The priority 801c indicates whether the scene length is shortened by giving priority to the time when the total time of the scene specified by the keyword is different from the specified time, or the scene length is given by giving priority to the scene. This is where you choose.

例えば、優先度801cの項目に「シーン>時間」と入力されると、時間を考慮せずシーンの長さを変えない検索結果が出力されることになる(シーン優先)。   For example, if “scene> time” is input to the item of priority 801c, a search result that does not change the length of the scene without considering the time is output (scene priority).

課金方法801dは、コンテンツ視聴の対価の支払い方法を指定する個所である。例えば、課金方法801dには、クレジットカード決済、携帯電話会社の通話料金としての支払い、プリペイド等様々な形態がありえるが、図8の例ではクーポン決済を選択している。クーポン決済とは、商品購入に伴って購入者に与えられたポイント(いわゆるポイントカード)や、広告映像の視聴時間に応じたクーポンの付与、ユーザーが取得した広告に含まれるクーポン等、動画配信提供者から直接または間接的にユーザーに贈呈されたクーポンの類による決済である。   The billing method 801d is a part for designating a method for paying the price for viewing the content. For example, the charging method 801d may have various forms such as credit card payment, payment as a call charge of a mobile phone company, and prepaid. In the example of FIG. 8, coupon payment is selected. Coupon payment provides video distribution such as points given to purchasers (so-called point cards) with product purchases, coupons according to the viewing time of advertisement video, coupons included in advertisements acquired by users, etc. The settlement is made by a kind of coupon presented to the user directly or indirectly by the person.

画質801eは、画像の圧縮率や1分間辺りのコマ数、色彩の階調数、画素数等、画質に関わる指定をする個所である。画質が良いほどストリーミングやダウンロードの帯域が必要となるため、ユーザーは通信手段や回線の状態により画質801eを選択する。あるいは、ストリーミングやダウンロードする情報量に応じて課金されるような場合は、ユーザーはその料金を参照して画質を指定することもできる。   The image quality 801e is a part for specifying the image quality such as the image compression rate, the number of frames per minute, the number of color gradations, and the number of pixels. Since the higher the image quality, the more necessary for streaming and download bandwidth, the user selects the image quality 801e according to the communication means and the state of the line. Alternatively, when the user is charged according to the amount of information to be streamed or downloaded, the user can specify the image quality with reference to the fee.

送出順序801fは、複数のシーンを連続して配信してもらう際に、シーンを時刻の古い順に配信するか、シーンに関連付けられた重要度の順に配信するかの選択を指定する個所である。図8の例では、送出順序801fには、時系列>重要度と記述してあるので、シーンに関連した重要度の順に配信することが選択されている。   The sending order 801f is a part for designating selection of whether the scenes are delivered in order of oldest time or in the order of importance associated with the scene when a plurality of scenes are delivered continuously. In the example of FIG. 8, since the transmission order 801f describes time series> importance, distribution is selected in the order of importance related to the scene.

ソース優先度801gは、ユーザーがリクエストした内容に合致するコンテンツが複数のソースから提供されている場合に、どのようなソースを選択するか指定する個所である。例えば、ソース優先度801gには、ソースの提供料金が異なる場合に、より安価な、または無料のソースを優先するという入力がされる。図8の例では、ソース優先度801gに無料ソース優先と記載されているので、無料のソースを優先するという指定になっている。   The source priority 801g is a part for designating what source is selected when content that matches the content requested by the user is provided from a plurality of sources. For example, the source priority 801g is input to give priority to a cheaper or free source when the source provision fee is different. In the example of FIG. 8, since the source priority 801g is described as free source priority, it is specified to give priority to the free source.

このように、ユーザーが実施の形態1のコンテンツデータ検索システム100に入力または送信する検索リクエスト800は、多くの情報を持つ。   Thus, the search request 800 input or transmitted by the user to the content data search system 100 of the first embodiment has a lot of information.

なお、検索リクエスト800が持つ項目801および値802は、図8に示した以外のものであっても良い。また、検索リクエスト800は、図8に示す項目801を全ては備えなくても良い。   Note that the items 801 and values 802 included in the search request 800 may be other than those shown in FIG. In addition, the search request 800 may not include all the items 801 illustrated in FIG.

次に、要約生成部105のシーン検索部106が、検索リクエスト800を入力し、入力した検索リクエスト800に基づいて行う映像データの検索処理について図9を用いて詳細に説明する。図9は、実施の形態1にかかるシーン検索部106のシーン検索アルゴリズムのフローチャートである。   Next, the scene search unit 106 of the summary generation unit 105 inputs a search request 800, and video data search processing performed based on the input search request 800 will be described in detail with reference to FIG. FIG. 9 is a flowchart of the scene search algorithm of the scene search unit 106 according to the first embodiment.

図9を用いてリクエスト入力からシーン送出まで順に説明する。   The processing from request input to scene transmission will be described in order with reference to FIG.

まず、通信処理部101のリクエスト入力部102が検索リクエスト800を入力する。次に、リクエスト入力部102は、要約生成部105に検索リクエスト800を送る。これに対して、要約生成部105は、シーン検索部106において、検索リクエスト800を受信し、入力する(ステップ101)。   First, the request input unit 102 of the communication processing unit 101 inputs a search request 800. Next, the request input unit 102 sends a search request 800 to the summary generation unit 105. On the other hand, the summary generation unit 105 receives and inputs the search request 800 in the scene search unit 106 (step 101).

次に、シーン検索部106は、検索リクエスト800の項目801に指定されたキーワードに該当するシーンをメタデータから検索する処理に移行する。   Next, the scene search unit 106 proceeds to a process of searching for a scene corresponding to the keyword specified in the item 801 of the search request 800 from the metadata.

メタデータ内にはその動画ファイル内のある時間区間(開始時間と終了時間)を定義したシーン(セグメント)の記述があり、それぞれのシーンにはキーワードが関連付けられている。   In the metadata, there is a description of a scene (segment) defining a certain time section (start time and end time) in the moving image file, and a keyword is associated with each scene.

シーン検索部106は、検索リクエスト800で指定されたキーワードが関連つけられているシーンを全て抽出する(ステップ102)。   The scene search unit 106 extracts all scenes associated with the keyword specified in the search request 800 (step 102).

ところが、単純に検索リクエスト800で指定されたキーワードのいずれかに関連するシーンを全て抽出したのでは、検索リクエスト800で指定された時間を超えてしまう場合がある。   However, if all scenes related to any of the keywords specified in the search request 800 are extracted, the time specified in the search request 800 may be exceeded.

そこで、シーン検索部106は、ステップ102で抽出したシーンの合計時間が、検索リクエスト800に記述された指定時間801bを超えるか判断する(ステップ103)。   Therefore, the scene search unit 106 determines whether the total time of the scene extracted in step 102 exceeds the designated time 801b described in the search request 800 (step 103).

ステップ102で抽出したシーンの合計時間が指定時間801bを超過していない場合は、シーン検索部106は、それ以上の検索を行わない。   If the total time of the scene extracted in step 102 does not exceed the specified time 801b, the scene search unit 106 does not perform any further search.

一方、ステップ102で抽出したシーンの合計時間が指定時間801bを超えた場合は、シーン検索部106は、検索したシーンの削除する処理に移行する。   On the other hand, if the total time of the scene extracted in step 102 exceeds the specified time 801b, the scene search unit 106 proceeds to a process for deleting the searched scene.

まず、シーン検索部106は、検索リクエスト800に複数のキーワードが指定されている場合は、指定キーワードがより少なく関連付けられているシーンを優先度の低いシーンとして検索する。   First, when a plurality of keywords are specified in the search request 800, the scene search unit 106 searches for a scene associated with fewer specified keywords as a low priority scene.

まず、シーン検索部106は、最も優先度の低いシーン、つまり指定されたキーワードの数が少なく関連つけられているシーンを抽出する。次に、シーン検索部106は、抽出した最も優先度の低いシーンを検索候補シーンから削除する(ステップ104)。   First, the scene search unit 106 extracts a scene having the lowest priority, that is, a scene associated with a small number of designated keywords. Next, the scene search unit 106 deletes the extracted lowest priority scene from the search candidate scene (step 104).

例えば、指定キーワード「大阪攻撃」と「ハイライト」という2つのキーワードが関連付けられているシーン(セグメント)は、どちらか1つのキーワードしか関連付けられていないシーン(セグメント)より優先度は高い。   For example, a scene (segment) associated with two keywords, the designated keywords “Osaka attack” and “highlight”, has a higher priority than a scene (segment) associated with only one of the keywords.

図3に示すようなシーン定義の重なりがなく各シーンが複数のキーワードの関連を持ちうるメタデータの場合は、上記のように優先度の高いシーンを選択することができるが、図4のように一つのシーンが一つのキーワードの関連しか持たない場合は、上記のように優先度の高いシーンを選択することができない。よって、シーン検索部106は、シーンの重なり時間を抽出するように検索する。   In the case of metadata in which scene definitions do not overlap as shown in FIG. 3 and each scene can have a plurality of keyword associations, a high priority scene can be selected as described above, but as shown in FIG. If one scene has only one keyword relationship, a scene with high priority cannot be selected as described above. Therefore, the scene search unit 106 performs a search so as to extract the scene overlap time.

例えば、「大阪攻撃」が関連付けられたシーンのファイル内での時間が0:1:15〜0:2:30、「ハイライト」が関連付けられたシーンのファイル内での時間が0:2:00〜0:3:30だった場合、それらの重なりの時間0:2:00〜0:2:30には「大阪攻撃」と「ハイライト」両方のキーワードが付与されていると見ることができる。よって、シーン検索部106は、時間0:2:00〜0:2:30のシーンを優先度の高いシーンとする。   For example, the time in the file of the scene associated with “Osaka attack” is 0: 1: 15-0: 2: 30, and the time in the file of the scene associated with “highlight” is 0: 2: If it was 00-0: 3: 30, it might be seen that the keywords “Osaka Attack” and “Highlight” were assigned at the overlap time of 0: 2: 0 to 0: 2: 30 it can. Therefore, the scene search unit 106 sets the scene of time 0: 2: 00 to 0: 2: 30 as a high priority scene.

次に、シーン検索部106は、ステップ104において優先度の低いシーンを削除した後のシーンの合計時間が、検索リクエスト800に記述された指定時間801bを超えるか判断する(ステップ105)。   Next, the scene search unit 106 determines whether the total time of the scene after deleting the low priority scene in step 104 exceeds the specified time 801b described in the search request 800 (step 105).

そして、ステップ105において、シーンの合計時間が指定時間801bを超えないと判断すると、シーン検索部106は、それ以上の検索を行わない。   If it is determined in step 105 that the total scene time does not exceed the specified time 801b, the scene search unit 106 does not perform any further search.

一方、ステップ105において、シーンの合計時間が指定時間801bを超えると判断すると、シーン検索部106は、ステップ104に戻り、次に優先順位の低いシーンを検索し、削除する。そして、シーン検索部106は、ステップ104、105の繰り返しによりシーンの合計時間が指定時間の近傍になるようにシーンを検索する。   On the other hand, if it is determined in step 105 that the total scene time exceeds the specified time 801b, the scene search unit 106 returns to step 104 to search for and delete the next lowest priority scene. Then, the scene search unit 106 searches for a scene by repeating steps 104 and 105 so that the total time of the scene is close to the specified time.

このようにして、キーワードに合致するシーンを検索するが、検索リクエストでキーワード毎に優先度が指定されている場合には所定のアルゴリズムに従って検索されるシーンの割合を調整する。   In this way, a scene matching the keyword is searched. When the priority is specified for each keyword in the search request, the ratio of the scene to be searched is adjusted according to a predetermined algorithm.

なお、実施の形態1では、シーン検索部106が、シーンの優先度をシーンに関連つけられた指定キーワードの数で決めたが、これ以外の方法でシーンの優先度を決めても良い。   In the first embodiment, the scene search unit 106 determines the priority of the scene by the number of designated keywords associated with the scene, but the priority of the scene may be determined by other methods.

例えば、シーン検索部106が、シーンの優先度をメタデータ内に記述されたシーンの重要度に基づいて決定しても良い。例えば、図2の204で記された部分にはシーンの重要度の値として0.7が記述されている。シーン検索部106は、この重要度の値を比較することでシーンに優先順位をつけることができる。このようにして、シーン検索部106は、シーンの優先度を決定しても良い。   For example, the scene search unit 106 may determine the priority of the scene based on the importance of the scene described in the metadata. For example, 0.7 is described as the importance value of the scene in the portion indicated by 204 in FIG. The scene search unit 106 can prioritize scenes by comparing the importance values. In this way, the scene search unit 106 may determine the priority of the scene.

また、シーン検索部106がシーンの優先度を決める方法について、二通りの例を出したが、特定の計算式を用いてこれらの2つの方法を併用してもよい。これにより、シーンの優先度がより適切な結果が得られる場合がある。   In addition, although two examples of how the scene search unit 106 determines the priority of the scene have been given, these two methods may be used in combination using a specific calculation formula. As a result, there may be a case where a result with a more appropriate priority of the scene is obtained.

ところで、上述した処理により、指定時間801bを超えないように検索リクエストに合致したシーンを抽出できるが、メタデータに記述されたシーンの長さによっては抽出したシーンの合計時間と指定時間の差が無視できないほどになる場合がある。   By the way, by the above-described processing, a scene that matches the search request can be extracted so as not to exceed the specified time 801b. However, depending on the length of the scene described in the metadata, the difference between the extracted scene total time and the specified time may be different. Sometimes it ca n’t be ignored.

そこで、この問題を解決するため、実施の形態1では、次に、データ管理部107が、時間最適化処理のアルゴリズムを行う。この処理は、図6に示した処理テーブル113を使用して抽出されたシーンの長さを伸縮する処理である。   Therefore, in order to solve this problem, in the first embodiment, the data management unit 107 next performs an algorithm for time optimization processing. This process is a process for expanding and contracting the length of the scene extracted using the process table 113 shown in FIG.

まず、データ管理部107は、ステップ105までの処理でシーン検索部106が抽出したシーンに関連付けられたキーワードを列挙する(ステップ106)。   First, the data management unit 107 lists the keywords associated with the scenes extracted by the scene search unit 106 in the process up to step 105 (step 106).

次に、データ管理部107は、列挙したキーワードと同じものが、処理テーブル113に記述されたコンテキスト処理指定のキーワードの中にあるか検索する(ステップ107)。   Next, the data management unit 107 searches for the same keyword as the enumerated keyword in the context processing designation keywords described in the processing table 113 (step 107).

ステップ105までの処理で抽出したシーンの合計時間が指定時間より短いので、次に、データ管理部107は、抽出したシーンの合計時間を指定時間に合わせるためにシーンを伸長する処理に移行する。   Since the total time of the scenes extracted in the processes up to step 105 is shorter than the specified time, the data management unit 107 next shifts to a process of decompressing the scene so that the total time of the extracted scenes matches the specified time.

まず、データ管理部107は、重要な内容を多く持つシーン、つまりより重要度の高いシーンを伸長することが一般には望ましい。よって、データ管理部107は、ステップ107で検索されたキーワードの付与されたシーンの中からより高い重要度が付与されているものを選択する(ステップ108)。   First, it is generally desirable for the data management unit 107 to expand a scene having a lot of important contents, that is, a scene with higher importance. Therefore, the data management unit 107 selects a scene assigned with a higher importance from the scenes assigned with the keyword retrieved in step 107 (step 108).

次に、データ管理部107は、処理テーブル113を参照して、コンテキストの指示を調べる。そして、データ管理部107は、処理テーブル113に記述されたコンテキストの指示に従いステップ108で選択したシーンを伸張する(ステップ109)。   Next, the data management unit 107 refers to the processing table 113 and checks the context instruction. Then, the data management unit 107 expands the scene selected in step 108 in accordance with the context instruction described in the processing table 113 (step 109).

例えば、キーワードが図6におけるフリーキックであれば、データ管理部107は、処理内容は後コンテキスト(曲線C)であるので図7(c)を参照する。次に、データ管理部107は、シーンの開始、終了時間を図7(c)の黒長方形の前後に割り当て、しきい値のラインを、斜線網掛けの長方形の長さが目標の時間になるように上下させる。   For example, if the keyword is a free kick in FIG. 6, the data management unit 107 refers to FIG. 7C because the processing content is the post-context (curve C). Next, the data management unit 107 assigns the start and end times of the scene before and after the black rectangle in FIG. 7C, and sets the threshold line and the length of the hatched rectangle as the target time. Move up and down.

次に、データ管理部107は、斜線網掛けの長方形に対応する開始時間と、終了時間を取得する。そして、データ管理部107は、取得した、開始時間と、終了時間に対応する映像データ109、111を取得する。つまり、データ管理部107は、現在処理中のシーンに対する前後のシーンを取得し、現在処理中のシーンに繋ぐ処理をする。   Next, the data management unit 107 acquires a start time and an end time corresponding to the hatched rectangle. Then, the data management unit 107 acquires the acquired video data 109 and 111 corresponding to the start time and end time. That is, the data management unit 107 acquires the scenes before and after the currently processed scene, and performs processing for connecting to the currently processed scene.

なお、目標の時間は、指定時間と合計時間のずれであるが、複数のシーン(セグメント)の時間を調整する場合は、所定の比率で調整時間を割り振ってもよい。   The target time is a difference between the specified time and the total time. However, when adjusting the time of a plurality of scenes (segments), the adjustment time may be allocated at a predetermined ratio.

次に、データ管理部107は、ステップ109においてシーンの伸張処理を行った後のシーンの合計時間が検索リクエスト800の指定時間801bを超えるか否かを判断する(ステップ110)。   Next, the data management unit 107 determines whether or not the total time of the scene after the scene expansion processing in step 109 exceeds the specified time 801b of the search request 800 (step 110).

そして、データ管理部107は、シーンの合計時間が検索リクエスト800の指定時間801bを超えるまで、ステップ109、ステップ110の処理を繰り返し行う。   Then, the data management unit 107 repeats the processing of step 109 and step 110 until the total scene time exceeds the specified time 801b of the search request 800.

なお、ステップ109、110のループにおいて、一度に伸長する長さaを大きくすると少ないループ数でループを抜けることができ処理時間が短縮できるというメリットがあるが、その場合、指定時間からの誤差が大きくなってしまう可能性がある。   In the loops of steps 109 and 110, if the length a that is extended at a time is increased, the loop can be exited with a small number of loops, and the processing time can be shortened. There is a possibility of becoming large.

そこで、実施の形態1では、シーンの長さの微調整を行うようにしている。   Therefore, in the first embodiment, fine adjustment of the scene length is performed.

具体的には、まず、データ管理部107が、ステップ110までの処理で処理したシーンの合計時間の指定時間に対する超過時間が許容範囲内か判断する(ステップ111)。   Specifically, first, the data management unit 107 determines whether or not the excess time with respect to the specified time of the total time of the scene processed in the processing up to step 110 is within an allowable range (step 111).

そして、ステップ111において、シーンの超過時間が許容範囲を超えていると判断すると、データ管理部107は、ステップ109において使用した伸張する長さaより小さい長さbを用いてシーン長さを短縮する(ステップ112)。そして、データ管理部107は、シーンの超過時間が許容範囲内に入るまで、ステップ111、ステップ112の処理を繰り返す。   If it is determined in step 111 that the excess time of the scene exceeds the allowable range, the data management unit 107 shortens the scene length by using the length b that is smaller than the length a that is used in step 109. (Step 112). Then, the data management unit 107 repeats the processing of step 111 and step 112 until the scene excess time falls within the allowable range.

このようにして検索されたシーンを図10に示す。図10は、データ管理部107が、指定時間1分でハイライトシーンを検索する場合の処理を説明するための図である。   The scene searched in this way is shown in FIG. FIG. 10 is a diagram for explaining processing when the data management unit 107 searches for a highlight scene in a specified time of 1 minute.

図10では、4番目のシーン301dの重要度が1.0であるが40秒としかないため、データ管理部107は、重要度が0.8の3番目のシーン301cも選択する。   In FIG. 10, since the importance level of the fourth scene 301d is 1.0 but only 40 seconds, the data management unit 107 also selects the third scene 301c whose importance level is 0.8.

しかし、シーン301cとシーン301dの合計時間が60秒を超過するため、データ管理部107は、3番目のシーン301cの長さを処理テーブル113の指示に従って伸縮して合計時間が60秒の区間を検索結果としている。   However, since the total time of the scene 301c and the scene 301d exceeds 60 seconds, the data management unit 107 expands and contracts the length of the third scene 301c according to the instruction of the processing table 113, and sets a section where the total time is 60 seconds. It is a search result.

このようにして、データ管理部107は、処理テーブル113を用いて、検索リクエスト800に対応するシーンを検索し、検索したシーンの合計時間が指定時間に合うように調整する。また、このようにして、データ管理部107は、シーンに付与したキーワードの特性に応じた伸張方法でシーンを伸張することにより、シーンの特徴をより明確にできるようにシーンを伸張できる。   In this way, the data management unit 107 searches for a scene corresponding to the search request 800 using the processing table 113, and adjusts the total time of the searched scene to match the specified time. In this way, the data management unit 107 can expand the scene so that the features of the scene can be made clearer by expanding the scene by the expansion method according to the characteristics of the keyword assigned to the scene.

そして、データ管理部107は、検索したシーンを、検索リクエスト800に記載された送信順序801fの順で映像データ送出部103に送り、映像データ送出部103が送られてきたシーンを順次送出する(ステップ113)。   Then, the data management unit 107 sends the searched scenes to the video data sending unit 103 in the order of the transmission order 801f described in the search request 800, and the video data sending unit 103 sends the scenes sent sequentially ( Step 113).

以上説明したように、実施の形態1によれば、コンテンツデータを、メタデータと処理テーブル113で管理することにより、メタデータ内で使用されるキーワードの言葉の特徴を生かした検索や要約生成を実現することができる。   As described above, according to the first embodiment, content data is managed by the metadata and the processing table 113, so that searches and summaries can be made using the characteristics of the keywords used in the metadata. Can be realized.

また、実施の形態1によれば、処理テーブル113の内容を変更すればコンテンツデータ検索システム100を変更しなくても処理の内容を任意に変更できる。これにより、コンテンツデータ検索システム100自体に手を加えずに処理を変更する場合は利便性が高い。また、複数の処理テーブル113を用意して状況に応じて最適な処理テーブル113を選択するようにすれば、状況に応じて最適な検索が実現できる。   Further, according to the first embodiment, if the content of the processing table 113 is changed, the content of the processing can be arbitrarily changed without changing the content data search system 100. Thereby, convenience is high when processing is changed without changing the content data search system 100 itself. If a plurality of processing tables 113 are prepared and the optimum processing table 113 is selected according to the situation, the optimum search can be realized according to the situation.

なお、実施の形態1では処理テーブル113のコンテキスト処理のみの例を説明したが、他の処理指示も同様に処理テーブル113を参照すればよい。   In the first embodiment, an example of only context processing in the processing table 113 has been described, but other processing instructions may be referred to the processing table 113 in the same manner.

例えば「排他的」という処理内容の場合は、検索リクエストのキーワード指定に矛盾があるかどうかのチェックが可能である。   For example, in the case of the processing content “exclusive”, it is possible to check whether there is a contradiction in the keyword specification of the search request.

具体的に説明すると、図8のキーワード801aに大阪攻撃と東京攻撃が指定されたとする。大阪と東京はそれぞれサッカーのチーム名であり、それらは図6の601eなどによって「排他的(チーム)」と処理内容が指定されている。これはそれぞれのキーワードが排他的であり、同時に成立しないことを示している。したがって、サッカーがサッカーボール二つを使用するようにルール改正でもなされない限り、大阪攻撃と東京攻撃を両方満たすシーンは存在せず、検索リクエストに答えることはできない。このような場合に、検索リクエストの妥当性を、処理テーブルを参照してまずチェックすれば、無駄な検索を行わずにリクエストの矛盾を検索リクエスト作成者に指摘することができ、検索効率が上がる。   More specifically, it is assumed that an Osaka attack and a Tokyo attack are designated as the keyword 801a in FIG. Osaka and Tokyo are soccer team names, respectively, and the processing contents are designated as “exclusive (team)” by 601e in FIG. This indicates that each keyword is exclusive and does not hold at the same time. Therefore, unless the rules are revised so that soccer uses two soccer balls, there is no scene that satisfies both the Osaka attack and the Tokyo attack, and the search request cannot be answered. In such a case, if the validity of the search request is checked first with reference to the processing table, the request request creator can be pointed out to the search request creator without performing a useless search, thereby improving the search efficiency. .

例えば「重要度」という処理内容の場合には、仮にそのキーワードに重要度の値が付与されていなかったとしても基準値となる0.5等の値が付与されているものとして処理を進めれば、シーンの評価の利便性が高まる。   For example, in the case of the processing content of “importance”, even if the importance value is not assigned to the keyword, the processing can be performed assuming that a value such as 0.5 as a reference value is assigned. In this case, the convenience of scene evaluation is increased.

また、検索対象が複数のファイルにまたがっているような場合には、そのファイルの優先度に応じてシーン(セグメント)の重要度にバイアスをかけたり下駄を履かせたりして数値をコントロールすることも可能であり、利便性が高い。   In addition, when the search target is spread over multiple files, control the numerical value by biasing the importance of the scene (segment) or putting on clogs according to the priority of the file. It is also possible and highly convenient.

また、複数のファイルそれぞれへのキーワードの付与の仕方や重要度の値の決め方が異なる場合、あるファイルでは同じようなシーンの重要度が0.7で別のファイルでは1.0であるような場合、値の整合性を取るために、ファイル全体に付与されている値を補正することもできる。   In addition, when the method of assigning keywords to each of a plurality of files and how to determine the importance value are different, the importance level of a similar scene is 0.7 in one file and 1.0 in another file. In this case, the value given to the entire file can be corrected in order to ensure consistency of values.

なお、図9に示すアルゴリズムではシーンの合計時間が指定時間に収まるまで繰り返し処理を実行していたが、指定時間に合致させるためには他の方法でもよい。例えば、指定時間との差や比率を算出して、一度で修正後の時間が指定時間と一致するように処理すれば処理のループは不要になる。   In the algorithm shown in FIG. 9, the process is repeated until the total time of the scene falls within the specified time. However, another method may be used to match the specified time. For example, if a difference or ratio with respect to the specified time is calculated, and processing is performed so that the corrected time coincides with the specified time at once, the processing loop becomes unnecessary.

また、図9に示すアルゴリズムでは合計時間が指定時間を超えた場合について説明したが、指定時間より短い場合は合計時間が指定時間を越えるように逆の処理を行えばよい。   In the algorithm shown in FIG. 9, the case where the total time exceeds the specified time has been described. However, if the total time is shorter than the specified time, the reverse process may be performed so that the total time exceeds the specified time.

指定時間と一致するようにシーンの時間を伸縮する場合、時間が全く同じになるように伸縮するのは、処理時間やシーン構成のバランス等の理由から適切でない場合がある。このような場合は、一定の時間の間に入れば可というふうに若干の誤差を残す形でもよい。   When the scene time is expanded or contracted so as to coincide with the designated time, it may not be appropriate to expand or contract the time so as to be exactly the same for reasons such as the processing time and the balance of the scene configuration. In such a case, a slight error may be left as long as it is possible to enter during a certain period of time.

また、コンテンツデータ、動画データ、映像データはネットワーク等の通信手段を使用したオンライン配信以外に、DVDディスクやフラッシュメモリー等の可搬性を持つメディアに保持して配布するオフライン配布により作り手から視聴者に渡される形態であってもよい。この場合、メディアにコンテンツデータを記録する際に、メタデータと処理テーブルをメディアに記録して同時に配布するようにする。これにより、以下のような効果がある。   In addition to online distribution using communication means such as a network, content data, video data, and video data can be distributed from creators to viewers through offline distribution that is held and distributed on portable media such as DVD disks and flash memory. The form passed to In this case, when content data is recorded on the medium, the metadata and the processing table are recorded on the medium and simultaneously distributed. This has the following effects.

第1に、コンテンツデータとメタデータだけと比較して、検索時に前述したような処理テーブル113に記述されたキーワード毎の詳細な指示を反映できる。これによりに、検索結果がよりユーザーの望む結果に近くなる。   First, in comparison with only content data and metadata, detailed instructions for each keyword described in the processing table 113 as described above can be reflected at the time of retrieval. This makes the search result closer to the result desired by the user.

第2に、処理テーブル113は1つのファイルを各メタデータで共通に使用できる。これにより、メタデータ毎に処理テーブル113を持つ必要がなく、メディアの容量を節約できる。   Second, the processing table 113 can use one file in common for each metadata. Thereby, it is not necessary to have the processing table 113 for each metadata, and the capacity of the medium can be saved.

なお、コンテンツデータ検索システム100が行う処理をプログラムとし、汎用のコンピュータにプログラムを実行させる形態であっても良い。   Note that the processing performed by the content data search system 100 may be a program and a general-purpose computer may execute the program.

また、実施の形態1では、キーワードに対する処理内容を処理テーブル113で所有する形態で説明したが、メタデータにキーワードに対する処理内容を直接書き込む形態であっても良い。   In the first embodiment, the processing content for the keyword is described as being owned by the processing table 113. However, the processing content for the keyword may be directly written in the metadata.

(実施の形態2)
本発明の実施の形態2では、コンテンツデータの内容を記述したメタデータを作成するオーサリングシステムについて説明する。
(Embodiment 2)
In the second embodiment of the present invention, an authoring system that creates metadata describing the content data will be described.

まず、実施の形態2にかかるオーサリングシステムの構成について、図11を用いて説明する。図11は、実施の形態2にかかるオーサリングシステムの構成図である。   First, the configuration of the authoring system according to the second embodiment will be described with reference to FIG. FIG. 11 is a configuration diagram of an authoring system according to the second embodiment.

実施の形態2にかかるオーサリングシステム1300は、入出力処理部(GUI)1301と、オーサリング処理部1305と、コンテンツデータ提供部1308と、がデータバス1304により接続された構成を採る。   An authoring system 1300 according to the second embodiment employs a configuration in which an input / output processing unit (GUI) 1301, an authoring processing unit 1305, and a content data providing unit 1308 are connected by a data bus 1304.

入出力処理部1301には、操作入力部1302と、ディスプレイ部1303が設けられている。   The input / output processing unit 1301 is provided with an operation input unit 1302 and a display unit 1303.

操作入力部1302は、ユーザーの操作を入力し、入力したユーザーの操作をディスプレイ部1303、オーサリング処理部1305、コンテンツデータ提供部1308に送る。操作入力部1302はキーボードやマウス、タッチパネルのような入力機器であり、この入出力処理はいわゆるGUIである。なお、操作入力はユーザーによるものだけでなく音声認識等の自動処理入力も含む。   The operation input unit 1302 inputs a user operation and sends the input user operation to the display unit 1303, the authoring processing unit 1305, and the content data providing unit 1308. The operation input unit 1302 is an input device such as a keyboard, a mouse, or a touch panel, and this input / output processing is a so-called GUI. The operation input includes not only a user input but also an automatic processing input such as voice recognition.

ディスプレイ部1303は、ユーザーの操作した状況を表示する。   The display unit 1303 displays the status operated by the user.

データバス1304は、データを受け渡すバスである。   The data bus 1304 is a bus for transferring data.

コンテンツデータ提供部1308は、複数の映像データ109、111を保管、管理する映像データ保管部114を備える。また、コンテンツデータ提供部1308は、オーサリング処理部1305が作成したメタデータ1310、1312も保管、管理するメタデータ保管部1313を備える。オーサリング処理部1305が作成するメタデータ1310、1312には実施の形態1で述べたような情報が記述される。   The content data providing unit 1308 includes a video data storage unit 114 that stores and manages a plurality of video data 109 and 111. The content data providing unit 1308 also includes a metadata storage unit 1313 that stores and manages the metadata 1310 and 1312 created by the authoring processing unit 1305. In the metadata 1310 and 1312 created by the authoring processing unit 1305, information as described in the first embodiment is described.

メタデータ1310、1312内にはどの映像データ109、111についてのメタデータであるかのリンクが記述されており、映像データ109、111とメタデータ1310、1312はそれぞれ関連付けられている。   In the metadata 1310 and 1312, a link as to which video data 109 and 111 is the metadata is described, and the video data 109 and 111 and the metadata 1310 and 1312 are associated with each other.

なお、映像データ109、111とメタデータ1310、1312は一対一である場合が多いが、必ずしもそうである必要はなく、複数の映像データに関する情報を1つのメタデータが保持してもよいし、1つの映像データに関するメタデータが複数存在してもよい。   Note that the video data 109 and 111 and the metadata 1310 and 1312 are often one-to-one, but this is not necessarily the case, and one metadata may hold information related to a plurality of video data, There may be a plurality of metadata related to one video data.

また、コンテンツデータ提供部1308は、処理テーブル133を保管、管理するテーブル保管部116を備える。処理テーブル133はメタデータ1310、1312内で使用されるキーワードと処理の対応テーブルである。   In addition, the content data providing unit 1308 includes a table storage unit 116 that stores and manages the processing table 133. The processing table 133 is a correspondence table between keywords used in the metadata 1310 and 1312 and processing.

コンテンツデータ提供部1308としてはハードディスク、光ディスク、磁気ディスク等の情報保持メディアが使用できる。   As the content data providing unit 1308, an information holding medium such as a hard disk, an optical disk, or a magnetic disk can be used.

映像データ109、111はMPEG等の符号化フォーマットを使用したデジタルファイルである。   The video data 109 and 111 are digital files using an encoding format such as MPEG.

オーサリング処理部1305には、動画アクセス部1306と、データ作成部1307が設けられている。   The authoring processing unit 1305 is provided with a moving image access unit 1306 and a data creation unit 1307.

動画アクセス部1306は、ユーザーからの操作入力に応じて映像データ109、111を読み出し、ディスプレイ部1303に表示する。ユーザーは、操作入力部1302において、映像データ109、111の所望の区間にキーワードを付与する操作を行い、それをデータ作成部1307が受け取り、メタデータ1310、1312を作成してコンテンツデータ提供部1308に保管する。   The moving image access unit 1306 reads out the video data 109 and 111 in accordance with an operation input from the user and displays it on the display unit 1303. The user performs an operation of assigning a keyword to a desired section of the video data 109 and 111 in the operation input unit 1302, which is received by the data creation unit 1307, creates metadata 1310 and 1312, and creates a content data provision unit 1308. Keep in.

なお、実施の形態2にかかるオーサリングシステム1300は図11に示したような複数の手段から構成されるが、これらは1つのパソコンで実現することもできるし、複数の装置の組み合わせでも実現できる。   The authoring system 1300 according to the second embodiment includes a plurality of means as shown in FIG. 11, but these can be realized by a single personal computer or a combination of a plurality of devices.

例えば、コンテンツデータ提供部1308をネットワーク接続されたストレージに保管し、処理をサーバーが行い、ユーザーへの入出力をパソコンで行うということが可能である。   For example, it is possible to store the content data providing unit 1308 in a network-connected storage, perform processing by the server, and perform input / output to / from the user with a personal computer.

また、オーサリングシステムのソフトウエアも装置組み込み、ネットワークを通じたWEBサービス、ディスクメディアでの保持等、様々な形態で使用することが可能である。   In addition, the authoring system software can be used in various forms such as a device built-in, a WEB service via a network, and retention on a disk medium.

次に、実施の形態2にかかるオーサリングシステム1300のGUIについて図12を用いて説明する。図12は、実施の形態2にかかるオーサリングシステム1300のGUIの一例を示す図である。   Next, the GUI of the authoring system 1300 according to the second embodiment will be described with reference to FIG. FIG. 12 is a diagram illustrating an example of the GUI of the authoring system 1300 according to the second embodiment.

GUIの操作画面1400はディスプレイ部1303に表示される。操作画面1400を使用してユーザーの意図を入力するにはマウスやキーボードなどの入力手段である操作入力部1302を使用する。   A GUI operation screen 1400 is displayed on the display unit 1303. In order to input the user's intention using the operation screen 1400, an operation input unit 1302 which is an input means such as a mouse or a keyboard is used.

操作画面1400の上部左方には、メニュー部1401が設けられている。メニュー1401部は、メニュー1401aおよびメニューボタン1401bから構成され、ファイルの選択や保存する際に使用される。   A menu unit 1401 is provided on the upper left side of the operation screen 1400. The menu 1401 portion includes a menu 1401a and a menu button 1401b, and is used when selecting and saving a file.

操作画面1400の中央やや上方には、動画映像表示部1402が設けられている。動画映像表示部1402には、ユーザーにより選択された動画ファイルの映像が表示される。   A moving image display unit 1402 is provided slightly above the center of the operation screen 1400. The moving image display unit 1402 displays the image of the moving image file selected by the user.

また、操作画面1400の動画映像表示部1402の右方には、ファイル情報ボタン1405が設けられている。ファイル情報選択ボタン1405は、動画映像表示部1402に表示する動画ファイルを選択する場合に使用される。   Further, a file information button 1405 is provided on the right side of the moving image display unit 1402 on the operation screen 1400. A file information selection button 1405 is used when a moving image file to be displayed on the moving image display unit 1402 is selected.

操作画面1400のほぼ中央には、時間軸1408が設けられている。時間軸1408は、マーカー1408aにより、現在動画映像表示部1402で表示されている動画ファイルのどの時間を再生しているかを示す。   A time axis 1408 is provided substantially at the center of the operation screen 1400. The time axis 1408 indicates which time of the moving image file currently displayed on the moving image display unit 1402 is reproduced by the marker 1408a.

また、ユーザーがマーカー1408aを移動させることにより映像をシークさせることができる。   Further, the user can seek the video by moving the marker 1408a.

操作画面1400の動画映像表示部1402の右方には、キーワード選択ボタン1406が設けられている。キーワード選択ボタン1406は、キーワードリストを表示させ、表示させたキーワードリストからオーサリングに使用するキーワードを選択するために使用される。   A keyword selection button 1406 is provided on the right side of the moving image display unit 1402 on the operation screen 1400. The keyword selection button 1406 is used for displaying a keyword list and selecting a keyword to be used for authoring from the displayed keyword list.

また、操作画面1400のキーワード選択ボタン1406の下方近傍には、複数のキーワードボタン1407が設けられている。キーワードボタン1407は、キーワード選択ボタン1406により選択されたキーワードに対応するボタンである。   Further, a plurality of keyword buttons 1407 are provided near the lower portion of the keyword selection button 1406 on the operation screen 1400. The keyword button 1407 is a button corresponding to the keyword selected by the keyword selection button 1406.

また、操作画面1400の下部左端部には、リスト1411が設けられている。リスト1411は、キーワードボタン1407に対応するキーワードを列挙したリストである。   A list 1411 is provided at the lower left end of the operation screen 1400. A list 1411 is a list in which keywords corresponding to the keyword button 1407 are listed.

また、操作画面1400の時間軸1408の下方近傍には、動画映像表示部1402で表示している動画ファイルの複数のシーン(セグメント)1412が時間系列順に配置されている。図3に示したようにシーンは連続しており重なりはない。   A plurality of scenes (segments) 1412 of the moving image file displayed on the moving image display unit 1402 are arranged in the order of time series in the vicinity below the time axis 1408 of the operation screen 1400. As shown in FIG. 3, the scenes are continuous and do not overlap.

また、シーン1412はボタンになっており、押下することによって映像をそのシーンの開始時間にシークする機能がある。   The scene 1412 is a button, and has a function of seeking a video at the start time of the scene when pressed.

また、操作画面1400の動画映像表示部1402の右方近傍には、シーン分割ボタン1403が設けられている。シーン分割ボタン1403は、シーンの区切りをつける場合に使用される。   In addition, a scene division button 1403 is provided in the vicinity of the right side of the moving image display unit 1402 on the operation screen 1400. A scene division button 1403 is used when a scene is divided.

また、操作画面1400の上部左端部には、複数の映像シークボタン1409が設けられている。映像シークボタン1409は、映像の再生や前後のシークを行う。また、映像シークボタン1409で動画ファイルの再生中にシーン分割ボタン1403を押下すると、その位置(時間)がシーンの区切りとなる。   A plurality of video seek buttons 1409 are provided at the upper left end of the operation screen 1400. A video seek button 1409 performs video playback and seek before and after. Further, when the scene division button 1403 is pressed while the moving image file is being played with the video seek button 1409, the position (time) becomes a break of the scene.

初めてオーサリングを行う際に動画ファイルを読み込むとまず、動画ファイル全体の開始時間から終了時間までが1つのシーンとして定義され、シーン分割ボタン1403によって複数のシーンに定義し直される。   When a moving image file is read when authoring for the first time, the start time to the end time of the entire moving image file are defined as one scene, and are redefined as a plurality of scenes by a scene division button 1403.

また、操作画面1400のシーン分割ボタン1403の右方近傍には、シーン結合ボタン1404が設けられている。シーン結合ボタン1404は、動画ファイルの現在の位置が含まれるシーンを前後どちらかのシーンと結合するために使用される。   Further, a scene combination button 1404 is provided near the right side of the scene division button 1403 on the operation screen 1400. The scene combination button 1404 is used to combine a scene including the current position of the moving image file with either the previous or next scene.

ユーザーは、シーン分割ボタン1403とシーン結合ボタン1404の操作によって自在にシーン(セグメント)を定義することが可能となる。   The user can freely define a scene (segment) by operating the scene division button 1403 and the scene combination button 1404.

映像シークボタン1409を用いて動画ファイルを再生またはシークして、その位置でキーワードボタン1407を押すとその時間を含むシーンにキーワードが付与され、操作画面1401の時間軸1408の下方であって、時間軸1408の対応する位置にタグボタン1413として表示される。また、タグボタン1413は、キーワードリスト1411と同じ列に配置されてどのキーワードが関連付けられているか対応がわかるようになっている。タグボタン1413の色の濃淡は重要度の強さを表しており、タグボタン1413をクリック等の操作することで重要度を変更することができる。   When a video file is played or seeked using the video seek button 1409 and the keyword button 1407 is pressed at that position, a keyword is assigned to the scene including the time, and the time is below the time axis 1408 of the operation screen 1401 and A tag button 1413 is displayed at a corresponding position on the axis 1408. The tag button 1413 is arranged in the same column as the keyword list 1411 so that it can be understood which keyword is associated. The shade of the color of the tag button 1413 represents the strength of the importance, and the importance can be changed by clicking the tag button 1413 or the like.

また、操作画面1400のキーワードリスト1411の上部近傍には、シーン表示ボタン1410が設けられている。シーン表示ボタン1410は、各シーンのサムネール画像の一覧を表示させる場合に押下される。   In addition, a scene display button 1410 is provided near the top of the keyword list 1411 of the operation screen 1400. A scene display button 1410 is pressed to display a list of thumbnail images of each scene.

以上説明したように、本GUIにより、動画ファイルを任意のシーンに分割し、分割したそれぞれのシーンに任意のキーワードを付与することが可能になる。   As described above, this GUI makes it possible to divide a moving image file into arbitrary scenes and to assign arbitrary keywords to the divided scenes.

また、シーンの定義やキーワードの関連付けは操作毎にメタデータとしてコンテンツデータ提供部1308に書き込んでもよいが、通常はオーサリング処理部1305のメモリに保持して、オーサリング作業の最後に一括してコンテンツデータ提供部1308に書き込む。   In addition, scene definitions and keyword associations may be written in the content data providing unit 1308 as metadata for each operation, but are usually held in the memory of the authoring processing unit 1305 and collectively the content data at the end of the authoring operation. Write to the providing unit 1308.

次に、実施の形態2にかかるオーサリングシステム1300のアルゴリズムについて、図13を用いて説明する。図13は、実施の形態2にかかるオーサリングシステム1300の動作フローチャートである。   Next, an algorithm of the authoring system 1300 according to the second embodiment will be described with reference to FIG. FIG. 13 is an operation flowchart of the authoring system 1300 according to the second embodiment.

入出力処理部1301の操作入力部1302から動画ファイルを選択する旨の入力があると、オーサリング処理部1305の動画アクセス部1306がコンテンツデータ提供部1308にアクセスし、操作入力部1302から選択された動画ファイル(映像ファイル)109、111を読み込む(ステップ1301)。   When there is an input to select a moving image file from the operation input unit 1302 of the input / output processing unit 1301, the moving image access unit 1306 of the authoring processing unit 1305 accesses the content data providing unit 1308 and is selected from the operation input unit 1302. Movie files (video files) 109 and 111 are read (step 1301).

次に、動画アクセス部1306は、読み込んだ動画ファイルを入出力部(GUI)1301のディスプレイ部1303に表示することで、ユーザーに提示する(ステップ1302)。   Next, the moving image access unit 1306 displays the read moving image file on the display unit 1303 of the input / output unit (GUI) 1301, thereby presenting it to the user (step 1302).

これに対して、ユーザーが映像シークボタン1409を操作することにより動画再生や動画のシークを行い、さらにキーワード選択ボタン1406を操作することにより、所望のシーンにキーワードを関連付けたり、タグボタン1413を操作することにより重要度をセットしたりする。   On the other hand, the user operates the video seek button 1409 to play a video or seek a video, and further operates the keyword selection button 1406 to associate a keyword with a desired scene or operate the tag button 1413. To set the importance.

これに対して、操作入力部1302が動画再生や動画のシークに関する情報、ユーザーが選択したキーワードや重要度などの情報をデータ作成部1307に送る(ステップ1303)。   In response to this, the operation input unit 1302 sends information related to moving image playback and moving image seeking, information such as a keyword selected by the user and importance, to the data creation unit 1307 (step 1303).

そして、データ作成部1307が、ユーザーが選択したシーンに、ユーザーが選択したキーワードを関連付けたり重要度をセットしたりする(ステップ1304)。   Then, the data creation unit 1307 associates the keyword selected by the user with the scene selected by the user and sets the importance (step 1304).

次に、データ作成部1307は、ユーザーにより選択されたキーワードが処理テーブル133に定義されているか検索する(ステップ1305)。   Next, the data creation unit 1307 searches whether the keyword selected by the user is defined in the processing table 133 (step 1305).

もし処理テーブル133に一致するキーワードがあれば、データ作成部1307は、処理テーブル133に指定されている処理内容を行う(ステップ1306)。   If there is a keyword that matches the processing table 133, the data creation unit 1307 performs the processing content specified in the processing table 133 (step 1306).

具体的には、例えば、処理テーブル133に「排他的(チーム)」という処理内容が定義されていれば、データ作成部1307は、そのキーワードが関連付けられていないところは自動的に対戦チームのキーワードを関連付ける。また、データ作成部1307は、対戦チームはファイル全体に付与されるファイル情報等の情報から取得する。こうすれば、ユーザーが、排他的なキーワード、つまり対戦チームに関するキーワード付与を行う必要がなくなるので、オーサリングの作業量が減るというメリットがある。   Specifically, for example, if the processing content “exclusive (team)” is defined in the processing table 133, the data creation unit 1307 automatically selects the keyword of the battle team where the keyword is not associated. Associate. Further, the data creation unit 1307 acquires the battle team from information such as file information given to the entire file. This eliminates the need for the user to assign an exclusive keyword, that is, a keyword related to the battle team, and has the advantage of reducing the amount of authoring work.

また、排他的なキーワードが同一の時間区間(シーン)に関連付けられることは矛盾するので、オーサリング操作において、そういう矛盾した操作を禁止することは利便性が高い。   In addition, since it is contradictory that exclusive keywords are associated with the same time interval (scene), it is convenient to prohibit such contradictory operations in the authoring operation.

また、例えば、処理テーブル133に「重要度」という処理内容が定義されていれば、データ作成部1307はユーザーからの重要度の入力がなくてもデフォルト値を自動的に関連付ける。このように自動的に重要度を付与することにより、ユーザーの作業量が減る。   Further, for example, if the processing content “importance” is defined in the processing table 133, the data creation unit 1307 automatically associates the default value without the input of the importance from the user. By automatically assigning importance in this way, the user's workload is reduced.

また、重要度のデフォルト値はあらかじめユーザーがセットしておく値である。例えば、重要度のレンジが0から1の場合は中間点である0.5をセットしておいてもいいし、他の値でも良い。   Further, the default value of importance is a value set in advance by the user. For example, when the importance range is from 0 to 1, 0.5, which is the midpoint, may be set, or another value may be used.

また、そのファイルの内容が全ての時間帯において重要であるような場合、オフセット値を加えて、他のファイルに比べて高めの値をデフォルト重要度値としてセットするのも効果的である。なぜなら、全体的につまらないコンテンツと非常に面白いコンテンツを同時に検索対象とするとき面白いコンテンツのほうが優先的に検索されるべきであり、重要度のオフセット値を高めにしておけばそれが実現できるからである。   If the contents of the file are important in all time zones, it is also effective to add an offset value and set a higher value as the default importance value than other files. This is because when content that is boring as a whole and very interesting content are searched simultaneously, interesting content should be searched preferentially, and this can be achieved by increasing the importance offset value. is there.

また、例えば、処理テーブル133に「コンテキスト」という処理が定義されていれば、データ作成部1307は、ユーザーからキーワードと重要度の入力があったときに前後のシーンに段階的に重要度の関連付けを行う。このように、自動的に現在処理中の前後のシーンに段階的に重要度を付与することにより、ユーザーが現在処理中の前後のシーンに対して段階的に重要度を付与する必要がなくなるので、非常に利便性が高い。   For example, if the process “133” is defined in the processing table 133, the data creation unit 1307 associates the importance level with the preceding and following scenes step by step when the keyword and the importance level are input from the user. I do. In this way, by automatically assigning importance to the previous and next scenes that are currently being processed, it is not necessary for the user to assign importance to the previous and subsequent scenes that are currently being processed. Very convenient.

この重要度のつけ方の一例について図14(a)、図14(b)を用いて説明する。   An example of how to assign this importance will be described with reference to FIGS. 14 (a) and 14 (b).

図14(a)は、ユーザー操作によって、シーンに対して入力されたキーワードと重要度を示す図である。   FIG. 14A is a diagram illustrating keywords and importance levels input to a scene by a user operation.

図14(a)の例では、開始時間0時30分00秒、終了時間0時32分30秒の区間にキーワード「ゴール」、重要度「0.8」が関連付けられている。   In the example of FIG. 14A, the keyword “goal” and the importance “0.8” are associated with a section having a start time of 0:30:30 and an end time of 0:32:30.

図14(a)に示す、シーン、キーワード、および重要度の状態は、図13に示すステップ1304における状態に当たる。   The scene, keyword, and importance state shown in FIG. 14A corresponds to the state in step 1304 shown in FIG.

次の、ステップ1305では、データ作成部1307は、処理テーブル133の検索を行う。   In the next step 1305, the data creation unit 1307 searches the processing table 133.

処理テーブル133には、キーワード「ゴール」に対する処理内容として「前後コンテキスト(前長め、後ろ短め)」が定義されている。   In the processing table 133, “front and back context (longer front, shorter rear)” is defined as the processing content for the keyword “goal”.

したがって、データ作成部1307は、前に2つのシーン、後ろに1つのシーンに対して、重要度を段階的に付加する。データ作成部1307が自動的に重要度を付加したシーンを図14(b)に示す。   Therefore, the data creation unit 1307 adds importance to the two scenes in the front and the one scene in the back in stages. FIG. 14B shows a scene to which importance is automatically added by the data creation unit 1307.

キーワード「ゴール」は前に重点を置く。このため、図14(b)からわかるように、データ作成部1307は後ろのシーンより前のシーンの重要度を高くしている。   The keyword “goal” is focused on before. For this reason, as can be seen from FIG. 14B, the data creation unit 1307 increases the importance of the scene before the subsequent scene.

なお、図14(b)の例では合計3つのシーンに対して重要度を自動付加したが、重要度を付加するシーンの数や重要度の値、それぞれの時間の長さはオーサリングシステムで適当に決めればよい。   In the example of FIG. 14B, importance is automatically added to a total of three scenes. However, the number of scenes to which importance is added, the value of importance, and the length of each time are appropriate for the authoring system. You can decide.

また、重要度を付加するシーンの数や重要度の値、時間の長さ等の詳細な設定の指示を処理テーブル133か処理テーブル133に記述した備考欄のリンク先に記述しても良い。これによれば、より細かくキーワードにあった処理を選択することができる。   Further, detailed setting instructions such as the number of scenes to which importance is added, the value of importance, and the length of time may be described in the processing table 133 or the link destination in the remarks column described in the processing table 133. According to this, it is possible to select a process according to the keyword more finely.

このようにして、データ作成部1307は、メタデータのシーン情報を更新する(ステップ1307)。   In this way, the data creation unit 1307 updates the scene information of the metadata (step 1307).

そして、データ作成部1307は、ユーザーによるキーワード関連付けのオーサリング操作が完了するまで、ステップ1303〜ステップ1307のループを繰り返す(ステップ1308)。   Then, the data creation unit 1307 repeats the loop of Steps 1303 to 1307 until the keyword association authoring operation by the user is completed (Step 1308).

そして、ユーザーによるキーワード関連つけのオーサリング操作が終了し、ユーザーにより、生成したメタデータを保存する旨の入力があると(ステップ1309)、データ作成部1307は、コンテンツデータ提供部1308にファイルとしてメタデータ1310、1312を保存する(ステップ1310)。   Then, when the authoring operation for keyword association by the user ends and the user inputs to save the generated metadata (step 1309), the data creation unit 1307 stores the meta data as a file in the content data providing unit 1308. Data 1310 and 1312 are stored (step 1310).

一方、ユーザーにより、生成したメタデータを保存する旨の入力がないと、データ作成部1307は、コンテンツデータ提供部1308にメタデータを作成しない。   On the other hand, if the user does not input to save the generated metadata, the data creation unit 1307 does not create metadata in the content data providing unit 1308.

例えば、ユーザーが、既に存在しているメタデータを読み出して編集したような場合には、ステップ1309において保存を選択しなければ、コンテンツデータ提供部1308のメタデータは更新されない。   For example, if the user reads and edits the existing metadata, the metadata of the content data providing unit 1308 is not updated unless saving is selected in step 1309.

以上説明したように、実施の形態2のオーサリングシステムによれば、処理テーブル133を使用したオーサリング処理を行うことができる。これにより、ユーザーのキーワード付与操作をサポートすることができ、作業効率が著しく向上することができる。   As described above, according to the authoring system of the second embodiment, authoring processing using the processing table 133 can be performed. Thereby, it is possible to support the user's keyword assignment operation, and work efficiency can be significantly improved.

また、実施の形態2によれば、処理テーブル133の内容を変更すればオーサリングシステムを全く変更しなくても処理内容を任意のものに変更できるため、オーサリングシステム自体に手を加えずに処理を変更する場合は利便性が高い。   Further, according to the second embodiment, if the content of the processing table 133 is changed, the processing content can be changed to an arbitrary one without changing the authoring system at all. Therefore, the processing can be performed without changing the authoring system itself. Convenient to change.

なお、複数の処理テーブルを用意して状況に応じて最適な処理テーブルを選択するようにすれば、状況に応じて最適な自動オーサリングが実現できる。   If a plurality of processing tables are prepared and the optimum processing table is selected according to the situation, the optimum automatic authoring can be realized according to the situation.

(実施の形態3)
実施の形態3は、実施の形態2を改良したものであり、メタデータが伝える情報量は維持したままメタデータが大きくならないようにしたものである。
(Embodiment 3)
The third embodiment is an improvement of the second embodiment, in which the amount of information conveyed by the metadata is maintained and the metadata is not increased.

具体的には、実施の形態2においては、処理テーブルに定義された処理内容に従ってメタデータへ情報追加をしたが、実施の形態3では、処理テーブルに定義された処理のIDをメタデータのキーワードに関連付けするようにした。   Specifically, in the second embodiment, information is added to the metadata according to the processing content defined in the processing table. However, in the third embodiment, the ID of the processing defined in the processing table is used as a keyword of the metadata. Associate with.

以下、実施の形態3にかかるオーサリングシステムのアルゴリズムについて、図15を用いて説明する。図15は、実施の形態3にかかるオーサリングシステム1300の動作フローチャートである。なお、実施の形態3にかかるオーサリングシステムの構成は実施の形態2と同一であるので説明を省略する。   Hereinafter, the algorithm of the authoring system according to the third embodiment will be described with reference to FIG. FIG. 15 is an operation flowchart of the authoring system 1300 according to the third embodiment. Note that the configuration of the authoring system according to the third embodiment is the same as that of the second embodiment, and a description thereof will be omitted.

入出力処理部1301の操作入力部1302から動画ファイルを選択する旨の入力があると、オーサリング処理部1305の動画アクセス部1306がコンテンツデータ提供部1308にアクセスし、操作入力部1302から選択された動画ファイル(映像ファイル)109、111を読み込む(ステップ1501)。   When there is an input to select a moving image file from the operation input unit 1302 of the input / output processing unit 1301, the moving image access unit 1306 of the authoring processing unit 1305 accesses the content data providing unit 1308 and is selected from the operation input unit 1302. Movie files (video files) 109 and 111 are read (step 1501).

次に、動画アクセス部1306は、読み込んだ動画ファイルを入出力部(GUI)1301のディスプレイ部1303に表示することで、ユーザーに提示する(ステップ1502)。   Next, the moving image access unit 1306 displays the read moving image file on the display unit 1303 of the input / output unit (GUI) 1301, thereby presenting it to the user (step 1502).

これに対して、ユーザーが映像シークボタン1409を操作することにより動画再生や動画のシークを行い、さらにキーワード選択ボタン1406を操作することにより、所望のシーンにキーワードを関連付けたり、タグボタン1413を操作することにより重要度をセットしたりする。   On the other hand, the user operates the video seek button 1409 to play a video or seek a video, and further operates the keyword selection button 1406 to associate a keyword with a desired scene or operate the tag button 1413. To set the importance.

これに対して、操作入力部1302が動画再生や動画のシークに関する情報、ユーザーが選択したキーワードや重要度などの情報をデータ作成部1307に送る(ステップ1503)。   In response to this, the operation input unit 1302 sends information related to the reproduction of the moving image and the seeking of the moving image, information such as the keyword selected by the user and importance, to the data creation unit 1307 (step 1503).

そして、データ作成部1307が、ユーザーが選択したシーンに、ユーザーが選択したキーワードを関連付けたり重要度をセットしたりする(ステップ1504)。   Then, the data creation unit 1307 associates the keyword selected by the user with the scene selected by the user and sets the importance (step 1504).

次に、データ作成部1307は、ユーザーにより選択されたキーワードが処理テーブル133に定義されているか検索する(ステップ1505)。   Next, the data creation unit 1307 searches whether the keyword selected by the user is defined in the processing table 133 (step 1505).

もし、処理テーブル133に一致するキーワードがあれば、データ作成部1307は、処理テーブル133に指定されている処理IDをメタデータに記述する処理を行う(ステップ1506)。   If there is a matching keyword in the processing table 133, the data creation unit 1307 performs processing for describing the processing ID specified in the processing table 133 in the metadata (step 1506).

具体的には、例えばキーワード「ゴール」であれば、データ作成部1307は、図6の処理テーブル113の「ゴール」に対応する処理ID3をメタデータに記述する。処理ID605とは、処理を特定するために割り振られた番号で、処理ID605と処理内容602の対応テーブルを利用することによりキーワードに関連付けられた処理内容602を特定することができる。   Specifically, for example, for the keyword “goal”, the data creation unit 1307 describes the process ID 3 corresponding to “goal” in the process table 113 of FIG. 6 in the metadata. The process ID 605 is a number assigned to specify the process, and the process content 602 associated with the keyword can be specified by using the correspondence table of the process ID 605 and the process content 602.

メタデータに処理ID602を記述した例を図16に示す。図16中の1801で示される部分には、XMLの属性値の一つとして処理ID602が記述されている。   An example in which the process ID 602 is described in the metadata is shown in FIG. In the part indicated by 1801 in FIG. 16, a process ID 602 is described as one of the attribute values of XML.

なお、メタデータに処理ID602を記述する仕方はこの方法以外にも、XMLのNODEとして併記する方法や、キーワードの値の一部として「ゴール:処理ID:3」のように記述してしまう方法等ある。   In addition to this method, the method of describing the process ID 602 in the metadata is a method of describing it as XML NODE or a method of describing “goal: process ID: 3” as a part of the keyword value. Etc.

また、処理ID602の代わりに図6のキーワードID604をメタ−データに記述しても同様の効果が得られる。   The same effect can be obtained by describing the keyword ID 604 of FIG. 6 in the metadata instead of the process ID 602.

このようにして、データ作成部1307は、メタデータのシーン情報を更新する(ステップ1507)。   In this way, the data creation unit 1307 updates the scene information of the metadata (step 1507).

そして、データ作成部1307は、ユーザーによるキーワード関連付けのオーサリング操作が完了するまで、ステップ1503〜ステップ1507のループを繰り返す(ステップ1508)。   Then, the data creation unit 1307 repeats the loop from step 1503 to step 1507 until the keyword association authoring operation by the user is completed (step 1508).

そして、ユーザーによるキーワード関連つけのオーサリング操作が終了し、ユーザーにより、生成したメタデータを保存する旨の入力があると(ステップ1509)、データ作成部1307は、コンテンツデータ提供部1308にファイルとしてメタデータ1310、1312を保存する(ステップ1510)。   Then, when the authoring operation for keyword association by the user ends and the user inputs to save the generated metadata (step 1509), the data creation unit 1307 stores the meta data as a file in the content data providing unit 1308. Data 1310 and 1312 are stored (step 1510).

以上説明したように、実施の形態3によれば、メタデータに処理内容そのものを記述するのではなく、処理内容に対応したIDを記述することができる。このような方法で記述されたメタデータは実施の形態2で作成されたメタデータよりもファイルの大きさを小さくすることができる。   As described above, according to the third embodiment, it is possible to describe the ID corresponding to the processing content instead of describing the processing content itself in the metadata. The metadata described by such a method can be smaller in file size than the metadata created in the second embodiment.

また、実施の形態3により生成したメタデータを使用する検索システムは、メタデータと処理テーブル(または処理IDと処理の対応テーブル)を併用して、メタデータを使用する際に実施の形態2で説明したようなデータの自動付与を行い、実施の形態3のメタデータを実施の形態2で作成したメタデータに復元すればよい。これにより、実施の形態2で説明したのと同様の効果が得られる。   In addition, the search system that uses the metadata generated in the third embodiment uses the metadata and the processing table (or the processing ID and the processing correspondence table) together, and uses the metadata in the second embodiment. What is necessary is just to perform the automatic assignment | providing of data as demonstrated and to restore | restore the metadata of Embodiment 3 to the metadata produced in Embodiment 2. FIG. Thereby, the same effect as described in the second embodiment can be obtained.

実施の形態2と実施の形態3は、メタデータの処理テーブルで指示された拡張解釈をオーサリング時に行うか、メタデータの使用時に行うかという違いであり、効果には差はなく、処理負荷をどちらに持たせたほうが有利か、メタデータの大きさを小さくする必要があるかのどの観点で選択するべきものである。   The difference between the second embodiment and the third embodiment is whether the extended interpretation specified in the metadata processing table is performed at the time of authoring or when the metadata is used. There is no difference in effect, and the processing load is reduced. It should be selected from the viewpoint of which one is more advantageous and whether the size of the metadata needs to be reduced.

以上説明したように、本発明によれば、コンテンツデータに対して処理テーブルを用いることにより、コンテンツデータの処理方法を細かく設定できる。この結果、コンテンツデータから特定のキーワードが関連付けられたシーンを検索して抽出するような場合に、検索結果の合計時間を所望の時間に微調整する等できる。   As described above, according to the present invention, the processing method of content data can be set in detail by using the processing table for the content data. As a result, when a scene associated with a specific keyword is searched and extracted from the content data, the total time of the search result can be finely adjusted to a desired time.

本発明の実施の形態1にかかるコンテンツデータ検索システムの構成図1 is a configuration diagram of a content data search system according to a first embodiment of the present invention. 実施の形態1にかかるメタデータの具体例を示す図The figure which shows the specific example of the metadata concerning Embodiment 1. 実施の形態1にかかるメタデータにおけるキーワードの付与状態を模式的に示す図The figure which shows typically the provision state of the keyword in the metadata concerning Embodiment 1. FIG. 実施の形態1にかかるメタデータにおけるキーワードの別の付与状態を模式的に示す図The figure which shows typically the another provision state of the keyword in the metadata concerning Embodiment 1. FIG. 実施の形態1にかかるメタデータにおけるキーワードの別の付与状態を模式的に示す図The figure which shows typically the another provision state of the keyword in the metadata concerning Embodiment 1. FIG. 実施の形態1にかかる処理テーブルの構成図Configuration diagram of processing table according to the first embodiment (a)実施の形態1にかかる処理方法の例を示す第1の図、(b)実施の形態1にかかる処理方法の例を示す第2の図、(c)実施の形態1にかかる処理方法の例を示す第3の図、(A) 1st figure which shows the example of the processing method concerning Embodiment 1, (b) 2nd figure which shows the example of the processing method concerning Embodiment 1, (c) The process concerning Embodiment 1 Third diagram showing an example of the method, 実施の形態1にかかる検索リクエストを示す図The figure which shows the search request concerning Embodiment 1. 実施の形態1にかかるシーン検索部のシーン検索アルゴリズムのフローチャートFlowchart of a scene search algorithm of the scene search unit according to the first embodiment 実施の形態1にかかるデータ処理部が、指定時間1分でハイライトシーンを検索する場合の処理を説明するための図The figure for demonstrating the process in case the data processing part concerning Embodiment 1 searches a highlight scene in designated time 1 minute. 本発明の実施の形態2にかかるオーサリングシステムの構成図Configuration diagram of authoring system according to Embodiment 2 of the present invention 実施の形態2にかかるオーサリングシステムのGUIの一例を示す図FIG. 6 is a diagram illustrating an example of a GUI of an authoring system according to the second embodiment. 実施の形態2にかかるオーサリングシステムの動作フローチャートOperation Flow of Authoring System According to Second Embodiment (a)ユーザー操作によって、シーンに対して入力されたキーワードと重要度を示す図、(b)実施の形態2にかかるデータ作成部が自動的に重要度を付加したシーンを示す図(A) The figure which shows the keyword and importance which were input with respect to the scene by user operation, (b) The figure which shows the scene which the data preparation part concerning Embodiment 2 added importance automatically 本発明の実施の形態3にかかるオーサリングシステムの動作フローチャートFlow chart of operation of authoring system according to third embodiment of the present invention 実施の形態3にかかるメタデータを示す図The figure which shows the metadata concerning Embodiment 3.

符号の説明Explanation of symbols

100 コンテンツデータ検索システム
101 通信処理部
102 リクエスト入力部
103 映像データ送出部
105 要約生成部
106 シーン検索部
107 データ管理部
108、1308 コンテンツデータ提供部
114 映像データ保管部
115、1313 メタデータ保管部
116 テーブル保管部
1300 オーサリングシステム
1301 入出力処理部
1302 操作入力部
1303 ディスプレイ部
1305 オーサリング処理部
1306 動画アクセス部
1307 データ作成部
DESCRIPTION OF SYMBOLS 100 Content data search system 101 Communication processing part 102 Request input part 103 Video | video data transmission part 105 Summary production | generation part 106 Scene search part 107 Data management part 108, 1308 Content data provision part 114 Video | video data storage part 115, 1313 Metadata storage part 116 Table storage unit 1300 Authoring system 1301 Input / output processing unit 1302 Operation input unit 1303 Display unit 1305 Authoring processing unit 1306 Video access unit 1307 Data creation unit

Claims (18)

コンテンツデータの内容を記述したメタデータを参照するメタデータ参照手段と、前記メタデータで使用するキーワードに対応する処理内容を記述した処理テーブルを参照するテーブル参照手段と、具備したことを特徴とするコンテンツ管理装置。   A metadata reference means for referring to metadata describing contents of content data, and a table reference means for referring to a processing table describing processing contents corresponding to a keyword used in the metadata are provided. Content management device. 請求項1記載のコンテンツ管理装置に対して、前記処理テーブルを提供する処理テーブル提供装置。   The processing table provision apparatus which provides the said processing table with respect to the content management apparatus of Claim 1. 複数のシーンからなるコンテンツデータを参照するコンテンツデータ参照手段と、前記シーンの内容をキーワードで記述したメタデータを参照するメタデータ参照手段と、前記メタデータで使用するキーワードに対応する処理内容を記述した処理テーブルを参照するテーブル参照手段と、検索用のキーワードを入力し前記検索用のキーワードが付与された前記シーンを前記コンテンツデータ参照手段から検索するシーン検索手段と、検索した前記シーンに付与された前記キーワードに対応する前記処理内容を前記処理テーブルから抽出し、抽出した前記処理内容に対応した処理を前記検索したシーンに対して行うデータ処理手段と、を具備したことを特徴とするコンテンツデータ検索装置。   Content data reference means for referring to content data composed of a plurality of scenes, metadata reference means for referring to metadata in which the contents of the scene are described by keywords, and processing contents corresponding to the keywords used in the metadata are described A table reference means for referring to the processed table, a scene search means for inputting a search keyword and searching for the scene to which the search keyword is assigned from the content data reference means, and provided to the searched scene. Data processing means for extracting the processing content corresponding to the keyword from the processing table and performing a processing corresponding to the extracted processing content on the searched scene. Search device. 前記処理内容は前記シーンを伸張する処理であり、前記データ処理手段は前記検索したシーンの合計時間が所望の指定時間に満たない場合に、前記合計時間が前記指定時間になるように前記検索したシーンを伸張することを特徴とする請求項3記載のコンテンツデータ検索装置。   The processing content is a process of expanding the scene, and the data processing means performs the search so that the total time becomes the specified time when the total time of the searched scene is less than a desired specified time. 4. The content data search apparatus according to claim 3, wherein the scene is expanded. 前記シーンを伸張する処理は、前記シーンに付与されたキーワードの特性に応じて、前記検索したシーンに前記検索したシーンの前のシーンもしくは後ろのシーンの一部を付加する処理であることを特徴とする請求項4記載のコンテンツデータ検索装置。   The process of expanding the scene is a process of adding a part of the scene before or after the searched scene to the searched scene according to the characteristics of the keyword assigned to the scene. The content data search device according to claim 4. 前記シーンには重要度が付与されていて、前記データ処理手段は前記検索したシーンの中で最も前記重要度の高いシーンを伸張することを特徴とする請求項4または請求項5記載のコンテンツデータ検索装置。   6. The content data according to claim 4, wherein importance is given to the scene, and the data processing means expands the scene having the highest importance among the searched scenes. Search device. 複数のシーンからなるコンテンツデータを参照するコンテンツデータ参照手段と、所定のキーワードに対応する処理内容を記述した処理テーブルを参照するテーブル参照手段と、前記シーンに対して付与するキーワードを入力し、入力した前記キーワードに対応する前記処理内容を前記処理テーブルから抽出し、抽出した前記処理内容に対応した記述を前記シーンに対して行うことにより、前記コンテンツデータの内容を示すメタデータを生成するデータ作成手段と、を具備したことを特徴とするオーサリング処理装置。   Content data reference means for referring to content data composed of a plurality of scenes, table reference means for referring to a processing table describing processing details corresponding to a predetermined keyword, and a keyword assigned to the scene are input and input The processing contents corresponding to the keyword is extracted from the processing table, and a description corresponding to the extracted processing contents is written to the scene, thereby generating data indicating the metadata of the contents data. And an authoring processing apparatus. 前記処理内容は排他的処理であり、前記データ作成手段は前記入力したキーワードを付与する前記シーン以外のシーンに対して、前記入力したキーワードと排他的な意味のキーワードを付与することを特徴とする請求項7記載のオーサリング処理装置。   The processing content is exclusive processing, and the data creation means assigns a keyword having a meaning exclusive to the input keyword to a scene other than the scene to which the input keyword is assigned. The authoring processing apparatus according to claim 7. 前記処理内容は重要度付与処理であり、前記データ作成手段は前記入力したキーワードを付与する前記シーンに対して、所定の重要度を付与することを特徴とする請求項7記載のオーサリング処理装置。   8. The authoring processing apparatus according to claim 7, wherein the processing content is an importance level assigning process, and the data creating unit assigns a predetermined importance level to the scene to which the input keyword is assigned. 前記処理内容は段階的に重要度を付与する処理であり、前記データ作成手段は前記入力したキーワードを付与する前記シーンの前後のシーンに対して、前記キーワードを付与するシーンの重要度を頂点に段階的に重要度を付与することを特徴とする請求項7記載のオーサリング処理装置。   The process content is a process of assigning importance levels in stages, and the data creation means sets the importance level of the scene to which the keyword is assigned to the scene before and after the scene to which the input keyword is assigned. 8. The authoring processing apparatus according to claim 7, wherein importance is given step by step. 前記処理内容は前に重点を置いて重要度を付与する処理であり、前記データ作成手段は前記入力したキーワードを付与する前記シーンの前のシーンに対して、前記キーワードを付与するシーンの後ろのシーンより高い重要度を付与することを特徴とする請求項10記載のオーサリング処理装置。   The processing content is processing for giving importance with emphasis on the front, and the data creation means is behind the scene to which the keyword is assigned to the scene before the scene to which the input keyword is assigned. The authoring processing apparatus according to claim 10, wherein an importance level higher than that of a scene is given. 前記処理内容は後ろに重点を置いて重要度を付与する処理であり、前記データ作成手段は前記入力したキーワードを付与する前記シーンの後ろのシーンに対して、前記キーワードを付与するシーンの前のシーンより高い重要度を付与することを特徴とする請求項10記載のオーサリング処理装置。   The processing content is a process of giving importance with emphasis on the back, and the data creation means is arranged before the scene to which the keyword is assigned to the scene behind the scene to which the input keyword is assigned. The authoring processing apparatus according to claim 10, wherein an importance level higher than that of a scene is given. 複数のシーンからなるコンテンツデータを参照するコンテンツデータ参照手段と、所定のキーワードに対応する処理内容と前記処理内容に対する識別情報を記述した処理テーブルを参照するテーブル参照手段と、前記シーンに対して付与するキーワードを入力し、入力した前記キーワードに対応する前記識別情報を前記処理テーブルから抽出し、抽出した前記識別情報を前記シーンに記述することにより、前記コンテンツデータの内容を示すメタデータを生成するデータ作成手段と、を具備したことを特徴とするオーサリング処理装置。   Content data reference means for referring to content data composed of a plurality of scenes, table reference means for referring to a processing table describing processing details corresponding to a predetermined keyword and identification information for the processing details, and giving to the scene The identification information corresponding to the input keyword is extracted from the processing table, and the extracted identification information is described in the scene to generate metadata indicating the content data. An authoring processing apparatus comprising: a data creating unit; コンテンツデータの内容を記述したメタデータと、メタデータで使用するキーワードに対応する処理方法を記述した処理テーブルと、を用いて前記コンテンツデータの管理することを特徴とするコンテンツ管理方法。   A content management method characterized in that the content data is managed using metadata describing the content of the content data and a processing table describing a processing method corresponding to a keyword used in the metadata. 複数のシーンからなるコンテンツデータを参照するステップと、前記シーンの内容をキーワードで記述したメタデータを参照するステップと、前記メタデータで使用するキーワードに対応する処理内容を記述した処理テーブルを参照するステップと、検索用のキーワードを入力し前記検索用のキーワードが付与された前記シーンを前記コンテンツデータから検索するステップと、検索した前記シーンに付与された前記キーワードに対応する前記処理内容を前記処理テーブルから抽出するステップと、抽出した前記処理内容に対応した処理を前記検出したシーンに対して行うステップと、を具備したことを特徴とするコンテンツデータ検索方法。   A step of referring to content data comprising a plurality of scenes, a step of referring to metadata describing the contents of the scene with keywords, and a processing table describing processing details corresponding to the keywords used in the metadata A step of inputting a search keyword and searching for the scene to which the search keyword is assigned from the content data, and the processing content corresponding to the keyword assigned to the searched scene. A content data search method comprising: extracting from a table; and performing a process corresponding to the extracted processing content on the detected scene. 複数のシーンからなるコンテンツデータを参照するステップと、所定のキーワードに対応する処理内容を記述した処理テーブルを参照するステップと、前記シーンに対して付与するキーワードを入力するステップと、入力した前記キーワードに対応する前記処理内容を前記処理テーブルから抽出するステップと、抽出した前記処理内容に対応した記述を前記シーンに対して行うことにより、前記コンテンツデータの内容を示すメタデータを生成するステップと、を具備したことを特徴とするオーサリング処理方法。   A step of referring to content data comprising a plurality of scenes; a step of referring to a processing table describing processing details corresponding to a predetermined keyword; a step of inputting a keyword to be given to the scene; and the input keyword Extracting the processing content corresponding to the processing table from the processing table, generating the metadata corresponding to the content data by performing a description corresponding to the extracted processing content on the scene, An authoring processing method characterized by comprising: コンピュータに、複数のシーンからなるコンテンツデータを参照するステップと、前記シーンの内容をキーワードで記述したメタデータを参照するステップと、前記メタデータで使用するキーワードに対応する処理内容を記述した処理テーブルを参照するステップと、検索用のキーワードを入力し前記検索用のキーワードが付与された前記シーンを前記コンテンツデータから検索するステップと、検索した前記シーンに付与された前記キーワードに対応する前記処理内容を前記処理テーブルから抽出するステップと、抽出した前記処理内容に対応した処理を前記検出したシーンに対して行うステップと、を行わせることを特徴とするプログラム。   A step of referring to content data comprising a plurality of scenes on a computer, a step of referring to metadata describing the contents of the scene with keywords, and a processing table describing processing details corresponding to the keywords used in the metadata , A step of inputting a search keyword and searching the scene to which the search keyword is assigned from the content data, and the processing content corresponding to the keyword assigned to the searched scene And a step of performing, on the detected scene, a process corresponding to the extracted processing content. コンピュータに、複数のシーンからなるコンテンツデータを参照するステップと、所定のキーワードに対応する処理内容を記述した処理テーブルを参照するステップと、前記シーンに対して付与するキーワードを入力するステップと、入力した前記キーワードに対応する前記処理内容を前記処理テーブルから抽出するステップと、抽出した前記処理内容に対応した記述を前記シーンに対して行うことにより、前記コンテンツデータの内容を示すメタデータを生成するステップと、を行わせることを特徴とするプログラム。   A step of referring to content data comprising a plurality of scenes, a step of referring to a processing table describing processing details corresponding to a predetermined keyword, a step of inputting a keyword to be assigned to the scene, and an input; The process contents corresponding to the keyword are extracted from the process table, and a description corresponding to the extracted process contents is performed on the scene to generate metadata indicating the contents data contents. And a step.
JP2003272049A 2003-07-08 2003-07-08 Contents management device and contents management method Pending JP2005033619A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003272049A JP2005033619A (en) 2003-07-08 2003-07-08 Contents management device and contents management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003272049A JP2005033619A (en) 2003-07-08 2003-07-08 Contents management device and contents management method

Publications (1)

Publication Number Publication Date
JP2005033619A true JP2005033619A (en) 2005-02-03

Family

ID=34209730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003272049A Pending JP2005033619A (en) 2003-07-08 2003-07-08 Contents management device and contents management method

Country Status (1)

Country Link
JP (1) JP2005033619A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006303746A (en) * 2005-04-19 2006-11-02 Hitachi Ltd Moving picture processor
WO2007058067A1 (en) * 2005-11-16 2007-05-24 Murata Manufacturing Co., Ltd. Mobile communication terminal, digital broadcast complementing device, and digital broadcast complementing system
JP2008211796A (en) * 2007-02-27 2008-09-11 Sony United Kingdom Ltd System for automatically generating highlight summary, ingestion processor, event logging processor, method for automatically generating highlight summary
WO2008136466A1 (en) * 2007-05-01 2008-11-13 Dep Co., Ltd. Dynamic image editing device
JP2009503966A (en) * 2005-07-25 2009-01-29 トムソン ライセンシング Method for generating a summary of a document based on criteria defined by a user and associated audiovisual apparatus
JP2009157460A (en) * 2007-12-25 2009-07-16 Hitachi Ltd Information presentation device and method
JP2009182762A (en) * 2008-01-31 2009-08-13 Nippon Telegr & Teleph Corp <Ntt> Image editing apparatus, image editing program, and computer readable memory medium in which program thereof recorded
JP2009536490A (en) * 2006-05-05 2009-10-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ How to update a video summary with relevant user feedback
WO2010021102A1 (en) * 2008-08-22 2010-02-25 パナソニック株式会社 Related scene addition device and related scene addition method
WO2012086616A1 (en) * 2010-12-22 2012-06-28 株式会社Jvcケンウッド Video processing device, video processing method, and video processing program
JP2014507699A (en) * 2010-12-17 2014-03-27 オーディブル・インコーポレイテッド Schematic representation of the relationship between the referenced object and the story
JP2014096776A (en) * 2012-11-12 2014-05-22 Samsung R&D Institute Japan Co Ltd Chapter setting device
US9436741B2 (en) 2010-12-17 2016-09-06 Audible, Inc. Graphically representing associations between referents and stories
JP2018528731A (en) * 2015-07-31 2018-09-27 プロンプチュ システムズ コーポレーション Natural language navigation and assisted viewing of indexed audio-video streams (especially sports competitions)
JP2019212308A (en) * 2018-06-01 2019-12-12 ネイバー コーポレーションNAVER Corporation Video service providing method and service server using the same
JP7390877B2 (en) 2019-11-29 2023-12-04 エヌ・ティ・ティ・コミュニケーションズ株式会社 Video editing device, video editing method, and computer program

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4525437B2 (en) * 2005-04-19 2010-08-18 株式会社日立製作所 Movie processing device
JP2006303746A (en) * 2005-04-19 2006-11-02 Hitachi Ltd Moving picture processor
JP2009503966A (en) * 2005-07-25 2009-01-29 トムソン ライセンシング Method for generating a summary of a document based on criteria defined by a user and associated audiovisual apparatus
US8645830B2 (en) 2005-07-25 2014-02-04 Thomson Licensing Method of creating a summary of a document based on user-defined criteria, and related audio-visual device
WO2007058067A1 (en) * 2005-11-16 2007-05-24 Murata Manufacturing Co., Ltd. Mobile communication terminal, digital broadcast complementing device, and digital broadcast complementing system
JP2009536490A (en) * 2006-05-05 2009-10-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ How to update a video summary with relevant user feedback
JP2008211796A (en) * 2007-02-27 2008-09-11 Sony United Kingdom Ltd System for automatically generating highlight summary, ingestion processor, event logging processor, method for automatically generating highlight summary
WO2008136466A1 (en) * 2007-05-01 2008-11-13 Dep Co., Ltd. Dynamic image editing device
JP2009157460A (en) * 2007-12-25 2009-07-16 Hitachi Ltd Information presentation device and method
JP2009182762A (en) * 2008-01-31 2009-08-13 Nippon Telegr & Teleph Corp <Ntt> Image editing apparatus, image editing program, and computer readable memory medium in which program thereof recorded
WO2010021102A1 (en) * 2008-08-22 2010-02-25 パナソニック株式会社 Related scene addition device and related scene addition method
JPWO2010021102A1 (en) * 2008-08-22 2012-01-26 パナソニック株式会社 Related scene assigning apparatus and related scene assigning method
US8174579B2 (en) 2008-08-22 2012-05-08 Panasonic Corporation Related scene addition apparatus and related scene addition method
JP4487018B2 (en) * 2008-08-22 2010-06-23 パナソニック株式会社 Related scene assigning apparatus and related scene assigning method
JP2014507699A (en) * 2010-12-17 2014-03-27 オーディブル・インコーポレイテッド Schematic representation of the relationship between the referenced object and the story
US9436741B2 (en) 2010-12-17 2016-09-06 Audible, Inc. Graphically representing associations between referents and stories
WO2012086616A1 (en) * 2010-12-22 2012-06-28 株式会社Jvcケンウッド Video processing device, video processing method, and video processing program
JP2014096776A (en) * 2012-11-12 2014-05-22 Samsung R&D Institute Japan Co Ltd Chapter setting device
JP2018528731A (en) * 2015-07-31 2018-09-27 プロンプチュ システムズ コーポレーション Natural language navigation and assisted viewing of indexed audio-video streams (especially sports competitions)
US10609454B2 (en) 2015-07-31 2020-03-31 Promptu Systems Corporation Natural language navigation and assisted viewing of indexed audio video streams, notably sports contests
US11363338B2 (en) 2015-07-31 2022-06-14 Promptu Systems Corporation Natural language navigation relative to events in content of an audio video stream
JP2019212308A (en) * 2018-06-01 2019-12-12 ネイバー コーポレーションNAVER Corporation Video service providing method and service server using the same
JP7390877B2 (en) 2019-11-29 2023-12-04 エヌ・ティ・ティ・コミュニケーションズ株式会社 Video editing device, video editing method, and computer program

Similar Documents

Publication Publication Date Title
US11990157B2 (en) Method, system and computer program product for editing movies in distributed scalable media environment
CN101300567B (en) Method for media sharing and authoring on the web
US8717367B2 (en) Automatically generating audiovisual works
JP3449671B2 (en) System and method for enabling creation of personal movie presentations and personal movie collections
JP5048488B2 (en) Recording medium including metadata, reproducing apparatus and method thereof
US20070033225A1 (en) Media data representation and management
JP2005033619A (en) Contents management device and contents management method
KR101406332B1 (en) Recording-and-reproducing apparatus and recording-and-reproducing method
JP2009004999A (en) Video data management device
KR20090031142A (en) A method for providing gui to display related contents when contents are made by user, and a multimedia apparatus thereof
WO2014103374A1 (en) Information management device, server and control method
JP4129162B2 (en) Content creation demonstration system and content creation demonstration method
US20120150927A1 (en) System and method for identifying media assets
JP2018125702A (en) Video control system and program
JP2006085379A (en) Information processor and its control method, and program
Yang et al. Serving a video into an image carousel: system design and implementation
KR100862955B1 (en) Multimedia service player being capable of storing and replaying data service information
JP2003256446A (en) Data management system, data management method and program
JP2006053794A (en) Metadata distribution system and method, program, and recording medium