JP2009260693A - Metadata editing system, metadata editing program and metadata editing method - Google Patents

Metadata editing system, metadata editing program and metadata editing method Download PDF

Info

Publication number
JP2009260693A
JP2009260693A JP2008107769A JP2008107769A JP2009260693A JP 2009260693 A JP2009260693 A JP 2009260693A JP 2008107769 A JP2008107769 A JP 2008107769A JP 2008107769 A JP2008107769 A JP 2008107769A JP 2009260693 A JP2009260693 A JP 2009260693A
Authority
JP
Japan
Prior art keywords
metadata
content
editing
completed
material content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008107769A
Other languages
Japanese (ja)
Other versions
JP5075723B2 (en
Inventor
Yoshiaki Hirano
義明 平野
Masaru Igawa
勝 井川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Hitachi Kokusai Electric Inc
Hitachi Consulting Co Ltd
Original Assignee
Hitachi Ltd
Hitachi Kokusai Electric Inc
Hitachi Consulting Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Hitachi Kokusai Electric Inc, Hitachi Consulting Co Ltd filed Critical Hitachi Ltd
Priority to JP2008107769A priority Critical patent/JP5075723B2/en
Publication of JP2009260693A publication Critical patent/JP2009260693A/en
Application granted granted Critical
Publication of JP5075723B2 publication Critical patent/JP5075723B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a metadata editing system, a metadata editing program and a metadata editing method by which the labor of inputting metadata to material contents can be reduced as much as possible. <P>SOLUTION: The metadata editing system includes: a metadata management server 100 having a metadata DB section 130 for storing ID of material contents or complete contents and metadata to be made correspond to each other; and a metadata editing terminal 200 having an editing GUI unit 210 for editing metadata of the complete contents and an editing information analyzing section 230 for analyzing editing information. Wherein, on the basis of a result of analyzing the editing information for the complete contents through the editing information analyzing section 230, the editing GUI section 210 generates metadata of the material contents and certainty representing a degree of its certainty from the metadata of the complete contents and stores, in the metadata DB section 130 correspondingly the metadata of the material contents and the certainty of the material contents. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、コンテンツのメタデータを編集するメタデータ編集システムおよびメタデータ編集プログラムならびにメタデータ編集方法に関し、素材コンテンツにメタデータを付与するメタデータ編集システムおよびメタデータ編集プログラムならびにメタデータ編集方法に適用して有効な技術に関する。   The present invention relates to a metadata editing system, a metadata editing program, and a metadata editing method for editing metadata of content, and relates to a metadata editing system, a metadata editing program, and a metadata editing method for adding metadata to material content. It is related to effective technology.

放送局や制作プロダクションなどの企業において、映像・音声コンテンツを制作する際には、最初に素材となる映像・音声が集められる。この素材となる映像・音声データを、以下では素材コンテンツと呼ぶ。これに対し、放送局や制作プロダクションが制作しようとする番組などのコンテンツを、以下では完成コンテンツと呼ぶ。完成コンテンツは、1つ以上の素材コンテンツを組み合わせ、効果を入れたりすること、すなわち編集することにより作成される。   In companies such as broadcasting stations and production companies, when video / audio content is produced, the video / audio that is the material is collected first. The video / audio data used as the material is hereinafter referred to as material content. On the other hand, content such as a program to be produced by a broadcasting station or production production is hereinafter referred to as completed content. The completed content is created by combining one or more material contents and adding effects, that is, editing.

作成された完成コンテンツは、放送されたり、別の配信プロバイダで利用されたりした後は、アーカイブシステムに保存されることになる。アーカイブシステムに保存するコンテンツの量は膨大であるため、保存する際はデータベースシステムにおいて、コンテンツのIDと説明情報とを対応付けて登録をする。これにより、コンテンツの取り出し時に検索を可能にする。   The created completed content is stored in the archive system after being broadcast or used by another distribution provider. Since the amount of content stored in the archive system is enormous, when storing, the content ID and description information are associated with each other and registered in the database system. Thereby, it is possible to search at the time of taking out the content.

この説明情報には、コンテンツのタイトルの他、制作日時や制作者の名前などが付与されるのが一般的である。しかし、さらに一歩進んで、高度な検索を実行可能とするために、映像・音声をある程度細かい時間区間に分割し、その一つ一つに対して映像や音声のコンテンツの内容に基づいた説明情報を入れることもある。この説明情報となるテキストデータを、以下ではメタデータと呼ぶ。メタデータには、例えば、その時間区間に映像に写っている俳優の名前であるとか、景色の様子などが記載されることが考えられる。   In general, the description information is given a production date and time, the name of the producer, and the like in addition to the title of the content. However, in order to make it possible to perform advanced search in a further step, the video / audio is divided into somewhat fine time intervals, and each piece is explained based on the content of the video / audio content. May be included. The text data serving as the explanation information is hereinafter referred to as metadata. For example, it is conceivable that the metadata includes the name of an actor appearing in the video during the time interval, the state of the scenery, and the like.

コンテンツにメタデータを付与したり、付与されたメタデータを編集したりする技術としては種々のものが提案されており、例えば、特開2006−325047号公報(特許文献1)や、特開2004−348553号公報(特許文献2)のような技術が提案されている。
特開2006−325047号公報 特開2004−348553号公報
Various techniques for assigning metadata to content and editing the attached metadata have been proposed. For example, JP 2006-325047 A (Patent Document 1) and JP 2004 2004 A A technique such as Japanese Patent No. -348553 (Patent Document 2) has been proposed.
JP 2006-325047 A JP 2004-348553 A

しかしながら、素材コンテンツは完成コンテンツの10倍以上の容量があると言われており、メタデータを付与する作業負荷の問題から、実際には完成コンテンツにのみメタデータが付与され、素材コンテンツにメタデータが付与されることはほとんどない。   However, it is said that the material content has more than 10 times the capacity of the completed content, and due to the work load of adding metadata, the metadata is actually given only to the completed content, and the metadata is added to the material content. Is rarely granted.

上述したように、完成コンテンツは、素材コンテンツを編集の材料として用いることによって作られる。編集作業者は、膨大な素材コンテンツから完成コンテンツの作成に最適な素材コンテンツを選択して編集を行うが、このとき、既存の素材コンテンツが再利用されることもある。しかし、素材コンテンツにメタデータが付与されていないことから、素材コンテンツの取り出し時にデータベースシステムによる検索を有効に利用することができず、作業効率が悪いという課題がある。   As described above, the completed content is created by using the material content as editing material. An editing operator selects and edits material content that is most suitable for creating completed content from a large amount of material content. At this time, existing material content may be reused. However, since metadata is not given to the material content, there is a problem that the search by the database system cannot be used effectively when the material content is taken out, and work efficiency is poor.

そこで本発明の目的は、素材コンテンツに対してメタデータを入力する手間をできるだけ少なくするメタデータ編集システムおよびメタデータ編集プログラムならびにメタデータ編集方法を提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide a metadata editing system, a metadata editing program, and a metadata editing method that can reduce the effort of inputting metadata to material content as much as possible.

本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。   The above and other objects and novel features of the present invention will be apparent from the description of this specification and the accompanying drawings.

本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、次のとおりである。   Of the inventions disclosed in the present application, the outline of typical ones will be briefly described as follows.

本発明の代表的な実施の形態によるメタデータ編集システムは、完成コンテンツが1つ以上の素材コンテンツをどのように編集して作られているかを表す編集情報をもとに、完成コンテンツのメタデータから素材コンテンツのメタデータおよびそのメタデータの確かさを表す確度を生成することを特徴とするものである。   The metadata editing system according to the representative embodiment of the present invention is based on editing information indicating how the completed content is created by editing one or more material contents. The content content metadata and the accuracy representing the certainty of the metadata are generated.

本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。   Among the inventions disclosed in the present application, effects obtained by typical ones will be briefly described as follows.

本発明の代表的な実施の形態によれば、素材コンテンツにメタデータを付与する作業を行わなくても、素材コンテンツのメタデータを生成することができるため、素材コンテンツを検索する際にデータベースシステムによる検索を利用することが可能となる。また、メタデータが付与された素材コンテンツをもとに別の完成コンテンツを作成する際に、完成コンテンツにメタデータを付与する手間を省くことができる。これらにより、コンテンツの編集作業の効率を上げることができる。   According to the representative embodiment of the present invention, since the metadata of the material content can be generated without performing the work of adding the metadata to the material content, the database system is used when searching for the material content. It becomes possible to use the search by. Further, when creating another completed content based on the material content to which the metadata is added, it is possible to save the trouble of adding the metadata to the completed content. As a result, the efficiency of content editing can be improved.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において、同一部には原則として同一の符号を付し、その繰り返しの説明は省略する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Note that components having the same function are denoted by the same reference symbols throughout the drawings for describing the embodiment, and the repetitive description thereof will be omitted.

<概要>
本発明の一実施の形態であるメタデータ編集システムは、作成された完成コンテンツに対して作業者がメタデータを入力する環境において、素材コンテンツに対してメタデータを付与する作業を行わなくても、完成コンテンツに付与されたメタデータを利用して、自動的に素材コンテンツのメタデータを生成するシステムである。
<Overview>
The metadata editing system according to an embodiment of the present invention does not need to perform an operation of assigning metadata to material content in an environment in which an operator inputs metadata to the created completed content. This is a system that automatically generates metadata of material content using metadata assigned to completed content.

本実施の形態のメタデータ編集システムは、完成コンテンツのメタデータと素材コンテンツのメタデータとを保持するメタデータ管理サーバと、コンテンツに対してメタデータを付与するためのメタデータ編集端末から構成される。作業者は、基本的に完成コンテンツに対してメタデータの付与を行う。この完成コンテンツに付与されたメタデータを利用して、メタデータ編集端末が、自動的に完成コンテンツを構成する素材コンテンツのメタデータを生成する。   The metadata editing system according to the present embodiment includes a metadata management server that holds metadata of completed content and metadata of material content, and a metadata editing terminal for assigning metadata to the content. The The worker basically gives metadata to the completed content. Using the metadata assigned to the completed content, the metadata editing terminal automatically generates the metadata of the material content constituting the completed content.

完成コンテンツから素材コンテンツのメタデータを自動的に生成する方法として、EDL(Edit Decision List)を利用する。EDLには、素材コンテンツをどのように組み合わせて完成コンテンツを生成したかの情報が含まれている。これをもとに、ある時間区間において、各素材コンテンツが何%ずつ完成コンテンツ中において使用されているかを算出し、それをもとに確度を求める。メタデータ管理サーバには、その確度とともに、素材コンテンツのメタデータを登録する。   An EDL (Edit Decision List) is used as a method for automatically generating metadata of material content from completed content. The EDL includes information on how the material content is combined to generate the completed content. Based on this, the percentage of each material content used in the completed content in a certain time interval is calculated, and the accuracy is obtained based on that. The metadata of the material content is registered in the metadata management server together with the accuracy.

また、メタデータ編集端末では、作業者が、既に作成されている素材コンテンツのメタデータをGUI(Graphical User Interface)上で転記することにより、完成コンテンツのメタデータとして入力することができる。この場合、その時点で当該素材コンテンツの確度が100%ではなかったとしても、作業者が完成コンテンツのメタデータとして転記したということから、完成コンテンツには当該メタデータで表される内容が表示されていることになる。そこで、当該素材コンテンツのメタデータは正しかったと判断し、当該素材コンテンツのメタデータの確度を100%に確定する。   Further, in the metadata editing terminal, the operator can input the metadata of the material content that has already been created on the GUI (Graphical User Interface) as metadata of the completed content. In this case, even if the accuracy of the material content is not 100% at that time, since the operator has transcribed as metadata of the completed content, the content represented by the metadata is displayed on the completed content. Will be. Therefore, it is determined that the metadata of the material content is correct, and the accuracy of the metadata of the material content is fixed to 100%.

また、メタデータ編集端末では、作業者が、既に入力した完成コンテンツのある時間区間のメタデータを、GUI上で別の時間区間に転記して、完成コンテンツのメタデータとして入力することができる。この場合、転記先の時間区間では、転記元の時間区間と同じ内容が表示されていたと想定される。仮に、転記元の時間区間における完成コンテンツを構成する素材コンテンツのメタデータの確度が100%でない場合でも、転記先の時間区間における完成コンテンツを構成する素材コンテンツと重複する素材コンテンツが1つのみである場合には、当該素材コンテンツのメタデータは正しかったと判断し、当該素材コンテンツのメタデータの確度を100%に確定する。   Further, in the metadata editing terminal, the operator can transfer the metadata of a certain time section of the completed content already input to another time section on the GUI and input it as metadata of the completed content. In this case, it is assumed that the same contents as the time section of the transfer source were displayed in the time section of the transfer destination. Even if the accuracy of the metadata of the material content constituting the completed content in the time section of the transfer source is not 100%, only one material content overlaps with the material content constituting the completed content in the time section of the transfer destination. If there is, it is determined that the metadata of the material content is correct, and the accuracy of the metadata of the material content is fixed to 100%.

<実施の形態>
以下に、本発明の一実施の形態であるメタデータ編集システムについて説明する。図1は、本実施の形態のメタデータ編集システムの構成例を示した図である。メタデータ編集システムは、メタデータ管理サーバ100、メタデータ編集端末200を有し、これらがネットワーク300で接続される構成となっている。メタデータ編集端末200を複数台有する構成であっても良い。
<Embodiment>
Hereinafter, a metadata editing system according to an embodiment of the present invention will be described. FIG. 1 is a diagram illustrating a configuration example of a metadata editing system according to the present embodiment. The metadata editing system includes a metadata management server 100 and a metadata editing terminal 200, which are connected via a network 300. A configuration having a plurality of metadata editing terminals 200 may also be used.

作業者は、メタデータ編集端末200を用いて、完成コンテンツを再生して内容を確認しながら、完成コンテンツのメタデータの入力を行う。入力されたメタデータはメタデータ管理サーバ100に登録される。その際に、メタデータ編集端末200では、完成コンテンツが素材コンテンツをどのように組み合わせて制作されたのかを表す編集情報であるEDLを用いるなどして、完成コンテンツを構成する素材コンテンツのメタデータを生成し、メタデータ管理サーバ100に登録する。これにより、素材コンテンツに対して付与されたメタデータが格納される。   Using the metadata editing terminal 200, the worker inputs metadata of the completed content while playing back the completed content and checking the content. The input metadata is registered in the metadata management server 100. At that time, the metadata editing terminal 200 uses the EDL, which is editing information indicating how the completed content is produced by combining the material content, and uses the metadata of the material content constituting the completed content. Generate and register in the metadata management server 100. As a result, metadata assigned to the material content is stored.

メタデータ管理サーバ100は、メタデータ更新部110、メタデータ検索部120、
メタデータDB部130を有し、完成コンテンツおよび素材コンテンツのメタデータを管理するコンピュータである。メタデータ更新部110、メタデータ検索部120の機能は、ソフトウェアにより実現される。
The metadata management server 100 includes a metadata update unit 110, a metadata search unit 120,
The computer has a metadata DB unit 130 and manages metadata of completed content and material content. The functions of the metadata update unit 110 and the metadata search unit 120 are realized by software.

メタデータDB部130は、完成コンテンツおよび素材コンテンツを一意に特定するIDと、これらコンテンツの説明情報であるメタデータとを対応付けて管理するデータベースである。メタデータ検索部120は、キーワードとなるテキストをもとにメタデータDB部130に対して検索を実行し、そのキーワードを含むメタデータとそれに対応する完成コンテンツおよび素材コンテンツのIDを取得する。メタデータ更新部110は、外部からメタデータを更新する指示を受けて、メタデータDB部130を更新する。   The metadata DB unit 130 is a database that manages an ID that uniquely identifies completed content and material content and metadata that is description information of the content in association with each other. The metadata search unit 120 executes a search for the metadata DB unit 130 based on the text as a keyword, and acquires metadata including the keyword and IDs of completed content and material content corresponding to the metadata. The metadata update unit 110 updates the metadata DB unit 130 in response to an instruction to update metadata from the outside.

メタデータ編集端末200を用いて完成コンテンツや素材コンテンツのキーワードによる検索を実行する場合は、メタデータ検索部120がメタデータDB部130に対して検索を実行する。また、メタデータ編集端末200を用いて完成コンテンツのメタデータを更新する場合も、現状のメタデータを取得するために、メタデータ検索部120がメタデータDB部130に対して検索を実行する。メタデータ編集端末200が完成コンテンツのメタデータを編集し、修正されたメタデータを格納する場合は、メタデータ更新部110がメタデータ編集端末200からの指示を受けて、メタデータDB部130を更新する。   When performing a search based on a keyword for completed content or material content using the metadata editing terminal 200, the metadata search unit 120 executes a search for the metadata DB unit 130. Also, when updating the metadata of the completed content using the metadata editing terminal 200, the metadata search unit 120 performs a search on the metadata DB unit 130 in order to acquire the current metadata. When the metadata editing terminal 200 edits the metadata of the completed content and stores the modified metadata, the metadata update unit 110 receives an instruction from the metadata editing terminal 200 and changes the metadata DB unit 130. Update.

メタデータ編集端末200は、編集GUI部210、コンテンツ再生部220、編集情報解析部230、メタデータ取得依頼部240、メタデータ登録依頼部250、ストレージ部260を有し、コンテンツに関連するメタデータを付与する機能を有するコンピュータである。編集GUI部210、コンテンツ再生部220、編集情報解析部230、メタデータ取得依頼部240、メタデータ登録依頼部250の機能は、ソフトウェアにより実現される。   The metadata editing terminal 200 includes an editing GUI unit 210, a content reproduction unit 220, an editing information analysis unit 230, a metadata acquisition request unit 240, a metadata registration request unit 250, and a storage unit 260, and metadata related to content. A computer having a function of assigning The functions of the editing GUI unit 210, content playback unit 220, editing information analysis unit 230, metadata acquisition request unit 240, and metadata registration request unit 250 are realized by software.

編集GUI部210は、素材コンテンツおよび完成コンテンツのメタデータを編集するためのGUIである。この編集GUI部210によって、作業者が完成コンテンツの内容を見ながらメタデータとなるテキスト情報を入力することが可能である。また、完成コンテンツに付与されたメタデータをもとに、完成コンテンツを構成する素材コンテンツのメタデータを自動的に生成して付与する処理も行う。なお、素材コンテンツのメタデータを編集することも可能であるが、前述のように素材コンテンツのメタデータを編集により直接入力することはほとんど行われない。   The editing GUI unit 210 is a GUI for editing metadata of material content and completed content. The editing GUI unit 210 allows the operator to input text information as metadata while viewing the content of the completed content. Further, based on the metadata assigned to the completed content, processing for automatically generating and assigning the metadata of the material content constituting the completed content is also performed. Although it is possible to edit the metadata of the material content, as described above, the metadata of the material content is hardly directly input by editing.

コンテンツ再生部220は、完成コンテンツのデータをメタデータ編集端末200の画面上に表示できるビットマップに変換し、編集GUI部210のGUI上に表示する処理を行う。完成コンテンツは、メタデータ編集端末200の内部では、例えばMPEG(Moving Picture Experts Group)などの圧縮形式で保存される。コンテンツ再生部220はMPEGデータを伸長する機能を有するが、これは一般的な技術である。コンテンツ再生部220の処理により、作業者は、編集GUI部210を利用してメタデータの入力を行う際に、同じ画面上で映像の内容を確認することが可能となる。   The content playback unit 220 converts the completed content data into a bitmap that can be displayed on the screen of the metadata editing terminal 200, and performs processing for display on the GUI of the editing GUI unit 210. The completed content is stored in the metadata editing terminal 200 in a compressed format such as MPEG (Moving Picture Experts Group). The content playback unit 220 has a function of expanding MPEG data, which is a general technique. The processing of the content playback unit 220 allows the operator to check the content of the video on the same screen when inputting metadata using the editing GUI unit 210.

編集情報解析部230は、完成コンテンツの編集情報であるEDLを解析する処理を行う。EDLおよびこれを解析する技術は一般的な技術である。編集情報解析部230が解析して取得したデータは、作業者が入力した完成コンテンツのメタデータをもとに、素材コンテンツのメタデータを生成する際に使用される。この処理の内容については後述する。   The editing information analysis unit 230 performs processing for analyzing EDL which is editing information of the completed content. EDL and techniques for analyzing it are common techniques. The data analyzed and acquired by the editing information analysis unit 230 is used when generating the metadata of the material content based on the metadata of the completed content input by the operator. The contents of this process will be described later.

メタデータ取得依頼部240は、ある完成コンテンツに対応した形でメタデータ管理サーバ100に登録されているメタデータを、メタデータ管理サーバ100に依頼して取得する。取得の依頼は、ネットワーク300を介してメタデータ管理サーバ100に渡されるので、メタデータ取得依頼部240は、これをネットワーク300上に流せる形式のメッセージデータに変換する処理を行う。取得したメタデータは、編集GUI部210に渡され、現状のメタデータの登録状況として作業者に対して表示される。作業者は、これに対して、メタデータの修正を行うことができる。   The metadata acquisition request unit 240 requests the metadata management server 100 to acquire metadata registered in the metadata management server 100 in a form corresponding to a certain completed content. Since the acquisition request is transferred to the metadata management server 100 via the network 300, the metadata acquisition request unit 240 performs a process of converting it into message data in a format that can be flowed on the network 300. The acquired metadata is transferred to the editing GUI unit 210 and displayed to the operator as the current metadata registration status. The operator can correct the metadata in response to this.

メタデータ登録依頼部250は、編集GUI部210を用いて作業者が作成したメタデータをメタデータ管理サーバ100へ依頼して登録する。また、編集GUI部210が自動的に生成した素材コンテンツのメタデータをメタデータ管理サーバ100に依頼して登録する処理も行う。登録の依頼は、ネットワーク300を介してメタデータ管理サーバ100に渡されるので、メタデータ登録依頼部250は、これをネットワーク300上に流せる形式のメッセージデータに変換する処理を行う。   The metadata registration request unit 250 requests the metadata management server 100 to register the metadata created by the worker using the editing GUI unit 210. Also, processing for requesting and registering metadata of material contents automatically generated by the editing GUI unit 210 to the metadata management server 100 is performed. Since the registration request is transferred to the metadata management server 100 via the network 300, the metadata registration request unit 250 performs processing to convert the request to message data in a format that can be flowed on the network 300.

ストレージ部260は、完成コンテンツやEDLを格納する。コンテンツ再生部220は、ストレージ部260に格納されている完成コンテンツを読み出し、伸長して表示することができる。また、編集情報解析部230は、ストレージ部260に格納されているEDLを読み出し、解析することができる。   The storage unit 260 stores completed content and EDL. The content reproduction unit 220 can read out the completed content stored in the storage unit 260, expand it, and display it. The editing information analysis unit 230 can read and analyze the EDL stored in the storage unit 260.

メタデータ編集端末200は、上述した構成により、作業者がメタデータ管理サーバ100から完成コンテンツの現状のメタデータの登録情報を取得し、完成コンテンツを再生して内容を参照しながら、メタデータを編集することを可能にする。また、作業者によって付与された完成コンテンツのメタデータとEDLの情報とをもとに、自動的に素材コンテンツのメタデータを生成し、メタデータ管理サーバ100に登録することを可能にする。   With the above-described configuration, the metadata editing terminal 200 is configured so that the operator obtains the registration information of the current metadata of the completed content from the metadata management server 100, reproduces the completed content and refers to the content while referring to the content. Allows editing. Further, based on the completed content metadata and EDL information given by the operator, it is possible to automatically generate the metadata of the material content and register it in the metadata management server 100.

図2は、メタデータDB部130のデータ構造とデータの例を示した図である。全体としては、登録されているコンテンツごとにデータを分けて管理しており、図2の例では、素材コンテンツA、素材コンテンツB、完成コンテンツCのデータが示されている。   FIG. 2 is a diagram illustrating an example of the data structure and data of the metadata DB unit 130. As a whole, data is managed separately for each registered content. In the example of FIG. 2, data of material content A, material content B, and completed content C are shown.

各コンテンツは論理的に短い時間区間に分割され、それぞれにメタデータが付与される。例えば、図2の素材コンテンツAでは、開始時刻131と終了時刻132のカラムに格納されているデータにより、10時10分00秒〜10時10分30秒の区間と、10時10分30秒〜10時11分00秒の区間が定義され、それぞれのメタデータ133のカラムにメタデータが格納されている。メタデータ133のカラムには、各時間区間について複数のメタデータを格納することが可能である。図2の例では、10時10分00秒〜10時10分30秒の区間に「富士山」というメタデータと「景色」というメタデータが付与されていることを示している。   Each content is divided into logically short time intervals, and metadata is given to each content. For example, in the material content A in FIG. 2, the section of 10:10:00 to 10:10:30 and 10:10:30 with the data stored in the columns of the start time 131 and the end time 132 A section of 10 to 11:00 is defined, and metadata is stored in each metadata 133 column. In the column of the metadata 133, a plurality of metadata can be stored for each time interval. In the example of FIG. 2, it is shown that the metadata “Mount Fuji” and the metadata “Scenery” are assigned to the section of 10: 10: 10-10: 10: 30.

確度134のカラムに格納されているデータは、該当のメタデータが対象のコンテンツを表すものとして正しいであろう確かさを表す数字である。図2の例では、素材コンテンツAの10時10分00秒〜10時10分30秒の区間のメタデータが「富士山」である確度は50%、「景色」である確度は80%であることを示している。   The data stored in the column of accuracy 134 is a number representing the certainty that the corresponding metadata will be correct as representing the target content. In the example of FIG. 2, the probability that the metadata of the section of the material content A from 10:10:00 to 10:10:30 is “Mt. Fuji” is 50%, and the accuracy of “scenery” is 80%. It is shown that.

作業者135、入力日時136のカラムに格納されているデータは、それぞれ該当のメタデータを入力した作業者の名前と入力した日時を示している。素材コンテンツB、完成コンテンツCについても上記と同様のデータ構造となっている。   The data stored in the columns of the worker 135 and the input date / time 136 indicate the name of the worker who input the corresponding metadata and the input date / time, respectively. The material content B and the completed content C have the same data structure as described above.

上述したように、メタデータDB部130に格納されている各メタデータには、確度が付与されている。この確度はメタデータ編集端末200によって算出され、メタデータDB部130はその確度をメタデータに対応付けした形で保持する役割を有している。メタデータDB部130の確度134の値は、メタデータ編集端末200からの指示により、メタデータ133の内容とともに追加・更新される。なお、完成コンテンツについてのメタデータの確度134の値は100%とする。   As described above, each metadata stored in the metadata DB unit 130 is given accuracy. This accuracy is calculated by the metadata editing terminal 200, and the metadata DB unit 130 has a role of holding the accuracy in a form associated with the metadata. The value of the accuracy 134 of the metadata DB unit 130 is added / updated together with the content of the metadata 133 in accordance with an instruction from the metadata editing terminal 200. Note that the value of the metadata accuracy 134 for the completed content is 100%.

図3は、メタデータ編集端末200上の編集GUI部210の画面構成例を示した図である。映像表示部310は、コンテンツ再生部220によって伸長された完成コンテンツの映像を表示する部分である。再生ボタン320、停止ボタン330は、映像表示部310における映像表示を制御するためのボタンである。映像表示部310、および再生ボタン320、停止ボタン330等によって映像表示を制御する技術は一般的なものである。映像表示部310内の枠311については後述する。   FIG. 3 is a diagram showing a screen configuration example of the editing GUI unit 210 on the metadata editing terminal 200. The video display unit 310 is a part that displays the video of the completed content expanded by the content playback unit 220. The play button 320 and the stop button 330 are buttons for controlling video display on the video display unit 310. Techniques for controlling video display by the video display unit 310, the play button 320, the stop button 330, and the like are common. The frame 311 in the video display unit 310 will be described later.

タイムライン表示部340は、完成コンテンツを構成する素材コンテンツがどのように組み合わされているかを示す部分である。完成コンテンツが素材コンテンツを時間的・空間的にどのように組み合わせて作られているかの情報は、EDLに定義されている。編集情報解析部230がこのEDLを解析し、解析結果をもとに編集GUI部210はタイムライン表示部340を生成する。   The timeline display unit 340 is a part that indicates how the material contents constituting the completed content are combined. Information on how completed content is created by combining material content in terms of time and space is defined in EDL. The editing information analysis unit 230 analyzes the EDL, and the editing GUI unit 210 generates a timeline display unit 340 based on the analysis result.

タイムライン表示部340において、時間軸341は仮想的な時間軸を示している。この時間軸341上において、タイムライン343により、素材コンテンツAは10時00分00秒から10時11分00秒まで使われており、また、タイムライン344により、素材コンテンツBは10時10分00秒から10時20分00秒まで使われていることを示している。タイムラインバー342は、現時点で映像表示部310に映像が表示されている時刻を示している。図3の例では、10時10分30秒付近の映像が映像表示部310に表示されている。   In the timeline display unit 340, the time axis 341 indicates a virtual time axis. On the time axis 341, the material content A is used from 10:00:00 to 10:11:00 by the timeline 343, and the material content B is 10:10 by the timeline 344. It shows that it is used from 00 seconds to 10:20:00. The timeline bar 342 indicates the time when the video is displayed on the video display unit 310 at the present time. In the example of FIG. 3, an image near 10:10:30 is displayed on the image display unit 310.

図3の例におけるタイムライン表示部340では、タイムラインバー342で示される時刻において、タイムライン343とタイムライン344が重なっていることから、素材コンテンツAと素材コンテンツBとが編集作業により組み合わされていることを示している。その際、映像表示部310では、素材コンテンツAの要素と素材コンテンツBの要素の両方が表示される。EDLの情報により、映像のどの部分が素材コンテンツAを用い、どの部分が素材コンテンツBを用いているかが判別できる。例えば、映像表示部310内の枠311は、素材コンテンツAを用いている領域を示している。なお、EDLを解析する技術は、映像の編集機などで一般的に使われている技術である。   In the timeline display unit 340 in the example of FIG. 3, since the timeline 343 and the timeline 344 overlap at the time indicated by the timeline bar 342, the material content A and the material content B are combined by editing work. It shows that. At that time, both the element of the material content A and the element of the material content B are displayed on the video display unit 310. From the EDL information, it is possible to determine which part of the video uses the material content A and which part uses the material content B. For example, a frame 311 in the video display unit 310 indicates an area where the material content A is used. The technique for analyzing EDL is a technique commonly used in video editing machines.

メタデータ入力部350は、完成コンテンツおよび素材コンテンツのメタデータを入力する部分である。時間区間354は、上部のタイムライン表示部340に対応する、短い時間区間単位を示しており、この単位でメタデータを入力することができることを示している。各時間区間354は、コンテンツのメタデータを入力するための入力アイコンを有しており、入力アイコン351、352、353はそれぞれ、完成コンテンツC、素材コンテンツA、素材コンテンツBのメタデータの入力アイコンであることを示している。   The metadata input unit 350 is a part for inputting metadata of completed content and material content. A time interval 354 indicates a short time interval unit corresponding to the upper timeline display unit 340, and indicates that metadata can be input in this unit. Each time interval 354 has an input icon for inputting content metadata, and the input icons 351, 352, and 353 are metadata input icons for the completed content C, material content A, and material content B, respectively. It is shown that.

入力アイコン355は、マウスなどによりフォーカスされていることを示している。この入力アイコン355をダブルクリックすることにより、後述するメタデータ入力ウィンドウ400がポップアップし、対応するコンテンツのメタデータをテキストで入力することができる。   The input icon 355 indicates that the focus is focused with a mouse or the like. By double-clicking the input icon 355, a metadata input window 400, which will be described later, pops up, and corresponding content metadata can be input as text.

入力アイコン355のフォーカスと枠311は連動している。すなわち、入力アイコン355は、対象の時間区間と素材コンテンツの特定をしている。枠311は、対象の時間区間の中で、完成コンテンツにおいて対象の素材コンテンツ(図3の例では素材コンテンツA)が使われている領域を枠線として表している。フォーカスを素材コンテンツBの入力アイコン353に移動すると、映像表示部310では別の領域(素材コンテンツBが使われている領域)が枠線で囲まれることになる。なお、完成コンテンツCの入力アイコン351をフォーカスしているときは、映像表示部310の中に枠線は表示されない。   The focus of the input icon 355 and the frame 311 are linked. That is, the input icon 355 specifies the target time section and material content. A frame 311 represents, as a frame line, an area where the target material content (material content A in the example of FIG. 3) is used in the completed content in the target time interval. When the focus is moved to the input icon 353 of the material content B, another area (an area where the material content B is used) is surrounded by a frame line in the video display unit 310. When the input icon 351 of the completed content C is focused, no frame line is displayed in the video display unit 310.

図4は、メタデータ入力ウィンドウ400の画面構成例を示した図である。メタデータ入力ウィンドウ400は、図3の編集GUI部210の任意の入力アイコン355をダブルクリックしたときにポップアップされる。行410は、既に入力済みのデータであり、メタデータ411、確度412、作業者413、入力日時414の各データが表示されている。   FIG. 4 is a diagram showing a screen configuration example of the metadata input window 400. The metadata input window 400 pops up when an arbitrary input icon 355 of the editing GUI unit 210 of FIG. 3 is double-clicked. The row 410 is data that has already been input, and displays metadata 411, accuracy 412, worker 413, and input date / time 414.

メニュー表示部430は、メタデータの入力に関する操作を行うための各種ボタンが配置されている領域である。追加ボタン431は、新規の入力行を追加するボタンである。コピーボタン432は、メタデータ411のテキストをコピーするボタンである。貼り付けボタン433は、コピーボタン432によりコピーしたメタデータ411のテキストを別の行のメタデータ411に貼り付けるボタンである。これにより、追加ボタン431により新規の入力行420を追加し、コピーボタン432により既存の行のメタデータ411をコピーして、貼り付けボタン411により、追加した新規の入力行420のメタデータ411に貼り付けてテキストを入力することができる。   The menu display unit 430 is an area in which various buttons for performing operations related to input of metadata are arranged. The add button 431 is a button for adding a new input line. The copy button 432 is a button for copying the text of the metadata 411. The paste button 433 is a button for pasting the text of the metadata 411 copied by the copy button 432 to the metadata 411 on another line. As a result, a new input line 420 is added by the add button 431, the metadata 411 of the existing line is copied by the copy button 432, and the metadata 411 of the new input line 420 is added by the paste button 411. You can paste and enter text.

上述した図3の編集GUI部210と図4のメタデータ入力ウィンドウ400を用いて、作業者はコンテンツに対するメタデータの入力を行うことができる。その処理の流れは以下の通りである。最初に、映像表示部310に完成コンテンツを表示し、タイムライン表示部340に、完成コンテンツを構成する素材コンテンツの構成を表示する。タイムラインバー342を動かし、タイムラインバー342が示す時刻における映像を確認しながら、入力アイコン355をダブルクリックして、メタデータ入力ウィンドウ400を開き、メタデータを入力する。   Using the editing GUI unit 210 shown in FIG. 3 and the metadata input window 400 shown in FIG. 4, the operator can input metadata for the content. The processing flow is as follows. First, the completed content is displayed on the video display unit 310, and the configuration of the material content constituting the completed content is displayed on the timeline display unit 340. While moving the timeline bar 342 and confirming the video at the time indicated by the timeline bar 342, the input icon 355 is double-clicked to open the metadata input window 400 to input metadata.

作業者によるメタデータの入力の手順は、映像の内容や、既に入力されているメタデータの状況によって異なってくる。以下、本実施の形態のメタデータ編集システムにおいて特徴的なケースについて、入力の手順を説明する。   The procedure for inputting metadata by the operator differs depending on the contents of the video and the status of the metadata already input. Hereinafter, an input procedure will be described for a case characteristic of the metadata editing system according to the present embodiment.

図5は、EDLの情報を利用して自動的に素材コンテンツのメタデータを生成する例を示した図である。図5では、10時10分30秒付近のコンテンツのメタデータの入力を行う場合を例として挙げる。作業者は映像表示部310によって完成コンテンツCの映像を見ており、入力アイコン501をダブルクリックして完成コンテンツCのメタデータの入力を実施する。   FIG. 5 is a diagram illustrating an example in which metadata of material content is automatically generated using EDL information. In FIG. 5, a case where content metadata near 10 hours 10 minutes 30 seconds is input is given as an example. The operator is watching the video of the completed content C on the video display unit 310 and double-clicks the input icon 501 to input metadata of the completed content C.

図5において、メタデータ511〜513およびメタデータ521〜523は、説明の便宜のため、メタデータ管理サーバ100のメタデータDB部130における、完成コンテンツC、素材コンテンツA、素材コンテンツBについてのレコードの内容を簡略化してそれぞれ表現しているものとする。   In FIG. 5, metadata 511 to 513 and metadata 521 to 523 are records about completed content C, material content A, and material content B in the metadata DB unit 130 of the metadata management server 100 for convenience of explanation. The contents of are simplified and expressed respectively.

メタデータ511は、完成コンテンツCのメタデータとして「俳優1」が入力されたことを意味する。ここで、編集GUI部210は、編集情報解析部230によるEDLの解析結果から、この時間区間の完成コンテンツCが素材コンテンツAと素材コンテンツBとから、面積比にして例えば6:4の割合で使われていることが分かったとする。この情報をもとに、編集GUI部210は、完成コンテンツCにおける素材コンテンツAおよび素材コンテンツBの占有率をそれぞれ60%、40%とし、メタデータ511〜513に対して以下の自動変換を行ってメタデータ521〜メタデータ523とする。   The metadata 511 means that “actor 1” is input as metadata of the completed content C. Here, from the EDL analysis result by the editing information analysis unit 230, the editing GUI unit 210 determines that the completed content C in this time section is from the material content A and the material content B at an area ratio of, for example, 6: 4. Suppose you know that it is being used. Based on this information, the editing GUI unit 210 sets the occupation ratios of the material content A and the material content B in the completed content C to 60% and 40%, respectively, and performs the following automatic conversion on the metadata 511 to 513. Metadata 521 to metadata 523.

すなわち、素材コンテンツAのメタデータ522として「俳優1」、その確度を60%とし、素材コンテンツBのメタデータ523として「俳優1」、その確度を40%とする。この結果を、メタデータ管理サーバ100に登録する。   That is, “actor 1” is set as the metadata 522 of the material content A, and the accuracy is 60%, and “actor 1” is set as the metadata 523 of the material content B, and the accuracy is 40%. This result is registered in the metadata management server 100.

なお、本実施の形態では、素材コンテンツの占有率を完成コンテンツに占める各素材コンテンツの面積比を用いて決定しているが、これに限られるものではなく、その他の指標を用いて占有率を決定することもできる。   In this embodiment, the occupancy rate of material content is determined using the area ratio of each material content occupying the completed content, but the present invention is not limited to this, and the occupancy rate is determined using other indicators. It can also be determined.

以上の方法により、EDLの情報を用いて自動的に素材コンテンツにもメタデータを付与することができ、これにより、以降では、この素材コンテンツが再利用された完成コンテンツにおけるメタデータ付与の際に、このメタデータを利用することが可能となる。さらに、素材コンテンツを検索する際にも、確度は100%ではないもののメタデータを利用したキーワード検索が可能となる。   By the above method, it is possible to automatically add metadata to the material content using the information of the EDL. Accordingly, in the following, when the metadata is added to the completed content in which the material content is reused. This metadata can be used. Further, when searching for material contents, a keyword search using metadata is possible although the accuracy is not 100%.

図6は、EDLの情報を利用することで素材コンテンツのメタデータが特定できる例を示した図である。図6では、10時05分00秒付近のコンテンツのメタデータの入力を行う場合を例として挙げる。作業者は基本的に完成コンテンツCのメタデータを入力するので、入力アイコン601をダブルクリックして完成コンテンツCのメタデータの入力を実施する。   FIG. 6 is a diagram illustrating an example in which metadata of material content can be specified by using EDL information. In FIG. 6, a case where content metadata near 10:05:00 is input is taken as an example. Since the operator basically inputs the metadata of the completed content C, the operator double-clicks the input icon 601 and inputs the metadata of the completed content C.

図6において、メタデータ611、612およびメタデータ621、622は、前述の図5の場合と同様に、メタデータ管理サーバ100のメタデータDB部130における、完成コンテンツC、素材コンテンツAについてのレコードの内容を簡略化してそれぞれ表現しているものとする。メタデータ611は、完成コンテンツCのメタデータとして「俳優1」が入力されたことを意味する。ここで、編集GUI部210は、編集情報解析部230によるEDLの解析結果から、この時間区間の完成コンテンツCが素材コンテンツAのみからなっていることが分かる。   In FIG. 6, metadata 611 and 612 and metadata 621 and 622 are records for completed content C and material content A in the metadata DB unit 130 of the metadata management server 100, as in the case of FIG. The contents of are simplified and expressed respectively. The metadata 611 means that “actor 1” is input as metadata of the completed content C. Here, from the EDL analysis result by the editing information analysis unit 230, the editing GUI unit 210 knows that the completed content C in this time section consists only of the material content A.

この情報をもとに、編集GUI部210は、完成コンテンツCのメタデータ611の「俳優1」というデータは、素材コンテンツAのメタデータであると判断して、素材コンテンツAのメタデータ622に「俳優1」をコピーすると同時にその確度を100%とする。以上の方法により、自動的に素材コンテンツのメタデータを特定して付与し、その確度を100%とすることができる。   Based on this information, the editing GUI unit 210 determines that the data “actor 1” in the metadata 611 of the completed content C is the metadata of the material content A, and stores it in the metadata 622 of the material content A. At the same time as copying "Actor 1", the accuracy is 100%. By the above method, the metadata of the material content can be automatically specified and assigned, and the accuracy can be set to 100%.

図7は、既にメタデータが入力されている素材コンテンツを利用して完成コンテンツのメタデータを入力する手順と、素材コンテンツのメタデータの確度を高める例を示した図である。図7では、10時10分30秒付近のコンテンツのメタデータを入力する場合を例として挙げる。   FIG. 7 is a diagram illustrating a procedure for inputting metadata of completed content using material content for which metadata has already been input, and an example of increasing the accuracy of the metadata of the material content. In FIG. 7, a case where content metadata near 10:10:30 is input is taken as an example.

図7において、メタデータ711〜713およびメタデータ721〜723は、前述の図5の場合と同様に、メタデータ管理サーバ100のメタデータDB部130における、完成コンテンツC、素材コンテンツA、素材コンテンツBについてのレコードの内容を簡略化してそれぞれ表現しているものとする。   In FIG. 7, metadata 711 to 713 and metadata 721 to 723 are the same as in the case of FIG. 5 described above, in the completed content C, material content A, and material content in the metadata DB unit 130 of the metadata management server 100. It is assumed that the contents of records for B are simplified and expressed respectively.

編集GUI部210では、完成コンテンツのメタデータの入力方法として転記機能を有し、素材コンテンツに既にメタデータが入力されている場合、その内容をいわゆるコピーアンドペーストすることにより、完成コンテンツのメタデータとして入力することが可能である。ここでは、作業者が素材コンテンツAのメタデータを確認したところ内容が既に記載されており、かつ、表示している映像の内容と合致していることを確認したものとする。この場合、作業者は、素材コンテンツAのメタデータ712を完成コンテンツCのメタデータ711にコピーアンドペーストすることで、完成コンテンツCのメタデータを入力することができる。   The editing GUI unit 210 has a transfer function as an input method for the metadata of the completed content. When the metadata has already been input to the material content, the metadata of the completed content is copied and pasted. Can be entered as Here, it is assumed that when the operator confirms the metadata of the material content A, the content is already described and it is confirmed that the content matches the content of the displayed video. In this case, the operator can input the metadata of the completed content C by copying and pasting the metadata 712 of the material content A into the metadata 711 of the completed content C.

入力直後のメタデータDB部130のレコードの内容は、完成コンテンツCのメタデータ711の内容が、素材コンテンツAのメタデータ712をコピーアンドペーストすることによって追加で入力されたのみである。編集GUI部210は、確度が60%しかなかった素材コンテンツAのメタデータ712の内容が完成コンテンツCのメタデータ711として採用されたという事実をもとに、このメタデータは映像表示部310に表示されている映像の内容と一致していると判断する。   The content of the record in the metadata DB unit 130 immediately after the input is only the content of the metadata 711 of the completed content C is additionally input by copying and pasting the metadata 712 of the material content A. The editing GUI unit 210 uses the fact that the content of the metadata 712 of the material content A, which has an accuracy of only 60%, is adopted as the metadata 711 of the completed content C, this metadata is stored in the video display unit 310. It is determined that the content of the displayed video matches.

この情報をもとに、編集GUI部210は、メタデータ712に対して自動変換により確度を100%に上げてメタデータ722とする。このとき、本実施の形態では、素材コンテンツBのメタデータ723の確度を40%のままとしているが、自動変換により、例えばメタデータ723の確度を0%にしても良い。   Based on this information, the editing GUI unit 210 raises the accuracy to 100% by automatically converting the metadata 712 and sets it as metadata 722. At this time, in this embodiment, the accuracy of the metadata 723 of the material content B is kept at 40%, but the accuracy of the metadata 723 may be set to 0% by automatic conversion, for example.

なお、素材コンテンツAのメタデータ712の内容が完成コンテンツCのメタデータ711として採用されたという事実を編集GUI部210が判断するためには、例えば、上述のように、メタデータ712の内容を編集GUI部210での操作によりコピーアンドペースとしたということをもとに判断しても良いし、メタデータ712の内容をメタデータ711に反映させるような特定のボタンやメニュー等を用意し、これらによる操作により内容を反映したということをもとに判断しても良い。   In order to determine the fact that the content of the metadata 712 of the material content A is adopted as the metadata 711 of the completed content C, for example, as described above, the content of the metadata 712 is changed as described above. It may be determined based on the fact that the copy and pace is set by the operation on the editing GUI unit 210, or a specific button or menu that reflects the contents of the metadata 712 in the metadata 711 is prepared. The determination may be made based on the fact that the contents are reflected by the operation by these.

以上の方法により、作業者は、完成コンテンツのメタデータを入力するために素材コンテンツのメタデータを利用することができ、コピーアンドペーストという簡易な手法で入力することができる。また、素材コンテンツのメタデータの確度を自動的に100%に確定することができる。   By the above method, the operator can use the metadata of the material content to input the metadata of the completed content, and can input it by a simple technique called copy and paste. In addition, the accuracy of the metadata of the material content can be automatically determined to 100%.

図8は、完成コンテンツのある時間区間のメタデータを利用して別の時間区間のメタデータを入力する手順と、素材コンテンツのメタデータの確度を高める例を示した図である。図8では、10時05分00秒付近のコンテンツのメタデータを入力する場合を例として挙げる。   FIG. 8 is a diagram illustrating a procedure for inputting metadata of another time section using metadata of a certain time section of the completed content and an example of increasing the accuracy of the metadata of the material content. In FIG. 8, a case where content metadata near 10:05:00 is input is taken as an example.

図8において、メタデータ811〜813、メタデータ814、815、およびメタデータ821〜823、メタデータ824、825は、前述の図5の場合と同様に、メタデータ管理サーバ100のメタデータDB部130における、完成コンテンツC、素材コンテンツA、素材コンテンツBについてのレコードの内容を簡略化してそれぞれ表現しているものとする。   In FIG. 8, metadata 811 to 813, metadata 814 and 815, metadata 821 to 823, and metadata 824 and 825 are the metadata DB portion of the metadata management server 100 as in the case of FIG. It is assumed that the records of the completed content C, the material content A, and the material content B in 130 are simplified and expressed respectively.

事前に、10時10分30秒付近の完成コンテンツCのメタデータ811として「俳優1」が入力されたとする。このとき、前述の図5の場合と同様に、完成コンテンツCのメタデータ811を入力した結果、素材コンテンツAのメタデータ812として「俳優1」が確度60%で自動的に登録され、素材コンテンツBのメタデータ813として「俳優1」が確度40%で自動的に登録された状態となる。   Assume that “actor 1” is input as metadata 811 of the completed content C near 10:10:30 in advance. At this time, as in the case of FIG. 5 described above, as a result of inputting the metadata 811 of the completed content C, “Actor 1” is automatically registered as the metadata 812 of the material content A with an accuracy of 60%. As the metadata 813 for B, “Actor 1” is automatically registered with an accuracy of 40%.

この後、作業者は、10時05分00秒付近の完成コンテンツCのメタデータ814を入力する際に、10時10分30秒の完成コンテンツCメタデータ811を編集GUI部210の転記機能によりコピーアンドペーストして入力したものとする。編集GUI部210は、この情報をもとに以下のような処理を実施する。   Thereafter, when the operator inputs the metadata 814 of the completed content C at around 10:05:00, the completed content C metadata 811 at 10:10:30 is transferred by the transfer function of the editing GUI unit 210. Assume that you entered by copying and pasting. The editing GUI unit 210 performs the following processing based on this information.

編集情報解析部230によるEDLの解析結果から、10時05分00秒付近では、完成コンテンツCが素材コンテンツAのみからなっていることが分かる。そこに、10時05分00秒における完成コンテンツCのメタデータ814として、10時10分30秒の完成コンテンツCのメタデータ811である「俳優1」が採用されたことから、前述の図6の場合と同様に、10時05分00秒における素材コンテンツAのメタデータ815は「俳優1」であることが分かる。従って、前述の図6の場合と同様に、10時05分00秒における素材コンテンツAのメタデータ825として「俳優1」が確度100%で自動的に登録される。   From the EDL analysis result by the editing information analysis unit 230, it can be seen that the completed content C is composed only of the material content A at around 10:05:00. Since “Actor 1”, which is the metadata 811 of the completed content C at 10:10:30, is adopted as the metadata 814 of the completed content C at 10:05:00, the above-described FIG. As in the case of, the metadata 815 of the material content A at 10:05:00 is “actor 1”. Accordingly, as in the case of FIG. 6 described above, “actor 1” is automatically registered with the accuracy of 100% as the metadata 825 of the material content A at 10:05:00.

また、10時10分30秒の完成コンテンツCを構成するメタデータである素材コンテンツA、素材コンテンツBと、10時05分00秒の完成コンテンツCを構成するメタデータである素材コンテンツAとで、重複する素材コンテンツは素材コンテンツAのみであることから、10時10分30秒の完成コンテンツCのメタデータ811の「俳優1」というデータは、素材コンテンツAの表示内容から付与されたものであることが分かる。従って、10時10分30秒における素材コンテンツAのメタデータ822の確度を自動的に100%に確定する。   Further, material content A and material content B, which are metadata constituting the completed content C at 10:10:30, and material content A, which is metadata constituting the completed content C at 10:05:00. Since the material content that overlaps is only the material content A, the data “actor 1” in the metadata 811 of the completed content C at 10:10:30 is given from the display content of the material content A. I understand that there is. Therefore, the accuracy of the metadata 822 of the material content A at 10:10:30 is automatically determined to 100%.

なお、図8の例では、10時05分00秒付近では、完成コンテンツCが素材コンテンツAのみからなっている場合であったが、例えば、10時05分00秒付近で完成コンテンツCが素材コンテンツAと素材コンテンツDからなっていたような場合であっても、2つの時間区間において重複する素材コンテンツが素材コンテンツAのみであるため、素材コンテンツAのメタデータ823、および825として「俳優1」というデータの確度を自動的に100%として確定することができる。   In the example of FIG. 8, the completed content C is composed of only the material content A around 10:05:00. However, for example, the completed content C is the material around 10:05:00. Even in the case of content A and material content D, since the material content A is the only material content that overlaps in two time intervals, the metadata 823 and 825 of the material content A is “actor 1”. ”Can be automatically determined as 100%.

また、図7の場合と同様に、10時10分30秒の完成コンテンツCのメタデータ811の内容が10時05分00秒の完成コンテンツCのメタデータ814として採用されたという事実を編集GUI部210が判断するためには、例えば、上述のように、メタデータ811の内容を編集GUI部210での操作によりコピーアンドペースとしたということをもとに判断しても良いし、メタデータ811の内容をメタデータ814に反映させるような特定のボタンやメニュー等を用意し、これらによる操作により内容を反映したということをもとに判断しても良い。   Similarly to the case of FIG. 7, the fact that the content of the metadata 811 of the completed content C at 10:10:30 has been adopted as the metadata 814 of the completed content C at 10:05:00 has been edited. In order for the unit 210 to make a determination, for example, as described above, the content may be determined based on the fact that the content of the metadata 811 is copied and copied by an operation in the editing GUI unit 210. It may be determined based on the fact that specific buttons, menus, or the like that reflect the contents of 811 in the metadata 814 are prepared and the contents are reflected by the operations performed by these buttons.

以上の方法により、作業者は、ある時間区間の完成コンテンツのメタデータを入力するために別の時間区間の完成コンテンツのメタデータを利用することができ、コピーアンドペーストという簡易な手法で入力することができる。また、メタデータを入力した完成コンテンツを構成する素材コンテンツが1つのみであった場合、もしくは、両時間区間において重複する素材コンテンツが1つのみであった場合には、その素材コンテンツのメタデータの確度を両時間区間において自動的に100%に確定することができる。   By the above method, the worker can use the metadata of the completed content in another time interval in order to input the metadata of the completed content in a certain time interval, and inputs it by a simple method called copy and paste. be able to. In addition, when there is only one material content constituting the completed content to which metadata is input, or when there is only one material content overlapping in both time intervals, the metadata of the material content Can be automatically determined to be 100% in both time intervals.

以上に説明したように、本実施の形態のメタデータ編集システムでは、作成された完成コンテンツに対して作業者がメタデータを入力することができる。このとき、完成コンテンツを構成する素材コンテンツにメタデータを付与する作業を行わなくても、完成コンテンツに付与されたメタデータをもとにして自動的に素材コンテンツのメタデータを生成することができる。   As described above, in the metadata editing system according to the present embodiment, an operator can input metadata for the created completed content. At this time, the metadata of the material content can be automatically generated based on the metadata attached to the completed content without performing the work of assigning the metadata to the material content constituting the completed content. .

このように、素材コンテンツにメタデータを付与することができるため、素材コンテンツを編集の材料として完成コンテンツを作る際に、膨大な素材コンテンツから再利用するのに最適なものを取り出す際に、メタデータを利用したキーワード検索を利用することが可能となる。これにより、最適な素材コンテンツが選択でき、探す時間も短くできるので、コンテンツの編集作業の効率を上げることができる。   In this way, metadata can be added to the material content. Therefore, when creating a completed content using the material content as editing material, it is necessary to extract the metadata that is most suitable for reuse from a huge amount of material content. It becomes possible to use keyword search using data. As a result, the optimum material content can be selected and the search time can be shortened, so that the efficiency of content editing can be increased.

また、メタデータが付与された素材コンテンツをもとに完成コンテンツを作成した場合、そのEDLを解析することにより、素材コンテンツのどの部分が完成コンテンツに使用されているかが分かるため、素材コンテンツのメタデータを完成コンテンツのメタデータとして自動的に付与することも可能となる。これにより、完成コンテンツにメタデータを付与する手間を省くことができ、さらに作業効率を上げることができる。   In addition, when the completed content is created based on the material content to which the metadata is added, by analyzing the EDL, it is possible to know which part of the material content is used for the completed content. Data can be automatically assigned as metadata of completed content. As a result, it is possible to save time and effort to add metadata to the completed content, and to further improve work efficiency.

以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。   As mentioned above, the invention made by the present inventor has been specifically described based on the embodiment. However, the present invention is not limited to the embodiment, and various modifications can be made without departing from the scope of the invention. Needless to say.

例えば、前述の図1では、本実施の形態のメタデータ編集システムは、メタデータ管理サーバ100とメタデータ編集端末200とがネットワーク300に接続する構成としているが、このような構成に限られず、例えば、メタデータ管理サーバ100とメタデータ編集端末200とが1台のコンピュータに実装されるような構成であっても良い。   For example, in FIG. 1 described above, the metadata editing system according to the present embodiment is configured such that the metadata management server 100 and the metadata editing terminal 200 are connected to the network 300. However, the present invention is not limited to such a configuration. For example, the configuration may be such that the metadata management server 100 and the metadata editing terminal 200 are mounted on one computer.

また、本実施の形態のメタデータ編集システムでは、メタデータ管理サーバ100はメタデータを管理するデータベースとしてメタデータDB部130を有し、メタデータの編集を行う機能は、メタデータ編集端末200上で稼動するソフトウェアにより実現しているが、このような構成に限られず、例えば、メタデータ管理サーバ100上にWebサーバの機能を実装し、メタデータの編集を行うソフトウェアをWebサーバ上でWebアプリケーションとして稼動させ、メタデータ編集端末200でのユーザインタフェースにはWebブラウザを用いるような構成とすることも可能である。   Also, in the metadata editing system of the present embodiment, the metadata management server 100 has a metadata DB unit 130 as a database for managing metadata, and the function of editing metadata is on the metadata editing terminal 200. However, the present invention is not limited to such a configuration. For example, software that implements the function of a Web server on the metadata management server 100 and edits metadata is executed on the Web server as a Web application. The metadata editing terminal 200 can be configured to use a Web browser for the user interface.

本発明は、コンテンツのメタデータを編集するメタデータ編集システムおよびメタデータ編集プログラムならびにメタデータ編集方法に利用可能である。   The present invention can be used for a metadata editing system, a metadata editing program, and a metadata editing method for editing content metadata.

本発明の実施の形態であるメタデータ編集システムの構成例を示した図である。It is the figure which showed the structural example of the metadata editing system which is embodiment of this invention. 本発明の実施の形態における、メタデータDB部のデータ構造とデータの例を示した図である。It is the figure which showed the data structure and data example of metadata DB part in embodiment of this invention. 本発明の実施の形態における、編集GUI部の画面構成例を示した図である。It is the figure which showed the example of a screen structure of the edit GUI part in embodiment of this invention. 本発明の実施の形態における、メタデータ入力ウィンドウの画面構成例を示した図である。It is the figure which showed the example of a screen structure of the metadata input window in embodiment of this invention. 本発明の実施の形態における、自動的に素材コンテンツのメタデータを生成する例を示した図である。It is the figure which showed the example which produces | generates the metadata of material content automatically in embodiment of this invention. 本発明の実施の形態における、EDLの情報を利用することで素材コンテンツのメタデータが特定できる例を示した図である。It is the figure which showed the example which can specify the metadata of material content by utilizing the information of EDL in embodiment of this invention. 本発明の実施の形態における、既にメタデータが入力されている素材コンテンツを利用して完成コンテンツのメタデータを入力する手順と、素材コンテンツのメタデータの確度を高める例を示した図である。It is the figure which showed the procedure which inputs the metadata of completed content using the material content in which metadata has already been input in the embodiment of the present invention, and an example of increasing the accuracy of the metadata of the material content. 本発明の実施の形態における、完成コンテンツのある時間区間のメタデータを利用して別の時間区間のメタデータを入力する手順と、素材コンテンツのメタデータの確度を高める例を示した図である。It is the figure which showed the example which improves the procedure of inputting the metadata of another time interval using the metadata of a certain time interval in embodiment of this invention, and the metadata of material content. .

符号の説明Explanation of symbols

100…メタデータ管理サーバ、110…メタデータ更新部、120…メタデータ検索部、130…メタデータDB部、200…メタデータ編集端末、210…編集GUI部、220…コンテンツ再生部、230…編集情報解析部、240…メタデータ取得依頼部、250…メタデータ登録依頼部、260…ストレージ部、300…ネットワーク、
310…映像表示部、311…枠、320…再生ボタン、330…停止ボタン、340…タイムライン表示部、341…時間軸、342…タイムラインバー、343〜344…タイムライン、350…メタデータ入力部、351〜353…入力アイコン、354…時間区間、355…入力アイコン、
400…メタデータ入力ウィンドウ、410…行、411…説明情報、412…確度、413…作業者、414…入力日時、420…入力行、430…メニュー表示部、431…追加ボタン、432…コピーボタン、433…貼り付けボタン、
501〜503…入力アイコン、511〜513…メタデータ、521〜523…メタデータ、
601〜602…入力アイコン、611〜612…メタデータ、621〜622…メタデータ、
701〜703…入力アイコン、711〜713…メタデータ、721〜723…メタデータ、
801〜805…入力アイコン、811〜815…メタデータ、821〜825…メタデータ。
DESCRIPTION OF SYMBOLS 100 ... Metadata management server, 110 ... Metadata update part, 120 ... Metadata search part, 130 ... Metadata DB part, 200 ... Metadata edit terminal, 210 ... Edit GUI part, 220 ... Content reproduction part, 230 ... Edit Information analysis unit 240 ... metadata acquisition request unit 250 ... metadata registration request unit 260 ... storage unit 300 ... network
310 ... Video display unit, 311 ... Frame, 320 ... Play button, 330 ... Stop button, 340 ... Timeline display unit, 341 ... Time axis, 342 ... Timeline bar, 343-344 ... Timeline, 350 ... Metadata input Part, 351-353 ... input icon, 354 ... time interval, 355 ... input icon,
400 ... Metadata input window, 410 ... Line, 411 ... Description information, 412 ... Accuracy, 413 ... Worker, 414 ... Input date and time, 420 ... Input row, 430 ... Menu display section, 431 ... Add button, 432 ... Copy button 433 ... Paste button,
501 to 503 ... input icons, 511 to 513 ... metadata, 521 to 523 ... metadata,
601-602 ... input icon, 611-612 ... metadata, 621-622 ... metadata,
701 to 703 ... input icons, 711 to 713 ... metadata, 721 to 723 ... metadata,
801 to 805 ... input icons, 811 to 815 ... metadata, 821 to 825 ... metadata.

Claims (7)

映像・音声コンテンツを制作する際の素材となる映像・音声データである素材コンテンツのIDもしくは1つ以上の前記素材コンテンツを組み合わせて編集することにより制作される完成コンテンツのIDと、前記素材コンテンツもしくは前記完成コンテンツの内容に基づいた説明情報であるメタデータとを対応付けて格納するメタデータDB部を有するメタデータ管理サーバと、
前記完成コンテンツの前記メタデータを編集する編集GUI部と、前記完成コンテンツが前記素材コンテンツをどのように組み合わせて制作されたのかを表す編集情報を解析する編集情報解析部とを有するメタデータ編集端末とを有するメタデータ編集システムであって、
前記メタデータ編集端末は、前記編集情報解析部によって前記完成コンテンツについての前記編集情報を解析した結果をもとに、前記編集GUI部によって前記完成コンテンツの前記メタデータから前記完成コンテンツを構成する前記素材コンテンツの前記メタデータとその確かさを表す確度とを生成し、
前記メタデータ管理サーバは、前記メタデータ編集端末の前記編集GUI部によって生成された前記素材コンテンツの前記メタデータとそれに対する前記確度とを対応付けて前記メタデータDB部に格納することを特徴とするメタデータ編集システム。
ID of material content which is video / audio data used as a material for producing video / audio content, or ID of completed content produced by editing one or more of the material contents, and the material content or A metadata management server having a metadata DB unit that stores metadata that is explanatory information based on the content of the completed content in association with each other;
A metadata editing terminal having an editing GUI unit for editing the metadata of the completed content, and an editing information analyzing unit for analyzing editing information indicating how the completed content was produced by combining the material content A metadata editing system comprising:
The metadata editing terminal configures the completed content from the metadata of the completed content by the editing GUI unit based on a result of analyzing the editing information about the completed content by the editing information analysis unit. Generating the metadata of the material content and the accuracy representing its certainty,
The metadata management server stores the metadata of the material content generated by the editing GUI unit of the metadata editing terminal and the accuracy thereof in the metadata DB unit in association with each other. Metadata editing system.
請求項1記載のメタデータ編集システムにおいて、
前記メタデータ編集端末の前記編集GUI部は、前記編集情報解析部によって前記完成コンテンツについての前記編集情報を解析した結果をもとに、処理対象の時間区間において、前記完成コンテンツを構成する前記素材コンテンツが前記完成コンテンツ中に使用されている割合を表す占有率を算出し、
前記時間区間において、前記完成コンテンツに付与されている前記メタデータを前記完成コンテンツを構成する前記素材コンテンツの前記メタデータとしてコピーするとともに、前記素材コンテンツについて算出した前記占有率を、コピーした前記メタデータに対する前記確度とすることを特徴とするメタデータ編集システム。
The metadata editing system according to claim 1,
The editing GUI unit of the metadata editing terminal, based on a result of analyzing the editing information on the completed content by the editing information analysis unit, the material constituting the completed content in a time interval to be processed Calculating an occupancy ratio representing the percentage of content used in the completed content;
In the time interval, the metadata assigned to the completed content is copied as the metadata of the material content constituting the completed content, and the occupation rate calculated for the material content is copied to the copied metadata. A metadata editing system having the accuracy for data.
請求項1記載のメタデータ編集システムにおいて、
前記メタデータ編集端末の前記編集GUI部は、前記完成コンテンツを構成する前記素材コンテンツの前記メタデータとそれに対する前記確度とを前記メタデータ管理サーバから取得し、ユーザにより指定された時間区間において、前記メタデータ管理サーバから取得した前記素材コンテンツの前記メタデータを、前記完成コンテンツの前記メタデータとしてコピーする転記機能を有し、
前記時間区間において、前記完成コンテンツの前記メタデータが前記完成コンテンツを構成する前記素材コンテンツの前記メタデータから前記転記機能により入力された場合に、前記素材コンテンツの前記メタデータに対する前記確度を100%とすることを特徴とするメタデータ編集システム。
The metadata editing system according to claim 1,
The editing GUI unit of the metadata editing terminal obtains the metadata of the material content constituting the completed content and the accuracy with respect to the metadata from the metadata management server, and in a time interval specified by the user, A transfer function for copying the metadata of the material content acquired from the metadata management server as the metadata of the completed content;
In the time period, when the metadata of the completed content is input from the metadata of the material content constituting the completed content by the transfer function, the accuracy of the material content with respect to the metadata is 100% A metadata editing system characterized by that.
請求項1記載のメタデータ編集システムにおいて、
前記メタデータ編集端末の前記編集GUI部は、前記完成コンテンツの前記メタデータを前記メタデータ管理サーバから取得し、前記完成コンテンツにおいて、ユーザにより指定された第1の時間区間の前記メタデータを、ユーザにより指定された第2の時間区間の前記メタデータとしてコピーする転記機能を有し、
前記完成コンテンツにおいて、前記第2の時間区間の前記メタデータが前記第1の時間区間の前記メタデータから前記転記機能により入力された場合に、前記第1の時間区間における前記完成コンテンツを構成する前記素材コンテンツと、前記第2の時間区間における前記完成コンテンツを構成する前記素材コンテンツとで、重複する前記素材コンテンツが1つのみである場合は、前記第1の時間区間と前記第2の時間区間において、重複する前記素材コンテンツの前記メタデータに対する前記確度を100%とすることを特徴とするメタデータ編集システム。
The metadata editing system according to claim 1,
The editing GUI unit of the metadata editing terminal acquires the metadata of the completed content from the metadata management server, and in the completed content, the metadata of a first time interval specified by a user is obtained. A transfer function to copy as the metadata of the second time interval specified by the user;
In the completed content, when the metadata of the second time interval is input from the metadata of the first time interval by the transfer function, the completed content in the first time interval is configured In the case where there is only one overlapping material content between the material content and the material content constituting the completed content in the second time interval, the first time interval and the second time A metadata editing system characterized in that, in the section, the accuracy with respect to the metadata of the material content that overlaps is set to 100%.
映像・音声コンテンツを制作する際の素材となる映像・音声データである素材コンテンツのIDもしくは1つ以上の前記素材コンテンツを組み合わせて編集することにより制作される完成コンテンツのIDと、前記素材コンテンツもしくは前記完成コンテンツの内容に基づいた説明情報であるメタデータとを対応付けて格納するメタデータDB部と、
前記完成コンテンツの前記メタデータを編集する編集GUI部と、
前記完成コンテンツが前記素材コンテンツをどのように組み合わせて制作されたのかを表す編集情報を解析する編集情報解析部とを有するメタデータ編集システムであって、
前記編集情報解析部によって前記完成コンテンツについての前記編集情報を解析した結果をもとに、前記編集GUI部によって前記完成コンテンツの前記メタデータから前記完成コンテンツを構成する前記素材コンテンツの前記メタデータとその確かさを表す確度とを生成し、
前記編集GUI部によって生成された前記素材コンテンツの前記メタデータとそれに対する前記確度とを対応付けて前記メタデータDB部に格納することを特徴とするメタデータ編集システム。
ID of material content which is video / audio data used as a material for producing video / audio content, or ID of completed content produced by editing one or more of the material contents, and the material content or A metadata DB unit that stores metadata that is explanatory information based on the content of the completed content in association with each other;
An editing GUI unit for editing the metadata of the completed content;
A metadata editing system having an editing information analysis unit that analyzes editing information indicating how the completed content was produced by combining the material content,
Based on the result of analyzing the editing information about the completed content by the editing information analysis unit, the metadata of the material content constituting the completed content from the metadata of the completed content by the editing GUI unit; And the accuracy that represents the certainty
A metadata editing system, wherein the metadata of the material content generated by the editing GUI unit and the accuracy with respect to the metadata are stored in the metadata DB unit in association with each other.
コンピュータを、コンテンツのメタデータを編集するためのメタデータ編集システムとして機能させるメタデータ編集プログラムであって、
映像・音声コンテンツを制作する際の素材となる映像・音声データである素材コンテンツのIDもしくは1つ以上の前記素材コンテンツを組み合わせて編集することにより制作される完成コンテンツのIDと、前記素材コンテンツもしくは前記完成コンテンツの内容に基づいた説明情報であるメタデータとを対応付けてデータベースに格納し、
前記完成コンテンツが前記素材コンテンツをどのように組み合わせて制作されたのかを表す編集情報を解析し、
前記完成コンテンツについての前記編集情報の解析結果をもとに、前記完成コンテンツの前記メタデータから、前記完成コンテンツを構成する前記素材コンテンツの前記メタデータと、その確かさを表す確度とを生成し、
生成された前記素材コンテンツの前記メタデータとそれに対する前記確度とを対応付けて前記データベースに格納することを特徴とするメタデータ編集プログラム。
A metadata editing program that causes a computer to function as a metadata editing system for editing content metadata,
ID of material content which is video / audio data used as a material for producing video / audio content, or ID of completed content produced by editing one or more of the material contents, and the material content or The metadata that is the description information based on the content of the completed content is stored in the database in association with it,
Analyzing editing information indicating how the completed content was created by combining the material content,
Based on the analysis result of the editing information on the completed content, the metadata of the material content constituting the completed content and the accuracy representing the certainty are generated from the metadata of the completed content. ,
A metadata editing program, wherein the metadata of the generated material content and the accuracy with respect to the metadata are stored in the database in association with each other.
コンピュータによりコンテンツのメタデータを編集するためのメタデータ編集方法であって、
前記コンピュータは、映像・音声コンテンツを制作する際の素材となる映像・音声データである素材コンテンツのIDもしくは1つ以上の前記素材コンテンツを組み合わせて編集することにより制作される完成コンテンツのIDと、前記素材コンテンツもしくは前記完成コンテンツの内容に基づいた説明情報であるメタデータとを対応付けてデータベースに格納し、
前記完成コンテンツが前記素材コンテンツをどのように組み合わせて制作されたのかを表す編集情報を解析し、
前記完成コンテンツについての前記編集情報の解析結果をもとに、前記完成コンテンツの前記メタデータから、前記完成コンテンツを構成する前記素材コンテンツの前記メタデータと、その確かさを表す確度とを生成し、
生成された前記素材コンテンツの前記メタデータとそれに対する前記確度とを対応付けて前記データベースに格納することを特徴とするメタデータ編集方法。
A metadata editing method for editing content metadata by a computer,
The computer includes an ID of a material content that is video / audio data that is a material for producing video / audio content, or an ID of a completed content that is produced by combining and editing one or more of the material contents; The metadata that is the description information based on the content of the material content or the completed content is stored in the database in association with each other,
Analyzing editing information indicating how the completed content was created by combining the material content,
Based on the analysis result of the editing information on the completed content, the metadata of the material content constituting the completed content and the accuracy representing the certainty are generated from the metadata of the completed content. ,
A metadata editing method, wherein the generated metadata of the material content and the accuracy with respect to the metadata are stored in the database in association with each other.
JP2008107769A 2008-04-17 2008-04-17 Metadata editing system, metadata editing program, and metadata editing method Expired - Fee Related JP5075723B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008107769A JP5075723B2 (en) 2008-04-17 2008-04-17 Metadata editing system, metadata editing program, and metadata editing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008107769A JP5075723B2 (en) 2008-04-17 2008-04-17 Metadata editing system, metadata editing program, and metadata editing method

Publications (2)

Publication Number Publication Date
JP2009260693A true JP2009260693A (en) 2009-11-05
JP5075723B2 JP5075723B2 (en) 2012-11-21

Family

ID=41387540

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008107769A Expired - Fee Related JP5075723B2 (en) 2008-04-17 2008-04-17 Metadata editing system, metadata editing program, and metadata editing method

Country Status (1)

Country Link
JP (1) JP5075723B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012058864A (en) * 2010-09-07 2012-03-22 Yahoo Japan Corp Advertisement distribution system, advertisement distribution device, terminal device, advertisement distribution method, and program
JP2013201748A (en) * 2012-02-24 2013-10-03 Panasonic Corp Signal processing device
JP2013242609A (en) * 2012-05-17 2013-12-05 Fujitsu Ltd Program, image processing apparatus, and image processing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005101825A1 (en) * 2004-04-16 2005-10-27 Matsushita Electric Industrial Co., Ltd. Imaging device and imaging system
JP2007013911A (en) * 2005-06-03 2007-01-18 Sony Corp Contents management system, management information generating apparatus, management information processing apparatus, and computer program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005101825A1 (en) * 2004-04-16 2005-10-27 Matsushita Electric Industrial Co., Ltd. Imaging device and imaging system
JP2007013911A (en) * 2005-06-03 2007-01-18 Sony Corp Contents management system, management information generating apparatus, management information processing apparatus, and computer program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012058864A (en) * 2010-09-07 2012-03-22 Yahoo Japan Corp Advertisement distribution system, advertisement distribution device, terminal device, advertisement distribution method, and program
JP2013201748A (en) * 2012-02-24 2013-10-03 Panasonic Corp Signal processing device
JP2013242609A (en) * 2012-05-17 2013-12-05 Fujitsu Ltd Program, image processing apparatus, and image processing method
US9202130B2 (en) 2012-05-17 2015-12-01 Fujitsu Limited Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP5075723B2 (en) 2012-11-21

Similar Documents

Publication Publication Date Title
JP5727385B2 (en) Synchronize presentation state across multiple applications
US9870796B2 (en) Editing video using a corresponding synchronized written transcript by selection from a text viewer
US7499918B2 (en) Information processing apparatus and method, program, and recording medium
KR100704631B1 (en) Apparatus and method for creating audio annotation
US20060277457A1 (en) Method and apparatus for integrating video into web logging
JP2007013911A (en) Contents management system, management information generating apparatus, management information processing apparatus, and computer program
CN112584250A (en) Video preview method and device, terminal equipment and storage medium
JP2008090914A (en) Recording-and-reproducing apparatus and method
KR100696354B1 (en) Apparatus, method and recording medium for information processing
JP5075723B2 (en) Metadata editing system, metadata editing program, and metadata editing method
US20030067490A1 (en) Screen transition diagram editing apparatus and computer product
KR20000071794A (en) Information processing apparatus, information managing method and medium
JP4129162B2 (en) Content creation demonstration system and content creation demonstration method
CN113963133B (en) Method and device for generating house source watching route, electronic equipment and readable medium
JP2004297493A (en) Digital contents editing system and method thereof
JP2011155329A (en) Video content editing device, video content editing method, and video content editing program
JP2012133615A (en) Remote editing system, editing processing device, and program thereof
CN101448095B (en) Method and system for reviewing film based on multi-stream
JP2018028727A (en) Video file management system and video file management method
JP2004172787A (en) Video image viewing system and method thereof
JP3955418B2 (en) Video editing device
JP2004172788A (en) Video image viewing system and method thereof
JP2004320756A (en) Apparatus and method for editing image, recording medium and program
JP6375665B2 (en) VIDEO DATA MANAGEMENT DEVICE, VIDEO DATA MANAGEMENT METHOD, AND VIDEO DATA MANAGEMENT PROGRAM
JP2004319077A (en) Video editing device and method, recording medium, and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20110223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110223

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120807

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120827

R150 Certificate of patent or registration of utility model

Ref document number: 5075723

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150831

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees