JP2008005010A - Motion picture editing method - Google Patents
Motion picture editing method Download PDFInfo
- Publication number
- JP2008005010A JP2008005010A JP2006169914A JP2006169914A JP2008005010A JP 2008005010 A JP2008005010 A JP 2008005010A JP 2006169914 A JP2006169914 A JP 2006169914A JP 2006169914 A JP2006169914 A JP 2006169914A JP 2008005010 A JP2008005010 A JP 2008005010A
- Authority
- JP
- Japan
- Prior art keywords
- metadata
- moving image
- feature amount
- editing method
- event time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
Abstract
Description
本発明は、録画済の動画の編集に関し、より詳細には、録画済の動画にイベントタイムタグを付加する方法および、付加したイベントタイムタグを参照して動画を編集する動画編集方法に関する。 The present invention relates to editing a recorded moving image, and more particularly to a method for adding an event time tag to a recorded moving image and a moving image editing method for editing a moving image with reference to the added event time tag.
TV放送の多チャンネル化、録画機の大容量化、録画予約の容易化等を背景として、視聴者が録画する量は増大の一途をたどっており、その結果、蓄積されたまま視聴せずに放置されている動画の量も増加する傾向にある。そこで、その動画のうち、必要部分のみを視聴したり、不要部分を削除したりする機能、ひいてはそれを支援するため、動画のシーンの変わり目にイベントタイムタグを付加する機能が要望されている。 With the background of multi-channel TV broadcasting, increased capacity of recorders, easier recording reservations, etc., the amount of recordings by viewers has been steadily increasing, and as a result, without being watched while being stored The amount of videos that are left unattended tends to increase. Therefore, there is a demand for a function of viewing only a necessary part or deleting an unnecessary part of the moving picture, and a function of adding an event time tag at the change of a moving picture scene in order to support the function.
この要望を実現する手段として、録画時にEPG情報を参照して、不要部分を録画しないという方法が提案されている(特許文献1)。 As means for realizing this demand, a method has been proposed in which unnecessary portions are not recorded by referring to EPG information during recording (Patent Document 1).
特許文献1で示す方法の概略を図13に示した。映像、番組データを入力する入力手段11と、前記入力手段11から送られてきた映像を記録する録画手段12と、録画スケジュールを作成する録画スケジュール作成手段13と、前記録画手段12を制御する録画制御手段14と、視聴者が見たい番組の条件を管理する登録手段15と、録画された映像情報を蓄積する蓄積媒体16とからなる。
An outline of the method shown in
入力手段11に対し、映像データと番組データが入力される。ここで、番組データとは、いわゆるEPG(電子番組ガイド)のことで、番組データが電子的に配布されたものである。加えてこの場合、通常のEPGデータには、番組内のシーンの時刻が含まれていない場合もあるのに対し、番組内のシーン時刻が含まれているケースを想定している。 Video data and program data are input to the input means 11. Here, the program data is a so-called EPG (Electronic Program Guide), and the program data is distributed electronically. In addition, in this case, it is assumed that the normal EPG data does not include the time of the scene in the program, but includes the scene time in the program.
視聴者は、登録手段15に対し、俳優の名前や映画監督の名前等、自分の見たい番組の条件を指定する。条件の設定により、録画スケジュール作成手段13が、条件にマッチするシーンのみを選択的に録画するよう録画スケジュールを作成し、録画制御手段14がそのスケジュールに沿って録画することにより、視聴者が指定した条件にマッチしたシーンのみが抽出された動画が記録されるという効果がある。 The viewer designates the conditions of the program he / she wants to watch, such as the name of the actor and the name of the movie director, to the registration means 15. By setting the conditions, the recording schedule creation means 13 creates a recording schedule so as to selectively record only scenes that match the conditions, and the recording control means 14 records according to the schedule, so that the viewer designates it. There is an effect that a moving image in which only scenes that match the conditions are extracted is recorded.
一方、蓄積された動画データに対し、音量など、動画データの特徴量シーケンスを参照してタイムタグ付加を行う方法が提案されている(特許文献2)。 On the other hand, a method has been proposed in which time tags are added to accumulated moving image data by referring to a feature amount sequence of the moving image data such as volume (Patent Document 2).
特許文献2で示す方法のフローの一例を図14に示した。この方法は、映像情報を記録する録画保存手段と、録画保存手段に保存されているコンテンツの音声レベルを検出し、当該音声レベルに従ってタグ情報を作成する編集手段からなる。
An example of the flow of the method shown in
前記編集手段は、録画保存手段に保存されている映像データに対して、録画領域における全域に対して音声レベルをサーチし、その音声レベルが周りより高い部分を抽出し、その抽出した部分、たとえばスポーツ番組において歓声による音声レベルが高い注目シーンについてタグ情報を作成したり、そのタグ情報に従って映像ファイルを自動編集したりすることができるという効果がある。
前記特許文献1で示す方法は、放送と同時にEPGを取得する方法であり、そのEPGが誤っていない限り、精度良く番組の切り出しを行うことができるが、同方法は、録画時にEPGデータが既知である必要があり、また、EPG情報を参照して録画するする機能に非対応の録画機で録画した場合、EPGデータと録画データの整合性が失われるため、その後同機能に対応の機器にダビング等を行っても、編集が不可能となる。すなわち、録画時にEPGデータが既知であること、また最初の録画時に録画機が上記機能に対応している必要があり、それを満たさない動画に対しては適用することができないという課題が存在する。
The method disclosed in
例えば、既に既存のVTR等の録画装置で蓄積済みの動画や、放送時にEPGが配信されている時点で録画した動画であっても、同機能非対応の録画機で録画した動画がそれに該当する。 For example, even if the video is already stored in a recording device such as an existing VTR, or the video is recorded when EPG is distributed during broadcasting, the video is recorded by a recorder that does not support the function. .
また、前記特許文献2で示す方法は、任意の動画データに適用可能であるが、リファレンスとなるデータがないため、シーンを誤抽出する可能性が高い。また、ここからが何らかのシーンであるという、タイム情報の付与のみが可能であって、それぞれのシーンの内容を示すことができない。すなわち、テキスト情報を付加することはできない、ひいては、キーワード等を指定しての自動編集が不可能であるという課題があった。
The method disclosed in
つまり、前記特許文献1ないし2の方法では、例えば、既にVTRで記録済みの動画や、今後、メタデータやEPG情報が整備されたケースであっても、前記メタデータやEPG情報を破棄する機械で録画した動画を、イベントタイムタグ対応の、コンピュータや録画機にダビングした時等は、全くイベントタイムタグの付加や自動編集ができないか(特許文献1)、不十分な精度で、内容に関する情報を全く含まないタグ付加、自動編集(特許文献2)が可能であるというレベルにとどまるという課題が存在する。
That is, in the methods of
したがって、本発明の目的は、蓄積済みの動画データに対し、イベントタイムタグを正確に、かつ容易に付与し、また、付与したイベントタイムタグを参照して、自動的または容易に動画の編集を行うことができる動画編集方法を提供することである。 Therefore, an object of the present invention is to accurately and easily assign an event time tag to accumulated moving image data, and refer to the assigned event time tag to automatically or easily edit a moving image. It is to provide a video editing method that can be performed.
上記課題を解決するために、本発明の請求項1記載の動画編集方法は、動画に組み込まれたイベントの時刻を示すイベントタイムタグが付与されていない動画データに対し、イベント時刻が記録され、動画情報を含まないメタデータを取得し、動画データに、メタデータに基づいてイベントタイムタグを付与することを特徴とする。
In order to solve the above problem, the moving image editing method according to
請求項2記載の動画編集方法は、請求項1記載の動画編集方法において、イベントタイムタグ情報に基づいて、イベントタイムタグを付与した動画データの、使用者が指定した条件に一致しない不要部分を削除する。
The moving image editing method according to
請求項3記載の動画編集方法は、請求項1記載の動画編集方法において、イベントタイムタグ情報に基づいて、イベントタイムタグを付与した動画データの、使用者が指定した特定部分を検索する。 A moving image editing method according to a third aspect of the present invention is the moving image editing method according to the first aspect, wherein a specific portion designated by the user of the moving image data to which the event time tag is attached is searched based on the event time tag information.
請求項4記載の動画編集方法は、請求項1記載の動画編集方法において、イベントタイムタグ情報に基づいて、イベントタイムタグを付与した動画データに、キャプション、静止画または動画を付加する。 A moving image editing method according to a fourth aspect is the moving image editing method according to the first aspect, wherein a caption, a still image or a moving image is added to the moving image data to which the event time tag is added based on the event time tag information.
請求項5記載の動画編集方法は、請求項1記載の動画編集方法において、メタデータに、時刻に対応した動画の特徴量シーケンス情報が付加され、イベントタイムタグが付与されていない未タグ付け動画の時刻に対応した動画の特徴量シーケンス情報とメタデータに付加された特徴量シーケンス情報と照合することにより、相互の特徴量が最も一致する時刻を基にして、動画データにイベントタイムタグを付与する。
The moving image editing method according to claim 5 is the moving image editing method according to
請求項6記載の動画編集方法は、請求項5記載の動画編集方法において、動画の特徴量シーケンス情報として、音声の特徴量を用いる。 A moving image editing method according to a sixth aspect of the present invention is the moving image editing method according to the fifth aspect, wherein an audio feature amount is used as the moving image feature amount sequence information.
請求項7記載の動画編集方法は、請求項5記載の動画編集方法において、動画の特徴量シーケンス情報として、画像の特徴量を用いる。 A moving image editing method according to a seventh aspect uses the feature amount of the image as the moving image feature amount sequence information in the moving image editing method according to the fifth aspect.
請求項8記載の動画編集方法は、請求項5記載の動画編集方法において、動画の特徴量シーケンス情報として、複数の特徴量を組合せたベクトルを用いる。 A moving image editing method according to an eighth aspect of the present invention is the moving image editing method according to the fifth aspect, wherein a vector obtained by combining a plurality of feature amounts is used as the feature amount sequence information of the moving image.
請求項9記載の動画編集方法は、請求項5,6,7または8記載の動画編集方法において、特徴量の照合方法として、相互相関関数を用いる。 The moving image editing method according to claim 9 uses the cross-correlation function as the feature amount matching method in the moving image editing method according to claim 5, 6, 7 or 8.
請求項10記載の動画編集方法は、請求項5,6,7または8記載の動画編集方法において、特徴量の照合方法として、動的計画法を用いる。 A moving image editing method according to a tenth aspect of the present invention is the moving image editing method according to the fifth, sixth, seventh, or eighth aspect, wherein a dynamic programming method is used as a feature amount matching method.
請求項11記載の動画編集方法は、請求項1記載の動画編集方法において、イベントタイムタグを付与するタグ付けに使用するメタデータを取得する際、複数のメタデータの中から、各メタデータに付加された情報のうち、使用者が指定した条件に一致する情報を有するメタデータを選択することを特徴とする。
The moving image editing method according to
請求項12記載の動画編集方法は、請求項1記載の動画編集方法において、イベントタイムタグを付与するタグ付けに使用するメタデータを取得する際、タグ付けを意図している動画が決定しているとき、複数のメタデータの中から、各メタデータに付加された特徴量シーケンス情報と、タグ付けを意図している動画の特徴量シーケンス情報が一致する程度が高いメタデータを選択することを特徴とする。
The moving image editing method according to
請求項13記載の動画編集方法は、請求項1,2,3,4,5,6,7,8,9,10,11または12記載の動画編集方法において、タグ付けに使用するメタデータを、メタデータを蓄積する中央サーバから取得する。
The moving image editing method according to
請求項14記載の動画編集方法は、請求項13記載の動画編集方法において、中央サーバは、使用者の与えた絞り込み条件から、蓄積されたメタデータを絞り込む機能を有する。 A moving image editing method according to a fourteenth aspect is the moving image editing method according to the thirteenth aspect, wherein the central server has a function of narrowing down the accumulated metadata from the narrowing conditions given by the user.
請求項15記載の動画編集方法は、請求項13または14記載の動画編集方法において、中央サーバは、未タグ付け動画の時刻に対応した特徴量シーケンス情報と、サーバに蓄積されている複数のメタデータの時刻に対応した特徴量シーケンス情報とを照合し、一致する程度が高いメタデータを選択する。
The moving image editing method according to
請求項16記載の動画編集方法は、請求項13記載の動画編集方法において、中央サーバはメタデータを蓄積するメタデータデータベースを管理し、使用者が所有するメタデータを中央サーバにアップロードし、メタデータデータベースを更新することができる。
The moving image editing method according to
請求項17記載の動画編集方法は、請求項1,2,3,4,5,6,7,8,9,10,11,12,13,14,15または16記載の動画編集方法において、メタデータを作成する際、イベント情報を含んだ放送からイベント時刻を抽出してメタデータを作成する。
The moving image editing method according to
請求項18記載の動画編集方法は、請求項17記載の動画編集方法において、イベント時刻に対応した特徴量シーケンス情報を抽出して、特徴量シーケンス情報を含んだメタデータを作成する。
The moving image editing method according to
本発明の動画編集方法によれば、イベントタイムタグが付与されていない動画データに対し、イベント時刻が記録され、動画情報を含まないメタデータを取得し、動画データに、メタデータに基づいてイベントタイムタグを付与するので、すでに蓄積済みで、イベントタイムタグが付与されていない動画データに対して、イベントタイムタグを正確に、かつ容易に付与することが可能になり、イベントタイムタグが付与されたタグ付き動画が得られる。 According to the moving image editing method of the present invention, event time is recorded for moving image data to which no event time tag is attached, metadata not including moving image information is acquired, and an event based on the metadata is acquired. Since the time tag is assigned, the event time tag can be assigned accurately and easily to the video data that has already been accumulated and the event time tag is not assigned. You can get a tagged video.
また、本発明において、請求項2記載の動画編集方法では、イベントタイムタグ情報に基づいて、イベントタイムタグを付与した動画データの、使用者が指定した条件に一致しない不要部分を削除するので、すでに蓄積済みで、イベントタイムタグが付与されていない動画データに対して、使用者の嗜好に沿った動画編集を容易に行うことができる。
Further, in the present invention, in the moving image editing method according to
また、本発明において、請求項3記載の動画編集方法では、イベントタイムタグ情報に基づいて、イベントタイムタグを付与した動画データの、使用者が指定した特定部分を検索するので、すでに蓄積済みで、イベントタイムタグが付与されていない動画データに対して、容易にシーン検索を行うができ、使用者の希望する部分のみが再生可能となる。 Further, in the present invention, in the moving image editing method according to claim 3, since the specific portion designated by the user of the moving image data to which the event time tag is added is searched based on the event time tag information, it has already been accumulated. A scene search can be easily performed on moving image data to which no event time tag is assigned, and only a portion desired by the user can be reproduced.
また、本発明において、請求項4記載の動画編集方法では、イベントタイムタグ情報に基づいて、イベントタイムタグを付与した動画データに、キャプション、静止画または動画を付加するので、キャプション等の付加された編集済み動画が簡単に得られる。
Further, in the present invention, in the moving image editing method according to
また、本発明において、請求項5記載の動画編集方法では、メタデータに、時刻に対応した動画の特徴量シーケンス情報が付加され、イベントタイムタグが付与されていない未タグ付け動画の時刻に対応した動画の特徴量シーケンス情報とメタデータに付加された特徴量シーケンス情報と照合することにより、相互の特徴量が最も一致する時刻を基にして、動画データにイベントタイムタグを付与するので、すでに蓄積済みで、イベントタイムタグが付与されていない動画データに対して、動画の前後に過不足があった場合でも、容易に正しくイベントタイムタグを付与することができる。さらに付与したイベントタイムタグを参照して動画の編集等を行うことが可能となる。 According to the present invention, in the moving image editing method according to claim 5, the feature amount sequence information of the moving image corresponding to the time is added to the metadata, and it corresponds to the time of the untagged moving image to which no event time tag is attached. The event time tag is added to the video data based on the time when the mutual feature values are the best match by comparing the feature quantity sequence information of the video and the feature quantity sequence information added to the metadata. Even if there is an excess or deficiency before and after the moving image, the event time tag can be easily and correctly assigned to the moving image data that has been accumulated and the event time tag has not been added. Furthermore, it is possible to edit a moving image with reference to the assigned event time tag.
また、本発明において、動画の特徴量シーケンス情報として、音声の特徴量、画像の特徴量、または複数の特徴量を組合せたベクトルを用いることが好ましい。例えば、音量データ、画像明度や色相、スペクトル、それらの時間変化等、スカラー値、組合せたベクトル値を用いることが可能である。 In the present invention, it is preferable to use an audio feature quantity, an image feature quantity, or a vector that is a combination of a plurality of feature quantities as moving picture feature quantity sequence information. For example, it is possible to use scalar values, combined vector values, such as volume data, image brightness, hue, spectrum, and their temporal changes.
また、本発明において、特徴量の照合方法として、相互相関関数、または動的計画法を用いることが好ましい。相互相関関数等を求めることにより、最も一致するずれ時間を計算することで、ずれ時間を適切なタグ付け開始時刻として与えることができる。 In the present invention, it is preferable to use a cross-correlation function or dynamic programming as a method for comparing feature quantities. By calculating the cross-correlation function or the like and calculating the most consistent shift time, the shift time can be given as an appropriate tagging start time.
また、本発明において、請求項11記載の動画編集方法では、イベントタイムタグを付与するタグ付けに使用するメタデータを取得する際、複数のメタデータの中から、各メタデータに付加された情報のうち、使用者が指定した条件に一致する情報を有するメタデータを選択するので、メタデータ群の中から、タグ付けに用いる希望のメタデータを容易に選別することが可能となる。
Further, in the present invention, in the moving image editing method according to
また、本発明において、請求項12記載の動画編集方法では、イベントタイムタグを付与するタグ付けに使用するメタデータを取得する際、タグ付けを意図している動画が決定しているとき、複数のメタデータの中から、各メタデータに付加された特徴量シーケンス情報と、タグ付けを意図している動画の特徴量シーケンス情報が一致する程度が高いメタデータを選択するので、タグ付けしたい動画が既知の場合、特に使用者がキーワード等の指定をしなくても、メタデータ群の中から、タグ付けに用いるメタデータを自動的に選別することが可能となる。
According to the present invention, in the moving image editing method according to
また、本発明において、請求項13記載の動画編集方法では、タグ付けに使用するメタデータを、メタデータを蓄積する中央サーバから取得するので、メタデータ群を使用者間で共有することが可能となる。 In the present invention, in the moving image editing method according to the thirteenth aspect, the metadata used for tagging is acquired from the central server that stores the metadata, so that the metadata group can be shared among users. It becomes.
また、本発明において、中央サーバは、使用者の与えた絞り込み条件から、蓄積されたメタデータを絞り込む機能を有することが好ましい。これにより、使用者間でデータベースを共有しつつ、多数のメタデータ群から、必要なメタデータを容易に選択することができる。 In the present invention, it is preferable that the central server has a function of narrowing down the accumulated metadata from the narrowing conditions given by the user. Thereby, it is possible to easily select necessary metadata from a large number of metadata groups while sharing a database among users.
また、本発明において、請求項15記載の動画編集方法では、中央サーバは、未タグ付け動画の時刻に対応した特徴量シーケンス情報と、サーバに蓄積されている複数のメタデータの時刻に対応した特徴量シーケンス情報とを照合し、特徴量シーケンス情報が一致する程度が高いメタデータを選択するので、特に使用者がキーワード等の指定をしなくても、動画に付加すべきタグを含んだメタデータを容易に抽出でき、なおかつ、動画そのものではなく、特徴量シーケンスの転送のみでメタデータを選択可能であるため、通信回線への負担が少ないという効果がある。
In the present invention, in the video editing method according to
また、本発明において、請求項16記載の動画編集方法では、中央サーバはメタデータを蓄積するメタデータデータベースを管理し、使用者が所有するメタデータを中央サーバにアップロードし、メタデータデータベースを更新することができるので、メタデータデータベースを、使用者の手によって充実させることが可能となり、メタデータの作成コストが低減でき、また、メタデータデータベースに使用者の嗜好が反映される。
According to the present invention, in the video editing method according to
また、本発明において、請求項17記載の動画編集方法では、メタデータを作成する際、イベント情報を含んだ放送からイベント時刻を抽出してメタデータを作成するので、メタデータを自動的に作成することが可能となり、メタデータの作成コストが低減できる。
According to the present invention, in the moving image editing method according to
また、本発明において、イベント時刻に対応した特徴量シーケンス情報を抽出して、特徴量シーケンス情報を含んだメタデータを作成することが好ましい。これにより、請求項5に記載の効果が得られる。 In the present invention, it is preferable that feature quantity sequence information corresponding to the event time is extracted to create metadata including the feature quantity sequence information. Thereby, the effect described in claim 5 is obtained.
以下、本発明の実施の形態について、添付図面に基づいて説明する。なお、以下に示す実施の形態は、本発明の説明のための例示に過ぎず、他のさまざまな方法によって実施可能である。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. The following embodiment is merely an example for explaining the present invention, and can be implemented by various other methods.
本発明の第1の実施形態を図1に基づいて説明する。図1は、動画情報そのものを含まないメタデータを利用して、動画データにイベントタイムタグを付加することを特徴とする発明の実施の形態である。 A first embodiment of the present invention will be described with reference to FIG. FIG. 1 is an embodiment of the invention characterized in that event time tags are added to moving image data using metadata not including moving image information itself.
図1に示すように、タグが付加されていない動画(動画データ)100、メタデータ101、およびタグ付加手段102が存在する。タグ付加手段102は、手元のイベントタイムタグ未付加動画100に対して、別途時刻情報とイベントタイムタグが示されたメタデータ101を獲得し、動画データ100に、メタデータ101に沿ったタグを付加する。
As shown in FIG. 1, there are a moving image (moving image data) 100 to which no tag is added,
メタデータ101は、ある番組に対して、何らかのイベントが発生する時刻と、そのイベントの種類を示す情報の対を、1つもしくは複数含むが、その番組そのものの動画を含まないデータである。従来、この種のメタデータは、動画と一体となった形でしか存在せず、著作権等の見地から、柔軟な利用が難しかったのに対し、本発明におけるメタデータ101は、動画そのものの情報を含まないため、柔軟な利用が可能であるという利点がある。
The
ここでは、メタデータ101は、歌番組”Music-TV”に関して、どの時刻にどのアーティストが登場したか、歌ったか、CMが入ったかというデータだとする。なお、ここでは対象を「番組」としたが、実際には番組に限定されず、映画、コンサート、演説等、さまざまなマルチメディアコンテンツを対象とすることが可能である。
Here, it is assumed that the
また、メタデータ101に含まれているような、イベントの時刻とそのイベントの種類を示す情報の対が、動画に組み込まれた場合、それをイベントタイムタグ104と呼称する。また、イベントタイムタグ104が組み込まれた動画を、タグ付き動画103と呼称する。
Further, when a pair of information indicating the time of an event and the type of the event as included in the
タグ付加手段102は、動画100に対して、メタデータ101に含まれる一つのイベント時刻とイベント内容の対、もしくは複数のイベント時刻とイベント内容の対を、あるオフセット時間を付加した上で付与し、タグ付き動画103を出力するものである。ただし、ここでは、前記オフセット時間を時刻t0とする。開始点t0は、手動または自動で与えられる。
The tag adding means 102 adds one event time and event content pair included in the
この結果、イベントタイムタグ104が付加されたタグ付き動画103が得られるという効果がある。
As a result, the tagged moving
本発明の第2の実施形態を図2〜図4に基づいて説明する。図2〜図4は、動画データに付加されたイベントタイムタグを利用して動画の検索もしくは編集を行うことを特徴とする発明の実施の形態の説明図である。そのうち、図2は、動画データに付加されたイベントタイムタグを利用して、動画の不要部分の削除を行うことを特徴とする発明の実施の形態である。 A second embodiment of the present invention will be described with reference to FIGS. 2 to 4 are explanatory diagrams of an embodiment of the invention characterized in that a video is searched or edited using an event time tag added to the video data. Among these, FIG. 2 shows an embodiment of the invention characterized in that an unnecessary part of a moving image is deleted using an event time tag added to the moving image data.
図2に示すように、図1に示した発明と同様、タグが付加されていない動画200、メタデータ201、およびタグ付加手段202が存在する。図1に示した方法と同じ方法で、タグ付き動画203が得られる。本実施形態では、さらに、イベントタイムタグを付加した動画203に対して、タグ情報を参照して、動画203の、条件にマッチする部分以外の不要部分の削除を行う動画編集手段204が存在する。ここでは、動画編集手段204により、アーティスト名「△☆」というキーワードにヒットする部分以外を削除し、編集済み動画205として出力するものとする。これにより、使用者の嗜好に沿った動画編集が容易になるという効果がある。
As shown in FIG. 2, as in the invention shown in FIG. 1, there are a moving
図3は、動画データに付加されたイベントタイムタグを利用して、動画の検索を行うことを特徴とする発明の実施の形態である。 FIG. 3 is an embodiment of the invention characterized in that a video search is performed using an event time tag added to the video data.
図3に示すように、図1に示した発明と同様、タグが付加されていない動画300、メタデータ301、およびタグ付加手段302が存在する。それに加え、イベントタイムタグを付加した動画303に対して、タグ情報を参照して、動画303の、条件にマッチする部分の検索を行うシーン検索手段304が存在する。図1に示した方法と同じ方法で、タグ付き動画303が得られる。本実施形態では、さらに、シーン検索手段304が、タグの内容を検索して、実際の再生時に使用者の所望のシーンの頭出しを行う。ここでは、シーン検索手段304は、アーティスト名「△☆」というキーワードにヒットする部分のみを抜き出して頭出しするものとする。これにより、動画自体の完全性を損なわないまま、自動的に、使用者の希望する部分のみが再生可能であるという効果がある。
As shown in FIG. 3, as in the invention shown in FIG. 1, there are a moving
図4は、動画データに付加されたイベントタイムタグを利用して、動画に何らかの付加を行うことを特徴とする発明の実施の形態である。 FIG. 4 is an embodiment of the invention characterized in that some addition is made to a moving image using an event time tag added to the moving image data.
図4に示すように、図1に示した発明と同様、タグが付加されていない動画400、メタデータ401、およびタグ付加手段402が存在する。それに加え、イベントタイムタグを付加した動画400に対して、タグ情報を参照して、動画400に、キャプション等を付加する動画編集手段404が存在する。図1に示した方法と同じ方法で、タグ付き動画403が得られる。本実施形態では、さらに、動画編集手段404が、タグの内容に沿って、動画403にキャプション405の付加を行う。なおキャプションとしては、ここではシーンの内容を示す文としたが、他にも歌詞、字幕、野球中継における球種や、さらには静止画、動画等も考えられる。
As shown in FIG. 4, as in the invention shown in FIG. 1, there are a moving
これにより、キャプション等の付加された編集済み動画406が簡単に得られるという効果がある。 As a result, there is an effect that the edited moving image 406 to which a caption or the like is added can be easily obtained.
本発明の第3の実施形態を図5に基づいて説明する。図5は、動画データの特徴量シーケンスをリファレンスデータと照合することにより、動画に余分や不足があっても、正しくイベントタイムタグを付加することを特徴とする方法の発明の実施の形態の説明図である。 A third embodiment of the present invention will be described with reference to FIG. FIG. 5 illustrates an embodiment of the invention of a method characterized in that event time tags are correctly added even if there is an excess or deficiency in the moving image by comparing the feature amount sequence of the moving image data with reference data. FIG.
図5に示すように、タグが付加されていない動画500、特徴量シーケンスを算出する特徴量算出手段501、メタデータ502、特徴量照合手段505が存在する。メタデータに、時刻に対応した、その番組固有の特性を示すと考えられる、音量や画像明度等の特徴量シーケンス情報が付加されており、タグ未付加動画の同特徴量シーケンスと、前記メタデータ付与の特徴量シーケンスと照合することにより、イベントタイムタグの時刻が、タグ未付加動画のどの時刻に最もマッチするかを検出し、動画の過不足にかかわらず、正しくタグ付けする。ここでは、動画500は、ある歌番組”Music-TV”を録画したものとする。また、動画500は、使用者が、同動画を録画した機械の時計が不正確であることから、番組の前後に数分の余裕を持たせて録画しておいたものとする。また、メタデータ502は、図1〜図4で示すメタデータ101,201,301,401と相違し、何らかのイベントが発生する時刻とそのイベントの種類を示すテキストの対のほかに番組”Music-TV”のリファレンスに対して、あらかじめ計算された特徴量シーケンスデータ503を含む。
As shown in FIG. 5, there are a moving
特徴量算出手段501は、動画500の特徴量シーケンスデータ504を算出する。なお、ここで特徴量シーケンスとは、具体的には音量データとするが、画像明度や色相、スペクトル、それらの時間変化等、さまざまなスカラー値、ベクトル値を用いることが可能である。
The feature
特徴量照合手段505は、動画500から導出された特徴量シーケンス504と、メタデータに含まれる特徴量シーケンス503が最も一致するずれ時間を算出する。ここでは、相互相関関数506を求めることにより、最も一致するずれ時間を計算するものとする。ここで、相互相関関数のピークとなる時刻がt1だとすると、動画500の先頭に時刻t1分の余分が付加されていることが判明する。このずれ時間t1を、図1のシステムのタグ付け開始時刻t0として与えることにより、動画500の先頭の余分がどれほどであっても、自動的に適切な時刻にタグデータを付加することができるという効果がある。
The feature
なお、特徴量シーケンス照合に用いる方法として、動的計画法を用いてもよい。 Note that dynamic programming may be used as a method used for feature amount sequence matching.
本発明の第4の実施形態を図6に基づいて説明する。図6は、メタデータ群の中から、ユーザの指定した検索キーに従って、使用するメタデータを選択することを特徴とする方法の発明の実施の形態の説明図である。 A fourth embodiment of the present invention will be described with reference to FIG. FIG. 6 is an explanatory diagram of an embodiment of the invention of a method characterized by selecting metadata to be used from a metadata group according to a search key designated by a user.
図6に示すように、使用者600、メタデータデータベース601およびメタデータ選別手段602が存在する。メタデータデータベース601は、図1〜図5で示した実施形態において利用するメタデータを多数蓄積している。本実施の形態は、複数のメタデータの中から、使用者が動画タグ付けに使用するメタデータを選出する方法であり、メタデータ選別手段602が、メタデータに付加された情報のうち、使用者の指定した条件に該当するものを抽出することにより、希望のメタデータを選択する。
As shown in FIG. 6, there are a
すなわち、使用者は、メタデータ選別手段602に、所望の検索条件603を入力する。条件としては、番組名、タグに含まれるキーワード、番組の長さ、放送日時、放送局等、さまざまな条件を指定することができる。ここでは、番組名”Music-TV”を指定したものとする。
That is, the user inputs a desired
メタデータ選別手段602は、メタデータデータベース601にアクセスし、検索条件603に該当するメタデータ群604を選択する。これにより、多数のメタデータ群から、必要なメタデータを容易に選択することができるという効果がある。
The
本発明の第5の実施の形態を図7および図8に基づいて説明する。図7および図8は、メタデータ群の中から、動画の持つ特徴量シーケンスとのマッチングを行うことにより、使用するメタデータを選択することを特徴とする方法の発明の実施の形態の説明図である。 A fifth embodiment of the present invention will be described with reference to FIGS. FIG. 7 and FIG. 8 are diagrams for explaining an embodiment of the invention of a method characterized by selecting metadata to be used from the metadata group by matching with a feature amount sequence of a moving image. It is.
図7および図8に示すように、使用者700が動画701を所有しており、さらにメタデータデータベース702、特徴量算出手段703、および特徴量照合手段704が存在する。特徴量算出手段703は図5で説明したものと同様である。本実施の形態は、タグ付けをする動画が既知の場合に、複数のメタデータの中から、使用者が動画タグ付けに使用するメタデータを選出する方法であり、メタデータ群中の、それぞれのメタデータに付加された特徴量シーケンスと、タグ付けをする動画の同特徴量シーケンスをそれぞれ照合し、もっとも適合度が高い特徴量シーケンスを付与されたメタデータを選出する。
As shown in FIGS. 7 and 8, the
すなわち、特徴量算出手段703は、動画701の特徴量を、図5で示した方法と同様に算出し、特徴量シーケンス705を算出する。ここで、特徴量とは、具体的には音量データとするが、画像明度や色相、スペクトル、それらの時間変化等、さまざまなスカラー値、ベクトル値を用いることが可能であることも図5で示した方法と同様である。
That is, the feature
特徴量照合手段704は、動画701の特徴量シーケンス705と、メタデータデータベース702に蓄積されているメタデータ群のそれぞれの特徴量シーケンスとの比較を行い、適合度の高いメタデータ1つまたは複数を抽出し、マッチしたメタデータ706(もしくは、マッチしたメタデータ群)を選出する。
The feature
前記、適合度の高いメタデータの抽出方法の一例を図8に示す。まず、特徴量照合手段704は、前記特徴量シーケンスデータ800と、蓄積されている各メタデータの持つ特徴量シーケンスデータ801〜803との、相互相関関数804〜806を計算する。次に、相互相関関数804〜806のうちもっとも大きなピーク値を持つものを検索する。メタデータ1の”Music-TV”の特徴量シーケンスデータ801は、前後に余分がある以外は、送信されてきた特徴量シーケンスデータ800とほぼ一致しており、あるずれ時間t1において非常に大きな相互相関値ピークを示すはずである。メタデータ選別手段704は、入力特徴量データ800に相当する動画701に付加されるべきメタデータは、もっとも大きな相互相関値ピークを示す、メタデータ1であると判断する。
FIG. 8 shows an example of the metadata extraction method having a high degree of fitness. First, the feature
なお、ここでは照合の手段として相互相関関数を用いたが、動的計画法を用いても同様の方法が可能である。 Although the cross-correlation function is used here as a collation means, the same method can be used even when dynamic programming is used.
また、図7では特徴量照合手段704が出力するのは、マッチしたメタデータ706のみとしているが、これに加えて動画のずれ量t1も同時に出力することができる。
Further, the
この方法により、特に使用者がキーワード等の指定をしなくても、動画701に付加すべきタグを含んだメタデータを容易に抽出できるという効果がある。 With this method, there is an effect that metadata including a tag to be added to the moving image 701 can be easily extracted even if the user does not specify a keyword or the like.
本発明の第6の実施形態を図9に基づいて説明する。図9は、中央サーバからメタデータを取得することを特徴とする方法の発明の実施の形態の説明図である。 A sixth embodiment of the present invention will be described with reference to FIG. FIG. 9 is an explanatory diagram of an embodiment of the invention of a method characterized by acquiring metadata from a central server.
図9に示すように、使用者900とサーバ901が存在し、サーバ901はメタデータデータベース902およびメタデータ選別手段903を含む。メタデータデータベース902は、図1〜図5で示した形態において利用するメタデータを多数蓄積している。本実施の形態は、タグ付けに用いるメタデータの取得方法であり、タグ付けに用いるメタデータを、メタデータを蓄積する中央サーバ901から取得する。また、中央サーバ901が、使用者の与えたキーワードや放送日時情報等の絞り込み条件に従って、蓄積されたメタデータの中から絞り込み条件に適合するメタデータを選出する。
As shown in FIG. 9, a
すなわち、使用者900は、サーバ901に、所望の検索条件904を入力する。条件としては、図6で例示したものがそのまま適用可能である。ここでは、番組名”Music-TV”を指定したものとする。
That is, the
メタデータ選別手段903は、メタデータデータベース902にアクセスし、検索条件904に該当するメタデータ群905を選択し、使用者900に送信する。これにより、ユーザ間でデータベースを共有しつつ、多数のメタデータ群から、必要なメタデータを容易に選択することができるという効果がある。
The
本発明の第7の実施形態を図10に基づいて説明する。図10は、中央サーバが、蓄積されたメタデータの中から、使用者側から送信されてきた特徴量シーケンスと最も適合したメタデータを選別することを特徴とする方法の発明の実施形態の説明図である。 A seventh embodiment of the present invention will be described with reference to FIG. FIG. 10 is a diagram illustrating an embodiment of a method invention in which the central server selects, from the accumulated metadata, metadata that best matches the feature amount sequence transmitted from the user side. FIG.
図10に示すように、使用者1000が動画1001を所有しており、特徴量算出手段1002を備える。また、サーバ1003が存在し、メタデータデータベース1004、特徴量照合手段1005を備える。タグ付けをする動画が既知の場合に、使用者1000側で、タグ付けする動画の特徴量シーケンスを算出し、それを受信した中央サーバ1003が、タグ付けをする動画の特徴量シーケンスと、蓄積されたメタデータ群中の各メタデータに付与された特徴量シーケンスの照合を行い、適合度の高いメタデータを選出する。
As shown in FIG. 10, a
すなわち、特徴量算出手段1002は、動画1001の特徴量を、図5で示した方法と同様に算出し、特徴量シーケンス1006を算出する。ここで、特徴量とは、具体的には音量データとするが、画像明度や色相、スペクトル、それらの時間変化等、さまざまなスカラー値、ベクトル値を用いることが可能であることも、図5で示した方法と同様である。
That is, the feature
特徴量シーケンス1006は、通信路を介してサーバ1003に送られ、サーバの特徴量照合手段1005により、メタデータデータベース1004に蓄積されているメタデータ群の特徴量シーケンスそれぞれと比較され、適合度の高いメタデータ1つまたは複数を抽出し、マッチしたメタデータ1007(もしくは、マッチしたメタデータ群)が選出され、再び通信路を介して使用者1000側に送られる。
The feature amount sequence 1006 is sent to the
なお、特徴量照合手段1005の行うマッチングは、図7〜図8で示したマッチングと同様である。
Note that the matching performed by the feature
また、図10では特徴量照合手段1005が出力するのは、マッチしたメタデータ1007のみとしているが、これに加えて動画のずれ量t1も同時に出力することができる。
Further, the output from the
この方法により、ユーザ間でデータベースを共有しつつ、特に使用者がキーワード等の指定をしなくても、動画1001に付加すべきタグを含んだメタデータを容易に抽出でき、なおかつ、動画そのものではなく、特徴量シーケンスの転送のみでこの機能を実現可能であるため、通信回線への負担が少ないという効果がある。 By this method, it is possible to easily extract metadata including tags to be added to the moving image 1001 while the user does not specify a keyword or the like while sharing the database between the users. In addition, since this function can be realized only by transferring the feature amount sequence, there is an effect that the burden on the communication line is small.
本発明の第8の実施形態を図11に基づいて説明する。図11は、メタデータを蓄積した中央サーバに、使用者がメタデータをアップロードすることを特徴とする方法の発明の実施の形態の説明図である。 An eighth embodiment of the present invention will be described with reference to FIG. FIG. 11 is an explanatory diagram of an embodiment of the invention of a method characterized in that a user uploads metadata to a central server that accumulates metadata.
図11に示すように、使用者1100が、自ら手動でタグ付けをしたタグつき動画1101および、タグデータ抽出手段1102を所持している。また、サーバ1103が存在し、サーバ1103は、メタデータデータベース1104を含む。本実施の形態は、中央サーバ1103の備えるメタデータデータベース1104の管理方法であり、使用者が、自らの所有するメタデータを、回線を介して送信し、メタデータデータベース1104を更新することができる。
As shown in FIG. 11, a
すなわち、使用者1100は、タグつき動画1101をタグデータ抽出手段1102に入力し、メタデータを作成する。これを使用者作成メタデータ1105とする。なお、図ではメタデータはイベントタイムのみのデータとしているが、タグデータ抽出手段1102が、図5で説明したような特徴量算出手段を備えており、使用者作成メタデータ1105が、特徴量シーケンスデータを含む形態も存在する。
That is, the
使用者1100は、作成したメタデータ1105を、通信回線を介してサーバ1103に送信する。サーバは、使用者作成メタデータを、メタデータデータベース1104に追加する。
The
この方法により、メタデータデータベースに蓄積されるメタデータが増加し、メタデータを作成するコストの削減ができる効果、また、メタデータデータベースに使用者の嗜好が反映される効果がある。 This method increases the amount of metadata accumulated in the metadata database, thereby reducing the cost of creating metadata, and also has the effect of reflecting user preferences in the metadata database.
本発明の第9の実施の形態を図12に基づいて説明する。図12は、タグ付きの放送データから、メタデータを抽出する方法の発明の実施の形態の説明図である。 A ninth embodiment of the present invention will be described with reference to FIG. FIG. 12 is an explanatory diagram of an embodiment of the invention of a method for extracting metadata from tagged broadcast data.
図12に示すように、イベントタイムタグつき放送1200が配信される環境および、メタデータ抽出手段1201が存在する。本実施の形態は、メタデータの自動作成方法であり、イベントをポイントする情報を含んだ放送から、イベントの時刻を抽出してメタデータを作成する。 As shown in FIG. 12, there is an environment in which a broadcast 1200 with an event time tag is distributed, and metadata extraction means 1201. The present embodiment is a method for automatically creating metadata, in which metadata is created by extracting the time of an event from a broadcast including information that points to an event.
すなわち、タグデータ抽出手段1201は、タグつき放送1200から、タイムタグデータや番組名を抽出し、メタデータを作成する。これを自動作成メタデータ1202とする。なお、同図ではメタデータはイベントタイムのみのデータとしているが、他の形態として、タグデータ抽出手段1201が、図5で説明したような特徴量算出手段を備えており、自動作成メタデータ1202が、特徴量シーケンスデータを含む形態も存在する。 That is, the tag data extraction unit 1201 extracts time tag data and a program name from the tagged broadcast 1200, and creates metadata. This is automatically created metadata 1202. In the figure, the metadata is only data of the event time. However, as another form, the tag data extraction unit 1201 includes the feature amount calculation unit as described in FIG. However, there is a form including feature amount sequence data.
この方法により、メタデータが自動的に作成されるため、メタデータを作成するコストの削減ができる効果がある。 Since metadata is automatically created by this method, it is possible to reduce the cost of creating metadata.
なお、上記各実施形態は適宜組み合わせて実施できる。 The above embodiments can be implemented in combination as appropriate.
本発明にかかる動画編集方法は、録画済の動画データに対して、全自動でイベントタイムタグを付加すること、および付加して編集することが可能となる。本発明は、DVDレコーダやパーソナルコンピュータ上のソフトウェアとして利用可能性がある。 The moving image editing method according to the present invention makes it possible to add an event time tag to recorded moving image data in a fully automatic manner, and to add and edit it. The present invention may be used as software on a DVD recorder or a personal computer.
100 動画データ
101 動画に付加される、メタデータ
102 タグ付加手段
103 出力された、タグ付き動画
104 付与されたイベントタイムタグ
200 動画データ
201 動画に付加される、メタデータ
202 タグ付加手段
203 出力された、タグ付き動画
204 動画編集手段
205 出力された、編集済み動画
300 動画データ
301 動画に付加される、メタデータ
302 タグ付加手段
303 出力された、タグ付き動画
304 シーン検索手段
400 動画データ
401 動画に付加される、メタデータ
402 タグ付加手段
403 出力された、タグ付き動画
404 動画編集手段
405 動画に付加される、キャプション
406 出力された、編集済み動画
500 動画データ
501 特徴量算出手段
502 メタデータ
503 メタデータに付加されている、特徴量シーケンス
504 動画データから算出された、特徴量シーケンス
505 特徴量照合手段
506 相互相関関数
600 使用者
601 メタデータデータベース
602 メタデータ選別手段
603 検索条件、番組名 Music-TV
604 選別されたメタデータ群
700 使用者
701 動画データ
702 メタデータデータベース
703 特徴量算出手段
704 特徴量照合手段
705 動画データから算出された、特徴量シーケンス
706 選別されたメタデータ
800 入力特徴量シーケンスデータ
801 メタデータ1
802 メタデータ2
803 メタデータn
804 入力特徴量シーケンスデータとメタデータ1の、相互相関関数
805 入力特徴量シーケンスデータとメタデータ2の、相互相関関数
806 入力特徴量シーケンスデータとメタデータnの、相互相関関数
900 使用者
901 サーバ
902 メタデータデータベース
903 メタデータ選別手段
904 検索条件、番組名Music-TV
905 選別されたメタデータ
1000 使用者
1001 動画データ
1002 特徴量算出手段
1003 サーバ
1004 メタデータデータベース
1005 特徴量照合手段
1006 動画データから算出された、特徴量シーケンス
1007 選別されたメタデータ
1100 使用者
1101 タグ付き動画
1102 タグデータ抽出手段
1103 サーバ
1104 メタデータデータベース
1105 使用者が作成したメタデータ
1200 タグ付き放送データ
1201 タグデータ抽出手段
1202 出力された、自動作成メタデータ
100
604
802
803 metadata n
804
905
Claims (18)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006169914A JP2008005010A (en) | 2006-06-20 | 2006-06-20 | Motion picture editing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006169914A JP2008005010A (en) | 2006-06-20 | 2006-06-20 | Motion picture editing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008005010A true JP2008005010A (en) | 2008-01-10 |
Family
ID=39009077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006169914A Pending JP2008005010A (en) | 2006-06-20 | 2006-06-20 | Motion picture editing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008005010A (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100790777B1 (en) * | 2005-11-23 | 2008-01-02 | 송만호 | Inductor and manufacturing method thereof |
KR100790108B1 (en) * | 2006-11-17 | 2008-01-02 | 삼성전자주식회사 | Device for measuring distance by laser in a wireless terminal |
KR100810104B1 (en) * | 2007-03-28 | 2008-03-06 | 주식회사 영텍 | Structure of positioner air supply and air outlet |
KR100811996B1 (en) * | 2007-03-21 | 2008-03-10 | 삼성에스디아이 주식회사 | Organic light emitting diode and organic light emitting display device having the organic light emitting diode |
KR100813854B1 (en) * | 2007-04-23 | 2008-03-17 | 삼성에스디아이 주식회사 | Organic light emitting device and manufacturing method thereof |
KR100817992B1 (en) * | 2006-05-10 | 2008-03-31 | 가시오게산키 가부시키가이샤 | Display device and manufacturing method thereof |
KR100842509B1 (en) * | 2006-12-26 | 2008-07-01 | 동부일렉트로닉스 주식회사 | Laser scanning apparatus for inspecting surface of semiconductor wafer |
KR100844680B1 (en) * | 2007-09-18 | 2008-07-07 | 현대자동차주식회사 | Structure connecting reinforce member of side member for automobile |
KR100845693B1 (en) * | 2007-11-12 | 2008-07-11 | 길종진 | Temperature control circuit |
KR100847052B1 (en) * | 2006-06-23 | 2008-07-17 | 명병수 | Interface Circuit for FFT Frequency Analyzer and Sound Sensor Position Control System |
KR100847297B1 (en) * | 2005-12-15 | 2008-07-18 | 유한회사 로드플랜 | A structure of setting sidewalk-block |
KR100857737B1 (en) * | 2007-05-20 | 2008-09-10 | 경상대학교산학협력단 | A jam added onion, chungkukjang it's makimg method using supercritical carbon dioxide extraction equipment |
KR100861647B1 (en) * | 2006-04-06 | 2008-10-02 | 주식회사 하이닉스반도체 | Method of measuring a channel boosting voltage in a NAND flash memory device |
JP2010055174A (en) * | 2008-08-26 | 2010-03-11 | Nippon Telegr & Teleph Corp <Ntt> | Context extraction server, context extraction method, and program |
JP2010068426A (en) * | 2008-09-12 | 2010-03-25 | Fujitsu Ltd | Playback apparatus and content playback program |
EP2713371A2 (en) | 2012-09-27 | 2014-04-02 | JVC KENWOOD Corporation | Imaging device, image processing device, imaging method, image processing method, and computer program product |
WO2020137274A1 (en) | 2018-12-27 | 2020-07-02 | Run.Edge株式会社 | Moving image tagging device and moving image tagging method |
-
2006
- 2006-06-20 JP JP2006169914A patent/JP2008005010A/en active Pending
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100790777B1 (en) * | 2005-11-23 | 2008-01-02 | 송만호 | Inductor and manufacturing method thereof |
KR100847297B1 (en) * | 2005-12-15 | 2008-07-18 | 유한회사 로드플랜 | A structure of setting sidewalk-block |
KR100861647B1 (en) * | 2006-04-06 | 2008-10-02 | 주식회사 하이닉스반도체 | Method of measuring a channel boosting voltage in a NAND flash memory device |
KR100817992B1 (en) * | 2006-05-10 | 2008-03-31 | 가시오게산키 가부시키가이샤 | Display device and manufacturing method thereof |
KR100847052B1 (en) * | 2006-06-23 | 2008-07-17 | 명병수 | Interface Circuit for FFT Frequency Analyzer and Sound Sensor Position Control System |
KR100790108B1 (en) * | 2006-11-17 | 2008-01-02 | 삼성전자주식회사 | Device for measuring distance by laser in a wireless terminal |
KR100842509B1 (en) * | 2006-12-26 | 2008-07-01 | 동부일렉트로닉스 주식회사 | Laser scanning apparatus for inspecting surface of semiconductor wafer |
KR100811996B1 (en) * | 2007-03-21 | 2008-03-10 | 삼성에스디아이 주식회사 | Organic light emitting diode and organic light emitting display device having the organic light emitting diode |
KR100810104B1 (en) * | 2007-03-28 | 2008-03-06 | 주식회사 영텍 | Structure of positioner air supply and air outlet |
KR100813854B1 (en) * | 2007-04-23 | 2008-03-17 | 삼성에스디아이 주식회사 | Organic light emitting device and manufacturing method thereof |
KR100857737B1 (en) * | 2007-05-20 | 2008-09-10 | 경상대학교산학협력단 | A jam added onion, chungkukjang it's makimg method using supercritical carbon dioxide extraction equipment |
KR100844680B1 (en) * | 2007-09-18 | 2008-07-07 | 현대자동차주식회사 | Structure connecting reinforce member of side member for automobile |
KR100845693B1 (en) * | 2007-11-12 | 2008-07-11 | 길종진 | Temperature control circuit |
JP2010055174A (en) * | 2008-08-26 | 2010-03-11 | Nippon Telegr & Teleph Corp <Ntt> | Context extraction server, context extraction method, and program |
JP2010068426A (en) * | 2008-09-12 | 2010-03-25 | Fujitsu Ltd | Playback apparatus and content playback program |
EP2713371A2 (en) | 2012-09-27 | 2014-04-02 | JVC KENWOOD Corporation | Imaging device, image processing device, imaging method, image processing method, and computer program product |
US9294709B2 (en) | 2012-09-27 | 2016-03-22 | JVC Kenwood Corporation | Imaging device, image processing device, imaging method, image processing method, and computer program product |
WO2020137274A1 (en) | 2018-12-27 | 2020-07-02 | Run.Edge株式会社 | Moving image tagging device and moving image tagging method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008005010A (en) | Motion picture editing method | |
JP4224095B2 (en) | Information processing apparatus, information processing program, and information processing system | |
US10313714B2 (en) | Audiovisual content presentation dependent on metadata | |
US9690768B2 (en) | Annotating video intervals | |
US7319806B1 (en) | Audiovisual system which uses metadata to allow user-initiated jumps from point to point within multiple audiovisual streams | |
JP4550725B2 (en) | Video viewing support system | |
JP2006155384A (en) | Video comment input/display method and device, program, and storage medium with program stored | |
US8036261B2 (en) | Feature-vector generation apparatus, search apparatus, feature-vector generation method, search method and program | |
US20080065693A1 (en) | Presenting and linking segments of tagged media files in a media services network | |
US8019163B2 (en) | Information processing apparatus and method | |
JP2004193871A (en) | Media data viewing apparatus and metadata sharing system | |
JP5868978B2 (en) | Method and apparatus for providing community-based metadata | |
KR100967658B1 (en) | System and Method for personalized broadcast based on dynamic view selection of multiple video cameras, Storage medium storing the same | |
JP2001028722A (en) | Moving picture management device and moving picture management system | |
US20140304597A1 (en) | Content-object synchronization and authoring of dynamic metadata | |
CN101568968B (en) | Method for creating a new summary of an audiovisual document that already includes a summary and reports and a receiver that can implement said method | |
JP4331706B2 (en) | Editing apparatus and editing method | |
JP4376218B2 (en) | Content storage device, content storage method, and program recording medium | |
US8971686B2 (en) | Method and apparatus for managing digital contents and method and apparatus for executing digital contents according to playback positions | |
JP5053287B2 (en) | Method for identifying a recorded document using a display, key image extraction and associated receptors | |
US20160127807A1 (en) | Dynamically determined audiovisual content guidebook | |
JP2008099012A (en) | Content reproduction system and content storage system | |
KR100479608B1 (en) | Intelligent video browsing system | |
US20190182517A1 (en) | Providing Enrichment Data That is a Video Segment | |
JP4469884B2 (en) | Metadata sharing system |