JP3781715B2 - Metadata production device and search device - Google Patents
Metadata production device and search device Download PDFInfo
- Publication number
- JP3781715B2 JP3781715B2 JP2002319756A JP2002319756A JP3781715B2 JP 3781715 B2 JP3781715 B2 JP 3781715B2 JP 2002319756 A JP2002319756 A JP 2002319756A JP 2002319756 A JP2002319756 A JP 2002319756A JP 3781715 B2 JP3781715 B2 JP 3781715B2
- Authority
- JP
- Japan
- Prior art keywords
- content
- metadata
- file
- keyword
- recording
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、コンテンツ制作におけるメタデータ制作装置及び検索装置に関するものである。
【0002】
【従来の技術】
近年、映像・音声コンテンツの制作において、これらコンテンツに関連したメタデータの付与することがおこなわれている。
【0003】
しかしながら、上記メタデータの付与は、制作された映像・音声コンテンツのシナリオあるいはナレーション原稿をもとに、制作された映像・音声コンテンツを再生しながらメタデータとすべき情報を確認し、手作業でコンピュータ入力することにより制作する方法が一般的であり、相当な労力の必要な方法であった。
【0004】
また、カメラ撮影時に音声認識を用いタグ付けをするシステムは存在するが、撮影と同時に使用されるものに過ぎなかった。(特許文献1参照)
【0005】
【特許文献1】
特開平09−130736号公報
【0006】
【発明が解決しようとする課題】
本願発明は、上記従来の問題点に係る課題を解決することを目的とするものであって、制作された映像・音声コンテンツを再生することによりメタデータとすべき情報を確認し、音声入力でコンンピュータ等に入力することにより前記メタデータを制作し、検索するシステムを提供することを目的とする。
【0007】
【課題を解決するための手段】
上記課題を解決するために本願発明は、制作されたコンテンツに合わせて制作されたシナリオ、或いは前記コンテンツの内容から抽出されたコンテンツ管理用キーワードの音声信号が入力され、前記音声信号をデータ化する入力手段と、前記入力手段でデータ化された音声信号データから、キーワードを認識する音声認識手段と、前記音声認識手段から出力されたキーワードに、前記キーワードに関連する一般属性キーワードを付記するとともに、前記コンテンツから供給されるタイムコードを用いて、前記キーワードと前記コンテンツに含まれる画像信号との時間位置関係を示す情報を付記してメタデータファイルに記憶するファイル処理手段とを備えたものである。
これにより、従来キーボードで入力し、制作していたメタデータを、音声認識を用いて音声入力し、自動的にタイムコード付きのメタデータを制作することが可能となる。
特に、数秒単位の間隔でメタデータを付与する場合は、キー入力では困難であるが、本構成によれば、数秒単位間隔であっても効率よく、メタデータを付与できる。
【0008】
【発明の実施の形態】
本発明の請求項1から3に係る発明は、制作されたコンテンツに合わせて制作されたシナリオ、或いは前記コンテンツの内容から抽出されたコンテンツ管理用キーワードの音声信号が入力され、前記音声信号をデータ化する入力手段と、前記入力手段でデータ化された音声信号データから、キーワードを認識する音声認識手段と、前記音声認識手段から出力されたキーワードに、前記キーワードに関連する一般属性キーワードを付記するとともに、前記コンテンツから供給されるタイムコードを用いて、前記キーワードと前記コンテンツに含まれる画像信号との時間位置関係を示す情報を付記してメタデータファイルに記憶するファイル処理手段とを具備したことを特徴とするメタデータ制作装置である。
【0009】
本発明の請求項4から6に係る発明は、制作されたコンテンツに合わせて制作されたシナリオ、或いは前記コンテンツの内容から抽出されたコンテンツ管理用キーワードの音声信号が入力され、前記音声信号をデータ化する入力手段と、前記入力手段でデータ化された音声信号データから、キーワードを認識する音声認識手段と、前記音声認識手段から出力されたキーワードに、前記キーワードに関連する一般属性キーワードを付記するとともに、前記コンテンツから供給されるタイムコードを用いて、前記キーワードと前記コンテンツに含まれる画像信号との時間位置関係を示す情報を付記してメタデータファイルに記憶するファイル処理手段と、前記キーワードまたは前記一般属性キーワードに対応する前記コンテンツに含まれる前記画像信号を検索する検索手段とを具備し、検索時に前記キーワードで検索可能であるとともに、前記一般属性キーワードでも検索可能であることを特徴とするメタデータ検索装置である。
【0010】
本発明の請求項7に係る発明は、制作されたコンテンツに合わせて制作されたシナリオ、或いは前記コンテンツの内容から抽出されたコンテンツ管理用キーワードの音声信号を入力し、前記音声信号をデータ化する入力手段と、ジャンル別辞書を複数用意し、コンテンツに適合したジャンルの辞書を選択し、前記入力手段でデータ化された音声信号データから、キーワードを認識する音声認識手段と、前記音声認識手段から出力されたキーワードを、コンテンツに含まれる画像信号との時間位置を示すタイムコードと共にメタデータファイルに記憶するファイル処理手段と、前記コンテンツファイルの記録位置と前記メタデータファイルの関係を管理する制御ファイルを発生させるコンテンツ情報ファイル処理手段と、前記コンテンツファイルと、前記メタデータファイルと、前記制御ファイルとを一緒に記録する記録手段と、検索したいコンテンツの分野に適合した、前記音声認識手段で用いた共通辞書からキーワードを選定し、前記選定したキーワードが記録されている前記メタデータファイルを特定し、前記記録手段に記録されているコンテンツの中から、検索したいコンテンツを検索し、前記制御ファイルから検索したいシーンの記録位置を検索する検索手段とを具備し、前記メタデータから前記記録手段に記録されたコンテンツファイルの記録位置とを特定することを特徴とするメタデータ検索装置である。
【0011】
以下、本発明の実施の形態について図面を用いて説明する。
(実施の形態1)
図1は、本発明の実施の形態1によるメタデータ制作装置の構成を示すブロック図である。
【0012】
図1において、1はコンテンツデータベース(DB)、2は入力手段、3は音声認識手段、4は辞書データベース(DB)、5はファイル処理手段、11は映像モニタである。
コンテンツDB1は、例えばVTR(あるいはハードディスクで構成された映像・音声信号再生手段、あるいは半導体メモリなどのメモリ手段を記録媒体とする映像・音声信号再生手段、あるいは光学記録式または磁気記録式などの回転型ディスクで構成された映像・音声信号再生手段、更には伝送されてきたあるいは放送されてきた映像・音声信号を1次記録し、再生する映像・音声再生手段などの、コンテンツに合わせたタイムコードを発生しながら再生する手段を備えたコンテンツ記録手段)である。
コンテンツDB1から再生されたタイムコード付き、映像信号は映像モニタ11に出力され、前記映像モニタ11で映出される。
次に、前記映像モニタ11に映出されたコンテンツに合わせて、ナレータ12がマイクロホーンを用いてナレーションの音声信号を入力する。この際、ナレーターは映像モニタ11に映しだされたコンテツ、あるいは、タイムコードを確認し、シナリオ、或いはナレーション原稿、或いはコンテンツの内容などを基に抽出されたコンテンツ管理用キーワードを発声し、マイクロホーンを用いてナレーションとして音声信号を入力する。
従って,前記したように入力される音声信号を前もってシナリオ等から限定されたキーワードを使用することによって、後段の音声認識手段3での認識率を改善させることができる。
次に、入力手段2ではマイクロホーンから入力された音声信号を、コンテンツDB1から出力されている垂直同期信号に同期したクロックで、前記音声信号をデータ化する。
次に、入力手段2でデータ化された音声信号データは、音声認識手段3に入力される。また、同時に、音声認識に必要な辞書が辞書DB4から供給される。
ここで、使用する音声認識用辞書を端子102から辞書DB4に設定する。
例えば、図2に示すように各分野別に辞書DB4が構成されていたとすると、使用する分野を端子102(例えば、キー入力できるキーボード端子)から設定する。
料理番組の場合は、料理―日本料理―料理法―野菜炒め等を端子102から辞書DB4を設定する。
前記のように辞書DB4を設定することで使用する単語、および、音声認識すべき単語を制限し、音声認識手段3の認識率を改善する。
また、更に、図1にもどり、端子102からシナリオ、あるいは、シナリオ原稿、あるいはコンテンツの内容から抽出されたキーワードを入力する。
例えば、料理番組の場合は、図3に示すレシピを端子102から入力する。
従って、レシピに記入されている単語が音声信号として入力されてくる可能性が高いので、辞書DB4では端子102から入力されたレシピ単語の認識優先度を明示し、優先して音声認識を行うようにする。
例えば、「柿」と「貝のカキ」が辞書中にあった場合、端子102から入力されたレシピ単語が「貝のカキ」のみの場合は、「貝のカキ」に優先順位1がつけられる。
音声認識手段3では、「かき」という音声を認識した場合、辞書DB4に設定された単語の優先順位1が明記されている「貝のカキ」と認識する。
従って、辞書DB4では、端子102から入力される分野で単語を限定し、更に、シナリオを端子102から入力して単語の優先度を明示することで、音声認識手段3での認識率を改善させることができる。
図1にもどり、音声認識手段3では、辞書DB4から供給された辞書に従って、入力手段2から入力された音声信号データを認識し、メタデータを生成する。
次に、音声認識手段3から出力されたメタデータは、ファイル処理手段5に入力される。
ここで、前述したように入力手段2では、コンテンツDB1から再生された垂直同期信号に同期して、音声信号をデータ化している。
従って、ファイル処理手段5では、入力手段2からの同期情報と、コンテンツDB1から供給されるタイムコード値とを用いて、音声認識手段3から出力されたメタデータに、file開始からの1秒ごとの基準時間(TM_ENT (秒))と、基準時間からのフレームオフセット数を示す(TM_OFFSET)と、タイムコードを付記した形式でfile化処理する。
例えば、前述した料理番組の場合は、図4に示したようなTEXT形式のメタデータファイルが、ファイル処理手段5から出力される。
次に、記録手段7ではファイル処理手段5から出力されたメタデータファイルとコンテンツDB1から出力されたコンテンツを記録する。
ここで、記録手段7は、HDD,メモリ、光ディスク等から構成されており、コンテンツDB1から出力されたコンテンツもファイル形式で記録する。
【0013】
(実施の形態2)
次に、実施の形態2について説明する。
実施の形態2は、図5に示すように、実施の形態1に対して、コンテンツ情報ファイル処理手段6が付加されている。前記コンテンツ情報ファイル処理手段6では、記録手段7に記録されたコンテンツの記録位置関係を示す制御ファイルを発生し、記録手段7に記録する。
即ち、前記コンテンツ情報ファイル処理手段6では、コンテンツDB1から出力されたコンテンツと、記録手段7から出力されるコンテンツの記録位置情報をもとに、前記コンテンツが保有している時間軸情報と、記録手段7に記録したコンテンツのアドレス関係を示す情報を発生し、データ化して制御ファイルとして出力する。
例えば、図6に示すように、前記コンテンツの記録位置を示す記録メディアアドレスに対し、前記コンテンツの時間軸基準を示す、TM_ENT #jを等時間軸間隔にポイントする。例えば、TM_ENT #jを1秒(NTSC信号の場合、30フレーム)毎に記録メディアアドレスをポイントする。
前記のようにマッピングすることで、コンテンツが1秒単位毎に分散記録されても、TM_ENT #jから記録手段7の記録アドレスを一義的に求めることができる。さらに、図4で前述したようにメタデータファイルには、ファイル開始からの1秒ごとの基準時間(TM_ENT (秒))と、基準時間からのフレームオフセット数を示す(TM_OFFSET)と、タイムコードと、メタデータとがTEXT形式で記録されている。
従って、前記メタデータファイルの中でメタデータ1を指定すれば、タイムコード、基準時間、及び、フレームオフセット値がわかるので、図6に示す制御ファイルから記録手段7での記録位置が即座にわかることになる。
なお、ここでは前記TM_ENTjの等時間軸間隔は例えば、1秒おきにポイントとした例について説明したが、MPEG2圧縮等で用いられているGOP単位等に合わせて記述することもできる。
さらに、テレビビジョン信号のNTSCでは垂直同期信号が60/1.001Hzであるため、絶対時間にあわせるためにドロップフレームモードに合わせたタイムコードと、前記垂直同期信号(60/1.001 Hz)にあわせたノンドロップタイムコードの2種類をしようする。この場合、ノンドロップタイムコードをTM_ENT #jであらわし、TC_ENT #jをドロップフレーム対応タイムコードであらわして使用することもできる。
さらに、制御ファイルのデータ化は、SMIL2等の既存言語を用いてデータ化することも可能であり、さらに、SMIL2の機能をもちいれば、関連したコンテンツ、及び、メタデータファイルのファイル名も合わせてデータ化して、制御ファイルに格納することができる。
さらに、図6では記録手段の記録アドレスを直接表示する構成をしめしたが、記録アドレスの代わりに、コンテンツファイルの頭からタイムコードまでのデータ容量を表示し、前記データ容量とファイルシステムの記録アドレスから記録手段でのタイムコードの記録アドレスを計算し、検出してもよい。
また、本実施例では、TM_ENTjとタイムコードの対応テーブルをメタデータファイルに格納する形式で説明したが、前記TM_ENTjとタイムコードの対応テーブルは制御ファイル中に格納しても同様の効果がえられる。
(実施の形態3)
次に、実施の形態3について説明する。
【0014】
実施の形態3は、図7に示すように、実施の形態2に対して、検索手段8が付加されている。前記検索手段8では検索したいシーンのキーワードを音声認識してメタデータを検出するのに使用した同一辞書DB4から選択し、設定する。
次に、検索手段8では前記メタデータファイルのメタデータ項目をサーチしてキーワードと一致するタイトル名とコンテンツシーンの位置(タイムコード)の一覧を表示する。
【0015】
次に、一覧表示の中から、ひとつの特定シーンが設定された場合は、メタデータファイルの前記基準時間(TM_ENT (秒))と、フレームオフセット数(TM_OFFSET)から制御ファイル中の記録メディアアドレスとを自動的に検出して記録手段7に設定し、前記記録手段7から記録メディアアドレスに記録されたコンテンツシーンをモニタ11に再生する。上記のように構成することで、メタデータを検出して即座に、見たいシーンを検出できる装置を提供できる。
なお、コンテンツにリンクしたサムネイルファイルを準備しておけば、前述したキーワードに一致したコンテンツ名の一覧を表示する際、コンテンツの代表的サムネイル画を再生して表示することも可能である。
(実施の形態4)
次に、他の実施の形態について説明する。
前述の実施形態1〜3は、あらかじめ記録されているコンテンツにメタデータを付与するシステムについて述べたが、本発明をカメラ等、撮影時にメタデータを付与するシステム、特に、コンテンツ内容が前もって限定される風景撮り、或いは、撮影位置をメタデータとして付与するシステムに対して拡張できる。
このシステムを実施の形態4として、図6にその構成を示す。
カメラ51で撮像し、コンテンツDB54に映像コンテンツが記録されると同時に、カメラが撮影している場所をGPS52によって検出し、前記GPS52から出力された位置情報(経緯度数値)を音声合成手段53で音声信号化した位置情報も別音声チャンネルに記録する。この場合、記録手段付きカメラ50として、カメラ51、GPS52、音声合成53、コンテンツDB54を一体構成してもよい。
次に、コンテンツDB54では前記音声チャンネルに記録されている音声信号の位置情報を音声認識手段56に入力する。
ここで、端子105から、キー入力ボード等によって、辞書DB55の地域名、ランドマーク等を選択、制限し、前記音声認識手段56に出力する。
音声認識手段56では認識された経緯数値と辞書DB55のデータを用いて地域名、ランドマークを検出し、ファイル処理手段57に出力する。
次に、ファイル処理手段57では、コンテンツDB54から出力されたタイムコードと音声認識手段56から出力された地域名、ランドマークをメタデータとしてTEXT化してメタデータファイルを発生させる。
次に、記録手段58ではファイル処理手段57から出力されたメタデータファイルとコンテンツDB54から出力されたコンテンツデータを記録する。
このように構成することで、撮影したシーン毎に、自動的に地域名、ランドマークのメタデータを付加することができる。
【0016】
なお、上記の各実施形態において、一般的には、音声認識には何らかの誤認識が生じる可能性がある。誤認識が生じた場合、制作されたメタデータ、タグをコンピュータ手段などの情報処理手段を用いて修正することも可能である。
【0017】
また、本発明に係る音声認識手段は単語単位で音声認識する単語認識方式とし、音声入力の単語数、及び、使用する認識辞書の単語数を制限することで、特に、音声認識率を改善することができる。
【0018】
また、本発明では音声認識手段により認識したキーワードをタイムコード共に、メタデータファイルでファイル化する構成を記述したが、音声認識手段により認識したキーワードに加え、関連したキーワードを追加してファイル化してもよい。
【0019】
例えば、音声で淀川を認識した場合は、地形、川等の一般属性キーワードも付加してファイル化する。こうすることで検索時、付加された地形、川等のキーワードも使用することができるので検索性を向上することができる。
【0020】
【発明の効果】
以上説明したように本発明は、コンテンツに関連したメタデータの作成あるいはタグ付けを行うに当たり、制作されたコンテンツのシナリオ等から事前に抽出したキーワードを音声信号として入力し、また、前記シナリオに基づいて辞書分野の設定、及び,キーワードの優先順位つけをおこなっているため、効率よく、正確に音声認識手段からメタデータを発生することができる。
特に、数秒単位の間隔でメタデータを付与する場合は、キー入力では困難であるが、本構成のような音声入力、音声認識を用いれば、数秒単位間隔であっても効率よく、メタデータを付与できる。
また、前記コンテンツの記録位置を示す制御ファイルとメタデータ、及び、タイムコード等を示す前記メタデータファイルとを使用することによって、メタキーワードから一義的に必要なシーンを検索し、前記記録手段から再生することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態1に係るメタデータ制作装置の構成を示すブロック図
【図2】本発明に係る辞書DBの一例を示す構成図
【図3】本発明に係るシナリオの一例を示すレシピ図
【図4】本発明に係るメタデータファイルの一例を示すTEXT形式のデータ図
【図5】本発明の実施の形態2に係るメタデータ検索装置の構成を示すブロック図
【図6】本発明の情報ファイルの一例を示す構成図
【図7】本発明の実施の形態3に係るメタデータ検索装置の構成を示すブロック図
【図8】本発明の実施形態4に係るメタデータ制作装置の構成を示すブロック図
【符号の説明】
1 コンテンツDB
2 入力手段
3 音声認識手段
4 辞書DB4
5 ファイル処理手段
6 コンテンツ情報ファイル処理手段
7 記録手段
11 映像モニタ
50 記録装置付きカメラ
51 カメラ
52 GPS
53 音声合成手段
54 コンテンツDB
55 辞書DB
56 音声認識手段
57 ファイル処理手段
58 記録手段
101 音声入力端子
102 辞書分野選択入力端子
105 辞書地名選択入力端子[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a metadata production device and a search device in content production.
[0002]
[Prior art]
In recent years, in the production of video / audio contents, metadata related to these contents has been assigned.
[0003]
However, the above-mentioned metadata is added manually by checking the information to be metadata while playing the produced video / audio content based on the produced video / audio content scenario or narration manuscript. The method of producing by computer input is common, and requires considerable labor.
[0004]
In addition, there is a system for tagging using voice recognition during camera shooting, but it was only used at the same time as shooting. (See Patent Document 1)
[0005]
[Patent Document 1]
Japanese Patent Application Laid-Open No. 09-130736
[Problems to be solved by the invention]
The present invention is intended to solve the problems related to the above-mentioned conventional problems, and by confirming information to be metadata by reproducing the produced video / audio content, the audio input can be performed. An object of the present invention is to provide a system for producing and searching for the metadata by inputting it to a computer or the like.
[0007]
[Means for Solving the Problems]
The present invention to solve the above problems, production scenarios was produced in accordance with the content, or the content audio signal of the extracted content management keyword from the content is input, the data of the previous SL audio signal And a speech recognition means for recognizing a keyword from the speech signal data converted into data by the input means, and a general attribute keyword related to the keyword is appended to the keyword output from the speech recognition means , using the time code supplied from the previous SL content, that a file processing means for storing the metadata file information indicating a time position relationship between the image signal included in the said keyword content by appended It is.
As a result, it is possible to automatically produce metadata with time code by automatically inputting metadata using speech recognition, which has been inputted and produced using a conventional keyboard.
In particular, when metadata is given at intervals of several seconds, it is difficult by key input. However, according to this configuration, metadata can be given efficiently even at intervals of several seconds.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
The invention according to claims 1-3 of the present invention, production scenarios was produced in accordance with the content, or the audio signal of content management keyword extracted from the content of the content is input, the previous SL audio signal An input means for converting to data, a voice recognition means for recognizing a keyword from the voice signal data converted to data by the input means, and a general attribute keyword related to the keyword added to the keyword output from the voice recognition means to together, before SL using the timecode supplied from the content, and a file processing means to note the information indicating the time position relationship between the image signal included in said keyword the content stored in the metadata file This is a metadata production apparatus characterized by the above.
[0009]
The invention according to 6
[0010]
According to the seventh aspect of the present invention, a scenario produced according to the produced content or an audio signal of a content management keyword extracted from the content is input, and the audio signal is converted into data. A plurality of input means and genre-specific dictionaries are prepared, a genre dictionary adapted to the content is selected, and voice recognition means for recognizing a keyword from voice signal data converted into data by the input means, and the voice recognition means File processing means for storing the output keyword in the metadata file together with a time code indicating the time position with the image signal included in the content, and a control file for managing the relationship between the recording position of the content file and the metadata file Content information file processing means for generating the content file and the content file And selecting a keyword from a common dictionary used in the voice recognition unit suitable for the field of the content to be searched, a recording unit that records the metadata file and the control file together, and the selected keyword is Search means for specifying the recorded metadata file, searching for the content to be searched from the contents recorded in the recording means, and searching for the recording position of the scene to be searched from the control file. and a metadata search apparatus characterized by identifying a recording position of the recorded content file to the recording means from the metadata.
[0011]
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of a metadata production apparatus according to
[0012]
In FIG. 1, 1 is a content database (DB), 2 is input means, 3 is speech recognition means, 4 is a dictionary database (DB), 5 is file processing means, and 11 is a video monitor.
The
A video signal with a time code reproduced from the
Next, the
Therefore, the recognition rate in the speech recognition means 3 in the subsequent stage can be improved by using a keyword limited in advance from a scenario or the like for the input speech signal as described above.
Next, the input means 2 converts the audio signal input from the microphone into data using a clock synchronized with the vertical synchronization signal output from the
Next, the voice signal data converted into data by the input means 2 is input to the voice recognition means 3. At the same time, a dictionary necessary for speech recognition is supplied from the
Here, the voice recognition dictionary to be used is set in the
For example, if the dictionary DB 4 is configured for each field as shown in FIG. 2, the field to be used is set from the terminal 102 (for example, a keyboard terminal capable of key input).
In the case of a cooking program, the dictionary DB 4 is set from the
By setting the
Further, returning to FIG. 1, a keyword extracted from a scenario, a scenario document, or content is input from the
For example, in the case of a cooking program, the recipe shown in FIG.
Therefore, since the word entered in the recipe is likely to be input as a speech signal, the
For example, when “柿” and “shellfish oyster” are in the dictionary, and the recipe word input from the
When the voice recognition means 3 recognizes the voice “Kaki”, it recognizes it as “shellfish oyster” in which the
Therefore, in the
Returning to FIG. 1, the
Next, the metadata output from the
Here, as described above, the
Accordingly, the file processing means 5 uses the synchronization information from the input means 2 and the time code value supplied from the
For example, in the case of the above-described cooking program, a TEXT format metadata file as shown in FIG.
Next, the
Here, the recording means 7 is composed of an HDD, a memory, an optical disk, etc., and also records the content output from the
[0013]
(Embodiment 2)
Next, a second embodiment will be described.
In the second embodiment, as shown in FIG. 5, content information file processing means 6 is added to the first embodiment. The content information file processing means 6 generates a control file indicating the recording position relationship of the content recorded in the recording means 7 and records it in the recording means 7.
That is, in the content information file processing means 6, based on the content output from the
For example, as shown in FIG. 6, TM_ENT #j indicating the time axis reference of the content is pointed at an equal time axis interval with respect to the recording media address indicating the recording position of the content. For example, TM_ENT #j is pointed to the recording media address every second (30 frames for NTSC signal).
By mapping as described above, the recording address of the recording means 7 can be uniquely obtained from TM_ENT #j even if the content is distributed and recorded every second. Further, as described above with reference to FIG. 4, the metadata file includes a reference time (TM_ENT (seconds)) from the start of the file, a frame offset number from the reference time (TM_OFFSET), a time code, , Metadata and are recorded in TEXT format.
Therefore, if the
Here, the example in which the equal time axis interval of the TM_ENTj is pointed every other second has been described, but it can be described according to the GOP unit used in MPEG2 compression or the like.
Furthermore, in NTSC, which is a television vision signal, the vertical sync signal is 60 / 1.001 Hz, so the time code matched to the drop frame mode to match the absolute time and the non-sync matched to the vertical sync signal (60 / 1.001 Hz). Use two types of drop time codes. In this case, the non-drop time code can be represented by TM_ENT #j, and TC_ENT #j can be represented by a drop frame compatible time code.
In addition, the control file can be converted into data using an existing language such as SMIL2, and if the function of SMIL2 is used, the related content and the file name of the metadata file are combined. Can be converted into data and stored in the control file.
Further, in FIG. 6, the recording address of the recording means is directly displayed, but instead of the recording address, the data capacity from the head of the content file to the time code is displayed, and the data capacity and the recording address of the file system are displayed. From this, the recording address of the time code in the recording means may be calculated and detected.
In the present embodiment, the TM_ENTj and time code correspondence table is described as being stored in the metadata file. However, the same effect can be obtained by storing the TM_ENTj and time code correspondence table in the control file. .
(Embodiment 3)
Next,
[0014]
In the third embodiment, as shown in FIG. 7, search means 8 is added to the second embodiment. The search means 8 selects and sets the keyword of the scene to be searched from the
Next, the search means 8 searches the metadata items of the metadata file and displays a list of title names and content scene positions (time codes) that match the keywords.
[0015]
Next, when one specific scene is set from the list display, the reference time (TM_ENT (second)) of the metadata file and the recording media address in the control file are calculated from the number of frame offsets (TM_OFFSET). Is automatically detected and set in the recording means 7, and the content scene recorded at the recording media address from the recording means 7 is reproduced on the
If a thumbnail file linked to the content is prepared, a representative thumbnail image of the content can be reproduced and displayed when displaying the list of content names that match the keyword.
(Embodiment 4)
Next, another embodiment will be described.
In the above-described first to third embodiments, the system for giving metadata to pre-recorded content has been described. However, the present invention is a system for giving metadata at the time of shooting, such as a camera, in particular, the content content is limited in advance. It can be extended to a system for taking a landscape or providing a shooting position as metadata.
The configuration of this system is shown as
At the same time that the image is captured by the
Next, the
Here, the area name, landmark, etc. in the
The voice recognition means 56 detects the area name and landmark using the recognized history value and the data in the
Next, the
Next, the
With this configuration, it is possible to automatically add area name and landmark metadata for each photographed scene.
[0016]
In each of the above embodiments, in general, there is a possibility that some misrecognition may occur in the speech recognition. When erroneous recognition occurs, the produced metadata and tags can be corrected by using information processing means such as computer means.
[0017]
In addition, the speech recognition means according to the present invention adopts a word recognition method that recognizes speech in units of words, and particularly improves the speech recognition rate by limiting the number of words for speech input and the number of words in the recognition dictionary to be used. be able to.
[0018]
Further, in the present invention, the configuration has been described in which the keyword recognized by the voice recognition means is filed in the metadata file together with the time code. However, in addition to the keyword recognized by the voice recognition means, a related keyword is added to form a file. Also good.
[0019]
For example, when the Yodo River is recognized by voice, general attribute keywords such as terrain and river are also added to the file. By doing so, keywords such as added terrain and river can be used at the time of searching, so that the searchability can be improved.
[0020]
【The invention's effect】
As described above, the present invention inputs a keyword extracted in advance from a scenario or the like of the produced content as an audio signal when creating or tagging metadata related to the content, and based on the scenario. Since the dictionary field is set and the priorities of keywords are set, metadata can be generated from the speech recognition means efficiently and accurately.
In particular, when metadata is given at intervals of several seconds, it is difficult by key input. However, if voice input and voice recognition like this configuration are used, metadata can be efficiently stored even at intervals of several seconds. Can be granted.
Further, by using the control file indicating the recording position of the content and the metadata, and the metadata file indicating the time code, etc., a necessary scene is uniquely searched from the meta keyword, and the recording means Can be played.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a metadata production apparatus according to
1 Content DB
2 Input means 3 Voice recognition means 4 Dictionary DB4
5 File processing means 6 Content information file processing means 7 Recording means 11 Video monitor 50 Camera with
53 Speech synthesis means 54 Content DB
55 Dictionary DB
56 voice recognition means 57 file processing means 58 recording means 101
Claims (7)
制作されたコンテンツに合わせて制作されたシナリオ、或いは前記コンテンツの内容から抽出されたコンテンツ管理用キーワードの音声信号が入力され、前記音声信号をデータ化する入力手段と、
前記入力手段でデータ化された音声信号データから、キーワードを認識する音声認識手段と、
前記音声認識手段から出力されたキーワードに、前記キーワードに関連する一般属性キーワードを付記するとともに、前記コンテンツから供給されるタイムコードを用いて、前記キーワードと前記コンテンツに含まれる画像信号との時間位置関係を示す情報を付記してメタデータファイルに記憶するファイル処理手段とを具備することを特徴とするメタデータ制作装置。 A metadata production device for producing metadata related to content,
Production scenario was produced in accordance with the content, or the audio signal of the content keyword for content management extracted from the content is input, an input unit for data of the previous SL audio signal,
Voice recognition means for recognizing a keyword from voice signal data converted into data by the input means;
Wherein the keywords output from the voice recognition unit, as well as note the general attributes keyword associated with the keyword, before SL using the timecode supplied from the content, the keyword with the image signal and the time included in the content A metadata production apparatus comprising: file processing means for adding information indicating a positional relationship and storing the information in a metadata file.
制作されたコンテンツに合わせて制作されたシナリオ、或いは前記コンテンツの内容から抽出されたコンテンツ管理用キーワードの音声信号が入力され、前記音声信号をデータ化する入力手段と、
前記入力手段でデータ化された音声信号データから、キーワードを認識する音声認識手段と、
前記音声認識手段から出力されたキーワードに、前記キーワードに関連する一般属性キーワードを付記するとともに、前記コンテンツから供給されるタイムコードを用いて、前記キーワードと前記コンテンツに含まれる画像信号との時間位置関係を示す情報を付記してメタデータファイルに記憶するファイル処理手段と、
前記キーワードまたは前記一般属性キーワードに対応する前記コンテンツに含まれる前記画像信号を検索する検索手段とを具備し、
検索時に前記キーワードで検索可能であるとともに、前記一般属性キーワードでも検索可能であることを特徴とするメタデータ検索装置。A metadata search device for searching metadata related to content,
Production scenario was produced in accordance with the content, or the audio signal of the extracted content management keyword from the content of the content is input, an input unit for data of the audio signal,
Voice recognition means for recognizing a keyword from voice signal data converted into data by the input means;
Wherein the keywords output from the voice recognition unit, as well as note the general attributes keyword associated with the keyword, before SL using the timecode supplied from the content, the keyword with the image signal and the time included in the content File processing means for appending information indicating the positional relationship and storing it in the metadata file;
Search means for searching for the image signal included in the content corresponding to the keyword or the general attribute keyword ,
A metadata search apparatus , which can be searched by the keyword at the time of search and can also be searched by the general attribute keyword .
前記制御ファイルは、コンテンツの記録時間に合わせた記録手段の前記コンテンツのファイルの記録位置を明記するテーブルとし、前記タイムコードから前記コンテンツのファイルの記録位置を検索できるようにしたことを特徴とする請求項4記載のメタデータ検索装置。 A content information file processing means for generating a control file for managing the relationship between the recording position of the content file and the metadata file;
Before SL control file, characterized in that the Meikisuru table recording position of the file of the content of the recording means to match the recording time of the contents, and to search the recording position of the file of the content from the time code The metadata search device according to claim 4.
制作されたコンテンツに合わせて制作されたシナリオ、或いは前記コンテンツの内容から抽出されたコンテンツ管理用キーワードの音声信号を入力し、前記音声信号をデータ化する入力手段と、
ジャンル別辞書を複数用意し、コンテンツに適合したジャンルの辞書を選択し、前記入力手段でデータ化された音声信号データから、キーワードを認識する音声認識手段と、
前記音声認識手段から出力されたキーワードを、コンテンツに含まれる画像信号との時間位置を示すタイムコード共にメタデータファイルに記憶するファイル処理手段と、
前記コンテンツファイルの記録位置と前記メタデータファイルの関係を管理する制御ファイルを発生させるコンテンツ情報ファイル処理手段と、
前記コンテンツファイルと、前記メタデータファイルと、前記制御ファイルとを一緒に記録する記録手段と、
前記音声認識手段で用いた共通辞書からキーワードを選定し、前記選定したキーワードが記録されている前記メタデータファイルを特定し、前記記録手段に記録されているコンテンツの中から、検索したいコンテンツを検索し、前記制御ファイルから検索したいシーンの記録位置を検索する検索手段とを具備し、
コンテンツ管理用メタデータを自動発生し、前記メタデータから前記記録手段に記録されたコンテンツファイルの記録位置を特定することを特徴とするメタデータ検索装置。A search device for metadata related to content,
An input means for inputting a scenario produced according to the produced content or an audio signal of a content management keyword extracted from the content, and converting the audio signal into data;
A plurality of genre dictionaries are prepared, a genre dictionary suitable for the content is selected, and voice recognition means for recognizing a keyword from voice signal data converted into data by the input means;
File processing means for storing a keyword output from the voice recognition means together with a time code indicating a time position with an image signal included in the content in a metadata file;
Content information file processing means for generating a control file for managing the relationship between the recording position of the content file and the metadata file;
Recording means for recording the content file, the metadata file, and the control file together;
Select a keyword from the common dictionary used by the voice recognition unit, specify the metadata file in which the selected keyword is recorded, and search for the content to be searched from the content recorded in the recording unit And a search means for searching for a recording position of a scene to be searched from the control file,
A metadata search apparatus, wherein content management metadata is automatically generated, and a recording position of a content file recorded in the recording means is specified from the metadata.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002319756A JP3781715B2 (en) | 2002-11-01 | 2002-11-01 | Metadata production device and search device |
MXPA04012865A MXPA04012865A (en) | 2002-06-24 | 2003-06-23 | Metadata preparing device, preparing method therefor and retrieving device. |
EP03733537A EP1536638A4 (en) | 2002-06-24 | 2003-06-23 | Metadata preparing device, preparing method therefor and retrieving device |
US10/519,089 US20050228665A1 (en) | 2002-06-24 | 2003-06-23 | Metadata preparing device, preparing method therefor and retrieving device |
PCT/JP2003/007908 WO2004002144A1 (en) | 2002-06-24 | 2003-06-23 | Metadata preparing device, preparing method therefor and retrieving device |
CN038149028A CN1663249A (en) | 2002-06-24 | 2003-06-23 | Metadata preparing device, preparing method therefor and retrieving device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002319756A JP3781715B2 (en) | 2002-11-01 | 2002-11-01 | Metadata production device and search device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004153764A JP2004153764A (en) | 2004-05-27 |
JP3781715B2 true JP3781715B2 (en) | 2006-05-31 |
Family
ID=32462517
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002319756A Expired - Fee Related JP3781715B2 (en) | 2002-06-24 | 2002-11-01 | Metadata production device and search device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3781715B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007108458A1 (en) | 2006-03-23 | 2007-09-27 | Matsushita Electric Industrial Co., Ltd. | Content imaging apparatus |
WO2008032739A1 (en) | 2006-09-12 | 2008-03-20 | Panasonic Corporation | Content imaging device |
WO2008111308A1 (en) * | 2007-03-12 | 2008-09-18 | Panasonic Corporation | Content imaging device |
JP2008227860A (en) * | 2007-03-12 | 2008-09-25 | Matsushita Electric Ind Co Ltd | Device for photographing content |
JP2008227859A (en) * | 2007-03-12 | 2008-09-25 | Matsushita Electric Ind Co Ltd | Photographing content device for |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5372369B2 (en) * | 2004-06-22 | 2013-12-18 | ディジマーク コーポレイション | Digital asset management, targeted search, and desktop search using digital watermark |
JP2007052626A (en) * | 2005-08-18 | 2007-03-01 | Matsushita Electric Ind Co Ltd | Metadata input device and content processor |
JP2007101945A (en) * | 2005-10-05 | 2007-04-19 | Fujifilm Corp | Apparatus, method, and program for processing video data with audio |
JP4175390B2 (en) | 2006-06-09 | 2008-11-05 | ソニー株式会社 | Information processing apparatus, information processing method, and computer program |
JP4866396B2 (en) * | 2008-07-08 | 2012-02-01 | 株式会社デンソーアイティーラボラトリ | Tag information adding device, tag information adding method, and computer program |
WO2015151130A1 (en) * | 2014-03-31 | 2015-10-08 | パナソニックIpマネジメント株式会社 | Sound processing apparatus, sound processing system, and sound processing method |
US10182280B2 (en) | 2014-04-23 | 2019-01-15 | Panasonic Intellectual Property Management Co., Ltd. | Sound processing apparatus, sound processing system and sound processing method |
JP6135880B2 (en) * | 2014-04-25 | 2017-05-31 | パナソニックIpマネジメント株式会社 | Audio processing method, audio processing system, and storage medium |
JP7100863B1 (en) * | 2021-12-12 | 2022-07-14 | ナカシャ クリエイテブ株式会社 | Video processing device, video processing method, program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3337798B2 (en) * | 1993-12-24 | 2002-10-21 | キヤノン株式会社 | Apparatus for processing image data and audio data, data processing apparatus, and data processing method |
JPH09130736A (en) * | 1995-11-02 | 1997-05-16 | Sony Corp | Image pickup device and edit device |
JPH09149365A (en) * | 1995-11-20 | 1997-06-06 | Ricoh Co Ltd | Digital still video camera |
JP3624698B2 (en) * | 1998-07-01 | 2005-03-02 | 株式会社デンソー | Voice recognition device, navigation system and vending system using the device |
JP2002108892A (en) * | 2000-09-29 | 2002-04-12 | Canon Inc | Data management system, data management method and recording medium |
JP2002171481A (en) * | 2000-12-04 | 2002-06-14 | Ricoh Co Ltd | Video processing apparatus |
-
2002
- 2002-11-01 JP JP2002319756A patent/JP3781715B2/en not_active Expired - Fee Related
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007108458A1 (en) | 2006-03-23 | 2007-09-27 | Matsushita Electric Industrial Co., Ltd. | Content imaging apparatus |
WO2008032739A1 (en) | 2006-09-12 | 2008-03-20 | Panasonic Corporation | Content imaging device |
WO2008111308A1 (en) * | 2007-03-12 | 2008-09-18 | Panasonic Corporation | Content imaging device |
JP2008227860A (en) * | 2007-03-12 | 2008-09-25 | Matsushita Electric Ind Co Ltd | Device for photographing content |
JP2008227859A (en) * | 2007-03-12 | 2008-09-25 | Matsushita Electric Ind Co Ltd | Photographing content device for |
JP4667411B2 (en) * | 2007-03-12 | 2011-04-13 | パナソニック株式会社 | Content shooting device |
Also Published As
Publication number | Publication date |
---|---|
JP2004153764A (en) | 2004-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20050228665A1 (en) | Metadata preparing device, preparing method therefor and retrieving device | |
US10482168B2 (en) | Method and apparatus for annotating video content with metadata generated using speech recognition technology | |
JP3781715B2 (en) | Metadata production device and search device | |
JP2007082088A (en) | Contents and meta data recording and reproducing device and contents processing device and program | |
CN1998050A (en) | Method and apparatus for playing multimedia play list and storing media therefor | |
JP2001028722A (en) | Moving picture management device and moving picture management system | |
JPWO2007000949A1 (en) | Method and apparatus for reproducing content with reproduction start position control | |
JP2010055501A (en) | Information providing server, information providing method and information providing system | |
US20090070364A1 (en) | Multimedia data recording method and apparatus for automatically generating/updating metadata | |
CN101714367B (en) | Information memory medium, device and method for its reproduction | |
JP4192703B2 (en) | Content processing apparatus, content processing method, and program | |
JP2002101372A (en) | Camera incorporated type data recording and reproducing device and data recording and reproducing method | |
JP2006115052A (en) | Content retrieval device and its input device, content retrieval system, content retrieval method, program and recording medium | |
US7444068B2 (en) | System and method of manual indexing of image data | |
JP2004171053A (en) | Data processor | |
JP2006054517A (en) | Information presenting apparatus, method, and program | |
JP2006332765A (en) | Contents searching/reproducing method, contents searching/reproducing apparatus, and program and recording medium | |
US7873637B2 (en) | Automatically imparting an index by using various kinds of control signals | |
JP4230402B2 (en) | Thumbnail image extraction method, apparatus, and program | |
KR100328366B1 (en) | System and method for editing photographed image signal using camcoder | |
JP2006101324A (en) | Recording and reproducing apparatus and method | |
JP2005339138A (en) | Database for retrieval, its manufacturing method, computer-readable recording medium for recording program of method for manufacturing database for retrieval, retrieving method and computer-readable recording medium for recording program of its retrieving method | |
JP2002324071A (en) | System and method for contents searching | |
JP2007201815A (en) | Display device, reproducing device, method and program | |
JP2007329605A (en) | Reproducing apparatus and line searching method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20050624 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050705 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20050705 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20050728 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050816 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051012 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060307 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100317 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110317 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110317 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120317 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130317 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140317 Year of fee payment: 8 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |