JP4377620B2 - Content feature amount extraction apparatus, content feature amount extraction program, and content feature amount extraction method - Google Patents
Content feature amount extraction apparatus, content feature amount extraction program, and content feature amount extraction method Download PDFInfo
- Publication number
- JP4377620B2 JP4377620B2 JP2003186112A JP2003186112A JP4377620B2 JP 4377620 B2 JP4377620 B2 JP 4377620B2 JP 2003186112 A JP2003186112 A JP 2003186112A JP 2003186112 A JP2003186112 A JP 2003186112A JP 4377620 B2 JP4377620 B2 JP 4377620B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- content
- feature
- frequency
- discrete cosine
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Reverberation, Karaoke And Other Acoustics (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、コンテンツの特徴量を抽出し、この抽出した特徴量を不正流通検出や類似検索に利用するコンテンツ特徴量抽出装置、コンテンツ特徴量抽出プログラムおよびコンテンツ特徴量抽出方法に関する。
【0002】
【従来の技術】
近年のネットワークの高速化や記録媒体の大容量化に伴い、映像データ、音声データ等からなる大容量のデジタルコンテンツ(以下、コンテンツとする)を、高速のネットワークである公衆通信回線(光ファイバ通信回線、ADSL等)により配信、または、大容量の記録媒体である光ディスク(DVD等)により流通させることを、誰でも容易に行える環境が整備されている。
【0003】
また、ネットワークを介して配信されたコンテンツは蓄積が容易であり、記録媒体に記録されたコンテンツは配送が容易であるので、当該コンテンツの著作権者(以下、単に「著作権者」とする)や当該コンテンツを配信する配信事業者(以下、「コンテンツプロバイダ」とする)の許可を得ることなく、蓄積したコンテンツを複製した後、ネットワークを介して再配信したり、当該コンテンツを改竄(かいざん)したりするなど、不正行為を行うことが容易である。この不正行為がコンテンツを流通させる上での大きな阻害要因となっている。
【0004】
特に、著作権者やコンテンツプロバイダの許可(許諾)を得ることなく、コンテンツの複製、再配信(再送信)を行う不正行為による不正流通コンテンツは、著作権者やコンテンツプロバイダに多大な金銭的不利益をもたらすので、このような不正流通コンテンツを高精度、且つ、短時間に検出し、不正行為の抑止を図ることができる技術的な手段が模索されている。
【0005】
また、インターネットの普及やデジタル情報機器(ストレージ装置等)の高性能化に伴い、大容量のコンテンツである動画像コンテンツ(大容量マルチメディアデータ)の利用が一般化している。このため、インターネット上やストレージ装置内に保持された膨大な数のコンテンツの中から、利用者が要望する特定のコンテンツを効率よく検索する手段が求められている。
【0006】
不正流通コンテンツの検出や、特定のコンテンツの検索を行うために、コンテンツを構成する映像データの輝度や色情報等から当該コンテンツの特徴を表す特徴量データを抽出し、この抽出した特徴量データをコンテンツ間の同一性や類似性の判定(検定)に利用する特徴量抽出技術が有効な手段として提案されている。
【0007】
また、コンテンツの特徴量を抽出する従来の技術に関して、例えば、ISO/IEC15938−3「MPEG−7 ビジュアル記述」(非特許文献1参照)では、映像データ(映像信号)の特徴を記述し、この記述した特徴を抽出する特徴量抽出アルゴリズムが規定されている。このビジュアル記述は、主として、映像データ(映像信号)ベースでの類似検索・フィルタリングのために用いられることが想定されており、このビジュアル記述の中で、映像データ上の色や形状等の低レベルの特徴量を記述する具体的なものとして、色の空間的な配置を周波数軸上で表現する「色配置記述(Color Layout)」が定義されている。
【0008】
この色配置記述は、人間の視覚特性を反映させたもので、コンテンツを構成する各画像フレームに対して、高精度の検索を可能にしている。つまり、色配置記述によって、コンテンツ同士の類似性を検定する際に、不要な情報を周波数軸上で削除することができる。その結果、コンテンツの特徴を記述するデータ量が減少する。
【0009】
ちなみに、色配置は、D={ny,Yi(i=1,2,・・・ny);nc,Cbj,Crj(j=1,2,・・・,nc)}で表される。
この色配置Dにおいて、nyは輝度成分係数の個数であり、ncは色差成分係数の個数であり、Yiは輝度信号(Y)のDCT係数であり、Cbj,Crjは色差信号(Cb,Cr)のDCT係数である。なお、動画像データから特徴量を算出する場合には輝度信号(Y)を6係数で、色差信号(Cb,Cr)を3係数にすることが推奨されている。
【0010】
ここで、図8を参照して、従来の特徴量抽出方法について説明する。
この図8は、従来のコンテンツ特徴量抽出装置のブロック図であり、この図8に示したように、コンテンツ特徴量抽出装置101は、64(8×8)分割平均化部103と、DCT変換部105と、ジグザグスキャン部107と、非線形量子化部109とを備えている。
【0011】
64(8×8)分割平均化部103は、原画像を64(8行×8列)区画に分割し、それぞれの区画の代表色(平均色)を算出するものである。つまり、この64(8×8)分割平均化部103は、原画像を64の代表色からなる64区画に縮小退化させた「縮退画像」に変換するものである。
【0012】
DCT変換部105は、64(8×8)分割平均化部103で変換した64区画の縮退画像にDCT変換(離散コサイン変換)を行って、離散コサイン係数に変換するものである。
【0013】
ジグザグスキャン部107は、DCT変換部105で変換された離散コサイン変換係数をジグザグスキャンによって、低周波数成分から順に並べ替えを行うものである。
【0014】
非線形量子化部109は、ジグザグスキャン部107で並べ替えられた離散コサイン変換係数の直流成分を6ビット、交流成分を5ビットで量子化すると共に、低周波数成分から定められた個数(輝度ny個、色差nc個)だけ順に取り出したものを特徴量(特徴量データ)として出力するものである。
【0015】
【非特許文献1】
ISO/IEC15938−3“Information Technology−Multimedia Content Description Interface−Part3:Visual,6.6 Color layout”.pp42−50(2002)
【0016】
【発明が解決しようとする課題】
しかしながら、図8に示したコンテンツ特徴量抽出装置101では、1フレームの画像データを対象に特徴量抽出を行っているので、長時間の放送番組等の動画像データであるコンテンツに対して、特徴量データのデータ量が膨大となる問題がある。
【0017】
また、特徴量データを用いて、高精度に不正流通コンテンツの検出や番組検索(コンテンツの検索)を行う際には、異種のコンテンツの区別をしながら、コンテンツ間の同一性や類似性の検定を行うことができる十分な分散を確保しなければならないという問題がある。
【0018】
そこで、本発明の目的は前記した従来の技術が有する課題を解消し、特徴量データのデータ量を増加させることなく、コンテンツの同一性または類似性の検定を高精度に行うことができるコンテンツ特徴量抽出装置、コンテンツ特徴量抽出プログラムおよびコンテンツ特徴量抽出方法を提供することにある。
【0019】
【課題を解決するための手段】
本発明は、前記した目的を達成するため、以下に示す構成とした。
請求項1記載のコンテンツ特徴量抽出装置は、比較の基準とする基準コンテンツと比較の対象とする比較コンテンツとを、多変量解析における主成分分析を用いて分析し、当該比較コンテンツを構成する複数の主成分を特徴量データとして抽出するコンテンツ特徴量抽出装置であって、基準コンテンツ多変量データ生成手段と、特徴係数演算手段と、比較コンテンツ多変量データ生成手段と、主成分演算手段と、を備える構成とした。
【0020】
かかる構成によれば、コンテンツ特徴量抽出装置は、基準コンテンツ多変量データ生成手段によって、基準コンテンツから複数の基準変量データを生成する。
【0021】
続いて、このコンテンツ特徴量抽出装置は、特徴係数演算手段によって、多変量解析における主成分分析を用いて、基準コンテンツ多変量データ生成手段で生成された複数の基準変量データのそれぞれに所定係数を乗算して合成した合成基準変量データの分散に対応する分散・共分散行列を求め、当該行列の固有値の大きい順に所定個のものに対する固有ベクトルを、特徴係数として出力する。
多変量解析とは、母集団となる複数のデータ(基準コンテンツ)、または、母集団を十分推定可能な種類と数とを有するデータを使用して、当該母集団において、複雑に絡み合ったデータを構成している主な要素を洗い出したり、要素同士の絡み合いを明らかにする解析法の一つである。主成分分析とは、相関関係にあるいくつかの要素(要因)を合成(圧縮)して、いくつかの成分にし、その総合力や特性を求める分析方法である。
【0022】
そして、このコンテンツ特徴量抽出装置は、比較コンテンツ多変量データ生成手段によって、比較コンテンツから複数の変量データを生成し、主成分演算手段によって、比較コンテンツ多変量データ生成手段で生成された変量データと、特徴係数演算手段で演算された特徴係数とに基づいて、主成分を演算して求め、特徴量データとして出力する。この特徴量データは、例えば、複数の変量データのそれぞれに複数の特徴係数を乗算して得られたもの(特に、変量データと特徴係数とを乗算した3個の値(主成分)である、第一主成分、第二主成分および第三主成分)ものである。
【0023】
また、請求項1記載のコンテンツ特徴量抽出装置の前記基準コンテンツ多変量データ生成手段及び前記比較コンテンツ多変量データ生成手段は、ブロック平均化手段と、離散コサイン変換手段と、周波数変換手段と、周波数データ総和算出手段と、を有していることを特徴とする。
【0024】
かかる構成によれば、コンテンツ特徴量抽出装置の基準コンテンツ多変量データ生成手段または比較コンテンツ多変量データ生成手段は、ブロック平均化手段によって、動画像データである基準コンテンツまたは動画像データである比較コンテンツの輝度信号および色差信号によって再現されるフレームそれぞれに含まれる全画素データを複数(例えば64個、水平8分割×垂直8分割)のブロックに分割すると共に、分割したブロック毎の全画素データを平均化して縮小画像データを生成する。つまり、動画像データ(1フレーム)を複数個のブロックに分割した後、このブロック内の全画素データの輝度信号および色差信号を平均化する。
【0025】
続いて、コンテンツ特徴量抽出装置の基準コンテンツ多変量データ生成手段または比較コンテンツ多変量データ生成手段は、離散コサイン変換手段によって、ブロック平均化手段によって、生成された縮小画像データに対して、離散コサイン変換を施して、離散コサイン係数とする。この離散コサイン係数は、例えば、輝度信号(Y)に関するもので6個、色差信号(Cb)に関するもので3個、色差信号(Cr)に関するもので3個といった具合に定個数求められる。
【0026】
次に、コンテンツ特徴量抽出装置の基準コンテンツ多変量データ生成手段または比較コンテンツ多変量データ生成手段は、周波数変換手段によって、離散コサイン係数に周波数変換を施して周波数軸方向波形データとする。この周波数軸方向波形データは、周波数軸を横軸にとって、各周波数に含まれるデータ量(成分)を縦軸にとったグラフ上で、各周波数におけるデータ量の頂点を繋げていったものである。そして、コンテンツ特徴量抽出装置の基準コンテンツ多変量データ生成手段または比較コンテンツ多変量データ生成手段は、周波数データ総和算出手段によって、周波数変換手段で変換された周波数軸方向波形データを周波数全域に亘って総和し、基準変量データまたは変量データとする。
【0029】
また、請求項1記載のコンテンツ特徴量抽出装置の前記主成分演算手段は、複数の前記変量データのぞれぞれに前記特徴係数を乗算して前記主成分を求め、この主成分を前記特徴量データとして出力することを特徴とする。
【0030】
かかる構成によれば、コンテンツ特徴量抽出装置は、主成分演算手段によって、複数の変量データのそれぞれに特徴係数を乗算して主成分を求め、この主成分を特徴量データとして出力しているので、データ量を増加させることなく、比較コンテンツの特徴を表すことができる(特徴量データを得ることができる)。
【0031】
請求項3記載のコンテンツ特徴量抽出プログラムは、比較の基準とする基準コンテンツと比較の対象とする比較コンテンツとを、多変量解析における主成分分析を用いて分析し、当該比較コンテンツを構成する複数の主成分を特徴量データとして抽出する装置を、基準コンテンツ多変量データ生成手段、特徴係数演算手段、比較コンテンツ多変量データ生成手段、主成分演算手段、として機能させる構成とした。
【0032】
かかる構成によれば、コンテンツ特徴量抽出プログラムは、基準コンテンツ多変量データ生成手段によって、基準コンテンツから複数の基準変量データを生成し、特徴係数演算手段によって、多変量解析における主成分分析を用いて、基準コンテンツ多変量データ生成手段で生成された複数の基準変量データのそれぞれに所定係数を乗算して合成した合成基準変量データの分散に対応する分散・共分散行列を求め、当該行列の固有値の大きい順に所定個のものに対する固有ベクトルを、特徴係数として出力する。そして、このコンテンツ特徴量抽出プログラムは、比較コンテンツ多変量データ生成手段によって、比較コンテンツをから複数の変量データを生成し、主成分演算手段によって、比較コンテンツ多変量データ生成手段で生成された複数の変量データを成分としたベクトルと、特徴係数演算手段で演算された各特徴係数との内積を、特徴量データとして出力する。
【0033】
請求項4記載のコンテンツ特徴量抽出方法は、比較の基準とする基準コンテンツと比較の対象とする比較コンテンツとを、多変量解析における主成分分析を用いて分析し、当該比較コンテンツを構成する複数の主成分を特徴量データとして抽出するコンテンツ特徴量抽出方法であって、基準コンテンツ多変量データ生成ステップと、特徴係数演算ステップと、比較コンテンツ多変量データ生成ステップと、主成分演算ステップと、を含む手順とした。
【0034】
かかる手順によれば、コンテンツ特徴量抽出方法は、基準コンテンツ多変量データ生成ステップにおいて、基準コンテンツから複数の基準変量データを生成し、特徴係数演算ステップにおいて、多変量解析における主成分分析を用いて、基準コンテンツ多変量データ生成ステップで生成された複数の基準変量データのそれぞれに所定係数を乗算して合成した合成基準変量データの分散に対応する分散・共分散行列を求め、当該行列の固有値の大きい順に所定個のものに対する固有ベクトルを、特徴係数として出力する。そして、このコンテンツ特徴量抽出方法は、比較コンテンツ多変量データ生成ステップにおいて、比較コンテンツから複数の変量データを生成し、主成分演算ステップにおいて、比較コンテンツ多変量データ生成ステップで生成された複数の変量データを成分としたベクトルと、特徴係数演算ステップで演算された各特徴係数との内積を、特徴量データとして出力する。
【0035】
【発明の実施の形態】
以下、本発明の一実施の形態について、図面を参照して詳細に説明する。
(コンテンツ特徴量抽出装置の構成)
図1はコンテンツ特徴量抽出装置のブロック図である。この図1に示すように、コンテンツ特徴量抽出装置1は、動画像データであるコンテンツ(基準コンテンツと比較コンテンツ)の特徴量データを多変量解析における主成分分析を用いて抽出するもので、特徴係数生成部3と、特徴量データ抽出部5とを備えている。
【0036】
また、このコンテンツ特徴量抽出装置1は、ネットワーク(外部のインターネット等)を介して、または、記録媒体(光ディスク[例えば、DVD]等)に記録されて不正に流通するコンテンツ(不正流通コンテンツ)の検出を行う不正流通コンテンツ検出システム(図示せず)や、保存管理されているコンテンツ群(番組群)から目的とする(所望する)コンテンツ(番組)やシーン等の検索を行う番組検索システム等に適用可能なものである。
【0037】
特徴係数生成部3は、比較コンテンツの特徴量データを算出する基準となる特徴係数を生成するもので、基準多変量データ生成手段7(基準コンテンツ多変量データ生成手段)と、特徴係数演算手段9とを備えている。
【0038】
基準多変量データ生成手段7は、動画像データ(基準コンテンツ[1,・・・,i,・・・,m])から複数(多数)の基準変量データを生成するもので、ブロック平均化手段7aと、DCT処理手段7b(離散コサイン変換手段)と、周波数変換手段7cと、周波数データ総和算出手段7dとを備えている。
【0039】
ブロック平均化手段7aは、入力された動画像データ(基準コンテンツ(1,・・・,i,・・・,m))の輝度信号(Y)、色差信号(Cb、Cr)からフレーム単位の処理を行って、縮小画像データを出力するものである。なお、基準コンテンツ(1,・・・,i,・・・,m)のiはi番目(i個)の基準コンテンツを、mはm番目(m個)の基準コンテンツを示している。フレーム単位の処理は、各フレームの全画素を水平8ブロック×垂直8ブロックに分割し、各ブロックにおける全画素の輝度信号(Y)、色差信号(Cb、Cr)の画素データを平均化して、水平8画素×垂直8ラインの縮小画像データを作成(生成)するものである。
【0040】
DCT処理手段7bは、ブロック平均化手段7aによって生成された縮小画像データの画素データY、CbおよびCrに対してDCT演算処理(Discrete Cosine Transform)を施して、離散コサイン係数に変換するものである。この実施の形態では、DCT処理手段7bは、輝度信号(Y)については、Y0、Y1、Y2、Y3、Y4、Y5の6係数、色差信号(Cb)については、Cb0、Cb1、Cb2の3係数、色差信号(Cr)については、Cr0、Cr1、Cr2の3係数の合計12係数を算出している。なお、この離散コサイン係数の数が多ければ多いほど、最終的に生成される特徴量データを使用した際のコンテンツの同一性または類似性の検定精度を高くすることができる。
【0041】
周波数変換手段7cは、DCT処理手段7bで算出した12個の離散コサイン係数のそれぞれに対し、周波数変換処理を施して、12の周波数軸方向波形データとするものである。この周波数変換手段7cにおける周波数変換処理は、FFT(Fast Fourier Transform;高速フーリエ変換)処理である。
【0042】
周波数データ総和算出手段7dは、周波数変換手段7cで12の周波数軸方向波形データを周波数全域に亘って総和し、12個の基準変量データkY0、kY1、kY2、kY3、kY4、kY5およびkCb0、kCb1、kCb2とkCr0、kCr1、kCr2を算出するものである。
【0043】
特徴係数演算手段9は、多変量解析による主成分分析を用いて、基準多変量データ生成手段7で生成された12個の基準変量データ(kY0、kY1、kY2、kY3、kY4およびkY5、kCb0、kCb1およびkCb2、kCr0、kCr1およびkCr2)に基づいて、特徴係数を演算して求め、特徴量データ抽出部5に出力するものである。この特徴係数演算手段9は、12個の基準変量データのそれぞれに所定係数を乗算して合成した合成基準変量データの分散を求め、この分散を最大とする所定係数を特徴係数として求めるものである。また、この特徴係数は、基準コンテンツの特徴を示す複数の固有ベクトルからなるものである。なお、この特徴量係数演算手段9における特徴係数の演算の仕方については後記することとする。
【0044】
特徴量データ抽出部5は、特徴係数生成部3で生成された特徴係数に基づいて、比較コンテンツの特徴量データを抽出するもので、多変量データ生成手段11(比較コンテンツ多変量データ生成手段)と、主成分演算手段13とを備えている。
【0045】
多変量データ生成手段11は、動画像データ(比較コンテンツ)から複数(多数)の変量データを生成するもので、ブロック平均化手段11aと、DCT処理手段11b(離散コサイン変換手段)と、周波数変換手段11cと、周波数データ総和算出手段11dとを備えている。
【0046】
ブロック平均化手段11aは、入力された動画像データ(比較コンテンツ)の輝度信号(Y)、色差信号(Cb、Cr)からフレーム単位の処理を行って、縮小画像データを出力するものである。フレーム単位の処理は、各フレームの全画素を水平8ブロック×垂直8ブロックに分割し、各ブロックにおける全画素の輝度信号(Y)、色差信号(Cb、Cr)の画素データを平均化して、水平8画素×垂直8ラインの縮小画像データを作成(生成)するものである。
【0047】
DCT処理手段11bは、ブロック平均化手段11aによって生成された縮小画像データの画素データY、CbおよびCrに対してDCT演算処理を施して、離散コサイン係数に変換するものである。この実施の形態では、DCT処理手段11bは、輝度信号(Y)については、Y0、Y1、Y2、Y3、Y4、Y5の6係数、色差信号(Cb)については、Cb0、Cb1、Cb2の3係数、色差信号(Cr)については、Cr0、Cr1、Cr2の3係数の合計12係数を算出している。なお、この離散コサンイン係数の数が多ければ多いほど、最終的に生成される特徴量データを使用した際のコンテンツの同一性または類似性の検定精度を高くすることができる。
【0048】
周波数変換手段11cは、DCT処理手段11bで算出した12個の離散コサイン係数のそれぞれに対し、周波数変換処理を施して、12の周波数軸方向波形データとするものである。この周波数変換手段11cにおける周波数変換処理は、FFT処理である。
【0049】
周波数データ総和算出手段11dは、周波数変換手段11cで12の周波数軸方向波形データを周波数全域に亘って総和し、12個の変量データhY0、hY1、hY2、hY3、hY4およびhY5と、hCb0、hCb1およびhCb2と、hCr0、hCr1およびhCr2とを算出するものである。
【0050】
主成分演算手段13は、特徴係数生成部3の特徴係数演算手段9から出力された特徴係数と、周波数データ総和算出手段11dから出力された12個の変量データhY0、hY1、hY2、hY3、hY4およびhY5と、hCb0、hCb1およびhCb2と、hCr0、hCr1およびhCr2とに基づいて、特徴量データを演算して求め出力するものである。この主成分演算手段13は、12個の変量データのぞれぞれに特徴係数を乗算して主成分を求め、この主成分を特徴量データとして出力するものである。なお、この主成分演算手段13における主成分の演算の仕方については後記することとする。
【0051】
このコンテンツ特徴量抽出装置1によれば、基準多変量データ生成手段7によって、動画像データ(基準コンテンツ)から複数の基準変量データが生成され、特徴係数演算手段9によって、多変量解析の主成分分析を用いて、基準多変量データ生成手段7で生成された基準変量データに所定の演算が施されて、基準コンテンツの特徴を示す複数の固有ベクトルからなる特徴係数が得られる。そして、多変量データ生成手段11によって、動画像データ(比較コンテンツ)から複数の変量データが生成され、主成分演算手段13によって、多変量データ生成手段11で生成された変量データと、特徴係数演算手段9で演算された特徴係数とに基づいて、主成分が演算して求められ、特徴量データとして出力される。つまり、多変量解析による主成分分析を用いて、基準コンテンツおよび比較コンテンツを分析しているので、特徴量データのデータ量を増加させることなく、コンテンツの同一性または類似性の検定を高精度に行うことができる。
【0052】
また、このコンテンツ特徴量抽出装置1によれば、ブロック平均化手段7a、11aによって、動画像データである基準コンテンツまたは動画像データである比較コンテンツの輝度信号および色差信号によって再現されるフレームそれぞれに含まれる全画素データが複数(64個)のブロックに分割されると共に、分割されたブロック毎の全画素データが平均化されて縮小画像データが生成される。続いて、DCT処理手段7b、11bによって、ブロック平均化手段7a、11aで生成された縮小画像データに対して、離散コサイン変換が施されて、離散コサイン係数とされ、周波数変換手段7c、11cによって、離散コサイン係数に周波数変換が施されて12の周波数軸方向波形データとされる。
【0053】
そして、周波数データ総和算出手段7d、11dによって、周波数変換手段7c、11cで変換された12の周波数軸方向波形データが周波数全域に亘って総和され、基準変量データまたは変量データとされる。つまり、基準コンテンツおよび比較コンテンツを分割して平均化した縮小画像データに離散コサイン変換、周波数変換を施して得られた12の周波数軸方向波形データを周波数全域に亘って総和して、基準変量データまたは変量データを得ており、これら基準変量データまたは変量データを用いているので、当該コンテンツの特徴量データのデータ量を増加させることなく、コンテンツの同一性または類似性の検定を高精度に行うことができる。
【0054】
さらに、コンテンツ特徴量抽出装置1によれば、特徴係数演算手段9によって、基準変量データのそれぞれに所定係数が乗算されて合成された合成基準変量データが求められ、この合成基準変量データの分散が最大となる所定係数が特徴係数とされることで、データ量を増加させることなく、動画像データ(基準コンテンツ)の特徴を表すことができる(特徴量データを得ることができる)。
【0055】
さらにまた、コンテンツ特徴量抽出装置1よれば、主成分演算手段13によって、複数の変量データのそれぞれに特徴係数が乗算されて主成分が求められ、この主成分が特徴量データとして出力されているので、データ量を増加させることなく、動画像データ(比較コンテンツ)の特徴を表すことができる(特徴量データを得ることができる)。
【0056】
(コンテンツ特徴量抽出装置の動作)
次に、図2に示すフローチャートを参照して、コンテンツ特徴量抽出装置1の動作について説明する(適宜、図1参照)。
【0057】
まず、動画像データ(基準コンテンツ)がコンテンツ特徴量抽出装置1の特徴係数生成部3に入力されると、コンテンツ特徴量抽出装置1は、基準多変量データ生成手段7によって、この動画像データ(基準コンテンツ)の基準変量データを生成し、特徴係数演算手段9に出力する(S1)。
【0058】
続いて、コンテンツ特徴量抽出装置1は、特徴係数演算手段9によって、特徴係数を生成し、特徴量データ抽出部5の主成分演算手段13に出力する(S2)。
【0059】
また、動画像データ(比較コンテンツ)がコンテンツ特徴量抽出装置1の特徴量データ抽出部5に入力されると、コンテンツ特徴量抽出装置1は、多変量データ生成手段11によって、この動画像データ(比較コンテンツ)の変量データを生成し、主成分演算手段13に出力する(S3)。
【0060】
そして、特徴係数と変量データとがコンテンツ特徴量抽出装置1の主成分演算手段13に入力されると、コンテンツ特徴量抽出装置1は、主成分演算手段13によって、特徴量データを生成して外部に出力する(S4)。
【0061】
このコンテンツ特徴量抽出装置1の動作で説明したように、基準変量データと変量データとを求め、比較コンテンツの特徴量データを算出しているので、この特徴量データを使用すれば、ネットワークや記録媒体を介して流通しているコンテンツとの同一性や類似性を高精度に検出(検定)することができる。
【0062】
(主成分分析、特徴係数、特徴量データについて)
ここで、多変量解析における、主成分分析、特徴係数および特徴量データの算出について説明する(適宜、図1参照)。
【0063】
[主成分分析について]
まず、主成分分析について説明する。主成分分析とは、例えば、複数の変量x、y、zに関し、次に示す数式(1)における合成変量uの分散を最大とする係数a、b、cを求め、この場合の合成変量uを主成分としてデータの分析を行うものである。
【0064】
u=ax+by+cz ・・・数式(1)
但し、係数a、b、cは、a2+b2+c2=1を満たす定数である。
【0065】
[特徴係数について]
次に、特徴係数について説明する(適宜、図1参照)。
まず、母集団となる複数の基準コンテンツ(1,・・・,i,・・・,m)、または母集団を十分推定可能な種類と数を有する複数の基準コンテンツを用いて、前記したように、基準多変量データ生成手段7で基準変量データを生成する。
【0066】
ここで、図3に基準コンテンツの数をmとし、各基準コンテンツにおける基準変量データの数をnとした場合の基準変量データの一覧を示す。なお、コンテンツ特徴量抽出装置1の特徴係数生成部3の基準多変量データ生成手段7に入力される動画像データ(基準コンテンツ)は、1つの動画像データ(1つの基準コンテンツ)から当該動画像データ(当該基準コンテンツ)の特徴を表す複数の基準変量データが得られるものであればよい。
【0067】
この基準多変量データ生成手段7で生成された複数の基準変量データに対して、特徴係数演算手段9では、以下に述べる演算を実行し、特徴係数を算出している。図3に示した基準変量データのうちi番目の基準コンテンツの基準変量データに対する合成変量(合成基準変量データ)uiを次の数式(2)によって求める。
【0068】
ui=a1xi1+・・・+ajxij+・・・+anxin ・・・数式(2)
但し、iは、1<i<mの整数であり、係数a1,・・・,aj,・・・,anはa1 2+・・・+aj 2+・・・+an 2=1 ・・・数式(3)
を満たす定数とする。
【0069】
また、合成変量(合成基準変量データ)uiの分散Su2を次の数式(4)によって求める。
【0070】
【数1】
【0071】
ここで、uの平均(uにルビ「−」の付いた文字)はuiの平均値であり、S11、・・・、Sjj、・・・Snnは、それぞれ変量xi1、・・・、xij、・・・、xin(1<i<m)の分散を表しており、S12、・・・、Sj(j+1)、・・・、S(n-1)nは、それぞれ変量xi1−xi2、・・・、xij−xi(j+1)、・・・、xi(n-1)−xin(1<i<m)の共分散を表している。
【0072】
この実施の形態における主成分分析は、条件が数式(3)の下で、数式(4)に示した合成変量(合成基準変量データ)uiの分散Su2を最大とする係数a1、・・・、aj、・・・、anを求めることである。
【0073】
そして、これらの係数a1、・・・、aj、・・・、anについて、ラグランジュの定数変化法を用いて、次の数式(5)を得る。
【0074】
【数2】
【0075】
ここで、λは数式(5)の固有の定数を表しており、Sは次の数式(6)のように表すことができる。
【0076】
【数3】
【0077】
この数式(6)に示す行列Sは、各変量の分散・共分散行列であり、数式(5)は、係数の組(a1、・・・、aj、・・・、an)を行列Sの固有ベクトル、定数λを行列Sの固有値とする、行列Sの固有値問題を表していることになる。
【0078】
条件が数式(3)の下で、数式(4)に示した合成変量(合成基準変量データ)uiの分散Su2を最大とする係数a1、・・・、aj、・・・、anは、行列Sの最大の固有値に対応する固有ベクトルで表されることになる。
【0079】
従って、行列Sの1番目に大きい(最大の)固有値λ1に対応する固有ベクトル(a1〈1〉、・・・、aj〈1〉、・・・、an〈1〉)を求め、この固有ベクトル(a1〈1〉、・・・、aj〈1〉、・・・、an〈1〉)を特徴係数の第1主成分とし、行列Sの2番目に大きい固有値λ2に対応する固有ベクトル(a1〈2〉、・・・、aj〈2〉、・・・、an〈2〉)を求め、この固有ベクトル(a1〈2〉、・・・、aj〈2〉、・・・、an〈2〉)を特徴係数の第2主成分とし、行列Sの3番目に大きい固有値λ3に対応する固有ベクトル(a1〈3〉、・・・、aj〈3〉、・・・、an〈3〉)を求め、この固有ベクトル(a1〈3〉、・・・、aj〈3〉、・・・、an〈3〉)を特徴係数の第3主成分とする。
【0080】
これら固有ベクトル(a1〈1〉、・・・、aj〈1〉、・・・、an〈1〉)、(a1〈2〉、・・・、aj〈2〉、・・・、an〈2〉)および(a1〈3〉、・・・、aj〈3〉、・・・、an〈3〉)を特徴係数として、コンテンツ特徴量抽出装置1の主成分演算手段13に入力している。
【0081】
なお、動画像データの場合、情報吸収率を意味する累積寄与率は、第3主成分までで80%を超えるため、第1主成分から第3主成分までを特徴係数として用いれば十分である。但し、さらに精度を求める場合には、これら第1主成分から第3主成分までに限らずに第4主成分以降も併せて特徴係数として用いることとしてもよい。
【0082】
[特徴量データについて]
次に、特徴量データについて説明する(適宜、図1参照)。
まず、多変量データ生成手段11により得られたn個の変量データ(x1、・・・、xj、・・・、xn)を主成分演算手段13に入力する。すると、主成分演算手段13において、特徴係数演算手段9で求めた特徴係数の第1主成分、第2主成分、第3主成分から、以下に示す数式(7)〜(9)を使用した演算を行って、u〈1〉、u〈2〉およびu〈3〉を求め、これらを特徴量データとして出力する。
【0083】
u〈1〉=a1〈1〉x1+・・・+aj〈1〉xj+・・・+an〈1〉xn・・・数式(7)
u〈2〉=a1〈2〉x1+・・・+aj〈2〉xj+・・・+an〈2〉xn・・・数式(8)
u〈3〉=a1〈3〉x1+・・・+aj〈3〉xj+・・・+an〈3〉xn・・・数式(9)
これらの数式(7)〜(9)で求められたu〈1〉、u〈2〉およびu〈3〉が特徴量データとなる。
【0084】
(基準変量データの事例、特徴係数の事例について)
次に、図4、図5を参照して、基準変量データの事例、特徴係数の事例について説明する。図4は、基準変量データの事例を示しており、この基準変量データの事例は、基準コンテンツとして、内容と種類との異なる10個の放送番組(各約10分)を用いて得られたものである。図4では、番組番号1〜10の10個の放送番組について、12個の基準変量データ(kY0、kY1、kY2、kY3、kY4およびkY5、kCb0、kCb1およびkCb2、kCr0、kCr1およびkCr2)が求められている。
【0085】
また、図5は、これらの基準変量データを用いて得られた特徴係数の事例を示しており、12個の特徴係数(tY0、tY1、tY2、tY3、tY4およびtY5、tCb0、tCb1およびtCb2、tCr0、tCr1およびtCr2Y0)の第1主成分から第3主成分までを求めたものである。
【0086】
ちなみに、この特徴係数の事例では、第1主成分から第3主成分までで、累積寄与率89.7%が得られている。
【0087】
(特徴量データの事例について)
次に、図6、図7を参照して、特徴量データの事例について説明する。
この特徴量データの事例では、コンテンツ特徴量抽出装置1に入力した動画像データ(基準コンテンツおよび比較コンテンツ)に、基準コンテンツとして10個の番組(基準コンテンツ)と、比較コンテンツとして各基準コンテンツの冒頭10%を削減して得られた編集番組(編集コンテンツ)とを用いた。
【0088】
図6には、番組の特徴量データである第1主成分および第2主成分と、編集番組の特徴量データである第1主成分および第2主成分との分布図を示しており、図7には、番組の特徴量データである第3主成分および第2主成分と、編集番組の特徴量データである第3主成分および第2主成分との分布図を示している。
【0089】
これら図6、図7に示したように、特徴量データとして、第1主成分、第2主成分および第3主成分を用いることにより、異種番組の区別(10個の番組の区別)および類似番組や編集前後の同一番組の識別が可能であることがわかる。
【0090】
なお、この実施の形態では、32ビットの浮動小数点型データを用いて、基準変量データ、変量データ、特徴係数および特徴量データの算出(演算)を行っているが、これを16ビットの浮動小数点型データを用いて行っても同様の結果を得ることができる。特に、最終的に得られる特徴量データに関しては、16ビットの整数型のデータで表現されれば十分である。
【0091】
また、このコンテンツ特徴量抽出装置1では、動画像データ(映像コンテンツ)について説明を行ったが、これに限定されるものではなく、音声データ(楽曲コンテンツ)等に対しても適用可能であり、さらに動画像データと音声データとを組み合わせたものについても、適用可能である。
【0092】
以上、一実施形態に基づいて本発明を説明したが、本発明はこれに限定されるものではない。
例えば、コンテンツ特徴量抽出装置1の各構成の処理を汎用的なコンピュータ言語で記述したコンテンツ特徴量抽出プログラムとみなすことや、各構成の処理を一つずつの過程ととらえたコンテンツ特徴量抽出方法とみなすことも可能である。これらの場合、コンテンツ特徴量抽出装置1と同様の効果を得ることができる。
【0093】
【発明の効果】
請求項1乃至4記載の発明によれば、多変量解析による主成分分析を用いて、コンテンツを分析しているので、特徴量データのデータ量を増加させることなく、コンテンツの同一性または類似性の検定を高精度に行うことができる。
【0094】
また、請求項1乃至4記載の発明によれば、基準コンテンツおよび比較コンテンツを分割して平均化した縮小画像データに離散コサイン変換、周波数変換を施して得られた周波数軸方向波形データを周波数全域に亘って総和して、基準変量データまたは変量データを得ており、これら基準変量データまたは変量データを用いているので、当該コンテンツの特徴量データのデータ量を増加させることなく、コンテンツの同一性または類似性の検定を高精度に行うことができる。
【0095】
また、請求項1乃至4記載の発明によれば、合成基準変量データの分散が最大となる所定係数が特徴係数とされることで、データ量を増加させることなく、動画像データ(基準コンテンツ)の特徴を表すことができる(特徴量データを得ることができる)。
【0096】
また、請求項1乃至4記載の発明によれば、複数の変量データのそれぞれに特徴係数が乗算されて主成分が求められ、この主成分が特徴量データとして出力されているので、データ量を増加させることなく、動画像データ(比較コンテンツ)の特徴を表すことができる(特徴量データを得ることができる)。
【図面の簡単な説明】
【図1】本発明による一実施の形態であるコンテンツ特徴量抽出装置のブロック図である。
【図2】図1に示したコンテンツ特徴量抽出装置の動作を説明したフローチャートである。
【図3】基準変量データの一覧を示した図である。
【図4】基準変量データの事例を示した図である。
【図5】特徴係数の事例を示した図である。
【図6】特徴量データの事例を示した図であり、番組の特徴量データである第1主成分および第2主成分と、編集番組の特徴量データである第1主成分および第2主成分との分布図である。
【図7】特徴量データの事例を示した図であり、番組の特徴量データである第3主成分および第2主成分と、編集番組の特徴量データである第3主成分および第2主成分との分布図である。
【図8】従来のコンテンツ特徴量抽出装置のブロック図である。
【符号の説明】
1 コンテンツ特徴量抽出装置
3 特徴係数生成部
5 特徴量データ抽出部
7 基準多変量データ生成手段(基準コンテンツ多変量データ生成手段)
7a、11a ブロック平均化手段
7b、11b DCT処理手段(離散コサンイン変換手段)
7c、11c 周波数変換手段
7d、11d 周波数データ総和算出手段
9 特徴係数演算手段
11 多変量データ生成手段(比較コンテンツ多変量データ生成手段)
13 主成分演算手段[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a content feature amount extraction device, a content feature amount extraction program, and a content feature amount extraction method that extract feature amounts of content and use the extracted feature amounts for unauthorized distribution detection and similarity search.
[0002]
[Prior art]
With the recent increase in network speed and storage media capacity, large-capacity digital content (hereinafter referred to as content) consisting of video data, audio data, etc., is transferred to a public communication line (optical fiber communication), which is a high-speed network. An environment in which anyone can easily distribute or distribute via an optical disk (DVD or the like), which is a large-capacity recording medium, is provided.
[0003]
In addition, content distributed via a network is easy to store, and content recorded on a recording medium is easy to deliver. Therefore, the copyright owner of the content (hereinafter simply referred to as “copyright holder”). And without permission from the distributor (hereinafter referred to as “content provider”) to distribute the content, copy the stored content and re-distribute it via the network, or tamper with the content. It is easy to do fraudulent activities such as This fraudulent act is a major impediment to distributing content.
[0004]
In particular, illegally distributed content resulting from unauthorized acts of copying and redistributing (retransmitting) content without obtaining the permission (license) of the copyright owner or content provider is subject to significant financial inconvenience to the copyright owner or content provider. Therefore, technical means capable of detecting such illegally distributed content with high accuracy and in a short time and deterring illegal acts are being sought.
[0005]
In addition, with the spread of the Internet and higher performance of digital information devices (storage devices, etc.), the use of moving image content (large-capacity multimedia data), which is a large-capacity content, has become common. For this reason, there is a need for means for efficiently searching for specific content desired by a user from a vast number of contents held on the Internet or in a storage device.
[0006]
In order to detect illegally distributed content or to search for specific content, feature amount data representing the feature of the content is extracted from the luminance and color information of the video data constituting the content, and the extracted feature amount data is A feature amount extraction technique used for determination (testing) of identity and similarity between contents has been proposed as an effective means.
[0007]
Also, with regard to the conventional technique for extracting content feature amounts, for example, ISO / IEC 15938-3 “MPEG-7 Visual Description” (see Non-Patent Document 1) describes the characteristics of video data (video signal). A feature extraction algorithm for extracting the described features is defined. It is assumed that this visual description is mainly used for similarity search / filtering based on video data (video signal), and in this visual description, low-level colors, shapes, etc. on video data. As a specific description of the feature amount, “color layout description” that defines the spatial arrangement of colors on the frequency axis is defined.
[0008]
This color arrangement description reflects human visual characteristics, and enables high-precision search for each image frame constituting the content. That is, unnecessary information can be deleted on the frequency axis when the similarity between contents is tested by the color arrangement description. As a result, the amount of data describing the content features is reduced.
[0009]
Incidentally, the color arrangement is D = {ny, Yi(I = 1, 2,... Ny; Nc, Cbj, Crj(J = 1, 2,..., Nc)}.
In this color arrangement D, nyIs the number of luminance component coefficients, ncIs the number of color difference component coefficients, YiIs the DCT coefficient of the luminance signal (Y) and Cbj, CrjIs a DCT coefficient of the color difference signal (Cb, Cr). In addition, when calculating a feature amount from moving image data, it is recommended that the luminance signal (Y) has 6 coefficients and the color difference signals (Cb, Cr) have 3 coefficients.
[0010]
Here, a conventional feature amount extraction method will be described with reference to FIG.
FIG. 8 is a block diagram of a conventional content feature amount extraction device. As shown in FIG. 8, the content feature
[0011]
The 64 (8 × 8)
[0012]
The
[0013]
The
[0014]
The
[0015]
[Non-Patent Document 1]
ISO / IEC 15938-3 “Information Technology-Multimedia Content Description Interface-Part3: Visual, 6.6 Color layout”. pp42-50 (2002)
[0016]
[Problems to be solved by the invention]
However, since the content feature
[0017]
In addition, when detecting illegally distributed content or searching for programs (content search) with high accuracy using feature data, it is possible to test the identity and similarity between content while distinguishing different types of content. There is a problem that sufficient dispersion must be ensured.
[0018]
Therefore, an object of the present invention is to solve the problems of the conventional techniques described above, and to perform content identity or content similarity test with high accuracy without increasing the amount of feature data. An object of the present invention is to provide a quantity extraction device, a content feature quantity extraction program, and a content feature quantity extraction method.
[0019]
[Means for Solving the Problems]
In order to achieve the above-described object, the present invention has the following configuration.
The content feature amount extraction apparatus according to
[0020]
According to such a configuration, the content feature amount extraction device uses the reference content multivariate data generation unit to execute the reference contentFromGenerate multiple baseline variable data.
[0021]
Subsequently, the content feature quantity extraction device uses the feature coefficient calculation means,Using principal component analysis in multivariate analysis,Generated by the reference content multivariate data generation meanspluralStandard variable dataFind the variance / covariance matrix corresponding to the variance of the combined reference variate data synthesized by multiplying each by a given coefficient, and output the eigenvectors for the given ones in descending order of the eigenvalues of the matrix as feature coefficientsDo.
Multivariate analysis is a method that uses multiple data (reference content) that make up a population, or data that has enough types and numbers that can be used to estimate the population. It is one of the analysis methods to identify the main elements that make up and to clarify the entanglement between elements. Principal component analysis is an analysis method that synthesizes (compresses) several correlated elements (factors) into several components, and obtains the total power and characteristics.
[0022]
Then, the content feature amount extraction device uses the comparison content multivariate data generation means to perform comparison content.FromA plurality of variable data is generated, and the principal component is calculated by the principal component calculation means based on the variable data generated by the comparison content multivariate data generation means and the feature coefficient calculated by the feature coefficient calculation means. Obtained and output as feature data. This feature amount data is obtained, for example, by multiplying each of a plurality of variable data by a plurality of feature coefficients (in particular, three values (principal components) obtained by multiplying the variable data and the feature coefficients. First main component, second main component and third main component).
[0023]
Also,Claim1Described content feature quantity extraction deviceofThe reference content multivariate data generation meansas well asThe comparison content multivariate data generating means includes block averaging means, discrete cosine transform means, frequency transform means, and frequency data summation calculation means.
[0024]
According to this configuration, the reference content multivariate data generation unit or the comparison content multivariate data generation unit of the content feature quantity extraction device uses the block averaging unit to compare the reference content that is moving image data or the comparison content that is moving image data. All the pixel data included in each frame reproduced by the luminance signal and the color difference signal is divided into a plurality of blocks (for example, 64, horizontal 8 divisions × vertical 8 divisions), and all the pixel data for each divided block is averaged. To generate reduced image data. That is, after the moving image data (one frame) is divided into a plurality of blocks, the luminance signals and color difference signals of all the pixel data in this block are averaged.
[0025]
Subsequently, the reference content multivariate data generation unit or the comparison content multivariate data generation unit of the content feature amount extraction apparatus performs discrete cosine on the reduced image data generated by the block capping unit by the discrete cosine transform unit. Transform to a discrete cosine coefficient. The discrete cosine coefficients are obtained by a fixed number such as 6 for the luminance signal (Y), 3 for the color difference signal (Cb), and 3 for the color difference signal (Cr).
[0026]
Next, the reference content multivariate data generation unit or the comparison content multivariate data generation unit of the content feature amount extraction apparatus performs frequency conversion on the discrete cosine coefficient by the frequency conversion unit to obtain frequency axis direction waveform data. The frequency axis direction waveform data is obtained by connecting the vertices of the data amount at each frequency on a graph in which the frequency axis is the horizontal axis and the data amount (component) included in each frequency is the vertical axis. . Then, the reference content multivariate data generation unit or the comparison content multivariate data generation unit of the content feature amount extraction apparatus applies the frequency axis direction waveform data converted by the frequency conversion unit by the frequency data sum calculation unit over the entire frequency range. The sum is taken as standard variable data or variable data.
[0029]
Also,Claim1Described content feature quantity extraction deviceofThe principal component calculation means obtains the principal component by multiplying each of the plurality of variable data by the feature coefficient, and outputs the principal component as the feature amount data.
[0030]
According to such a configuration, the content feature quantity extraction device obtains a principal component by multiplying each of a plurality of variable data by the feature coefficient by the principal component calculation means, and outputs the principal component as feature quantity data. The feature of the comparison content can be expressed without increasing the data amount (feature data can be obtained).
[0031]
Claim3The described content feature amount extraction program analyzes a reference content as a reference for comparison and a comparison content as a comparison target using principal component analysis in multivariate analysis, and a plurality of principal components constituting the comparison content Is configured to function as a reference content multivariate data generation unit, a feature coefficient calculation unit, a comparison content multivariate data generation unit, and a principal component calculation unit.
[0032]
According to such a configuration, the content feature amount extraction program can execute the reference content multivariate data generation unit.FromA plurality of reference variable data is generated, and the characteristic coefficient calculation meansUsing principal component analysis in multivariate analysis,Generated by the reference content multivariate data generation meanspluralStandard variable dataFind the variance / covariance matrix corresponding to the variance of the combined reference variate data synthesized by multiplying each by a given coefficient, and output the eigenvectors for the given ones in descending order of the eigenvalues of the matrix as feature coefficientsTo do. Then, this content feature amount extraction program uses the comparison content multivariate data generation means to output the comparison content.FromMultiple variable data is generated and generated by the comparison content multivariate data generation means by the principal component calculation meanspluralVariable dataVectorAnd calculated by the feature coefficient calculation meanseachFeature coefficient andThe inner product ofAnd output as feature data.
[0033]
Claim4The content feature amount extraction method described includes analyzing a reference content as a reference for comparison and a comparison content as a comparison target using principal component analysis in multivariate analysis, and a plurality of principal components constituting the comparison content Is a content feature amount extraction method that extracts a reference content multivariate data generation step, a feature coefficient calculation step, a comparison content multivariate data generation step, and a principal component calculation step. did.
[0034]
According to such a procedure, the content feature amount extraction method uses the reference content in the reference content multivariate data generation step.FromA plurality of reference variable data is generated, and in the feature coefficient calculation step,Using principal component analysis in multivariate analysis,Generated in the reference content multivariate data generation steppluralStandard variable dataFind the variance / covariance matrix corresponding to the variance of the combined reference variate data synthesized by multiplying each by a given coefficient, and output the eigenvectors for the given ones in descending order of the eigenvalues of the matrix as feature coefficientsTo do. And this content feature amount extraction method uses the comparison content in the comparison content multivariate data generation step.FromMultiple variable data was generated and generated in the comparison content multivariate data generation step in the principal component calculation steppluralVariable dataVectorAnd calculated in the feature coefficient calculation stepeachFeature coefficient andThe inner product ofAnd output as feature data.
[0035]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
(Configuration of content feature extraction device)
FIG. 1 is a block diagram of a content feature amount extraction apparatus. As shown in FIG. 1, the content feature
[0036]
In addition, the content feature
[0037]
The feature
[0038]
The reference multivariate data generation means 7 is a moving image data (reference content [1,..., I,..., M]).FromGenerates a plurality of (many) reference variable data, and includes block averaging means 7a, DCT processing means 7b (discrete cosine transform means), frequency transform means 7c, and frequency data sum calculation means 7d..
[0039]
The block averaging means 7a is a frame unit based on the luminance signal (Y) and color difference signals (Cb, Cr) of the input moving image data (reference content (1,..., I,..., M)). Processing is performed to output reduced image data. Note that i in the reference content (1,..., I,..., M) indicates the i-th (i) reference content, and m indicates the m-th (m) reference content. The processing in units of frames divides all pixels in each frame into 8 horizontal blocks × 8 vertical blocks, averages the pixel data of the luminance signal (Y) and color difference signals (Cb, Cr) of all pixels in each block, Reduced image data of 8 horizontal pixels × 8 vertical lines is created (generated).
[0040]
The DCT processing means 7b performs DCT arithmetic processing (Discrete Cosine Transform) on the pixel data Y, Cb and Cr of the reduced image data generated by the block averaging means 7a, and converts them into discrete cosine coefficients. . In this embodiment, the DCT processing means 7b has six coefficients Y0, Y1, Y2, Y3, Y4, and Y5 for the luminance signal (Y), and three of Cb0, Cb1, and Cb2 for the color difference signal (Cb). For the coefficient and color difference signal (Cr), a total of 12 coefficients of 3 coefficients of Cr0, Cr1, and Cr2 are calculated. This discrete codeRhinoThe more the number of image coefficients, the higher the accuracy of the content identity or similarity test when using the finally generated feature data.
[0041]
The
[0042]
The frequency data
[0043]
The characteristic coefficient calculation means 9Using principal component analysis with multivariate analysis,Based on the twelve reference variable data (kY0, kY1, kY2, kY3, kY4 and kY5, kCb0, kCb1 and kCb2, kCr0, kCr1 and kCr2) generated by the reference multivariate data generation means 7 Thus, it is obtained and output to the feature amount
[0044]
The feature quantity
[0045]
Multivariate data generation means 11 is moving image data (comparison content)FromIt generates a plurality (various) of variable data, and includes block averaging means 11a, DCT processing means 11b (discrete cosine transform means), frequency transform means 11c, and frequency data sum total calculation means 11d.
[0046]
The
[0047]
The
[0048]
The
[0049]
The frequency data
[0050]
The principal
[0051]
According to the content feature
[0052]
In addition, according to the content feature
[0053]
Then, 12 converted by the frequency conversion means 7c and 11c by the frequency data total calculation means 7d and 11d.No lapWaveform axis direction waveform dataTIt is summed over the entire frequency range to obtain reference variable data or variable data. That is, 12 obtained by performing discrete cosine transform and frequency transform on the reduced image data obtained by dividing and averaging the reference content and the comparison content.No lapWaveform axis direction waveform dataTSince the reference variable data or variable data is obtained by summing over the entire frequency range, and these reference variable data or variable data are used, the content amount of the content can be increased without increasing the data amount of the feature amount data of the content. The identity or similarity test can be performed with high accuracy.
[0054]
Furthermore, according to the content feature
[0055]
Furthermore, according to the content feature
[0056]
(Operation of content feature extraction device)
Next, the operation of the content feature
[0057]
First, when moving image data (reference content) is input to the feature
[0058]
Subsequently, the content feature
[0059]
When moving image data (comparison content) is input to the feature amount
[0060]
When the feature coefficient and the variable data are input to the principal component calculation means 13 of the content feature
[0061]
As described in the operation of the content feature
[0062]
(About principal component analysis, feature coefficient, feature data)
Here, principal component analysis, calculation of feature coefficients, and feature amount data in multivariate analysis will be described (see FIG. 1 as appropriate).
[0063]
[About principal component analysis]
First, principal component analysis will be described. The principal component analysis refers to, for example, the coefficients a, b, and c that maximize the variance of the composite variable u in the following equation (1) for a plurality of variables x, y, and z, and the composite variable u in this case Is used to analyze data.
[0064]
u = ax + by + cz (1)
Where the coefficients a, b and c are a2+ B2+ C2Is a constant that satisfies = 1.
[0065]
[About feature coefficients]
Next, the characteristic coefficient will be described (see FIG. 1 as appropriate).
First, as described above, using a plurality of reference contents (1,..., I,..., M) serving as a population, or a plurality of reference contents having types and numbers capable of sufficiently estimating the population. In addition, reference multivariate data generation means 7 generates reference variable data.
[0066]
Here, FIG. 3 shows a list of reference variable data when the number of reference contents is m and the number of reference variable data in each reference content is n. Note that moving image data (reference content) input to the reference multivariate data generation means 7 of the feature
[0067]
With respect to the plurality of reference variable data generated by the reference multivariate data generation means 7, the feature coefficient calculation means 9 performs the following calculation to calculate the feature coefficients. Synthetic variables (composite standard variable data) u for the standard variable data of the i-th standard content among the standard variable data shown in FIG.iIs obtained by the following equation (2).
[0068]
ui= A1xi1+ ... + ajxij+ ... + anxin ... Formula (2)
However, i is an integer of 1 <i <m, and the coefficient a1, ..., aj, ..., anIs a1 2+ ... + aj 2+ ... + an 2= 1 Formula (3)
Is a constant that satisfies.
[0069]
Also, a synthetic variable (composite standard variable data) uiDistribution of Su2Is obtained by the following equation (4).
[0070]
[Expression 1]
[0071]
Here, the average of u (the letter with the ruby “-” attached to u) is uiIs the average value of S11... Sjj・ ・ ・ ・ ・ ・ SnnAre the variables xi1, ..., xij, ..., xinRepresents the variance of (1 <i <m) and S12... Sj (j + 1)... S(n-1) nAre the variables xi1-Xi2, ..., xij-Xi (j + 1), ..., xi (n-1)-XinIt represents the covariance of (1 <i <m).
[0072]
In the principal component analysis in this embodiment, the condition is under the expression (3), and the composite variable (synthesis reference variable data) u shown in the expression (4)iDistribution of Su2The coefficient a that maximizes1... aj... anIs to seek.
[0073]
And these coefficients a1... aj... anIs obtained using the Lagrangian constant variation method.
[0074]
[Expression 2]
[0075]
Here, λ represents a specific constant of the formula (5), and S can be represented as the following formula (6).
[0076]
[Equation 3]
[0077]
The matrix S shown in the equation (6) is a variance / covariance matrix of each variable, and the equation (5) is a set of coefficients (a1... aj... an) Represents the eigenvector of the matrix S, and the constant λ represents the eigenvalue of the matrix S.
[0078]
The composite variable (synthetic reference variable data) u shown in Equation (4) under the condition of Equation (3)iDistribution of Su2The coefficient a that maximizes1... aj... anIs represented by an eigenvector corresponding to the largest eigenvalue of the matrix S.
[0079]
Therefore, the first largest (maximum) eigenvalue λ of the matrix S1Eigenvectors corresponding to (a1<1>, ..., aj<1>, ..., an<1>) and the eigenvector (a1<1>, ..., aj<1>, ..., an<1>) as the first principal component of the feature coefficient, and the second largest eigenvalue λ of the matrix S2Eigenvectors corresponding to (a1<2>, ..., aj<2>, ..., an<2>) and obtain this eigenvector (a1<2>, ..., aj<2>, ..., an<2>) as the second principal component of the feature coefficient, and the third largest eigenvalue λ of the matrix SThreeEigenvectors corresponding to (a1<3>, ..., aj<3>, ..., an<3>) and the eigenvector (a1<3>, ..., aj<3>, ..., an<3>) is the third principal component of the feature coefficient.
[0080]
These eigenvectors (a1<1>, ..., aj<1>, ..., an<1>), (a1<2>, ..., aj<2>, ..., an<2>) and (a1<3>, ..., aj<3>, ..., an<3>) is input to the principal component calculation means 13 of the content feature
[0081]
In the case of moving image data, since the cumulative contribution rate, which means the information absorption rate, exceeds 80% up to the third principal component, it is sufficient to use the first principal component to the third principal component as feature coefficients. . However, when further accuracy is required, not only the first principal component to the third principal component but also the fourth principal component and the subsequent components may be used as feature coefficients.
[0082]
[About feature data]
Next, feature amount data will be described (see FIG. 1 as appropriate).
First, n variable data (x1,..., Xj,..., Xn) obtained by the multivariate
[0083]
u <1> = a1<1> x1+ ... + aj<1> xj+ ... + an<1> xn... Formula (7)
u <2> = a1<2> x1+ ... + aj<2> xj+ ... + an<2> xn... Formula (8)
u <3> = a1<3> x1+ ... + aj<3> xj+ ... + an<3> xn... Formula (9)
U <1>, u <2>, and u <3> obtained by these mathematical formulas (7) to (9) are feature amount data.
[0084]
(Examples of standard variable data and feature coefficients)
Next, with reference to FIG. 4 and FIG. 5, an example of the reference variable data and an example of the characteristic coefficient will be described. FIG. 4 shows an example of reference variable data, which was obtained using ten broadcast programs (about 10 minutes each) having different contents and types as reference contents. It is. In FIG. 4, twelve reference variable data (kY0, kY1, kY2, kY3, kY4 and kY5, kCb0, kCb1 and kCb2, kCr0, kCr1 and kCr2) are obtained for 10 broadcast programs with
[0085]
FIG. 5 shows examples of feature coefficients obtained by using these reference variable data. Twelve feature coefficients (tY0, tY1, tY2, tY3, tY4 and tY5, tCb0, tCb1, and tCb2, tCr0, tCr1 and tCr2Y0) from the first principal component to the third principal component.
[0086]
Incidentally, in the case of this feature coefficient, a cumulative contribution ratio of 89.7% is obtained from the first principal component to the third principal component.
[0087]
(About the feature data example)
Next, an example of feature amount data will be described with reference to FIGS.
In this example of feature amount data, moving picture data (reference content and comparison content) input to the content feature
[0088]
FIG. 6 shows a distribution diagram of the first principal component and the second principal component that are the feature amount data of the program and the first principal component and the second principal component that are the feature amount data of the edited program. 7 shows a distribution diagram of the third principal component and the second principal component, which are the feature amount data of the program, and the third principal component and the second principal component, which is the feature amount data of the edited program.
[0089]
As shown in FIG. 6 and FIG. 7, by using the first principal component, the second principal component, and the third principal component as the feature amount data, it is possible to distinguish different programs (10 programs) and similar. It can be seen that the program and the same program before and after editing can be identified.
[0090]
In this embodiment, calculation (calculation) of reference variable data, variable data, feature coefficient, and feature value data is performed using 32-bit floating point type data. Similar results can be obtained by using the type data. In particular, it is sufficient that the feature amount data finally obtained is expressed by 16-bit integer type data.
[0091]
Further, in the content feature
[0092]
As mentioned above, although this invention was demonstrated based on one Embodiment, this invention is not limited to this.
For example, it is considered that the processing of each component of the content feature
[0093]
【The invention's effect】
Claim 1Thru 4According to the described invention, content analysis is performed using principal component analysis based on multivariate analysis, so that the content identity or similarity test can be performed with high accuracy without increasing the amount of feature data. Can be done.
[0094]
Also,Claim1 to 4According to the described invention, the frequency-axis direction waveform data obtained by performing discrete cosine transformation and frequency transformation on the reduced image data obtained by dividing and averaging the reference content and the comparison content are summed over the entire frequency range, Since we have obtained standard variable data or variable data and use these standard variable data or variable data, we can increase the content identity or similarity test without increasing the amount of feature data of the content. Can be done with precision.
[0095]
Also,Claim1 to 4According to the described invention, the characteristic of the moving image data (reference content) can be expressed without increasing the amount of data by using the predetermined coefficient that maximizes the variance of the combined reference variable data as the feature coefficient. (Feature data can be obtained).
[0096]
Also,Claim1 toAccording to the invention described in 4, the principal component is obtained by multiplying each of the plurality of variable data by the feature coefficient, and since this principal component is output as the feature amount data, the moving image can be recorded without increasing the data amount. The feature of image data (comparison content) can be expressed (feature data can be obtained).
[Brief description of the drawings]
FIG. 1 is a block diagram of a content feature amount extraction apparatus according to an embodiment of the present invention.
FIG. 2 is a flowchart for explaining the operation of the content feature amount extraction apparatus shown in FIG. 1;
FIG. 3 is a diagram showing a list of reference variable data.
FIG. 4 is a diagram showing an example of reference variable data.
FIG. 5 is a diagram showing examples of feature coefficients.
FIG. 6 is a diagram showing an example of feature quantity data; first and second principal components that are program feature quantity data; and first and second principal components that are feature quantity data of an edited program. It is a distribution map with a component.
FIG. 7 is a diagram illustrating an example of feature amount data, and a third principal component and a second principal component that are feature amount data of a program, and a third principal component and a second principal component that are feature amount data of an edited program; It is a distribution map with a component.
FIG. 8 is a block diagram of a conventional content feature amount extraction apparatus.
[Explanation of symbols]
1. Content feature extraction device
3 Feature coefficient generator
5 Feature data extraction unit
7 Standard multivariate data generation means (reference content multivariate data generation means)
7a, 11a Block averaging means
7b, 11b DCT processing means (discrete cosanin conversion means)
7c, 11c Frequency conversion means
7d, 11d Frequency data total calculation means
9 Feature coefficient calculation means
11 Multivariate data generation means (comparison content multivariate data generation means)
13 Principal component calculation means
Claims (4)
複数の前記基準コンテンツから複数の基準変量データを生成する基準コンテンツ多変量データ生成手段と、
前記多変量解析における主成分分析を用いて、この基準コンテンツ多変量データ生成手段で生成された複数の基準変量データのそれぞれに所定係数を乗算して合成した合成基準変量データの分散に対応する分散・共分散行列を求め、当該行列の固有値の大きい順に所定個のものに対する固有ベクトルを、特徴係数として出力する特徴係数演算手段と、
前記比較コンテンツから複数の変量データを生成する比較コンテンツ多変量データ生成手段と、
この比較コンテンツ多変量データ生成手段で生成された複数の変量データを成分としたベクトルと、前記特徴係数演算手段で演算された各特徴係数との内積を、前記特徴量データとして出力する主成分演算手段と、
を備え、
前記基準コンテンツ多変量データ生成手段は、
前記基準コンテンツが動画像データであり、この動画像データの輝度信号および色差信号によって再現されるフレームそれぞれに含まれる全画素データを複数のブロックに分割すると共に、分割したブロック毎の全画素データの輝度信号および色差信号を平均化して縮小画像データを生成するブロック平均化手段と、
このブロック平均化手段によって生成された縮小画像データに対して、離散コサイン変換を施して、離散コサイン係数に変換し、その所定個を算出する離散コサイン変換手段と、
この離散コサイン変換手段によって算出された離散コサイン係数のそれぞれに対し、周波数変換を施して周波数軸方向波形データとする周波数変換手段と、
この周波数変換手段によって変換された周波数軸方向波形データを周波数全域に亘って総和し、前記基準変量データとする周波数データ総和算出手段と、
から構成され、
前記比較コンテンツ多変量データ生成手段は、
前記比較コンテンツが動画像データであり、この動画像データの輝度信号および色差信号によって再現されるフレームそれぞれに含まれる全画素データを複数のブロックに分割すると共に、分割したブロック毎の全画素データの輝度信号および色差信号を平均化して縮小画像データを生成するブロック平均化手段と、
このブロック平均化手段によって生成された縮小画像データに対して、離散コサイン変換を施して、離散コサイン係数に変換し、その所定個を算出する離散コサイン変換手段と、
この離散コサイン変換手段によって算出された離散コサイン係数のそれぞれに対し、周波数変換を施して周波数軸方向波形データとする周波数変換手段と、
この周波数変換手段によって変換された周波数軸方向波形データを周波数全域に亘って総和し、前記変量データとする周波数データ総和算出手段と、
から構成される
ことを特徴とするコンテンツ特徴量抽出装置。Content features that analyze the reference content to be compared and the comparative content to be compared using principal component analysis in multivariate analysis, and extract a plurality of principal components constituting the comparison content as feature data A quantity extraction device,
A reference content multivariate data generating means for generating a plurality of reference variables data from a plurality of the reference content,
A variance corresponding to the variance of the combined reference variable data synthesized by multiplying each of the plurality of reference variable data generated by the reference content multivariate data generation means by a predetermined coefficient using principal component analysis in the multivariate analysis. A feature coefficient computing means for obtaining a covariance matrix and outputting eigenvectors for a predetermined number in descending order of eigenvalues of the matrix as a feature coefficient;
And comparing the content multivariate data generating means for generating a plurality of variable data from the comparison content,
Principal component calculation that outputs, as the feature quantity data, an inner product of a vector having a plurality of variable data generated by the comparison content multivariate data generation means as components and each feature coefficient calculated by the feature coefficient calculation means Means,
Equipped with a,
The reference content multivariate data generation hands stage,
The reference content is moving image data, while dividing the entire pixel data included in each frame to be reproduced by the luminance signal and the color difference signal of the moving image data into a plurality of blocks, all the pixel data of each divided block Block averaging means for generating reduced image data by averaging the luminance signal and color difference signal of
Discrete cosine transformation is performed on the reduced image data generated by the block averaging unit, discrete cosine transformation is performed to convert the reduced image data into discrete cosine coefficients , and a predetermined number thereof is calculated .
Against each of the discrete cosine coefficients calculated by the discrete cosine transform means, and frequency conversion means to frequency-axis direction waveform data by performing frequency conversion,
The frequency axis direction waveform data converted by the frequency converting means to sum over the entire frequency range, the frequency data total sum calculation means for the reference variable data,
Consisting of
Before Symbol comparison content multivariate data generation means,
A pre-Symbol comparison content moving image data, while dividing the entire pixel data included in each frame to be reproduced by the luminance signal and the color difference signal of the moving image data into a plurality of blocks, all the pixel data of each divided block Block averaging means for generating reduced image data by averaging the luminance signal and color difference signal of
Discrete cosine transformation is performed on the reduced image data generated by the block averaging unit, discrete cosine transformation is performed to convert the reduced image data into discrete cosine coefficients , and a predetermined number thereof is calculated .
Against each of the discrete cosine coefficients calculated by the discrete cosine transform means, and frequency conversion means to frequency-axis direction waveform data by performing frequency conversion,
The frequency axis direction waveform data converted by the frequency converting means to sum over the entire frequency range, the frequency data sum calculating means and the variable data,
Composed of
Content feature quantity extraction unit, wherein the this.
前記基準コンテンツが動画像データであり、この動画像データの輝度信号および色差信号によって再現されるフレームそれぞれに含まれる全画素データを複数のブロックに分割すると共に、分割したブロック毎の全画素データの輝度信号および色差信号を平均化して縮小画像データを生成する第1のブロック平均化手段、
この第1のブロック平均化手段によって生成された縮小画像データに対して、離散コサイン変換を施して、離散コサイン係数に変換し、その所定個を算出する第1の離散コサイン変換手段、
この第1の離散コサイン変換手段によって算出された離散コサイン係数のそれぞれに対し、周波数変換を施して周波数軸方向波形データとする第1の周波数変換手段、
この第1の周波数変換手段によって変換された周波数軸方向波形データを周波数全域に亘って総和し、基準変量データとする第1の周波数データ総和算出手段、
前記多変量解析における主成分分析を用いて、複数の前記基準コンテンツに対して、前記第1の周波数データ総和算出手段で生成された複数の基準変量データのそれぞれに所定係数を乗算して合成した合成基準変量データの分散に対応する分散・共分散行列を求め、当該行列の固有値の大きい順に所定個のものに対する固有ベクトルを、特徴係数として出力する特徴係数演算手段、
前記比較コンテンツが動画像データであり、この動画像データの輝度信号および色差信号によって再現されるフレームそれぞれに含まれる全画素データを複数のブロックに分割すると共に、分割したブロック毎の全画素データの輝度信号および色差信号を平均化して縮小画像データを生成する第2のブロック平均化手段、
この第2のブロック平均化手段によって生成された縮小画像データに対して、離散コサイン変換を施して、離散コサイン係数に変換し、その所定個を算出する第2の離散コサイン変換手段、
この第2の離散コサイン変換手段によって算出された離散コサイン係数のそれぞれに対し、周波数変換を施して周波数軸方向波形データとする第2の周波数変換手段、
この第2の周波数変換手段によって変換された周波数軸方向波形データを周波数全域に亘って総和し、変量データとする第2の周波数データ総和算出手段、
前記比較コンテンツに対して、前記第2の周波数データ総和算出手段で生成された複数の変量データを成分としたベクトルと、前記特徴係数演算手段で演算された各特徴係数との内積を、前記特徴量データとして出力する主成分演算手段、
として機能させることを特徴とするコンテンツ特徴量抽出プログラム。And comparing the contents of the reference content to base the comparison to be compared, and analyzed using principal component analysis in multivariate analysis, in order to extract a plurality of principal components constituting the comparison contents as the feature amount data Computer
The reference content is moving image data, and all pixel data included in each frame reproduced by the luminance signal and color difference signal of the moving image data is divided into a plurality of blocks, and all the pixel data of each divided block is First block averaging means for averaging the luminance signal and the color difference signal to generate reduced image data;
A first discrete cosine transform unit that performs discrete cosine transform on the reduced image data generated by the first block averaging unit, transforms it into discrete cosine coefficients, and calculates a predetermined number thereof;
The first discrete against the respective cosine discrete cosine coefficient calculated by the conversion unit, first frequency converting means for frequency-axis direction waveform data by performing frequency conversion,
First frequency data sum total calculating means for summing the frequency axis direction waveform data converted by the first frequency converting means over the entire frequency range to obtain reference variable data;
Using the principal component analysis in the multivariate analysis, the plurality of reference contents are synthesized by multiplying each of the plurality of reference variable data generated by the first frequency data sum calculation means by a predetermined coefficient. A feature coefficient computing means for obtaining a variance / covariance matrix corresponding to the variance of the composite reference variate data, and outputting eigenvectors for a predetermined number in the descending order of the eigenvalues of the matrix as feature coefficients;
The comparison content is moving image data, and all pixel data included in each frame reproduced by the luminance signal and the color difference signal of the moving image data is divided into a plurality of blocks, and all the pixel data of each divided block is A second block averaging means for averaging the luminance signal and the color difference signal to generate reduced image data;
A second discrete cosine transform unit that performs discrete cosine transform on the reduced image data generated by the second block averaging unit, transforms it into discrete cosine coefficients, and calculates a predetermined number thereof.
The second discrete cosine against the respective discrete cosine coefficients calculated by the transformation means, second frequency converting means for frequency-axis direction waveform data by performing frequency conversion,
A second frequency data sum total calculating means for summing the frequency axis direction waveform data converted by the second frequency converting means over the entire frequency range to obtain variable data;
For the comparison content, an inner product of a vector having a plurality of variable data generated by the second frequency data summation calculation means as components and each feature coefficient calculated by the feature coefficient calculation means, Principal component calculation means for outputting as quantity data,
A content feature amount extraction program characterized by causing it to function as
複数の前記基準コンテンツから複数の基準変量データを生成する基準コンテンツ多変量データ生成ステップと、
前記多変量解析における主成分分析を用いて、この基準コンテンツ多変量データ生成手段で生成された複数の基準変量データのそれぞれに所定係数を乗算して合成した合成基準変量データの分散に対応する分散・共分散行列を求め、当該行列の固有値の大きい順に所定個のものに対する固有ベクトルを、特徴係数として出力する特徴係数演算ステップと、
前記比較コンテンツから複数の変量データを生成する比較コンテンツ多変量データ生成ステップと、
この比較コンテンツ多変量データ生成手段で生成された複数の変量データを成分としたベクトルと、前記特徴係数演算手段で演算された各特徴係数との内積を、前記特徴量データとして出力する主成分演算ステップと、
を含み、
前記基準コンテンツ多変量データ生成ステップは、
前記基準コンテンツが動画像データであり、この動画像データの輝度信号および色差信号によって再現されるフレームそれぞれに含まれる全画素データを複数のブロックに分割すると共に、分割したブロック毎の全画素データの輝度信号および色差信号を平均化して縮小画像データを生成するブロック平均化ステップと、
このブロック平均化手段によって生成された縮小画像データに対して、離散コサイン変換を施して、離散コサイン係数に変換し、その所定個を算出する離散コサイン変換ステップと、
この離散コサイン変換手段によって算出された離散コサイン係数のそれぞれに対し、周波数変換を施して周波数軸方向波形データとする周波数変換ステップと、
この周波数変換手段によって変換された周波数軸方向波形データを周波数全域に亘って総和し、前記基準変量データとする周波数データ総和算出ステップと、
を含み、
前記比較コンテンツ多変量データ生成ステップは、
前記比較コンテンツが動画像データであり、この動画像データの輝度信号および色差信号によって再現されるフレームそれぞれに含まれる全画素データを複数のブロックに分割すると共に、分割したブロック毎の全画素データの輝度信号および色差信号を平均化して縮小画像データを生成するブロック平均化ステップと、
このブロック平均化手段によって生成された縮小画像データに対して、離散コサイン変換を施して、離散コサイン係数に変換し、その所定個を算出する離散コサイン変換ステップと、
この離散コサイン変換手段によって算出された離散コサイン係数のそれぞれに対し、周波数変換を施して周波数軸方向波形データとする周波数変換ステップと、
この周波数変換手段によって変換された周波数軸方向波形データを周波数全域に亘って総和し、前記変量データとする周波数データ総和算出ステップと、
を含む
ことを特徴とするコンテンツ特徴量抽出方法。Content features that analyze the reference content to be compared and the comparative content to be compared using principal component analysis in multivariate analysis, and extract a plurality of principal components constituting the comparison content as feature data A quantity extraction method comprising:
A reference content multivariate data generation step of generating a plurality of reference variables data from a plurality of the reference content,
A variance corresponding to the variance of the combined reference variable data synthesized by multiplying each of the plurality of reference variable data generated by the reference content multivariate data generation means by a predetermined coefficient using principal component analysis in the multivariate analysis. A feature coefficient calculation step of obtaining a covariance matrix and outputting eigenvectors for a predetermined number in the descending order of eigenvalues of the matrix as a feature coefficient;
And comparing the content multivariate data generation step of generating a plurality of variable data from the comparison content,
Principal component calculation that outputs, as the feature quantity data, an inner product of a vector having a plurality of variable data generated by the comparison content multivariate data generation means as components and each feature coefficient calculated by the feature coefficient calculation means Steps,
Only including,
The reference content multivariate data generation step includes:
The reference content is moving image data, and all pixel data included in each frame reproduced by the luminance signal and color difference signal of the moving image data is divided into a plurality of blocks, and all the pixel data of each divided block is A block averaging step of averaging the luminance signal and the color difference signal to generate reduced image data;
A discrete cosine transform step for performing a discrete cosine transform on the reduced image data generated by the block averaging means, transforming it into discrete cosine coefficients, and calculating a predetermined number thereof,
Against each of the discrete cosine coefficients calculated by the discrete cosine transform unit, a frequency conversion step of the frequency axis direction waveform data by performing frequency conversion,
A frequency data sum total calculating step for summing the frequency axis direction waveform data converted by the frequency conversion means over the entire frequency range and making the reference variable data,
Including
The comparison content multivariate data generation step includes:
The comparison content is moving image data, and all pixel data included in each frame reproduced by the luminance signal and the color difference signal of the moving image data is divided into a plurality of blocks, and all the pixel data of each divided block is A block averaging step of averaging the luminance signal and the color difference signal to generate reduced image data;
A discrete cosine transform step for performing a discrete cosine transform on the reduced image data generated by the block averaging means, transforming it into discrete cosine coefficients, and calculating a predetermined number thereof,
Against each of the discrete cosine coefficients calculated by the discrete cosine transform unit, a frequency conversion step of the frequency axis direction waveform data by performing frequency conversion,
A frequency data sum total calculating step for summing the frequency axis direction waveform data converted by the frequency converting means over the entire frequency range and making the variable data,
including
Content characteristic quantity extraction wherein a call.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003186112A JP4377620B2 (en) | 2003-06-30 | 2003-06-30 | Content feature amount extraction apparatus, content feature amount extraction program, and content feature amount extraction method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003186112A JP4377620B2 (en) | 2003-06-30 | 2003-06-30 | Content feature amount extraction apparatus, content feature amount extraction program, and content feature amount extraction method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005018675A JP2005018675A (en) | 2005-01-20 |
JP4377620B2 true JP4377620B2 (en) | 2009-12-02 |
Family
ID=34185328
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003186112A Expired - Fee Related JP4377620B2 (en) | 2003-06-30 | 2003-06-30 | Content feature amount extraction apparatus, content feature amount extraction program, and content feature amount extraction method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4377620B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006285907A (en) * | 2005-04-05 | 2006-10-19 | Nippon Hoso Kyokai <Nhk> | Designation distribution content specification device, designation distribution content specification program and designation distribution content specification method |
JP4620516B2 (en) * | 2005-04-13 | 2011-01-26 | 日本テレビ放送網株式会社 | Image comparison method, image comparison system, and program |
JP5009638B2 (en) * | 2007-02-09 | 2012-08-22 | シャープ株式会社 | Similar video search apparatus and similar video search method |
JP4956273B2 (en) * | 2007-05-17 | 2012-06-20 | 日本放送協会 | Throwing ball type discriminating device, discriminator generating device, throwing ball type discriminating program and discriminator generating program |
JP5267596B2 (en) * | 2011-02-23 | 2013-08-21 | 株式会社デンソー | Moving body detection device |
JP2013070158A (en) * | 2011-09-21 | 2013-04-18 | Kddi Corp | Video retrieval apparatus and program |
-
2003
- 2003-06-30 JP JP2003186112A patent/JP4377620B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005018675A (en) | 2005-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106126617B (en) | A kind of video detecting method and server | |
EP2198376B1 (en) | Media fingerprints that reliably correspond to media content | |
US10956484B1 (en) | Method to differentiate and classify fingerprints using fingerprint neighborhood analysis | |
Zhang et al. | Efficient video frame insertion and deletion detection based on inconsistency of correlations between local binary pattern coded frames | |
CN1538351B (en) | Method and computer for generating visually representative video thumbnails | |
EP2366170B1 (en) | Media fingerprints that reliably correspond to media content with projection of moment invariants | |
KR20140108180A (en) | systems and methods for accessing multi-media content | |
Sun et al. | Video hashing based on appearance and attention features fusion via DBN | |
EP2383990B1 (en) | Time segment representative feature vector generation device | |
JP4359085B2 (en) | Content feature extraction device | |
US8731236B2 (en) | System and method for content protection in a content delivery network | |
JP2006285907A (en) | Designation distribution content specification device, designation distribution content specification program and designation distribution content specification method | |
KR20140058643A (en) | Apparatus and method for robust low-complexity video fingerprinting | |
Bian et al. | Detecting video frame-rate up-conversion based on periodic properties of inter-frame similarity | |
US20090187403A1 (en) | Information processing system, information processing apparatus, information processing program and recording medium | |
JP4377620B2 (en) | Content feature amount extraction apparatus, content feature amount extraction program, and content feature amount extraction method | |
Xue et al. | JPEG image tampering localization based on normalized gray level co-occurrence matrix | |
JP2011180801A (en) | Video search apparatus, program and method for searching through many reference videos on search key video | |
Sun et al. | Robust video fingerprinting scheme based on contourlet hidden Markov tree model | |
US20140308023A1 (en) | System and method for video summarization and navigation based on statistical models | |
Ahmad et al. | Effective video summarization approach based on visual attention | |
JP2005196744A (en) | Digital commodity representation based on matrix invariance | |
Shelke et al. | Multiple forgery detection in digital video with VGG-16-based deep neural network and KPCA | |
Panchal et al. | Multiple forgery detection in digital video based on inconsistency in video quality assessment attributes | |
Juneja | MFAST processing model for occlusion and illumination invariant facial recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090210 |
|
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20090403 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090410 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20090403 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090526 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090818 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090911 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120918 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120918 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130918 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140918 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |