JP4377620B2 - Content feature amount extraction apparatus, content feature amount extraction program, and content feature amount extraction method - Google Patents

Content feature amount extraction apparatus, content feature amount extraction program, and content feature amount extraction method Download PDF

Info

Publication number
JP4377620B2
JP4377620B2 JP2003186112A JP2003186112A JP4377620B2 JP 4377620 B2 JP4377620 B2 JP 4377620B2 JP 2003186112 A JP2003186112 A JP 2003186112A JP 2003186112 A JP2003186112 A JP 2003186112A JP 4377620 B2 JP4377620 B2 JP 4377620B2
Authority
JP
Japan
Prior art keywords
data
content
feature
frequency
discrete cosine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003186112A
Other languages
Japanese (ja)
Other versions
JP2005018675A (en
Inventor
恵吾 真島
清一 合志
一人 小川
逸郎 室田
剛 大竹
誠一 難波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2003186112A priority Critical patent/JP4377620B2/en
Publication of JP2005018675A publication Critical patent/JP2005018675A/en
Application granted granted Critical
Publication of JP4377620B2 publication Critical patent/JP4377620B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、コンテンツの特徴量を抽出し、この抽出した特徴量を不正流通検出や類似検索に利用するコンテンツ特徴量抽出装置、コンテンツ特徴量抽出プログラムおよびコンテンツ特徴量抽出方法に関する。
【0002】
【従来の技術】
近年のネットワークの高速化や記録媒体の大容量化に伴い、映像データ、音声データ等からなる大容量のデジタルコンテンツ(以下、コンテンツとする)を、高速のネットワークである公衆通信回線(光ファイバ通信回線、ADSL等)により配信、または、大容量の記録媒体である光ディスク(DVD等)により流通させることを、誰でも容易に行える環境が整備されている。
【0003】
また、ネットワークを介して配信されたコンテンツは蓄積が容易であり、記録媒体に記録されたコンテンツは配送が容易であるので、当該コンテンツの著作権者(以下、単に「著作権者」とする)や当該コンテンツを配信する配信事業者(以下、「コンテンツプロバイダ」とする)の許可を得ることなく、蓄積したコンテンツを複製した後、ネットワークを介して再配信したり、当該コンテンツを改竄(かいざん)したりするなど、不正行為を行うことが容易である。この不正行為がコンテンツを流通させる上での大きな阻害要因となっている。
【0004】
特に、著作権者やコンテンツプロバイダの許可(許諾)を得ることなく、コンテンツの複製、再配信(再送信)を行う不正行為による不正流通コンテンツは、著作権者やコンテンツプロバイダに多大な金銭的不利益をもたらすので、このような不正流通コンテンツを高精度、且つ、短時間に検出し、不正行為の抑止を図ることができる技術的な手段が模索されている。
【0005】
また、インターネットの普及やデジタル情報機器(ストレージ装置等)の高性能化に伴い、大容量のコンテンツである動画像コンテンツ(大容量マルチメディアデータ)の利用が一般化している。このため、インターネット上やストレージ装置内に保持された膨大な数のコンテンツの中から、利用者が要望する特定のコンテンツを効率よく検索する手段が求められている。
【0006】
不正流通コンテンツの検出や、特定のコンテンツの検索を行うために、コンテンツを構成する映像データの輝度や色情報等から当該コンテンツの特徴を表す特徴量データを抽出し、この抽出した特徴量データをコンテンツ間の同一性や類似性の判定(検定)に利用する特徴量抽出技術が有効な手段として提案されている。
【0007】
また、コンテンツの特徴量を抽出する従来の技術に関して、例えば、ISO/IEC15938−3「MPEG−7 ビジュアル記述」(非特許文献1参照)では、映像データ(映像信号)の特徴を記述し、この記述した特徴を抽出する特徴量抽出アルゴリズムが規定されている。このビジュアル記述は、主として、映像データ(映像信号)ベースでの類似検索・フィルタリングのために用いられることが想定されており、このビジュアル記述の中で、映像データ上の色や形状等の低レベルの特徴量を記述する具体的なものとして、色の空間的な配置を周波数軸上で表現する「色配置記述(Color Layout)」が定義されている。
【0008】
この色配置記述は、人間の視覚特性を反映させたもので、コンテンツを構成する各画像フレームに対して、高精度の検索を可能にしている。つまり、色配置記述によって、コンテンツ同士の類似性を検定する際に、不要な情報を周波数軸上で削除することができる。その結果、コンテンツの特徴を記述するデータ量が減少する。
【0009】
ちなみに、色配置は、D={ny,Yi(i=1,2,・・・ny);nc,Cbj,Crj(j=1,2,・・・,nc)}で表される。
この色配置Dにおいて、nyは輝度成分係数の個数であり、ncは色差成分係数の個数であり、Yiは輝度信号(Y)のDCT係数であり、Cbj,Crjは色差信号(Cb,Cr)のDCT係数である。なお、動画像データから特徴量を算出する場合には輝度信号(Y)を6係数で、色差信号(Cb,Cr)を3係数にすることが推奨されている。
【0010】
ここで、図8を参照して、従来の特徴量抽出方法について説明する。
この図8は、従来のコンテンツ特徴量抽出装置のブロック図であり、この図8に示したように、コンテンツ特徴量抽出装置101は、64(8×8)分割平均化部103と、DCT変換部105と、ジグザグスキャン部107と、非線形量子化部109とを備えている。
【0011】
64(8×8)分割平均化部103は、原画像を64(8行×8列)区画に分割し、それぞれの区画の代表色(平均色)を算出するものである。つまり、この64(8×8)分割平均化部103は、原画像を64の代表色からなる64区画に縮小退化させた「縮退画像」に変換するものである。
【0012】
DCT変換部105は、64(8×8)分割平均化部103で変換した64区画の縮退画像にDCT変換(離散コサイン変換)を行って、離散コサイン係数に変換するものである。
【0013】
ジグザグスキャン部107は、DCT変換部105で変換された離散コサイン変換係数をジグザグスキャンによって、低周波数成分から順に並べ替えを行うものである。
【0014】
非線形量子化部109は、ジグザグスキャン部107で並べ替えられた離散コサイン変換係数の直流成分を6ビット、交流成分を5ビットで量子化すると共に、低周波数成分から定められた個数(輝度ny個、色差nc個)だけ順に取り出したものを特徴量(特徴量データ)として出力するものである。
【0015】
【非特許文献1】
ISO/IEC15938−3“Information Technology−Multimedia Content Description Interface−Part3:Visual,6.6 Color layout”.pp42−50(2002)
【0016】
【発明が解決しようとする課題】
しかしながら、図8に示したコンテンツ特徴量抽出装置101では、1フレームの画像データを対象に特徴量抽出を行っているので、長時間の放送番組等の動画像データであるコンテンツに対して、特徴量データのデータ量が膨大となる問題がある。
【0017】
また、特徴量データを用いて、高精度に不正流通コンテンツの検出や番組検索(コンテンツの検索)を行う際には、異種のコンテンツの区別をしながら、コンテンツ間の同一性や類似性の検定を行うことができる十分な分散を確保しなければならないという問題がある。
【0018】
そこで、本発明の目的は前記した従来の技術が有する課題を解消し、特徴量データのデータ量を増加させることなく、コンテンツの同一性または類似性の検定を高精度に行うことができるコンテンツ特徴量抽出装置、コンテンツ特徴量抽出プログラムおよびコンテンツ特徴量抽出方法を提供することにある。
【0019】
【課題を解決するための手段】
本発明は、前記した目的を達成するため、以下に示す構成とした。
請求項1記載のコンテンツ特徴量抽出装置は、比較の基準とする基準コンテンツと比較の対象とする比較コンテンツとを、多変量解析における主成分分析を用いて分析し、当該比較コンテンツを構成する複数の主成分を特徴量データとして抽出するコンテンツ特徴量抽出装置であって、基準コンテンツ多変量データ生成手段と、特徴係数演算手段と、比較コンテンツ多変量データ生成手段と、主成分演算手段と、を備える構成とした。
【0020】
かかる構成によれば、コンテンツ特徴量抽出装置は、基準コンテンツ多変量データ生成手段によって、基準コンテンツから複数の基準変量データを生成する
【0021】
続いて、このコンテンツ特徴量抽出装置は、特徴係数演算手段によって、多変量解析における主成分分析を用いて、基準コンテンツ多変量データ生成手段で生成された複数の基準変量データのそれぞれに所定係数を乗算して合成した合成基準変量データの分散に対応する分散・共分散行列を求め、当該行列の固有値の大きい順に所定個のものに対する固有ベクトルを、特徴係数として出力する
多変量解析とは、母集団となる複数のデータ(基準コンテンツ)、または、母集団を十分推定可能な種類と数とを有するデータを使用して、当該母集団において、複雑に絡み合ったデータを構成している主な要素を洗い出したり、要素同士の絡み合いを明らかにする解析法の一つである。主成分分析とは、相関関係にあるいくつかの要素(要因)を合成(圧縮)して、いくつかの成分にし、その総合力や特性を求める分析方法である。
【0022】
そして、このコンテンツ特徴量抽出装置は、比較コンテンツ多変量データ生成手段によって、比較コンテンツから複数の変量データを生成し、主成分演算手段によって、比較コンテンツ多変量データ生成手段で生成された変量データと、特徴係数演算手段で演算された特徴係数とに基づいて、主成分を演算して求め、特徴量データとして出力する。この特徴量データは、例えば、複数の変量データのそれぞれに複数の特徴係数を乗算して得られたもの(特に、変量データと特徴係数とを乗算した3個の値(主成分)である、第一主成分、第二主成分および第三主成分)ものである。
【0023】
また、請求項記載のコンテンツ特徴量抽出装置前記基準コンテンツ多変量データ生成手段及び前記比較コンテンツ多変量データ生成手段は、ブロック平均化手段と、離散コサイン変換手段と、周波数変換手段と、周波数データ総和算出手段と、を有していることを特徴とする。
【0024】
かかる構成によれば、コンテンツ特徴量抽出装置の基準コンテンツ多変量データ生成手段または比較コンテンツ多変量データ生成手段は、ブロック平均化手段によって、動画像データである基準コンテンツまたは動画像データである比較コンテンツの輝度信号および色差信号によって再現されるフレームそれぞれに含まれる全画素データを複数(例えば64個、水平8分割×垂直8分割)のブロックに分割すると共に、分割したブロック毎の全画素データを平均化して縮小画像データを生成する。つまり、動画像データ(1フレーム)を複数個のブロックに分割した後、このブロック内の全画素データの輝度信号および色差信号を平均化する。
【0025】
続いて、コンテンツ特徴量抽出装置の基準コンテンツ多変量データ生成手段または比較コンテンツ多変量データ生成手段は、離散コサイン変換手段によって、ブロック平均化手段によって、生成された縮小画像データに対して、離散コサイン変換を施して、離散コサイン係数とする。この離散コサイン係数は、例えば、輝度信号(Y)に関するもので6個、色差信号(Cb)に関するもので3個、色差信号(Cr)に関するもので3個といった具合に定個数求められる。
【0026】
次に、コンテンツ特徴量抽出装置の基準コンテンツ多変量データ生成手段または比較コンテンツ多変量データ生成手段は、周波数変換手段によって、離散コサイン係数に周波数変換を施して周波数軸方向波形データとする。この周波数軸方向波形データは、周波数軸を横軸にとって、各周波数に含まれるデータ量(成分)を縦軸にとったグラフ上で、各周波数におけるデータ量の頂点を繋げていったものである。そして、コンテンツ特徴量抽出装置の基準コンテンツ多変量データ生成手段または比較コンテンツ多変量データ生成手段は、周波数データ総和算出手段によって、周波数変換手段で変換された周波数軸方向波形データを周波数全域に亘って総和し、基準変量データまたは変量データとする。
【0029】
また、請求項記載のコンテンツ特徴量抽出装置前記主成分演算手段は、複数の前記変量データのぞれぞれに前記特徴係数を乗算して前記主成分を求め、この主成分を前記特徴量データとして出力することを特徴とする。
【0030】
かかる構成によれば、コンテンツ特徴量抽出装置は、主成分演算手段によって、複数の変量データのそれぞれに特徴係数を乗算して主成分を求め、この主成分を特徴量データとして出力しているので、データ量を増加させることなく、比較コンテンツの特徴を表すことができる(特徴量データを得ることができる)。
【0031】
請求項記載のコンテンツ特徴量抽出プログラムは、比較の基準とする基準コンテンツと比較の対象とする比較コンテンツとを、多変量解析における主成分分析を用いて分析し、当該比較コンテンツを構成する複数の主成分を特徴量データとして抽出する装置を、基準コンテンツ多変量データ生成手段、特徴係数演算手段、比較コンテンツ多変量データ生成手段、主成分演算手段、として機能させる構成とした。
【0032】
かかる構成によれば、コンテンツ特徴量抽出プログラムは、基準コンテンツ多変量データ生成手段によって、基準コンテンツから複数の基準変量データを生成し、特徴係数演算手段によって、多変量解析における主成分分析を用いて、基準コンテンツ多変量データ生成手段で生成された複数の基準変量データのそれぞれに所定係数を乗算して合成した合成基準変量データの分散に対応する分散・共分散行列を求め、当該行列の固有値の大きい順に所定個のものに対する固有ベクトルを、特徴係数として出力する。そして、このコンテンツ特徴量抽出プログラムは、比較コンテンツ多変量データ生成手段によって、比較コンテンツをから複数の変量データを生成し、主成分演算手段によって、比較コンテンツ多変量データ生成手段で生成された複数の変量データを成分としたベクトルと、特徴係数演算手段で演算された特徴係数との内積を、特徴量データとして出力する。
【0033】
請求項記載のコンテンツ特徴量抽出方法は、比較の基準とする基準コンテンツと比較の対象とする比較コンテンツとを、多変量解析における主成分分析を用いて分析し、当該比較コンテンツを構成する複数の主成分を特徴量データとして抽出するコンテンツ特徴量抽出方法であって、基準コンテンツ多変量データ生成ステップと、特徴係数演算ステップと、比較コンテンツ多変量データ生成ステップと、主成分演算ステップと、を含む手順とした。
【0034】
かかる手順によれば、コンテンツ特徴量抽出方法は、基準コンテンツ多変量データ生成ステップにおいて、基準コンテンツから複数の基準変量データを生成し、特徴係数演算ステップにおいて、多変量解析における主成分分析を用いて、基準コンテンツ多変量データ生成ステップで生成された複数の基準変量データのそれぞれに所定係数を乗算して合成した合成基準変量データの分散に対応する分散・共分散行列を求め、当該行列の固有値の大きい順に所定個のものに対する固有ベクトルを、特徴係数として出力する。そして、このコンテンツ特徴量抽出方法は、比較コンテンツ多変量データ生成ステップにおいて、比較コンテンツから複数の変量データを生成し、主成分演算ステップにおいて、比較コンテンツ多変量データ生成ステップで生成された複数の変量データを成分としたベクトルと、特徴係数演算ステップで演算された特徴係数との内積を、特徴量データとして出力する。
【0035】
【発明の実施の形態】
以下、本発明の一実施の形態について、図面を参照して詳細に説明する。
(コンテンツ特徴量抽出装置の構成)
図1はコンテンツ特徴量抽出装置のブロック図である。この図1に示すように、コンテンツ特徴量抽出装置1は、動画像データであるコンテンツ(基準コンテンツと比較コンテンツ)の特徴量データを多変量解析における主成分分析を用いて抽出するもので、特徴係数生成部3と、特徴量データ抽出部5とを備えている。
【0036】
また、このコンテンツ特徴量抽出装置1は、ネットワーク(外部のインターネット等)を介して、または、記録媒体(光ディスク[例えば、DVD]等)に記録されて不正に流通するコンテンツ(不正流通コンテンツ)の検出を行う不正流通コンテンツ検出システム(図示せず)や、保存管理されているコンテンツ群(番組群)から目的とする(所望する)コンテンツ(番組)やシーン等の検索を行う番組検索システム等に適用可能なものである。
【0037】
特徴係数生成部3は、比較コンテンツの特徴量データを算出する基準となる特徴係数を生成するもので、基準多変量データ生成手段7(基準コンテンツ多変量データ生成手段)と、特徴係数演算手段9とを備えている。
【0038】
基準多変量データ生成手段7は、動画像データ(基準コンテンツ[1,・・・,i,・・・,m])から複数(多数)の基準変量データを生成するもので、ブロック平均化手段7aと、DCT処理手段7b(離散コサイン変換手段)と、周波数変換手段7cと、周波数データ総和算出手段7dとを備えている
【0039】
ブロック平均化手段7aは、入力された動画像データ(基準コンテンツ(1,・・・,i,・・・,m))の輝度信号(Y)、色差信号(Cb、Cr)からフレーム単位の処理を行って、縮小画像データを出力するものである。なお、基準コンテンツ(1,・・・,i,・・・,m)のiはi番目(i個)の基準コンテンツを、mはm番目(m個)の基準コンテンツを示している。フレーム単位の処理は、各フレームの全画素を水平8ブロック×垂直8ブロックに分割し、各ブロックにおける全画素の輝度信号(Y)、色差信号(Cb、Cr)の画素データを平均化して、水平8画素×垂直8ラインの縮小画像データを作成(生成)するものである。
【0040】
DCT処理手段7bは、ブロック平均化手段7aによって生成された縮小画像データの画素データY、CbおよびCrに対してDCT演算処理(Discrete Cosine Transform)を施して、離散コサイン係数に変換するものである。この実施の形態では、DCT処理手段7bは、輝度信号(Y)については、Y0、Y1、Y2、Y3、Y4、Y5の6係数、色差信号(Cb)については、Cb0、Cb1、Cb2の3係数、色差信号(Cr)については、Cr0、Cr1、Cr2の3係数の合計12係数を算出している。なお、この離散コサイン係数の数が多ければ多いほど、最終的に生成される特徴量データを使用した際のコンテンツの同一性または類似性の検定精度を高くすることができる。
【0041】
周波数変換手段7cは、DCT処理手段7bで算出した12個の離散コサイン係数のそれぞれに対し、周波数変換処理を施して、12の周波数軸方向波形データとするものである。この周波数変換手段7cにおける周波数変換処理は、FFT(Fast Fourier Transform;高速フーリエ変換)処理である。
【0042】
周波数データ総和算出手段7dは、周波数変換手段7cで12の周波数軸方向波形データを周波数全域に亘って総和し、12個の基準変量データkY0、kY1、kY2、kY3、kY4、kY5およびkCb0、kCb1、kCb2とkCr0、kCr1、kCr2を算出するものである。
【0043】
特徴係数演算手段9は、多変量解析による主成分分析を用いて、基準多変量データ生成手段7で生成された12個の基準変量データ(kY0、kY1、kY2、kY3、kY4およびkY5、kCb0、kCb1およびkCb2、kCr0、kCr1およびkCr2)に基づいて、特徴係数を演算して求め、特徴量データ抽出部5に出力するものである。この特徴係数演算手段9は、12個の基準変量データのそれぞれに所定係数を乗算して合成した合成基準変量データの分散を求め、この分散を最大とする所定係数を特徴係数として求めるものである。また、この特徴係数は、基準コンテンツの特徴を示す複数の固有ベクトルからなるものである。なお、この特徴量係数演算手段9における特徴係数の演算の仕方については後記することとする。
【0044】
特徴量データ抽出部5は、特徴係数生成部3で生成された特徴係数に基づいて、比較コンテンツの特徴量データを抽出するもので、多変量データ生成手段11(比較コンテンツ多変量データ生成手段)と、主成分演算手段13とを備えている。
【0045】
多変量データ生成手段11は、動画像データ(比較コンテンツ)から複数(多数)の変量データを生成するもので、ブロック平均化手段11aと、DCT処理手段11b(離散コサイン変換手段)と、周波数変換手段11cと、周波数データ総和算出手段11dとを備えている。
【0046】
ブロック平均化手段11aは、入力された動画像データ(比較コンテンツ)の輝度信号(Y)、色差信号(Cb、Cr)からフレーム単位の処理を行って、縮小画像データを出力するものである。フレーム単位の処理は、各フレームの全画素を水平8ブロック×垂直8ブロックに分割し、各ブロックにおける全画素の輝度信号(Y)、色差信号(Cb、Cr)の画素データを平均化して、水平8画素×垂直8ラインの縮小画像データを作成(生成)するものである。
【0047】
DCT処理手段11bは、ブロック平均化手段11aによって生成された縮小画像データの画素データY、CbおよびCrに対してDCT演算処理を施して、離散コサイン係数に変換するものである。この実施の形態では、DCT処理手段11bは、輝度信号(Y)については、Y0、Y1、Y2、Y3、Y4、Y5の6係数、色差信号(Cb)については、Cb0、Cb1、Cb2の3係数、色差信号(Cr)については、Cr0、Cr1、Cr2の3係数の合計12係数を算出している。なお、この離散コサンイン係数の数が多ければ多いほど、最終的に生成される特徴量データを使用した際のコンテンツの同一性または類似性の検定精度を高くすることができる。
【0048】
周波数変換手段11cは、DCT処理手段11bで算出した12個の離散コサイン係数のそれぞれに対し、周波数変換処理を施して、12の周波数軸方向波形データとするものである。この周波数変換手段11cにおける周波数変換処理は、FFT処理である。
【0049】
周波数データ総和算出手段11dは、周波数変換手段11cで12の周波数軸方向波形データを周波数全域に亘って総和し、12個の変量データhY0、hY1、hY2、hY3、hY4およびhY5と、hCb0、hCb1およびhCb2と、hCr0、hCr1およびhCr2とを算出するものである。
【0050】
主成分演算手段13は、特徴係数生成部3の特徴係数演算手段9から出力された特徴係数と、周波数データ総和算出手段11dから出力された12個の変量データhY0、hY1、hY2、hY3、hY4およびhY5と、hCb0、hCb1およびhCb2と、hCr0、hCr1およびhCr2とに基づいて、特徴量データを演算して求め出力するものである。この主成分演算手段13は、12個の変量データのぞれぞれに特徴係数を乗算して主成分を求め、この主成分を特徴量データとして出力するものである。なお、この主成分演算手段13における主成分の演算の仕方については後記することとする。
【0051】
このコンテンツ特徴量抽出装置1によれば、基準多変量データ生成手段7によって、動画像データ(基準コンテンツ)から複数の基準変量データが生成され、特徴係数演算手段9によって、多変量解析の主成分分析を用いて、基準多変量データ生成手段7で生成された基準変量データに所定の演算が施されて、基準コンテンツの特徴を示す複数の固有ベクトルからなる特徴係数が得られる。そして、多変量データ生成手段11によって、動画像データ(比較コンテンツ)から複数の変量データが生成され、主成分演算手段13によって、多変量データ生成手段11で生成された変量データと、特徴係数演算手段9で演算された特徴係数とに基づいて、主成分が演算して求められ、特徴量データとして出力される。つまり、多変量解析による主成分分析を用いて、基準コンテンツおよび比較コンテンツを分析しているので、特徴量データのデータ量を増加させることなく、コンテンツの同一性または類似性の検定を高精度に行うことができる。
【0052】
また、このコンテンツ特徴量抽出装置1によれば、ブロック平均化手段7a、11aによって、動画像データである基準コンテンツまたは動画像データである比較コンテンツの輝度信号および色差信号によって再現されるフレームそれぞれに含まれる全画素データが複数(64個)のブロックに分割されると共に、分割されたブロック毎の全画素データが平均化されて縮小画像データが生成される。続いて、DCT処理手段7b、11bによって、ブロック平均化手段7a、11aで生成された縮小画像データに対して、離散コサイン変換が施されて、離散コサイン係数とされ、周波数変換手段7c、11cによって、離散コサイン係数に周波数変換が施されて12の周波数軸方向波形データとされる。
【0053】
そして、周波数データ総和算出手段7d、11dによって、周波数変換手段7c、11cで変換された12の周波数軸方向波形データが周波数全域に亘って総和され、基準変量データまたは変量データとされる。つまり、基準コンテンツおよび比較コンテンツを分割して平均化した縮小画像データに離散コサイン変換、周波数変換を施して得られた12の周波数軸方向波形データを周波数全域に亘って総和して、基準変量データまたは変量データを得ており、これら基準変量データまたは変量データを用いているので、当該コンテンツの特徴量データのデータ量を増加させることなく、コンテンツの同一性または類似性の検定を高精度に行うことができる。
【0054】
さらに、コンテンツ特徴量抽出装置1によれば、特徴係数演算手段9によって、基準変量データのそれぞれに所定係数が乗算されて合成された合成基準変量データが求められ、この合成基準変量データの分散が最大となる所定係数が特徴係数とされることで、データ量を増加させることなく、動画像データ(基準コンテンツ)の特徴を表すことができる(特徴量データを得ることができる)。
【0055】
さらにまた、コンテンツ特徴量抽出装置1よれば、主成分演算手段13によって、複数の変量データのそれぞれに特徴係数が乗算されて主成分が求められ、この主成分が特徴量データとして出力されているので、データ量を増加させることなく、動画像データ(比較コンテンツ)の特徴を表すことができる(特徴量データを得ることができる)。
【0056】
(コンテンツ特徴量抽出装置の動作)
次に、図2に示すフローチャートを参照して、コンテンツ特徴量抽出装置1の動作について説明する(適宜、図1参照)。
【0057】
まず、動画像データ(基準コンテンツ)がコンテンツ特徴量抽出装置1の特徴係数生成部3に入力されると、コンテンツ特徴量抽出装置1は、基準多変量データ生成手段7によって、この動画像データ(基準コンテンツ)の基準変量データを生成し、特徴係数演算手段9に出力する(S1)。
【0058】
続いて、コンテンツ特徴量抽出装置1は、特徴係数演算手段9によって、特徴係数を生成し、特徴量データ抽出部5の主成分演算手段13に出力する(S2)。
【0059】
また、動画像データ(比較コンテンツ)がコンテンツ特徴量抽出装置1の特徴量データ抽出部5に入力されると、コンテンツ特徴量抽出装置1は、多変量データ生成手段11によって、この動画像データ(比較コンテンツ)の変量データを生成し、主成分演算手段13に出力する(S3)。
【0060】
そして、特徴係数と変量データとがコンテンツ特徴量抽出装置1の主成分演算手段13に入力されると、コンテンツ特徴量抽出装置1は、主成分演算手段13によって、特徴量データを生成して外部に出力する(S4)。
【0061】
このコンテンツ特徴量抽出装置1の動作で説明したように、基準変量データと変量データとを求め、比較コンテンツの特徴量データを算出しているので、この特徴量データを使用すれば、ネットワークや記録媒体を介して流通しているコンテンツとの同一性や類似性を高精度に検出(検定)することができる。
【0062】
(主成分分析、特徴係数、特徴量データについて)
ここで、多変量解析における、主成分分析、特徴係数および特徴量データの算出について説明する(適宜、図1参照)。
【0063】
[主成分分析について]
まず、主成分分析について説明する。主成分分析とは、例えば、複数の変量x、y、zに関し、次に示す数式(1)における合成変量uの分散を最大とする係数a、b、cを求め、この場合の合成変量uを主成分としてデータの分析を行うものである。
【0064】
u=ax+by+cz ・・・数式(1)
但し、係数a、b、cは、a2+b2+c2=1を満たす定数である。
【0065】
[特徴係数について]
次に、特徴係数について説明する(適宜、図1参照)。
まず、母集団となる複数の基準コンテンツ(1,・・・,i,・・・,m)、または母集団を十分推定可能な種類と数を有する複数の基準コンテンツを用いて、前記したように、基準多変量データ生成手段7で基準変量データを生成する。
【0066】
ここで、図3に基準コンテンツの数をmとし、各基準コンテンツにおける基準変量データの数をnとした場合の基準変量データの一覧を示す。なお、コンテンツ特徴量抽出装置1の特徴係数生成部3の基準多変量データ生成手段7に入力される動画像データ(基準コンテンツ)は、1つの動画像データ(1つの基準コンテンツ)から当該動画像データ(当該基準コンテンツ)の特徴を表す複数の基準変量データが得られるものであればよい。
【0067】
この基準多変量データ生成手段7で生成された複数の基準変量データに対して、特徴係数演算手段9では、以下に述べる演算を実行し、特徴係数を算出している。図3に示した基準変量データのうちi番目の基準コンテンツの基準変量データに対する合成変量(合成基準変量データ)uiを次の数式(2)によって求める。
【0068】
i=a1i1+・・・+ajij+・・・+anin ・・・数式(2)
但し、iは、1<i<mの整数であり、係数a1,・・・,aj,・・・,anはa1 2+・・・+aj 2+・・・+an 2=1 ・・・数式(3)
を満たす定数とする。
【0069】
また、合成変量(合成基準変量データ)uiの分散Su2を次の数式(4)によって求める。
【0070】
【数1】

Figure 0004377620
【0071】
ここで、uの平均(uにルビ「−」の付いた文字)はuiの平均値であり、S11、・・・、Sjj、・・・Snnは、それぞれ変量xi1、・・・、xij、・・・、xin(1<i<m)の分散を表しており、S12、・・・、Sj(j+1)、・・・、S(n-1)nは、それぞれ変量xi1−xi2、・・・、xij−xi(j+1)、・・・、xi(n-1)−xin(1<i<m)の共分散を表している。
【0072】
この実施の形態における主成分分析は、条件が数式(3)の下で、数式(4)に示した合成変量(合成基準変量データ)uiの分散Su2を最大とする係数a1、・・・、aj、・・・、anを求めることである。
【0073】
そして、これらの係数a1、・・・、aj、・・・、anについて、ラグランジュの定数変化法を用いて、次の数式(5)を得る。
【0074】
【数2】
Figure 0004377620
【0075】
ここで、λは数式(5)の固有の定数を表しており、Sは次の数式(6)のように表すことができる。
【0076】
【数3】
Figure 0004377620
【0077】
この数式(6)に示す行列Sは、各変量の分散・共分散行列であり、数式(5)は、係数の組(a1、・・・、aj、・・・、an)を行列Sの固有ベクトル、定数λを行列Sの固有値とする、行列Sの固有値問題を表していることになる。
【0078】
条件が数式(3)の下で、数式(4)に示した合成変量(合成基準変量データ)uiの分散Su2を最大とする係数a1、・・・、aj、・・・、anは、行列Sの最大の固有値に対応する固有ベクトルで表されることになる。
【0079】
従って、行列Sの1番目に大きい(最大の)固有値λ1に対応する固有ベクトル(a1〈1〉、・・・、aj〈1〉、・・・、an〈1〉)を求め、この固有ベクトル(a1〈1〉、・・・、aj〈1〉、・・・、an〈1〉)を特徴係数の第1主成分とし、行列Sの2番目に大きい固有値λ2に対応する固有ベクトル(a1〈2〉、・・・、aj〈2〉、・・・、an〈2〉)を求め、この固有ベクトル(a1〈2〉、・・・、aj〈2〉、・・・、an〈2〉)を特徴係数の第2主成分とし、行列Sの3番目に大きい固有値λ3に対応する固有ベクトル(a1〈3〉、・・・、aj〈3〉、・・・、an〈3〉)を求め、この固有ベクトル(a1〈3〉、・・・、aj〈3〉、・・・、an〈3〉)を特徴係数の第3主成分とする。
【0080】
これら固有ベクトル(a1〈1〉、・・・、aj〈1〉、・・・、an〈1〉)、(a1〈2〉、・・・、aj〈2〉、・・・、an〈2〉)および(a1〈3〉、・・・、aj〈3〉、・・・、an〈3〉)を特徴係数として、コンテンツ特徴量抽出装置1の主成分演算手段13に入力している。
【0081】
なお、動画像データの場合、情報吸収率を意味する累積寄与率は、第3主成分までで80%を超えるため、第1主成分から第3主成分までを特徴係数として用いれば十分である。但し、さらに精度を求める場合には、これら第1主成分から第3主成分までに限らずに第4主成分以降も併せて特徴係数として用いることとしてもよい。
【0082】
[特徴量データについて]
次に、特徴量データについて説明する(適宜、図1参照)。
まず、多変量データ生成手段11により得られたn個の変量データ(x1、・・・、xj、・・・、xn)を主成分演算手段13に入力する。すると、主成分演算手段13において、特徴係数演算手段9で求めた特徴係数の第1主成分、第2主成分、第3主成分から、以下に示す数式(7)〜(9)を使用した演算を行って、u〈1〉、u〈2〉およびu〈3〉を求め、これらを特徴量データとして出力する。
【0083】
u〈1〉=a1〈1〉x1+・・・+aj〈1〉xj+・・・+an〈1〉xn・・・数式(7)
u〈2〉=a1〈2〉x1+・・・+aj〈2〉xj+・・・+an〈2〉xn・・・数式(8)
u〈3〉=a1〈3〉x1+・・・+aj〈3〉xj+・・・+an〈3〉xn・・・数式(9)
これらの数式(7)〜(9)で求められたu〈1〉、u〈2〉およびu〈3〉が特徴量データとなる。
【0084】
(基準変量データの事例、特徴係数の事例について)
次に、図4、図5を参照して、基準変量データの事例、特徴係数の事例について説明する。図4は、基準変量データの事例を示しており、この基準変量データの事例は、基準コンテンツとして、内容と種類との異なる10個の放送番組(各約10分)を用いて得られたものである。図4では、番組番号1〜10の10個の放送番組について、12個の基準変量データ(kY0、kY1、kY2、kY3、kY4およびkY5、kCb0、kCb1およびkCb2、kCr0、kCr1およびkCr2)が求められている。
【0085】
また、図5は、これらの基準変量データを用いて得られた特徴係数の事例を示しており、12個の特徴係数(tY0、tY1、tY2、tY3、tY4およびtY5、tCb0、tCb1およびtCb2、tCr0、tCr1およびtCr2Y0)の第1主成分から第3主成分までを求めたものである。
【0086】
ちなみに、この特徴係数の事例では、第1主成分から第3主成分までで、累積寄与率89.7%が得られている。
【0087】
(特徴量データの事例について)
次に、図6、図7を参照して、特徴量データの事例について説明する。
この特徴量データの事例では、コンテンツ特徴量抽出装置1に入力した動画像データ(基準コンテンツおよび比較コンテンツ)に、基準コンテンツとして10個の番組(基準コンテンツ)と、比較コンテンツとして各基準コンテンツの冒頭10%を削減して得られた編集番組(編集コンテンツ)とを用いた。
【0088】
図6には、番組の特徴量データである第1主成分および第2主成分と、編集番組の特徴量データである第1主成分および第2主成分との分布図を示しており、図7には、番組の特徴量データである第3主成分および第2主成分と、編集番組の特徴量データである第3主成分および第2主成分との分布図を示している。
【0089】
これら図6、図7に示したように、特徴量データとして、第1主成分、第2主成分および第3主成分を用いることにより、異種番組の区別(10個の番組の区別)および類似番組や編集前後の同一番組の識別が可能であることがわかる。
【0090】
なお、この実施の形態では、32ビットの浮動小数点型データを用いて、基準変量データ、変量データ、特徴係数および特徴量データの算出(演算)を行っているが、これを16ビットの浮動小数点型データを用いて行っても同様の結果を得ることができる。特に、最終的に得られる特徴量データに関しては、16ビットの整数型のデータで表現されれば十分である。
【0091】
また、このコンテンツ特徴量抽出装置1では、動画像データ(映像コンテンツ)について説明を行ったが、これに限定されるものではなく、音声データ(楽曲コンテンツ)等に対しても適用可能であり、さらに動画像データと音声データとを組み合わせたものについても、適用可能である。
【0092】
以上、一実施形態に基づいて本発明を説明したが、本発明はこれに限定されるものではない。
例えば、コンテンツ特徴量抽出装置1の各構成の処理を汎用的なコンピュータ言語で記述したコンテンツ特徴量抽出プログラムとみなすことや、各構成の処理を一つずつの過程ととらえたコンテンツ特徴量抽出方法とみなすことも可能である。これらの場合、コンテンツ特徴量抽出装置1と同様の効果を得ることができる。
【0093】
【発明の効果】
請求項1乃至4記載の発明によれば、多変量解析による主成分分析を用いて、コンテンツを分析しているので、特徴量データのデータ量を増加させることなく、コンテンツの同一性または類似性の検定を高精度に行うことができる。
【0094】
また、請求項1乃至4記載の発明によれば、基準コンテンツおよび比較コンテンツを分割して平均化した縮小画像データに離散コサイン変換、周波数変換を施して得られた周波数軸方向波形データを周波数全域に亘って総和して、基準変量データまたは変量データを得ており、これら基準変量データまたは変量データを用いているので、当該コンテンツの特徴量データのデータ量を増加させることなく、コンテンツの同一性または類似性の検定を高精度に行うことができる。
【0095】
また、請求項1乃至4記載の発明によれば、合成基準変量データの分散が最大となる所定係数が特徴係数とされることで、データ量を増加させることなく、動画像データ(基準コンテンツ)の特徴を表すことができる(特徴量データを得ることができる)。
【0096】
また、請求項1乃至4記載の発明によれば、複数の変量データのそれぞれに特徴係数が乗算されて主成分が求められ、この主成分が特徴量データとして出力されているので、データ量を増加させることなく、動画像データ(比較コンテンツ)の特徴を表すことができる(特徴量データを得ることができる)。
【図面の簡単な説明】
【図1】本発明による一実施の形態であるコンテンツ特徴量抽出装置のブロック図である。
【図2】図1に示したコンテンツ特徴量抽出装置の動作を説明したフローチャートである。
【図3】基準変量データの一覧を示した図である。
【図4】基準変量データの事例を示した図である。
【図5】特徴係数の事例を示した図である。
【図6】特徴量データの事例を示した図であり、番組の特徴量データである第1主成分および第2主成分と、編集番組の特徴量データである第1主成分および第2主成分との分布図である。
【図7】特徴量データの事例を示した図であり、番組の特徴量データである第3主成分および第2主成分と、編集番組の特徴量データである第3主成分および第2主成分との分布図である。
【図8】従来のコンテンツ特徴量抽出装置のブロック図である。
【符号の説明】
1 コンテンツ特徴量抽出装置
3 特徴係数生成部
5 特徴量データ抽出部
7 基準多変量データ生成手段(基準コンテンツ多変量データ生成手段)
7a、11a ブロック平均化手段
7b、11b DCT処理手段(離散コサンイン変換手段)
7c、11c 周波数変換手段
7d、11d 周波数データ総和算出手段
9 特徴係数演算手段
11 多変量データ生成手段(比較コンテンツ多変量データ生成手段)
13 主成分演算手段[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a content feature amount extraction device, a content feature amount extraction program, and a content feature amount extraction method that extract feature amounts of content and use the extracted feature amounts for unauthorized distribution detection and similarity search.
[0002]
[Prior art]
With the recent increase in network speed and storage media capacity, large-capacity digital content (hereinafter referred to as content) consisting of video data, audio data, etc., is transferred to a public communication line (optical fiber communication), which is a high-speed network. An environment in which anyone can easily distribute or distribute via an optical disk (DVD or the like), which is a large-capacity recording medium, is provided.
[0003]
In addition, content distributed via a network is easy to store, and content recorded on a recording medium is easy to deliver. Therefore, the copyright owner of the content (hereinafter simply referred to as “copyright holder”). And without permission from the distributor (hereinafter referred to as “content provider”) to distribute the content, copy the stored content and re-distribute it via the network, or tamper with the content. It is easy to do fraudulent activities such as This fraudulent act is a major impediment to distributing content.
[0004]
In particular, illegally distributed content resulting from unauthorized acts of copying and redistributing (retransmitting) content without obtaining the permission (license) of the copyright owner or content provider is subject to significant financial inconvenience to the copyright owner or content provider. Therefore, technical means capable of detecting such illegally distributed content with high accuracy and in a short time and deterring illegal acts are being sought.
[0005]
In addition, with the spread of the Internet and higher performance of digital information devices (storage devices, etc.), the use of moving image content (large-capacity multimedia data), which is a large-capacity content, has become common. For this reason, there is a need for means for efficiently searching for specific content desired by a user from a vast number of contents held on the Internet or in a storage device.
[0006]
In order to detect illegally distributed content or to search for specific content, feature amount data representing the feature of the content is extracted from the luminance and color information of the video data constituting the content, and the extracted feature amount data is A feature amount extraction technique used for determination (testing) of identity and similarity between contents has been proposed as an effective means.
[0007]
Also, with regard to the conventional technique for extracting content feature amounts, for example, ISO / IEC 15938-3 “MPEG-7 Visual Description” (see Non-Patent Document 1) describes the characteristics of video data (video signal). A feature extraction algorithm for extracting the described features is defined. It is assumed that this visual description is mainly used for similarity search / filtering based on video data (video signal), and in this visual description, low-level colors, shapes, etc. on video data. As a specific description of the feature amount, “color layout description” that defines the spatial arrangement of colors on the frequency axis is defined.
[0008]
This color arrangement description reflects human visual characteristics, and enables high-precision search for each image frame constituting the content. That is, unnecessary information can be deleted on the frequency axis when the similarity between contents is tested by the color arrangement description. As a result, the amount of data describing the content features is reduced.
[0009]
Incidentally, the color arrangement is D = {ny, Yi(I = 1, 2,... Ny; Nc, Cbj, Crj(J = 1, 2,..., Nc)}.
In this color arrangement D, nyIs the number of luminance component coefficients, ncIs the number of color difference component coefficients, YiIs the DCT coefficient of the luminance signal (Y) and Cbj, CrjIs a DCT coefficient of the color difference signal (Cb, Cr). In addition, when calculating a feature amount from moving image data, it is recommended that the luminance signal (Y) has 6 coefficients and the color difference signals (Cb, Cr) have 3 coefficients.
[0010]
Here, a conventional feature amount extraction method will be described with reference to FIG.
FIG. 8 is a block diagram of a conventional content feature amount extraction device. As shown in FIG. 8, the content feature amount extraction device 101 includes a 64 (8 × 8) division averaging unit 103, a DCT transform, and the like. Unit 105, zigzag scanning unit 107, and nonlinear quantization unit 109.
[0011]
The 64 (8 × 8) division averaging unit 103 divides the original image into 64 (8 rows × 8 columns) sections and calculates a representative color (average color) of each section. That is, the 64 (8 × 8) division averaging unit 103 converts the original image into a “degenerate image” obtained by reducing and reducing the original image into 64 sections composed of 64 representative colors.
[0012]
The DCT transform unit 105 performs DCT transform (discrete cosine transform) on the 64 degenerated images transformed by the 64 (8 × 8) division averaging unit 103 and transforms them into discrete cosine coefficients.
[0013]
The zigzag scanning unit 107 rearranges the discrete cosine transform coefficients transformed by the DCT transformation unit 105 in order from the low frequency component by zigzag scanning.
[0014]
The nonlinear quantization unit 109 quantizes the DC component of the discrete cosine transform coefficients rearranged by the zigzag scanning unit 107 with 6 bits and the AC component with 5 bits, and also determines the number (brightness nyPieces, color difference ncAre extracted in order as feature quantities (feature quantity data).
[0015]
[Non-Patent Document 1]
ISO / IEC 15938-3 “Information Technology-Multimedia Content Description Interface-Part3: Visual, 6.6 Color layout”. pp42-50 (2002)
[0016]
[Problems to be solved by the invention]
However, since the content feature quantity extraction apparatus 101 shown in FIG. 8 performs feature quantity extraction for one frame of image data, the feature is extracted from content that is moving image data such as a long-time broadcast program. There is a problem that the amount of data is enormous.
[0017]
In addition, when detecting illegally distributed content or searching for programs (content search) with high accuracy using feature data, it is possible to test the identity and similarity between content while distinguishing different types of content. There is a problem that sufficient dispersion must be ensured.
[0018]
Therefore, an object of the present invention is to solve the problems of the conventional techniques described above, and to perform content identity or content similarity test with high accuracy without increasing the amount of feature data. An object of the present invention is to provide a quantity extraction device, a content feature quantity extraction program, and a content feature quantity extraction method.
[0019]
[Means for Solving the Problems]
In order to achieve the above-described object, the present invention has the following configuration.
The content feature amount extraction apparatus according to claim 1 is configured to analyze a reference content as a reference for comparison and a comparison content as a comparison target by using principal component analysis in multivariate analysis, and to configure a plurality of contents constituting the comparison content A content feature quantity extraction device for extracting the principal component of the reference content multivariate data generation means, feature coefficient calculation means, comparison content multivariate data generation means, and principal component calculation means. It was set as the structure provided.
[0020]
  According to such a configuration, the content feature amount extraction device uses the reference content multivariate data generation unit to execute the reference contentFromGenerate multiple baseline variable data.
[0021]
  Subsequently, the content feature quantity extraction device uses the feature coefficient calculation means,Using principal component analysis in multivariate analysis,Generated by the reference content multivariate data generation meanspluralStandard variable dataFind the variance / covariance matrix corresponding to the variance of the combined reference variate data synthesized by multiplying each by a given coefficient, and output the eigenvectors for the given ones in descending order of the eigenvalues of the matrix as feature coefficientsDo.
  Multivariate analysis is a method that uses multiple data (reference content) that make up a population, or data that has enough types and numbers that can be used to estimate the population. It is one of the analysis methods to identify the main elements that make up and to clarify the entanglement between elements. Principal component analysis is an analysis method that synthesizes (compresses) several correlated elements (factors) into several components, and obtains the total power and characteristics.
[0022]
  Then, the content feature amount extraction device uses the comparison content multivariate data generation means to perform comparison content.FromA plurality of variable data is generated, and the principal component is calculated by the principal component calculation means based on the variable data generated by the comparison content multivariate data generation means and the feature coefficient calculated by the feature coefficient calculation means. Obtained and output as feature data. This feature amount data is obtained, for example, by multiplying each of a plurality of variable data by a plurality of feature coefficients (in particular, three values (principal components) obtained by multiplying the variable data and the feature coefficients. First main component, second main component and third main component).
[0023]
  Also,Claim1Described content feature quantity extraction deviceofThe reference content multivariate data generation meansas well asThe comparison content multivariate data generating means includes block averaging means, discrete cosine transform means, frequency transform means, and frequency data summation calculation means.
[0024]
According to this configuration, the reference content multivariate data generation unit or the comparison content multivariate data generation unit of the content feature quantity extraction device uses the block averaging unit to compare the reference content that is moving image data or the comparison content that is moving image data. All the pixel data included in each frame reproduced by the luminance signal and the color difference signal is divided into a plurality of blocks (for example, 64, horizontal 8 divisions × vertical 8 divisions), and all the pixel data for each divided block is averaged. To generate reduced image data. That is, after the moving image data (one frame) is divided into a plurality of blocks, the luminance signals and color difference signals of all the pixel data in this block are averaged.
[0025]
Subsequently, the reference content multivariate data generation unit or the comparison content multivariate data generation unit of the content feature amount extraction apparatus performs discrete cosine on the reduced image data generated by the block capping unit by the discrete cosine transform unit. Transform to a discrete cosine coefficient. The discrete cosine coefficients are obtained by a fixed number such as 6 for the luminance signal (Y), 3 for the color difference signal (Cb), and 3 for the color difference signal (Cr).
[0026]
Next, the reference content multivariate data generation unit or the comparison content multivariate data generation unit of the content feature amount extraction apparatus performs frequency conversion on the discrete cosine coefficient by the frequency conversion unit to obtain frequency axis direction waveform data. The frequency axis direction waveform data is obtained by connecting the vertices of the data amount at each frequency on a graph in which the frequency axis is the horizontal axis and the data amount (component) included in each frequency is the vertical axis. . Then, the reference content multivariate data generation unit or the comparison content multivariate data generation unit of the content feature amount extraction apparatus applies the frequency axis direction waveform data converted by the frequency conversion unit by the frequency data sum calculation unit over the entire frequency range. The sum is taken as standard variable data or variable data.
[0029]
  Also,Claim1Described content feature quantity extraction deviceofThe principal component calculation means obtains the principal component by multiplying each of the plurality of variable data by the feature coefficient, and outputs the principal component as the feature amount data.
[0030]
According to such a configuration, the content feature quantity extraction device obtains a principal component by multiplying each of a plurality of variable data by the feature coefficient by the principal component calculation means, and outputs the principal component as feature quantity data. The feature of the comparison content can be expressed without increasing the data amount (feature data can be obtained).
[0031]
  Claim3The described content feature amount extraction program analyzes a reference content as a reference for comparison and a comparison content as a comparison target using principal component analysis in multivariate analysis, and a plurality of principal components constituting the comparison content Is configured to function as a reference content multivariate data generation unit, a feature coefficient calculation unit, a comparison content multivariate data generation unit, and a principal component calculation unit.
[0032]
  According to such a configuration, the content feature amount extraction program can execute the reference content multivariate data generation unit.FromA plurality of reference variable data is generated, and the characteristic coefficient calculation meansUsing principal component analysis in multivariate analysis,Generated by the reference content multivariate data generation meanspluralStandard variable dataFind the variance / covariance matrix corresponding to the variance of the combined reference variate data synthesized by multiplying each by a given coefficient, and output the eigenvectors for the given ones in descending order of the eigenvalues of the matrix as feature coefficientsTo do. Then, this content feature amount extraction program uses the comparison content multivariate data generation means to output the comparison content.FromMultiple variable data is generated and generated by the comparison content multivariate data generation means by the principal component calculation meanspluralVariable dataVectorAnd calculated by the feature coefficient calculation meanseachFeature coefficient andThe inner product ofAnd output as feature data.
[0033]
  Claim4The content feature amount extraction method described includes analyzing a reference content as a reference for comparison and a comparison content as a comparison target using principal component analysis in multivariate analysis, and a plurality of principal components constituting the comparison content Is a content feature amount extraction method that extracts a reference content multivariate data generation step, a feature coefficient calculation step, a comparison content multivariate data generation step, and a principal component calculation step. did.
[0034]
  According to such a procedure, the content feature amount extraction method uses the reference content in the reference content multivariate data generation step.FromA plurality of reference variable data is generated, and in the feature coefficient calculation step,Using principal component analysis in multivariate analysis,Generated in the reference content multivariate data generation steppluralStandard variable dataFind the variance / covariance matrix corresponding to the variance of the combined reference variate data synthesized by multiplying each by a given coefficient, and output the eigenvectors for the given ones in descending order of the eigenvalues of the matrix as feature coefficientsTo do. And this content feature amount extraction method uses the comparison content in the comparison content multivariate data generation step.FromMultiple variable data was generated and generated in the comparison content multivariate data generation step in the principal component calculation steppluralVariable dataVectorAnd calculated in the feature coefficient calculation stepeachFeature coefficient andThe inner product ofAnd output as feature data.
[0035]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
(Configuration of content feature extraction device)
FIG. 1 is a block diagram of a content feature amount extraction apparatus. As shown in FIG. 1, the content feature amount extraction apparatus 1 extracts feature amount data of content (reference content and comparison content) that is moving image data using principal component analysis in multivariate analysis. A coefficient generation unit 3 and a feature amount data extraction unit 5 are provided.
[0036]
In addition, the content feature amount extraction apparatus 1 is configured to store content (illegal distribution content) illegally distributed through a network (external Internet or the like) or recorded on a recording medium (such as an optical disc [eg, DVD]). An unauthorized distribution content detection system that performs detection (not shown), a program search system that searches for a desired (desired) content (program), a scene, etc. from a stored and managed content group (program group) Applicable.
[0037]
The feature coefficient generation unit 3 generates a feature coefficient that serves as a reference for calculating the feature amount data of the comparison content, and includes a reference multivariate data generation unit 7 (reference content multivariate data generation unit) and a feature coefficient calculation unit 9. And.
[0038]
  The reference multivariate data generation means 7 is a moving image data (reference content [1,..., I,..., M]).FromGenerates a plurality of (many) reference variable data, and includes block averaging means 7a, DCT processing means 7b (discrete cosine transform means), frequency transform means 7c, and frequency data sum calculation means 7d..
[0039]
The block averaging means 7a is a frame unit based on the luminance signal (Y) and color difference signals (Cb, Cr) of the input moving image data (reference content (1,..., I,..., M)). Processing is performed to output reduced image data. Note that i in the reference content (1,..., I,..., M) indicates the i-th (i) reference content, and m indicates the m-th (m) reference content. The processing in units of frames divides all pixels in each frame into 8 horizontal blocks × 8 vertical blocks, averages the pixel data of the luminance signal (Y) and color difference signals (Cb, Cr) of all pixels in each block, Reduced image data of 8 horizontal pixels × 8 vertical lines is created (generated).
[0040]
  The DCT processing means 7b performs DCT arithmetic processing (Discrete Cosine Transform) on the pixel data Y, Cb and Cr of the reduced image data generated by the block averaging means 7a, and converts them into discrete cosine coefficients. . In this embodiment, the DCT processing means 7b has six coefficients Y0, Y1, Y2, Y3, Y4, and Y5 for the luminance signal (Y), and three of Cb0, Cb1, and Cb2 for the color difference signal (Cb). For the coefficient and color difference signal (Cr), a total of 12 coefficients of 3 coefficients of Cr0, Cr1, and Cr2 are calculated. This discrete codeRhinoThe more the number of image coefficients, the higher the accuracy of the content identity or similarity test when using the finally generated feature data.
[0041]
  The frequency converting unit 7c performs a frequency converting process on each of the 12 discrete cosine coefficients calculated by the DCT processing unit 7b,No lapWaveform axis direction waveform dataAndTo do. The frequency conversion process in the frequency conversion means 7c is an FFT (Fast Fourier Transform) process.
[0042]
  The frequency data sum calculating means 7d is a frequency converting means 7c,No lapWaveform axis direction waveform dataTSumming over the entire frequency range, twelve reference variable data kY0, kY1, kY2, kY3, kY4, kY5 and kCb0, kCb1, kCb2 and kCr0, kCr1, kCr2 are calculated.
[0043]
  The characteristic coefficient calculation means 9Using principal component analysis with multivariate analysis,Based on the twelve reference variable data (kY0, kY1, kY2, kY3, kY4 and kY5, kCb0, kCb1 and kCb2, kCr0, kCr1 and kCr2) generated by the reference multivariate data generation means 7 Thus, it is obtained and output to the feature amount data extraction unit 5. The feature coefficient calculation means 9 obtains the variance of the combined reference variable data obtained by multiplying each of the 12 reference variable data by a predetermined coefficient, and obtains the predetermined coefficient that maximizes the variance as the feature coefficient. . This feature coefficient is composed of a plurality of eigenvectors indicating the features of the reference content. A method of calculating the feature coefficient in the feature quantity coefficient calculating means 9 will be described later.
[0044]
The feature quantity data extraction unit 5 extracts feature quantity data of the comparison content based on the feature coefficient generated by the feature coefficient generation unit 3, and is a multivariate data generation unit 11 (comparison content multivariate data generation unit). And principal component calculation means 13.
[0045]
  Multivariate data generation means 11 is moving image data (comparison content)FromIt generates a plurality (various) of variable data, and includes block averaging means 11a, DCT processing means 11b (discrete cosine transform means), frequency transform means 11c, and frequency data sum total calculation means 11d.
[0046]
The block averaging unit 11a performs processing in units of frames from the luminance signal (Y) and color difference signals (Cb, Cr) of the input moving image data (comparison content), and outputs reduced image data. The processing in units of frames divides all pixels in each frame into 8 horizontal blocks × 8 vertical blocks, averages the pixel data of the luminance signal (Y) and color difference signals (Cb, Cr) of all pixels in each block, Reduced image data of 8 horizontal pixels × 8 vertical lines is created (generated).
[0047]
The DCT processing unit 11b performs DCT calculation processing on the pixel data Y, Cb, and Cr of the reduced image data generated by the block averaging unit 11a, and converts them into discrete cosine coefficients. In this embodiment, the DCT processing means 11b has six coefficients Y0, Y1, Y2, Y3, Y4, and Y5 for the luminance signal (Y), and three of Cb0, Cb1, and Cb2 for the color difference signal (Cb). For the coefficient and color difference signal (Cr), a total of 12 coefficients of 3 coefficients of Cr0, Cr1, and Cr2 are calculated. Note that the greater the number of discrete cosin-in coefficients, the higher the accuracy of content identity or similarity when using the finally generated feature data.
[0048]
  The frequency conversion unit 11c performs a frequency conversion process on each of the twelve discrete cosine coefficients calculated by the DCT processing unit 11b.No lapWaveform axis direction waveform dataAndTo do. The frequency conversion process in the frequency conversion unit 11c is an FFT process.
[0049]
  The frequency data sum calculating means 11d is the frequency converting means 11c and 12No lapWaveform axis direction waveform dataTSumming over the entire frequency range, twelve variable data hY0, hY1, hY2, hY3, hY4 and hY5, hCb0, hCb1 and hCb2 and hCr0, hCr1 and hCr2 are calculated.
[0050]
The principal component calculation unit 13 includes the feature coefficient output from the feature coefficient calculation unit 9 of the feature coefficient generation unit 3 and the twelve variable data hY0, hY1, hY2, hY3, hY4 output from the frequency data total calculation unit 11d. On the basis of hYb5, hY5, hCb0, hCb1 and hCb2, and hCr0, hCr1 and hCr2, the feature amount data is calculated and output. The principal component calculating means 13 obtains a principal component by multiplying each of 12 pieces of variable data by a feature coefficient, and outputs the principal component as feature amount data. The principal component calculation method in the principal component calculation means 13 will be described later.
[0051]
  According to the content feature amount extraction apparatus 1, the reference multivariate data generation unit 7 causes the moving image data (reference content).FromA plurality of reference variable data is generated, and the characteristic coefficient calculating means 9Using principal component analysis of multivariate analysis,A predetermined calculation is performed on the reference variable data generated by the reference multivariate data generation means 7 to obtain a feature coefficient composed of a plurality of eigenvectors indicating the characteristics of the reference content. Then, the multivariate data generation means 11 moves the moving image data (comparison content).FromA plurality of variable data is generated, and the principal component is calculated by the principal component calculation means 13 based on the variable data generated by the multivariate data generation means 11 and the feature coefficient calculated by the feature coefficient calculation means 9. And is output as feature data. In other words, since the reference content and comparative content are analyzed using principal component analysis by multivariate analysis, the content identity or similarity test can be performed with high accuracy without increasing the amount of feature data. It can be carried out.
[0052]
  In addition, according to the content feature amount extraction apparatus 1, the block averaging means 7a and 11a apply to each frame reproduced by the luminance signal and the color difference signal of the reference content that is moving image data or the comparison content that is moving image data. All the included pixel data is divided into a plurality of (64) blocks, and all the pixel data for each divided block is averaged to generate reduced image data. Subsequently, the DCT processing means 7b, 11b performs discrete cosine transform on the reduced image data generated by the block averaging means 7a, 11a to obtain discrete cosine coefficients, and the frequency conversion means 7c, 11c. The discrete cosine coefficient is subjected to frequency conversion 12No lapWaveform axis direction waveform dataAndIs done.
[0053]
  Then, 12 converted by the frequency conversion means 7c and 11c by the frequency data total calculation means 7d and 11d.No lapWaveform axis direction waveform dataTIt is summed over the entire frequency range to obtain reference variable data or variable data. That is, 12 obtained by performing discrete cosine transform and frequency transform on the reduced image data obtained by dividing and averaging the reference content and the comparison content.No lapWaveform axis direction waveform dataTSince the reference variable data or variable data is obtained by summing over the entire frequency range, and these reference variable data or variable data are used, the content amount of the content can be increased without increasing the data amount of the feature amount data of the content. The identity or similarity test can be performed with high accuracy.
[0054]
Furthermore, according to the content feature quantity extraction device 1, the feature coefficient calculation means 9 obtains the synthesized reference variable data synthesized by multiplying each of the reference variable data by a predetermined coefficient, and the variance of the synthesized reference variable data is determined. By setting the maximum predetermined coefficient as the feature coefficient, it is possible to represent the feature of the moving image data (reference content) without increasing the data amount (feature amount data can be obtained).
[0055]
Furthermore, according to the content feature amount extraction apparatus 1, the principal component calculation unit 13 obtains a principal component by multiplying each of the plurality of variable data by the feature coefficient, and the principal component is output as feature amount data. Therefore, the feature of the moving image data (comparison content) can be expressed without increasing the data amount (feature amount data can be obtained).
[0056]
(Operation of content feature extraction device)
Next, the operation of the content feature quantity extraction apparatus 1 will be described with reference to the flowchart shown in FIG. 2 (see FIG. 1 as appropriate).
[0057]
First, when moving image data (reference content) is input to the feature coefficient generation unit 3 of the content feature amount extraction device 1, the content feature amount extraction device 1 uses the reference multivariate data generation means 7 to generate the moving image data (reference content). Reference variable data of reference content is generated and output to the characteristic coefficient calculation means 9 (S1).
[0058]
Subsequently, the content feature quantity extraction apparatus 1 generates a feature coefficient by the feature coefficient calculation means 9 and outputs it to the principal component calculation means 13 of the feature quantity data extraction unit 5 (S2).
[0059]
When moving image data (comparison content) is input to the feature amount data extraction unit 5 of the content feature amount extraction device 1, the content feature amount extraction device 1 uses the multivariate data generation means 11 to generate the moving image data ( (Comparison content) variable data is generated and output to the principal component calculation means 13 (S3).
[0060]
When the feature coefficient and the variable data are input to the principal component calculation means 13 of the content feature quantity extraction device 1, the content feature quantity extraction device 1 generates feature quantity data by the principal component calculation means 13 and externally outputs the feature quantity data. (S4).
[0061]
  As described in the operation of the content feature amount extraction apparatus 1, GroupQuasi-variable data and variable data are obtained and feature data of comparison content is calculated. If this feature data is used, it is identical or similar to content distributed via a network or recording medium. Sex can be detected (tested) with high accuracy.
[0062]
(About principal component analysis, feature coefficient, feature data)
Here, principal component analysis, calculation of feature coefficients, and feature amount data in multivariate analysis will be described (see FIG. 1 as appropriate).
[0063]
[About principal component analysis]
First, principal component analysis will be described. The principal component analysis refers to, for example, the coefficients a, b, and c that maximize the variance of the composite variable u in the following equation (1) for a plurality of variables x, y, and z, and the composite variable u in this case Is used to analyze data.
[0064]
u = ax + by + cz (1)
Where the coefficients a, b and c are a2+ B2+ C2Is a constant that satisfies = 1.
[0065]
[About feature coefficients]
Next, the characteristic coefficient will be described (see FIG. 1 as appropriate).
First, as described above, using a plurality of reference contents (1,..., I,..., M) serving as a population, or a plurality of reference contents having types and numbers capable of sufficiently estimating the population. In addition, reference multivariate data generation means 7 generates reference variable data.
[0066]
Here, FIG. 3 shows a list of reference variable data when the number of reference contents is m and the number of reference variable data in each reference content is n. Note that moving image data (reference content) input to the reference multivariate data generation means 7 of the feature coefficient generation unit 3 of the content feature amount extraction apparatus 1 is the moving image from one moving image data (one reference content). What is necessary is just to be able to obtain a plurality of reference variable data representing the characteristics of the data (reference content).
[0067]
With respect to the plurality of reference variable data generated by the reference multivariate data generation means 7, the feature coefficient calculation means 9 performs the following calculation to calculate the feature coefficients. Synthetic variables (composite standard variable data) u for the standard variable data of the i-th standard content among the standard variable data shown in FIG.iIs obtained by the following equation (2).
[0068]
ui= A1xi1+ ... + ajxij+ ... + anxin  ... Formula (2)
However, i is an integer of 1 <i <m, and the coefficient a1, ..., aj, ..., anIs a1 2+ ... + aj 2+ ... + an 2= 1 Formula (3)
Is a constant that satisfies.
[0069]
Also, a synthetic variable (composite standard variable data) uiDistribution of Su2Is obtained by the following equation (4).
[0070]
[Expression 1]
Figure 0004377620
[0071]
Here, the average of u (the letter with the ruby “-” attached to u) is uiIs the average value of S11... Sjj・ ・ ・ ・ ・ ・ SnnAre the variables xi1, ..., xij, ..., xinRepresents the variance of (1 <i <m) and S12... Sj (j + 1)... S(n-1) nAre the variables xi1-Xi2, ..., xij-Xi (j + 1), ..., xi (n-1)-XinIt represents the covariance of (1 <i <m).
[0072]
In the principal component analysis in this embodiment, the condition is under the expression (3), and the composite variable (synthesis reference variable data) u shown in the expression (4)iDistribution of Su2The coefficient a that maximizes1... aj... anIs to seek.
[0073]
And these coefficients a1... aj... anIs obtained using the Lagrangian constant variation method.
[0074]
[Expression 2]
Figure 0004377620
[0075]
Here, λ represents a specific constant of the formula (5), and S can be represented as the following formula (6).
[0076]
[Equation 3]
Figure 0004377620
[0077]
The matrix S shown in the equation (6) is a variance / covariance matrix of each variable, and the equation (5) is a set of coefficients (a1... aj... an) Represents the eigenvector of the matrix S, and the constant λ represents the eigenvalue of the matrix S.
[0078]
The composite variable (synthetic reference variable data) u shown in Equation (4) under the condition of Equation (3)iDistribution of Su2The coefficient a that maximizes1... aj... anIs represented by an eigenvector corresponding to the largest eigenvalue of the matrix S.
[0079]
Therefore, the first largest (maximum) eigenvalue λ of the matrix S1Eigenvectors corresponding to (a1<1>, ..., aj<1>, ..., an<1>) and the eigenvector (a1<1>, ..., aj<1>, ..., an<1>) as the first principal component of the feature coefficient, and the second largest eigenvalue λ of the matrix S2Eigenvectors corresponding to (a1<2>, ..., aj<2>, ..., an<2>) and obtain this eigenvector (a1<2>, ..., aj<2>, ..., an<2>) as the second principal component of the feature coefficient, and the third largest eigenvalue λ of the matrix SThreeEigenvectors corresponding to (a1<3>, ..., aj<3>, ..., an<3>) and the eigenvector (a1<3>, ..., aj<3>, ..., an<3>) is the third principal component of the feature coefficient.
[0080]
These eigenvectors (a1<1>, ..., aj<1>, ..., an<1>), (a1<2>, ..., aj<2>, ..., an<2>) and (a1<3>, ..., aj<3>, ..., an<3>) is input to the principal component calculation means 13 of the content feature quantity extraction apparatus 1 as a feature coefficient.
[0081]
In the case of moving image data, since the cumulative contribution rate, which means the information absorption rate, exceeds 80% up to the third principal component, it is sufficient to use the first principal component to the third principal component as feature coefficients. . However, when further accuracy is required, not only the first principal component to the third principal component but also the fourth principal component and the subsequent components may be used as feature coefficients.
[0082]
[About feature data]
Next, feature amount data will be described (see FIG. 1 as appropriate).
First, n variable data (x1,..., Xj,..., Xn) obtained by the multivariate data generation unit 11 are input to the principal component calculation unit 13. Then, in the principal component calculation means 13, the following mathematical formulas (7) to (9) are used from the first principal component, the second principal component, and the third principal component of the feature coefficient obtained by the feature coefficient calculation means 9. An operation is performed to obtain u <1>, u <2>, and u <3>, and these are output as feature data.
[0083]
u <1> = a1<1> x1+ ... + aj<1> xj+ ... + an<1> xn... Formula (7)
u <2> = a1<2> x1+ ... + aj<2> xj+ ... + an<2> xn... Formula (8)
u <3> = a1<3> x1+ ... + aj<3> xj+ ... + an<3> xn... Formula (9)
U <1>, u <2>, and u <3> obtained by these mathematical formulas (7) to (9) are feature amount data.
[0084]
(Examples of standard variable data and feature coefficients)
Next, with reference to FIG. 4 and FIG. 5, an example of the reference variable data and an example of the characteristic coefficient will be described. FIG. 4 shows an example of reference variable data, which was obtained using ten broadcast programs (about 10 minutes each) having different contents and types as reference contents. It is. In FIG. 4, twelve reference variable data (kY0, kY1, kY2, kY3, kY4 and kY5, kCb0, kCb1 and kCb2, kCr0, kCr1 and kCr2) are obtained for 10 broadcast programs with program numbers 1 to 10. It has been.
[0085]
FIG. 5 shows examples of feature coefficients obtained by using these reference variable data. Twelve feature coefficients (tY0, tY1, tY2, tY3, tY4 and tY5, tCb0, tCb1, and tCb2, tCr0, tCr1 and tCr2Y0) from the first principal component to the third principal component.
[0086]
Incidentally, in the case of this feature coefficient, a cumulative contribution ratio of 89.7% is obtained from the first principal component to the third principal component.
[0087]
(About the feature data example)
Next, an example of feature amount data will be described with reference to FIGS.
In this example of feature amount data, moving picture data (reference content and comparison content) input to the content feature amount extraction device 1 includes 10 programs (reference content) as reference content and the beginning of each reference content as comparison content. An editing program (editing content) obtained by reducing 10% was used.
[0088]
FIG. 6 shows a distribution diagram of the first principal component and the second principal component that are the feature amount data of the program and the first principal component and the second principal component that are the feature amount data of the edited program. 7 shows a distribution diagram of the third principal component and the second principal component, which are the feature amount data of the program, and the third principal component and the second principal component, which is the feature amount data of the edited program.
[0089]
As shown in FIG. 6 and FIG. 7, by using the first principal component, the second principal component, and the third principal component as the feature amount data, it is possible to distinguish different programs (10 programs) and similar. It can be seen that the program and the same program before and after editing can be identified.
[0090]
In this embodiment, calculation (calculation) of reference variable data, variable data, feature coefficient, and feature value data is performed using 32-bit floating point type data. Similar results can be obtained by using the type data. In particular, it is sufficient that the feature amount data finally obtained is expressed by 16-bit integer type data.
[0091]
Further, in the content feature amount extraction device 1, the moving image data (video content) has been described, but the present invention is not limited to this, and can also be applied to audio data (music content). Further, the present invention can be applied to a combination of moving image data and audio data.
[0092]
As mentioned above, although this invention was demonstrated based on one Embodiment, this invention is not limited to this.
For example, it is considered that the processing of each component of the content feature amount extraction apparatus 1 is a content feature amount extraction program described in a general-purpose computer language, or the content feature amount extraction method that considers the processing of each component as one process It can also be considered. In these cases, the same effect as that of the content feature amount extraction apparatus 1 can be obtained.
[0093]
【The invention's effect】
  Claim 1Thru 4According to the described invention, content analysis is performed using principal component analysis based on multivariate analysis, so that the content identity or similarity test can be performed with high accuracy without increasing the amount of feature data. Can be done.
[0094]
  Also,Claim1 to 4According to the described invention, the frequency-axis direction waveform data obtained by performing discrete cosine transformation and frequency transformation on the reduced image data obtained by dividing and averaging the reference content and the comparison content are summed over the entire frequency range, Since we have obtained standard variable data or variable data and use these standard variable data or variable data, we can increase the content identity or similarity test without increasing the amount of feature data of the content. Can be done with precision.
[0095]
  Also,Claim1 to 4According to the described invention, the characteristic of the moving image data (reference content) can be expressed without increasing the amount of data by using the predetermined coefficient that maximizes the variance of the combined reference variable data as the feature coefficient. (Feature data can be obtained).
[0096]
  Also,Claim1 toAccording to the invention described in 4, the principal component is obtained by multiplying each of the plurality of variable data by the feature coefficient, and since this principal component is output as the feature amount data, the moving image can be recorded without increasing the data amount. The feature of image data (comparison content) can be expressed (feature data can be obtained).
[Brief description of the drawings]
FIG. 1 is a block diagram of a content feature amount extraction apparatus according to an embodiment of the present invention.
FIG. 2 is a flowchart for explaining the operation of the content feature amount extraction apparatus shown in FIG. 1;
FIG. 3 is a diagram showing a list of reference variable data.
FIG. 4 is a diagram showing an example of reference variable data.
FIG. 5 is a diagram showing examples of feature coefficients.
FIG. 6 is a diagram showing an example of feature quantity data; first and second principal components that are program feature quantity data; and first and second principal components that are feature quantity data of an edited program. It is a distribution map with a component.
FIG. 7 is a diagram illustrating an example of feature amount data, and a third principal component and a second principal component that are feature amount data of a program, and a third principal component and a second principal component that are feature amount data of an edited program; It is a distribution map with a component.
FIG. 8 is a block diagram of a conventional content feature amount extraction apparatus.
[Explanation of symbols]
1. Content feature extraction device
3 Feature coefficient generator
5 Feature data extraction unit
7 Standard multivariate data generation means (reference content multivariate data generation means)
7a, 11a Block averaging means
7b, 11b DCT processing means (discrete cosanin conversion means)
7c, 11c Frequency conversion means
7d, 11d Frequency data total calculation means
9 Feature coefficient calculation means
11 Multivariate data generation means (comparison content multivariate data generation means)
13 Principal component calculation means

Claims (4)

比較の基準とする基準コンテンツと比較の対象とする比較コンテンツとを、多変量解析における主成分分析を用いて分析し、当該比較コンテンツを構成する複数の主成分を特徴量データとして抽出するコンテンツ特徴量抽出装置であって、
複数の前記基準コンテンツから複数の基準変量データを生成する基準コンテンツ多変量データ生成手段と、
前記多変量解析における主成分分析を用いて、この基準コンテンツ多変量データ生成手段で生成された複数の基準変量データのそれぞれに所定係数を乗算して合成した合成基準変量データの分散に対応する分散・共分散行列を求め、当該行列の固有値の大きい順に所定個のものに対する固有ベクトルを、特徴係数として出力する特徴係数演算手段と、
前記比較コンテンツから複数の変量データを生成する比較コンテンツ多変量データ生成手段と、
この比較コンテンツ多変量データ生成手段で生成された複数の変量データを成分としたベクトルと、前記特徴係数演算手段で演算された特徴係数との内積を、前記特徴量データとして出力する主成分演算手段と、
を備え
前記基準コンテンツ多変量データ生成手段は
前記基準コンテンツが動画像データであり、この動画像データの輝度信号および色差信号によって再現されるフレームそれぞれに含まれる全画素データを複数のブロックに分割すると共に、分割したブロック毎の全画素データの輝度信号および色差信号を平均化して縮小画像データを生成するブロック平均化手段と、
このブロック平均化手段によって生成された縮小画像データに対して、離散コサイン変換を施して、離散コサイン係数に変換し、その所定個を算出する離散コサイン変換手段と、
この離散コサイン変換手段によって算出された離散コサイン係数のそれぞれ対し、周波数変換を施して周波数軸方向波形データとする周波数変換手段と、
この周波数変換手段によって変換された周波数軸方向波形データを周波数全域に亘って総和し、前記基準変量データとする周波数データ総和算出手段と、
から構成され、
記比較コンテンツ多変量データ生成手段は、
記比較コンテンツが動画像データであり、この動画像データの輝度信号および色差信号によって再現されるフレームそれぞれに含まれる全画素データを複数のブロックに分割すると共に、分割したブロック毎の全画素データの輝度信号および色差信号を平均化して縮小画像データを生成するブロック平均化手段と、
このブロック平均化手段によって生成された縮小画像データに対して、離散コサイン変換を施して、離散コサイン係数に変換し、その所定個を算出する離散コサイン変換手段と、
この離散コサイン変換手段によって算出された離散コサイン係数のそれぞれ対し、周波数変換を施して周波数軸方向波形データとする周波数変換手段と、
この周波数変換手段によって変換された周波数軸方向波形データを周波数全域に亘って総和し、前記変量データとする周波数データ総和算出手段と、
から構成される
とを特徴とするコンテンツ特徴量抽出装置。
Content features that analyze the reference content to be compared and the comparative content to be compared using principal component analysis in multivariate analysis, and extract a plurality of principal components constituting the comparison content as feature data A quantity extraction device,
A reference content multivariate data generating means for generating a plurality of reference variables data from a plurality of the reference content,
A variance corresponding to the variance of the combined reference variable data synthesized by multiplying each of the plurality of reference variable data generated by the reference content multivariate data generation means by a predetermined coefficient using principal component analysis in the multivariate analysis. A feature coefficient computing means for obtaining a covariance matrix and outputting eigenvectors for a predetermined number in descending order of eigenvalues of the matrix as a feature coefficient;
And comparing the content multivariate data generating means for generating a plurality of variable data from the comparison content,
Principal component calculation that outputs, as the feature quantity data, an inner product of a vector having a plurality of variable data generated by the comparison content multivariate data generation means as components and each feature coefficient calculated by the feature coefficient calculation means Means,
Equipped with a,
The reference content multivariate data generation hands stage,
The reference content is moving image data, while dividing the entire pixel data included in each frame to be reproduced by the luminance signal and the color difference signal of the moving image data into a plurality of blocks, all the pixel data of each divided block Block averaging means for generating reduced image data by averaging the luminance signal and color difference signal of
Discrete cosine transformation is performed on the reduced image data generated by the block averaging unit, discrete cosine transformation is performed to convert the reduced image data into discrete cosine coefficients , and a predetermined number thereof is calculated .
Against each of the discrete cosine coefficients calculated by the discrete cosine transform means, and frequency conversion means to frequency-axis direction waveform data by performing frequency conversion,
The frequency axis direction waveform data converted by the frequency converting means to sum over the entire frequency range, the frequency data total sum calculation means for the reference variable data,
Consisting of
Before Symbol comparison content multivariate data generation means,
A pre-Symbol comparison content moving image data, while dividing the entire pixel data included in each frame to be reproduced by the luminance signal and the color difference signal of the moving image data into a plurality of blocks, all the pixel data of each divided block Block averaging means for generating reduced image data by averaging the luminance signal and color difference signal of
Discrete cosine transformation is performed on the reduced image data generated by the block averaging unit, discrete cosine transformation is performed to convert the reduced image data into discrete cosine coefficients , and a predetermined number thereof is calculated .
Against each of the discrete cosine coefficients calculated by the discrete cosine transform means, and frequency conversion means to frequency-axis direction waveform data by performing frequency conversion,
The frequency axis direction waveform data converted by the frequency converting means to sum over the entire frequency range, the frequency data sum calculating means and the variable data,
Composed of
Content feature quantity extraction unit, wherein the this.
前記特徴係数演算手段は、3個の特徴係数を出力することを特徴とする請求項1に記載のコンテンツ特徴量抽出装置。  The content feature amount extraction apparatus according to claim 1, wherein the feature coefficient calculation means outputs three feature coefficients. 比較の基準とする基準コンテンツと比較の対象とする比較コンテンツとを、多変量解析における主成分分析を用いて分析し、当該比較コンテンツを構成する複数の主成分を特徴量データとして抽出するためにコンピュータを、
前記基準コンテンツが動画像データであり、この動画像データの輝度信号および色差信号によって再現されるフレームそれぞれに含まれる全画素データを複数のブロックに分割すると共に、分割したブロック毎の全画素データの輝度信号および色差信号を平均化して縮小画像データを生成する第1のブロック平均化手段、
この第1のブロック平均化手段によって生成された縮小画像データに対して、離散コサイン変換を施して、離散コサイン係数に変換し、その所定個を算出する第1の離散コサイン変換手段、
この第1の離散コサイン変換手段によって算出された離散コサイン係数のそれぞれ対し、周波数変換を施して周波数軸方向波形データとする第1の周波数変換手段、
この第1の周波数変換手段によって変換された周波数軸方向波形データを周波数全域に亘って総和し、基準変量データとする第1の周波数データ総和算出手段、
前記多変量解析における主成分分析を用いて、複数の前記基準コンテンツに対して、前記第1の周波数データ総和算出手段で生成された複数の基準変量データのそれぞれに所定係数を乗算して合成した合成基準変量データの分散に対応する分散・共分散行列を求め、当該行列の固有値の大きい順に所定個のものに対する固有ベクトルを、特徴係数として出力する特徴係数演算手段、
前記比較コンテンツが動画像データであり、この動画像データの輝度信号および色差信号によって再現されるフレームそれぞれに含まれる全画素データを複数のブロックに分割すると共に、分割したブロック毎の全画素データの輝度信号および色差信号を平均化して縮小画像データを生成する第2のブロック平均化手段、
この第2のブロック平均化手段によって生成された縮小画像データに対して、離散コサイン変換を施して、離散コサイン係数に変換し、その所定個を算出する第2の離散コサイン変換手段、
この第2の離散コサイン変換手段によって算出された離散コサイン係数のそれぞれ対し、周波数変換を施して周波数軸方向波形データとする第2の周波数変換手段、
この第2の周波数変換手段によって変換された周波数軸方向波形データを周波数全域に亘って総和し、変量データとする第2の周波数データ総和算出手段、
前記比較コンテンツに対して、前記第2の周波数データ総和算出手段で生成された複数の変量データを成分としたベクトルと、前記特徴係数演算手段で演算された特徴係数との内積を、前記特徴量データとして出力する主成分演算手段、
として機能させることを特徴とするコンテンツ特徴量抽出プログラム。
And comparing the contents of the reference content to base the comparison to be compared, and analyzed using principal component analysis in multivariate analysis, in order to extract a plurality of principal components constituting the comparison contents as the feature amount data Computer
The reference content is moving image data, and all pixel data included in each frame reproduced by the luminance signal and color difference signal of the moving image data is divided into a plurality of blocks, and all the pixel data of each divided block is First block averaging means for averaging the luminance signal and the color difference signal to generate reduced image data;
A first discrete cosine transform unit that performs discrete cosine transform on the reduced image data generated by the first block averaging unit, transforms it into discrete cosine coefficients, and calculates a predetermined number thereof;
The first discrete against the respective cosine discrete cosine coefficient calculated by the conversion unit, first frequency converting means for frequency-axis direction waveform data by performing frequency conversion,
First frequency data sum total calculating means for summing the frequency axis direction waveform data converted by the first frequency converting means over the entire frequency range to obtain reference variable data;
Using the principal component analysis in the multivariate analysis, the plurality of reference contents are synthesized by multiplying each of the plurality of reference variable data generated by the first frequency data sum calculation means by a predetermined coefficient. A feature coefficient computing means for obtaining a variance / covariance matrix corresponding to the variance of the composite reference variate data, and outputting eigenvectors for a predetermined number in the descending order of the eigenvalues of the matrix as feature coefficients;
The comparison content is moving image data, and all pixel data included in each frame reproduced by the luminance signal and the color difference signal of the moving image data is divided into a plurality of blocks, and all the pixel data of each divided block is A second block averaging means for averaging the luminance signal and the color difference signal to generate reduced image data;
A second discrete cosine transform unit that performs discrete cosine transform on the reduced image data generated by the second block averaging unit, transforms it into discrete cosine coefficients, and calculates a predetermined number thereof.
The second discrete cosine against the respective discrete cosine coefficients calculated by the transformation means, second frequency converting means for frequency-axis direction waveform data by performing frequency conversion,
A second frequency data sum total calculating means for summing the frequency axis direction waveform data converted by the second frequency converting means over the entire frequency range to obtain variable data;
For the comparison content, an inner product of a vector having a plurality of variable data generated by the second frequency data summation calculation means as components and each feature coefficient calculated by the feature coefficient calculation means, Principal component calculation means for outputting as quantity data,
A content feature amount extraction program characterized by causing it to function as
比較の基準とする基準コンテンツと比較の対象とする比較コンテンツとを、多変量解析における主成分分析を用いて分析し、当該比較コンテンツを構成する複数の主成分を特徴量データとして抽出するコンテンツ特徴量抽出方法であって、
複数の前記基準コンテンツから複数の基準変量データを生成する基準コンテンツ多変量データ生成ステップと、
前記多変量解析における主成分分析を用いて、この基準コンテンツ多変量データ生成手段で生成された複数の基準変量データのそれぞれに所定係数を乗算して合成した合成基準変量データの分散に対応する分散・共分散行列を求め、当該行列の固有値の大きい順に所定個のものに対する固有ベクトルを、特徴係数として出力する特徴係数演算ステップと、
前記比較コンテンツから複数の変量データを生成する比較コンテンツ多変量データ生成ステップと、
この比較コンテンツ多変量データ生成手段で生成された複数の変量データを成分としたベクトルと、前記特徴係数演算手段で演算された特徴係数との内積を、前記特徴量データとして出力する主成分演算ステップと、
を含み、
前記基準コンテンツ多変量データ生成ステップは、
前記基準コンテンツが動画像データであり、この動画像データの輝度信号および色差信号によって再現されるフレームそれぞれに含まれる全画素データを複数のブロックに分割すると共に、分割したブロック毎の全画素データの輝度信号および色差信号を平均化して縮小画像データを生成するブロック平均化ステップと、
このブロック平均化手段によって生成された縮小画像データに対して、離散コサイン変換を施して、離散コサイン係数に変換し、その所定個を算出する離散コサイン変換ステップと、
この離散コサイン変換手段によって算出された離散コサイン係数のそれぞれ対し、周波数変換を施して周波数軸方向波形データとする周波数変換ステップと、
この周波数変換手段によって変換された周波数軸方向波形データを周波数全域に亘って総和し、前記基準変量データとする周波数データ総和算出ステップと、
を含み、
前記比較コンテンツ多変量データ生成ステップは、
前記比較コンテンツが動画像データであり、この動画像データの輝度信号および色差信号によって再現されるフレームそれぞれに含まれる全画素データを複数のブロックに分割すると共に、分割したブロック毎の全画素データの輝度信号および色差信号を平均化して縮小画像データを生成するブロック平均化ステップと、
このブロック平均化手段によって生成された縮小画像データに対して、離散コサイン変換を施して、離散コサイン係数に変換し、その所定個を算出する離散コサイン変換ステップと、
この離散コサイン変換手段によって算出された離散コサイン係数のそれぞれ対し、周波数変換を施して周波数軸方向波形データとする周波数変換ステップと、
この周波数変換手段によって変換された周波数軸方向波形データを周波数全域に亘って総和し、前記変量データとする周波数データ総和算出ステップと、
を含む
とを特徴とするコンテンツ特徴量抽出方法。
Content features that analyze the reference content to be compared and the comparative content to be compared using principal component analysis in multivariate analysis, and extract a plurality of principal components constituting the comparison content as feature data A quantity extraction method comprising:
A reference content multivariate data generation step of generating a plurality of reference variables data from a plurality of the reference content,
A variance corresponding to the variance of the combined reference variable data synthesized by multiplying each of the plurality of reference variable data generated by the reference content multivariate data generation means by a predetermined coefficient using principal component analysis in the multivariate analysis. A feature coefficient calculation step of obtaining a covariance matrix and outputting eigenvectors for a predetermined number in the descending order of eigenvalues of the matrix as a feature coefficient;
And comparing the content multivariate data generation step of generating a plurality of variable data from the comparison content,
Principal component calculation that outputs, as the feature quantity data, an inner product of a vector having a plurality of variable data generated by the comparison content multivariate data generation means as components and each feature coefficient calculated by the feature coefficient calculation means Steps,
Only including,
The reference content multivariate data generation step includes:
The reference content is moving image data, and all pixel data included in each frame reproduced by the luminance signal and color difference signal of the moving image data is divided into a plurality of blocks, and all the pixel data of each divided block is A block averaging step of averaging the luminance signal and the color difference signal to generate reduced image data;
A discrete cosine transform step for performing a discrete cosine transform on the reduced image data generated by the block averaging means, transforming it into discrete cosine coefficients, and calculating a predetermined number thereof,
Against each of the discrete cosine coefficients calculated by the discrete cosine transform unit, a frequency conversion step of the frequency axis direction waveform data by performing frequency conversion,
A frequency data sum total calculating step for summing the frequency axis direction waveform data converted by the frequency conversion means over the entire frequency range and making the reference variable data,
Including
The comparison content multivariate data generation step includes:
The comparison content is moving image data, and all pixel data included in each frame reproduced by the luminance signal and the color difference signal of the moving image data is divided into a plurality of blocks, and all the pixel data of each divided block is A block averaging step of averaging the luminance signal and the color difference signal to generate reduced image data;
A discrete cosine transform step for performing a discrete cosine transform on the reduced image data generated by the block averaging means, transforming it into discrete cosine coefficients, and calculating a predetermined number thereof,
Against each of the discrete cosine coefficients calculated by the discrete cosine transform unit, a frequency conversion step of the frequency axis direction waveform data by performing frequency conversion,
A frequency data sum total calculating step for summing the frequency axis direction waveform data converted by the frequency converting means over the entire frequency range and making the variable data,
including
Content characteristic quantity extraction wherein a call.
JP2003186112A 2003-06-30 2003-06-30 Content feature amount extraction apparatus, content feature amount extraction program, and content feature amount extraction method Expired - Fee Related JP4377620B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003186112A JP4377620B2 (en) 2003-06-30 2003-06-30 Content feature amount extraction apparatus, content feature amount extraction program, and content feature amount extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003186112A JP4377620B2 (en) 2003-06-30 2003-06-30 Content feature amount extraction apparatus, content feature amount extraction program, and content feature amount extraction method

Publications (2)

Publication Number Publication Date
JP2005018675A JP2005018675A (en) 2005-01-20
JP4377620B2 true JP4377620B2 (en) 2009-12-02

Family

ID=34185328

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003186112A Expired - Fee Related JP4377620B2 (en) 2003-06-30 2003-06-30 Content feature amount extraction apparatus, content feature amount extraction program, and content feature amount extraction method

Country Status (1)

Country Link
JP (1) JP4377620B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285907A (en) * 2005-04-05 2006-10-19 Nippon Hoso Kyokai <Nhk> Designation distribution content specification device, designation distribution content specification program and designation distribution content specification method
JP4620516B2 (en) * 2005-04-13 2011-01-26 日本テレビ放送網株式会社 Image comparison method, image comparison system, and program
JP5009638B2 (en) * 2007-02-09 2012-08-22 シャープ株式会社 Similar video search apparatus and similar video search method
JP4956273B2 (en) * 2007-05-17 2012-06-20 日本放送協会 Throwing ball type discriminating device, discriminator generating device, throwing ball type discriminating program and discriminator generating program
JP5267596B2 (en) * 2011-02-23 2013-08-21 株式会社デンソー Moving body detection device
JP2013070158A (en) * 2011-09-21 2013-04-18 Kddi Corp Video retrieval apparatus and program

Also Published As

Publication number Publication date
JP2005018675A (en) 2005-01-20

Similar Documents

Publication Publication Date Title
CN106126617B (en) A kind of video detecting method and server
EP2198376B1 (en) Media fingerprints that reliably correspond to media content
US10956484B1 (en) Method to differentiate and classify fingerprints using fingerprint neighborhood analysis
Zhang et al. Efficient video frame insertion and deletion detection based on inconsistency of correlations between local binary pattern coded frames
CN1538351B (en) Method and computer for generating visually representative video thumbnails
EP2366170B1 (en) Media fingerprints that reliably correspond to media content with projection of moment invariants
KR20140108180A (en) systems and methods for accessing multi-media content
Sun et al. Video hashing based on appearance and attention features fusion via DBN
EP2383990B1 (en) Time segment representative feature vector generation device
JP4359085B2 (en) Content feature extraction device
US8731236B2 (en) System and method for content protection in a content delivery network
JP2006285907A (en) Designation distribution content specification device, designation distribution content specification program and designation distribution content specification method
KR20140058643A (en) Apparatus and method for robust low-complexity video fingerprinting
Bian et al. Detecting video frame-rate up-conversion based on periodic properties of inter-frame similarity
US20090187403A1 (en) Information processing system, information processing apparatus, information processing program and recording medium
JP4377620B2 (en) Content feature amount extraction apparatus, content feature amount extraction program, and content feature amount extraction method
Xue et al. JPEG image tampering localization based on normalized gray level co-occurrence matrix
JP2011180801A (en) Video search apparatus, program and method for searching through many reference videos on search key video
Sun et al. Robust video fingerprinting scheme based on contourlet hidden Markov tree model
US20140308023A1 (en) System and method for video summarization and navigation based on statistical models
Ahmad et al. Effective video summarization approach based on visual attention
JP2005196744A (en) Digital commodity representation based on matrix invariance
Shelke et al. Multiple forgery detection in digital video with VGG-16-based deep neural network and KPCA
Panchal et al. Multiple forgery detection in digital video based on inconsistency in video quality assessment attributes
Juneja MFAST processing model for occlusion and illumination invariant facial recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090210

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20090403

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090410

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090818

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090911

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120918

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120918

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130918

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140918

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees