JP2010263327A - 特徴量算出装置およびプログラム - Google Patents

特徴量算出装置およびプログラム Download PDF

Info

Publication number
JP2010263327A
JP2010263327A JP2009111479A JP2009111479A JP2010263327A JP 2010263327 A JP2010263327 A JP 2010263327A JP 2009111479 A JP2009111479 A JP 2009111479A JP 2009111479 A JP2009111479 A JP 2009111479A JP 2010263327 A JP2010263327 A JP 2010263327A
Authority
JP
Japan
Prior art keywords
feature amount
amount calculation
feature
calculation target
target region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009111479A
Other languages
English (en)
Inventor
Yusuke Uchida
祐介 内田
Masaru Sugano
勝 菅野
Akio Yoneyama
暁夫 米山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2009111479A priority Critical patent/JP2010263327A/ja
Priority to US12/762,696 priority patent/US20100278434A1/en
Publication of JP2010263327A publication Critical patent/JP2010263327A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】時間軸上の一部分を切り出した動画コンテンツ、全体が圧縮ノイズなどによって劣化した動画コンテンツなど従来は正確に識別(検出)できなかった動画コンテンツを、正確に識別することができる技術を提供する。
【解決手段】特徴量算出装置1は、コンテンツを取得するコンテンツ取得部10と、コンテンツ取得部10によって取得されたコンテンツから瞬時カット点を検出し、瞬時カット点を基準にコンテンツから2枚のフレームをキーフレームとして抽出するキーフレーム抽出部20と、キーフレーム抽出部20によって抽出された2枚のキーフレームから特徴量算出対象領域を抽出する特徴量算出対象領域抽出部30と、特徴量算出対象領域抽出部30によって抽出された特徴量算出対象領域から特徴量を算出する特徴量算出部40とを備える。
【選択図】図1

Description

本発明は、特徴量算出装置およびプログラムに関する。
近年のブロードバンドの普及、およびHDD(Hard Disk Drive)、DVD(Digital Versatile Disk)、Blu-ray Disc等のストレージの大容量化に伴って、デジタルコンテンツを著作権者やコンテンツプロバイダの許諾を得ずに、ネットワークを介して容易に共有、公開できるようになってきており、このような不正な共有、公開が問題となっている。このような問題に対して、デジタルコンテンツの指紋(特徴量)を利用して、複数のデジタルコンテンツの中から、著作権者が自由配布を許諾していない特定のコンテンツを自動的に検出する技術が提案されている。
特許文献1では、三次元周波数解析と主成分分析を用いて、コンテンツの特徴量を記述し、特定のコンテンツを検出している。この手法では、空間周波数解析(DCT)で得られた係数に時間軸方向への周波数解析(FFT)を加えた三次元周波数解析を行ない、さらに主成分分析により三次元周波数解析で得られた係数から特徴量を抽出している。特許文献2では、特許文献1で利用されている特徴量を用いて、流通コンテンツと類似している特定コンテンツを絞り込み、絞り込めない場合には、位相限定相関法を用いて流通コンテンツと最も類似している特定コンテンツを決定し、閾値によって同一コンテンツであるか否かを判定している。
また、非特許文献1ではまず、映像から隣接フレームの輝度値の平均絶対誤差(Motion intensity)を求め、その平均絶対誤差が極値を取るフレームをキーフレームとする。次に各キーフレームからHarris detectorによってコーナーと呼ばれる特徴点を検出し、その周辺からGaussian derivativeを用いて特徴量を抽出する。その後、各特徴量とデータベースとのマッチング、投票を行い、投票数が多いコンテンツを不正流通コンテンツとして検出している。この手法では映像に時間的な編集が行なわれた場合であっても、不正流通コンテンツを検出できるようにしている。
特開2005−18675号公報 特開2006−285907号公報 特開2007−134986号公報 特開2007−142633号公報
J.Law-To et al.,"Video Copy Detection:A Comparative Study,"in Proc.ACM CIVR’07,pp.371-378,2007. 「カラービデオ映像における自動索引付け法と物体探索法」、情報処理学会論文誌 Vol.33 No.4、(1992年4月)、長坂晃朗、田中譲著、社団法人情報処理学会発行 K.Mikolajczyk et al.,"A Comparison of Affine Region Detectors,"International Journal of Computer Vision,vol.65, no.1-2,pp.43-72,2005. D.G.Lowe,"Distinctive Image Features from Scale-Invariant Keypoints,"International Journal of Computer Vision,vol60,no2,pp.91-110,2004.
しかしながら、特許文献1、2で開示されている手法では、動画コンテンツ1つから1つの特徴量を抽出するため、例えば、動画コンテンツを分割する等の時間軸方向の編集が行われると検出ができなくなるという問題がある。一方、非特許文献1で開示されている手法では、下記の問題がある。まず、Motion intensityによってキーフレームを選択しているが、Motion intensityの極値がノイズに対して不安定であり、キーフレームがずれることによって精度が低下する問題がある。また、Motion intensityによって抽出されるキーフレームの数がシーンによって異なり、冗長なキーフレームが抽出されることにより処理時間が増加したり、逆にキーフレームが少なすぎて検出精度が低下したりする問題がある。さらに、抽出されるGaussian derivative特徴量は圧縮ノイズ等に比較的敏感であるため、このようなノイズが付加された場合には精度が低下する問題がある。
本発明は、このような事情に鑑みてなされたものであり、時間軸上の一部分を切り出した動画コンテンツ、全体が圧縮ノイズなどによって劣化した動画コンテンツなど従来は正確に識別(検出)できなかった動画コンテンツを、正確に識別することができる技術を提供することを目的とする。
上記問題を解決するために、本発明の一態様である特徴量算出装置は、コンテンツを取得するコンテンツ取得部と、コンテンツ取得部によって取得されたコンテンツから瞬時カット点を検出し、瞬時カット点を基準にコンテンツから2枚のフレームをキーフレームとして抽出するキーフレーム抽出部と、キーフレーム抽出部によって抽出された2枚のキーフレームから特徴量算出対象領域を抽出する特徴量算出対象領域抽出部と、特徴量算出対象領域抽出部によって抽出された特徴量算出対象領域から特徴量を算出する特徴量算出部とを備えることを特徴とする。
上記特徴量算出装置において、キーフレーム抽出部は、瞬時カット点の前後のフレームを2枚のキーフレームとして抽出するようにしてもよい。
上記特徴量算出装置において、特徴量算出対象領域抽出部は、2枚のキーフレーム全体を特徴量算出対象領域として抽出するようにしてもよい。
上記特徴量算出装置において、特徴量算出対象領域抽出部は、2枚のキーフレームそれぞれから独立に特徴量算出対象領域を抽出するようにしてもよい。
上記特徴量算出装置において、特徴量算出対象領域抽出部は、2枚のキーフレームの一方のキーフレームの特徴量算出対象領域として、一方のキーフレームから特徴領域を抽出するとともに、一方のキーフレームから抽出した特徴領域に基づいて、2枚のキーフレームの他方のキーフレームの特徴量算出対象領域を他方のキーフレームから抽出するようにしてもよい。
上記特徴量算出装置において、特徴量算出対象領域抽出部は、2枚のキーフレームの各キーフレームから、特徴量算出対象領域として特徴領域をそれぞれ抽出するとともに他方のキーフレームから抽出した特徴領域に基づいて更に特徴量算出対象領域を抽出するようにしてもよい。
上記特徴量算出装置において、特徴量算出対象領域抽出部は、2枚のキーフレームの一のキーフレームから抽出した特徴領域と同一位置の領域を2枚のキーフレームの他のキーフレームの特徴量算出対象領域として抽出するようにしてもよい。
上記特徴量算出装置において、特徴量算出部は、2枚のキーフレームの一方のキーフレームの特徴量算出対象領域の輝度勾配ヒストグラムに基づいて主軸を決定し、主軸に基づいて2枚のキーフレームの特徴量算出対象領域から特徴量を算出するようにしてもよい。
上記特徴量算出装置において、特徴量算出部は、2枚のキーフレームの各キーフレームの特徴量算出対象領域の輝度勾配ヒストグラムに基づいて各主軸を決定し、各主軸に基づいて2枚のキーフレームの特徴量算出対象領域から特徴量を算出するようにしてもよい。
上記特徴量算出装置において、特徴量算出部は、各主軸がなす角度を特徴量として算出するようにしてもよい。
上記特徴量算出装置において、特徴量算出部は、主軸に直交する方向の輝度勾配ヒストグラムに基づき特徴量算出対象領域を反転するか否かを判断し反転すると判断した場合に、反転後の特徴量算出対象領域から特徴量を算出するようにしてもよい。
上記特徴量算出装置において、特徴量算出部は、各主軸がなす角度に基づき特徴量算出対象領域を反転するか否かを判断し反転すると判断した場合に、反転後の特徴量算出対象領域から特徴量を算出するようにしてもよい。
上記問題を解決するために、本発明の一態様であるプログラムは、特徴量を算出する特徴量算出装置のコンピュータに、コンテンツを取得するコンテンツ取得ステップと、コンテンツ取得部ステップによって取得されたコンテンツから瞬時カット点を検出し、瞬時カット点を基準にコンテンツから2枚のフレームをキーフレームとして抽出するキーフレーム抽出ステップと、キーフレーム抽出ステップによって抽出された2枚のキーフレームから特徴量算出対象領域を抽出する特徴量算出対象領域抽出ステップと、特徴量算出対象領域抽出ステップによって抽出された特徴量算出対象領域から特徴量を算出する特徴量算出ステップとを実行させることを特徴とする。
本発明によれば、時間軸上の一部分を切り出した動画コンテンツ、全体が圧縮ノイズなどによって劣化した動画コンテンツなど従来は正確に識別(検出)できなかった動画コンテンツを、正確に識別することができるようになる。
特徴量算出装置1の機能ブロック図の一例である。 コンテンツ取得部10、キーフレーム検出部20、特徴量算出対象領域抽出部30および特徴量算出部40の動作の一例を示すフローチャートである。 特徴量算出対象領域抽出部30および特徴量算出部40の処理を説明するための説明図である。
以下、本発明の一実施形態について図面を参照して説明する。なお、以下の説明において、図面中の文字は、下記の置き換え表に従って置き換えて記載する。
Figure 2010263327
本発明の一実施形態による特徴量算出装置1は、コンテンツ(マルチメディアコンテンツ、動画データ、動画コンテンツとも称する)からコンテンツの識別、認識、検索などに適用する、当該コンテンツ特有の特徴量を抽出する。特徴量算出装置1は、図1に示すように、コンテンツ取得部10、キーフレーム検出部20、特徴量算出対象領域抽出部30、特徴量算出部40を備える。
コンテンツ取得部10は、外部からコンテンツを取得(入力)する。コンテンツ取得部10は、コンテンツを取得した場合、当該コンテンツの映像信号をキーフレーム検出部20に供給する。
より詳細には、図2(a)に示すように、コンテンツ取得部10は、取得コンテンツが映像信号に他の信号(例えば、音声信号、データ信号)が多重化されているコンテンツであるか否かを判断する(ステップS10)。コンテンツ取得部10は、多重化されているコンテンツであると判断した場合(ステップS10:Yes)、当該コンテンツの映像信号のみを逆多重化する(ステップS11)。一方、コンテンツ取得部10は、多重化されているコンテンツでないと判断した場合(ステップS10:No)、ステップS10を省略する。コンテンツ取得部10は、映像信号をキーフレーム検出部20に供給する。
キーフレーム抽出部20は、コンテンツ取得部10から取得したコンテンツ(映像信号)から映像中のショットの切り替わり点(以下、「瞬時カット点」という)を検出し、各瞬時カット点を基準に瞬時カット点毎に2枚のフレームをキーフレームとしてコンテンツから抽出する。例えば、キーフレーム抽出部20は、各瞬時カット点の直前、直後の隣接する2枚のフレーム(以下、「隣接ペアフレーム」とも称する)をキーフレームとして抽出する。キーフレーム抽出部20は、各瞬時カット点から抽出した2枚のキーフレーム(以下、「キーフレームペア」とも称する)を特徴量算出対象領域抽出部30に供給する。
より詳細には、図2(b)に示すように、キーフレーム抽出部20は、取得コンテンツ(映像信号)を解析し、瞬時カット点を検出する(ステップS20)。なお、キーフレーム抽出部20は、相互に著しく異なる画像特徴を有する隣接するフレーム同士を検出することによって、瞬時カット点を検出する。換言すれば、キーフレーム抽出部20は、隣接プレームペアを構成する各フレーム同士が相互に著しく異なる画像特徴を有するような点を瞬時カット点として検出する。例えば、キーフレーム抽出部20は、特許文献3、4、非特許文献2のような手法を利用する。瞬時カット点を検出したキーフレーム抽出部20は、各瞬時カット点の隣接ペアフレームをキーフレームペアとして抽出し(ステップS21)、特徴量算出対象領域抽出部30に供給する。
なお、キーフレーム抽出部20は、隣接ペアフレームに代えて、所定枚数離れた2枚のフレームをキーフレームペアとして抽出してもよい。例えば、隣接プレームペアを構成する各フレームがf番目、f+1番目のフレームであるとき、f−K番目、f+K+1番目のフレーム(Kは非負整数)をキーフレームペアとして抽出してもよい。なお、キーフレーム抽出部20は、キーフレームペアとして、隣接フレームペアを抽出するか否かに関わらず、f番目のフレームの時刻情報を特徴量算出対象領域抽出部30に供給する。
特徴量算出対象領域抽出部30は、キーフレーム抽出部20によって抽出された2枚のキーフレーム(キーフレームペア)から特徴量を算出する対象の領域(以下、「特徴量算出対象領域」という)を抽出する。
例えば、特徴量算出対象領域抽出部30は、2枚のキーフレームのそれぞれ(キーフレームペアを構成する各キーフレーム)から独立に特徴量算出対象領域として、特徴領域を抽出する。
また、特徴量算出対象領域抽出部30は、2枚のキーフレーム全体を特徴量算出対象領域として抽出してもよい。即ち、キーフレームペアを構成する各キーフレームについて、キーフレーム全体を特徴量算出対象領域として取り扱ってもよい。
また、特徴量算出対象領域抽出部30は、2枚のキーフレームの一方のキーフレーム(キーフレームペアを構成する一方のキーフレーム)の特徴量算出対象領域として、当該一方のキーフレームから特徴領域を抽出するとともに、当該一方のキーフレームから抽出した特徴領域に基づいて、当該2枚のキーフレームの他方のキーフレーム(当該キーフレームペアを構成する他方のキーフレーム)の特徴量算出対象領域を他方のキーフレームから抽出してもよい。
また、特徴量算出対象領域抽出部30は、2枚のキーフレーム(キーフレームペア)の各キーフレーム(キーフレームペアを構成する自キーフレーム)から、特徴量算出対象領域として特徴領域をそれぞれ抽出するとともに、2枚のキーフレーム(キーフレームペア)の各キーフレーム(キーフレームペアを構成する自キーフレーム)から、他方のキーフレーム(当該キーフレームペアを構成する他キーフレーム)から抽出した特徴領域に基づいて更に特徴量算出対象領域を抽出してもよい。
なお、特徴量算出対象領域抽出部30は、2枚のキーフレームの一のキーフレーム(キーフレームペアを構成する一のキーフレーム)から抽出した特徴領域と同一位置の領域を、当該2枚のキーフレームの他のキーフレーム(当該キーフレームペアを構成する他キーフレーム)の特徴量算出対象領域として抽出する。但し、特徴量算出対象領域抽出部30は、一のキーフレームから抽出した特徴領域と同一位置の領域を他のキーフレームの特徴量算出対象領域として抽出することに代えて、所定の座標変換式(例えば、平行移動)を利用して、一のキーフレームから抽出した特徴領域を座標変換した領域を他のキーフレームの特徴量算出対象領域として抽出してもよい。
特徴量算出対象領域抽出部30は、抽出した特徴量算出対象領域を特徴量算出部40に供給する。なお、上記特徴量算出対象領域は1ピクセル以上であればよい。即ち、1ピクセルである特徴量算出対象点も上記特徴量算出対象領域である。特徴領域に関しても同様である。
なお、特徴量算出対象領域抽出部30は、抽出した特徴量算出対象領域の中から特徴量を算出すべきでない領域を判別し、特徴量を算出すべき特徴量算出対象領域のみを特徴量算出対象領域を特徴量算出部40に供給してもよい。
以下、特徴量算出対象領域抽出部30による、2枚のキーフレームの各キーフレームから、特徴量算出対象領域として特徴領域をそれぞれ抽出するとともに、2枚のキーフレームの各キーフレームから、他方のキーフレームから抽出した特徴領域に基づいて更に特徴量算出対象領域を抽出する処理、および、抽出後の特徴量算出対象領域の中から特徴量を算出すべきでない領域を判別する処理の詳細を説明する。
特徴量算出対象領域抽出部30は、キーフレーム抽出部20から取得した全キーフレームペアを対象に以下の処理を行う。なお、キーフレームI 、キーフレームI は、t番目のキーフレームペアを構成する各キーフレームである。
特徴量算出対象領域抽出部30は、図2(c)に示すように、キーフレームI 、I のそれぞれから特徴領域を複数抽出する(ステップS30)。抽出する特徴領域はスケールおよび回転に不変で、アフィン変換にロバストな領域が望ましいが、目的によってはそのようなロバスト性は必要ない場合もある。アフィン変換にロバストな領域の抽出法としては、例えば、非特許文献3、4のような手法が利用可能である。アフィン変換へのロバスト性が求められないような場合では、単純に、Harrisオペレータ等の特徴点検出手法を利用して、その点の周辺領域を固定サイズの円(楕円)や正方形(長方形)で記述してもよい。上述の如く、特徴点を特徴領域として算出してもよい。
特徴領域抽出の結果、キーフレームI 、I からそれぞれN個およびM個の特徴領域が抽出されたとする。キーフレームI から抽出された領域を領域R [1]、領域R [2]、・・・、領域R [N]とすると、各領域R [i](1≦i≦N)に対応するキーフレームI における同一領域R [i]を抽出し、これらの領域のペアをt番目のキーフレームペアの特徴量算出対象領域R[i]とする。同様に、キーフレームI から抽出された領域を領域R [N+1]、領域R [N+2]、・・・、領域R [N+M]とすると、各領域R [i](N+1≦i≦N+M)に対応するキーフレームI における同一領域R [i]を抽出し、これらの領域のペアをt番目のキーフレームペアの特徴量算出対象領域R[i]とする。以上の処理により、図3(a)に示すように、t番目のキーフレームペアにはN+M個の特徴量算出対象領域R[i](1≦i≦N+M)が抽出される。
続いて、特徴量算出対象領域抽出部30は、各特徴量算出対象領域R[i]から特徴量を算出すべきか否かを判断する(ステップS31)。特徴領域として抽出した特徴量算出対象領域R [i](1≦i≦N)および特徴量算出対象領域R [i](N+1≦i≦N+M)は、一般にエッジやblobを含むため、当該特徴量算出対象領域から特徴量を抽出してもよいが、特徴量算出対象領域R [i](1≦i≦N)および特徴量算出対象領域R [i](N+1≦i≦N+M)は、特徴量算出対象領域R [i](1≦i≦N)および特徴量算出対象領域R [i](N+1≦i≦N+M)に対応する領域として単に抽出されたものに過ぎずエッジやblobを含むとは限らないからである。即ち、特徴量算出対象領域R [i](1≦i≦N)および特徴量算出対象領域R [i](N+1≦i≦N+M)は、領域全体が輝度の変動(分散)が少ない平坦領域である可能性がある。即ち、特徴量算出対象領域抽出部30は、特徴量算出対象領域の領域内の輝度の分散に基づいて、当該特徴量算出対象領域が平坦領域であるか否かを判断することによって、当該特徴量算出対象領域から特徴量を算出すべきか否かを判断する。特徴量算出対象領域抽出部30は、当該特徴量算出対象領域から特徴量を算出すべきでないと判断した場合(ステップS31:No)、当該特徴量算出対象領域を特徴量算出部40に供給する対象から除外する(ステップS32)。例えば、特徴量算出対象領域抽出部30は、ステップS30によって抽出した特徴量算出対象領域を全て記憶している一時領域から当該特徴量算出対象領域を消去する。
また、特徴量算出対象領域R [i]および特徴量算出対象領域R [i]が同一の特徴を示す場合がある。例えば、瞬時カットが画面内の一部分の変化によって検出される場合等に生じる。このような場合、特徴量ベクトルが強い相関を有し、特徴量を算出する領域を増やすメリットが薄れるため、このような領域からも特徴量を算出しないようにしてもよい。例えば、特徴量算出対象領域抽出部30は、特徴量算出対象領域R [i]および特徴量算出対象領域R [i]の輝度の平均絶対誤差(MAE)を算出し、平均絶対誤差が所定の閾値以下の場合、特徴量算出対象領域R [i]および特徴量算出対象領域R [i]が相互に似ていると判断し、当該特徴量算出対象領域の少なくとも一方を特徴量算出部40に供給する対象から除外する。
特徴量算出部40は、特徴量算出対象領域抽出部30によって抽出された特徴量算出対象領域から特徴量を算出する。具体的には、特徴量算出部40は、2枚のキーフレームの一方のキーフレームの特徴量算出対象領域の輝度勾配ヒストグラムに基づいて主軸を決定し、当該主軸に基づいて当該2枚のキーフレームの特徴量算出対象領域から特徴量を算出する。
また、特徴量算出部40は、2枚のキーフレームの各キーフレームの特徴量算出対象領域の輝度勾配ヒストグラムに基づいて各主軸を決定し、各主軸に基づいて当該2枚のキーフレームの特徴量算出対象領域から特徴量を算出してもよい。なお、特徴量算出部40は、各主軸がなす角度を特徴量として算出してもよい(特徴量とし角度のみを算出してもよいし、複数の特徴量の1つとして角度を算出してもよい)。
なお、特徴量算出部40は、主軸に直交する方向の輝度勾配ヒストグラムに基づき特徴量算出対象領域を反転するか否かを判断し反転すると判断した場合に、反転後の特徴量算出対象領域から特徴量を算出してもよい。また、特徴量算出部40は、各主軸がなす角度に基づき特徴量算出対象領域を反転するか否かを判断し反転すると判断した場合に、反転後の特徴量算出対象領域から特徴量を算出してもよい。
より詳細には、図2(d)に示すように、特徴量算出部40は、例えば、特徴量算出対象領域抽出部30から取得した特徴量算出対象領域から特徴量ベクトルを抽出する。特徴量としては、例えばMPEG-7で公開されているdominant color、scalable color、color structure、color layout、edge histogram、contour shape等が利用できる。回転、コントラストの変化、輝度のシフト等にロバストな特徴量として非特許文献4で利用されているHOG(histogram of oriented gradient)を利用してもよい。
以下、特徴量算出部40による特徴量の算出処理を、図3(b)を参照し更に説明する。図3(b)は、領域検出に非特許文献4で提案されているHarris-Affine detectorが利用され、特徴量の記述に非特許文献4で利用されているHOGを利用した場合の特徴量の算出処理例である。なお、1≦i≦Nのであるものとする。
まず、特徴量算出部40は、特徴量算出対象領域R [i]および特徴量算出対象領域R [i]を正円化する(ステップS40)。特徴量算出部40は、非特許文献4で行われているように、輝度勾配ヒストグラムを基に特徴量を記述する為の主軸を決定する(ステップS41)。具体的には、特徴量算出部40は、特徴量算出対象領域R [i]および特徴量算出対象領域R [i]のうち、特徴領域として抽出された特徴量算出対象領域(1≦i≦Nであれば特徴量算出対象領域R [i]、N+1≦i≦N+Mであれば特徴量算出対象領域R [i])を対象として、対象とした特徴量算出対象領域から主軸を決定する。なお、特徴量算出部40は、常に、特徴量算出対象領域R [i]または特徴量算出対象領域R [i]の何れか一方を対象としてもよい。また、特徴量算出部40は、常に、特徴量算出対象領域R [i]および特徴量算出対象領域R [i]の双方を対象としてもよい。
主軸を決定した特徴量算出部40は、主軸に沿って固定ブロック数(図3(b)では4×4)で構成されるパッチが作成され、HOG特徴量が抽出される(ステップS42)。また、主軸を基準として、−π<θ<0および0<θ<πとなる方向の輝度勾配ヒストグラム度数の合計をHおよびHとすると、常にH>Hとなるように特徴量算出対象領域R [i]およびR [i]を反転させた後にパッチを作成することで、鏡像に不変な特徴量算出対象領域を用いてもよい。
なお、パッチが作成されると、非特許文献4では、4×4のブロックからそれぞれ8次元ベクトルが抽出されるため、合計128次元の特徴ベクトルが作成される。本実施形態では、同様に、特徴量算出対象領域R [i]および特徴量算出対象領域R [i]から128次元の特徴ベクトルが抽出されるため、256次元の特徴ベクトルが作成される。特徴ベクトルの次元が高くなると、特徴量の蓄積コスト及び探索コストが増加することが懸念される場合がある。そのような場合には、パッチを3×3より少ないブロック数としてもよい。3×3の場合には、144次元の特徴ベクトルとなる。これは従来の特徴ベクトルの次元とほとんど変わらないが、パッチの各ブロックのサイズが大きいため、より位置ずれ、回転、その他のノイズにロバストになる。
図3(c)は、特徴量算出部40が特徴量算出対象領域R [i]および特徴量算出対象領域R [i]の両方から主軸を決定する場合の例である。この場合、特徴量算出部40は、特徴量算出対象領域R [i]および特徴量算出対象領域R [i]において個別に特徴ベクトルを作成する。
なお、特徴量算出部40は、特徴量算出対象領域R [i]の主軸と特徴量算出対象領域R [i]の主軸のなす角度(主軸同士の角度差)θ(−π≦θ<π)を特徴ベクトルとしてもよい。なお、抽出した特徴ベクトルをマッチングするような際には、近い角度差θに絞ってマッチングし、或いは、角度差θによってマッチングデータを格納するデータベースを分類するなどの態様が可能になるため、コンテンツの識別、認識、検索などの処理速度が向上する。
また、特徴量算出部40は、上記角度差θが常に0<θ<πとなるように特徴量算出対象領域R [i]や特徴量算出対象領域R [i]を反転させて、反転後の特徴量算出対象領域から特徴ベクトルを算出してもよい。反転後の特徴量算出対象領域から特徴ベクトルを算出することによって、鏡像に不変(ロバスト)な特徴量を算出することができるようになる。
以上、特徴量算出装置1によれば、時間軸上の一部分を切り出した動画コンテンツ、全体が圧縮ノイズなどによって劣化した動画コンテンツなど従来は正確に識別(検出)できなかった動画コンテンツを、正確に識別することができるようになる。
なお、本発明の一実施形態による特徴量算出装置1の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、本発明の一実施形態による特徴量算出装置1の各処理に係る上述した種々の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
1 特徴量算出装置 10 コンテンツ取得部 20 キーフレーム検出部 30 特徴量算出対象領域抽出部 40 特徴量算出部

Claims (13)

  1. コンテンツを取得するコンテンツ取得部と、
    前記コンテンツ取得部によって取得されたコンテンツから瞬時カット点を検出し、前記瞬時カット点を基準に前記コンテンツから2枚のフレームをキーフレームとして抽出するキーフレーム抽出部と、
    前記キーフレーム抽出部によって抽出された前記2枚のキーフレームから特徴量算出対象領域を抽出する特徴量算出対象領域抽出部と、
    前記特徴量算出対象領域抽出部によって抽出された前記特徴量算出対象領域から特徴量を算出する特徴量算出部と
    を備えることを特徴とする特徴量算出装置。
  2. 前記キーフレーム抽出部は、
    前記瞬時カット点の前後のフレームを前記2枚のキーフレームとして抽出する
    ことを特徴とする請求項1に記載の特徴量算出装置。
  3. 前記特徴量算出対象領域抽出部は、
    前記2枚のキーフレーム全体を特徴量算出対象領域として抽出する
    ことを特徴とする請求項1または請求項2の何れか1項に記載の特徴量算出装置。
  4. 前記特徴量算出対象領域抽出部は、
    前記2枚のキーフレームそれぞれから独立に前記特徴量算出対象領域を抽出する
    ことを特徴とする請求項1または請求項2の何れか1項に記載の特徴量算出装置。
  5. 前記特徴量算出対象領域抽出部は、
    前記2枚のキーフレームの一方のキーフレームの前記特徴量算出対象領域として、前記一方のキーフレームから特徴領域を抽出するとともに、
    前記一方のキーフレームから抽出した特徴領域に基づいて、前記2枚のキーフレームの他方のキーフレームの前記特徴量算出対象領域を前記他方のキーフレームから抽出する
    ことを特徴とする請求項1または請求項2の何れか1項に記載の特徴量算出装置。
  6. 前記特徴量算出対象領域抽出部は、
    前記2枚のキーフレームの各キーフレームから、前記特徴量算出対象領域として特徴領域をそれぞれ抽出するとともに他方のキーフレームから抽出した特徴領域に基づいて更に前記特徴量算出対象領域を抽出する
    ことを特徴とする請求項1または請求項2の何れか1項に記載の特徴量算出装置。
  7. 前記特徴量算出対象領域抽出部は、
    前記2枚のキーフレームの一のキーフレームから抽出した特徴領域と同一位置の領域を前記2枚のキーフレームの他のキーフレームの前記特徴量算出対象領域として抽出する
    ことを特徴とする請求項5または請求項6の何れか1項に記載の特徴量算出装置。
  8. 前記特徴量算出部は、
    前記2枚のキーフレームの一方のキーフレームの前記特徴量算出対象領域の輝度勾配ヒストグラムに基づいて主軸を決定し、前記主軸に基づいて前記2枚のキーフレームの前記特徴量算出対象領域から特徴量を算出する
    ことを特徴とする請求項1から請求項7の何れか1項に記載の特徴量算出装置。
  9. 前記特徴量算出部は、
    前記2枚のキーフレームの各キーフレームの前記特徴量算出対象領域の輝度勾配ヒストグラムに基づいて各主軸を決定し、前記各主軸に基づいて前記2枚のキーフレームの前記特徴量算出対象領域から特徴量を算出する
    ことを特徴とする請求項1から請求項7の何れか1項に記載の特徴量算出装置。
  10. 前記特徴量算出部は、
    前記各主軸がなす角度を特徴量として算出する
    ことを特徴とする請求項9に記載の特徴量算出装置。
  11. 前記特徴量算出部は、
    前記主軸に直交する方向の輝度勾配ヒストグラムに基づき前記特徴量算出対象領域を反転するか否かを判断し反転すると判断した場合に、反転後の前記特徴量算出対象領域から特徴量を算出する
    ことを特徴とする請求項8から請求項10に記載の特徴量算出装置。
  12. 前記特徴量算出部は、
    前記各主軸がなす角度に基づき前記特徴量算出対象領域を反転するか否かを判断し反転すると判断した場合に、反転後の前記特徴量算出対象領域から特徴量を算出する
    ことを特徴とする請求項9または請求項10の何れか1項に記載の特徴量算出装置。
  13. 特徴量を抽出する特徴量算出装置のコンピュータに、
    コンテンツを取得するコンテンツ取得ステップと、
    前記コンテンツ取得部ステップによって取得されたコンテンツから瞬時カット点を検出し、前記瞬時カット点を基準に前記コンテンツから2枚のフレームをキーフレームとして抽出するキーフレーム抽出ステップと、
    前記キーフレーム抽出ステップによって抽出された前記2枚のキーフレームから特徴量算出対象領域を抽出する特徴量算出対象領域抽出ステップと、
    前記特徴量算出対象領域抽出ステップによって抽出された前記特徴量算出対象領域から特徴量を算出する特徴量算出ステップと
    を実行させることを特徴とするプログラム。
JP2009111479A 2009-04-30 2009-04-30 特徴量算出装置およびプログラム Pending JP2010263327A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009111479A JP2010263327A (ja) 2009-04-30 2009-04-30 特徴量算出装置およびプログラム
US12/762,696 US20100278434A1 (en) 2009-04-30 2010-04-19 Feature vector computation apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009111479A JP2010263327A (ja) 2009-04-30 2009-04-30 特徴量算出装置およびプログラム

Publications (1)

Publication Number Publication Date
JP2010263327A true JP2010263327A (ja) 2010-11-18

Family

ID=43030391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009111479A Pending JP2010263327A (ja) 2009-04-30 2009-04-30 特徴量算出装置およびプログラム

Country Status (2)

Country Link
US (1) US20100278434A1 (ja)
JP (1) JP2010263327A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012174117A (ja) * 2011-02-23 2012-09-10 Denso Corp 移動体検出装置
JP2012252621A (ja) * 2011-06-06 2012-12-20 Meidensha Corp 画像特徴量抽出装置及びこれを用いた画像処理によるマーカ検出装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11256923B2 (en) * 2016-05-12 2022-02-22 Arris Enterprises Llc Detecting sentinel frames in video delivery using a pattern analysis

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002271795A (ja) * 2001-03-08 2002-09-20 Monolith Co Ltd 画像符号化方法と装置および画像復号方法と装置
JP2003298983A (ja) * 2003-05-16 2003-10-17 Matsushita Electric Ind Co Ltd 代表画像生成装置
JP2006217045A (ja) * 2005-02-01 2006-08-17 Olympus Corp インデックス画像生成装置及びインデックス画像を生成するプログラム
JP2007306559A (ja) * 2007-05-02 2007-11-22 Mitsubishi Electric Corp 画像特徴符号化方法及び画像検索方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6892193B2 (en) * 2001-05-10 2005-05-10 International Business Machines Corporation Method and apparatus for inducing classifiers for multimedia based on unified representation of features reflecting disparate modalities

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002271795A (ja) * 2001-03-08 2002-09-20 Monolith Co Ltd 画像符号化方法と装置および画像復号方法と装置
JP2003298983A (ja) * 2003-05-16 2003-10-17 Matsushita Electric Ind Co Ltd 代表画像生成装置
JP2006217045A (ja) * 2005-02-01 2006-08-17 Olympus Corp インデックス画像生成装置及びインデックス画像を生成するプログラム
JP2007306559A (ja) * 2007-05-02 2007-11-22 Mitsubishi Electric Corp 画像特徴符号化方法及び画像検索方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG199800756011; 長坂 晃朗、外2名: '"カットの時系列コーディングに基づく映像シーンの実時間識別法"' 電子情報通信学会論文誌 Vol.J79-D-II, No.4, 19960425, p.531-537, 社団法人電子情報通信学会 *
CSNG200701147018; 藤吉 弘亘: '"Gradientベースの特徴抽出 -SIFTとHOG-"' 情報処理学会研究報告 Vol.2007, No.87, 20070903, p.211-224, 社団法人情報処理学会 *
JPN6013036359; 藤吉 弘亘: '"Gradientベースの特徴抽出 -SIFTとHOG-"' 情報処理学会研究報告 Vol.2007, No.87, 20070903, p.211-224, 社団法人情報処理学会 *
JPN6013036360; 長坂 晃朗、外2名: '"カットの時系列コーディングに基づく映像シーンの実時間識別法"' 電子情報通信学会論文誌 Vol.J79-D-II, No.4, 19960425, p.531-537, 社団法人電子情報通信学会 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012174117A (ja) * 2011-02-23 2012-09-10 Denso Corp 移動体検出装置
JP2012252621A (ja) * 2011-06-06 2012-12-20 Meidensha Corp 画像特徴量抽出装置及びこれを用いた画像処理によるマーカ検出装置

Also Published As

Publication number Publication date
US20100278434A1 (en) 2010-11-04

Similar Documents

Publication Publication Date Title
Zheng et al. Fusion of block and keypoints based approaches for effective copy-move image forgery detection
US8934734B1 (en) Video identification through detection of proprietary rights logos in media
US8879894B2 (en) Pixel analysis and frame alignment for background frames
EP2915138B1 (en) Systems and methods of merging multiple maps for computer vision based tracking
US9183458B2 (en) Parameter selection and coarse localization of interest regions for MSER processing
JP5878238B2 (ja) 映像を比較するための方法および装置
US10990829B2 (en) Stitching maps generated using simultaneous localization and mapping
US20090290752A1 (en) Method for producing video signatures and identifying video clips
Küçüktunç et al. Video copy detection using multiple visual cues and MPEG-7 descriptors
US10235572B2 (en) Detecting changes in 3D scenes
US8660302B2 (en) Apparatus and method for tracking target
FI126909B (fi) Tekniikoita videokopioiden havaitsemiseksi
US9105101B2 (en) Image tracking device and image tracking method thereof
WO2016036591A1 (en) A method for selecting frames from video sequences based on incremental improvement
Lian et al. Content-based video copy detection–a survey
Kim et al. Adaptive weighted fusion with new spatial and temporal fingerprints for improved video copy detection
Luostarinen et al. Measuring the accuracy of automatic shoeprint recognition methods
JP2010263327A (ja) 特徴量算出装置およびプログラム
Cozzolino et al. PRNU-based forgery localization in a blind scenario
Sharma et al. Video interframe forgery detection: Classification, technique & new dataset
JP2010186307A (ja) 動画コンテンツ識別装置および動画コンテンツ識別方法
US10853972B2 (en) Apparatus for processing image and method thereof
Yakut et al. Ice-hockey puck detection and tracking for video highlighting
JP5297297B2 (ja) 動画コンテンツ検出装置
Liu et al. A novel robust video fingerprinting-watermarking hybrid scheme based on visual secret sharing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20120229

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130919

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140318