JP2014522065A - 映像を比較するための方法および装置 - Google Patents

映像を比較するための方法および装置 Download PDF

Info

Publication number
JP2014522065A
JP2014522065A JP2014525047A JP2014525047A JP2014522065A JP 2014522065 A JP2014522065 A JP 2014522065A JP 2014525047 A JP2014525047 A JP 2014525047A JP 2014525047 A JP2014525047 A JP 2014525047A JP 2014522065 A JP2014522065 A JP 2014522065A
Authority
JP
Japan
Prior art keywords
video
time series
values
frame
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014525047A
Other languages
English (en)
Other versions
JP5878238B2 (ja
Inventor
ジャン,ジョン・アール
レン,イエンソン
チャン,ファンジョー
ウッド,トーマス・エル
Original Assignee
アルカテル−ルーセント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルカテル−ルーセント filed Critical アルカテル−ルーセント
Publication of JP2014522065A publication Critical patent/JP2014522065A/ja
Application granted granted Critical
Publication of JP5878238B2 publication Critical patent/JP5878238B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

映像を比較するための方法が、映像の複数のフレームにおいて局所的特徴を検出することと、第1のフレームにおいて検出された局所的特徴の位置を、後続の第2のフレームにおけるそのそれぞれの位置と比較して判定することとを含む。検出された局所的特徴の少なくとも一部について、第2のフレームにおける局所的特徴の位置に対する第1のフレームにおけるその局所的特徴の位置を表す、向きを含む動き指標を生成して複数の動き指標を取得する。動き指標は、向き範囲によってグループ分けされる。ある向き範囲のグループ分けされた動き指標の数は合計されて、その向き範囲に対する値が得られる。フレームの複数のペアについて、第1のフレームにおける検出された局所的特徴の位置を、後続の第2のフレームにおけるそのそれぞれの位置と比較して判定することによって、少なくとも1つの所与の向き範囲に対する値の時系列が取得される。少なくとも1つの向き範囲について、第1の映像に対する値の第1の時系列を、第2の映像に対する値の第2の時系列と比較して、第1の映像と第2の映像の類似性を判定する。

Description

本発明は、映像を比較するための方法および装置に関する。
例えば、YouTube(登録商標)、Google VideoおよびYahoo! Videoのような動画共有ウェブサイトでは、ユーザが映像コンテンツをサイトにアップロードして、検索エンジンを介して他者に利用できるようにすることができる。統計によれば、例えば最も人気のある動画共有サイトの1つであるYouTubeでは、24時間、いつでも映像がアップロードされ、現在一日に約20億の閲覧がある。ソーシャルネットワーキングサイトの人気が高まることにより、ユーザが映像を取得し、例えばロゴまたは注釈を追加するなどによって映像を編集し、変更した映像を同じ動画共有ウェブサイトまたは他の場所にアップロードすることがいっそう容易になっている。この結果、潜在的に、ある映像の多くの類似のまたは同一のコピーが同じサイトで共有されることとなり、ユーザが実際に欲しいコンテンツを見つけることを不便にし、映像を格納し、提供するために必要とされるリソースを増大させている。
映像は、ユーザによって映像の全体的な内容および主観的印象に基づいて、「本質的に同じもの」または複製(duplicate)であるとみなされる可能性がある。例えば、複製映像コンテンツは、同一のまたはほぼ同一の内容を有する映像の配列を含む可能性があるが、これらは異なるファイル形式である、異なる符号化パラメータを有する、および/または異なる長さである。他の違いは、色および/または照明の変化のような光度の変形、ならびに/あるいは、見出し、ロゴ、および/または境界の追加または変更、および/またはフレームのサイズ変更および切り取りのような、空間および/または時間領域における小さな編集操作である場合がある。これらの例は、網羅的なリストとなることを意図しておらず、他のタイプの違いも存在する可能性がある。したがって、映像のコピーが、様々な歪み、変更、および元の映像からのフォーマット変換を含み、やはり元の映像の複製とみなされる可能性がある。
複製映像の増殖により、ユーザが実際に欲しいコンテンツを発見することが困難または不便になる可能性がある。一例として、YouTube、Google VideoおよびYahoo! Videoからのサンプルクエリに基づくと、平均して、27%より多くの準複製(near−duplicate video)映像が検索結果にリストアップされることがわかり、人気のある映像が結果として最も複製される映像となっている。検索結果に高いパーセンテージの複製映像があることから、ユーザは、必要とする映像を探すためにかなりの時間を費やして映像を差し替えねばならず、既に見た映像の類似コピーを繰り返して見なければならない。複製の結果は、映像の検索、取り出し、および閲覧のユーザの体験を低下させる。さらに、このような複製された映像コンテンツが、ネットワーク全体に複製された映像データを格納し、送信することによって、ネットワークオーバヘッドを増大させる。
内容に基づくコピー検出(CBCD)手法により、クエリ映像のコピー(完全か類似)について映像のデータベースを検索することによって、映像内容に基づく検索が容易になる。CBCD手法の利用は、いくつかの点でユーザ、コンテンツ制作者もしくは所有者、およびネットワーク事業者にとって有益である可能性がある。例えば、複製映像を検出することによって、動画共有サイトは、格納された重複映像コピーの数を減らすことができ、ユーザは、準複製の結果を閲覧する必要がなくなれば、より良い映像検索体験を有することができ、著作権保持者は、その映像クリップの再使用をより容易に発見することができ、コンテンツ配信ネットワークは、他の場合はその存在を知られない可能性がある、近くの映像のコピーにユーザを導くことができる。
映像コピーの検出は、所与の映像が、ターゲットの映像中の部分列と知覚的に同様の部分列を含んでいるかどうかを判定する問題である。より正確には、クエリ映像Qおよびターゲット映像Tが共に一連の映像フレームとすると、複数のQと複数のTとの間の相違点がノイズ閾値未満である場合、映像Qが、ターゲット映像T中の複数のフレームTの部分列のコピーまたは準コピーである複数のフレームQの部分列を含む。両方の映像の長さに制限はない。クエリ映像Qが、ターゲット映像Tよりも長いまたは短い可能性がある。
様々な映像の特徴を識別し、これらにマッチング法を適用することに基づいて映像のコピーを発見するために、多様なCBCD技術が提案されてきた。動画共有ウェブサイトは、大規模なデータベースを含んでいることが多いので、このような大規模な映像データベースから映像の類似のまたは完全なコピーを見つけ、インターネットユーザにリアルタイムの応答を提供することは困難である。
映像コピーの検出は、2つのステップ、すなわち映像の特徴記述子の生成と、記述子のマッチングとに分けることができる。
映像の特徴は、大域記述子および局所記述子によって表すことができる。大域記述子は、順序尺度(ordinal measure)を含み、フレームの全領域から取得される。局所記述子は、Harris記述子またはスケール不変特徴変換(scale−invariant feature transform、SIFT)などであり、各フレームを領域に分割し、顕著な局所領域から特徴を抽出することによって、取得することができる。Harris記述子はまた、より具体的には「Harrisコーナー検出器」として知られ、画像勾配の固有値に基づいて画像中のコーナーを検出する。
局所的特徴は、例えば、各領域からの色、テクスチャ、コーナー、および/または形状の特徴、あるいは他の特徴を含むことができるが、これは非網羅的なリストである。一般的には、大域特徴記述子が、ストレージにおける計算および圧縮に効率的であるが、局所の変化に対してあまり堅牢ではない。局所的特徴記述子は、より堅牢であるが、計算的により費用がかかり、より多くのストレージ空間を必要とする。
本発明の第1の態様によれば、映像を比較するための方法が、映像の複数のフレームにおいて局所的特徴を検出することと、第1のフレームにおいて検出された局所的特徴の位置を、第2のフレームにおけるそのそれぞれの位置と比較して判定することとを含む。検出された局所的特徴の少なくとも一部について、第2のフレームにおける局所的特徴の位置に対する第1のフレームにおけるその局所的特徴の位置を表す、向きを含む動き指標が生成されて複数の動き指標を取得する。動き指標は、向き範囲によってグループ分けされる。ある向き範囲のグループ分けされた動き指標の数は合計されて、その向き範囲に対する値が得られる。フレームの複数のペアについて、第1のフレームにおける検出された局所的特徴の位置を、後続の第2のフレームにおけるそのそれぞれの位置と比較して判定することによって、少なくとも1つの所与の向き範囲に対する値の時系列が取得される。少なくとも1つの向き範囲について、第1の映像に対する値の第1の時系列を、第2の映像に対する値の第2の時系列と比較して、第1の映像と第2の映像の類似性を判定する。
本発明による一実施形態は、このように、方法が複製映像の検出に局所的特徴を使用するので、堅牢性(robustness)および示差性(distinctiveness)を提供することができる。さらに、本発明による一実施形態は、局所的特徴記述子に基づくこれまでに知られている手法と関連するものと比べて計算効率が良く、また必要とするストレージ空間が少ないので、比較的迅速な処理を提供することができる。
第1の映像および第2の映像全体を処理し、マッチングのチェックを行うことができるが、一部の実施形態では、映像の複数区間のみを使用して、これらの間に類似性があるかどうかを検出する。
一実施形態で局所的特徴を検出するために使用することができる、いくつかの異なる特徴検出器が利用できる。特徴検出器の例には、Harrisコーナー検出器、ORB、SIFT、FAST、Sobel、MSER、およびPCBRが含まれ、これらはエッジ、コーナー、ブロブ(blob)、またはいくつかの他の外観、または外観の組合せを検出することができる。いくつかの特徴検出器では、局所的特徴はキーポイントと呼ばれ、適切な場合には本明細書においてこの用語も使用される。試験においてFASTおよびORBが特に良い結果をもたらすことがわかった。
動き指標は、例えば、局所的特徴記述子を計算し、例えばSIFTまたはBRIEFまたはその他の好適なアルゴリズムを使用し、記述子マッチングを適用してフレームを越えて対応する局所的特徴を見つけることによって生成することができる。動きベクトルは、対応する特徴の位置から派生する。マッチが動きベクトルを生成する。したがって、例えばBRIEFを用いて、Hamming距離を使用して、BRIEF記述子をマッチングことができる。2つのマッチする特徴が見つかると、2つの特徴の相対位置によって形成されるベクトルから、向きは簡単に計算される。
1つの実施形態では、動き指標は、距離パラメータを含み、その距離パラメータが所与のサイズ範囲内である場合、動き指標は、向き範囲によるグループ分けに含まれ、その距離パラメータが上記の所与のサイズ範囲外である場合、動き指標は、向き範囲によるグループ分けに含まれない。例えば、ピクセルを使用して、動き指標の距離パラメータを特徴付ける場合、こうした動き指標が、3ピクセルから15ピクセルのサイズを有する動き指標がグループ分けに含まれ、残りはその後の処理から切り捨てられるように、上下の閾値を設定することができる。3ピクセルから15ピクセルのサイズは、使用する有効範囲として単に一例として言及している。しかしながら、この範囲を使用することは必須ではなく、限定的であることを意図していない。距離パラメータの適切な上下の閾値を設定することによって、誤ったマッチまたは典型的でない動きの可能性が低減される。すなわち、極めて長い動き指標は、キーポイントがフレーム間で極めて速く移動したことを暗示し、これは映像が通常のフレームレートで抽出される場合はあり得ないことである。極めて短い動きベクトルは、単に、整合性なく検出された、したがって実際には移動しなかった静止点である可能性がある。一実施形態では、距離パラメータの範囲を固定することができ、検討中の映像に対していかなる好適な範囲とすることもできる。別の実施形態では、距離パラメータの範囲は、例えば、処理を改善するために得られた、または映像の様々なタイプ、もしくは検討中の映像の特性に合わせて、またはその他の理由もしくは所望の出力のために調整される、結果に応じて調整できる変数とすることができる。
一実施形態では、動き指標は、向き範囲によって、4から10の向き範囲の1つにグループ分けされる。したがって、例えば、それぞれが45度の範囲を有する8つのグループまたはビン(bin)があって、第1のグループが、0から45度の向きを有する動き指標用であり、第2のグループが45度を超え90度までの向きを有する動き指標用であり、以下同様である。4未満の向き範囲を使用することができるが、これは、複製検出プロセスのための情報が少なくなる。10より多い向き範囲は、より多くの量の利用できる情報をもたらすが、映像編集に対する堅牢性が失われることになる。
少なくとも1つの向き範囲に対して値の時系列が生成されると、第1の映像に対する値の第1の時系列が、第2の映像に対する値の第2の時系列と比較されて、第1の映像と第2の映像の類似性を判定する。例えば8つの向き範囲またはビンがある1つの実施形態では、0度から45度の向き範囲を有する第1のビンのみからの第1の映像の時系列が、やはり0度から45度の向き範囲を有する第1のビンのみからの第2の映像の時系列と比較される。これは、利用できる情報のすべてが比較に使用されるわけではないことを意味する。
別の実施形態では、第1の映像の複数の時系列を結合して、第1の時系列署名を生成する。これは、時系列のすべてを含むことができ、または別の実施形態では、時系列の一部のみを含むことができる。同じプロセスを第2の映像に対して実行して、第2の時系列署名を生成する。次いで、各映像の複数の時系列からの情報を結合する時系列署名を比較するステップによって、時系列が比較される。
1つの実施形態では、第1および第2の映像が複製であるかどうかを判定するために必要とされる時間をさらに縮小するために、時系列線形分割技法を使用して、時系列、または時系列の組合せが使用される時系列署名を、直線の上下の傾き(linear inclines/declines)の離散的リストに圧縮することができる。次いで、主要な傾きのマッチング技法を実行して、比較される時系列または時系列署名の潜在的なアライメント(alignment)位置を見つけることができる。
したがって、一実施形態は、第1の時系列および第2の時系列を離散的な線分のそれぞれのセットに分けることと、これらの線分の局所配列アライメント(local sequence alignment)を実行することと、分けられた時系列から主要な傾き(incline)および主要な下方の傾き(decline)を選択し、第1および第2の映像の類似性を判定するためにアライメントを行う際にこの主要な傾きおよび主要な下方の傾きを使用することとを含む。別の実施形態では、これは時系列署名に対して実行される。
一実施形態では、第1の時系列の第2の時系列とのアライメントが行われる。アライメントされた第1の時系列と第2の時系列との最高の類似性距離が計算され、最高の類似性距離が、所与の閾値と比較されて、第1の映像および第2の映像が複製であるかどうかを判定する。これは、別の実施形態では、時系列署名に対して実行することができる。
第1のフレームおよび第2のフレームは、互いに直接隣接していることがある、または介在フレーム(intervening frame)が存在することがある。
一実施形態では、フレームの複数のペアは、映像を比較する際に使用するために処理されない他のフレームの間隔で分割される。間隔は、例えば一定、可変、またはランダムであることが可能である。一実施形態では、映像の処理中に、異なるタイプの間隔の間で、例えば一定からランダムに、切換えを行うことができ、または別の実施形態では、処理の間、1つのモードを続けることができる。別の実施形態では、間隔が含まれない場合がある。
本発明の第2の態様によれば、デバイスが、第1の態様による方法を行うようにプログラムされ、構成される。
本発明の第3の態様によれば、第1の態様による方法を行うための機械実行可能プログラムを格納するためのデータ記憶媒体が提供される。
次に本発明のいくつかの実施形態を、実施例にすぎないものとして、添付の図面を参照して説明する。
本発明による方法を概略的に示す図である。 本発明による方法の態様を概略的に示す図である。 本発明による方法の態様を概略的に示す図である。 (a)、(b)、(c)、(d):時間にわたってある映像について向きビンの変化を概略的に示す図である。 図1の方法を実施するための装置を概略的に示す図である。
図1を参照すると、複製映像検出方法に関係する映像が、複数のフレームを含み、1において処理のために選択される。2において後続フレームのペアが選択される。この実施形態では、フレームは、間隔あたり10フレームの間隔でサンプリングされる。次いでサンプリングされた各フレームが、その隣接する次のフレームと比較されて、局所的特徴の動きを追跡する。2において、フレーム番号0および隣接するフレーム番号1の選択を行う。
フレームは、3において、この実施形態ではORBである局所的特徴検出器を適用される。ORBを用いてフレーム番号0を分析して局所的特徴を抽出し、同じプロセスをフレーム番号1に適用する。この結果、フレーム番号0と関連するキーポイント、およびフレーム番号1に対するキーポイントが得られる。
キーポイント情報は、4において記述子マッチングプロセッサに適用されて、2つのフレームにおけるキーポイント間の対応関係を判定する。マッチングが見つかると、5において動き指標または動きベクトルが計算される。
動きベクトルは、6においてフィルタに適用されて、指定された長さの範囲内のものだけが、次の処理中に検討されることを確保する。
7において、フィルタリングされ、保持された動きベクトルの向きが判定され、適切な向き範囲またはビンにグループ分けされる。この実施形態では、それぞれ45度の範囲を含む8つのビンがある。
8において、各ビンのキーポイントの数の総計が、これらを合計することによって計算されて、各ビンの値を求める。
フレーム番号0および1に対してこのプロセスを実行すると、検討されるフレームの次のペアに対してステップが繰り返される。次のフレームは、フレーム番号11(sample_interval = 10の場合)およびフレーム番号12である。これらが処理されると、次のフレームは、フレーム番号21およびフレーム番号22であり、以下同様である。映像全体が処理される、または単に映像の一区間もしくは複数区間が処理される場合がある。
フレームのペア間の比較に続いて、各ビンについて値の時系列、またはヒストグラムを取得する。これらは9において結合され、時間にわたって正規化されて、映像の最終的な時系列署名が求められる。
第2の映像は、同じように処理されて、第2の映像の時系列署名が取得される。
上記のように計算された署名を有する2つの映像を考えると、映像の類似性は、時系列署名を比較することによって判定される。
比較のプロセスでは、各向きビンについて、時系列署名は、10において、ヒストグラムの近似時間トレース(approximate temporal traces)に線形分割を使用し、比較されるヒストグラム間の潜在的なアライメントを見つけるためのガイドとして線分から主要な傾きを抽出することによって比較される。
アライメント位置における2つの映像間の正規化ユークリッド距離が計算される。最高のマッチング類似性距離が閾値未満である場合、2つの映像はコピーであるとみなされる。
図2は、検出されたキーポイントおよび前のフレームに対する動きの方向(および大きさ)を示す線と共に、映像の一フレームを示している。キーポイントは、その追跡された動きがあらかじめ定められた範囲(この場合は3ピクセルから15ピクセル)に入る大きさを有するものだけが残されるように、フィルタリングされている。これは、誤ったキーポイントのマッチを減少させるために行われる。向きヒストグラムは、上部に視覚化され、各棒が向きのビンを示している。この場合では、動きの大部分が、特定の向き内に含まれることがわかる。
図3は、検出されたキーポイントおよび追跡された動きと共に、映像の別のフレームを示している(前の画像と同様)。しかしながら、動きの向きはより多様であって、これが視覚化されたヒストグラムに反映されていることがわかる。
図4(a)から4(b)は、時間を越えた異なる映像に対する1つの向きビンにおける変化を視覚化したものである(値は時間にわたって正規化されている)。元の映像が左に示され(動画21、動画27)、その対応するクエリ(ST1クエリ10、ST1クエリ1)が、括弧内に示された映像の変換とともに、右に示されている。映像に強固な変更が行われたにもかかわらず、左と右のヒストグラム間に、大まかな相関が見られる。
本発明による1つの方法の評価では、実験を行う際に、公に入手可能な映像データベース、MUSCLE VCDベンチマークを使用した。データベースは、全長80時間の101の映像で構成された。データベースは、スポーツ、ドキュメンタリー、漫画、自作映画、白黒の古い映画、コマーシャルなど、様々なプログラムからの映像を提供する。MUSCLE VCDベンチマークは、映像コピー検出システムの性能および精度を評価するためのグランドトゥルースデータST1のセットを含む。映像のST1セットは、2時間30分の合計時間を有する15のクエリを含む。これらは、5分から1時間の長さの、全体の長さのコピーである。クエリ映像は、再符号化、角度のあるカムコーディング、切り取りおよび色の変更、ズーム、雑音、にじみ、サブタイトルの追加など、広範囲にわたる変換を受けた。試験したソリューションを使用する際には、ST1のすべてのクエリを検索するのに約10分を要したが、これまでCIVR07チームが獲得したベストスコアの時間では44分かかっていた。
図5は、図1の方法を実行するための装置を示す。この装置は、比較される映像を格納するための映像データベースストア11と、ORB特徴検出器12と、動きベクトルプロセッサ13と、向きビンストア14と、時系列プロセッサ15と、時系列署名計算機16とを含む。2つの映像の時系列署名を使用した2つの映像の比較は、比較器17で行われる。
「プロセッサ」と呼ぶいかなる機能ブロックも含む、図に示した様々な要素の機能は、専用のハードウェア、ならびに適切なソフトウェアと関連してソフトウェアを実行することができるハードウェアを用いて、提供することができる。プロセッサによって提供されるとき、機能は、単一の専用プロセッサによって、単一の共有プロセッサによって、またはその一部を共有することができる複数の個々のプロセッサによって、提供可能である。さらに、「プロセッサ」という用語を明示的に使用すると、排他的に、ソフトウェアを実行することができるハードウェアを指すと解釈されるべきではなく、暗黙的には、デジタル信号プロセッサ(DSP)のハードウェア、ネットワークプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ソフトウェアを格納するためのリードオンリーメモリ(ROM)、ランダムアクセスメモリ(RAM)、および不揮発性記憶装置を、限定することなく、含むことがある。また、従来型および/またはカスタム型の他のハードウェアを含むこともある。
本発明は、その趣旨または本質的な特徴を逸脱することなく、他の特定の形態で具体化することができる。記載した実施形態は、あらゆる点で例示であるにすぎず、限定ではないと考えられなければならない。したがって本発明の範囲は、前述の説明ではなく、添付の特許請求の範囲によって示される。特許請求の範囲の均等物の意味および範囲内で生じるあらゆる変更は、特許請求の範囲に含まれるものとする。

Claims (10)

  1. 映像を比較するための方法であって、
    映像の複数のフレームにおいて局所的特徴を検出するステップと、
    第1のフレームにおいて検出された局所的特徴の位置を、後続の第2のフレームにおけるそのそれぞれの位置と比較して判定するステップと、
    検出された局所的特徴の少なくとも一部について、第2のフレームにおける局所的特徴の位置に対する第1のフレームにおける前記局所的特徴の位置を表す、向きを含む動き指標を生成して複数の動き指標を取得するステップと、
    向き範囲によって動き指標をグループ分けするステップと、
    ある向き範囲のグループ分けされた動き指標の数を合計して、その向き範囲の値を取得するステップと、
    フレームの複数のペアについて、第1のフレームにおける検出された局所的特徴の位置を、後続の第2のフレームにおけるそのそれぞれの位置と比較して判定することによって、少なくとも1つの所与の向き範囲の複数の値の時系列を取得するステップと、
    少なくとも1つの向き範囲について、第1の映像に対する値の第1の時系列を第2の映像に対する値の第2の時系列と比較して、第1の映像と第2の映像の類似性を判定するステップと
    を含む、方法。
  2. 動き指標が距離パラメータを含み、その距離パラメータが所与のサイズ範囲内である場合、動き指標が向き範囲によるグループ分けに含まれ、その距離パラメータが前記所与のサイズ範囲外である場合、動き指標が向き範囲によるグループ分けに含まれない、請求項1に記載の方法。
  3. 第1の映像に対して複数のそれぞれの向き範囲に対する値の複数の第1の時系列を取得するステップと、
    前記値の複数の第1の時系列を結合して第1の時系列署名を生成するステップと、
    第2の映像に対して複数のそれぞれの向き範囲に対する値の複数の第2の時系列を取得するステップと、
    前記値の複数の第2の時系列を結合して第2の時系列署名を生成するステップと、
    第1の時系列署名と第2の時系列署名を比較して、第1の映像と第2の映像の類似性を判定するステップと
    を含む、請求項1に記載の方法。
  4. 第1の時系列を第2の時系列と比較して、第1の映像と第2の映像の類似性を判定する際に、主要な傾きマッチングを使用するステップを含む、請求項1に記載の方法。
  5. 第1の時系列と第2の時系列のアライメントを行うステップと、アライメントされた第1の時系列と第2の時系列との最高類似性距離を計算するステップと、最高類似性距離を所与の閾値と比較して、第1の映像と第2の映像が複製であるかどうかを判定するステップとを含む、請求項1に記載の方法。
  6. 第2の映像が第2の映像の複製ではないと判定されるとき、第1の映像を保持する映像データベースに第2の映像を格納するステップを含む、請求項1に記載の方法。
  7. 映像の複数のフレームにおいて局所的特徴を検出するステップと、
    第1のフレームにおいて検出された局所的特徴の位置を、後続の第2のフレームにおけるそのそれぞれの位置と比較して判定するステップと、
    検出された局所的特徴の少なくとも一部について、第2のフレームにおける局所的特徴の位置に対する第1のフレームにおける前記局所的特徴の位置を表す、向きを含む動き指標を生成して複数の動き指標を取得するステップと、
    向き範囲によって動き指標をグループ分けするステップと、
    ある向き範囲のグループ分けされた動き指標の数を合計して、その向き範囲の値を取得するステップと、
    フレームの複数のペアについて、第1のフレームにおける検出された局所的特徴の位置を、後続の第2のフレームにおけるそのそれぞれの位置と比較して判定することによって、少なくとも1つの所与の向き範囲の複数の値の時系列を取得するステップと、
    少なくとも1つの向き範囲について、第1の映像に対する値の第1の時系列を第2の映像に対する値の第2の時系列と比較して、第1の映像と第2の映像の類似性を判定するステップと
    を含む、
    方法を実行するようにプログラムまたは構成されたデバイス。
  8. 第1の映像に対して複数のそれぞれの向き範囲に対する値の複数の第1の時系列を取得するステップと、
    前記値の複数の第1の時系列を結合して第1の時系列署名を生成するステップと、
    第2の映像に対して複数のそれぞれの向き範囲に対する値の複数の第2の時系列を取得するステップと、
    前記値の複数の第2の時系列を結合して第2の時系列署名を生成するステップと、
    第1の時系列署名と第2の時系列署名を比較して、第1の映像と第2の映像の類似性を判定するステップと
    を行うように動作する、請求項7に記載のデバイス。
  9. 局所的特徴を検出するためのORB検出器を含む、請求項7に記載のデバイス。
  10. 映像の複数のフレームにおいて局所的特徴を検出するステップと、
    第1のフレームにおいて検出された局所的特徴の位置を、後続の第2のフレームにおけるそのそれぞれの位置と比較して判定するステップと、
    検出された局所的特徴の少なくとも一部について、第2のフレームにおける局所的特徴の位置に対する第1のフレームにおける前記局所的特徴の位置を表す、向きを含む動き指標を生成して複数の動き指標を取得するステップと、
    向き範囲によって動き指標をグループ分けするステップと、
    ある向き範囲のグループ分けされた動き指標の数を合計して、その向き範囲の値を取得するステップと、
    フレームの複数のペアについて、第1のフレームにおける検出された局所的特徴の位置を、後続の第2のフレームにおけるそのそれぞれの位置と比較して判定することによって、少なくとも1つの所与の向き範囲の複数の値の時系列を取得するステップと、
    少なくとも1つの向き範囲について、第1の映像に対する値の第1の時系列を第2の映像に対する値の第2の時系列と比較して、第1の映像と第2の映像の類似性を判定するステップと
    を含む、映像を比較するための方法を行うための機械実行可能プログラムを格納するデータ記憶媒体。
JP2014525047A 2011-08-10 2012-07-31 映像を比較するための方法および装置 Expired - Fee Related JP5878238B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/206,856 US8639040B2 (en) 2011-08-10 2011-08-10 Method and apparatus for comparing videos
US13/206,856 2011-08-10
PCT/US2012/048925 WO2013022645A1 (en) 2011-08-10 2012-07-31 Methods and apparatus for comparing videos

Publications (2)

Publication Number Publication Date
JP2014522065A true JP2014522065A (ja) 2014-08-28
JP5878238B2 JP5878238B2 (ja) 2016-03-08

Family

ID=46755085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014525047A Expired - Fee Related JP5878238B2 (ja) 2011-08-10 2012-07-31 映像を比較するための方法および装置

Country Status (6)

Country Link
US (1) US8639040B2 (ja)
EP (1) EP2742459B1 (ja)
JP (1) JP5878238B2 (ja)
KR (1) KR101517750B1 (ja)
CN (1) CN103718193B (ja)
WO (1) WO2013022645A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9323840B2 (en) * 2013-01-07 2016-04-26 Gracenote, Inc. Video fingerprinting
US9495451B2 (en) 2013-01-07 2016-11-15 Gracenote, Inc. Identifying video content via fingerprint matching
US9626567B2 (en) * 2013-03-13 2017-04-18 Visible Measures Corp. Automated video campaign building
JP6587610B2 (ja) * 2013-10-11 2019-10-09 マウナ ケア テクノロジーズ 映像医療機器により取得した画像を処理するシステムおよびそのシステムの作動方法
CN105704485B (zh) * 2016-02-02 2018-05-25 广州视源电子科技股份有限公司 显示设备的性能参数检测方法和系统
WO2018006023A1 (en) * 2016-06-30 2018-01-04 Referentia Systems, Inc. Time series data query engine
US10699128B2 (en) * 2016-09-21 2020-06-30 Cisco Technology, Inc. Method and system for comparing content
CN106534887B (zh) * 2016-10-27 2019-07-12 工业和信息化部电信研究院 一种随机时间序列比较方法和装置
US10726269B2 (en) * 2017-07-20 2020-07-28 Verizon Patent And Licensing, Inc. Aligning advertisements in video streams
CN108024142B (zh) * 2017-12-05 2020-10-30 深圳市茁壮网络股份有限公司 一种视频流检测方法及系统
US11645249B1 (en) * 2018-11-12 2023-05-09 Amazon Technologies, Inc. Automated detection of duplicate content in media items
KR20220101382A (ko) 2021-01-11 2022-07-19 주식회사 케이티 시리즈물에 포함되는 복수의 비디오 컨텐츠 각각의 본편의 시작 시점을 결정하는 서버, 방법 및 컴퓨터 프로그램
CN113761282B (zh) * 2021-05-11 2023-07-25 腾讯科技(深圳)有限公司 视频查重方法、装置、电子设备以及存储介质
KR20230015603A (ko) 2021-07-23 2023-01-31 주식회사 케이티 시리즈물에 포함되는 복수의 비디오 컨텐츠 각각에 대한 오프닝 구간 및 엔딩 구간을 추출하는 서버, 방법 및 컴퓨터 프로그램

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000287177A (ja) * 1999-03-31 2000-10-13 Aiwa Co Ltd 画像再生装置
JP2005063385A (ja) * 2003-08-20 2005-03-10 Kobe Steel Ltd 監視方法及び監視装置、並びにプログラム
JP2010122840A (ja) * 2008-11-19 2010-06-03 Nippon Telegr & Teleph Corp <Ntt> 物体領域検出方法、物体領域検出装置、物体領域検出プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2011035571A (ja) * 2009-07-30 2011-02-17 Masafumi Hagiwara 不審行動検知方法および不審行動検知装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5799092A (en) 1995-02-28 1998-08-25 Lucent Technologies Inc. Self-verifying identification card
US20030189980A1 (en) * 2001-07-02 2003-10-09 Moonlight Cordless Ltd. Method and apparatus for motion estimation between video frames
US8027542B2 (en) 2007-06-18 2011-09-27 The Regents Of The University Of California High speed video action recognition and localization
CN101221620B (zh) * 2007-12-20 2011-04-06 北京中星微电子有限公司 人脸跟踪方法
CN101833650A (zh) * 2009-03-13 2010-09-15 清华大学 一种基于内容的视频复制检测方法
US20120002884A1 (en) 2010-06-30 2012-01-05 Alcatel-Lucent Usa Inc. Method and apparatus for managing video content

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000287177A (ja) * 1999-03-31 2000-10-13 Aiwa Co Ltd 画像再生装置
JP2005063385A (ja) * 2003-08-20 2005-03-10 Kobe Steel Ltd 監視方法及び監視装置、並びにプログラム
JP2010122840A (ja) * 2008-11-19 2010-06-03 Nippon Telegr & Teleph Corp <Ntt> 物体領域検出方法、物体領域検出装置、物体領域検出プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2011035571A (ja) * 2009-07-30 2011-02-17 Masafumi Hagiwara 不審行動検知方法および不審行動検知装置

Also Published As

Publication number Publication date
CN103718193A (zh) 2014-04-09
JP5878238B2 (ja) 2016-03-08
US20130039587A1 (en) 2013-02-14
EP2742459A1 (en) 2014-06-18
CN103718193B (zh) 2017-05-31
KR101517750B1 (ko) 2015-05-06
US8639040B2 (en) 2014-01-28
EP2742459B1 (en) 2019-12-18
WO2013022645A1 (en) 2013-02-14
KR20140033509A (ko) 2014-03-18

Similar Documents

Publication Publication Date Title
JP5878238B2 (ja) 映像を比較するための方法および装置
US11625427B2 (en) Media fingerprinting and identification system
JP5711387B2 (ja) 映像を比較する方法および装置
US20090290752A1 (en) Method for producing video signatures and identifying video clips
US20100049711A1 (en) Content-based matching of videos using local spatio-temporal fingerprints
Kim et al. Adaptive weighted fusion with new spatial and temporal fingerprints for improved video copy detection
Zhang et al. Effective real-scenario video copy detection
KR101634395B1 (ko) 시퀀스 간의 비교 방법, 그 장치, 및 컴퓨터 프로그램 제품
Lameri et al. Near-duplicate video detection exploiting noise residual traces
Xu et al. Caught Red-Handed: Toward Practical Video-Based Subsequences Matching in the Presence of Real-World Transformations.
Leon et al. Video identification using video tomography
Anju et al. Video copy detection using F-sift and graph based video sequence matching
Roopalakshmi et al. Efficient video copy detection using simple and effective extraction of color features
Price et al. Caught Red-Handed: Toward Practical Video-Based Subsequences Matching in the Presence of Real-World Transformations
Possos et al. An analysis of independence of video signatures based on tomography
Barrios Núñez Content-based video copy detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150127

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150423

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160127

R150 Certificate of patent or registration of utility model

Ref document number: 5878238

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees