JP2011248671A - 多数の参照用映像の中から検索キー用映像を用いて検索する映像検索装置、プログラム及び方法 - Google Patents

多数の参照用映像の中から検索キー用映像を用いて検索する映像検索装置、プログラム及び方法 Download PDF

Info

Publication number
JP2011248671A
JP2011248671A JP2010121767A JP2010121767A JP2011248671A JP 2011248671 A JP2011248671 A JP 2011248671A JP 2010121767 A JP2010121767 A JP 2010121767A JP 2010121767 A JP2010121767 A JP 2010121767A JP 2011248671 A JP2011248671 A JP 2011248671A
Authority
JP
Japan
Prior art keywords
frame
word
video
feature
key
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010121767A
Other languages
English (en)
Inventor
Yusuke Uchida
祐介 内田
Masayuki Hashimoto
真幸 橋本
Ryoichi Kawada
亮一 川田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2010121767A priority Critical patent/JP2011248671A/ja
Publication of JP2011248671A publication Critical patent/JP2011248671A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

【課題】転置インデックスを用いて映像を検索する技術について、インデックスサイズと検索精度との間のトレードオフを改善することができる映像検索装置等を提供する。
【解決手段】参照用映像のフレーム列の中から複数の参照フレームを選択し、特徴領域毎の特徴ベクトルを抽出する。多数の特徴ベクトルをk個のクラスタにクラスタリングし、各クラスタiの代表ベクトルfiを単語iの代表ベクトルと規定する。次に、特徴ベクトル集合のそれぞれのベクトルfjを、辞書を参照し、代表ベクトルの中で最もfjに近い代表ベクトルを持つ単語iに割り当て、参照フレームに存在する単語集合に変換する。そして、単語i毎に、フレーム番号を対応付け、連続するフレーム番号をブロックにまとめ、隣接するブロック間のフレーム番号のギャップ(差分)の数列と、各ブロック内の連長(連続フレーム数)の数列とを符号化した転置インデックスを生成する。
【選択図】図2

Description

本発明は、多数の参照用映像の中から検索キー用映像を用いて検索する技術に関する。
近年、ブロードバンドネットワークの普及と、ストレージの大容量化(HDD(Hard Disk Drive)、DVD(Digital Versatile Disk)、Blue-ray disc等)とに伴って、デジタルコンテンツを、共有及び公開することが容易になってきている。一方で、著作権者やコンテンツプロバイダ(以下「著作権者等」という)の許諾を得ていないデジタルコンテンツを、不正に共有及び公開することが問題となっている。
このような問題に対して、デジタルコンテンツの指紋(特徴量)を用いて、多数のデジタルコンテンツの中から、著作権者等によって許諾されていない特定コンテンツを自動的に検出する技術がある(例えば特許文献1及び2並びに非特許文献1参照)。
特許文献1に記載された技術によれば、三次元周波数解析及び主成分分析を用いて、コンテンツの特徴量を抽出し、特定コンテンツを検出する。この技術によれば、空間周波数解析(DCT(Discrete Cosine Transform)、離散コサイン変換)で得られた係数に、時間軸方向への周波数解析(FFT(Fast Fourier Transform)、高速フーリエ変換)を加えた三次元周波数解析を実行する。更に、三次元周波数解析で得られたその係数から、主成分分析によって特徴量を抽出する。
特許文献2に記載された技術によれば、特許文献1に記載された技術に基づく特徴量を用いて、流通コンテンツと類似している特定コンテンツを絞り込む。絞り込めない場合には、位相限定相関法を用いて流通コンテンツと最も類似している特定コンテンツを決定し、閾値によって同一コンテンツであるか否かを判定する。
非特許文献1に記載された技術によれば、映像の各フレームから局所不変特徴量を抽出する。次に、その特徴量を量子化し、量子化された特徴がどのフレームに存在するかを保持する転置インデックスを作成する。この転置インデックスを用いることによって、高速に映像を検索する。
特開2005−018675号公報 特開2006−285907号公報
J. Sivic et al., "Video Google: A Text Retrieval Approach toObject Matching in Videos," in Proc. ICCV, 2003. K. Mikolajczyket al., A Comparison of Affine Region Detectors," International Journal ofComputer Vision, vol. 65, no. 1-2, pp. 43-72, 2005. D. G. Lowe,"Distinctive Image Features from Scale-Invariant Keypoints,"International Journal of Computer Vision, vol. 60, no. 2, pp. 91-110, 2004. K. Mikolajczykand C. Schmid, "A performance evaluation of local descriptors, "Proc. of CVPR, 2003.
しかしながら、特許文献1及び2に記載された技術によれば、1つの映像コンテンツから1つの特徴量を抽出するために、例えば、映像コンテンツを分割する等の時間軸方向に編集されると検出できないという問題がある。正当映像コンテンツにおける一定時間部分が抜き取られた不正映像コンテンツは、正当映像コンテンツとして検出できない。
また、非特許文献1に記載された技術によれば、特徴量を抽出するフレーム数を増加させると、検索精度は向上するが、インデックスサイズは増加する。一方で、フレーム数を減少させると、インデックスサイズは減少するが、検索精度が低下する、このように、インデックスサイズと検索精度との間に、トレードオフが存在する。
そこで、本発明は、転置インデックスを用いて映像を検索する技術について、インデックスサイズと検索精度との間のトレードオフを改善することができる映像検索装置、プログラム及び方法を提供することを目的とする。
本発明によれば、多数の参照用映像の中から、検索キー用映像を用いて、参照用映像を検索する映像検索装置であって、
参照用映像のフレーム列の中から複数の参照フレームを選択する参照フレームサンプリング手段と、
参照フレーム毎に、多数の特徴領域を抽出する参照用特徴領域抽出手段と、
参照フレームの特徴領域毎に、特徴ベクトルを抽出する参照用特徴量抽出手段と、
多数の特徴ベクトルをk個のクラスタにクラスタリングし、各クラスタiの代表ベクトルfiを単語iの代表ベクトルと規定する辞書生成手段と、
参照フレームから抽出された特徴ベクトル集合のそれぞれのベクトルfjを、辞書を参照し、代表ベクトルの中で最もfjに近い代表ベクトルを持つ単語iに割り当て、参照フレームに存在する単語集合に変換する参照用単語生成手段と、
単語i毎に、当該単語を含むフレームのフレーム番号を対応付け、連続するフレーム番号をブロックにまとめ、隣接するブロック間のフレーム番号のギャップ(差分)と各ブロック内の連長(連続フレーム数)とを導出し、ギャップの数列と連長の数列とを符号化した転置インデックスを生成する転置インデックス生成手段と、
符号化された転置インデックスを記憶する転置インデックス記憶手段と
を有することを特徴とする。
本発明の映像検索装置における他の実施形態によれば、転置インデックス記憶手段は、ギャップ及び連長それぞれを、異なる符号化方式で符号化することも好ましい。
本発明の映像検索装置における他の実施形態によれば、転置インデックス生成手段は、当該単語iについて、フレーム番号の連続する数が所定フレーム連続数以内である場合、これらフレーム番号が存在しないものとし、これらフレーム番号を符号化しないことも好ましい。
本発明の映像検索装置における他の実施形態によれば、転置インデックス生成手段は、当該単語iについて、所定フレーム間隔数以内の数のフレーム番号が存在しないことによってフレーム番号が不連続となっている場合、存在しないフレーム番号が存在するものとしてフレーム番号を連続にし、連続するフレーム番号を符号化することも好ましい。
本発明の映像検索装置における他の実施形態によれば、
参照用特徴領域抽出手段は、Harrisコーナー検出器、Fastコーナー検出器、Harris-Affine、Hessian-Affine、SIFT(Scale-Invariant Feature Transform)、MSERアルゴリズムのいずれか1つ以上を利用して特徴領域を抽出し、
参照用特徴量抽出手段は、SIFTを用いて特徴ベクトルを抽出し、
辞書生成手段は、k-meansを用いてk個のクラスタへクラスタリングすることによって、単語iをk次元ベクトルに量子化する
ことも好ましい。
本発明の映像検索装置における他の実施形態によれば、
検索キー用映像のフレーム列の中から複数のキーフレームを選択するキーフレームサンプリング手段と、
キーフレーム毎に、多数の特徴領域を抽出するキー用特徴領域抽出手段と、
キーフレームの特徴領域毎に、特徴ベクトルを抽出するキー用特徴量抽出手段と、
キーフレームから抽出された特徴ベクトル集合のそれぞれのベクトルfjを、辞書生成手段の辞書を参照し、代表ベクトルの中で最もfjに近い代表ベクトルを持つ単語iに割り当て、参照フレームに存在する単語集合に変換するキー用単語生成手段と、
転置インデックス記憶手段を用いて、キーフレームのキー単語iを含む1つ又は連続の参照フレーム番号から、キーフレーム番号を引いたフレーム番号を検索するインデックス検索手段と、
キー用映像毎に、複数のキーフレームに基づいて検索された参照フレーム番号の数を投票し、投票数が最も多い参照フレーム番号が、キー用映像の先頭フレームに対応するものとして検出するフレーム検出手段と
を更に有することも好ましい。
本発明の映像検索装置における他の実施形態によれば、
当該映像検索装置は、正当著作権者によって作成された正当映像コンテンツから、第三者が、不正に複製し又は二次的著作物となる不当映像コンテンツを作成した際に、当該不当映像コンテンツに基づく正当映像コンテンツを検索するものであり、
参照用映像は、正当映像コンテンツであり、
検索キー用映像は、不当映像コンテンツであることも好ましい。
本発明によれば、多数の参照用映像の中から、検索キー用映像を用いて、当該検索キー用映像を含む参照用映像を検索する装置に搭載されたコンピュータを機能させる映像検索プログラムであって、
参照用映像のフレーム列の中から複数の参照フレームを選択する参照フレームサンプリング手段と、
参照フレーム毎に、多数の特徴領域を抽出する参照用特徴領域抽出手段と、
参照フレームの特徴領域毎に、特徴ベクトルを抽出する参照用特徴量抽出手段と、
多数の特徴ベクトルをk個のクラスタにクラスタリングし、各クラスタiの代表ベクトルfiを単語iの代表ベクトルと規定する辞書生成手段と、
参照フレームから抽出された特徴ベクトル集合のそれぞれのベクトルfjを、辞書を参照し、代表ベクトルの中で最もfjに近い代表ベクトルを持つ単語iに割り当て、参照フレームに存在する単語集合に変換する参照用単語生成手段と、
単語i毎に、当該単語を含むフレームのフレーム番号を対応付け、連続するフレーム番号をブロックにまとめ、隣接するブロック間のフレーム番号のギャップ(差分)と各ブロック内の連長(連続フレーム数)とを導出し、ギャップの数列と連長の数列とを符号化した転置インデックスを生成する転置インデックス生成手段と、
符号化された転置インデックスを記憶する転置インデックス記憶手段と
してコンピュータを機能させることを特徴とする。
本発明によれば、多数の参照用映像の中から、検索キー用映像を用いて、当該検索キー用映像を含む参照用映像を検索する装置における映像検索方法であって、
参照用映像のフレーム列の中から複数の参照フレームを選択する第1のステップと、
参照フレーム毎に、多数の特徴領域を抽出する第2のステップと、
参照フレームの特徴領域毎に、特徴ベクトルを抽出する第3のステップと、
多数の特徴ベクトルをk個のクラスタにクラスタリングし、各クラスタiの代表ベクトルfiを単語iの代表ベクトルと規定する第4のステップと、
参照フレームから抽出された特徴ベクトル集合のそれぞれのベクトルfjを、辞書を参照し、代表ベクトルの中で最もfjに近い代表ベクトルを持つ単語iに割り当て、参照フレームに存在する単語集合に変換する第5のステップと、
単語i毎に、当該単語を含むフレームのフレーム番号を対応付け、連続するフレーム番号をブロックにまとめ、隣接するブロック間のフレーム番号のギャップ(差分)と各ブロック内の連長(連続フレーム数)とを導出し、ギャップの数列と連長の数列とを符号化した転置インデックスを生成する第6のステップと
符号化された転置インデックスを記憶する第7のステップと
を有することを特徴とする。
本発明の映像検索装置、プログラム及び方法によれば、転置インデックスを用いて映像を検索する技術について、インデックスサイズと検索精度との間のトレードオフを改善することができる。即ち、映像の検索精度を維持しつつ、転置インデックスのサイズを削減することができる。
本発明の映像検索装置における用途例を表すシステム構成図である。 本発明の映像検索装置におけるインデックス生成機能を含む機能構成図である。 k個のクラスタリングを表す説明図である。 ギャップのみ及び連長のみをそれぞれ、異なる符号化パラメータで符号した場合のサイズを表す。 ギャップのみを符号化した場合と、ギャップ及び連長を符号化した場合とにおける転置インデックスのサイズを表す。 本発明の映像検索装置における検索機能を更に含む機能構成図である。 参照用映像における検索キー用映像の対応を表す説明図である。 フレーム検出部における参照フレーム番号の投票のためのフローチャートである。 本発明における投票結果を表すグラフである。 従来技術における投票結果を表すグラフである。
以下、本発明の実施の形態について、図面を用いて詳細に説明する。
図1は、本発明の映像検索装置における用途例を表すシステム構成図である。
図1によれば、ユーザによって操作される端末2は、アクセスネットワーク及びインターネットを介して、映像サーバ3から、正当著作権者によって作成された正当映像コンテンツをダウンロードすることができる。ここで、ユーザが、不正に複製し又は二次的著作物となる不当映像コンテンツを作成したとする。そして、そのユーザは、その不正映像コンテンツを、映像サーバ4へアップロードする。このようなユーザの不正行為によって、不特定多数の端末は、映像サーバ4から、その不正映像コンテンツをダウンロードすることができる。本発明における映像検索装置1は、映像サーバ4に蓄積された映像コンテンツに、正当著作権者の映像コンテンツを不正編集したものが含まれていないか否かを検索することができる。
図2は、本発明の映像検索装置におけるインデックス生成機能を含む機能構成図である。
映像検索装置1は、多数の参照用映像の中から検索キー用映像を用いて検索する。図1によれば、映像検索装置1の基本機能構成であるインデックス生成部11が表されている。
映像検索装置1のインデックス生成部11は、参照用映像蓄積部10と、参照フレームサンプリング部111と、参照用特徴領域抽出部112と、参照用特徴量抽出部113と、辞書生成部114と、参照用単語生成部115と、転置インデックス生成部116と、転置インデックス記憶部117とを有する。これら機能構成部は、装置に搭載されたコンピュータを機能させる映像検索プログラムを実行することによって実現される。
参照用映像蓄積部10は、検索対象となる多数の参照用映像を蓄積する。例えば不正に複製された不当映像コンテンツを検索する場合を想定した場合、参照用映像は、正当映像コンテンツであり、検索キー用映像は、不当映像コンテンツである。勿論、用途によっては、参照用映像を不当映像コンテンツとし、検索キー用映像を正当映像コンテンツとするものであってもよい。尚、参照用映像は、時間的に長い1つの映像として扱われるが、時間位置の情報を保持することによって、複数の参照用映像に分割されていることも好ましい。これによって、比較的短い映像単位で、検索キー用映像と比較することができる。
参照フレームサンプリング部111は、参照用映像のフレーム列の中から複数の参照フレーム(キーフレーム)を選択する。最も簡単には、一定のフレームレートでフレームを選択するものであってもよい。また、ショット(映像シーン)が切り替わる時点におけるフレームを選択してもよい。更に、前のフレームとの輝度値の差分の絶対和(SAD(Sum of Absolute Difference))や二乗和(SSD(Sum of Squared Difference))を累積し、閾値以上に達したフレームを選択するものであってもよい。
参照用特徴領域抽出部112は、参照フレーム毎に、多数の特徴領域を抽出する。この特徴領域は、参照フレームについて、スケールの変化や輝度変化、回転等に不変な局所不変特徴領域である。局所不変特徴領域を抽出する方法としては、例えば非特許文献2及び3に記載された技術がある。例えばSIFT(Scale-Invariant Feature Transform)アルゴリズムでは、座標及びスケールパラメータ(x、y、σ)を持つDoG(Difference of Gaussian)フィルタの応答値が、極値(局所最大又は局所最小)をとる(x、y、σ)を特徴領域として検出する。この特徴領域は、座標(x、y)を中心とする半径d×σ(d∈R)の円である。尚、SIFTとは、スケールスペースを用いて画像構造を解析し、画像のスケール変化及び回転に不変となる特徴量を記述する技術である。
参照用特徴量抽出部113は、参照フレームの特徴領域毎に、特徴ベクトルを抽出する。具体的には、参照用特徴領域抽出部112によって抽出された局所不変特徴領域から、高次元の特徴ベクトルを抽出する。局所不変特徴量を抽出する技術として、例えば非特許文献4に記載された技術がある。例えば、SIFTアルゴリズムでは、特徴領域を複数のブロックに分割し、各ブロックから輝度勾配の方向を重み付きヒストグラムとして抽出されたものを特徴量とする。
辞書生成部114は、最初に、多数の特徴ベクトルを、k個のクラスタにクラスタリングする(例えばk-means)。次に、各クラスタの代表ベクトルに、一意に整数値を割り当てる。以下では、量子化された整数値を、「単語」(word)と記述する。各クラスタiの代表ベクトルfiが、単語iの代表ベクトルと規定される。本発明によれば、テキスト検索における転置インデックスを用いており、そこでインデキシングされるものが「単語」となる。これによって、単語iをk次元ベクトルに量子化する。生成される辞書は、量子化後の整数値iと、その代表ベクトルfiとのペアを有する。
図3は、k個のクラスタリングを表す説明図である。
図3(a)によれば、参照フレーム毎に、多数の特徴領域が表されている。図3(b)によれば、多数の特徴領域に基づく特徴ベクトルの集合が表されている。図3(c)によれば、多数の特徴ベクトルをk-meansを用いて分類されたk個のクラスタが表されている。
参照用単語生成部115は、参照フレームから抽出された特徴ベクトル集合のそれぞれのベクトルfjを、辞書生成部114によって生成された辞書を参照し、k個の整数値に量子化する。そして、代表ベクトルfiの中で最もfjに近い代表ベクトルを持つ単語iに割り当て、参照フレームに存在する単語集合に変換する。参照用単語生成部115によれば、参照用映像から得られた参照フレームそれぞれについて、k個の単語が存在するか否かという単語存在情報を取得できる。
転置インデックス生成部116は、単語i毎に、当該単語を含むフレームのフレーム番号を対応付ける(単語出現リスト)。そして、単語出現リストに基づく転置インデックスが生成される。
表1は、各参照フレームに対する単語出現リストの例を表す。
Figure 2011248671
表1によれば、「○」となっているセルは、対応する参照フレームについて、対応する単語(実際には局所特徴量)が存在したことを表す。インデックスは、単語存在情報に基づいて作成されるが、基本的に、○の数はセルの数(単語の数k)と比較して非常に少ない。例えば、○の数は、各フレームにおいて抽出された局所不変特徴領域の数にほぼ等しく1000程度となる。これに対し、単語の数kは100,000程度に設定される。この場合、セルの数は、○の数の100倍程度になる。従って、このままの単語存在情報で保持することは、極めて非効率的である。
表1のように、スパース(まばら、スカスカ)な情報である単語存在情報を、効率的に保持するために、転置インデックスを用いる。これによって、インデックスのサイズを小さくし、有効な検索精度を維持する。
「転置インデックス」とは、単語IDを、フレーム番号に置き換えたものである。即ち、文章検索における転置インデックスは、各単語と、それらの単語が出現する文章IDとからなる。ここで、文章IDとしては、一般的に、先の文章IDに対する差分(ギャップ)が記憶される。画像(映像)検索における転置インデックスは、各単語(特徴量)と、それらの単語(特徴量)が存在する画像ID(フレームID又は差分)とからなる(例えば非特許文献1参照)。
このように作成された転置インデックスには、インデックスのサイズと検索精度との間に、以下のようなトレードオフが存在する。即ち、参照フレームサンプリング部111についてどのようなフレームレートでサンプリングするかによって、インデックスのサイズが異なり、同時にこれが検索精度にも影響を与える。
具体的には、高フレームレートでサンプリングすると、転置インデックスを利用する場合についても、フレームレートにほぼ比例する形でインデックスのサイズが増加する。逆に、低フレームレートでサンプリングすると、インデックスのサイズは減少するが、それに従って検索精度が低下する。これは、インデックスを作成する際に利用したリファレンスのフレームと、クエリからサンプリングされたフレームの時間的ずれが発生することに基づく。
そこで、本発明の転置インデックス生成部116によれば、高フレームレートでサンプリングされた参照フレームについて、以下の3つのステップの処理を実行することによってインデックスサイズを削減する。
(S1)単語削除
(S2)単語連結
(S3)連長符号化及び圧縮
本発明によれば、連長符号化及び圧縮の処理(S3)に特徴があるが、その前段ステップとして、単語削除(S1)及び/又は単語連結(S2)の処理を実行することが好ましい。尚、S1及びS2両方の処理を実行する場合であっても、単語削除(S1)の後に単語連結(S2)を実行してもよいし、単語連結(S2)の後に単語削除(S1)を実行してもよい。
(S1)単語削除の処理は、連長符号化及び圧縮の処理(S3)の前に実行することによって、圧縮効率を向上させることができる。即ち、当該単語iについて、フレーム番号の連続する数が所定フレーム連続数以内である場合、これらフレーム番号が存在しないものとし、これらフレーム番号を符号化しない。所定フレーム連続数以内でしか連続していない単語を、その区間では存在しないものとする(単語削除)。
表2は、表1について、単語削除の処理を実行した後の単語出現リストを表す。表2によれば、所定フレーム連続数T2は、例えば「1」に設定されている。これによって、連続せず単独で出現した単語は、その区間では存在しないものとする。尚、「×」は、単語削除の処理によって削除された部分である。
Figure 2011248671
表3は、表1について、所定フレーム連続数T2が「2」に設定された場合における、単語削除の処理を実行した後の単語出現リストを表す。
Figure 2011248671
このように、所定フレーム連続数T2を制御することによって、転置インデックスを連長で表現した場合におけるインデックスサイズを減少させることができる。また、このように、非常に短い間隔でしか出現しない単語は、フレームのずれやその他のノイズの影響を受けやすい単語であると考えられる。そのために、削除することに基づく検索精度への影響は最小限に抑えられる。
(S2)単語連結の処理も、連長符号化及び圧縮の処理(S3)の前に実行することによって、圧縮効率を向上させることができる。
当該単語iについて、所定フレーム間隔数以内の数のフレーム番号が存在しないことによってフレーム番号が不連続となっている場合、存在しないフレーム番号が存在するものとしてフレーム番号を連続にし、連続するフレーム番号を符号化する。即ち、所定フレーム間隔数以内に再度出現した単語を、一定のフレーム間隔で全て存在するものとする(単語連結化)。
表4は、表1について、単語連結化した単語出現リストを表す。表4によれば、所定フレーム間隔数T1は、例えば「1」に設定されている。これによって、フレーム間隔数1で再度出現した単語は、存在するものとする。尚、「○」は、本来出現していた単語の部分である。「−」は、本来出現していないが前後T1フレーム以内に単語が存在しているため連結された部分である。
Figure 2011248671
表5は、表1について、所定フレーム間隔数T1が「2」に設定された場合における、単語連結化した単語出現リストを表す。
Figure 2011248671
このように、所定フレーム間隔数T1を制御することによって、転置インデックスを連長で表現した場合におけるインデックスサイズを減少させることができる。
(S3)最後に、本発明に基づく連長符号化及び圧縮の処理について説明する。表6は、表1と同様に、各参照フレームに対する単語出現リストを表す。
Figure 2011248671
転置インデックスは、各単語i毎に、その単語が出現したフレーム番号を保持する。そして、その後の符号化処理における圧縮効率を向上させるために、フレーム番号の差分(ギャップ)を導出し、実際のフレーム番号の代わりにギャップを保持する。
連長符号化及び圧縮の処理は、連続するフレーム番号をブロックにまとめ、隣接するブロック間のフレーム番号のギャップ(差分)と各ブロック内の連長(連続フレーム数)とを導出する。
表6の単語IDは、以下のようなフレーム番号、ギャップ及び連長を有する。
[単語ID=1]
(フレーム番号,連長):(1,1),(4,2),(7,1),(10,3),・・
(ギャップ,連長) :(1,1),(3,2),(2,1),(3, 3),・・
(ギャップ) : 1, 3, 2, 3, ・・
(連長) : 1 , 2 , 1 , 3 ,・・
・フレーム番号1は、先のフレーム番号0から「ギャップ1」となり、1個存在する。
・フレーム番号4は、先のフレーム番号1から「ギャップ3」となり、2個連続する。
・フレーム番号7は、先のフレーム番号5から「ギャップ2」となり、1個存在する。
・フレーム番号10は、先のフレーム番号7から「ギャップ3」となり、3個連続する。
・・・・・・・・
[単語ID=2]
(フレーム番号,連長):(2,1),(6,1),(9,2),(14,3),・・
(ギャップ,連長) :(2,1),(4,1),(3,2),(4, 3),・・
(ギャップ) : 2, 4, 3, 4, ・・
(連長) : 1 , 1 , 2 , 3 ,・・
・フレーム番号2は、先のフレーム番号0から「ギャップ2」となり、1個存在する。
・フレーム番号6は、先のフレーム番号2から「ギャップ4」となり、1個存在する。
・フレーム番号9は、先のフレーム番号6から「ギャップ3」となり、2個連続する。
・フレーム番号14は、先のフレーム番号10から「ギャップ4」となり、3個連続する。
・・・・・・・・
[単語ID=3]
(フレーム番号,連長):(7,2),(12,3),・・・
(ギャップ,連長) :(7,2),(4, 3),・・・
(ギャップ) : 7, 4, ・・・
(連長) : 2 , 3 ,・・・
・フレーム番号7は、先のフレーム番号0から「ギャップ7」となり、2個連続する。
・フレーム番号12は、先のフレーム番号8から「ギャップ4」となり、3個連続する。
・・・・・・・・
[単語ID=k]
(フレーム番号,連長):(3,1),(5,1),(12,3),・・・
(ギャップ,連長) :(3,1),(2,1),(7, 3),・・・
(ギャップ) : 3, 2, 7, ・・・
(連長) : 1 , 1 , 3 ,・・・
・フレーム番号3は、先のフレーム番号0から「ギャップ3」となり、1個存在する。
・フレーム番号5は、先のフレーム番号3から「ギャップ2」となり、1個存在する。
・フレーム番号12は、先のフレーム番号5から「ギャップ7」となり、3個連続する。
・・・・・・・・
表7は、転置インデックスのデータ構造を表す。
Figure 2011248671
表7によれば、単語IDに基づく単語が出現した先のフレーム位置(gap)から、どのくらい連長(dur)しているかを表す。これは、単語ID毎に、0個以上のgap及びdurのペアが対応付けられる。
[単語ID=1]
・先のフレーム位置0からgap1となるフレーム位置1から、1個連続する。
・先のフレーム位置1からgap3となるフレーム位置4から、2個連続する。
・先のフレーム位置5からgap2となるフレーム位置7から、1個連続する。
・先のフレーム位置7からgap3となるフレーム位置10から、3個連続する。
[単語ID=2]
・先のフレーム位置0からgap2となるフレーム位置2から、1個連続する。
・先のフレーム位置2からgap4となるフレーム位置6から、1個連続する。
・先のフレーム位置6からgap3となるフレーム位置9から、2個連続する。
[単語ID=3]
・先のフレーム位置0からgap7となるフレーム位置7から、2個連続する。
・先のフレーム位置8からgap4となるフレーム位置12から、3個連続する。
・・・・・・・
[単語ID=k]
・先のフレーム位置0からgap3となるフレーム位置3から、1個連続する。
・先のフレーム位置3からgap2となるフレーム位置5から、1個連続する。
・先のフレーム位置5からgap7となるフレーム位置12から、3個連続する。
そして、ギャップの数列と、連長の数列とを、整数符号化した転置インデックスを生成する。整数符号化のアルゴリズムとしては、例えばVariable byte coding、Simple9、PForDelta、Rice coding等を用いることができる。文書や画像の転置インデックスでは、連長を利用せず、ギャップの数列を用いるが、これは隣接する文書IDや画像ID間に出現する単語に相関がなく、同じ単語が連続して出現することがまれである場合に有効である。一方で、映像については、フレーム間に強い相関があり、同じ単語が連続して出現することが多い。この特性を利用して、本発明では、転置インデックスに連長符号化を導入している。
本発明によれば、連長表現にするために、転置インデックスに登録情報数を削減することができる。更に、ギャップ及び連長それぞれを、異なる符号化方式(符号化パラメータ)で符号化することによって、転置インデックスのサイズを大きく削減することができる。
図4は、ギャップのみ又は連長のみをそれぞれ、異なる符号化パラメータで符号した場合のサイズを表す。
図4によれば、符号化方式PForDeltaによって符号化したサイズが表されている。横軸には、PForDeltaにおける異なるパラメータを表す。図4によれば、ギャップのみのサイズの分布と、連長のみのサイズの分布とは、異なっていることが理解できる。即ち、ギャップの符号化に最適なパラメータと、連長の符号化に最適なパラメータとは異なる。一般に、連長は小さな値をとるのに対し、ギャップは大きな値をとることが多い。そのために、それぞれ最適なパラメータであっても、連長は小さく、ギャップは大きくなる。
図5は、ギャップのみを符号化した場合と、ギャップ及び連長を符号化した場合とにおける転置インデックスのサイズを表す。
図5によれば、符号化方式PForDeltaによって符号化したサイズが表されている。ギャップ及び連長を符号化した場合は、ギャップ及び連長をそれぞれ最適な異なるパラメータに設定したものである。ギャップ及び連長を最適な異なるパラメータで符号化することによって、ギャップのみを最適なパラメータで符号化する場合よりも、インデックスサイズを低減(およそ半分程度)することができる。
最後に、転置インデックス記憶部117は、作成された転置インデックスを記憶する。
図6は、本発明の映像検索装置における検索機能を更に含む機能構成図である。
図6によれば、映像検索装置1は検索部12を更に有し、検索部12は、キーフレームサンプリング部121と、キー用特徴領域抽出部122と、キー用特徴量抽出部123と、キー用単語生成部124と、インデックス検索部128と、フレーム検出部129とを有する。これら機能構成部も、装置に搭載されたコンピュータを機能させる映像検索プログラムを実行することによって実現される。
尚、図7は、参照用映像における検索キー用映像の対応を表す説明図である。図7によれば、検索キー用フレームは、例えば表1における映像の5〜8フレームが切り取られたものであるとする。表8には、参照用フレーム(表1と同様)に対して、以下の単語存在情報を持つ検索キー用フレームが入力されたとする。検索キー用フレームは多くの場合に、再圧縮等によって映像品質が変化しており、参照用フレームとは完全に一致しない。そのため、表8では検索キー用フレームをわずかに参照用のフレームから変化させて表示させている。
Figure 2011248671
表8は、単語IDwiとフレーム番号tiのペア(wi,ti)で表すと、(1,1)、(2,2)、(3,3)、(3,4)、…、(k、1)となる。
キーフレームサンプリング部121は、検索キー用映像のフレーム列の中から複数のキーフレームを選択する。キーフレームサンプリング部121は、検索キー用映像に対して、前述した参照フレームサンプリング部111と同様に機能する。
キー用特徴領域抽出部122は、キーフレーム毎に、多数の特徴領域を抽出する。キー用特徴領域抽出部122は、キーフレームに対して、前述した参照用特徴領域抽出部112と同様に機能する。
キー用特徴量抽出部123は、キーフレームの特徴領域毎に、特徴ベクトルを抽出する。キー用特徴量抽出部123は、キーフレームの特徴領域に対して、前述した参照用特徴量抽出部113と同様に機能する。
キー用単語生成部124は、キーフレームから抽出された特徴ベクトル集合のそれぞれのベクトルfjを、辞書生成部114の辞書を参照し、代表ベクトルの中で最もfjに近い代表ベクトルを持つ単語iに割り当て、キーフレームに存在する単語集合に変換する。キー用単語生成部124は、キーフレームの特徴ベクトルに対して、前述した参照用単語生成部115と同様に機能する。
インデックス検索部128は、転置インデックス記憶部117を用いて、キーフレームのキー単語iを含む1つ又は連続の参照フレーム番号から、キーフレーム番号を引いたフレーム番号を検索する。
フレーム検出部129は、キー用映像毎に、複数のキーフレームに基づいて検索された参照フレーム番号の数を投票し、投票数が最も多い参照フレーム番号が、キー用映像の先頭フレームに対応するものとして検出する。検索キー用フレームの単語IDwiとフレーム番号tiのペア(wi,ti)の集合(w1、t1)、…、(wx、tx)を用いて、転置インデックスを参照し、参照用フレームのどの区間が検索キー用フレームと最も類似しているかを検索する。ここで、xは、検索キー用映像における(重複を含む)単語出現数の合計である。
図8は、フレーム検出部129における参照フレーム番号の投票のためのフローチャートである。
(S81)最初に、投票テーブルを初期化する。投票テーブルは、フレーム番号毎の投票数からなる。
(S82)検索キー用フレームの単語IDwiとフレーム番号tiのペア(wi,ti)とについて、単語IDを順に処理する。そのために、S86との間で、検索キー用フレームについてiを増分しつつ繰り返す。
(S83)参照フレームの転置インデックスから、検索キーフレームの転置インデックスの単語wiを参照し、参照フレームのペア(t,d)を取得する。
(S84)検索キー用フレームについて、先のフレーム番号からギャップtを足したフレーム番号を順に処理する。そのために、S87との間で、jを増分しつつ繰り返す。
(S85)投票テーブルに対して、先のフレーム番号からギャップtを増分したフレーム番号から、連長djまでに、1増分して投票する。djは、dur(連長)を表す。具体的には、図9で後述する。
(S86)全てのjについて、S85を繰り返すべく、S84へ移行する。
(S87)全てのiについて、S83〜S85を繰り返すべく、S82へ移行する。
図9は、本発明における投票結果を表すグラフである。
(S91)先の参照フレームの単語ID0にgap1を増分した単語ID1から、検索キーフレームの単語ID1のoffset1を差し引いて、先頭に合わせるべく+1にし、位置1を算出する。そして、位置1から、参照フレームのdur(連長)の1個について1増分するべく投票する。
先の参照フレームの単語ID1にgap3を増分した単語ID4から、検索キーフレームの単語ID1のoffset1を差し引いて、先頭に合わせるべく+1にし、位置4を算出する。そして、位置4から、参照フレームのdur(連長)の2個について1増分するべく投票する。
先の参照フレームの単語ID5にgap2を増分した単語ID7から、検索キーフレームの単語ID1のoffset1を差し引いて、先頭に合わせるべく+1にし、位置7を算出する。そして、位置7から、参照フレームのdur(連長)の1個について1増分するべく投票する。
・・・・・・・
(S92)先の参照フレームの単語ID0にgap2を増分した参照フレームの単語ID2から、検索キーフレームの単語ID2のoffset2を差し引いて、先頭に合わせるべく+1にし、位置2を算出する。そして、位置2から、参照フレームのdur(連長)の1個について1増分するべく投票する。
先の参照フレームの単語ID2にgap4を増分した単語ID6から、検索キーフレームの単語ID2のoffset2を差し引いて、先頭に合わせるべく+1にし、位置5を算出する。そして、位置5から、参照フレームのdur(連長)の1個について1増分するべく投票する。
先の参照フレームの単語ID6にgap3を増分した単語ID9から、検索キーフレームの単語ID1のoffset2を差し引いて、先頭に合わせるべく+1にし、位置8を算出する。そして、位置8から、参照フレームのdur(連長)の2個について1増分するべく投票する。
・・・・・・
(S93)先の参照フレームの単語ID0にgap7を増分した参照フレームの単語ID7から、検索キーフレームの単語ID3のoffset3を差し引いて、先頭に合わせるべく+1にし、位置5を算出する。そして、位置5から、参照フレームのdur(連長)の2個について1増分するべく投票する。
・・・・・・
(S94)先の参照フレームの単語ID0にgap7を増分した参照フレームの単語ID7から、検索キーフレームの単語ID3のoffset4を差し引いて、先頭に合わせるべく+2にし、位置5を算出する。そして、位置5から、参照フレームのdur(連長)の2個について1増分するべく投票する。
・・・・・・
最終的な投票結果によれば、フレーム番号5の投票数が、局所最大となる。局所最大となったフレーム番号が局所最大であって、且つ、所定閾値を越える投票数の場合、そのフレーム番号を先頭として参照用映像は、検索キー用映像と一致又は類似するものと判定できる。尚、投票数が所定閾値を越えない場合には、一致又は類似すると判定しない。
図10は、従来技術における投票結果を表すグラフである。
投票のアルゴリズムは、前述した図8と全く同様(本発明と同様)である。また、図10によれば、図9と同様に、フレーム番号5の投票数が、局所最大となる。しかしながら、本発明の図9の連長符号化を用いた方法によれば、図10と比較して、転置インデックスのサイズが小さいのみならず、投票の処理回数も極めて少ない。これによって、本発明は、従来技術と比較して、転置インデックスのサイズが小さく且つ投票の処理回数も少ないにも関わらず、同様の結果が得られることが理解される。
以上、詳細に説明したように、本発明の映像検索装置、プログラム及び方法によれば、転置インデックスを用いて映像を検索する技術について、インデックスサイズと検索精度との間のトレードオフを改善することができる。即ち、映像の検索精度を維持しつつ、転置インデックスのサイズを削減することができる。
前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。
1 映像検索装置
10 参照用映像蓄積部
11 インデックス生成部
111 参照フレームサンプリング部
112 参照用特徴領域抽出部
113 参照用特徴量抽出部
114 辞書生成部
115 参照用単語生成部
116 転置インデックス生成部
117 転置インデックス記憶部
12 検索部
121 キーフレームサンプリング部
122 キー用特徴領域抽出部
123 キー用特徴量抽出部
124 キー用単語生成部
128 インデックス検索部
129 フレーム検出部
2 端末
3 正当著作権者の映像サーバ
4 映像サーバ

Claims (9)

  1. 多数の参照用映像の中から、検索キー用映像を用いて、参照用映像を検索する映像検索装置であって、
    参照用映像のフレーム列の中から複数の参照フレームを選択する参照フレームサンプリング手段と、
    前記参照フレーム毎に、多数の特徴領域を抽出する参照用特徴領域抽出手段と、
    前記参照フレームの前記特徴領域毎に、特徴ベクトルを抽出する参照用特徴量抽出手段と、
    多数の前記特徴ベクトルをk個のクラスタにクラスタリングし、各クラスタiの代表ベクトルfiを単語iの代表ベクトルと規定する辞書生成手段と、
    前記参照フレームから抽出された特徴ベクトル集合のそれぞれのベクトルfjを、前記辞書を参照し、代表ベクトルの中で最もfjに近い代表ベクトルを持つ単語iに割り当て、前記参照フレームに存在する単語集合に変換する参照用単語生成手段と、
    前記単語i毎に、当該単語を含むフレームのフレーム番号を対応付け、連続する前記フレーム番号をブロックにまとめ、隣接するブロック間のフレーム番号のギャップ(差分)と各ブロック内の連長(連続フレーム数)とを導出し、前記ギャップの数列と前記連長の数列とを符号化した転置インデックスを生成する転置インデックス生成手段と、
    符号化された前記転置インデックスを記憶する転置インデックス記憶手段と
    を有することを特徴とする映像検索装置。
  2. 前記転置インデックス記憶手段は、前記ギャップ及び前記連長それぞれを、異なる符号化方式で符号化することを特徴とする請求項1に記載の映像検索装置。
  3. 前記転置インデックス生成手段は、当該単語iについて、前記フレーム番号の連続する数が所定フレーム連続数以内である場合、これらフレーム番号が存在しないものとし、これらフレーム番号を符号化しないことを特徴とする請求項1又は2に記載の映像検索装置。
  4. 前記転置インデックス生成手段は、当該単語iについて、所定フレーム間隔数以内の数のフレーム番号が存在しないことによって前記フレーム番号が不連続となっている場合、存在しないフレーム番号が存在するものとして前記フレーム番号を連続にし、連続するフレーム番号を符号化することを特徴とする請求項1から3のいずれか1項に記載の映像検索装置。
  5. 前記参照用特徴領域抽出手段は、Harrisコーナー検出器、Fastコーナー検出器、Harris-Affine、Hessian-Affine、SIFT(Scale-Invariant Feature Transform)、MSERアルゴリズムのいずれか1つ以上を利用して特徴領域を抽出し、
    前記参照用特徴量抽出手段は、SIFTを用いて前記特徴ベクトルを抽出し、
    前記辞書生成手段は、k-means を用いてk個のクラスタへクラスタリングすることによって、前記単語iをk次元ベクトルに量子化する
    ことを特徴とする請求項1から4のいずれか1項に記載の映像検索装置。
  6. 検索キー用映像のフレーム列の中から複数のキーフレームを選択するキーフレームサンプリング手段と、
    前記キーフレーム毎に、多数の特徴領域を抽出するキー用特徴領域抽出手段と、
    前記キーフレームの前記特徴領域毎に、特徴ベクトルを抽出するキー用特徴量抽出手段と、
    前記キーフレームから抽出された特徴ベクトル集合のそれぞれのベクトルfjを、前記辞書生成手段の辞書を参照し、代表ベクトルの中で最もfjに近い代表ベクトルを持つ単語iに割り当て、前記参照フレームに存在する単語集合に変換するキー用単語生成手段と、
    前記転置インデックス記憶手段を用いて、前記キーフレームのキー単語iを含む1つ又は連続の参照フレーム番号から、前記キーフレーム番号を引いたフレーム番号を検索するインデックス検索手段と、
    前記キー用映像毎に、複数のキーフレームに基づいて検索された前記参照フレーム番号の数を投票し、投票数が最も多い参照フレーム番号が、前記キー用映像の先頭フレームに対応するものとして検出するフレーム検出手段と
    を更に有することを特徴とする請求項1から5のいずれか1項に記載の映像検索装置。
  7. 当該映像検索装置は、正当著作権者によって作成された正当映像コンテンツから、第三者が、不正に複製し又は二次的著作物となる不当映像コンテンツを作成した際に、当該不当映像コンテンツに基づく正当映像コンテンツを検索するものであり、
    前記参照用映像は、前記正当映像コンテンツであり、
    前記検索キー用映像は、前記不当映像コンテンツである
    ことを特徴とする請求項1から6のいずれか1項に記載の映像検索装置。
  8. 多数の参照用映像の中から、検索キー用映像を用いて、当該検索キー用映像を含む参照用映像を検索する装置に搭載されたコンピュータを機能させる映像検索プログラムであって、
    参照用映像のフレーム列の中から複数の参照フレームを選択する参照フレームサンプリング手段と、
    前記参照フレーム毎に、多数の特徴領域を抽出する参照用特徴領域抽出手段と、
    前記参照フレームの前記特徴領域毎に、特徴ベクトルを抽出する参照用特徴量抽出手段と、
    多数の前記特徴ベクトルをk個のクラスタにクラスタリングし、各クラスタiの代表ベクトルfiを単語iの代表ベクトルと規定する辞書生成手段と、
    前記参照フレームから抽出された特徴ベクトル集合のそれぞれのベクトルfjを、前記辞書を参照し、代表ベクトルの中で最もfjに近い代表ベクトルを持つ単語iに割り当て、前記参照フレームに存在する単語集合に変換する参照用単語生成手段と、
    前記単語i毎に、当該単語を含むフレームのフレーム番号を対応付け、連続する前記フレーム番号をブロックにまとめ、隣接するブロック間のフレーム番号のギャップ(差分)と各ブロック内の連長(連続フレーム数)とを導出し、前記ギャップの数列と前記連長の数列とを符号化した転置インデックスを生成する転置インデックス生成手段と、
    符号化された前記転置インデックスを記憶する転置インデックス記憶手段と
    してコンピュータを機能させることを特徴とする映像検索プログラム。
  9. 多数の参照用映像の中から、検索キー用映像を用いて、当該検索キー用映像を含む参照用映像を検索する装置における映像検索方法であって、
    参照用映像のフレーム列の中から複数の参照フレームを選択する第1のステップと、
    前記参照フレーム毎に、多数の特徴領域を抽出する第2のステップと、
    前記参照フレームの前記特徴領域毎に、特徴ベクトルを抽出する第3のステップと、
    多数の前記特徴ベクトルをk個のクラスタにクラスタリングし、各クラスタiの代表ベクトルfiを単語iの代表ベクトルと規定する第4のステップと、
    前記参照フレームから抽出された特徴ベクトル集合のそれぞれのベクトルfjを、前記辞書を参照し、代表ベクトルの中で最もfjに近い代表ベクトルを持つ単語iに割り当て、前記参照フレームに存在する単語集合に変換する第5のステップと、
    前記単語i毎に、当該単語を含むフレームのフレーム番号を対応付け、連続する前記フレーム番号をブロックにまとめ、隣接するブロック間のフレーム番号のギャップ(差分)と各ブロック内の連長(連続フレーム数)とを導出し、前記ギャップの数列と前記連長の数列とを符号化した転置インデックスを生成する第6のステップと
    符号化された前記転置インデックスを記憶する第7のステップと
    を有することを特徴とする映像検索方法。
JP2010121767A 2010-05-27 2010-05-27 多数の参照用映像の中から検索キー用映像を用いて検索する映像検索装置、プログラム及び方法 Pending JP2011248671A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010121767A JP2011248671A (ja) 2010-05-27 2010-05-27 多数の参照用映像の中から検索キー用映像を用いて検索する映像検索装置、プログラム及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010121767A JP2011248671A (ja) 2010-05-27 2010-05-27 多数の参照用映像の中から検索キー用映像を用いて検索する映像検索装置、プログラム及び方法

Publications (1)

Publication Number Publication Date
JP2011248671A true JP2011248671A (ja) 2011-12-08

Family

ID=45413847

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010121767A Pending JP2011248671A (ja) 2010-05-27 2010-05-27 多数の参照用映像の中から検索キー用映像を用いて検索する映像検索装置、プログラム及び方法

Country Status (1)

Country Link
JP (1) JP2011248671A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014137637A (ja) * 2013-01-15 2014-07-28 Nippon Hoso Kyokai <Nhk> 画像処理装置及び画像処理プログラム
JP2015026202A (ja) * 2013-07-25 2015-02-05 日本放送協会 番組検索装置及び番組検索プログラム
JP2015084223A (ja) * 2013-10-25 2015-04-30 株式会社リコー スケール及び深度空間に変換することによるライトフィールドの処理
JP2018067809A (ja) * 2016-10-19 2018-04-26 日本電信電話株式会社 映像検出装置、方法、及びプログラム
CN111651625A (zh) * 2020-04-29 2020-09-11 中国平安财产保险股份有限公司 图像检索方法、装置、电子设备及存储介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014137637A (ja) * 2013-01-15 2014-07-28 Nippon Hoso Kyokai <Nhk> 画像処理装置及び画像処理プログラム
JP2015026202A (ja) * 2013-07-25 2015-02-05 日本放送協会 番組検索装置及び番組検索プログラム
JP2015084223A (ja) * 2013-10-25 2015-04-30 株式会社リコー スケール及び深度空間に変換することによるライトフィールドの処理
JP2018067809A (ja) * 2016-10-19 2018-04-26 日本電信電話株式会社 映像検出装置、方法、及びプログラム
CN111651625A (zh) * 2020-04-29 2020-09-11 中国平安财产保险股份有限公司 图像检索方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
US11132555B2 (en) Video detection method, server and storage medium
US11361017B1 (en) Method to differentiate and classify fingerprints using fingerprint neighborhood analysis
Chou et al. Pattern-based near-duplicate video retrieval and localization on web-scale videos
US9185338B2 (en) System and method for fingerprinting video
CN106557545B (zh) 视频检索方法和装置
US8175392B2 (en) Time segment representative feature vector generation device
CN104520875A (zh) 优选用于搜索和检索目的的从视频内容提取描述符的方法和装置
WO2008156296A1 (en) System and method for managing digital videos using video features
JP5366212B2 (ja) 多数の参照用映像の中から検索キー用映像を用いて検索する映像検索装置、プログラム及び方法
Varna et al. Modeling and analysis of correlated binary fingerprints for content identification
Liu et al. An image-based near-duplicate video retrieval and localization using improved edit distance
JP2011248671A (ja) 多数の参照用映像の中から検索キー用映像を用いて検索する映像検索装置、プログラム及び方法
US20150304705A1 (en) Synchronization of different versions of a multimedia content
KR101373176B1 (ko) 복제 동영상정보 검출방법 및 장치, 저장매체
Wu et al. Self-similarity-based partial near-duplicate video retrieval and alignment
JP2010186307A (ja) 動画コンテンツ識別装置および動画コンテンツ識別方法
Liao et al. An efficient content based video copy detection using the sample based hierarchical adaptive k-means clustering
Liu et al. Video copy detection by conducting fast searching of inverted files
Chou et al. Multimodal video-to-near-scene annotation
Tseytlin et al. Content based video retrieval system for distorted video queries
JP2013070158A (ja) 映像検索装置およびプログラム
Abbass et al. Hybrid-based compressed domain video fingerprinting technique
CN111291224A (zh) 视频流数据处理方法、装置、服务器及存储介质
Chou et al. Near-duplicate video retrieval by using pattern-based prefix tree and temporal relation forest
Sandeep et al. Application of Perceptual Video Hashing for Near-duplicate Video Retrieval