JP2011039776A - Moving image content detection device - Google Patents
Moving image content detection device Download PDFInfo
- Publication number
- JP2011039776A JP2011039776A JP2009186566A JP2009186566A JP2011039776A JP 2011039776 A JP2011039776 A JP 2011039776A JP 2009186566 A JP2009186566 A JP 2009186566A JP 2009186566 A JP2009186566 A JP 2009186566A JP 2011039776 A JP2011039776 A JP 2011039776A
- Authority
- JP
- Japan
- Prior art keywords
- shot boundary
- feature amount
- moving image
- content
- image content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Storage Device Security (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、動画コンテンツ検出装置に関する。 The present invention relates to a moving image content detection apparatus.
近年のブロードバンドの普及、およびHDD(Hard Disk Drive)、DVD(Digital Versatile Disk)、Blu-ray disc等のストレージの大容量化に伴って、デジタルコンテンツを著作権者やコンテンツプロバイダ(以下、「著作権者等」という)の許諾を得ずに、ネットワークを介して共有・公開することが容易になってきており、このような不正な共有・公開が問題となっている。このような問題に対して、デジタルコンテンツの指紋(特徴量)を利用して、複数のデジタルコンテンツの中から、著作権者等が自由配布を許諾していない特定のコンテンツを自動的に検出する技術が提案されている(特許文献1、2、非特許文献1参照)。
With the spread of broadband in recent years and the increase in storage capacity of HDDs (Hard Disk Drives), DVDs (Digital Versatile Disks), Blu-ray discs, etc., digital content has become copyright holders and content providers (hereinafter referred to as "Copyrights"). It has become easy to share and publish via a network without obtaining permission from a right holder or the like), and such illegal sharing and publishing has become a problem. To deal with such problems, the digital content fingerprint (feature value) is used to automatically detect a specific content that the copyright holder or the like does not permit free distribution from among a plurality of digital content. Techniques have been proposed (see
特許文献1では、三次元周波数解析と主成分分析を用いて、コンテンツの特徴量を記述し、特定のコンテンツを検出している。この手法では、空間周波数解析(DCT)で得られた係数に時間軸方向への周波数解析(FFT)を加えた三次元周波数解析を行ない、さらに主成分分析により三次元周波数解析で得られた係数から特徴量を抽出している。特許文献2では、特許文献1で利用されている特徴量を用いて、流通コンテンツと類似している特定コンテンツを絞り込み、絞り込めない場合には、位相限定相関法を用いて流通コンテンツと最も類似している特定コンテンツを決定し、閾値によって同一コンテンツであるか否かを判定している。
In
また、非特許文献1ではまず、映像から隣接フレームの輝度値の平均絶対誤差(Motion intensity)を求め、その平均絶対誤差が極値を取るフレームをキーフレームとする。次に各キーフレームからHarris detectorによってコーナーと呼ばれる特徴点を検出し、その周辺からGaussian derivativeを用いて特徴量を抽出する。その後、各特徴量とデータベースとのマッチング・投票を行い、投票数が多いコンテンツを不正流通コンテンツとして検出している。この手法では映像に時間的な編集が行なわれた場合であっても、不正流通コンテンツを検出できるようにしている。
In
J.Law-To et al.,“Video Copy Detection:A Comparative Study,”in Proc.ACM CIVR’07,pp.371-378,2007. J. Law-To et al., “Video Copy Detection: A Comparative Study,” in Proc. ACM CIVR’07, pp.371-378, 2007.
しかしながら、特許文献1および2で開示されている手法では、動画コンテンツ1つから1つの特徴量を抽出するため、例えば、動画コンテンツを分割する等の時間軸方向の編集が行われると検出ができなくなるという問題がある。一方、非特許文献1で開示されている手法では、下記の問題がある。まず、Motion intensityによってキーフレームを選択しているが、Motion intensityの極値がノイズに対して不安定であり、キーフレームがずれることによって精度が低下するという問題がある。また、Motion intensityによって抽出されるキーフレームの数がシーンによって異なり、冗長なキーフレームが抽出されることにより処理時間が増加するという問題がある。さらに、抽出されるGaussian derivative特徴量は圧縮ノイズ等に比較的敏感であるため、このようなノイズが付加された場合には精度が低下するという問題がある。
However, in the methods disclosed in
本発明は、このような事情に鑑みてなされたものであり、著作権者等が自由配布を許諾していないコンテンツの一部分を切り出すなど時間軸方向の編集が行われた不正流通コンテンツや、全体が圧縮ノイズなどによって劣化した不正流通コンテンツであっても、精度よくかつ高速に検出することができる技術を提供することを目的とする。 The present invention has been made in view of such circumstances, and illegally distributed content that has been edited in the time axis direction, such as cutting out a part of content that the copyright holder or the like does not permit free distribution, It is an object of the present invention to provide a technology capable of accurately and rapidly detecting even illegally distributed content deteriorated due to compression noise or the like.
上記問題を解決するために、本発明の一態様である動画コンテンツ検出装置は、動画コンテンツのショット境界を検出するショット境界検出部と、ショット境界検出部によって検出されたショット境界の前後のフレームから特徴量を抽出するショット境界特徴量抽出部と、一の動画コンテンツに係る特徴量であってショット境界特徴量抽出部によって抽出されたショット境界特徴量を、記憶部に記憶されている複数の動画コンテンツに係るショット境界特徴量と照合する特徴量照合部とを備えることを特徴とする。 In order to solve the above problem, a video content detection apparatus according to an aspect of the present invention includes a shot boundary detection unit that detects a shot boundary of video content, and frames before and after the shot boundary detected by the shot boundary detection unit. A shot boundary feature amount extraction unit that extracts feature amounts, and a plurality of moving images in which a shot boundary feature amount that is a feature amount related to one moving image content and is extracted by the shot boundary feature amount extraction unit is stored in the storage unit And a feature amount matching unit for matching with a shot boundary feature amount related to the content.
上記動画コンテンツ検出装置において、ショット境界検出部は、動画コンテンツを構成するフレームであって一定間隔毎に存在する所定のフレームの情報を用いて一定間隔内にショット境界が存在するか否かを判定し、ショット境界が存在すると判定した一定間隔内の各フレーム間がショット境界であるか否かを判定して、動画コンテンツのショット境界を検出してもよい。 In the moving image content detection apparatus, the shot boundary detection unit determines whether a shot boundary exists within a certain interval using information of a predetermined frame that is included in the moving image content and is present at certain intervals. Then, the shot boundary of the moving image content may be detected by determining whether or not each frame within a certain interval determined to have a shot boundary is a shot boundary.
上記動画コンテンツ検出装置において、所定のフレームは、圧縮後の動画コンテンツを構成するフレームのうち他のフレームを参照することなくデコードできるフレームであってもよい。 In the moving image content detection apparatus, the predetermined frame may be a frame that can be decoded without referring to another frame among frames constituting the compressed moving image content.
上記動画コンテンツ検出装置において、ショット境界特徴量抽出部は、ショット境界の前後のフレームの相関を基にショット境界特徴量を抽出してもよい。また、ショット境界特徴量抽出部は、ショット境界の前後のフレームをそれぞれ複数のブロックに分割し、これら複数のブロックから一定個数のブロックの組を作成し、それらブロックの組の相関を基に前記ショット境界特徴量を抽出してもよい。 In the moving image content detection apparatus, the shot boundary feature amount extraction unit may extract the shot boundary feature amount based on a correlation between frames before and after the shot boundary. Further, the shot boundary feature amount extraction unit divides the frames before and after the shot boundary into a plurality of blocks, creates a set of a certain number of blocks from the plurality of blocks, and based on the correlation between the sets of the blocks, A shot boundary feature amount may be extracted.
上記動画コンテンツ検出装置において、ショット境界特徴量抽出部は、ショット境界の前後のフレームをそれぞれ複数のブロックに分割し、これら複数のブロックから一定個数のブロックの組を作成し、ブロックの組の平均輝度、動き強度、エッジ量の大小関係の少なくとも1つを基にショット境界特徴量を抽出するようにしてもよい。 In the moving image content detection apparatus, the shot boundary feature amount extraction unit divides each frame before and after the shot boundary into a plurality of blocks, creates a set of a predetermined number of blocks from the plurality of blocks, and averages the set of blocks You may make it extract a shot boundary feature-value based on at least one of the magnitude relationship of a brightness | luminance, motion intensity | strength, and edge amount.
上記動画コンテンツ検出装置において、特徴量照合部は、一の動画コンテンツに係るショット境界特徴量と記憶部に記憶されている動画コンテンツに係るショット境界特徴量との距離を算出し、当該距離に基づいて一の動画コンテンツと記憶部に記憶されている動画コンテンツとを照合し、距離算出において、平均輝度、動き強度、エッジ量が近いブロックの組の大小関係は利用しないようにしもよい。 In the moving image content detection apparatus, the feature amount matching unit calculates a distance between the shot boundary feature amount related to one moving image content and the shot boundary feature amount related to the moving image content stored in the storage unit, and based on the distance Thus, the moving image content stored in the storage unit and the moving image content stored in the storage unit may be collated, and in the distance calculation, the magnitude relationship between the sets of blocks having similar average luminance, motion intensity, and edge amount may not be used.
本発明によれば、著作権者等が自由配布を許諾していないコンテンツの一部分を切り出すなど時間軸方向の編集が行われた不正流通コンテンツや、全体が圧縮ノイズなどによって劣化した不正流通コンテンツであっても、精度よくかつ高速に検出することができるようになる。 According to the present invention, illegal distribution content that has been edited in the time axis direction, such as cutting out a part of content that the copyright holder or the like has not permitted free distribution, or illegal distribution content that has deteriorated due to compression noise or the like as a whole. Even if it exists, it becomes possible to detect with high accuracy and high speed.
以下、本発明の一実施形態について図面を参照して説明する。本発明の一実施形態による動画コンテンツ検出装置1は、検査対象の動画コンテンツ(クエリコンテンツ)の特徴量と、著作権者等が自由配布を許諾していない特定のコンテンツ(以下、「リファレンスコンテンツ」という)の特徴量とを用いて、不正流通コンテンツと推測されるクエリコンテンツを検出する。動画コンテンツ検出装置1は、図1(a)に示すように、ショット境界検出部10、ショット境界特徴量抽出部20、特徴量登録部30、特徴量照合部40およびデータベース(記憶部)50を備える。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. The moving image
ショット境界検出部10は、動画コンテンツ(リファレンスコンテンツおよびクエリコンテンツ)のショット境界を検出する。具体的には、まず、ショット境界検出部10は、動画コンテンツを構成するフレームであって一定間隔毎に存在する所定のフレームの情報を用いて一定間隔内にショット境界が存在するか否かを判定する。所定のフレームは、例えば、圧縮された動画コンテンツを構成するフレームのうち他のフレームを参照することなくデコードできるフレーム、即ち、該フレーム単独でデコードできるフレームである。GOP(Group of Picture)におけるIフレーム(Intra Picture)は、上記所定のフレームに相当する。
The shot
続いて、ショット境界検出部10は、ある一定間隔内にショット境界が存在すると判定した場合、当該一定間隔内の各フレーム間について、各フレーム間がショット境界に該当するか否かを更に判定する。一方、ショット境界検出部10は、ショット境界が存在しないと判定した一定間隔内の各フレーム間については、各フレーム間がショット境界に該当するか否かを更に判定しない。即ち、ショット境界検出部10は、所定のフレームの情報を用いて各一定間隔のショット境界の存否を判定し、ショット境界が存在すると判定した一定間隔内からのみショット境界を検出する。
Subsequently, when the shot
ショット境界を検出したショット境界検出部10は、ショット境界の前後2枚のフレームをキーフレームとして抽出する。以下、キーフレームとして抽出した前後2枚のフレームをキーフレームペアともいう。キーフレームペアを抽出したショット境界検出部10は、抽出したキーフレームペアをショット境界特徴量抽出部20に供給する。
The shot
以下、図2乃至図4を用いてショット境界検出部10の動作を詳細に説明する。なお、ショット境界検出部10において利用する特徴量は、例えば、下記参考文献1に記載の特徴量としてもよいが、高速化のために単体で最も精度が高いとされる色ヒストグラム間のカイ二乗値とする。
(参考文献1)K.Matsumoto,M.Naito,K.Hoashi,and F.Sugaya,“SVM-Based Shot Boundary Detection With a Novel Feature,”in Proc.of ICME’06, pp.1837-1840,2006.
Hereinafter, the operation of the shot
(Reference 1) K. Matsumoto, M. Naito, K. Hoashi, and F. Sugaya, “SVM-Based Shot Boundary Detection With a Novel Feature,” in Proc. Of ICME'06, pp.1837-1840, 2006 .
図2のフローチャートに示すように、ショット境界検出部10は、まず、動画コンテンツ(リファレンスコンテンツおよびクエリコンテンツ)内のあるGOPに係るIフレームを抽出する(ステップS10)。例えば、ショット境界検出部10は、本処理を実行する毎に、動画コンテンツの先頭から順にIフレームを抽出する。
As shown in the flowchart of FIG. 2, the shot
ショット境界検出部10は、当該Iフレームを含むGOP内にショット境界が存在するか否かを判定する(ステップS20)。以下、あるGOP内にショット境界が存在するか否かを判定する処理をGOPレベルショット境界検出処理という。
The shot
図3(a)は、GOPレベルショット境界判定処理に利用する特徴量の抽出法を示す概念図である。ショット境界検出部10は、例えば、GOPレベルショット境界判定処理の判定対象となるGOP、即ち当該Iフレームを含むGOPの前後各N個のIフレームから特徴量を抽出する。
FIG. 3A is a conceptual diagram showing a feature amount extraction method used for the GOP level shot boundary determination process. For example, the shot
具体的には、まず、ショット境界検出部10は、各IフレームをX×Y個の領域に等分割し、等分割後の各領域から色ヒストグラムを抽出する。なお、上記参考文献1では、Ohtaの色空間でのヒストグラムを利用しているが、色空間の変換に必要な計算量を省くためYCbCr色空間でのヒストグラムを利用する。次に、ショット境界検出部10は、隣接するIフレームの同一の領域のヒストグラム間距離として、下記式(1)を用いてカイ二乗値dXを算出する。
Specifically, first, the shot
次に、ショット境界検出部10は、SVM判別に利用する特徴量として、下記式(2)を用いて、全ての隣接Iフレーム間の全ての領域に対するカイ二乗値dXであるVinterを算出する。
Next, the shot
ショット境界検出部10は、上記特徴量を利用し、予めショット境界のラベリングを行ったコンテンツを利用し、当該Iフレームを含むGOP内にショット境界が存在する特徴を正例、それ以外の特徴を負例として学習しておくことでGOPレベルショット境界判定処理を実現する。
The shot
ショット境界検出部10は、GOPレベルショット境界検出処理の結果、当該Iフレームを含むGOP内にショット境界が存在すると判定した場合(ステップS20:Yes)、当該GOP内のあるフレーム間がショット境界に該当するか否かを判定する(ステップS30)。例えば、ショット境界検出部10は、本処理を実行する毎に、当該GOPの先頭のフレーム間から順に、ショット境界に該当するか否かを判定する。以下、あるフレーム間がショット境界に該当するか否かを判定する処理をフレームレベルショット境界検出処理という。即ち、ショット境界検出部10は、GOPレベルショット境界検出処理においてGOP内にショット境界が存在すると判定されたGOPについて、フレームレベルショット境界検出処理を実行する。
As a result of the GOP level shot boundary detection process, the shot
図3(b)は、フレームレベルショット境界判定処理に利用する特徴量の抽出法を示す概念図である。フレームレベルショット境界判定処理において利用する特徴量は、図3(b)に示す通り、GOPレベル境界検出処理で利用した特徴量とほぼ同じである。但し、特徴量を抽出するフレームが、判定対象のGOP外に存在する場合は、不要なデコード処理の発生を防ぐため、判定対象のGOP外に存在するフレームとの間のカイ二乗値dXを実際には求めずにショット境界でないフレーム間のカイ二乗値の平均値を利用する。 FIG. 3B is a conceptual diagram illustrating a feature amount extraction method used for frame level shot boundary determination processing. The feature quantity used in the frame level shot boundary determination process is substantially the same as the feature quantity used in the GOP level boundary detection process, as shown in FIG. However, if the frame from which the feature amount is extracted exists outside the determination target GOP, the chi-square value d X between the frame existing outside the determination target GOP is set to prevent generation of unnecessary decoding processing. An average value of chi-square values between frames that are not actually obtained and that are not shot boundaries is used.
ショット境界検出部10は、フレームレベルショット境界検出処理の結果、当該GOP内の当該フレーム間がショット境界に該当すると判定した場合(ステップS30:Yes)、当該フレーム間の前後のキーフレームペアを抽出する(ステップS40)。なお、キーフレームペアを抽出したショット境界検出部10は、ショット境界に該当すると判定した当該フレーム間の時刻(例えば、コンテンツの先頭からの時刻。以下、「ショット境界時刻」という)に対応付けて当該キーフレームペアを一時記憶する。
The shot
ショット境界検出部10は、当該GOP内の当該フレーム間がショット境界に該当しないと判定した場合(ステップS30:No)、または、キーフレームペアを抽出した場合(ステップS40)、当該GOP内の全フレーム間を対象にフレームレベルショット境界判定処理を実施したか否かを判断する(ステップS50)。ショット境界検出部10は、当該GOP内の全フレーム間を対象にフレームレベルショット境界判定処理を実施していないと判断した場合(ステップS50:No)、ステップS30に戻って、当該GOP内の次のフレーム間がショット境界に該当するか否かを判定する(ステップS30)。
When the shot
ショット境界検出部10は、当該Iフレームを含むGOP内にショット境界が存在しないと判定した場合(ステップS20:No)、または、当該GOP内の全フレーム間を対象にフレームレベルショット境界判定処理を実施したと判断した場合(ステップS50:Yes)、当該コンテンツ内の全GOPを対象にGOPレベルショット境界判定処理を実施したか否かを判断する(ステップS60)。ショット境界検出部10は、当該コンテンツ内の全GOPを対象にGOPレベルショット境界判定処理を実施していないと判断した場合(ステップS60:No)、ステップS10に戻って、当該コンテンツ内の次のGOPに係るIフレームを抽出する(ステップS10)。
When it is determined that there is no shot boundary in the GOP including the I frame (step S20: No), the shot
ショット境界検出部10は、当該コンテンツ内の全GOPを対象にGOPレベルショット境界判定処理を実施したと判断した場合(ステップS60:Yes)、コンテンツを識別するコンテンツIDとともに、一時記憶しているショット境界時刻とキーフレームペアとをショット境界特徴量抽出部20に供給し、本フローチャートは終了する。
When the shot
以上説明した様に、ショット境界検出においては、圧縮されたコンテンツの基本構造であるGOPに着目し、フレームレベルショット境界判定処理に先立ってGOPレベルショット境界検出処理を実行している。従って、デコード等の処理時間が削減され、ショット境界の検出処理が高速化する。なお、動画コンテンツの符号化情報を利用することによって、全フレームをデコードすることなく、ショット境界を高速に検出する手法が存在するが、当該方法は、特定のコーデックに依存した符号化情報を利用するため、特定のコーデックで圧縮された動画コンテンツのみにしか適用できず、汎用的ではない。 As described above, in shot boundary detection, attention is paid to GOP which is a basic structure of compressed content, and GOP level shot boundary detection processing is executed prior to frame level shot boundary determination processing. Accordingly, the processing time for decoding and the like is reduced, and the shot boundary detection process is accelerated. Note that there is a method for detecting shot boundaries at high speed without decoding all frames by using encoded information of video content, but this method uses encoded information that depends on a specific codec. Therefore, it can be applied only to moving image content compressed with a specific codec, and is not general purpose.
ショット境界特徴量抽出部20は、ショット境界検出部10から、コンテンツIDとショット境界時刻とキーフレームペアとを取得する。ショット境界特徴量抽出部20は、ショット境界検出部10から取得したキーフレームペアから特徴量(以下、「ショット境界特徴量」という)を抽出する。
The shot boundary feature
具体的には、ショット境界特徴量抽出部20は、各キーフレームの相関を基にショット境界特徴量を抽出する。例えば、ショット境界特徴量抽出部20は、各キーフレームをそれぞれ複数のブロックに分割し、これら複数のブロックから一定個数のブロックの組を作成し、それらブロックの組の相関を基にショット境界特徴量を抽出する。例えば、ショット境界特徴量抽出部20は、ブロックの組の平均輝度、動き強度、エッジ量の大小関係の少なくとも1つを基にショット境界特徴量を抽出する。
Specifically, the shot boundary feature
リファレンスコンテンツのショット境界特徴量を抽出したショット境界特徴量抽出部20は、当該リファレンスコンテンツに係るショット情報(コンテンツID、ショット境界時刻、ショット境界特徴量)を特徴量登録部30に供給する。クエリコンテンツのショット境界特徴量を抽出したショット境界特徴量抽出部20は、当該クエリコンテンツに係るショット情報(コンテンツID、ショット境界時刻、ショット境界特徴量)を特徴量照合部40に供給する。なお、ショット境界特徴量抽出部20は、例えば、ユーザからの入力に基づいて、当該コンテンツがリファレンスコンテンツであるかクエリコンテンツであるかを判断してもよい。例えば、動画コンテンツ検出装置はユーザからのモード選択を受け付けるモード選択受付部(非図示)を備え、モード選択受付部を介してリファレンスコンテンツのショット境界特徴量をデータベース50に登録する登録モードを受け付けた場合には、ショット境界特徴量抽出部20は当該コンテンツがリファレンスコンテンツであると判断し、クエリコンテンツとリファレンスコンテンツとを照合する照合モードを受け付けた場合には、ショット境界特徴量抽出部20は当該コンテンツがクエリコンテンツであると判断する。
The shot boundary feature
以下、ショット境界特徴量抽出部20がブロックの組のエッジ量の大小関係を基にショット境界特徴量を抽出する例を説明する。まず、ショット境界特徴量抽出部20は、各キーフレームをそれぞれN×M個の領域に分割する。次に、ショット境界特徴量抽出部20は、下記式(3)または下記式(4)を用いて、分割後の各領域のエッジ量E(i,j)を算出する。
Hereinafter, an example in which the shot boundary feature
次に、ショット境界特徴量抽出部20は、図4に示すように、下記式(5)(6)にて表されるN×Mビットのショット境界特徴量B(i,j)を算出する。但し、エッジ量E−(i,j)はショット境界の前のキーフレーム、エッジ量E+(i,j)はショット境界の後のキーフレームである。
Next, as shown in FIG. 4, the shot boundary feature
以上説明した様に、ショット境界特徴量の抽出においては、ビット表現されるショット境界特徴量を生成するため、XORによる高速な特徴量間の距離計算が可能になる。また、データベース50の登録(蓄積)コストの削減が可能になる。なお、画像をビット列表現する手法は複数存在するが、それらの主な課題はロバスト性である。ロバスト性とは、画像に何らかの改変が加えられた際に、特徴量がなるべく変化しない特性のことである。従来の手法は、主にロゴやキャプション等のパターンが挿入された際に、大きく特徴量が変化してしまうという課題があった。本実施形態の手法では、1枚のフレームから特徴量を抽出するのではなく、キーフレームペア、すなわち2枚のキーフレームの相関情報を利用して特徴量を抽出するため、パターン挿入を含む様々な改変にロバストな特徴量を抽出することができる。
As described above, in the extraction of the shot boundary feature value, since the shot boundary feature value expressed in bits is generated, the distance between the feature values can be calculated at high speed by XOR. Further, the registration (accumulation) cost of the
なお、具体例として、ショット境界特徴量抽出部20がブロックの組のエッジ量の大小関係を基にショット境界特徴量を抽出する例を説明したが、平均輝度、動き強度の大小関係を基に境界特徴量を抽出する場合も同様である。
As a specific example, the example in which the shot boundary feature
特徴量登録部30は、ショット境界特徴量抽出部20から、リファレンスコンテンツに係るショット情報(コンテンツID、ショット境界時刻、ショット境界特徴量)を取得する。リファレンスコンテンツに係るショット情報を取得した特徴量登録部30は、当該リファレンスコンテンツに係るショット情報をデータベース50に登録(記憶)する。なお、特徴量登録部30は、ショット境界特徴量のハッシュ値を算出し、当該ハッシュ値をハッシュキーとして、各ショット情報を複数のハッシュテーブルに記憶する。なお、ハッシングは、例えば、下記参考文献2に記載のLocal Sensitive Hashingを利用してもよい。
(参考文献2)Datar,M.,N.Immorlica,P.Indyk and V.Mirrokni,“Locality-Sensitive Hashing Scheme Based on p-Stable Distributions,” Proceedings of the 20th Symposium on Computational Geometry,pp.253-262,2004.
The feature
(Reference 2) Datar, M., N. Immorlica, P. Indyk and V. Mirrokni, “Locality-Sensitive Hashing Scheme Based on p-Stable Distributions,” Proceedings of the 20th Symposium on Computational Geometry, pp.253-262 , 2004.
以上説明した様に、特徴量の登録においては、各ショット情報は、ショット境界特徴量を基に、例えばLocal Sensitive Hashingによって複数のハッシュテーブルに登録されるため、探索処理が高速化する。 As described above, in registering feature amounts, each piece of shot information is registered in a plurality of hash tables based on shot boundary feature amounts, for example, by Local Sensitive Hashing.
データベース50は、リファレンスコンテンツに係るショット情報(コンテンツID、ショット境界の時刻、ショット境界特徴量)が登録(記憶)されている。なお、上述の如く、各ショット情報は、ショット境界特徴量をハッシュキーとして、複数のハッシュテーブルに登録されている。
The
特徴量照合部40は、ショット境界特徴量抽出部20から、クエリコンテンツに係るショット情報(コンテンツID、ショット境界時刻、ショット境界特徴量)を取得する。クエリコンテンツに係るショット情報を取得した特徴量照合部40は、当該クエリコンテンツに係るショット境界特徴量を、データベース50に記憶されている複数のリファレンスコンテンツに係るショット境界特徴量と照合する。即ち、特徴量照合部40は、クエリコンテンツのショット境界特徴量を取得した場合、リファレンスコンテンツのショット境界特徴量を予め登録しているデータベース50を参照し、クエリコンテンツがリファレンスコンテンツの少なくとも一部をコピーしたものに該当するか否かを照合する。
The feature
具体的には、まず、特徴量照合部40は、クエリコンテンツの各ショット境界のショット情報(ショット境界の時刻、ショット境界特徴量)を基に、クエリコンテンツと最も類似するリファレンスコンテンツの区間を推定し、当該区間の類似度と閾値とを利用してクエリコンテンツがリファレンスコンテンツのコピーであるか否かを判定する。類似するリファレンス区間の推定は、クエリコンテンツとリファレンスコンテンツのショット境界同士のマッチングを投票によって纏めることで実現する。また、当該区間の類似度は、当該区間の投票数に基づいて算出する。
Specifically, the feature
以下、図5を用いて特徴量照合部40の動作を具体的に説明する。なお、データベース50には、複数のリファレンスコンテンツに係るショット情報(コンテンツID、ショット境界時刻、ショット境界特徴量)が登録されているものとする。
Hereinafter, the operation of the feature
特徴量照合部40は、ショット境界特徴量抽出部20から、図5(a)に示すクエリコンテンツQに係るショット情報(コンテンツID、ショット境界時刻、ショット境界特徴量)を取得する。なお、ショット境界時刻t1はショット境界Q1のショット境界時刻、ショット境界時刻t2はショット境界Q2のショット境界時刻、ショット境界時刻t3はショット境界Q3のショット境界時刻であるものとする。
The feature
クエリコンテンツQに係るショット情報を取得した特徴量照合部40は、クエリコンテンツQの各ショット境界Q1、Q2、Q3の各ショット特徴量と類似するショット特徴量を有するリファレンスコンテンツに係るショット境界をマッチングによってデータベース50から検索する。具体的には、特徴量照合部40は、クエリコンテンツとリファレンスコンテンツのショット特徴量同士の距離(類似度)が一定以下になるショット境界、または、当該ショット特徴量同士の距離が近い方から所定の個数のショット境界の何れかを類似するショット境界として検索する。
The feature
具体的には、特徴量照合部40は、上述のショット特徴量同士の距離は、例えば、クエリコンテンツに係るショット境界特徴量であるN×Mビット、リファレンスコンテンツに係るショット境界特徴量であるN×Mビットの同士のハミング距離として単純なビット操作によって高速に算出可能である。例えば、N×Mビットのクエリコンテンツに係るショット境界特徴量Bが下記式(7)、N×Mビットのリファレンスコンテンツに係るショット境界特徴量B’が下記式(8)によって表される場合、特徴量照合部40は、N×Mビットのビット列(B XOR B’)を生成し、当該ビット列(B XOR B’)に含まれる1の個数をBとB’のハミング距離として算出する。
Specifically, the feature
但し、特徴量照合部40は、平均輝度、動き強度、エッジ量が近いブロックの組の大小関係については、上記距離の算出対象から除外してもよい。例えば、エッジ量が近いブロックの組の大小関係を上記距離の算出対象から除外する場合、クエリコンテンツのショット境界の前後の各キーフレームのブロック(i,j)のエッジ量をE−(i,j)およびE+(i,j)とするとき、|E+(i,j)−E−(i,j)|が小さい方から一定個のブロックに相当するビットに関しては距離算出に利用しないようにしてもよい。カイ二乗値dX(i,j)が小さいブロックは、E−(i,j)とE+(i,j)の大小関係が変わりやすいためビットの値の信頼性が低いためである。
However, the feature
なお、距離の算出に|E+(i,j)−E−(i,j)|が小さい方から一定個のブロックに相当するビットを利用しないときは、まず、特徴量照合部40は、下記式(9)によって表されるマスク特徴量H(i,j)を作成する。そして、特徴量照合部40は、上述のビット列(B XOR B’)に代えて、下記式(10)によって表されるN×Mビットのビット列Hを利用して、ビット列((B XOR B’) AND H)を生成し、生成したビット列((B XOR B’) AND H)に含まれる1の個数をBとB’のハミング距離として算出する。
The distance for the calculation of | E + (i, j) -E - (i, j) | when not using the bits corresponding to a predetermined number of blocks from the smaller, first, the
以上にようにして、特徴量照合部40は、例えば、図5(b)に示すように、リファレンスコンテンツAの各ショット境界A1、A2、A3、A4、A5、リファレンスコンテンツBの各ショット境界B1、B2、B3を検索する。
As described above, the feature
リファレンスコンテンツに係るショット境界を検索した特徴量照合部40は、マッチングを行った全てのショット境界のペアに関して、(リファレンスコンテンツに係るショット境界の時刻−クエリコンテンツに係るショット境界の時刻)に投票を行う。当該投票は、コピー区間の先頭の推定である。即ち、当該投票は、図5(c)に示すように、マッチングが正しければ、実際のコピー区間の先頭と推定される時刻に集中し、マッチングが正しくなければ、分散する。従って、特徴量照合部40は、最も多くの投票が集中する時刻への投票数が閾値以上であるか否かを判定し、閾値以上であれば、当該時刻はコピー区間の先頭であると推定する。なお、最も多くの投票が集中する時刻はコピー区間の先頭であると推定した特徴量照合部40は、当該クエリコンテンツは不正流通コンテンツであると推測した旨の情報を外部に出力する。また、特徴量照合部40は、当該クエリコンテンツは不正流通コンテンツであると推測した旨の情報に代えてまたは加えて、例えば、クエリコンテンツおよびリファレンスコンテンツに係るショット情報、並びに、コピー区間の先頭位置を示す情報などを外部に出力してもよい。
The feature
以上説明したように、動画コンテンツ検出装置1は、クエリコンテンツの特徴量とリファレンスコンテンツの特徴量とを用いて、不正流通コンテンツと推測されるクエリコンテンツを検出する。動画コンテンツ検出装置1は、クエリコンテンツがリファレンスコンテンツの少なくとも一部を含む不正流通コンテンツであるか否かを判定する。
As described above, the moving image
動画コンテンツ検出装置1では、ショット境界からキーフレームを抽出するため、ノイズにロバストかつ冗長でないキーフレームが抽出される。また、ショット境界の前後2枚のキーフレームの相関を基に算出した特徴量を利用するため、コンテンツの変容(例えば、編集、改変、ノイズ)に対してロバストなマッチングが可能になる。また、コンテンツ内の全フレームのデコードを要しないため、高速に検出することができる。即ち、動画コンテンツ検出装置1によれば、著作権者等が自由配布を許諾していないコンテンツの一部分を切り出すなど時間軸方向の編集が行われた不正流通コンテンツや、全体が圧縮ノイズなどによって劣化した不正流通コンテンツであっても、精度よくかつ高速に検出することができるようになる。
In the moving image
なお、動画コンテンツ検出装置1は、図1(a)に示すように、ショット境界検出部10、ショット境界特徴量抽出部20および特徴量照合部40に加え、特徴量登録部30およびデータベース50を備える例を説明したが、当該構成に限定されない。例えば、動画コンテンツ検出装置1は、図1(b)に示すように、ショット境界検出部10、ショット境界特徴量抽出部20および特徴量照合部40のみを備えてもよい。動画コンテンツ検出装置1は、図1(b)に示す構成の場合、上述のショット境界検出部10、ショット境界特徴量抽出部20および特徴量登録部30を備える外部の装置によってリファレンスコンテンツに係るショット情報が登録されている外部のデータベース50を参照し、不正流通コンテンツと推測されるクエリコンテンツを検出する。
As shown in FIG. 1A, the moving image
なお、本発明の一実施形態による動画コンテンツ検出装置1の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、本発明の一実施形態による動画コンテンツ検出装置1の各処理に係る上述した種々の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
Note that a program for executing each process of the moving image
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。 Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time. The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.
1 動画コンテンツ検出装置 10 ショット境界検出部 20 ショット境界特徴量抽出部 30 特徴量登録部 40 特徴量照合部 50 データベース(記憶部)
DESCRIPTION OF
Claims (7)
前記ショット境界検出部によって検出されたショット境界の前後のフレームから特徴量を抽出するショット境界特徴量抽出部と、
一の動画コンテンツに係る特徴量であって前記ショット境界特徴量抽出部によって抽出されたショット境界特徴量を、記憶部に記憶されている複数の動画コンテンツに係る前記ショット境界特徴量と照合する特徴量照合部と
を備えることを特徴とする動画コンテンツ検出装置。 A shot boundary detector for detecting the shot boundary of the video content;
A shot boundary feature amount extraction unit that extracts feature amounts from frames before and after the shot boundary detected by the shot boundary detection unit;
A feature that is a feature amount related to one moving image content, and that matches a shot boundary feature amount extracted by the shot boundary feature amount extraction unit with the shot boundary feature amount related to a plurality of moving image contents stored in a storage unit A video content detection apparatus comprising: a quantity verification unit.
動画コンテンツを構成するフレームであって一定間隔毎に存在する所定のフレームの情報を用いて一定間隔内に前記ショット境界が存在するか否かを判定し、前記ショット境界が存在すると判定した一定間隔内の各フレーム間がショット境界であるか否かを判定して、動画コンテンツのショット境界を検出する
ことを特徴とする請求項1に記載の指定動画コンテンツ検出装置。 The shot boundary detection unit
It is determined whether or not the shot boundary exists within a fixed interval using information of a predetermined frame that is a frame constituting video content and exists at fixed intervals, and the fixed interval at which the shot boundary is determined to exist The designated moving image content detection apparatus according to claim 1, wherein a shot boundary of moving image content is detected by determining whether or not each of the frames is a shot boundary.
圧縮後の動画コンテンツを構成するフレームのうち他のフレームを参照することなくデコードできるフレームである
ことを特徴とする請求項2に記載の指定動画コンテンツ検出装置。 The predetermined frame is:
3. The designated moving image content detection apparatus according to claim 2, wherein the specified moving image content detection apparatus is a frame that can be decoded without referring to other frames among the frames constituting the compressed moving image content.
前記ショット境界の前後のフレームの相関を基に前記ショット境界特徴量を抽出する
ことを特徴とする請求項2または請求項3の何れかに記載の指定動画コンテンツ検出装置。 The shot boundary feature amount extraction unit
4. The designated moving image content detection apparatus according to claim 2, wherein the shot boundary feature amount is extracted based on a correlation between frames before and after the shot boundary.
前記ショット境界の前後のフレームをそれぞれ複数のブロックに分割し、これら複数のブロックから一定個数のブロックの組を作成し、それらブロックの組の相関を基に前記ショット境界特徴量を抽出する
ことを特徴とする請求項2または請求項3の何れかに記載の指定動画コンテンツ検出装置。 The shot boundary feature amount extraction unit
The frame before and after the shot boundary is divided into a plurality of blocks, a set of a predetermined number of blocks is created from the plurality of blocks, and the shot boundary feature amount is extracted based on the correlation of the block sets. The designated moving image content detection apparatus according to claim 2, wherein the moving image content detection apparatus is a specified moving image content detection apparatus.
前記ショット境界の前後のフレームをそれぞれ複数のブロックに分割し、これら複数のブロックから一定個数のブロックの組を作成し、ブロックの組の平均輝度、動き強度、エッジ量の大小関係の少なくとも1つを基に前記ショット境界特徴量を抽出する
ことを特徴とする請求項2または請求項3の何れかに記載の指定動画コンテンツ検出装置。 The shot boundary feature amount extraction unit
Each of the frames before and after the shot boundary is divided into a plurality of blocks, a set of a certain number of blocks is created from the plurality of blocks, and at least one of the magnitude relationships of the average luminance, motion intensity, and edge amount of the block set The specified moving image content detection apparatus according to claim 2, wherein the shot boundary feature amount is extracted based on.
前記一の動画コンテンツに係る前記ショット境界特徴量と前記記憶部に記憶されている動画コンテンツに係る前記ショット境界特徴量との距離を算出し、当該距離に基づいて前記一の動画コンテンツと前記記憶部に記憶されている動画コンテンツとを照合し、
前記距離算出において、平均輝度、動き強度、エッジ量が近いブロックの組の大小関係は利用しない
ことを特徴とする請求項2または請求項3の何れかに記載の指定動画コンテンツ検出装置。 The feature amount matching unit
A distance between the shot boundary feature amount related to the one moving image content and the shot boundary feature amount related to the moving image content stored in the storage unit is calculated, and the one moving image content and the storage are calculated based on the distance Check the video content stored in the
4. The designated moving image content detection apparatus according to claim 2, wherein the distance calculation does not use a magnitude relationship between a set of blocks having close average brightness, motion intensity, and edge amount.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009186566A JP5297297B2 (en) | 2009-08-11 | 2009-08-11 | Video content detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009186566A JP5297297B2 (en) | 2009-08-11 | 2009-08-11 | Video content detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011039776A true JP2011039776A (en) | 2011-02-24 |
JP5297297B2 JP5297297B2 (en) | 2013-09-25 |
Family
ID=43767482
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009186566A Expired - Fee Related JP5297297B2 (en) | 2009-08-11 | 2009-08-11 | Video content detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5297297B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015515770A (en) * | 2012-02-29 | 2015-05-28 | アルトネット、インコーポレイテッド | Stream recognition and filtering |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001313956A (en) * | 2000-03-07 | 2001-11-09 | Lg Electronics Inc | Hierarchical mixed type shot conversion detecting method in mpeg compression video environment |
-
2009
- 2009-08-11 JP JP2009186566A patent/JP5297297B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001313956A (en) * | 2000-03-07 | 2001-11-09 | Lg Electronics Inc | Hierarchical mixed type shot conversion detecting method in mpeg compression video environment |
Non-Patent Citations (4)
Title |
---|
CSNG200202409008; 児玉 明: 'MSP情報検索システムとその動画像検索エンジンに関する検討' 情報処理学会研究報告 第2001巻 第19号, 20010302, p.43-48, 社団法人情報処理学会 * |
CSNG200900423023; 内田 祐介: 'カラーレイアウト記述子を利用したコピー検出手法の性能評価' 電子情報通信学会技術研究報告 第109巻 第65号, 20090521, p.159-164, 社団法人電子情報通信学会 * |
JPN6013001065; 内田 祐介: 'カラーレイアウト記述子を利用したコピー検出手法の性能評価' 電子情報通信学会技術研究報告 第109巻 第65号, 20090521, p.159-164, 社団法人電子情報通信学会 * |
JPN6013001067; 児玉 明: 'MSP情報検索システムとその動画像検索エンジンに関する検討' 情報処理学会研究報告 第2001巻 第19号, 20010302, p.43-48, 社団法人情報処理学会 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015515770A (en) * | 2012-02-29 | 2015-05-28 | アルトネット、インコーポレイテッド | Stream recognition and filtering |
US9703869B2 (en) | 2012-02-29 | 2017-07-11 | Global File Systems Holdings, Llc | Stream recognition and filtering |
US10068017B2 (en) | 2012-02-29 | 2018-09-04 | Global File Systems Holdings, Llc | Stream recognition and filtering |
Also Published As
Publication number | Publication date |
---|---|
JP5297297B2 (en) | 2013-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9177209B2 (en) | Temporal segment based extraction and robust matching of video fingerprints | |
US8175413B1 (en) | Video identification through detection of proprietary rights logos in media | |
US9185338B2 (en) | System and method for fingerprinting video | |
JP5878238B2 (en) | Method and apparatus for comparing pictures | |
US20090274364A1 (en) | Apparatus and methods for detecting adult videos | |
US20090290752A1 (en) | Method for producing video signatures and identifying video clips | |
US20160063343A1 (en) | Method for selecting frames from video sequences based on incremental improvement | |
Lian et al. | Content-based video copy detection–a survey | |
GB2464123A (en) | Event-based temporal video fingerprinting | |
Küçüktunç et al. | Video copy detection using multiple visual cues and MPEG-7 descriptors | |
US20110216939A1 (en) | Apparatus and method for tracking target | |
Kim et al. | Adaptive weighted fusion with new spatial and temporal fingerprints for improved video copy detection | |
US20150304705A1 (en) | Synchronization of different versions of a multimedia content | |
KR101373176B1 (en) | Copy video data detection method and apparatus, storage medium | |
JP2010186307A (en) | Moving image content identification apparatus and moving image content identification method | |
JP5297297B2 (en) | Video content detection device | |
Su et al. | Efficient copy detection for compressed digital videos by spatial and temporal feature extraction | |
KR101033296B1 (en) | Apparatus and method for extracting and decision-making of spatio-temporal feature in broadcasting and communication systems | |
JP2010263327A (en) | Feature vector computation apparatus and program | |
Gavade et al. | Passive blind forensic scheme for copy-move temporal tampering detection | |
Roopalakshmi et al. | Robust features for accurate spatio-temporal registration of video copies | |
Bagiwa | Passive Video Forgery Detection Using Frame Correlation Statistical Features | |
Aminu Mustapha | Passive video forgery detection using frame correlation statistical features/Aminu Mustapha Bagiwa | |
Seidl et al. | A study of gradual transition detection in historic film material | |
Sandhya et al. | A comprehensive analysis of digital video forensics techniques and challenges |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20120229 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130308 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20130311 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130604 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130614 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |